日本生命米国法人によるオープンAIへの提訴内容は、対話型AI「チャットGPT」が弁護士資格を持たないまま法的助言を提供し、訴訟が再燃する事態を招いたというものです。長期障害保険給付をめぐり和解した女性が、チャットGPTの助言をもとに和解の破棄を目的とした法的手続きを多数行った結果、日本生命側は訴訟対応に多大な時間と費用を費やす事態に陥りました。同法人はオープンAIに対し損害賠償としておよそ1030万ドル(約16億円)を求め、アメリカ・イリノイ州の連邦地裁に提訴。対話型AIが無資格で法的助言を行ったことが問題視される初めての事例となる可能性も指摘されています。

このケースが浮き彫りにしているのは、AIの無規制状況が現実世界で深刻な影響を及ぼし始めたという事実です。チャットGPTの不適切な法的助言による損害は、単なる技術的ミス以上の問題です。
オープンAIをはじめとするAI企業が社会的責任を十分に認識しないままシステムを公開した結果、利用者や影響を受ける第三者が法的・経済的な負担を背負う事態が生まれています。この事例は規制や監督体制が欠如しているAI産業全体の構造的課題を示唆しています。
解決策として、以下の行動が必要です:
対話型AIが法的助言を提供する際に資格や監督機関を明示的に導入する規制の制定。サービス提供契約における利用者の警告強化、誤解を防ぐ表現の導入。被害を受けた企業や個人が迅速かつ手軽に補償を受けられる制度の確立。AIの技術進歩は期待できる側面を持っているものの、無責任な運用による被害を容認すれば信用を失うだけでなく、法的紛争が相次ぎ技術革新にも急ブレーキがかかる恐れがあります。責任ある運用が求められる時代が到来しているにもかかわらず、ここで怠るなら未来の発展は犠牲を払うことになるのです。
ネットからのコメント
1、AIが便利に使われる一方で、使い方を誤るとこんな問題も起きるのかと考えさせられます。便利な反面、専門資格が必要な分野では、誤った情報が大きなトラブルにつながることもあるんですね。
AIの言うことを参考程度にとどめる判断力が、これからは求められる気がします。誰もが手軽に使えるツールだからこそ、こうしたトラブルは他人事ではないと感じます。
2、AIに過度に頼り過ぎている人がいるが、まだ実用になって日が浅い。私が専門知識を持っている趣味のとある分野で調べるとレポートが嘘だらけなのが複数経験あって怖くて使えない。一見非常にもっともらしく説得力のある文章を出力するが、理由の背景すらもでっち上げで怖く感じる。どうやら間違った情報の方が多く流布していればそちらを拾って採用してしまうようだ。結局裏を取るのにきちんと調べねばならず、AIに丸投げするには何かの技術的ブレイクスルーもしくは数年かかると感じる。少し前にニュースになった中国が日本を貶めるためにAIを活用というのも、これを逆手に取っているような気がして怖さを感じる。
3、仕事に関する専門知識を問うと、結構な確率で、改訂前の古い情報を提示したり、ケースバイケースのところ一つだけ提示したり、例外事例を検索もせずに〇〇必須としたりと、間違えた回答をします。
趣味や個人的興味について問うならともかく、特に法令や行政手続き、資格手続きなど、間違えたらアウトなものに関しては、必ず自分で確認し裏を取るようにしないと取り返しがつかない事にもなりかねないと思います。
4、弁護士業法により、法律的助言が弁護士資格を持つものに限られているのは、誤ったアドバイスや無責任なアドバイスが重大な結果をもたらしかねないからだ。そしてどの分野でも、AIは時々いい加減な回答をするので、仕事などの場合はこちらが間違いをチェックできる程度の知識がない限り、AIを活用できない。そう考えると、法律の趣旨から考えて、当然オープンAIなど、AIの運営会社はAIが法律的アドバイスを行わないように制限を組み込んでおくべき。
引用元:https://news.yahoo.co.jp/articles/a396b3b041b03edaebae3066040efc0747eb2807,記事の削除・修正依頼などのご相談は、下記のメールアドレスまでお気軽にお問い合わせください。[email protected]