GACKTが、津波警報が発令された際にGoogleのAIが誤報で【すべて解除】と表示した件について、X(旧ツイッター)で苦言を呈した。彼は8日深夜に青森沖で発生した地震の際、AIが誤情報を示した報道に対し、「危機的状況でAIに判断を委ねることが問題」と指摘。AIは観測機関ではなく、誤情報を出す可能性があるため、ユーザーの危機管理能力の欠如を問題視する。
また、AIへの依存が人間の判断力を低下させるとして「自分で考えないと頭が悪くなる」と強く警告した。この投稿には、多くの共感の声が寄せられた。

危機的状況でAIに判断を任せることは、社会的に無責任です。GACKTが指摘するように、AIの誤情報に依存することで、安全を脅かすリスクが増える現状は看過できません。このような事態を避けるためには、次の3つの対策が必要です。まず、AIの情報を盲目的に信じるのではなく、公式機関の情報確認を徹底すること。次に、緊急時に信頼できる情報源とそのチェック方法についての教育を普及させること。そして、個々人が危機管理能力を養えるよう、情報リテラシーを向上させる取り組みが不可欠です。AIは便利ですが、それに依存することは人間性を失うほど危険です。自己判断力を磨くことは、自分自身を守るだけでなく、社会全体の安全を強化するものです。
ネットからのコメント
1、ゴルゴ13のさいとう・たかを先生なんかも、かなり昔、「青信号を鵜呑みにして、左右を見ずに渡る人もいるでしょ。大変恐い世の中になってきた」と語ってました。鵜呑み、とか、相手がミスしない前提で安易に自分の命を預けてしまう、みたいな意味では、おなじですよね。きっと太古の昔から、そういう人は必ず一定数いて、後を断たないんでしょうね。新しいツールが出来て、それに慣れてしまうと、疑うことを忘れる。自分の命の優先順位を、一瞬、忘れるんでしょうかね。
2、検索結果の最上段や要約ボックス、さらには通知やアラートにまで、AI生成文が半ば公式情報のように表示される時代になっている。特に高齢者やITリテラシーの低い層にとっては、それを正しい情報だと誤認しやすい構造そのものにも問題があるとも言える。これは個人の判断力低下に加え、プラットフォーム側の設計自体にも責任がある二重の問題だろう。GACKTの警鐘は正しい。同時に、個人の姿勢論だけで終わらせず、情報インフラ全体がどうあるべきかについて検証・議論する必要性も感じる。
3、このGACKTさんの意見には同意ですね。私の周りにも、「チャッピーが〜」とかいつも言ってる人いるし、先日もニュースで初対面の人との挨拶は?みたいな事を生成AIに聞いてたり。そういうのって、自分で考えるものなんじゃないのかな?って思うから、私は生成AIなんてものを使いたいとは思わない。最近の人は皆、タイパとかコスパばかり気にしてるけど、そんなものにばかり頼って自分で考える事をやめたら、成長はないと思ってる。生成AIの全てを否定するつもりはないが、何でもかんでもAIに聞いてる人を見ると、何とも言えない気持ちになります。
4、GACKTさんは良くも悪くも謎の多い方だが、言っている事は真っ当だなと思わされる事が多々あるから目が離せない。世界的にAIを普及させたいのは伝わってくるけど、検索かければ誤情報だらけのAIがノイズだし、コールセンターがAI任せになっているのもかえって不便。痒い所に手が届かないどころか痒くない所が新たに痒くなる事もしばしば。制度が高いと言われている画像なんかはディープフェイクの温床で害悪でしかないし、じゃあ絵なら実用化出来るのかと言えば破綻だらけで使い物にならない。
電気代圧迫の要因の一つになっているのもAI。AIってもはや百害あって一理なしでしかない無用の長物以外の何物でもないのに世界レベルで普及させたがるのは何故なんだろうと思う。
引用元:https://news.yahoo.co.jp/articles/1b9bd93b3cb9abc92af0db7b1b9573e5763857b7,記事の削除・修正依頼などのご相談は、下記のメールアドレスまでお気軽にお問い合わせください。[email protected]