生成AI技術による精巧な偽動画や画像が、衆院選の期間中に急速に拡散。具体例としては、存在しない高齢女性がインタビューに答える動画が200万回閲覧されるなど。さらに、政見放送を改ざんし、中道改革連合の代表たちが踊りだす動画も拡散。また、立候補者が中指を立てる偽画像や、日本人選手が特定政党を支持する偽動画なども流布されている。これらは個人の対策だけでは限界があり、専門家は早急な規制の必要性を訴えている。

この状況は、選挙期間中の偽情報の氾濫とそれに対する制度的な未整備を明らかにしています。生成AIの技術が進化し、個人による偽動画の作成が容易になった今、事態は日を追うごとに悪化しています。これにより、公平な選挙の妨げとなりかねず、その影響は選挙結果にも及ぶ可能性があります。規制が不十分なままでは、ある特定の意図によって公共の認識が操作され、民主主義の根幹が揺るがされる危険性が高まります。

まず第一に、生成AIによるコンテンツには明示的なラベル付けを義務化し、デジタルウォーターマークを導入して透明性を確保するべきです。次に、プラットフォーム側は偽情報を検出・削除するためのAI技術を高度化し、偽情報の拡散を制限する必要があります。さらに政府は、表現の自由を尊重しつつも、偽情報の影響を受けないよう、法的枠組みの整備を急ぐべきです。
この状況を放置すれば、真実に基づかない情報が氾濫し、国民の認識が歪められてしまいます。技術の進化に対応するには、今こそ具体的なアクションが求められています。これを怠り続けるなら、民主主義と社会の信用は取り返しのつかない打撃を受けるでしょう。
ネットからのコメント
1、生成AIは少し規制した方がいい動画や画像にはロゴや動画の最初にAIとわかるようにテロップを入れるのを義務かするくらいしないと本当に分からないそして、ちゃんとした罰則も設ける初回は注意程度で徐々に上げていき最終的には懲役もあるくらいに本当ならAI側で自主的にロゴなどを入れるのがいいと思う
2、AIによる偽動画がここまで自然になると、見分けるのは簡単ではありません。特に選挙期間中は、感情を強く刺激する映像ほど拡散されやすく、真偽を確認しないまま信じてしまう危険があります。発言内容が極端すぎないか、映像や音声に違和感はないか、複数の信頼できる情報源で確認する姿勢がより重要になっていると感じます。見る側のリテラシーが、選挙の公正さを守る鍵になると思います。
3、「見分け方」という考え方自体が見分けられるという過信・錯覚に繋がっている。今日この時点でAIを見破る特徴があっても明日には対策されている世界です。この記事の内容より、エキスパートコメントにあるようにSNSの情報そのものから距離を置くことが必要に思えます。SNSは楽しむために使うものであって、自分の人生にとって重要な情報収集や投票を含む行動の判断に使うこと自体が危険な使い方になってしまっている。
4、AI作成画像のニュースを観た事があるが初期は不自然な仕上がりで素人の自分でも見分けが出来たが、最近のソフトで作られると学習能力の精度が上がったからなのか、色味や経年劣化に依る変色を多数の作品を見た経験から見分ける以外に難しいと感じた。
ましてや動画ともなればフェイクニュースなどとは違いタチが悪いのを増産されるので、ゲームのデータを変更する事を法律で禁止したようにAIソフトに至っては国際裁判所で使用と大元を作る会社にソフトの作成その物を制作、販売を永久に禁止する、など決めなければまだ増えるし投稿されるとサーバーが潰されると思う。 実際に質が悪いAI画像を量産して投稿サイトのサーバーが圧迫するとかありませんでしたか?
引用元:https://news.yahoo.co.jp/articles/df5c40a099dd81a757b2033c5482b7dfb4e5abbd,記事の削除・修正依頼などのご相談は、下記のメールアドレスまでお気軽にお問い合わせください。[email protected]