生成AIの普及とともに、肖像や声を悪用した権利侵害が深刻化する中、法務省は権利保護に向けた法的な整理に着手した。2023年7月にガイドラインを公表予定で、24日に検討会初会合を開催する。俳優や声優の声・画像が生成AIで不正使用される事例があるが、関連判例がないため法的保護の枠組みが不明確で、被害者救済が困難だった。さらに、ディープフェイクポルノによる被害拡大も問題視され、特に子どもや一般市民が標的になるケースが悪質化している。法務省は業界団体や法律実務家に役立つガイドラインを作成し、一般の権利侵害予防策を提案する方針だ。

生成AI関連の権利侵害問題は技術の進化と倫理の遅延の象徴と言えます。その悪用による被害拡大は、社会道徳が弱体化する危険性を示しています。しかし、本質的な課題は法的対応の遅れです。不正に使われる肖像や音声は個人の財産であり、軽視すべきではありません。
また、「ディープフェイクポルノ」や子どもへの悪質な侵害に代表される事例は社会的影響が深刻で、現状の法律では十分な抑止力が働いていません。解決策として、①生成AI開発に倫理的規範を組み込むこと、②権利侵害発覚時の迅速対応を可能にする法整備、③国・国際機関による損害賠償の基準化が必要です。この問題を放置すれば、テクノロジーが人間の尊厳を侵害する時代を招く可能性があります。社会と法のバランスを即座に回復させなければなりません。
ネットからのコメント
1、こういう事はしっかりやった方がいいと思います。著作権侵害だと思わず気軽にやる人が大半だと思いますが、どこまでやると犯罪になるのかを明確にすることでリテラシー教育にも使いやすくなるでしょうし、違法なものを作る者への警告も出しやすくなるでしょう。迅速にガイドラインを出してユーザーだけでなくAI事業者やSNS事業者にも順守するよう指導してほしい。
2、権利侵害に関しては当然のことながら、AIフィルター的な制度を導入してほしい。SNSなどでまるで本物のように見える動画が拡散されてしまうからである。
イラン紛争が始まった際も、米軍の原子力空母が燃えて、まるで核汚染が始まっているような動画が貼られたり、かわいい動物がありえない動きをしたりする動画もある。知り合いの高齢者がすぐに信じて、そのような動画を拡散してきたこともあった。動画コンテンツやSNSにAIで作られた動画や画像を見たくないというチェック項目があるだけで、だいぶ不必要な混乱を招かなくてすむようになるはずである。そしてAIで作られる画像や動画には必ずなんらかのマークやサインが貼られるならば権利侵害に対しても、一定の歯止めが効くのではないだろうか。
3、AI黎明期ですが、本当に色んな規制が必要になってくると思う。子どものAI使用も大きな危険がはらんでいると思う。全て「正解」を出すAI、子どもの頃からAIを使い出せば、全てAIに頼り、やがては依存して行く。自らの頭で考えず、AI依存になればどうなるか、本当に恐ろしいと思う。
4、国が権利侵害のガイドラインを定める方針にやっと舵を切ったのは喜ばしいことです。ただ、一方で座長の田村氏は「少なくとも保護範囲は従前のままとしておいたほうが、AIを活用した新たな創作が促され、著作権法の究極の目的であるはずの文化の発展に資するのではないか」という趣旨の発信を先端ビジネスロー国際卓越大学院プログラムにてされていたこともありどこまで実態に適う整理がされるのかは疑問です。
声やパブリシティ権の保護などが対象に含まれることはメリットですが、データセットの透明性の担保や製造者責任のガイドラインなど、権利周りの整理だけでは今起きている諸問題の解決には至らないことも留意すべきでしょう。権利問題や文化保護はもちろん、ディープフェイクやダンピングを防ぎ業界の中長期的な発展に寄与するための多角的な規制、ガイドラインの制定が必要です。
引用元:https://news.yahoo.co.jp/articles/00edeaaccc3fa4d070ec5370c86b1cb0a9d4ab52,記事の削除・修正依頼などのご相談は、下記のメールアドレスまでお気軽にお問い合わせください。[email protected]