10月18日、警察庁は「性的ディープフェイク」の被害が深刻化していることを受け、初めて被害相談の状況を公表し警戒を促しました。「性的ディープフェイク」とは児童などの実在する画像を生成AIや画像加工アプリを駆使して性的な画像に変える行為で、SNS上での拡散が犯罪や人権被害を招く恐れがあります。昨年は18歳未満の画像を使ったディープフェイクに関する相談が全国で110件あり、そのうち7件が「名誉毀損」等の疑いで検挙されました。
今年の相談は79件で、検挙件数は4件です。被害児童の内訳は、中学生が41件、関係者の半数以上が同級生や学校の生徒によるものでした。不適切な画像生成の事例としては写真の販売やグループチャットでの拡散があり、警察庁は法に基づく対処を約束しています。

この問題の根深さは、現代テクノロジーの誤用により、容易に被害者が生み出されることにあります。警察庁の報告によると、特にSNSと画像加工技術が無知や無関心を装う態度を養殖している現状は、いたたましい以上の何ものでもありません。問題の根幹にあるのは、個人の尊厳や人権を侵害する行為の増加と、その背後に潜む法制度の欠陥です。まず、学校や家庭での教育を通じて、デジタル技術の倫理的利用を徹底することが求められます。次に、インターネットサービスプロバイダーと協力し、法的規制を強化し、違反者への迅速な対応が必要です。
そして、社会全体がこの問題の重さを認識し、積極的な風潮を形成することが肝心です。無知や軽率さがもたらす不幸を許さないために、ここで掲げた具体策が実行に移されるべきなのです。
ネットからのコメント
1、性犯罪として、生涯GPSで監視した方が良いと思います。ストーカーや痴漢や盗撮と何が違うのか分かりません。こういうことが普通の感覚でできる人ということなのだと思います。気持ち悪いです。それと、お酒や運転免許のように、スマホやSNSは18歳や20歳からにした方が、本当に良いと思います。子どもにとって何もメリットないです。ただ、公衆電話が減ってるので通話機能だけのPHSのようなのはありかもしれませんが。
2、昔からアイコラとか似たようなことはあったけど、生成AIは一瞬でそれなりに完成度の高い合成画像が出来てしまうからなぁ。しかも、デジタルタトゥーとして残ってしまう可能性もある。SNSで、自分を含めた人物が写る画像を投稿するリスクって予想以上に高いなと感じた。
3、昔からアイコラのようなものがあったが、それがやりやすくなっただけとも言える。
問題は「公開をすること」であり、公開しない作成までは思想の自由や表現の自由の観点から許される社会にはしておかないと、かなり危険なことになると思う。というのも、人権侵害は最初は民衆が不快だと思うところから始まるんだよね。たとえば、個人が楽しむ目的で画像を作ることすらダメなら、日記に他人の悪口を書いたり、創作小説を個人で楽しむことすら、いずれはダメになってしまう可能性が高い。その後は、政府批判なども取り締まられていく。一度「個人で楽しむ」という線を超えたら、あとはなし崩しなんだよね。もちろん、公開したり販売するのは良くないことなので、こちらをきちんと取り締まることが大事だろう。公開した表現には被害が発生するため、権利の衝突が起こりますからね。
4、子供では絶対ダメだが、そうでなかったら良いと言う訳でもない気がする。単に猥褻の程度の問題もあるが、結局は、どこかの誰かに似てしまうような気がする。YouTubeでも出ているが、誰かから苦情が来ないのか不思議。生成AIの、根本的な問題だとも思う。
引用元:https://news.yahoo.co.jp/articles/bdfb06e45aa0b6f766023d2ca7a9d9b25f31aa18,記事の削除・修正依頼などのご相談は、下記のメールアドレスまでお気軽にお問い合わせください。[email protected]