ほう






“ディープフェイクポルノ”初摘発 AIで演者と芸能人の顔を差し替え公開した疑い 千葉県警 - ITmedia NEWS


警視庁と千葉県警察本部は10月2日、AIを使ってポルノ動画に写った人物の顔を芸能人の顔にすり替えた“ディープフェイクポルノ動画”を公開したとして、男性2人を名誉毀損(きそん)と著作権法違反の疑いで逮捕したと発表した。ディープフェイクによるポルノ動画を巡る逮捕は初という。

大学生の林田拓海容疑者と、システムエンジニアの大槻隆信容疑者は2019年12月から20年7月ごろ、運営していたWebサイトで加工後のポルノ動画を合計約400本公開。約80万円以上の収益を得ていたという。

警察庁と千葉県警は19年に動画を発見。動画を加工して公開する行為が著作権法に違反し、芸能人の顔に差し替える行為が当該芸能人に対する名誉毀損に当たるとして2人を逮捕した。

 ポルノ動画の作成にはフリーソフトを使っており、両容疑者は「お金が欲しかった」「評価を得るために公開した」と容疑を認めている。

 AIで動画を加工して公開する行為が摘発されたのは初だが、千葉県警は「AIを使わない既存の手段でも、同様の行為を行えば逮捕する可能性はある」としている。



反応
こういった最先端の犯罪が注目を集めるのは理解するとして、パッケージと中身の顔が同一人物に思えない昔からある案件は合法なのだろうか…

大学生とSEかww

“ディープフェイクポルノ”って言うんですか…。
AIが絡むから「ディープ」って付けちゃっただけなような。

ディープフェイクポルノなる存在を初めて知った。すごい世の中になったもんだなぁ

アイコラもここまで進化していたのか・・・