【12月25日 KOREA WAVE】写真の中の人物が着た服を除去する人工知能(AI)ウェブサイトやアプリが登場している。
韓国では性犯罪の被害を防ぐための対策が必要だという指摘が出ている。

問題になっているのは「ヌーディファイ」「アンドレス」「ディープヌード」などのサイトやアプリ。
人の写真を掲載すると、服を脱いだ状態のイメージを創作する。

米国のメディア分析企業「グラフィカ」の報告書によると、海外コミュニティサイト「レディット」、X、テレグラムなどを中心に広がり、
9月の1カ月間で約2400万人がこのようなサイトを訪問していた。

これらの運営会社は高画質などをうたって有料機能で収益を上げ、
価格帯は機能によって1.99ドル(約288円)から299ドル(約4万2500円)のものまである。

被写体本人の同意なく活用できるため、犯罪に悪用される危険性が高い。
被害者は名誉毀損や侮辱、わいせつ物流布罪で法的責任を問うことができ、損害賠償請求も可能だ。

韓国のある弁護士は「肖像権侵害から無断使用など民事的な損害賠償責任を問うこともできるが、本人が所蔵しているだけでは限界がある」
と指摘する。

12/25(月) 6:03配信
https://news.yahoo.co.jp/articles/a8d76dc1f133f0d397e30ff3d3da10d468edcadb