エロ画像作成の中学生が犯罪者に=人気女優もAI悪用被害で告訴

女優イシス・バルベルデさんのオリジナル写真(左)とAIで作成されたヌード画像(右)(2日付G1サイトの記事の一部)
女優イシス・バルベルデさんのオリジナル写真(左)とAIで作成されたヌード画像(右)(2日付G1サイトの記事の一部)

 リオ市バラ・ダ・チジュカ区にある名門校サントアゴスチーニョ中学校で、女子同級生の裸の合成写真をAI(人工知能)で作成し、共有した疑いのある生徒が複数特定され、少年犯罪者として起訴される可能性がある。同件を捜査する刑事によると、児童・青少年法(ECA)に基づく犯罪の責任を問われる可能性があり、1〜3年の懲役と罰金刑が科せられるという。2日付G1サイトなど(1)(2)が報じている。
 この事件は、同学校に通う中学1年生から3年生までの生徒が、SNS上に投稿された若い女性の写真を使って、同級生の裸の合成写真を作成し、ワッツアップグループで共有した疑いが持たれている。
 同校生徒であるか否かにかかわらず、少なくとも20人の被害者が確認されている。生徒の保護者が警察と児童青少年保護局(DPCA)に相談し、事件が発覚した。
 児童・青少年法(ECA)第241条Cには、「児童や思春期の人物が性的な場面に関与したかのように写真、ビデオ、その他あらゆる形態の視覚的表現を改ざん、合成、または変更すること」は犯罪であると明示されている。
 この事件を捜査している児童青少年保護局(DPCA)のマルクス・ヴィニシウス・ブラガ署長は、「何人がこの犯罪に関与したかを特定するには時期尚早だ」としながらも、「捜査を進展させるために今後数日間かけて供述を取る予定だ」と述べた。校長にも聞き取り調査が行われている。
 学校側はこの事件を遺憾だとし、「事実関係を慎重に調査し、校則に定める適切な処分を下す」と説明している。
 つい10月26日には若手女優のイシス・バルベルデさんがSNSに投稿した自身の写真が悪用され、あたかもヌード写真が流出したように画像加工されたことを受け、リオ市警のサイバー犯罪対策署に告訴状を提出していた。
 AIの進化は様々な分野に浸透して利便性を提供する一方で、新たな倫理的問題を引き起こす可能性について懸念が強まっている。

最新記事