雑記ブログ、ときどきAmazon

Amazonアソシエイト,楽天room,広告PRがあります。

卒アル写真が性的AI画像に悪用 252人分が拡散された“無自覚な被害”とは

卒業アルバムの写真を使った性的ディープフェイクがSNS上に拡散。252人分の児童生徒が被害に。AI技術と法整備の隙を突いた構造を詳しく解説します。

 

卒アル写真が性的AI画像に悪用

広告の下に記事の続きがあります。ペコリ

 

卒業アルバムなどに掲載された児童生徒の写真を基に、性的な偽画像が生成・拡散されていたことが、民間団体の調査により明らかになった。
画像はいずれもAI技術を用いた「ディープフェイク」とみられ、被害は小学生から高校生までの少なくとも252人に及んでいる。SNS上では名前付きの投稿も確認されており、教育現場や保護者への通報によって実在が裏付けられた例もあった。

項目 内容
公表日 2025年7月5日
被害対象 小学生~高校生の児童生徒
確認人数 合計252人(中高生約200人/小学生20人/不明若干名)
使用技術 AI生成による性的ディープフェイク
投稿時期 2025年2月~6月
関与団体 ひいらぎネット(民間監視団体)
SNS傾向 「卒アルAI」「生成娘」などのタグ付き投稿/一部は名前情報も記載
実在確認 教育委員会・保護者から複数の本人確認報告あり

性的ディープフェイク投稿の発覚と構造的問題


252人分の被害が確認された経緯

民間監視団体「ひいらぎネット」が2025年7月、児童生徒の写真が悪用されたAI生成画像の存在を公表した。投稿は2025年2月から6月にかけて行われ、同団体が把握しただけでも252人分に及んでいた。

被害画像の多くは、卒業アルバムなどに使用された顔写真を元にしており、そこにAIを用いて生成した裸体や性的描写が合成されていた。調査では、中高生とみられるケースが約200人、小学生が20人確認されている。

中には、画像とともに名前や学校名に類する記述が加えられた投稿も存在し、学校や保護者への通報を通じて本人が実在する児童であることが確認された事例も複数あった


SNS上の投稿傾向と技術的背景

投稿はX(旧Twitter)や画像掲示板などを通じて行われており、「卒アルAI」「生成娘」などのハッシュタグが多く使われていた。
画像の生成にはLoRA(低ランク適応モデル)やディフュージョンベースの画像合成ツールが使われた可能性が高く、専門的な知識がなくても、スマートフォンアプリを通じて作成・拡散が可能な構図となっていた。

こうした状況により、投稿者の匿名性が保たれたまま、実在児童の写真が悪質な形で改変され、不特定多数に公開されるリスクが現実化していた。


学校・保護者が後から気づく

ひいらぎネットが確認した投稿の一部は、すでに名前情報が付加されていた。これを受け、同団体は画像に登場する児童が在籍している可能性がある学校を独自に特定し、教育委員会や学校側に通報を行った。

その後、学校や保護者から「自分の子の顔が使われていた」との連絡が相次ぎ、被害者自身が画像の存在を知らずに生活していたケースも多数確認された。このように、AI画像生成による被害は、「本人の知らぬ間に起きている」という点で、従来の犯罪と異なる深刻さを帯びている


教育現場とSNSプラットフォームの対応力

こうした動きを受け、文部科学省は全国の教育委員会に対して、卒業アルバムのデジタル管理体制の見直しと注意喚起の徹底を通知した。
また、ひいらぎネットは投稿プラットフォーム側に対して、画像削除依頼および発信者のIPアドレス開示請求を行っている。

X(旧Twitter)などでは一部投稿が削除されたが、依然として流通の全体像は不透明であり、SNS事業者側の対応の迅速性と網羅性が問われている。


被害確認までの時系列

時期 主な動き 関係機関・人物
2025年2月~6月 SNS上で性的ディープフェイク画像が拡散 投稿者不明(匿名)
2025年6月末 民間団体が252人分の被害画像を特定 ひいらぎネット
2025年7月初旬 名前付き画像の存在を受け、学校等に通報 教育委員会・学校
同月中 保護者からの連絡で複数の実在確認が判明 保護者・生徒本人
継続中 SNS運営への削除依頼と対応要請 各投稿プラットフォーム運営