卒アル写真が性的AI画像に悪用
広告の下に記事の続きがあります。ペコリ
卒業アルバムなどに掲載された児童生徒の写真を基に、性的な偽画像が生成・拡散されていたことが、民間団体の調査により明らかになった。
画像はいずれもAI技術を用いた「ディープフェイク」とみられ、被害は小学生から高校生までの少なくとも252人に及んでいる。SNS上では名前付きの投稿も確認されており、教育現場や保護者への通報によって実在が裏付けられた例もあった。
性的ディープフェイク投稿の発覚と構造的問題
252人分の被害が確認された経緯
民間監視団体「ひいらぎネット」が2025年7月、児童生徒の写真が悪用されたAI生成画像の存在を公表した。投稿は2025年2月から6月にかけて行われ、同団体が把握しただけでも252人分に及んでいた。
被害画像の多くは、卒業アルバムなどに使用された顔写真を元にしており、そこにAIを用いて生成した裸体や性的描写が合成されていた。調査では、中高生とみられるケースが約200人、小学生が20人確認されている。
中には、画像とともに名前や学校名に類する記述が加えられた投稿も存在し、学校や保護者への通報を通じて本人が実在する児童であることが確認された事例も複数あった。
SNS上の投稿傾向と技術的背景
投稿はX(旧Twitter)や画像掲示板などを通じて行われており、「卒アルAI」「生成娘」などのハッシュタグが多く使われていた。
画像の生成にはLoRA(低ランク適応モデル)やディフュージョンベースの画像合成ツールが使われた可能性が高く、専門的な知識がなくても、スマートフォンアプリを通じて作成・拡散が可能な構図となっていた。
こうした状況により、投稿者の匿名性が保たれたまま、実在児童の写真が悪質な形で改変され、不特定多数に公開されるリスクが現実化していた。
学校・保護者が後から気づく
ひいらぎネットが確認した投稿の一部は、すでに名前情報が付加されていた。これを受け、同団体は画像に登場する児童が在籍している可能性がある学校を独自に特定し、教育委員会や学校側に通報を行った。
その後、学校や保護者から「自分の子の顔が使われていた」との連絡が相次ぎ、被害者自身が画像の存在を知らずに生活していたケースも多数確認された。このように、AI画像生成による被害は、「本人の知らぬ間に起きている」という点で、従来の犯罪と異なる深刻さを帯びている。
教育現場とSNSプラットフォームの対応力
こうした動きを受け、文部科学省は全国の教育委員会に対して、卒業アルバムのデジタル管理体制の見直しと注意喚起の徹底を通知した。
また、ひいらぎネットは投稿プラットフォーム側に対して、画像削除依頼および発信者のIPアドレス開示請求を行っている。
X(旧Twitter)などでは一部投稿が削除されたが、依然として流通の全体像は不透明であり、SNS事業者側の対応の迅速性と網羅性が問われている。
被害確認までの時系列
時期 | 主な動き | 関係機関・人物 |
---|---|---|
2025年2月~6月 | SNS上で性的ディープフェイク画像が拡散 | 投稿者不明(匿名) |
2025年6月末 | 民間団体が252人分の被害画像を特定 | ひいらぎネット |
2025年7月初旬 | 名前付き画像の存在を受け、学校等に通報 | 教育委員会・学校 |
同月中 | 保護者からの連絡で複数の実在確認が判明 | 保護者・生徒本人 |
継続中 | SNS運営への削除依頼と対応要請 | 各投稿プラットフォーム運営 |
制度の限界と再発防止に向けた議論
現行法では対応が難しい実情
今回確認されたディープフェイク投稿の大半は、「画像の一部が現実と異なる」という構造的な特徴を持つ。
しかし現行のリベンジポルノ防止法や名誉毀損の規定は、「実在の裸の画像を公開すること」「本人の社会的評価を著しく下げること」などを前提としており、AIで合成された偽画像が直ちに違法と認定される例は限定的である。
とくに、匿名アカウントからの投稿が国外サーバーを経由している場合、国内法の執行力が及びにくいとする指摘もある。加害側の特定が困難なまま、被害者側だけが精神的・社会的ダメージを受ける構図が問題視されている。
再発防止の現実的対応策
対応に乗り出した文部科学省は、卒業アルバムのデジタル化や業者保管方法を含め、個人情報の取り扱いを抜本的に見直す方針を示している。
また、各学校に対しても、被害が発生した場合の通報・対応マニュアルの整備や、SNS上での自己検索によるセルフチェックの方法などを周知するよう求めている。
一方で、AI生成画像そのものを規制する法整備は現時点で追いついておらず、内閣府や法務省など関係省庁で技術進化に対応した包括的な枠組みの議論が求められている。
実名投稿と心理的二次被害
投稿画像の中には、児童本人の名前が添えられた投稿も存在していた。これにより、本人が知らないうちに“名前と偽の性的画像”がセットで拡散されていた事例が複数報告されている。
学校側が確認に至ったケースの一部では、本人はネット環境を持たず、家族や友人の通報で初めて事実を知ったという。
こうした経緯により、本人が画像を見ずに「他人の口から被害を知らされる」構図となり、精神的ショックや登校への不安を抱えたまま過ごしている児童が出ている。
卒業アルバムという“無自覚なリスク資源”
本来、卒業アルバムは学校の中で閉じた記録として扱われてきた。ところが近年では、卒業生が自分や友人の写真を撮影してSNSに投稿するケースが珍しくなくなっている。
また、業者によってはデジタル化された写真データを保管しており、そこに外部からアクセスされたり、関係者の内部流出が起きたりするリスクもある。
今回のように、本人の知らぬ間に“卒アル素材”がネット上の“偽ポルノ素材”へ変換されてしまう構造は、学校生活の記録が「AI時代の攻撃対象」に変わりうることを示している。
もはや卒業アルバムは「思い出」ではなく、「対策のないリスク資源」として扱う必要がある。
画像が悪用されるまでの流れ
段階 | 内容 |
---|---|
①画像入手 | 卒業アルバムの紙面や個人SNSから顔画像を取得(外部流出・同級生の投稿含む) |
②AI加工 | 画像生成ツールやLoRA等を用いて性的画像を合成 |
③投稿 | SNSや掲示板でタグ付き拡散(例:「#卒アルAI」「#生成娘」など) |
④監視と通報 | 民間団体が発見し、学校や教育委員会へ通報 |
⑤被害確認 | 保護者・本人が事実を知り、SNS運営会社へ削除申請 |
FAQ
Q1. なぜ卒業アルバムの写真が悪用されたのですか?
A. 卒業アルバムは信頼された学校内資料として扱われる一方で、SNSへの投稿や第三者の撮影により外部流出するケースもあります。今回の事例では、本人や同級生の投稿画像が、AIによる画像生成の「素材」として悪用された可能性が指摘されています。
Q2. 投稿された画像は実際に存在する人物なのですか?
A. 民間団体が通報した事例の一部では、実際に学校や保護者から「画像の人物は自分の子どもである」との連絡があり、複数の実在確認が取れています。すべてが確認されたわけではありませんが、被害の相当数が実在の児童に基づいています。
Q3. 投稿された画像は現在も閲覧できる状態ですか?
A. 一部の投稿は削除されましたが、すべてが削除されたわけではありません。SNS事業者への削除要請や発信者情報の開示請求は継続中で、投稿の全容把握と完全な削除には至っていません(※2025年7月時点)。
Q4. 学校や保護者は事前に気づけなかったのでしょうか?
A. 多くのケースで、保護者や本人は通報を受けて初めて被害に気づいています。本人がインターネットを使っていない場合もあり、家庭や学校側の把握が難しい状況が生まれています。
Q5. 今後このような被害を防ぐにはどうすればいいですか?
A. 学校側の卒業アルバム管理体制の見直しや、児童・生徒によるネット上の自己検索習慣の指導が求められます。また、AI生成画像を悪用する行為に対する法整備や技術的対策の強化も不可欠とされています。
まとめ
AI生成社会における“無自覚なリスク拡張”とどう向き合うか
今回の事案は、卒業アルバムという閉じた記録媒体が、AI時代において外部から“性的偽造素材”として悪用されうる現実を突きつけた。
しかも、その被害者は自分が被害に遭っていることに気づかない。だからこそ、これは「新しい犯罪」ではなく、「誰もが気づかぬまま加害・被害の構造に巻き込まれている社会構造」と捉える必要がある。
投稿者は顔写真を収集し、LoRAなどのAIモデルを用いて偽の裸体画像を生成する。見る側には、それが加工か実物かの判断は困難である。そしてその情報はSNSで匿名のまま拡散される。誰が投稿したか分からない。誰が見ているかも分からない。その中に、自分の顔があるかもしれない。
この構造は「被害の自覚なき拡張」そのものである。かつて個人情報とは、住所や電話番号のことだった。今では「顔」という最もパーソナルな情報が、誰かの欲望や嗜好に合わせて勝手に再構成される。
AIの性能だけが加速する中で、社会側の倫理基準や制度整備はまったく追いついていない。
今後必要なのは、加害者の摘発や法整備といった外側の強化だけではない。学校や家庭、そして一人ひとりが「自分の画像は、いつでも他人に加工され得るもの」と認識し、卒業アルバムを“思い出”から“個人情報資産”へと再定義する視点である。
情報の管理とは、誰かに任せるものではない。
無自覚なまま拡張された被害構造に、社会全体でどこまで立ち向かえるかが問われている。