なか2656のblog

とある会社の社員が、法律などをできるだけわかりやすく書いたブログです

タグ:板倉陽一郎

性犯罪マップトップ画面
1.はじめに
「子どもを性犯罪からまもるAmynaプロジェクト」という団体が「性犯罪マップ」というDBを作成してネット上で公表しているようです。たしかに子どもを性犯罪から守ることは重要であると思われますが、しかし性犯罪のデータを収集してデータベース化し、それをネット上で公表することは、個人情報保護法などの法令との関係で問題がないのでしょうか?

2.個人情報保護法から考える
同プロジェクトのサイトを見ると、ニュースサイト等から子どもに対する性犯罪に関するデータを収集し、それを元に地図アプリによって「性犯罪マップ」を作成し、この「性犯罪マップ」の青いピンをクリックすると、事件の概要、容疑者/犯行者についての情報が現れるようになっているようです。

性犯罪マップ
(「性犯罪マップ」サイトより)

犯罪歴は要配慮個人情報であり、センシティブな個人情報であるため厳格な取扱いが必要となります。要配慮個人情報の収集には本人の同意が必要であり(個人情報保護法20条2項)、またその情報の第三者提供にはオプトアウト方式は許されず本人の同意が必要となります(法27条2項ただし書、法27条1項)。

しかし、報道等により公開された犯罪歴などの情報の収集は法20条2項の例外で本人同意は不要とされており(法20条2項7号)、また、「公衆衛生の向上又は児童の健全な育成の推進のために特に必要がある場合であって、本人の同意を得ることが困難であるとき」には本人同意なしに第三者提供を行うことが認められています(法27条1項3号)。それではこの「性犯罪マップ」は違法ではないのでしょうか?

3.破産者マップ事件・個人情報保護法19条(不適正利用の禁止)
この点、この「性犯罪マップ」で思い起こされるのは、2019年頃から問題となった、いわゆる破産者マップ事件です。

破産者マップ事件は、官報に掲載された破産者情報等を集約しデータベース化した上で公開するウェブサイトが開設され、Googleマップと関連付けが行われるなどしたため、プライバシー侵害や名誉棄損等の観点での批判が集中し社会問題化しました。これに対して個人情報保護委員会は、運営事業者に対して利用目的の通知・公表義務違反(法21条)や個人データの第三者提供規制違反(法27条)を根拠としてサイトの停止等の命令を発出しました。2023年には、事業者に対して個情委は捜査当局への刑事告発も行っています。

そして、この破産者マップ事件などを受けて、令和2年個人情報保護法改正では、不適正利用の禁止規定が個人情報保護法に新設されました(法19条)。(岡田淳・北山昇・小川智史・松本亮孝・宍戸常寿『個人情報保護法』151頁)

個人情報保護法19条(不適正利用の禁止)は、「個人情報取扱事業者は、違法又は不当な行為を助長し、又は誘発するおそれがある方法により個人情報を利用してはならない。」という抽象的な規定ですが、個人情報保護法ガイドライン(通則編)3-2は、「事例2)裁判所による公告等により散在的に公開されている個人情報(例:官報に掲載されている破産者情報)を、当該個人情報に係る本人に対する違法な差別が、不特定多数の者によって誘発されるおそれが予見できるにもかかわらず、それを集約してデータベース化し、インターネット上で公開する場合」は法19条違反となるとしています。

つまり、破産者マップ事件などのように、ネット上の散在情報を収集・集約しデータベース化してネット上で公開することが、「本人への違法な差別が、不特定多数の者によって誘発されるおそれが予見できるにもかかわらず」「公開」するような場合には、法19条の不適正利用の禁止違反になると個情委はしているのです。

4.性犯罪マップを考える
この点、本件の性犯罪マップについても、それ自体はネット上で公開されている散在情報をもとにしているとはいえ、それらをデータベース化してネットで公開することにより、犯罪者本人への違法な差別が、不特定多数の者によって誘発されるおそれが予見できるといえるので、やはり破産者マップ事件と同様にこの性犯罪マップも個情法19条の不適正利用の禁止規定に抵触し違法であるおそれがあり、個情委の助言・勧告などの行政指導・行政処分の対象となるおそれがあるのではないでしょうか。

5.まとめ
このように、性犯罪マップは、「子どもを性犯罪から守る」という目的は正当であるとしても、そのやり方としては破産者マップ事件に類似し、個人情報保護法19条や個情法ガイドライン(通則編)3-2に抵触する違法なもののおそれがあり、個情委の行政指導・行政処分が課されるおそれがあります。Amynaプロジェクトは活動のやり方を再検討すべきではないでしょうか。

■追記(2025年3月22日)
「加害者情報をマッピング「性犯罪マップ」に賛否の声、法的問題は? 運営者「子どもたちを守るため」「アメリカの事例参考に」」弁護士ドットコムニュースにおいて、弁護士の板倉陽一郎先生は、「本人同意のない要配慮個人情報の第三者提供であり違法」と述べておられているのに接しました。

■追記(2025年4月3日)
個人情報保護委員会はリリースによると、4月3日、Amynaプロジェクトに対して、個情法27条1項違反、同19条違反を理由として、性犯罪マップを停止するよう行政指導を行ったとのことです。
・性犯罪マップに関する情報提供|個人情報保護委員会

■参考文献
・岡田淳・北山昇・小川智史・松本亮孝・宍戸常寿『個人情報保護法』151頁

■関連する記事
・日本版DBS法に関するジュリスト2024年12月号の特集を読んでみた

人気ブログランキング

このエントリーをはてなブックマークに追加 mixiチェック

内田洋行
内田洋行サイトより)

1.戸田市の教育データを利用したAI「不登校予測モデル」構築実証事業

2024年4月4日付の日経クロステックの記事「不登校になりそうな児童生徒をAIが予測、戸田市の教育データ活用実証が示したこと」が、Twitter(現X)上で話題を呼んでいます。この実証実験は、「2023年12月から同市内の公立小学校12校、同中学校6校の計約1万2000人の児童生徒のデータを分析対象に、「不登校予測モデル」構築の実証をした。事業はこども家庭庁の「こどもデータ連携実証事業」として戸田市が受託し、内田洋行、PKSHA Technologyグループとともに進めたもの」であるそうです。

内田洋行2
内田洋行サイトより)

不登校予測モデルは、教育総合データベースのデータを利用してAIが機械学習し、予測モデルを構築してゆくそうです。モデルの構築に利用した特徴量は、出欠席情報、保健室の利用状況、いじめに関する記録、教育相談、健康診断データ、学校生活アンケート、戸田市が独自に実施している「授業がわかる調査」、県学力調査の学力データ、県学力調査の質問紙調査、RST受検結果、「心のアンケート」など多岐にわたるそうです。(なお本事業は保護者の同意を取得しているそうですが、学校や自治体と保護者の力関係を考えると、このような本人同意が有効な同意といえるのか疑問が残ります。)

ところで、この戸田市の事例で注目されるのは、本記事によると、予測モデルの構築に際して重要なのは「特徴量」であるところ、出欠情報、教育相談が上位にくるだけでなく、「健康診断の体重や歯科検診」、「健康診断の肥満」も特徴量重要度の上位にあがっていることだと思われます。

一見、生徒の不登校の予測とはあまり関係ないように思われる、体重、肥満、歯科検診、数学の点数などにより不登校を予測することは妥当なのでしょうか。

2.「「関連性」のないデータによる個人の選別・差別」の禁止

この点、最近、情報法制研究所副理事長の高木浩光先生は、個人情報保護法(個人データ保護法)の趣旨・目的は「関連性のないデータによる個人の選別・差別」を防止することであるとの学説をとなえておられます。高木先生はカフェJILISの鼎談記事「ニッポンの教育ログを考える(後編)」(2022年1月20日)でつぎのように述べています。

OECDガイドラインの2つ目の原則である「データ内容の原則」(Data Quality Principle)は、personal dataはその利用目的に対して「relevant」でなければならないと言っている。「Personal data should be relevant to the purposes for which they are to be used」ってなっているのです。 (略)

今回の件について言いたいのは、この「Personal data should be relevant to the purposes for ……」という基本原則の意味は、データ分析をして本人を評価するに際しては、目的に関連しているデータしか使っちゃダメって言ってるんですね。「関係ないデータを使うな」って言ってるんですよ。

で、その「関係ない」っていうのはどういうことなのか。いくら言葉だけ見てても意味わからないわけですけど、立案にかかわった人の論文を見ると、具体的に説明されていて、例えば、政府が所得税額を計算するのにコンピューターを使う際に、収入額とかを基に個人データ処理するのは「目的に関連している」データを用いた評価なんだけども、そこに日頃の生活の素行みたいなデータを入れて税額を計算したら、それはおかしいだろうってことになる。そのような場合のことを「関係ないデータを使っている」と言ってるわけです。
(カフェJILIS「ニッポンの教育ログを考える(後編)」の高木浩光先生発言より。)

この高木先生の見解によると、生徒の不登校を予測するAIを機械学習させるためのデータとして、「出欠情報、教育相談、いじめの有無、心理検査、心理アンケート」などは「関連性がある」といえると思われますが、「体重、肥満、歯科検診結果、数学の点数」などは「関連性がない」ものとして、このような項目により機械学習させたAIの予測モデルは「関連性のないデータによる個人の選別・差別」に該当し、つまりOECD8原則の第二原則の「データ内容の原則」に抵触しているのではないでしょうか。

また、同じくカフェJILIS「ニッポンの教育ログを考える(後編)」では、弁護士の板倉陽一郎先生も、つぎのようにEUのAI規制法(2024年3月13日に欧州議会が最終案を可決)の観点から日本の教育データの利活用を批判されています。

最新の公的な文書としてはEUのAI規則案ですよ。EUのAI規則案で、4つの種類のAIだけは絶対禁止ってしてるんです(shall be prohibited,5条1項(a)-(d))。(略)

4つの種類だけは絶対やめようっていう中に、(公的機関が)「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをする」scoringという類型があります(5条1項(c))。コンテキストと関係がないっていうのが、今のrelevancyの現在地ですよ。そういうscoringはやめようっていうのが、そのAI規則案が4つだけ禁止している、絶対ダメなものひとつなんです。教育ログは、そこにちょっとね、一歩入りかけとるわけですよ。気をつけないといけない。

欧州が絶対ダメって言ってるんですからね。それをね、ニコニコして入れたらね。お前らバカなのかってなるじゃないですか。だから欧州に従えという話ではないですが,絶対禁止になっている4つのところぐらいは見ながらやっぱやらないとまずいですよね。だって他に禁止されてるのって、サブリミナルで自殺に追い込むAIとかそんなやつですよ?(5条1項(a))。それと同等程度にダメだっていうふうに言ってるわけです。
(カフェJILIS「ニッポンの教育ログを考える(後編)」の板倉陽一郎先生発言より。)
AI規制法禁止カテゴリ
総務省「EUのAI規制法案の概要」11頁より、禁止カテゴリのAIの4類型)

すなわち、EUのAI規制法が禁止カテゴリとしている4つのAIの一つは「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをするスコアリング」であり、デジタル庁やこども家庭庁が推進しているAIによる教育データの利活用はそれに該当すると板倉先生は指摘しています。

また、上で高木先生が述べている「関連性のない」とは、EUのAI規制法では「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをする」ことであると板倉先生は指摘されています。

この点を戸田市の実証実験で考えると、学校における健康診断、歯科検診、学力テストにおける数学の試験などは、生徒の健康状態を測る目的や教科の学習度合いを測る目的に収集されたデータであり、それらのデータを生徒の不登校の予測の目的で利用することは「最初に収集されたコンテキストとは関係ない社会的コンテキスト」=「関連性がない」と評価され、AI規制法5条1項(c)に抵触している可能性があるのではないでしょうか。(仮にもし日本にもEUのAI規制法が適用されるとするならば。)

3.まとめ

したがって、高木先生や板倉先生の考え方によれば、戸田市の生徒の不登校予測のためのAIモデルの実証実験や、デジタル庁やこども家庭庁等が推進している教育データの利活用政策は、OECD8原則の「データ内容の原則」およびEUのAI規制法5条1項(c)に抵触のおそれがあるのではないでしょか。このような施策をデジタル庁・こども家庭庁などの政府や戸田市などの自治体が推進していることは法的に大きな問題なのではないでしょうか。

4.補足:個人情報保護法の3年ごと見直し・自民党の「責任あるAI推進基本法(仮)」

なお、2023年11月より個人情報保護委員会(PPC)は、個人情報保護法のいわゆる「3年ごと見直し」のための検討を行っています。PPCの資料を読んでみると、AIやプロファイリング、子どもの個人情報保護などが議論の俎上にあがっています。また現行の不適正利用禁止規定(法19条)も条文の具体化が行われるのではないかと思われます。すると現在こども家庭庁などが推進している教育データの利活用政策などは見直しを余儀なくされる可能性もあるのではないでしょうか。(個人の予想ですが。)

b0183ad4
(個人情報保護委員会サイトより)

また、2024年2月に自民党は「責任あるAI推進基本法(仮)」を公表しています。しかし同法案は、大手のAI開発事業者を国が指定し、当該事業者に7つの体制整備義務を課し、あとはAI開発事業者の自主ルールにゆだねる内容で、EUのAI規制法の禁止カテゴリ・ハイリスクカテゴリなどのような規定は存在せず、全体としてAIの研究開発の発展を強く推進する内容となっているようであり、日本社会のAIのリスクの防止に不安が残る内容となっています。

AIの研究開発の発展も重要ですが、国民個人の権利利益の保護、個人の基本的人権や個人の人格権の保護も重要なのではないでしょうか(個情法1条、3条)。

責任ai基本法の骨子
(自民党サイトより)

■このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
・「不登校になりそうな児童生徒をAIが予測、戸田市の教育データ活用実証が示したこと」2024年4月4日付日経クロステック
・教育総合データベース(デジタル庁実証事業) の検討状況|戸田市
・内田洋行とPKSHAグループ、こども家庭庁の実証事業として埼玉県戸田市のこどもの不登校をAIで予測する取組みに参画|内田洋行
・ニッポンの教育ログを考える——プライバシーフリーク・カフェ#16(後編)|カフェJILIS
・EUのAI規制法案の概要|総務省

■関連するブログ記事
・小中学校のタブレットの操作ログの分析により児童を評価することを個人情報保護法・憲法から考えた-AI・教育の平等・データによる人の選別
・デジタル庁「教育データ利活用ロードマップ」は個人情報保護法・憲法的に大丈夫なのか?
・PPCの「個人情報保護法いわゆる3年ごと見直し規定に基づく検討」(2023年11月)を読んでみた
・個情委の「個人情報保護法いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)」を読んでみた

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

↑このページのトップヘ