なか2656のblog

とある会社の社員が、法律などをできるだけわかりやすく書いたブログです

タグ:高木浩光

ai_search
2025年4月11日のCNET Japanの記事によると、「ChatGPTを提供するOpenAIは4月11日、有料の「Plus」「Pro」プランでメモリ機能を強化し、過去の会話をすべて参照できるようにしたと発表した。これにより、より適切で有用なパーソナライズされた回答を提供できるようになる」とのことです。

これは「メモリ機能のオン・オフはユーザーが設定できる。「保存されたメモリを参照する」をオンにすれば、ユーザーの名前や好みなど、過去に保存した情報を参照するようになる。これは、ユーザーが明示的にChatGPTに伝えたとき、あるいはChatGPTが特に有用と判断した場合に、メモリに情報を追加する仕組みだ。チャット履歴を参照する設定をオンにすれば、ChatGPTは過去の会話にある情報を参照し、ユーザーの目標や興味、トーンなどに合わせて会話を進める。こちらはより広範囲に及ぶ設定だ。」という改正であるそうです。

この改正についてX(Twitter)では、「ChatGPTによるプロファイリングの精度があがっている」等の声があがっています。ある方のXの投稿では、ChatGPTに推測させてみたところ、「所属する業界、職業、年収、性別、年齢層、居住地、血液型、家族構成、MBTI診断結果などを当てられた」とのことで、これはなかなかゾッとするというか、恐ろしいものがあります。

この点、Xで、sabakichi(@knshtyk)氏は、「今回のアプデで気が付かされたが、個人のやり取りから学習した特徴のデータというのは要するに"究極の個人情報"であるから、将来的に法的に保護されるべき「個人情報」が指す範囲は今後拡張されていく必要があり、データの生殺与奪の権も利用先の制御もすべてユーザの手元で行える必要が出てくるのでは」と投稿していますが、この点は私も非常に同感です。

さばきち01
(sabakichi(@knshtyk)氏の投稿より)

最近、個人情報保護法については、「個情法の保護法益は何か?」という点について議論があるところです。これまで自己情報コントロール権(情報自己決定権)説が有力であったところ、最近は曽我部真裕教授などによる「自己の情報を適切に取扱われる権利説」や、高木浩光氏による「個人データによる個人の不当な選別・差別の防止説」が有力に主張されています。

しかし最近のChatGPTの猛烈な進化をみると、状況は今後変わってゆくのではないでしょうか。つまり、生成AIなどにより、どんどん個人の内心やプライバシーが緻密にプロファイリングされてしまう状況になり、その機微な情報をOpenAIなどのIT企業が収集・保管・利用するようになる、ビッグテック企業等がどんどん個人の内心やプライバシー、アイデンティティの部分に踏み込んでくると、「自己の個人情報が適切に取扱われる」ことや、「個人データによる個人の不当な選別・差別の防止」が達成されるだけでは不十分であり、sabakichi氏が上で投稿しているように、自己の個人情報・個人データの取扱いについて、個人がコントロールする必要性がより増加してくるのではないでしょうか。

すなわち、曽我部説や高木説に立つと、OpenAIなどのIT企業から「いやいや貴方の個人データはプライバシーポリシーで通知・公表した内容にしたがって適切に処理しています。もちろん不当な選別・差別は行っていません。なので、貴方の個人データをますますプロファイリングに利活用させていただきます」と言われたときに、個人の側としては何の反論もできなくなってしまうわけですが、ChatGPTなどの生成AIがどんどん進歩してゆく今日においては、そのような状況では個人の人間としての存立が危うくなってしまうのではないでしょうか。そのような状況においては、個人としては、自己の情報・データについて、収集したデータをこれ以上勝手に処理・プロファイリングするな、収集・利用・プロファイリングしたデータの利用を停止せよ・データを削除せよ等と主張することが、個人の尊厳、個人の尊重、個人の人格尊重(憲法13条、個情法3条)の保護のためにますます必要となってくるのではないでしょうか。

そのように考えると、生成AIの発展する今日においては、個情法の保護法益としては、「自己の情報を適切に取扱われる権利説」の側面や、「個人データによる個人の不当な選別・差別の防止説」の側面ももちろん重要ではありますが、それと同時に自己情報コントロール権(情報自己決定権)説の側面の重要性も増加しているように思われます。

人気ブログランキング

このエントリーをはてなブックマークに追加 mixiチェック

dai_byouin2

1.4月3日の個人情報保護委員会の議論

個人情報保護委員会では現在、個人情報保護法の「いわゆる3年ごと見直し規定に基づく検討」、つまり次の個人情報保護法改正に向けた検討が行われています。そして2024年4月3日の同委員会では、AIと医療関係に関する有識者ヒアリングが行われたそうです。

・第279回個人情報保護委員会|個人情報保護委員会

そして同委員会では、医療データの取扱いについて患者の本人の同意を原則不要とする方向の議論が行われたようですが、私個人はこの方向性に反対です。

すなわち、4月3日の個人情報保護委員会の有識者ヒアリングにおける森田朗・名誉教授の資料「医療情報の利活用の促進と個人情報保護」には、医療関係において一時利用(=治療)の場合の患者の本人の同意を不要とし、二次利用(=製薬会社やIT企業などによる二次利用)の場合にも本人の同意を不要とする(ただしオプトアウトについては要検討)となっています。

森田氏資料の図
(4月3日の個人情報保護委員会資料より)

現行の個人情報保護法は目的外利用の場合、第三者提供の場合、要配慮個人情報の取得の場合、には本人の同意が必要と規定しています(法18条、20条2項、27条1項)。また、厚労省・個人情報保護委員会の「医療・介護関係事業者における個人情報の適切な取扱いのためのガイダンス」も、これらの場合には患者の「黙示の同意」が必要であるとしています。そのため、現在、個情委など政府で議論されていることは、仮に実現した場合、従来の個人情報保護法制の基本的なルールの大きな転換をもたらすものです。

2.プライバシーや個人情報保護法(個人データ保護法)の趣旨・目的

憲法・情報法学上、学説や下級審判例においては、プライバシーや個人情報保護法(個人データ保護法)の趣旨・目的を「個人の私生活上の事項の秘匿の権利を超えて、より積極的に公権力による個人情報の管理システムに対して、個人に開示請求、修正・削除請求、利用停止請求といった権利行使が認められるべきである」とする自己情報コントロール権(情報自己決定権)説が学説上の通説とされています。

近年、曽我部真裕教授、音無知展教授などによる「自己の情報を適切に取扱われる権利」説が有力に唱えられ、また情報技術者の高木浩光氏の「関連性のないデータによる個人の選別を防止する権利」説なども主張されていますが、現状では自己情報コントロール権(情報自己決定権)説が学説上の通説であると思われます(渡辺康行・宍戸常寿・松本和彦・工藤達朗『憲法Ⅰ基本権』120頁、曽我部真裕など『情報法概説 第2版』209頁、宍戸常寿等『憲法学読本』93頁、村上康二郎「情報プライバシー権の類型化に向けた一考察」(2023年12月)など)。

「自己の情報を適切に取扱われる権利」説からは、個人の個人情報・個人データが官民の情報システムで「適切」に取扱われている限りは、個人の側は官民の情報システムの管理者・運営者に対して何も言えないことになってしまいますが、自己情報コントロール権説からは、個人の人格的自律や自己決定権の観点から情報システムの管理者に対して自己の情報に対して申出ができることになります。日本が個人の人格的自律を基本とする自由主義・民主主義国家(憲法1条、13条)である以上、現状では自己情報コントロール権説(または自己情報コントロール権と「自己の情報を適切に取扱われる権利」との折衷説(村上康二郎))が現状では妥当であるように思われます。

そして自己情報コントロール権説からは、個人情報保護法が目的外利用や第三者提供をする場合、医療データなどの要配慮個人情報を収集する場合において、事業者や行政機関等が患者などの本人の同意を取得することが必要と規定されていることは当然のことと考えられます。

そのため、この目的外利用や第三者提供をする場合、医療データなどの要配慮個人情報を収集する場合に本人の同意の取得を不要とする森田朗名誉教授などの主張は自己情報コントロール権説に反し、つまり個人情報保護法(個人データ保護法)の趣旨・目的に反していることになります。

また、法律論を離れても、たとえば4月3日の個人情報保護委員会の有識者ヒアリングでは、横野恵准教授の「医療・医学系研究における個人情報の保護と利活用」との資料13頁の「ゲノムデータの利活用と信頼」においては、一般大衆の考えとして、ゲノムデータの利活用に関する「信頼の醸成に寄与する要素」の2番目に「オプトアウト制度」があがっています(“Public Attitudes for Genomic Policy Brief: Trust and Trustworthiness.” )。

横田氏資料
(4月3日の個人情報保護委員会資料より)

したがって、医療データの利用等に関して、患者の本人の同意やオプトアウト制度を廃止する考え方は、一般国民の支持を得られないのではないでしょうか。

3.すべての国民個人は医療に貢献すべきなのか?

森田名誉教授など、医療データの製薬会社やIT企業などによる利活用を推進する立場の人々は、「日本国民はすべて医療データを製薬会社などに提供し、医療や社会に貢献すべきだ」との考え方を前提としているように思われます。

たしかに患者が医療に貢献することは一般論としては「善」かもしれません。しかし上でも見たように、日本は個人の自由意思を原則とする自由主義・民主主義国です(憲法1条、13条)。患者個人が医療や社会に貢献すべきか否かは個人のモラルにゆだねるべき問題であり、ことさら法律で強制する問題ではないはずです。すなわち、患者の医療への貢献などは、自由主義社会においては自由な討論・議論によって検討されるべきものであり、最終的には個人の内心や自己決定にゆだねられるべきものです(憲法19条、13条)。

「日本国民はすべて医療データを製薬会社などに提供し、医療や社会に貢献すべきだ」「そのような考え方を個人情報保護法の改正や新法を制定し、国民に強制すべきだ」との考え方は、中国やロシアなど全体主義・国家主義国家の考え方であり、自由主義・民主主義国家の日本にはなじまないものではないでしょうか。

また、患者の疾病・傷害にはさまざまなものがあります。風邪などの軽い疾病のデータについては、製薬会社などに提供することを拒む国民は少ないかもしれません。しかし、がんやHIVなど社会的差別のおそれのある疾病や、精神疾患など患者個人の内心にもかかわる疾病など、疾病・傷害にはさまざまな種類があります。それをすべて統一的に本人同意を不要とする政府の議論は乱暴なのではないでしょうか。

4.まとめ

したがって、憲法の立憲主義に係る基本的な考え方からも、医療データの一時利用・二次利用について患者の本人の同意を原則として不要とする議論は、個人情報保護法の趣旨・目的に反しているだけでなく、わが国の憲法の趣旨にも反しているのではないでしょうか。以上のような理由から、私は医療データの一時利用・二次利用について患者の本人の同意を原則として不要とする個人情報保護委員会や政府の議論には反対です。

このブログ記事が面白かったらシェアやブックマークをお願いします!

■関連するブログ記事
・政府の検討会議で健康・医療データについて患者の本人同意なしに二次利用を認める方向で検討がなされていることに反対する

■参考文献
・渡辺康行・宍戸常寿・松本和彦・工藤達朗『憲法Ⅰ基本権』120頁
・宍戸常寿など『憲法学読本』93頁
・曽我部真裕など『情報法概説 第2版』209頁
・駒村圭吾『Liberty2.0』187頁(成原慧執筆)
・村上康二郎「情報プライバシー権の類型化に向けた一考察」(2023年12月)

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

内田洋行
内田洋行サイトより)

1.戸田市の教育データを利用したAI「不登校予測モデル」構築実証事業

2024年4月4日付の日経クロステックの記事「不登校になりそうな児童生徒をAIが予測、戸田市の教育データ活用実証が示したこと」が、Twitter(現X)上で話題を呼んでいます。この実証実験は、「2023年12月から同市内の公立小学校12校、同中学校6校の計約1万2000人の児童生徒のデータを分析対象に、「不登校予測モデル」構築の実証をした。事業はこども家庭庁の「こどもデータ連携実証事業」として戸田市が受託し、内田洋行、PKSHA Technologyグループとともに進めたもの」であるそうです。

内田洋行2
内田洋行サイトより)

不登校予測モデルは、教育総合データベースのデータを利用してAIが機械学習し、予測モデルを構築してゆくそうです。モデルの構築に利用した特徴量は、出欠席情報、保健室の利用状況、いじめに関する記録、教育相談、健康診断データ、学校生活アンケート、戸田市が独自に実施している「授業がわかる調査」、県学力調査の学力データ、県学力調査の質問紙調査、RST受検結果、「心のアンケート」など多岐にわたるそうです。(なお本事業は保護者の同意を取得しているそうですが、学校や自治体と保護者の力関係を考えると、このような本人同意が有効な同意といえるのか疑問が残ります。)

ところで、この戸田市の事例で注目されるのは、本記事によると、予測モデルの構築に際して重要なのは「特徴量」であるところ、出欠情報、教育相談が上位にくるだけでなく、「健康診断の体重や歯科検診」、「健康診断の肥満」も特徴量重要度の上位にあがっていることだと思われます。

一見、生徒の不登校の予測とはあまり関係ないように思われる、体重、肥満、歯科検診、数学の点数などにより不登校を予測することは妥当なのでしょうか。

2.「「関連性」のないデータによる個人の選別・差別」の禁止

この点、最近、情報法制研究所副理事長の高木浩光先生は、個人情報保護法(個人データ保護法)の趣旨・目的は「関連性のないデータによる個人の選別・差別」を防止することであるとの学説をとなえておられます。高木先生はカフェJILISの鼎談記事「ニッポンの教育ログを考える(後編)」(2022年1月20日)でつぎのように述べています。

OECDガイドラインの2つ目の原則である「データ内容の原則」(Data Quality Principle)は、personal dataはその利用目的に対して「relevant」でなければならないと言っている。「Personal data should be relevant to the purposes for which they are to be used」ってなっているのです。 (略)

今回の件について言いたいのは、この「Personal data should be relevant to the purposes for ……」という基本原則の意味は、データ分析をして本人を評価するに際しては、目的に関連しているデータしか使っちゃダメって言ってるんですね。「関係ないデータを使うな」って言ってるんですよ。

で、その「関係ない」っていうのはどういうことなのか。いくら言葉だけ見てても意味わからないわけですけど、立案にかかわった人の論文を見ると、具体的に説明されていて、例えば、政府が所得税額を計算するのにコンピューターを使う際に、収入額とかを基に個人データ処理するのは「目的に関連している」データを用いた評価なんだけども、そこに日頃の生活の素行みたいなデータを入れて税額を計算したら、それはおかしいだろうってことになる。そのような場合のことを「関係ないデータを使っている」と言ってるわけです。
(カフェJILIS「ニッポンの教育ログを考える(後編)」の高木浩光先生発言より。)

この高木先生の見解によると、生徒の不登校を予測するAIを機械学習させるためのデータとして、「出欠情報、教育相談、いじめの有無、心理検査、心理アンケート」などは「関連性がある」といえると思われますが、「体重、肥満、歯科検診結果、数学の点数」などは「関連性がない」ものとして、このような項目により機械学習させたAIの予測モデルは「関連性のないデータによる個人の選別・差別」に該当し、つまりOECD8原則の第二原則の「データ内容の原則」に抵触しているのではないでしょうか。

また、同じくカフェJILIS「ニッポンの教育ログを考える(後編)」では、弁護士の板倉陽一郎先生も、つぎのようにEUのAI規制法(2024年3月13日に欧州議会が最終案を可決)の観点から日本の教育データの利活用を批判されています。

最新の公的な文書としてはEUのAI規則案ですよ。EUのAI規則案で、4つの種類のAIだけは絶対禁止ってしてるんです(shall be prohibited,5条1項(a)-(d))。(略)

4つの種類だけは絶対やめようっていう中に、(公的機関が)「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをする」scoringという類型があります(5条1項(c))。コンテキストと関係がないっていうのが、今のrelevancyの現在地ですよ。そういうscoringはやめようっていうのが、そのAI規則案が4つだけ禁止している、絶対ダメなものひとつなんです。教育ログは、そこにちょっとね、一歩入りかけとるわけですよ。気をつけないといけない。

欧州が絶対ダメって言ってるんですからね。それをね、ニコニコして入れたらね。お前らバカなのかってなるじゃないですか。だから欧州に従えという話ではないですが,絶対禁止になっている4つのところぐらいは見ながらやっぱやらないとまずいですよね。だって他に禁止されてるのって、サブリミナルで自殺に追い込むAIとかそんなやつですよ?(5条1項(a))。それと同等程度にダメだっていうふうに言ってるわけです。
(カフェJILIS「ニッポンの教育ログを考える(後編)」の板倉陽一郎先生発言より。)
AI規制法禁止カテゴリ
総務省「EUのAI規制法案の概要」11頁より、禁止カテゴリのAIの4類型)

すなわち、EUのAI規制法が禁止カテゴリとしている4つのAIの一つは「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをするスコアリング」であり、デジタル庁やこども家庭庁が推進しているAIによる教育データの利活用はそれに該当すると板倉先生は指摘しています。

また、上で高木先生が述べている「関連性のない」とは、EUのAI規制法では「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをする」ことであると板倉先生は指摘されています。

この点を戸田市の実証実験で考えると、学校における健康診断、歯科検診、学力テストにおける数学の試験などは、生徒の健康状態を測る目的や教科の学習度合いを測る目的に収集されたデータであり、それらのデータを生徒の不登校の予測の目的で利用することは「最初に収集されたコンテキストとは関係ない社会的コンテキスト」=「関連性がない」と評価され、AI規制法5条1項(c)に抵触している可能性があるのではないでしょうか。(仮にもし日本にもEUのAI規制法が適用されるとするならば。)

3.まとめ

したがって、高木先生や板倉先生の考え方によれば、戸田市の生徒の不登校予測のためのAIモデルの実証実験や、デジタル庁やこども家庭庁等が推進している教育データの利活用政策は、OECD8原則の「データ内容の原則」およびEUのAI規制法5条1項(c)に抵触のおそれがあるのではないでしょか。このような施策をデジタル庁・こども家庭庁などの政府や戸田市などの自治体が推進していることは法的に大きな問題なのではないでしょうか。

4.補足:個人情報保護法の3年ごと見直し・自民党の「責任あるAI推進基本法(仮)」

なお、2023年11月より個人情報保護委員会(PPC)は、個人情報保護法のいわゆる「3年ごと見直し」のための検討を行っています。PPCの資料を読んでみると、AIやプロファイリング、子どもの個人情報保護などが議論の俎上にあがっています。また現行の不適正利用禁止規定(法19条)も条文の具体化が行われるのではないかと思われます。すると現在こども家庭庁などが推進している教育データの利活用政策などは見直しを余儀なくされる可能性もあるのではないでしょうか。(個人の予想ですが。)

b0183ad4
(個人情報保護委員会サイトより)

また、2024年2月に自民党は「責任あるAI推進基本法(仮)」を公表しています。しかし同法案は、大手のAI開発事業者を国が指定し、当該事業者に7つの体制整備義務を課し、あとはAI開発事業者の自主ルールにゆだねる内容で、EUのAI規制法の禁止カテゴリ・ハイリスクカテゴリなどのような規定は存在せず、全体としてAIの研究開発の発展を強く推進する内容となっているようであり、日本社会のAIのリスクの防止に不安が残る内容となっています。

AIの研究開発の発展も重要ですが、国民個人の権利利益の保護、個人の基本的人権や個人の人格権の保護も重要なのではないでしょうか(個情法1条、3条)。

責任ai基本法の骨子
(自民党サイトより)

■このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
・「不登校になりそうな児童生徒をAIが予測、戸田市の教育データ活用実証が示したこと」2024年4月4日付日経クロステック
・教育総合データベース(デジタル庁実証事業) の検討状況|戸田市
・内田洋行とPKSHAグループ、こども家庭庁の実証事業として埼玉県戸田市のこどもの不登校をAIで予測する取組みに参画|内田洋行
・ニッポンの教育ログを考える——プライバシーフリーク・カフェ#16(後編)|カフェJILIS
・EUのAI規制法案の概要|総務省

■関連するブログ記事
・小中学校のタブレットの操作ログの分析により児童を評価することを個人情報保護法・憲法から考えた-AI・教育の平等・データによる人の選別
・デジタル庁「教育データ利活用ロードマップ」は個人情報保護法・憲法的に大丈夫なのか?
・PPCの「個人情報保護法いわゆる3年ごと見直し規定に基づく検討」(2023年11月)を読んでみた
・個情委の「個人情報保護法いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)」を読んでみた

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

内閣府や厚労省等の検討会議で、健康・医療データについて本人同意なしに二次利用(目的外利用・第三者提供)を認める方向で検討がなされているようですが、この方向の検討に難治性の疾患の長年の患者の一人として反対です。

例えば、厚労省の検討会「健康・医療・介護情報利活用検討会 医療等情報の二次利用に関するワーキンググループ」の第2回資料をみると、健康・医療データを本人同意なしで二次利用する方向で議論しています。

第一回でいただいたご意見
(厚労省の検討会「健康・医療・介護情報利活用検討会 医療等情報の二次利用に関するワーキンググループ」の第2回資料より)

医療データ利活用の関する議論の全体像
「医療データの利活用に関する議論の全体像ー目指すべき未来」『医療データ利活用について(論点整理(骨子))』内閣府より)

医療データは要配慮個人情報・センシティブ情報であり、個人情報のなかでもとりわけ取扱注意な情報です(個人情報保護法2条3項、20条2項、27条2項ただし書き)。それを患者本人の同意を取らずに勝手に二次利用とは個情法の観点からもあまりにもおかしいと考えます。

プライバシーに関しては日本の憲法学では一応、自己情報コントロール権説(情報自己決定権説)が通説なのですから、その観点からも本人同意なしは説明がつかないと考えます。

(なお、有力説としては曽我部真裕教授などの「自らの個人情報を適切に取扱われる権利」説や、高木浩光氏の「関連性のない個人データによる個人の選別・差別禁止」説などがあるが、これらの説ではこの医療データの本人同意なしの二次利用の問題などについて、政府等から「いやいや貴方の医療データは適切に取扱います。もちろん関連性のない個人データで貴方を選別・差別したりしません。」と言われたときに患者・国民は何も反論できないという問題点がある。)

医療データは風邪のような軽微なものから、がんやHIV、精神病など社会的差別の原因となる疾病が多いのに、医療データを乱雑に扱ってよいとはとても思えません。とくに精神疾患は患者の内心(憲法19条)に直結しています。政府や製薬会社・IT企業等は、患者・国民の内心・内面や思想・信条に土足で踏み込むつもりなのでしょうか。これらの社会的差別の原因となる、あるいは患者の内面に直結する医療データを患者の本人同意なしに二次利用してよいとはとても思えません。

日本経済の発展のために医療データの利活用が必要だとしても、オプトアウト制度など何らかの患者本人が関与するしくみが絶対に必要だと考えます。

日本は中国やシンガポール等のような全体主義国家ではなく、国民主権の民主主義国なのですから(憲法1条)、国民の個人の尊重や基本的人権の確立が最も重要な国家目的のはずです(憲法13条、12条、97条)。患者・国民を国や製薬会社・IT企業等のために個人データを生産する家畜のように扱うことは絶対に止めるべきです。

健康・医療データについて本人同意なしに二次利用を認めることには患者の一人として私は反対です。政府は患者・国民不在でこういう検討を勝手に進めるのは止めてほしいと思います。

■関連するブログ記事
・健康保険証のマイナンバーカードへの一体化でカルテや処方箋等の医療データがマイナンバーに連結されることを考えた

■参考文献

・山本龍彦・曽我部真裕「自己情報コントロール権のゆくえ」『<超個人主義>の逆説』165頁
・高木浩光「個人情報保護から個人データ保護へ(6)」『情報法制研究』12 巻49頁
・黒澤修一郎「プライバシー権」『憲法学の現在地』(山本龍彦・横大道聡編)139頁
・成原慧「プライバシー」『Liberty2.0』(駒村圭吾編)187頁
・「患者データ利用 同意不要へ」読売新聞2023年7月26日付記事

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

ai_pet_family
情報法制研究所の高木浩光先生がTwitter(X)で「東京都教育ダッシュボードにおける教育データ取扱い方針について」を取り上げておられたので私も読んでみました。

ひろみちゅ
(高木浩光先生のTwitterより)

東京都教育ダッシュボードにおける教育データ取扱い方針について|東京都

教育ダッシュボードについて
(東京都「東京都教育ダッシュボードにおける教育データ取扱い方針について」より)

東京都教育ダッシュボードにおける教育データ取扱い方針
(東京都「東京都教育ダッシュボードにおける教育データ取扱い方針について」より)

この取扱い方針によると、教育データの利用目的は①生徒の学習指導・進路指導・生活指導、②指導方法の検討・学校経営の検討等となっています。しかしこれは漠然としており、また幅広すぎて、個情法61条(17条)の「利用目的をできるだけ特定」に抵触のおそれがあるのではないでしょうか。

また、この東京都の取組は、学校の学習データに係る個人データをありったけ集めて利用しようとしている点で個情法61条(17条)の「必要最小限」の趣旨に反しているように思われます。

さらにこの東京都の取組は、生徒の検診データや体力データ等で生徒の学習指導・進路指導・生活指導をするようですが、これは最近、高木先生が主張されておられる「関係のないデータで判断しない」とのOECDガイドライン第2原則違反ではないでしょうか。

加えて生徒・保護者の本人同意につき、オプトインでなくオプトアウト方式なのは大丈夫なのかと気になります。それとデータの保存期間が「卒業後5年間」となっているのは、やや長すぎるのではないかと思われます。

そもそも教育データで生活指導や児童福祉みたいなことを判断するのは個人データの「関連性」がなくアウトなのでは…と心配になります。

このように、東京都の「東京都教育ダッシュボードにおける教育データ取扱い方針について」はツッコミどころ満載です。東京都は再検討が必要なのではないでしょうか。

このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
ニッポンの教育ログを考える——プライバシーフリーク・カフェ#16(後編)|Cafe JILIS

■関連するブログ記事
デジタル庁「教育データ利活用ロードマップ」は個人情報保護法・憲法的に大丈夫なのか?
小中学校のタブレットの操作ログの分析により児童を評価することを個人情報保護法・憲法から考えた-AI・教育の平等・データによる人の選別
埼玉県の公立中学校の「集中しない生徒をリアルタイムで把握」するシステムを個人情報保護法や憲法から考えた

人気ブログランキング

PR




このエントリーをはてなブックマークに追加 mixiチェック

↑このページのトップヘ