なか2656のblog

とある会社の社員が、法律などをできるだけわかりやすく書いたブログです

タグ:プロファイリング

OIG2
(Microsoftのdesignerで生成)

1.はじめに

つぎの個人情報保護法改正にむけて、個人情報保護委員会が2024年3月6日付で「個人情報保護法いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)」(以下「本資料」)を公表しているので、個人的に興味深いと思った部分をまとめてみたいと思います。

本資料は大きく分けて、①生体データの取扱いに係る規律の在り方、②代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方、③不適正取得・不適正利用に係る規律の在り方、④個人関連情報の適正な取扱いに係る規律の在り方、の4つの部分に分かれています。

2.生体データの取扱いに係る規律の在り方

(1)犯罪予防や安全確保のための顔識別機能付きカメラシステムの利用について
本資料ではまず、犯罪予防や安全確保のための顔識別機能付きカメラシステム(防犯カメラ)について大きく取り上げられています。

PPC2頁
(本資料2頁)

つまり、個情委は「犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会」(以下「本検討会」)を開催し、2023年3月に報告書「犯罪予防や安全確保のための顔識別機能付きカメラシステムの利用について」(以下「本報告書」)を公表し、個人情報保護法ガイドラインQAの一部改正を行ったとして、同報告書や個情法ガイドラインQAの改正部分について簡単にまとめています。

■関連するブログ記事


本報告書の柱の一つは、"顔識別機能付きカメラシステムはそれだけでは個人が顔識別が行われていると合理的に判断できないため、事業者は店舗等につぎのような「顔識別機能付きカメラシステム作動中」などの掲示等が望ましい"ということだったと思います。

防犯カメラ作動中の掲示
(個人情報保護委員会「個人情報保護法いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)」3頁より)

しかし、JRや私鉄のホームや列車内などをみても、このような「顔識別機能付きカメラシステム作動中」との掲示は見たことがありません。やはり、個情法ガイドラインQAなどで「のぞましい」と書くレベルでは不十分であり、個情委は個人情報保護法や同施行規則などに根拠規定をおいて、掲示を事業者に義務付ける必要があるのではないでしょうか。

また、本検討会では顔識別機能付きカメラシステムの「誤登録」の問題(いわゆる「防犯カメラの万引き冤罪被害者の問題」)について、ごくわずかながら触れられていたのですが、それが本報告書にはほとんど盛り込まれていないことは問題だと思います。

そもそもこのような万引き犯DBなどのブラックリストについては、一律で個人情報保護法施行令5条が保有個人データの対象外としてしまっているわけですが(個情法16条4項参照)、そのような法令の規定のあり方は、誤登録された人々の権利利益の保護の観点から大きな問題であり、つぎの個人情報保護法改正の機会に見直しを行ってほしいと思われます。(また、個情法ガイドラインQAにも誤登録の問題に関するQAを追加する等の対応が必要と思われます。)

さらに、本検討会では、万引き犯などに関するブラックリストの個人データを小売業などが全国レベルでデータの共同利用(個情法27条5項3号)を行うことはさすがに共同利用の趣旨目的から行き過ぎであり、そのような共同利用を行うためには事前に個人情報保護委員会への相談を必要とするべきとの議論もなされていたところです。

しかし、本報告書ではそのような記載はなくなってしまっています。この点は、共同利用制度を不当に拡大解釈するものであり、次の個人情報保護法改正で、法令に法的根拠を置いた上で、全国レベルなどの共同利用について個人情報保護委員会への事前申請制度などを新設すべきだと思われます。

(2)生体データの取扱いに関する外国制度等
つぎに本資料では、生体データにかかわる、EUのGDPRやAI規制法などの規定ぶりや、データ保護当局による執行事例が紹介されています。韓国におけるFacebookによる本人同意のない顔識別テンプレートの収集などの事例が掲載されています(9頁)。

(3)生体データの取扱いに関する社会的反響の大きかった事例等
本資料が興味深いのは、「社会的反響の大きかった事例」についても掲載しているところだと思います。生体データに関しては、①2014年のJR大阪駅のカメラ事件、②2021年のJR東日本が駅構内に顔識別機能付き防犯カメラを設置し刑務所からの出所者や不審者等を監視しようとした事件、③渋谷100台AIカメラ設置プロジェクト事件、の3つが掲載されています(本資料10頁)。

ppc3年ごと見直し資料10頁
(本資料10頁)

■関連するブログ記事


3.代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方

(1)国内の他法令等における主な規律
本資料11頁以下では、「代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方」について取り上げられています。まず本資料11頁では、①独禁法2条9項5号ロや公取委「「デジタル・プラットフォーム事業者と個人情報等を提供する消費者との取引における優越的地位の濫用に関する独占禁止法上の考え方」、②金融分野の個人情報保護ガイドラインの与信業務に関する部分、とともに、③職業安定法5条の5および平成11年労働省告示141号、④労働安全衛生法104条、が取り上げられているのが興味深いです。

PPC11頁
(本資料11頁より)

とくに労安法104条が、事業者に対して、「労働者の健康の確保に必要な範囲を超えて、労働者の心身の状態に関する情報を収集・保管・使用すること」を原則禁止していることは注目されます。

最近、新型コロナの流行などによりリモートワークが広まっていますが、それと同時に企業側がPCなどにより従業者の集中度合いなどをモニタリングする事例が増えていますが、そのような事例はこの労安法104条との関係で違法とされる可能性があるのではないでしょうか。企業の人事・労務部門や法務部門の方々は今一度確認が必要なように思われます。

■関連するブログ記事


また、本資料12頁は裁判例が掲載されており、①企業が外回りの営業担当者にGPSシステムをつけさせたことが違法とされた事例(東京地判平24.5.31)、②受刑者を7か月にわたり天井に監視カメラのある独房に入れたことが違法とされた熊本刑務所の事例(福岡高判平31.2.21)、の概要が載っています。

さらに、本資料13頁は、①市営住宅の自治会の役員を決めるにあたり、知的障害者の方に自分の病状などを詳細に紙に書かせる等したことが違法とされた裁判例(大阪高判令4.9.2)、②会社の元役員を告訴しようとした従業員に対して人事担当者がその詳細を問いただしたことが違法とされた裁判例(東京地判令5.4.10)、の2つの裁判例が「代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方」に関する裁判例として掲載されていることが興味深いです。このような事例は、これまではあまり個人情報法制に関する問題とは考えられてこなかったと思われますが、個情委は個人情報保護に関する問題ととらえていることがうかがわれます。

本資料に先立つ、令和6年2月21日付の個情委の「個人情報保護法いわゆる3年ごと見直し規定に基づく検討項目」3頁では、個情委の委員の意見の一つに「本人同意があれば何でもよいということではなく、当事者の従属関係等も考慮して、実体的な権利利益保護の在り方を検討すべき」との意見が掲載されていますが、本資料の「代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方」の部分は、このような個情委の問題意識を反映したものと考えられます。

PPCこれまでの主な意見
(個情委2024年2月21日付「個人情報保護法いわゆる3年ごと見直し規定に基づく検討項目」3頁より)

現状の日本の個人情報保護法においては、本人の同意さえあれば個人情報の目的外利用や第三者提供、要配慮個人情報の収集や第三者提供等が合法となっており、さらに「同意」についても口頭でもよく、さらに医療分野においては「黙示の同意」も許されるなどと非常にゆるい規律がなされているわけですが、次の個人情報保護法改正では、個人の権利利益保護のため、これらの部分の規律が強まるのかもしれません。

(2)代替困難と評価し得る者による個人情報の取扱いに関する海外における主な執行事例等
この部分においては、GoogleやFacebookなどの、本人同意のない個人データのターゲティング広告などへの利用などに対する各国のデータ保護当局による執行事例などが掲載されています(本資料14頁、15頁)。

(3)代替困難と評価し得る者による個人情報の取扱いに関連する個人情報保護法に基づくこれまでの行政上の対応
この部分については1ページを丸々使って2019年の就活生の内定辞退予測データに関するリクナビ事件を取り上げています。まさにAIとプロファイリング、そして個人関連情報や個人情報の不適正利用に関する重要な事件といえます(本資料16頁)。

PPC資料リクナビ事件
(本資料16頁)

■関連するブログ記事


4.不適正取得・不適正利用に係る規律の在り方

(1)不適正取得・不適正利用に係る個人情報保護法に基づくこれまでの行政上の対応
この部分においては、①破産者マップ事件、②名簿屋への個人情報の第三者提供に関する有限会社ビジネスプランニング事件、などが掲載されています(19頁)。

(2)個人情報の取扱いの適正性に関連する国内の主な他法令の規律(概要)
この部分については、①公益通報者保護法11条2項、②障害者差別解消法8条1項、③特定商取引法7条1項5号、などが掲載されています(20頁)。ただ、③についてはいわゆる適合性原則に関するものなので、金融商品取引法40条なども掲載したほうがよかったのではと思いました。

(3)個人情報の取扱いの適正性に関連する主な裁判例
この部分においては、①トランスジェンダーの方が経営する会社が会員制ゴルフクラブに入会しようとしたところ入会を拒否されたことは違法であるとされた裁判例(東京地判平27.7.1)、②東京医大など医学部不正入試事件(東京高判5.5.30)、などが掲載されています(21頁、22頁)。

これらの事件は、従来はあまり個人情報保護法制上の論点とはされていなかったと思われますが、「データによる個人の選別・差別」の問題ということはできます。近年、「関連性のないデータによる個人の選別・差別」が個人情報保護法(個人データ保護法)の趣旨・目的であるとする情報法制研究所の高木浩光氏などの学説が影響しているのかもしれません。

なお、本資料24頁には、アメリカ・イギリスにおける選挙・民主政との関係で大きな問題となった、ケンブリッジ・アナリティカ事件も掲載されています。

いずれにせよ、現状の不適正利用禁止の条文は抽象的で個情委としても執行しにくいと思われますが、つぎの個人情報保護法改正では、不適正利用禁止の条文をより具体化し、AIやプロファイリングの問題などに対して発動しやすくしていただきたいと思います。

5.個人関連情報の適正な取扱いに係る規律の在り方

「個人関連情報の取扱いに起因する個人の権利利益の侵害に関連する主な裁判例」(本資料27頁)の部分では、さいたま市の公立学校の体罰事故報告書の開示請求に関する裁判例(東京高判令4.9.15)などが掲載されています。報告書のなかの自己の状況などが非開示情報となるか否かが争点となっています。

PPC資料27頁
(本資料27頁)

個人関連情報の話とはややずれますが、この東京高判令4.9.15については、「「特定の個人を識別することはできないが、公にすることにより、なお個人の権利利益を害するおそれがあるもの」とは、本人の財産権等の正当な権利利益が害されるおそれのあるものや、個人の人格と密接に関連しており、当該個人がその流通をコントロールすることが可能であるべきであり、本人の同意なしに第三者に流通されることが適切でないものなどの社会通念上秘匿性の高い法的保護に値する情報をいう」と判示しているところ、下線部分が日本の憲法上のプライバシーの趣旨・目的の通説的立場である自己情報コントロール権的である点が興味深いと思いました。

■このブログ記事が面白かったらシェアやブックマークをお願いします!

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

めぶくpay概要
(前橋市サイトより)

1.はじめに

最近、Twitter(現X)でawakoyot様(@awakoyot)から、”前橋市が地域電子通貨「めぶくpay」の決済データを市政や民間ビジネスに利活用するとのことだが、このようなことは個人情報保護法等から大丈夫なのだろうか?”との趣旨のツイートとともに、東京新聞の記事(「「めぶくPAY」前橋市で始動 決済データを市政やビジネスに活用」(2024年1月13日))やめぶくpay等の利用規約・プライバシーポリシーなどを紹介いただいたので、興味深く読んでみました。

めぶくpay等の利用規約やプライバシーポリシーには「決済データを市政や民間ビジネスなどに利活用する」等とは明記されていませんが、めぶくpay等による決済データを市政や民間ビジネスなどに利活用することは個人情報保護法などから大丈夫なのでしょうか?

2.めぶくpay・めぶくID等の概要・利用規約・プライバシーポリシー

(1)上の東京新聞の記事などによると、前橋市の地域電子通貨「めぶくpay」は、同市と民間企業が共同出資した株式会社めぶくグラウンドが手掛ける共通ID「めぶくID」を利用した「めぶくアプリ」というデータ連携基盤を利用しているものであるそうです。めぶくIDは、マイナンバーカードによる本人確認を実施した上でスマートフォン上に実装されるデジタルIDであるそうです。そして同記事においては、「めぶくpayの決済データはめぶくグラウンド社という地域に残る前橋市独自の仕組みであり、このめぶくpayの決済データを統計処理して、同市の行政サービスや市内の民間ビジネスなどに利活用することができる」ことが強調されています。

そして、めぶくID・めぶくアプリというデータ連携基盤は、めぶくグラウンド社の「助け合い掲示板」「グッドグロウまえばし」「メブクラスまえばし」「my Allergy alert」という各種サービスとデータ連携しており、また今回のmy FinTech株式会社の運営する、めぶくpay等とデータ連携しているとのことです。このデータ連携基盤と各種サービスとの間においては、利用者が自分自身の個人データをどのサービス・事業者に提供・連携するか選択できるようになっているとのことです。

めぶくpay・めぶくIDなどの概要図

(2)この点、めぶくグラウンド社の利用規約およびプライバシーポリシーをみると、たしかに「当社は…本サービス中においてデータ連携サービスを提供しています。お客様はご自身の判断で個人情報を提供するか否かを決定することができます」等と規定されています(めぶくグラウンド社利用規約6条2項、同社プライバシーポリシー5条1項など)。また、個人情報の各種サービスへの第三者提供にあたっては、「当社が本サービス上等でお客様に事前通知する情報のみを提供し」ますと規定されています(同社利用規約6条5項)。さらにこのめぶくアプリ等によるデータ連携基盤と各種サービスとの個人データの提供は、委託や共同利用ではなく第三者提供であることが明記されています(同社プライバシーポリシー6条)。

めぶくID
(前橋市サイトより)

(3)つまり利用規約・プライバシーポリシーによると、めぶくアプリ・めぶくID・めぶくpayなどにおける個人データの取扱いはあくまでも利用者本人の同意に基づく個人データのやり取りであり、個人データの官民による利用等に関しては、原則として本人同意した利用者が責任を負うというスキームになっています。委託におけるいわゆる「委託の「混ぜるな危険」の問題」などの規制は適用されないことになります。

3.めぶくpayの決済データを市政や民間ビジネスに利活用することについて

(1)さらに、個人情報を元に作成された統計情報・統計データはそもそも個人情報に該当しないため(個情法2条1項1号、個人情報保護法ガイドラインQA1-17)、前橋市やめぶくグラウンド社およびmy FinTech社などが市政や民間ビジネスなどに、めぶくpayの決済データを「統計情報・統計データ」として利用する限りにおいては、少なくとも現状のゆるい日本の個人情報保護法上は違法ではなく、加えて統計情報・統計データを市政や民間ビジネスに利用する場合にはプライバシーポリシー等に記載して通知・公表することも不要ということになりそうです(個人情報保護法ガイドラインQA2-5)。

(2)しかし、いくら日本のゆるゆるな個人情報保護法がそのような取扱いを許容するとしても、前橋市などの地方自治体や同自治体が出資する準公的団体がそのような個人情報の取扱いを行うことは、道義的あるいは政治的に許容されるのでしょうか?

この点、前橋市の未来創造部未来政策課の担当者の方に私が電話にて質問したところ、

「めぶくpayの決済データを市政や民間ビジネスに利用することについては、技術的には可能だがまだ検討中の段階である。めぶくpayやめぶくアプリなどで取得された個人データを第三者提供することや、同データをプロファイリングすることについても技術的には可能だがまだ検討中の段階である。」


との趣旨のご回答をいただきました。

このご回答がもし正しければ、上であげた東京新聞の記事はやや「飛ばし記事」であるように思われます。

(3)なお、これがもし、めぶくグラウンド社・my FinTech社等が統計情報・統計データではなく、個人データとしての決済データをAIによるプロファイリングなどを行って、その結果を前橋市の市政や民間ビジネス等に利活用する場合には、「プロファイリングを実施してその結果を市政に利用している」等の事項をプライバシーポリシーの利用目的に記載する等して利用目的を特定し、通知・公表を行うことが必要です(個情法17条1項、21条1項、個情法ガイドライン通則編3-3-1※1、田中浩之ほか『AIプロファイリングの法律問題』43頁)。

4.まとめ

このように検討してみると、もしめぶくグラウンド社などがめぶくpayの決済データ等を統計データの形で市政や民間ビジネスなどに利用するのであれば、それはゆるいわが国の個人情報保護法や、めぶくグラウンド社などの利用規約・プライバシーポリシーなどとの関係では違法ではないという結論になりそうです。しかしこれも上述したとおり、前橋市の担当部署の担当者の方は、そのような取組みは「可能ではあるがまだ検討中」と回答しています。これが本当であれば、冒頭の東京新聞の記事はやや飛ばし記事なのではないかと思われます。

このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
・「めぶくPAY」前橋市で始動 決済データを市政やビジネスに活用|東京新聞
・安心・安全なデジタルID「めぶくID」を是非ご活用ください!|前橋市
・めぶくグラウンド社利用規約
・めぶくグラウンド社プライバシーポリシー
・my FinTech社プライバシーポリシー
・田中浩之ほか『AIプロファイリングの法律問題』43頁

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

MAQtIMFa
ヤフーニュース「「聞いてるふり」は通じない? 集中しない生徒をリアルタイムで把握 教員からは期待、「管理強化」に懸念も」より

1.生徒の集中力をモニタリングするシステム
2023年6月21日付のヤフーニュースと共同通信の「「聞いてるふり」は通じない? 集中しない生徒をリアルタイムで把握 教員からは期待、「管理強化」に懸念も」という記事がネット上で注目を集めています。

これは元国立健康・栄養研究所協力研究員の高山光尚氏とヘルスケアIT企業のバイタルDX社が開発したシステムを埼玉県久喜市立鷲宮中学校で利用しているものであるそうで、生徒一人ひとりにリストバンド型のウェアラブル端末をつけさせ、収集した脈拍データから生徒の授業への集中度を把握するものであるそうです。

すなわち、「(1)登校した生徒は、それぞれに割り当てられたリストバンド型の端末を装着する。端末は生徒の脈拍を刻一刻と記録。(2)そのデータは、教室の隅に置かれた小さなボックス型の機器に自動送信。集約され、インターネットを通じてサーバーへ。(3)サーバー上では、脈拍データが特別な計算式に当てはめられ、一人一人の集中度が割り出される。結果は先生の手元のノートパソコンに折れ線グラフで表示。グラフは保存され、授業後に見返すこともできる。」という仕組みであるそうです。

ヤフーニュース
(ヤフーニュース「「聞いてるふり」は通じない? 集中しない生徒をリアルタイムで把握 教員からは期待、「管理強化」に懸念も」より)

学校や教師側からすれば、生徒の集中力を簡単にモニタリングできる便利なシステムですが、まるで生徒の内心をのぞき込むようなこのシステムは法的に許容されるのでしょうか?

2.もしこれがEUだったら
もしこれがEUであったら、このシステムはGDPR22条のプロファイリング拒否権に抵触する可能性があるのではないでしょうか。またEU議会では本年6月にAI規制法案が可決したとのことですが、AI規制法はAIの利用をそのリスクから4段階で規制しているところ、このように教育分野に関するAIは上から2つ目のハイリスクに分類され、規制されることとなっています。そのためAI規制法においてもこの鷲宮中学校の取組は規制を受けることになります。

3.日本の場合
(1)プライバシー権・内心の自由
日本の憲法・法律から考えてみると、まず本システムが生徒の集中力をモニタリングしていることから、生徒の内心の自由(憲法19条)を侵害しているのではないかが問題となります。

ここでいう内心や思想及び良心とは、世界観、人生観、主義・主張などの個人の人格的な内面的精神的作用を広く含むものとされています(芦部信喜『憲法 第7版』155頁)。ただしこの憲法上保障される内心や思想・良心は、世界観、人生観など個人の人格形成に必要な、もしくはそれに関連のある内面的な精神作用であると判例・学説は解しているので(謝罪広告強制事件・最高裁昭和31年7月4日判決・芦部前掲156頁)、本事例のようにただ集中力をモニタリングしただけでは内心や思想・良心の自由を侵害したとまでは言えないのかもしれません。

(2)プライバシー権-F社Z事業部電子メール事件
つぎに本システムは生徒のプライバシー権との関係が問題となります。この点、ある企業が従業員のメールをモニタリングしていた事例において裁判所は、「監視の目的、手段およびその態様等を総合考量し、監視される側に生じた不利益とを比較考量の上、社会通念上相当な範囲を逸脱した監視がなされた場合、プライバシー権の侵害となる」と判断しています。

つまり、企業の従業員のメール等の監視について、その目的・手段およびその態様等を総合考量し、社会通念上相当と認められる範囲を超えた監視は違法として不法行為による損害賠償責任が発生すると裁判所は考えているのです(民法709条、憲法13条、F社Z事業部電子メール事件(東京地裁平成13年12月3日判決))。

本事例は企業ではなく学校での取組みですが、生徒が教師や学校に指揮命令されているという関係は類似しています。そして、別に犯罪などを犯したわけでもない生徒たちにリストバンドのウェアラブル端末を着けさせて、授業時間中に継続的・網羅的に心拍データを収集していること、心拍データは要配慮個人情報そのものではないがそれに類するバイタルデータであること、生徒本人や保護者から明確な同意が取得されていないようであること等から、このF社Z事業部電子メール事件判決に照らすと、社会的相当性を欠いてプライバシー侵害であると判断される余地があるのではないでしょうか。

(3)個人情報保護法
本事例では生徒一人ひとりから脈拍データを継続的・網羅的に取得し、それを情報システムで分析して生徒一人ひとりの集中度データを継続的・網羅的に作成しています。そのためこれらのデータは個人情報に該当するといえます(個人情報保護法2条1項1号)。

そのため、地方自治体は個人情報保護法第5章に掲げられた義務を負いますが、例えば上でみたF社Z事業部電子メール事件判決に照らして、本システムはややグレーな個人情報の取扱いであるところ、本システムを利用した生徒のモニタリングは、個人情報保護法63条(「地方公共団体の機関は…違法又は不当な行為を助長し、又は誘発するおそれがある方法により個人情報を利用してはならない」 )の不適正利用の禁止に抵触するおそれがあるのではないでしょうか。

個人情報保護法
(不適正な利用の禁止)
第63条 行政機関の長(第二条第八項第四号及び第五号の政令で定める機関にあっては、その機関ごとに政令で定める者をいう。以下この章及び第百七十四条において同じ。)、地方公共団体の機関、独立行政法人等及び地方独立行政法人(以下この章及び次章において「行政機関の長等」という。)は、違法又は不当な行為を助長し、又は誘発するおそれがある方法により個人情報を利用してはならない。

(なお、この個情法の不適正利用の禁止の条文(19条、63条)はいわゆるプロファイリング規制のために令和2年の個人情報保護法改正で盛り込まれた条文の一つです(佐脇紀代志『一問一答令和2年改正個人情報保護法』)。)

(4)個人情報保護法ガイドラインQA5-7
さらにこの点、学校に関してではないですが、個人情報保護委員会の個人情報保護法ガイドラインQA5-7は使用者による従業員のモニタリングについてつぎのように規定しています。
①モニタリングの目的をあらかじめ特定し、社内規程等に定め、従業員に明示すること。
②モニタリングの実施に関する責任者及びその権限を定めること。
③あらかじめモニタリングの実施に関するルールを策定し、その内容を運用者に徹底すること。
④モニタリングがあらかじめ定めたルールに従って適正に行われているか、確認を行うこと。
2ade7521-s
(個人情報保護法ガイドラインQA5-7)

このように個人情報保護法ガイドラインQAは企業による従業員のモニタリングにおいては、モニタリングに関する規定やルールを策定し、責任者を定め、適切な運用を行うよう求めています。本事例は学校内のモニタリングに関するものとしてこのQA5-7に類似する取組みといえますが、教育委員会や市立鷲宮中学校がQAにあるような適切な運用を行っているのか疑問が残ります。

4.まとめ
このようにこの市立鷲宮中学校の生徒の脈拍データから集中度をモニタリングする取組みは、F社Z事業部電子メール事件判決などの裁判例に照らして生徒のプライバシー侵害による不法行為に基づく損害賠償責任のおそれがあり、また個人情報保護法63条の不適正利用の禁止に抵触するおそれがあるのではないでしょうか。

日本ではとかく「個人情報の利活用」ばかりが強調されていますが、個人情報保護法の趣旨・目的は個人情報の利活用とともに個人の権利利益の保護のバランスをとることにあります(法1条、3項)。市立鷲宮中学校や埼玉県久喜市の教育委員会、バイタルDX社などは本取組みを今一度慎重に再検討する必要があるのではないでしょうか。

このブログ記事が面白かったらシェアやブックマークをお願いします!

■関連するブログ記事
・デジタル庁「教育データ利活用ロードマップ」は個人情報保護法・憲法的に大丈夫なのか?
・コロナ下のテレワーク等におけるPCなどを利用した従業員のモニタリング・監視を考えた(追記あり)

・従業員をスマホでモニタリングし「幸福度」「ハピネス度」を判定する日立の新事業を労働法・個人情報保護法的に考えた

人気ブログランキング

PR






このエントリーをはてなブックマークに追加 mixiチェック

LINEポケットマネーTOP

1.消費者金融の主戦場がスマートフォンに
最近の日経新聞の記事(「消費者金融、スマホ申し込み9割 LINEはペイ借り入れも」)によると、消費者金融の主戦場が店舗からスマートフォンに移行しているそうです。同記事はLINE子会社の消費者金融「LINEクレジット」の「LINEポケットマネー」とその前提となる信用スコアリングの「LINEスコア」について解説しています。

ところで同記事によると、LINEスコアではAI分析により、LINEの利用において「1か月前より友だち(連絡先)が減少した場合には、延滞や貸し倒れの確率(リスク)が2倍になった」等の分析結果を割り出し信用スコアリングを行っていることに、ネット上では「LINEの「友だち」が減ると信用スコアが減ってしまうのか!?」等と驚きや困惑の声が広がっています。

LINEクレジットの与信判断の例
(LINEクレジットの与信判断の例。「消費者金融、スマホ申し込み9割 LINEはペイ借り入れも」日経新聞記事より)

2.プロファイリングと差別の問題
2022年4月に公表された、商事法務の「パーソナルデータ+α研究会」の「プロファイリングに関する最終提言」4頁によると、AI等によるプロファイリングとは「パーソナルデータとアルゴリズムを用いて、特定の個人の趣味嗜好、能力、信用力、知性、振る舞いなどを分析・予測すること」と定義されています。そしてプロファイリングの具体例は「融資の場面におけるAIを用いた個人の信用力の測定」などであるとされています。つまりLINEポケットマネーおよびLINEスコアはAIによるプロファイリングの問題といえます。

そしてプロファイリングにおいては差別のおそれが重要なリスクです。つまり、AIに学習させた個人データのデータセットに、もし人種や性別などの個人の属性に関するバイアス(偏り)が存在していた場合、そのバイアスが含まれた評価結果が生成され、結果として審査等の対象となる個人が不当な差別を受けるおそれがあります。

例えば2018年に米アマゾンがAIを用いた人事採用システムを導入した後、女性の評価が不当に低い欠陥が発覚し当該システムの利用を取りやめた事例は注目を集めました。このように不当な差別が意図せず生じてしまうことに、AIによるプロファイリングの恐ろしさがあります。また、AIを活用した機械的な審査では、対象者のスキルや実績などを十分に評価できず、特定の属性を持つ者に対して不当に厳しい条件が出力されてしまうおそれもあり、人間による判断が介在しないことは危険であると考えられます(久保田真悟「プロファイリングのリスクと実務上の留意点」『銀行法務21』890号(2022年10月号)45頁、47頁)。

この点、LINEポケットマネー・LINEスコアの「1か月前より友だち(連絡先)が減少した場合には、延滞や貸し倒れの確立(リスク)が2倍になった」等のAIの機械学習による評価結果には本当に不当な差別を招くバイアスが含まれていないかには疑問が残ります。(なおLINEポケットマネーのサイトを読むと「10分で融資可能か審査します」等と記載されており、人間の判断が介在していないのではと思われます。)

3.プロファイリングにおける要配慮個人情報の推知と取得の問題
プロファイリングによる個人データの生成行為(あるいは推知)が要配慮個人情報の「取得」に該当するかについては重要な解釈問題として議論されています(宇賀克也『新・個人情報保護法の逐条解説』215頁)。

しかしプライバシー権(憲法13条)との関係上、プロファイリングは要配慮個人情報やセンシティブ情報について、直接これらの情報を取得せずとも高い確率でこれらの情報を推知可能です。つまりプロファイリングによる要配慮個人情報の推知は取得とほぼ異ならないため、実務上は要配慮個人情報やセンシティブ情報の推知を取得とみなして業務対応を行うべきとの指摘がなされています(久保田・前掲46頁)。

この点、要配慮個人情報の取得については「本人の同意」が必要であるところ(個人情報保護法20条2項)、LINEポケットマネー(同クレジット)およびLINEスコアのプライバシーポリシーを読むと、「与信・融資の審査のために要配慮個人情報を取得・利用する」等との明示はなされておらず、本人の同意は十分に取得されていないのではないかとの疑問が残ります。(「本人の同意」については後述。)

(なお、LINE社のプレスリリース「【LINE】「LINE」、スペインの登録ユーザー数がヨーロッパ圏で初めて1,000万人を突破」などによると、LINEのスペインのユーザーは1000万人を超えているそうです。欧州のGDPR(一般データ保護規則)22条1項は、コンピュータやAIによる個人データの自動処理の結果のみをもって法的決定や重要な決定を下されない権利を規定し、同条2項はそのような処理のためには本人の明確な同意が必要であると規定しています。そのため、もしLINEポケットマネーのサービスがスペイン等の欧州のユーザーに提供されていた場合、LINEはGDPR22条2項違反のおそれがあります。)

4.「本人の同意」の方式をLINEは満たしているか?
個人情報保護法は上でみた法20条2項だけでなく、法18条(利用目的の制限)、法27条(第三者提供の制限)、法28条(外国にある第三者への提供の制限)および法31条(個人関連情報の提供の制限)などの場面で本人の同意の取得を事業者に義務付けています。この本人の同意の方法については、「事業の性質および個人情報の取得状況に応じ、本人が同意に係る判断を行うために必要と考えられる合理的かつ適切な方法」によらなければならないと解されています(岡村久道『個人情報保護法 第4版』119頁)。

そして金融業や信用業務に関しては一般の事業よりもデリケートな個人情報を扱うため、それぞれの分野の個人情報保護に関するガイドラインが制定されています。「金融分野における個人情報保護に関するガイドライン」3条は、金融機関に対して、本人の同意を得る場合には、原則として書面(電磁的記録を含む)によるとした上で、事業者が事前に作成した同意書面を用いる場合には、文字の大きさ及び文書の表現を変える等の措置を講じることが望ましいとしています。

また「信用分野における個人情報保護に関するガイドライン」Ⅱ.1.(3)は、与信事業者は本人の同意を得る場合には、原則として書面(電磁的記録を含む)によることとし、文字の大きさ、文章の表現その他の消費者の理解に影響する事項について消費者の理解を容易にするための講じることを義務付けています。債権管理回収業ガイドラインもほぼ同様の規定を置いています(岡村・前掲121頁)。

この点、LINEポケットマネーのユーザーの申込み画面をみると、つぎの画像のように、LINEクレジット(LINEポケットマネー)やLINEスコアの利用規約やプライバシーポリシーへのリンク一覧が貼られ、そのリンク横にチェックを入れる画面があるだけで「次へ」と進むボタンがあるだけとなっています。

LINEポケットマネー同意画面
(LINEポケットマネーの申込みの際の同意画面)

それぞれのプライバシーポリシーを個別に見ても、プロファイリングや要配慮個人情報を取得(または推知)することを明示した条項はありません。(LINEポケットマネーのプライバシーポリシーの「3.機微(センシティブ情報の取扱い)」には、「(7)保険業その他金融分野の事業のため」との条項があるが、「与信」、「融資」または「信用」などの明示はなく、文字の大きさや文章の表現などの工夫もなされていない。)

したがってLINEポケットマネーのサービスは、「文字の大きさ、文章の表現その他の消費者の理解に影響する事項について消費者の理解を容易にするための講じる」等の信用分野個人情報保護ガイドラインⅡ.1.(3)などの規定への違反があるといえます。

また、LINEポケットマネーのプライバシーポリシーを見ると、韓国の関連会社(決済・バンキングシステムのLINE Biz Plus等)に業務委託を行っているとありますが、外国にある第三者(韓国の関連会社)への業務委託があるにもかかわらず、上でみたようにユーザーの本人の同意を明確に得ていないことは、これも個人情報保護法28条や信用分野個人情報保護ガイドラインⅡ.1.(3)などの規定への違反であると思われます。(法28条(外国にある第三者への提供の制限)の「提供」には、「委託」や「共同利用」なども含むため。)

5.まとめ
このように、LINEポケットマネーおよびLINEスコアのサービスは、プロファイリングについて不当な差別のおそれがあり、また特に要配慮個人情報の推知・取得について個人情報保護法20条2項などの違反の可能性があり、さらにユーザーの本人の同意の取得について法28条や信用分野個人情報保護ガイドラインⅡ.1.(3)等の違反の可能性があると思われます。

このブログ記事が面白かったらブックマークやシェアをお願いします!

■参考文献
・宇賀克也『新・個人情報保護法の逐条解説』215頁
・岡村久道『個人情報保護法 第4版』119頁、121頁
・山本龍彦「AIと個人の尊重、プライバシー」『AIと憲法』59頁
・久保田真悟「プロファイリングのリスクと実務上の留意点」『銀行法務21』890号(2022年10月号)44頁
・ヤフーの信用スコアはなぜ知恵袋スコアになってしまったのか|高木浩光@自宅の日記
・「消費者金融、スマホ申し込み9割 LINEはペイ借り入れも」|日本経済新聞
・「プロファイリングに関する最終提言」|商事法務「パーソナルデータ+α研究会」

■関連する記事
・日銀『プライバシーの経済学入門』の「プロファイリングによって取得した情報は「個人情報」には該当しない」を個人情報保護法的に考えた(追記あり)
・LINEの個人情報・通信の秘密の中国・韓国への漏洩事故を個人情報保護法・電気通信事業法から考えた
・LINEの改正プライバシーポリシーがいろいろとひどいー委託の「混ぜるな危険」の問題・外国にある第三者
・ヤフーのYahoo!スコアは個人情報保護法的に大丈夫なのか?



[広告]








このエントリーをはてなブックマークに追加 mixiチェック

mynumber_people
1.はじめに
マイナンバー訴訟について、国民のプライバシー権(憲法13条)を侵害するものではないとする仙台高裁令和3年5月27日判決が『判例時報』2516号(2022年6月21日号)26頁に掲載されていました。ざっと読んでみたのですが、行政運営の効率化等の制度の目的は適法であり、法制度および情報システム技術上も相応の安全管理の対策が講じられているのでマイナンバー制度は違法・違憲ではないとの住基ネット訴訟(最高裁平成20年3月6日判決)のいわゆる「構造審査」を踏襲した判決となっているようです。本判決は結論は妥当であると思われますが、いくつか気になった点を見てみたいと思います。

・仙台高裁令和3年5月27日判決(令和2(ネ)272・各個人番号利用差止等請求控訴事件)|裁判所

判示事項の要旨
  控訴人らは,国のマイナンバー制度により憲法13条の保障するプライバシー権が侵害されると主張し,被控訴人国に対し,プライバシー権に基づく妨害排除又は妨害予防請求として個人番号の収集,保存,利用及び提供の差止め並びに削除を求め,国家賠償法1条1項に基づき各11万円(慰謝料10万円及び弁護士費用1万円)の損害賠償と訴状送達の日の翌日から民法所定の年5分の割合による遅延損害金の支払を求めた。

 マイナンバー制度によって,控訴人らが,憲法13条によって保障された「個人に関する情報をみだりに第三者に開示又は公表されない自由」を侵害され,又はその自由が侵害される具体的な危険があるとは認められないから,国がマイナンバー制度により控訴人らの個人番号及び特定個人情報を収集,保存,利用及び提供する行為が違法であるとは認められない。

 よって,プライバシー権に基づく妨害排除又は妨害予防請求として控訴人らの個人番号の収集,保存,利用及び提供の差止め並びに削除を求め,これらの行為による損害の賠償を求める控訴人らの請求は,国による個人番号の収集,保存,利用及び提供の行為が,控訴人らのプライバシー権を侵害する違法な行為であるとは認められないから,すべて理由がない。
(仙台高裁令和3年5月27日判決の判示事項。裁判所サイトより)

2.事案の概要
本件は、仙台市等に在住する8名の個人(Xら)が国のマイナンバー制度によりプライバシー権(憲法13条)が侵害されているとして、プライバシー権に基づく妨害排除又は妨害予防請求権として個人番号の収集・保存・利用及び提供の差止めと個人番号の削除を求めるとともに、国賠法1条1項に基づき慰謝料10万円と弁護士費用の損害賠償を求めるものです。Xらはプライバシー権の侵害とともに、自己情報コントロール権の侵害、またマイナンバー制度による個人情報の容易かつ確実な名寄せ・突合(データマッチング)により本人の関与のないままにその意に反して個人像が作られる危険があること等を主張しました。

3.判旨(仙台高裁令和3年5月27日判決・棄却・上告中)
(1)マイナンバー制度の趣旨目的、しくみ等について
本判決は、マイナンバー制度の趣旨目的について「行政機関…が個人番号…の有する特定の個人を識別する機能を活用し…行政運営の効率化及び行政分野におけるより公正な給付と負担の確立を図」るものであるとしています。

そして本判決は、個人番号および特定個人番号(個人番号を含む個人情報)の提供等ができる範囲は、「国・地方の機関での社会保障分野、国税・地方税の賦課徴収および防災に係る事務での利用」等に限定されているとしています。

(2)情報漏洩等を防止するための法制度上の措置
本判決は、情報漏洩等を防止するための法制度上の措置として、個人番号利用事務等実施者による個人番号の漏洩等を防止するために必要な措置(安全管理措置)の実施義務付け、行政機関等による情報提供の記録・保存の義務付け、情報連携が実施された際の記録を本人が確認するためのマイナポータルの設置、総務省等による秘密の管理のために必要な措置の実施義務付け、罰則の準備などの法制度上の措置が講じられていることを判示しています。

また、情報漏洩等のリスクを防ぐために、マイナンバー制度は個人情報を集中的に管理するのではなく、情報の分散管理などのシステム技術上の措置が講じられているとしています。

(3)マイナンバー制度の運用によるプライバシー侵害の有無
本判決は、「何人も個人に関する情報をみだりに第三者に開示又は公表されない自由」としてのプライバシー権を有するところ、Xらは、「マイナンバー制度の目的はこのようなプライバシー権を制約するための目的として、高度に重要であるとはいえない」と主張しているとしてその検討を行っています。

そしてマイナンバー制度は「社会保障・税制度の効率性・透明性を高め、国民にとって利便性の高い公平・公正な社会を実現するための社会基盤を構築するため」のものであるとして、重要性がないとはいえないとして、Xらのプライバシー権に関する主張を退けています。

(4)自己情報コントロール権について
Xらはマイナンバー制度は自己情報コントロール権の侵害であるとの主張も行っていますが、本判決は、「Xらの主張する自己情報コントロール権については、マイナンバー制度の運用によってXらの同意なく個人番号や個人番号に結び付いた特定個人情報を第三者に提供することが、すべて自己情報コントロール権の侵害となり、憲法13条の保障するプライバシー権の侵害にあたるという趣旨の主張であるとすれば、原判決「事実及び理由」第3の1の説示のとおり、そのような意味内容を有する自己情報コントロール権までは、憲法13条の保障するプライバシー権として認められるとは解されない。」と判示しています。

(5)マイナンバー制度によるプライバシー侵害の具体的な危険性について
本判決は、「マイナンバー制度で取り扱われる個人情報のなかには所得や社会保障の受給歴など秘匿性の高い情報も含まれること」や、「様々な個人情報が個人番号をキーに集積・集約されて本人が意図しない形で個人像が構築されるデータマッチングの危険」などがあることを認定しています。

しかし本判決は、「Xらが…プライバシー権に基づく妨害予防又は妨害排除請求として、Xらの個人番号の収集、保存、利用及び提供の差止め並びに削除を求め、これらの行為による損害の賠償を求め…るには、国がマイナンバー制度の運用によってXらの個人番号の収集、保存、利用及び提供をすることが違法であるといえる必要があり、制度の運用に…具体的な危険が生じているといえる必要がある」としています。

その上で本判決は、「マイナンバー制度は正当な行政目的の範囲内で行われるように制度設計がなされている」とし、さらに「法制度上も、システム技術上も、相当の措置が講じられている」としています(=「構造審査」)。

とはいえ本判決は「通知カードや個人番号カードが誤交付された事例」があることや、「平成30年分の公的年金等の受給者の扶養親族等申請書記載の個人番号を含む個人情報…が中国のインターネット上に流出し、自由に閲覧できる状態になっていた事故事例も発生している」と認定しています。

しかし本判決は、これらの事故事例は「人為的な誤りや不正行為に起因するものであり、番号利用法の法制度上又はシステム技術上の不備そのものに起因するものとはいえない」と判示していますが、この点については、法制度上又はシステム技術上の不備と人為的なミス等を分離して考えてよいのか疑問が残ります。

その上で本判決は、「Xらの懸念する個人情報の不正な利用や情報漏洩の危険性が一般的抽象的には認められるとしても、…具体的な危険を生じさせる…ということはできない」として、結局、「国がマイナンバー制度によりXらの個人番号を収集、保存、利用及び提供する行為が違法であるとは認められず、マイナンバー制度やこれを定めた番号利用法が憲法13条に違反してプライバシーの権利を侵害するものとは認められない」としてXらの請求を棄却しています(上告中)。

4.検討
(1)自己情報コントロール権について
1970年代以降のコンピュータの発達を受けて、憲法学の学説においては、プライバシー権を「一人でほっておいてもらう権利」(古典的プライバシー権)としてだけでなく、「個人の私生活上の事項を秘匿する権利を超えて、より積極的に公権力による個人情報の管理システムに対して、個人に開示請求、修正・削除請求、利用停止請求といった権利行使が認められるべきである」とする見解(自己情報コントロール権)が有力に展開されています。しかしこの権利は包括的である一方で、漠然性が高く法的な要件化が困難であるとの批判もなされています(渡辺康行・宍戸常寿・松本和彦・工藤達朗『憲法1基本権』121頁)。

ところで本判決は上の3.(4)の部分によると「原判決「事実及び理由」第3の1の説示のとおり」と述べているので、原判決(仙台地裁令和2年6月30日判決)の該当部分をみると、憲法12条、13条の条文がコピペされ、「憲法が国民に保障した権利が「公共の福祉」により制約されることを認めているから、個人に関する情報に係る国民の権利についても「公共の福祉」によって制約されることを認めていると解される」として自己情報コントロール権を否定しています。

しかしこれはやや乱暴な判示のように思われます。つまり、憲法12条、13条の「公共の福祉」による基本的人権とは、原則として「国民・個人の基本的人権は絶対無制限なものではなく、他の個人の基本的人権と衝突する限度において制約される」というものです(内在的制約説)。

ところが仙台地裁の原判決は、この憲法12条、13条を「国家が法律で制約さえすれば国民の基本的人権は制限できる」という意味で「公共の福祉」という用語を使用しているように見えますが、これはまるで明治憲法の「法律の留保」と同様の理解のようであり、現行憲法の理解として疑問が残ります。現行憲法は明治憲法と異なり天皇主権(政府主権)ではなく国民主権(現行憲法1条)であり、また国民の個人の尊重と基本的人権の確立という目的のために行政などの統治機構は手段として存在する構造をとっています(11条、97条)。

そのため、政府・国会が企画・立案して制定した「社会保障・税制度の効率性・透明性を高め、国民にとって利便性の高い公平・公正な社会を実現するための社会基盤を構築するため」のマイナンバー制度を国民はありがたく推し戴くべきであり、そのためには当然に国民の基本的人権は制限されるという考え方は明治憲法に先祖返りするようなもので疑問が残ります。

この原判決の考え方を是認した仙台高裁の本判決を含め、裁判所は自己情報コントロール権についてより精密な判断を行うべきではないかと思われます。本判決はせっかく国民本人に勝手に公権力が個人番号をキーにして個人情報を名寄せ・突合して個人像を作成してしまうデータマッチング、あるいはプロファイリングの危険性については認めたのですから、「自己の情報の開示・非開示、そして開示する場合はその内容について相手に応じて自分が決定できる」という自己情報コントロール権についてより精密な検討を行ってほしいと思います。

(2)個人情報漏洩事故は人為的なミスに過ぎないのか?
また、本判決は上の3.(5)でみたように、全国で発生している通知カードや個人番号カードの誤交付や漏洩などは「人為的なミス」に過ぎないとして、マイナンバー制度は「法制度やシステム技術」に準備された各種の措置には落ち度はないので制度として問題ないと強調しています。

しかし、マイナンバー法は委託・再委託の規律(法10条、11条)や個人番号利用事務等実施者に安全管理措置を義務付け(法12条)、総務大臣などに秘密の管理のために必要な措置の実施を義務付け(法24条)などの法的規定を置いており、それを受けてシステム上の措置として、情報提供ネットワークシステムにおけるアクセス制御や地方自治体におけるシステムのインターネットからの分離などが義務付けられているのです。

にもかかわらず全国の自治体等で通知カードや個人番号カードの誤交付や漏洩などの漏洩事故が多発し、平成30年には日本年金機構の約500万件もの大量の個人番号を含む個人情報が中国に漏洩してしまったという事件が発生していることは、人為的なミスでは済まされず、マイナンバー法の法制度やシステム技術そのものに重大な問題があると考えるべきなのではないでしょうか。

すなわち本判決が前提としている住基ネット訴訟で最高裁が示した「構造審査」は、その前提が崩れているのではないでしょうか。

最近の2022年6月にも兵庫県尼崎市で、個人番号は含まれていませんでしたが、全市民約46万件の個人情報がUSBメモリにより持ち出され漏洩した事件が起きたばかりです(ただし当該USBメモリは回収された)。にもかかわらず裁判所がマイナンバー法は法制度と情報システムがしっかりしているのだから、マイナンバー制度には問題はないと判示することは空論なのではないかとの疑問が残ります。本裁判は上告中であり、最高裁の判断が待たれます。

■参考文献
・『判例時報』2516号26頁
・渡辺康行・宍戸常寿・松本和彦・工藤達朗『憲法1基本権』121頁
・黒澤修一郎「プライバシー権」『憲法学の現在地』(山本龍彦・横大道聡編)139頁
・山本龍彦「住基ネットの合憲性」『憲法判例百選1 第7版』42頁
・仙台高裁令和3年5月27日判決(令和2(ネ)272・各個人番号利用差止等請求控訴事件)|裁判所

■関連する記事
・尼崎市が全市民46万人分の個人情報の入ったUSBメモリを紛失したことを個人情報保護法制的に考えた(追記あり)
・日本年金機構の500万人分の個人情報が中国業者に-独法個人情報保護法から考える
・デジタル庁「教育データ利活用ロードマップ」は個人情報保護法・憲法的に大丈夫なのか?
・スーパーシティ構想・デジタル田園都市構想はマイナンバー法・個人情報保護法や憲法から大丈夫なのか?
・健康保険証のマイナンバーカードへの一体化でカルテや処方箋等の医療データがマイナンバーに連結されることを考えた
・xIDのマイナンバーをデジタルID化するサービスがマイナンバー法違反で炎上中(追記あり)



[広告]










このエントリーをはてなブックマークに追加 mixiチェック

↑このページのトップヘ