なか2656のblog

とある会社の社員が、法律などをできるだけわかりやすく書いたブログです

カテゴリ: AI・生成AI

ai_search
2025年4月11日のCNET Japanの記事によると、「ChatGPTを提供するOpenAIは4月11日、有料の「Plus」「Pro」プランでメモリ機能を強化し、過去の会話をすべて参照できるようにしたと発表した。これにより、より適切で有用なパーソナライズされた回答を提供できるようになる」とのことです。

これは「メモリ機能のオン・オフはユーザーが設定できる。「保存されたメモリを参照する」をオンにすれば、ユーザーの名前や好みなど、過去に保存した情報を参照するようになる。これは、ユーザーが明示的にChatGPTに伝えたとき、あるいはChatGPTが特に有用と判断した場合に、メモリに情報を追加する仕組みだ。チャット履歴を参照する設定をオンにすれば、ChatGPTは過去の会話にある情報を参照し、ユーザーの目標や興味、トーンなどに合わせて会話を進める。こちらはより広範囲に及ぶ設定だ。」という改正であるそうです。

この改正についてX(Twitter)では、「ChatGPTによるプロファイリングの精度があがっている」等の声があがっています。ある方のXの投稿では、ChatGPTに推測させてみたところ、「所属する業界、職業、年収、性別、年齢層、居住地、血液型、家族構成、MBTI診断結果などを当てられた」とのことで、これはなかなかゾッとするというか、恐ろしいものがあります。

この点、Xで、sabakichi(@knshtyk)氏は、「今回のアプデで気が付かされたが、個人のやり取りから学習した特徴のデータというのは要するに"究極の個人情報"であるから、将来的に法的に保護されるべき「個人情報」が指す範囲は今後拡張されていく必要があり、データの生殺与奪の権も利用先の制御もすべてユーザの手元で行える必要が出てくるのでは」と投稿していますが、この点は私も非常に同感です。

さばきち01
(sabakichi(@knshtyk)氏の投稿より)

最近、個人情報保護法については、「個情法の保護法益は何か?」という点について議論があるところです。これまで自己情報コントロール権(情報自己決定権)説が有力であったところ、最近は曽我部真裕教授などによる「自己の情報を適切に取扱われる権利説」や、高木浩光氏による「個人データによる個人の不当な選別・差別の防止説」が有力に主張されています。

しかし最近のChatGPTの猛烈な進化をみると、状況は今後変わってゆくのではないでしょうか。つまり、生成AIなどにより、どんどん個人の内心やプライバシーが緻密にプロファイリングされてしまう状況になり、その機微な情報をOpenAIなどのIT企業が収集・保管・利用するようになる、ビッグテック企業等がどんどん個人の内心やプライバシー、アイデンティティの部分に踏み込んでくると、「自己の個人情報が適切に取扱われる」ことや、「個人データによる個人の不当な選別・差別の防止」が達成されるだけでは不十分であり、sabakichi氏が上で投稿しているように、自己の個人情報・個人データの取扱いについて、個人がコントロールする必要性がより増加してくるのではないでしょうか。

すなわち、曽我部説や高木説に立つと、OpenAIなどのIT企業から「いやいや貴方の個人データはプライバシーポリシーで通知・公表した内容にしたがって適切に処理しています。もちろん不当な選別・差別は行っていません。なので、貴方の個人データをますますプロファイリングに利活用させていただきます」と言われたときに、個人の側としては何の反論もできなくなってしまうわけですが、ChatGPTなどの生成AIがどんどん進歩してゆく今日においては、そのような状況では個人の人間としての存立が危うくなってしまうのではないでしょうか。そのような状況においては、個人としては、自己の情報・データについて、収集したデータをこれ以上勝手に処理・プロファイリングするな、収集・利用・プロファイリングしたデータの利用を停止せよ・データを削除せよ等と主張することが、個人の尊厳、個人の尊重、個人の人格尊重(憲法13条、個情法3条)の保護のためにますます必要となってくるのではないでしょうか。

そのように考えると、生成AIの発展する今日においては、個情法の保護法益としては、「自己の情報を適切に取扱われる権利説」の側面や、「個人データによる個人の不当な選別・差別の防止説」の側面ももちろん重要ではありますが、それと同時に自己情報コントロール権(情報自己決定権)説の側面の重要性も増加しているように思われます。

人気ブログランキング

このエントリーをはてなブックマークに追加 mixiチェック

bouhan_camera
1.はじめに
現在、個人情報保護委員会は次の個人情報保護法改正の準備を進めており、今年度(令和7年度)の通常国会または臨時国会に改正法案を提出するともいわれています。そして、2025年2月19日に個情委が公表した、「個人情報保護法の制度的課題に対する考え方(案)について(個人データ等の取扱いの態様の多様化等に伴うリスクに適切に対応した規律の在り方)」は、①個人関連情報に関する規律の見直し、②顔特徴データ等に関する規律の在り方、③悪質な名簿屋対策としてのオプトアウト届出事業者への規律の見直し、の3点を取り上げていますが、②はこのブログで度々取り上げている顔識別機能付きカメラシステム(顔識別機能付き防犯カメラ)に関するものなので、本ブログ記事で取り上げてみたいと思います。

2.顔特徴データ等に関する規律の在り方
(1)上述の2月19日付の個情委の文書は、「2 本人が関知しないうちに容易に取得することが可能であり、一意性・不変性が高いため、本人の行動を長期にわたり追跡することに利用できる身体的特徴に係るデータ(顔特徴データ等)に関する規律の在り方」のなかで、顔識別機能付きカメラシステムによる顔特徴データ等について次のように説明しています。

「顔識別機能付きカメラシステム等のバイオメトリック技術の利用が拡大する中で、生体データ(注5)のうち、本人が関知しないうちに容易に(それゆえに大量に)入手することができ、かつ、一意性及び不変性が高く特定の個人を識別する効果が半永久的に継続するという性質を有する(注6)顔特徴データ等は、その他の生体データに比べてその取扱いが本人のプライバシー等の侵害に類型的につながりやすいという特徴を有することとなっている。」

「そこで、上記侵害を防止するとともに、顔特徴データ等の適正な利活用を促すため、顔特徴データ等の取扱いについて、透明性を確保した上で本人の関与を強化する規律を導入する必要があるのではないか。」

「具体的には、顔特徴データ等の取扱いに関する一定の事項(顔特徴データ等を取り扱う当該個人情報取扱事業者の名称・住所 ・代表者の氏名、顔特徴データ等を取り扱うこと、顔特徴データ等の利用目的、顔特徴データ等の元となった身体的特徴の内容、利用停止請求に応じる手続等)の周知を義務付けてはどうか。その場合において、一定の例外事由(例えば、周知により本人又は第三者の権利利益を害するおそれがある場合、周知により当該個人情報取扱事業者の権利又は正当な利益を害するおそれがある場合、国又は地方公共団体の事務の遂行に協力する必要がある場合であって、周知により当該事務の遂行に支障を及ぼすおそれがある場合等)を設ける必要があるのではないか。」

「また、顔特徴データ等(保有個人データであるものに限る。)について、違法行為の有無等を問うことなく利用停止等請求を行うことを可能としてはどうか。その場合において、一定の例外事由(例えば、本人の同意を得て作成又は取得された顔特徴データ等である場合、要配慮個人情報の取得に係る例外要件と同種の要件に該当する場合等)を設ける必要があるのではないか。」

「さらに、顔特徴データ等について、オプトアウト制度に基づく第三者提供(法第27条第2項)を認めないこととしてはどうか。」

(2)これまでも顔識別機能付き防犯カメラは、いわゆる「誤登録」(いわゆる「防犯カメラの冤罪被害者」)が問題となってきました。すなわち、スーパーや書店、ドラッグストアなどの店舗で、実際には万引きをしていないのに万引き犯として顔識別データがデータベースに登録されてしまい、当該店舗だけでなく情報連携を受けた他の店舗でも買い物ができなくなってしまうという問題です。今回の法改正案は、この誤登録の問題の解決に大きな前進となる可能性があると思われます。

本文書はまず、顔識別機能付き防犯カメラによる顔特徴データ等の取扱いに関する一定の事項(顔特徴データ等を取り扱う当該個人情報取扱事業者の名称・住所 ・代表者の氏名、顔特徴データ等を取り扱うこと、顔特徴データ等の利用目的、顔特徴データ等の元となった身体的特徴の内容、利用停止請求に応じる手続等)の周知を義務付けを行うとしています。

つぎに、本文書は、「顔特徴データ等(保有個人データであるものに限る。)について、違法行為の有無等を問うことなく利用停止等請求を行うことを可能としてはどうか。その場合において、一定の例外事由(例えば、本人の同意を得て作成又は取得された顔特徴データ等である場合、要配慮個人情報の取得に係る例外要件と同種の要件に該当する場合等)を設ける必要があるのではないか。」としている点は非常に画期的です。

つまり、一定の例外事由があるとはいえ、原則として理由を問わずに顔特徴データ等の利用停止等請求を認めるように法改正を行うこととしています。

(この点については、現行法は、個情法施行令5条が、「当該個人データの存否が明らかになることにより、本人又は第三者の生命、身体又は財産に危害が及ぶおそれがあるもの(施行令5条1号)」、「当該個人データの存否が明らかになることにより、違法又は不当な行為を助長し、又は誘発するおそれがあるもの(同2号)」等の場合には、当該個人データは保有個人データに該当せず、結果として利用停止等請求の対象にならないという仕組みになってしまっているのですが(個情法16条4項)、次の法改正でどうなるか気になるところです。)

さらに本文書は、「顔特徴データ等について、オプトアウト制度に基づく第三者提供(法第27条第2項)を認めないこととしてはどうか。」としています。つまり、顔特徴データ等について、要配慮個人情報のように、オプトアウト方式による第三者提供を認めないこととし、顔特徴データ等については原則に戻って第三者提供に本人同意が必要とするとしています。これは、顔特徴データの安易な第三者提供により、顔特徴データ等が転々と情報提供されてしまうことを防ぐものであり、これも画期的な改正であると思われます。

3.まとめ
このように、令和7年の個人情報保護法改正は、顔識別機能付き防犯カメラの誤登録の被害者の方々にとって大きな朗報となる可能性があります。まだ法案作成前の段階で、これから万防など業界団体・経済界などからの反対もあると思われ、法改正がどうなってゆくか不明ではありますが、法改正の動向を今後も引き続き注視してゆきたいと思います。

■関連するブログ記事
・防犯カメラ・顔識別機能付きカメラシステムに関する個人情報保護法ガイドラインQAの一部改正について
・JR東日本が防犯カメラ・顔認証技術により駅構内等の出所者や不審者等を監視することを個人情報保護法などから考えた(追記あり)
・防犯カメラ・顔認証システムと改正個人情報保護法/日置巴美弁護士の論文を読んで

人気ブログランキング

このエントリーをはてなブックマークに追加 mixiチェック

Screenshot_20250118-201323
(日本生命のLINE公式アカウント)

1.LINEヤフーが日本生命に「結婚予兆セグメント」のプロファイリングの個人データを販売
2025年1月13日のニュースイッチに「保険の成約率10倍以上に…日本生命、顧客開拓にLINE活用」日刊工業新聞2025年1月10日という興味深い記事が掲載されていました。

この記事によると、日本生命保険はLINEのLINE公式アカウントで友達登録したユーザーのうち、結婚する予兆のある層にピンポイントで保険を提案したところ、成約率がLINEを使わない提案手法に比べなんと10倍以上になったとのことです。「LINEヤフーはショッピングサイトの購買履歴などから傾向をつかみ、ユーザー・消費者をさまざまなセグメントに分類する。日本生命は自社のLINE公式アカウントの友達のうち、LINEヤフーが「結婚予兆セグメント」に分類した層にアプローチ」して、従来の10倍以上の保険契約の成約を達成したとのことです。

概要図
また、本記事によると、日本生命は同様に「転職活動の検討セグメント」の個人データもLINEヤフーから第三者提供を受けて採用活動に利用しているとのことで、さらに第一生命保険やT&Dグループも日本生命と同様にLINE公式アカウントを利用して保険の営業等を行っているとのことです。

たしかに保険の営業成績が10倍以上に伸びるということは大変なことであり、LINEヤフーや日本生命などのパートナー企業にとっては非常に素晴らしい話ですが、「結婚予兆セグメント」、「転職活動の検討セグメント」等の生々しいプロファイリングの第三者提供の話が出てくるとLINEのユーザー・消費者としては少し怖い気もします。(アメリカの大手スーパー・ターゲット社が顧客の購買履歴から妊娠をプロファイリングし該当する女性にベビー用品を販売した事件や、2019年のリクナビ事件などを連想する人も少なくないのではないかと思われます。*なお、ITメディアニュースの記事によると、NTTドコモもプロファイリング結果の第三者提供ビジネスを行っているそうです。

このようなLINEヤフーや日本生命などのパートナー企業のビジネスは、個人情報保護法などの関係からどのように考えられるのでしょうか。

2.プロファイリングについて
EUのGDPR22条などがプロファイリングについて法規制を行っている一方で、日本の個人情報保護法は真正面からはプロファイリングの法規制を行っていません。(プロファイリングの法規制については現在、個人情報保護委員会などで個情法改正に関連して検討が行われています。)

しかし、個情法17条1項は、事業者は「個人情報を取り扱うに当たっては、その利用の目的(以下「利用目的」という。)をできる限り特定しなければならない。」と利用目的の特定について規定し、個情委の個人情報保護法ガイドライン(通則編)の3-1-1(利用目的の特定(法第17条第1項関係))の「(※1)」はつぎのように規定しています。

【個人情報保護法ガイドライン(通則編)3-1-1】
(※1)「利用目的の特定」の趣旨は、個人情報を取り扱う者が、個人情報がどのような事業の用に供され、どのような目的で利用されるかについて明確な認識を持ち、できるだけ具体的に明確にすることにより、個人情報が取り扱われる範囲を確定するとともに、本人の予測を可能とすることである。 本人が、自らの個人情報がどのように取り扱われることとなるか、利用目的から合理的に予測・想定できないような場合は、この趣旨に沿ってできる限り利用目的を特定したことにはならない。

例えば、本人から得た情報から、本人に関する行動・関心等の情報を分析する場合、個人情報取扱事業者は、どのような取扱いが行われているかを本人が予測・想定できる程度に利用目的を特定しなければならない。

【本人から得た情報から、行動・関心等の情報を分析する場合に具体的に利用目的を特定している事例】
事例1)「取得した閲覧履歴や購買履歴等の情報を分析して、趣味・嗜好に応じた新商品・サービスに関する広告のために利用いたします。」
事例2)「取得した行動履歴等の情報を分析し、信用スコアを算出した上で、当該スコアを第三者へ提供いたします。」
個情法ガイドライン3-1-1
(個人情報保護法ガイドライン(通則編)3-1-1(※1))

このように、個情法17条1項をうけた個人情報保護法ガイドライン(通則編)3-1-1は、事業者がプロファイリングを行う場合には、その旨をプライバシーポリシー等の利用目的の部分に特定しておかないといけないと規定しています。

この点、LINEヤフーのプライバシーポリシーをみると、「4.d.当社サービスのお客様への最適化の具体例」の部分に、「たとえば、以下のような場合、当社は、お客様に最適化されたコンテンツを提供するためにパーソナルデータを利用します。・お客様の性別、ご購入履歴などから、おすすめ商品やニュース記事のご紹介など、お客様におすすめの情報をお届けする・配信した広告の効果を測定する」と規定されており、ユーザー本人の個人データからプロファイリングを行う旨が一応説明されています。そのため、LINEヤフーはプロファイリングに関しては個情法および同ガイドラインをクリアしているように思われます。

LINEヤフープラポリ4d
(LINEヤフー・プライバシーポリシー「4.d.当社サービスのお客様への最適化の具体例」)

3.プロファイリングした個人データの第三者提供について
つぎに、LINEヤフーがユーザーの個人データをプロファイリングして得た「結婚予兆セグメント」などの個人データを日本生命などのパートナー企業に第三者提供するためには、これは個人データの第三者提供ですので、ユーザー本人の同意かオプトアウトが必要となります(個情法27条1項、2項)。

そして、この点について個人情報保護法ガイドライン(通則編)3-6-1のなお書きは、「なお、あらかじめ、個人情報を第三者に提供することを想定している場合には、利用目的において、その旨を特定しなければならない(3-1-1(利用目的の特定)参照)。」と規定しています。

個情法ガイドライン3-6-1
(個人情報保護法ガイドライン(通則編)3-6-1のなお書き)

つまり、事業者は、個人データの第三者への提供に当たり、あらかじめ本人の同意を得ないで提供してはならないのであり、同意の取得に当たっては、その同意を実効あるものにするために、事業の規模及び性質、個人データの取扱状況(取り扱う個人データの性質及び量を含む。)等に応じ、本人が同意に係る判断を行うために必要と考えられる合理的かつ適切な範囲の内容を明確に示さなければならないのであって、あらかじめ個人情報を第三者に提供することを想定している場合には、利用目的において、その旨を特定しなければならないのです。

この点、LINEヤフーのプライバシーポリシーの「4.d.当社サービスのお客様への最適化の具体例」の下のほうの「また、一部の国または地域(*3)においては、お客様に最適化された広告などのおすすめのコンテンツを配信する目的でパーソナルデータを利用します。これには以下のような例が含まれます。」の部分には、「パートナーから取得したお客様に関する識別子(内部識別子、広告識別子など)、ハッシュ化した電話番号やメールアドレス、属性情報、購入履歴や視聴履歴を含むお客様に関する行動履歴などの情報を当社が保有するお客様に関する識別子(内部識別子、広告識別子など)、ハッシュ化した電話番号やメールアドレス、属性情報、広告接触履歴を含むサービス利用状況などのパーソナルデータと紐づけ、組み合わせるなどして、統計情報を作成し、当該統計情報をパートナーに対して提供する。」との記述があります。

LINEヤフープラポリ4dの下のほう
(LINEヤフーのプライバシーポリシーの「4.d.当社サービスのお客様への最適化の具体例」下部)

つまり属性情報、購入履歴や視聴履歴などの行動履歴、Cookie、広告接触履歴など様々なユーザーの個人データを集めて突合しプロファイリングを行い、「結婚予兆セグメント」などの「統計情報」を作成し、ユーザーの識別符号などとセットで当該統計情報をLINE公式アカウントのパートナー企業などに第三者提供していると説明されています。

そのため、LINEヤフーはプロファイリングの結果のパートナー企業等への第三者提供に関しては個情法および同ガイドラインをクリアしているように思われます。

(ただし、LINEヤフーのプライバシーポリシーにリンクが貼られた「属性によるサービスの最適化について」の「サービスの最適化において実施しないこと」の部分をみると、「健康状態や政治的信条、宗教など、お客様の機微な属性を推定・分類する行為」は実施しないとなっているのですが、「結婚予兆セグメント」、「転職活動の検討セグメント」等のプロファイリングはユーザー・消費者にとって「機微な属性」を推定・分類することのように思われ、疑問が残ります。)

4.まとめ
LINEヤフーがユーザーの様々な個人データを収集・突合してプロファイリングを行い、その結果をLINE公式アカウントなどのパートナー企業に第三者提供していることは、現行の個人情報保護法および同ガイドラインを一応はクリアしているように思われます。

しかし、LINEを利用している一般のユーザーは、自分がLINEを利用することによって自分の機微・センシティブな「結婚予兆セグメント」、「転職活動の検討セグメント」等がプロファイリングされ、しかもそのプロファイリング結果が第三者提供されているとはあまり自覚していないように思われます。

この点に関しては、LINEヤフーはプライバシーポリシー全体への同意取得で済ませるのではなく、セグメント等のプロファイリングを行うこと、そのプロファイリング結果をパートナー企業に第三者提供すること、等について個別の同意を取得する仕組みを用意するなど、より丁寧な対応がユーザーの「個人の人格尊重」(個情法3条)の観点からのぞましいように思われます。

■追記:プロファイリング結果の第三者提供
なお、『AIプロファイリングの法律問題』353頁以下(坂田晃祐・福岡真之介執筆部分)は、プロファイリング結果の第三者提供は、①本人はプロファイリング結果の内容を把握できないことが多いのであるから第三者提供時点でその影響を判断することができないリスクがあること、②本人はプロファイリング結果が第三者提供先でどのような利用目的で利用されるか予測できず、思わぬ不利益を受けるリスクがあること、③プロファイリング結果の内容によっては、本人が自己の欲しない他者に対し秘匿したいと考える事項が明らかになる場合、プライバシー権の侵害が発生するリスク(民法709条、憲法13条)が生じること、等から通常の個人データの第三者提供とは別に考える必要があると指摘しています。

そのため同書は、プロファイリング結果の第三者提供については、①第三者提供先の事業者の利用目的につき本人に情報提供または通知・公表を行うこと、②一定の範囲のプロファイリング結果(本人に軽微でない不利益を生じさせる可能性のあるプロファイリング結果)についてはオプトアウトによる第三者提供を禁止すべきこと、という通常の個人データとは異なる法規制を導入すべきであると提言しています。

この点、本ブログ記事で取り上げたLINEヤフーと日本生命などの事例の「結婚予兆セグメント」「転職活動の準備セグメント」などのプロファイリング結果は、上のリスクのなかの「③プロファイリング結果の内容によっては、本人が自己の欲しない他者に対し秘匿したいと考える事項が明らかになる場合、プライバシー権の侵害が発生するリスク(民法709条、憲法13条)」が発生する可能性が一定程度存在するものであると思われます。

そのため、LINEヤフーは包括的な同意でなく個別の同意を取得するだけでなく、どのようなプロファイリング結果を生成するのか、どのようなパートナー企業等にプロファイリング結果を第三者提供し、当該企業等の利用目的はどのようなものなのか等をユーザー本人にあらかじめ情報提供や通知・公表する必要があるように思われます。また、現行の個情法19条があいまいとは言え不適正利用の禁止を規定しているのですから、ユーザー本人に軽微でない不利益を発生させるおそれのあるプロファイリング結果については、そもそもプロファイリング自体を社内で禁止する等の対応も必要なように思われます。

■参考文献
・福岡真之介・杉浦健二・田中浩之・坂田晃祐ほか『AIプロファイリングの法律問題』42頁、353頁
・岡村久道『個人情報保護法 第4版』208頁

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

ai_pet_family

内閣府が「AI戦略会議 AI制度研究会 中間とりまとめ(案)」のパブコメを行っているので(2025年1月23日23時59分まで)、「国民の人権保障や各種リスク管理のため、欧州のようなAI法を制定すべきである」という趣旨の、つぎのような意見を書いて提出してみました。

1.1頁24行目「概要」「具体的な制度・施策の方向性」について
「具体的な制度・施策の方向性」に「AIの研究開発・実施が最もしやすい国を目指す」との目標が掲げられているが、この目標設定は間違っていると考える。日本は中国やロシア等のような全体主義国でなく国民主権の民主主義国(憲法1条)であるから、民主主義国家である以上まずは国民の人権保障や国民や社会に対するリスク管理を第一優先とすべきである。イノベーション推進や事業者の利益はその次の課題である。そうでなければ日本は欧州や米国などの西側世界のガラパゴスになってしまう。そのため、欧州のAI法のような人権保障のための法律を制定すべきである。

2.8頁6行目~10頁27行目「(2)法令の適用とソフトローの活用」について
まるで法令よりもソフトローのほうが優れているような記述だが、「法律による行政の原則」「法律の法規創造力」(憲法41条、65条、76条)の視点が欠けている。
まずは国民の人権保障や各種リスクの回避のためにEUのAI法のような法律を国会で作り、その上でそれを補足するためにソフトローを作るべきではないか。
また、そもそも「AIの研究開発が最もしやすい国を目指す」「イノベーション推進」等の目標設定が間違っていると考える。日本は中国やロシア等のような全体主義国でなく国民主権の民主主義国(憲法1条)であるから、民主主義国家である以上まずは国民の人権保障やリスク管理を第一優先とすべきである。イノベーション推進や事業者の利益はその次の課題である。

3.11頁9行目「リスクへの対応」について
「人の生命、身体、財産といった~」を「人格権」を入れて「人の生命、身体、財産および人格権といった~」とすべきである。4頁のAIに関する意識調査にあるように、多くの国民はAIによるプライバシー侵害や個人情報に関するリスクを感じているからである。

4.10頁4行目「(2)法令の適用とソフトローの活用」について
「一般的に、わが国の企業等は法令遵守の意識が高い」とあるが事実誤認である。2021年のLINEの韓国・中国への個人情報漏洩事件などに見られるように、AIの研究開発等を行う日本のIT業界は法令遵守意識が非常に低い。国民の人権保障やリスク管理のために、内閣府など政府はIT企業等に対して性善説ではなく性悪説で臨むべきである。

ところで、本パブコメの入力フォーマットは、なぜか1つのパブコメ意見を一つづつしか入力できなく、しかも一つの意見は400文字以内という非常に入力しにくい不便な仕様だったのですが、どうにかならなかったのでしょうか・・・。

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

mensetsu_business_ai
1.はじめに
ITmediaの2024年10月16日の記事「キリン、新卒採用に“AI面接官”を試験導入 生成AI利用で「人間の約6倍多角的に評価できる」」によると、キリンホールディングスは、2026年卒の新卒採用から、生成AIにより面接の質疑や候補者の評価を行うサービス「AI面接官」を試験導入する方針とのことです。エントリーシートの読み込みから一次面接までをAI面接官が担当するとのことです。

「導入するのは、AI面接官を提供するVARIETAS(東京都世田谷区)のサービス。同社によると、AI面接官は、経済産業省が2006年に提唱した「社会人基礎力」をもとにした30項目によって候補者を評価する。人間が1時間の面接で評価できるのは5~6項目であり、その約6倍多角的に評価できるという。」

「なお採用プロセスについて、AI面接官の評価をもとに採用担当者が最終的に1次面接の通過者を確定。その後、2次選考以降の採用活動を行うとしている。」
(ITmediaの2024年10月16日の記事「キリン、新卒採用に“AI面接官”を試験導入 生成AI利用で「人間の約6倍多角的に評価できる」」より)
このようなAIによる面接や求職者の評価・選別等は、個人情報保護法などとの関係で問題はないのでしょうか?

2.答責性・透明性・説明可能性の問題
(1)プロファイリング結果の根拠を説明できない?
AIは大量のデータを分析し、複雑な予測モデルを構築しますが、それが複雑すぎて人間がそれを理解できず説明もできないという問題が生じます(答責性・透明性・説明可能性の問題)。そのため、上でみた「AI面接官」サービスでは、もし就活生等からキリン等にプロファイリング結果の根拠の説明を求められてもキリン等の求人企業が回答ができないという問題が発生するおそれがあります。この問題は法的に、あるいは倫理的にはどのように考えられるのでしょうか。

(2)法律上の問題点
この点、会社側には採用基準等を開示する法的義務はないので、AIを用いているかにかかわらず、採用時にどのような選考をしているか説明しなくても、あるいは選考の根拠を求人企業自身が理解できていなくても、それ自体は違法とはなりません(東京高判昭和50.12.22判時815・88)。

また、三菱樹脂事件判決(最大判昭和48.12.12民集27・11・1536)は、企業には広い範囲での雇入れの自由があり、企業が労働者の思想・信条を理由としてその採用を拒否しても違法とはならないとしています。この判例によると、AIによる分析等が誤っている場合や、AIによる分析の手法を求人企業が理解しないで利用していた場合などであっても、AIによる採否の決定などが違法とはならないと考えられます。

(3)倫理上の問題点
しかし、経産省、個人情報保護委員会、経団連、情報処理学会などにより組織された、パーソナルデータ+α研究会の「プロファイリングに関する最終提言」(2022年4月)は、「答責性、説明可能性、解釈可能性、透明性などに配慮し、プロファイリングに利用したインプットデータを特定しておくことや、解釈可能なモデルの導入を検討すること」を推奨しています(16頁、18頁)。

そのため、AIによるプロファイリングの結果が選考においてどの程度の比重を占めているのか、どのような情報をプロファイリングの基礎としているか、人間の判断の介在有無などについて説明できるだけの用意をあらかじめしておくことが、有事の際のダメージコントロールの観点からは有益であると考えられます。

3.AIによる差別・公平性の問題
(1)AIによる差別
AIがプロファイリングの基礎としたデータセットに差別を助長するような情報が含まれており、公平性を欠く差別的なプロファイリングがなされていた場合、法的にあるいは倫理的にはどのように考えられるでしょうか。

(2)職業安定法・職安法指針
求人企業は誰を採用するかについて選択の自由があり、また調査の自由があると判例上されています(三菱樹脂事件判決・最大判昭和48.12.12民集27・11・1536)。これは、採用段階における求職者からの情報取得についても広範な裁量を認めているものと理解されていました。しかし近時はこのような判例の射程範囲を限定しようとする考え方が有力となっており、少なくとも求職者の人格的尊厳やプライバシー保護の必要性などにより制約を受けると考えられています。そして調査事項についても、企業が質問や調査を行えるのは、求職者の職業上の能力・技量や適格性に関した事項に限られると考えられています(職安法5条の5、職安法指針(平成11年労働省告示第141号)5・1、厚労省「公正な採用選考の基本」)。

公正な採用選考の基本
(厚労省「公正な採用選考の基本」より)

(3)AIのプロファイリングと不適正利用の禁止
個情法19条は個人情報の不適正利用を禁止していますが、個情法ガイドライン(通則編)3-2は、19条違反となる事例として、「事例5)採用選考を通じて個人情報を取得した事業者が、性別、国籍等の特定の属性のみにより、正当な理由なく本人に対する違法な差別的取扱いを行うために、個人情報を利用する場合」をあげています。そのため、AIによるプロファイリングも、その過程や態様次第では、不適正利用禁止違反になり得ると考えられます。

この点、令和3年8月の個情法ガイドライン(通則編)改正の際のパブリックコメントの回答において、個人情報保護委員会は、「プロファイリングに関連する個人情報の取扱いについても、それが「違法又は不当な行為を助長し、又は誘発するおそれがある方法」による個人情報の利用にあたる場合には、不適正利用に該当する可能性がありますが、プロファイリングの目的や得られた結果の利用方法等を踏まえて個別の事案ごとに判断する必要があると考えられます」としています。つまり、個人情報保護委員会としても、個情法の不適正利用禁止規定は一定のAIプロファイリングにおよぶことが明らかになっています。

4.人間関与原則の重要性
EUのGDPR22条1項は、「データ主体は、当該データ主体に関する法的効果をもたらすか又は当該データ主体に同様の重大な影響をもたらすプロファイリングなどの自動化された取扱いのみに基づいた決定に服さない権利を持つ」と規定していますが、これは人生に重要な影響を与える決定には原則として人間が関与しなければならないという「人間関与原則」を定めたものとされています。この考え方の背景には、自動化された決定が「個人の尊重」や「個人の尊厳」(憲法13条)を脅かすおそれがあるとの認識があります。このようにAIの決定に対して人間が関与することは個人の基本的人権の観点から重要ですが、企業のレピュテーションリスクやコンプライアンスの観点からも必須であると考えられます。

(この点、冒頭の記事によると、キリンおよびVARIETASの事例は、AIのプロファイリングについて最終的には人間が関与する仕組みとなっているようであり、人間関与原則の問題はクリアしているものと思われます。)

■参考文献
・末啓一郎・安藤広人『Q&A IT化社会における企業の情報労務管理の実務』61頁
・山本龍彦・大島義則『人事データ保護法入門』48頁

■関連するブログ記事
・コロナ下のテレワーク等におけるPCなどを利用した従業員のモニタリング・監視を考えた(追記あり)
・2022年の改正職業安定法・改正個人情報保護法とネット系人材会社や就活生のSNS「裏アカ」調査会社等について考えるープロファイリング

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

↑このページのトップヘ