mensetsu_business_ai

1.名古屋大学等が若者の早期退職をAIで分析
NHKニュースが、”名古屋大学大学院の鈴木智之准教授の研究室と民間企業「レイル」との共同研究が企業の採用試験で行う適性検査の回答データをAIを使って分析することで入社3年未満で退職する若者を採用前の段階で予測することに成功した”と報道していることがネット上で話題となっています。2019年の、AIによる内定辞退予測データで炎上したリクナビ事件を彷彿とさせる研究ですが大丈夫なのでしょうか。
・若者の早期退職をAIが分析 名大大学院などが研究|NHKニュース

そこで名古屋大学サイトをみてみると、鈴木智之研究室サイトにより詳しいリリースが出されていました。
・「Z世代はなぜすぐ辞めたがる?」 AIで"ダーク人材"を発見、早期退職者を100%予測(2023年8月1日)|名古屋大学鈴木智之研究室

(略) 「2022年6月から、企業や団体が採用試験などで実施する適性検査の回答データについて、AIと組織心理学を用いて分析するメソッドの開発に着手。 これまで約400名分のサンプルデータを解析した結果、入社3年未満の早期退職者を100%、つまり全員分、学生の段階で予測することに成功しました。

2023年6月から約10万人分のビッグデータ(全て匿名化済)への対象を拡大し、メソッドを展開して分析したところ、ダーク・トライアド(Dark Triad)という心理特性が強い人(以下「ダーク人材」)ほど、よくない仕事の辞め方を繰り返していることが分かりました。

「ダーク人材」は上司をけなし、職場に不平不満を言い、同僚の好意を素直に受け入れず、新メンバーに冷たく、恩を仇で返して職場を去る傾向が強く「サイコパス」「自己愛主義者」などの人を指し、職場にも一定数存在することが分かりました。」
(後略)
(「「Z世代はなぜすぐ辞めたがる?」 AIで"ダーク人材"を発見、早期退職者を100%予測」(2023年8月1日)名古屋大学鈴木智之研究室リリースより)
名古屋大学鈴木研究室リリース
(「「Z世代はなぜすぐ辞めたがる?」 AIで"ダーク人材"を発見、早期退職者を100%予測」(2023年8月1日)名古屋大学鈴木智之研究室リリースより)

2.本リリースを読んで考えたこと
(1)研究倫理・AI倫理
「ダーク人材」、「サイコパス」、「自己愛主義者」など激しい言葉が並ぶリリースですが、そもそも事前に名古屋大学内の研究倫理の事前審査を受けているのか気になります。

(2)個人情報保護
また、私はHRtechなどの分野は素人の人間ですが、10万人分もの就活生等の適性検査の結果データと企業等に入社した後に3年未満に退職したというどちらも機微なデータを研究機関が適法に入手できるものなのか気になります。

個人情報保護法上、適性検査の結果データは要配慮個人情報とはいえませんが、しかし本人の内心に係るセンシティブなデータです。第三者提供を名古屋大学が受ける場合には、オプトアウト(個人情報保護法27条2項等)などの適正な手続きを踏まえているのでしょうか。

なお本リリースはこの10万件のデータは「匿名化済」と説明していますが、逆にこれが匿名加工情報を指す場合、匿名加工情報により「この学生は〇年未満で退職する」という精密なAIの機械学習が可能なものなのでしょうか。この点も疑問です。

さらにもしこれが欧州であった場合、このような個人データの取扱いはもろにGDPR(一般データ保護規則)22条の「コンピュータの個人データの自動処理のみによる法的決定・重要な決定を拒否する権利」に抵触することになります。

またEUでは最近、AI規制法が成立しました。同法はAIの危険性により4段階にAIの利用を分類していますが、人事労務におけるAIの利用は上から2番目の「ハイリスク」にカテゴライズされており、法規制を受けることになります。本リリースにある本研究は、これらのEUの法令との関係では違法と評価される可能性があるのではないでしょうか。

日本においても上であげた2019年のリクナビ事件のAIの内定辞退予測データの取扱い等の問題を受けて、2020年の改正個人情報保護法は「個人情報取扱事業者は、違法又は不当な行為を助長し、又は誘発するおそれがある方法により個人情報を利用してはならない。」との規定を新設しています(法19条、法63条)。すなわち、不適正な個人情報の利用は禁止されています。

個人情報保護法
(不適正な利用の禁止)
第19条 個人情報取扱事業者は、違法又は不当な行為を助長し、又は誘発するおそれがある方法により個人情報を利用してはならない。
この不適正利用の禁止規定をこれまでの個人情報保護委員会(PPC)は発動することに慎重でありましたが、今後は個人情報保護とプライバシーが重なり合う領域において、PPCが不適正利用禁止規定を発動することもあり得るかもしれないと、個人情報保護法制に詳しい弁護士の田中浩之先生は、2023年7月1日の日本データベース学会「2023年度第1回DBSJセミナー「AI生成コンテンツ利用における法的課題や活用事例」」の講演のなかで述べておられます。そのため、日本においてもAIを用いたプロファイリング等がまったく野放しに許されるわけではない状況です。

加えて、近年、情報法制研究所の高木浩光先生などは、個人情報保護法の立法目的はコンピュータ・AIの「データによる個人の選別・差別」の防止であるとの説をとなえておられます。

本研究はAIによる人事ビッグデータの機械学習により、3年未満に退職する就活生のデータ等を生成するものですが、それがAIの「データによる個人の選別・差別」に該当しないか大いに問題なのではないでしょうか。

AIはある事象と別の事象の集団的な相関関係を見つけ出す技術ですが、それは100%正しいことはあり得ず、AIによりある集団にカテゴライズされてしまった人間が、実はそのカテゴライズが正しくないことはあり得ます。にもかかわらず自動化バイアスにより、「AIが分析したのだから正しいだろう」と考え、AIの分析結果のみで採用選考や人事考課を行うことは、個人に対する誤った決定を行ってしまう危険があるのではないでしょうか。そしてそのようなAIによる選別・差別が繰り返されてしまった結果、ある個人が電子的に社会の底辺に追いやられてしまう危険もあるのではないでしょうか(いわゆる「バーチャル・スラムの問題」)。

(3)労働法(職業安定法)
職業安定法5条の5および厚労省指針通達平成11年第141号は、求人企業や人材会社などに対して就活生等の個人情報保護や、思想・信条などの内心やプライベートに関する情報を原則として収集してはならないことを定めています。そのため本研究がもし実用段階になり、「ダーク人材」を排除する目的で本研究に基づくAIが採用選考に利用された場合、それは個情法19条違反にとどまらず、職安法5条の5および厚労省指針通達平成11年第141号の違反となる可能性があるのではないでしょうか。

採用選考の基本
(厚労省「公正な採用選考の基本」より)

また、厚労省の「公正な採用選考の基本」は、健康診断などは業務に必要なものだけに最小限に限定することなどを規定しています。本研究のような「ダーク人材」排除を目的とした適性試験・性格試験等は、「公正な採用選考の基本」に抵触し、採用選考におけるあらゆる差別を禁止した職安法3条の定める職業差別の禁止に抵触する可能性があるのではないでしょうか。

3.まとめ
このように少し考えただけでも本研究にはAI倫理や個人情報保護法、労働法などの面から、さまざまな問題があるように思われます。この研究開発の実用化にはさらにさまざまなハードルがあるように思われます。また、日本においてもEUのAI規制法のような立法の制定が望まれます。

このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
・山本龍彦『AIと憲法』59頁
・高木浩光「マイナンバー問題の深層(後編) 利用拡大に潜む懸念、その情報は関係ありますか #1191」朝日新聞ポッドキャスト
・高木浩光さんに訊く、個人データ保護の真髄 ——いま解き明かされる半世紀の経緯と混乱|Cafe JILIS

人気ブログランキング

PR