ai_pet_family
1.AIと従業員に関する厚労省の2019年の報告書
人事労務分野の労働者とAIとのあり方に関する報告書を、2019年9月11日に厚労省の労働政策審議会が公表していました(「労働政策審議会労働政策基本部会報告書~働く人がAI等の新技術を主体的に活かし、豊かな将来を実現するために~」)。

・労働政策審議会労働政策基本部会報告書~働く人がAI等の新技術を主体的に活かし、豊かな将来を実現するために~|厚労省

人事労務分野におけるコンピュータやAIなどによる従業員のモニタリングなどについては以前から関心があったので、その観点からこの報告書を読んでみました。

2.AIなどによる従業員のモニタリングについて
すると、本報告書10頁に、つぎのような報告がまとめられていました。

(2)AI による判断に関する企業の責任・倫理
 AI の情報リソースとなるデータやアルゴリズムにはバイアスが含まれている可能性があるため、AI による判断に関して企業が果たすべき責任、倫理の在り方が課題となる。例えば、HRTech では、リソースとなるデータの偏りによって、労働者等が不当に不利益を受ける可能性が指摘されている。

 このため、AI の活用について、企業が倫理面で適切に対応できるような環境整備を行うことが求められる。特に働く人との関連では、人事労務分野等において AI をどのように活用すべきかを労使始め関係者間で協議すること、HRTech を活用した結果にバイアスや倫理的な問題点が含まれているかを判断できる能力を高めること、AI によって行われた業務の処理過程や判断理由等が倫理的に妥当であり、説明可能かどうか等を検証すること等が必要である。

 他方、AI 等を活用することにより、人間による業務判断の中にバイアスが含まれていないかを解析することもできるため、技術革新が人間のバイアスの解消に資する可能性もあるという指摘もあり、今後、こうした面からも AI 等の活用が期待される。(「労働政策審議会労働政策基本部会報告書」10頁より)』

つまり、本報告書10頁の(2)の第二段落は、人事労務分野におけるAIの活用について、

①AI をどのように活用すべきかを労使始め関係者間で協議すること
②HRTech を活用した結果にバイアスや倫理的な問題点が含まれているかを判断できる能力を高めること
③AI によって行われた業務の処理過程や判断理由等が倫理的に妥当であり、説明可能かどうか等を検証すること

の3点を提言しています。
もちろん、この3点は簡潔に的を射ており、とても重要であると思うのですが、しかし厚労省の諮問委員会の報告書が「倫理」を強調している点はやや気になります。

3.旧労働省の行動指針とGDPR22条
旧・労働省の2000年に公表された「労働者に関する個人情報の保護に関する行動指針」6(6)は、「使用者は、原則として、個人情報のコンピュータ等による自動処理又はビデオ等によるモニタリングの結果のみに基づいて労働者に対する評価又は雇用上の決定を行ってはならない。」とする規定を置いています。

・労働者の個人情報保護に関する行動指針|厚労省

また、2016年にEUが制定したGDPR(EU一般データ保護規則)22条1項も、「データ主体は、当該データ主体に関する法的効果を発生させる、又は、当該データ主体に対して同様の重大な影響を及ぼすプロファイリングを含むもっぱら自動化された取扱いに基づいた決定の対象とされない権利を有する。」と規定しています。

GDPR22条
(個人情報保護委員会サイトより)

旧労働省の行動指針やGDPR22条が示すのは、コンピュータ等による個人データの自動処理のみによる結果に基づいて労働者等が人事労務上の差別を受けない権利という平等権(憲法14条1項)だけでなく、コンピュータ等の自動処理のみによって人事労務上の決定を受けない権利という一種の人格権(憲法13条)の2点であると思われます。

人格権的観点からみると、この「コンピュータ等の自動処理のみによって人事労務上の決定を受けない権利(自動処理のみに基づき重要な決定を下されない権利)」の趣旨は、「AIの統計的・確率的な判断からの自由を保障し、個人一人ひとりの評価に原則として人間の関与を求めるなど、時間とコストをかけることを要請して、ネットワーク社会における「個人の尊重」(憲法13条)を実現しようとするものです。また、この権利は、コンピュータ・AIが確率的・統計的に導き出した個人のイメージに異議を唱え、自らが主体的に情報を「出し引き」(コントロール)することにより、そのイメージを改定することを認めている点で、「自己情報コントロール権」(憲法13条)に近いともいえます。さらに、適正な手続き保障(憲法31条)の観点からも重要な権利といえます。(山本龍彦『AIと憲法』101頁~105頁)

それに対して2019年の厚労省の労働政策審議会の報告書は、人事労務分野におけるAIによる従業員のモニタリングの問題を主に「倫理」の面から捉え「法律」の面から捉えていない点が問題であり、また、AIによる労働者のモニタリングの問題を「コンピュータによる差別」「バイアス」と平等権の問題のみから捉えている点も問題ではないかと思われます。

4.労働法-西日本鉄道事件(最高裁昭和43年8月2日判決)
この点、労働法分野においては、使用者の指揮監督権と従業員のプライバシー権が衝突する場面については、古くから使用者による従業員の所持品検査などが裁判で争われていました。

そのリーディングケースである、西日本鉄道事件(最高裁昭和43年8月2日判決)は、「使用者が従業員に対して行う所持品検査は、これは被検査者の基本的人権に関する問題であって、その性質上、常に人権侵害のおそれを伴うものであるから、たとえそれが企業の経営・維持にとって必要かつ効果的な措置(略)であったとしても、そのことをもって当然に適法視されるものではない」とした上で、所持品検査が適法となるための要件として、「①検査を必要とする合理的な理由のあること、②一般的に妥当な方法と程度であること、③職場従業員に画一的に実施されていること、④就業規則その他の規定に明示の根拠があること」の4要件をあげています。

一般論としては、人事労務分野のAIやコンピュータによる従業員のモニタリングは、この要件のなかで、とくに「②一般的に妥当な方法と程度であること」、「③職場従業員に画一的に実施されていること」が今後、より争点となるように思われます。

5.まとめ
厚労省の労働政策審議会は、人事労務分野・HRtechにおけるAIやコンピュータ等による従業員のモニタリングについてせっかく報告書を取りまとめるのであれば、倫理的問題だけでなく、労働法・個人情報保護法・憲法などに目配りをした上で、法的な問題や、それをクリアするための基準を可能な範囲で示すべきだったように思われます。

また、今後の社会・経済はますますグローバル化が進行するように思われ、日本の人事労務分野もますますグローバルな視線が必要になると思われます。日本の人事労務やHRtechが「官民による個人情報の利活用」ばかりを重視しガラパゴス化して、欧米と断絶してしまう事態は避けるべきだと思われます。

■関連するブログ記事
・従業員をスマホでモニタリングし「幸福度」「ハピネス度」を判定する日立の新事業を労働法・個人情報保護法的に考えた
・リクルートなどの就活生の内定辞退予測データの販売を個人情報保護法・職安法的に考える

■参考文献
・菅野和夫『労働法 第12版』262頁
・高野一彦「従業員の監視とプライバシー保護」『プライバシー・個人情報保護の新課題』163頁(堀部政男)
・高木浩光「個人情報保護から個人データ保護へ ―民間部門と公的部門の規定統合に向けた検討(2)」『情報法制研究』2号91頁
・山本龍彦『AIと憲法』101頁
・小向太郎・石井夏生利『概説GDPR』93頁
・労務行政研究所『新・労働法実務相談 第2版』549頁




AIと憲法

概説GDPR

労働法 (法律学講座双書)

ニッポンの個人情報 「個人を特定する情報が個人情報である」と信じているすべての方へ