なか2656のblog

とある会社の社員が、法律などをできるだけわかりやすく書いたブログです

カテゴリ: AI・生成AI

内田洋行
内田洋行サイトより)

1.戸田市の教育データを利用したAI「不登校予測モデル」構築実証事業

2024年4月4日付の日経クロステックの記事「不登校になりそうな児童生徒をAIが予測、戸田市の教育データ活用実証が示したこと」が、Twitter(現X)上で話題を呼んでいます。この実証実験は、「2023年12月から同市内の公立小学校12校、同中学校6校の計約1万2000人の児童生徒のデータを分析対象に、「不登校予測モデル」構築の実証をした。事業はこども家庭庁の「こどもデータ連携実証事業」として戸田市が受託し、内田洋行、PKSHA Technologyグループとともに進めたもの」であるそうです。

内田洋行2
内田洋行サイトより)

不登校予測モデルは、教育総合データベースのデータを利用してAIが機械学習し、予測モデルを構築してゆくそうです。モデルの構築に利用した特徴量は、出欠席情報、保健室の利用状況、いじめに関する記録、教育相談、健康診断データ、学校生活アンケート、戸田市が独自に実施している「授業がわかる調査」、県学力調査の学力データ、県学力調査の質問紙調査、RST受検結果、「心のアンケート」など多岐にわたるそうです。(なお本事業は保護者の同意を取得しているそうですが、学校や自治体と保護者の力関係を考えると、このような本人同意が有効な同意といえるのか疑問が残ります。)

ところで、この戸田市の事例で注目されるのは、本記事によると、予測モデルの構築に際して重要なのは「特徴量」であるところ、出欠情報、教育相談が上位にくるだけでなく、「健康診断の体重や歯科検診」、「健康診断の肥満」も特徴量重要度の上位にあがっていることだと思われます。

一見、生徒の不登校の予測とはあまり関係ないように思われる、体重、肥満、歯科検診、数学の点数などにより不登校を予測することは妥当なのでしょうか。

2.「「関連性」のないデータによる個人の選別・差別」の禁止

この点、最近、情報法制研究所副理事長の高木浩光先生は、個人情報保護法(個人データ保護法)の趣旨・目的は「関連性のないデータによる個人の選別・差別」を防止することであるとの学説をとなえておられます。高木先生はカフェJILISの鼎談記事「ニッポンの教育ログを考える(後編)」(2022年1月20日)でつぎのように述べています。

OECDガイドラインの2つ目の原則である「データ内容の原則」(Data Quality Principle)は、personal dataはその利用目的に対して「relevant」でなければならないと言っている。「Personal data should be relevant to the purposes for which they are to be used」ってなっているのです。 (略)

今回の件について言いたいのは、この「Personal data should be relevant to the purposes for ……」という基本原則の意味は、データ分析をして本人を評価するに際しては、目的に関連しているデータしか使っちゃダメって言ってるんですね。「関係ないデータを使うな」って言ってるんですよ。

で、その「関係ない」っていうのはどういうことなのか。いくら言葉だけ見てても意味わからないわけですけど、立案にかかわった人の論文を見ると、具体的に説明されていて、例えば、政府が所得税額を計算するのにコンピューターを使う際に、収入額とかを基に個人データ処理するのは「目的に関連している」データを用いた評価なんだけども、そこに日頃の生活の素行みたいなデータを入れて税額を計算したら、それはおかしいだろうってことになる。そのような場合のことを「関係ないデータを使っている」と言ってるわけです。
(カフェJILIS「ニッポンの教育ログを考える(後編)」の高木浩光先生発言より。)

この高木先生の見解によると、生徒の不登校を予測するAIを機械学習させるためのデータとして、「出欠情報、教育相談、いじめの有無、心理検査、心理アンケート」などは「関連性がある」といえると思われますが、「体重、肥満、歯科検診結果、数学の点数」などは「関連性がない」ものとして、このような項目により機械学習させたAIの予測モデルは「関連性のないデータによる個人の選別・差別」に該当し、つまりOECD8原則の第二原則の「データ内容の原則」に抵触しているのではないでしょうか。

また、同じくカフェJILIS「ニッポンの教育ログを考える(後編)」では、弁護士の板倉陽一郎先生も、つぎのようにEUのAI規制法(2024年3月13日に欧州議会が最終案を可決)の観点から日本の教育データの利活用を批判されています。

最新の公的な文書としてはEUのAI規則案ですよ。EUのAI規則案で、4つの種類のAIだけは絶対禁止ってしてるんです(shall be prohibited,5条1項(a)-(d))。(略)

4つの種類だけは絶対やめようっていう中に、(公的機関が)「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをする」scoringという類型があります(5条1項(c))。コンテキストと関係がないっていうのが、今のrelevancyの現在地ですよ。そういうscoringはやめようっていうのが、そのAI規則案が4つだけ禁止している、絶対ダメなものひとつなんです。教育ログは、そこにちょっとね、一歩入りかけとるわけですよ。気をつけないといけない。

欧州が絶対ダメって言ってるんですからね。それをね、ニコニコして入れたらね。お前らバカなのかってなるじゃないですか。だから欧州に従えという話ではないですが,絶対禁止になっている4つのところぐらいは見ながらやっぱやらないとまずいですよね。だって他に禁止されてるのって、サブリミナルで自殺に追い込むAIとかそんなやつですよ?(5条1項(a))。それと同等程度にダメだっていうふうに言ってるわけです。
(カフェJILIS「ニッポンの教育ログを考える(後編)」の板倉陽一郎先生発言より。)
AI規制法禁止カテゴリ
総務省「EUのAI規制法案の概要」11頁より、禁止カテゴリのAIの4類型)

すなわち、EUのAI規制法が禁止カテゴリとしている4つのAIの一つは「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをするスコアリング」であり、デジタル庁やこども家庭庁が推進しているAIによる教育データの利活用はそれに該当すると板倉先生は指摘しています。

また、上で高木先生が述べている「関連性のない」とは、EUのAI規制法では「最初に収集されたコンテキストとは関係ない社会的コンテキストで、特定の人とかグループに有害な取り扱いをする」ことであると板倉先生は指摘されています。

この点を戸田市の実証実験で考えると、学校における健康診断、歯科検診、学力テストにおける数学の試験などは、生徒の健康状態を測る目的や教科の学習度合いを測る目的に収集されたデータであり、それらのデータを生徒の不登校の予測の目的で利用することは「最初に収集されたコンテキストとは関係ない社会的コンテキスト」=「関連性がない」と評価され、AI規制法5条1項(c)に抵触している可能性があるのではないでしょうか。(仮にもし日本にもEUのAI規制法が適用されるとするならば。)

3.まとめ

したがって、高木先生や板倉先生の考え方によれば、戸田市の生徒の不登校予測のためのAIモデルの実証実験や、デジタル庁やこども家庭庁等が推進している教育データの利活用政策は、OECD8原則の「データ内容の原則」およびEUのAI規制法5条1項(c)に抵触のおそれがあるのではないでしょか。このような施策をデジタル庁・こども家庭庁などの政府や戸田市などの自治体が推進していることは法的に大きな問題なのではないでしょうか。

4.補足:個人情報保護法の3年ごと見直し・自民党の「責任あるAI推進基本法(仮)」

なお、2023年11月より個人情報保護委員会(PPC)は、個人情報保護法のいわゆる「3年ごと見直し」のための検討を行っています。PPCの資料を読んでみると、AIやプロファイリング、子どもの個人情報保護などが議論の俎上にあがっています。また現行の不適正利用禁止規定(法19条)も条文の具体化が行われるのではないかと思われます。すると現在こども家庭庁などが推進している教育データの利活用政策などは見直しを余儀なくされる可能性もあるのではないでしょうか。(個人の予想ですが。)

b0183ad4
(個人情報保護委員会サイトより)

また、2024年2月に自民党は「責任あるAI推進基本法(仮)」を公表しています。しかし同法案は、大手のAI開発事業者を国が指定し、当該事業者に7つの体制整備義務を課し、あとはAI開発事業者の自主ルールにゆだねる内容で、EUのAI規制法の禁止カテゴリ・ハイリスクカテゴリなどのような規定は存在せず、全体としてAIの研究開発の発展を強く推進する内容となっているようであり、日本社会のAIのリスクの防止に不安が残る内容となっています。

AIの研究開発の発展も重要ですが、国民個人の権利利益の保護、個人の基本的人権や個人の人格権の保護も重要なのではないでしょうか(個情法1条、3条)。

責任ai基本法の骨子
(自民党サイトより)

■このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
・「不登校になりそうな児童生徒をAIが予測、戸田市の教育データ活用実証が示したこと」2024年4月4日付日経クロステック
・教育総合データベース(デジタル庁実証事業) の検討状況|戸田市
・内田洋行とPKSHAグループ、こども家庭庁の実証事業として埼玉県戸田市のこどもの不登校をAIで予測する取組みに参画|内田洋行
・ニッポンの教育ログを考える——プライバシーフリーク・カフェ#16(後編)|カフェJILIS
・EUのAI規制法案の概要|総務省

■関連するブログ記事
・小中学校のタブレットの操作ログの分析により児童を評価することを個人情報保護法・憲法から考えた-AI・教育の平等・データによる人の選別
・デジタル庁「教育データ利活用ロードマップ」は個人情報保護法・憲法的に大丈夫なのか?
・PPCの「個人情報保護法いわゆる3年ごと見直し規定に基づく検討」(2023年11月)を読んでみた
・個情委の「個人情報保護法いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)」を読んでみた

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

OIG2
(Microsoftのdesignerで生成)

1.はじめに

つぎの個人情報保護法改正にむけて、個人情報保護委員会が2024年3月6日付で「個人情報保護法いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)」(以下「本資料」)を公表しているので、個人的に興味深いと思った部分をまとめてみたいと思います。

本資料は大きく分けて、①生体データの取扱いに係る規律の在り方、②代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方、③不適正取得・不適正利用に係る規律の在り方、④個人関連情報の適正な取扱いに係る規律の在り方、の4つの部分に分かれています。

2.生体データの取扱いに係る規律の在り方

(1)犯罪予防や安全確保のための顔識別機能付きカメラシステムの利用について
本資料ではまず、犯罪予防や安全確保のための顔識別機能付きカメラシステム(防犯カメラ)について大きく取り上げられています。

PPC2頁
(本資料2頁)

つまり、個情委は「犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会」(以下「本検討会」)を開催し、2023年3月に報告書「犯罪予防や安全確保のための顔識別機能付きカメラシステムの利用について」(以下「本報告書」)を公表し、個人情報保護法ガイドラインQAの一部改正を行ったとして、同報告書や個情法ガイドラインQAの改正部分について簡単にまとめています。

■関連するブログ記事


本報告書の柱の一つは、"顔識別機能付きカメラシステムはそれだけでは個人が顔識別が行われていると合理的に判断できないため、事業者は店舗等につぎのような「顔識別機能付きカメラシステム作動中」などの掲示等が望ましい"ということだったと思います。

防犯カメラ作動中の掲示
(個人情報保護委員会「個人情報保護法いわゆる3年ごと見直し規定に基づく検討(個人の権利利益のより実質的な保護の在り方①)」3頁より)

しかし、JRや私鉄のホームや列車内などをみても、このような「顔識別機能付きカメラシステム作動中」との掲示は見たことがありません。やはり、個情法ガイドラインQAなどで「のぞましい」と書くレベルでは不十分であり、個情委は個人情報保護法や同施行規則などに根拠規定をおいて、掲示を事業者に義務付ける必要があるのではないでしょうか。

また、本検討会では顔識別機能付きカメラシステムの「誤登録」の問題(いわゆる「防犯カメラの万引き冤罪被害者の問題」)について、ごくわずかながら触れられていたのですが、それが本報告書にはほとんど盛り込まれていないことは問題だと思います。

そもそもこのような万引き犯DBなどのブラックリストについては、一律で個人情報保護法施行令5条が保有個人データの対象外としてしまっているわけですが(個情法16条4項参照)、そのような法令の規定のあり方は、誤登録された人々の権利利益の保護の観点から大きな問題であり、つぎの個人情報保護法改正の機会に見直しを行ってほしいと思われます。(また、個情法ガイドラインQAにも誤登録の問題に関するQAを追加する等の対応が必要と思われます。)

さらに、本検討会では、万引き犯などに関するブラックリストの個人データを小売業などが全国レベルでデータの共同利用(個情法27条5項3号)を行うことはさすがに共同利用の趣旨目的から行き過ぎであり、そのような共同利用を行うためには事前に個人情報保護委員会への相談を必要とするべきとの議論もなされていたところです。

しかし、本報告書ではそのような記載はなくなってしまっています。この点は、共同利用制度を不当に拡大解釈するものであり、次の個人情報保護法改正で、法令に法的根拠を置いた上で、全国レベルなどの共同利用について個人情報保護委員会への事前申請制度などを新設すべきだと思われます。

(2)生体データの取扱いに関する外国制度等
つぎに本資料では、生体データにかかわる、EUのGDPRやAI規制法などの規定ぶりや、データ保護当局による執行事例が紹介されています。韓国におけるFacebookによる本人同意のない顔識別テンプレートの収集などの事例が掲載されています(9頁)。

(3)生体データの取扱いに関する社会的反響の大きかった事例等
本資料が興味深いのは、「社会的反響の大きかった事例」についても掲載しているところだと思います。生体データに関しては、①2014年のJR大阪駅のカメラ事件、②2021年のJR東日本が駅構内に顔識別機能付き防犯カメラを設置し刑務所からの出所者や不審者等を監視しようとした事件、③渋谷100台AIカメラ設置プロジェクト事件、の3つが掲載されています(本資料10頁)。

ppc3年ごと見直し資料10頁
(本資料10頁)

■関連するブログ記事


3.代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方

(1)国内の他法令等における主な規律
本資料11頁以下では、「代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方」について取り上げられています。まず本資料11頁では、①独禁法2条9項5号ロや公取委「「デジタル・プラットフォーム事業者と個人情報等を提供する消費者との取引における優越的地位の濫用に関する独占禁止法上の考え方」、②金融分野の個人情報保護ガイドラインの与信業務に関する部分、とともに、③職業安定法5条の5および平成11年労働省告示141号、④労働安全衛生法104条、が取り上げられているのが興味深いです。

PPC11頁
(本資料11頁より)

とくに労安法104条が、事業者に対して、「労働者の健康の確保に必要な範囲を超えて、労働者の心身の状態に関する情報を収集・保管・使用すること」を原則禁止していることは注目されます。

最近、新型コロナの流行などによりリモートワークが広まっていますが、それと同時に企業側がPCなどにより従業者の集中度合いなどをモニタリングする事例が増えていますが、そのような事例はこの労安法104条との関係で違法とされる可能性があるのではないでしょうか。企業の人事・労務部門や法務部門の方々は今一度確認が必要なように思われます。

■関連するブログ記事


また、本資料12頁は裁判例が掲載されており、①企業が外回りの営業担当者にGPSシステムをつけさせたことが違法とされた事例(東京地判平24.5.31)、②受刑者を7か月にわたり天井に監視カメラのある独房に入れたことが違法とされた熊本刑務所の事例(福岡高判平31.2.21)、の概要が載っています。

さらに、本資料13頁は、①市営住宅の自治会の役員を決めるにあたり、知的障害者の方に自分の病状などを詳細に紙に書かせる等したことが違法とされた裁判例(大阪高判令4.9.2)、②会社の元役員を告訴しようとした従業員に対して人事担当者がその詳細を問いただしたことが違法とされた裁判例(東京地判令5.4.10)、の2つの裁判例が「代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方」に関する裁判例として掲載されていることが興味深いです。このような事例は、これまではあまり個人情報法制に関する問題とは考えられてこなかったと思われますが、個情委は個人情報保護に関する問題ととらえていることがうかがわれます。

本資料に先立つ、令和6年2月21日付の個情委の「個人情報保護法いわゆる3年ごと見直し規定に基づく検討項目」3頁では、個情委の委員の意見の一つに「本人同意があれば何でもよいということではなく、当事者の従属関係等も考慮して、実体的な権利利益保護の在り方を検討すべき」との意見が掲載されていますが、本資料の「代替困難な個人情報取扱事業者による個人情報の取扱いに係る規律の在り方」の部分は、このような個情委の問題意識を反映したものと考えられます。

PPCこれまでの主な意見
(個情委2024年2月21日付「個人情報保護法いわゆる3年ごと見直し規定に基づく検討項目」3頁より)

現状の日本の個人情報保護法においては、本人の同意さえあれば個人情報の目的外利用や第三者提供、要配慮個人情報の収集や第三者提供等が合法となっており、さらに「同意」についても口頭でもよく、さらに医療分野においては「黙示の同意」も許されるなどと非常にゆるい規律がなされているわけですが、次の個人情報保護法改正では、個人の権利利益保護のため、これらの部分の規律が強まるのかもしれません。

(2)代替困難と評価し得る者による個人情報の取扱いに関する海外における主な執行事例等
この部分においては、GoogleやFacebookなどの、本人同意のない個人データのターゲティング広告などへの利用などに対する各国のデータ保護当局による執行事例などが掲載されています(本資料14頁、15頁)。

(3)代替困難と評価し得る者による個人情報の取扱いに関連する個人情報保護法に基づくこれまでの行政上の対応
この部分については1ページを丸々使って2019年の就活生の内定辞退予測データに関するリクナビ事件を取り上げています。まさにAIとプロファイリング、そして個人関連情報や個人情報の不適正利用に関する重要な事件といえます(本資料16頁)。

PPC資料リクナビ事件
(本資料16頁)

■関連するブログ記事


4.不適正取得・不適正利用に係る規律の在り方

(1)不適正取得・不適正利用に係る個人情報保護法に基づくこれまでの行政上の対応
この部分においては、①破産者マップ事件、②名簿屋への個人情報の第三者提供に関する有限会社ビジネスプランニング事件、などが掲載されています(19頁)。

(2)個人情報の取扱いの適正性に関連する国内の主な他法令の規律(概要)
この部分については、①公益通報者保護法11条2項、②障害者差別解消法8条1項、③特定商取引法7条1項5号、などが掲載されています(20頁)。ただ、③についてはいわゆる適合性原則に関するものなので、金融商品取引法40条なども掲載したほうがよかったのではと思いました。

(3)個人情報の取扱いの適正性に関連する主な裁判例
この部分においては、①トランスジェンダーの方が経営する会社が会員制ゴルフクラブに入会しようとしたところ入会を拒否されたことは違法であるとされた裁判例(東京地判平27.7.1)、②東京医大など医学部不正入試事件(東京高判5.5.30)、などが掲載されています(21頁、22頁)。

これらの事件は、従来はあまり個人情報保護法制上の論点とはされていなかったと思われますが、「データによる個人の選別・差別」の問題ということはできます。近年、「関連性のないデータによる個人の選別・差別」が個人情報保護法(個人データ保護法)の趣旨・目的であるとする情報法制研究所の高木浩光氏などの学説が影響しているのかもしれません。

なお、本資料24頁には、アメリカ・イギリスにおける選挙・民主政との関係で大きな問題となった、ケンブリッジ・アナリティカ事件も掲載されています。

いずれにせよ、現状の不適正利用禁止の条文は抽象的で個情委としても執行しにくいと思われますが、つぎの個人情報保護法改正では、不適正利用禁止の条文をより具体化し、AIやプロファイリングの問題などに対して発動しやすくしていただきたいと思います。

5.個人関連情報の適正な取扱いに係る規律の在り方

「個人関連情報の取扱いに起因する個人の権利利益の侵害に関連する主な裁判例」(本資料27頁)の部分では、さいたま市の公立学校の体罰事故報告書の開示請求に関する裁判例(東京高判令4.9.15)などが掲載されています。報告書のなかの自己の状況などが非開示情報となるか否かが争点となっています。

PPC資料27頁
(本資料27頁)

個人関連情報の話とはややずれますが、この東京高判令4.9.15については、「「特定の個人を識別することはできないが、公にすることにより、なお個人の権利利益を害するおそれがあるもの」とは、本人の財産権等の正当な権利利益が害されるおそれのあるものや、個人の人格と密接に関連しており、当該個人がその流通をコントロールすることが可能であるべきであり、本人の同意なしに第三者に流通されることが適切でないものなどの社会通念上秘匿性の高い法的保護に値する情報をいう」と判示しているところ、下線部分が日本の憲法上のプライバシーの趣旨・目的の通説的立場である自己情報コントロール権的である点が興味深いと思いました。

■このブログ記事が面白かったらシェアやブックマークをお願いします!

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

かくれてしまえばいいのですトップ画面2

1.はじめに

「いまのつらさに耐えられないのなら、一度隠れてしまいましょう」と、自殺防止の対策に取り組むNPO法人「ライフリンク」が、生成AIを利用したオンライン上に自殺対策のためのウェブサービス「かくれてしまえばいいのです」を作ったことをNHKなどが報道しています。公開から3日で30万以上のアクセスを集め話題になっているとのことです。
・つらい気持ち抱える人へ ネット上の「かくれが」話題に|NHK

自殺願望(希死念慮)のある利用者が生成AIと会話ができるサービスもあるようで、そのような非常にデリケートなカウンセリング業務を人間でなく生成AIにまかせてしまって大丈夫なのか非常に気になります。

また、そのようなセンシティブな会話、個人データの取扱いが大丈夫なのかが非常に気になるところです。

2.実際にサービスに入ってみるとー要配慮個人情報の取得の際の本人同意は?

実際に「かくれてしまえばいいのです」のトップ画面から利用画面に入ってみました。

かくれてしまえばいいのですトップ画面

しかし、本サービスは自殺願望のある人々の悩みなどを取扱うため、うつ病やオーバードーズなどの精神疾患の情報を扱う可能性が高いところ、そのようなセンシティブな個人情報(場合によっては健康・医療データ)を書き込み等により電磁的記録として収集するにもかかわらず利用者の本人同意を取得することについてのボタンやチェックマークなどは表示されませんでした。これは要配慮個人情報の取得にあたっては本人同意を必要としている個人情報保護法20条2項に抵触しているのではないでしょうか?(個人情報保護法ガイドライン(通則編)2-16参照。)

あるいは「偽りその他不正な手段」による個人情報の収集を禁止する個情法20条1項に抵触しているのではないでしょうか。

なお、個人情報保護委員会の「生成AIサービスの利用に関する注意喚起等について(令和5年6月2日)」の生成AI事業者向けの注意喚起は、そもそも、「収集する情報に要配慮個人情報が含まれないよう必要な取組を行うこと」を求めています。(松尾剛行『ChatGPTと法律実務』64頁。)

そのような観点からも、精神疾患などの要配慮個人情報を生成AIで取扱うことを前提とした本サービスを実施してよいのか疑問が残ります。

3.「ロボとおしゃべりコーナー」-警察等に通報される?

つぎに、生成AIに悩み事を相談できる部屋「ロボとおしゃべりコーナー」にも入ってみました。

ロボとおしゃべりの部屋

するとつぎのような表示が現れました。

ロボとおしゃべりの表示

この部屋に入る場面においても、利用者の本人同意を取得するためのボタンやチェックマークなどは現れませんでした。

また、このアナウンスの表示には「私はただのプログラムだから何を言っても大丈夫!気軽にやってみてね」と書かれているだけです。

しかしこの点、「かくれてしまえばいいのです」の利用規約には、「本人または第三者に危害のおそれがある場合には、本人の同意にかかわらず警察等の関係機関に通報する」等の規定があるのですが(利用規約3条2項)、こういった点も十分アナウンスされていないことも気になります。

利用規約3条2項

4.利用規約-Microsoft社のAzureやOpenAIServiceを利用している

この利用規約を読んでみると、MicrosoftのAzureOpenAIServiceを利用していることが分かります。

利用規約3条1
利用規約3条(1)以下

入力された個人データなどは、Microsoft社のAzureOpenAIServiceの機械学習には利用されないとは一応書かれていますが、Microsoft社のサーバーに個人データは蓄積されると期されています。さらに、ライフリンクは自殺対策の調査・研究・検証などのために入力された個人データなどを利用するとも書かれている点は、利用者は注意が必要でしょう(利用規約3条3項3号、同6条2項)。

しかもプライバシーポリシーには安全管理措置を講じると書かれている部分はありますが(プライバシーポリシー4条)、具体的に個人データの保存期間などの明記はありません。

さらに、ライフリンクのプライバシーポリシーには個人情報の開示・訂正・削除等請求の具体的な手続きが記載されていないことも非常に気になります。

なお、プライバシーポリシーをみると、大学など研究機関に個人データが匿名加工情報の形態とはいえ、第三者提供されるとの記述もあることが気になります(プライバシーポリシー10条)。

プライバシーポリシー10条

ところでこの利用規約3条で一番気になるのは、同3条3項4号が「利用者は、当該サービスが自らの心身や認識に対して直接または間接に影響を及ぼしうることに留意し、当該サービスに過度に依拠して何らかの決定を行わないよう注意して利用すること」と明示していることではないでしょうか。

つまり、ライフリンクはこの「かくれてしまえばいいのです」の生成AIサービスなどによる相談業務などは、利用者にとって悪影響があるおそれがあることを承知しつつ、それを利用者の責任で利用せよとしているのです。これは、まだまだ発展途上の生成AIの危険を利用者に丸投げするものであり、場合によってはライフリンクは不法行為責任(民法709条)などを負う可能性があるのではないでしょうか?

しかし、利用規約3条4項は、ライフリンクは「当該サービスの利用により利用者または第三者に生じたいかなる損害に対しても、何ら責任を負わない」と明記しています。とはいえ、このような利用規約の規定は、消費者契約法10条などとの関係で無効とされる可能性があるのではないでしょうか?

生成AIは、真顔で嘘をつくこと(ハルシネーション(Hallucination))や、間違いを犯すことが知られています。また正しい発言であっても、自殺願望のある人に言ってよいことと悪いことがあるはずです。このような機微にわたる業務は精神科やカウンセラーなど専門家の「人間」が実施すべきことなのではないでしょうか。それを生成AIにやらせてしまっている本サービスには非常に疑問を感じます。

また、この点を個人情報保護法から考えても、このようなライフリンクの姿勢は、「個人情報取扱事業者は、違法又は不当な行為を助長し、又は誘発するおそれがある方法により個人情報を利用してはならない。」との個情法19条の不適正利用の禁止に抵触し、個人情報保護委員会から行政指導・行政処分などが課される可能性があるのではないでしょうか?

この点、EUのAI規制法案は、AIをそのリスクの度合いで4分類しているところ、医療機器などに関連するAIはそのリスクの高い順から2番目の「ハイリスク」に分類され、事業者には透明性や説明責任、ログの保管義務等が要求され、さらに当局のデータベースに登録される義務等が課されます。そういった意味で、この「かくれてしまえばいいのです」は日本の厚労省などの監督当局が承知しているのか気になります。

5.まとめ

このように、この「かくれてしまえばいいのです」のサービスや、利用規約、プライバシーポリシーはツッコミどころが満載です。

いくら「いのちの電話」などが人手不足であったとしても、自殺願望のある人々の相談業務などを、まだまだ発展途上の生成AIにやらせてしまって大丈夫なのでしょうか?厚労省や個人情報保護委員会、警察当局などはこのサービスについて十分承知しているのでしょうか?大いに心配なものがあります。利用者の方々は、本サービスの利用規約やプライバシーポリシーなどをよく読み、十分ご自身で検討した上で利用するか否かを考えるべきだと思われます。

自殺願望などがある方々は、まずは最寄りの精神科や資格を持ったカウンセラー、「いのちの電話」などを利用するべきだと思われます。安易にセンシティブな病状などの個人情報を生成AIに入力して相談等することは慎重であるべきだと思われます。

このブログ記事が面白かったらシェアなどをお願いします!

■参考文献
・つらい気持ち抱える人へ ネット上の「かくれが」話題に|NHK
・「かくれてしまえばいいのです」利用規約|ライフリンク
・プライバシーポリシー|ライフリンク
・生成AIサービスの利用に関する注意喚起等について(令和5年6月2日)|個人情報保護委員会
・松尾剛行『ChatGPTと法律実務』64頁

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

OIG (13)
内閣府知的財産戦略推進事務局が11月5日まで「AI時代における知的財産権に関する御意見の募集について」のパブコメを実施しています。Twitterなどネット上をみていると、同人絵師の方々を中心に生成AIへの反対意見が強いように思われるので、私は次のような、あえて生成AIの研究開発に肯定的な意見を書いて提出してみました。

1 生成AIと著作権の関係について、どのように考えるか。
わが国のAI等の科学技術の発展や経済発展のためには、著作権法30条の4にあるとおり生成AIの学習・開発段階はできるだけ法規制せず、一方、生成・利用段階は著作権法等で法規制を行い、生成AIの研究開発と権利者の保護のバランスを図るべきだと考えます。

2 生成AIと著作権以外の知的財産法との関係について、どのように考えるか。
最近、声優・俳優等の「声」と生成AIとの関係が問題になっていますが、声優・俳優等の「声」はパブリシティ権で保護されます(法曹時報 65(5) 151頁、最高裁平成24年2月2日判決)。そのため、著作権法等で安易に新たに声優・俳優等の「声」を法規制することには反対です。

3 生成AIに係る知的財産権のリスク回避等の観点から、技術による対応について、どのように考えるか。
日本新聞協会などが「新聞記事を生成AIの学習に利用させるな」等と主張していますが、それは新聞社各社が自社サイトに「生成AI学習禁止」とのタグなどの技術的措置をすればよいだけであると考えます。新聞社の利益よりも生成AIの研究開発を重視すべきだと考えます。

4 生成AIに関し、クリエイター等への収益還元の在り方について、どのように考えるか。
わが国の生成AIの研究開発を積極的に推進するために、学習・開発段階で利用料をとるのではなく、生成・利用段階で利用料をとるなどしてクリエイター等に還元すべきだと考えます。

6 ディープフェイクについて、知的財産法の観点から、どのように考えるか。
欧米などのように、民主主義を守る観点から、生成AIを利用した記事や動画・画像などには「生成AIで作成」等の注意書きをつけるよう法令やガイドラインなどでマスメディアやSNS・検索サイト等のデジタルプラットフォーム等に義務付けるべきだと考えます。

7 社会への発信等の在り方について、どのように考えるか。
とくにマンガ・アニメ等のイラスト等の分野に関して、生成AIに反対する感情的な意見がネット上に広まっていると感じます。これに対して政府は、例えば先般の文化庁の「著作権とAI」の講演会のような、学術的・理性的な情報発信を行い対応すべきだと考えます。

その他
「知的財産法と生成AI」だけでなく、「個人情報保護法と生成AI」についても政府や国会で検討していただきたいと考えます。

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

job_seiyuu
1.声優の「声」は現行法下では保護されないのか?
最近の生成AIの発展に伴って、声優の声を再現できるAIボイスチェンジャーなどが販売されているそうです。このような時代の流れを受けて、本年6月には日本俳優連合が著作権法を改正して「声の肖像権」の確立などを国に求める声明を出しています。たしかに人間の「声」そのものは著作権法で保護されていませんが(ただし声優の声の演技は著作隣接権で保護される)、現行法下で声優等の「声」そのものは保護されていないのでしょうか?

日本俳優連合が“生成AI”に提言 「新たな法律の制定を強く望む」 声の肖像権確立など求める|ITmedeiaニュース

2.柿沼太一弁護士のご見解・「ピンク・レディ」事件
この点、「有名声優の「声」を生成AIで量産し、それを商用利用することは可能か?【CEDEC 2023】」GameBusiness.jpによると、本年8月に一般社団法人コンピュータエンターテインメント協会(CESA)が開催した講演会「CEDEC 2023」において、生成AIや著作権などに詳しい弁護士の柿沼太一先生(STORIA法律事務所)がつぎのように講演したとのことです。

「簡単に言うと、声優さんの声をAIに学習させてモデルを作るところまでは適法です。が、そのモデルから既存の声優さんの声を新たに生成し、ゲームに使うのはパブリシティ権侵害になると思います」
すなわち、同講演会において、パブリシティ権を認めた最高裁判決であるピンク・レディ事件(最高裁平成24年2月2日判決、芸能人ピンク・レディの写真を週刊誌が無断で使用した事件)について、判決の調査官解説(法曹時報 65(5) 151頁、TMI総合法律事務所『著作権の法律相談Ⅱ』312頁も同旨)は、パブリシティ権で保護される著名人の「肖像等」には「本人の人物認識情報、サイン、署名、、ペンネーム、芸名等を含む」と解説していると柿沼弁護士は指摘しておられます。つまり、声優や俳優などの「声」はパブリシティ権で現行法上も保護されるのです。

3.パブリシティ権
パブリシティ権とは判例で形成された権利です。芸能人やスポーツ選手などの氏名・肖像等の持つ顧客吸引力を排他的に利用する権利のことをパブリシティ権と呼びます(潮見佳男『基本講義 債権各論Ⅱ不法行為法 第3版』219頁)。そしてこのパブリシティ権の保護対象の「肖像等」には声優・俳優等の「声」も含まれるのです。

また、氏名・肖像等を無断で使用する行為がパブリシティ権を侵害するものとして不法行為として違法となるのは、①氏名・肖像等それ自体を独立して鑑賞の対象となる商品等として使用し、②商品等の差別化を図る目的で氏名・肖像等を商品等に付し、③氏名・肖像等を商品等の広告として使用するなど、もっぱら氏名・肖像等の有する顧客吸引力の利用を目的とするといえる場合であると解されています(潮見・前掲219頁、ピンク・レディ事件)。

4.損害賠償請求・差止請求・死者のパブリシティ権
ところでこのパブリシティ権の法的性質については人格権の一つとする考え方と財産権の一つとする考え方に分かれていますが、ピンク・レディ事件において最高裁は人格権的な考え方を採用しています。そのため、声優などはパブリシティ権を根拠に損害賠償請求だけでなく、差止請求もすることができるといえます。一方、人格権ということは、相続などは発生しないので、死亡した声優・俳優についてパブリシティ権は主張できないことになると思われます(『新注釈民法(15)』547頁)。

5.まとめ
このように柿沼弁護士のご見解や、民法などの解説書などによると、現行法下においても声優・俳優などの「声」はパブリシティ権で保護されているといえます。そして3.でみた①~③の要件を満たす場合には、パブリシティ権を侵害された声優等は、侵害の主体に対して損害賠償請求や差止請求を行うことができることになります。そのため、現在すでに存在する声優の声を再現できるAIボイスチェンジャーなども、場合によっては違法となる可能性があります。

■追記(2024年1月6日)
この問題に関連して、声優などの「声」も人格権の一つとして憲法13条により保護されるとのつぎの興味深い論文に接しました。

・荒岡草馬・篠田詩織・藤村明子・成原慧「声の人格権に関する検討」『情報ネットワーク・ローレビュー』22号24頁(2023年)


このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
・法曹時報 65(5) 151頁
・TMI総合法律事務所『著作権の法律相談Ⅱ』312頁
・『新注釈民法(15)』547頁
・潮見佳男『基本講義 債権各論Ⅱ不法行為法 第3版』219頁

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

↑このページのトップヘ