なか2656のblog

とある会社の社員が、法律などをできるだけわかりやすく書いたブログです

タグ:chatGPT

computer_sagi_virus

1.はじめに

5月28日の読売新聞の報道(「生成AI悪用しウイルス作成、警視庁が25歳の男を容疑で逮捕…設計情報を回答させたか」)などによると、生成AIを悪用してランサムウェア(身代金ウイルス)のコンピューターウイルスを作成したとして、警視庁は27日、川崎市、無職の男(25)を不正指令電磁的記録作成罪(ウイルス作成罪)容疑で逮捕したというニュースが非常に話題となっています。しかしこれが不正指令電磁的記録作成罪が成立するといえるのでしょうか?

記事によると、男性は「複数の対話型生成AIに指示を出してウイルスのソースコード(設計情報)を回答させ、組み合わせて作成した」とのことです。また、「攻撃対象のデータを暗号化したり暗号資産を要求したりする機能が組み込まれていた」とのことです。

ところで読売新聞の別の記事等によると、逮捕された男性は元工場作業員でIT会社への勤務歴やIT技術を学んだ経歴はなく、これまでの捜査では協力者の存在も浮上していないとのことです。いくら生成AIをうまく利用したとしても、IT技術の素人(失礼)が作成したものが刑法が定める不正指令電磁的記録作成罪が成立するといえるのでしょうか?

2.不正指令電磁的記録作成罪の客体に該当するか

刑法
(不正指令電磁的記録作成等)
第百六十八条の二 正当な理由がないのに、人の電子計算機における実行の用に供する目的で、次に掲げる電磁的記録その他の記録を作成し、又は提供した者は、三年以下の懲役又は五十万円以下の罰金に処する。
  人が電子計算機を使用するに際してその意図に沿うべき動作をさせず、又はその意図に反する動作をさせるべき不正な指令を与える電磁的記録
  前号に掲げるもののほか、同号の不正な指令を記述した電磁的記録その他の記録
 正当な理由がないのに、前項第一号に掲げる電磁的記録を人の電子計算機における実行の用に供した者も、同項と同様とする。
 前項の罪の未遂は、罰する。
不正指令電磁的記録作成罪の客体は、刑法の専門書である鎮目往樹・西貝吉晃・北條孝佳『情報刑法Ⅰ』160頁によれば、「電磁的記録」つまり「人が電子計算機を使用するに際してその意図に沿うべき動作をさせず、又はその意図に反する動作をさせるべき不正な指令を与える電磁的記録」(刑法168条の2第1項1号)と、「前号に掲げるもののほか、同号の不正な指令を記述した電磁的記録その他の記録」(同条同項2号)の2つです。

ここで電磁的記録とは、刑法7条の2で「電子的方式、磁気的方式その他人の知覚によっては認識することができない方式で作られる記録であって、電子計算機による情報処理の用に供されるものをいう」と定義されていることから、コンピュータによる情報処理の用に供されるものであり、つまり客体の要件として、そのままの状態でコンピュータ上で実行動作可能であること、要するに、通常はソースコードをコンパイルした実行ファイル(バイナリコード)であることが必要であるとされています(「指令を与える記録」(1号))。一方、コンパイルすればそのままウイルスとして実行可能なソースコードは「指令を記述した記録」(2号)に該当するとされています。(またソースコードを印刷したもの等も2号の「指令を記述した記録」に該当します。)(鎮目・西貝・北條・前掲162頁)

つまり、刑法の専門書によると、不正指令電磁的記録作成罪の構成要件としての「指令を与える記録」(1号)および「指令を記述した記録」(2号)は、「そのままの状態でコンピュータ上で実行動作可能」な実行ファイルであるか、または「コンパイルすればそのままウイルスとして実行可能なソースコード」(またはそれを印刷等したもの)である必要があります。

新聞などの報道によると、男性は目的を伏して複数の生成AIに質問をしてソースコードを作成したとのことですが、IT技術のない男性が、そのような「つぎはぎ」の状態で「コンパイルすればそのままウイルスとして実行可能なソースコード」等を作成することができたのでしょうか。

新聞報道からは詳しいことはよくわかりませんが、もしそうでないとしたら、客体の観点から不正指令電磁的記録作成罪の構成要件には該当しておらず、犯罪は不成立ということになりそうです。

3.まとめ・専門家のコメント

このように見てみると、本事件は詳しいことはまだわかりませんが、逮捕された男性はランサムウェア的なウイルスのようなものを作成したことは確かだとしても、それが刑法の定める不正指令電磁的記録作成罪が成立するかは慎重な検討が必要なのではないかと思われます。

なお、本事件を取り上げた朝日新聞記事のネット版(「「AIなら何でもできる」「楽して稼ごうと」 ウイルス作成容疑の男」)には、鳥海不二夫・東大教授(計算社会科学)の「(本事件の警察やマスメディアは、)「生成AIとウイルス」というキャッチーな内容に飛びついているだけの可能性が否定できません。少なくとも、知識のない人が「悪用対策が不十分な生成AI」にアクセスして簡単にウイルスを作って広められる時代になった、ということを意味するのかどうかは、続報を慎重に見極める必要があるニュースではないでしょうか。」とのコメントが付されておりますが、まさにそのとおりだと思われます。

また同様に須藤龍也・朝日新聞記者(情報セキュリティ)の「サイバーセキュリティ分野の専門記者として私が懸念しているのは、「不正指令電磁的記録に関する罪」の乱用です。今回の事件報道、「生成AI」というキーワードで先行している印象が否めません。」とのコメントが付されていますが、これは非常に正論であると思われます。

2019年に発生・発覚したCoinhive事件(コインハイブ事件)においては不正指令電磁的記録の罪により神奈川県警等が容疑者を逮捕しましたが、2022年には最高裁は同事件について無罪判決を出しました(最高裁令和4年1月20日判決)。警察・検察当局はCoinhive事件の反省に立ち、不正指令電磁的記録の罪の濫用を厳に慎まねばならないはずです。

このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
・鎮目往樹・西貝吉晃・北條孝佳『情報刑法Ⅰ』160頁、162頁
・いわゆるコンピュータ・ウイルスに関する罪について|法務省

■関連するブログ記事
・コインハイブ事件高裁判決がいろいろとひどい件―東京高裁令和2・2・7 coinhive事件

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

かくれてしまえばいいのですトップ画面2

1.はじめに

「いまのつらさに耐えられないのなら、一度隠れてしまいましょう」と、自殺防止の対策に取り組むNPO法人「ライフリンク」が、生成AIを利用したオンライン上に自殺対策のためのウェブサービス「かくれてしまえばいいのです」を作ったことをNHKなどが報道しています。公開から3日で30万以上のアクセスを集め話題になっているとのことです。
・つらい気持ち抱える人へ ネット上の「かくれが」話題に|NHK

自殺願望(希死念慮)のある利用者が生成AIと会話ができるサービスもあるようで、そのような非常にデリケートなカウンセリング業務を人間でなく生成AIにまかせてしまって大丈夫なのか非常に気になります。

また、そのようなセンシティブな会話、個人データの取扱いが大丈夫なのかが非常に気になるところです。

2.実際にサービスに入ってみるとー要配慮個人情報の取得の際の本人同意は?

実際に「かくれてしまえばいいのです」のトップ画面から利用画面に入ってみました。

かくれてしまえばいいのですトップ画面

しかし、本サービスは自殺願望のある人々の悩みなどを取扱うため、うつ病やオーバードーズなどの精神疾患の情報を扱う可能性が高いところ、そのようなセンシティブな個人情報(場合によっては健康・医療データ)を書き込み等により電磁的記録として収集するにもかかわらず利用者の本人同意を取得することについてのボタンやチェックマークなどは表示されませんでした。これは要配慮個人情報の取得にあたっては本人同意を必要としている個人情報保護法20条2項に抵触しているのではないでしょうか?(個人情報保護法ガイドライン(通則編)2-16参照。)

あるいは「偽りその他不正な手段」による個人情報の収集を禁止する個情法20条1項に抵触しているのではないでしょうか。

なお、個人情報保護委員会の「生成AIサービスの利用に関する注意喚起等について(令和5年6月2日)」の生成AI事業者向けの注意喚起は、そもそも、「収集する情報に要配慮個人情報が含まれないよう必要な取組を行うこと」を求めています。(松尾剛行『ChatGPTと法律実務』64頁。)

そのような観点からも、精神疾患などの要配慮個人情報を生成AIで取扱うことを前提とした本サービスを実施してよいのか疑問が残ります。

3.「ロボとおしゃべりコーナー」-警察等に通報される?

つぎに、生成AIに悩み事を相談できる部屋「ロボとおしゃべりコーナー」にも入ってみました。

ロボとおしゃべりの部屋

するとつぎのような表示が現れました。

ロボとおしゃべりの表示

この部屋に入る場面においても、利用者の本人同意を取得するためのボタンやチェックマークなどは現れませんでした。

また、このアナウンスの表示には「私はただのプログラムだから何を言っても大丈夫!気軽にやってみてね」と書かれているだけです。

しかしこの点、「かくれてしまえばいいのです」の利用規約には、「本人または第三者に危害のおそれがある場合には、本人の同意にかかわらず警察等の関係機関に通報する」等の規定があるのですが(利用規約3条2項)、こういった点も十分アナウンスされていないことも気になります。

利用規約3条2項

4.利用規約-Microsoft社のAzureやOpenAIServiceを利用している

この利用規約を読んでみると、MicrosoftのAzureOpenAIServiceを利用していることが分かります。

利用規約3条1
利用規約3条(1)以下

入力された個人データなどは、Microsoft社のAzureOpenAIServiceの機械学習には利用されないとは一応書かれていますが、Microsoft社のサーバーに個人データは蓄積されると期されています。さらに、ライフリンクは自殺対策の調査・研究・検証などのために入力された個人データなどを利用するとも書かれている点は、利用者は注意が必要でしょう(利用規約3条3項3号、同6条2項)。

しかもプライバシーポリシーには安全管理措置を講じると書かれている部分はありますが(プライバシーポリシー4条)、具体的に個人データの保存期間などの明記はありません。

さらに、ライフリンクのプライバシーポリシーには個人情報の開示・訂正・削除等請求の具体的な手続きが記載されていないことも非常に気になります。

なお、プライバシーポリシーをみると、大学など研究機関に個人データが匿名加工情報の形態とはいえ、第三者提供されるとの記述もあることが気になります(プライバシーポリシー10条)。

プライバシーポリシー10条

ところでこの利用規約3条で一番気になるのは、同3条3項4号が「利用者は、当該サービスが自らの心身や認識に対して直接または間接に影響を及ぼしうることに留意し、当該サービスに過度に依拠して何らかの決定を行わないよう注意して利用すること」と明示していることではないでしょうか。

つまり、ライフリンクはこの「かくれてしまえばいいのです」の生成AIサービスなどによる相談業務などは、利用者にとって悪影響があるおそれがあることを承知しつつ、それを利用者の責任で利用せよとしているのです。これは、まだまだ発展途上の生成AIの危険を利用者に丸投げするものであり、場合によってはライフリンクは不法行為責任(民法709条)などを負う可能性があるのではないでしょうか?

しかし、利用規約3条4項は、ライフリンクは「当該サービスの利用により利用者または第三者に生じたいかなる損害に対しても、何ら責任を負わない」と明記しています。とはいえ、このような利用規約の規定は、消費者契約法10条などとの関係で無効とされる可能性があるのではないでしょうか?

生成AIは、真顔で嘘をつくこと(ハルシネーション(Hallucination))や、間違いを犯すことが知られています。また正しい発言であっても、自殺願望のある人に言ってよいことと悪いことがあるはずです。このような機微にわたる業務は精神科やカウンセラーなど専門家の「人間」が実施すべきことなのではないでしょうか。それを生成AIにやらせてしまっている本サービスには非常に疑問を感じます。

また、この点を個人情報保護法から考えても、このようなライフリンクの姿勢は、「個人情報取扱事業者は、違法又は不当な行為を助長し、又は誘発するおそれがある方法により個人情報を利用してはならない。」との個情法19条の不適正利用の禁止に抵触し、個人情報保護委員会から行政指導・行政処分などが課される可能性があるのではないでしょうか?

この点、EUのAI規制法案は、AIをそのリスクの度合いで4分類しているところ、医療機器などに関連するAIはそのリスクの高い順から2番目の「ハイリスク」に分類され、事業者には透明性や説明責任、ログの保管義務等が要求され、さらに当局のデータベースに登録される義務等が課されます。そういった意味で、この「かくれてしまえばいいのです」は日本の厚労省などの監督当局が承知しているのか気になります。

5.まとめ

このように、この「かくれてしまえばいいのです」のサービスや、利用規約、プライバシーポリシーはツッコミどころが満載です。

いくら「いのちの電話」などが人手不足であったとしても、自殺願望のある人々の相談業務などを、まだまだ発展途上の生成AIにやらせてしまって大丈夫なのでしょうか?厚労省や個人情報保護委員会、警察当局などはこのサービスについて十分承知しているのでしょうか?大いに心配なものがあります。利用者の方々は、本サービスの利用規約やプライバシーポリシーなどをよく読み、十分ご自身で検討した上で利用するか否かを考えるべきだと思われます。

自殺願望などがある方々は、まずは最寄りの精神科や資格を持ったカウンセラー、「いのちの電話」などを利用するべきだと思われます。安易にセンシティブな病状などの個人情報を生成AIに入力して相談等することは慎重であるべきだと思われます。

このブログ記事が面白かったらシェアなどをお願いします!

■参考文献
・つらい気持ち抱える人へ ネット上の「かくれが」話題に|NHK
・「かくれてしまえばいいのです」利用規約|ライフリンク
・プライバシーポリシー|ライフリンク
・生成AIサービスの利用に関する注意喚起等について(令和5年6月2日)|個人情報保護委員会
・松尾剛行『ChatGPTと法律実務』64頁

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

文化庁が、2月12日まで「AIと著作権に関する考え方について(素案)」についてパブコメを実施していたので、つぎのとおり意見を書いて提出しました。

・文化庁パブコメ「「AIと著作権に関する考え方について(素案)」に関する意見募集の実施について」|e-Gov

1.「2.(2)AIと著作権の関係に関する従来の整理」(7頁)について
「イ 法30条の4の対象となる利用行為」「ウ 「享受」の意義及び享受目的の併存」の部分については、本考え方において非常に重要な部分であると思われるので、2017年の文化審議会著作権分科会報告書38頁以下の説明や同40頁の図なども盛り込んで、どうして法30条の4が権利制限規定として許容されるのか、一般人にさらに分かりやすい説明とすべきではないか。(松尾剛行『ChatGPTと法律実務』83頁以下参照。)

報告書40頁の図
(平成29年の文化審議会著作権分科会報告書40頁の図)

2.クリエイター等の「声」(13頁③)について
最近の生成AIの発展に伴って、声優・俳優・歌手等の声を再現できるAIボイスチェンジャーなど生まれ、声優・俳優・歌手等の本人の許諾のない「声」データ等の売買がネット上で横行している(2023年6月13日付日本俳優連合「生成系AI技術の活用に関する提言」など参照)。しかし声優・俳優・歌手等の「声」そのものについては著作権法上保護されず、判例・学説上はパブリシティ権(民法709条)または人格権(憲法13条)で保護されると解されているが(ピンク・レディ事件・最高裁平成24年2月2日判決、法曹時報 65(5) 151頁、TMI総合法律事務所『著作権の法律相談Ⅱ』312頁、荒岡草馬・篠田詩織・藤村明子・成原慧「声の人格権に関する検討」『情報ネットワーク・ローレビュー』22号24頁)、その保護のためには、①氏名・肖像等それ自体を独立して鑑賞の対象となる商品等として使用し、②商品等の差別化を図る目的で氏名・肖像等を商品等に付し、③氏名・肖像等を商品等の広告として使用すること、等の厳しい要件を満たす必要があり、声優・俳優・歌手等の保護としてハードルが高すぎる。そのため、声優・俳優・歌手等の「声」という人格権(憲法13条)の保護のため、著作権法や不正競争防止法などの法令において、何らかの立法手当が必要なのではないか。

3.「5.(1)ア(ア)平成30年改正の趣旨および(イ)議論の背景」(15頁)について
この部分については、本考え方において非常に重要な部分であると思われるので、2017年の文化審議会著作権分科会報告書38頁以下の説明や同40頁の図なども盛り込んで、どうして法30条の4が権利制限規定として許容されるのか、一般人にさらに分かりやすい説明とすべきではないか。(松尾剛行『ChatGPTと法律実務』83頁以下参照。)

4.「(4)海賊版等の権利侵害複製物をAI学習のため複製すること」(23頁)について
「著作権者の利益を不当に害することとなる場合」について、学習用データセットだけでなく海賊版等を明示したことは良いことだと思いました。

5.「カ 差止請求として取りうる措置について」(32頁)について
差止請求としてAI利用者やAI開発事業者等に対して著作権者が取りうる各種の措置が詳しく例示されており良いと思いました。Twitterなどネット上ではアマチュアのイラストレーターと思われる人々による反画像生成AI、反著作権法30条の4の意見が非常に高まっておりますが、これらの差止請求が可能なことにより、それらの懸念や不満は一定程度は解消されるのではないでしょうか。

6.「コ 学習に用いた著作物等の開示が求められる場合について」(34頁)について
訴訟となった場合に、AI利用者が主張・立証のためAI開発事業者等に対して書類の提出等や文書提出命令、文書送付嘱託などを実施できることが詳しく説明されていることは実務的に大変良いと思いました。

7.補償金制度(36頁)について
著作権者への補償金制度が、著作権法上、理論的な説明が困難であるとしても、Twitterなどネット上でクリエイター等の画像生成AIや著作権法30条の4に反対する意見が非常に大きいことから、政策的な観点から何らかの著作権者への補償金制度が必要なのではないかと思われます。

■関連するブログ記事
・声優の「声」は法的に保護されないのか?-生成AI・パブリシティ権(追記あり)
・【備忘録】文化庁の著作権セミナー「AIと著作権」について

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

ai_shigoto
7月1日に日本データベース学会の「2023年度第1回DBSJセミナー「AI生成コンテンツ利用における法的課題や活用事例」」をオンラインで受講しました。弁護士の田中浩之先生の個人情報保護法に関する講義が大変勉強になったので、講義中にとったメモをまとめてみたいと思います。(メモのため、もし間違いがあった場合それは私の責任です。)

1.学習済みパラメータは、個人情報に当たるか?
個人情報保護法ガイドラインQA1-8によれば個人情報にあたらない。また同QA2-5によれば個人情報の取扱いではないのでプライバシーポリシーの利用目的に記載する必要はない。

2.生成AIと要配慮個人情報について
●個人情報をAIでプロファイリングして得られた推知情報が要配慮個人情報に該当するかについては、該当しないとするのが日本の個人情報保護法学界の多数説である。

●ネット上の個人データの収集(スクレイピング)自体については個人情報保護法はこれを規制していない。しかし要配慮個人情報の取得については原則として本人の同意が必要となる(法20条2項)。ただし法20条2項7号は「当該要配慮個人情報が、本人、国の機関、地方公共団体、学術研究機関等、第五十七条第一項各号に掲げる者その他個人情報保護委員会規則で定める者により公開されている場合」には本人同意が不要と規定しているので、本人がネット上の要配慮個人情報を公開している場合などはこの例外規定が適用される。

●ネット上の要配慮個人情報の収集(スクレイピング)については、個人情報保護委員会(PPC)が6月2日付で発出した「生成AIサービスの利用に関する注意喚起等について」の「【別添2】OpenAIに対する注意喚起の概要」の1.(1)(2)が参考になる。すなわちPPCはつぎのように整理している。

PPCの要配慮個人情報の図
(個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」「【別添2】OpenAIに対する注意喚起の概要」より)

3.生成AIと第三者提供
●個人情報をchatGPT等の生成AIに入力することはchatGPT(openAI社)等への第三者提供に該当するのか?
・個人情報保護法ガイドラインQA7-53、54はクラウトサービスに事業者が個人情報を預ける場合に関して、それがただ単に「倉庫として利用しているような場合」には第三者提供には該当しないとしているところ、chatGPT等の生成AIは処理や機械学習などを行っているので、これを「倉庫として利用しているような場合」と考えることはできず、原則として第三者提供に該当すると考えるべきであろう。

ただし、上述の個人情報保護委員会の「生成AIサービスの利用に関する注意喚起等について」の「【別添1】生成AIサービスの利用に関する注意喚起等」は、生成AIが機械学習をしていないのであれば第三者提供に該当しないと読める。

なお、openAI社のchatGPTの利用規約などを読むと、openAI社は「入力された情報を30日間保存する」と規定している。しかしこの点については、個人情報保護法27条1項2号の「人の生命、身体又は財産の保護のために必要がある場合であって、本人の同意を得ることが困難であるとき。」に該当する場合であるとして、第三者提供にあたらないと考えることは可能であろう。

企業などがopenAI社とデータ処理契約(DPA)を締結してchatGPTを利用する場合には、契約内容にてこれらの点を問題ないように処理できるであろう。しかしopenAI社とデータ処理契約を締結できない個人の利用などの場合には、第三者提供の問題が起きることになるであろう。

4.生成AIと不適正利用禁止規定
●chatGPTなどの生成AIが勝手に個人情報に関する回答を行ったらどうなるか?
・このような場合については、chatGPTなどの生成AIは統計的な計算により回答を行っていることから第三者提供にはあたらないと考えることもありうる。とはいえ、chatGPTなどが嘘の前科を回答する事例は現実に発生しており、これは大問題といえる。

この点に関しては個人情報保護法19条の不適正利用の禁止の条文の適用も考えられるが、個人情報保護委員会はこの条項を伝家の宝刀としてこれまではあまり発動してこなかった。しかし、個人情報保護委員会が本年3月に公表した、「犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会」の「犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会報告書(令和5年3月)」20頁はつぎのように記述しており、個人情報保護法とプライバシーが重なり合う場面において、法19条の不適正利用禁止条項が法執行されることが今後はあるかもしれないと思われる。

防犯カメラ報告書20頁
(個人情報保護委員会「犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会報告書(令和5年3月)」20頁より)

このブログ記事が面白かったらシェアやブックマークをお願いします!

■関連するブログ記事
・chatGPT等の「生成AIサービスの利用に関する注意喚起等について」に関して個人情報保護委員会に質問してみた
・【備忘録】文化庁の著作権セミナー「AIと著作権」について
・個人情報保護委員会の「犯罪予防や安全確保のためのカメラ画像利用に関する有識者検討会報告書(案)」に関するパブコメに意見を書いてみた

人気ブログランキング

PR




このエントリーをはてなブックマークに追加 mixiチェック

ai_shigoto

1.はじめに
2023年6月2日付で個人情報保護委員会(PPC)はchatGPTなどに関する「生成AIサービスの利用に関する注意喚起等について」を発出しました。この文書の「【別添1】生成AIサービスの利用に関する注意喚起等」の(1)の部分は個人情報取扱事業者(=民間企業等)に対する注意喚起ですが、やや包括的な書きぶりで疑問点があったため、PPCに電話にて確認してみました。PPCの担当者の方のご回答はおおむね次の通りでした。
・生成AIサービスの利用に関する注意喚起等について(2023年6月2日)|個人情報保護委員会

2.質問とPPCの回答
(1)個情法の何条違反となるのか
質問:「【別添1】生成AIサービスの利用に関する注意喚起等」(1)②は「あらかじめ本人の同意を得ることなく生成AIサービスに個人データを含むプロンプトを入力し、当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合、当該個人情報取扱事業者は個人情報保護法の規定に違反することとなる可能性がある」とのことであるが、これは具体的には法何条に違反する可能性があるのであろうか?目的外利用あるいは第三者提供などとご教示いただきたい。」

PPCの回答:「とにかくchatGPTなど生成AIサービスについてはまだ分からないことが多い。そのため、個情法の何条に違反するというよりも、個人情報取扱事業者の義務を規定した法第4章の事業者のすべての義務に違反するような個人データの入力や利用は止めてもらいたいという趣旨である。」

(2)「応答結果の出力」ー委託の「混ぜるな危険」の問題
質問:「(1)②の「応答結果の出力以外の目的で取り扱われる場合…個人情報保護法の規定に違反する可能性」とあるということは、「応答結果の出力」の目的の範囲内であれば適法であると読めるが、「応答結果の出力」の目的の範囲内であっても、例えば個人情報保護法ガイドラインQA7-41等の委託の「混ぜるな危険の問題」に抵触するような場合、つまりopenAI社が他社から委託を受けた個人データと突合・名寄せする等して応答結果を出力するような場合は法27条5項1号違反となる可能性があるのではないか?」

PPCの回答:「たしかにその場合には違法の可能性がある。とにかく個情法第4章の個人情報取扱事業者の義務に抵触するような個人データの入力や利用は止めてもらいたいという趣旨である。」

(3)個人情報保護法ガイドラインQA7-39の「委託元から提供された個人データを委託先は自社の分析技術の改善のために利用することができる」について
質問:「(1)②の最後の部分に、「当該生成AIサービスを提供する事業者が、当該個人データを機械学習に利用しないこと等を十分に確認すること」とあるが、個人情報保護法ガイドラインQA7 -39は「委託に伴って提供された個人データを、委託業務を処理するための一環として、委託先が自社の分析技術の改善のために利用することはできるか」との問いに「委託先は、委託元の利用目的の達成に必要な範囲内である限りにおいて、委託元から提供された個人データを、自社の分析技術の改善のために利用することができる」と説明しているが、このQA7-39との関係をどう理解すればよいのだろうか?」

PPCの回答:「委託元の利用目的の範囲内であれば、委託先は自社の分析技術の改善つまり業務効率化に利用できるということであるが、業務効率化を超えるような利用があるとしたら、そのような個人データの利用は止めてもらいたい。とにかく当委員会としても生成AIサービスについてはまだよく分かってないことが多いので、個人情報取扱事業者においては個情法第4章の義務全般に違反する生成AIサービスの利用は止めてもらいたいという趣旨である。」

3.まとめ
PPCのご担当者の方が、「当委員会としても生成AIサービスについてはまだよく分かってないことが多い」ので、「個人情報取扱事業者においては個情法第4章の義務全般に違反する生成AIサービスの利用は止めてもらいたい」と繰り返し回答されていることが印象に残りました。

PPCがこのようなスタンスであるということは、民間企業など個人情報取扱事業者においては、chatGPTなどの生成AIサービスの利用については慎重の上に慎重に検討した上で個人データの入力などの利用を行う必要があると思われます。

(また、上の(2)では委託のスキームを前提とした質問を行い、PPCのご担当者もそれに沿った回答をしていただいていますが、生成AIサービスを利用する事業者の個人データの入力は、PPCが「当委員会としても生成AIサービスについてはまだよく分かってないことが多い」と繰り返し回答していることからも、委託というよりは第三者提供と考えたほうが安全なように思われました。)

このブログ記事が面白かったらシェアやブックマークをお願いします!

人気ブログランキング

PR






このエントリーをはてなブックマークに追加 mixiチェック

↑このページのトップヘ