なか2656のblog

とある会社の社員が、法律などをできるだけわかりやすく書いたブログです

タグ:AI

かくれてしまえばいいのですトップ画面2

1.はじめに

「いまのつらさに耐えられないのなら、一度隠れてしまいましょう」と、自殺防止の対策に取り組むNPO法人「ライフリンク」が、生成AIを利用したオンライン上に自殺対策のためのウェブサービス「かくれてしまえばいいのです」を作ったことをNHKなどが報道しています。公開から3日で30万以上のアクセスを集め話題になっているとのことです。
・つらい気持ち抱える人へ ネット上の「かくれが」話題に|NHK

自殺願望(希死念慮)のある利用者が生成AIと会話ができるサービスもあるようで、そのような非常にデリケートなカウンセリング業務を人間でなく生成AIにまかせてしまって大丈夫なのか非常に気になります。

また、そのようなセンシティブな会話、個人データの取扱いが大丈夫なのかが非常に気になるところです。

2.実際にサービスに入ってみるとー要配慮個人情報の取得の際の本人同意は?

実際に「かくれてしまえばいいのです」のトップ画面から利用画面に入ってみました。

かくれてしまえばいいのですトップ画面

しかし、本サービスは自殺願望のある人々の悩みなどを取扱うため、うつ病やオーバードーズなどの精神疾患の情報を扱う可能性が高いところ、そのようなセンシティブな個人情報(場合によっては健康・医療データ)を書き込み等により電磁的記録として収集するにもかかわらず利用者の本人同意を取得することについてのボタンやチェックマークなどは表示されませんでした。これは要配慮個人情報の取得にあたっては本人同意を必要としている個人情報保護法20条2項に抵触しているのではないでしょうか?(個人情報保護法ガイドライン(通則編)2-16参照。)

あるいは「偽りその他不正な手段」による個人情報の収集を禁止する個情法20条1項に抵触しているのではないでしょうか。

なお、個人情報保護委員会の「生成AIサービスの利用に関する注意喚起等について(令和5年6月2日)」の生成AI事業者向けの注意喚起は、そもそも、「収集する情報に要配慮個人情報が含まれないよう必要な取組を行うこと」を求めています。(松尾剛行『ChatGPTと法律実務』64頁。)

そのような観点からも、精神疾患などの要配慮個人情報を生成AIで取扱うことを前提とした本サービスを実施してよいのか疑問が残ります。

3.「ロボとおしゃべりコーナー」-警察等に通報される?

つぎに、生成AIに悩み事を相談できる部屋「ロボとおしゃべりコーナー」にも入ってみました。

ロボとおしゃべりの部屋

するとつぎのような表示が現れました。

ロボとおしゃべりの表示

この部屋に入る場面においても、利用者の本人同意を取得するためのボタンやチェックマークなどは現れませんでした。

また、このアナウンスの表示には「私はただのプログラムだから何を言っても大丈夫!気軽にやってみてね」と書かれているだけです。

しかしこの点、「かくれてしまえばいいのです」の利用規約には、「本人または第三者に危害のおそれがある場合には、本人の同意にかかわらず警察等の関係機関に通報する」等の規定があるのですが(利用規約3条2項)、こういった点も十分アナウンスされていないことも気になります。

利用規約3条2項

4.利用規約-Microsoft社のAzureやOpenAIServiceを利用している

この利用規約を読んでみると、MicrosoftのAzureOpenAIServiceを利用していることが分かります。

利用規約3条1
利用規約3条(1)以下

入力された個人データなどは、Microsoft社のAzureOpenAIServiceの機械学習には利用されないとは一応書かれていますが、Microsoft社のサーバーに個人データは蓄積されると期されています。さらに、ライフリンクは自殺対策の調査・研究・検証などのために入力された個人データなどを利用するとも書かれている点は、利用者は注意が必要でしょう(利用規約3条3項3号、同6条2項)。

しかもプライバシーポリシーには安全管理措置を講じると書かれている部分はありますが(プライバシーポリシー4条)、具体的に個人データの保存期間などの明記はありません。

さらに、ライフリンクのプライバシーポリシーには個人情報の開示・訂正・削除等請求の具体的な手続きが記載されていないことも非常に気になります。

なお、プライバシーポリシーをみると、大学など研究機関に個人データが匿名加工情報の形態とはいえ、第三者提供されるとの記述もあることが気になります(プライバシーポリシー10条)。

プライバシーポリシー10条

ところでこの利用規約3条で一番気になるのは、同3条3項4号が「利用者は、当該サービスが自らの心身や認識に対して直接または間接に影響を及ぼしうることに留意し、当該サービスに過度に依拠して何らかの決定を行わないよう注意して利用すること」と明示していることではないでしょうか。

つまり、ライフリンクはこの「かくれてしまえばいいのです」の生成AIサービスなどによる相談業務などは、利用者にとって悪影響があるおそれがあることを承知しつつ、それを利用者の責任で利用せよとしているのです。これは、まだまだ発展途上の生成AIの危険を利用者に丸投げするものであり、場合によってはライフリンクは不法行為責任(民法709条)などを負う可能性があるのではないでしょうか?

しかし、利用規約3条4項は、ライフリンクは「当該サービスの利用により利用者または第三者に生じたいかなる損害に対しても、何ら責任を負わない」と明記しています。とはいえ、このような利用規約の規定は、消費者契約法10条などとの関係で無効とされる可能性があるのではないでしょうか?

生成AIは、真顔で嘘をつくこと(ハルシネーション(Hallucination))や、間違いを犯すことが知られています。また正しい発言であっても、自殺願望のある人に言ってよいことと悪いことがあるはずです。このような機微にわたる業務は精神科やカウンセラーなど専門家の「人間」が実施すべきことなのではないでしょうか。それを生成AIにやらせてしまっている本サービスには非常に疑問を感じます。

また、この点を個人情報保護法から考えても、このようなライフリンクの姿勢は、「個人情報取扱事業者は、違法又は不当な行為を助長し、又は誘発するおそれがある方法により個人情報を利用してはならない。」との個情法19条の不適正利用の禁止に抵触し、個人情報保護委員会から行政指導・行政処分などが課される可能性があるのではないでしょうか?

この点、EUのAI規制法案は、AIをそのリスクの度合いで4分類しているところ、医療機器などに関連するAIはそのリスクの高い順から2番目の「ハイリスク」に分類され、事業者には透明性や説明責任、ログの保管義務等が要求され、さらに当局のデータベースに登録される義務等が課されます。そういった意味で、この「かくれてしまえばいいのです」は日本の厚労省などの監督当局が承知しているのか気になります。

5.まとめ

このように、この「かくれてしまえばいいのです」のサービスや、利用規約、プライバシーポリシーはツッコミどころが満載です。

いくら「いのちの電話」などが人手不足であったとしても、自殺願望のある人々の相談業務などを、まだまだ発展途上の生成AIにやらせてしまって大丈夫なのでしょうか?厚労省や個人情報保護委員会、警察当局などはこのサービスについて十分承知しているのでしょうか?大いに心配なものがあります。利用者の方々は、本サービスの利用規約やプライバシーポリシーなどをよく読み、十分ご自身で検討した上で利用するか否かを考えるべきだと思われます。

自殺願望などがある方々は、まずは最寄りの精神科や資格を持ったカウンセラー、「いのちの電話」などを利用するべきだと思われます。安易にセンシティブな病状などの個人情報を生成AIに入力して相談等することは慎重であるべきだと思われます。

このブログ記事が面白かったらシェアなどをお願いします!

■参考文献
・つらい気持ち抱える人へ ネット上の「かくれが」話題に|NHK
・「かくれてしまえばいいのです」利用規約|ライフリンク
・プライバシーポリシー|ライフリンク
・生成AIサービスの利用に関する注意喚起等について(令和5年6月2日)|個人情報保護委員会
・松尾剛行『ChatGPTと法律実務』64頁

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

文化庁が、2月12日まで「AIと著作権に関する考え方について(素案)」についてパブコメを実施していたので、つぎのとおり意見を書いて提出しました。

・文化庁パブコメ「「AIと著作権に関する考え方について(素案)」に関する意見募集の実施について」|e-Gov

1.「2.(2)AIと著作権の関係に関する従来の整理」(7頁)について
「イ 法30条の4の対象となる利用行為」「ウ 「享受」の意義及び享受目的の併存」の部分については、本考え方において非常に重要な部分であると思われるので、2017年の文化審議会著作権分科会報告書38頁以下の説明や同40頁の図なども盛り込んで、どうして法30条の4が権利制限規定として許容されるのか、一般人にさらに分かりやすい説明とすべきではないか。(松尾剛行『ChatGPTと法律実務』83頁以下参照。)

報告書40頁の図
(平成29年の文化審議会著作権分科会報告書40頁の図)

2.クリエイター等の「声」(13頁③)について
最近の生成AIの発展に伴って、声優・俳優・歌手等の声を再現できるAIボイスチェンジャーなど生まれ、声優・俳優・歌手等の本人の許諾のない「声」データ等の売買がネット上で横行している(2023年6月13日付日本俳優連合「生成系AI技術の活用に関する提言」など参照)。しかし声優・俳優・歌手等の「声」そのものについては著作権法上保護されず、判例・学説上はパブリシティ権(民法709条)または人格権(憲法13条)で保護されると解されているが(ピンク・レディ事件・最高裁平成24年2月2日判決、法曹時報 65(5) 151頁、TMI総合法律事務所『著作権の法律相談Ⅱ』312頁、荒岡草馬・篠田詩織・藤村明子・成原慧「声の人格権に関する検討」『情報ネットワーク・ローレビュー』22号24頁)、その保護のためには、①氏名・肖像等それ自体を独立して鑑賞の対象となる商品等として使用し、②商品等の差別化を図る目的で氏名・肖像等を商品等に付し、③氏名・肖像等を商品等の広告として使用すること、等の厳しい要件を満たす必要があり、声優・俳優・歌手等の保護としてハードルが高すぎる。そのため、声優・俳優・歌手等の「声」という人格権(憲法13条)の保護のため、著作権法や不正競争防止法などの法令において、何らかの立法手当が必要なのではないか。

3.「5.(1)ア(ア)平成30年改正の趣旨および(イ)議論の背景」(15頁)について
この部分については、本考え方において非常に重要な部分であると思われるので、2017年の文化審議会著作権分科会報告書38頁以下の説明や同40頁の図なども盛り込んで、どうして法30条の4が権利制限規定として許容されるのか、一般人にさらに分かりやすい説明とすべきではないか。(松尾剛行『ChatGPTと法律実務』83頁以下参照。)

4.「(4)海賊版等の権利侵害複製物をAI学習のため複製すること」(23頁)について
「著作権者の利益を不当に害することとなる場合」について、学習用データセットだけでなく海賊版等を明示したことは良いことだと思いました。

5.「カ 差止請求として取りうる措置について」(32頁)について
差止請求としてAI利用者やAI開発事業者等に対して著作権者が取りうる各種の措置が詳しく例示されており良いと思いました。Twitterなどネット上ではアマチュアのイラストレーターと思われる人々による反画像生成AI、反著作権法30条の4の意見が非常に高まっておりますが、これらの差止請求が可能なことにより、それらの懸念や不満は一定程度は解消されるのではないでしょうか。

6.「コ 学習に用いた著作物等の開示が求められる場合について」(34頁)について
訴訟となった場合に、AI利用者が主張・立証のためAI開発事業者等に対して書類の提出等や文書提出命令、文書送付嘱託などを実施できることが詳しく説明されていることは実務的に大変良いと思いました。

7.補償金制度(36頁)について
著作権者への補償金制度が、著作権法上、理論的な説明が困難であるとしても、Twitterなどネット上でクリエイター等の画像生成AIや著作権法30条の4に反対する意見が非常に大きいことから、政策的な観点から何らかの著作権者への補償金制度が必要なのではないかと思われます。

■関連するブログ記事
・声優の「声」は法的に保護されないのか?-生成AI・パブリシティ権(追記あり)
・【備忘録】文化庁の著作権セミナー「AIと著作権」について

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

めぶくpay概要
(前橋市サイトより)

1.はじめに

最近、Twitter(現X)でawakoyot様(@awakoyot)から、”前橋市が地域電子通貨「めぶくpay」の決済データを市政や民間ビジネスに利活用するとのことだが、このようなことは個人情報保護法等から大丈夫なのだろうか?”との趣旨のツイートとともに、東京新聞の記事(「「めぶくPAY」前橋市で始動 決済データを市政やビジネスに活用」(2024年1月13日))やめぶくpay等の利用規約・プライバシーポリシーなどを紹介いただいたので、興味深く読んでみました。

めぶくpay等の利用規約やプライバシーポリシーには「決済データを市政や民間ビジネスなどに利活用する」等とは明記されていませんが、めぶくpay等による決済データを市政や民間ビジネスなどに利活用することは個人情報保護法などから大丈夫なのでしょうか?

2.めぶくpay・めぶくID等の概要・利用規約・プライバシーポリシー

(1)上の東京新聞の記事などによると、前橋市の地域電子通貨「めぶくpay」は、同市と民間企業が共同出資した株式会社めぶくグラウンドが手掛ける共通ID「めぶくID」を利用した「めぶくアプリ」というデータ連携基盤を利用しているものであるそうです。めぶくIDは、マイナンバーカードによる本人確認を実施した上でスマートフォン上に実装されるデジタルIDであるそうです。そして同記事においては、「めぶくpayの決済データはめぶくグラウンド社という地域に残る前橋市独自の仕組みであり、このめぶくpayの決済データを統計処理して、同市の行政サービスや市内の民間ビジネスなどに利活用することができる」ことが強調されています。

そして、めぶくID・めぶくアプリというデータ連携基盤は、めぶくグラウンド社の「助け合い掲示板」「グッドグロウまえばし」「メブクラスまえばし」「my Allergy alert」という各種サービスとデータ連携しており、また今回のmy FinTech株式会社の運営する、めぶくpay等とデータ連携しているとのことです。このデータ連携基盤と各種サービスとの間においては、利用者が自分自身の個人データをどのサービス・事業者に提供・連携するか選択できるようになっているとのことです。

めぶくpay・めぶくIDなどの概要図

(2)この点、めぶくグラウンド社の利用規約およびプライバシーポリシーをみると、たしかに「当社は…本サービス中においてデータ連携サービスを提供しています。お客様はご自身の判断で個人情報を提供するか否かを決定することができます」等と規定されています(めぶくグラウンド社利用規約6条2項、同社プライバシーポリシー5条1項など)。また、個人情報の各種サービスへの第三者提供にあたっては、「当社が本サービス上等でお客様に事前通知する情報のみを提供し」ますと規定されています(同社利用規約6条5項)。さらにこのめぶくアプリ等によるデータ連携基盤と各種サービスとの個人データの提供は、委託や共同利用ではなく第三者提供であることが明記されています(同社プライバシーポリシー6条)。

めぶくID
(前橋市サイトより)

(3)つまり利用規約・プライバシーポリシーによると、めぶくアプリ・めぶくID・めぶくpayなどにおける個人データの取扱いはあくまでも利用者本人の同意に基づく個人データのやり取りであり、個人データの官民による利用等に関しては、原則として本人同意した利用者が責任を負うというスキームになっています。委託におけるいわゆる「委託の「混ぜるな危険」の問題」などの規制は適用されないことになります。

3.めぶくpayの決済データを市政や民間ビジネスに利活用することについて

(1)さらに、個人情報を元に作成された統計情報・統計データはそもそも個人情報に該当しないため(個情法2条1項1号、個人情報保護法ガイドラインQA1-17)、前橋市やめぶくグラウンド社およびmy FinTech社などが市政や民間ビジネスなどに、めぶくpayの決済データを「統計情報・統計データ」として利用する限りにおいては、少なくとも現状のゆるい日本の個人情報保護法上は違法ではなく、加えて統計情報・統計データを市政や民間ビジネスに利用する場合にはプライバシーポリシー等に記載して通知・公表することも不要ということになりそうです(個人情報保護法ガイドラインQA2-5)。

(2)しかし、いくら日本のゆるゆるな個人情報保護法がそのような取扱いを許容するとしても、前橋市などの地方自治体や同自治体が出資する準公的団体がそのような個人情報の取扱いを行うことは、道義的あるいは政治的に許容されるのでしょうか?

この点、前橋市の未来創造部未来政策課の担当者の方に私が電話にて質問したところ、

「めぶくpayの決済データを市政や民間ビジネスに利用することについては、技術的には可能だがまだ検討中の段階である。めぶくpayやめぶくアプリなどで取得された個人データを第三者提供することや、同データをプロファイリングすることについても技術的には可能だがまだ検討中の段階である。」


との趣旨のご回答をいただきました。

このご回答がもし正しければ、上であげた東京新聞の記事はやや「飛ばし記事」であるように思われます。

(3)なお、これがもし、めぶくグラウンド社・my FinTech社等が統計情報・統計データではなく、個人データとしての決済データをAIによるプロファイリングなどを行って、その結果を前橋市の市政や民間ビジネス等に利活用する場合には、「プロファイリングを実施してその結果を市政に利用している」等の事項をプライバシーポリシーの利用目的に記載する等して利用目的を特定し、通知・公表を行うことが必要です(個情法17条1項、21条1項、個情法ガイドライン通則編3-3-1※1、田中浩之ほか『AIプロファイリングの法律問題』43頁)。

4.まとめ

このように検討してみると、もしめぶくグラウンド社などがめぶくpayの決済データ等を統計データの形で市政や民間ビジネスなどに利用するのであれば、それはゆるいわが国の個人情報保護法や、めぶくグラウンド社などの利用規約・プライバシーポリシーなどとの関係では違法ではないという結論になりそうです。しかしこれも上述したとおり、前橋市の担当部署の担当者の方は、そのような取組みは「可能ではあるがまだ検討中」と回答しています。これが本当であれば、冒頭の東京新聞の記事はやや飛ばし記事なのではないかと思われます。

このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
・「めぶくPAY」前橋市で始動 決済データを市政やビジネスに活用|東京新聞
・安心・安全なデジタルID「めぶくID」を是非ご活用ください!|前橋市
・めぶくグラウンド社利用規約
・めぶくグラウンド社プライバシーポリシー
・my FinTech社プライバシーポリシー
・田中浩之ほか『AIプロファイリングの法律問題』43頁

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

kojinjouhou_businessman (1)
1.はじめに
2023年11月15日付で個人情報保護委員会(PPC)が「個人情報保護法いわゆる3年ごと見直し規定に基づく検討」を公表していたので読んでみました。今回の「個人情報保護法いわゆる3年ごと見直し規定に基づく検討」(以下「本検討」)は、大きく、①個人の権利利益のより実質的な保護の在り方、②実効性のある監視・監督の在り方、③データ利活用に向けた取組に対する支援等の在り方、の3つを次回の個人情報保護法改正の柱として掲げています。(なお本ブログ記事の意見の部分は、あくまで筆者の個人的な意見にすぎません。)
・第261回個人情報保護委員会

2.「検討の方向性① 個人の権利利益のより実質的な保護の在り方」について
検討の方向性1
(PPC「個人情報保護法いわゆる3年ごと見直し規定に基づく検討」より)

この「検討の方向性① 個人の権利利益のより実質的な保護の在り方」では、PPCは「概要」として、「破産者等情報のインターネット掲載事案や、犯罪者グループ等に名簿を提供する悪質な「名簿屋」事案等、個人情報が不適正に利用される事案も発生している。こうした状況に鑑み、技術的な動向等を十分に踏まえた、実質的な個人の権利利益の保護の在り方を検討する。」等としています。

そしてその下の「検討の視点(例)」は、とくにつぎの①~③をあげています。

①技術発展に伴って、多様な場面で個人情報の利活用が進み、その有用性が認められる一方で、こうした技術による個人の権利利益の侵害を防ぐためには、どのような規律を設定すべきか。

②個人情報を取り扱う様々なサービス等が生まれる中、個人の権利利益の保護の観点から、本人の関与の在り方を検討すべきではないか。その際、その年齢及び発達の程度に応じた配慮が必要なこども等の関与の在り方はどうあるべきか、併せて検討すべきではないか。

③個人の権利利益保護のための手段を増やし、個々の事案の性質に応じて効果的な救済の在り方を検討すべきではないか。
この点、①に関しては、本検討3頁の「施行状況に係る委員会における主な意見」において、「生成AI、認証技術の普及等」を踏まえて「不適正利用の禁止」に関する規律(法19条)を「実効ある形になるよう…その考え方を検討すべき」との意見が出されています。

主な意見
(PPC「個人情報保護法いわゆる3年ごと見直し規定に基づく検討」より)

最近はchatGPTなど生成AIや画像生成AIが製造開発され普及しつつありますが、AIによる個人のプロファイリングなどについては日本の個情法には法19条の不適正利用の禁止の条文しか存在せず、しかもその条文は抽象的で謙抑的です。この不適正利用の禁止規定の具体化・積極化は個人の権利利益の保護に資するものとして、次の個人情報保護法改正において大きな目玉になるのではないかと思われます。(あくまで個人的な予想ですが。)

つぎに②に関しては、「本人関与の在り方」を検討すべきとされていますが、これは現行の個情法の開示・利用停止等の請求権のさらなる拡大を意味しているのでしょうか。ところでその後の「その年齢及び発達の程度に応じた配慮が必要なこども等の関与」を検討すべきとの記述が注目されます。

EUのGDPR(一般データ保護規則)は原則16歳未満の子どもの個人データの収集等に規制を設け、アメリカの児童オンラインプライバシー保護法(COPPA)も同様に13歳未満の子どもの個人データの収集等に規制を設けているところ、日本の個情法は子どもの個人データ・個人情報を保護するための明文規定を置いていません。そのため、次の個人情報保護法改正では、遅ればせながらもわが国の子どもの個人データへの規律が新設されるのかもしれません。

さらに③に関しては、本検討3頁の「施行状況に係る委員会における主な意見」において、「個人の権利利益保護のための手段を増やす観点から」「集団訴訟」を「検討すべき」との意見が出されています。現状の裁判例では、個人情報漏洩について民事訴訟が提起されても認められる損害額が数千円程度であり、被害を受けた個人が訴訟をためらう現状があるように思われます。消費者契約法にある消費者団体訴訟制度のような制度が個人情報保護法の分野にも創設されたら、そのような被害を受けた国民個人の救済に資するように思われます。(一方、もし集団訴訟制度が個情法に創設された場合、事業者側に対するインパクトは大きいものがあると思われます。)

3.「検討の方向性② 実効性のある監視・監督の在り方」について
検討の方向性2
(PPC「個人情報保護法いわゆる3年ごと見直し規定に基づく検討」より)

この部分の「検討の視点(例)」はつぎのようになっています。
①ヒューマンエラーのような過失による漏えい等事案が多い一方で、非常に大規模な漏えい等事案等、重大な個人の権利利益の侵害に繋がるケースも発生しているところ、従来の指導を中心とした対応にとらわれない、より実効性のある監視・監督の在り方を検討すべきではないか。

②重大な事案や、故意犯による悪質な事案を抑止するための方策を検討すべきではないか。また、そのための関係省庁等との連携の在り方を検討すべきではないか。

③個人の権利利益の保護のため、重大な漏えい等事案の状況をどのように把握し、適切な執行につなげていくべきか検討すべきではないか。
まず、①に関しては、本検討3頁の「施行状況に係る委員会における主な意見」は、現行の事業者に対する行政指導中心の監視・監督だけでなく、「緊急命令」(法148条3項)をも利用した監視・監督を提言する意見が出されています。そのため今後のPPCの監視・監督においては、報告徴求や立入検査、行政指導などだけでなく積極的に緊急命令が発動される実務が行われる可能性があります。

つぎに②に関しては、公正取引委員会、総務省、消費者庁、厚労省、金融庁、デジタル庁、こども家庭庁等の関係行政庁とのさらなる連携が行われるのかもしれません。また本検討3頁の「施行状況に係る委員会における主な意見」は、「課徴金制度」を導入することに関する意見も出されているので、次の個人情報保護法改正においては、個人情報データベース等提供罪などの罰則強化だけでなく、独禁法に規定がある課徴金減免制度のような制度が盛り込まれるのかもしれません。さらに公取委などのように内部通報窓口(内部告発窓口)などがPPCに用意されるかもしれません。加えて、個人情報データベース等提供罪などの罰則強化の改正があるかもしれません。

4.「検討の方向性③ データ利活用に向けた取組に対する支援等の在り方」について
検討の方向性3
(PPC「個人情報保護法いわゆる3年ごと見直し規定に基づく検討」より)

この部分に関しては、本検討3頁の「施行状況に係る委員会における主な意見」には、「個票データの利活用」の検討があげられています。「個票データ」というものの概念がはっきりしませんが、ひょっとしたら匿名加工情報、仮名加工情報につぐ個人データの利活用のための新たなカテゴリーが創設される可能性があるのでしょうか。

また、同「主な意見」には、「健康・医療データ、子どもデータ等の公共性の高い分野」の個人データのさらなる利活用のために関係官庁とさらなる連携を行うべきであるとの意見も出されています。これらの個人データに関しては良い悪いは別として、国策としてさらなる利活用が検討・実施されるように思われます。

5.その他・スケジュールなど
今後のスケジュールに関しては、11月下旬以降に関係団体等のヒアリングを順次実施とあり、その後、2024年春頃に「委員会「中間整理」公表」とあります。この段階でパブコメが実施されるのでしょうか。

また、同「主な意見」では、いわゆる「クラウド例外」の見直しも議論の対象となっているようです。

なお、上の本検討3頁の「施行状況に係る委員会の主な意見」を読んでも、個人情報保護法の立法目的に自己情報コントロール権あるいは「自らの個人情報を適正に取扱われる権利」(曽我部真裕説)、「関連性のない個人データで個人が選別・差別されない権利」(高木浩光説)などを盛り込むべきといった議論はなされていないようでした。また、EUのGDPR22条のプロファイリング拒否権のような規定や、コントローラー・プロセッサー等の概念を盛り込むべきとの議論もなされていないようです。カメラ規制法やEUのようなAI規制法などの立法化の議論もなされていないようです。

このように次回の個人情報保護法改正は、これまでの法改正に比べて小ぶりな改正に留まるのかもしれません。

このブログ記事が面白かったらシェアやブックマークをお願いします!

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

OIG (13)
内閣府知的財産戦略推進事務局が11月5日まで「AI時代における知的財産権に関する御意見の募集について」のパブコメを実施しています。Twitterなどネット上をみていると、同人絵師の方々を中心に生成AIへの反対意見が強いように思われるので、私は次のような、あえて生成AIの研究開発に肯定的な意見を書いて提出してみました。

1 生成AIと著作権の関係について、どのように考えるか。
わが国のAI等の科学技術の発展や経済発展のためには、著作権法30条の4にあるとおり生成AIの学習・開発段階はできるだけ法規制せず、一方、生成・利用段階は著作権法等で法規制を行い、生成AIの研究開発と権利者の保護のバランスを図るべきだと考えます。

2 生成AIと著作権以外の知的財産法との関係について、どのように考えるか。
最近、声優・俳優等の「声」と生成AIとの関係が問題になっていますが、声優・俳優等の「声」はパブリシティ権で保護されます(法曹時報 65(5) 151頁、最高裁平成24年2月2日判決)。そのため、著作権法等で安易に新たに声優・俳優等の「声」を法規制することには反対です。

3 生成AIに係る知的財産権のリスク回避等の観点から、技術による対応について、どのように考えるか。
日本新聞協会などが「新聞記事を生成AIの学習に利用させるな」等と主張していますが、それは新聞社各社が自社サイトに「生成AI学習禁止」とのタグなどの技術的措置をすればよいだけであると考えます。新聞社の利益よりも生成AIの研究開発を重視すべきだと考えます。

4 生成AIに関し、クリエイター等への収益還元の在り方について、どのように考えるか。
わが国の生成AIの研究開発を積極的に推進するために、学習・開発段階で利用料をとるのではなく、生成・利用段階で利用料をとるなどしてクリエイター等に還元すべきだと考えます。

6 ディープフェイクについて、知的財産法の観点から、どのように考えるか。
欧米などのように、民主主義を守る観点から、生成AIを利用した記事や動画・画像などには「生成AIで作成」等の注意書きをつけるよう法令やガイドラインなどでマスメディアやSNS・検索サイト等のデジタルプラットフォーム等に義務付けるべきだと考えます。

7 社会への発信等の在り方について、どのように考えるか。
とくにマンガ・アニメ等のイラスト等の分野に関して、生成AIに反対する感情的な意見がネット上に広まっていると感じます。これに対して政府は、例えば先般の文化庁の「著作権とAI」の講演会のような、学術的・理性的な情報発信を行い対応すべきだと考えます。

その他
「知的財産法と生成AI」だけでなく、「個人情報保護法と生成AI」についても政府や国会で検討していただきたいと考えます。

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

↑このページのトップヘ