なか2656のblog

とある会社の社員が、法律などをできるだけわかりやすく書いたブログです

タグ:生成AI

AIと著作権

■追記(2023年6月22日)
6月19日の文化庁の本セミナーがアーカイブで配信されています。
令和5年度著作権セミナー「AIと著作権」の講演映像及び講演資料を公開しました。

1.はじめに

2023年6月19日午後2時から3時まで、文化庁のYouTubeの著作権セミナー「AIと著作権」が開催されたので受講しました。とても興味深く面白い講義でした。受講して印象に残った点や感想などを少し書いてみたいと思います。(あくまでも個人の感想です。)

2.著作権法30条の4の「権利者の権利を不当に害する場合」
まず、文化庁としては、AIの①開発・学習段階と、②生成・利用段階を分けて考えてほしいということをとても強調されていました。

また文化庁は著作権法30条の4の「権利者の権利を不当に害する場合」については、情報解析用DBの販売・利用を阻害する場合が具体例として想定されると非常に狭く解して説明している点が印象に残りました。

(そのため、イラストレーターの方々が「自分の権利が不当に侵害されている」と法30条の4の「権利者の権利を不当に害する場合」に該当すると主張しても、ただちにその主張が採用されるかについては厳しそうだと感じました。)


2.類似性と依拠性
つぎに、AI生成物が著作権侵害となるかどうかについては一般の著作権侵害と同様に、①類似性と②依拠性があるかで判断されるが、類似性はAIでない創作物と同じ判断基準によるとなるが、依拠性は現在議論中で難しいとのことでした。講義のなかでは4つの見解が紹介されていました。

ただし、①Image to Imegi(i2i)の場合や、②特定のクリエイターの作品を集中的に学習させた場合は、依拠性が認められる可能性はあるのではないかとのことでした。この点に関しては、イラストレーターの方々にとっては朗報なのではと思いました。


3.利用者側の注意点
さらに、利用者側の注意点としては、①利用行為が著作権の権利制限規制に該当しないか検討する②既存の著作物と類似していないか検討し、もし類似している場合には、(a)利用をさける、(b)著作権者の許諾を得る、(c)大幅な修正を加えるなどの対応をとることが望ましい、との説明がありました。この点は、今後の法的紛争の予防のために重要な指針なのではと思いました。


4.AI生成物が著作物にあたるか
加えて、AI生成物が著作物にあたるかについては、AIが自律的に作成したものは該当しない、しかし人間が思想・感情を創作的に表現するために「道具」として利用した場合には該当するとし、それには「創作的意図」・「創作的寄与」が問題になるとのことでした。このうち創作的意図は簡単だが、創作的寄与の判断は難しく、現在、文化庁も有識者委員会などで検討中とのことでした。


5.その他
なお、文化庁はAIの問題に関連し「海賊版対策情報ポータルサイト」を準備しているのでイラストレーターなどの方々は利用してほしいとのことでした。
・インターネット上の海賊版による著作権侵害対策情報ポータルサイト

また、生成AIに関する説明を追加した文化庁の「著作権テキスト」(令和5年版)は7月に公開予定とのことでした。

YouTubeのセミナー終了後にはアンケートがあったのですが、「アーカイブ動画を希望しますか?」とあったので強く「希望」としました。


6.感想
このように1時間の講義ながら、全体として分かりやすく非常に勉強になりました。また文化庁の現在の考え方がよくわかるセミナーでした。文化庁におかれては、今後もネット媒体のセミナーなどで、生成AIと著作権の問題を取り上げてほしいと思いました。

■関連するブログ記事
・chatGPT等の「生成AIサービスの利用に関する注意喚起等について」に関して個人情報保護委員会に質問してみた

人気ブログランキング

PR




このエントリーをはてなブックマークに追加 mixiチェック

ai_shigoto

1.はじめに
2023年6月2日付で個人情報保護委員会(PPC)はchatGPTなどに関する「生成AIサービスの利用に関する注意喚起等について」を発出しました。この文書の「【別添1】生成AIサービスの利用に関する注意喚起等」の(1)の部分は個人情報取扱事業者(=民間企業等)に対する注意喚起ですが、やや包括的な書きぶりで疑問点があったため、PPCに電話にて確認してみました。PPCの担当者の方のご回答はおおむね次の通りでした。
・生成AIサービスの利用に関する注意喚起等について(2023年6月2日)|個人情報保護委員会

2.質問とPPCの回答
(1)個情法の何条違反となるのか
質問:「【別添1】生成AIサービスの利用に関する注意喚起等」(1)②は「あらかじめ本人の同意を得ることなく生成AIサービスに個人データを含むプロンプトを入力し、当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合、当該個人情報取扱事業者は個人情報保護法の規定に違反することとなる可能性がある」とのことであるが、これは具体的には法何条に違反する可能性があるのであろうか?目的外利用あるいは第三者提供などとご教示いただきたい。」

PPCの回答:「とにかくchatGPTなど生成AIサービスについてはまだ分からないことが多い。そのため、個情法の何条に違反するというよりも、個人情報取扱事業者の義務を規定した法第4章の事業者のすべての義務に違反するような個人データの入力や利用は止めてもらいたいという趣旨である。」

(2)「応答結果の出力」ー委託の「混ぜるな危険」の問題
質問:「(1)②の「応答結果の出力以外の目的で取り扱われる場合…個人情報保護法の規定に違反する可能性」とあるということは、「応答結果の出力」の目的の範囲内であれば適法であると読めるが、「応答結果の出力」の目的の範囲内であっても、例えば個人情報保護法ガイドラインQA7-41等の委託の「混ぜるな危険の問題」に抵触するような場合、つまりopenAI社が他社から委託を受けた個人データと突合・名寄せする等して応答結果を出力するような場合は法27条5項1号違反となる可能性があるのではないか?」

PPCの回答:「たしかにその場合には違法の可能性がある。とにかく個情法第4章の個人情報取扱事業者の義務に抵触するような個人データの入力や利用は止めてもらいたいという趣旨である。」

(3)個人情報保護法ガイドラインQA7-39の「委託元から提供された個人データを委託先は自社の分析技術の改善のために利用することができる」について
質問:「(1)②の最後の部分に、「当該生成AIサービスを提供する事業者が、当該個人データを機械学習に利用しないこと等を十分に確認すること」とあるが、個人情報保護法ガイドラインQA7 -39は「委託に伴って提供された個人データを、委託業務を処理するための一環として、委託先が自社の分析技術の改善のために利用することはできるか」との問いに「委託先は、委託元の利用目的の達成に必要な範囲内である限りにおいて、委託元から提供された個人データを、自社の分析技術の改善のために利用することができる」と説明しているが、このQA7-39との関係をどう理解すればよいのだろうか?」

PPCの回答:「委託元の利用目的の範囲内であれば、委託先は自社の分析技術の改善つまり業務効率化に利用できるということであるが、業務効率化を超えるような利用があるとしたら、そのような個人データの利用は止めてもらいたい。とにかく当委員会としても生成AIサービスについてはまだよく分かってないことが多いので、個人情報取扱事業者においては個情法第4章の義務全般に違反する生成AIサービスの利用は止めてもらいたいという趣旨である。」

3.まとめ
PPCのご担当者の方が、「当委員会としても生成AIサービスについてはまだよく分かってないことが多い」ので、「個人情報取扱事業者においては個情法第4章の義務全般に違反する生成AIサービスの利用は止めてもらいたい」と繰り返し回答されていることが印象に残りました。

PPCがこのようなスタンスであるということは、民間企業など個人情報取扱事業者においては、chatGPTなどの生成AIサービスの利用については慎重の上に慎重に検討した上で個人データの入力などの利用を行う必要があると思われます。

(また、上の(2)では委託のスキームを前提とした質問を行い、PPCのご担当者もそれに沿った回答をしていただいていますが、生成AIサービスを利用する事業者の個人データの入力は、PPCが「当委員会としても生成AIサービスについてはまだよく分かってないことが多い」と繰り返し回答していることからも、委託というよりは第三者提供と考えたほうが安全なように思われました。)

このブログ記事が面白かったらシェアやブックマークをお願いします!

人気ブログランキング

PR






このエントリーをはてなブックマークに追加 mixiチェック

↑このページのトップヘ