なか2656のblog

とある会社の社員が、法律などをできるだけわかりやすく書いたブログです

タグ:生成AI

OIG (13)
内閣府知的財産戦略推進事務局が11月5日まで「AI時代における知的財産権に関する御意見の募集について」のパブコメを実施しています。Twitterなどネット上をみていると、同人絵師の方々を中心に生成AIへの反対意見が強いように思われるので、私は次のような、あえて生成AIの研究開発に肯定的な意見を書いて提出してみました。

1 生成AIと著作権の関係について、どのように考えるか。
わが国のAI等の科学技術の発展や経済発展のためには、著作権法30条の4にあるとおり生成AIの学習・開発段階はできるだけ法規制せず、一方、生成・利用段階は著作権法等で法規制を行い、生成AIの研究開発と権利者の保護のバランスを図るべきだと考えます。

2 生成AIと著作権以外の知的財産法との関係について、どのように考えるか。
最近、声優・俳優等の「声」と生成AIとの関係が問題になっていますが、声優・俳優等の「声」はパブリシティ権で保護されます(法曹時報 65(5) 151頁、最高裁平成24年2月2日判決)。そのため、著作権法等で安易に新たに声優・俳優等の「声」を法規制することには反対です。

3 生成AIに係る知的財産権のリスク回避等の観点から、技術による対応について、どのように考えるか。
日本新聞協会などが「新聞記事を生成AIの学習に利用させるな」等と主張していますが、それは新聞社各社が自社サイトに「生成AI学習禁止」とのタグなどの技術的措置をすればよいだけであると考えます。新聞社の利益よりも生成AIの研究開発を重視すべきだと考えます。

4 生成AIに関し、クリエイター等への収益還元の在り方について、どのように考えるか。
わが国の生成AIの研究開発を積極的に推進するために、学習・開発段階で利用料をとるのではなく、生成・利用段階で利用料をとるなどしてクリエイター等に還元すべきだと考えます。

6 ディープフェイクについて、知的財産法の観点から、どのように考えるか。
欧米などのように、民主主義を守る観点から、生成AIを利用した記事や動画・画像などには「生成AIで作成」等の注意書きをつけるよう法令やガイドラインなどでマスメディアやSNS・検索サイト等のデジタルプラットフォーム等に義務付けるべきだと考えます。

7 社会への発信等の在り方について、どのように考えるか。
とくにマンガ・アニメ等のイラスト等の分野に関して、生成AIに反対する感情的な意見がネット上に広まっていると感じます。これに対して政府は、例えば先般の文化庁の「著作権とAI」の講演会のような、学術的・理性的な情報発信を行い対応すべきだと考えます。

その他
「知的財産法と生成AI」だけでなく、「個人情報保護法と生成AI」についても政府や国会で検討していただきたいと考えます。

人気ブログランキング

PR
このエントリーをはてなブックマークに追加 mixiチェック

job_seiyuu
1.声優の「声」は現行法下では保護されないのか?
最近の生成AIの発展に伴って、声優の声を再現できるAIボイスチェンジャーなどが販売されているそうです。このような時代の流れを受けて、本年6月には日本俳優連合が著作権法を改正して「声の肖像権」の確立などを国に求める声明を出しています。たしかに人間の「声」そのものは著作権法で保護されていませんが(ただし声優の声の演技は著作隣接権で保護される)、現行法下で声優等の「声」そのものは保護されていないのでしょうか?

日本俳優連合が“生成AI”に提言 「新たな法律の制定を強く望む」 声の肖像権確立など求める|ITmedeiaニュース

2.柿沼太一弁護士のご見解・「ピンク・レディ」事件
この点、「有名声優の「声」を生成AIで量産し、それを商用利用することは可能か?【CEDEC 2023】」GameBusiness.jpによると、本年8月に一般社団法人コンピュータエンターテインメント協会(CESA)が開催した講演会「CEDEC 2023」において、生成AIや著作権などに詳しい弁護士の柿沼太一先生(STORIA法律事務所)がつぎのように講演したとのことです。

「簡単に言うと、声優さんの声をAIに学習させてモデルを作るところまでは適法です。が、そのモデルから既存の声優さんの声を新たに生成し、ゲームに使うのはパブリシティ権侵害になると思います」
すなわち、同講演会において、パブリシティ権を認めた最高裁判決であるピンク・レディ事件(最高裁平成24年2月2日判決、芸能人ピンク・レディの写真を週刊誌が無断で使用した事件)について、判決の調査官解説(法曹時報 65(5) 151頁、TMI総合法律事務所『著作権の法律相談Ⅱ』312頁も同旨)は、パブリシティ権で保護される著名人の「肖像等」には「本人の人物認識情報、サイン、署名、、ペンネーム、芸名等を含む」と解説していると柿沼弁護士は指摘しておられます。つまり、声優や俳優などの「声」はパブリシティ権で現行法上も保護されるのです。

3.パブリシティ権
パブリシティ権とは判例で形成された権利です。芸能人やスポーツ選手などの氏名・肖像等の持つ顧客吸引力を排他的に利用する権利のことをパブリシティ権と呼びます(潮見佳男『基本講義 債権各論Ⅱ不法行為法 第3版』219頁)。そしてこのパブリシティ権の保護対象の「肖像等」には声優・俳優等の「声」も含まれるのです。

また、氏名・肖像等を無断で使用する行為がパブリシティ権を侵害するものとして不法行為として違法となるのは、①氏名・肖像等それ自体を独立して鑑賞の対象となる商品等として使用し、②商品等の差別化を図る目的で氏名・肖像等を商品等に付し、③氏名・肖像等を商品等の広告として使用するなど、もっぱら氏名・肖像等の有する顧客吸引力の利用を目的とするといえる場合であると解されています(潮見・前掲219頁、ピンク・レディ事件)。

4.損害賠償請求・差止請求・死者のパブリシティ権
ところでこのパブリシティ権の法的性質については人格権の一つとする考え方と財産権の一つとする考え方に分かれていますが、ピンク・レディ事件において最高裁は人格権的な考え方を採用しています。そのため、声優などはパブリシティ権を根拠に損害賠償請求だけでなく、差止請求もすることができるといえます。一方、人格権ということは、相続などは発生しないので、死亡した声優・俳優についてパブリシティ権は主張できないことになると思われます(『新注釈民法(15)』547頁)。

5.まとめ
このように柿沼弁護士のご見解や、民法などの解説書などによると、現行法下においても声優・俳優などの「声」はパブリシティ権で保護されているといえます。そして3.でみた①~③の要件を満たす場合には、パブリシティ権を侵害された声優等は、侵害の主体に対して損害賠償請求や差止請求を行うことができることになります。そのため、現在すでに存在する声優の声を再現できるAIボイスチェンジャーなども、場合によっては違法となる可能性があります。

このブログ記事が面白かったらシェアやブックマークをお願いします!

■参考文献
・法曹時報 65(5) 151頁
・TMI総合法律事務所『著作権の法律相談Ⅱ』312頁
・『新注釈民法(15)』547頁
・潮見佳男『基本講義 債権各論Ⅱ不法行為法 第3版』219頁

人気ブログランキング

PR




このエントリーをはてなブックマークに追加 mixiチェック

AIと著作権

■追記(2023年6月22日)
6月19日の文化庁の本セミナーがアーカイブで配信されています。
令和5年度著作権セミナー「AIと著作権」の講演映像及び講演資料を公開しました。

1.はじめに

2023年6月19日午後2時から3時まで、文化庁のYouTubeの著作権セミナー「AIと著作権」が開催されたので受講しました。とても興味深く面白い講義でした。受講して印象に残った点や感想などを少し書いてみたいと思います。(あくまでも個人の感想です。)

2.著作権法30条の4の「権利者の権利を不当に害する場合」
まず、文化庁としては、AIの①開発・学習段階と、②生成・利用段階を分けて考えてほしいということをとても強調されていました。

また文化庁は著作権法30条の4の「権利者の権利を不当に害する場合」については、情報解析用DBの販売・利用を阻害する場合が具体例として想定されると非常に狭く解して説明している点が印象に残りました。

(そのため、イラストレーターの方々が「自分の権利が不当に侵害されている」と法30条の4の「権利者の権利を不当に害する場合」に該当すると主張しても、ただちにその主張が採用されるかについては厳しそうだと感じました。)


2.類似性と依拠性
つぎに、AI生成物が著作権侵害となるかどうかについては一般の著作権侵害と同様に、①類似性と②依拠性があるかで判断されるが、類似性はAIでない創作物と同じ判断基準によるとなるが、依拠性は現在議論中で難しいとのことでした。講義のなかでは4つの見解が紹介されていました。

ただし、①Image to Imegi(i2i)の場合や、②特定のクリエイターの作品を集中的に学習させた場合は、依拠性が認められる可能性はあるのではないかとのことでした。この点に関しては、イラストレーターの方々にとっては朗報なのではと思いました。


3.利用者側の注意点
さらに、利用者側の注意点としては、①利用行為が著作権の権利制限規制に該当しないか検討する②既存の著作物と類似していないか検討し、もし類似している場合には、(a)利用をさける、(b)著作権者の許諾を得る、(c)大幅な修正を加えるなどの対応をとることが望ましい、との説明がありました。この点は、今後の法的紛争の予防のために重要な指針なのではと思いました。


4.AI生成物が著作物にあたるか
加えて、AI生成物が著作物にあたるかについては、AIが自律的に作成したものは該当しない、しかし人間が思想・感情を創作的に表現するために「道具」として利用した場合には該当するとし、それには「創作的意図」・「創作的寄与」が問題になるとのことでした。このうち創作的意図は簡単だが、創作的寄与の判断は難しく、現在、文化庁も有識者委員会などで検討中とのことでした。


5.その他
なお、文化庁はAIの問題に関連し「海賊版対策情報ポータルサイト」を準備しているのでイラストレーターなどの方々は利用してほしいとのことでした。
・インターネット上の海賊版による著作権侵害対策情報ポータルサイト

また、生成AIに関する説明を追加した文化庁の「著作権テキスト」(令和5年版)は7月に公開予定とのことでした。

YouTubeのセミナー終了後にはアンケートがあったのですが、「アーカイブ動画を希望しますか?」とあったので強く「希望」としました。


6.感想
このように1時間の講義ながら、全体として分かりやすく非常に勉強になりました。また文化庁の現在の考え方がよくわかるセミナーでした。文化庁におかれては、今後もネット媒体のセミナーなどで、生成AIと著作権の問題を取り上げてほしいと思いました。

■関連するブログ記事
・chatGPT等の「生成AIサービスの利用に関する注意喚起等について」に関して個人情報保護委員会に質問してみた

人気ブログランキング

PR




このエントリーをはてなブックマークに追加 mixiチェック

ai_shigoto

1.はじめに
2023年6月2日付で個人情報保護委員会(PPC)はchatGPTなどに関する「生成AIサービスの利用に関する注意喚起等について」を発出しました。この文書の「【別添1】生成AIサービスの利用に関する注意喚起等」の(1)の部分は個人情報取扱事業者(=民間企業等)に対する注意喚起ですが、やや包括的な書きぶりで疑問点があったため、PPCに電話にて確認してみました。PPCの担当者の方のご回答はおおむね次の通りでした。
・生成AIサービスの利用に関する注意喚起等について(2023年6月2日)|個人情報保護委員会

2.質問とPPCの回答
(1)個情法の何条違反となるのか
質問:「【別添1】生成AIサービスの利用に関する注意喚起等」(1)②は「あらかじめ本人の同意を得ることなく生成AIサービスに個人データを含むプロンプトを入力し、当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合、当該個人情報取扱事業者は個人情報保護法の規定に違反することとなる可能性がある」とのことであるが、これは具体的には法何条に違反する可能性があるのであろうか?目的外利用あるいは第三者提供などとご教示いただきたい。」

PPCの回答:「とにかくchatGPTなど生成AIサービスについてはまだ分からないことが多い。そのため、個情法の何条に違反するというよりも、個人情報取扱事業者の義務を規定した法第4章の事業者のすべての義務に違反するような個人データの入力や利用は止めてもらいたいという趣旨である。」

(2)「応答結果の出力」ー委託の「混ぜるな危険」の問題
質問:「(1)②の「応答結果の出力以外の目的で取り扱われる場合…個人情報保護法の規定に違反する可能性」とあるということは、「応答結果の出力」の目的の範囲内であれば適法であると読めるが、「応答結果の出力」の目的の範囲内であっても、例えば個人情報保護法ガイドラインQA7-41等の委託の「混ぜるな危険の問題」に抵触するような場合、つまりopenAI社が他社から委託を受けた個人データと突合・名寄せする等して応答結果を出力するような場合は法27条5項1号違反となる可能性があるのではないか?」

PPCの回答:「たしかにその場合には違法の可能性がある。とにかく個情法第4章の個人情報取扱事業者の義務に抵触するような個人データの入力や利用は止めてもらいたいという趣旨である。」

(3)個人情報保護法ガイドラインQA7-39の「委託元から提供された個人データを委託先は自社の分析技術の改善のために利用することができる」について
質問:「(1)②の最後の部分に、「当該生成AIサービスを提供する事業者が、当該個人データを機械学習に利用しないこと等を十分に確認すること」とあるが、個人情報保護法ガイドラインQA7 -39は「委託に伴って提供された個人データを、委託業務を処理するための一環として、委託先が自社の分析技術の改善のために利用することはできるか」との問いに「委託先は、委託元の利用目的の達成に必要な範囲内である限りにおいて、委託元から提供された個人データを、自社の分析技術の改善のために利用することができる」と説明しているが、このQA7-39との関係をどう理解すればよいのだろうか?」

PPCの回答:「委託元の利用目的の範囲内であれば、委託先は自社の分析技術の改善つまり業務効率化に利用できるということであるが、業務効率化を超えるような利用があるとしたら、そのような個人データの利用は止めてもらいたい。とにかく当委員会としても生成AIサービスについてはまだよく分かってないことが多いので、個人情報取扱事業者においては個情法第4章の義務全般に違反する生成AIサービスの利用は止めてもらいたいという趣旨である。」

3.まとめ
PPCのご担当者の方が、「当委員会としても生成AIサービスについてはまだよく分かってないことが多い」ので、「個人情報取扱事業者においては個情法第4章の義務全般に違反する生成AIサービスの利用は止めてもらいたい」と繰り返し回答されていることが印象に残りました。

PPCがこのようなスタンスであるということは、民間企業など個人情報取扱事業者においては、chatGPTなどの生成AIサービスの利用については慎重の上に慎重に検討した上で個人データの入力などの利用を行う必要があると思われます。

(また、上の(2)では委託のスキームを前提とした質問を行い、PPCのご担当者もそれに沿った回答をしていただいていますが、生成AIサービスを利用する事業者の個人データの入力は、PPCが「当委員会としても生成AIサービスについてはまだよく分かってないことが多い」と繰り返し回答していることからも、委託というよりは第三者提供と考えたほうが安全なように思われました。)

このブログ記事が面白かったらシェアやブックマークをお願いします!

人気ブログランキング

PR






このエントリーをはてなブックマークに追加 mixiチェック

↑このページのトップヘ