
2025年4月11日のCNET Japanの記事によると、「ChatGPTを提供するOpenAIは4月11日、有料の「Plus」「Pro」プランでメモリ機能を強化し、過去の会話をすべて参照できるようにしたと発表した。これにより、より適切で有用なパーソナライズされた回答を提供できるようになる」とのことです。
これは「メモリ機能のオン・オフはユーザーが設定できる。「保存されたメモリを参照する」をオンにすれば、ユーザーの名前や好みなど、過去に保存した情報を参照するようになる。これは、ユーザーが明示的にChatGPTに伝えたとき、あるいはChatGPTが特に有用と判断した場合に、メモリに情報を追加する仕組みだ。チャット履歴を参照する設定をオンにすれば、ChatGPTは過去の会話にある情報を参照し、ユーザーの目標や興味、トーンなどに合わせて会話を進める。こちらはより広範囲に及ぶ設定だ。」という改正であるそうです。
この改正についてX(Twitter)では、「ChatGPTによるプロファイリングの精度があがっている」等の声があがっています。ある方のXの投稿では、ChatGPTに推測させてみたところ、「所属する業界、職業、年収、性別、年齢層、居住地、血液型、家族構成、MBTI診断結果などを当てられた」とのことで、これはなかなかゾッとするというか、恐ろしいものがあります。
この点、Xで、sabakichi(@knshtyk)氏は、「今回のアプデで気が付かされたが、個人のやり取りから学習した特徴のデータというのは要するに"究極の個人情報"であるから、将来的に法的に保護されるべき「個人情報」が指す範囲は今後拡張されていく必要があり、データの生殺与奪の権も利用先の制御もすべてユーザの手元で行える必要が出てくるのでは」と投稿していますが、この点は私も非常に同感です。

(sabakichi(@knshtyk)氏の投稿より)
最近、個人情報保護法については、「個情法の保護法益は何か?」という点について議論があるところです。これまで自己情報コントロール権(情報自己決定権)説が有力であったところ、最近は曽我部真裕教授などによる「自己の情報を適切に取扱われる権利説」や、高木浩光氏による「個人データによる個人の不当な選別・差別の防止説」が有力に主張されています。
しかし最近のChatGPTの猛烈な進化をみると、状況は今後変わってゆくのではないでしょうか。つまり、生成AIなどにより、どんどん個人の内心やプライバシーが緻密にプロファイリングされてしまう状況になり、その機微な情報をOpenAIなどのIT企業が収集・保管・利用するようになる、ビッグテック企業等がどんどん個人の内心やプライバシー、アイデンティティの部分に踏み込んでくると、「自己の個人情報が適切に取扱われる」ことや、「個人データによる個人の不当な選別・差別の防止」が達成されるだけでは不十分であり、sabakichi氏が上で投稿しているように、自己の個人情報・個人データの取扱いについて、個人がコントロールする必要性がより増加してくるのではないでしょうか。
すなわち、曽我部説や高木説に立つと、OpenAIなどのIT企業から「いやいや貴方の個人データはプライバシーポリシーで通知・公表した内容にしたがって適切に処理しています。もちろん不当な選別・差別は行っていません。なので、貴方の個人データをますますプロファイリングに利活用させていただきます」と言われたときに、個人の側としては何の反論もできなくなってしまうわけですが、ChatGPTなどの生成AIがどんどん進歩してゆく今日においては、そのような状況では個人の人間としての存立が危うくなってしまうのではないでしょうか。そのような状況においては、個人としては、自己の情報・データについて、収集したデータをこれ以上勝手に処理・プロファイリングするな、収集・利用・プロファイリングしたデータの利用を停止せよ・データを削除せよ等と主張することが、個人の尊厳、個人の尊重、個人の人格尊重(憲法13条、個情法3条)の保護のためにますます必要となってくるのではないでしょうか。
そのように考えると、生成AIの発展する今日においては、個情法の保護法益としては、「自己の情報を適切に取扱われる権利説」の側面や、「個人データによる個人の不当な選別・差別の防止説」の側面ももちろん重要ではありますが、それと同時に自己情報コントロール権(情報自己決定権)説の側面の重要性も増加しているように思われます。