生成AIに関する基本的な考え方
2023年10月30日
一般社団法人日本新聞協会
記事・写真・画像等の報道コンテンツは、新聞社や通信社が多大な労力とコストをかけて作成した貴重な知的財産であり、報道各社が著作権等の法的権利を有する。一方で、「生成AI」のような高度な人工知能(Artificial Intelligence)は、学習の過程において、報道コンテンツを含む大量の著作物を無断かつ無秩序にネット上から広く収集している。
当協会は、著作権者の権利保護に関する議論が不十分なまま、なし崩し的に報道コンテンツの無断使用が進んでしまうことを強く懸念している。本来、報道コンテンツを利用するのであれば、許諾を得るのが原則であり、知的財産へのタダ乗り(フリーライド)は許されない。
政府は、データ利活用の推進ばかりに軸足を置くのではなく、権利保護の観点から、著作権法の改正を含め、技術の急速な進化に見合った適切なルール整備を急ぐべきである。
1)著作権法の問題点
生成AIの学習過程において、報道コンテンツを著作権者の許諾を得ずに収集することが原則許されているのは、著作権法第30条の4の規定によって合法化されているためである。もちろん、著作権者に対価を支払うという考えが生じるはずもなく、報道機関からみれば、知的財産をタダで取られ放題になっている状況と言える。
2018年の著作権法改正で「第30条の4」が導入されたのは、技術開発や情報解析のための利用は著作物を人が知覚を通じて享受するものではなく、したがって権利者の対価回収の機会を損なう利用には当たらないと整理されたのが理由だ。
この規定は、諸外国に比べてもAI開発者側に有利な内容になっている。にもかかわらず、AI開発で海外勢に遅れを取っている現状を踏まえれば、AI開発推進に不可欠な規定であるのか疑問を抱かざるを得ない。
法改正時には、生成AIのような高性能なAIの負の影響までは想定されておらず、法制度が現状の技術革新に追いついていないのは明らかだろう。
2)生成AIの報道コンテンツ利用に関する問題意識
生成AI自体の進化は著しく、検索エンジンと生成AIを組み合わせ、最新の報道コンテンツを含め、ネット上にある情報の加工・要約等を行って新たなコンテンツを生み出す「検索拡張生成」(Retrieval Augmented Generation=RAG)のような高度なサービスも登場している。RAGはユーザー(人)の知的、精神的欲求を満たす目的で、学習、検索、推論、生成等を一体的に行っている。処理過程の多くを、著作権者の許諾が要らない「非享受目的」と解釈するのは無理がある、と当協会は考えている。
元の情報に近い形でコンテンツを生成する事例は多い。生成AIを使ってオンラインメディアが掲載したコンテンツで、新聞社の記事を盗用していたことが発覚した案件もある。これらは権利侵害そのものと言っていい。
新聞社は長年、過去の新聞紙面や記事を収蔵したデータベースを有償で提供し、最近は AI 開発向けにも情報解析用の記事データを販売している。著作権法第30条の4は、AIの学習段階では著作権者の許諾を得ずに報道コンテンツを収集することを原則認めているが、「著作権者の利益を不当に害することとなる場合」はその限りではない。生成AIが報道コンテンツをネット上から収集することは、新聞社が手掛けている記事データ販売市場と衝突し、「著作権者の利益を不当に害する」可能性が高いと、当協会は考える。
生成AIによる生成物に引用元を表示するケースは増えてきているが、表示するのが、オリジナルである新聞社等のサイトではなく、新聞社等が外部に有料で配信した先のサイトの場合が少なくない。中には、報道コンテンツを勝手に利用したサイトから引用するという悪質なケースもある。著作権法第47条の5に基づく「軽微利用」を超えていると疑われる事例も多く、情報発信元である新聞社等のサイトを訪問しない「ゼロクリックサーチ」の問題を起こすため発信元が打撃を受ける。この状態を放置すれば、報道コンテンツの無秩序な利用に拍車をかけるのは確実だろう。
3)著作権法以外の問題点
社会全体にとって大きな脅威となるのは、生成AIが偽情報・誤情報を生み出す「ハルシネーション」(幻覚)である。技術的に、生成AIにはその危険性が常につきまとう。偽情報・誤情報を学習した生成AIが、さらに拡散させる恐れもある。プライバシー侵害事案の発生や、政治的な意図を持った世論誘導情報の拡散なども懸念される。ネット空間の健全性を守る観点から看過できない。
不適切な利用をどうやって防ぐのか、生成AIの開発者やサービス提供者が十分な手立てを講じているのかどうかも疑問だ。
政府には早急な対応が求められる。
また、生成AIが、報道コンテンツを含め、どのような著作物を収集しているのか、情報開示が十分ではないケースは依然として多い。
技術の進化によって、AIによる生成物なのか、人による作品なのか、見分けるのが困難になってきている。AIによって簡単にコンテンツが生成されてしまうことで、人間の手で表現されたオリジナル作品を軽視する風潮が強まり、文化の源である人間の表現活動に大きな影響が出る可能性もあろう。
4)当面必要な対策
生成AIの学習段階において、「第30条の4」により著作権者の許諾が不要になるのは、「非享受目的」での利用の場合に限られ、「著作権者の利益を不当に害することとなる場合」は、著作権者の許諾が必要と定めている。しかし、「不当に害する」のがどういう場合なのかは、必ずしもはっきりしない。
政府は、「不当に害する行為」の範囲を明確にすべきで、「非享受目的」の解釈も明瞭にしてもらいたい。
生成AIの運用面の透明化も欠かせない。政府は、生成AIの開発者やサービス提供者に対して、情報開示の義務化を検討すべきだ。さらに、AI生成物に関しては、AIが生成したものだと明示するよう義務付ける必要があると、当協会は考える。
報道機関としては、多大な費用と労力をかけた取材活動の結実である報道コンテンツをAIの開発者やサービス提供者がタダ乗りしている状況は許容しがたく、適切な対価の支払いをすることが、当然だと考える。
政府は、生成AIが著作権侵害で深刻な被害をもたらす恐れがあることについて明確に発信し、著作権法を中心とする知的財産法制に関し、諸外国と足並みをそろえた検討を始めるよう議論を主導すべきだ。
5)著作権法改正等の必要性
「第30条の4」があることによって、報道機関は、報道コンテンツの利用を法律上、原則拒否できない。
そもそも、著作権者の権利を制限する「第30条の4」を導入したのは、機械が読むだけで、人の知的、精神的欲求を満たす目的には使われない、つまり、著作権者の収益機会を損なわないことが前提だったはずである。
現実をみると、生成AIは、無許諾で学習した著作物をベースに大量のコンテンツを作り、元の報道コンテンツと類似した表現も多発している。しかも、膨大な量の生成物について著作権侵害の有無を一つひとつ確認していくのは事実上難しい。こうした状況は、著作権者の収益機会を損なっている、と言えよう。立法趣旨の前提が変質してきている事態を、政府は重く受け止めるべきだ。
前述した対策は対症療法に過ぎず、現行著作権法の解釈等では根本的な解決はできない。
「第30条の4」がある限り、報道コンテンツへのタダ乗りが広がっていくのは避けられまい。これ以上の「被害」を防ぐため、政府は著作権法の改正を早急に検討すべきである。「第30条の4」を見直して、少なくとも、AIによる「学習」を著作権者が拒否できる、もしくは、利用時には許諾を得る仕組みの整備が必要だと、当協会は考える。
AI生成物には、報道コンテンツについて、軽微利用を超える事例が少なくない以上、軽微利用を認めている「第47条の5」についても厳格な運用等を検討すべきである。
良質な報道コンテンツは、民主主義を支える基盤であり、文化の発展に不可欠なものだ。AIによる無断・無秩序な利用が進むことで報道機関の経営が打撃を受け、その適切な提供が滞るようなことがあれば、国民の「知る権利」を阻害しかねない。日本を含め、各国・地域の報道団体から懸念の声が相次いでいることを、政府は深刻に捉えるべきである。
生成AIをめぐる課題は、報道分野に限らず、文学や映像、音楽、漫画、アニメ等、幅広い業界にとって共通の課題である。
政府は、生成AIの有用性にばかり着目するのではなく、生成AIによるハルシネーションのような危険性を踏まえた制度設計を進めるとともに、著作権者に十分配慮した対応をとることが求められる。
以上