AIとクリエイティブ産業(特にイラストレーター)の関わりはどうするべきか

そもそも現行ルールでも、作品の類似性などで著作権侵害を訴えることはあっても、そのプロセスを規制する(作品作りの過程を規制する)のは現実的ではないのではないかという印象を持っています。
いわゆる「トレス」が批判を浴びたりということはありますが、それは現行ルールの中ではあくまで制作された成果物の、他著作物との類似性が問われているように思います。
例えばジブリ画AIのような、「トーン」に著作性を認めるようなあり方は現実的にコントロール可能なのでしょうか。
(可能であれば、○○風、を使用する場合に著作者の許可やら利益が生じる仕組みを作っていけるとベストだと感じます)

「いいね!」 3

①サービスとして、他者の著作物を無許可で学習した生成AIを公開してはならない
→これはできそうかつ、やるべきな印象
②公開されたサービスを使っていても、他著作物に著しく類似した作品は発表すべきでない
→これは一応現行法でカバーできている認識
③作品制作におけるAI使用自体を何らかの方法で規制する
→これは現実的ではなさそう

「いいね!」 1

AIによる置き換え自体は止めようがありません。
なので過去起きた、ラッダイト運動のような打ちこわし、暴動リスクを最小限にする対策こそが重要と考えます。現に、安野さんの動画が、公開停止という「打ち壊し」になるケースも発生しました。

「いいね!」 1

①サービスとして、他者の著作物を無許可で学習した生成AIを公開してはならない

↑ai規制についてロビーイングしてるようなクリエイターにも会ったことがありますが、
基本的に彼らが求めているのはこれなので、反発を抑えるという点でも有効と思います。

「いいね!」 2

【「①サービスとして、他者の著作物を無許可で学習した生成AIを公開してはならない」という規制案について】

現状では実質的な運用が困難です
例:Stable DiffusionやMidjourneyは、インターネット上のイラストや写真を無数に収集・学習して開発されており、後から「無許可の著作物を取り除く」ことは現実的に不可能な状況です。

著作物と非著作物の線引きが曖昧です
例:Pixivに投稿されているイラスト(オリジナル)と、無断転載された写真や二次創作イラストが混在している場合、それらを一つ一つ区別する作業は非常に難易度が高くなります。

技術的に検証する手段が存在しません
例:AIモデルの内部を調査しても、「どの画像を学習したか」を外部から特定することはできず、「このモデルはクリーンです」と言われても、第三者には確かめようがありません。

データのクレンジングには甚大なコストがかかります
例:何百万点もの学習データを手作業でチェックし、著作権者ごとに許可を取ることは、通常の開発スケジュールでは到底実現できず、国際競争力を大きく損なう恐れがあります。

現在主流となりつつある現実的な対応策
例:現在では生成AIが特定のキャラクター(例:ディズニーのミッキーマウス)をそのまま再現した場合にのみ違法性が問われる流れになっており、学習行為自体は原則として問題視されていません。

著作物の影響を特定することがほぼ不可能です
例:たとえば「絵柄」や「構図の傾向」などは、無数の作品から統計的に抽出されているため、たとえ出力されたイラストが似ていたとしても、「元は誰の作品か」を証明するのは技術的に非常に難しいです。

「いいね!」 2

①をやらないとけしからんのような強い意志はなく、あくまでイラストレーターとの関わり方としてアリなのではと考えた次第です。

仰る通りコストも掛かるしクリーンの証明も難しいよなぁと思いつつ、
「特にイラストレーターとの関わりはどうすべきか」という論点ですので、いわゆる無断学習のようなものは避けられない話題ではないかと思います。
避け方があればご教授願いたいです。(正しいAIの知識を啓蒙すれば反発は収まるはずだ、など)

東京都というスコープで何ができるかはこれまた難しいですが、Keitoさんの以下が特におもしろそうだと感じました。イラストレーター×AIのモデルケースを東京から世界に発信できたらいいですね