>>251

⚪︎透明性
5 開発は作品のメタデータの詳細を保存しろ。なんで学習させたのか、許可があったのか保管して出版社が使えるようにしろ。これは絶対に不可欠。ガッチリやれ。著作権者が権利を行使できるようにしろ。開発の最初から最後まできちんと管理してなきゃ不正とみなす。研究機関が開発したものを商用AIに使うときは著作権者に権利行使させろ。知識の生成にAIを使うなら、AIを使ってるという断り書き、引用元を出す機能で透明性を確保しろ。何でこの文章が生成されたのか分かるようにしろ。ルールを出版社と一緒に作れ。
6 AIのディープフェイク防止に関連情報全部表示しろ。ディープフェイク作ったの客だから知りませんじゃあないんだよ。有限責任の法律で逃げるな。
7 AIモデルの設計段階からゴミデータは混ぜるな、質のいいデータだけ使え。うちのコンテンツのありがたみを実感しろ

⚪︎公平性
8 市場と競合すんな。システム設計段階から不正競争が起きないようにしろ。ビッグテックや巨大プラットフォームが市場独占したり、勝手にコンテンツ提供元と競合したりするな。権利者がコンテンツの使い方に権利行使しても差別で不利益被せたりの報復はするな。

⚪︎安全性
9 信頼できる情報を発信できるよう設計しろ。オリジナルのメディアに対してディープフェイク作られないようにしろ。
10 ユーザーのプライバシーを守れ。個人情報の収集は都度開示して、差別に使われないようにしろ。

⚪︎設計による
11 この原則は全部のAI、つまり汎用AI、基盤モデル、生成AIのシステム設計段階から組み込め。最初からやれ。クレームの一時凌ぎで後付けの対応するな。

⚪︎サステナブルな発展
12 AIは便利だが、利益があるのはAIが人間の倫理観を守り、グローバルに同じ法を守ったときだけだ。高品質のデータ提供元に対する資金投資やインセンティブが重要。