そもそも学習は合法だから何やってもいい→AIが勝手に著作権侵害起こしたから知らない
と責任を分散させることで著作権ロンダリングをかなり簡単にしてる部分についてはどうなんだ
学習させたやつには罪がないので好き放題ファインチューニングをして著作権侵害しまくりのモデルを作る
何も知らない(という設定の)ユーザーにモデルを使わせて絵を出力させる
これだけでかなりの悪用ができるよね
知らないということにすれば「依拠性アウト」の判定がまったく使えなくなるので本来ならアウトにできた類似性のある画像でもかなりの程度合法化できてしまう
人間の著作権侵害の判定基準を機械学習に当てはめるのは本当に愚かとしか言いようがない