>>221
これが仮に拡散モデルだとすると多色のノイズからパラメータに従って線をつけて色を塗ってるんで
完成絵もノイズの色を反映するんだよね
たとえばi2iはもとにする絵にノイズを任意の%で付加してから絵を作っていくんで
ノイズが薄ければ元絵の色にモロに影響される
人間のトレスやパクリとは仕組みが違うんで、人間基準の線画の一致で比較しようとすると見落としてしまう

さらにnijiにも実はi2iがある、i2iって名前じゃないけど

/imagine prompt:(URL) watercolor sketch,girl,summer
という記述にすればURLの画像にプロンプトの重みを足した絵が出せる
/blend モードなら(URL)で指定した2-5枚のごく少数の画像をマージした絵が出せる

上はi2iの仕組みとほぼ同じ
内部処理がどうなってるかは分からないけどね

下はよく分からん、もしも仮に壺氏の検証がただしいとすると左右反転させたり斜めにしたりした元絵1枚にノイズを載せて、もう1枚にはプロンプトの逆解析をかけて色情報や画風などを抽出して載せているような気がする、完全に妄想なので分からないけど

https://tadaup.jp/loda/0331082201489289.jpg
画像としてはこんな感じで出る
詳しくは公式の操作説明読むと分かる
https://docs.midjourney.com/docs/image-prompts
箱さんが偽造したとまでは言わないけど技術的には可能