いきなり思い出したように、Comfy UI の環境を整備し直してみたり、LM Studio でローカルに Qwen さんをお招きしてみたりし出した原因の一つは、Comfy UI や Stable Diffusion reForge で SD 1.5 のモデルを使ったお絵かきに限界を感じ始めたからです。
かといって SDXL も今更ないよなぁ…と思いつつも生成フローを試行錯誤しているとこに、Z Image Turbo の破壊力を知り、完全に迷走しているときに PC Watch の西川氏の以下の記事を読み、とあるひらめきを得ました。
【西川和久の不定期コラム】 さらばgpt-oss。VRAM 16GBあれば動作し、画像も理解してくれる「Qwen3.5」登場!実写化を丸投げしたどうなるんだろう?
このひらめき、早速、試して見ました。
元絵は SD1.5 のモデルである Agelesnate v3 で作ったこの絵。これをプロンプトとして「実写化して」とだけ入れて、 Gemini さんや Copilot さん、ChatGPT さん、さらに、最近、ローカルに構築した Qwen さんにお願いしてみた!
結論を先にいうと、何も言わず、実写化した画像を返してくれたのは Gemini さんと Copilot さんで、ChatGPT さんはログインしないと画像生成はしてくれず、他の生成 AI のためのプロンプトを提示だけになりました(ただアカウントを作ると実写化してくれます)。 Qwen さんは、ローカル LLM で動くモデルでは画像の生成してくれず、プロンプトを生成だけになりました。
ChatGPT 圧倒!
それでは、直接、実写化してもらえた Gemini さん、 Copilot さん、ChatGPT さんの絵を比べてみました。



見ればわかる Gemini さんが生成してくれた絵の、圧倒的これじゃない感! ww
ではなく w、圧倒的な ChatGPT さんの描画力!元絵の雰囲気を残しつつも、実写化した際の各質感、情報量の多さ…特に肌や、鎧もそうですが、髪飾りの花の質感を見ると、他の二つと比べても明らかに次元が違います。
Copilot さんに先に生成してもらったので、その絵を見たときは「これこれ!このレベル!」と思って、これをベースに早速この記事のアイキャッチも作ってもらったのですが、ChatGPT さんにアカウントを作って、生成してもらった絵は、プロンプト修行のモチベーションを木っ端微塵にする w ほどの凄まじいクオリティでした (^^;A
生成してもらったプロンプトを Z Image Turbo で生成
ただこのように実写化してもらうのは、元絵に肌色成分が多いと多分、無理な気がするので、ChatGPT さんや Qwen さんが提示してくれたプロンプトを元に Comfy UI で Z Image Turbo で生成する方法も試して見ました。
アカウントを作成しないで ChatGPT さんに絵を見せて、提示してもらった生成のためのプロンプトで、シードを変えつつ 3 度ガチャった結果がこちら。
うーん、やっぱりこうなるか…元絵の面影は月ぐらいしかない… orz
Qwen さんは、元絵をできるだけ反映した、映画風にアレンジした、そして、極力シンプルなという 3 つのプロンプトを提示してくれましたので、そのプロンプトを、今度はシードを変えずに生成した結果がこちら。



元絵重視の絵はなかなかいい感じですが、映画風はなんか違う映画になってる w し、シンプルにするとアジア映画になってしまった ww
考察
これは決してネタではありません w 真面目に試行錯誤した結果です。
実際、Copilot さんや ChatGPT さんによる実写化のクオリティには、自力で Comfy UI でフローを考えて、実写系のモデルでお絵かきをしようというモチベーションを根こそぎ削がれました。
Comfy UI で実写系のモデルを使って直接、生成しようとすると、どうしても夢のない超現実的な絵になりがちだったので、ここ最近、 アニメ絵から最終的に実写絵に…と言う方向性で考えながら、SD1.5 から SDXL などへ移行しようとしていましたが、完全に煮詰まっていました。
もうこれは、自分のイメージをアニメ系モデルでどこまで表現できるか?というところに集中して、実写化は生成 AI サービスに任せると言う方向で SD1.5 を卒業するのが正解かと思い始めています。



