AMD Ryzen 5 5600G でも Stability Matrix でやってみた!

投稿者: | 2024年5月27日

AMD Ryzen 5 5600G を搭載する予備機ができたので、当然のように、こちらでも Stability Matrix を使って、Stable Diffusion やってみた!

Stable Diffusion Web UI for AMDGPUs

もちろん予備機には Ryzen 5 5600G 内蔵 GPU 以外は積んでないので、本家から派生した Stable Diffusion web UI for AMDGPUs でバージョンは v1.9.3-amd-13-g517aaaff 。ちなみにメインメモリは 16GB 積んでます。

Windows 11 の Direct ML を使うので、CPU オンリーで Stable Diffusion するより早くなるのか…少し期待してやってみた。

基本起動時に –low-vram と –skip-torch-cuda-test のオプションは必須。512×768 サイズの生成した左の画像が 7 分 23 秒。だいたい 15sec/it orz

Stable Diffusion Web UI Forge

Direct ML 対応となっていますが、–always-cpu と –skip-torch-cuda-test オプションをつけないと起動もしなかった Stable Diffusion WebUI Forge で 6 コア 12 スレッドの Ryzen 5 5600G の CPU パワーだけを使って生成した左の画像が 12 分 42 秒かかって 25sec/it 。

Stable Diffusion web UI for AMDGPUs でも、Forge でも、プロンプトによってはエラーでたまに止まりますし、ADetailer など拡張機能を使うと搭載メモリの関係もあって、その確率が爆上がりしてしまうので、同じプロンプトでの比較はできず正確性はないですが、それでも Direct ML を使えば、しっかり GPU 側で処理をするので Ryzen 5 5600G でも 1.5 〜 1.7 倍くらい早くなるように思います。

結論

ただ GeForce RTX 3050 VRAM 8GB ですら、これくらいの絵なら 30 秒もかからないくらいで出るので、正直、相手になってないと言い切れます w

ちなみにアイキャッチとなっている絵は、GeForce RTX 3050 を搭載しているメインのデスクトップを使って、Stable Diffusion web UI for AMDGPUs で試した同じプロンプトを Forge で ADetailer や FreeU の高画質化拡張機能をもりもりに使い、かつ一気に フル HD のサイズまでアップスケールした絵を、中坊 Photoshop に何度も注意されながら、横長でするために生成塗りつぶししてもらって、色補正したもの。画像生成から Photoshop 仕事までこれ一枚作るのに、Ryzen 5 5600G で DirectML を使って 1 枚生成している時間より短い時間でできました ww

IntelAMD も NPU を CPU に統合してきていますが、いくら優秀なシリコンを製造できても、PyTorch を使った同じプログラムが動かすことが困難な程度の、開発環境しか未だに揃えられずにいるのに、時代は AI とか言ってることが滑稽に思えます。

Stable Diffusion でお絵かきしている程度で何がわかる!しかも、内蔵 GPU のしょぼい環境で!と言われそうですが、IntelAMD も昔からソフトウェアは得意ではないイメージがあるので、ちょっとお試しでやってみてもこの程度なら PyTorch に限らず機械学習ライブラリに関しては一事が万事、こんなもんでしょうと思ってます w

コンピュータ、ソフトウェアなければただの箱。

ここは DirectML で Micorsoft さまにがんばっていただくしかないのか…と言うわけで、NVIDIA の天下はまだまだ続きそう。早く GeForce GTX 5000 シリーズが出て、4000 シリーズが安くなってくれないかなぁ…次は 4060 あたりを狙ってるのですが… w


コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です