AMD Ryzen 5 5600G を搭載する予備機ができたので、当然のように、こちらでも Stability Matrix を使って、Stable Diffusion やってみた!
Stable Diffusion Web UI for AMDGPUs
もちろん予備機には Ryzen 5 5600G 内蔵 GPU 以外は積んでないので、本家から派生した Stable Diffusion web UI for AMDGPUs でバージョンは v1.9.3-amd-13-g517aaaff 。ちなみにメインメモリは 16GB 積んでます。
Windows 11 の Direct ML を使うので、CPU オンリーで Stable Diffusion するより早くなるのか…少し期待してやってみた。
基本起動時に –low-vram と –skip-torch-cuda-test のオプションは必須。512×768 サイズの生成した左の画像が 7 分 23 秒。だいたい 15sec/it orz
Stable Diffusion Web UI Forge
Direct ML 対応となっていますが、–always-cpu と –skip-torch-cuda-test オプションをつけないと起動もしなかった Stable Diffusion WebUI Forge で 6 コア 12 スレッドの Ryzen 5 5600G の CPU パワーだけを使って生成した左の画像が 12 分 42 秒かかって 25sec/it 。
Stable Diffusion web UI for AMDGPUs でも、Forge でも、プロンプトによってはエラーでたまに止まりますし、ADetailer など拡張機能を使うと搭載メモリの関係もあって、その確率が爆上がりしてしまうので、同じプロンプトでの比較はできず正確性はないですが、それでも Direct ML を使えば、しっかり GPU 側で処理をするので Ryzen 5 5600G でも 1.5 〜 1.7 倍くらい早くなるように思います。
結論
ただ GeForce RTX 3050 VRAM 8GB ですら、これくらいの絵なら 30 秒もかからないくらいで出るので、正直、相手になってないと言い切れます w
ちなみにアイキャッチとなっている絵は、GeForce RTX 3050 を搭載しているメインのデスクトップを使って、Stable Diffusion web UI for AMDGPUs で試した同じプロンプトを Forge で ADetailer や FreeU の高画質化拡張機能をもりもりに使い、かつ一気に フル HD のサイズまでアップスケールした絵を、中坊 Photoshop に何度も注意されながら、横長でするために生成塗りつぶししてもらって、色補正したもの。画像生成から Photoshop 仕事までこれ一枚作るのに、Ryzen 5 5600G で DirectML を使って 1 枚生成している時間より短い時間でできました ww
Intel も AMD も NPU を CPU に統合してきていますが、いくら優秀なシリコンを製造できても、PyTorch を使った同じプログラムが動かすことが困難な程度の、開発環境しか未だに揃えられずにいるのに、時代は AI とか言ってることが滑稽に思えます。
Stable Diffusion でお絵かきしている程度で何がわかる!しかも、内蔵 GPU のしょぼい環境で!と言われそうですが、Intel も AMD も昔からソフトウェアは得意ではないイメージがあるので、ちょっとお試しでやってみてもこの程度なら PyTorch に限らず機械学習ライブラリに関しては一事が万事、こんなもんでしょうと思ってます w
コンピュータ、ソフトウェアなければただの箱。
ここは DirectML で Micorsoft さまにがんばっていただくしかないのか…と言うわけで、NVIDIA の天下はまだまだ続きそう。早く GeForce GTX 5000 シリーズが出て、4000 シリーズが安くなってくれないかなぁ…次は 4060 あたりを狙ってるのですが… w