fluxgguf与sd3.5对比测评

省流:

在提示词的理解度以及画面的完成方面flux更胜一筹,

从图像的质量来看SD3.5更好(但是3.5不会画手)而且经常人体崩坏。

这两者进行结合也许能做出不错的图片,比如flux生图再经过3.5高清修复。

对比过程

统一提示词

In a warm and comfortable bedroom, sunlight shines through the window onto the soft sheets, bringing a warm color to the entire room. There is a girl lying on the bed, immersed in the peaceful afternoon time, enjoying a moment of laziness. Her face appeared particularly soft under the sunlight, and her long eyelashes trembled gently, as if expressing her inner peace and tranquility. Time seems to stand still at this moment, making people slow down and immerse themselves in this simple and pure beauty,This girl is wearing red clothes,The girl turned her face to the camera
翻译:
在温暖舒适的卧室里,阳光透过窗户照射到柔软的床单上,为整个房间带来了温暖的色彩。有一个女孩躺在床上,沉浸在宁静的午后,享受着片刻的懒散。她的脸在阳光下显得格外柔软,长长的睫毛轻轻颤抖,仿佛在表达她内心的平静与安宁。此刻,时间似乎静止了,让人们放慢脚步,沉浸在这种简单而纯粹的美中,这个女孩穿着红色的衣服,女孩转过脸来对着镜头,
Flux SD3.5
大模型 flux1-dev-Q4_1 SD3.5_medium
clip t5-v1_1-xxl-encoder-Q4_K_M,clip_l t5xxl_fp8_e4m3fn_scaled,clip_l
辅助lora Hyper-FLUX.1-DEV-8steps-lora
第二次生成时间 50.98s 45.02s
效果图(仅展示最新一张) ComfyUI_00662_ (看着挺吓人的)ComfyUI_00664_

Flux-gguf

我使用的是flux1-dev-Q4_1.gguf模型,符合我8g显存的配置clip的t-5xxl模型也是采用Q4版本的。

其中还使用了字节跳动发布的Hyper-FLUX.1-DEV-8steps-lora,出图更快,配合该lora步数需要控制在8步。还有个16步的版本,看不出太大区别,生成需要时间更长点,步数要换到16。

SD3.5_medium

我使用的是SD3.5的中杯medium模型

使用方法:

image-20241101052343228

添加一个模型采样算法偏移节点,数值在2-3之间最好,可以增加清晰度。

步数 要在28以上

cfg 4-5之间

从出效果图来看…不是很听话。生了几张图,能用的很少。

两者结合

flux1-dev-Q4_1.gguf生成1024px的原图,

先通过模型放大四倍,再缩小到特定像素,再进行图生图。使用SD3.5_medium

用时114.84s,接近两分钟。比先缩小图再模型放大传入的图生图要更快一些,质量目测也更好一些。

原图1024*1024

ComfyUI_00662_

图生图1496*1496

ComfyUI_00666_