Skip to content

Flux详细介绍、安装教程、整合包

更新: 12/21/2024 字数: 0 字 时长: 0 分钟

概述

版本区别

在线体验地址🚧

建议

  • 需要魔法上网

8步加速出图-最快5秒🚀

说明

  • 基于4090测试,最快5秒+,仅供参考
  • 加速模型,主要应用场景为:快速出图,验证提示词质量、lora以及功能等,避免长时间等待
  • 以下是3种加速出图方案,主要针对低显存高配用户的建议,以下只作参考
  • 注意:不能用加速后出的图和原版模型做强对比,没有意义,速度快是以牺牲一定质量为前提,当然,实测下来,质量都是符合预期的。

image-20241218065224074

方案1:Flux.1-Turbo-Alpha

说明

  • 该加速方式为使用lora进行加速
  • 阿里妈妈创意团队开发的基于FLUX.1-dev模型的8步蒸馏版lora。使用特殊设计的判别器来提高蒸馏质量。

  • 该模型可以用于文生图重绘控制和其他FLUX相关模型。建议guidance_scale=3.5lora_scale=1。我们的更低步数的版本将在后续发布。

方案2:Hyper8-GGUF

说明

  • 该加速方式为使用unet进行加速

Flux.D 和字节跳动的 8 步 HyperSD LoRA 技术结合,生成了一个叫做 GGUF 的新模型。这个模型非常省内存,而且速度很快。

只需要 8 步就能生成一张高质量的图片,而且对电脑的显存要求不高,最低只需要 6.2 GB(使用 Q4_0 量化)。

相对于 FastFlux 和其他 Dev-Schnell 合并的优势:

  • 质量更好:相比其他类似模型(比如 FastFlux),它在 8 步内就能生成更清晰、更有表现力的图片。
  • 灵活调节:因为是 DEV 模型,所以可以自由调整提示的敏感度创造力,适合不同需求。
  • 兼容性好:和 Dev LoRA 完全兼容,比其他模型更灵活。

不过,需要至少 8 步才能达到最佳效果,但这也是为了保证质量。根据你的显卡显存大小,可以选择不同版本:

  • Q4_0Q4_1 适合 8 GB 显存;
  • Q5_0Q5_1 适合 11 GB 显存;
  • Q8_0 适合显存更大的显卡。

注意:使用 CPU 卸载,即使 VRAM 不适合,您也可以运行模型。

方案3:Hyper-SD

说明

  • 该加速方式为使用lora进行加速

最近,出现了一系列扩散感知蒸馏算法,以减轻与扩散模型 (DM) 的多步推理过程相关的计算开销。

当前的蒸馏技术通常分为两个不同的方面:i) ODE 轨迹守恒; ii) ODE 轨迹重新表述。

但是,这些方法会受到严重性能下降或域偏移的影响。

为了解决这些限制,我们提出了Hyper-SD

这是一种新颖的框架,它协同融合了 ODE 轨迹保持和重新制定的优势,同时在阶跃压缩期间保持近乎无损的性能。

警告

  • Hyper-SD的lora权重,需要设置为0.125左右
  • 不同配置的采样器,速度不一样,最快的实测为euler+simpler,质量更好的为:hexun+beta

三种方案实测对比

说明

  • 以下数据,基于4090相同提示词、其他参数以官方建议为准,8步实测
  • 不加其他任何lora
  • Flux原版flux1-dev-Q8_0.gguf版使用加速存在差异,建议不要混用
方案类型耗时 (首次/后续)优点缺点16G及以上用户建议8-12G低显存用户建议
Flux-turbo-alphaLora20s / 10s使用 Lora,支持原版 Flux-dev 模型,出图质量中上GGUF 量化模型加速效果一般(32s/18s)出图质量相对于Hyper8稍好如果显存足够,可以考虑,但 GGUF 加速效果一般
Hyper8-LoraLora17s / 5-6s使用 Lora,支持原版 Flux-dev 模型,出图质量中等GGUF 量化模型加速效果一般 (25s/17s)推荐,后续出图速度最快如果显存足够,优先考虑此方案,速度优势明显
Hyper8-GGUFUnet25s / 13-15s使用 GGUF 量化模型,对低显存友好,出图质量中等出图质量略逊于 Flux-turbo-alpha,后续出图速度慢于 Hyper8-Lora不推荐,除非特别在意低显存推荐,尤其是在显存不足的情况下

使用总结:

  • 低显存: Hyper8-GGUF 是最佳选择,牺牲一些速度质量来换取更低的显存占用。
  • 追求速度: Hyper8-Lora 在后续出图速度上有明显优势。
  • 追求质量: Flux-turbo-alpha 在质量上略胜一筹。
  • 16G及以上 (显存充足): 推荐 Hyper8-Lora,平衡了速度质量,或者选择Flux-turbo-alpha追求更高质量。

补充说明:

  • 表格中的时间为平均值,实际耗时可能受硬件配置版本其他因素影响。

  • 如果非常在意速度,并且显存充足,可以尝试使用 Hyper8-Lora 配合 GGUF 量化模型进行测试,看是否能在可接受的质量下获得更快的速度。

  • 与 Flux.1 Dev 相关的所有许可条款均适用。


Flux-tools工具🔧

1. Flux Fill

局部重绘

图片扩充

原版模型

fp8_e4m3fn版模型

GGUF版模型

对于国内用户,请将:huggingface.co 域名替换成 hf-mirror.com 即可免魔法下载。


2. FLUX Redux

原图参考

多图融合

原版模型

sigclip_vision

  • 说明:依赖sigclip_vision_patch14_384.safetensors 模型
  • 下载地址:地址

3. FLUX Depth

景深参考

GGUF版

对于国内用户,请将:huggingface.co 域名替换成 hf-mirror.com 即可免魔法下载。


4. FLUX Canny

边缘参考

GGUF版模型

对于国内用户,请将:huggingface.co 域名替换成 hf-mirror.com 即可免魔法下载。


常用功能 🍕

手部修复 🖐🏼

参考:地址

网站公告

说明

本站正在搭建并持续更新中,如果对您有帮助,不妨加入收藏

Last updated: