遇到了字节跳动的 Hyper-SD Lora,它是针对 Flux Dev-1 进行训练的。我很好奇它是否适用于 GGUF 版本,所以我做了一个快速的尝试和比较。以下是有关速度、图像质量和准确性的一些快速说明。 TLDR 收回:1)似乎 hyper-sd lora 针对原始 Flux-dev 进行了优化。我很惊讶 dev-1 在 8 步时比 GGUF 8 步跑得快得多。即使在 GGUF 中,没有 hyper-sd lora 的 20 步看起来实际上比 16 步版本跑得更快。想知道 GGUF 在限制 VRAM 条件下是否表现更好? 2) 老实说,hyper-sd 8 步版本的质量和保真度损失对我来说很明显。所以我宁愿选择 16 步版本。 Dev-1 + 16 步 lora 适合那些有足够 VRAM 的人。 3)在我看来,无论如何,大多数图像的文本粘附性都已经消失,但这可以通过使用 zer0init 创建的微调剪辑模型来缓解!希望它有帮助,如果有人遇到 GGUF 优化版本炒作 n

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。