Stable Diffusion XL 达到 1.0,创造更好的艺术作品
使用人工智能生成图像从未如此出色。
DALL-E、Midjourney 和其他类似工具去年掀起了生成式 AI 浪潮,但 Stable Diffusion 因其无需使用外部服务器即可在 PC 上本地运行的能力而脱颖而出。 Stable Diffusion XL 是升级版,随着 1.0 版本的到来,现已离开测试版并进入“稳定”领域。
Stable Diffusion 背后的公司 Stability AI 表示:“SDXL 1.0 是 Stability AI 的旗舰图像模型,也是图像生成的最佳开放模型。我们已经针对各种其他模型对其进行了测试,结果是结论性的 - 人们更喜欢图像与其他开放模型相比,由 SDXL 1.0 生成。这项研究的结果是从我们的 Discord 上的几代实验模型和外部测试中捕获的数周偏好数据。”
Stability AI 表示,SDXL 1.0 目前在野外显示出有希望的结果,并且在各种测试中,与其他模型生成的图像相比,用户更喜欢 SDXL 1.0 生成的图像。 SDXL 1.0 似乎能够在渲染众所周知的具有挑战性的概念(包括手、文本和空间排列的构图)方面超越其前身。
SDXL 1.0 的突出特点之一是其架构。它具有 3.5B 参数基础模型和 6.6B 参数细化器,使其成为目前参数最丰富的模型之一。它具有两阶段架构,涉及一个基础模型和一个专门用于去噪的细化模型,这显然可以提供令人惊叹的结果,而无需牺牲速度或需要过多的计算资源。这种多功能性扩展到自定义数据微调,使用户比以往任何时候都更容易根据自己的特定需求定制模型。
如果您想了解 Stable Diffusion XL 1.0,可以通过多种方式开始使用。它已在 Clipdrop 上上线,并可作为 DreamStudio 上的图像生成模型使用。如果您想仔细阅读其源代码,它也位于 GitHub 上。对于人工智能来说,这绝对是一个有趣的发展——稳定扩散已经是图像生成的最佳模型之一,这对于那些想要使用人工智能生成图像的人来说应该意味着好消息。
来源:稳定人工智能