此次更新改进了Stable Diffusion的文本到图像扩散模型,包括强大的图像放大器、更新了修复模型等。
Stability AI宣布发布Stable Diffusion 2.0,这是其多功能开源AI Stable Diffusion的新改进版本。该版本为Stable Diffusion提供了大量有用的增强功能,改进了其文本到图像的扩散模型,带来了强大的新图像升级器,更新了其Inpainting模型等。据开发商称,升级版旨在“作为无数应用程序的基础,并激发新的创造潜力”。
以下是Stable Diffusion 2.0带来的改进和新功能列表:
- 新的文本到图像扩散模型: Stable Diffusion 2.0包括使用全新文本编码器训练的强大的文本到图像模型,与早期的V1版本相比,它大大提高了生成图像的质量,使人们能够在512×512和768×768分辨率。
- 超分辨率Upscaler Diffusion模型:该版本带来了Upscaler Diffusion模型,可将图像分辨率提高4倍。
- Depth-to-Image Diffusion Model:一种新的扩散模型,能够推断输入图像的深度,然后使用文本和深度信息生成新图像。
- 更新的 Inpainting Diffusion模型:一种新的文本引导修复模型,在新的Stable Diffusion 2.0基础文本到图像上进行了微调,可以轻松切换图像的各个部分。