Stable Diffusion图片保存和高质量输出完全指南

Stable Diffusion vs Midjourney:图片输出差异

Stable Diffusion最大的优势是本地运行、完全可控。你可以自定义输出分辨率、采样步数、CFG Scale等参数,生成任意尺寸和风格的图片。

如何设置输出高质量图片

  • 分辨率:建议512×512起步,配合高清修复(Hires fix)可达1024+
  • 采样步数:20-30步为最佳平衡点
  • 采样器:推荐Euler a或DPM++ 2M Karras
  • CFG Scale:7-12之间,过高会导致过饱和
  • 高清修复:使用Hires fix + R-ESRGAN 4x放大器

高清放大技巧

在WebUI的「Hires. fix」标签下,可以设置放大倍数(2x或更高)和放大算法。推荐使用R-ESRGAN 4x+4x-UltraSharp放大模型,可以在保持细节的同时大幅提升分辨率。

Stable Diffusion图片授权说明

Stable Diffusion是开源模型,本地生成的图片没有使用限制,可以自由使用和修改。但需要注意:

  • 训练数据中可能包含受版权保护的内容
  • 不要声称AI生成为自己的原创作品
  • 部分模型有额外使用限制,请查看模型License

💡 找不到想要的素材?试试以图找图

上传参考图,以图找图在Shutterstock、Adobe Stock、Freepik等7大图库中自动搜索相似素材。

延伸阅读:2026年AI设计素材趋势

Stable Diffusion 安装与进阶指南

Stable Diffusion 是最受欢迎的开源AI图像生成模型,由Stability AI开发,可完全免费在本地运行。

安装方式选择

Automatic1111 WebUI是最经典的选择,功能完善、插件丰富,适合新手。ComfyUI采用节点式工作流,运行效率更高、内存占用更小,适合进阶用户。显卡要求:NVIDIA建议至少6GB显存(RTX 3060以上),AMD和Mac M系列也可运行但速度较慢。

ControlNet 使用详解

ControlNet是SD最强大的扩展功能:Canny边缘检测提取线稿轮廓、Depth深度图控制空间关系、OpenPose姿态控制人物姿势、Segmentation语义分割控制区域划分。例如用产品线稿作参考,让AI生成各种风格的产品效果图,同时保持外形一致。

高清放大技术

SD默认生成512×512或1024×1024,商用需要放大:ESRGAN效果自然适合照片、SwinIR细节保留好适合插画、HAT质量最高但速度慢。推荐流程:R-ESRGAN 4x初步放大→ADetailer面部修复→高重绘幅度img2img细化。

评论 (0)