Stable Diffusion vs Midjourney:图片输出差异
Stable Diffusion最大的优势是本地运行、完全可控。你可以自定义输出分辨率、采样步数、CFG Scale等参数,生成任意尺寸和风格的图片。
如何设置输出高质量图片
- 分辨率:建议512×512起步,配合高清修复(Hires fix)可达1024+
- 采样步数:20-30步为最佳平衡点
- 采样器:推荐Euler a或DPM++ 2M Karras
- CFG Scale:7-12之间,过高会导致过饱和
- 高清修复:使用Hires fix + R-ESRGAN 4x放大器
高清放大技巧
在WebUI的「Hires. fix」标签下,可以设置放大倍数(2x或更高)和放大算法。推荐使用R-ESRGAN 4x+或4x-UltraSharp放大模型,可以在保持细节的同时大幅提升分辨率。
Stable Diffusion图片授权说明
Stable Diffusion是开源模型,本地生成的图片没有使用限制,可以自由使用和修改。但需要注意:
- 训练数据中可能包含受版权保护的内容
- 不要声称AI生成为自己的原创作品
- 部分模型有额外使用限制,请查看模型License
💡 找不到想要的素材?试试以图找图
上传参考图,以图找图在Shutterstock、Adobe Stock、Freepik等7大图库中自动搜索相似素材。
延伸阅读:2026年AI设计素材趋势
Stable Diffusion 安装与进阶指南
Stable Diffusion 是最受欢迎的开源AI图像生成模型,由Stability AI开发,可完全免费在本地运行。
安装方式选择
Automatic1111 WebUI是最经典的选择,功能完善、插件丰富,适合新手。ComfyUI采用节点式工作流,运行效率更高、内存占用更小,适合进阶用户。显卡要求:NVIDIA建议至少6GB显存(RTX 3060以上),AMD和Mac M系列也可运行但速度较慢。
ControlNet 使用详解
ControlNet是SD最强大的扩展功能:Canny边缘检测提取线稿轮廓、Depth深度图控制空间关系、OpenPose姿态控制人物姿势、Segmentation语义分割控制区域划分。例如用产品线稿作参考,让AI生成各种风格的产品效果图,同时保持外形一致。
高清放大技术
SD默认生成512×512或1024×1024,商用需要放大:ESRGAN效果自然适合照片、SwinIR细节保留好适合插画、HAT质量最高但速度慢。推荐流程:R-ESRGAN 4x初步放大→ADetailer面部修复→高重绘幅度img2img细化。




评论 (0)