stable diffusion插件controlnet的详细讲解以及用法说明

[复制链接]
查看962 | 回复0 | 2023-8-16 08:07:40 | 显示全部楼层 |阅读模式
简介

controlnet是基于只能绘画AI-stable diffusion推出的一款功能强大的插件,它为文生图功能引入了新的控制方式,可以额外控制人物的具体姿势,景深,线稿上色等等,可以更稳定的控制画面。
安装

插件安装


  • 在stable diffusionUI界面中找到扩展

     
  • 在扩展中找到

     

  • 当出现如下提示,则表示插件安装完成

     
模型安装

模型安装分为预处理模型和controlnet所需要的模型。
先安装预处理模型,打开AI所在的根目录输入这个地址novelai-webui\extensions\sd-webui-controlnet\annotator,将对应的预处理模型放进对应的文件夹中即可,而controlnet所需模型则是novelai-webui\extensions\sd-webui-controlnet\models,放在该文件夹下即可。

上述操作完成后打开我们的本地部署,在扩展中点击应用并重启即可。

 

本地部署重启之后就可以看到新的controlnet的选项了。
controlnet模型功能及参数分析



  • canny(边缘检测算法):一般用于参考图的线稿提取,

    • Low VRAM该选项可以在你显存低于4G时开启,能够发挥最好的效果,高于4G可以不选
    • weight该选项表示使用controlnet的权重,权重越高越倾向于权重高的描述,一般使用默认值即可
    • Annotator resolution注释器分辨率,参数的大小影响模型的精度,当然越大,越消耗显存

       
      512分辨率
      1024分辨率

       
    • Preview annotator result预览注释器的结果,点击该按钮可以查看模型质量

       




  • depth(深度图检测算法):一般用于提取物体边缘轮廓,没有物体内部的细节

     



  • hed(边缘检测算法):canny提取线稿更硬朗,hed提取的线条更圆润

     



  • mlsd(线段检测算法):一般用于建筑、物体的检测,常用于室内装潢,建筑设计
  • normal_map(法线图检测算法):会一定程度上保留物体内部的细节



  •  openpose(人物骨骼检测算法):提取人物的骨骼

 

   好了,以上就是本期文章的全部内容了,如果本期内容对你使用stable diffusion有一定帮助,不妨点个赞吧,后续有什么问题也可以小窗私信我,看到留言后我会回复的。


来源:https://blog.csdn.net/Chanyto/article/details/129349609
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则