通过colab体验ControlNet

通过colab体验ControlNet

跑通流程

首先,我们要会xxxx并且有一个Google账号。这是一句废话。

启动webui

访问https://colab.research.google.com/ 然后登陆自己的谷歌账号,

然后访问https://github.com/camenduru/stable-diffusion-webui-colab

image.png

可以看到这里有很多的colab可以使用。

lite has a stable WebUI and stable installed extensions. stable has ControlNet, a stable WebUI, and stable installed extensions.
nightly has ControlNet, the latest WebUI, and daily installed extension updates

为了稳定的使用并且能使用ControlNet,这里我们使用stable 版本,我选了第一个如下图 image.png

点击进入后我们就能看到这样的界面了 image.png

如图,点击我画出来的,运行这个notebook。经过一番耐心的等待,你在控制台的最下面会看到这么几行image.png

点击最下面的两个链接中的任意一个,会跳转到webui的页面,我们主要用到的是text2imgimg2img.

我们以text2img为例,这里只说常用的功能,如图所示。

这里的prompt就是提示词,假如你想让他画一只猫猫,你就在prompt的位置写上cat,negative prompt就是说排除掉那些词语,例如我们不想要红色的猫猫,我们可以写red_cat image.png

这里需要解释一堆东西

  1. Sampling method适用于生成图像的算法
  2. Restore faces是使用GFPGAN来修复人脸
  3. Tiling生成一张可以平铺的图片
  4. Hires. fix 用两阶段的方法生成图像,先生成一张低分辨率的图片,然后在不改变构图的情况下继续优化细节
  5. Batch count 生成多少个批次(注意显存)
  6. Batch size 一个批次生成多少张图片(注意显存)
  7. CFG Scale 这个值和图片引导与图片相关程度挂钩,值越低图片越有创意

启用ControlNet

滑到最下面,打开ControlNet功能(可能布局有所不同) image.png

打开之后如图 image.png image.png

如果你想先看一下controlnet会按照什么来绘画,你可以通过创建画布下面的Preview来查看。

这里推荐一个网站https://prompthero.com/search?model=Stable+Diffusion&q=video+game+concept+art&source=f7591caf953 ,里面有各种各样的prompt,也是游戏风格的。

我们随便选一个prompt来生成一张图 image.png

我们可以把图片放到img2img继续体验,使用方法和text2img基本一样。

Q&A

posex

在新版本的stable diffusion webui中你会发现这个插件 image.png

这是一个open pose编辑器,你可以在这里编辑openpose,然后把编辑好的图片发给ControlNet

Additional Networks

image.png

一般在ControlNet上面,这个的作用的加入一些自己找的模型。

ControlNet概念

模型

在作者的论文GitHub仓库和论文详细的写了各种模型是什么样子的(累了,偷个懒,有需要再写)

预处理器

处理图片的一种方式,个人认为和传统图像处理的那些方法是一致的,处理的结合和上面作者的论文arxivGitHub仓库中式一样的


通过colab体验ControlNet
https://studyinglover.com/2023/03/20/通过colab体验ControlNet/
作者
StudyingLover
发布于
2023年3月20日
许可协议