全球观点:Nobody的AI绘图新手之路2023.4.22
2023-04-23 03:23:53来源:哔哩哔哩

学习Stable Diffusion有10天了,就如我前天所说,仿佛人也跟着迭代了似的。


(资料图片)

虽然最近不能天天更新AI绘画学习日志了,那是因为提升的速度太快,停下来写日志反倒是拖慢了学习的进度。并且在不断的学习过程中,也渐渐对于之后还能细化深化学习的方向有了认识。

前天最后我留有一个图生图局部重绘的遗憾,想给这张图换衣服,但以原图为蒙版依据时,始终避免不了胸前大片深色。当时用填充蒙版或者潜变量噪声蒙版都因为没有掌握蒙版模糊、蒙版边缘预留像素、重绘幅度等等参数的作用,导致作图失败。这个问题我其实第二天仔细再回看理解一遍教程就解决了,来看效果。

虽然最后结果还有许多瑕疵、例如手、背景、头发。不过借这张图我也充分锻炼了局部重绘,我把手涂蒙版、局部重绘、提示词等等方法都用上了,做了至少5处局部重绘。其原理已经初步掌握了,细节毕竟是要靠量去跑的,方向掌握就行。

然后就开始学到了ControlNet,回头再看简直是上了高中去解初中数学题的感觉。通过Canny预处理器和模型,可以给黑白图片上色。

厉害之处在于,我仅仅只给了一个“Golden Castle”的提示词而已,AI会把城堡画成蓝顶、金边、白色砖墙,门口的人穿红衣,而不会无脑地把整幅画全涂成金色,实在是惊喜和意外了。

这里的提示词仍然只有“火车在火车站里,后面拖着挂车”,AI根据原图就已经很有光泽的火车头,自动涂成该有的铜色,而不是金色银色或者其他五彩斑斓,不愧是AI学习的结果。

好了,上色还只是前菜,我也还没深入应用上色功能,我看中的是ControlNet其中的姿态检测和学习,利用Canny边缘检测预处理器和模型,就能实现用提示词文生图和手涂蒙版图生图都望尘莫及的对人物造型的控制。例如找到一张照片的人物摆的动作造型不错想要沿用,甚至自己摆个动作用手机拍下来,都能让AI学习。以下就是我的运用——

原图我只要一个动作,然后我自己加上照片质感、柔和光线、春天、在夏威夷,然后人物的发型、化妆、表情、服装等等提示词,就能出一个与要求动作相似度极高的结果。再也不愁用文字描述不来人物的动作了——左手扶在腰部、右手按在头顶、身体侧对镜头、脸转向镜头、左腿直立、右腿向前屈膝脚尖点地,这一系列文字描述就算丢给AI,估计也会混乱。

这功能简直逆天啊!

最初几天我完全跟着兴趣来,没有急于去推学习进度,所以在文生图就花了许多时间去玩。模型、CLIP跳过层、采样方法和迭代步数、图片宽度高度的注意点、提示词相关性、提示词与反向提示词的分类和语法、结合XYZ图表脚本来做自行研究。虽然教程都有,但有些事毕竟要自己试试才行,也陶醉在自己生成的美图中。

从开始研究图生图功能,补上了之前忽略的VAE以后,我就知道进度要开始加速,这是需求决定的。文生图到图生图,到局部重绘,方向都是更好地向AI表达我想要什么,更准确地控制结果,当现有手段满足不了需求时,就会要求新的功能。

在最初几天,我就已经从教程以及自己的Stable Diffusion WebUI里看到了诸如Embedding、Hypernetwork、Lora、ControlNet等等词汇,听起来都是很高大上的样子。其实这些功能的基础也是很容易学会的,就这两天的时间,我已经初步学习并使用了几种ControlNet、浅尝了一下Lora,学会了使用Embedding,而Hypernetwork在使用上和前两者也没差太多。

再次感谢B站“靠谱的轩轩”的Stable Diffusion教程,是适合新手,讲解耐心且浅显生动的教学课。

标签:

精彩推荐

资讯News

  • 聚焦Policy