每日消息!LoRA:小试牛刀,自己动手画蒂法不是梦
来源:Coder梁    时间:2023-06-22 14:57:25

关注、星标下方公众号,和你一起绘梦

作者 | 梁唐

出品 | 公众号:Ai绘画梁(ID:ai_drawer)


(资料图片仅供参考)

大家好,我是梁唐。

今天教大家画蒂法,最终幻想有许多部,可蒂法只有一个。万千宅男女神,3D区扛把子,SE的摇钱树,以及永远的耶路撒冷。

早在老梁还是小梁的时候,就听说过这么一则轶事:说是蒂法全身上下从眉间距到三维都是日本人按照人体最佳比例画出来,十足的完美女生。虽然觉得把女性全身上下的比例都统计一遍非常变态,但蒂法超高的颜值还是立马让我相信了这则谣言。

以前我们只能在游戏和电影、视频里欣赏蒂法,现在借助Ai绘画的力量,我们可以画出自己的蒂法了。如果你还不知道怎么使用Ai绘画,可以在公众号Ai绘画梁后台回复【教程】获取详细图文教程。

今天的封面就是我画出来的蒂法,为了防止大家看不清楚,这里再贴一下大图。

那怎么样才能得到这样一张蒂法呢?

首先是模型,模型我们还是选择整合包中自带的anything-v4.5,这是一个超强的卡通风格的模型。我个人非常喜欢它的画风,并且模型性能很强,简单的提示词也可以得到非常不错的效果。

不过,由于我们这张图片内容非常复杂,有前景有背景。因此需要的提示词也非常多,我把它粘贴在下方,虽然是英文的,但单词不算复杂,相信大家都能看懂。

正向提示词:

(8k,bestquality,masterpiece:1.2),(realistic,photo-realistic:1.37),ultra-detailed,1girl,cute,solo,(tifalockhart),(beautifuldetailedeyes),(smile:1.2),(closedmouth),armsbehindback,neonlights,cityscape,depthoffield,darkintenseshadows,sharpfocus,cars,motionblur,motorbikes,depthoffield,goodcomposition,greenglowinglight,FinalFantasyVII,dating,(noseblush),singleelbowpad,blackhair,redshoes,muscular,abs,tautshirt,nobra,blackskirt,thighhighs,fullbody,headrest,lips,prettyface,low-tiedlonghair,((red_eyes)),yellowflowers,(night:1.3),intricate,bokeh,cinematiclighting,photonmapping,radiosity,physically-basedrendering,(TetsuyaNomurastyle)

负向提示词:

EasyNegative,Paintings,sketches,(worstquality:2),(lowquality:2),(normalquality:2),croppedlegs,lowers,normalquality,((monochrome)),((grayscales)),skinspots,acnes,skinblemishes,agespot,glans,(6morefingersononehand),(deformity),badlegs,errorlegs,badfeet,malformedlimbs,extralimbs,(mutatedhandsandfingers:1.5)

其他参数:

AI绘画具有随机性,随机性是通过随机种子控制的。如果大家将所有参数(包含提示词)以及随机种子都设置得和我一样,那么会得到一副完全相同的图片。如果想要随机性,可以设置成-1。

如果大家真的去尝试了,会发现得到的会是这样一张图:

这两张图构图和人物的动作神态都完全一样,可是画风和细节完全不同,就好像是另外一个画家临摹的一样。

会得到这样的结果是正常的,这就是模型原本的产出。上面那种颜值更高的图其实是加工之后的结果,这也说明了一点,仅仅靠提示词并不是万能的,大部分效果还是基于模型本身的能力实现的。这里的加工并不是指人工修图,而是让模型能够自我调节画风和细节的工具——LoRA。

LoRA原本是大模型中的概念,众所周知GPT的模型规模很大,带来的结果是模型训练需要的资源也非常巨大。并且大多数时候模型不是一次训练就结束了,在投入实际使用时需要我们针对具体的使用的场景进行微调。由于模型庞大的参数量,即使是微调带来的开销也是极其巨大的。

LoRA正是针对大模型微调时带来的巨大开销提出来的优化方案,简单原理是它会在每个Transformer当中注入可训练的层,在微调时会将预训练好的参数全部冻结,只会调整这些注入的参数。由于绝大多数参数冻结,因此带来的计算开销大大减小。更神奇的是,这种做法的效果和直接微调整个模型相当。

stable diffusion的早期版本原本是不支持LoRA的,后来有大神将LoRA的思路迁移到了stable diffusion中来,应用在cross-attention layer当中,也能起到类似的效果。

上面两段涉及一些技术细节,如果看不懂的话也没关系。有一个很通俗的例子可以帮助理解,微调大模型类似于整容,而LoRA类似于化妆。高超的化妆技术往往可以达到整容类似的效果,而不必付出整容的代价。

为了实现封面这样美艳的效果,我使用了网上大神训练的蒂法LoRA,可以让画出的妹子更逼近蒂法的长相,相当于美颜了一波。我已经将这个LoRA文件上传到了网盘,在公众号Ai绘画梁后台回复003获取。

下载完成之后,在启动器中依次点击模型管理-LoRA插件-打开文件夹,将下载的文件拖入其中并刷新列表。

接着我们启动AI绘画,点击可选附加网络(LoRA插件)。

在展开的选项中选择我们刚才下载的LoRA,并设置权重。权重越大,LoRA起作用效果越强,模型随机性越小,但也容易毁图。设置得过小又会导致LoRA生效不明显,一般我们设置在0.2 - 0.8之间。

比如1.25的权重画出来是这样的,这就是设置得过大导致模型效果崩了。

这里我设置的是0.5,大家也可以根据自己的喜好上下浮动。对了,不要忘记勾选启用按钮,否则LoRA不会生效。

LoRA除了单个使用之外,还可以叠加使用。参数设置得当的话,可以产生神奇的1 + 1 > 2的化学效果。通常绝大多数高质量的Ai绘画都必然有一个以上的LoRA参与,因此这一块的内容还有非常多值得挖掘和研究的部分,大家可以根据兴趣自由探索。

关注我,不再错过AI绘画前沿~

关键词:

X 关闭

X 关闭