观前提醒:我觉得 AI 绘图就跟写代码一样,最好的学习方式,就是拿别人的 Prompt 过来,自己补充、修改、删除、运行,生成自己满意的结果,逐步积累,沉淀下属于自己的 Prompt 风格。Prompt在哪找?官网的社区,以及群组里有很多。担心不够全面?没关系,工具就是拿来用的,不会就学就查,跟优秀的作品学,学到了就用,用着用着自然就全面了。而且 AI 全面为人所熟知也不到半年,大家都是摸着石头过河,能分享的也都是自己的经验,学习 AI 绘图也是一次锻炼自己自学能力很好的机会。
当然在这之前,我们需要学习一点点基本的 Prompt 结构,可以拆分成三部分:
客观描述 + 风格描述 + 属性描述
一、客观描述
客观描述一个主题,我们想画什么,在哪里,干什么,穿什么,眼睛头发什么颜色等等,描述之间用[逗号][空格]区分,比如一只白色的猫咪在游泳,可以把这几个词组合成一个句子,也可以直接输入,像我这样,结果不会有太大变化:
a cat, white, swimming
二、风格描述
描述图片的风格,包括:艺术家风格、画笔风格、艺术风格、工作室风格,相机品牌,镜头,光照,景深,渲染等等,感觉是把从古至今跟艺术沾边的专业词汇都集合了起来。
比如上图的猫咪,我想用低角度镜头来展现:
a cat, white, swimming, super low angle shot
马马虎虎吧,镜头下去了,猫咪也到水下去了……
再换成用吉卜力工作室的风格:
a cat, white, swimming, ghibli studio
三、属性描述
描述图片的属性,或者是软件预设,比如图片比例,Midjourney 版本等等,需要严格遵循:[空格]–[属性名][空格][属性值][空格],注意属性名大小写,否则都会报错。
几个常见属性参数
1. Midjourney 版本号: –v
//Midjourney v5 版本 –v 5
默认是 v4 版本,每个版本产出的图效果大相径庭,可以简单理解为,版本越低越“抽象”,最新的 v5 版本,画面更写实,对语义的解释更精准,也有的人认为新版更“糖水”,风格就那几种不够多变,总之因人而异,可以参考以下两篇文章:
Midjourney V5 比 V4 更好吗?Prompt 全公开(上篇)
Midjourney V5 比 V4 更好吗?Prompt 全公开(下篇)
2. 图片比例: –ar
//图片比例16:9 –ar 16:9
3. 负面提示词:–no
//不要出现手 –no hands
不希望图里出现什么内容,可以用这个。
4. 质量:–q
//质量依次是0.25,0.5,1,2 –q .25 –q .5 –q.1 –q .2
默认值是 1。质量和时间相关,质量越高,生成的时间越长,同时消耗额度也更多。如果质量是 2,约等于消耗两倍的额度。
5. 动漫风格:–niji
//一只白色的猫在游泳,动漫风格a cat, white, swimming –niji
Midjourney 跟麻省理工的 AI 团队 spellbrush 合作推出,一款专门针对二次元的 AI 生成器(二次元们有福了)
官网:https://nijijourney.com/zh/
也有专门的 Discord 社区,支持中文哦。
更多属性参数,参考官方文档:
https://docs.midjourney.com/docs/parameter-list
四、参考图片
就是我们平常说的垫图,垫张图更有利于 AI 了解你的描述,把风格控制在一定范围内,在描述词前面加上图片的链接即可,例如:
如果是本地图片,只要把图片拖进对话框中,发送,右键图片,就能获得链接:
五、命令
在对话框中直接输入,类似 /imagine,告诉软件你要做什么。
1. /settings
修改预设,比如把默认版本 v4 改成 v5。
2. /info
查看基本信息,当前订阅,看看还剩多少使用额度等。
更多命令,参考官方文档:
https://docs.midjourney.com/docs/command-list
想精简一点,却也写了不少,每部分展开都可以说挺多内容的,但作为基础,这些应该够用,可以立马上手干了!
我只是把你送到船上,并推你入海,之后怎么划,划多远,就靠你自己啦。
– 完 –
(耐心、耐心)
我建议你
不要听任何人的建议如果你喜欢我写的文字,请给个大大的关注👇👇👇🌱唠叨一下
去年6月我开始使用 Disco Diffusion (以下简称 DD),那时的 AI 绘图产出的作品还不像现在这样完成度高,网页上也是整面的代码,要调整参数需要在满屏的代码中找到正确的那一行,这是我生成的第一张图:
后来因为产出的图片不确定性太大,以及社区里充斥着让人疯狂掉 san 值的作品,我很久都没有再使用过 DD。现在各家的模型已经日趋成熟,像 Midjourney V5 (以下简称MJ5)已经能很轻松地产出高质量、大家都能看懂的画作,从它新手村里大家的作品就能看出来,它的下限抬高了。
没有恐怖的裸露代码,没有狂掉 san 值的意外之作,现在正是学习 AI 绘图的好时候。
然而 MJ5 出图虽然稳定好看,但看多了不免也有点厌烦其中的工业糖精味儿,一个真正的艺术家,是在平凡中寻找不平凡,出来的图都一样怎么凸显自己的个性,然后,号称是最强 AI art 生成模型 Stable Diffusion(以下简称SD)就出场了,它真的很好。
首先 SD 它免费呀。
其次,因为是开源,广大没钱的人开发者贡献了丰富的整合包和插件,把 SD 的使用门槛降得很低,会折腾的话,可以把服务部署在本地,用 GPU 跑图(说好了不要钱,这显然是老黄的阴谋)。
再者 SD 出图更具不确定性,相对粗糙,摸索多了,还会有意外收获,对于高阶绘图者,还是有必要研究一下 SD的。
之后我会把我研究的 SD 入门教程端上来,感兴趣的不妨点个关注,再会。
欢迎点赞,打赏,在看,转发,这对我很重要