Stable diffusion一小时搞定100张设计图绝了!

时间: 2024-08-06 16:15:46 |   作者: 产品中心

产品详情

  两者都是时下主流的AI图像生成软件,在绘画、设计领域都备受欢迎,可以驾驭各种风格。

  ➥Midjourney是一个基于CLIP模型的生成模型,工作原理是将输入图像与描述性的文本描述作比较,然后生成与文本描述一致的图像。生成的过程较短,花费时间和资源较少。

  ➥Stable diffusion是一个基于diffusion模型的生成模型,工作原理是从噪声图像开始,然后逐渐添加细节,直到生成与目标图像相似的图像。整一个完整的过程花费的时间比较久,并且需要较多的计算资源。

  ➥也正是消耗了更多资源与时间,其生成的作品会更细致并且更“逼真”。在人物、场景、动物、植物等方面的图像内容生成有较大优势。

  我们在学习使用AI软件的之前,最先考虑的是自己的需求,然后再做选择。当然你要是秉承着“成年人法则”——我全都要!也不是不可以,但正常的情况下先学一个就够用了。

  同时Stable diffusion的软件界面还和传统的设计软件界面相似,用起来更熟悉,不会像Midjourney那样给人完全不一样的感受。

  如果大家想在用AI进行创作是更精准把控风格、构图等内容,生成质量更高的场景、人物、动物等图像,数艺君建议我们大家用Stable diffusion。

  今天数艺君给大家伙儿一起来分享一个案例,介绍使用Stable diffusion进行设计工作的流程和实操技巧。

  第一步我们要做的是准备关键词和线稿草图——线稿决定了最终作品的构图和元素布局。

  修改指定材质关键词后,借助control net插件里的seg模型配合第一步的操作双开control net模型设置SEG权重,然后就能够获得新的图像。

  可以看到新生成的图像在布局和结构上与最开始的完全一致,完美符合我们的创作需求。

  选择一张自己心仪的图片然后转到图生图模式,将图片结合control net插件中的tile_resample进行细节丰富,同时使用脚本中的UItemate SD upscale模型将其放大至自己想要的图片大小。

  至此我们用Stable diffusion进行场景的定制化工作就做好了,后续想要什么场景,就可以直接出图,不用从头开始做,非常大地节省创作成本。

  相比传统的设计工作,Stable diffusion的加入使最终作品的质量与数量都有极大的提升,可谓神器。

  AI工具的迭代用“日新月异”来形容毫不夸张,但学习成本实际上并不高,并且对我们的绘画技能要求还降低了许多。

  所以拥抱AI,拥抱Stable diffusion,解放自己的双手提升生产力,现在就能开始!

相关推荐