草图生成服装图像被广泛应用在服装设计过程中,可直接展示服装的设计效果,节约大量成本。但在当前,普遍利用条件变量实现服装草图的图形化渲染或通过学习图像与草图的公共属性向量去映射图像等方法,生成的服装图案受草图约束严重,生成的图像深度信息缺失。因此本文针对上述问题提出了一种基于StyleGAN的从草图到服装图像的图像生成方法。首先,利用VGG网络,对多种被变换的草图图像,进行内容特征提取。有针对性的提取目标特征,加深其内容特征,降低其他特征图信息对生成图像的约束;其次,利用特征金字塔的多尺度的特征融合方法,通过小型映射网络生成中间风格向量,利用StyleGAN生成器,丰富图像深度信息。实验结果表明我们的方法在草图生成服装图像方面具有一定的优越性,可以更完整地保留草图的细节,生成图像的质量更佳。
随着服装行业的进步发展,人们对于服装的需求越来越多,于是服装企业对于简化服装生产流程的需求也因此增多。而在服装的生产过程中,需要先设计出服装设计草图,然后制作出服装样本,从而导致成本的提升以及资源的浪费,因此在设计阶段可以清楚的知道设计的服装效果,就可以为服装企业节约大量时间成本和金钱成本。于是如何精细化服装设计流程,便成了一个重要难题。为了解决这个问题, 本文从可视化设计草图的角度,将设计师设计的草图图纸直接生成可视化的服装图像,简化生产流程, 不需要制作服装样品,降低服装制作成本。
近年来,服装设计行业提出了很多在服装设计阶段的服装展示方法。大部分方法通过生成虚拟的服装,向用户展示服装的设计效果。这类方法在没有制作出样品的情况下,利用草图图片生成类似漫画效果的服装图片。但是这种方法存在一定的局限性,使得生成抽象的图片,无法适用于服装制造行业。与之不同的是,本文通过充分的提取原有草图图像的内容信息,采用一种风格映射的方式生成图片,解决了原有的方法过于参照草图边缘信息的问题,同时提高了图片色彩阴影对比,使生成的服装图片具有更高的真实度。
2018 年,James Hays 等人提出了SketchyGAN [1],在生成器和判别器使用屏蔽剩余单元(MRU)块来代替卷积层,是一种基于GAN 的端到端的多模态合成方法。同年,ContextualGAN [2]的作者将草图作为上下文弱约束对图像补全,使用联合图像来学习草图与其对应图像的联合分布。而MUNIT [3]采用无监督的方法,将图像数据分为内容与风格,从不同的数据空间采样进行重构。到2020 年,为从草图生成场景级图像,EdgeGAN [4]被用来生成前景图像,通过学习图像和边缘图的公共属性向量表示,最后映射到对应的图像。2021 年,pSp [5]为利用StyleGAN [6]的强大图像生成能力,通过特征金字塔结构,将草图作为输入,提取18 个中间风格向量作为StyleGAN 生成器的输入,但该方法生成的图像受草图风格信息约束,中间风格向量存在大量草图风格因素,导致生成图像色彩单一。
针对pSp 的不足,本文引入VGG [7]网络模型,减少风格特征的提取,降低输入草图的风格对生成