News

新闻中心

凌迪科技Style3D:让AIGC走上秀场背后是打造服装产业博亚体育模型的决心 高榕未来

2024-02-20 01:47:21
浏览次数:
返回列表

  刚刚过去的4月,一场人工智能美学与人类美学碰撞的“AI时装周(AI Fashion Week)”在纽约上演。时装周收到数百份AI生成的作品,这些作品“打破边界、敢于冒险,正创造真正的独一无二”。以下是时装周评选出的TOP10作品:

  新一轮人工智能浪潮正为服装与时尚产业带来更多灵感与创新,也被认为有希望提高行业的数字化水平与设计制造效率。根据麦肯锡分析,未来3到5年,“保守地说”,生成式AI可能会帮助服装、时尚及奢侈品行业的营业利润创造1500亿美元的增量,乐观估计可高达2750亿美元。

  凌迪科技Style3D(以下简称“Style3D”)作为数字时尚的基础设施,致力于为服装产业提供从设计到生产全流程的3D数字化解决方案。拥有深刻技术基因的Style3D已于近期快速研发上线了一系列AIGC功能,包括AI款式分析、AI生成图案、AI生成版片、AI生成材质以及快速生成电商上新图等。

  服装产业链长而复杂,且要求AI生成的内容必须包含结构化数据、直连生产,这促使Style3D必须基于行业数据和产业需求打造“产业级模型”。

  近期,凌迪科技Style3D首席科学家王华民在NVIDIA 初创加速计划与高榕资本榕汇联合举办的加速营活动上,分享他们对于服装行业探索AIGC应用的过程和思考。王华民是公认的世界级图形学科学家,有近20年图形学学术研究背景。

  服装行业是依赖大量“上新”带动消费的产业,对创造力和效率有极致追求。创意浓度高、能够接受多样性,也让服装相对其他行业对AI有更高的容错率,适用于AIGC去落地和探索。

  但是我们也必须认识到,服装是历史悠久、产业链分工非常成熟的行业。拆解服装行业链路,各个环节需要产出的内容从2D到2.5D、3D兼而有之,而且这些内容是“一环扣一环”的。

  2.5D:版师基于款式图进行制版,制版的目的是把设计内容变成真实的、三维的物体,这一步在真实世界通过制造样衣来实现,虚拟世界则通过仿真模拟来实现。版型是连接二维和三维的桥梁,所以称作2.5D。

  3D:随着元宇宙的发展,未来3D数字服装对于服装行业会愈发重要,数字服装与数字人(Avatar)结合起来,便有了可交互的方式。

  2D:在服装展示环节,图形学技术通过渲染,把三维物体变成2D视觉效果,例如输出电商上新的图片或视频。

  服装行业的上述环节和特性,决定了AI生成的内容想要真正创造价值,需要满足以下特性。

  首先,输出的内容和元素需要是多模态的,不同环节生成的不同类型内容需要结构化相关联。

  最后,生成的内容不能是一次性的,比如版型和设计内容可以沉淀为数据资源并支持复用。

  基于对产业特性和客户需求的深刻理解,从Style3D探索AIGC伊始,我们就意识到:需要基于我们积累的大量垂直行业数据和素材库,去训练垂直领域的产业模型。

  目前我们在开源的Stable  Diffusion基础上训练自己的模型,Stable  Diffusion支持本地部署和定制模型,可控性较好,且风格不限。我们也将这一模型定义为“Style3D AI产业模型”,拥有完整的适用于服装行业的prompt。

  众所周知,生成式AI模型进化的速度非常快,整体训练成本和对数据的依赖将逐步降低,稳定性和安全性也越来越强。我们在开发产品时,不局限于某一种特定的模型,而是紧密关注技术的发展,产品也能够不断迭代。

  而且,如果要真的开发客户满意的产品,涉及的并不仅仅只是生成式AI模型。比如需要做图像分割,那么就要用到推理式AI模型;需要以图搜图、对图像做分类,就涉及检索式AI模型。所以在开发真正可用产品时,我们致力于将各类AI模型技术进行结合。

  仿真模拟等图形学技术是Style3D一直以来的强项,AI浪潮来临,我们走的是AI技术和图形学技术相结合的技术路线。尽管未来AIGC有潜力直接生成3D内容,但目前看短期内用AIGC替代实时仿真模拟还是有一定难度的。

  AIGC和图形学技术可以说是互补的关系,AIGC生成的内容可以为仿真模拟提供素材、材质和视觉效果上的增强;仿真模拟可以提供实时环境和底层的效果与算力支持。

  接下来我们重点介绍,Style3D利用AI技术,是如何赋能服装产业链若干关键环节的。

  一直以来服装设计师与面料供应商、开发商,对面料的纹理和图案有广泛需求。以往我们构建了一个支持搜索的庞大资源库;有了AIGC技术之后,在已有资源数据基础上,我们的模型支持用户文字搜索生成更多的纹理/图案,帮助设计师和面料商更快找到想要的效果。此外也支持图片搜索生成更多的纹理/图案,用户上传一张倾向的风格图片,可以生成类似风格的纹理和图案。这一应用和成熟的图像生成技术非常像,只是我们的产品工具基于行业积累的专有数据。

  工艺方面,客户可以利用AIGC,基于照片生成不同的工艺和效果。比如想要刺绣效果,可以利用AI去生成背后的置换贴图(Displacement map)或凹凸贴图(Bump map),以及所需的矢量图等。

  基于我们的产品,设计师通过输入各类prompt可以快速生成款式图,帮助找到早期原始的设计灵感。例如可以输入趋势热词;也可以以文生图、以图生款;或者上传多张图片、实现款式融合;当然也支持二次的款式编辑和重建。整体希望打造帮助设计师寻找灵感或优化设计的全局性工具。

  这一方面,普通图片生成工具很难支持细节设计。Style3D则开发了细节设计功能,包括工艺、元素、风格、色彩等维度,让设计师利用AIGC去实现服装细节的设计。

  在服装行业,以往版型设计由专业版师去实现。今天利用AIGC,输入一张写实的图片、设计草图甚至文字,都支持生成相应的版型。

  实际上要做到这一点挑战很大,因为版型需要与真实制造相连,且包含了非常多的信息,如版片形状、版片间的缝合关系与工艺、版片与人体的位置关系、版片面料类型、生产工艺乃至辅料信息(纽扣、拉链等)。这要求我们有大量的结构化数据和对服装制造本身的理解做支撑。

  从2.5D到3D,我们主要依赖图形学的仿真模拟技术,目前AI方面的尝试主要针对3D人体姿态的生成。

  以往从3D到2D视觉效果,主要通过图形学的渲染实现,带来一个有待提升的问题就是不够逼真。对于模特上身图来说,如果人不够逼真,那么效果就会大打折扣;有了AIGC技术之后,可以生成更加真实的模特形象。此外,我们开发的工具还支持人脸生成,可根据客户需求定制不同的脸型、发型、年龄、肤色等。

  对于电商或服装品牌来说,利用AI也可以快速生成模特上身效果图片,极大提升效率、节省成本。

  过往关于服装在特定场景中(如秀场、实体店等)的呈现,我们需要依赖收集的大量场景照片,但这是有限的;利用AIGC可以生成大量场景,结合模特展示会带来更好的效果图。

  从上述环节看,我们坚信AIGC将更好辅助设计师、版师等服装行业人士,激发创意、提高效率。过程中,我们也就遇到的现实问题不断探索和思考。

  服装行业最大的问题在于,过去我们拥有的数据可能是非结构化、残缺的,不满足多模态的需求。所谓多模态,数据要包含文字、图像、线D模型。此外对于中文语言环境而言,中文和行业术语有多义性,需要做到统一。

  博亚体育

  除了依赖过往积累的行业数据,我们也正积极挖掘更多的数据,也有大量的人力精力花在数据积累上。我个人认为数据是AIGC落地最大的难点之一。

  模型方面,需要解决稳定性、可控性和安全性的问题。除了期待AIGC的模型不断优化,也依赖数据质量实现更强的可控性和更高的安全性。除了依赖人工标注,Style3D也开发了一些自动化工具进行数据清洗,帮助实现安全性。

  对于AI模型来说,还有很关键的一点是如何定义评估函数。对于服装行业,一方面很难去量化评价设计的究竟好不好;其次很难标准化,因为设计有较强的主观性。Style3D自身有一支专业的设计师团队,我们也在探索如何定义评估指标,最终开发一个合理的、符合落地需求的评估模型。

  Midjourney的创始人David Holz曾在接受科技媒体The Verge专访时提到,AI正不断产生新的美学,几乎就像“审美加速主义”,“但它们不是人工智能美学,而是新的、有趣的人类美学,我认为它们会溢出到真实世界”。

  而Style3D的探索,正是将AI技术与产业需求结合,推动人工智能助力真实的服装和时尚行业,加速创造力和生产力变革。

搜索