阿里巴巴发布图像生成与编辑统一模型Wan2.7-Image

AI资讯 4小时前 硕雀
2 0

阿里巴巴于2026年4月1日正式发布了图像生成与编辑统一模型Wan2.7-Image。该模型是阿里巴巴在图像生成(Text-to-Image)和图像编辑(Image Editing)领域的最新技术成果,旨在解决当前AI生图中普遍存在的审美疲劳、色彩失控等痛点,并实现从“生成”到“编辑”的全链路统一能力。

以下是对Wan2.7-Image发布的详细介绍:

1. 核心技术突破与核心能力

Wan2.7-Image相较于前代模型,实现了生成粒度的微观层级下钻,并具备了多项关键技术突破:

  • 全链路统一模型:不仅支持从文本到图像的“文生图”,还支持“图生组图”(从图像生成新图像)、“图像指令编辑”(对现有图像进行细微修改)以及交互式编辑(基于用户反馈迭代修改)。
  • “骨相”与“皮相”的微观控制:模型能够理解并操控图像的底层结构(骨骼结构)和表层特征(皮肤、颜色)。用户可以通过简单的提示词Prompt)实现从“骨骼结构”到“五官细微处”的全方位定制,例如精准控制人物的脸型(鹅蛋脸、圆脸、方脸)和眼眸深浅。
  • 精准色彩控制:针对色彩失控的问题,Wan2.7-Image实现了对色彩的精准调控,能够生成色彩更自然、真实感更强的图像。
  • 超长文本渲染能力:解决了之前模型在处理长文本描述时出现的上下文脱节问题,能够准确渲染长段文本中的复杂细节。

2. 关键特性

Wan2.7-Image在多个维度上提升了图像生成与编辑的质量:

  • 更具“活人感”的人物生成:模型在生成真实感人物方面有显著提升,能够更好地捕捉人物的细腻表情和自然姿态,避免生成僵硬或失真的人脸。
  • 写实摄影风格:支持高质量的写实摄影风格生成,例如支持特定的镜头焦距(如35mm镜头)、景深效果和自然光线渲染。
  • 图像指令编辑:用户可以对生成的图像进行指令式的修改,例如改变图像的背景颜色、调整人物的服装或姿势,而无需重新生成整个图像。
  • 交互式编辑:支持基于用户反馈的交互式迭代,用户可以逐步微调图像细节,直到达到满意的效果。

3. 适用场景

Wan2.7-Image的发布主要面向以下场景:

  • 内容创作:为短视频、直播带货、图文创作等提供高质量的图像素材和创意灵感。
  • 企业与广告:帮助企业快速生成符合品牌调性的宣传图和广告素材。
  • 电商:支持商品图片的高质量渲染和编辑,例如改变商品颜色或场景。
  • 教育与科研:用于科普图解、教学素材的生成和可视化。

4. 未来展望

Wan2.7-Image的发布标志着阿里巴巴在图像生成与编辑技术上的一次重要升级。通过解决审美疲劳和色彩失控的问题,并引入全链路统一模型,Wan2.7-Image不仅提升了生成质量,还极大地扩展了AI图像技术在实际业务场景中的应用深度。

来源:www.aiug.cn
声明:文章均为AI生成,请谨慎辨别信息的真伪和可靠性!