深圳新闻网2025年11月11日讯(深圳特区报记者 曹欣)近日,南山企业深圳兔展智能科技有限公司与北京大学UniWorld团队联合发布新一代图像编辑模型UniWorld-V2。根据公开评测报告,该模型在GEdit-Bench和ImgEdit等权威测试基准中的综合得分已超越OpenAI的GPT-Image-1等国际顶尖闭源模型,尤其在中文指令理解与精细化编辑任务中展现出显著优势。
UniWorld-V2的核心突破在于其创新提出的UniWorld-R1训练框架。该框架首次将强化学习策略优化应用于统一架构的图像编辑模型,通过多模态大语言模型作为奖励机制,提升了模型与人类意图的对齐能力。
值得注意的是,在AI领域,最顶尖的性能往往被锁在闭源的“黑箱”里(如OpenAI、Google的模型)。UniWorld-V2不仅实现了在多项权威基准测试关键性能指标上对顶级闭源模型的超越,同时保持完全开源。据悉,兔展与北大团队于今年5月开源了采用统一理解与生成架构的视觉模型UniWorld-V1,其技术路径的公开,早于谷歌8月发布的同类知名模型Nano Banana约三个月。有观察人士认为,此次突破因其架构的根本性创新,有望成为视觉领域的“GPT时刻”,为该领域的发展打开全新局面。
目前,该技术已在产业端快速落地。据悉,UniWorld-V2已服务超过50家行业龙头客户,尤其在跨境电商领域,其能精准保持商品材质、光影与结构细节的特性,为“中国制造”产品走向全球市场提供了强大的内容生成工具。
编辑:刘晓宇