2月20日,微软向《麻省理工科技评论》分享一份“如何证明网络内容真实性”的技术蓝图,旨在应对AI造假与Deepfake深度伪造问题。
微软内部AI安全研究团队评估现有数字篡改鉴别方法后,提出一套可供AI公司与社交媒体平台采用的组合式溯源标准。该标准参照艺术品鉴伪逻辑搭建,通过记录内容流转链路、添加机器可读隐水印、生成专属数字签名等多维度手段交叉验证。该团队累计评估60种溯源手法,模拟元数据删除、内容篡改等现实场景,筛选出稳定性较强的组合方案。
微软首席科学官Eric Horvitz表示,这项研究部分受到加州立法推动,“你可以把它理解为自我监督。但我们也想借此提升公司形象,让那些注重真相的人增加好感”。不过Horvitz并未承诺微软将在自家平台全面落地该方案,同时明确这套工具存在局限性,仅能鉴别内容是否被篡改,无法直接判定内容本身是否真实。
加州大学伯克利分校数字取证专家Hany Farid认为,若科技行业采用该方案,将大幅提升恶意主体误导公众的难度。“不过这并不能100%消除谣言,确实有那种无论你怎么说都只相信自己的人。但我相信,绝大多数人仍希望知道真相。”
当前科技行业针对AI造假的应对力度仍显不足,去年一项审计数据显示,IG、领英、Pinterest、TK和YouTube等平台仅30%的AI生成内容被正确标注。Farid指出,部分平台缺乏行动动力的核心原因在于担心“AI生成”标签影响流量表现。
市场有风险,投资需谨慎。本文为AI基于第三方数据生成,仅供参考,不构成个人投资建议。
来源:市场资讯