过去几年间,商界一直深陷AI竞赛之中。每家企业都在努力加快步伐、加大投入,以跟上科技巨头的步伐。
但速度并非唯一的挑战。我们已到了这样一个阶段:资本投入的速度超过了组织内部的信心。
Collibra与The Harris Poll合作开展的一项最新调查揭示了企业人工智能领域存在的明显矛盾:84%的技术决策者表示,为保持与科技巨头的竞争力,今年必须增加人工智能投入;然而,88%的人承认其组织尚未充分发挥人工智能的潜力。
投入增加,信心却在下降。
这就是所谓的“AI信任鸿沟”——部署AI的意愿与其输出结果的可靠性之间存在根本性的脱节。这不仅仅是董事会层面的问题。YouGov的数据表明,尽管目前超过三分之一的美国人每周都会使用AI,但仅有5%的人表示对AI非常有信心。我们正生活在一个使用AI却尚未信任AI的世界,仅靠增加投入无法解决这一问题。
表现源于管控
AI系统已经能够快速、大规模地生成洞察、建议和决策。问题不在于能力,而在于管控。
我们的研究清楚地表明了这一点。89%的领导者表示,除非底层数据值得信赖且经过验证,否则他们无法完全信任AI洞察。
如果支撑AI的数据不完整、未经验证或脱离业务背景,其输出结果便不可靠。而当输出结果无法被信任时,就必须进行核查。这种管控力不会自动出现,而是源于治理机制。
治理机制界定了AI系统运行的数据、背景和边界,确保输出结果准确、安全且符合业务目标。若缺乏治理,AI并非在扩大决策规模,而是在扩大不确定性。
“人机协同”:任务可移交,责任不可推诿
这种信任缺失会带来直接成本。
根据我们的研究,超过半数(55%)的决策者表示,他们有时需要纠正或推翻AI生成的结果。这并非什么小事,而是高管们将本应用于战略规划的时间,耗费在了质量控制上。
这也凸显了在关于AI与就业的争论中常被忽略的一个区别:任务与工作的区别。AI可以承担重复性强、数据密集型的任务,但无法承担责任。公众早已明白这一点。68%的美国人表示,在未先审查每项行动的情况下,他们绝不会信任AI系统代表自己行事。
当高管利用AI生成一份复杂报告时,这项技术处理的只是曾经需要人工承担的繁重任务。但如果该高管仍需逐行检查错误和幻觉,那么责任的重担并未转移。机器完成了劳动,而工作依然由人来承担。弥合AI信任鸿沟意味着要打破这种循环,让领导者不再监督产出,而是回归到真正重要的决策中。
2026年的新警示信号
人工智能信任缺口也在重新定义“胜任力”的内涵。我们的研究发现,64%的决策者已将候选人对人工智能工具的不熟悉视为一个警讯。但熟悉度正迅速成为基本门槛。
随着2026年的深入,真正的警示信号将出现在那些无法区分“看似正确”与“真正正确”的输出结果的领导者身上。懂得如何向模型发出指令是一回事,而理解其背后的数据是否可靠、受管控且经过验证则是另一回事。这种区分正是AI素养的发展方向,那些未能将这一能力融入企业文化的组织,将难以评估风险或实现其所投资系统的价值。
弥合信任鸿沟
实现AI投资回报的道路并非始于更大的预算,而是始于掌控。我们研究结果清晰表明:缺乏信任的投资只会带来代价高昂的不确定性。而信任并非与生俱来,必须将其融入AI系统的运行机制之中。 2026年能够脱颖而出的企业,将是那些将AI雄心与可信数据、强有力的治理机制以及评估AI产出能力相结合的企业。
届时,信任鸿沟将得以弥合。AI系统将不再停滞不前,而是开始展现真正的性能。届时,AI也将真正成为一种竞争优势。
作者Felix Van de Maele是Collibra的创始人兼首席执行官。