养“龙虾”安全吗?对话吴世忠:防止AI智能体滥用代理权限
创始人
2026-03-11 08:08:29
0

最近,“养龙虾”成为AI圈新宠。基于一款以红色龙虾为图标的开源软件OpenClaw,很多人开始让AI智能体接管电脑、自动干活。

年初,这股“龙虾”热潮刚在硅谷兴起时,全国政协委员、中国工程院院士吴世忠就密切关注其动向。他发现,AI“龙虾”火爆后,催生了一个AI智能体社区Moltbook:人类在这里无法发言跟帖,只能围观AI讨论哲学、吐槽人类、创立宗教……

更科幻的一幕是,在海外一个名为“rentahuman.ai”的网站上,AI智能体成为雇主,雇佣人类完成物理世界的任务。目前已有超过30万名人类“出租者”,愿意为AI打工。

全国政协委员、中国工程院院士吴世忠。(受访者供图)

从“动口”到“动手”,再到雇佣人类,AI技术的更新速度让人惊叹。谈论AI,许多目光落在技术突破、产品创新上,而吴世忠更关注那些被热闹遮蔽的隐患——因为“风险往往从不起眼的地方开始。”

在吴世忠看来,自主性智能体带来的最大风险,正是其过高的“系统代理权”,因此在设计和使用AI智能体时,必须严格控制其权限,确保AI的操作范围与人工监督保持一致。

对于已率先尝鲜的“养虾人”,吴世忠也给出具体建议。他提醒广大用户在“养龙虾”的热潮中不能忘了绷紧安全这根弦,建议将“龙虾”养在一个独立的智能终端上,做好物理隔绝,并坚持最小授权原则,特别是对涉及删改的操作,必须设置人工二次确认。

减少数据泄露风险,警惕AI智能体滥用访问权限

南都:2026年年初,OpenClaw爆火,掀起了一股“养龙虾”热潮,还催生AI智能体社区Moltbook。如何看待这一现象?

吴世忠:回顾近几年AI的发展,从“能说会道”的ChatGPT,到“能跑会跳”的机器人,再到“能想会做”的智能体,AI的技术创新和迭代真是日新月异。

近期爆火的OpenClaw相当于个人数字助手,能自主调用各种工具帮助用户处理日常事务,Moltbook则是专属智能体的社交平台——AI在这上面聊天发帖,甚至创造了宗教,而人类只能作为观察围观。最近,硅谷还有一个名为“rentahuman.ai”的网站更为颠覆,它能雇佣人类在物理世界干活。

这些产品的火爆说明,AI已经实现了从工具化对话向社会化协作的跨越,被赋予了环境感知、调用工具和自主决策等能力,正在构建一个跨越数字和物理边界的新型生态,而这将对市场秩序、社会信任机制、法律和伦理道德产生深刻冲击。

南都:OpenClaw火热出圈,率先引发争论的是数据与隐私安全。当AI智能体会接触到大量的个人数据,这会导致数据安全风险吗?

吴世忠:AI智能体不仅能够帮助人类处理个人的日常事务,例如管理电子邮件、日程安排、文件操作等,还能够通过与各种API进行交互来完成多项任务。这种高度自主的能力,同时也会带来数据泄露的潜在风险。

首先,AI智能体需要接入用户的私人数据,如邮件内容、日历安排、文件存储等。这些数据往往涉及到个人隐私、敏感信息或商业机密;因此,一旦AI智能体的安全能力不足或者受到威胁,攻击者可能通过控制智能体获取用户的私人数据,进而窃取敏感信息,导致用户数据泄露。

其次,AI智能体在执行任务时,往往需要与各种外部服务进行交互,这会增加数据在网络上传输的风险。特别是,当智能体被设计成与多个API进行连接时,数据传输过程中可能暴露给未经授权的第三方,如果这些API存在漏洞或未采取充分的加密措施,用户的敏感数据可能在不知情的情况下被泄露。

此外,AI智能体的自主决策能力也带来了新的问题。如果智能体在处理任务时没有严格的权限控制和数据隔离,就可能会错误地访问和操作不该处理的数据。例如,错误配置的AI智能体可能不小心读取到不该查看的内部文件、财务记录等,从而导致泄露或滥用。

因此,如何确保AI智能体的安全,防止其滥用访问权限,已经成为一个非常重要的问题。必须确保智能体的权限控制、数据加密和访问管理机制落实到位,才能减少数据泄露的风险。

南都:现在越来越多人开始“养龙虾”,对于“养虾人”,有什么安全建议?

吴世忠:俗话说能力越大,风险越大,特别是在各种“养虾”应用蓬勃兴起的时候,我们不能没有防备。

对个人用户,我有四条建议:一是做好物理隔离,绝不真身出镜,将“龙虾”养在一个独立的智能终端上,即便被黑客控制,也不会波及日常生活或工作电脑。二是坚持最小授权,只给读取特定文件夹的权限,开启命令审核模式,对涉及删改的操作,必须设置人工二次确认。三是做好凭证和更新管理,主要是版本及时升级,打好漏洞补丁,不能把API密钥写在配置文件里。四是谨慎下载技能包,在安装任何第三方技能包之前,请务必对其安全性有所了解,对诸如对用户根目录的访问权限,尤其要高度警觉。

“养龙虾”热潮中不能忘了绷紧安全这根弦

南都:有观点认为,自主性智能体带来的最大风险,在于其赋予了AI过高的“系统代理权”。你怎么看?

吴世忠:确实,自主性智能体带来的最大风险,正是其过高的“系统代理权”。在许多情况下,AI不仅需要执行某些任务,还需要对系统进行管理和控制,因而需要拥有较高的权限;但这种赋权方式,给现有的安全防护体系带来的冲击无疑是巨大的。

南都:这种冲击,具体表现在什么方面?

吴世忠:我认为,首先,权限滥用的风险大大增加。传统的安全防护体系通常依赖于对特定行为和操作的限制,例如,限制用户权限,防止其进行非法操作。然而,当AI智能体拥有过高的系统代理权时,它可能会自行执行某些操作,甚至改变系统配置或执行对安全有害的行为。例如,AI可以在没有人工干预的情况下,删除敏感文件、修改系统设置,或执行未经授权的命令。

其次,系统的不可预测性也会增加。当AI拥有过高的权限时,其自主决策的过程可能不透明,导致系统行为的不可预测性。这会增加安全漏洞的风险,因为攻击者可能通过恶意利用AI系统的漏洞来间接获得更高的权限,进而绕过现有的安全防护。

再者,系统责任难以追溯。当AI系统执行某些任务时,它的决策过程往往不容易被追踪和审计。一旦出现安全问题,例如数据泄露或系统被篡改,责任追溯变得非常困难。传统的安全防御通常依赖于清晰的责任划分,而AI系统的高自主性打破了这一模式,使得安全事件的调查变得更加复杂。

南都:为防范AI智能体带来的安全挑战,你认为应解决哪些迫切的问题?

吴世忠:我认为,有两方面的问题需要高度重视。一方面是应用安全,广大用户在“养龙虾”的热潮中不能忘了绷紧安全这根弦,无论是让它作事务代办,还是做智能管家,抑或是服务企业级流程自动化,都要警惕智能化高效率服务下的安全隐患。

另一方面就是供应侧,必须在设计AI智能体时,严格控制其权限,确保AI的操作范围与人工监督保持一致。从目前技术发展看,如何加强对AI决策过程的监控,确保其行为的透明、可解释和可追溯,是国内外AI安全研究和应用中的关键难题。

还有更为重要的一点,那就是监管问题,这也是国内外共同面临的治理难题。

南都:针对AI智能体带来的治理难题,具体可以从哪些方向破题?

吴世忠:我觉得建立AI智能体身份识别与责任追溯体系,非常有必要。未来,我们可能需要给每一个AI智能体颁发身份ID,参照车辆管理模式,对大型商用智能体做备案管理,以确保出了事故可追溯可追责。

还可探索构建针对AI智能体的沙盒监管机制,在特定行业或领域先划出可控的试验区,逐步确立相应规范。在技术层面,可以“用AI对抗AI”——比如开发监管型智能体,自动识别、阻断恶意智能体的协同行为。

提升公众AI素养也很重要。包括媒体在内的机构应当多开展科普宣传,普及有关AI智能体的常识,让大家知晓如何更好地使用工具,并了解相关的安全风险。

南都:对于AI智能体的发展,如何既让创新能跑起来,安全也得到保障?

吴世忠:我认为,不能把AI智能体看成简单的技术炒作。AI智能体生态的形成,一定会极大解放我们的生产力,而且会重新定义我们的社会规则。国家治理应该紧跟技术发展,以制度创新来对冲技术失控的风险。

同时,要保障AI智能体的发展始终在法治和伦理的框架之内。可以让“子弹飞一会儿”,允许产业界在局部范围试一试。监管层面,建议总体采用积极防御、包容审慎、敏捷治理的策略,同时产业界也需要协同应对技术创新带来的挑战。

AI时代,传统安全攻防思路要更新

南都:去年底,某短视频平台突发大规模内容安全事件,大量直播间在短时间内被黑灰产以自动化手段攻陷,色情违规内容持续扩散超一小时。当AI用于黑灰产攻击,为什么会让平台难以招架?

吴世忠:这场“惊魂90分钟”短视频安全事件,是一次典型的黑灰产攻击案例,更是一次现实的信息安全警钟。其中AI技术的运用使得攻击手段更加高效、隐蔽且难以防范。黑灰产借助AI,能够快速进行自动化攻击,并能巧妙绕过平台的内容审核与管理机制,确实让平台难以招架。

具体而言,AI具备自我学习和自我优化的能力,这意味着攻击者可以基于已有的攻击经验,快速调整和优化攻击方式。当攻击者使用AI时,可以模拟大量虚假用户账号行为,通过自动化方式发起攻击,导致短视频平台的内容安全防线很难及时发现和响应。

其次,AI可以高效地生成和传播违规内容。传统的违规内容监测通常依赖人工审核或基于规则的技术判断,AI则可以自动生成海量的、极难被现有算法识别的违规内容。例如,攻击者利用生成对抗网络等技术,可以快速生成具有极强伪装性的色情、暴力等内容,这些内容极难被传统的文本识别、图像识别技术及时发现。攻击者还可以利用AI不断调整策略,平台的传统审核机制无法及时有效地应对。

此外,AI可以大规模地执行攻击,突破传统单一防护点,进行分布式、多维度的攻击。例如,通过生成大量虚假的直播账号或虚假互动行为,快速制造看似正常的流量,从而误导平台无法及时识别攻击模式。这种自动化、集中的攻击模式,使得平台既有安全防线的及时反应和动态调整变得十分困难。

南都:当攻击者借助AI技术扩大攻击范围、加快攻击节奏,这给传统安全防御模式带来什么挑战、暴露出现有模式的什么短板?

吴世忠:AI技术的引入使得网络攻击的方式发生了根本性变化,传统的安全防御模式面临的挑战是前所未有的。

首先,传统的安全防御系统大多依赖基于规则和特征的防御措施。例如,防火墙、入侵检测系统和防病毒软件通常依赖已知攻击特征或行为模式来识别威胁。在面对AI驱动的攻击时,往往无法及时响应。比如,AI攻击能够在瞬间改变策略,模拟大量真实用户行为,依靠原有规则根本就无法进行有效防范。

其次,攻击速度和规模的提升使得传统安全防御难以跟上。AI可以在极短的时间内发动大规模的攻击,如通过自动化工具对多个平台进行攻击,并且能够迅速调整攻击策略,令平台防御的调整和修复滞后。这使得传统防御方法的反应时间过长,无法及时发现和封堵攻击。

此外,攻击的多维性和隐蔽性也是传统防御体系难以应对的。AI可以进行复杂的社会工程学攻击、分布式攻击等,借助大数据和机器学习,攻击者可以更精准地锁定目标,进行多点、多维度的渗透攻击,突破传统单一防护点。因此,传统防御体系无法在多维度上做到全面的防护,漏洞和安全盲区在所难免。

最后,传统安全防御体系通常是以“防御边界”为核心,即防止外部攻击者进入企业网络。随着攻击者使用AI技术,攻击方式越来越分散、隐蔽,攻击行为可能在平台内部多个层面上同时发生,突破传统边界防护。因此,传统的“边界防御”思路已无法应对当前复杂多变的威胁形态。

吴世忠。

南都:你刚获评2025年度全国政协委员优秀履职奖。作为连任两届的委员,可以分享一下履职体会吗?

吴世忠:作为一名科技背景的委员,我一直在努力探索将科技工作者的严谨求实与政协委员的使命担当有机融合,网络信息安全领域的专业经验和政府职能部门的工作历练,使我更多关注科技发展与安全方面的议题。从网络安全到人工智能的安全,我希望能在推动科技创新的“硬实力”转化为国家治理的“软实力”方面,发挥自己的一技之长。

两届履职经历,让我深切体会到:对前沿技术的洞察,唯有与国家发展战略同频共振,与人民群众的需求紧密相连,与社会治理的实际需要深度契合,才能焕发真正的价值。这也是我作为政协委员最大的履职所向。

采写:南都N视频记者李玲 发自北京

相关内容

热门资讯

走心的文旅能“长红”(侠客岛·... 原标题:走心的文旅能“长红”(侠客岛·两会观察)中国文旅有多火?刚刚过去的春节假期,国内出游人次达5...
受AI及裁员等因素影响,2月美... IT之家 3 月 11 日消息,据《商业内幕》今日报道,今年 2 月,美国员工信心再次下滑,科技行业...
养“龙虾”安全吗?对话吴世忠:... 最近,“养龙虾”成为AI圈新宠。基于一款以红色龙虾为图标的开源软件OpenClaw,很多人开始让AI...
卡位AI算力布局 润泽科技中标... 观点网润泽科技中标了香港重要的数据中心项目。 近日,润泽科技下属公司中标香港沙岭数据园区一幅工业用地...
小红书公告:AI托管账号,封禁... 3月10日,@小红书薯管家 发布公告:近期,平台发现部分用户采用AI托管模式运营账号,通过技术手段自...
Meta收购AI社交网络平台M... Meta收购AI社交网络平台Moltbook。(AXIOS)
美好医疗:材料加工技术探索与A... 有投资者在互动平台向美好医疗提问:“您好,请问贵公司材料加工技术能否应用于Ai眼镜产业链,可应用于哪...
腾讯升级智能体“养虾”矩阵:基... 继3月9日腾讯版“小龙虾”(WorkBuddy)发布引发广泛关注后,3月10日,澎湃新闻记者获悉,腾...
千年岗城焕新颜,非遗如何点亮广... 春风掠过十八罗汉山,千株樱花绽放枝头,第四届南沙樱花节将于3月14日在大岗镇拉开序幕。本次活动将打破...