6月26日至27日,全球最大的Web3安全公司CertiK亮相伊斯坦布尔区块链周(IBW2025),首席商务官JasonJiang出席两场圆桌论坛,分享了CertiK在AI与Web3融合领域的前沿观察与安全见解。他与普华永道土耳其网络安全服务主管NurettinErginoz、Bitlaye
6月26日至27日,全球最大的Web3安全公司CertiK亮相伊斯坦布尔区块链周(IBW 2025),首席商务官Jason Jiang出席两场圆桌论坛,分享了CertiK在AI与Web3融合领域的前沿观察与安全见解。他与普华永道土耳其网络安全服务主管Nurettin Erginoz、Bitlayer联合创始人Charlie Hu等专家同台,共同探讨了AI技术在DeFi中的应用现状与安全挑战。
论坛上,Jason Jiang指出,随着大语言模型(LLM)和AI代理的快速发展,一个全新的金融范式——DeFAI(去中心化人工智能金融)正逐步成型。然而,这一变革也带来了全新的攻击面和安全隐患。
“DeFAI拥有广阔的前景,但也让我们必须重新审视去中心化系统中的信任机制,”Jason Jiang表示:“与基于固定逻辑的智能合约不同,AI代理的决策过程受上下文、时间,甚至历史交互影响。这种不可预测性不仅加剧了风险,也为攻击者创造了可乘之机。”
“AI代理”本质上是能够基于AI逻辑进行自主决策和执行的智能体,通常由用户、协议或DAO授权运行。其中,最典型代表是AI交易机器人。当前大多数AI代理运行在Web2架构之上,依赖中心化服务器和API,这使其容易受到注入攻击、模型操控或数据篡改等威胁。一旦被劫持,不仅可能导致资金损失,更可能影响整个协议的稳定性。
在分享具体攻击案例时,Jason Jiang描述了一个典型情境:当一名DeFi用户运行的AI交易代理正在监测社交媒体消息作为交易信号时,攻击者发布虚假警报,例如“协议X遭受攻击”,就可能诱使该代理立即启动紧急清仓。这种操作不仅会导致用户资产损失,还会引发市场波动,进而被攻击者通过抢先交易(Front Running)加以利用。
Jason Jiang认为,AI代理的安全不应由某一方单独承担,而是用户、开发者与第三方安全机构的共同责任。
首先,用户需要清楚代理所拥有的权限范围,谨慎地授予权限,还要注意审查AI代理的高风险操作。其次,开发者则应在设计阶段就实施防御措施,例如:提示词加固、沙盒隔离、速率限制和回退逻辑等机制。而像CertiK这样的第三方安全公司,则应为AI代理的模型行为、基础设施、以及链上集成方式提供独立审查,并与开发人员和用户合作,识别风险并提出缓解措施。
Jason Jiang警示道:“若继续把AI代理当作‘黑箱’,现实世界中发生安全事故只是时间问题。”
对于正在探索DeFAI方向的开发者,Jason Jiang的建议是:“与智能合约相同,AI代理的行为逻辑同样由代码实现。既然是代码,就有被攻击的可能,因此需要进行专业的安全审计和渗透测试。”
如果觉得我的文章对您有用,请随意打赏。你的支持将鼓励我继续创作!