专题:2025可持续全球领导者大会&首届绿色产业与可持续消费博览会
炒股就看金麒麟分析师研报,权威 ,专业,及时,全面,助您挖掘潜力主题机会!
2025可持续全球领导者大会于10月16日-18日在上海市黄浦区世博园区召开。
《AI智能体的崛起》作者 ,牛津大学计算机科学系专业硕士课程导师,艾伦·图灵研究所研究员佩塔尔·拉达尼列夫(PetarRadanliev)出席2025可持续全球领导者大会并主旨演讲 。
“AI既能成为缩小全球数字鸿沟的桥梁——让非洲地区获取顶尖知识,也可能因技术垄断加剧不平等 ,而决定其走向的,在于能否建立全球统一的AI治理标准。 ”在演讲中,佩塔尔・拉丹利耶夫将AI治理与全球发展公平性结合 ,提出了极具现实意义的观点。
拉丹利耶夫认为,AI的技术特性赋予了它平衡全球发展的潜力。一方面,AI可整合全世界教授的知识 ,通过技术手段输送到非洲等发展中地区,让资源匮乏地区获得平等的学习与发展机会;另一方面,若富裕国家垄断AI技术 ,限制贫穷国家的访问权限,将进一步拉大数字鸿沟 。这种矛盾的背后,是当前全球AI治理缺乏共识的现状——地缘政治竞争加剧,“谁控制AI ,谁就控制世界”的认知导致技术路线分化,阻碍了统一标准的建立。
他提出,要打破这一僵局 ,需先聚焦“易达成共识的领域”,而“透明度”与“安全性 ”正是关键切入点。例如,建立“AI物料清单” ,像列明厨房食材一样明确AI的数据元素与来源,既能保障技术透明,也能让各国在数据安全上找到合作基础;同时 ,借鉴2012年“上海共识”的成功经验,推动各国在AI安全防护 、漏洞检测等领域协同发力,逐步构建全球治理框架 。
拉丹利耶夫特别强调 ,人类需在AI发展中保持主导权。他以“女士杀死机器人 ”的象征图像为例,指出AI需要“安全阀”,通过人类参与监督、建立偏见消除机制,避免技术失控。他在其著作《AI智能体的崛起》中详细阐述了这些理念 ,同时呼吁全球企业、国家摒弃“技术垄断”思维,以合作代替对抗——只有让AI成为全人类的共同工具,才能真正发挥其缩小数字鸿沟、推动全球可持续发展的价值 。
2025可持续全球领导者大会由世界绿色设计组织(WGDO)与新浪集团联合主办 ,国际财务报告准则基金会(IFRSFoundation)北京办公室协办,新浪财经与世界绿色设计组织北京代表处承办,上海市黄浦区人民政府支持。大会以“携手应对挑战:全球行动 、创新与可持续增长 ”为核心主题 ,汇聚全球智慧力量,共探可持续发展新路径,为全球可持续治理注入澎湃的“中国动能”。
本届可持续大会在以往四届“ESG全球领导者大会”的基础上进一步升级!嘉宾阵容强大 ,可持续大会组委会邀请约500位中外重磅嘉宾,其中约100位为海外嘉宾,不仅有政要、前政要、国际组织的代表 ,还包括了诺贝尔奖得主 、图灵奖得主、全球500强企业负责人等国际顶尖学者与业界领军代表 。本届大会将围绕近50个议题展开深入研讨,议题涵盖能源与“双碳 ”、绿色金融 、可持续消费、科技与公益等细分领域。
以下是发言全文
佩塔尔·拉丹利耶夫:我们听到了非常有意思的一些话题,还有一些很重要的演讲。我今天演讲的话题是技术的本质 。我会讲到AI最大的问题是什么?我也会给大家提出相应的解决方案。
我将用不那么技术的词来解释人工智能,到底问题是什么?在2017年 ,我们有整体的架构,2018年第一次GPT模型横空出世。在一个线上的数据库当中就有1600多个模型,每个人都可以把这些模型使用起来 ,达到不同的目的。我们无法让这些模型四处乱走,更重要的是AI的治理和安全 。我们需要有更好的治理和管理,如果你不用AI的话 ,你的公司也会受损,你的国家也会有负面经济的发展。如果它没有这么大的说服力的话,讲一个例子。
提到科学 ,新药研发也是基于AI的方法,我们觉得我们可以解决这些问题,解决癌症的问题 ,如果用AI能解决一个疾病,绝大部分人会同意持续地使用AI,还有经济发展、社会的推进的例子 。比如在伦敦出租车驾驶员两三年前会说不可能有AI替代我,但是可以发现现在很多自动驾驶已经开得像人一样好了 ,虽然对于出租车司机来说不是很好,我过去10~15年在牛津任教,在那里做讲师。从剑桥 、帝国理工这些都是世界上最顶尖的学府。我学的所有东西都不比AI做的东西 ,AI可以比一个更好的、最好的老师得到的知识更好 。老师也要适应到底如何在AI时代适应,不适应就会消亡。适应的过程中,很多青年人有各种各样的黑客技术 ,16岁的年轻人可能会到暗网,比如有假的GPT或者诈骗GPT,可能会有更高的成功率。实际上有很多暗黑的事件因此而猖獗 ,想象一下生成式的AI系统可能有一千多个不同的机构,比如365机构可能会给你带来各种各样的错误,可能会带来系统性的崩溃 ,这就是AI幻觉带来的问题,我们要去治理和管理AI 。
很多公司部想治理,因为关于发展和开发,更容易开发AI ,而不要执行现在的安全。我们要在一开始就去执行,我们到底如何说服公司采用安全唯一的方法,这里讲到信任。现在的客户不信任我们的模型 ,因此我们会丧失这个业务 。
关于AI下一个阶段是什么?现在很多公司都在用这个模型,这个芯片也是在微软开发的,是完全基于AI的模型。现在的AI和以后的AI有什么差距?现在的AI仅仅是一个操作系统当中的功能 ,还要自己操作,以后的AI就完全变成了一个操作系统。现在的特色和以后的特色有什么区别?看一下这三个重点:提升实时地处理、提升范围 、提升安全性和隐私性。这就是我们的云系统,我们无法无线地扩张或者无线地时间处理 。主要的趋势是希望有一个新的AI ,以及整体的机器模型等等。很多都是基于我们直接的逻辑,像《星战》这样的电影,我们现在把这两个进行结合 ,带来更好的AI。
另外,我们期待量子AI,量子计算机在中国有,在全球都有 ,在伦敦也有,它非常强大 。我们无法带来一些量化的改进和问题的解决,如果扩展到5~15年的时间 ,我们会有量子计算机,它会在哪里?它不会再你的笔记本和手机当中,它会基于整体的大数据处理中心 ,所有数据处理的中心都在云上了。我们现在把所谓的中心化架构越来越多地变成中心化的系统。
关于安全性还有一个问题,如果有一个故障就会全部故障 。从红队和蓝队来看,在红队会用模型进行博弈。我们也在开发一些不同的黑客技术 ,看一下他们到底怎么操作。我们找到了漏洞,打补丁,这就是我们现在做的方式 ,以后不会有这样的选项了,我们要变成一个预测和管理、修复,一旦你知道AI的逻辑,如果逻辑错了 ,你要重新训练模型 。蓝队就是这些建房子的人,红队这些小偷不会从主门进来,因为他们知道整体的安全系统在哪里 ,他们会在幕后找漏洞,这不是红队的考虑点,到底它会变成什么?实际上入侵者不从大门进来 ,它已经躲着了,如果他们入侵了,我们要重建我们的城堡。
现在十个最关键的人工智能和人工智能系统的威胁 ,很多人已经看到这些威胁了,比如数据重度、系统性问题等等,最大的问题就是最后一个问题 ,现在的睡眠智能体,比如它会影响到实时的处理、RDI等等,有些人会把睡眠智能体植入进去,这并不是第一次 ,现在有非常高的系统。这个睡眠智能体前五年可能你非常满意,一切都如常运转,但是后面十年会植入到你的GPS中 ,医院当中,在接下来15年中一切都基于你的智能体,你的安全也依赖于整个系统 。这个智能体多年都不会检测到 ,我们已经开始对红队进行测试了,如果检测到这些恶意的睡眠智能体,我们就会对它进行清除。
这里还讲到Transformer的情况。AI能够生成这种睡眠智能体 ,会导致一些出错,但它并不由任何人实施的,它的出生AI不能检测到 ,甚至AI都不知道自己做了错的事情,AI自己也不会做任何改变,所以很难检测到,这并不是由外部的恶意行动者所植入的 ,我们该怎么做监管?一般情况下,我们会有一些AI的防护栅栏,就像公路旁边会有路障和栅栏一样。这个栅栏就是防止司机开过去翻车 ,人工智能领域也是如此 。
比如在医疗健康或其他领域都有这样的防护栅栏,我们必须要建立透明度,要有一个偏见的消除功能 ,同时让人类参与整个过程中。人类无法检测,得需要AI检测这些漏洞,但是我们依旧让人参与其中。一旦你找到了问题的解决方案 ,比如系统性胁迫的解决方案,大部分的国家就会同意,这是我们要去解决的问题 。
另外一个能达成共识的地方是 ,AI材料。比如2012年的上海共识就非常成功,AI的物料清单也是非常容易的,我们需要了解到AI的原始物料是哪里,我们要知道AI当中包含了哪些东西 ,比如厨房中放了什么食材,AI也需要这样的物料清单。软件领域的物料清单已经在事实了,AI领域的物料清单也是相同的 ,我们需要知道它的数据元素是什么,这是一个良好的起始点,这是一个非常透明的方法论 ,它可以告诉你该怎么做,它并不会告诉你如何做,不会一步步教你怎么做 。
最关键的问题是 ,我们要问自己一个问题,AI究竟会缩短还是会增加数字鸿沟?也许你能够获得全世界教授的知识,也许你可以把这些知识销售到非洲 ,这可能会减少数字鸿沟,但如果你把AI局限在富有的国家,也不让贫穷国家访问AI,这就会加大数据鸿沟。我们该如何建立起全球的技术标准 ,我们能否建立这样的标准?地缘政治竞争冲突已经在加剧了,而且常识告诉我们,谁能够控制AI ,就能控制世界,现在模型也在朝两个方向分化,我们现在必须聚焦于我们能达成共识的领域 ,有些领域是很容易达成共识的,这就是治理。
我们要去保障网络的安全性,我们需要从设计之初就考虑安全 ,我们要了解接下来大规模的软件是什么,比如微信 、支付宝,他们已经成功实施了 ,下一个大的APP是什么?我们要从第一天开始思考安全性,而不是建立起APP之后再重新考虑 。
总结部分,我想强调,希腊人当时发现了造币技术 ,他们怎么做的?他们把人工智能放在其中,他们认为人们在很早的时候就发现了人工智能,我们究竟该用AI做什么呢?计算机之前我们都知道该如何建造AI ,这张照片是非常重要的,如PPT所示有一位女士正在杀死机器人,如果我们有这样的安全阀 ,就不会滥用人工智能。最后一个图片是《古兰经》当中的AI最早期的图像。
达芬奇也想把人工智能和人类的生理极限联系在一起;中间的图片是皮格马利翁和他的战争对手,当时他们建立起了雕像 。最后一个是AI的电影演员,经纪公司都想和他签约。他可以打电话他在哪里堵车 ,这究竟是AI还是真人呢?我刚才提到很多技术细节,我最近有一些书《AI智能体的崛起》,它是由中信集团出版 ,很多细节都在这本书当中,以上就是我的演讲内容,谢谢!
新浪声明:此消息系转载自新浪合作媒体,新浪网登载此文出于传递更多信息之目的 ,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担 。 海量资讯、精准解读 ,尽在新浪财经APP责任编辑:常福强