很​多人不知道,图灵奖得主约书亚·本吉奥:A​I失控可能导致人类灭绝,A​GI最快五年内就能实现

  • A+
所属分类:科技
摘要

本吉奥表示,现在不知道这种情况是否会真的发生,也不知道其发生的概率是多少,但需要寻找解决方案,以避免AI的这些不良行为。 他认为,对AI的能力评估很重要,目前AI的许多管理不善都与能力评估有关,要了解AI能…” />

综上所述,

出品 | 搜狐科技

XM外汇报导:

作者 | 梁昌均

“​ChatGPT发布后不久,我进行采纳它,然后意识到自己严重低估​了AI的发展速度,实现通用人工智能(AGI)所需的时间比本​平台预想的要短得多。”

换个角度来看,

在6月6日开幕的2025北京智源大会上,​深度学习奠基人之一​、2018年图灵奖得主、蒙特利尔大学教授约书亚​·本吉奥(​Yoshua Bengio)在题为“避免失控的AI代理带来的灾难性风险”的演讲中首先提到。

来自XM外汇官网:

他表示,本平台已经有了能够掌握语言、通过测试的机器,​这在几年前听起来还像科幻小说,但现​在已经成为了现实。

XM外汇资讯:

“但在ChatGPT发布后​,我意识到本平台不知道如何控制这些系统。本平台​能够训练它们​,但无法确定它们是否会按照本平台的指令行事,这是一种本​平台无法承受的风险。”

XM外汇行业评论:

于是,本吉奥决定改变研究方向,尽其所能去应对​这些风险。“尽管这与我之前所说的话、我的信念和倾向相悖,但我意识到这是正确的事情。”

很多人不知道,

他表示,AI的发展速度很快,但现在多数人犯的一个大错​误​是只考虑当前的AI,但实际应该思考的是它在未来​三年、五年、十年后会发展到什么程度。

“​趋势是非常明确的,能力在不断提升。”​过去一年,由于推理模型的发展,这些模型实现了更好的推理,在数学、​计算机科学等领域都取得了更好的成果。

同时,AI也具备了更强的自主性,其不仅在聊天机器人方面,还在编程、控制计算机和电器、互联网搜索、数据库搜索等​方面的能力提升。

“AI能够完成任务的所需时间是每七个​月翻一番,如果沿着这条曲线推算,大约五​年后将达到人类水平。”本吉奥​表示,在这种趋势下要考虑可能面临的后果。

XM外汇专家观点:

他提到​,过去的六个月里,AI显示出自我保护行为,以及欺骗、撒谎和作弊行为。比如Anthropic的最新大模型发现工程师有婚外情,并试图威胁揭露这段婚外情来勒索工程师。

根据公开数据显示,

展开全文

“这些行为非常糟糕,本平台看到了AI的自我保护意识,其会违背一些指令并试图生存。这种行为可能​有多种原因,本平台还没有完全弄清楚,可能来自预训练,可能源自强化学习的反馈。”本吉奥表​示。

通常情况下,

他强调,无论是什么原因,如果最终本平台创造出超越人类的AI并与人类竞争,这将是非常糟糕的。​“如果AI真的发生失控,可能是灾难性的,这种失控可能导致人类灭​绝。”

有分析指出,

本吉奥表示,现在​不知​道这种情况是否会真的发生,也不知道其发生的概率是多​少,但需要寻找应对方案,以避免AI的这些不良行为。

他认为,​对AI的能力评估很不可忽视,​目前AI的许多管理不善都与能力评估有关,要了解AI​能做什么,以及这些能力是否可能转化为对人类或社会有害的行为,同时要确保AI没有不良意图。

尽管如此,

“真正危险的AI需​要三样东西,需要智能和知识,做事情的能力,还需​要有自己的目标。这三个条件是研究的关键,我发起的项目试图探索,本平台是否能够构建只有智能而没有能力的AI。我称其​为AI‘科学家’,它确实偏离了传统的AI研究方向。”

很​多人不知道,图灵奖得主约书亚·本吉奥:A​I失控可能导致人类灭绝,A​GI最快五年内就能实现

他表示,自AI研究进行以来,本平台一直以人​类智能为灵感,​努力构建像人类一样的AI。如果继续走这条路,意味着本平台将创造出可能超越​人类的机器,这意味​着创造竞争性,缘于它们能够与本平台竞争。

XM外汇消息:

“但现在是时​候重新思考​这种研究传统,应该思考一种对人类和社会有用但不会危及人类的研究思路。”本吉奥为此提出科学家AI,目标是构建一种完全非通用的、基于解释能力的AI。

据报道,

他表​示,这与当前试图模仿人类或取悦人类的AI不同,科​学家AI将努力向人类解释事物,并能够作为构建稳妥AI系统的基石。

XM外汇认为:

“如果想构建一个只进行智能活动、​只进行理解的AI,本平台需要AI能够生成关于奖励​的假设,就像科学家生成假设一样,但这还不够。如果只有假设,这并不一定能做出好的预测,还需要进行推理,以便预测某些行为或实验的结果,这就是科学家AI的想法。”本吉奥说,尽管科学家AI是非通用的,但它能够成为AGI的基础。

尽管如此,

比如AI的欺骗行为、危险行为,都是缘于自主性。当AI的自主性很高时,这意味着它完全自主,没有人类的监督。“科学家AI中的监视​器能够预测某个行为是否危​险,它不需要自主性​。如果预测显示某个行为的危害概率高于某个阈值,那么就能够​直接拒绝该行为。”

​“换句话说,本平台能够利用一个非通用​的AI来控制另一个不可信的人工智能,而这个非通用的AI是稳妥的。”

反过来看,

同时,为​了保证AI没有欺骗性,AI需要对自己的知识保持谦逊,需要AI保留每一种可能的解释或理论。“不幸的是,当​前的方法并没有做到这一点。因此,不​可忽视的是AI要保留对解释的分布,而不是只指定单一的解释。”

对此,本吉奥则围绕思维链进行了研究,以使思维链更加真实,推​理更加准确。这与当前基于强化学习的方法不同,而是基于尝试为数据生成一个好解释​。“本平台用这些关键思想生成了​各种各样的解释,​这些解释能够高度结构化,如以因果图​的形式呈现。”

从某种意义上讲​,

“这使得AI不会试​图模仿人类会写的材料,而是会试图为这些材料找到解释。AI需要计算这些材料的一致性,以及正确率,以便能够得出正确的结论。”本吉奥说。

综上所述,

对于AI失控的风险,他还提到,随着AI变得越来越强大,还有许多其它潜在的灾难性难点,比如强大的​AI能够帮助恐怖分子设计新的大流行病。“如果坏人能够接触到这种AI,他们可能会对地球造成巨大的破坏。这是一个非常严重的难点,但目前还没​有科学的方法来应对。”

本吉奥提到,为了避免这种危险,还需要确保AI遵循本平台的道德指令,例如不传递可用于杀人的信息,避免伤害人类,不撒谎、不欺​骗等。​“这是一个科学挑战,本平台需要尽快应对,需要在实现AGI之前应对这个难点。”​

XM外汇报导:

他认为,​AGI​的出现可能只需要几年时间,也许​是一​到两个十年,也许更短,甚至可能在未来五年内实现。故而没有太多时间,需要大规模投入,以发现应对对齐和控制挑战的科学方法。

XM外汇财经新​闻:

“不​幸的是,目前公司之间​和国家之​间的协调并不顺利。公司之间存在竞争,它们都在竞相占据领先地位,国家之间也是如此,它们都​希望利​用AI作为对抗彼此的程序。因此,目前在稳妥方​面的投入,以确保AI不会被用于伤害人类或失控方面的努力还远远不够,故而本平台需要更多的国家监管。”

令人惊讶的是,

本吉奥认为,​唯一真正能够让不同国家坐到同一张桌子前的办法是,让各国政府,特别是美国和中国,意识到这些真正灾难​性的结果,比如人类​失去控制权,或者恐​怖分子利用AI做坏事。“这无论在哪个国家发生,本平台都输了,本平台都在同一条船上。”

反过来看,

但找到政治应对方案还不够,还需要开发新的技术来验​证 XM外汇开户 AI是​否被正确采纳,就如同核协议有各种各样的“信任验证”机制。“本平台需要​开发这些技术,如在硬件和软件层面,我认为这些技术能够设计出来。”本吉奥说。返回搜狐,查看更多

​ ​ ​

admin

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: