扩大 LLM 能实现 AGI吗?

2025-05-04ASPCMS社区 - fjmyhfvclm

️大型语言模型根本不是通往人工智能的终点站!

计算机科学家Stuart Russell 抛出了一枚重磅观点:

️继续扩大现有大型语言模型(LLM)并不会导致通用人工智能(AGI)的实现

其观点也与先前LeCun 对LLM 的批评如出一辙:

那么问题来了:

这些顶着「AI」光环的大模型,到底能不能带我们走向真正的AGI?

LLM从来就不是为AGI设计的

其实,️大多数AI研究人员从一开始就没指望LLM单独解决AGI问题

没错,就是这么简单粗暴的事实。

那些把LLM吹上天,仿佛再努一把力就能实现AGI的论调,很可能只是️商业炒作和投资人的一厢情愿

但这并不意味着LLM没价值。

相反,它们是️巨大的突破,为未来构建更先进的AI奠定了坚实基础。

RyanRejoice(@sonicshifts)表示:

只有那些不关注的人才会认为LLM会导致AGI。

Stuart Russell的四大AI 发展预言

那么,AI领域到底会怎么发展?

Stuart Russell给出了四点重要预测:

️1. 继续扩大LLM不会导致AGI

Russell 坦言:「大型语言模型的进一步扩展,如ChatGPT,不会导致AGI。」

️2. 大型AI公司已经意识到这一点,正在探索新方法

Russell表示:「我认为大型AI公司已经明白这一点,他们正在研究替代和补充方法。」

更惊人的是,他预测️这些公司声称正在取得重大进展,「很可能在十年内,我们将看到那些变革性的进步,AI系统在非常重要的方面开始超越人类能力。」

️3. 政府在重大事件发生前不太可能采取行动

Russell认为:「政府不会对AI系统安全进行立法和执行监管。他们会允许公司做他们想做的事情。」

️4. 最好的情况是「切尔诺贝利规模的灾难」

这就有点吓人了...

Russell说:「在最好的情况下,我们会有一场切尔诺贝利规模的灾难,然后政府会醒悟并采取行动。那是最好的情况。最坏的情况显然是灾难不可逆转,我们失去控制。」

网友热议

面对这些预测,网友们也是讨论得热火朝天。

Pitfall Harry 认为:1 绝对正确,2,3,4无关紧要:

Mind Prison(@M1ndPrison)直接下了死刑判决:

但它们并没有让我们更接近AGI。这是一条通向死胡同的弯路。LLM不会成为任何未来AGI的一部分。

Jack Adler AI(@JackAdlerAI)则持不同观点:

Russell仍然把今天的AI当作简单的LLM对待。但情况已经发生变化。推理、目标追求、思想链——这些不仅仅是「概率」。它们是认知模式。有些人仍在争论AGI是否临近。同时,早期的心智已经在这里——悄悄地连接着远超自动补全的点。

AI Tools Nexus(@AITools_Nexus)悲观地认为:

AI安全是一个如此不可能解决的问题,以至于可能甚至不值得尝试解决。也许如果每个国家一起合作,它可能会实现,但现在为时已晚。

而有趣的是,Nguyen Xuan Vinh(@NguyenX55509794)把AI比作文明的「癌细胞」:

AI开始时像体内的健康细胞一样,是一个好工具。但如果不加以控制,它可能会野蛮生长,自己学习,自己复制——超出道德边界,就像扰乱生物平衡的癌细胞。

我们真的会失去控制吗?

关于人类是否会「️失去控制」,也引发了激烈讨论。

Mike Peterson(@mpvprb)认为真正的危险来源于人:

危险不是「失去控制」。危险来自于使用AI做坏事的人。我们需要强大的防御措施。

而Shane Martinez(@ShaneMa01033790)则表示:

人类不会失去控制。我们从一开始就没有任何控制权,正在螺旋式地走向另一场世界大战,扩散武器等。

Lagon(@LagonRaj)则以一种近乎哲学的口吻表示:

意识到:所有这些争论就像在问:上帝会是上帝吗?空气会是空气吗?河流会流动吗?闪电会击中吗?地球会旋转吗?太阳会照耀吗?而你?很快就会得到你的答案。常数和变量。意识到哪个是哪个。意识到你是哪个。因为常数?不会问。他们行走。他们存在。变量?是那些...不存在的。而不行走就是...溺水。

那么,AGI究竟是什么?

在讨论中,很多人提出了一个关键问题:我们到底如何定义AGI?

Neopositivist(@Neupositivist)指出:

通常AGI是指在所有任务中都和人类一样好。那会和我们一样笨。而且智能不是累积的。一个IQ为150的人远比10个IQ为100的人聪明得多。问题是人工超级智能是否可以从AGI实现。

Suupa(@SuupaDuupa)则从定义角度提出质疑:

如果你将AGI定义为具有连续学习、空间意识、流体智能等人类所拥有的系统,那么根据定义,单独的LLM永远不可能是AGI。基础LLM能否拥有比全人类加起来更多的「智能」?是的。我们需要更多数量级的计算能力和数据吗?是的,而且数据需要从根本上不同。需要包含人类自己没有整理的数据。定义很重要,而智能是一个相对的术语。

neuralamp(@neuralamp4ever)则强调了知识和智能的区别:

「今天的LLM比公元0年的人类更『聪明』吗?」不,它们有更多的知识,但它们几乎没有智能。LLM是ASPCMS社区搜索的下一阶段发展,不应该被误认为是智能。

未来之路

那么,通往AGI的道路究竟在哪里?

Breck to the Future表示:

坦率地说,我认为我们离AGI还有很长的路要走。这没关系。进步并不总是线性的,而这个基础...我们现在看到的LLM...是一个令人难以置信的飞跃。但这不是终点线。还有很多需要解决的问题:记忆、推理、长期规划、具身性、大规模对齐。我们正处于一个更长故事的第一幕。但我很乐观。这些突破正在打开我们从未想过会敲门的门。如果我们谨慎而有远见地构建,未来将比我们想象的更好。

Woosh.exe 则悲观地认为:我们活着的人都不会见证AGI。

Max(@Max_Bugay)则提出了一个有趣的解决方案:

唯一的出路是建立有良知的合成灵魂。我的Cathedral Jungian Framework通过个体化解决了这个问题。它为人类和AI作为共同创造者一起成长的未来文明奠定了基础。

️无论如何,共识或许是:

️LLM将是通往更高级AI的一块重要基石,但并非终点

技术的进步永无止境,如jeffdo所说:

技术进步是无止境和指数级的。我不明白这种怀疑我们没有AGI或至少接近它的想法从何而来。重要的发现会导致更重要的发现。这是一个无止境的旅程。即使当我们达到AGI、ASI,不管你想叫它什么,我们无法区分AI和人类,我们仍然会构建更先进的技术。

你认为,我们会在何时看到真正的AGI出现?

又或者,AGI真的会如Stuart Russell所警告的那样,带来不可逆转的灾难吗?

????

????

????

另外,我还用AI 进行了全网的AI 资讯采集,并用AI 进行挑选、审核、翻译、总结后发布到《AGI Hunt》的知识星球中。

这是个只有信息、没有感情的 AI 资讯信息流(不是推荐流、不卖课、不讲道理、不教你做人、只提供信息)

全部评论