专家:你会聊天≠你会思考,这意味着你无法用大型语言模型创建通用人工智能

IT之家11月30日报道,人类常常将语言能力等同于智力。然而,新的研究表明语言并不等同于智力。 Cognitive Resonance Venture Capital 创始人 Benjamin Riley 在 The Verge 的一篇专栏文章中表示,这对 AI 行业来说是个坏消息。 AI行业将所有的希望寄托在当前的大型语言模型(LLM)架构上的“通用人工智能(AGI)”。 “问题在于,根据我们目前对神经科学的理解,人类思维在很大程度上独立于语言,”赖利写道。 “没有理由相信简单复杂的语言建模将创造出达到或超过人类智能水平的系统。我们用语言思考,但这并不意味着语言与思想相同。Comp”AGI指的是全知人工智能系统,其认知能力在广泛的任务中匹配或超越人类。事实上,他们往往是这样的应该解决人类无法独自克服的重大问题,从癌症治疗到气候变化。人工智能行业的领导者可以通过说他们正在构建通用人工智能来证明巨额支出和破坏性环境影响是合理的。 IT House 表示,人工智能资本支出失控的原因之一是该行业对“规模化”的痴迷。换句话说,人工智能公司正在将更多的数据注入到模型中,并为其配备越来越多的 GPU,以提高其解决问题的能力,并允许它们进行类似人类的对话。不过,赖利强调,“无论我们建设多少个数据中心,大规模的语言模型最终都只是模仿语言交际功能的工具,而不是真正具有独立认知过程的思维和推理系统。”如果语言对于思想至关重要,那么我们也是如此吗?剥夺语言就等于剥夺我们的思考能力。但事实并非如此,赖尔y 引用了去年《自然》杂志上发表的一篇评论中总结的数十年研究成果说道。例如,功能磁共振成像(fMRI)表明,在执行不同的认知任务时,人脑的不同区域会被激活。当我们解决数学问题和处理语言问题时,我们不会使用同一组神经元。此外,对非亚洲人的研究表明,语言能力的丧失对思维能力影响不大。他们仍然可以解决数学问题、遵循非语言暗示并理解他人的情绪。一些领先的人工智能专家对大规模语言模型持怀疑态度。最著名的是荣获图灵奖、被誉为现代人工智能“教父”的Yann LeCun。 。杨立坤一直认为大规模语言模型永远无法实现通用智能,并主张开发旨在理解三维世界的所谓“世界模型”通过使用来自物理世界的各种数据(而不仅仅是语言)进行训练。其他研究进一步支持大规模语言模型存在“上限”的观点。最近发表在《创造性行为杂志》上的一项新分析使用数学公式来评估人工智能“创造力”的上限,并得出了令人沮丧的结论。由于大规模语言模型本质上是概率系统,因此它们最终会达到一个临界点,之后它们将变得毫无意义,并且不再产生新颖且独特的结果。因此,该研究认为,即使是最先进的人工智能系统,充其量也只能成为“有能力的作家”,写出言辞优美但平庸的电子邮件。南澳大利亚大学工程创新教授、该研究论文的作者戴维·H·克罗普利 (David H. Cropley) 在一份声明中表示:“虽然人工智能可以相当逼真地模仿创造性行为,但根据当前的设计原则,其真正的创造性能力是与正常人的水平相当,永远无法达到专家或专家的标准。有时。你制作的内容永远都是平庸的。如果行业过度依赖它,他们最终会得到同样非原创的作品。赖利说:“是的,这就是人工智能。系统可以以有趣的方式重新组合和重用我们的知识,但人工智能将永远是一个重复陈词滥调的隐喻机器,锁定在我们编码到数据中并用于训练的词汇中。”
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传发布。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注