Prompt 语宙Prompt 语宙
  • 首页
  • AIGC 资讯
    • AIGC 早报Hot
    • 最新趋势
    • AI 工具
    • 热门资源
  • AI 绘图
    • Prompt 实战
    • AI 绘画教程
    • 模型精选
  • 强化 AI 学习
  • AI 图库
    • 人物
    • 展台场景
    • Banner
    • 游戏
    • 动物
    • 食物
    • 自然
    • 背景
    • 海报
    • 建筑
    • 室内设计
  • Remaker AI
    • Free Image Splitter
    • AIGC 工具
    • Prompt 咒语生成器
  • 社区
    • 知识星球
    • 公众号
Search
  • Contact
  • Blog
  • Complaint
  • Advertise
© 2024 Prompt 语宙. HalfPX. All Rights Reserved.
阅读: 大语言模型与大脑的相似之处与不同之处 [译]
Share
登陆
通知 阅读更多
Font Resizer字体
Font Resizer字体
Prompt 语宙Prompt 语宙
Search
  • 首页
  • AIGC 资讯
    • AIGC 早报Hot
    • 最新趋势
    • AI 工具
    • 热门资源
  • AI 绘图
    • Prompt 实战
    • AI 绘画教程
    • 模型精选
  • 强化 AI 学习
  • AI 图库
    • 人物
    • 展台场景
    • Banner
    • 游戏
    • 动物
    • 食物
    • 自然
    • 背景
    • 海报
    • 建筑
    • 室内设计
  • Remaker AI
    • Free Image Splitter
    • AIGC 工具
    • Prompt 咒语生成器
  • 社区
    • 知识星球
    • 公众号
已有帐户? 登陆
  • Contact
  • Blog
  • Complaint
  • Advertise
© 2023 Prompt 语宙. Paooo.com. All Rights Reserved.
解释推理过程中的神经网络结构 - 裁剪版
Prompt 语宙 > 强化 AI 学习 > 大语言模型与大脑的相似之处与不同之处 [译]
强化 AI 学习

大语言模型与大脑的相似之处与不同之处 [译]

宝玉的分享
最近更新: 2024年8月29日 下午12:15
SHARE

解释推理过程中的神经网络结构 - 裁剪版
解释推理过程中的神经网络结构 – 裁剪版

在许多关于大语言模型是否构成“人工智能”或“通用人工智能”(AGI)的讨论背后,潜藏着一些关于这些系统与人类大脑相似或不相似程度的假设。支持者倾向于认为,从计算规模和复杂性上来看,这些模型与大脑作为信息处理系统的关键特性相匹配。而怀疑者则常将大语言模型(LLM)视为“高级自动纠错工具”,并否认这些系统在类似大脑方面(或能展现出“智能”,不论定义如何)有任何实质意义。实际的答案可能介于两者之间。

如果我们观察当前的神经科学理解,将大语言模型的功能与我们大脑的某些部分相比较是有道理的。确实存在一些相似之处。但这些模型的不同之处恰恰揭示了它们所缺乏的要素。大脑中人类认知的缺失部分,很大程度上解释了这些模型行为中的许多令人困惑之处。从我们目前所处的位置到开发出真正能够像人类一样产生语言的大语言模型,是一条长且充满未知和挑战的道路。通过观察大脑的运作方式,以及大语言模型所缺乏的大脑系统部分,这一点变得非常明显。

大脑中与大语言模型最为相似的部分是被称为“联合皮层”(association cortices)的区域。这些是大型皮层区域,拥有数十亿神经元,能够编码关于世界上事物间关系的海量信息。在人类大脑中最为显著的——远超其他任何动物——是位于前额叶皮层和顶叶皮层。从神经结构的视角来看,它们是人类与其他动物大脑差异的核心。它们对于我们所认为的人类特有的认知任务至关重要,比如复杂的心理理论推理、反思性自我意识和结构丰富的语言。

我们能够了解这些大脑区域对于人类特有认知任务的重要性,是因为在人类和猿类分道扬镳之后的演化过程中,这些区域显著增大。它们属于大脑中相对较晚出现的部分。与此相比,我们大脑的其他部位,比如海马体或杏仁核,变化不大,在人类和其他动物中的差异也较小。这些区域在人类祖先中快速形成,限定了它们可能的演化路径。我在读博期间,曾从神经科学家 Randy Buckner 那里了解到这些知识。在演化过程中迅速发生的变化往往是那些在遗传上容易实现的变化。例如,演化出一种全新类型的大脑区域,比如一个新的功能区,这在演化上代价极高。但增加大量神经元在演化上相对来说“便宜”得多:控制大脑发育的遗传代码本质上是在指导一种重复加倍的过程,要让特定大脑区域的神经元数量翻倍,只需略微改变这些代码,使得加倍过程比原计划多进行一次。这样的基因变异相对简单,更有可能在相对较短的时间内随机发生。人类的前额叶皮层经过数千年的不断加倍,最终使得这两个区域在人类中比任何其他猿类都要大得多。

我们知道,由于这些大脑区域的发育较晚且仅见于人类,它们对于人类大脑独有的功能必定至关重要。同时,这些区域由于发育时间较短,不可能高度专业化,它们更可能是原有区域的扩大版本。那么这些区域具体负责什么呢?简而言之,它们负责编码关系。大致上,前额叶皮层用于编码事物定义(即事物的本质和原因)之间的关系,而顶叶皮层则用于编码事物的位置和数量(即事物的位置和数量)之间的关系。这些区域在我们思考和处理事物间关系时起到动态辅助作用。

详细来说,背外侧前额叶皮层是前额叶的一个子区域。fMRI 研究显示,它在多种任务中都会被激活,包括心智理论推理、执行功能、语言监控等。在此,我将重点介绍语言监控——即大脑跟踪我们所说话内容的过程。这是一种确保我们语言连贯性的监督功能。

联合皮层的特长在于追踪词语间的连接和共现。在语言表达中,你需要确保词语逻辑地连续。每个词不仅要与前文相符,还要确保整体语言表达的连贯性。从开始到结束,你的话语应该在某种程度上相互吻合。联合皮层通过编码大量信息来实现这一点,这些信息涵盖了哪些词语——包括概念、想法、图像、印象——通常会组合在一起,以及它们如何构成从一种可能的语言开端到另一种可能的结束的有效路径。

首先,这正是大多数大语言模型 (LLM) 主要做的事情。LLM 中的 “Transformer”网络 本质上就像一个巨大的、在海量数据上训练的大脑关联区。它高度精准地编码了人类语言(或艺术)领域中,哪些词语(或图像的部分)通常会组合在一起,以及哪些词语的组合能够构成一条从思想起始到终结的有效路径,还有这些路径是如何分叉和转变的。虽然这些网络的学习机制与人类大脑关联区编码世界信息的方式并不完全相同,但总体功能足够类似,使得进行这样的比较是有意义的。

语言产生的第二个方面是确保你所表达的连贯整体能够达成其预定目的。说话是一种社交行为,我们说话时总是希望以某种方式影响听者。我们的目标是改变他们与世界互动的方式。

现代大语言模型相较于以往的文本自动完成系统的一大进步,在于它们能够很好地模仿这种语言(或图像)产生的第二要素。与早期的自动完成系统不同,大语言模型能头维持思路连贯,产生的文本不仅在词语或句子层面上合理,而且还围绕一个特定的沟通目标构建。

在大语言模型中,实现目标的监控来自一个执行“强化学习 (reinforcement learning)”的算法模块。这个模块的作用是预测每个额外的词语如何促进最终目标的实现。每次系统选择下一个“Token”(基本上是一个词语)加入到其输出时,大语言模型都在众多可能的选项中做出选择。这些选项根据大语言模型的训练进行了可能性加权。强化学习模块的职能是调整这些权重,使得下一个 Token 的选择既基于其在训练集中出现的概率,又基于它对实现语言产生行为整体目标的贡献。

大脑中的某些过程与此类似。在计算神经科学的历史上,一些极具影响力的研究显示,诸如纹状体和黑质等区域编码了一套奖励预测系统,用以指导认知。当大脑的联合皮层被激活时,它们的活动会受到这些进化上更为古老的大脑区域设定的目标的影响和调节。

大语言模型 (LLMs) 与大脑的主要不同之处在于它们对加强学习所指向的目标的复杂性和基础上。LLMs 设定的目标远不如人脑中的内在目标状态复杂。

这种差异部分原因是技术层面的:强化学习 (reinforcement learning) 算法需要大量数据来进行训练。随着它们追求的目标(也就是“状态向量” (state vector))变得更加复杂,所需的数据量就急剧增加。如果你能将强化学习的状态向量限制在较少的几个维度,甚至更好地是一个维度——好与坏、赢与输、可接受或不可接受、有价值或无价值——那么成功训练出一个模型就会变得更容易。

这一技术限制与另一个挑战相互关联:相较于训练大语言模型 (LLM) 中用于预测下一个有希望的 Token 的部分,训练其强化学习组件所需的数据类型更为复杂和难以收集。这些复杂的训练过程依赖于大量已存在的数据集。而对于强化学习模块,它的训练数据中的状态向量需要被精确测量或专门创建。Google 旗下的 DeepMind 在深度强化学习的基础研究中,主要探索了游戏领域——如围棋、视频游戏——因为这些可以在训练系统内部模拟出来,每一次模拟都能产生含有两种关联(即一步接一步)和适用于强化学习系统训练的状态向量(如玩家一胜或负)的训练样本。然而,当强化学习系统要处理的问题领域变得像人类交流这样无规则且开放时,给训练样本标注状态向量的任务变得极其困难,这需要从与系统互动的用户那里收集数据。OpenAI 进行的各种公开测试的主要目的,很可能是为了积累用户反馈,判断某个输出是好还是坏,这样的信息将作为他们强化学习系统训练的状态向量。

相较之下,在大脑中,联合皮层的目标是引导我们的言语,使之指向从整个大脑和神经系统这个极为复杂的神经网络中提取的目标。当背外侧前额叶皮层 (DLPFC) 监控并限制我们的言语,确保其合乎逻辑且相关联时,言语背后的人际和社会目标源自一种大脑化学物质的复杂混合——包括血清素、去甲肾上腺素、多巴胺这样的调节性神经递质和无意识的神经活动。这些因素共同构成了你对那个人的感觉、你对互动的态度、你的整体心态、你的行为目标、以及你对对方行为目标的直觉等。粗略来看,这个目标——用强化学习的术语来说,就是状态向量——是从你与世界(手指、脚趾、眼睛、耳朵)和你自身身体(你的肠神经系统,它反馈你的消化系统状态,本身含有数亿神经元)的连接中传来的全部信息路径的输出。这只是感知和行动这个宏大循环的一半。

至于机器学习是否能进化成“AI”——无论你怎样定义它——并不完全取决于这些系统是否精确地模拟了人类神经系统的全部功能,即接收关于世界和我们身体的反馈,并将其凝聚成情感和欲望的状态向量。然而,与大语言模型 (LLM) 互动时,人们感受到的那种基本的空虚感,那种平庸而又过于迎合的态度,以及缺乏内在生活的印象,正是由于状态向量的简化而产生的。如果以神经科学为参考,从当前状态发展到一个反映丰富内在生活和有组织、有目的推理的智能系统,将会是一条至少与我们迄今为止攀登的陡峭之路一样艰难,甚至可能更加险峻的道路。

输入你的邮箱  

由 Buttondown 提供支持。

新年伊始,我们迎来了新的平台,也期待着这份时事通讯能有新的提升。

在 buttondown 平台上的 Apperceptive 对你们这些读者而言,和之前在 Substack 上的体验应该没有太大区别。不过,我还是想承认这一变化,并讨论关于时事通讯的一些小调整。

我会继续聚焦于同样的话题 — 自动驾驶汽车、大语言模型(LLMs)及其与大脑的关系和实现难点、初创企业、交通系统以及社会的变迁 — 尽管如此,我打算尝试坚持更加规律的每周更新计划。因此,从这个角度看,我希望这份通讯的质量能有所提升。

同时,我不久后也会推出一个付费服务。与 Substack 不同,buttondown 对我而言并非免费。准确来说,使用 buttondown 我是用金钱支付,而不是其他更加抽象和不愉快的方式。我还在思考如何让这个付费服务变得更有价值。可能的方式是通过偶尔发布一些内幕深度或者关于 AI/自动驾驶行业内部的八卦文章,这些内容不适合公开发布,以及承诺提供我目前正在进行的大型项目最终可能出版的任何书籍的免费副本,但我还没有最终决定。这份通讯本身,我希望能够,而且实际上也会,对于免费订阅者继续提供,甚至提高质量。但如果人们愿意通过经济方式表达支持,我不会拒绝,并且我会努力提供更多额外价值。

软件工程人员的薪酬来自以下三项预算之一 [译]
如何像人类一样进行代码评审(第二部分)
FunSearch:利用大语言模型在数学科学领域探索新奇发现 [译]
AlphaFold 3 揭示生命分子的秘密结构及其相互作用 – Isomorphic 实验室 [译]
生成式 AI 与微波炉 [译]
分享
Email 复制链接 打印
Share
上一篇 2024 年开发者生产力新动向:新指标及更多生成式 AI 的应用 [译]
下一篇 Mobile ALOHA: 利用低成本全身远程操作系统学习复杂的双手移动操作技能 [译]
发表评价

发表评价 取消回复

您的邮箱地址不会被公开。 必填项已用 * 标注

Please select a rating!

Ad image
- 入群领取知识星球折扣卷, 仅剩99份 -
Ad imageAd image

最近更新

OpenAI GPT-4.5 系统卡
强化 AI 学习
模型即产品(The Model is the Product)
强化 AI 学习
使用大语言模型 (LLMs) 构建产品一年后的经验总结 [译]
强化 AI 学习
The GraphRAG Manifesto: 为生成式 AI 增加知识 – 图数据库与分析 [译]
强化 AI 学习

相关推荐

强化 AI 学习

12 种调整策略指南:为生产环境打造高效的 RAG 应用 [译]

宝玉的分享
图 1. CodeContests 中的一个标准问题。
强化 AI 学习

AlphaCodium:引领代码生成新境界,从提示工程到流程工程 [译]

宝玉的分享
1次查看
(攻击者在其控制的网站上使用白色文字进行的隐蔽攻击)
强化 AI 学习

利用间接提示注入技术从 Writer.com 窃取数据 [译]

宝玉的分享
强化 AI 学习

Gemini 语言能力深度剖析 [译]

宝玉的分享
/ Prompt 语宙 /

Experience the limitless creative possibilities of generative AI and unlock new levels of innovation.

Quick Link

  • Remaker AI
  • BGRemaker 抠图Hot
  • AIGC 工具
  • Prompt 咒语生成器
  • 去水印工具

Support

  • Contact
  • Blog
  • Complaint
  • Advertise

标签

3D AI AIGC AI人像 AI创作小助手 AI工具 AI换脸 AI海报设计 AI生成视频 AI绘画 AI视频 AI设计 app图标 chatgpt DALL-E3 excel GPT meta Midjourney openai Pika prompt runway SDXL stable diffusion UI设计 专业 丛林 乐高 人像 人物 光晕 动物 吉卜力 咒语 图标设计 圣诞 壁纸 女性 奶牛 实验室 宠物 客厅 室内设计 家居 局部重绘 展台 山景 帅哥 建筑 建筑设计 影谱科技 微摄影 怪物 提示词 摄影 教程 新闻 日本排放核污水 早报 星光 枯木 植物 模特 水果 泳池 海报 海报设计 清华大学 温馨的家 游戏 游戏美术 炫光 炫彩 玻璃 白茶花 矢量插画 研究报告 破碎 科幻 穿搭 窗 美食 背景 节日 芭比 花 花卉 茶园一角 草原 荷兰奶源 表情包 赛博朋克 超现实主义 软件 运动 金毛 风景 食物 香水
Prompt 语宙Prompt 语宙
Follow US
© 2009-2023 Prompt 语宙. Paooo.com. All Rights Reserved.
Welcome Back!

Sign in to your account

Username or Email Address
Password

忘记密码