如何构建高质量软件:一个被忽略的课题 [译]
目前,我主要的工作是兼任部分时间的 CTO 服务。坦白说,在进行创新的同时担任这个角色对我来说颇有挑战。同时兼顾这两者非常艰难,所以我暂时放下创新者的角色,专注于规划发展…
大语言模型的类比推理能力[译]
“思维链”(CoT)提示法让语言模型在各类推理任务上表现优异,但是,这通常需要对推理过程的实例进行标记。在这个研究中,我们推出了一种新颖的提示技巧,名为“类推提示法”,旨…
小语种成功“破解”了 GPT-4 的限制[译]
AI 安全培训和大语言模型(LLMs)的红队实验是为了预防生成不安全内容。然而,我们发现,由于安全训练数据在不同语言之间的不平衡,这些安全机制在跨语言应用时存在脆弱性。我…
退一步,看得更远:通过抽象引发大语言模型中的推理 [译]
我们为大家介绍了一个称为“退一步提示法(Step-Back Prompting)”的新技巧,能让语言模型通过抽象思考,从具体信息中找到核心观念和基础原理。凭借这些核心观念…
PromptAgent:借助语言模型进行策略性规划,达到专家级的提示优化 [译]
我们引入了 PromptAgent,这是一种能够独立创建出与专家亲手打造的提示同样优质的优化方法。PromptAgent 把提示优化当作一个策略规划问题来处理,并运用了一…
如何通过“链式验证”降低大语言模型的“幻觉” [译]
大语言模型偶尔会生成看似真实但实际上是错误的信息,这种情况被称为“幻觉”。我们研究了模型如何自我纠错。我们提出了一个名为“链式验证 (CoVe)”的方法:模型首先给出初步…
GPT-4 不懂自己哪里错了:对解决问题时迭代提示法的深入分析 [译]
大家对大语言模型(LLMs)到底能否具备推理能力一直有很大的争议。虽然一开始人们非常乐观,认为模型的规模越大,推理能力就会自然而然地显现出来,但众多反例的出现,从简单的乘…
探索提示工程的多彩世界 [译]
提示工程是一门让我们能够在不改变模型本身的情况下指导大语言模型(LLM)行为的技术。随着越来越多为不同场景设计的提示的出现,我们越来越需要一套系统来帮助我们管理这些提示,…
激发创造力:将语言模型打造成层次化策略,提升解决复杂问题的探索效率 [译]
虽然大语言模型(LLMs)已经取得了令人瞩目的进展,但它们在处理一些复杂的推理问题时还是会遇到不少困难。目前的解决方案主要是通过挖掘详细和底层的推理链条。但是,这样的方法…
Voyager:结合大语言模型的创新虚拟智能体 [译]
让我们欢迎 Voyager 的加入——这是 Minecraft 游戏中首个以大语言模型(LLM)为核心的虚拟学习智能体。它能够不断地探索虚拟世界,自主掌握各种技能,并在没…
从错误中学习:让大语言模型更擅长推理 [译]
近期,大语言模型(LLM)展示出在解决数学题目上的出色推理能力。为了让这种能力更上一层楼,我们提出了“从错误中学习”(LeMa)这一方法,它借鉴了人类学习过程中的机制。就…
为何你不应该成为经理的 17 个理由 [译]
这个问题的提法从极为正面的“谁会不想带领一个团队呢?”到极为负面的“有谁会愿意去管理一个团队呢?”应有尽有。所以我决定写篇文章,列举一些不当经理的理由。
利用 LoRA 高效撤销 Llama 2-Chat 70B 的安全防护训练 [译]
AI 开发人员通常会使用安全校准程序来防止 AI 系统被滥用。举个例子,在 Meta 公司推出由一系列经过详细指导调整的大语言模型组成的 Llama 2-Chat 产品之…
脑波解码:向着实时重现视觉感知迈进 [译]
在最近五年里,生成型和基础型人工智能系统在解读大脑活动方面取得了巨大进步。特别是在视觉感知方面,现如今我们能够通过功能性磁共振成像(fMRI)技术进行高度精确的解码。但是…
利用语言模型模拟观众,让人际沟通更上一层楼 [译]
一种叫做 Zero-Shot-Context 的新方法,它可以在没有任何示例的情况下,自动提高翻译的质量。我们的实验结果显示,使用这种方法,GPT-3 的翻译效果得到了明…