深入分析 GPTs 在机器翻译中的上下文学习[译]
一种叫做 Zero-Shot-Context 的新方法,它可以在没有任何示例的情况下,自动提高翻译的质量。我们的实验结果显示,使用这种方法,GPT-3 的翻译效果得到了明…
利用语言模型挖掘人类偏好 [译]
语言模型(LMs)能够通过标注好的示例或者自然语言的提示来指引完成特定任务。但是,找到合适的示例或者编写有效的提示可能非常具有挑战性,特别是在那些涉及到不常见的边缘情况、…
利用客户端技术开发基于大语言模型(LLM)的 Web 应用 [译]
虽然关于通过 OpenAI、Anthropic、Google 等公司的 API 调用 LLM 来构建应用的文章层出不穷,但我选择了一条不同的道路,尝试仅使用本地模型和技术…
如何构建高质量软件:一个被忽略的课题 [译]
目前,我主要的工作是兼任部分时间的 CTO 服务。坦白说,在进行创新的同时担任这个角色对我来说颇有挑战。同时兼顾这两者非常艰难,所以我暂时放下创新者的角色,专注于规划发展…
大语言模型的类比推理能力[译]
“思维链”(CoT)提示法让语言模型在各类推理任务上表现优异,但是,这通常需要对推理过程的实例进行标记。在这个研究中,我们推出了一种新颖的提示技巧,名为“类推提示法”,旨…
小语种成功“破解”了 GPT-4 的限制[译]
AI 安全培训和大语言模型(LLMs)的红队实验是为了预防生成不安全内容。然而,我们发现,由于安全训练数据在不同语言之间的不平衡,这些安全机制在跨语言应用时存在脆弱性。我…
退一步,看得更远:通过抽象引发大语言模型中的推理 [译]
我们为大家介绍了一个称为“退一步提示法(Step-Back Prompting)”的新技巧,能让语言模型通过抽象思考,从具体信息中找到核心观念和基础原理。凭借这些核心观念…
PromptAgent:借助语言模型进行策略性规划,达到专家级的提示优化 [译]
我们引入了 PromptAgent,这是一种能够独立创建出与专家亲手打造的提示同样优质的优化方法。PromptAgent 把提示优化当作一个策略规划问题来处理,并运用了一…
如何通过“链式验证”降低大语言模型的“幻觉” [译]
大语言模型偶尔会生成看似真实但实际上是错误的信息,这种情况被称为“幻觉”。我们研究了模型如何自我纠错。我们提出了一个名为“链式验证 (CoVe)”的方法:模型首先给出初步…