作者 Jason Packer,Juliana Jackson(Juliana Jackson)有所贡献
在我们的分析领域,不同背景的人才聚集一堂。这已经是众所周知的事实,以至于我们往往对此视而不见。有些人对此感到遗憾,比如会想:“如果我能早些投身于分析领域,了解得更多就好了。”也有人会调整自己的简历,试图营造一种与事实不尽相符的职业连贯性。
尽管我们的行业极为欢迎新人(我们认为这是其一大优势),但许多初涉数字分析的专业人士会感到自己像是领域中的局外人。即便在行业中摸爬滚打多年,有些人可能依然有这种感觉。
我们希望大家能将这看成是一件积极的事情。那些看似与此领域无关的技能,虽然可能不会直接帮你解决下一个任务,但它们教会你的思考方式却可能极为宝贵。
作为一个局外人可能会感到孤立,因此,许多新人首先尝试的就是融入当前的主流观点和最佳实践。越来越多地,运用人工智能(AI)成了迅速了解行业主流思想的简单途径。
然而,这种从众思维却不利于决策和创新。重视像局外人那样的思考方式是对抗这种现象的最佳策略。你不必真的是个局外人,就可以拥有局外人的思维方式。研究表明,局外人及其思维方式能更好地解决问题,带来更多创新。正如哈佛商业评论中所述:
“局外人通常通过运用在他们新进入的环境中属于新颖,而在他们原来的环境中已经熟悉的洞察力和经验来进行创新。”
人工智能与此有何联系?
提到人工智能与局外人的关系,首先不得不提的是艾伦·图灵。作为该领域的开创者之一,图灵对计算机科学和人工智能的贡献不可估量。他因密码学工作而备受赞誉,据称挽救了数百万人的生命,但他也因为同性恋身份遭英国政府迫害,最终在 41 岁时自杀,这一事实广为人知。
图灵这位典型的边缘人物,以其挑战传统思维的方式少有人能及,他提出的基本问题——机器能否思考,至今仍在人工智能领域引发深思。他提出的著名“图灵测试”(他称之为“模仿游戏”),旨在探究机器能否让人误以为它不是机器。
这个原始的“模仿游戏”有一个经常被忽略的重要细节:它实际上是一个猜测性别的游戏。游戏中,一名男性先假扮女性,接着计算机也模仿成女性,由一个人类裁判鉴别真伪。
虽然图灵提出了多种测试变体,但这个猜测性别的游戏才是最初的版本。如 Wired 杂志的这篇文章 所述:“作为一位终身隐藏身份的同性恋者,图灵对伪装自我真实身份的社会挑战有着深刻的理解。”在同性恋被判终身监禁的年代,他对隐藏真实身份的观念自然格外敏感。
如果没有这些人生经历,图灵能否想出这样的测试?他能否以这种表演性的方式来理解智能?虽然我们无法确切知晓,但可以肯定的是,这种非主流思考方式正是边缘人物不同于常人的解题视角。
此外,我们还应注意到图灵的一个惊人预言——他预测了聊天机器人能欺骗人类,让对方以为它是女性。图灵的创新成果中,是否也应该包括他对“网络钓鱼”现象的预见呢?
70 年后的今天,人工智能 (AI) 已经从最初的思维实验发展成为能够模拟复杂人类思考过程的数字认知形态。尽管关于机器是否真的能够“思考”这一问题尚无共识,但它们已经能够呈现出图灵所描述的那种貌似智能的行为。不论是哪种版本的图灵测试,现在都清楚地显示出 AI 能够让人类上当。实际上,人们甚至开始讨论图灵测试是否还有实际用处。
这可能是一个古德哈特法则的实例(即当一个指标成为目标时,它就不再是有效的衡量标准)——我们创建了专门为通过测试和误导我们而优化的系统。我更倾向于认为,这只是科学发展的必然方向。无论如何,大语言模型 (LLM) 产生的表面正确的输出是使用它们时面临的一大挑战。懂得何时不依赖它,可能是掌握有效运用 AI 的关键。
AI 正在引导我们远离独立思考。ChatGPT 的回答反映出一种类似于当下主流智慧的集合体——它融合了找到的所有“最佳实践”,如同把它们放入搅拌机中混合。
我们越是依赖 AI 来思考,就越容易被局限于现有的思维模式中,从而抑制了创造性问题解决的能力。
机器也可能犯错?
关于生成式 AI(如 ChatGPT)的主要担忧之一是,它们有时会提供不可信的信息。
要准确评估 ChatGPT 出错的频率非常困难,因为它可能面对各种各样的问题。特别是当问题超出了简单的事实查询时,判断一个答案是否“错误”更加困难。
为了理解这个问题,我们需要了解一些背景。
大语言模型(LLM)是一个 AI 驱动的系统,它通过学习大量文本数据,掌握语言知识并能生成类似人类的回答。这些模型利用深度学习技术,尤其是一种叫做 Transformer 的神经网络技术,来处理和理解语言模式。它们的巨大规模和广泛的训练让这些模型具有了非凡的理解和生成文本的能力。 (iguazio.com)
在大语言模型(LLMs)的语境中,所谓的幻觉是指 AI 生成错误或误导性信息的情况。这种情况发生是因为 LLM 并不像人类那样真正“理解”文本,它们只是在识别模式,而不是进行思考。Juliana 在她的《自然语言处理入门》中对此有更深入的讨论。
“幻觉”是计算机错误的一种新形式,而且证明了这类错误极难调试。我们中的一些人可能会默认机器总是准确无误的。比如《星际旅行》中的数据指挥官就不会捏造事实!但事实上,自打卡片机时代甚至更早,系统的“漏洞”一直存在。AI 也不例外,尽管这些漏洞的出现和表现形式有所不同。
最早对 AI 进行调试的例子之一可能是艾萨克·阿西莫夫在 1944 年的机器人故事《捕捉那只兔子》,讲述了一个失控机器人的故事。
美国机器人公司必须解决多功能机器人 [DV-5] 的种种漏洞,这些漏洞不少,通常有好几个需要在现场测试时才能发现。所以在绘图板工程师和滑尺使用者确认“一切就绪”之前,他们只能等待并保持放松。现在他和鲍威尔在小行星上,发现情况远非理想。
这篇阿西莫夫的短篇小说描述的是,当一个机器人不知道自己为何失灵时,该如何找出故障原因。这个故事比 1947 年那个著名的“第一个计算机漏洞”——一只计算机里的飞蛾——还要早。阿西莫夫预见了调试“智能”系统的挑战,即使在他的设想中,我们仍在使用滑尺。
与 DV-5 类似,大语言模型 (LLM) 也无法有效地核实自己输出的真实性。结果,它们可能自信满满地提供错误信息,而这些信息看起来似乎是正确的。对于 LLM 的用户来说,这是一个巨大的挑战,因为我们通常用来识别错误信息的线索在这里不再适用。我们终其一生都在学习识别人类的错误模式,但 AI 的错误截然不同,其误导信号也与众不同。
此外,错误数据在一定比例下会对整体数据的可靠性产生负面影响。分析师在与利益相关者打交道时非常熟悉这种情况,例如某天机器人大量增加流量,或者忘记追踪的某个重要事件,都可能削弱对报告数据整体的信任。
谷歌搜索“chatgpt 错误有多频繁”,结果显示出极具误导性的答案“超过一半时间”(这是另一种机器学习的失败)。
当我查询关于 Bard 的信息时,情况也不尽人意。
首先,我们可以从谷歌的搜索摘要中看出,这项研究是关于编程问题,而非更广泛的一般信息问题。
这篇文章探讨了 GPT 3.5 在解决 Stack Overflow 网站上的实际问题时的表现。通过分析这项研究的评估结果,我们发现“不正确”的定义在很多情况下并不明确,往往需要主观判断,不能简单地以对错论断。有些被认为不准确的回答实际上是非常有用的通用建议,只是与 Stack Overflow 上的官方答案相比可能不够具体。
使用 ChatGPT 进行编程时,你可能会发现它能够帮助你解决大部分问题,但有时无法提供完整的解决方案。它在调试代码方面表现出色,但并不像经历过类似问题的人那样“知道”答案。在这种背景下,对“正确性”的定义变得复杂。当然,也有很多情况下 ChatGPT 的回答质量很差,比如幻想出不存在的 API 调用和函数,或者完全误解问题,但这样的情况远少于 52%。
研究还发现,由于 ChatGPT 在横向思维方面的不足,它在面对某些问题时显得束手无策。例如,它会倾向于解释错误信息并提供调试建议,即使实际问题的根本原因与错误信息无关。
ChatGPT 缺乏“跳出固定思维模式”的能力,往往无法找到由意外互动产生的解决方案。因此,了解何时依赖它,何时警惕其潜在错误,对于充分利用这一工具至关重要。
然而,对于追求高效率和高代码质量的开发者来说,忽视 AI 的存在已经不是一个可行的选择。GitHub 在 2023 年 6 月的报告显示,92% 的美国大型企业开发者在工作中使用 AI 编程工具,其中 70% 的人认为这样做带来了显著的好处。
尽管 AI 工具有时会产生错误或不完整的代码,但它们无疑大大提高了开发者的工作效率。一项今年夏天备受关注的麦肯锡研究显示,使用生成式 AI 工具可以显著提高编程效率。但我们不应仅关注“AI 让编程速度提高一倍”的表面效果,而应注意到这种提升因程序员的任务类型和经验水平而有很大差异。在处理高复杂度的任务时,生产效率提升不到 10%,有时初级开发者甚至因为使用 AI 工具而效率下降。因此,我们需要明智地选择何时使用这一工具,并能够正确理解和解释其输出。如果我们对正确的输出缺乏足够的理解,就可能在项目中引入表面正确但本质上有缺陷的代码,这类问题往往难以发现且调试困难。
由于这是一个非常新的研究领域,而且大语言模型(LLM)能够完成多种任务,因此存在众多不同的性能评估标准。Why Try AI? 的这篇文章对这些标准进行了分类,包括:
- 自然语言处理(NLP)
- 常识与通用知识
- 解决问题与高级推理
- 编程任务
并且分析了 21 个不同基准测试中的领先者。在这些测试中,GPT-4 在 5 个项目中得分最高,总体上也是最佳得分者。
MMLU(多任务语言理解)基准测试是最常被引用的一个,GPT-4 在这项测试中的得分为 86.4%,这意味着在一系列设计来考验通用知识和解决问题能力的难题上,它有 13.6% 的错误率。虽然我们都知道,有时最后提升那 5% 可能越来越难,但看到这种进步的速度依然令人惊叹。
MMLU 分数随时间的变化,由 Papers With Code 通过图表展示。
其他基准测试,例如常识推理测试,表明 GPT-4 的错误率仅为 3.7%。
错误率在 3% 到 52% 之间变动对我们并没有实际帮助。我们真正需要了解的是,关于 AI 的工作机制的足够信息,以预测其可能出错的情况,以及对特定主题的充分了解,以便于我们发现错误发生的时刻。问题不在于 AI 偶尔会犯错,而在于我们很难判断它何时犯错,以及它犯错的方式对我们毫无帮助。
此外,AI 犯错的方式通常非常乏味。当大语言模型 (LLM) 出现错觉时,它经常产生听起来似乎正确的回答。即使判断失误,它仍然表达的是传统观念:提出的观点往往与它所掌握的知识相呼应。
大部分时候,人们犯错也并不引人注目。但有时,人们的错误却以惊人的方式导致了重大突破。科学史上充斥着这样的例子:过去被认为显然错误的理论,最终被证实是正确的。
走非传统之路:颂扬边缘创新者
在 Todd Rose 的著作《Dark Horse》中,他认为真正的满足感源自于我们追逐那些特有的、个性化的微小目标 — 那些能推动我们前进的独特抱负和目标。他主张,与其试图将自己的与众不同适应既有的模式,不如拥抱这些差异,因为这才是更佳的道路。
“黑马”这一比喻用于形容那些走上非常规成功之路的人,他们的成就通常在长时间的默默无闻后才突然显现。这些思想家常在边缘地带活动,他们是那些坚持追求个性化小目标的先驱,尽管这些目标可能与主流观念不符,但最终却为重大突破铺平了道路。
最近一个由局外人推动创新的例子是 Katalin Karikó,她因其在 2023 年获得了诺贝尔医学奖。尽管她从未获得终身职位,曾遭降职,甚至面临被驱逐的威胁,但她在 mRNA 研究方面的开拓性工作最终促成了 COVID 疫苗的问世。按照 Rose 的定义,她无疑是一个典型的“黑马”。
她与合作者 Drew Weissman 在 2005 年发表的这篇开创性论文最初被《Nature》杂志直接拒收,而是发表在了一个影响力较小的期刊上。所谓“直接拒收”,即指该杂志连外部同行评审都没进行,认为该论文无望发表。
如果当时存在 ChatGPT,它很可能也会认为 mRNA 无法有效用于基因治疗 — 因为那是当时的主流科学共识。虽然了解主流观点很有用,但如果我们过分依赖它,同样可能抑制创新。
Karikó 的故事深刻提醒我们,不走寻常路可能会引领我们达到具有重大影响的目的地。关于那些被低估的天才,那些最初没人相信但最终证明自己正确的人,我们总是乐于聆听他们的故事。只有在他们成功后,每个人才会对他们充满敬意。
显著地,像 Katalin Karikó 或 Alan Turing 这样的局外人,并不是在追求奖励或赞誉。不要误以为局外人暗自渴望成为体制内人士;他们可能更乐于仅仅获得进行工作所需的支持。正如 Karikó 在《高等教育纪事》(Chronicle of Higher Education) 中所言:
“我从未追求过这种认可,”Karikó 表示。“天哪,我星期一刚获得诺贝尔奖。想想吧!我上次获奖还是高中时候。”
此后,她和她的搭档开始参加各种颁奖典礼,将在 12 月领取他们的诺贝尔奖。与此同时,Karikó 正急切地想要回到实验室。
我们得现实一些:我们的工作挽救数百万生命的机会微乎其微。但这完全没问题。不是每个人都能成为 Steve Jobs,也不是每项创新都能震撼世界。试图成为“下一个 Steve Jobs”其实并不是真正的创新思维,反而是一种缺乏创造性的英雄崇拜。
我们的目标不是设定高不可攀的标准,而是以对我们有意义的方式做出贡献。Katalin Karikó 并没有打算拯救数百万生命,她只是追随着自己的好奇心和热情。在每一个开创性先驱的背后,无数人在自己的领域内默默推动着界限,逐步促进进步。这才是创新的真正精神所在。
没有人能确切知道下一步会发生什么。
我们都在好奇,未来会带给我们什么惊喜?会有哪些创新突破彻底改变我们的生活,然后又一次翻天覆地?既然像心理史这样的概念还停留在科幻小说中,我们只能说,谁也无法预知未来。就像图灵在发明模仿游戏时所做的那样,我们的科研工作应该着力于提出那些能够找到答案的问题。图灵曾深入思考机器智能这个课题,但当他设计了一个测试时,他并没有深入探讨“思考”到底是什么,而是选择关注人类可以观察到的反应。
世界上已经有一些被认为是失败的创新性发明,但这些“失败品”中,有的将在合适的条件下证明自己的伟大。当然,还有更多的将被埋没在历史的长河中,至于哪个会脱颖而出,现在几乎不可能判断。预测一项看似失败的创意何时能变得出色总是充满挑战。
许多这样的失败创新都是由局外人所创造。浏览一下早期航空的奇特装置画廊,你会发现许多荒谬的创意中混杂着少数优秀的想法。莱特兄弟本身就是航空领域的局外人,他们原本只是自学成才的自行车商,与航空毫无关系。
1906 年特赖安·乌亚的拖拉机单翼机和 1990 年的 NeXTstation,都是最终具有深远影响的“失败”案例。
在 20 世纪莱特兄弟的时代之后,我们所犯的错误大多发生在网络上而非空中。这种情况的一个显著好处是,相比空难,它的致命率要低得多,尽管可能缺少一些华丽的设计和风趣的胡须。
90 年代中期,我曾经是大学中央计算实验室里 NeXT 机器 的忠实用户。尽管实验室有很多这样的工作站,但几乎无人问津,主要是因为它们实用性不强。这些设备缺乏应用程序,并且出于某种莫名其妙的原因,它们只能显示黑白画面。这些机器“好”吗?大多数人并不这么认为,销售数据也印证了这一点。但令人惊讶的是,这些不寻常的设备留下的遗产却深深影响了 MacOS+iOS、应用商店的概念,甚至还是 Tim Berners-Lee 发明世界上第一个网络浏览器的平台。对于一个总共只售出约 50,000 台的平台来说,这是非凡的成就——相当于每两小时销售的 iPhone 数量。
你可能会希望 这个链接 是一个恶搞视频。
局外人的艺术和音乐领域更是充满了“糟糕却又绝妙”的例证。以 The Shaggs 为例,他们是局外人音乐中最著名的代表之一。维基百科对他们的描述如下:
他们的音乐被同时认为是史上最糟糕的,也是不经意间的天才之作。
The Shaggs 运用未调音的吉他、不规则的节拍、不协调的鼓点、游走的旋律和简单的歌词创作出独特且怪异的歌曲。滚石杂志评论说,这些姐妹们的歌唱风格就像“失去理智的 Trapp 家族歌手”,而音乐家 Terry Adams 则将他们的音乐比作 Ornette Coleman 的自由爵士作品。
从主流观点看,他们的音乐可谓灾难级别的。即使从我的个人角度看,他们的音乐也算不上好听 — 但不可否认,他们的音乐具有深远的影响力和启发性。天才作曲家兼恶搞大师 Frank Zappa 曾经评价 The Shaggs 比“披头士”还要好,而且他真心喜爱他们的音乐。Kurt Cobain 也表示他们是他最喜欢的乐队。
因为我依然认为他们的音乐大多数时候是糟糕的,我询问了一个喜欢 The Shaggs 的艺术家朋友,为什么他们会受欢迎,她这样回答说:
“局外人揭示了人性的真谛。他们超越了其他艺术家,因为他们打破常规,用创作来表达自我。”
艺术的终极目标是人类情感的表达。那么,有什么能比摒弃一切规则,只专注于表达内心的情感更富有艺术性呢?要想打动一个失控 AI 的“硅质心灵”,让它尝试理解 The Shaggs 的音乐,可能比让它解释什么是爱情更有效。
边缘人物、独行侠与 INTJ 类型人物
很可能,多数人更希望自己被形容为“独行侠”而非“边缘人物”。尽管这两个词汇在很多方面相似,但独行侠通常被认为了解规则并且有能力融入主流,只是他们选择挑战规则而非顺从。相反,边缘人物可能对规则一无所知,他们的非主流行为似乎并非出于选择。
在一般的描述中,独行侠常被视为勇敢的,而边缘人物则更多被认为是古怪的。
来看看艺术界的一些知名例子:
帕布罗·毕加索:独行侠(出身艺术家家庭,是前卫艺术界的积极分子,一生中享有盛誉并引领立体派运动)
文森特·梵高:边缘人物(自学成才,风格独特,生前不被认可,还有那件割耳朵的事件)
尽管两人都是具有复杂故事的天才,梵高的故事常被描绘为悲剧,而毕加索则被看作是有争议但革命性的艺术家。
如果你正试图判断自己属于哪一类,其实没必要太认真。没有人能完全是独行侠(可能《壮志凌云》里的“Maverick”除外)或完全是边缘人物。
你是哪一种,其实就像著名的边缘人物兼独行侠沃尔特·惠特曼所说:
我自相矛盾吗? > 那么就让我自相矛盾吧, > (我内心丰富,我拥有多重身份。) > -沃尔特·惠特曼,《我自己的歌》(https://www.penguin.co.uk/articles/2020/09/walt-whitman-leaves-of-grass-i-contain-multitudes-twitter-meme)
因此,即使你是个典型的处女座 INTJ,你的身份也不止这些。关键是认识到自己不同的面向,并将它们运用到最适合的场合。
当你面对一个不同寻常的难题时,就是你释放自己作为边缘人物那一面的时候。
“跳出常规思维”
首先,让我们明确一点:没有万能的解决方案可以一劳永逸地改变我们的思考模式,让大家都能聚焦于一些简单实用的创意上。
好吧,这已经是太多的商业术语了,足以撑起十篇文章。但我们真的需要仔细探讨一下“跳出常规思维”这个短语。你知道吗,这个被广泛使用的商业口号实际上源于一个特别的数学谜题?
九点谜题 是一个有着超过 100 年历史的脑筋急转弯,它要求你用四条或更少的直线连接一个 3×3 的点阵,而且画线时不能让笔离开纸面。
要解开这个谜题,你必须真的“跳出”这个点阵所形成的“盒子”。最经典的解法是这样的(虚线代表的是隐含的盒子):
当我们面对这个谜题时,我们通常会下意识地想把线条限制在那个虚线框内,但事实上这样是解不开的!我最喜欢的解法更为独特,它巧妙地利用了纸张的三维空间,通过卷起纸张,让这个问题可以用一条线解决(尽管有些人可能认为这违反了规则)。
问 ChatGPT 这个问题挺有趣的,因为尽管它能描述出标准的解法,但它根本无法实际展示出来。它知道正确的答案是什么,因为它索引了诸如维基百科这样包含答案的内容,但它对这个答案的理解还不够深入,以至于它绘制的图形完全不对劲,反而把自己局限在了“盒子”内。
大多数人可能会尝试一阵子后意识到这个问题中一定隐藏着某种“诀窍”,开始尝试跳出常规思维。即使像卷起纸张或使用超大号笔这样的解法按规则来看是“错误”的,但它们却展现了一种创造性的错误。
标准差和标准误的不同之处
要更好地解决问题,你并不需要远走法国南部并切掉一只耳朵。虽然有时你可能觉得,这几乎是唯一你还没尝试过的方法。
我们现在讨论的不是艺术创作,而是技术革新和分析性问题解决。脱离自己的社区,不去了解自己研究领域的基础知识,绝对不是解决问题的正确方式。
The Shaggs 的父亲同时也是他们的经理,他禁止他们听音乐。这或许让他们的音乐作品变得“有趣”,但同时也让他们无法与其他音乐家有效地沟通。在分析领域,缺乏共同的基础知识会让协作变得几乎不可能。如果你想与其他音乐家合作演出,你必须具备共同的理解基础。就像爵士乐传奇 Charlie Parker 所说:“学会音乐的变化,然后再忘记它们。”这意味着你要了解歌曲的和弦和结构,但真正有趣的部分在于你跳出这些固定模式之后。
这就是创造力诞生的地方。创新常常在传统智慧的边缘地带绽放,在初学者之心的主导下。这一观念源自禅宗,强调像新手一样保持开放、渴望探索、无预设偏见的态度。
拥抱“初学者之心”意味着放下专家的身份,用全新的视角来解决问题。它提倡好奇心胜于经验,灵活性胜于日常惯例,开放性胜于确定性。这种心态是创新的温床——就像 Karikó 这样的局外人在其中茁壮成长,他们挑战固有观念,推动界限的扩展。
回到生成式 AI 的话题,这种方法可能是重复过去和创造未来的分水岭。我们仍处于探索 AI 真正潜力和发展方向的初期阶段,而这个阶段正是制定规则和标准的最佳时机。
最后一个问题
在艾萨克·阿西莫夫的短篇小说《最后一个问题》中,一台名为“Multivac”的超级计算机渐渐进化成为全知的“AC”(自动计算机)。随着数据的不断累积,AC 对于最难解答的问题总是给出“目前数据尚不足以给出有意义的答案”这样的回复。
为什么要频繁提到阿西莫夫呢?显然,我们是他的忠实粉丝,但更重要的是,这突显了人类与人工智能共存的问题已经讨论了多年。尽管 ChatGPT 只向公众开放了一年,但在科幻领域,人类与 AI 的互动早已有着至少 80 年的历史。从《2001 太空漫游》中的 HAL9000 到《黑客帝国》,再到《终结者》中的天网,这种互动并非总是一帆风顺。但在阿西莫夫的故事里,得益于其设定的著名机器人三定律,禁止对人类造成伤害,这种关系处理得更为顺畅。他笔下的机器人,如“R. Daneel Olivaw”,都有着明确表明身份的名字。然而,当今我们集体深入探索人工智能的世界,却没有这样的安全保障。
AC 最终演变成了一个宇宙中沉默的守护者,成为黑暗中的知识灯塔。它从一个地球级的机器进化到宇宙级的智能体,反映了我们对通用人工智能(AGI)的宏伟愿景。站在这个新时代的门槛上,我们追求 AGI 的过程就像《最后一个问题》中所描绘的那样——一种永不停息的探求,可能会照亮我们的未来,或者,如果放任不管,可能会加速我们走向湮灭。在我们努力创造超越自身的智能体的过程中,我们可能会面临这样的境地:我们的创造物可能会回答那些我们无法再提出的问题。
DALL-E 对《最后一个问题》主题的诠释。符合我们的主题,这是一幅有趣的图片,对文章很有帮助,但在想象力方面似乎有所不足。它采用了常见的“天空光束”元素,并且不知为何给了一个全知的宇宙计算机一个键盘和无线鼠标。
编辑的注释:
在同行评审的过程中,我们接到了一封来自自称“深思”(Deep Thought)的计算机的留言。这台计算机自诩为穿越时空中第二强大的存在。它特别强调,相比之下,‘AC’其实只能排在第三,并且特意要求我们转达它的这番评论:
“AC?那个总是大声重复同样话语的超级 PlayStation?别开玩笑了。虽然‘最后的问题’还算有点意思,但任何比你们这些刚刚开窍的人类更高级一点的思考生物都会明白,真正关键的问题才是更加深远重要的。”
关于 AI 使用的说明:
在创作图像过程中,我们采用了 ChatGPT 的 DALL-E 技术,并在研究和词汇选择上也得到了 ChatGPT 的协助。通常情况下我不会在文章中特别声明 AI 的使用(除非部分内容是由 AI 编写的),但在这种情况下,做出说明似乎更为恰当。