ChatGPT 学会像人类一样思考,已经变得足够聪明,可以在哈佛、耶鲁大学就读

ChatGPT 迄今为止的表现令人印象深刻,但它只能在语言问题上表现出色。然而,现在它已经接受了数学和逻辑问题的训练,这让它足够聪明,可以击败大多数进入哈佛或耶鲁的学生。

ChatGPT 迄今为止的表现非常出色,令人印象深刻,但它在能力和知识方面存在一些重大缺陷。例如,它在数学和逻辑问题上表现很差,但它的熟练程度足以通过沃顿商学院的 MBA 考试,以及授予其在美国行医执照的考试。

不过现在,ChatGPT 已经足够熟练,可以通过大多数推理和逻辑问题,从而进入一些顶尖常春藤盟校。

AI 学习人类技巧据研究人员称,ChatGPT 的高级 AI 模型 GPT-4 已成功获得一种称为“类比推理”的智能形式,这种智能形式以前被认为是人类独有的。类比推理涉及通过借鉴过去类似情况的经验来解决新问题。

在一项评估此类推理能力的特定测试中,GPT-4 的表现超过了 40 名大学生在 AI 语言程序中取得的平均分数。

机器发展出类似人类的思维能力已引起专家们的极大关注。人工智能领域的著名人物杰弗里·辛顿博士对更智能的实体超越人类控制的潜在长期风险表示担忧。

有些问题仍然存在,但会持续多久呢?然而,许多其他顶尖专家不同意这一观点,并断言人工智能不会构成这样的威胁。最近的一项研究强调,GPT-4 仍然难以应对一些相对简单的测试,这些测试幼儿可以轻松解决。

尽管如此,语言模型还是展现出了令人鼓舞的能力,在字母和单词序列中的模式检测、完成链接单词列表以及识别详细故事中的相似之处等任务中,其表现与人类相当。最引人注目的是,它无需经过专门的训练就能完成这些任务,似乎利用了基于不相关的先前测试的推理。

加州大学洛杉矶分校(UCLA)这项研究的资深作者卢宏静教授对最初为词汇预测而设计的语言学习模型表现出这样的推理能力感到惊讶。

GPT 仍然依赖文本来处理问题在研究中,GPT-4 展示了其在解决受瑞文渐进矩阵启发的问题方面优于普通人的能力,瑞文渐进矩阵是一种测试,涉及预测复杂形状排列中的下一个图像。为了实现这一点,形状被转换成 GPT-4 可以理解的文本格式。

此外,GPT-4 在一系列需要完成单词表的测试中表现优于学校学生,其中前两个单词是相关的,例如“爱”和“恨”,并且它必须通过识别与第三个词“富”相反的词来预测第四个词“贫穷”。

值得注意的是,GPT-4 在这些测试中的表现超过了申请大学的学生的平均分数。

这项研究发表在《自然人类行为》杂志上,旨在探索 GPT-4 的能力是否反映了模仿人类的推理能力,或者它是否已经发展出一种根本不同的机器智能形式。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注