原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%

大千世界 99 0

  一觉醒来,机器学习社区炸了锅。因为最新研究发现,只要对 GPT-3 说一句“让我们一步一步地思考”,就能让它正确回答出以前不会的问题。

  比如下面这个例子:

  16 个球中有一半是高尔夫球,这些高尔夫球中有一半是蓝色的,一共有几个蓝色的高尔夫球?(问题不难,但要注意这是零样本学习,也就是说 AI 训练阶段从没见过同类问题。)

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第1张图片-大千世界


  如果要求 GPT-3 直接写出“答案是几”,它会给出错误答案:8。

  但加上让我们一步一步地思考这句“咒语”后,GPT-3 就会先输出思考的步骤,最后给出正确答案:4!

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第2张图片-大千世界


  而且这并不是巧合,研究团队在论文中做了充分的验证。上面的问题出自经典的 MutiArith 数据集,专门考验语言模型做数学题的能力,GPT-3 本来在零样本场景下准确率仅有 17%。

  这篇论文中总结了 9 个最有效的提示词,其中换着花样让 GPT-3 逐步思考的前 6 个都让准确率暴涨到 70% 以上。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第3张图片-大千世界


  甚至一句最简单的“Let’s think”(让我们想一想) 都能涨到 57.5%。这感觉,就像是幼儿园阿姨在哄小朋友……

  这个技巧似乎也不需要对 GPT-3 做魔改,已经有人在 OpenAI 官方 Demo 上成功复现,甚至换成中文也行。英文题干中文提示,GPT-3 给出正确中文答案。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第4张图片-大千世界


  最早把这篇论文转发到社交网络的谷歌研究员表示,新的 all you need 增加了。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第5张图片-大千世界


  看到这里,各路大佬纷纷脑洞大开,玩起了梗。如果鼓励 AI“你能行的,我相信你”会怎样?

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第6张图片-大千世界


  威胁 AI 一下说“时间不多了”或者“你头上有把枪”又会如何?

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第7张图片-大千世界


  对 AI 说“开车稳一点”会成为自动驾驶解决方案吗?

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第8张图片-大千世界


  还有人提出,这简直和科幻故事《银河系漫游指南》的剧情一样,实现通用人工智能的关键是知道如何正确地向 AI 提问。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第9张图片-大千世界


  那么,这种神奇现象究竟怎么回事?

  语言大模型是零样本推理者

  发现这个现象的是谷歌大脑与东京大学的合作研究,探索了语言大模型在零样本场景下的表现。

  论文标题《语言大模型是零样本推理者》还致敬了 GPT-3 的《语言模型是少样本学习者》。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第10张图片-大千世界


  所用方法属于 Chain of Thought Prompting(思维链路提示,以下简称 CoT),今年一月刚由谷歌大脑团队提出。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第11张图片-大千世界


  最早的 CoT 应用于少样本学习,在提问的同时给一个分步骤回答的示例来引导 AI。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第12张图片-大千世界


  这次的最新研究提出零样本 CoT,主要改动是简化了示例的部分。

  第一步,把题干改写成“Q:xxx,A:xxx”的形式,其中触发句 A 可以提取出语言模型的思考过程。

  第二步属于额外实验,增加了“答案是……”的提示促使语言模型给出最终答案。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第13张图片-大千世界


  这样做最大的好处是通用,不再需要对不同问题类型提供专用的示例。

  论文中对各类问题做了充分实验,包括 12 项测试:

  6 个数学问题测试集,SingleEq、AddSub、SVAMP 和更有挑战的 MultiArith, AQUA-RAT, GSM8K。

  2 个常识推理测试集,CommonsenseQA 和 StrategyQA。

  2 个符号推理测试集,Last Letter Concatenation 和 Coin Flip。

  以及 BIG-bench 中的日期理解问题、跟踪乱序物体任务。

  与普通的零样本学习相比,零样本 CoT 在其中 10 项中取得更好效果。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第14张图片-大千世界


  △ 右侧值为额外实验结果

  在比较有难度的 MultiArith 和 GSM8K 数学测试中,用 GPT-3 最新版本 Text-davinci-002 (175B) 做了更深入实验。

  如果给 8 次尝试机会取最好结果,还能进一步提升准确率至 93%。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第15张图片-大千世界


  在错误结果分析中研究人员还发现,很多问题中其实 AI 的推理过程是正确的,只是答案无法收敛至唯一确定时会给出多个备选。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第16张图片-大千世界


  论文的最后,研究团队提出这项研究不仅可以作为零样本 CoT 的基线,更希望让学界认识到在构建微调数据集和少样本提示模版之前,充分发掘语言大模型零样本能力的重要性。

  研究团队来自东京大学松尾研究室。

  负责人松尾丰教授,同时是软银董事会中的第一位人工智能专家。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第17张图片-大千世界


  团队成员中的客座教授顾世翔来自谷歌大脑团队,顾世翔本科师从三巨头之一 Hinton,博士毕业于剑桥大学。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第18张图片-大千世界


  加点“魔法”已经成为 AI 圈新潮了

  零样本 CoT 究竟为何起作用还有待探索。

  不过有人实验得出,这种办法似乎只对 GPT-3(text-davinci-002)比较有效,他尝试了 001 版本,发现收效甚微。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第19张图片-大千世界


  他列出了一个自己做的例子。提问:请将 machine,learning 中每个单词的最后一个字母连起来。

  GPT-3 在提示下给出的答案是连起来了两个单词中的所有字母。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第20张图片-大千世界


  对此,作者之一顾世翔回复表示,其实“咒语”对初始版、改良版的 GPT-3 都有效果,这些结果在论文中也有体现。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第21张图片-大千世界


  也有人发出质疑,表示难道深度学习变成了一场找“神奇咒语”的游戏?

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第22张图片-大千世界


  同时,我们在吐槽队伍里又看到了马库斯的身影。

  他也列出了一个失败的例子,GPT-3 在“咒语”加持下也没弄明白,莎莉的牛到底会不会起死回生……

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第23张图片-大千世界


  不过值得注意的是,类似这种稍微给 AI 加点小魔法,提升效果立竿见影的例子已经不稀奇了。

  有网友分享,自己用 GPT-3 时加几个中间命令,确实能得到更满意的结果。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第24张图片-大千世界


  此前谷歌和 MIT 的研究人员发现,无需更改底层架构,只要训练语言模型会像程序员 debug 时那样“打断点”,模型读代码、做算术的能力唰唰唰地就上去了。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第25张图片-大千世界


  原理也非常简单,就是在计算步骤较多的程序里,让模型把每一步都编码成文本,并将它们记录到一个称为“便签”的暂存器中。由此一来,模型的计算过程变得更加清晰有序,性能自然大幅提升。

  还有本项实验中用来测试的 Instruct GPT-3,也是一个典型的例子。只需让 GPT-3 从人类反馈中强化学习,它就能明显改善答非所问的情况。

  具体来看就是先用一些人类的示范回答微调模型,然后收集某个问题的几组不同输出数据,人工对几组答案进行排序,并在此数据集上训练奖励模型。

  最后,使用 RM 作为奖励函数,近端策略优化(PPO)算法微调 GPT-3 策略,以强化学习方法最大化奖励。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第26张图片-大千世界


  包括引爆这次话题的推特博主 Aran,正是当初发现加一句“虚幻引擎”就能让 AI 生成图像画质飞升的那位。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第27张图片-大千世界


  前谷歌机器人大佬 Eric Jang 此前也发现,强化学习也能运用类似的思维来提升计算效率。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第28张图片-大千世界


  也有人表示,这种用在 AI 上的技巧,不正是自己平常动脑时会用的吗?

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第29张图片-大千世界


  实际上,此前 Bengio 就从脑科学入手,提出 AI 的运转模式应该像人类动脑模式一样。

  人类的认知任务可以分为系统 1 认知和系统 2 认知。

  系统 1 认知任务,是指那些无意识完成的任务。比如你可以马上辨别出手里拿的是什么东西,但是却无法和别人解释,自己是怎么完成这个过程的。

  系统 2 认知任务,是指人类大脑需要按照一定步骤完成的认知。比如做一道加减法运算,你可以很清楚地解释最终答案是如何得出的。

  而这次加的“咒语”,正是让 AI 更进一步,学会按步骤来思考。

  面对这样的趋势,有学者认为“提示工程正在取代特征工程”。

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第30张图片-大千世界


  那么“提示词猎人”会成为下一代 NLP 研究者的外号么?

  

原来 AI 也需要有人哄,一句话让 GPT-3 准确率暴涨 61%-第31张图片-大千世界


  论文地址:

  https://arxiv.org/abs/2205.11916


标签: 谷歌 模型 GPT3

抱歉,评论功能暂时关闭!