一个流传很广的说法,所谓大语言模型实际上相当于一个“随机鹦鹉”——
与我们观察其输出时的情况相反,语言模型只是将其在庞大的训练数据中观察到的语素胡乱拼接在一起,根据概率生成文本,但不清楚文字背后的任何含义,就像一个随机的鹦鹉。
出自论文On The Dangers of Stochastic Parrots: Can Language Models Be Too Big
具体来说,下面的三行文本中,第一行纯粹是随机生成,第二行考虑了单词在英语中整体的出现概率,第三行则考虑了单词在前一个词后面出现的概率。
n = 0: RECEIVE FALL SURPRISED FRIDAY INGREDIENT…
n = 1: REPRESENTING AND SPEEDILY IS AN GOOD…
n = 2: THE CHARACTER OF THIS POINT IS THEREFORE…
不难看出,随着n值的升高,文本越来越接近人类语言。
而n-gram模型根本不需要掌握其中的语义或理解其中的抽象概念,就能生成像模像样的句子。
据此有人猜想,GPT-4会不会也只是一种高级的n-gram呢?
Bayless提出,GPT必须学会抽象才能有如今的效果,至少GPT-4肯定如此。
GPT-4不只是“随机鹦鹉”