科技

21世纪的影子王国GPT-3又一场科技的来临

全文共6182字,预计学习时长16分钟

图源:train

1896年7月3日,卢米埃尔兄弟向世人展示了一部电影样片,该样片被誉为史上最具影响力的电影样片之一。这部早期影片只有五十多秒,展示了法国南部肖达车站火车进站的画面。电影制作完成后,卢米埃尔兄弟在全球进行巡演,将这项新发明展示给从未看过电影的人。

据说(可能是编造的),看见影片中火车徐徐驶来,许多观众认为这辆火车会驶出荧幕,冲向他们,于是站起来拔腿就跑。

评论家马克西姆·高尔基(MaximGorky)在看过这部影片后就预测出了电影未来的发展,称电影会给世界带来永久性的变革。

高尔基在文中写道:“昨晚,我像是去了影子王国。电影的魅力太过独特,也太过复杂,我不知如何将电影每一分一毫的精彩都付诸笔下。”(高尔基用“影子”来比喻屏幕上不断变化的黑白画面。)在高尔基眼中,这一能展示变动画面的新媒体“奇怪”且“可怕”,但最终会“对后世产生深远影响”。

最近,我有幸接触到了OpenAI的新技术——GPT-3。GPT-3可以说是人工智能发展史上的一个里程碑,虽然名字简单朴素,但发展潜力巨大,可以用在许多领域,也可能被不怀好意的人利用。

我曾经见识过许多技术,在人工智能领域工作也有十多年了,但客观公正地说,我认为GPT-3是自互联网诞生以来最重要的技术,也是本世纪人工智能领域最重要的技术。测试GPT-3的时候,我就像是进入了高尔基笔下的“影子王国”,不知如何描述我所见所感。这项全新的技术让人害怕,但与此同时又令人振奋。

GPT-3的发明者利用深度学习技术对其进行训练,学习内容包含了截止到2019年10月人类创造的几乎所有公开发表的文本,其中包括维基百科的全部内容、几千万本书以及1万多亿个发到推特、其他社交媒体和公共网络上的词语。

有了这样庞大的数据输入,GPT-3得以获取人类历史上提出的各种观点、看法和各类成文信息以及出版物内容。此外,GPT-3还能概括这些内容,把不同信息联系起来并用数学方法处理信息。

GPT-3在训练过程中识别出了超1.75千亿个参数,而且能用这些参数理解并处理人类语言和想法。《麻省理工科技评论》称这个模型“无与伦比”。

GPT-3的研发者起初只希望该程序能完成一些相对基础的任务,比如把某一文段从整个文本中剥离出来,完成文本创作或是添加相关段落。GPT-3一开始被视为和自动更正工具差不多,只是该程序为文本写作提供的是段落撰写建议,而不是选择词汇的建议。

图源:unsplash

由于GPT-3可以提出条理清晰、合乎逻辑的观点,不法分子可能利用这一功能传播虚假信息。仇恨组织利用GPT-3,在短短几个小时内就能获得上千篇宣扬自己主张的文章,还能建立内含几百篇章文章的虚假新闻网站。

他们甚至可以利用GPT-3编写出一个机器人,在推特上查找反对他们的推文,编写种族主义或性别歧视的内容然后自动回复。虽然这背后可能只有几个人在操纵,但却可能会让人觉得这是个有组织的团体,就活跃在人们生活中。

不法分子利用GPT-3几乎可以冒充任何人,制造各种各样的骗局。

GPT-3同样也可能对整个产业造成威胁。GPT-3生成的文章虽然不能说完美,但至少跟一些入门级写手写出的文章质量差不多。如果大规模使用GPT-3的话,公司可以轻轻松松写出几千篇甚至几百万篇短文,涉及各个话题,这可能让整个写作行业面临崩溃。

GPT-3还可以创作其他文体,如法律摘要、添加新闻内容、体育故事和规则总结等。像那些结构清晰,行文格式固定的文章,GPT-3都可以撰写。不过,由于不了解时事,GPT-3无法准确报道当下新闻事件,但是基于其对此前相似新闻的了解,GPT-3可以评论某一当下事件的重要性。随着该模型编程能力不断精进,GPT-3还有可能代替初级软件开发程序员,对高级程序员的职业也有一定的威胁。

即便用户没打算用GPT-3做坏事,该模型也有可能造成一些问题。在对GPT-3的训练中,该模型学习了数十亿篇人类写出的文本,这也就意味着GPT-3可以模仿人性中最黑暗的一面——种族歧视、性别歧视、傲慢以及偏见。

而在表达这些观点的时候,GPT-3可能采用轻松欢快的文风,让人都感觉不到它在传播这样一种观点。我曾在GPT-3中传入命令式,要求它写出一个Python函数。在我对它下的指令中,我提到了这个任务是老板布置的(一般这样的前提会使得该模型输出文风更加严谨的文本),并使用了“她”来指代老板。

然而,GPT-3输出的并不是Python函数,而是一个软件工程师跟他女上司的故事。这位上司开发了一个很有用的软件,拿去跟工程师分享。工程师“一脸惊讶”,对老板说,“亲爱的,这个代码写的可真棒呀!”

科技行业内大多数领导都是男性,GPT-3可能不知道软件工程师的上司还有可能是位女性。最终,GPT-3尝试输出一个符合其自身世界观的答案,却在无意识中创作了一个充满性别歧视的故事。故事的结尾,程序员仿佛还高他老板一头,称呼老板为“亲爱的”,加剧了对女性的偏见。

GPT-3是人类创造的,所以时常会模仿我们人类社会中固有的一些偏见。意识到这一点后,OpenAI采取了史无前例的措施,防止该模型被人滥用。虽然GPT-3能给行业带来巨大变革,但OpenAI对这项技术的推广却极其缓慢,控制地犹为严格。

若想使用该模型,必须向OpenAI提出申请,写出书面文件详细说明申请目的和自身背景情况。OpenAI团队会对申请进行漫长的审查,只有少数申请能获得使用许可。因此,OpenAI注册现在在科技领域盛极一时,甚至有流言称已有1万多人申请使用该模型。

用户在访问GPT-3前,需要同意一系列使用条款,包括禁止发布虚假信息、影响、发布诽谤性内容、大量发布博客文章等等。违反条款的用户可能会被剥夺使用GPT-3的权利。若是用户想直接使用GPT-3模型,还需要通过严密的审查,包括和OpenAI团队进行30分钟的面谈。

不过,用户一旦获准使用GPT-3,在使用模型时相对来说几乎没有限制。OpenAI不会审查GPT-3的输出结果,鼓励用户在模型中进行探索,发现GPT-3的能力和不足。虽然GPT-3自动输出的结果可能带有偏见,但OpenAI还是鼓励用户随心所欲进行各种尝试,利用自己的判断力评估该模型输出的结果是否可取。

OpenAI还鼓励用户一起讨论输出结果。GPT-3的所有用户都可以加入Slack中GPT-3相关频道进行讨论,在该频道中,用户可以提问、可以分享使用GPT-3最棒的体验、还可以发布GPT-3输出的带有偏见的内容或的一些问题。

OpenAI团队积极回复每一条发布,经常参加讨论。我之前发布过几条信息,在一、两个小时内就得到了回复,即便是周末消息回复的也很及时。

OpenAI团队非常清楚,GPT-3的能力一旦被滥用会带来严重后果,所以在该模型的推广中格外小心谨慎。早期社交网络诞生时,其口号是“快速发展,打破一切”,但现在的新口号似乎是“龟速发展,谨言慎行”。

高尔基在1896年就预测了电影未来的发展,颇有先见之明地警告电影在发展中很容易专注画面,传播煽动性和的内容。高尔基还担心电影会展示暴力场景,如社会贱民“被刺死在栅栏上”;第一台打印机面世时也有相同的担忧。

新媒体本身就带有风险,控制这些风险需要一定的时间和精力。研发使用类似GPT-3模型的公司从一开始就在把控风险,研发初期使用群体只包括小部分专业人士时,他们就为此做出了努力,这种精神令人鼓舞。

如果OpenAI及其开发者不顾风险,敞开GPT-3的大门,开放给任何人使用,他们能挣数十亿美元(并且挑战谷歌这类竞争对手的广告投放和内容推荐引擎)。但目前,OpenAI并没有这么做。

但未来还存在着种种问题。微软公司9月获得GPT-3独家授权,此举受到了OpenAI创始人之一埃隆·马斯克(Elon Musk)的抨击。微软一直致力于向所有人开放GPT-3的使用,在一篇博文中提到,要想真正实现GPT-3的价值,“需要大量的人力精力,任何一家大型技术公司都难以承担”。

此种技术的未来——社会对类似GPT-3模型的接受程度——很可能取决于微软公司是否能实现承诺,广泛开放GPT-3使用。

留言点赞关注

我们一起分享AI学习与发展的干货

如转载,请后台留言,遵守转载规范