智东西(公众号:zhidxcom)
编译 |  陈骏达
编辑 |  Panken

智东西6月25日(ri)(ri)消息,近日(ri)(ri),OpenAI首席(xi)技(ji)术官米拉(la)·穆(mu)拉(la)提(Mira Murati)在达特茅(mao)斯塞耶工程学(xue)院毕业季(ji)的活动上,与前(qian)亚马(ma)逊高管、现达特茅(mao)斯学(xue)院受(shou)托人的杰弗里·布莱克本(Jeffery Blackburn)开(kai)展了一场50分钟的深度访谈。

OpenAI CTO深度访谈:剧透GPT-5发布时间

▲穆拉(la)提(ti)在达(da)特茅斯学(xue)院(yuan)(图源:达(da)特茅斯学(xue)院(yuan))

在这(zhei)场访(fang)谈中,穆拉提分享了自己从航天行业(ye)(ye)、汽车行业(ye)(ye)、VR/AR再(zai)到加(jia)入OpenAI的丰富职业(ye)(ye)生(sheng)涯,并(bing)根据(ju)自己在行业(ye)(ye)最前沿的所(suo)见所(suo)闻,分析(xi)了AI治理、AI对教育(yu)的影响(xiang)、AI对工作(zuo)的影响(xiang)等问题。

她在访谈中透露,明年或后年就会出现博士水平的智能系统,这或许指的就是GPT-5。她更是抛出一个极具争议性的观点,有些创意工作本不该存在而AI很快便会取代这些职位。这一观点在网上引发轩然大波,认(ren)为OpenAI吃了饭就砸锅(guo),并不理解创造力(li)意(yi)味着(zhe)什(shen)么(me)。

穆拉提认为OpenAI的成就离不开深度神经网络、大量数据和大量算力这3个因素的叠加,虽然他们还在研究背后的原理,但实践证明深度学习真的行得通。

她称AI安全和AI能力是一体两面的,聪明的模型才能理解我们给它设定的护栏。从工程的角度上来看,AI能力的提升并不会降低模型的安全性。OpenAI对模型的安全性负有很大责任,但要实现风险的有效管控,社会和政府的参与也是必不可少的。OpenAI正积极与政府和监管机构合作,共同解决AI安全问题。

在场的观众也向穆拉提抛出了尖锐的问题。穆拉提在回应观众对于模型价值观的问题时提到,OpenAI目前已经通过人类反馈强化学习将人类价值观融入AI系统,但未来的重点会是在基础价值体系上,给客户提供高度定制化的模型价值体系。

观众还就OpenAI最近的侵权疑云和内容创作者的许可和补偿问题询问穆拉提的看法。穆拉提再次强调OpenAI并未刻意模仿斯嘉丽的声音,她挑选声音的决策过程是完全独立的。

至于版权内容,OpenAI目前在尝试以聚合数据池的形式,让创作者提供版权内容到数据池中,整体评估创意内容对模型表现的贡献,并给予相应的报酬。但这一技术颇具难度,实际落地还需要一段时间。

与OpenAI CEO萨(sa)姆·阿尔特(te)曼(man)(Sam Altman)不同,穆(mu)拉提之(zhi)(zhi)前的公众认知(zhi)度较低。她在(zai)1998年出生于阿尔巴尼(ni)亚,之(zhi)(zhi)后到加拿大(da)和美国(guo)求学。

她2018年便加入OpenAI,是OpenAI的早期成员之一。作为OpenAI的CTO,她领导了OpenAI在ChatGPT、DALL·E、Codex和Sora方面的工作,同时还监管公司的研究、产品和安全团队。

微软首席执行官萨蒂亚·纳德拉(Satya Nadella)评价穆拉提时说到,她既具备技术专长,也颇有商业头脑,并对OpenAI的使命有深刻认识。

以下(xia)是对穆拉(la)提(ti)(ti)在(zai)达(da)特茅斯学(xue)院(yuan)深度访谈的(de)完(wan)整编译(为提(ti)(ti)高可读(du)性(xing),智(zhi)东西调整了部分问答的(de)顺序(xu),并(bing)在(zai)不(bu)违背原意的(de)前提(ti)(ti)下(xia)进(jin)行(xing)了一定的(de)增删修改):

一、干过航天、汽车、VR/AR等行业,发现自己对AI最感兴趣

杰弗里·布莱克本:大家都想听听你的近况和你正在构建的东西,这真是太吸引人了。不过也许我们应该从你的故事开始。你毕业后去了特斯拉一段时间,然后是OpenAI。你能简短地和我们描述一下那个时期吗,还有你加入早期的OpenAI的故事。

米拉(la)·穆拉(la)提:我(wo)大(da)学毕业之(zhi)后(hou)其实在(zai)航(hang)空(kong)领域(yu)短(duan)暂工(gong)作(zuo)过,但之(zhi)后(hou)我(wo)意识到航(hang)空(kong)领域(yu)的(de)发(fa)展(zhan)相(xiang)当缓(huan)慢(man)。我(wo)对特斯拉的(de)使(shi)命非常感兴趣,也对构建可(ke)持续交通的(de)未(wei)来需要面临的(de)创(chuang)新挑(tiao)战感兴趣,因此(ci)我(wo)决(jue)定加入(ru)特斯拉。

在参与Model S和Model X的工作后,我意识到自己也不想在汽车行业工作。我想要做一些(xie)能(neng)真(zhen)正推动社会(hui)发(fa)展的(de)事(shi)情,同时解决(jue)一些(xie)非常困难的(de)工程挑(tiao)战。

我(wo)在特(te)斯拉(la)的(de)时(shi)候(hou)对自动(dong)驾驶汽(qi)车、计算(suan)机视(shi)觉(jue)、AI这些技术和它(ta)们在自动(dong)驾驶汽(qi)车上的(de)应(ying)用很感兴趣。我(wo)那(nei)时(shi)候(hou)想(xiang)更深入地了解AI的(de)其它(ta)领(ling)域。于是(shi)我(wo)加入了一家初创公(gong)司,在那(nei)里领(ling)导(dao)工程(cheng)和产品团队,将AI和计算(suan)机视(shi)觉(jue)应(ying)用于空(kong)间计算(suan)领(ling)域,研究计算(suan)的(de)下(xia)一个界面。

当时我认为计算的交互界面会是VR和AR,但现在我的想法不一样了。那时候我认为,如果我们可以用手与非常复杂的信息交互,无论是公式、分子还是拓扑概念,我们便可以更直观地了解这些东西,扩展自己的学识。然(ran)而事实证(zheng)明,当时谈VR还为时过早。

但这给了我许多机会,能了解不同领域的AI技术。我想我的职业生涯一直都处于技术和应用的交叉点。这给(ji)了我(wo)一个不同的视角(jiao),能(neng)大致了解(jie)AI的发(fa)展程度(du)以及它可以应用(yong)到什么(me)领(ling)域(yu)。

杰弗里·布莱克本:所以在特斯拉的自动驾驶研究中,你看到了机器学习、深度学习的可能性,看到了它的发展方向。

米拉·穆拉提:是的(de)。但(dan)我(wo)并没有看(kan)得(de)很(hen)清楚。

杰弗里·布莱克本:你给马斯克工作过吗?

米拉·穆拉提:是的,特别是在最后一年。但那时我们还不太明确AI的发展方向。当时,我们仍然只是将AI应用于特定的应用场景里,而非通用的场景。VR和AR也是如此。而我不想只是将这些技术应用于具体问题。我想做更多的研究,了解背后的原理,然后开始将这些技术应用到其他事物上。

我就在这个阶段加入了OpenAI,OpenAI的使命对我非常有吸引力。当时它是一个非营利组织。现在使命没有变,但结构变了。当我6年前加入时,它是一个致力于构建安全AGI(通用人工智能)的非营利组织。当时OpenAI是DeepMind之外唯一一个做相关研究的公司。这就是我在(zai)OpenAI旅程的开始。

二、3大技术进步让ChatGPT成为可能,实践证明模型能深入理解数据

杰弗里·布莱克本:明白了,所以你从那时起你就一直在构建很多东西。也许你可以为在场的观众提供一些AI的基础知识。从机器学习、深度学习到现在的AI,这些概念都是相互关联的,但也各有不同。这些转变是如何发生的呢,又是如何让ChatGPT、DALL·E或者Sora这样的产品成为可能的呢?

米拉·穆拉提:其实我们的产品并不是全新的,在某种意义上我们的产品是建立在过去几十年人类共同的努力的基础上的。其实AI就开始于达特茅(mao)斯学(xue)院。

在过去几十年中,神经网络、大量数据和大量算力的结合带来了真正具有变革性的AI系统或模型,它们能够执行一般性任务。尽管我们不清楚其为何成功,但是深度学习真的行得通。我(wo)(wo)们(men)也试(shi)图通(tong)过(guo)研究和工具来理解这些系统的实际运作方式。不(bu)过(guo)根据我(wo)(wo)们(men)过(guo)去几(ji)年研究AI技术时的经验,我(wo)(wo)们(men)知道这条路行(xing)得通(tong)。我(wo)(wo)们(men)也见证(zheng)了它们(men)逐(zhu)渐进(jin)步的轨(gui)迹(ji)。

以GPT-3为例,这是一个大约三年半前部署的大型语言模型。其目标是预测下一个token,基本上是下一个单词的预测。我们发现,如果我们给这个模型预测下一个token的任务,并用大量数据训练这个模型,给它大量计算资源时,我们还能获得一个真正理解语言的模型,而且其理解水平与人类相似。

它通过阅读大量书籍和互联网的信息,形成了自己对这些数据的模式的理解,而不仅仅是简单地记忆。我们还发现,这种模型不仅可以处理语言,还可以处理不同类型的数据,如代码、图像、视频和声音。它并不在乎我们输入什么数据。

我们发现,数据、计算和深度学习的结合运作得非常好,通过增加数据类型和计算量,这些AI系统的性能会不断提高。这便是所谓的扩展法则(Scaling Laws)。它不是实际的法则,而是模型(xing)能力(li)提高的统计学预测。这就是推(tui)动今天AI进(jin)步(bu)的动力(li)。

杰弗里·布莱克本:你们为什么选择了聊天机器人作为第一款产品呢?

米拉·穆拉提:就(jiu)产品(pin)而言(yan),我们(men)(men)其实是(shi)从API开始的(de),而不是(shi)聊天(tian)机器人。因为(wei)我们(men)(men)不知道如何将(jiang)GPT-3商(shang)(shang)业(ye)化。商(shang)(shang)业(ye)化AI技术(shu)实际上非(fei)(fei)常(chang)(chang)困难。我们(men)(men)最初专注于技术(shu)的(de)开发和研(yan)究,我们(men)(men)认为(wei)只要构建了一个优秀(xiu)的(de)模型,商(shang)(shang)业(ye)伙伴就(jiu)会自然地拿它去(qu)构建产品(pin)。但后来(lai)我们(men)(men)发现这实际上非(fei)(fei)常(chang)(chang)困难,这也是(shi)为(wei)什(shen)么我们(men)(men)开始自己开发产品(pin)。

于是我们开始自己构建一个聊天机器人,我们试图理解为什么一个成功的公司不能将这项技术转化为有用的产品。我们最终发现,这其实是一种非常奇怪的构建产品的方式——从技术出发,而不是从要解决的问题出发。

三、模型能力和安全性相辅相成,聪明的模型才能理解人类设定的护栏

杰弗里·布莱克本:随着算力、数据的增长,智能似乎在以线性的方式发展,只要增加这些元素,它就变得更聪明。ChatGPT在过去几年中的发展到底有多快呢?它又会在何时实现人类水平的智能呢?

米拉·穆拉提:其实这些系统已经在某些领域达到了与人类相似的水平,但在很多任务上确实也还存在差距。根据系统发展的轨迹,像GPT-3这样的系统可能具有幼儿级别的智能,而GPT-4则更像是聪明的高中生。在未来几年,我们将看到它们在特定任务上达到博士学位水平的智能。发展进步的速度还是很快的。

杰弗里·布莱克本:你是说一年内会有这样的系统吗?

米拉·穆拉提:一年半吧。或许那时候就会有能在很多领域超越人类表现的AI系统了。

杰弗里·布莱克本:这种快速的智能发展引发了关于安全性的讨论。我知道你一直非常关注这一话题,我也乐见你在研究这些问题。不过大家真的很想听听你的观点。

假设3年后,当AI系统变得极为聪明,能够通过任何地方的每一个律师考试和我们设计的每一个测试时,它有没有可能自己决定接入互联网,并开始自主行事呢?这会成为现实吗,作为OpenAI的CTO和引领产品方向的人,你会思考这些问题吗?

米拉·穆拉提:我们一直在考虑这个问题。我们势必会拥有具有行为能力的AI系统,它们能够(gou)连接到互(hu)联网、相(xiang)互(hu)交谈、共同(tong)完(wan)成任务,或者(zhe)与(yu)(yu)人(ren)类一起工作,实现与(yu)(yu)人(ren)类的(de)无缝(feng)协(xie)作。

至于这些技术的安全问题和社会影响,我认为不能在问题出现之后才想着解决,而是需要在技术发展的同时,将问题的解决方案嵌入到技术中,才能确保正确处理这些风险。

模型能力和安全性是相辅相成的,它们携手并进。告诉一(yi)(yi)个聪(cong)(cong)明(ming)的(de)模(mo)(mo)型不(bu)要(yao)做某事,要(yao)比让(rang)一(yi)(yi)个不(bu)聪(cong)(cong)明(ming)的(de)模(mo)(mo)型理(li)解这一(yi)(yi)概念(nian)要(yao)容易得多。这就(jiu)好像训练(lian)一(yi)(yi)只聪(cong)(cong)明(ming)的(de)狗和不(bu)聪(cong)(cong)明(ming)的(de)狗的(de)区别。智(zhi)能(neng)和安全(quan)是密不(bu)可分的(de)。更(geng)聪(cong)(cong)明(ming)的(de)系统能(neng)更(geng)好地理(li)解我们设定的(de)护栏。

目前大家在争论是应该进行更多安全研究,还是AI能力的研究。我认为这种观点是具有误导性的。

因为在开发(fa)产品(pin)时(shi),当然要(yao)考虑安全性和护栏,但(dan)在研发(fa)方面(mian),它们实际上(shang)是相(xiang)辅(fu)相(xiang)成的(de)。我们认(ren)为应该非常科学地来(lai)看待这个(ge)问题,尝试在模型完成训练前(qian)预测(ce)出(chu)它们将(jiang)具备哪些能力(li),然后(hou)在此(ci)过程中准(zhun)备相(xiang)应的(de)护栏。

但到目前为止,这(zhei)在行业中并非常态。我(wo)们(men)训练这(zhei)些模型,然后出现(xian)了所谓的涌(yong)现(xian)能(neng)(neng)力(li)。这(zhei)些能(neng)(neng)力(li)是(shi)突然涌(yong)现(xian)的,我(wo)们(men)不知道(dao)它们(men)是(shi)否会出现(xian)。我(wo)们(men)虽然可以看到数据(ju)(ju)上的性能(neng)(neng)提(ti)升(sheng),但我(wo)们(men)不知道(dao)这(zhei)种数据(ju)(ju)的提(ti)升(sheng)能(neng)(neng)是(shi)否意味(wei)着模型在翻译、生物化学、编程(cheng)或其他方面做得(de)更好。

做好预测模型能力的科学研究,有助于我们为即将到来的事情做好准备。所有(you)安全(quan)方面(mian)的(de)研究工作(zuo)与(yu)技术的(de)发展(zhan)方向是(shi)一致的(de),必须一同实(shi)现。

四、深度伪造风险不可避免,多方合作才能解决问题

杰弗里·布莱克本:米拉,现在网上也出现了AI伪造的乌克兰总统泽连斯基说“我们投降”的视频,或者汤姆·汉克斯视频的牙医广告,你如何看待这类的事情呢?这是不是你们公司应该管控的问题,或者是否需要有相关法规来规范,你是如何看待这个问题的呢?

米拉·穆拉提:我的看法是,这是我们的技术,所以我们对用户如何使用它负有责任。但这也是与民众、社会、政府、内容制作者、媒体等共同的责任,我们需(xu)要一(yi)起弄清楚如何使用(yong)这(zhei)些技术。但为了(le)使其成为共同的(de)责任,我们需(xu)要带领(ling)人们,给(ji)他们提供(gong)访(fang)问权限,给(ji)他们提供(gong)工具来理(li)解这(zhei)些技术,并给(ji)予适当的(de)护栏。

我认为不可能完全没有风险,但问题是要如何最小化风险,并(bing)为人们提(ti)供(gong)这样做的工具。以(yi)政府(fu)为例,非(fei)常重要的是与他们一同研究,并(bing)让(rang)他们提(ti)前接触(chu)到(dao)事物,让(rang)政府(fu)以(yi)及监管机构了解企业里发生了什么。

也许ChatGPT所做的最重要的事情就是让公众意识到AI的存在,让人们真正直观地感受到这项技术的能力以及它的风险。当人们(men)亲自(zi)尝试AI技术(shu)并将其应用于自(zi)己的业务时,就(jiu)能(neng)清楚的意识到它不能(neng)做某些事情(qing),但(dan)可以(yi)做很(hen)多其它的事情(qing),明白这一(yi)技术(shu)对自(zi)己或者整个劳动力市场意味(wei)着什么(me)。这让人们(men)可以(yi)做好准备。

五、前沿模型需要更多监管,做好模型能力预测是关键

杰弗里·布莱克本:这是一个很好的观点,你们创建的这些互动界面,比如ChatGPT、DALL·E让人们知道了未来会出现什么。关于政府我还想谈最后一点。你希望现在就有一些规定被制定出来,而不是等到一年或两年后当系统变得非常智能,甚至是有点可怕的时候。那我们现在究竟应该做什么呢?

米拉·穆拉提:我们一直在主张对前沿系统进行更多的监管,这些模型的能力出色,但正因如此可能由于滥用而造成的负面影响也更大。我们一直对政策制定者持有非常开放的态度,并与监管机构合作。对于更小的模型,我认为允许生态系统中有很多的广度和丰富性是好的,不要(yao)让人们(men)因为拥有的(de)计算或数据(ju)资源较少而无法参与这一领域的(de)创(chuang)新。

我们(men)一直在(zai)主(zhu)张对前(qian)沿系(xi)统进行更多的监(jian)管,那里的风险(xian)要高得多。而且,你可以提前(qian)预见(jian)即将(jiang)到(dao)来的事(shi)情,而不是(shi)试图跟上(shang)已(yi)经迅(xun)速发生的变化。

杰弗里·布莱克本:你们可能不希望美国政府对GPT-5的发布进行监管吧?让他们对你们指手画脚。

米拉·穆拉提:这也看情况吧,我们在做的(de)许多(duo)安(an)全工(gong)作已经被政府编纂到(dao)AI监管的(de)准(zhun)则里了。我们已经完成了不少AI安(an)全的(de)工(gong)作,甚至(zhi)为美国(guo)政府乃至(zhi)联合国(guo)提供了AI部(bu)署(shu)的(de)相关(guan)原则。

我认为要做好AI安全,需要真真正正地参与AI研究,理解这些技术在实践过程中意味着什么,然后(hou)根据这些理解创建相(xiang)关(guan)的规定。这也是目(mu)前正在发生的事情。

要让监管领(ling)先于(yu)这些前沿系统,我(wo)们(men)需(xu)要在模型能力预测领(ling)域进(jin)行进(jin)一步的科(ke)研,以便提出正确的监管。

杰弗里·布莱克本:我希望政府有能够理解你们在做什么的人。

米拉·穆拉提:似乎越来越多的人加(jia)入政(zheng)府,这些人对(dui)AI有更好的理解,但还(hai)不(bu)够。

六、所有知识型工作都会受AI影响,AI让一切事情的“初稿”都变得更简单

杰弗里·布莱克本:你们应该是AI行业,乃至整个世界中,最能看清这项技术将如何影响不同行业的公司。它已经在金融、内容、媒体和医疗等领域有所应用。展望未来,你认为那些行业会因为AI和你们在OpenAI的工作,而产生巨大的变革呢?

米拉·穆拉提:这很像是我们刚刚开始构建基于GPT-3的产品时,企业家问我们的问题。人们会问我,我能用它做什么?它有什么用?我会说,任何事情,你尝试一下就知道了。我认为它将影响一切行业,没有领域不会受到影响,至少在知识型工作和知识劳动方面不会。也(ye)许进入物理世界需要一点时间,但我认为一切都将受到影响。

现在我们看到,AI在高风(feng)(feng)险领域(yu)如医疗保(bao)健或法律领域(yu)的(de)应用有所滞后。这也是很(hen)合理的(de)。首先,你要在低风(feng)(feng)险、中等风(feng)(feng)险的(de)用例(li)中理解并使(shi)用它,确(que)保(bao)这些用例(li)得到安全(quan)的(de)处(chu)理,然(ran)(ran)后才能将(jiang)其应用到高风(feng)(feng)险的(de)事情(qing)上。最初应该有更(geng)多人类的(de)监督,然(ran)(ran)后逐渐切换到更(geng)高的(de)人机协(xie)作程(cheng)度。

杰弗里·布莱克本:有哪些用例是正在出现、即将出现或者你个人比较喜欢的?

米拉·穆拉提:到目前为止,我最喜欢的用例就是,AI让我们做的所有事情的第一步都变得更加容易了,无论是创建一(yi)个(ge)新的设(she)计、代(dai)码、文章、电子邮件,都变(bian)得更(geng)加容易了。

一切事物的“初稿”都变得更加容易,它降低了做某件事的(de)(de)障碍(ai),让人们(men)可以专注于更有(you)创意、更困难的(de)(de)部分。特别是在(zai)代码方面(mian),你可以把很(hen)多繁琐的(de)(de)工作外包给AI,比如文档(dang)方面(mian)的(de)(de)。在(zai)行业方面(mian),我们(men)已经看(kan)到了很(hen)多应用。客服绝对是AI聊天机器人的(de)(de)重要应用领域。

分(fen)析类的(de)工作(zuo)也(ye)是,因为现(xian)在(zai)我们已经将很(hen)多工具连接到核心模型(xing)上,这使得模型(xing)更加易用(yong)和(he)高(gao)效。我们现(xian)在(zai)有代码分(fen)析工具,可(ke)以(yi)分(fen)析大量的(de)数(shu)据(ju),可(ke)以(yi)将各(ge)种数(shu)据(ju)倾倒入其中,它可(ke)以(yi)帮助你(ni)分(fen)析和(he)筛选数(shu)据(ju)。你(ni)可(ke)以(yi)使用(yong)图像生成工具,你(ni)可(ke)以(yi)使用(yong)浏览工具。如果(guo)你(ni)是在(zai)准备论文,AI能让(rang)你(ni)的(de)研(yan)究工作(zuo)可(ke)以(yi)更快、更严谨地完成。

我认为这是模型生产力进步的下一层次——即给核心模型加上工具,并让它们深度融合。模型会决定何(he)时使用分(fen)析工具、搜索或代码(ma)工具。

七、有些创意工作本不该存在,模型将成为极佳的创意工具

杰弗里·布莱克本:随着模型逐渐观看了世界上所有的电视节目和电影,它是否会开始编写剧本和制作电影?

米拉·穆拉提:这些(xie)模(mo)型(xing)是(shi)一种工具(ju),作(zuo)为工具(ju)它当然可(ke)以完(wan)成这些(xie)任务。我(wo)期望(wang)我(wo)们能与(yu)这些(xie)模(mo)型(xing)合作(zuo),扩展(zhan)我(wo)们创造力的边界。

而人类是如何看待创造力的呢?我们认为它是一种非常特殊的东西,只有少数有才华的人才能接触到。而这些工具实际上降低了创造力的门槛,提升了人们的创造力。所以从这个意(yi)义上说,我认为模型会成(cheng)为很好的创意(yi)工具。

但我认为它真的将成为一个协作性工具,特别是在创意领域。更多的人将变得更加有创造力。一些创意工作可能会消失,但如果它生产的内容质量不高,也许它们从一开始就不应该存在。我真的(de)(de)相信(xin)AI可以成(cheng)为(wei)教(jiao)育和创造力(li)(li)的(de)(de)工具(ju),它将提(ti)升我们的(de)(de)智力(li)(li)、创造力(li)(li)和想象(xiang)力(li)(li)。

杰弗里·布莱克本:人们曾经认为CGI等东西会毁掉电影行业,他们当时非常害怕。AI的影响力肯定要大于CGI,但我希望你对AI的看法是对的。

八、AI对工作的影响尚未可知,但经济转型势不可挡

杰弗里·布莱克本:人们担心许多工作可能面临被AI取代的风险。AI对人们的工作究竟有什么影响,你能从整体上谈谈这个问题吗?人们应该真的为此担忧吗?哪些类型的工作更危险,你是如何看待这一切的发展的?

米拉·穆拉提:事实上,我们并不真正了解AI将对就业产生什么影响。第一步是帮助人们理(li)解这些(xie)系统能做什么,将(jiang)它们集(ji)成到他(ta)们的(de)工作流程中,然(ran)后开始预测(ce)和预测(ce)影响。并(bing)且我认(ren)为,人们并(bing)没(mei)有意(yi)识到这些(xie)工具已经被大量(liang)的(de)使用了,这方面(mian)的(de)研究还不够。

因此,我们应该研究当前工作的本质、教育的本质发生了什么变化,这将帮助我们预测如何为这些AI能力的提升做好准备。具体而言,我不是经济学家,但我确实预计会有很多工作发生变化,一些工作将消失,一些工作机会将出现,我们不知道具体会是什么样子,但可以想象许多严格意义上来说的重复性的工作将会消失。人们在做这些工作的时候并没有任何成长。

杰弗里·布莱克本:你认为会有足够多的其他工作被创造出来吗,能不能补偿这些消失的工作?

米拉·穆拉提:我认为会有很多工作被创造出来,但是创造多少工作,改变多少工作,失去多少工作,我不知道。我也不认为现在有人真正知道,因为这一问题还没有被仔细研究,但真的需要引起重视了。

但是我认为经济将会转型,这些工具将会创造很多价值,所以问题是如何利用这个价值。如果工作的性质真的改变了,那么我们如何将经济价值分配到社会中。是通过公共福利吗?是通过全民基本收入(UBI)吗?是通过一些其他新系统吗?有很多问题需要探索和解决。

九、AI能实现高等教育普惠化,提供定制化学习服务

杰弗里·布莱克本:也许高等教育在你描述的工作中扮演了一个重要角色。你认为高等教育在AI的未来和演变中扮演什么角色?

米拉·穆拉提:我认为弄清楚如何使用AI工具促进教育事业是很重要的。因为我认为AI最强大的应用之一将是在教育中,提升我(wo)们的(de)创造力和知识。我(wo)们有机会利(li)用AI建立超高(gao)质量的(de)教育,非常容易获得,理(li)想(xiang)情况下(xia)对世(shi)界(jie)上任何(he)人都是免费的(de),能以(yi)任何(he)语言的(de)形式呈现,反应(ying)文(wen)化(hua)间的(de)细微差别(bie)。

有了AI,我(wo)们(men)可以(yi)为世界(jie)上的(de)任何人提(ti)供定制的(de)教育。当然,在像(xiang)达特茅斯这(zhei)样的(de)机构中,教室更(geng)小,学生可以(yi)获得很(hen)多关注。不(bu)过即使在这(zhei)里,也很(hen)难有一对(dui)一的(de)辅导(dao),更(geng)不(bu)用说在世界(jie)其他地方了。

其(qi)实我们没有(you)花足够(gou)的(de)(de)时间学(xue)(xue)习如何学(xue)(xue)习,这通常发生(sheng)在(zai)很晚的(de)(de)时候,比如在(zai)大(da)学(xue)(xue)。但学(xue)(xue)习的(de)(de)技(ji)能是一件非常基本的(de)(de)事情,不掌握这项技(ji)能就会浪(lang)费很多时间。有(you)了AI,课(ke)程(cheng)、课(ke)程(cheng)设置(zhi)、问题集(ji),一切都可以根据学(xue)(xue)生(sheng)自己的(de)(de)学(xue)(xue)习方(fang)式进行定(ding)制。

杰弗里·布莱克本:所以你认为即便是在像达特茅斯这样的地方,AI也能对教育有所补充?

米拉·穆拉提:绝对可以,是的。

十、用户反馈形成了系统的基本价值体系,正在研发价值观高度定制化的系统

杰弗里·布莱克本:要不我们开始观众提问环节吧?

米拉·穆拉提:好的,没问题。

观众1:作为达特茅斯的第一批计算机科学家之一,John Kemeny曾经做过一次讲座,讲述人类构建的每个计算机程序都嵌入了人类价值观,无论是有意还是无意。

你认为GPT产品中嵌入了哪些人类价值观?或者换句话说,我们应该如何将尊重、公平、公正、诚实、正直等价值观嵌入到这些工具中?

米拉·穆拉提:这是一(yi)个(ge)(ge)很(hen)(hen)好的(de)问(wen)题,也是一(yi)个(ge)(ge)很(hen)(hen)困(kun)难(nan)的(de)问(wen)题。这些问(wen)题我(wo)们已经思考了(le)很(hen)(hen)久(jiu)了(le)。目前系统中的(de)很(hen)(hen)多价(jia)值观(guan)基本(ben)上(shang)是通过数据(ju)(ju)嵌(qian)入的(de),也就是互联网上(shang)的(de)数据(ju)(ju),许可数据(ju)(ju),还有人(ren)类标注员的(de)标注数据(ju)(ju)。每个(ge)(ge)都有特定的(de)价(jia)值观(guan),所以这是一(yi)个(ge)(ge)价(jia)值观(guan)的(de)集(ji)合(he),这很(hen)(hen)重要。一(yi)旦我(wo)们将这一(yi)产品投放到世界(jie)中,我(wo)们就有机(ji)会从(cong)更(geng)多人(ren)手(shou)中,获得更(geng)广泛的(de)价(jia)值观(guan)集(ji)合(he)。

现在我们在ChatGPT上向人们免费提供最强大的系统,全世界有超过1亿人使用过。这些人都可以向ChatGPT提供反馈。如果他们允许我们使用数据,我们将使用它来创建这个聚合的价值观,使系统更好,更符合人们的期望。

但这是默认的底层系统。我们真正想要的是在底层系统上还有一个自定义层,让每个(ge)群体(ti)都可以有(you)他们(men)自(zi)己(ji)的(de)(de)价值(zhi)观。比如说一(yi)个(ge)学校、一(yi)个(ge)教堂、一(yi)个(ge)国家(jia),甚至一(yi)个(ge)州,他们(men)在这(zhei)个(ge)有(you)基(ji)本人类价值(zhi)观的(de)(de)默认系(xi)统(tong)之上(shang),提供自(zi)己(ji)更具体(ti)、更精(jing)确(que)的(de)(de)价值(zhi)观,建立属于他们(men)自(zi)己(ji)的(de)(de)系(xi)统(tong)。

我(wo)(wo)(wo)们(men)也在研究(jiu)如何做(zuo)到这一(yi)(yi)点(dian)。但这真的(de)(de)是一(yi)(yi)个很困难(nan)的(de)(de)问题(ti)。因(yin)为既有人(ren)类(lei)自己的(de)(de)问题(ti),因(yin)为我(wo)(wo)(wo)们(men)并不能所有事情(qing)上都达成(cheng)一(yi)(yi)致。然后还要(yao)解(jie)决技(ji)(ji)术问题(ti)。在技(ji)(ji)术问题(ti)上,我(wo)(wo)(wo)认为我(wo)(wo)(wo)们(men)已经(jing)取得了很多(duo)进展。我(wo)(wo)(wo)们(men)使用(yong)像人(ren)类(lei)反馈强化学习这样的(de)(de)方(fang)法,让(rang)人(ren)们(men)将自己的(de)(de)价值观输(shu)入系统中。我(wo)(wo)(wo)们(men)刚(gang)刚(gang)发布(bu)了模(mo)型规范(fan)指(zhi)南(nan)Spec,它提(ti)供了更高的(de)(de)透(tou)明(ming)度,让(rang)人(ren)们(men)了解(jie)系统中的(de)(de)价值观。我(wo)(wo)(wo)们(men)也正在建立(li)一(yi)(yi)种反馈机制,我(wo)(wo)(wo)们(men)收集(ji)输(shu)入和数据,评(ping)估Spec的(de)(de)推(tui)进情(qing)况,你可以将其视为AI系统的(de)(de)宪法。

但这一“宪法”是不断变化的,因为我们的价值观也随着时间的推移而发展。它会变得更(geng)加(jia)精确。这(zhei)是我(wo)们正(zheng)在重(zhong)点研究的(de)(de)问题(ti)。现在我(wo)们正(zheng)在考(kao)虑基本价(jia)值(zhi)观,但随(sui)着系统变得越来越复杂,我(wo)们将不(bu)得不(bu)考(kao)虑更(geng)细致的(de)(de)价(jia)值(zhi)观。

杰弗里·布莱克本:你能防止它变得愤怒吗?

米拉·穆拉提:不,那实际上应该由你决定。作为用户,如果你想要一个愤怒的聊天机器人,你就可以拥有一个这样的聊天机器人。

十一、红队演练中并未发现Sky声音的问题,正研究如何向创作者提供报酬

观众2:我真的很好奇,你是如何考虑版权问题和生物特征权利(比如声纹、指纹等)的。你之前提到一些创意工作可能不再存在,许多从事创意行业的人正在思考数据使用的许可和补偿问题。因为无论是专有模型还是开源模型,数据都是从互联网上获取的。我真的很想知道你对许可和补偿的看法,因为这涉及到版权问题。

还有一件事是生物特征权利,比如声音、肖像等方面的权利。OpenAI最近出现了关于Sky声音的争议,今年的选举年也受到深度伪造信息的威胁,你是如何看待这些问题的呢?

米拉·穆拉提:好的,我(wo)会从最后一(yi)部分开始(shi)讲(jiang)起。我(wo)们(men)对语(yu)音技术做(zuo)了很多(duo)研(yan)究(jiu),直到最近才发布,因为它们(men)带来了很多(duo)风险和问题。

但同样重要的是,要让社会接(jie)受,在给人(ren)们使用权限的同时设置好(hao)防护措施并控制风险,同时也(ye)版(ban)主其他人(ren)研究(jiu)并取得进(jin)展。

例如,我们正在与机构合作,帮助我们思考AI与人类的互动。现在模型有了声音和视频,这些都是非常能引起情感共鸣的模态。我们需要(yao)理解这些事情会怎么(me)发展,为这些情况做好准备。

在这一情况下,Sky的声音并不是斯嘉丽·约翰逊的声音,也无意成为她的声音。我负责选择声音,我们的首席执行官正在与斯嘉丽·约翰逊进行对话。这两个过程是完全平行,互不干涉的。

但出于(yu)对她的(de)尊重,我们(men)将(jiang)其撤下(xia)。有些人听(ting)到(dao)了(le)一些相(xiang)似(si)之处,但这些事情是很主观的(de)。

我(wo)认(ren)为处理这类问题可(ke)以(yi)采取红(hong)队演练的方式(一(yi)般指网络实战(zhan)攻防演习),如果声音(yin)被认(ren)为与一(yi)个著名的公众声音(yin)非常相似,那么我(wo)们(men)就不选择这个声音(yin)。

不过在我们的红队演练中,这个问题并没有出现。这就(jiu)是为什么进行(xing)更广泛的(de)红队演练以(yi)提前捕捉这些问题是很(hen)重要的(de)。

但我(wo)(wo)们(men)关于(yu)生物特征问题的整体策(ce)略(lve)是(shi),最初只(zhi)向少数人提(ti)供访(fang)问权限(xian),比(bi)如专家或红(hong)队成员(yuan),让他们(men)帮助我(wo)(wo)们(men)很好地(di)理解(jie)风险和(he)能力,我(wo)(wo)们(men)据此(ci)建立解(jie)决措施。

随(sui)着我(wo)(wo)(wo)们(men)(men)对这些措施更有(you)把握后,我(wo)(wo)(wo)们(men)(men)再向更多的(de)人(ren)提供访问(wen)权限。我(wo)(wo)(wo)们(men)(men)不允许人(ren)们(men)(men)使用这项技术(shu)制作(zuo)自(zi)己的(de)声音,因为我(wo)(wo)(wo)们(men)(men)仍在研究这一问(wen)题的(de)风险,我(wo)(wo)(wo)们(men)(men)还没有(you)信(xin)心能够处理好那个领域的(de)滥用问(wen)题。

但我们对于ChatGPT里目前的几个声音的安全措施还是比较满意的,它能较好的防止滥用问题。我们从一个小规模测试开始,本质上是扩展的红队演练。然后当我们将规模扩展到1000个用户时,我们的alpha版本将与这些用户紧密合作,收集反馈并了解极端情况,以便我们在扩展到10万人规模时为这些情况做好准备。然后是100万人,然后是1亿人,以此类推。但这都是在严格的控制下进行的,这就是我们所说的迭代部署。

如(ru)果我(wo)们不(bu)觉(jue)得这些用例足(zu)够(gou)安全(quan),那么我(wo)们就(jiu)不(bu)会(hui)将(jiang)它们发布给(ji)用户。或者我(wo)们会(hui)针对这些特定(ding)用例,以(yi)某种方式对产品进行功能(neng)限制,因为能(neng)力和风险是共存的(de)。

但我们也在(zai)进行(xing)很(hen)多研究,帮助我们处理内(nei)容出处和(he)内(nei)容真(zhen)实(shi)性的问题,让人们有(you)工具来理解某些东西是否是深度(du)伪(wei)造的,或者是虚假(jia)信息等等。

自从OpenAI成立之初,我们就一直在研究虚假信息问题。我们构建了很多工具,比如水印、内容政策等,允许我们管理虚假信息。特别是今年,鉴于这是一个全球性的选举年,我们更加加强了这项工作。

然而这是一个极其具有挑战性的领域,我们(men)作为(wei)技(ji)术和产品制(zhi)造商(shang)需(xu)要(yao)做很多工作,但也需(xu)要(yao)与(yu)民(min)众、社会、媒体和内容制(zhi)作者(zhe)合作,共同研究如何解决(jue)这些问题(ti)。

在开发语音和(he)Sora等技术(shu)时,我(wo)们首先与红队成员展(zhan)开合作,一同研究风险。之(zhi)后就是和(he)内容创作者研究这(zhei)一问(wen)题,了解这(zhei)项(xiang)技术(shu)将如何帮助他们,如何构建一个(ge)既安全、有用,并(bing)且能(neng)真正推动社会(hui)进(jin)步的产品。我(wo)们在DALL·E和(he)Sora上都做了类(lei)似的研究。

补偿和许可的问题是很重要的,同时也很有挑战。我们(men)(men)与媒(mei)体公司(si)进行了很多(duo)合(he)作,还给(ji)了人们(men)(men)很多(duo)控制权(quan),让(rang)他(ta)们(men)(men)可以自(zi)己决定(ding)数据在(zai)产品中的使用(yong)方式。如果他(ta)们(men)(men)不希望他(ta)们(men)(men)的数据被用(yong)来改(gai)进模型(xing),或让(rang)我们(men)(men)进行任何研(yan)究或训练(lian),那完全可以。我们(men)(men)就不使用(yong)这些数据。

然后对于(yu)一般的(de)创作者(zhe)社(she)区(qu),我们(men)(men)很早就让他(ta)们(men)(men)使用这些工具,这样我们(men)(men)可以首先听到他(ta)们(men)(men)的(de)意见(jian),了解他(ta)们(men)(men)希望如何使用它,根据(ju)这些信息(xi)构建最有用的(de)产品。

此外,这些都是研究预览版,所以我们不(bu)需(xu)要花大(da)价钱构建产品。我们只(zhi)有在确定这项技术能带来很(hen)大(da)用(yong)处时才会大(da)量(liang)投入资金进行开(kai)发。

我们也在尝试创建一些工具,允许人们按照他们的数据贡献获得补偿。这从技术角度来说非常棘手,也很难构建这样的产品,因为你必须弄清楚特定数量的数据在经过训练后的模型(xing)中(zhong)创造(zao)了多少价(jia)值。

我(wo)们(men)很难估计出个别数(shu)(shu)据(ju)实际(ji)上创(chuang)造了多(duo)少价值(zhi)。但如果我(wo)们(men)能够创(chuang)建聚合(he)数(shu)(shu)据(ju)池,让人们(men)往里面提供数(shu)(shu)据(ju),这样(yang)的衡量或许会(hui)更容易。

所以在过去两年里,我们一直在尝试这些方法,但还没有实际部署任何东西。我们在(zai)技术方面进(jin)行了(le)实验(yan),并获(huo)取(qu)了(le)一些进(jin)步,但这(zhei)是一个非常困难的问题(ti)。

十二、若重回学生时代要给自己减压,扩展知识面很重要

观众3:我的问题是相当简单的。如果你现在又重回大学,回到达特茅斯,你想做点什么,你不会再做什么?你会主修什么,或者你会更多地参与什么事情吗?

米拉·穆拉提:我认为我会学习相同的东西,但可能压力会小一些。我想我仍然会学习数学,但也会学习更多的计算机科学课程。但我的压力会小一些,以更有好奇心、更快乐的方式来学习。这肯定更有成效。

我(wo)还是学(xue)(xue)生的时候,总是有(you)点压力(li),担心(xin)(xin)接下来会发生什么(me)。每个(ge)人都会告诉我(wo),不要有(you)压力(li),但不知何故(gu)我(wo)总是很有(you)压力(li)。当(dang)我(wo)和学(xue)(xue)长学(xue)(xue)姐(jie)交谈时,他们(men)总是说要享受(shou)学(xue)(xue)习,全身心(xin)(xin)投(tou)入,少一些压力(li)。

我认为在课程选择上,最好要多学一些科目,对一切都有一点了解。我发现这在上学时和毕业后都是(shi)很好的事情。即便我现在在一(yi)家研究(jiu)机(ji)构工(gong)作,我也一(yi)直学习,从不(bu)止步。对一(yi)切都有了(le)解是(shi)一(yi)件很好的事情。

杰弗里·布莱克本:非常感谢你,因为我知道你的生活压力很大。感谢你今天来到这里,也感谢你为社会所做的非常重要和有价值的工作。感谢在达特茅斯的所有人。给学生们的建议刚好给这场对话收了个尾,我想再次感谢在场各位的到来,享受你们剩下的毕业周末。谢谢你们。

来源:达特茅斯学院