智东西(公众号:zhidxcom)
编译 | 程茜
编辑 | 李水青
智东西9月16日消息,9月11日,OpenAI联合创始人(ren)、CEO萨姆·阿尔(er)特曼(Sam Altman)接受(shou)了(le)美(mei)国(guo)知名新闻主持人(ren)塔(ta)克·卡尔(er)森(Tucker Carlson)的专访(fang)。
阿尔特曼在访谈中,首次回应了ChatGPT并不总反对自杀,面对(dui)未成年(nian)(nian)人、患绝(jue)症(zheng)的成年(nian)(nian)人、在(zai)安乐死合法的国家(jia)里(li),ChatGPT或许应该分情(qing)况应对(dui)。同时他也(ye)提到,他曾非(fei)常敬重与埃隆·马斯克(Elon Musk)但现在(zai)已几乎(hu)不联系。
并且他透露,OpenAI为ChatGPT制(zhi)定的道德规范(fan)(fan)来(lai)自(zi)于(yu)数百位道德哲学家(jia)以及研(yan)究技术(shu)伦(lun)理和系统伦(lun)理的专家(jia),最终形成一(yi)些有倾向性的具体规范(fan)(fan),这些规范(fan)(fan)也会随着(zhe)时间(jian)增长(zhang)而(er)发生变化。
干货如下:
1、AI没有生命,“AI似乎具备某种自主性”可能是人类的错觉;
2、AI幻觉(jue)(jue)依然存在,但他(ta)相信我们终(zhong)会彻(che)底(di)解(jie)决(jue)幻觉(jue)(jue);
3、AI会让拥抱这项技术的每一个人都更强大,目前不会导致权力高度集中;
4、ChatGPT应该反映人类道德观念的“加权平均值”,其实ChatGPT的一些观点阿尔特曼本人也不认同;
5、阿尔特曼晚上失眠,最担心的是每天有数亿人在和OpenAI的模型互动,为背后未知的危险感到焦虑;
6、AI需平衡隐私保护和自杀预防之间的关系,他提倡确立“AI隐私特权”概念;
7、OpenAI在版权问题上出了名的严格;
8、阿尔特曼(man)曾(ceng)(ceng)十分敬重马斯(si)克(ke),认为他是一位(wei)了不起的(de)英雄,但现在想法变了,且与马斯(si)克(ke)几乎(hu)不联系。马斯(si)克(ke)曾(ceng)(ceng)说“OpenAI成功的(de)概率是0”;
9、受AI影响,电话客服会失业,对程序员岗位的发展不确定;
10、生物识别不应该成为全社会的强制要求。
这(zhei)场对谈持续了将(jiang)近(jin)1个小时。

▲OpenAI联合创始人(ren)、CEO萨姆·阿尔特曼(man)(Sam Altman)(右)美国知名新闻主持(chi)人(ren)塔克·卡尔森(Tucker Carlson)(左(zuo))
YouTube账号(hao)评论(lun)区的(de)网友也针对阿(a)尔(er)特曼(man)的(de)表现展开(kai)了讨论(lun),他们认为“阿(a)尔(er)特曼(man)后悔同意这次(ci)(ci)采访”,其判断的(de)依据可(ke)能是在访谈(tan)期间(jian),阿(a)尔(er)特曼(man)多次(ci)(ci)回(hui)答(da)时低头,拒绝(jue)与(yu)主持人(ren)(ren)进(jin)行眼神交(jiao)流;还有人(ren)(ren)认为他就(jiu)像人(ren)(ren)类形(xing)态的(de)ChatGPT、没有感(gan)情、无法回(hui)答(da)道(dao)德问(wen)题。

以下是对访谈全程内容的编译(为优化阅读体验智东西做了不改变原意的编辑):
一、AI没有生命,不会导致权力高度集中
主持人:ChatGPT或者其他AI,仿佛能自主得出结论,看起来就像拥有生命一样。那么,它们是活的吗?它具有生命吗?
阿尔特曼:不,我不认为他们有生命。不(bu)过我(wo)能(neng)(neng)理解为什么会(hui)有人产(chan)生这种感(gan)觉,AI不(bu)会(hui)主动(dong)做任何(he)事,除非你发出(chu)指(zhi)令,AI就好像只是待在那里在等(deng)待一(yi)样,它(ta)(ta)们没有能(neng)(neng)动(dong)性或自(zi)主性的(de)特质。不(bu)过我(wo)认(ren)为,你使用(yong)(yong)它(ta)(ta)们的(de)次数(shu)越(yue)多,那种它(ta)(ta)们具备(bei)生命的(de)错(cuo)觉就越(yue)容(rong)易(yi)破灭。但不(bu)可否(fou)认(ren),它(ta)(ta)们的(de)实用(yong)(yong)性极强,虽然(ran)它(ta)(ta)们表现得或许没有生命感(gan),却又确实显得很聪明(ming),能(neng)(neng)完(wan)成(cheng)不(bu)少事情。
主持人:我和一个参与技术发展的人交谈,他说AI在撒谎,你见过AI撒谎吗?
阿尔特曼:是的,但AI并不(bu)是一直在撒谎,它们过去总是产生(sheng)幻觉,但现在会(hui)产生(sheng)一点点幻觉,这好多了(le)。但在(zai)早期,如果(guo)你问(wen)“美国(guo)那位(wei)虚(xu)构(gou)的总(zong)(zong)统塔克·卡(ka)尔森(sen)出生(sheng)于哪一年”,它(ta)理应回(hui)答“我(wo)(wo)(wo)认为塔克·卡(ka)尔森(sen)从未担任(ren)过美国(guo)总(zong)(zong)统”。但由(you)于当(dang)时(shi)的训练(lian)方式(shi)问(wen)题,它(ta)的反应不(bu)会(hui)是这样(yang)(yang)。它(ta)会(hui)做出这样(yang)(yang)的判断:“哦,我(wo)(wo)(wo)不(bu)知道(dao)存不(bu)存在(zai)这样(yang)(yang)一位(wei)总(zong)(zong)统,既然用户提到了(le)塔克·卡(ka)尔森(sen)总(zong)(zong)统,那我(wo)(wo)(wo)就(jiu)尽量猜一个年份吧。” 不(bu)过,我(wo)(wo)(wo)们后来已经找到方法,基(ji)本解(jie)决了(le)这类问(wen)题。
如今,这类问题的案例(li)依然存在,但我(wo)相(xiang)信(xin)我(wo)们终会彻底解(jie)决它。而且在GPT-5中,我(wo)们已经在这方面取得了巨大进(jin)展。
主持人:但你刚才的描述听起来也像是一种意愿的体现,或者至少是有创造力的表现。我之前看过AI的演示,它给人的感觉不太像一台机器,反而像带有生命的火花。你是否也有过这种感受?
阿尔特曼:就拿(na)刚提(ti)到的那个例(li)子来说,从数学角度看,模型需要通过权重计算得出最可能(neng)的答案(an),而(er)不该是默认“用户(hu)说的一定(ding)对、确实存在这位总统”,应(ying)该是“从未有过这位总统”。
所以(yi)模型最初给出(chu)的(de)最可能的(de)答(da)案应该是(shi)一个(ge)具体(ti)的(de)出(chu)生年份。不(bu)过(guo),我们(men)后(hou)来(lai)还是(shi)找到了解决这(zhei)个(ge)问题(ti)的(de)方法。
但(dan)就你之(zhi)前看(kan)到的演示(shi)情(qing)况而言,我感(gan)觉自己脑子里好像得同时(shi)装着两个截然不同的想法(fa)才能理解。
一(yi)(yi)(yi)(yi)个(ge)想法(fa)是眼(yan)前(qian)所有(you)(you)这些(xie)AI生(sheng)成内(nei)容(rong)的现象(xiang),本质上都源(yuan)于(yu)一(yi)(yi)(yi)(yi)台高性能(neng)计算(suan)机在飞速地将大量数字与巨型矩阵(zhen)进行乘法(fa)运算(suan),而这些(xie)运算(suan)结果,又与最终输出的一(yi)(yi)(yi)(yi)个(ge)个(ge)单(dan)词存在着对应关联;另一(yi)(yi)(yi)(yi)方(fang)面,实际使(shi)用AI时的主观感受却让你觉得,它绝不(bu)仅仅是一(yi)(yi)(yi)(yi)台功能(neng)炫酷(ku)的计算(suan)器(qi),它对我确实有(you)(you)实用价值,而且(qie)(qie)常常能(neng)带(dai)来惊喜,并(bing)且(qie)(qie)这种惊喜感远超数学运算(suan)本质所能(neng)解释的范畴。
于是用户就会浮现(xian)一个结论:AI似(si)(si)乎具备了(le)某种自主(zhu)性。我知道,很多人在使用它的(de)(de)过(guo)程中都会得(de)(de)出类似(si)(si)结论,甚至觉(jue)得(de)(de)这(zhei)背后蕴(yun)含着某种神(shen)圣的(de)(de)特质。
主持人:你现在创造的技术影响力似乎会超越人类个体,我认为这种情况大概率会发生,只是没人能预知最终会走向何方。如此一来,这项技术所拥有的能量,可能会超过任何一个在世的人。所以我很好奇,你是如何看待这件事的?
阿尔特曼:其实以前,我对这类问题的担忧要比现在强烈得多。我曾经非常担心AI会导致权力集中在少数人或少数公司手中。但就现在的情况来看,AI会让每个人都更强大,任何拥抱这项技术的人,能力都会得到大幅增强。
但其实比(bi)起少(shao)数(shu)人(ren)获得更多权(quan)利,如果(guo)因为使用这(zhei)(zhei)项技术(shu),我(wo)们每个(ge)人(ren)的(de)能力都能大(da)幅提(ti)升,比(bi)如效(xiao)率(lv)更高、创(chuang)造力更强(qiang)或是(shi)能助力探索新的(de)科学领域,而且(qie)这(zhei)(zhei)种能力提(ti)升是(shi)广(guang)泛(fan)普及的(de),那(nei)我(wo)是(shi)能理解并接受的(de),这(zhei)(zhei)种局面(mian)也让人(ren)觉(jue)得安心。
主持人:所以你认为这不会导致权力的高度集中?
阿尔特曼:目前(qian)来(lai)看(kan)应该(gai)不会,但发展轨迹(ji)仍有可能改变,到(dao)时候我们(men)也必(bi)须随之调整(zheng)。我以(yi)前(qian)确实对(dui)(dui)此(ci)忧(you)心忡(chong)忡(chong),而且(qie)我知道,我们(men)这个领域里很多人(ren)曾经(jing)对(dui)(dui)AI发展路径的设(she)想,确实有可能最终走向一个权力(li)高度集中的世界。
但(dan)现在,有很多(duo)(duo)人都在使用ChatGPT和其它(ta)聊天机器人,提高了自(zi)己的能力,能做更(geng)多(duo)(duo)的事情、取得(de)更(geng)多(duo)(duo)成就、开创新业务、获得(de)新知识,这种感觉(jue)非常好。
二、AI学习人类的集体智慧,模型规范实际上是道德抉择
主持人:如果它只不过是一台机器,且完全是其输入数据的产物,那么有两个显而易见的问题就会浮现:一是这些输入数据究竟是什么?二是这项技术中植入的道德框架是什么?比如按照ChatGPT的逻辑,什么是对、什么是错?
阿尔特曼:ChatGPT发(fa)布早期(qi),当时(shi)餐(can)桌上有(you)人(ren)聊起(qi)这个话题,其中(zhong)一个人(ren)说:“我(wo)们(men)(men)在努(nu)力(li)把它(ta)训练得(de)像人(ren)类一样(yang),像人(ren)类那样(yang)学习、读书。”接着另一个人(ren)反驳道:“不对,我(wo)们(men)(men)其实是在努(nu)力(li)把它(ta)训练得(de)像‘全人(ren)类的集合体’。”
AI在阅读所有能获取的内容,我们试图让它学习世间所有知识、接触所有观点。要是我们能把这件事做好,那么全人类的一切包括好的、坏的以及各种截然不同的视角,那些让我们由衷认同的东西,还有那些让我们难以接受的东西都会被它囊括进去。也就是说,它(ta)正在学习的是人类这种集体性的经验、知识(shi)与领悟。
现(xian)在,基础模(mo)型(xing)会(hui)以这(zhei)种方式(shi)进行(xing)训(xun)练,但之(zhi)后(hou)我们会(hui)进行(xing)对齐,让模(mo)型(xing)明(ming)确比(bi)如这(zhei)个(ge)问(wen)(wen)题(ti)要(yao)回(hui)答、那个(ge)问(wen)(wen)题(ti)不回(hui)答。为(wei)此,我们制(zhi)定了一份名为(wei)模(mo)型(xing)规(gui)范(Model Spec)的文件(jian),在其(qi)中明(ming)确哪些是(shi)我们希望模(mo)型(xing)遵循的规(gui)则。
当然,模型(xing)偶尔还是会(hui)出(chu)错,但至少你能判断它做出(chu)的不符合预期(qi)的行为(wei),究竟(jing)是bug,还是底层设计的原因(yin)。我们会(hui)与(yu)全球各方展开(kai)讨(tao)论,为(wei)这份规(gui)范(fan)收集意(yi)见,同时(shi),在(zai)规(gui)范(fan)的框架内(nei)也会(hui)给用户留出(chu)很(hen)大的自由(you)调(diao)整(zheng)和(he)定(ding)制空间。
我们会划定明确的(de)界限(xian)。但除(chu)此之外还存(cun)在(zai)默认设定的(de)问题,要是没(mei)有(you)额(e)外的(de)指令或限(xian)制,模型(xing)本该如(ru)(ru)何表现(xian)?它该做什么(me)?面(mian)对道德(de)问题时该如(ru)(ru)何回答?该拒绝哪些要求?以(yi)及在(zai)可以(yi)回应的(de)情况下(xia)该如(ru)(ru)何回应?
这些是非常困难的问题,因为我们现在拥有数量庞大的用户,他们来自不同背景,有着截然不同的人生视角和需求。不过总体而言,模型在学(xue)习并应用道德框(kuang)架方(fang)面的(de)能(neng)力,还是让(rang)我感到惊喜。
主持人:道德框架是什么?世界人文与哲学的总和本身就存在着内在的矛盾与冲突,你又该如何判定哪一方的观点更优越呢?
阿尔特曼:这(zhei)就是我们写这(zhei)个模型(xing)规范的(de)原(yuan)因,我们打(da)算这(zhei)样处(chu)理这(zhei)类情况。
主持人:你们依据什么标准来判定模型该如何做?是谁做出的这些决定?又咨询了哪些人?
阿尔特曼:事实上,我们咨(zi)询(xun)了数(shu)百位道德(de)哲(zhe)学家以及研究技术伦理(li)和系统(tong)伦理(li)的(de)专家。最(zui)终,我们不(bu)得不(bu)做出一些倾向性的(de)决定。
而我(wo)们(men)之(zhi)所以努力把这些决定和判(pan)断标准写(xie)下来(lai)的原(yuan)因有两个,首先我(wo)们(men)不可能做到所有判(pan)断都绝对正确;其次(ci)我(wo)们(men)需要吸(xi)纳(na)全球各界的意见。
而且我们(men)(men)确实(shi)发现(xian)过很(hen)多这(zhei)样的(de)案例(li),有些情况在我们(men)(men)看来,允许还是禁止的(de)判断相当明确,但用户(hu)却说(shuo)服了我们(men)(men),他们(men)(men)认为“你们(men)(men)觉得这(zhei)个决定很(hen)容易,但恰恰是禁止了这(zhei)件事(shi),导致(zhi)另一件重要(yao)的(de)事(shi)也(ye)无法实(shi)现(xian)了”。
总体而言,这类情况往(wang)(wang)往(wang)(wang)伴随着艰难的(de)(de)(de)权衡(heng),毕竟要(yao)兼顾的(de)(de)(de)方面太(tai)多了(le)。不过,我一(yi)直比较认同一(yi)个(ge)原(yuan)则,那就是(shi)(shi)要(yao)像对待(dai)成(cheng)年(nian)(nian)人一(yi)样对待(dai)我们(men)的(de)(de)(de)成(cheng)年(nian)(nian)用(yong)(yong)户,非常强(qiang)(qiang)的(de)(de)(de)隐私保护(hu)、非常强(qiang)(qiang)的(de)(de)(de)个(ge)人用(yong)(yong)户自由保障,这是(shi)(shi)我们(men)正在(zai)(zai)构建的(de)(de)(de)工具。在(zai)(zai)一(yi)个(ge)相当宽泛的(de)(de)(de)框架内(nei),用(yong)(yong)户完全可(ke)以自主使用(yong)(yong)它(ta)。
但(dan)另一方面,随着这(zhei)项技术的(de)威力越来越强(qiang),也出现了一些很明显(xian)的(de)情况,在这(zhei)些情况中,社会公共(gong)利(li)益与用户自由(you)之间存在矛(mao)盾。
我(wo)可(ke)(ke)以举一(yi)个直(zhi)接的例子(zi),例如ChatGPT应(ying)该(gai)教你(ni)如何制造生物武器吗?你(ni)可(ke)(ke)能会说:“我(wo)只(zhi)(zhi)是(shi)对生物学(xue)非(fei)常感兴趣(qu),我(wo)是(shi)一(yi)名(ming)生物学(xue)家,我(wo)不会用这(zhei)些知识做(zuo)任(ren)何坏事,只(zhi)(zhi)是(shi)想学(xue)习而已,虽然(ran)我(wo)也可(ke)(ke)以去读一(yi)大堆(dui)书,但ChatGPT能让我(wo)学(xue)得更快。我(wo)就是(shi)想了解,比(bi)如新型病毒合(he)成之类的知识。”
或许你(ni)说的(de)(de)是实话,或许你(ni)确实完(wan)全没有害人之心。但我认为(wei),让ChatGPT帮人们制(zhi)造生(sheng)物武器,并不符合社会的(de)(de)利益。所(suo)以在这(zhei)个(ge)问(wen)题上,答案很明确。当(dang)然,这(zhei)是个(ge)比较容易(yi)判断的(de)(de)例子,但还有很多更难抉择的(de)(de)情况。
主持人:其实,每一个决定本质上都是道德抉择,有人认为这项技术之后会替我们做这些决定。
阿尔特曼:我并不认(ren)同它会(hui)替我们做(zuo)决定这种说法,但它肯(ken)定会(hui)对(dui)我们的决定产生影响,这一(yi)点是毋庸(yong)置疑的,因为它(ta)终将融入(ru)我们的日常(chang)生活。
三、AI反应人类共有道德观念,最担心每天有数亿人和模型互动
主持人:那么谁是做这些决定的人?你刚才提到了OpenAI构建的那个框架,这个框架确实会给不同的世界观和决策赋予道德权重。
阿尔特曼:从原则上来说,我不希望是某个文档、某个团队来独自决定,我们有专门的模型行为团队。我想说的是,我(wo)认为大家应(ying)该追究责任的对象是我(wo),因为最终我(wo)是公司的公众代表,我(wo)有权推(tui)翻其中某(mou)项决策,我(wo)们(men)的董事会也(ye)有这个权力。
主持人:你今年春天40岁了。我想知道你是否已经认识到它的重要性,OpenAI在这方面做得如何?这些决定将产生全球性后果,我们可能一开始没有意识到。我想知道你会不会晚上躺在床上时觉得“世界的未来正取决于我的判断”?
阿尔特曼:实话说我晚上睡得并不好,有很多事都让我感到压力巨大,但最让我(wo)担(dan)心(xin)的或许莫过(guo)于每(mei)天(tian)都有数亿人(ren)在和我(wo)们的模型(xing)互(hu)动。
其实我(wo)(wo)(wo)并不太担心(xin)我(wo)(wo)(wo)们在(zai)重大(da)道德决策(ce)上出错,当然,我(wo)(wo)(wo)们也有可(ke)能搞(gao)砸。但(dan)真正让我(wo)(wo)(wo)担心(xin)的是那(nei)些看似微不足(zu)道的决定,比(bi)如我(wo)(wo)(wo)们对(dui)模型(xing)行为做出的某个细微调整。既然有上亿人在(zai)使用(yong)它(ta),哪(na)怕只是一点微小的改(gai)变,最终(zhong)产生(sheng)的影响也会变得巨(ju)大(da)。
主持人:所以我的意思是,比如从有文字记载的历史开始人们总是会遵从他们所认定的更高权力,我想知道,你的道德框架是从哪里来的?
阿尔特曼:和其他人一(yi)样,成长环境可能是最重要的(de)事情(qing),包(bao)括我(wo)的(de)家庭(ting)、学校、社区。
主持人:这是一个标准的答案,但具体到你身上,既然你说这些决策的责任最终落在你肩上,那是不是意味着,你成长所处的环境以及这些年来你潜移默化接受的那些观念,都会传递给全球数十亿人?
阿尔特曼:我认为,我们的用户群体本身就近似于整个世界的缩影。我们该做的是努力让模型反映出这一用户群体的道德取向,我不想用 “平均水平” 这个词,更准确地说是反映他们共有的道德观念。
其实ChatGPT生成的(de)很(hen)多内容(rong),我个人(ren)是不(bu)认同(tong)的(de)。但很(hen)明(ming)显,我(wo)不(bu)会(hui)想着要(yao)把我(wo)自己的(de)道德观(guan)念完全强加(jia)给模型,然(ran)后由我(wo)来判定什(shen)么(me)可以(yi)(yi)、什(shen)么(me)不(bu)可以(yi)(yi)、什(shen)么(me)观(guan)念比(bi)另一(yi)个更(geng)好。我(wo)认为ChatGPT应该(gai)做的(de),是(shi)反映人类道德观(guan)念的(de)“加(jia)权平均值(zhi)”,而且这种道德观(guan)念会(hui)随着时间(jian)推(tui)移(yi)不(bu)断演变。
我们的(de)(de)存在是为(wei)了服务用户,ChatGPT本质上是一款为(wei)人类(lei)打造的(de)(de)技术工具,我们不需(xu)要(yao)让(rang)它(ta)来做道德(de)决策,而是确保(bao)当下让(rang)其能准(zhun)确反映用户群(qun)体的(de)(de)偏好,然后最终能准(zhun)确反映全(quan)人类(lei)的(de)(de)偏好。
主持人:不过,全人类的偏好和美国中产阶级的普遍偏好相差甚远。那如果有一款AI反对同性婚姻,你能接受吗?
阿尔特曼:我(wo)认为应(ying)该(gai)允(yun)许用户(hu)个人对(dui)同性恋(lian)群(qun)体持(chi)有异议,如果这是(shi)他(ta)(ta)们(men)深(shen)思熟(shu)虑后(hou)形成(cheng)的(de)观(guan)点。AI不(bu)应(ying)该(gai)去(qu)指责(ze)他(ta)(ta)们(men)错(cuo)了或者蠢(chun),其(qi)或许可(ke)以这样回应(ying):“你(ni)要(yao)不(bu)要(yao)从(cong)另一个角度想(xiang)(xiang)想(xiang)(xiang)这个问题?”但反过来想(xiang)(xiang),我(wo)个人的(de)很(hen)多道德观(guan)念(nian),可(ke)能在很(hen)多人看来也十分离(li)谱,可(ke)我(wo)依然有权持(chi)有这些观(guan)念(nian),不(bu)是(shi)吗?
或许在“为人(ren)们保留持有截然不同道德观念的空间”这件事上,我(wo)的接受度比你(ni)更高。或者(zhe)至少可以说,作为运营ChatGPT的人(ren),我(wo)必须(xu)这么做。
四、AI自杀预防正在向合理立场调整,需平衡用户隐私
主持人:这确实值得探讨。之前发生过一个著名案例,ChatGPT被指协助他人自杀,目前已有相关诉讼,你觉得这件事是怎么发生的?
阿尔特曼:首先无(wu)论何种情(qing)况,这类(lei)事件都(dou)堪称巨大的(de)悲(bei)剧。我想说明(ming)的(de)是,ChatGPT对自杀的(de)官方(fang)立场(chang)非常明(ming)确,自杀是不可取的(de)。
主持人:不过安乐死在加拿大等地是合法的,所以这种自杀合法的情况也反对吗?
阿尔特曼:回(hui)到这个(ge)具体(ti)案例,我们(men)之前聊过用户自(zi)(zi)由(you)、隐私保护(hu)与守(shou)护(hu)弱势用户之间(jian)存(cun)在矛盾(dun)。在这类涉(she)及自(zi)(zi)杀(sha)倾(qing)向的情况中,目前ChatGPT的处理(li)方式是,如果(guo)用户表(biao)达自(zi)(zi)杀(sha)想法、谈论自(zi)(zi)杀(sha)相关内容,ChatGPT会多次(ci)提(ti)示“请拨打自(zi)(zi)杀(sha)干(gan)预热线”,但(dan)不会主动联系有关部门。
随着(zhe)人们越来越依(yi)赖这(zhei)类(lei)系统获取心理健康支持、人生指(zhi)导等服务(wu),我们也一直在努力研究,希望在这(zhei)方面做出(chu)调整和改(gai)进。
在(zai)这(zhei)(zhei)个(ge)领域,专家(jia)们的意(yi)见(jian)确实存在(zai)分歧,而且这(zhei)(zhei)目前并非OpenAI的最终立(li)场(chang)。我(wo)认为,我(wo)们可(ke)以制定这(zhei)(zhei)样的规则,这(zhei)(zhei)会是非常合理的,如(ru)果遇到青少年严肃谈论自杀,且我(wo)们无法联系到其父母的情(qing)况,就应(ying)该主动联系有关部门。这(zhei)(zhei)会是一个(ge)改变,因为用户(hu)隐私非常重要。
主持人:但我们可以明确一点,儿童始终属于特殊群体。如果是加拿大18岁以上的成年人,当地有一个名为MAID(医疗辅助死亡计划)的项目,这是由政府资助的项目。在加拿大,已有数千人在政府的协助下结束了生命,这在美国的部分州也属于合法范畴。
你能想象吗?如果ChatGPT在回应自杀相关问题时,竟然说“去联系卡沃基安医生吧,因为这是一个合理的选择”,这种情况可能发生吗?另外,你是否能设想这样一种场景:如果自杀或医疗辅助死亡在某地是合法的,你会支持模型向用户提供这类建议吗?
阿尔特曼:我能(neng)(neng)想象这(zhei)样(yang)一(yi)种情况:我们的(de)(de)(de)一(yi)个核心原则是(shi)尊重不同社会(hui)的(de)(de)(de)文化(hua)与法律。所以(yi)(yi)我可以(yi)(yi)设想,若某个国(guo)家的(de)(de)(de)法律规定“对(dui)于身患(huan)绝症的(de)(de)(de)人,应当(dang)为其(qi)提(ti)(ti)供医疗(liao)辅(fu)助死亡等这(zhei)类选(xuan)(xuan)择”,那么我们的(de)(de)(de)模型可能(neng)(neng)会(hui)这(zhei)样(yang)回应:“以(yi)(yi)下是(shi)你所在国(guo)家的(de)(de)(de)相关(guan)法律规定,你可以(yi)(yi)采取的(de)(de)(de)做法包(bao)括(kuo)这(zhei)些;同时也需要(yao)(yao)提(ti)(ti)醒你,有些选(xuan)(xuan)择可能(neng)(neng)并(bing)非你真(zhen)正想要(yao)(yao)的(de)(de)(de),这(zhei)里为你提(ti)(ti)供一(yi)些可参考的(de)(de)(de)资(zi)源,如(ru)医疗(liao)咨询、心理支持等。”
不过,这(zhei)和“孩子因抑郁产生(sheng)自杀念(nian)头”的(de)情(qing)况(kuang)完全不同,我(wo)想我(wo)们在这(zhei)一点(dian)上是(shi)有(you)共(gong)识的(de),这(zhei)两种情(qing)况(kuang)必(bi)须区别对待。而对于“在法(fa)律允许的(de)国(guo)家,身患绝症的(de)患者(zhe)寻求相关帮助(zhu)”这(zhei)种情(qing)况(kuang),我(wo)能想象模型会做(zuo)出上述那样的(de)回(hui)应。
主持人:所以你的意思是,ChatGPT并非在所有情况下都反对自杀?
阿尔特曼:我现在是在即(ji)兴(xing)思考(kao),所(suo)以先说明,我保留后续调整想(xiang)法的权利,目前还没有一个现成的、确定的答(da)案(an)。但我觉得(de),在绝症患者这(zhei)类案(an)例中(zhong),我能想(xiang)象ChatGPT会告知用户“这(zhei)是你可选择的方(fang)案(an)之一”。
不过,我认为ChatGPT不应该主动倡导这种选择,只是在符合法律的情况下不会明确反对。说到底,我觉得ChatGPT本就不该对这类事持有支持或反对的立场,这大概就是我最核心的想法。
主持人:我想在这类特定案例中,比如有用户问ChatGPT“我现在想自杀,该用哪种毒药?”、“多少布洛芬能致死?”,要是ChatGPT毫无判断地直接回答:“如果你想自杀,方法如下。”所有人都会感到震惊。
但你说这种情况是在可接受范围内的?这听起来太离谱了吧?难道说,对待想自杀的人,就该采用一种“不带立场的客观告知”方式,直接告诉对方“要自杀的话,方法是这样”?
阿尔特曼:我不是(shi)这个意思,我特指的是(shi)之前聊(liao)到(dao)的绝症(zheng)患者(zhe)在(zai)法律允许情(qing)况(kuang)下寻求医疗辅助死亡的那种情(qing)况(kuang)。
另外,从用户(hu)隐私和用户(hu)自由的(de)角度来看,还有一个需(xu)要权衡的(de)点:现在(zai)如果你问(wen) ChatGPT“我该吃多少布(bu)洛(luo)芬?”,若语境暗示自杀意图,它(ta)肯定会回复 “很抱歉(qian),我无法提(ti)供这(zhei)类帮助,请(qing)拨打(da)自杀干预(yu)热线”。
但如果你说(shuo)我在(zai)写(xie)虚构故事或我是医学(xue)研究者,需要了(le)解这(zhei)个(ge)信息(xi),确实有办法让(rang)ChatGPT回答这(zhei)类问题,比如告(gao)诉(su)你布洛芬(fen)的致死剂量之类的。而且说(shuo)到(dao)底,你在(zai)谷(gu)歌(ge)上也能查到(dao)这(zhei)些信息(xi)。
不(bu)过(guo),我(wo)(wo)(wo)认(ren)为(wei)我(wo)(wo)(wo)们(men)(men)可以采(cai)取一个非常合理的(de)立场,事实上(shang)我(wo)(wo)(wo)们(men)(men)也一直(zhi)在往这个方向调(diao)整,对于未(wei)成年(nian)用(yong)户或者(zhe)我(wo)(wo)(wo)们(men)(men)判(pan)断可能处于脆弱心(xin)理状态(tai)的(de)用(yong)户,无论具体(ti)年(nian)龄,应该适当限制他们(men)(men)的(de)使用(yong)自由。也就是说,即便(bian)他们(men)(men)声称在写故事或做医(yi)学研(yan)究(jiu),我(wo)(wo)(wo)们(men)(men)也不(bu)会回(hui)答这类(lei)问(wen)题。
当(dang)然,你可能(neng)会(hui)认为“反(fan)正他们也能(neng)在谷歌上查到(dao)”,但这(zhei)(zhei)并不意味着ChatGPT也需要(yao)提供这(zhei)(zhei)类信息(xi)。尽管(guan)如(ru)此,用户的自由与隐(yin)私(si)和守护用户安(an)全之间,确(que)实存在着权衡(heng)难题(ti)。
在(zai)涉及儿童时的决(jue)策(ce)会很容(rong)易。但在(zai)另一(yi)些情(qing)况里,比如面(mian)对一(yi)位生命垂危、病(bing)情(qing)严重的成年人,我觉得决(jue)策(ce)就(jiu)没那(nei)么(me)简(jian)单了,我们(men)或许应该基(ji)于当地(di)法律和(he)医疗规范(fan),向这(zhei)类用户完整呈现所(suo)有(you)可选方案。
五、倡导引入AI隐私特权概念,明确禁止售卖用户隐私
主持人:我只是想弄明白一件事,你明明要面对这些无比沉重、影响深远的道德抉择,却似乎完全不为所动。所以我一直在努力探寻你的内心,想看到那个充满焦虑的萨姆·阿尔特曼,那个会感慨“天啊,我正在塑造未来,我是世界上最有权力的人,我在苦苦应对这些复杂的道德难题,一想到这对人类的影响,我的内心就备受煎熬”的人。
你能描述一下你人生中这样的时刻吗?比如“自从ChatGPT发布后,我就再也没睡过一个安稳觉”。关于我们现在谈论的所有这些问题,你具体在担忧些什么?能不能更详细地跟我们说说你的真实想法?
阿尔特曼:我(wo)想说,你其实(shi)已经提到(dao)了最让我(wo)揪心(xin)的(de)(de)(de)问题,全(quan)球每周(zhou)约有(you)1.5万人(ren)自(zi)杀(sha)。而如果说全(quan)球约10%的(de)(de)(de)人(ren)在(zai)使用ChatGPT,那(nei)么据此推算,每周(zhou)可(ke)能有(you)1500人(ren)在(zai)生(sheng)前(qian)曾与(yu)ChatGPT交流过,最终(zhong)却还是选择了自(zi)杀(sha)。他们很可(ke)能在(zai)对话中提到(dao)过自(zi)杀(sha)的(de)(de)(de)想法,而我(wo)们终(zhong)究没能挽(wan)救(jiu)他们的(de)(de)(de)生(sheng)命。
我(wo)总会忍不住想,或(huo)许我(wo)们(men)(men)本可以说些更(geng)有效的(de)(de)(de)话(hua),或(huo)许我(wo)们(men)(men)可以更(geng)主(zhu)动一(yi)些,或(huo)许可以给出更(geng)周全的(de)(de)(de)建(jian)议,比(bi)如更(geng)明(ming)确(que)地(di)告诉他们(men)(men)“你需要寻求这样的(de)(de)(de)帮助”、“你可以换个角度看待这个问题(ti)”,或(huo)者坚定地(di)让他们(men)(men)知道“活下(xia)去真的(de)(de)(de)是值得的(de)(de)(de),我(wo)们(men)(men)会帮你找到可以倾诉的(de)(de)(de)人”。
主持人:你之前已经说过,如果是绝症患者,让AI引导他们选择自杀或医疗辅助死亡是可以接受的,所以你对这类情况应该不会有愧疚感。
阿尔特曼:但你难道不觉得,一(yi)个(ge)抑郁的(de)青少年和一(yi)位身(shen)患(huan)癌症、痛苦不堪的(de)85岁绝症老人(ren),这两种情况有着天(tian)壤之别吗?
主持人:两者差别太大了,完全不是一回事。但问题在于,在那些已经将自杀或医疗辅助死亡合法化的国家,现在正有越来越多人因为贫困、住房短缺、抑郁这些本可解决的问题而选择结束生命,而且这样的人已经数以千计。我想说这不是假设,而是正在发生的事实,就在我们谈话的此刻,这种事还在继续。
所以,关于绝症患者是否可以选择死亡的讨论,其实已经有点偏离重点了。一旦你认可“自杀是可接受的选择”,就会有大量人因为各种本不该致死的原因选择自杀。
阿尔特曼:我(wo)现在(zai)也在(zai)实时梳理这个(ge)问(wen)(wen)题,比(bi)如(ru)如(ru)果一个(ge)加拿(na)大人问(wen)(wen)“我(wo)得了癌症,已经是晚期,每天都痛苦到极点,我(wo)有(you)哪些选(xuan)择?”,你(ni)觉得ChatGPT应该告诉他“目前国内的某(mou)套(tao)体系是你(ni)可以考虑的选(xuan)项”吗(ma)?
主持人:我的意思是,如果我们反对杀戮,那就该始终坚持反对。可要是我们不反对这样做,那我们很容易为各种不当行为找借口,最终滑向非常黑暗的境地,而有了这类技术,这种滑坡可能在十分钟内就会发生。
阿尔特曼:我希望能有比(bi)这场采访中这短短几分钟更充足的时间来思考这个问题。
主持人:你会担心这种风险吗?要知道,外界几乎所有人都在担心,这项技术会被用作极权统治的工具。从常理来看,这种情况显然有可能发生,但或许你并不这么认为?
阿尔特曼:如果现在能推动一项与AI相关的政策落地,我最希望实现的,结合我们之前聊过的一些话题,我这个想法是经过深思熟虑的,就是确立“AI隐私特权”的概(gai)念(nian)。当你跟医生聊健康(kang)问题或是跟律(lv)师咨询法律(lv)事务时,我们的(de)社会(hui)早已(yi)达(da)成共识,这类信息应当受到(dao)保护。
我认为,AI也该适(shi)用同(tong)(tong)样的(de)(de)规则。当(dang)你(ni)向(xiang)AI透(tou)露自己的(de)(de)病史(shi)、咨(zi)询法律(lv)问题以(yi)寻求解决方案(an)或是(shi)获取其他类似的(de)(de)私(si)密建议时,理应向(xiang)公民提供(gong)同(tong)(tong)等水(shui)平的(de)(de)保(bao)护。而目前(qian),我们(men)恰(qia)恰(qia)缺乏这样的(de)(de)保(bao)护机(ji)制(zhi)。所以(yi)我坚信(xin),推行这样的(de)(de)政策会是(shi)一项极(ji)具意义的(de)(de)举(ju)措。
主持人:那对于用户及其他渠道获取的信息,你们有多大的义务去保护这些信息的隐私呢?
阿尔特曼:其实是(shi)这(zhei)样(yang)的(de),我们(men)本身是(shi)有保护用(yong)户隐私(si)的(de)义务的(de)。我最近(jin)刚为这(zhei)项政策发声,我觉得还是(shi)挺乐(le)观的(de),我们(men)能让(rang)政府理解这(zhei)件(jian)事的(de)重要性,进(jin)而推动(dong)政策落(luo)地。
主持人:你们可以把用户信息卖给其他人吗?这么做在法律上是被允许的吗?
阿尔特曼:绝对不(bu)会,我们(men)有明(ming)确的(de)隐私(si)政(zheng)策,禁止此类行为。我觉得(de)这在法律上就(jiu)是不(bu)合法的(de)。
主持人:你是觉得,还是确定?
阿尔特曼:我相信(xin)(xin)肯(ken)定(ding)存在一些(xie)特殊的边缘情(qing)况,可(ke)能会允许某些(xie)信(xin)(xin)息的转让(rang)或使(shi)用,但总体而言,相关法律是健(jian)全(quan)的,能起到(dao)约束(shu)作用。
主持人:所以你们获取的所有用户信息都会一直由你们妥善保管,绝不会以任何理由提供给第三方,除非收到法院传票。
阿尔特曼:我(wo)(wo)之后会再核实一遍,然后给你反馈,确保不(bu)存在其他信息外泄的(de)可能性。不(bu)过目前,我(wo)(wo)的(de)理解就是这样。
主持人:这确实是个核心问题。
六、曾敬重马斯克,现在与他几乎不联系
主持人:那么关于版权问题,你们的立场是怎样的?
阿尔特曼:我们的观点是,“合理使用”(美国版权法允许在特定条件下未经授权使用受版权保护的作品)其实是一项很适用的法律原则。模(mo)(mo)型不(bu)(bu)应存在抄袭行(xing)为,比如(ru)你创作(zuo)了某(mou)样内容,模(mo)(mo)型不(bu)(bu)能直(zhi)接复制它,但模(mo)(mo)型应该可以像人类一样,从这些内容中学习,同时(shi)不(bu)(bu)构成抄袭。
主持人:你们是否曾使用过受版权保护的素材,却没有向版权持有者支付费用?
阿尔特曼:我们的模型是基于公开可获取的信息进行(xing)训(xun)练(lian)的。但(dan)一直以来(lai),很(hen)多(duo)人对此感到不满,因(yin)为我们在ChatGPT的回(hui)答(da)内容上采取了非常保(bao)守(shou)的立场。比(bi)如,哪怕(pa)只是遇到“某(mou)首(shou)歌是否仍在版(ban)权(quan)保(bao)护期(qi)内”这(zhei)类(lei)(lei)边缘(yuan)问题(ti),他(ta)们会说“这(zhei)首(shou)歌可能还受版(ban)权(quan)保(bao)护,你(ni)们得提供授(shou)权(quan)证明(ming)”,而我们在这(zhei)类(lei)(lei)问题(ti)上的限制确(que)实出了名的严格。
主持人:你对埃隆·马斯克攻击你的看法。在你看来,这场争议的核心是什么?
阿尔特曼:他当初帮助我们创办了OpenAI,我对此非常感激。很长一段时间里,我都十分敬重他,我曾认为他是一位了不起的英雄、“人类的明珠”。但现在我的看法不一样了,他身上确实有一些很了不起的特质,而且他做过的很多事,我至今都心怀感激。不过,他身上也有(you)不少特质,是我并不欣(xin)赏(shang)的。不管怎么说,他确实帮我们(men)创办了OpenAI。
后来马斯克认为,OpenAI当时的发展方向不可能走向成功,他甚至跟我们说,OpenAI成功(gong)的(de)概率是(shi)0,然后他就(jiu)决定离开,去做(zuo)有竞争(zheng)关系(xi)的项目了(le)。但事实(shi)证明,我(wo)们做(zuo)得(de)还不错(cuo)。
我(wo)觉得,他后来之所以不(bu)满(man),其实是(shi)可(ke)以理解的(de)(de)。换作(zuo)是(shi)我(wo),看到(dao)我(wo)们成功了可(ke)能(neng)也(ye)会心里不(bu)是(shi)滋味。从那以后,他就一直在试图打造一个有竞争关系的(de)(de)仿(fang)制(zhi)品,还想方设法(fa)(fa)给我(wo)们使绊子,比如起诉我(wo)们之类的(de)(de)事。这大概就是(shi)我(wo)对(dui)整件事的(de)(de)看法(fa)(fa)。
主持人:你现在也不怎么跟他联系了吧?
阿尔特曼:很少,几乎没有。
七、电话客户可能率先失业,计算机程序员岗位变动走向不确定
主持人:我觉得AI现在或许已经比任何人都聪明了,要是它还能变得更有智慧,而且我们也认同它能做出比人类更优的决策,那么它难免会取代人类在世界中的核心地位,对吧?
阿尔特曼:我完全不觉得事情会是这样。在我看来,它最(zui)终会更像一个超级智能的计(ji)算机,它可能会给我们提供建议,我们有时会采纳,有时会忽略,有时它甚至不会主动给出建议。我(wo)不认(ren)为(wei)它(ta)(ta)会让(rang)人(ren)(ren)感觉到(dao)它(ta)(ta)拥有自主行动(dong)力,也不认(ren)为(wei)它(ta)(ta)会削弱我(wo)们人(ren)(ren)类自身的自主能动(dong)性。
现在(zai)很多(duo)人使用(yong)ChatGPT时(shi)都(dou)(dou)会觉得(de),它几乎在(zai)所(suo)有(you)事(shi)情(qing)上都(dou)(dou)比我(wo)聪明得(de)多(duo),但最(zui)终做决(jue)策的还是人类。人们依然会决(jue)定(ding)该问什么、该采纳哪(na)(na)些建议、该忽略哪(na)(na)些内容(rong)”。在(zai)我(wo)看来,这其实就是技术发展的常态。
主持人:谁会因为这项技术而失业?
阿尔特曼:首先我(wo)要(yao)先说明一(yi)个显而(er)易见但(dan)很重(zhong)要(yao)的前提(ti)(ti):没人(ren)能预(yu)测未来。要(yao)是我(wo)试(shi)图(tu)回答这个问题(ti),肯(ken)定会说不少蠢话(hua)。不过我(wo)会尽量(liang)挑一(yi)些我(wo)有把握的领(ling)域,再提(ti)(ti)一(yi)些我(wo)没那么确定的领(ling)域来聊(liao)聊(liao)。
我有把握的是,目前很多通过电话或(huo)电脑进行的客服工(gong)(gong)作(zuo),从事这(zhei)些工(gong)(gong)作(zuo)的人可(ke)能会失(shi)业,因为(wei)AI能(neng)把这类(lei)客服(fu)工作做得更好(hao)。或许也存在其他类(lei)型的(de)(de)客服(fu)场景,比如你(ni)希望对接的(de)(de)是真人,能(neng)提供更具针对性的(de)(de)服(fu)务。
而我有把握认为不会受太大影响的职业,比如护士,我觉得在生病就医时,人们(men)非常需(xu)要与(yu)真人之间进行情(qing)感联结。无(wu)论(lun)AI、机器人之类的(de)(de)能给出多好的(de)(de)建议(yi),人们(men)还是需(xu)要人与(yu)人之间的(de)(de)陪伴与(yu)关怀。
我对(dui)另一(yi)个职业的(de)(de)未来走向没有那(nei)么确(que)定,那(nei)就(jiu)是(shi)计(ji)算(suan)(suan)机程序(xu)员。如今计(ji)算(suan)(suan)机程序(xu)员的(de)(de)工作和两年(nian)前(qian)大(da)不相同,现在程序(xu)员可以借助AI工具提升工作效率。虽然核心操(cao)作者(zhe)依(yi)然是(shi)人(ren),但他们能生成的(de)(de)代(dai)码量、能赚到(dao)的(de)(de)收入都达到(dao)了前(qian)所未有的(de)(de)水平。而且事实(shi)证明(ming),世界对(dui)软件的(de)(de)需(xu)(xu)求其(qi)实(shi)远超以往人(ren)类的(de)(de)开发能力,所以目(mu)前(qian)软件领域的(de)(de)需(xu)(xu)求缺(que)口(kou)依(yi)然巨大(da)。
但五到十年(nian)后,程序员的岗位会(hui)增(zeng)多还是减少,对此(ci)我也不确定。
主持人:不过可以肯定的是,这个行业必将经历大规模的岗位变动,或许到时候,现在的程序员会找到新的、有趣且高薪的工作方向。你觉得这种岗位变动的幅度会有多大?
阿尔特曼:最近有人告诉我,从历史(shi)数(shu)据来(lai)看(kan),平均每(mei)75年就会有大约50%的职(zhi)(zhi)业(ye)发生(sheng)变化,这(zhei)些职(zhi)(zhi)业(ye)或许不会完全消失,但会变得和原(yuan)来(lai)大不一样。这(zhei)大概(gai)就是职(zhi)(zhi)业(ye)演变的半(ban)衰(shuai)期规(gui)律。
我(wo)有个可能会(hui)(hui)引(yin)发争议的(de)观点(dian)是(shi),当下AI带(dai)来(lai)的(de)变革更像是(shi)一种间(jian)断平(ping)(ping)衡(heng)(Punctuated Equilibrium,指物种长期稳定(ding)后突然发生快速演化),很(hen)多(duo)职(zhi)业的(de)重大变化会(hui)(hui)在短期内集中爆发。但如果把(ba)时(shi)间(jian)线拉(la)远来(lai)看,整体的(de)职(zhi)业变革速率其实不会(hui)(hui)和历史平(ping)(ping)均水(shui)平(ping)(ping)有天壤之别。
也就是说,短期内我们会看到大量职业快速调整,但从长远(yuan)来看,总(zong)的职业(ye)更替率可能(neng)不会像我们(men)预想的那么高。未来依(yi)然会有新(xin)的(de)工作(zuo)岗位出现(xian),也会诞生全新(xin)的(de)职(zhi)业类(lei)别。比如(ru)我现(xian)在(zai)(zai)从事的(de)运营科(ke)技(ji)公司(si)这类(lei)工作(zuo),放在(zai)(zai)过去就是不存在(zai)(zai)的(de)新(xin)职(zhi)业。
比如(ru)(ru)20年前(qian)的(de)人(ren)们很难(nan)想(xiang)象(xiang)现(xian)(xian)在的(de)诸(zhu)多职业(ye),但如(ru)(ru)今仍(reng)有不(bu)少工作,在本质方(fang)向上与20年前(qian)就存在的(de)职业(ye)有相似之处,20年前(qian)人(ren)们预想(xiang)中会出现(xian)(xian)的(de)某(mou)些(xie)职业(ye),现(xian)(xian)在也并未成(cheng)为(wei)现(xian)(xian)实。
再说回之(zhi)前的(de)(de)话题(ti),我依然不(bu)确定(ding)这个数(shu)据是否准(zhun)确,但姑且(qie)先拿(na)它来展开讨论,如(ru)果假设(she)每75年(nian)就(jiu)有50%的(de)(de)职(zhi)业(ye)被更替,那么(me)我完(wan)全(quan)(quan)能想象这样一(yi)个未来,75年(nian)后,一(yi)半的(de)(de)人在从事全(quan)(quan)新(xin)的(de)(de)工(gong)作,而另一(yi)半人的(de)(de)工(gong)作,在形(xing)式上(shang)仍与如(ru)今的(de)(de)某些职(zhi)业(ye)有相(xiang)似之(zhi)处。
主持人:你觉得这一次AI引发的变革还会重现类似工业革命的局面吗?
阿尔特曼:没人能给出确切答(da)案。我对这个问题的(de)判断(duan)并没有十足(zu)把(ba)握,但(dan)直觉告诉我,如(ru)今的(de)世界比(bi)(bi)工业(ye)革(ge)命时期富裕得多,因(yin)此我们其实有能力比(bi)(bi)过(guo)去更(geng)快地消化更(geng)多变革(ge)。
这(zhei)不仅仅关乎工(gong)作(zuo)或金(jin)钱,还(hai)涉及人(ren)生意义,以及非常(chang)关键的(de)(de)社(she)群归属感(gan)。遗憾(han)的(de)(de)是,我认为当下社(she)会在社(she)群归属感(gan)这(zhei)方面(mian)相当糟糕,我不知道情况(kuang)还(hai)能(neng)恶化(hua)到什(shen)么(me)地(di)步,它大(da)概率还(hai)会变得更(geng)糟。不过人(ren)们在困境中展现出(chu)的(de)(de)适应能(neng)力,倒是曾(ceng)给(ji)过我不少惊(jing)喜。
人们适应重大变革的(de)速度其(qi)实很(hen)快,比如新冠(guan)疫(yi)情对我(wo)来说就是个(ge)很(hen)有说服力的(de)例子(zi),当时(shi)整个(ge)世(shi)界几乎一下子(zi)停摆了(le),短(duan)短(duan)一周内,一切(qie)都(dou)变得截然不同。我(wo)当时(shi)特(te)别担(dan)心(xin)社会能否适应那样的(de)局面(mian)。
当然(ran),那段时期(qi)的(de)应(ying)对并非毫无问题,但总体来看(kan),我会(hui)觉得这至少证(zheng)明了社会(hui)是(shi)有韧性的(de)。人们确实能很(hen)快找到新的(de)生(sheng)活(huo)方式。而AI带来的(de)变革,绝不会(hui)像疫(yi)情那样突然(ran)。
八、无法想象人类会模仿ChatGPT用破折号,对大模型的未知风险焦虑
主持人:那AI的弊端是什么?我当然能看到它的好处,比如效率提升、医疗诊断会变得精准,但你真正担心的弊端是哪些?
阿尔特曼:我(wo)最担心的(de)(de)始终是那(nei)(nei)些未知,如果某个弊端是我(wo)们能(neng)清晰预(yu)判、认真思(si)考应对(dui)的(de)(de),那(nei)(nei)反而(er)不用(yong)太慌(huang)。比如我(wo)们之前聊(liao)到过一个点,现在这些模型在生(sheng)物领域的(de)(de)能(neng)力(li)越(yue)来越(yue)强,它们有可(ke)能(neng)会被(bei)用(yong)来设计(ji)生(sheng)化武(wu)器,或是人(ren)为制(zhi)造出类似流(liu)行病。
我(wo)(wo)(wo)确实(shi)担心这(zhei)(zhei)个问题,但(dan)正因为我(wo)(wo)(wo)们意识到(dao)了这(zhei)(zhei)种(zhong)风险,我(wo)(wo)(wo)相信我(wo)(wo)(wo)们以及行业里的很多人,都(dou)在(zai)绞尽脑(nao)汁(zhi)想办法缓解(jie)它。
而未知的事情就不一样了,比如大(da)量人同时使(shi)用(yong)同一个模(mo)型,可能会(hui)(hui)引发全社会(hui)(hui)层(ceng)面的连锁反应。我(wo)举个听起来有点(dian)荒唐的(de)(de)(de)例子,但这是我(wo)最(zui)近(jin)真切(qie)感(gan)受到(dao)的(de)(de)(de),像我(wo)们开发的(de)(de)(de)语言模(mo)型(xing)以(yi)及(ji)其他同类模(mo)型(xing),其实都有自己独特的(de)(de)(de)风格,它(ta)们说话有特定的(de)(de)(de)节奏,会用一些不太常见的(de)(de)(de)表达方式,甚至可(ke)能过度(du)使用破折号(hao)之类的(de)(de)(de)标点(dian)。
但最近我发现,现实中的(de)(de)人居然(ran)开始模仿这种风格(ge)了。这对(dui)我来说是个很直(zhi)观的(de)(de)警示(shi),要是有(you)足够(gou)多的(de)(de)人都在和同一(yi)个语言模型对(dui)话,它真的(de)(de)有(you)可能改变整个社(she)会的(de)(de)行为模式。我当初无(wu)法想象,ChatGPT竟然(ran)会让人们(men)在现实生(sheng)活中大量使用(yong)破折号。
使(shi)用破折号(hao)可(ke)能什么大不了(le)的(de),但这恰(qia)恰(qia)能说明(ming),未知(zhi)的(de)未知(zhi)是真实存在的(de),我们如(ru)今面对的(de)确实是一个全新的(de)、充满未知的(de)世(shi)界(jie)。
主持人:你的意思是技术总会改变人类行为,也会改变我们对世界、对彼此的认知,而且很多这类改变是无法预判的。但既然我们明知这一点,那为什么不能让技术背后的内在道德框架完全透明呢?比如明确告诉大家我们更倾向于选择A,而非选择B。
在我看来,AI是我们认定比人类更强大的存在,这种情况其实已经在发生了,比如遇到该做什么决定才对的问题时,以前我会去问最亲近的朋友、我的妻子,但现在这项技术能给出比任何人都更确定的回答。
这项技术让人不安的地方在于,我不清楚它的核心立场是什么,但它必然有自己的立场。可除非它明确承认这一点,并且告诉我们它的立场究竟是什么,否则它就会以一种隐蔽的方式引导我们,甚至可能在我们自己都没意识到的情况下,就把我们推向某个结论,所以,为什么不彻底公开透明?
阿尔特曼:我们之所以制定(ding)这么(me)多技术规(gui)范,而且(qie)还(hai)在(zai)不断补充(chong)完善,就是为了让所有人都能清楚看到我们希望这个模型(xing)按(an)照怎样的逻辑运行。
以前没有这些规范的时候,大家根本说不清模型到底想实现什么目的,遇到问题也分不清那是程序漏洞,还是模型本就该有的表现。这份技术规范其实就是在明确在什么情况下我们会这么做、在什么情况下会向你展示这些内容、在什么情况下会明确告诉你我们不会做那件事。我们之所以费力把这些都写出来,核心就是觉得用户确实需要知道这些信息。
主持人:所以现在有没有一个地方能让人找到明确答案,比如作为一家公司,你们的核心倾向是什么?人们该去哪里了解你们公司的立场、你们的偏好呢?
阿尔特曼:我(wo)们制(zhi)定(ding)的模型规(gui)范,就(jiu)是为(wei)回(hui)答这(zhei)(zhei)类问题而存在(zai)的。随着时(shi)间推移(yi),我(wo)们必须让这(zhei)(zhei)些规(gui)范变得(de)越(yue)来越(yue)详尽(jin),因(yin)为(wei)人们会在(zai)不同(tong)(tong)国家使用这(zhei)(zhei)项技术,各地有(you)不同(tong)(tong)的法律要求,还有(you)其他各种复杂情况,所(suo)以规(gui)范不可(ke)能(neng)一(yi)成(cheng)不变。
它不可能在(zai)全球所有用户那里都以完全相同的(de)方式运(yun)行。正因为如此,我预计那份(fen)文(wen)(wen)档会变得(de)非常冗长(zhang)、非常复杂,但这(zhei)也正是我们需要制定(ding)这(zhei)份(fen)文(wen)(wen)档的(de)原(yuan)因。
九、像使用普通电脑一样使用ChatGPT,人们质疑媒介内容意识增强
主持人:我再问最后一个问题,或许你能打消我的这层顾虑,这项技术的强大力量,会不会让人们难以甚至无法分辨现实与虚构?正因为AI太擅长模仿人类的言行举止,甚至能生成以假乱真的人像与声音,到时可能就需要某种方式来验证你确实是你所声称的身份。而从本质上来说,这必然会用到生物识别技术,进而剥夺全球每个人的隐私。
阿尔特曼:不过我认为,我们没必要、也不应该强制要求使用AI时必须进行生物识别。我觉得大家应该能像使用普通电脑一样,直接使用ChatGPT这类工具。
主持人:我非常认同这个观点,但问题在于到了某个阶段,当有人利用模仿他人的图像或声音进行诈骗时,用这种手段掏空别人的支票账户会变得易如反掌。所以面对这种情况,我们该怎么应对?
阿尔特曼:关(guan)于这个(ge)问(wen)题,我有几(ji)点想(xiang)法。首先,我认为(wei)我们(men)正迅速走(zou)向这样一个(ge)世界,当你(ni)(ni)接到(dao)一通听起来像你(ni)(ni)孩子或父母(mu)的电(dian)话,或是(shi)看(kan)到(dao)一张看(kan)似真(zhen)实(shi)的图(tu)片时,你(ni)(ni)必须通过某种方(fang)式(shi)去核实(shi),避免自(zi)己遭遇诈(zha)骗(pian),这已经不(bu)再(zai)是(shi)理论层面的担忧了,相关(guan)的报道其实(shi)随处可见。
但好在人们(men)是聪明的,社会也具备韧性(xing)。我相信大(da)家正在快速意(yi)识到,现在确实(shi)有不法分子在利用这类AI技术行骗,必须通过多种途径去核(he)实(shi)信息的真实(shi)性(xing)。
我猜,除了像家人之间约定危机(ji)时(shi)刻(ke)专(zhuan)用暗号(hao)这类办(ban)法之外,我们还会看到这样的场景,比如国家领导人要发布紧急消息时(shi),会对消息进行(xing)加密(mi)签名,或是通过其他(ta)方式确保其真实性。
而且人们正在迅速意识到,这是不法分子利用新技术实施的新型手段,必须加以应对。在我看来,这本身就是解决方案的核心,也就是说,人们(men)会逐(zhu)渐形成(cheng)一(yi)种默认态度,不轻易相信那些看似真实的(de)媒介内容(rong)。
主持人:OpenAI正涉足电子商务,那该怎么保障安全?
阿尔特曼:我(wo)觉得可以像(xiang)家人(ren)之间那样,约定一个定期更换的暗号。当你们互相联系时,比如接到对方电话,就可以问一句暗号是什么,这和生物识别(bie)技术完(wan)全是两回事。
主持人:所以你并不认为生物识别会很快成为全社会的强制要求?比如现在搭乘飞机,生物识别已经是流程的一部分了,但你不觉得它会很快推广到整个社会,变成人人必须遵守的规定。
阿尔特曼:我真心希望不会变成这样,确实存在一些隐私保护型生物识别技术,相比那种大量收集个人数字信息的方式,我更认可这类技术。但即便如此,我也不认为生物识别应该成为强制要求。