智东西(公众号:zhidxcom)
编译 | 风衣
编辑 | Panken

智东西1月2日消息,近日,《福布斯》做出了2025年AI发展的十(shi)大预测。

AI模型开发方面:
其一,Scaling laws会被广泛应用于机器人技术和生物学领域(二);
其二,AI语音模型通过图灵测试,可以在对话中冒充人类(六);
其三(san),AI实(shi)(shi)现(xian)自主迭代(dai),自行研(yan)发新AI,完成(cheng)从观点、实(shi)(shi)验、论文、评审的全过程(七(qi));

AI应用开发方面:
其一,Meta将对企业使用Llama收费(一);
其二,AI web agent应用将大杀四方,代替消费者完成线上事务(四);
其三,重要的AI研发(fa)机构,如(ru)OpenAI,将从开发(fa)基(ji)础模型转(zhuan)向(xiang)开发(fa)应用,在(zai)AI商(shang)业化(hua)中分一杯(bei)羹(八(ba));

其他预测:
其一、特朗普和马斯克将分道扬镳,这将对OpenAI、xAI的发展以及AI安全政策造成影响(三);
其二,将有一批企业尝试在太空中建立AI数据中心,试图解决AI发展的能源限制(五);
其三,至少在美国五个大城市中,无人驾驶出租车会占据网约车两位数的市场份额(九);
其四,AI做出不(bu)符(fu)合(he)人类意图的行为,AI安全(quan)事件引(yin)发人机关系再思考(十)。

一、Meta将开始对Llama模型收费

Meta是全球开源AI的领军者。在企业战略方面,Meta提供的Llama模型免费开放,而像OpenAI和Google的前沿模型都是闭源、付费的。相较之下,Meta的策略是一个非常有趣的研究案例。因此,如果明年Meta开(kai)始(shi)对公司使用(yong)Llama收费(fei),很多人(ren)都(dou)会很惊(jing)讶。

需要明确的是,这并不是说Meta会让Llama完全闭源,也不是说所有使用Llama模型的人都必须为此付费。相反,预计Meta会进一步严格Llama的开源许可(ke)条款,让那些出于(yu)商业目的、大规模使用(yong)Llama的公司需要付费才能访问Llama模型。

从实操来(lai)看,Meta现在(zai)已经在(zai)做类(lei)似的事情,它目(mu)前不允许一些(xie)超(chao)大型(xing)公司自由(you)使用(yong)Llama模型(xing),比如云(yun)计算巨头和其(qi)他拥有超(chao)过7亿(yi)月活跃用(yong)户(hu)的公司。

在2023年,Meta的CEO马克·扎克伯格曾说过:“如果你是像微软、亚马逊或谷歌这样的公司,并且基本上就是要转售Llama,那我们认为Meta应该从中获得一部分收入。在我看来,这在短期内并不会带来大量收入,但从长期来看,这种方式有可能成为Meta的收入来源之一

明年(nian),Meta将(jiang)大(da)幅(fu)扩大(da)要(yao)为Llama付(fu)费的公司(si)范围(wei),涵(han)盖更多(duo)的大(da)型和中型企业。

为什么(me)Meta会做出这样的战(zhan)略转变?因为在激烈(lie)的竞争(zheng)中,想要(yao)将大(da)语言模型(xing)保(bao)持(chi)在发展前沿(yan),成本(ben)非常高。如果Meta希(xi)望Llama与OpenAI、Anthropic等公司最新(xin)前沿(yan)模型(xing)保(bao)持(chi)在一个水平,那每年需要(yao)投入数十亿美元。

虽然Meta是全球最大、最有财力的公司之一,但它同时也是一家上市公司,最终还是要对股东负责。随着发展AI模型的成本飞涨,Meta若(ruo)不从中获得(de)收益,将很难继续承担如此巨额的开(kai)支来训练下一(yi)代Llama模(mo)型。

业(ye)余(yu)爱好者、学者、个人开发(fa)者和(he)初创公司明年(nian)仍然(ran)可以免(mian)费使用(yong)Llama模型。但(dan)是,2025年(nian)将是Meta认真开始通过(guo)Llama实现盈利的一年(nian)。

二、Scaling laws将被进一步应用于大语言模型之外的领域,特别是在机器人技术和生物学领域

最近几周,AI领域讨论最多的话题之一就是Scaling laws,以及这一定律是否正(zheng)在失效

Scaling laws最早于(yu)2020年(nian)在(zai)OpenAI的(de)(de)论文中被提出,其基本(ben)概念非(fei)常简单:在(zai)训练AI模型时,随着模型参数数量、训练数据量和计(ji)算量的(de)(de)增加,模型的(de)(de)表现(xian)(严(yan)格地说,是(shi)(shi)测试(shi)损失(shi)(test loss)的(de)(de)减少)会(hui)以一种(zhong)可(ke)靠且可(ke)预(yu)测的(de)(de)方式得到改(gai)善。Scaling laws是(shi)(shi)从GPT-2到GPT-3再到GPT-4的(de)(de)表现(xian)飞跃的(de)(de)根本(ben)原因。

与摩尔定律(Moore’s Law)类似,Scaling laws并不是真实的自然法则,而只是经验性的观察。在过去一个月(yue)当中,一系(xi)列(lie)报道表明,目前主要的AI研(yan)发(fa)机构在继续扩展大语言(yan)模型(xing)时,正面临着回报递减(jian)的现象。这也可以解(jie)释为(wei)什么OpenAI的GPT-5发(fa)布不断(duan)推迟。

对于Scaling laws的回报趋于平缓这一现象,最常见反对观点是:将测(ce)试时计算(test-time compute,指大语言模型生成响应时使用的计算资源)引入模型测试这一做法开辟了一个全新的维度。也就是说,相较于前代模型完全依靠在预训练中扩大模型参数量来改善表现,像OpenAI的o3这样的新推理模型能在(zai)推理(li)过程中进行计算,推(tui)理计算(suan)量的扩大可以让(rang)AI模(mo)型(xing)通(tong)过“思考(kao)更长时(shi)间(jian)”来解锁新的能力。

这种解释十分重要。“测试时计算“确实代表了扩展模型算力和提高AI性能的一种新途径,这相当令人兴奋。但关于Scaling laws的另一个观点更为重要,并且在如今的讨论中被低估了:几乎所有关于Scaling laws的讨论——从2020年最初的论文到如今聚焦于测试时计算的讨论——都集中在语言模型上,然而,语言并(bing)不是唯一重要的数据模态

想想机(ji)器人技术、生物(wu)学、世(shi)界模(mo)型(xing)或AI web agent。对(dui)于这些数据模(mo)态(tai),Scaling laws并没有饱和;相反(fan),Scaling laws才刚刚开始(shi)发(fa)挥作用。不过,关于上述领(ling)域Scaling laws存(cun)在性的(de)严格证(zheng)据,至今尚未发(fa)布。

为这(zhei)些新(xin)数据(ju)模(mo)态搭建AI模(mo)型的初(chu)创公(gong)司,例如生物(wu)学领(ling)域(yu)的EvolutionaryScale、机器人领(ling)域(yu)中的Physical Intelligence、世界(jie)模(mo)型领(ling)域(yu)的World Labs,正在试图(tu)识别并利用新(xin)领(ling)域(yu)中的Scaling laws。OpenAI利用Scaling laws发展大语言模(mo)型珠玉在前,预计2025年(nian),Scaling laws会在新(xin)的领(ling)域(yu)大展身手。

不要相信外界的闲言碎语,Scaling laws绝(jue)不会消失。到2025年,它们依然至关重要,但Scaling laws的发挥场景将从大语言模(mo)型(xing)的预训(xun)练(lian)转(zhuan)向其他模(mo)态。

三、特朗普和马斯克或分道扬镳,AI领域必受严重波及

新的美国政府班底将(jiang)带(dai)来一系(xi)(xi)列AI政策和战略(lve)的转变,为了预(yu)测特朗普(pu)(pu)任期内(nei)AI领(ling)域的走向,众人都关注着唐(tang)纳德·特朗普(pu)(pu)与埃隆·马斯(si)(si)克的密(mi)切关系(xi)(xi),毕竟(jing)马斯(si)(si)克在如今AI世界(jie)中扮演着至关重要的角色。

可以想象,马斯克可能通过多种方式影响特(te)朗普政府的AI相关决策(ce)。考虑到马斯克与OpenAI之间水火不容的关系,新一届政府可能会对(dui)OpenAI采(cai)取不(bu)太友(you)好(hao)的态(tai)度,包括(kuo)行(xing)业接触、制定AI监管政(zheng)策、获(huo)取政(zheng)府合同等等方面。OpenAI目前也确(que)实非常担忧这些问题。另一(yi)方面,特朗普(pu)政(zheng)府可能会偏向支持马斯克(ke)的公司(si):例(li)如,通(tong)过简化(hua)各种流程,帮助xAI建立数据中心和在(zai)模型竞赛中取得领先(xian)地(di)位;快速批准特斯拉(la)部(bu)署(shu)自动驾(jia)驶出(chu)租车等。

更根本的是,不同于其他与特朗普关系亲密的科技大佬,马斯克非常重视AI对人类造成的安全威胁。因此他主张对AI进行严(yan)格(ge)监(jian)管:他支持加(jia)利(li)福尼亚州尚有(you)争议的SB 1047法(fa)案,该(gai)法(fa)案试图对(dui)AI开发者施加(jia)严格限制。因此,马(ma)斯克(ke)的影响力可能(neng)会(hui)导致(zhi)美国(guo)的AI发展处(chu)于更为严厉的监管环境中。

不过,这些猜测都忽视了一个问题,那就是特朗普和马斯克的密切关系必然(ran)会破(po)裂

正(zheng)如我们在特(te)朗(lang)(lang)普政府第一届任期(qi)(qi)(qi)内(nei)(nei)一再(zai)看到(dao)的(de)那样,即使是特(te)朗(lang)(lang)普看似坚(jian)定不移的(de)盟友,平均任期(qi)(qi)(qi)也异(yi)常短暂(zan),从杰(jie)夫(fu)·塞申斯(Jeff Sessions)到(dao)雷克斯·蒂(di)(di)勒森(Rex Tillerson),再(zai)到(dao)詹姆斯·马蒂(di)(di)斯(James Mattis)、约翰·博尔顿(John Bolton)、史蒂(di)(di)夫(fu)·班农(Steve Bannon)都(dou)是如此(当然(ran),谁能忘记安东尼(ni)·斯卡拉穆(mu)奇(Anthony Scaramucci)在白宫(gong)短短10天的(de)任期(qi)(qi)(qi)呢?)。如今,特(te)朗(lang)(lang)普几乎(hu)没(mei)有第一届任期(qi)(qi)(qi)内(nei)(nei)的(de)副手对(dui)他保(bao)持忠诚。

特朗普和马斯克(ke)都(dou)具(ju)有复杂、多变而(er)不(bu)可捉摸的个性,与他们(men)共事很不(bu)轻松(song),容(rong)易让人筋疲力尽(jin)。目前已经证(zheng)明(ming),他们(men)的新近联(lian)手对双方都(dou)有利(li),但这段(duan)(duan)关系(xi)仍处于蜜月期(qi)。据(ju)《福布斯》预(yu)测,2025没过完,这段(duan)(duan)关系(xi)就得臭(chou)。

这(zhei)对(dui)AI领域意味着什么呢(ni)?这(zhei)对(dui)OpenAI来说是个好消息,对(dui)特(te)斯拉(la)股东来说则是个坏消息。对(dui)那(nei)些关注(zhu)AI安全的人来说,这(zhei)将是一个让人失望的消息,因为几乎可以确定,没有马(ma)斯克,特(te)朗(lang)普政府(fu)会在AI监管方面采取(qu)放任不(bu)管的态度。

四、AI web agent大放异彩,成为消费者又一主流应用

想象这样一个世界:不管是管理订阅、支付账单、预约医生,还是在亚马逊上购买东西、预定餐厅,或是完成任何繁琐的线上事务,你都不需要直接上网,而只需指示AI助(zhu)手替你(ni)完成(cheng)

“AI web agent”的(de)概念已经存在(zai)多(duo)年。如果出(chu)现类似的(de)产品并且能够正常使用,那毫无(wu)疑问,它会大获成功。然而,如今市(shi)面(mian)上并不存在(zai)一个功能完整的(de)通用AI web agent软件。

像Adept这样的(de)(de)(de)(de)初创(chuang)公(gong)司(si),虽然拥有(you)数百万(wan)美(mei)元的(de)(de)(de)(de)融(rong)资和一(yi)支经(jing)验丰富(fu)的(de)(de)(de)(de)创(chuang)始团队,却未能成功推出(chu)产(chan)品。Adept的(de)(de)(de)(de)案例(li)已经(jing)成为这一(yi)领域(yu)的(de)(de)(de)(de)前车之鉴。

明年,将是AI web agent真正变得成熟、足以进入主流市场的一年。大语言模型和视觉基础模型的持续进展,加上新推理模型和推理时计算带来的“系统2思维(System 2 thinking)”能力(出自卡尼曼双系统思维模型,系统2通过逻辑推理解答问题,相对于系统1用直觉进行决策)的突破,都预示着AI web agent即将迎(ying)接发展的黄金时段

AI web agent将(jiang)找到各种有价值的企业应用场景,但短期内最大的市场机会将(jiang)在消(xiao)(xiao)(xiao)费(fei)者(zhe)领域(yu)。尽管最近AI热潮(chao)不断,但除了ChatGPT之外,只有相对少数(shu)的AI原生应用能够取(qu)得突破,成为消(xiao)(xiao)(xiao)费(fei)者(zhe)当中的主(zhu)流应用。AI web agent将(jiang)改变这一局(ju)面,成为消(xiao)(xiao)(xiao)费(fei)者(zhe)下一款AI应用。

五、在太空建设AI数据中心的严肃尝试

2023年,AI发(fa)展的资源瓶颈是GPU芯(xin)片;2024年,资源瓶颈成了电力和数(shu)据中心。

在2024年,AI对能源的巨大需求成了全球焦点,尤其是在建造AI数据中心的热潮当中。全球数据中心的电力需求在过去几十年内保持平稳,但由于AI的兴起,2023-2026年的电力需求预计将翻倍。到2030年,美国数据中心将消耗接近10%的总(zong)电力,远高于2022年的3%。

特朗普和马斯克即将开撕?《福布斯》2025年AI十大预测 ▲AI数(shu)据中心(xin)导致能源需(xu)求飙升(图(tu)源:Semianalysis)

当前的能源(yuan)系统显然无法应对AI发展(zhan)带来的需求(qiu)激增。能源(yuan)电(dian)网(wang)和计算基础(chu)设施(shi),这两个万亿美元级的系统即将发生历史性的碰撞。

核能作为解决这一世纪难题的可能方案,今年获得了越来越多的关注。核能在许多方面是AI理想的能源来源:零(ling)碳、随时可获取(qu)(qu)、并且(qie)几乎取(qu)(qu)之不尽。但从现实角度(du)看,想通过新的核(he)能(neng)(neng)解决(jue)能(neng)(neng)源问题,可(ke)能(neng)(neng)要等到30年代(dai)。因为核(he)能(neng)(neng)开发需(xu)要长期(qi)的研究、开发和监管(guan)周(zhou)期(qi),这个周(zhou)期(qi)适用(yong)于(yu)传统的核(he)裂(lie)变电(dian)厂(chang)、下一代(dai)“模块化(hua)小型反应(ying)堆”(SMRs),当然也适用(yong)于(yu)核(he)聚变电(dian)厂(chang)。

明年,将出现一个大胆的想法来应对能源挑战,发掘有效资源:将AI数据(ju)中心建在太空里。乍一看,这个想法像(xiang)是个笑话。但事实上,它有其可(ke)行(xing)性:在地球上批量铺开数据中心的(de)最(zui)大瓶颈就是获取电力;而在太空中,太阳永远高悬,所(suo)以轨道上的(de)计算(suan)集群可(ke)以享受(shou)全天候、免(mian)费(fei)、无限、零碳的(de)电力。

当然,还有许多实际问(wen)题(ti)需要(yao)解决。一(yi)个(ge)显而易见的问(wen)题(ti)是,能否找到一(yi)种低成本、高效率的方式在轨道和地球之(zhi)间传输大量数据?这仍是一(yi)个(ge)悬而未决的问(wen)题(ti),但通过激(ji)光(guang)以(yi)及(ji)其(qi)他高带(dai)宽(kuan)光(guang)通信技术的研(yan)究,我们(men)可能会找到答案。

为实现(xian)这(zhei)一愿景,孵化自Y Combinator的初创公(gong)司(si)Lumen Orbit最近融资了1100万美元,要在太空中(zhong)建立(li)一个(ge)超高(gao)功率的数据中(zhong)心网络来训练AI模型。

Lumen的CEO菲利(li)普·约翰斯(si)顿(dun)(Philip Johnston)说道:“与其支(zhi)付1.4亿美元(yuan)的电费,不如支(zhi)付1000万美元(yuan)发射数据和使用太阳能。”

2025年,Lumen不会是唯一一家认真考虑这一想法的公司,其他初创公司也将出现。也不要惊讶于云(yun)计算巨头启动类(lei)似的(de)探索性项(xiang)目。通过(guo)Project Kuiper,亚马(ma)逊已经(jing)积累了(le)送货入轨的(de)丰富经(jing)验;谷歌也(ye)有长期资助类(lei)似“登月计划”的(de)历(li)史;甚至微软对(dui)太空经(jing)济也(ye)不陌生;埃隆·马(ma)斯克的(de)SpaceX也(ye)可能(neng)会参与(yu)其中。

六、一种语音AI模型将通过图灵测试

图灵测试是衡量AI表现的最悠久、也最著名的标准之一。为了“通过”图灵测试,AI系统必须能通过书面文本进行沟通,让普通人(ren)(ren)无法分辨ta是在与AI互动(dong),还是与人(ren)(ren)类(lei)互动(dong)

得益于近些年的(de)快(kuai)速发展,大语(yu)言模型已能(neng)通(tong)(tong)过图灵(ling)测(ce)(ce)试(shi),但书面文(wen)本并不(bu)是(shi)人(ren)类沟通(tong)(tong)的(de)唯(wei)一(yi)方式。随着(zhe)AI的(de)多模态化,我(wo)们可以想象一(yi)种(zhong)新的(de)、更具挑(tiao)战性(xing)的(de)图灵(ling)测(ce)(ce)试(shi)版(ban)本——“语(yu)音(yin)图灵(ling)测(ce)(ce)试(shi)”——在这(zhei)种(zhong)测(ce)(ce)试(shi)中,AI系统必须能(neng)够通(tong)(tong)过语(yu)音(yin)与人(ren)类互动,展现出(chu)人(ren)类无(wu)法区分人(ren)机(ji)的(de)技能(neng)和流(liu)畅度(du)。

目前,通过语音图灵测试仍是AI无法达到的目标,其间还有较大的差距。例如,人类说话与AI回应之间必须做到几乎零延(yan)迟,这样才可能媲美与人类交谈的体验;比如交流句子被中途打断的时候,语音AI系统必须能够实时、优雅地处理模(mo)糊输入或对话误(wu)解;AI模型必须能够进行长时间的(de)、多轮的(de)、开放式的(de)对话,同时能够记住讨论的早期部分。更重要的是,语音AI必须学会更好地理解语音中的非语言信号:例如,当人类语音听起来恼怒、兴奋或讥讽时,这些信号都(dou)意味着什么,同时AI能在自(zi)己的语音中(zhong)生成(cheng)这些非语言信号。

2024年(nian)接近(jin)尾声,语(yu)音(yin)(yin)(yin)AI正处(chu)于一个让(rang)人(ren)兴(xing)奋的(de)转(zhuan)折(zhe)点,诸如(ru)speech-to-speech等模型的(de)基础(chu)性(xing)突破(po)驱动着语(yu)音(yin)(yin)(yin)模型的(de)进步。如(ru)今,不管(guan)是技(ji)术领域(yu)还是商(shang)业领域(yu),语(yu)音(yin)(yin)(yin)AI都(dou)在快速发(fa)展。到2025年(nian),语(yu)音(yin)(yin)(yin)AI的(de)技(ji)术预计会取得巨大进展。

七、 AI自我改进系统取得重大进展

能够不断实(shi)现自我(wo)改进的(de)(de)AI模(mo)型,这在AI圈里是一(yi)个绵延(yan)亘久的(de)(de)话题,已(yi)持续(xu)了(le)几十年。

例如,早在1965年,艾伦·图灵(Alan Turing)的密切合作伙伴I.J. Good写道:“要把超级智能机器定义为:无论人类多么聪明,都能远远超越所有人类才智的机器。由于机器设计是也属于智力活动,所以(yi)一个超级(ji)智能(neng)机器能(neng)够设计出更好(hao)的智能(neng)机器;然后(hou),毫无疑问地,会出现(xian)一个‘智(zhi)能爆炸’,人类的智(zhi)能将被远远抛在后(hou)头。”

AI自己研发更好的AI,这在智能(neng)发展(zhan)上是一(yi)个非常(chang)吸引人的概念。但(dan)即使到今天(tian),它仍然带有一(yi)丝科(ke)幻(huan)的色彩。

然而(er),尽(jin)管尚未得到广泛认(ren)可,但这个概念(nian)正在变(bian)得越来越接近落地。AI科学前沿(yan)的研究人(ren)员,已(yi)经开始在构(gou)建(jian)能自我(wo)发展的AI系(xi)统(tong)方面取得实(shi)质性(xing)进(jin)(jin)展。明年,预计这一研究领域(yu)将进(jin)(jin)入主流。

迄今为止最著名的公开研究实例是Sakana的AI Scientist,发布于今年8月,令人信服地证明了AI系统确实能够完全自主地进行AI研究

这项研究让AI执行了AI研究的完整周期:阅读现有文献、生成新的研究想法、设计实验来验证想法、进行实验、撰写研究论文报告发现,然后进行同行评审。在没有任何人工输入的前提下,AI完全自(zi)主地完成了一切任务。

虽然目前还(hai)没有公开消(xiao)息,但关于OpenAI、Anthropic和其(qi)他研发机构(gou)正在将资源投(tou)入到“自(zi)动(dong)化(hua)AI研究(jiu)员(yuan)”这(zhei)一理念中的传言已经蔓延(yan)。2025年这(zhei)一领域还(hai)会(hui)有更多(duo)(duo)讨论、进展(zhan)和创(chuang)业公司,因为越来越多(duo)(duo)的人意识到,自(zi)动(dong)化(hua)AI研究(jiu)具有现实可行性。

如(ru)果(guo)一篇(pian)完全由AI撰写的(de)(de)(de)研究(jiu)(jiu)论(lun)文被(bei)顶级AI会议(yi)(yi)接(jie)受(shou),那(nei)将是自(zi)(zi)动化(hua)AI研究(jiu)(jiu)最重要的(de)(de)(de)里程碑(由于论(lun)文是盲(mang)审(shen)的(de)(de)(de),会议(yi)(yi)审(shen)稿(gao)人在论(lun)文被(bei)接(jie)受(shou)之前(qian)不(bu)会知道它是由AI撰写的(de)(de)(de))。如(ru)果(guo)看到(dao)AI自(zi)(zi)主(zhu)产生成(cheng)果(guo)被(bei)NeurIPS、CVPR或ICML等会议(yi)(yi)接(jie)受(shou),不(bu)要太(tai)惊讶。对(dui)于AI领域来(lai)说,那(nei)将是一个引人注目、充(chong)满争议(yi)(yi)并(bing)且具有历史意义(yi)的(de)(de)(de)时刻。

八、 OpenAI、Anthropic和其他AI研发机构将调整战略重心,转向开发AI应用

发展AI模型是一项相当艰难的业务,AI研发机构简直烧钱如流水,需要空前高度的资本集中。OpenAI最近筹集了破纪录的66亿(yi)美元资金(jin),并且可能很快就需(xu)要更(geng)多资金(jin)。Anthropic、xAI和(he)其他(ta)公司(si)也处于类(lei)似的(de)境(jing)地。

由于切换AI模型成本不高、客户对AI模型的忠诚度也比较低,AI应用开发商可以根据成本和性能变化在不同的AI模型之间无痛切换。所以通常认为,发展(zhan)AI模型和开发AI应(ying)用两项业务没有(you)太大的联系。

但随着Meta的(de)Llama和(he)阿里云通义(yi)等开源模(mo)(mo)型(xing)的(de)出(chu)现,AI模(mo)(mo)型(xing)商品(pin)化的(de)威(wei)胁日益紧迫(po)。像OpenAI和(he)Anthropic这样的(de)AI领(ling)头羊,不(bu)能(neng)、也不(bu)会停止对AI模(mo)(mo)型(xing)的(de)投资。到2025年,为(wei)了开发(fa)更高利润、更具(ju)差异化和(he)更具(ju)黏性的(de)业务(wu),预计这些AI研发(fa)机构会大(da)力推出(chu)更多自己的(de)应用和(he)产品(pin)。

当然(ran),ChatGPT已(yi)经是一个(ge)成(cheng)功范式,实(shi)现了(le)开发(fa)AI前沿模型和开发(fa)自有应用(yong)的紧密结(jie)合(he)。

在新的一年里,我们可能还会看到哪些类型的第一方应用呢?更复杂且功能更丰富的搜索应用必然是其中重镇,OpenAI的SearchGPT计划就是未来发展趋势的一个信号。AI编程也会是重要(yao)类别,这个(ge)方(fang)向已经开始初步的产品(pin)化(hua),比如OpenAI在(zai)10月推出的Canvas。

OpenAI或Anthropic会在(zai)2025年推出(chu)企业级AI搜索(suo)应(ying)(ying)用(yong)吗?或者(zhe)客户(hu)服务AI应(ying)(ying)用(yong)、法律AI应(ying)(ying)用(yong)、销售AI应(ying)(ying)用(yong)?在(zai)C端,应(ying)(ying)该会推出(chu)“个人助(zhu)手(shou)”AI web agent应(ying)(ying)用(yong)、旅行规划应(ying)(ying)用(yong),或者(zhe)音乐生成应(ying)(ying)用(yong)。

当AI研发机构转向自有应用开发后,最让人关注的是,它们会直接与许多(duo)自己的(de)重要客户竞(jing)争:搜索领域的(de)Perplexity,编程(cheng)领域的(de)Cursor,客户服务领域的(de)Sierra,法律领域的(de)Harvey,销(xiao)售领域的(de)Clay等等。

九、至少在五个美国大城市,无人驾驶出租车会在网约车市场中占据两位数的市场份额

自(zi)动(dong)驾驶汽车已经(jing)历了数年炒作(zuo),但承诺却(que)迟(chi)迟(chi)不能兑现。近十年来(lai),这项技术看似触手可及,但迟(chi)迟(chi)没有落地(di)进入主(zhu)流市(shi)场。

这种情况在2024年(nian)发生(sheng)了剧变(bian)。现在Waymo的自动(dong)驾驶(shi)汽车在旧金山(shan)街头随处可见,每天有成千上万的居民(min)像以前(qian)乘坐出租(zu)车或(huo)Uber一样,乘坐Waymo出行。

自从2023年8月推出服务,至(zhi)今Waymo已在旧金山的网约车市场份额中占(zhan)据(ju)了22%,与Lyft的(de)市场份额(e)相同(Uber的(de)市场份额(e)为55%)。

22%的(de)(de)市场份额,这可能让最(zui)近没(mei)去过(guo)旧金山的(de)(de)人感到惊(jing)讶。仅(jin)仅(jin)眨眼的(de)(de)工夫(fu),自(zi)动驾驶(shi)出(chu)租车就从(cong)研究项目变(bian)成一个庞大的(de)(de)商业模式了(le)。

自动(dong)驾驶出(chu)租车业务很快就将超越(yue)旧金山湾区(qu),成为(wei)多(duo)个(ge)美国城市交通系统的重要组成部(bu)分,这(zhei)个(ge)速(su)度会(hui)比大多(duo)数(shu)人预期的更快。到明年(nian)年(nian)底(di),像(xiang)Waymo这(zhei)样的自动(dong)驾驶出(chu)租车服务会(hui)在至少(shao)五个(ge)主要市场赢得两位数(shu)的市场份额。

哪些(xie)地方(fang)最有可能成为旧(jiu)金(jin)山之后的下一个城市呢?

Waymo的自动驾驶出租车已在洛杉矶和(he)凤(feng)凰(huang)城运营,预计(ji)明(ming)年在(zai)这两个(ge)地方(fang)的市(shi)场份额会大(da)幅增加。奥(ao)斯汀(Austin)、亚特兰大(da)(Atlanta)和(he)迈阿密(Miami)也(ye)会很快成为Waymo的下(xia)一(yi)个(ge)目(mu)标市(shi)场。同时,Waymo的竞争对手Zoox也(ye)准备在(zai)拉斯维加斯推出(chu)自动(dong)驾驶(shi)出(chu)租车服务。

在(zai)经历多年的炒作之(zhi)后,2025年,自(zi)动驾驶汽车将终于落地(di)主流市场(chang)。

十、2025年将发生第一宗真正的AI安全事件

随着近年来AI的愈发强大,关于AI脱离人类意愿自主行动的担忧日益增加,人们感受到一种可能失去AI控制的威胁:例如AI学会了欺(qi)骗或操控人(ren)类,并借此实现自己的目(mu)标(biao),而这些目(mu)标(biao)可能(neng)对人(ren)类造成伤害(hai)。

这一类问题通常被归类为“AI安全”问题。(AI还带来了许多其他社会问题,便利隐私监控、加剧各种偏见,但这些问题与AI安全问题不同,后者更专注于AI系统可能开始以不符合人类意图的方(fang)式行动、甚至最(zui)终可能对人类构成生存威胁的危险。)

近年来,AI安(an)(an)全(quan)已经从(cong)一(yi)(yi)个边缘的(de)、有(you)些科幻的(de)议(yi)题转变(bian)为主流话(hua)题。如今(jin)每一(yi)(yi)个重要的(de)AI开发者(zhe),从(cong)谷歌到(dao)微软,再到(dao)OpenAI,都实(shi)打实(shi)地(di)向AI安(an)(an)全(quan)工作(zuo)投入(ru)资源。AI领域的(de)巨擘,如Geoff Hinton、Yoshua Bengio和Elon Musk,都开始对AI安(an)(an)全(quan)风(feng)险直(zhi)言不讳。

然而,到(dao)目前(qian)为(wei)止,AI安全问题仍然完全是理论性的(de)。现实世界(jie)中(zhong)尚未(wei)发(fa)生(sheng)过真正的(de)AI安全事件(至(zhi)少(shao)没有被(bei)公开报道)。

2025年(nian)可能是这一局(ju)面发生变化的一年(nian)。

我(wo)们应该如何(he)预估(gu)这一AI安全事故的(de)内容?明确一点,这不会涉及《终结(jie)者》风格的(de)杀手机器(qi)人,事故大概率(lv)不会对(dui)任(ren)何(he)人类、造成任(ren)何(he)形式的(de)伤害。

也许某个AI模型会试图秘密地在另一个服务器上复(fu)制自己,以便保全自己,也就是所谓的自我渗透(self-exfiltration);也许某个AI模型会得出结论:为了更好地推进自我目标,它需要隐瞒自(zi)己能力,故意降低性能评估,以此避(bi)免更(geng)严格的审(shen)查。

这些例子并不是危言耸听,Apollo Research最近发布了重要实验,证明在特定提示下,现在的AI模型确实能做出欺骗性行为。同样,Anthropic的最新研究(jiu)显示,大语言模(mo)型有(you)令(ling)人(ren)担忧的“伪装对齐(fake alignment)”能(neng)力。

当然,第一(yi)宗AI安全事(shi)故大概率会在对(dui)人类(lei)造成真正(zheng)伤害(hai)之前被发现和消弭(mi),但对(dui)AI圈和整个社(she)会来说(shuo),这会是个振聋发聩的(de)时刻。

AI事故的发生将清楚地表明:即使人类远未面临来自全能AI的生存威胁,也需要尽早达成共识:我们将会与非人的智能体共享世界,这种智能体就像人类自身一样,会(hui)任性、会(hui)欺骗,也同(tong)样不(bu)可预测(ce)。

来源:《福布斯》