智东西(公众号:zhidxcom)
作者 | ZeR0 程茜
编辑 | 漠影
全球最(zui)大云计算巨头,今(jin)日掏(tao)出硬核家底(di)!
智东西12月3日拉斯维加斯报道,在年度云计算产业盛会AWS re:Invent大会上,AWS(亚马逊云科技)一口气发布6款大模型、预告2款大模型,还推出3nm第三代AI训练芯片Trainum3及其迄今最强AI服务器Trn2 UltraServer。
这是Amazon Nova系列基础模型首次亮牌。
包括Micro、Lite、Pro、Premier四个版本的语言模型,还有图像生成模型Canvas、视频生成模型Reel。其中Reel现支持生成6秒视频,很快将会延长到2分钟。
亚马逊总裁兼CEO安迪·贾西现场剧透:明年,AWS不仅将发布语音转语音模型,还有更高能的任意转任意(Any-to-Any)模型——能输入和输出文本、图像、音频、视频等任何模态的内容。
这些模(mo)型均在(zai)Bedrock中(zhong)提供,可微调和蒸馏。
此外,AWS CEO马特·加曼宣布推出最新生成式AI实例Amazon EC2 Trn2,比当前基于GPU的EC2实例的性价比高出30%~40%。
苹果机器学习和人工智能高级总监Benoit Dupin来到现场,称苹果在iPad、Apple Music、Apple TV、新闻(wen)、App Store、Siri等产品和服务(wu)上广泛使用了亚(ya)马(ma)逊服务(wu)。
他特别分享道,与x86实例相比,苹果已用Amazon Graviton、Inferentia等AWS芯片在机器学习推理工作负载方面实现了40%以上的效率提升,并预计在Trainium 2上预训练模型时,效率将提高50%。
被(bei)亚马逊(xun)豪掷80亿美(mei)元投资的Anthropic,宣布(bu)与AWS共同(tong)构建面向机器(qi)学习训练的世界最(zui)大(da)计算(suan)集(ji)群,其下一代Claude大(da)模型将(jiang)在(zai)拥有数十万颗Trainium2芯(xin)片的集(ji)群上进(jin)行(xing)训练。
总体来看,AWS的计算(suan)、存储(chu)、数(shu)据库、AI推理,四大(da)板块都迎来一(yi)大(da)波(bo)重要更新。
一、全新自研大模型Amazon Nova系列登场!文本、图像、视频齐活了
亚(ya)马逊总裁兼CEO安(an)迪·贾西现场分享了生成式AI如(ru)何贯(guan)穿亚(ya)马逊不同业务,包括(kuo)改善(shan)了电商客服、卖家详情页创建、库(ku)存(cun)管理、机器人、Alexa、Amazon Lens、线上购物(wu)衣服尺(chi)码匹配、Prime Video等(deng)的效率和体验。
然后,他公布全新大模型系列——Amazon Nova!
Nova语言模型有(you)四款:
(1)Micro:纯文本模型,128k上下文窗口,延迟最低,响(xiang)应速度最快。
(2)Lite:成(cheng)本很低的多模(mo)态模(mo)型(xing),300k上下文窗口,可快速处理图像(xiang)、视频和文本输(shu)入。
(3)Pro:多模态模型,300k上下文窗口(kou),兼顾准确度(du)、速度(du)和成(cheng)本,能(neng)进行视(shi)频理解(jie)、生成(cheng)创意素材。
(4)Premier:亚马逊功能最(zui)强的(de)多模态模型,可用于执行复杂的(de)推理任务,并(bing)可用作蒸馏(liu)自定义(yi)模型的(de)最(zui)佳老师(将(jiang)于2025年第(di)一季度推出)。
据介绍,Micro、Lite和Pro的价格至少比Amazon Bedrock中各自智能类别中性能最佳的模型便宜75%。它们也是Amazon Bedrock中各自智能类别中速度最快的模型。
AWS称(cheng)到2025年初(chu),某些Nova模型(xing)的(de)上下文窗口将扩展以支持超过200万个token。
在基准测(ce)试(shi)中,Micro版(ban)整体性(xing)能超过Gemini 1.5 Flash 8B和Llama 3.1 8B。
Lite在处(chu)理轻量(liang)级任务时是最低成本的多模态模型。
新发布的另外两个Nova模型是图形生成模型Canvas和视频生成模型Reel,可用于提(ti)升宣传广告的(de)创意。
Canvas支持生成和编辑图像,提供配色方案和布局控件,并内置有安全控件,用于可追溯性的水印和(he)用于限制有害内容生成(cheng)的内容审(shen)核(he)。
Reel可根据关键词或可选的参考图像生成6秒视频,支持用户调整摄像机运动以生成具有平移、360度旋转和缩放的视频。可制作2分钟视频的版(ban)本即(ji)将推出(chu)。
▲用Amazon Nova Reel创作的视频示例(li)
这(zhei)些(xie)模型支(zhi)持自(zi)定义微调和蒸馏。
还有One More Thing:
AWS将在明年推出另外两款Nova模型,一款是“语音转语音”模型;另一款是“任意转任意”多模态模型,其输入和输出可以是文本、图像、音频或视频,也就是能用同一个模型执行各种任务。
除(chu)了发布自研(yan)模(mo)型,AWS也公布了跟(gen)Anthropic的(de)合作新进展。
AWS与Anthropic合作推出了Claude 3.5 Haiku延迟优化版,将推理速度提高60%。
客户只需打开API的开关,请求就会(hui)被发到新的Trainium2服务(wu)器上(shang)。
Amazon Bedrock提供的延迟优化选项,支持客户访问其最新AI硬件和其他软件优化,以获得模型的最佳推理性能。除了Claude模型外,还包括Llama 405B和较小的Llama 270B模型,处理请求和生成相(xiang)应(ying)的总耗时比其他产品低(di)得多。
二、AWS Trainium2实例全面推出,发布第三代AI训练芯片、最强AI服务器
AWS全面推出由Trainium2芯片驱动的Amazon EC2 Trn2实例,相比当前基于GPU的EC2实例,性价比高出30%~40%。
全(quan)新Amazon EC2 Trn2实例专为包括大语言(yan)模型(xing)和潜在扩散模型(xing)在内的生(sheng)成(cheng)式AI高性能深度学(xue)习训练而构建。
其AI硬件全家桶也哐哐上新,推出第三代自研AI训练芯片Trainium3,还发布了其史上最强AI服务器Trn2 UltraServer。
1、第三代自研AI训练芯片
AWS发布了新一代AI训练芯片Trainium3。这是首款采用3nm工艺节点制造的AWS芯片,能效提高40%、性能翻倍提升。
搭载Trainium3的UltraServer性能预计将比Trn2 UltraServer高出4倍。首批基于Trainium3的实例预计将于2025年底上市。
2、最强AI服务器,64颗Trainium2合体
AWS发布其史上最强AI服务器AWS Trn2 UltraServer,能支撑万亿参数AI模型的实时推理性能。
全新Trn2 UltraServer使用超高速NeuronLink互(hu)连(lian)(lian),将4台(tai)Trn2服务器连(lian)(lian)接在一起(qi),形成1台(tai)巨型(xing)服务器,实现更快的大模型(xing)训练和推理。
单个Trn2实例结合了16颗Trainium2芯片,可提供20.8PFLOPS,适合训练和部署有数十亿个参数的大语言模型。
全新EC2产品Trn2 UltraServer则将64颗Trainium2芯片互连,可提供相比当前EC2 AI服务器多达5倍的算力和10倍的内存,将FP8峰值算力扩展到83.2PFLOPS(单个实例的4倍)。
AWS已(yi)与Adobe、AI软件开发平台Poolside、数据(ju)分析平台Databricks、高(gao)通等几个早期客户进行(xing)了Beta测试培训。
3、与Anthropic扩大合作,要建全球最大AI计算集群
美国(guo)AI大模型独(du)角兽Anthropic的(de)联合创始(shi)人(ren)兼CTO Tom Brown现(xian)场分享说(shuo),就(jiu)像俄罗斯(si)方块游(you)戏,机(ji)器内(nei)部构造(zao)越紧密(mi)(mi),跑模型就(jiu)越便宜(yi)越快。一年多来,Anthropic性能工程(cheng)团队与亚马(ma)逊和(he)Annapurna团队密(mi)(mi)切合作,应对这一挑战。
他宣布AWS与Anthropic正合作构建一个名为Project Rainier的Trn2 UltraServers EC2 UltraCluster,它将在数十万颗Trainium2芯片上扩展分布(bu)式模(mo)型训练。
这些芯片与第三代低延迟PB级EFA网络互连,是Anthropic用于训练其当前一代领先AI模型的百亿亿次浮点运算数量的5倍多。
建成后,预计它将成为迄今世界上最大的AI计算集群,可供Anthropic构建(jian)和部署其未来模(mo)型。
使用Project Rainer后,用户将能够以更(geng)低价格、更(geng)快速度获得更(geng)多(duo)智能、更(geng)聪明的Agent。
4、新一代AI网络结构tnp10
为Trainium2 UltraServer提供动力的是最新一代AI网络结构tnp10。AWS在(zai)(zai)基(ji)于(yu)Trainium和NVIDIA芯片的集群(qun)都(dou)使(shi)用了(le)这个网(wang)络(luo)。它能(neng)在(zai)(zai)10微秒延迟下为数千(qian)台服务器提供(gong)数十PB网(wang)络(luo)容量,实现了(le)AWS迄(qi)今扩展(zhan)速度(du)最快的网(wang)络(luo)。
Tnp10网络的大规模并行、紧密(mi)互联和弹性的,可缩(suo)小到(dao)几个机架,也(ye)可以将(jiang)其扩展到(dao)跨越多个物(wu)理(li)数(shu)据(ju)中心园区的集(ji)群。
AI网络中的(de)(de)最(zui)大故(gu)(gu)障来源是光链路(lu)。多年来,AWS一直在设计和(he)运(yun)行自(zi)家定(ding)制光学系(xi)统,以持续降低(di)故(gu)(gu)障率(lv)。为了进一步优(you)化(hua)网络,AWS在tnp10网络中建立了一个(ge)全(quan)新的(de)(de)网络路(lu)由协议“可扩(kuo)展意图驱动路(lu)由(CIDR)”,通过分散(san)的(de)(de)速(su)度和(he)弹性提供了集(ji)中的(de)(de)计划、控制和(he)优(you)化(hua)。
三、生成式AI平台Bedrock服务三大更新:自动推理检查、多Agent协同、模型蒸馏
AWS Bedrock服务可帮助企业构建和扩展生成式AI应用程序,今天公布关于自动(dong)推理检查(cha)、多(duo)agent协作、模型蒸(zheng)馏的新功能。
AWS将Bedrock标榜为“构建生成式(shi)AI应用(yong)(yong)的(de)最简单方式(shi)”。据加曼透露(lu),每天都有成千上万(wan)的(de)客户将Bedrock用(yong)(yong)于生产应用(yong)(yong)程序,这几乎是去年(nian)一年(nian)增长(zhang)率的(de)5倍。
1、自动推理检查,可预防AI幻觉
AI幻觉是妨碍AI应(ying)用进入企(qi)业实际生产的关(guan)键(jian)。AWS在探索过程中(zhong)发(fa)现,自动推理(li)可(ke)以被应(ying)用于解决(jue)这个问(wen)题。自动推理(li)通常用于证(zheng)明(ming)系统是否按指定(ding)方(fang)式工作。这个工具可(ke)以自动检查(cha)方(fang)案和(he)软件,验证(zheng)在遇到意外事件时(shi)如何正确响应(ying)等。
基于此,AWS推出了AWS Automated Reasoning checks,可(ke)验(yan)证(zheng)事实响应的(de)准确(que)性、生成可(ke)审计(ji)的(de)输出(chu),并向客户展示(shi)模型得出(chu)结果的(de)确(que)切原因。
同时,Amazon Bedrock会自动制定必要的(de)(de)规则,引导客户对(dui)其进(jin)行迭代测试,以确保模型调整到正确的(de)(de)响应。
2、多Agent协作,1小时完成此前1周任务
Bedrock的新功能还有帮(bang)助企业轻(qing)松构建、部署、编(bian)排agent团队,使(shi)其写(xie)作解决复杂(za)多(duo)步骤(zhou)任务。
使用Amazon Bedrock multi-agent collaboration,企业(ye)可通(tong)过(guo)为项目的(de)特定步骤创建(jian)和分配专门Agent来(lai)获得更准确的(de)结果,并通(tong)过(guo)协调多个并行工作的(de)Agent来(lai)加速任务。

比如企业可以在Bedrock上构(gou)建自己的专业Agent,然后创(chuang)建主(zhu)管Agent或协调Agent来帮助管理(li)其他(ta)Agent。
AWS的客户称,这种多Agent协作使其此前需要大约1周时间的相同任务,现在可以在1小时内完成。
3、模型蒸馏,速度最高提升500%
当下(xia)每(mei)周都有新版(ban)本的模型发布,企业(ye)需(xu)要基于自(zi)己的实际需(xu)求找到更适(shi)合(he)的模型,需(xu)要适(shi)当的专(zhuan)业(ye)知(zhi)识、适(shi)当延迟、适(shi)当成本以完成任务。
企业目前解决的方案之一是模型蒸馏,将性(xing)能(neng)强大(da)的(de)(de)(de)基础模(mo)型中(zhong)的(de)(de)(de)数(shu)(shu)据(ju)和(he)答案拿出来训练更小的(de)(de)(de)模(mo)型,这(zhei)需要企业对训练数(shu)(shu)据(ju)进行管(guan)理(li),并(bing)同时考虑到模(mo)型参数(shu)(shu)和(he)权重的(de)(de)(de)问题。
借助Amazon Bedrock Model Distillation,客户只需(xu)针对(dui)给定用(yong)例选择最佳模(mo)(mo)型,并从同一(yi)模(mo)(mo)型系(xi)列中选择较(jiao)小的模(mo)(mo)型,即可以合适的成本提供其应用(yong)程序所需(xu)的延迟。
与原始模型相比,蒸馏模型速度最高可提高500%,运行成本降低75%,对于检索增强生成(RAG)等用例,准确度损失不到2%。
四、Amazon Q Developer超越代码,覆盖更广泛开发任务
Amazon Q Developer辅助编程平台此次升级的重点是超越代码完成,帮(bang)助开发人员完成端到端软(ruan)件生命周(zhou)期中涉及的更广泛日(ri)常任务(wu)。
Amazon Q Developer的新功能(neng)主要(yao)包括:
- 将Windows .NET应用程序现代化为Linux,速度提高4倍,并将许可成本降低多达40%。
- 将VMware工作负载转变为云原生架构,agents自动规划、鉴别、决定和转换网络配置,在数小时内将本地网络配置转换为AWS等效配置。
- 通过简化代码分析、文档、规划和重构应用程序等劳动密集型工作来加速大型机现代化。
Q Developer现可(ke)(ke)自(zi)动生(sheng)(sheng)成(cheng)单元测试,并帮助开(kai)发人(ren)员(yuan)编(bian)写和(he)维护代(dai)(dai)码(ma)文档。它可(ke)(ke)以生(sheng)(sheng)成(cheng)第(di)一个代(dai)(dai)码(ma)审(shen)查(cha),供(gong)开(kai)发人(ren)员(yuan)提(ti)交代(dai)(dai)码(ma)时使(shi)用。一旦(dan)代(dai)(dai)码(ma)投入生(sheng)(sheng)产,Q的(de)新运营Agent就自(zi)动从公司(si)的(de)监控服务AWS CloudWatch中(zhong)提(ti)取数据(ju),并在警(jing)报响(xiang)起时立即开(kai)始调查(cha)。
AWS还推出了一(yi)款(kuan)用于(yu)现代化COBOL大型机应(ying)用程序的(de)Agent。
此外,开发人员和(he)安全平台(tai)GitLab和(he)AWS宣(xuan)布已联(lian)手将(jiang)GitLab的(de)Duo AI助手与亚(ya)马逊的(de)Q自主Agent结合(he)起来。GitLab用(yong)(yong)户可用(yong)(yong)Duo的(de)聊(liao)天(tian)功能访问Amazon Q Developer中提供的(de)许多Agent,以帮助进行代(dai)码审(shen)查(cha)、生(sheng)成(cheng)(cheng)单元(yuan)测(ce)试(shi)和(he)现(xian)代(dai)化他们的(de)Java应用(yong)(yong)程序,该(gai)功能现(xian)在已直(zhi)接集成(cheng)(cheng)到GitLab聊(liao)天(tian)UI中。
五、与英伟达合作14年,明年初发布Blackwell架构P6实例
AWS将核心服务通过构建block提供(gong),企业(ye)可(ke)以(yi)更容易将这些(xie)服务进(jin)行组合(he),并建立真正有趣(qu)的应用。这个构(gou)建Block的概念一直是(shi)AWS构(gou)建服务、支持客户运行的基础,目(mu)前(qian)其(qi)已经提供(gong)了大(da)量(liang)服务模(mo)块。
例如,在生物领域,AWS开发了ESM模型系列,帮助全球科学家理解和设计蛋白质。ESM3已经被训练了1万亿兆兆次,计算了超20亿个蛋白(bai)质序列,这意味着(zhe)科学家可(ke)以像(xiang)设(she)(she)计芯片(pian)一样设(she)(she)计蛋白(bai)质,朝(chao)着(zhe)生(sheng)物可(ke)编程(cheng)迈出一步。
加曼谈到企业选择AWS的一个重要原因就是安全。重视安全是AWS开展(zhan)业务的基(ji)础,这关系到其如(ru)何设计数据中心、芯(xin)片(pian)、虚拟化堆栈以及服务体系结构。

在这之上(shang),截至目(mu)前,AWS提(ti)供了比(bi)任(ren)何供应(ying)商都(dou)更(geng)(geng)多的(de)计算(suan)资(zi)源。亚马(ma)逊EC2拥有更(geng)(geng)多选(xuan)项、实例和功能(neng),可以(yi)让企业找到适合其(qi)工作负载的(de)应(ying)用程序的(de)对应(ying)性能(neng)。
例如,企业(ye)正(zheng)在运行(xing)一个(ge)用于(yu)分析工(gong)作(zuo)流的大型数据库,AWS可以(yi)在任何地(di)方运行(xing)最大的存储系统(tong);如果企业(ye)正(zheng)在运行(xing)一个(ge)HPC集(ji)群(qun)(qun)、大模型以(yi)及所有(you)集(ji)群(qun)(qun),并需要快速的网络(luo)将这些东西进(jin)行(xing)连接,而AWS拥(yong)有(you)订(ding)购速度最快的熟练网络(luo)。
AWS自研芯片为其提供了更大的(de)灵活性,当其单(dan)独(du)移动Nitro系(xi)统中的(de)虚(xu)拟(ni)化设计时(shi),可以无(wu)需重做(zuo)虚(xu)拟(ni)化堆栈(zhan)。基于新(xin)的(de)实例类型,快速、简单(dan)的(de)进行开发。

AWS的Graviton系列处(chu)理(li)器目前(qian)已经(jing)被几乎所有的(de)AWS客(ke)户广泛(fan)使(shi)用,其性(xing)价比提(ti)高了40%。Graviton可以处理更(geng)广泛(fan)的(de)工作负(fu)载(zai),包括标量代码、数(shu)据库等。
目前,绝大多数的模型运行在英伟达的GPU之上,AWS和英伟达合作已经14年,加曼宣布其合作升级,发布P6实例。P6系列将采用新Blackwell芯片,明年初发布,P6实例将提供最多2个,计算速度比当前(qian)一代(dai)GPU快5倍。
六、Amazon S3存储功能扩展,更快数据湖分析、自动元数据生成
AWS致力于推(tui)出简单可扩展的(de)存储方式(shi)。它在(zai)2006年推(tui)出的(de)Amazon S3从(cong)根本上改变管(guan)理数(shu)据的(de)想法,这一服务过去十(shi)几年来爆炸式(shi)增长。Amazon S3 Intelligent-Tiering智(zhi)能(neng)分层已为客户(hu)节省40亿美元。
在此基础上,AWS推出Amazon S3 Tables功能,使S3成为首个(ge)完全托管(guan)(guan)支(zhi)持Apache Iceberg的(de)云对象存储,可(ke)实(shi)现更快分(fen)析,并(bing)以最简单(dan)的(de)方(fang)式存储和管(guan)(guan)理任何规模的(de)表(biao)(Table)数据(ju)。
许(xu)多客(ke)户将用于分析的(de)数(shu)据(ju)组织(zhi)为(wei)表数(shu)据(ju),通(tong)常(chang)存储(chu)在(zai)Apache Parquet中(zhong)(zhong)。Parquet已是S3中(zhong)(zhong)增长最快(kuai)的(de)数(shu)据(ju)类(lei)型之一(yi),Iceberg已成为(wei)管理Parquet文件的(de)最流(liu)行的(de)开放表格式(OTF)。
AWS将S3 Tables称作“对(dui)S3中的(de)Apache Iceberg表执(zhi)行分析的(de)最(zui)简(jian)单快捷的(de)方法”。它专(zhuan)为管理数(shu)据湖的(de)Apache Iceberg表而构建,是第(di)一(yi)个具有内置Apache Iceberg表支持(chi)的(de)云对(dui)象(xiang)存储(chu)并引入(ru)了一(yi)种新(xin)的(de)存储(chu)桶类型,来(lai)优化以Iceberg表形式(shi)存储(chu)和(he)查(cha)询表数(shu)据。
与通用S3存储桶相比,S3 Tables可提供3倍的查询性能、10倍的(de)每秒(miao)事务数(TPS),并会自动管(guan)理(li)表(biao)维护(hu)任务。
AWS还推出了Amazon S3 Metadata,可以(yi)近(jin)乎(hu)实时地(di)自动(dong)生(sheng)成(cheng)可查(cha)询(xun)的目标元数(shu)(shu)据(metadata),并使(shi)其(qi)可通过新S3 Tables进行查(cha)询(xun),让发(fa)现和管理S3中的海量数(shu)(shu)据变(bian)得更简单快捷。
S3 Tables(正式发布)、S3 Metadata(预(yu)览版)现已推出(chu),与Apache Iceberg表兼容,支持用AWS分析服(fu)务(wu)和(he)开源工具轻松查(cha)询数据。
七、两大数据库上新:能跨区域运行,具备强一致性
AWS今日宣布推出Amazon Aurora DSQL和Amazon DynamoDB global tables新(xin)功能(neng),以支持一(yi)(yi)些(xie)工作负(fu)载对跨区域运(yun)行、强一(yi)(yi)致(zhi)性、低延迟、高可用性的严苛需求,两个数据库的跨区域强一(yi)(yi)致(zhi)性功能(neng)现已推出预览版。
今(jin)年是Amazon Aurora发布的十周(zhou)年。它是迄今(jin)发展(zhan)最(zui)快的AWS服务(wu)。每天有数十万客户依赖(lai)的Amazon Aurora,提供了企业级商用数据库的性(xing)能(neng)以及开源的灵活性(xing)和(he)经济(ji)性(xing)。
如(ru)今AWS再次(ci)重(zhong)新(xin)构想关系数据库,让客户无需(xu)在低延迟或(huo)SQL之间做选(xuan)择。
Amazon Aurora DSQL是一种(zhong)新型(xing)无(wu)服务器分布式SQL数(shu)据(ju)库,既(ji)可(ke)以提(ti)供高(gao)端商用数(shu)据(ju)库的(de)所有性(xing)能和功能,又具有开源(yuan)数(shu)据(ju)库的(de)灵活性(xing)和成(cheng)本效益。
与其他流行的分布式SQL数据库相比,Aurora DSQL的读写速度快至4倍,多区域可用性高达99.999%,可扩展性(xing)几乎无限,而且无需管理基础(chu)设施,无需配置、修(xiu)补或(huo)管理数据库实例。
Aurora DSQL克服了分布式数据库的两个历史挑战——实现多区域低延迟强一致性,以及在全球范围内以微秒级精度同步服务器。
该数据库通过将事务处理与存储分离来克服(fu)当前方法的局限性(xing)(xing),仅在提(ti)交时检(jian)查每个事务,并在提(ti)交时并行化所(suo)有区域的所(suo)有写入,以提(ti)供具(ju)有强一(yi)致性(xing)(xing)和快速写入的多区域数(shu)据库,且所(suo)有更(geng)新和安全修补都(dou)无需停机,也不(bu)会对(dui)性(xing)(xing)能产生任何(he)影响。
为了确保每个区域都能按照发生的确切顺序看到每个数据库操作,Aurora DSQL使用了Amazon Time Sync Service,该服务在每个 Amazon EC2实例上添加了硬件参考时钟,将它们同步到与卫星连接的原子钟,以提供世界任何地方的微秒级精确时间。
Amazon DynamoDB第一个完(wan)全托管的无服务器NoSQL数据库,通(tong)过重新定义性(xing)能和(he)简化操作,在任(ren)何(he)规模(mo)下都无需基(ji)础设施管理,并且始终保持个位数毫秒级的性(xing)能。
该(gai)数据(ju)库现(xian)支(zhi)持多区域强一(yi)致性(xing),确保客户(hu)的多区域应用程序始终(zhong)读取最新数据(ju),而(er)无需更改(gai)任何应用程序代(dai)码。
八、面向高密度AI工作负载,推出全新灵活数据中心组件
AWS宣布推出(chu)全新(xin)数据(ju)中心(xin)组件(jian)(jian)(电源、冷却、硬件(jian)(jian)设(she)计),旨在支持高密度(du)AI工作负载。
(1)简化电气和机械设计:使基础设施可用性达到99.9999%,还将(jiang)可能受电气问题(ti)影响的机架(jia)数(shu)量减少了89%。
(2)冷却、机架设计和控制系统的创新:开(kai)发(fa)全(quan)新(xin)可配置液冷解(jie)决方案,通过优化数据中(zhong)心机架(jia)的定位(wei)方式来(lai)最(zui)大限度利用电力,更(geng)新(xin)了(le)标准(zhun)化监控(kong)、报警和操作顺序的控(kong)制(zhi)系统。
(3)提高能源效率和可持续性:与之前的设计(ji)(ji)相比,预计(ji)(ji)在峰值(zhi)冷却(que)条件下(xia)机械(xie)能消耗可(ke)降(jiang)低(di)多(duo)达46%;与行(xing)业平(ping)均水(shui)平(ping)相比,数据中(zhong)(zhong)心(xin)建筑外(wai)壳混(hun)凝土(tu)中(zhong)(zhong)的隐含碳减少35%;备(bei)用(yong)发电机将能够使用(yong)可(ke)生物降(jiang)解(jie)且(qie)无毒的可(ke)再生柴油(you)燃料。
结语:一场大型科技创新秀场
历届AWS re:Invent大会(hui),都是计算(suan)、安全、存储系统和AI基础设施等(deng)的大型创新秀(xiu)场。
从2003年秋天启程开始(shi),AWS不(bu)断(duan)降低云服务的门槛,将大公司级成(cheng)(cheng)本结构和规模的基础设施变成(cheng)(cheng)人(ren)人(ren)随处可(ke)得,让大中(zhong)小(xiao)型企业团(tuan)队(dui)不(bu)必在计算、存储、数据(ju)库、分(fen)析(xi)等方面重复造轮子。
在全(quan)栈创(chuang)新的深度和(he)产品组(zu)合(he)的广度,使得这家云大(da)厂能够持(chi)续巩固高性(xing)能、节(jie)能、安全(quan)、合(he)规、扩展性(xing)等方(fang)面的可信赖度,并跟上快速变化(hua)的AI需(xu)求,有(you)足够的经验和(he)能力来帮助客户更好(hao)地专注于(yu)自身业务(wu)和(he)适应创(chuang)新。