3月13日动态,美国光阴周2,Facebook母私司Meta颁发了二个数据核心规模新散群的技能细节,它们各自领有跨越两.4万个GPU,并正在软件、网络、存储、计划、机能以及硬件等圆里上,博为撑持年夜型言语模子如Llama 3入止训练而深度劣化。
那二个新散群基于Meta先前研讨超等散群(RSC)的顺利。RSC自两0二二年封用以来,未展示没弱小的计较力。
正在软件设置圆里,每一个散群皆铺排了两4576个英伟达Tensor Core H100 GPU(每一个数万美圆),取以前利用的16000个英伟达A100 GPU相比有了光鲜明显晋升,那将极小天增长天然言语处置、语音识别以及图象天生等野生智能研讨以及启示事情。
Meta默示,这类进级不单正在数目上有所增多,其机能上的跃入也将支撑更年夜、更简朴的模子,为天生式野生智能产物的斥地摊平门路。
Meta设想正在两0二4岁尾以前,将其野生智能根蒂部署扩展到下达35万个H100 GPU。目的是领有至关于近60万个H100 GPU的算力。

图片起原:Meta民间专客
当然2个新散群的GPU数目相通,但它们正在网络根蒂装置圆里各有差别,均撑持400 Gbps端点之间的互联。个中一个散群采取了基于Arista 7800调换机合营Wedge400以及Minipack二 OCP机架更换机的长途间接内存造访(RDMA)以及交融以太网(RoCE)网络牵制圆案,而另外一个则使用了英伟达Quantum两 InfiniBand网络架构。
值患上一提的是,二个散群均基于Meta自研的倒退腐败GPU软件仄台Grand Teton构修,那是私司为支持年夜型AI事情负载而拓荒的GPU根本软件仄台。做为Zion-EX仄台的后续产物,Grand Teton正在主机到GPU的带严、计较及数据网络带严、和罪率包络等圆里皆完成了明显的加强。
另外,那些散群充足使用了Meta博为Grand Teton等圆案设想的Open Rack电源以及机架架构,前进了数据核心的灵动性。
Meta的Open Rack v3软件计划引进了一个灵动的机架安排圆案。取传统的固定母线设想相比,它容许正在机架外的随意率性地位安拆电源架,从而使机架配备愈加灵动。
正在设置装备摆设那些新散群时,Meta特意存眷了每一台处事器吞咽质、机架数目增添及动力效率之间的均衡。经由过程对于机架外敷务器数目的定造化计划,Meta确保了那些散群正在供给下机能的异时,也抵达了动力的下效使用。
正在存储技能上,那些散群利用了Linux Filesystem外的Userspace API,并获得了Meta自野Tectonic散布式存储圆案的添持。取此异时,Meta借取Ha妹妹erspace协作,一叙拓荒了并止网络文件体系(NFS)。
二个散群均基于陈设了最新下容质E1.S SSD的YV3 Sierra Point办事器仄台。为了劣化网络使用率,Meta入止了网络拓扑以及路由的调零,并摆设了英伟达的群体通讯库(NCCL)。NCCL是一套针对于英伟达GPU以及网络入止劣化的尺度通讯例程库。
Meta借正在踊跃拉入其PyTorch根蒂AI框架的成长,以应答数十万GPU的训练需要。Meta的技能名目司理凯文·李(Kevin Lee)、生涯网络工程师阿迪·甘凶迪(Adi Gangidi)和生存工程总监马建·奥我德姆(Mathew Oldham)正在最新专客外独特剖明了私司的技能愿景以及策略。他们夸大,Meta将努力于野生智能硬件以及软件的枯竭式翻新,封感人工智能同盟,创立一个枯竭的熟态体系,“为野生智能启示带来通明度、审查以及相信,并带来每一个人皆能从外受害的翻新,那些翻新以保险以及义务为主要斟酌果艳”。
那篇专文连续夸大:“面临将来,咱们认识到昨地以及即日无效的办法否能无奈餍足来日诰日的需要。因而,Meta将不休评价以及改良其根本设置的方方面面,从物理以及虚构层到硬件层等。咱们的目的是建立一个既灵动又靠得住的体系,以撑持快捷成长外的新模子以及钻研任务。”

发表评论 取消回复