昆仑芯全面适配智源AI硬件一体化评测引擎FlagPerf

Release time:2023-08-25
author:AMEYA360
source:网络
reading:2636

  近日,昆仑芯与北京智源人工智能研究院(以下简称“智源”)面向多种AI硬件的一体化评测引擎FlagPerf完成阶段性适配。昆仑芯是FlagPerf首批生态伙伴,双方将强强联合,共同推进AI软硬件评测体系建设,赋能大模型技术创新能力提升,加速我国AI生态繁荣发展。

昆仑芯全面适配智源AI硬件一体化评测引擎FlagPerf

  FlagPerf是智源联合各大AI软硬件厂商建立的开源、开放、灵活、公正、客观的面向多种AI硬件的一体化评测引擎,可快速高效地对AI软硬件进行适配和评测,解决当前AI软硬件所面临的兼容性差、技术栈异构程度高、应用场景复杂多变等挑战。目前FlagPerf已经适配了涵盖CV、NLP、语音、大模型等领域的近20个经典模型,支持评测AI硬件的训练和推理能力,未来还将持续拓展支持模型数量和评测领域,包括不限于AI服务器、图计算各个场景,期望全面、立体地刻画厂商的软硬件实力,并通过不断迭代评测体系,紧跟AI产业发展浪潮。

  作为AI加速领域的领军企业,昆仑芯持续推进软硬协同技术创新,在短时间内高效完成了十数个模型的适配和调优工作,并在FlagPerf项目中全面开源。这批模型能非常高效地完成适配并发布,充分展现了昆仑芯优秀的泛化能力和软硬件兼容性,这主要得益于100%自研的昆仑芯XACC AI编译器(XPU AI Compiler Collection)。

  昆仑芯XACC AI编译器

  可自动帮助用户完成开源模型到XPU设备的迁移工作,并实现全自动性能优化,将XPU硬件算法发挥到极致;

  具有零代码侵入、零环境侵入的特点,用户无需修改模型代码,无需修改部署环境,即可将模型迁移到XPU设备;

  已全面支持Megatron、DeepSpeed等大模型训练框架,用户可以零成本适配最流行的LLM技术与模型。

  智源研究院是国际知名的人工智能前沿研究机构,在中国最早引领开展大模型研究,并率先倡导建设大模型开源生态。「悟道」人工智能大模型项目,连创“中国首个+世界最大”纪录,“悟道3.0”进入全面开源阶段。FlagOpen大模型技术开源体系,由智源联合多家企业、高校和科研机构共建,旨在共建共享大模型时代的“新Linux”开源开放生态。面向多种AI硬件的一体化评测引擎FlagPerf是FlagOpen的重要组成部分。

  针对智源大模型,昆仑芯已在悟道·天鹰(Aquila)语言大模型上完成了大规模推理性能验证,在悟道·视界EVA-CLIP视觉大模型上也实现了适配。

  此前,昆仑芯已正式加入智源FlagOpen(飞智)大模型技术开源体系,携手多家顶尖硬件企业与高校科研团队共建“北京国家新一代人工智能创新发展试验区AI开放生态实验室”,加速完善芯片软件生态建设。

  此次昆仑芯与智源FlagPerf完成适配是双方生态共建的又一重要里程碑。智源和昆仑芯将充分发挥各自优势,共同携手产业链上下游合作伙伴,促进技术、资源、场景等多方主体的合作,助力企业更好应对大模型应用时面临的算力不足、场景不够开放等问题,进一步推动我国大模型的技术研发和应用落地。

("Note: The information presented in this article is gathered from the internet and is provided as a reference for educational purposes. It does not signify the endorsement or standpoint of our website. If you find any content that violates copyright or intellectual property rights, please inform us for prompt removal.")

Online messageinquiry

reading
昆仑芯超节点产品推出,大模型训推任务性能跨越式提升
  开年后,随着DeepSeek席卷千行百业,昆仑芯率先适配、业内首家单机部署满血版展示卓越性能,并在互联网、科研、金融等领域实现规模部署,一系列进展引发广泛关注。刚刚落幕的Create2025百度AI开发者大会上,昆仑芯作为底层算力核心被高频提及,三万卡集群点亮振奋人心,昆仑芯超节点也在大会上正式发布。  自ChatGPT问世,大模型参数快速增长,单卡显存无法容纳越来越大的模型参数,大模型对AI算力系统的并行通信能力提出越来越高的要求;同时开源MoE模型在多专家并行过程中也需要更高的通信效率。DeepSeek-V3/R1加速产业落地,AI算力集群对系统可扩展能力的需求变得空前迫切。  基于对大模型演进趋势及算力需求的前瞻预测,昆仑芯团队率先布局、潜心研发,面向大规模算力场景推出超节点新品,为AI算力集群性能优化和效率提升提供一套全栈解决方案。  昆仑芯超节点渲染图  1.全互联通信带宽提升8倍,训推性能跨越式提升  通过硬件架构创新,昆仑芯超节点突破传统单机8卡产品形态,超高密度设计使得单柜可容纳32/64张昆仑芯AI加速卡。单柜内卡间实现全互联通信,带宽提升高达8倍,一个机柜的算力最高可达到传统形态下8台8卡服务器,实现对MoE大模型单节点训练性能5-10倍、单卡推理效率13倍的大幅提升。  2.整柜功率可支持到120kW,大幅降低PUE  在能耗和散热方面,昆仑芯积极响应节能降耗政策,采用高效的冷板式液冷方式进行系统散热,整柜功率可支持到120kW,大幅降低数据中心的PUE(Power Usage Effectiveness,数据中心消耗的所有能源与IT负载消耗的能源的比值)。不仅如此,昆仑芯超节点支持液冷系统的漏液检测,可及时针对液冷故障进行预警、告警、修复等,最大化提高整机柜系统无间断稳定运行效率。  3.机柜间IB/RoCE通信,高带宽、低延迟  当前,各级政府、众多行业和头部企业集中发力,正在加快建设一批超大规模智算中心。针对集群拓展需求,昆仑芯超节点机柜间支持IB/RoCE通信,可实现跨柜高带宽、低延迟的数据传输,支持万卡以上规模的智算集群构建。  4.自研XPU Link,兼容主流scale-up通信标准  昆仑芯自研互联通信协议XPU Link,秉承一贯的“共生共赢”发展理念,昆仑芯XPU Link兼容scale-up通信标准OISA,与上下游合作伙伴共建超节点行业生态,携手推动国产AI算力在超节点集群中的规模部署和产业应用。  颠覆式的大模型和AI应用加速推动AI步入产业落地新阶段。AI下半场,昆仑芯凭借在芯片架构、集群系统、软件生态领域的深厚积累和全栈优势,竞争实力越发凸显。  目前,昆仑芯已实现三代产品大规模部署落地,通过与数百家客户紧密合作,将AI算力输送到互联网、运营商、智算、金融、能源电力、汽车等等千行万业,惠及数以亿计的终端用户。面向未来,昆仑芯将持续深耕AI芯片技术研发和产业应用,为我国AI产业发展注入源源不断的澎湃动力。
2025-04-27 11:10 reading:195
昆仑芯P800单机8卡一体机首个通过中国信通院DeepSeek适配测试
  中国信通院开展DeepSeek大模型适配测试工作,昆仑芯P800单机8卡一体机率先通过DeepSeek-V3/R1 671B满血版适配支持性测试,精度与DeepSeek技术报告对齐,支持长上下文推理,成为首个通过中国信通院DeepSeek适配测试的产品。  为加快推动我国人工智能基础软硬件从“可用”走向“好用”,中国信通院联合人工智能关键技术和应用评测工信部重点实验室构建了人工智能软硬件基准体系AISHPerf(Performance Benchmarks of Artificial Intelligence Software and Hardware),成立了人工智能软硬件协同创新与适配验证中心,参与单位共计70余家,覆盖芯片、计算设备、智算集群、网络通信、开发框架、系统软件、能力平台、关键应用等产业链关键环节。通过制定科学、统一的软硬件系列标准和基准测试体系,建设覆盖国内外主要软硬件路线的测试验证平台,有力推动我国人工智能软硬件深度适配和系统协同,加快我国基础软硬件生态日益完善,进一步提升算力利用效率。  2025年2月,信通院开展DeepSeek适配测试工作,该项工作客观评估了人工智能软硬件产品在实际应用中的性能水平,推动了基于自主软硬件生态的国产模型有序部署和应用推广,获得产业界高度关注和积极参与。  这次测试依托《人工智能 基础共性 面向大模型的软硬件系统适配能力评估方法》,该方法基于工业和信息化部人工智能标准化技术委员会与中国人工智能产业发展联盟构建,包括适配支持性、在线/离线场景适配性能和产品功能三个部分。测试方法面向多种典型应用场景,综合考虑并发数、BatchSize以及上下文长度等关键要素,能够全面评价适配效果,为需求方技术选型提供有效参考。  这次测试,昆仑芯P800单机8卡一体机率先通过DeepSeek-V3/R1 671B满血版适配支持性测试,精度与DeepSeek技术报告对齐,支持长上下文推理,成为首个通过中国信通院DeepSeek适配测试的产品。
2025-04-01 10:00 reading:330
昆仑芯服务器中标招商银行算力重大项目
  近日,昆仑芯服务器中标招商银行AI芯片资源项目。基于该项目,昆仑芯P800将围绕多个核心业务场景,全面支持招商银行落地大模型应用。  昆仑芯P800基于新一代自研架构XPU-P,显存规格优于同类主流GPU20%-50%,对MoE架构更加友好,且率先支持8bit推理,全面支持MLA、多专家并行等特性。根据项目实测,昆仑芯P800对Qwen系列性能支持远超同类型国产芯片,部分多模态模型推理性能达到全行业领先水平,可快速提升多模态数据分析、客服、代码助手等场景的应用效能。P800单机8卡即可运行DeepSeek-V3/R1满血版,极致成本效率;仅需32台即可支持模型全参训练,高效完成模型持续训练和微调。  目前,昆仑芯P800已与主流通用处理器、操作系统、AI框架完成端到端适配,生态完备、灵活易用。相较行业同类产品,昆仑芯P800不仅性能卓越,且更加易于部署,显著降低大模型运行成本。  深耕AI加速领域十余年,昆仑芯团队积累了行业领先的互联网数据中心系统工程化能力。日前,昆仑芯P800万卡集群在国内率先点亮,并将于近期进一步点亮3万卡集群,为千行百业提供源源不断的稳定、高效算力动能。大模型时代,昆仑芯科技已与智能产业的上下游建立良好的合作生态,通过提供以AI芯片为基础的澎湃算力,在互联网、金融、能源、科研、交通、工业、教育等关系国计民生的众多领域广泛部署应用,加速智能化转型,创造了巨大的产业和社会价值。  招商银行是行业内领先的股份制商业银行,持续大力推动“科技引领创新”。昆仑芯服务器中标招商银行算力重大项目,将进一步加速各方在科技金融方面汇聚优势力量,结合招行的具体场景需求,推动大模型在内的相关合作,充分发挥大模型在业务中的实际效用,为打造金融行业“新质生产力”添砖加瓦。
2025-03-28 10:49 reading:420
昆仑芯P800×DeepSeekV3/R1,国产AI芯片首发
  • Week of hot material
  • Material in short supply seckilling
model brand Quote
MC33074DR2G onsemi
BD71847AMWV-E2 ROHM Semiconductor
CDZVT2R20B ROHM Semiconductor
RB751G-40T2R ROHM Semiconductor
TL431ACLPR Texas Instruments
model brand To snap up
BP3621 ROHM Semiconductor
TPS63050YFFR Texas Instruments
IPZ40N04S5L4R8ATMA1 Infineon Technologies
ESR03EZPJ151 ROHM Semiconductor
STM32F429IGT6 STMicroelectronics
BU33JA2MNVX-CTL ROHM Semiconductor
Hot labels
ROHM
IC
Averlogic
Intel
Samsung
IoT
AI
Sensor
Chip
About us

Qr code of ameya360 official account

Identify TWO-DIMENSIONAL code, you can pay attention to

AMEYA360 weixin Service Account AMEYA360 weixin Service Account
AMEYA360 mall (www.ameya360.com) was launched in 2011. Now there are more than 3,500 high-quality suppliers, including 6 million product model data, and more than 1 million component stocks for purchase. Products cover MCU+ memory + power chip +IGBT+MOS tube + op amp + RF Bluetooth + sensor + resistor capacitance inductor + connector and other fields. main business of platform covers spot sales of electronic components, BOM distribution and product supporting materials, providing one-stop purchasing and sales services for our customers.

Please enter the verification code in the image below:

verification code