<span style='color:red'>昆仑芯</span>Anyinfer零代码实现<span style='color:red'>昆仑芯</span>AI加速卡模型推理
  当下,AI技术蓬勃发展,AI算法应用需求井喷。行业技术从业者在项目的不同阶段面临种种现实问题,这些问题无疑也增加了项目的复杂性和不确定性:  算法选型:  技术从业者极有可能遇到不同框架格式的算法模型;即便是同一个开源算法的实现,也可能是经过不同训练框架导出,因此模型的保存格式也会有所不同。  算法验证:  想在AI加速卡上评估算法的推理效果,就要针对不同推理框架的接口构造上百行代码的推理程序;如果效果不达预期,可能还需要更换其他框架的模型,这就需要重新构造一份不同的推理程序......  真正到了算法部署阶段,则将迎来更加严峻的挑战。  以上种种业内痛点,是否也在困扰您?看完这篇,基于昆仑芯AI加速卡的高效模型推理部署框架——昆仑芯Anyinfer,帮您一键全搞定!  一、昆仑芯Anyinfer  1. 昆仑芯Anyinfer架构图  2. 昆仑芯Anyinfer核心优势  A、强兼容性  在多个平台上支持零代码推理PaddlePaddle、PyTorch、ONNX、TensorFlow等多个主流框架格式的众多领域模型。  B、高人效  内置多款推理引擎,针对不同领域,用户无需学习特定框架编程接口,更不用编写多份推理程序,零代码验证模型在不同框架中的效果。  C、零代码  只需一行命令,即可完成模型验证评估,无需依据模型构建输入数据,也无需撰写模型转换、前后处理及推理脚本代码。  D、部署友好  支持C++与Python两套接口逻辑统一的API,用户在生产环境中部署模型更方便。  二、运行演示  1. 快速完成算法模型验证评估  一行命令,即可轻松验证模型精度、一键评估模型的推理性能等关键指标。  A、ONNX、PyTorch和TensorFlow模型在昆仑芯AI加速卡和CPU上的计算精度对比  B、PaddlePaddle模型在昆仑芯AI加速卡上的推理性能统计  2. 获取模型性能分析报告,为下一步模型优化做足准备  在初步完成算法模型的验证评估后,可利用昆仑芯Anyinfer深入研究模型中各个层面的性能,包括推理框架层面和算子执行层面等,助力进一步调优模型的推理性能。  3. 模型的基础性能调优  完成对模型的性能评估后,可以使用基础的调优方法来提高模型的推理性能。昆仑芯Anyinfer提供了一项非常便捷的功能:最佳QPS搜索。此功能将以往需要修改多个参数并多次执行的操作化繁为简,快速确定最适合项目需求的配置,提高用户体验。  4. 模型的高性能部署  完成算法模型的验证后,最关键的一步来了!昆仑芯Anyinfer可轻松应对生产环境部署这一挑战。仅需三个统一的C++接口,即可顺利将验证后的模型部署至生产环境中。  此外,昆仑芯Anyinfer还提供了方便的调试功能,例如算子的自动精度对比、模型转换等。同时,也提供了丰富的使用示例,包括多输入、多线程、多进程、多流推理等。种种行业痛点,昆仑芯Anyinfer轻松搞定。简洁而强大的解决方案,帮您把模型推理部署变得简单、高效。  目前,昆仑芯Anyinfer已在多个行业客户中投入使用,切实降低了行业客户人力成本,提高了项目交付效率,助力客户在行业竞争中取得领先优势。
关键词:
发布时间:2023-10-17 09:15 阅读量:1206 继续阅读>>
AI临港,从芯启航:<span style='color:red'>昆仑芯</span>临港办公区正式开业
  9月19日上午,在上海临港滴水湖AI创新港,昆仑芯临港办公区盛大开业。中国(上海)自由贸易试验区临港新片区党工委委员、专项办主任龚红兵、港城集团副总经理金玮琦、昆仑芯CEO欧阳剑、副总裁王勇、人力资源与行政负责人刘霜、公共事务部副总经理张嘉林等出席活动。  从左至右依次为:昆仑芯公共事务部副总经理张嘉林、昆仑芯副总裁王勇、昆仑芯CEO欧阳剑、中国(上海)自由贸易试验区临港新片区党工委委员、专项办主任龚红兵、港城集团副总经理金玮琦、昆仑芯人力资源与行政负责人刘霜。  人工智能作为上海战略部署重点发展的三大先导产业之一,是当前具有引领性的战略新技术和新一轮产业变革的核心驱动力。为全力推进人工智能产业发展,临港新片区重磅启动滴水湖AI创新港,集聚人工智能上下游企业,赋能产业创新发展。  作为我国人工智能芯片领军企业,昆仑芯秉承“让计算更智能”的使命,务实研发、攻坚克难,实现两代通用AI芯片量产,在互联网、工业、金融、能源、教育等多个领域达到过百家客户、数万片规模部署,成绩斐然。  2022年,昆仑芯正式落户临港新片区。昆仑芯上海公司成立,定位为昆仑芯最重要的研发基地之一,同时也是昆仑芯华东和华南区域的商业化基地。  上海汇聚了全国优秀的软硬件工程师,临港新片区也正在打造成为年轻人“创新创业首选地”。今年8月,临港新片区成立4周年,新一轮支持政策正在助力临港新片区更好地成为上海发展的“增长极”和“动力源”。高科技人才聚集、优厚的政策支持和良好的产业生态,各方面条件吸引昆仑芯深耕临港这片沃土。  开业仪式上,中国(上海)自由贸易试验区临港新片区党工委委员、专项办主任龚红兵表示:“作为国内最早入局人工智能加速的团队之一,昆仑芯近些年取得了业界广泛认可的成绩。期待临港新片区能涌现出更多这样的优秀企业,我们将持续提供政策支持和全方位的生活保障,与企业共绘蓝图、共建未来,携手推动AI产业的高质量发展。”  昆仑芯CEO欧阳剑在致辞中表示:“算力发展的黄金时代已来,凭借十余年的行业积累,务实自驱、卓越创新的昆仑芯人已做好攀登算力高峰的准备。未来,昆仑芯将与临港区政府、港城集团等伙伴紧密协同,为我国集成电路及AI事业贡献力量。”  昆仑芯副总裁王勇肩负上海公司组织建设的重要职责,他表示:“集成电路是临港新片区有影响力的高新产业。处于快速发展期的昆仑芯愿意同临港新片区一道,合作开展核心技术攻关,加强与新片区内上下游企业合作,吸引、培养更多高质量产业人才。”  AI临港,从芯启航。2022年昆仑芯正式落户临港,过去一年吸引了一大批优秀人才加入。今年年中,昆仑芯临港办公室正式落成,办公环境简约大气、周边配套完善, 8月份开始陆续有员工入驻。  昆仑芯临港办公区正式启用,昆仑芯信心满满,扬帆破浪踏足行,奋发向上勇攀登。而临港作为“年轻的城,年轻人的城”,也正在以日新月异的发展速度打动年轻人的心,吸引更多年轻人来到这里成长、成才、成功。
关键词:
发布时间:2023-09-20 10:34 阅读量:1389 继续阅读>>
首批!<span style='color:red'>昆仑芯</span>牵手宁夏建设人工智能芯片适配基地
  近日,全国首个由政府主导建设的人工智能芯片适配基地在2023中国算力大会上正式启动。昆仑芯成为首批加入人工智能芯片适配基地建设的头部企业,未来将继续凭借领先技术优势以及丰富落地成果赋能我国AI产业繁荣发展。  人工智能芯片适配基地建设启动仪式  2023年初,在工业和信息化部的大力指导下,在自治区通信管理局、工业和信息化厅的牵头部署下,银川市积极对标国家人工智能创新应用先导区要求,建设了人工智能芯片适配基地,旨在为全国GPU芯片厂商提供同平台较技、沟通对接的良好交流环境及丰富的应用、测试场景。  在工业和信息化部的支持下,目前,人工智能芯片适配基地汇集了交换中心、三大运营商、天云等本地企业力量,也吸引了AI芯片领军企业昆仑芯等成员的加入,适配基地成为了全国人工智能产业的创新和产业发展基地。  适配基地依托宁夏丰富的智能算力资源和算力应用,集聚行业内顶尖的科研机构和专业人才,配备先进的研发设施和生产能力,筹建稳定安全的人工智能芯片适配平台,为人工智能产业创新提供良好的开发与测试环境,目前已选取医疗大模型、AI视频、AI智能客服三个典型应用场景,率先开展人工智能芯片软硬件适配工作。  作为适配基地的首批参与单位,昆仑芯始终坚持开拓创新、软硬协同发展。目前,昆仑芯已量产两代芯片产品,实现百家客户、数万片部署。在为千行百业输送“更快、更强、更省”的算力的同时,昆仑芯积极携手AI产业链上下游,打造端到端解决方案,共拓AI芯片生态。  大会期间,昆仑芯携两代芯片系列产品亮相人工智能芯片适配基地,全面展示先进技术及丰富落地成果。  宁夏积极推进人工智能芯片适配基地的建设,进一步提升了宁夏在国内人工智能领域的地位和影响力。昆仑芯将与众多生态伙伴携手,为宁夏人工智能产业的创新发展作出积极贡献,进一步助力我国人工智能产业迈向新阶段。  2023 中国算力大会  2023中国算力大会由工业和信息化部、宁夏回族自治区人民政府共同主办。本届大会以“算领新产业潮流 力赋高质量发展”为主题,打造“主题论坛、成果展示、产业推介、先锋引领”四大核心内容,全面展示算力产业发展最新成果,为产业各方搭建交流合作平台。  昆仑芯  昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资,首轮估值约130亿元。核心团队在国内最早布局AI加速领域,深耕十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。  秉承着“让计算更智能”的使命,昆仑芯专注打造拥有强大通用性、易用性和高性能的通用AI芯片。目前,昆仑芯已实现两代通用AI芯片系列产品的量产及落地应用,在互联网、智慧工业、智慧交通、智慧金融等领域均有规模部署,帮助企业加速产业智能化布局,将AI算力赋能千行百业。
关键词:
发布时间:2023-09-04 10:08 阅读量:736 继续阅读>>
<span style='color:red'>昆仑芯</span>东数西算“芯”基建,加速大模型产业落地
  近日,“未来网络助力东数西算论坛”(以下简称“论坛”)在南京成功举办。作为第七届未来网络发展大会的主题活动之一,本次论坛邀请了政府领导、专家学者及行业精英,围绕“东数西算”工程的政策规划、工程实施、示范应用、产业链生态建设等方面展开深入探讨,以期形成未来网络支撑“东数西算”工程的共识,助力构建国家算力网络体系的新模式。  2022年,“东数西算”工程正式启动,并首次将算力资源提升到水、电、燃气等基础资源的高度。相关数据显示,到2023年底,全国数据中心总算力将超过200EFLOPS,高性能算力占比将达到10%。我国算力基础设施迎来了大规模需求的繁荣期,而算力基础设施的核心正是AI芯片。  “将东部算力需求有序引导到西部,促进东西部协同联动为大势所趋。在此背景下,昆仑芯率先推出软硬一体的端到端解决方案,满足客户在不同场景的真实算力需求。”昆仑芯CEO欧阳剑受邀出席论坛,并带来题为《东数西算“芯”基建,加速大模型产业落地》的精彩分享。  昆仑芯CEO 欧阳剑  在论坛分享中欧阳剑表示:“昆仑芯深耕AI加速领域十余年,拥有深刻的场景理解、深厚的技术积累、完备的软件生态等独特优势。目前,昆仑芯系列产品已在语义搜索、文心一格、能源行业大模型以及智源研究院等实际场景中得到规模应用。此外,昆仑芯全面拥抱开源社区,打造大模型开源推理套件,助力优化国内AI生态布局。面向未来,昆仑芯将继续携手生态伙伴,用算力筑牢东数西算‘芯’基建。”  “跨广域工业视觉大模型算网融合技术”重大成果正式对外发布  在本次大会上,昆仑芯助力百度智能云基于未来网络试验设施(CENI)打造的“跨广域工业视觉大模型算网融合技术”,作为重大成果在第七届未来网络发展大会上正式对外发布。  该技术成果依托于昆仑芯算力集群、百度文心视觉大模型、未来网络试验设施(CENI),将算力、网络、大模型和应用场景融合,实现行业大模型跨广域精调、推理服务,改变过去只能在工厂端就近部署算力和模型的方式,解决了工业场景产业链环节多、链条长等问题,降低企业使用行业大模型的门槛。  针对钢铁行业工业质检场景,在南京和上海之间,“算网融合技术”完成了跨广域间的“精调和推理”测试。  测试结果显示,在相距超300公里的两地之间,可实现行业大模型的推理、训练数据丢包率为0,语料获取效率提升83%,推理效率提升42%,云端算力相比本地化算力部署,模型精调训练后精度提升10%。  通过测试论证,算网融合技术能够同时满足企业对工业视觉大模型推理端到端业务和精调训练的性能需求,可以支撑后续视觉大模型在工业领域的场景落地和商业化。同时,基于昆仑芯的算力集群,大模型训练速度相比本地化算力部署显著提升。  过去六届未来网络发展大会发布了网络通信领域十余项全球领先的创新成果,其中相当一部分成果已被广泛应用于产业实践和国家关键领域的建设中。  未来,昆仑芯将继续发挥强大算力底座的关键支撑性作用,携手千行百业众多合作伙伴,加速算力网络创新成果转化和产业应用,稳步推进“东数西算”工程落地,助力我国数字化、网络化、智能化高质量发展。  第七届未来网络发展大会  第七届未来网络发展大会大会以“网络全球·决胜未来”为主题,旨在促进未来网络资源集聚、产业汇聚。围绕世界最新锐的网络技术趋势与课题方向,针对国家未来网络发展战略等重要议题,两院院士、国际院士等顶尖专家、龙头企业代表以及知名高校学者共百余位业界精英参会。  昆仑芯  昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资,首轮估值约130亿元。核心团队在国内最早布局AI加速领域,深耕十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。  秉承着“让计算更智能”的使命,昆仑芯专注打造拥有强大通用性、易用性和高性能的通用AI芯片。目前,昆仑芯已实现两代通用AI芯片系列产品的量产及落地应用,在互联网、智慧工业、智慧交通、智慧金融等领域均有规模部署,帮助企业加速产业智能化布局,将AI算力赋能千行百业。
关键词:
发布时间:2023-09-04 09:59 阅读量:1393 继续阅读>>
再获殊荣!<span style='color:red'>昆仑芯</span>获评2022-2023年度中国IC独角兽企业
  近日,2022-2023年度(第六届)中国IC独角兽榜单重磅揭晓,昆仑芯凭借领先技术实力与优秀市场表现,获评本年度中国IC独角兽企业。这也是昆仑芯第二次斩获该荣誉。  当前,大模型时代正催生集成电路产业的新需求。相关数据显示,2020年至2025年,全球集成电路市场规模按年复合增长率6.0%计算,预计2025年将达到4750亿美元。集成电路已成为支撑经济社会发展和保障国家安全的战略性、基础性和先导性产业,也是世界主要国家和地区抢占工业经济制高点的必争领域。  中国IC独角兽遴选活动由赛迪顾问股份有限公司和北京芯合汇科技有限公司联合主办,旨在进一步鼓励我国具有市场竞争实力和投资价值的集成电路企业健康快速发展,总结企业发展的成功模式,挖掘我国集成电路领域的优秀创新企业,提升企业的国内外影响力,并助力探索具有中国特色的优秀企业估值体系。  本次征集面向国内集成电路设计、应用技术与芯片制造、封测、材料、设备、软件、分销以及集成电路相关的服务平台等优秀创新企业。经过专家评委团打分或对企业进行估值,最终从300余家参评企业中,遴选出36家中国IC独角兽企业、15家中国IC独角兽新锐企业。  2022-2023年度中国IC独角兽企业颁奖仪式  依托十余年AI加速领域研发积累与技术沉淀,昆仑芯持续精进在芯片架构、软件栈、工程化系统层级等方面的技术实力,不断推动产品竞争力提升。目前,公司已迭代两代芯片产品。其中,昆仑芯2代是国内首款采用GDDR6高性能显存的通用AI芯片,搭载新一代自研核心架构XPU-R,在通用性与易用性等方面显著提升。  基于强大的产品性能,昆仑芯深刻理解场景需求,携手生态伙伴打造软硬一体的端到端解决方案,加速产品应用落地。目前,昆仑芯已实现百家客户,数万片部署。  百度内部:昆仑芯已被部署在搜索、小度、自动驾驶、文心大模型等业务,也因此成为国内为数不多经历过互联网大规模核心算法考验的云端AI芯片。  百度外部:昆仑芯紧随产业智能化发展需求提供强大算力支持,在金融、工业、交通等客户的业务中广泛部署和使用,赋能千行百业智能化转型。  继首次获评2021-2022年度中国IC独角兽企业,昆仑芯再次入选本届中国IC独角兽榜单,这代表业界对昆仑芯创新能力、产品力和落地成果的全面认可。  未来,昆仑芯将继续坚持务实研发、开拓创新,把握大模型时代的重大战略机遇,携手生态伙伴构筑软硬一体的AI芯片生态,助力我国集成电路产业高质量发展。  关于昆仑芯  昆仑芯前身为百度智能芯片及架构部,于2021年4月完成独立融资,首轮估值约130亿元。核心团队在国内最早布局AI加速领域,深耕十余年,是一家在体系结构、芯片实现、软件系统和场景应用均有深厚积累的AI芯片企业。  秉承着“让计算更智能”的使命,昆仑芯专注打造拥有强大通用性、易用性和高性能的通用AI芯片。目前,昆仑芯已实现两代通用AI芯片系列产品的量产及落地应用,在互联网、智慧工业、智慧交通、智慧金融等领域均有规模部署,帮助企业加速产业智能化布局,将AI算力赋能千行百业。
关键词:
发布时间:2023-08-22 09:37 阅读量:1417 继续阅读>>
一文读懂<span style='color:red'>昆仑芯</span>大模型端到端解决方案
  新一轮人工智能热潮下,国内大模型群雄逐鹿,目前已有超过80个大模型公开测试。而相关数据显示,ChatGPT自发布以来,全球访问量环比增幅持续下降,6月首次出现环比下滑9.7%。泡沫退去,如何在大模型时代保持市场竞争力?  针对大模型场景,昆仑芯早已在产品定义上作出布局,相较第一代产品,昆仑芯2代AI芯片可大幅优化算力、互联和高性能,而在研的下一代产品则将提供更佳的性能体验。  在近日落幕的XceedCon2023人工智能芯片生态大会上,昆仑芯大模型端到端解决方案正式发布,该解决方案随即入选2023世界人工智能大会卓越人工智能引领者奖(Super AI Leader,简称SAIL奖)TOP30榜单。  昆仑芯副总裁王勇、昆仑芯互联网行业总经理王志鹏先后在XceedCon2023人工智能芯片生态大会、2023世界人工智能大会对昆仑芯大模型端到端解决方案进行发布与推介。本篇以下内容整理自现场实录。  软硬协同、技术创新  打造高性能产品矩阵  集十余年AI加速领域研发积累,昆仑芯核心团队于2017年在Hot Chips上发布自研、面向通用人工智能计算的芯片核心架构——昆仑芯XPU。目前,已有两代昆仑芯AI芯片基于该架构实现量产和规模部署。  昆仑芯XPU专为密集型计算而设计,相比GPU可提供更多AI加速单元,同时支持C/C++、类CUDA语法编程,兼具高性能和可编程性,适配几乎所有主流AI场景,满足不同行业的大模型训推需求。  大模型的演进必将伴随参数量的增加,更加依赖于分布式训练与推理能力。昆仑芯2代系列产品搭载新一代核心架构XPU-R,性能相较一代提升2-3倍,在分布式场景中优势明显。  01.  大显存  昆仑芯2代产品拥有32GB显存容量,在同价位产品中内存优势突出。  02.  高互联  昆仑芯通过领先技术,可实现单机八卡高速互联,带宽达到200GB/s;支持Direct RDMA,可实现跨机间低延时、高速通讯。  昆仑芯推出针对不同参数级别的大模型产品矩阵,兼具显存和算力成本优势。  昆仑芯AI加速卡R200-8F面向百亿以内参数量级,相比同类型产品性能提升20%;  昆仑芯AI加速器组R480-X8面向百亿至千亿参数量级,性能达到同类型产品的1.3倍以上;  昆仑芯AI加速器组R480-X8集群针对千亿以上参数量级,可实现多机多卡分布式推理。  昆仑芯大模型解决方案软件栈  软件生态层面,昆仑芯提供了针对大模型场景的专用加速库、丰富的云原生插件,支持文心一言、LLaMA、Bloom、ChatGLM、GPT等行业主流大模型。  昆仑芯XFT(XPU Fast Transformer)推理加速库,较原生框架小算子版本性能提升5倍以上。目前,XFT加速库已与百度飞桨、PyTorch等主流深度学习框架完成适配;  昆仑芯云原生插件可帮助用户快速完成和大模型平台的适配;同时提供昆仑芯SDK,帮助用户快速完成适配和实时自定义开发。  昆仑芯xHuggingface开源推理套件  此外,昆仑芯全面拥抱开源社区,积极携手生态伙伴构建软硬一体的AI芯片生态。  昆仑芯打造了xHuggingface开源推理套件,仅修改1-2行代码,即可快速搭建基于XPU的智能客服APP。同时,昆仑芯与飞桨PaddlePaddle的AI Studio社区紧密合作,基于xHuggingface开源推理套件向广大开发者提供更快、更强、更省的算力产品;  昆仑芯与飞桨深入协同适配行业主流大模型,可支持超大规模分布式训练与推理。针对稠密大模型,昆仑芯支持飞桨的Sharding并行、数据并行、模型并行、流水线并行四种并行方式;针对稀疏大模型,昆仑芯与飞桨共同打造大规模参数服务器架构,实现了万亿参数的大模型训练。  深入场景、真实历练  打磨端到端解决方案  昆仑芯深入了解不同应用场景下客户的真实需求,凭借软硬协同技术与高性能产品矩阵,为千行百业提供开箱即用的产品和全栈式AI服务。  大语言模型场景  目前,昆仑芯已与业界主流开源大模型完成适配,向客户开放开源软件库,供客户进行二次修改、微调,满足不同推理场景下的个性化定制需求。  GPT百亿参数大模型场景:昆仑芯产品的QPS相比主流165W产品提高30%以上,同时首字时延更低。  文心一格:目前已大规模应用昆仑芯产品,成本降低的同时,可实现2秒快速出图。  针对大语言模型训练场景,昆仑芯也可提供一整套精调的训练策略。目前,昆仑芯已适配pretrain、post-pretrain、SFT、LoRA等模型,可根据客户的数据量与计算资源情况,灵活推荐不同的训练模式。  能源行业:昆仑芯解决方案通过SFT训练模式,客户仅使用少量数据即可2天打造专属行业大模型。  智源研究院:昆仑芯和智源研究院在大模型方面已有深入合作。昆仑芯已完成和Aquila大语言模型推理任务的适配、精度调试和性能优化,并实现大规模分布式推理上线,训练任务适配优化中;同时也适配了智源eva视觉大模型,初步验证了大规模分布式预训练能力。  稀疏大模型推荐场景  稀疏大模型存在训练门槛高、算力消耗大等技术挑战。对于算法和模型持续高频迭代的推荐场景,昆仑芯始终将“安全可信”、“从GPU零成本无缝迁移”作为目标,实现训练与推理系统的紧密耦合,为客户降本增效。目前,昆仑芯已与互联网头部客户完成了训练场景的端到端联合开发,并在TB级以上稀疏大模型上完成了“替换主流GPU的全量上线”。  大模型的持续迭代加速了我国AI技术及AI产业的演进,利好政策的相继出台同时开启了我国大模型商用浪潮。面向未来,昆仑芯将始终坚持软硬协同创新,夯实AI领域综合优势,加速大模型产业落地,勇立大模型时代潮头。
关键词:
发布时间:2023-07-31 11:19 阅读量:1183 继续阅读>>
<span style='color:red'>昆仑芯</span>荣膺2023世界人工智能大会最高奖SAIL奖
  近日,2023世界人工智能大会卓越人工智能引领者奖(Super AI Leader,简称SAIL奖)TOP30榜单重磅发布。凭借软硬件创新技术、领先性能优势,昆仑芯参评产品从众多项目中脱颖而出,入选2023年度 SAIL TOP30榜单。  SAIL奖每年评选一次,今年是自2018年设立以来的第六年评奖。SAIL奖坚持“追求卓越、引领未来”的理念,“高端化、国际化、专业化、市场化、智能化”的原则。SAIL寓意丰富,“S”即“Superior”,代表了“超越”;“A”即“Applicative”,代表了“赋能”;“I”即“Innovative”,代表了“创新”;“L”即“Leading”,代表了“引领”。作为世界智能大会的最高奖项,本次评选采用专家推荐制,并通过独立公平的高层次、专业化评审,最终评选出SAIL奖。  大模型掀起新一轮行业热潮,为人工智能技术发展按下加速键。作为AI芯片领域的领军企业,昆仑芯始终坚持开拓创新,不断超越自我,探索大模型催化的产业新业态,引领大模型产业化落地,赋能千行百业智慧化转型。  此次获奖的昆仑芯新品,是为创新企业推出的一套完整的大模型算力软硬件解决方案。该解决方案于近日在XceedCon2023人工智能芯片生态大会暨昆仑芯周年庆上正式发布。  昆仑芯针对不同参数级别大模型的产品矩阵:  昆仑芯AI加速卡R200-8F面向百亿以下参数量级,性能可达到主流GPU1.2倍且价格更有优势;  昆仑芯R480-X8加速器组针对百亿到千亿参数量级,大内存和芯片互联的技术使其性能达到同类型GPU的1.3+倍;  千亿参数,可采用昆仑芯R480-X8集群,实现多机多卡分布式推理。  硬件创新  昆仑芯AI加速器组R480-X8搭载昆仑芯2代AI芯片,可提供更为集约的AI算力,实现大规模分布式集群部署。集群支持弹性RDMA网络,相较于传统网络通信时延降低2-3倍,有效提升并行加速比,实现模型开发迭代效率的极大提升。  昆仑芯AI加速器组R480-X8  软件创新  软件层面,昆仑芯提供针对大模型场景的专用加速库和高性能通信库,以及丰富的云原生插件,帮助用户快速完成和大模型平台的适配。目前昆仑芯产品矩阵适配主流行业大模型,包括文心一言、ChatGLM、GPT、OPT等,同时提供丰富的软件SDK,帮助用户快速完成适配和实时自定义的开发。  昆仑芯专为大模型设计的推理加速库XPU Fast Transformer(XFT)  目前,昆仑芯大模型端到端解决方案已在百度搜索、百度文心一格、研究机构、能源行业等场景应用落地,有效降低大模型开发及应用门槛,大幅提升大模型推理速度与准确性。
关键词:
发布时间:2023-07-17 10:38 阅读量:1338 继续阅读>>
<span style='color:red'>昆仑芯</span>荣获“2022年度吴文俊人工智能专项奖
  近日,“场景驱动·数智强国”第十二届吴文俊人工智能科学技术奖颁奖典礼在北京成功举行。昆仑芯CEO欧阳剑带领团队凭借《高性能通用人工智能计算芯片的研发及应用》项目荣获“2022年度吴文俊人工智能专项奖(芯片项目)”。  昆仑芯CEO欧阳剑代表团队参与颁奖典礼  作为国内最早布局AI加速领域的领军企业,昆仑芯在过去十余年中历经Al加速的各类体系结构探索,始终坚持从产业出发、从场景出发,持续推动AI芯片技术开拓创新。欧阳剑带领核心成员,突破AI技术难题,完成《高性能通用人工智能计算芯片的研发及应用》项目。  该项目面向国内AI芯片在技术突破、产业生态等方面存在的发展瓶颈,突破了软硬协同技术、AI产业生态、解决方案落地等方面的难题。  昆仑芯系列高性能通用人工智能计算芯片及其配套软件栈已完成研发落地,在通用人工智能训练芯片领域达到业界先进水平。  昆仑芯联合AI芯片上下游企业,开展芯片软硬件技术研发、标准创新和示范应用,提供软硬协同的端到端解决方案。  公司面向中小企业开放数据、算法、算力等能力,率先实现人工智能行业解决方案落地,打造示范标杆项目,并大规模推广应用,助力产业智能化升级和数字经济高质量发展。  “吴文俊人工智能科学技术奖”由中国人工智能学会发起主办,以我国智能科学研究的开拓者和领军人、首届国家最高科学技术奖获得者、中国科学院院士吴文俊先生命名,被誉为“中国智能科学技术最高奖”。该奖项旨在表彰在人工智能领域作出突出贡献的科研单位、工作者,调动广大智能科技领军人才的积极性、创造性,激励原创性科学成果和颠覆性技术不断涌现。  ChatGPT引发新一轮科技革命,AI芯片作为算力底座成为新一轮产业革命的核心竞争力。“以一颗十年未改的心,造一颗改变世界的芯。”未来,昆仑芯将继续践行让计算更智能的使命,提升软硬件创新能力,携手上下游生态伙伴推动AI技术与产业协同发展,为我国人工智能产业创新发展贡献“芯”力量。
关键词:
发布时间:2023-05-09 09:25 阅读量:1899 继续阅读>>
<span style='color:red'>昆仑芯</span>获评“2023中国AI算力层创新企业”
  近日,由中国科技产业智库「甲子光年」主办的「共赴山海·2023甲子引力X智能新世代」峰会于上海成功举办。会上,「星辰20创新企业」重磅发布,昆仑芯凭借领先AI技术创新优势、丰富落地成果获评“星辰20:2023中国AI算力层创新企业”。  2023年以来,科技产业迎来大变局。为共同迎接AI 2.0智能新世代的到来,促进发展与交流,大会推出2023“星辰 20:创新企业”榜单,旨在进一步推动行业发展,为中国人工智能产业的未来注入更多活力和动力。  该系列榜单综合考虑企业的品牌力因素、主要产品、融资能力、研发实力、商业化能力等因素,评选出在AI算力层、AI数据平台层、AI大模型、AIGC中间层、AIGC应用层、元宇宙领域有突出贡献和影响力的企业,以表彰2022年度在科技产业各赛道上拥有核心技术实力、在商业化上颇有成效的优秀成长型科技公司。  AIGC时代背景下,国内大模型技术发展正当其时,对AI算力提出更高要求。作为AI芯片领域的先行者,昆仑芯以强大AI算力为大模型的性能优化、产业落地全链路提供“更快、更强、更省”的端到端解决方案。  昆仑芯前身为百度智能芯片及架构部,于2021年完成独立融资,首轮估值130亿元。深耕AI加速领域十余年,昆仑芯具备深刻的场景理解能力,拥有全方位的产品视角。目前,公司两代芯片产品均已实现量产和数万片扎实落地,为“智慧+”场景提供开箱即用的产品。  两代芯片产品的成功迭代和规模落地,离不开昆仑芯的深厚科研实力和创新能力。公司团队成员拥有卓越学术背景,多数成员在数据中心、无人驾驶等各类AI场景均有丰富研发经验。在学术成果与工程落地并重的理念指导下,团队于2017年推出自研核心架构昆仑芯XPU,研究成果也在Hot Chips、ISSCC等国际顶级学术会议中成功发表。  为实现在多场景下的商业化落地,公司紧密关注AI技术前沿和市场需求变化,持续推进核心技术攻关。面向市场需求愈加迫切的大模型场景,昆仑芯即将推出一款加速器组解决方案,训推一体化助力提高资源利用率,持续领跑大模型产业化落地。  未来,昆仑芯将继续深入AI领域应用场景,优化芯片产品性能,携手AI产业上下游生态伙伴,构建软硬一体化的AI芯片生态,为千行百业提供普惠的AI算力,创造更大的商业和社会价值。
关键词:
发布时间:2023-04-28 10:07 阅读量:1867 继续阅读>>
<span style='color:red'>昆仑芯</span>科技副总裁孙孝思:AI大模型的突破与创新需要算力基础设施
  2022年是整个人工智能芯片行业充满挑战的一年,从业者们都感受到丝丝寒意。因为2022年不仅处于疫情的波动期中,国际形势还对整个人工智能产业带来了限制。然而进入2023年后,CHATGPT带来了一点暖意。CHATGPT可以说是迄今为止增长最快的消费应用程序,它不是一触即发的,而是基于其前三代,不断迭代产生的,直到今天的爆发。  为什么如今有更多的人关注它,很多演讲人也不断提及它?因为CHATGPT带来了质的飞跃,超越了人类平均基准线。  来源:GARTNER2022年人工智能技术成熟度曲线  GARTNER在2022年发布了一个人工智能技术成熟度曲线,生成式人工智能处于技术萌芽和期望的膨胀期,也就是说,技术从最初我们在人工智能的理解上,开始慢慢向发展阶段过渡,这对于人工智能产业中,无论是做芯片、框架,还是做算法的人来说,都是一个极大的利好。  01  CHATGPT背后:  算法、数据、算力三要素共振  CHATGPT背后是什么?今天在场的郑纬民院士以及其他很多演讲者此前都有提到,根源在于算法、数据、算力三个要素之间的共振。  算力方面,现在的CHATGPT是基于GPT3.5的大模型,在训练中使用了微软专门建设的AI计算系统,由1万个业界主流GPU组成的高性能网络集群,总算力消耗约3640 PF-DAYS。  数据方面,GPT-2的数据量是40G,GPT3的数据量达到了45TB,这是一个大规模的数据量的跃升。  算法方面,如前所述,它不是一蹴而就的,而是经过了几次迭代。  这几年的数据、算法、算力方面都有非常大的变化。中国在数据方面非常有优势,我们有场景、有大量的数据。在算法方面,实现了跨模态的融合,包括语音、图文、视频等很多方向。算力供给方面,这几年全国各地都在推进算力建设,我们相信未来国内的应用会有很大的变化和增长。  02  AI大模型应用突破与技术创新:  目前,国内有很多关于CHATGPT的研究,除了清华大学的“八卦炉”,还有阿里、腾讯的大模型,也包括百度。百度即将在3月16日发布的文心一言,背后其实也是大参数、大算力、大数据量。我们可以意识到,未来的应用突破和技术创新需要算力的基础设施。  也许有人会问,下一个CHATGPT到底是什么?现在火爆的聊天、语音生成属于CHATGPT的范畴,但是未来会有很多的衍生物,例如文本生成、视频生成、音频生成、虚拟人生成方面。  我们认为,未来会有几个依托于算力的大场景,其中一大场景就是自动驾驶。自动驾驶场景中,模型感知和场景库的仿真训练需要上千P的算力。目前,我们跟新能源头部车企有很多紧密联动,我们发现自动驾驶的发展需要算力来提供技术的突破和跃升。生物医药也对算力有很强的需求,我们也看到了人工智能发挥的作用,例如ALPHAFOLD已预测出全球几乎所有已知蛋白质结构。  可能有很多算力基础设施商都在思考,建了那么多数据中心、算力中心,到底应用在哪些地方?我们回顾一下,北京最早的京藏高速,我们叫G6,建设初期一辆车都没有,但今天却是北京堵车最严重的一条高速公路。还有4G网络,最早国家在建设4G网络的时候,大家都认为3G网络已经足够用了,为什么要上4G?为什么要投入那么大的成本?但今天看来,也有人觉得4G网络卡。所以我们要重新理解算力,它其实是信息基础设施。  算力网络的布局会很大程度激发人工智能的应用和技术创新。  目前,算力成本普遍偏高,有很多中小企业的创新在一定程度上受到了成本的影响。例如,复旦大学做MOSS大模型的时候,也会考虑到学校、科研机构是否能够承担起大模型的训练。  从政府、国家、行业的角度看,我们怎么能够实现算力的普惠?我相信2023年之后,在算力建设过程当中,除了我们这些企业,各方都将更多参与进来,这样才能够真正实现普惠,大大降低企业使用算力的成本。  03  场景、数据驱动下人工智能芯片的挑战  算力对于场景的创新很重要。但是作为一个人工智能芯片的企业,我们也充分认识到,在市场需求打开的情况下,整个人工智能芯片也面临巨大挑战。  资料来源:《AI算力的阿喀琉斯之踵:内存墙》  上图中,蓝线上是视频、自然语言处理和语音模型,其模型运算量平均每两年翻15倍;红线上TRANSFORMER的这种神经网络大模型,其模型运算量平均每两年会翻750倍;而灰线则标志摩尔定律下内存硬件大小的增长,平均每两年翻2倍。  因此,可以由此想到两点:第一,未来摩尔定律会面临失效的风险;第二,要考虑内存墙的存在。对于整个芯片行业的发展来说,如何在未来的演进中找到突破口,其实CHIPLET是一个方向。可见,先进封装技术对于AI芯片行业将是一个重要的助推器。这几年,昆仑芯科技也在这方面做了很多基础研发。  人工智能芯片离不开工程实现,为什么这么说?因为它毕竟是一个产品,想要在行业跟场景紧密结合,必须解决三个问题:通用性、易用性和性价比。  企业、高校可以在基础科研上做很多的探索,人工智能芯片企业同时必须要考虑到它的应用、商业化落地等问题。如何去解决通用性、易用性和性价比的问题,是人工智能芯片厂商共同面临的挑战。  芯片不是一个标品。在硬件层面,我们可以达到业界主流GPU产品差不多的性能指标,但在软件层面上差距较大。从同行的角度来看,我们需要自己的软件栈去解决通用性问题,也要给开发者提供更好的软件栈,让开发者可以基于国内的人工智能芯片做开发。  04  结语  昆仑芯科技前身是百度智能芯片及架构部,虽成立不久,却已有十余年的芯片研发经验。基于百度丰富的AI场景积累,昆仑芯产品实现了与场景需求、客户需求的紧密耦合。  基于对场景的深刻理解,昆仑芯与智能产业的上下游携手,逐步构建起软硬一体化的AI芯片生态。目前,昆仑芯产品已与百度飞桨、PYTORCH、TENSORFLOW等主流框架和服务器完成适配。  完善解决方案才能够真正赋能产业。昆仑芯两代芯片产品均已实现量产,并凭借其强大通用性、易用性和高性能,广泛部署在智慧金融、智慧交通、智慧工业等领域,不断提供更优秀、更高效的解决方案,为客户提供更好的服务。  未来,我们希望可以和在座的同行们一起共筑合力,赋能芯片产品与应用场景更紧密结合,在人工智能产业发展中构建更加繁荣的生态系统。
关键词:
发布时间:2023-03-09 10:13 阅读量:1783 继续阅读>>

跳转至

/ 2

  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
RB751G-40T2R ROHM Semiconductor
TL431ACLPR Texas Instruments
CDZVT2R20B ROHM Semiconductor
MC33074DR2G onsemi
BD71847AMWV-E2 ROHM Semiconductor
型号 品牌 抢购
BP3621 ROHM Semiconductor
STM32F429IGT6 STMicroelectronics
IPZ40N04S5L4R8ATMA1 Infineon Technologies
TPS63050YFFR Texas Instruments
BU33JA2MNVX-CTL ROHM Semiconductor
ESR03EZPJ151 ROHM Semiconductor
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
关于我们
AMEYA360商城(www.ameya360.com)上线于2011年,现有超过3500家优质供应商,收录600万种产品型号数据,100多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+连接器等多个领域,平台主营业务涵盖电子元器件现货销售、BOM配单及提供产品配套资料等,为广大客户提供一站式购销服务。