Day 0适配Xiaomi MiMo-V2.5-Pro,昆仑芯持续加速国产大模型落地

Release time:2026-04-29
author:AMEYA360
source:昆仑芯
reading:171

Day 0适配Xiaomi MiMo-V2.5-Pro,昆仑芯持续加速国产大模型落地

  今日,小米正式发布并开源MiMo-V2.5-Pro模型。昆仑芯在发布当日即完成对MiMo-V2.5-Pro的极速适配,成为首批实现适配的国产算力厂商之一,再次验证其在主流大模型生态中的敏捷响应能力与广泛兼容能力。

  据悉,MiMo-V2.5-Pro是小米迄今最强大的模型,可支撑MiMo-V2.5-Pro的1T超大参数量、以及1M 超长上下文的高吞吐推理。在通用智能体能力、复杂软件工程以及长程任务等维度上,它已能与全球顶尖Agent模型(Claude Opus4.6、GPT-5.4等)正面较量,相较上一代MiMo-V2-Pro实现了全方位跃升。此外,该模型在Agent场景下的指令遵循能力也明显提升——既能精准捕捉上下文中的隐性要求,又能在超长周期内保持逻辑一致。适用于大型项目编程、数据分析等企业级应用场景,也适用于接入OpenClaw、Hermes Agent、Claude Code等Agent框架。

  在实际适配过程中,昆仑芯依托自研架构,持续提升算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,MiMo-V2.5-Pro已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,并在复杂任务与长序列场景中保持优异表现,使开发者与企业用户能够实现“零成本迁移、即部署即用”。

  此次高效适配的背后,是昆仑芯在软硬件协同方面的长期深耕。为充分释放产品性能,昆仑芯构建了面向开发者的全栈软件体系,完整覆盖从底层驱动到开发工具SDK及专业库,兼顾高效易用与工程化落地。昆仑芯软件栈高度兼容主流AI开发生态,在显著降低开发门槛的同时,最大化释放计算性能,帮助客户以更低适配成本和更短部署周期完成模型开发与落地,加速模型从研发到应用的转化。本次Day 0适配,标志着昆仑芯与Xiaomi MiMo在“国产算力+国产大模型”协同发展路径上进一步深化,也为全球AI生态的开放与繁荣注入新的动能。近期,国产大模型生态持续演进,技术突破与产业落地节奏显著加快。在此背景下,昆仑芯已构建起体系化、高效率的模型适配能力,能够快速响应主流模型的迭代升级。目前已全面覆盖MiniMax、智谱、通义千问等头部厂商的最新旗舰模型,能力横跨语言、多模态、OCR与文生图等关键方向。当前,昆仑芯正持续深化模型适配与性能优化能力,全面支持多样化模型架构与算法创新,不断提升开发与部署效率。面向未来,将持续深耕全栈技术研发,强化软硬协同与生态共建,不断夯实国产AI算力底座,为国产AI的高质量发展提供源源不断的算力动能。

Day 0适配Xiaomi MiMo-V2.5-Pro,昆仑芯持续加速国产大模型落地


("Note: The information presented in this article is gathered from the internet and is provided as a reference for educational purposes. It does not signify the endorsement or standpoint of our website. If you find any content that violates copyright or intellectual property rights, please inform us for prompt removal.")

Online messageinquiry

reading
昆仑芯Day 0极速适配商汤日日新SenseNova U1模型
  4月28日,商汤正式发布并开源原生理解生成统一模型——商汤日日新SenseNova U1系列。在模型发布当日,昆仑芯即完成对SenseNova U1的极速适配,成为率先完成该模型适配的国产算力厂商之一。  SenseNova U1系列模型能够将语言与视觉信息作为统一的复合体直接建模,实现语言和视觉信息的高效协同,让理解与生成能力同步增强,在保留语义丰富度的同时,维持像素级的视觉保真度。在逻辑推理与空间智能等方向上,它能够深度理解物理世界的复杂布局与精细关系;在未来,它还能为机器人提供具身大脑,实现在单一模型闭环内完成从复杂环境感知、逻辑推演到精准任务执行的全过程,为推动技术与产业发展提供重要基础与关键引擎。  SenseNova U1是基于统一表征空间构建的,更像是一个从一开始就同时掌握多项技能的人。它不是先看懂图像、再翻译成文字、再交给另一个系统理解,而是在同一套“思考方式”里直接处理图像、文字等不同信息。图像和语言不再是两套系统之间的接力,而是在同一个大脑中自然融合。能力表现上,在涵盖图像理解、图像生成与编辑、空间智能和视觉推理的多项基准测试中,SenseNova U1 Lite均达到同量级开源模型SOTA水平,为统一多模态理解与生成树立了新的标杆。仅凭8B-MoT的较小规格,就能达到乃至超越部分大型商业闭源模型。  在实际适配过程中,昆仑芯依托自研架构,持续完善算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,SenseNova U1已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,在复杂任务与长序列场景中依然保持优异表现。针对图文交错生成、高密度信息图生成等应用,昆仑芯对其进行专项调优,实现了高效、高精度的推理性能,让开发者和企业无需复杂的底层适配与性能调优,即可完整调用模型能力。  高效适配的背后,是昆仑芯自研软件栈的出色兼容性与适配能力。为全面释放产品性能,昆仑芯已构建面向开发者的软件栈,并提供从底层驱动到专用库的完备能力,全面覆盖模型开发与部署关键环节。该软件栈高度兼容主流AI开发生态,在保障计算性能充分释放的同时,有效降低开发门槛与模型迁移成本,使客户能够以更低的适应成本与更短的部署周期完成AI模型开发与部署落地,加速从研发到应用的转化。  近期,国产大模型生态迎来密集升级,技术突破与产业落地节奏持续提速。昆仑芯当前已完成对多款主流大模型的首发适配,稳步实现 “发布即支持”的快速落地能力,推动模型技术迭代与算力底座同频演进,充分展现其在软硬协同、生态兼容与工程化落地方面的综合实力。这一核心能力,不仅有效降低模型部署与应用门槛,更助力AI应用规模化拓展,持续领跑国产算力生态适配进度。  国产算力的高效适配能力,正成为大模型规模化落地的关键支撑。面向未来,昆仑芯将通过持续的性能优化与架构迭代,不断刷新国产大模型在国产硬件上的运行表现。依托持续的技术创新与软硬协同优势,昆仑芯将持续夯实国产AI算力底座,助力产业智能化升级与数字化转型加速推进,共绘国产AI发展新蓝图。
2026-04-29 09:42 reading:160
昆仑芯全面支撑中国移动九天35B大模型,国产AI方案加速落地
  近日获悉,中国移动即将正式发布一款自主研发的九天35B通用大模型。作为央企自研大模型的标杆之作,九天35B凭借强大的语言理解、复杂推理与行业场景适配能力,为通信、政务、金融等行业数智化转型提供了坚实的AI底座。  作为中国移动“AI能力联合舰队” 核心算力伙伴,昆仑芯在当前已完成对九天35B模型的全流程适配与推理验证。依托昆仑芯P800硬件加速能力及成熟的软件栈,模型得以在国产算力平台上实现高性能、低显存占用的稳定运行,为中移九天大模型的规模化部署提供了坚实支撑。中移九天大模型作为中国移动“九天”体系的核心基座产品,具备高安全、高可控、全自主的央企级能力,已通过生成式AI服务双备案及A级安全认证,并在多类数智化场景中实现广泛适配。此次完成九天35B模型的快速适配,不仅体现了昆仑芯在软件生态成熟度与工程化响应效率上的持续提升,也进一步构建起“国产算力 + 国产大模型”的全栈国产化解决方案。在关键技术层面,昆仑芯围绕注意力机制优化与长序列推理进行了深度适配,有效提升模型执行效率与稳定性,充分满足通信、政务、金融等行业对低时延、高可靠AI部署的实际需求。在软件生态方面,昆仑芯现已构建了覆盖底层驱动、SDK至专业库的全栈软件体系,高度兼容主流AI开发生态,有效降低开发门槛与模型迁移成本。目前,昆仑芯已实现国内外多款主流大模型的发布当日即适配,并持续完善模型部署能力,助力开发者以更低的适应成本、更短的部署周期完成AI应用开发。在基础设施层面,作为中国移动的重要生态伙伴,昆仑芯已深度参与中国移动云智算中心及万卡级集群建设,持续推动算力基础设施向规模化、体系化演进。未来,昆仑芯将持续深耕技术研发,强化软硬协同与生态共建。凭借开放兼容的软件生态与强劲高效的硬件底座,昆仑芯将与中国移动在模型训练、推理优化及行业场景适配等方向深化合作,推动国产算力与央企大模型深度融合,加速AI能力在真实产业场景中的规模化落地,赋能千行百业智能化升级。
2026-04-27 09:57 reading:273
Day 0支持|昆仑芯完成MiniMax M2.7模型极速适配
  MiniMax正式开源MiniMax M2.7模型。昆仑芯同步完成对该模型的Day 0适配与深度优化,成为首批实现适配的国产算力厂商之一,再次验证其在主流大模型生态中的敏捷响应能力与广泛兼容能力。  发布即适配,软硬协同支撑高效落地  MiniMax M2.7是M2系列的最新一代模型,也是首个深度参与自身迭代的版本。该模型具备自主构建复杂Agent Harness与Skills的能力,可动态更新Memory,并通过强化学习持续优化,实现“模型驱动模型进化”的闭环。在能力表现上,M2.7已覆盖从代码生成、日志排障到端到端项目交付的完整软件工程链路:SWE-Pro基准达到56.22%,整体表现追平GPT-5.3-Codex;在专业办公场景中,GDPval-AA评分位居行业前列,并在40个复杂Skills(>2000 Token)任务中保持97%的指令遵循率,展现出优异的稳定性与执行能力。  在实际适配过程中,昆仑芯依托自研架构,持续提升算子覆盖与生态兼容能力,实现模型性能与算力效率的高效匹配。通过底层算子优化与软硬件协同加速,MiniMax M2.7已在昆仑芯平台上实现高吞吐、低延迟的稳定运行,并在复杂任务与长序列场景下保持优异表现。  为充分释放产品性能,昆仑芯构建了面向开发者的全栈软件体系,完整覆盖从底层驱动到开发工具SDK及专业库的完整能力,兼顾高效易用与工程化落地。该软件栈高度兼容主流AI开发生态,在显著降低开发门槛的同时,最大化释放计算性能,帮助客户以更低适配成本和更短部署周期完成模型开发与落地,加速模型从研发到应用的转化。  常态化Day 0响应,夯实国产AI算力底座  近期,国产大模型生态迎来密集升级,技术突破与产业落地节奏持续加快。昆仑芯已完成对多款主流大模型的首发适配,稳步实现“发布即支持”的快速落地能力,推动模型技术迭代与算力底座实现同频演进,充分体现其在软硬协同、生态兼容与工程化落地方面的综合实力。同时,该能力有效降低了模型部署与应用门槛,进一步加快AI应用的规模化拓展。  当前,昆仑芯正持续深化模型适配与性能优化能力,全面支持多样化架构与算法创新,不断提升开发与部署效率。面向未来,昆仑芯将进一步强化对主流前沿模型的高效适配能力,依托持续的技术创新与软硬协同优势,不断夯实国产AI算力底座,助力产业智能化升级与数字化转型加速推进。
2026-04-13 09:30 reading:395
发布即适配!昆仑芯率先完成智谱新一代旗舰模型GLM-5.1深度支持
  今日,智谱正式开源新一代旗舰模型GLM-5.1。作为当前全球领先的开源大模型之一,GLM-5.1在长程任务(Long Horizon Task)处理能力上实现了显著突破。模型发布当日,昆仑芯即完成P800系列产品的适配工作,成为国内首批实现GLM-5.1 Day 0适配的国产GPU厂商之一。  相较于GLM-5,GLM-5.1在整体能力上实现显著提升,尤其在代码生成与复杂任务处理方面表现突出。在更贴近真实开发场景的SWE-bench Pro基准测试中,GLM-5.1刷新全球成绩,超越GPT-5.4与Claude Opus 4.6。  与此同时,在模型整体性能大幅提升之外,GLM-5.1还在长程任务处理能力上取得了重要突破。不同于当前以分钟级交互为主的模型,GLM-5.1能够在单次任务中持续、自主地工作长达8小时,凭借自主规划、执行与迭代进化,最终交付完整的工程级成果。  发布即适配,软硬协同支撑高效落地  GLM-5.1发布当日,昆仑芯同步完成Day 0深度推理适配,实现模型“上线即可用”,并确保性能稳定释放。  依托底层算子优化与硬件加速能力的协同,GLM-5.1在昆仑芯平台上实现了高吞吐、低延迟的稳定运行,在复杂任务与长序列场景下依然保持高效表现。在代码生成、复杂推理、长文本理解等核心纯文本场景中,模型能力得以满血释放。  针对GLM-5.1的744B MoE架构、200K超长上下文及DSA稀疏注意力等核心特性,昆仑芯开展了全栈深度优化。在实际适配中,依托自研架构,团队持续完善算子覆盖能力与生态兼容体系,充分释放原生INT8/INT4精度的加速潜力,实现模型性能与算力效率的高效匹配,让每一份算力都能发挥最大价值。  昆仑芯软件负责人王勇表示:“GLM-5.1的Day 0深度推理适配,充分体现了昆仑芯在软件生态与软硬件协同方面的综合能力。通过底层算子重构与推理框架协同优化,实现模型结构与硬件架构的深度耦合,使模型在上线首日即可高效、稳定地释放算力性能。”  此次快速适配的背后,是昆仑芯长期构建的完备软硬件协同体系。昆仑芯提供从驱动到专用库的完备软件栈,全面覆盖模型开发与部署关键环节。该软件栈高度兼容主流AI开发生态,在保障计算性能充分释放的同时,有效降低开发门槛与模型迁移成本,使客户能够以更低的适应成本及更短的部署周期完成AI模型开发与部署落地。  坚实算力底座,支撑规模化应用部署  在硬件、系统和集群层面,昆仑芯持续推进算力基础设施的建设。从模型顺利跑通到性能持续优化,昆仑芯已为GLM-5.1打造了覆盖硬件、软件生态、系统和集群的全栈国产算力方案,全面适配企业级智能办公、代码开发、知识库构建等多元场景,助力企业高效释放模型能力,加速技术价值向产业价值转化。  依托深厚的软硬件协同与大规模系统设计能力,昆仑芯推出32卡及64卡超节点方案。相较传统8卡/16卡服务器,昆仑芯超节点产品在节点内通信带宽与算力密度上实现显著提升,带来训练与推理性能的跨越式跃升。此外,昆仑芯进一步发布256卡及512卡超节点技术,并持续向千卡级超节点演进,为更大规模模型应用提供坚实支撑。  在集群建设方面,2025年2月,昆仑芯成功点亮昆仑芯P800万卡集群,这是国内首个正式点亮的自研万卡AI集群。同年4月,该集群规模进一步扩展至3.2万卡。当前,昆仑芯的产品已落地多个千卡及万卡集群,实现长时间高效稳定运行。未来,昆仑芯将持续支持国产算力集群建设,推动模型在真实场景中的规模化应用,助力国产模型的创新发展。  持续保持Day 0节奏,构建国产算力生态协同能力  今年以来,昆仑芯已完成十余款主流模型的Day 0适配,覆盖智谱、通义千问、MiniMax等头部厂商的最新旗舰模型,实现语言、多模态、OCR与翻译等多场景全面覆盖。在适配数量、响应速度与生态广度方面,昆仑芯持续保持行业领先。  凭借其成熟、开放的软件生态,昆仑芯已完成与多款行业主流大模型的首发适配,实现“发布即支持”的快速落地能力。目前,昆仑芯正持续深化大模型适配与优化,全面支持各类模型架构与算法创新,助力开发者获得更流畅、高效的开发与部署体验。  随着国产开源大模型生态不断成熟,算力平台与模型之间的协同效率持续提升。常态化的Day 0级响应,充分验证了昆仑芯软件栈在模型快速迁移、性能释放及生态兼容方面的综合实力。  面向未来,昆仑芯将继续强化对主流前沿模型的高效适配,通过持续的技术创新与软硬协同优势,不断夯实国产AI算力底座,为加速产业智能化升级与数字化转型贡献力量。
2026-04-09 10:14 reading:536
  • Week of hot material
  • Material in short supply seckilling
model brand Quote
BD71847AMWV-E2 ROHM Semiconductor
RB751G-40T2R ROHM Semiconductor
CDZVT2R20B ROHM Semiconductor
TL431ACLPR Texas Instruments
MC33074DR2G onsemi
model brand To snap up
BU33JA2MNVX-CTL ROHM Semiconductor
STM32F429IGT6 STMicroelectronics
BP3621 ROHM Semiconductor
IPZ40N04S5L4R8ATMA1 Infineon Technologies
TPS63050YFFR Texas Instruments
ESR03EZPJ151 ROHM Semiconductor
Hot labels
ROHM
IC
Averlogic
Intel
Samsung
IoT
AI
Sensor
Chip
About us

Qr code of ameya360 official account

Identify TWO-DIMENSIONAL code, you can pay attention to

AMEYA360 weixin Service Account AMEYA360 weixin Service Account
AMEYA360 mall (www.ameya360.com) was launched in 2011. Now there are more than 3,500 high-quality suppliers, including 6 million product model data, and more than 1 million component stocks for purchase. Products cover MCU+ memory + power chip +IGBT+MOS tube + op amp + RF Bluetooth + sensor + resistor capacitance inductor + connector and other fields. main business of platform covers spot sales of electronic components, BOM distribution and product supporting materials, providing one-stop purchasing and sales services for our customers.

Please enter the verification code in the image below:

verification code