除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招

发布时间:2017-08-31 00:00
作者:
来源:StarryHeavensAbove
阅读量:1553

今年Hot Chips上和AI(包括自动驾驶)相关的内容(按会议的时间顺序)如下:

NVIDIA: Tutorial: "Building Autonomous Vehicles with NVIDIA’s DRIVE Platform"

The goal of this tutorial is to provide an overview of the autonomous vehicle landscape through NVIDIA’s platform and to highlight how deep neural networks are changing the autonomous vehicle landscape.


这个我没看到具体的内容,就不做评论了。
 

AMD: "AMD’s Radeon Next Generation GPU"

虽然这个presentation中直接涉及AI的内容不多,但有一张slide描述了一下AMD的Machie Learning software stack。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


NVIDIA: "NVIDIA’s Volta GPU: Programmability and Performance for GPU Computing"

这个talk的大部分内容和5月发布Volta时的说明差不多,V100的几个主要特点包括:

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


其中更详细的介绍了一下SM Core和Sub-Core的架构,如下图所示:

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


Wiseteachers.com: "The Direct Human/Machine Interface and hints of a General Artificial Intelligence"

Abstract: Dr. Alvelda will speak about the latest and future developments in Brain-Machine Interface, and how new discoveries and interdisciplinary work in neuroscience are driving new extensions to information theory and computing architectures.


这个内容看起来挺有意思,可惜没看到具体的材料。
 

Renesas Electronics Corporation: "R-Car Gen3: Computing Platform for Autonomous Driving Era"

Renesas在汽车电子领域里做MCU是比较强的,这次推出的是一个完整的计算平台。从下图可以看出,它是和Nvidia的Drive PX2来竞争的。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


而平台中的H3处理器是这个样子的:

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招



Baidu: "XPU: A programmable FPGA Accelerator for diverse workloads"
这次百度的XPU大出风头,很多媒体都有报道。包括Nextplatform也有一篇文章介绍。我就不多说了。
 

Intel: "Knights Mill: Intel Xeon Phi Processor for Machine Learning"

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


按Intel的说法,Knights Mill(KNM)是“First Knights product designed for Intel Scalable System Framework and targeted at Deep Learning”,它的DL Performance是KNL(Knights Landing)的4倍。(每次我总是想到King's Landing)
这个4倍是怎么得来的呢?首先,KNM增加了新的指令:

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


使用这个SIMD指令进行乘法运算的例子如下:

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


另外,KNM还引入了Variable Precision的概念。支持VNNI-16(Vector Neurual Network Instruction),输入INT16,输出INT32,可以并行实现两个16bit乘法并把结果累加到一个32bit的寄存器。VNNI和QFMA结合就有了如下指令:

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


而从端口的角度可以看出KNM在双精度运算上比KNL慢了一倍,而在单精度和VNNI运算上则是KNL的2倍和4倍。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


ThinCI: "Graph Streaming Processor (GSP) A Next-Generation Computing Architecture"

ThinCI这个Startup公司这次介绍了他们的GSP的架构设计目标:

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


总的来说,特色应该是Graph Processing。他们也介绍了他们实现Task Level, Thread Level, Data Level和Instruction Level并行的考虑。但是单从Slides来看也看不出太多细节,比较失望。如果有亲临现场听了的同学也欢迎留言介绍一下。


Wave Computing: "A Dataflow Processing Chip for Training Deep Neural Networks"

这次Wave Computing做的presentation还是比较细致的。不过,其中很多内容在之前这篇文章“AI芯片|浅析Yann LeCun提到的两款Dataflow Chip”里已经有了比较详细的说明。这里我们主要看一看比较新鲜的信息。首先是一个DPU Board的框图:

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招



对此,Nextplatform的文章[1],中是这么介绍的

The graphic above shows four DPUs on a board with a cascading use of the HMC devices. The DPUs actually have quite a bit of interconnectivity through the HMCs, so if a dataflow graph is being executed, most of the communication is local from node to node in the graph. Wave lightly described a “balancing mechanism” to balance the delays through the execution of the graph via buffers between the nodes. By injecting some latency throughput is balanced through the graph and utilization increases. The tensor data for something like TensorFlow (native in the early access machines) is stored entirely in HMC, which means there is not much networking needed between the DPUs. In short, most of the data rides through the HMCs.
 

第二是时钟的设计。之前关注过Wave Computing的同学可能都会对他们的Clock-less设计印象深刻。他们使用这种技术使得1600多个PE和800多个Arithmetic Units可以工作在大约6.7GHz的频率。这次他们给出了这样的说明:

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


另外,这次他们还介绍了一下DPU是怎么实现Dynamic Reconfiguration的。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


在众多xPU Startup公司当中,Wave Computing是很有技术特色的一个,值得大家关注。
 

Microsoft: "Accelerating Persistent Neural Networks at Datacenter Scale"

微软在Cloud中使用FPGA加速的一些情况。这次微软的presentation内容更加丰富,值得好好看看。
 

首先,这次微软提出了Soft DPU的概念,即在FPGA上实现DNN Processing Unit。并且列出了一些做Soft DPU的公司,包括百度和深鉴科技,以及做Hard DPU(ASIC)的公司(这里国内的公司还要争取知名度啊)。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


然后是正式提出BrainWave的名号,并介绍了它的完整Stack。

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招



除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招



其中最底层的HW Microservice在我之前的文章中已经介绍过来,不再赘述。
 

我们来看看上面几层。微软这次提出了一个“Persistent” Neural Net的概念。简单来说就是把model的所有参数都放在FPGA的on-chip memory当中。而不是我们常见的把参数放在片外的DRAM当中。这个想法似乎和GraphCore类似。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


使用这种架构主要是基于下面的原因。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招



如果采用通常用来加速CNN的方法(模型参数存放于片外的DRAM),对于LSTM这类compute-to-data比率比较低的网络(相对于CNN),硬件的利用率将受限于off-chip DRAM的带宽。其实,这也是我们看到很多硬件加速器实现CNN效果很好,但对LSTM效率较低的原因之一。所以,微软提出的这个架构,对于特定网络可能有更好的效果,甚至可能好于ASIC。更进一步,在微软的Cloud FPGA架构下,还可以实现multi-FPGA的大规模Persistent Neural Net。当一个NN model在一个FPGA中放不下的时候,还可以这么玩儿。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


这次微软还给出了Soft DPU的Architecture和Micro-Architecture,干货不少,大家自己体会吧。总的来说,FPGA的可重复编程的特性可以给我们很大的想象空间。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招

除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


最后是compiler和runtime,之前的文章“Deep Learning的IR“之争””也提过了。
 

Google: "Keynote: Recent Advances in Artificial Intelligence via Machine Learning and the Implications for Computer System Design"

Jeff Dean这次的Keynote已经被转载介绍了很多了,我就不重复了。贴两张我比较关注的Slides。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


这是第一次看到TPUv2的框图,虽然信息很少,应该也可以算是一个重要事件了。


除了百度XPU/微软BrainWave,英伟达/AMD/瑞萨都在Hot Chips 2017上放大招


T.S.:

从去年开始,AI相关的芯片越来越热。传统芯片公司都有所布局,很多软件和互联网公司纷纷进入,Startup们的估值越来越高。芯片是未来AI发展的基础,热度高是很自然的,但热度并不意味着成功,希望还在路上的各位最终都能成功。

(备注:文章来源于网络,信息仅供参考,不代表本网站观点,如有侵权请联系删除!)

在线留言询价

相关阅读
AI芯片需求高,英伟达、博通、AMD接单多
  步入2023下半年半导体传统旺季,台积电(TSMC)营收开始显著回升,主要增长动能除iPhone新机登场外,来自博通(Broadcom)、英伟达(NVIDIA)及超威(AMD)的拉货驱动,强劲投片力道更将延续至2024年。  据半导体业内人士表示,上述三大厂主要成长来自AI需求喷发,其中,NVIDIA更已预告最新一季(5~7月)营收将季增5成,在AI GPU出货暴冲带动下,将冲上110亿美元。  除带动NVIDIA的AI GPU需求喷发,接下来超威也将推出同级产品MI300系列应战,而博通的AI相关客制化芯片(ASIC)接单动能也显著增强。  三大厂都在台积电投片,第二季度以来不仅逐季陆续上调台积电5/7nm家族制程订单,同时也争抢台积电CoWoS产能,强劲追单动能更已延续至2024年,整体下单规模较2023年至少再增2成以上。  超威虽因PC市况疲弱,先前大砍台积电订单,但随着EPYC服务器处理器平台需求增长,以及即将在第四季度登场的MI300系列上阵,下半年也已重启在台积电投片产能。  除了NVIDIA为台积电非苹客户中,营收、产能利用率止跌要角外,另一大客户就是博通。  相较其他芯片厂商,博通2~4月单季营收年增8%,芯片业务表现超越市场预期,逆势年增9%,基础设施软体业务也小幅增加3%,博通对于5~7月季度业绩维持稳健看法,面对产业逆风,营收仍有持平或小增表现。  据半导体业者表示,博通为IC设计产业中少数业绩有撑的业者,过去一年市况低迷之际,也未大幅向台积电砍单,7/5nm制程投片相对平稳,但从2023年第二季度起下单力道也转强,下半年订单规模估计将较上半年倍增,2024年投片持续增加。  据了解,博通除了持续与苹果合作,在AI方面,更已陆续接获Google、Meta等大厂的高阶ASIC芯片订单,此也是博通成为继NVIDIA后,市场认为受益AI时代来临的芯片大厂之一。  而博通一直以来为台积电前六大客户之一,随着半导体景气回温与AI浪潮强袭,博通业绩将逐季回升,拿下博通7/5nm与CoWoS大单的台积电,双方合作将延续至3nm与2nm。  据消息人士指出,TSMC已着手准备2nm工艺半导体产品的试生产,并将使用先进的人工智能(AI)系统,提供半导体生产效能。  TSMC计划今年开始生产2nm工艺原型(少量生产),为2025年大量量产奠定基石。苹果和英伟达将有望成为TSMC2nm工艺的第一批客户。
2023-07-06 10:16 阅读量:2136
NVIDIA 为1亿台Windows RTX PC 和工作站提供全新生成式 AI功能与突破性性能
  搭载 Tensor Core 的 NVIDIA RTX GPU 正在加速生成式 AI 模型的开发与部署;即将推出的 Max-Q 低功耗 AI 推理将提高能效比。生成式 AI 正在迅速开创一个计算的新时代,为生产力、内容创作、游戏等多领域带来了变革。NVIDIA NeMo 和 DLSS 3 帧生成技术、Meta LLaMa、ChatGPT、Adobe Firefly、Stable Diffusion 等生成式 AI 模型和应用能够使用神经网络来识别现有数据中的模式和结构,以此生成新的原创内容。  专为 GeForce RTX 和 NVIDIA RTX GPU 优化的生成式 AI 模型具有高达 1,400 Tensor TFLOP 的 AI 推理性能,运行速度比同类其他设备快 5 倍。这要得益于 RTX GPU 中用于加速 AI 计算的专用硬件 Tensor Cores,以及常规的软件改进。上周在 Microsoft Build 大会上发布的增强功能等软件方面的改进使得像 Stable Diffusion 这样充分利用新的 DirectML 优化功能的生成式 AI 模型性能翻倍。  随着越来越多的 AI 推理在本地设备上运行,PC 将需要强大而高效的硬件以支持这些复杂的任务。为了满足这一需求,RTX GPU 将添加用于 AI 工作负载的 Max-Q 低功耗推理。在执行轻量级的推理任务时,GPU 将以极低的功耗运行,而在运行繁重负载如生成式 AI 工作时,则可升至极高的性能水平。  为了创建新的 AI 应用,在 Windows 11 上运行的整个 RTX 加速 AI 开发堆栈现已向开发者开放,使 AI 模型的开发、训练和部署变得更容易。开发者首先会通过Windows Subsystem for Linux(WSL)上经过优化的深度学习框架开发和微调模型。  然后开发者可以无缝上云并在各个主要云服务商(CSP)提供的相同 NVIDIA AI 堆栈上进行训练。接下来,开发者使用全新 Microsoft Olive 等工具优化训练好的模型以实现快速推理,最后面向专为 AI 优化的系统的 1 亿多 RTX PC 和工作站部署 AI 应用和功能。  微软 Windows 芯片和系统集成副总裁 Pavan Davuluri 表示:“未来几年,AI 将成为推动 Windows 客户创新的最大驱动力。我们正在与 NVIDIA 开展软硬件优化方面的合作,以此为开发者提供变革性的、高性能的、易于部署的体验。”  迄今为止,超过 400 款已发布的应用和游戏由 RTX AI 提供加速,该阵容还在持续壮大中。  在拉开了 Computex 2023 序幕的主题演讲中,NVIDIA 创始人兼首席执行官黄仁勋介绍了用于游戏开发的新生成式 AI——NVIDIA ACE 游戏开发版(NVIDIA Avatar Cloud Engine (ACE) for Games)。  通过 AI 驱动的自然语言互动,这项自定义 AI 模型代工服务使游戏中的非玩家角色(NPC)更加智能,从而彻底改变游戏体验。中间件、工具和游戏开发者可以使用 “ACE 游戏开发版(ACE for Games)” 在他们的软件和游戏中建立并部署定制化的语音、对话和动画 AI 模型。  在 RTX 上运行的生成式 AI 无处不在  从服务器到云,再到设备,在 RTX GPU 上运行的生成式 AI 无处不在。NVIDIA 的加速 AI 计算具有低时延、全栈式的特点。多年来,我们一直在优化 AI 软硬件架构的各个部分,包括 RTX GPU 上的专用 AI 硬件——第四代 Tensor Core。  通过对驱动的定期优化,能够确保峰值性能。最新 NVIDIA 驱动在与经 Olive 优化的模型和 DirectML 更新结合后,能够在 Windows 11 上大幅提升开发者的速度。例如在 Stable Diffusion 中,使用 DirectML 优化路径的开发者将干扰时间缩短了两倍。  借助基于 NVIDIA Ada Lovelace 架构打造的最新一代 RTX 笔记本电脑和移动工作站,用户可以在任何地方运行生成式 AI。新一代移动平台的外形尺寸只有 14 英寸,重量仅为 3 磅左右,将性能和便携性提升至新高。戴尔、惠普、联想、华硕等制造商正在 RTX GPU 和 Tensor Cores 的支持下,推动生成式 AI 时代的发展。  “随着各个行业继续部署 AI,预计到 2030 年,AI 需求的年增长率将超过 37%,企业和消费者将越来越需要合适的技术以实现 AI 的开发和落地,比如生成式 AI 等。多年来,联想一直致力于开发适用于 AI 工作负载的产品和解决方案,进而助力扩展生成式 AI 的应用范围——从设备到服务器、再到云。联想 ThinkPad、ThinkStation、ThinkBook、Yoga、Legion 和 LOQ 等搭载 NVIDIA RTX GPU 的 PC 正在推动生成式 AI 的变革浪潮,在节省时间、创作内容、完成工作和游戏等方面提供更好的用户体验。”  ——联想副总裁兼 PC 业务和智能设备首席技术官 Daryl Cromer  “生成式 AI 是一项革命性的技术,同时也是促进各个行业未来创新的催化剂。惠普与 NVIDIA 共同为开发者提供卓越的性能、移动性以及运行当前加速 AI 模型所需的可靠性,推动全新生成式 AI 时代的发展。”  ——惠普高级副总裁兼 Z 系列总经理 Jim Nottingham  “我们近期与 NVIDIA 围绕 Project Helix 的合作重点是助力企业更轻松地在本地构建和部署值得信赖的生成式 AI。在这个历史性时刻,我们进一步将生成式 AI 引入 PC 。想象一下,应用开发者能够在完善神经网络算法的同时,在本地控制训练数据和 IP。正是为了实现这个目标,我们设计了搭载 NVIDIA RTX GPU 的强大、可扩展 Precision 工作站。作为工作站领域的全球领导者,戴尔在帮助用户安全加速从边缘到数据中心的 AI 应用方面具有独特的优势。”  ——戴尔科技客户产品部总裁 Ed Ward  “生成式 AI 的时代正在到来,因此需要强大的处理能力和经过全面优化的软硬件。借助 NVIDIA AI 平台,包括现在已经预装到我们许多产品上的 NVIDIA Omniverse,我们十分高兴能看到 AI 的变革在华硕和 ROG 笔记本电脑上持续不断地推动着。”  ——华硕全球消费业务市场总监 Galip Fu  很快,搭载 RTX GPU 的笔记本电脑和移动工作站就将做到“两全其美”。纯 AI 推理工作负载将根据 Tensor Core 的性能进行优化,同时尽可能降低 GPU 的功耗,延长电池续航时间,并保持系统拥有出色的散热和降噪表现。GPU 还可根据工作负载的需要,动态提升至最高 AI 性能。
2023-05-31 10:18 阅读量:1500
美国白宫与头部 AI 公司举行会议,Meta 扎克伯格未收到邀请
TWS抢占AIoT入口,这项技术是关键!
随着智能可穿戴设备的发展,语音交互正在迎来一个新的拐点。 它其实早已走进我们的生活,从可智能对话的机器人,到有事没事“嘿 Siri”,再到风靡全球的智能音箱,“小度”、“小爱”……这些指令甚至是三岁孩童也能脱口而出。而随着可穿戴设备的传输、续航、价格等痛点被逐个击破,类似 TWS 耳机这样的设备也有望普遍具备 AI 语音功能,让 AI 能力随身行走。 不过,语音唤醒——作为语音交互的第一步,在超低功耗场景下的性能、集成度、成本等突破就变得更加重要。 为可穿戴设备增加语音唤醒,难在哪里? 针对 TWS 等可穿戴设备,杭州国芯日前专门推出了一款 AI 语音唤醒芯片 GX8002,将 AI 唤醒做到了“微瓦”级别。 为什么要给 TWS 增加专门的语音唤醒能力?主要挑战有哪些?杭州国芯 AI 事业部总经理凌云告诉<与非网>,语音唤醒需要 Always on 工作状态,这样设备在休眠或锁屏状态下也能检测到用户的声音,一旦接收到唤醒词,立刻让设备进入等待指令的状态,开启语音交互第一步。 由于需要持续工作,包含麦克风、ADC、语音处理识别等整个链路都要工作。因此在可穿戴设备中增加唤醒功能,最大的挑战就是功耗,以往一些蓝牙 SoC 芯片做这类应用,待机功耗需要十几毫瓦,这对产品待机时间影响非常大。 方寸之间见天地——超低功耗、高集成度的背后 GX8002 采用了 MCU+NPU 架构,集成了国芯第二代自研神经网络处理器 gxNPU V200、平头哥 CK804 处理器等。经测试,该芯片在 VAD 待机模式下功耗低至 70μW,运行功耗为 0.6mW,支持多级唤醒,通过 NPU 能力,单芯片可实现语音唤醒、指令识别、AI 降噪、声纹识别等众多功能。据了解,GX8002 超低功耗的背后,离不开两大技术突破——自研神经网络处理器 gxNPU V200 和自研硬件 VAD。与第一代神经网络处理器相比,第二代专门针对低功耗进行了优化,计算能效达到了普通 DSP 的 10 倍以上。支持 DNN/CNN/RNN 等各种模型,自动实现网络量化压缩,可以和 TensorFlow 等训练平台直接对接。 同时,国芯设计了全新的 VAD 模块,通过增加更多特征分析来判断人声,过滤能力更强。凌云表示,传统 VAD 大多是基于声音的能量来做 VAD 判断,当处于嘈杂环境时容易失效。为此,国芯设计了全新的 VAD 模块,通过对信号进行频谱分析,抽取语音的多个特征信息,进行智能判断。同时会跟踪环境的底噪,自动调整判决的阈值。而所有的 VAD 处理都是通过硬件实现的,不依赖于主系统,这对于所有的 AI 语音应用都是有效的,对低功耗产品则更加重要。 除了将复杂逻辑硬件化,提升 VAD 的待机比例对于整个产品的功耗降低也非常有价值,根据实际测试,在办公室、地铁、马路、咖啡馆等场合,GX8002 可以让 VAD 待机的比例平均达到 70%以上,即 70%以上时间处于 70μW 的 VAD 待机模式。通过 VAD 的有效过滤,芯片日常使用的平均功耗基本低于 300μW。 “传统的语音 AI 主要还是以 CPU 软解为主,在一些功耗成本不敏感的产品可以继续使用”,凌云表示,“但是在可穿戴设备市场,必须要追求极致。” 为了将唤醒部分所占用的体积尽可能缩减,国芯将唤醒所需的所有部件进行了集成,包括音频 ADC、Flash、电源 LDO 等,甚至还有晶振。单芯片就可以完成所有唤醒工作,无需外围器件。 GX8002 首批产品采用 QFN20,3mm*3mm 封装,五月份已量产,预计今年下半年会有相关产品陆续上市。据称,Q3 还将推出更小的 WLCSP 封装,尺寸可达 1.4*2.4mm,满足更加精密产品的需求。 TWS+语音 AI 是未来趋势 TWS——已经成为智能音箱之后一个新的现象级应用。根据 IDC 数据显示,TWS 耳机 2019 年全球出货量为 1.705 亿台,与 2018 年的 4860 万台相比,增长了 250.5%,占据整个可穿戴设备市场的 50.7%。 剖析 TWS“网红体质”的背后,不仅仅是可观的市场规模,还有它作为 AIoT 智能连接入口的潜质。过去认为 AI 多用于机器人,后来发现似乎不需要这么复杂的身躯,智能音箱爆发了。而仅靠语音唤醒就可以获得 AI 能力,其实这个载体还可以更小。 在 TWS 第一波市场潮流中,主流的蓝牙音频供应商盆满钵盈,于是更多的小玩家涌入,试图切一角蛋糕。但是,正如所有消费电子的发展趋势一样,如果没有差异化卖点和功能创新,市场将很快走向红海,陷入价格的侵蚀之中。 对于广大投身于 TWS 的中小品牌来说,突破无线连接、通话体验的同时,产品本身的创新点也是增加消费者粘性的重要因素。国芯最新的语音唤醒芯片,对于这些厂商显得尤为及时。GX8002 几乎适配市场上所有的蓝牙方案,它与蓝牙芯片搭配使用,就如同增加了一个语音开关按键,通过共用的麦克风,实现语音触发。 这就极大地方便了那些使用成熟蓝牙方案的设备商,在不改变原有主体设计的情况下,叠加 AI 芯片,就可以将蓝牙耳机升级为智能耳机,满足了灵活、快速的设计需求。价格方面,国芯采用了累积采购量的阶梯价格模式,起步价 0.65 美元,尽量减轻成本负担。 TWS 加入语音 AI 将成为趋势。对于品牌耳机来说,能够在硬件方面更进一步,打通硬件品质、软件服务的体验;白牌耳机则可以在保证高性价比的前提下提供更丰富的功能。 目前,国芯已经打通了杰理、恒玄、络达、瑞昱、博通、易兆微、中科蓝讯等蓝牙合作方,这将为设备商大大节省具有 AI 语音能力的 TWS 研发周期。 “国芯尽量通过技术优化提升 AIoT“入口”建设的便利性,并提升产品的体验。通过在 AI 语音领域的持续耕耘,将 AI 技术应用到各种场景,之前已经有了高性能的产品应用在智能家居和车载领域,GX8002 的推出补齐了低功耗和近场的应用”,凌云表示,“目前我们完成了人 - 车 - 家的全场景覆盖,AI 语音产品可以说是国内市场上较为齐全的。” 当前,AI 的两大应用当属语音和视觉,这两大领域之间也有着一定的传承性和关联性。语音 AI 仍是一个早期成长中的市场,国芯一方面在扩大覆盖场景,另一方面也在寻找体量较大的细分市场(例如车载、TWS 等),进行更深入、更有针对性地布局。据凌云透露,未来,国芯会在语音业务的基础上,开拓视觉 AI 业务,以及语音+视觉的多模态产品方向。 
2020-07-27 00:00 阅读量:1640
  • 一周热料
  • 紧缺物料秒杀
型号 品牌 询价
RB751G-40T2R ROHM Semiconductor
TL431ACLPR Texas Instruments
BD71847AMWV-E2 ROHM Semiconductor
CDZVT2R20B ROHM Semiconductor
MC33074DR2G onsemi
型号 品牌 抢购
BP3621 ROHM Semiconductor
TPS63050YFFR Texas Instruments
ESR03EZPJ151 ROHM Semiconductor
BU33JA2MNVX-CTL ROHM Semiconductor
IPZ40N04S5L4R8ATMA1 Infineon Technologies
STM32F429IGT6 STMicroelectronics
热门标签
ROHM
Aavid
Averlogic
开发板
SUSUMU
NXP
PCB
传感器
半导体
相关百科
关于我们
AMEYA360微信服务号 AMEYA360微信服务号
AMEYA360商城(www.ameya360.com)上线于2011年,现 有超过3500家优质供应商,收录600万种产品型号数据,100 多万种元器件库存可供选购,产品覆盖MCU+存储器+电源芯 片+IGBT+MOS管+运放+射频蓝牙+传感器+电阻电容电感+ 连接器等多个领域,平台主营业务涵盖电子元器件现货销售、 BOM配单及提供产品配套资料等,为广大客户提供一站式购 销服务。