广和通要闻
叠衣服、整理家务……这些看似简单的日常任务,对机器人而言却是巨大的技术挑战。如何让机器人快速学会叠衣服?广和通具身智能开发平台Fibot以坚实的硬件基础、高效易上手的开发框架和精准的算法能力,仅需3小时即教会机器人这项本领。
多模态感知到策略学习:快速实现家务控制
Fibot基于多模态感知与流匹配(Flow Matching)策略学习的家务场景控制框架。以叠衣服为例,Fibot从前、左腕、右腕等3个关键视角采集图像,并提取高维视觉特征。同时,语言指令(如 “fold shirt”)作为文本模态输入至视觉语言模型(VLM),与视觉特征进行跨模态融合,构建任务语义与场景几何的联系。融合后的多模态输入至基于 Flow Matching 的控制模型,从而实现更稳定、更可控的动作生成,驱动机器人执行精细的双腕折衣策略。整个系统利用视觉、文本等多模态感知,实现了语义理解—动态轨迹生成的端到端机器人控制流程。
开发效率:从“一键部署”到高效训练的革命
广和通通过技术创新,极大降低了具身智能的开发门槛。Fibot具备完善、友好的采训推代码,支持一键部署,开发者只需一行指令即可实现数据采集、训练和推理的全流程,无需复杂环境配置和底层调试。
Fibot构建的 “示教-复现”数据闭环,使其能够高成功率实现复杂任务。这一机制允许机器人通过模仿学习快速掌握操作技能,缩短了从演示到实际执行的路径,为复杂场景下的任务执行奠定了基础。
精准迁移:从云端到真机的无缝衔接
算法从云端到真机环境的迁移,一直是机器人领域的难点。Fibot通过底层通信与控制硬件的深度优化,实现了这一过程的精准、稳定过渡。Fibot还集成了多种深度学习AI算法,结合高效的感知系统与智能决策框架。这套系统保障了全向移动稳定性,RTOS低时延响应支撑精准操作控制,并依托端侧AI算力实现本地化模型推理。从而构建了感知-移动-操作-算力一体化的硬件底座。
实战验证:复杂任务场景的高效突破
在实际家务场景中,Fibot展现了惊人的学习效率。以叠衣服为例,Fibot只需要3个小时的数据进行微调,就能达到令人满意的效果。这种高效学习能力源于框架的优化和算法的创新。同时,Fibot还具备自主纠错及适应不同环境光线的能力,使其能够在动态变化的真实环境中稳定工作,不再局限于精心控制的实验室条件。

未来,Fibot将应用于具身智能企业研发、高校科研、开发者调测等场景,帮助客户高效构建与验证端到端模仿学习算法,并采集模仿动作数据集。随着Fibot在具身智能领域的不断深耕,广和通正持续推动智能机器人在复杂现实环境中学习和执行任务的能力边界。
Previous:帝奥微荣膺“2025年度上市公司ESG价值传递奖”
Online messageinquiry
| model | brand | Quote |
|---|---|---|
| CDZVT2R20B | ROHM Semiconductor | |
| MC33074DR2G | onsemi | |
| RB751G-40T2R | ROHM Semiconductor | |
| TL431ACLPR | Texas Instruments | |
| BD71847AMWV-E2 | ROHM Semiconductor |
| model | brand | To snap up |
|---|---|---|
| BU33JA2MNVX-CTL | ROHM Semiconductor | |
| BP3621 | ROHM Semiconductor | |
| IPZ40N04S5L4R8ATMA1 | Infineon Technologies | |
| ESR03EZPJ151 | ROHM Semiconductor | |
| TPS63050YFFR | Texas Instruments | |
| STM32F429IGT6 | STMicroelectronics |
Qr code of ameya360 official account
Identify TWO-DIMENSIONAL code, you can pay attention to
Please enter the verification code in the image below: