第01版:一版要闻
上一版3   4下一版  
 
长辈版
3 上一篇   下一篇 4  
放大 缩小 默认   
让智能硬件从“能听会说”到“能看会动”
杨浦企业声网携两项新成果亮相AWE2026,为智能设备出海铺设实时互动通路

  本报讯 3月12日,以“ AI 科技、慧享未来”为主题的2026年中国家电及消费电子博览会(AWE 2026)在上海新国际博览中心开幕。杨浦企业声网携两项新成果亮相:对话式AI开发套件R2系列产品,以及“泛IPC(网络摄像机)实时交互+智能处理引擎”。同时,他们带来的数十款搭载其技术的智能硬件,展示了实时音视频技术(RTC)如何让机器与人的互动变得更自然。

  一年三次迭代,“陆卡卡”有了视觉和运动能力

  回顾过去十年,无论是手机APP还是智能硬件,产品形态在不断变化,但人们希望用最自然的语言和机器交流的愿望始终未变。

  走进声网展台,最引人注目的是一款名为“陆卡卡”的桌面机器人。当你走进它时,它会转动头部“注视”你,你指向某个方向,它能循声望向那里。这种“被看见”“被注视”的体验,让机器不再只是被动应答的工具,而更像一个有生命的陪伴者。

  支撑这种体验的,是声网最新发布的R2全场景AI机器人开发套件原型机。与一年前的R1套件相比,R2最大的变化是增加了本地视觉识别和多自由度运动控制能力。这意味着,搭载R2的硬件不仅能听懂人说话,还能看懂人的手势、识别人脸轨迹,并做出相应的动作。

  据了解,声网在去年3月首次发布对话式AI开发套件R1,重点解决了实时对话中的背景降噪和智能打断问题,让用户和机器聊天时可以像和人聊天一样自然,不用每次都说“小X小X”这样的唤醒词。该套件发布至今,出货量已达百万级,被广泛应用于AI玩具、陪伴机器人等产品中。去年9月,针对移动化需求,声网又联合芯片企业推出了支持4G通信的版本,(下转第4版)(上接第1版)让AI硬件可以随时随地保持在线,满足车载等场景。

  未来具身智能机器人将是重要发展方向。从R1到R2,一年内三次迭代,声网为硬件厂商提供了一套从“能听会说”升级到“能看会动”的技术方案。

  当AI硬件从“功能机”向“情感机”进化,实时互动的体验好坏,正成为决定产品成败的关键。作为全球领先的实时音视频云服务商,声网正通过一次次技术迭代,把复杂的实时互动能力变成标准化的模块,为万物智联的时代铺设底层通路。

  开源底层技术,为出海设备铺路

  除了对话式AI套件,声网还发布了一款面向摄像头、扫地机器人、3D打印机、宠物喂食器等设备的“泛IPC实时交互+智能处理引擎”。

  随着越来越多中国智能设备走向海外,用户对这类产品的要求也越来越高:在东南亚、中东等网络不太好的地区,也能秒速打开家里的监控画面;扫地机器人走到庭院角落、割草机穿行在花园边缘,依然能保持连接,不会“失联乱撞”;宠物出现异常时能第一时间收到提醒……

  声网的解决方案集成了四项核心能力:依托自研的全球实时网络,覆盖200多个国家和地区,建联成功率超过99.9%,首次打开画面的时间达到毫秒级,真正实现“秒见图”;在极端弱网环境下,即使音视频数据丢失80%,仍能保障画面流畅和指令实时响应;在传输过程中可以同步完成宠物检测、人脸识别等AI分析,检测结果实时推送到用户端;支持多人同时观看和交互,并符合全球多个地区的数据安全法规。

  今年年初,声网宣布将核心的硬件抽象层项目AOSL在GitHub上全面开源。简单来说,AOSL就像一套通用的“翻译器”,让不同操作系统和芯片都能顺畅地运行声网的实时互动技术。对芯片厂商来说,接入AOSL意味着他们的硬件从出厂起就具备了“声网级”的实时互动能力。

  本次AWE上,声网首次展示了最新的开源生态成果。这种“开源底座+商业套件”的模式,正在吸引越来越多芯片厂商加入,让硬件创新从过去的“一次性定制”转向更高效的生态协作。■记者 毛信慧

3 上一篇   下一篇 4  
放大 缩小 默认   
   第01版:一版要闻
   第02版:要闻·综合
   第03版:城事·三区
   第04版:民生
   第05版:评论
   第06版:资讯
   第07版:专题
   第08版:五角场·文苑
报头
同题共答促开局,凝心聚力谱新篇
共促体育消费与产业升级
抢占类脑智能新赛道,打造未来产业集聚高地
找准发展定位发好力
聚焦“三新”,以金融“活水”破题发展关键
让智能硬件从“能听会说”到“能看会动”
杨浦时报一版要闻01让智能硬件从“能听会说”到“能看会动” 2026-03-17 2 2026年03月17日 星期二