
5月21日,在2025WGDC全球时空智能大会上,百度地图开放平台总经理严孙荣,行业重磅首发【百度地图x莫界智能眼镜全场景导航方案】,以全场景沉浸式导航、语音+视觉多模态交互两大核心,展示了眼镜导航全场景覆盖与多模态大模型的能力。通过百度软件应用生态与莫界智能硬件的深度融合,开启“看见未来”的出行时代。

眼镜导航:四大场景导航革新,重新定义出行效率
百度地图开放平台总经理严孙荣详细展示了百度地图与莫界智能眼镜深度融合的全场景导航能力,覆盖驾车、步行、骑行、公交四大高频出行场景,真正实现一副智能眼镜掌控所有出行导航。

1. 驾车导航:沉浸体验,安全与效率双提升
HUD
当前车速、路口转向、红绿灯读秒、拥堵路况播报等,驾驶过程中的信息都呈现在眼前。驾驶员视线无需偏离路面,大幅降低驾驶风险、提升驾驶效率。
2. 步行导航:解放双手,视野即路线
免手持自由出行
逛街购物、双手不便等场景下,无需频繁查看手机,路线指引自动浮现于视野,真正实现目视前方,心有方向。
3. 骑行导航:专注路况,安全无干扰
智能骑行路书
根据实时交通数据智能规划低风险骑行路线,避开大车流量路段;实时显示时速、剩余距离及转弯提示,余光即可获取信息,无需手机支架。
4. 公交导航:从容衔接,告别等车、赶车焦虑
公交路线智能规划
实时显示公交到站时间、下一站信息,规划最优公交路线,避免盲目等待。
多模态交互:语音+视觉大模型,让眼镜更懂你
【百度地图x莫界智能眼镜全场景导航方案】拥有两大模型交互系统,带来“听得懂、看得清、响应快”的智能体验,重新定义智能穿戴设备与空间地点的交互方式。
1. 地图语音大模型:你的专属AI出行助理
全场景语音操控
无论是开车时“导航去机场”,还是逛街时“附近有哪些好吃的”,只需语音指令即可唤醒服务,支持动态路线调整、周边查询等功能。
多轮对话深度理解
可处理复杂指令,如“我下午2点要去高铁站,中途想在商场买杯咖啡,推荐合适路线。”系统自动规划“商场→高铁站”路线,并提示咖啡店铺位置及预计耗时。
2. 地图视觉大模型:让眼睛成为“智能传感器”
视觉定位:所见即定位
无需手动输入地址,眼镜摄像头精准识别位置,在陌生环境中快速确认方位。
视觉增强:一眼捕捉周边信息
注视商场、餐厅等场所,自动显示评分、推荐菜、促销活动等信息。

行业革新:软硬件协同,开启智能出行新生态
在WGDC的舞台上,百度地图开放平台总经理严孙荣面向全球观众,展示了【百度地图x莫界智能眼镜全场景导航方案】,并表示“未来的智能眼镜导航会成为行业的趋势”。当眼镜成为地理信息的智能终端,地图导航不再局限于二维屏幕上的线条,而是以更加智能、直观的方式融入真实世界。用户无需再紧盯手机屏幕,只需通过智能眼镜语音交互,就能获取精准的导航信息,实现“看地图”到“用眼镜思考路线”的转变。
百度地图凭借其开放的生态软件应用,构建起覆盖全场景的服务平台;莫界则以创新的感知交互技术与智能硬件设备,展现出全场景的适配能力。双方在软硬件方面优势互补、深度融合,引领了智能出行导航交互的新未来:一个更加高效、便捷、有趣,“看见未来”的智能出行新生态。
