快速发布求购| | | | | 加微群|
关注我们
本站客户服务

线上客服更便捷

仪表网官微

扫一扫关注我们

|
客户端
仪表APP

安卓版

仪表手机版

手机访问更快捷

仪表小程序

更多流量 更易传播


您现在的位置:仪表网>机器视觉>资讯列表>湖南大学机器人学院周易教授团队在神经形态视觉定位研究取得新进展

湖南大学机器人学院周易教授团队在神经形态视觉定位研究取得新进展

2025年03月26日 10:26:27 人气: 12168 来源: 湖南大学
  【仪表网 研发快讯】基于拟神经形态事件的视觉里程计是视觉同步定位与建图(SLAM)领域的一个新兴技术分支。其研究目标是将仿生的拟神经形态视觉技术应用于移动机器人的状态估计任务,以解决传统方法在高速运动、非理想光照等极端工况下性能退化或失效的问题。作为新一代视觉传感器,事件相机相比于传统相机具有更高的时间分辨率和动态范围,能够为移动机器人在高速运动或高动态范围光照场景下的位姿估计提供强有力的支持。然而,如何设计兼容此类传感器特殊数据结构的高效算法,仍然是一个极具挑战性的研究问题。
 
  针对上述问题,湖南大学周易教授团队(NAIL实验室)在先前的研究基础之上进行了创新性改进,提出了基于事件相机的双目视觉与惯性里程计系统,着重优化了3D建图效率与位姿估计精度。通过设计新型边缘点的采样策略并融合前后帧与左右目的深度信息,有效提升了建图模块的完整性与计算效率;针对相机位姿估计中俯仰与偏航分量的退化问题,该研究通过引入IMU测量数据作为运动先验,构建紧凑且稳健的后端优化框架,实现IMU偏置与线速度的实时估计。实验表明,相较于现有主流算法,研究所提出的系统在大尺度室外场景下展现出更高的定位精度(图1)和更为优秀的实时性能。
 
图1湖南大学校园内的定位实验结果展示。
 
  研究成果以“ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras”为题发表在机器人领域顶级期刊IEEE Transactions on Robotics(T-RO)上。同时,该论文系机器人学院首次以学生作为第一作者发表在T-RO期刊的科研成果。湖南大学机器人学院为该工作第一完成单位,2023级博士生牛军凯与钟声为共同第一作者,周易教授为通讯作者。此外,香港科技大学郑家纯机器人研究所的路修远博士、沈劭劼教授,以及柏林工业大学的Guillermo Gallego教授也参与了该项工作。该项研究得到了国家自然科学基金等项目资助。
全年征稿/资讯合作 联系邮箱:ybzhan@vip.qq.com
版权与免责声明
1、凡本网注明"来源:仪表网"的所有作品,版权均属于仪表网,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明"来源:仪表网"。违反上述声明者,本网将追究其相关法律责任。
2、本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。
3、如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。
4、合作、投稿、转载授权等相关事宜,请联系本网。
联系我们

客服热线: 0571-87759942

加盟热线: 0571-87756399

媒体合作: 0571-87759945

投诉热线: 0571-87759942

关注我们
  • 下载仪表站APP

  • Ybzhan手机版

  • Ybzhan公众号

  • Ybzhan小程序