设为首页|收藏本站|
开启左侧

[问答] 自动驾驶系统的传感器标定方法

[复制链接]
82877 20
_我是王强_ 发表于 2022-8-13 13:56:58 | 只看该作者 打印 上一主题 下一主题
 
传感器标定是自动驾驶的基本需求,一个车上装了多个/多种传感器,而它们之间的坐标关系是需要确定的。湾区自动驾驶创业公司ZooX的co-founder和CTO是Sebastia Thrun的学生Jesse Levinson,他的博士论文就是传感器标定。
这个工作可分成两部分:内参标定和外参标定,内参是决定传感器内部的映射关系,比如摄像头的焦距,偏心和像素横纵比(+畸变系数),而外参是决定传感器和外部某个坐标系的转换关系,比如姿态参数(旋转和平移6自由度)。
摄像头的标定曾经是计算机视觉中3-D重建的前提,张正友老师著名的的Zhang氏标定法,利用Absolute Conic不变性得到的平面标定算法简化了控制场。
这里重点是,讨论不同传感器之间的外参标定,特别是激光雷达和摄像头之间的标定。
另外在自动驾驶研发中,GPS/IMU和摄像头或者激光雷达的标定,雷达和摄像头之间的标定也是常见的。不同传感器之间标定最大的问题是如何衡量最佳,因为获取的数据类型不一样:

  • 摄像头是RGB图像的像素阵列;
  • 激光雷达是3-D点云距离信息(有可能带反射值的灰度值);
  • GPS-IMU给的是车身位置姿态信息;
  • 雷达是2-D反射图。
这样的话,实现标定误差最小化的目标函数会因为不同传感器配对而不同。
另外,标定方法分targetless和target两种,前者在自然环境中进行,约束条件少,不需要用专门的target;后者则需要专门的控制场,有ground truth的target,比如典型的棋盘格平面板。
这里仅限于targetless方法的讨论,依次给出标定的若干算法。
首先是手-眼标定(Hand-Eye Calibration)

这是一个被标定方法普遍研究的,一定约束条件下的问题:可以广义的理解,一个“手”(比如GPS/IMU)和一个“眼”(激光雷达/摄像头)都固定在一个机器上,那么当机器运动之后,“手”和“眼”发生的姿态变化一定满足一定的约束关系,这样求解一个方程就可以得到“手”-“眼”之间的坐标转换关系,一般是AX=XB形式的方程。

自动驾驶系统的传感器标定方法 第1张图片
手眼系统分两种:eye in hand和eye to hand,我们这里显然是前者,即手-眼都在动的情况。
手眼标定分两步法和单步法,后者最有名的论文是“hand eye calibration using dual quaternion"。一般认为,单步法精度高于两步法,前者估计旋转之后再估计平移。
这里通过东京大学的论文“LiDAR and Camera Calibration using Motion Estimated by Sensor Fusion Odometry”来看看激光雷达和摄像头的标定算法。
显然它是求解一个手-眼标定的扩展问题-,即2D-3D标定,如图所示:

自动驾驶系统的传感器标定方法 第2张图片
求解激光雷达的姿态变化采用ICP,而摄像头的运动采用特征匹配。后者有一个单目SFM的scale问题,论文提出了一个基于传感器融合的解法:初始估计来自于无尺度的摄像头运动和有尺度的激光雷达运动;之后有scale的摄像头运动会在加上激光雷达点云数据被重新估计。最后二者的外参数就能通过手-眼标定得到。下图是算法流程图:

自动驾驶系统的传感器标定方法 第3张图片
手眼标定的典型解法是两步法:先求解旋转矩阵,然后再估计平移向量,公式在下面给出:

自动驾驶系统的传感器标定方法 第4张图片
现在因为scale问题,上述解法不稳定,所以要利用激光雷达的数据做文章,见下图:

自动驾驶系统的传感器标定方法 第5张图片
3-D点云的点在图像中被跟踪,其2D-3D对应关系可以描述为如下公式:

自动驾驶系统的传感器标定方法 第6张图片
而求解的问题变成了:

自动驾驶系统的传感器标定方法 第7张图片
上面优化问题的初始解是通过经典的P3P得到的。
得到摄像头的运动参数之后可以在两步手眼标定法中得到旋转和平移6参数,其中平移估计如下:

自动驾驶系统的传感器标定方法 第8张图片
注:这里估计摄像头运动和估计手眼标定是交替进行的,以改进估计精度。除此之外,作者也发现一些摄像头运动影响标定精度的策略,看下图分析:

自动驾驶系统的传感器标定方法 第9张图片
可以总结出:1)摄像头实际运动a 越小,投影误差越小;2) (\alpha-\beta )越小,投影误差越小。第一点说明标定时候摄像头运动要小,第二点说明,标定的周围环境深度要变化小,比如墙壁
另外还发现,增加摄像头运动的旋转角,摄像头运动估计到手眼标定的误差传播会小。
这个方法无法在室外自然环境中使用,因为点云投影的图像点很难确定。
有三篇关于如何优化激光雷达-摄像头标定的论文,不是通过3-D点云和图像点的匹配误差来估计标定参数,而是直接计算点云在图像平面形成的深度图,其和摄像头获取的图像存在全局匹配的测度。
不过这些方法,需要大量迭代,最好的做法是根据手眼标定产生初始值为好。
另外,密西根大学是采用了激光雷达反射值,悉尼大学在此基础上改进,两个都不如斯坦福大学方法方便,直接用点云和图像匹配实现标定。
斯坦福论文“Automatic Online Calibration of Cameras and Lasers”。
斯坦福的方法是在线修正标定的“漂移”,如下图所示:精确的标定应该使图中绿色点(深度不连续)和红色边缘(通过逆距离变换 IDT,即inverse distance transform)匹配。

自动驾驶系统的传感器标定方法 第10张图片
标定的目标函数是这样定义的:

自动驾驶系统的传感器标定方法 第11张图片
其中w 是视频窗大小,f 是帧#,(i, j) 是图像中的像素位置,而p是点云的3-D点。X表示激光雷达点云数据,D是图像做过IDT的结果。
下图是实时在线标定的结果例子:

自动驾驶系统的传感器标定方法 第12张图片

第一行标定好的,第二行出现漂移,第三行重新标定。

密西根大学的论文“Automatic Targetless Extrinsic Calibration of a 3D Lidar and Camera by Maximizing Mutual Information”。
这里定义了标定的任务就是求解两个传感器之间的转换关系,如图:求解R,T。

自动驾驶系统的传感器标定方法 第13张图片
定义的Mutual Information (MI) 目标函数是一个熵值:

自动驾驶系统的传感器标定方法 第14张图片
求解的算法是梯度法:

自动驾驶系统的传感器标定方法 第15张图片
下图是一个标定的例子:RGB像素和点云校准。

自动驾驶系统的传感器标定方法 第16张图片
澳大利亚悉尼大学的论文“Automatic Calibration of Lidar and Camera Images using Normalized Mutual Information”。
本文是对上面方法的改进。传感器配置如图:

自动驾驶系统的传感器标定方法 第17张图片
标定的流程在下图给出:

自动驾驶系统的传感器标定方法 第18张图片
其中定义了一个新测度Gradient Orientation Measure (GOM)如下:

自动驾驶系统的传感器标定方法 第19张图片
实际上是图像和激光雷达点云的梯度相关测度。
点云数据和图像数据匹配时候需要将点云投影到柱面图像上,如图所示:

自动驾驶系统的传感器标定方法 第20张图片
投影公式如下:

自动驾驶系统的传感器标定方法 第21张图片
而点云的梯度计算之前需要将点云投影到球面上,公式如下:

自动驾驶系统的传感器标定方法 第22张图片
最后,点云的梯度计算方法如下:

自动驾驶系统的传感器标定方法 第23张图片
标定的任务就是求解GOM最大,而文中采用了蒙特卡洛方法,类似particle filter。下图是一个结果做例子:

自动驾驶系统的传感器标定方法 第24张图片
IMU-摄像头标定

德国Fraunhofer论文“INS-Camera Calibration without Ground Control Points“。
本文虽然是给无人机的标定,对车辆也适合。
这是IMU定义的East, North, Up (ENU) 坐标系:

自动驾驶系统的传感器标定方法 第25张图片
而实际上IMU-摄像头标定和激光雷达-摄像头标定都是类似的,先解决一个手眼标定,然后优化结果。只是IMU没有反馈信息可用,只有姿态数据,所以就做pose graph optimization。下图是流程图:其中摄像头还是用SFM估计姿态。

自动驾驶系统的传感器标定方法 第26张图片
这是使用的图像标定板:

自动驾驶系统的传感器标定方法 第27张图片
激光雷达系统标定

牛津大学论文“Automatic self-calibration of a full field-of-view 3D n-laser scanner".
本文定义点云的“crispness” 作为质量测度,通过一个熵函数Rényi Quadratic Entropy (RQE)最小化作为在线标定激光雷达的优化目标。(注:其中作者还讨论了激光雷达的时钟偏差问题解决方案)
“crisp“其实是描述点云分布作为一个GMM(Gaussian Mixture Model)形式下的致密度。根据信息熵的定义,RQE被选择为测度:

自动驾驶系统的传感器标定方法 第28张图片
下图是一个标定后采集的点云结果:

自动驾驶系统的传感器标定方法 第29张图片
标定算法如下:

自动驾驶系统的传感器标定方法 第30张图片
雷达-摄像头标定
西安交大论文“Integrating Millimeter Wave Radar with a Monocular Vision Sensor for On-Road Obstacle Detection Applications”。
在讲传感器融合的时候提过这部分工作,这里重点介绍标定部分。首先坐标系关系如下:

自动驾驶系统的传感器标定方法 第31张图片
传感器配置如下:

自动驾驶系统的传感器标定方法 第32张图片
标定环境如下:

自动驾驶系统的传感器标定方法 第33张图片
标定其实是计算图像平面和雷达反射面之间的homography矩阵参数,如下图:

自动驾驶系统的传感器标定方法 第34张图片
--------结束---------


上一篇:Raw格式图像原理简述
下一篇:你所吃食物的“碳足迹”你了解吗?为什么我们要关注它?
@



1.西兔生活网 CTLIVES 内容全部来自网络;
2.版权归原网站或原作者所有;
3.内容与本站立场无关;
4.若涉及侵权或有疑义,请点击“举报”按钮,其他联系方式或无法及时处理。
 

精彩评论20

正序浏览
跳转到指定楼层
沙发
所罗门的百合 发表于 2022-8-13 13:57:07 | 只看该作者
 
科普了好多自动驾驶的知识,比某dacity好多了
回复 支持 反对

使用道具 举报

 
板凳
安瑾老婆 发表于 2022-8-13 13:57:21 | 只看该作者
 
哈哈哈 居然看到了我们组的工作
回复 支持 反对

使用道具 举报

 
地板
怯懦就是耻辱 发表于 2022-8-13 13:57:35 | 只看该作者
 
竟然你看到了最后:)
回复 支持 反对

使用道具 举报

 
5#
fanglei2011 发表于 2022-8-13 13:58:08 | 只看该作者
 
黄老师的文章肯定得认真学习!
回复 支持 反对

使用道具 举报

 
6#
随缘wang_ 发表于 2022-8-13 13:59:03 | 只看该作者
 
对于激光雷达和imu之间的标定,应该采用哪种算法呢
回复 支持 反对

使用道具 举报

 
7#
来天涯看谁 发表于 2022-8-13 13:59:23 | 只看该作者
 
"湾区自动驾驶创业公司ZooX的co-founder和CTO是Sebastia Thrun的学生Jesse Levinson,他的博士论文就是传感器标定。"

求上面提到的博士论文题目或者地址[赞同]
回复 支持 反对

使用道具 举报

 
8#
杰出的超 发表于 2022-8-13 13:59:34 | 只看该作者
 
Automatic laser calibration, mapping, and localization for autonomous vehicles, 2011。
回复 支持 反对

使用道具 举报

 
9#
珐帝诺小威 发表于 2022-8-13 13:59:41 | 只看该作者
 
感谢
回复 支持 反对

使用道具 举报

 
10#
@Xizi_HXJTx1mk 发表于 2022-8-13 13:59:48 | 只看该作者
 
文章非常赞, camera-imu的标定,lidar-imu的标定相关的工作也可以拓展一下,其中前者广泛用于vio系统中。
回复 支持 反对

使用道具 举报

 
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

排行榜
活跃网友
返回顶部快速回复上一主题下一主题返回列表APP下载手机访问
Copyright © 2016-2028 CTLIVES.COM All Rights Reserved.  西兔生活网  小黑屋| GMT+8, 2024-4-30 14:56