2025年pointnet和pointnet++区别(point和pointf)

pointnet和pointnet++区别(point和pointf)目录 目的 如何实现 kitti 数据集简介 kitti 数据集的 raw data 利用 kitti 提供的 devkit 以及相应数据集的 calib 文件 解读 calib 文件夹 解读 devkit 使用雷达点云提供的深度信息 将雷达的三维点云投影到相机的二维图像上 kitti 的数据采集平台 配置有四个摄像机和一个激光雷达 四个摄像机中有两个灰度摄像机 两个彩色摄像机 从图中可看出 关于相机坐标系 camera 的方向与雷达坐标系 velodyne 的方向规定 camera nbsp x




目录



  • 目的
  • 如何实现
  • kitti数据集简介
  • kitti数据集的raw_data
  • 利用kitti提供的devkit以及相应数据集的calib文件
  • 解读calib文件夹
  • 解读devkit



使用雷达点云提供的深度信息

将雷达的三维点云投影到相机的二维图像上

kitti的数据采集平台,配置有四个摄像机和一个激光雷达,四个摄像机中有两个灰度摄像机,两个彩色摄像机。

从图中可看出,关于相机坐标系(camera)的方向与雷达坐标系(velodyne)的方向规定:


camera: x = right, y = down, z = forward

velodyne: x = forward, y = left, z = up

那么velodyne所采集到的点云数据中,各点的x轴坐标,即为所需的深度信息。

更多详细的简介网络上都能搜索到,这里只列举了与当前目的相关的必要信息。

raw_data对于每个序列都提供了同步且校准后的数据、标定数据。

同步且校准后的数据:

https://blog.51cto.com/u_16213625/imageXX 包含有各个摄像机采集到的图像序列

https://blog.51cto.com/u_16213625/velodyne_points 包含有雷达扫描到的数据,点云形式,每个点以 (x,y,z,i) 格式存储,i为反射值

(雷达采集数据时,是绕着竖直轴旋转扫描,只有当雷达旋转到与相机的朝向一致时会触发相机采集图像。不过在这里无需关注这一点,直接使用给出的同步且校准后的数据即可,它已将雷达数据与相机数据对齐,也就是可以认为同一文件名对应的图像数据与雷达点云数据属于同一个场景。)

标定数据:

https://blog.51cto.com/u_16213625/cam_to_cam 包含有各个摄像机的标定参数

https://blog.51cto.com/u_16213625/velo_to_cam 包含有雷达到摄像机的变换参数

对于raw_data,kitti还提供了样例工具,方便读取各种数据文件并输出,参见官网raw_data下载页的development kit

解读calib文件夹

cam_to_cam,包含各相机的标定参数

- S_xx: 1x2 矫正前xx号相机的图片尺寸
- K_xx: 3x3 矫正前xx号相机的标定参数
- D_xx: 1x5 矫正前xx号相机的畸变系数
- R_xx: 3x3 外参,xx号相机的旋转矩阵
- T_xx: 3x1 外参,xx号相机的平移矩阵
- S_rect_xx: 1x2 矫正后XX号相机的图片尺寸
- R_rect_xx: 3x3 旋转矩阵,用于矫正xx号相机,使得图像平面共面(原话是make image planes co-planar)。
- P_rect_0x: 3x4 投影矩阵,用于从矫正后的0号相机坐标系 投影到 X号相机的图像平面。

这里只用到最后两个矩阵R_rect和P_rect

velo_to_cam,从雷达坐标系到0号相机坐标系的转换

- R: 3x3 旋转矩阵
- T: 3x1 平移矩阵
- delta_f 和delta_c 已被弃用

由此可以得出从雷达坐标系变换到xx号相机的图像坐标系的公式:

设X为雷达坐标系中的齐次坐标 X = [x y z 1]',对应于xx号相机的图像坐标系的齐次坐标Y = [u v 1]',则:

其中

(R|T) : 雷达坐标系 -> 0号相机坐标系
R_rect_00: 0号相机坐标系 -> 矫正后的0号相机坐标系
P_rect_0x: 矫正后的0号相机坐标系 -> x号相机的图像平面
更详细完整的解读参见devkit中的readme.txt

解读devkit

官网提供的样例代码中 run_demoVelodyne.m 实现了将雷达点云投影到相机图像

代码流程
  1. 从所给路径中读取标定文件,获取具体矩阵数值
  2. 根据上述公式,计算投影矩阵 P_velo_to_img,即 Y = P_velo_to_img * X
  3. 从所给路径中读取相机图片,并加载雷达的点云数据。由于只做展示用,为了加快运行速度,对于雷达点云,每隔5个点只保留1个点
  4. 移除那些距离雷达5米之内(雷达的x方向)的点 (猜测这些点落在相机和雷达之间,故不会出现在图像平面上)
  5. 作投影计算,得到投影到二维图像上的点
    6.在图像上画出投影后的点,按照深度(雷达点的x方向值)确定颜色,彩色则是暖色越近,冷色越远;灰度则是深色越近,浅色越远。

若需要从深度图获取深度值,应按照画投影点时深度值到颜色(灰度)值的转换。

编程小号
上一篇 2025-02-25 08:33
下一篇 2025-03-08 11:57

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/bian-cheng-ri-ji/29968.html