一、课题背景
基于室内位置的服务已经全方位渗透到人们的生活中,全球的工业界和学术界均在探索高精度、低成本、覆盖范围广的室内定位技术。目前主流的定位技术包括:惯性导航定位、激光定位、视觉定位、超声波定位、蓝牙定位、Wi-Fi定位等。这些方法都各有其优势与局限性。未同时满足精确度、成本、以及实时性且能在未知环境进行定位和导航的需求本课题采用视觉定位方式,以ORB-SLAM3为基础,并用RGB-D相机采集深度图和彩色图,使得移动机器人在运动过程达到一定的精度和鲁棒性,结合移动机器人在室内环境的实际情况,完成室内地图的实时构建。
二、开发环境介绍及目标
1、ubuntu18.04
2、ros-melodic
3、vscode
4、pcl 、opencv、 eigen、...
5、RGB-D感知相机MV-EB435i
本课题在linux系统中开发通过在ros节点中订阅EB435i相机发布的消息来获取环境信息,由于原始的数据不能直接用于导航所以我们会在程序中对先对该数据进行滤波和坐标变换等操作。
三、订阅相机的数据
ros::NodeHandle nh("~");
std::string rgb_topic = nh.param<std::string>("rgb", "/camera/rgb/image_color");
std::string depth_topic = nh.param<std::string>("depth", "/camera/depth/image");
cout << "rgb: " << rgb_topic << endl;
cout << "depth: " << depth_topic << endl;
message_filters::Subscriber<sensor_msgs::Image> rgb_sub(nh, rgb_topic, 100);//创建一个消息过滤器的RGB图像订阅者,用于订阅RGB图像的话题。
message_filters::Subscriber<sensor_msgs::Image> depth_sub(nh, depth_topic, 100);//创建一个消息过滤器的深度图像订阅者,用于订阅深度图像的话题。
typedef message_filters::sync_policies::ApproximateTime<sensor_msgs::Image, sensor_msgs::Image> sync_pol;
message_filters::Synchronizer<sync_pol> sync(sync_pol(10), rgb_sub,depth_sub);//定义了一个同步策略类型,用于将RGB和深度图像数据同步。这里使用的是近似时间同步,意味着它会尽量在时间上将两个消息对齐,但允许一定的时间差。
sync.registerCallback(boost::bind(&ImageGrabber::GrabRGBD,&igb,_1,_2));//注册了一个回调函数,用于处理同步后的RGB和深度图像数据。
四、滤波器
1、体素滤波器
由于通过点云数据中点的数量非常巨大,在对点云地图进行优化的过程中会涉及到大量的运算,过多的冗余数据不仅不会提高运算结果的准确性,还会对x系统的实时性造成很大影响。体素网格滤波器在输入点云数据上创建一个个3D体素网格(将体素网格视为一组空间中的微小3D小空间)。 然后,在每个体素中,所有存在的点将用它们的质心近似,可以达到向下采样同时不破坏点云本身几何结构的功能。
2、统计滤波器
统计滤波器是一种常用于点云处理和计算机视觉中的滤波方法,用于检测和去除点云中的离群点。其原理基于统计学的概念,通过计算每个点周围邻近点的统计信息,来确定哪些点被认为是离群点。将被检测为离群点的点从点云中移除或标记为离群点。统计滤波器的工作原理可以用于去除点云中的噪声,因为噪声通常会导致点在统计上的不规则性,使其成为离群点的候选。这有助于提高点云的质量,使其更适合用于后续的点云地图优化和位姿估计。
PointCloudMapping::PointCloudMapping(double resolution_, double meank_, double thresh_)
: mabIsUpdating(false)
{
this->resolution = resolution_;
this->meank = meank_;
this->thresh = thresh_;
std::cout<<resolution<<" "<<meank<<" "<<thresh<<std::endl;
statistical_filter = new pcl::StatisticalOutlierRemoval<pcl::PointXYZRGBA>(true);
voxel = new pcl::VoxelGrid<pcl::PointXYZRGBA>();
statistical_filter->setMeanK(meank);
statistical_filter->setStddevMulThresh(thresh);
voxel->setLeafSize(resolution, resolution, resolution);
globalMap = pcl::PointCloud<pcl::PointXYZRGBA>::Ptr(new pcl::PointCloud<pcl::PointXYZRGBA>);
viewerThread = make_shared<thread>(bind(&PointCloudMapping::viewer, this));
}
五、像素坐标系到世界坐标系的转化
1、像素坐标系到相机坐标系的转化
要实现像素坐标系到相机坐标系的转化,首先要知道相机的内参。
相机的内参数(Intrinsic Parameters)是指描述相机本身内部属性和特性的参数,这些参数对于将相机拍摄的三维世界映射到二维图像上非常重要。相机内参包括以下几个主要参数:fx、fy、Cx、Cy和畸变参数(这里不介绍畸变参数)。
fx为相机焦距与图像x方向的放大倍数的乘积,fy为相机焦距与图像y方向的放大倍数的乘积,Cx与Cy为偏移量(因为图像的坐标原点为图像的左上角)
转换公式为:

2、相机坐标系到世界坐标系的转化
与相机坐标系到世界坐标系的转化相关的是相机的外参。相机的外部参数(Extrinsic Parameters)描述了相机在世界坐标系中的位置和方向。与相机的内部参数不同,外部参数是描述相机在三维世界中的位置和方向的参数。
相机外参通常包括平移矢量t和旋转矩阵R

void PointCloudMapping::generatePointCloud(KeyFrame *kf) //,Eigen::Isometry3d T
{
pcl::PointCloud<pcl::PointXYZRGBA>::Ptr pPointCloud(new pcl::PointCloud<pcl::PointXYZRGBA>);
// point cloud is null ptr
for (int m = 0; m < kf->imDepth.rows; m += 4)//像素坐标转相机坐标
{
for (int n = 0; n < kf->imDepth.cols; n += 4)
{
float d = kf->imDepth.ptr<float>(m)[n];
if (d < 0.05 || d > 6)
continue;
pcl::PointXYZRGBA p;
p.z = d;
p.x = (n - kf->cx) * p.z / kf->fx;
p.y = (m - kf->cy) * p.z / kf->fy;
p.b = kf->imLeftRgb.ptr<uchar>(m)[n * 3];
p.g = kf->imLeftRgb.ptr<uchar>(m)[n * 3 + 1];
p.r = kf->imLeftRgb.ptr<uchar>(m)[n * 3 + 2];
pPointCloud->points.push_back(p);
}
}
pPointCloud->height = 1;
pPointCloud->width = pPointCloud->points.size();
pPointCloud->is_dense = true;
kf->mptrPointCloud = pPointCloud;
}
void PointCloudMapping::updatecloud(Map &curMap)
{
std::unique_lock<std::mutex> lck(updateMutex);
mabIsUpdating = true;
currentvpKFs = curMap.GetAllKeyFrames();
// loopbusy = true;
cout << "开始点云更新" << endl;
pcl::PointCloud<pcl::PointXYZRGBA>::Ptr tmpGlobalMap(new pcl::PointCloud<pcl::PointXYZRGBA>);
pcl::PointCloud<pcl::PointXYZRGBA>::Ptr curPointCloud(new pcl::PointCloud<pcl::PointXYZRGBA>);
pcl::PointCloud<pcl::PointXYZRGBA>::Ptr tmpGlobalMapFilter(new pcl::PointCloud<pcl::PointXYZRGBA>());
for (int i = 0; i < currentvpKFs.size(); i++)
{
if (!mabIsUpdating)
{
std::cout << "中断点云更新" <<std::endl;
return;
}
if (!currentvpKFs[i]->isBad() && currentvpKFs[i]->mptrPointCloud)
{
//将相机坐标系下的点云数据转换到世界坐标系下
pcl::transformPointCloud(
*(currentvpKFs[i]->mptrPointCloud), *(curPointCloud),
currentvpKFs[i]->GetPoseInverse().matrix());
*tmpGlobalMap += *curPointCloud;
voxel->setInputCloud(tmpGlobalMap);
voxel->filter(*tmpGlobalMapFilter);
tmpGlobalMap->swap(*tmpGlobalMapFilter);
}
}
cout << "点云更新完成" << endl;
{
std::unique_lock<std::mutex> lck(mMutexGlobalMap);
globalMap = tmpGlobalMap;
}
mabIsUpdating = false;
}