一、平面点匹配的一点校准算法(论文文献综述)
孟祥鹤[1](2021)在《基于LiDAR/IMU组合的室内定位方法研究》文中进行了进一步梳理随着多传感器融合技术与计算机技术的发展以及室内定位场景的诸多限制,传统定位技术已经不能满足日益增长的室内定位需求。SLAM技术由于其能够同时进行定位任务与地图构建任务的特点,已然成为了当前室内定位技术的重要研究方向。近年来,SLAM技术发展迅速,激光SLAM技术展现出强大的应用前景和成长潜力,将激光雷达与其他传感器融合进行定位与建图具有重要研究意义。在此背景下,本文将针对基于LiDAR/IMU组合的室内定位方法进行研究,主要工作如下:(1)介绍了本文提出的LiDAR/IMU组合的室内定位系统框架和激光SLAM系统的理论基础,详细研究了LiDAR与IMU的量测模型,并在此基础上深入研究了IMU预积分方法。(2)将多种IMU内参标定方法进行对比分析,并选择Allan方差分析法对IMU内参标定。针对LiDAR/IMU数据融合需要获取两者之间外参的问题,提出了一种借鉴手眼标定的LiDAR/IMU联合标定方法。针对LiDAR存在运动畸变的问题,通过IMU辅助LiDAR去除点云运动畸变,并以此提高LiDAR原始点云的质量。给出了详细的LiDAR前端匹配流程,提出了一种快速实现地面分割的点云分割方法,并利用IMU预积分给出LiDAR点云匹配的初值,提高了点云匹配的速度。(3)针对LiDAR前端匹配产生的累计误差以及IMU预积分由于bias更新产生的误差,提出了一种基于EKF的LiDAR/IMU局部优化方法,在抑制LiDAR累计误差的同时对IMU预积分进行修正。针对LiDAR数据量庞大的情况,提出了关键帧策略,有效减少了后端全局优化和地图构建的次数,降低了算法的复杂度。针对局部优化只依赖前一帧数据的局限性,通过基于图优化的LiDAR/IMU全局优化方法,将LiDAR观测值和IMU预积分作为约束条件,利用图优化得到组合系统位姿与全局地图。针对闭环检测,为兼顾算法的运算量和准确度,提出了一种粗检测与精检测相结合的闭环检测方法,有效降低了闭环检测的运算量并提高了闭环检测的准确度,提高了组合系统的稳定性。(4)搭建了LiDAR/IMU室内移动定位平台,以开源算法Le GO-LOAM作为对比,通过三组不同场景下的实测实验对比结果,对提出的基于LiDAR/IMU组合的室内定位方法进行验证。实验结果表明LiDAR/IMU组合的室内定位方法在小场景、大场景和非闭环场景下都能得到较高精度的定位结果和全局地图,提高了激光SLAM系统的稳定性和鲁棒性,在闭环场景中可以达到亚分米级定位精度,非闭环场景中可以达到分米级定位精度。该论文有图32幅,表7个,参考文献81篇。
黄瑞[2](2021)在《带回环约束带激光雷达与IMU耦合SLAM系统研究》文中研究指明近年来,随着硬件运算能力的飞速发展和人工智能相关理论的日益成熟,无人驾驶领域也得到了充分的关注。在无人驾驶系统中,自主定位能力极重要,其中的关键技术就是同步定位与建图算法。在载人及载货场景下的无人驾驶车辆中,通常使用激光雷达作为定位与建图的主要传感器。本文主要研究的是激光雷达和惯性测量设备在定位与建图任务中的应用,并特别关注系统在不同使用场景下的定位精度。本文构建了一个激光雷达和惯性测量设备紧耦合的定位与建图系统。为了减小地面点和运动物体对里程计的影响,增加了激光点云预处理步骤。之后,使用激光雷达和IMU(惯性测量单元)构造紧耦合优化框架,实时估计IMU状态,并使用IMU预积分值矫正激光雷达运动畸变。之后,在建图模块中选取关键帧,并使用时间连续的关键帧构成世界地图。最后,添加基于激光帧描述子和基于轨迹的回环检测模块,并在回环优化模块使用因子图优化。以下是本文的主要研究内容:1)特征点处理:本文使用射线法,分离出地面,不提取位于地面上的边缘特征点。同时,系统会拒绝运动物体上采集到特征点(如车辆行人等)。由于精确识别并并分割运动物体点云运算量太大,本文受到相关研究启发,认为小物体是运动物体的可能性更大。因此,对点云分割后,系统不接收小物体上的特征点。2)关键帧选取及回环检测:本文的全局点云地图是通过时间上连续的多个关键帧构成,关键帧选取标准是基于相邻帧之间的位姿差异。之后系统基于轨迹的历史关键帧帧,添加了回环检测模块。在回环检测模块中,本文讨论了两种检测方式:基于最近点搜索的和基于激光帧描述子的,并最终采用两种方式共同作用的回环结构。3)回环优化:当系统检测到回环候选帧后,使用ICP迭代的误差进行回环候选帧筛选。完成筛选后,计算回环点位姿误差,并利用因子图优化更新回环上所有的关键帧。最后,本文组建了搭载多种传感器的无人小车平台,测试了线下实际建图效果,并在开源数据集上进行测试。结果表明本文提出的SLAM框架在室内大角度运动和室外大场景匀速运动下,都取得了较好的定位结果。因此系统符合最初的目标:在不同使用场景下都具有较高的定位精度。
陈军[3](2019)在《基于视觉—惯性—激光融合感的实时6DOF定位与3D环境建模研究》文中研究指明随着我国科学技术的日益进步发展,无人系统广泛应用于车间工厂,新型智能移动机器人也将逐渐出现在人们的生活之中。即时定位与建图(Simultaneous Localization And Mapping,SLAM)技术,是无人系统自主定位与导航的核心技术。目前单纯的使用激光雷达或者是视觉惯性系统(Visual Inertial Odometry,VIO)进行定位与建图都存在受环境限制的问题。本文以此为背景,使用三传感器融合的方式,进行机器人的自主定位研究。首先,由于雷达快速运动下存在运动畸变,本文对现有的雷达与惯性测量单元(Inertial Measurement Unit,IMU)的融合方法进行了改进,采用单线激光雷达与IMU紧耦合的方式对点云进行扭曲校正。这有效地校正了点云运动畸变,使得雷达在数据匹配上更加准确,从而提高了系统的定位精度。另外,针对结构化场景特征约束不足以及视觉纹理缺失造成的里程计漂移的问题,本文将单目相机与单线激光雷达数据融合,使用单线激光雷达建立深度图恢复出视觉特征点深度,求解视觉里程计作为雷达点云姿态的先验估计。这种融合视觉辅助定位的方式,弥补了不同传感器之间的缺陷,解决了部分场景下传感器使用受限的问题,有效的提高了定位系统的鲁棒性。本文首先对实验系统的硬件平台以及底层数据融合进行了介绍,包括底层雷达云台的设计,传感器之间外参数的标定原理。在硬件的基础之上,介绍了雷达特征提取、匹配、紧耦合求解里程计的过程,阐述了视觉与雷达融合、视觉里程计的基本算法,最后描述了地图建立的过程。最后,在校园室内外场景下,使用传感器进行实地测试对算法进行验证,在机器人操作系统(Robot Operating System,ROS)上,使用可视化工具对定位和建图结果进行显示。实验结果表明,该算法较之前的激光雷达定位算法性能有所提升,在定位精度和建图效果上有所改善。
付廷强[4](2019)在《基于GNSS/IMU/视觉多传感融合的组合导航定位算法研究》文中提出自动驾驶技术已经为人类生活提供诸多便利,如降低交通事故发生率,提高出行效率,减少园区作业中的人工成本等。其中,定位技术是自动驾驶技术中非常重要的一环,其关系到车辆位姿的正确判定,是路径规划、车辆控制等过程的重要基础和前提,因此保证定位的精度和稳定性是至关重要的。目前自动驾驶车辆定位主要依靠的是全球导航卫星系统(GNSS,Global Navigation Satellite System)和惯性导航系统(INS,Inertial Navigation System),二者融合可以实现多数情况下对自动驾驶汽车可靠定位,但是仍然存在两个重要问题:1)GNSS信号由于数据处理、数据传输会引入时延;2)GNSS信号处于遮挡区域时无法输出位置信息,而仅靠惯性导航会产生较大误差。本文构建了GNSS/INS组合导航算法,利用延时估计和补偿算法解决了其中存在的延时问题,同时构建了视觉-惯性里程计解决GNSS信号的遮挡问题。具体展开了以下研究:首先,本文根据惯性导航的基本原理完成了惯性导航算法推导及解算,该算法是构建GNSS/INS组合导航系统的重要基础。同时,推导了用于惯性传感器与视觉融合的IMU(Inertial Measurement Unit)预积分算法,该算法是构建视觉-惯性里程计的基础。然后基于构建的惯性导航系统对惯性导航误差模型进行分析,完成GNSS/INS组合导航系统状态模型的构建,并根据测量值与状态量的关系构建测量模型,利用卡尔曼滤波算法估计惯性导航误差,实现完整的GNSS/INS组合导航算法,并完成对该算法的实验验证。接下来,针对GNSS信息的延时问题,设计了基于运动学关系的延时估计算法,并基于残差重构算法实现延时补偿,采用真实数据集验证了算法的有效性。最后,针对GNSS信号处于遮挡区域时GNSS/INS组合导航失效的情况,设计了视觉与惯性传感器紧耦合系统,利用视觉信息限制惯性导航误差的累积和漂移,并设计实验进行了验证。根据实验中对误差的分析,GNSS/INS组合导航算法、延时估计与补偿算法、视觉-惯性里程计稳定有效,可以解决定位中前述遇到的问题,本文构建的融合定位架构对工程实践具有一定指导意义。
李凯[5](2017)在《面向数字化工厂的便携式实时三维重建系统研究》文中提出作为数字化与智能化制造的关键技术之一,数字化工厂是现代工业化与信息化融合的应用体现,也是实现智能化制造的必经之路。数字化工厂生产仿真与生产实践的前提是可视化技术,而三维重建技术又是可视化技术中的核心技术。基于三维重建的可视化技术可以处理利用数学模型无法处理的复杂系统,能够准确地描述现实情况并且确定影响系统行为的关键因素。因此该技术在生产系统规划、设计和验证阶段具有重要的作用。目前,三维重建系统可以依据使用的传感器不同大致分为两类。一类是使用摄像机为主的基于视觉的三维重建系统,该系统的特点是体型小巧、价格低廉,但是由于受光照影响较大,重建精度和鲁棒性较低。另一类是以激光雷达为主的三维重建系统,传统的激光重建系统的重建精度和鲁棒性要高于上一类系统,但是普遍体型笨重、价格昂贵,只能支持离线重建。针对目前两类常见的三维重建系统中出现的问题,本文提出了便携式实时三维重建系统。本文的主要研究内容如下:(1)设计并开发了便携式三维重建硬件系统。便携式三维重建硬件系统主要由步进电机、STM32单片机、UTM-30LX激光雷达、导电滑环等硬件组成。我们利用单片机控制步进电机带动激光雷达实现匀速旋转,同时采用用中心式扫描方式得到三维点云。(2)设计并开发了便携式三维重建软件系统。我们将软件系统分成了底层运动控制模块和上层地图重建模块。在底层控制模块当中,我们利用STM32单片机专用开发环境Kei14进行程序编写,该模块主要处理步进电机转速控制和编码器的角度读取。在上层地图重建模块当中,采用ROS平台进行软件设计,总共设计并开发了四个节点分别用于进行数据预处理、地图地位、地图重建以及地图优化。(3)提出一种改进的LOAM三维重建算法。整个三维重建算法按照标准的SLAM(同步定位与地图构建)流程分成了前端和后端两个部分。前端算法主要处理传感器的实时位姿估计。首先引入IMU对运动过程中不可避免的加速运动进行补偿,之后我们借鉴了 CUM jizhang的LOAM算法将特征点分成两类分别进行提取,在特征点匹配环节采用了 LocalMap思想进行改进,使算法的鲁棒性得以提高。同时加入闭环检测环节,消除了在大场景进行三维重建时出现的地图不一致问题。后端算法主要处理由于前端增量式位姿估计算法出现的累积误差问题。我们将后端优化分成了局部优化和全局优化两个部分。其中在局部优化中,基于ELCH方法对局部闭环进行优化,得到局部精确的闭环优化效果。在全局优化中,采用g2o框架,考虑全局运动约束,最终得到精确光滑的运动轨迹。(4)最后根据设计出的重建系统分别进行一次仿真实验以及三次实际环境实验。根据实验结果进行分别进行定性和定量分析,验证了便携式三维重建达到了预期目标,具备了重建精度高、实时性等特点。
于小红,迟建平,周庆军,李艳丽[6](2012)在《基于点模式匹配的雷达航迹与航行计划匹配算法》文中研究表明在雷达航迹与航行计划匹配时,针对传统算法对单点信息依赖程度较高,在信息缺失、目标机动等情况下匹配效果差的问题,提出了一种基于滑窗的改进点模式匹配算法。首先,提取了雷达航迹多特征点,利用特征点集弥补单点信息的不足,通过简化匹配分数的计算,降低了点模式匹配复杂度。以匀速直线目标运动目标和机动目标为例,进行了目标匹配的数值仿真,仿真实验结果表明,改进的点模式匹配算法显着提高了信息缺失、目标机动等情况下的匹配正确率。因此,该算法在工程上有一定的实用价值。
石静[7](2010)在《多视点立体图像的深度提取及虚拟视点生成研究》文中研究表明随着相关学科的发展,立体视频成为图像与视频处理领域新的研究方向,立体电视技术也成为了第四代电视技术。立体电视技术包括立体图像的获取、处理、传输、显示及观看五个部分。本文首先介绍了立体图像的成像原理、生成技术和显示技术,并探索国内外立体电视的发展历程,展望其发展前景,进而提出了一个完整的可用于立体图像生成与显示的方法流程,围绕深度图估计和虚拟视点生成等关键问题进行了深入的研究,取得了如下成果:1.针对流程中的深度信息提取部分提出了基于窗口的深度图提取算法和改进十字搜索深度图提取算法,分析并解决了区域匹配中块选择的问题,并将局部匹配算法与全局匹配思想有效结合,取得了较好的深度图效果;2.针对虚拟视点生成部分提出了基于深度图的虚拟视点生成算法,进而与深度图提取算法共同作用,并用视差校准的方法解决了裸眼观看自由立体图像时的跳跃问题。戴眼镜观看的立体图像及裸眼观看的自由立体图像立体效果明显、图像清晰且观看舒适,所提取的深度图视频效果良好。3.将上述基于静止立体图像的深度提取与虚拟视点生成算法运用于双视点立体视频中,提取深度图视频,并成功解决了深度图视频时域帧间闪烁问题。通过以上步骤,即完成了流程中各步骤的研究。本文进行了大量实验,实现对多视点图像及多视点视频的深度信息提取,进而实现基于深度信息的虚拟视点生成,最终实现基于虚拟视点的立体图像显示。本文提出的算法可以满足所提出的基于深度图的立体图像生成与显示方法实现的要求。
张祥德,唐青松[8](2003)在《确定性退火技术及其在点匹配中的应用》文中研究说明证明了当自由能函数满足一定条件时确定性退火算法收敛到能量函数的全局最优解·在此基础上,利用确定性退火技术给出了一个点匹配算法·该算法首先确定点匹配问题的自由能函数,通过使该自由能函数最小化得到点集之间的映射参数,然后用该参数对两个点集进行校准,最后将校准后的点集进行匹配得出点的对应关系·实验结果说明了该算法的有效性及其对旋转、平移、噪声等的鲁棒性·
金升平[9](2003)在《平面点匹配的一点校准算法》文中提出点模式匹配是一项重要的视觉课题。对于一个平面点集,由平移和旋转并伴有一定噪声作用产生另一点集,提出一个基于一点校准的点模式快速匹配算法,并推广到带有属性点的匹配问题中。基于一点校准的点模式匹配算法,其计算复杂性为O(mn),其中m,n分别是两个点集所含点的个数,比基于两点距离近似相等的校准匹配算法,其计算复杂性为O(m2nl)(其中l为第二个点集中与第一个点集中任两个点的距离近似相等的平均个数),极大地减少了计算量。
二、平面点匹配的一点校准算法(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、平面点匹配的一点校准算法(论文提纲范文)
(1)基于LiDAR/IMU组合的室内定位方法研究(论文提纲范文)
致谢 |
摘要 |
abstract |
变量注释表 |
1 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.3 论文的主要研究内容和章节安排 |
2 LiDAR/IMU组合系统方案与基础理论 |
2.1 LiDAR/IMU组合系统方案 |
2.2 SLAM基础理论 |
2.3 传感器量测模型 |
2.4 IMU预积分 |
2.5 本章小结 |
3 LiDAR/IMU数据处理 |
3.1 IMU内参标定 |
3.2 LiDAR/IMU联合标定 |
3.3 LiDAR点云运动畸变去除 |
3.4 LiDAR点云匹配 |
3.5 本章小结 |
4 基于LiDAR/IMU的联合优化方法 |
4.1 基于EKF的 LiDAR/IMU局部优化方法 |
4.2 关键帧策略 |
4.3 基于图优化的LiDAR/IMU全局优化方法 |
4.4 闭环检测 |
4.5 本章小结 |
5 实验与分析 |
5.1 实验平台 |
5.2 IMU内参标定结果 |
5.3 实验设计与结果分析 |
6 结论与展望 |
6.1 结论 |
6.2 展望 |
参考文献 |
作者简历 |
学位论文数据集 |
(2)带回环约束带激光雷达与IMU耦合SLAM系统研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 当前研究工作的背景和意义 |
1.2 国内外研究历史和现状 |
1.2.1 多线激光雷达SLAM |
1.2.2 多传感器融合 |
1.2.3 回环检测及回环优化算法 |
1.3 本文的主要研究内容 |
1.4 本文结构 |
1.5 本章小结 |
第2章 相关工作 |
2.1 引言 |
2.2 激光雷达里程计技术 |
2.2.1 里程计架构及残差 |
2.2.2 点云数据特征点提取及匹配 |
2.3 传感器融合中的IMU |
2.3.1 传感器融合架构 |
2.3.2 IMU误差模型 |
2.3.3 系统状态及运动模型 |
2.4 回环技术 |
2.4.1 视觉辅助回环检测 |
2.4.2 深度学习辅助回环检测 |
2.5 本章小结 |
第3章 一种有回环约束的激光雷达和IMU耦合SLAM框架 |
3.1 引言 |
3.2 系统架构描述 |
3.3 激光雷达数据特征点处理方案 |
3.4 激光雷达与IMU紧耦合约束实现 |
3.4.1 离散化预积分模型 |
3.4.2 紧耦合残差约束 |
3.4.3 误差状态传播模型 |
3.5 建图与后端优化方案 |
3.5.1 关键帧选取、地图构建与降采样 |
3.5.2 scan to map优化 |
3.5.3 因子图优化 |
3.6 回环检测方案 |
3.6.1 基于最近点的回环检测算法 |
3.6.2 基于扫描上下文的回环检测算法 |
3.7 基于因子图的回环优化方案 |
3.8 本章小结 |
第4章 实验及分析 |
4.1 引言 |
4.2 线下数据测试 |
4.2.1 硬件架构 |
4.2.2 环境建图效果分析 |
4.2.3 数据预处理可视化 |
4.3 公开数据集测试 |
4.3.1 轨迹评价 |
4.3.2 室内数据集—定位误差分析与鲁棒性测试 |
4.3.3 室外公开数据集—定位误差分析与回环模块有效性测试 |
4.4 小节 |
第5章 总结与展望 |
5.1 论文总结 |
5.2 未来工作展望 |
参考文献 |
攻读学位期间取得的研究成果 |
致谢 |
(3)基于视觉—惯性—激光融合感的实时6DOF定位与3D环境建模研究(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
1 引言 |
1.1 课题背景及研究的目的和意义 |
1.2 研究现状与内容 |
1.2.1 国内外研究现状 |
1.3 本文的主要研究内容 |
1.4 本章小结 |
2 硬件系统与标定 |
2.1 硬件系统 |
2.1.1 硬件器材 |
2.1.2 旋转云台 |
2.2 软件系统 |
2.3 传感器标定 |
2.3.1 相机与雷达的标定 |
2.3.2 相机与惯性导航的标定 |
2.3.3 标定实验结果分析 |
2.4 本章小结 |
3 雷达定位与建图 |
3.1 三维点云 |
3.2 特征提取与匹配 |
3.2.1 特征提取 |
3.2.2 点云畸变校正 |
3.2.3 特征匹配与里程计求解 |
3.3 惯导与雷达的信息融合 |
3.4 地图匹配与建立 |
3.5 本章小结 |
4 视觉与雷达联合定位 |
4.1 光流法 |
4.2 深度恢复 |
4.2.1 深度图恢复深度 |
4.2.2 三角化恢复深度 |
4.3 视觉里程计的求解 |
4.4 视觉雷达融合 |
4.5 本章小结 |
5 实验部分 |
5.1 系统简要介绍 |
5.2 实验结果 |
5.2.1 单线激光雷达实验 |
5.2.2 惯导与雷达松耦合实验 |
5.2.3 惯导与雷达紧耦合实验 |
5.2.4 视觉惯导雷达融合实验 |
5.3 本章小结 |
6 总结与展望 |
6.1 本文工作总结 |
6.2 未来工作展望 |
参考文献 |
作者简历及攻读硕士学位期间取得的研究成果 |
学位论文数据集 |
(4)基于GNSS/IMU/视觉多传感融合的组合导航定位算法研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 课题背景及意义 |
1.2 GNSS/INS及视觉定位研究现状 |
1.2.1 GNSS/INS组合导航系统 |
1.2.2 视觉SLAM研究现状 |
1.3 融合定位关键问题 |
1.3.1 延时估计与延时补偿 |
1.3.2 视觉与IMU融合算法 |
1.4 本文主要研究内容 |
第二章 惯性导航及预积分算法 |
2.1 引言 |
2.2 坐标系定义及姿态的表示 |
2.2.1 坐标系定义 |
2.2.2 姿态的表达 |
2.3 智能车辆惯性导航算法 |
2.3.1 惯性导航初始对准 |
2.3.2 姿态解算 |
2.3.3 速度与位置的解算 |
2.4 预积分算法 |
2.4.1 预积分定义与特性 |
2.4.2 预积分的算法推导 |
2.5 实验分析 |
2.6 小结 |
第三章 GNSS/INS组合导航定位 |
3.1 引言 |
3.2 GNSS定位简介 |
3.2.1 GNSS定位原理 |
3.2.2 地基差分系统的搭建 |
3.3 惯性导航误差模型 |
3.3.1 姿态误差传播 |
3.3.2 速度和位置误差传播 |
3.3.3 惯性传感器件误差建模 |
3.4 GNSS/INS融合算法 |
3.4.1 卡尔曼滤波算法 |
3.4.2 GNSS/INS融合算法建模 |
3.5 组合导航算法实验 |
3.6 小结 |
第四章 延时估计与延时补偿算法 |
4.1 引言 |
4.2 延时估计算法设计 |
4.3 延时补偿算法设计 |
4.4 实验与分析 |
4.4.1 延时产生的影响分析 |
4.4.2 延时估计与补偿算法的有效性验证 |
4.5 小结 |
第五章 视觉里程计与IMU融合系统 |
5.1 引言 |
5.2 相机投影 |
5.2.1 坐标系定义 |
5.2.2 相机投影模型 |
5.3 视觉位姿估计算法 |
5.3.1 高斯牛顿优化算法 |
5.3.2 对极几何及Pn P算法 |
5.3.3 最小化重投影误差 |
5.4 相机与IMU融合模型 |
5.4.1 IMU预积分误差建模 |
5.4.2 视觉-惯性系统构建 |
5.5 实验与分析 |
5.6 小结 |
第六章 结论与展望 |
6.1 工作总结 |
6.2 研究展望 |
参考文献 |
致谢 |
攻读硕士学位期间学术成果 |
(5)面向数字化工厂的便携式实时三维重建系统研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题的背景和研究意义 |
1.2 本课题相关问题研究现状 |
1.3 存在的问题及本文工作 |
1.3.1 现有方法存在的问题 |
1.3.2 本文主要工作 |
第2章 便携式三维重建系统总体设计 |
2.1 系统总体设计目标 |
2.2 系统功能描述 |
2.3 需要解决的关键问题 |
第3章 便携式三维重建硬件系统的设计与实现 |
3.1 硬件系统总体设计方案 |
3.2 主要硬件组成 |
3.2.1 2D激光雷达 |
3.2.2 步进电机及驱动器 |
3.2.3 控制板 |
3.2.4 导电滑环 |
3.2.5 激光支架 |
3.2.6 惯性测量单元 |
3.3 激光扫描模式设计 |
3.4 机械机构设计 |
3.5 三维激光参数对比 |
3.6 本章小结 |
第4章 便携式三维重建软件系统的设计与实现 |
4.1 软件系统功能结构图 |
4.2 底层运动控制模块 |
4.2.1 激光旋转速度控制 |
4.2.2 编码器值读取 |
4.3 上层地图重建模块 |
4.3.1 上层软件平台介绍 |
4.3.2 软件文件结构 |
4.3.3 软件通信方式与流程 |
4.3.4 数据预处理 |
4.4 本章小结 |
第5章 三维重建算法 |
5.1 前端激光定位算法 |
5.1.1 符号说明与任务描述 |
5.1.2 IMU高速突变补偿算法 |
5.1.3 特征点提取 |
5.1.4 特征点匹配 |
5.1.5 运动估计 |
5.1.6 激光定位算法小结 |
5.2 前端激光地图重建算法 |
5.2.1 任务描述 |
5.2.2 特征点匹配 |
5.2.3 运动估计 |
5.3 前端闭环检测算法 |
5.3.1 基于词袋模型检测闭环 |
5.3.2 基于几何关系检测闭环 |
5.4 后端优化算法 |
5.4.1 后端算法理论介绍 |
5.4.2 局部地图优化算法 |
5.4.3 全局地图优化算法 |
5.5 本章小结 |
第6章 实验验证与分析 |
6.1 基于仿真平台的实验 |
6.1.1 仿真平台介绍 |
6.1.2 创建仿真环境 |
6.1.3 搭建仿真三维重建硬件平台 |
6.1.4 与ROS建立通信 |
6.1.5 仿真平台验证 |
6.2 基于运动捕捉系统的实验 |
6.3 基于地面机器人的实验 |
6.4 室内外实验验证 |
6.5 本章小结 |
第7章 总结与展望 |
参考文献 |
致谢 |
攻读硕士期间的科研工作 |
(6)基于点模式匹配的雷达航迹与航行计划匹配算法(论文提纲范文)
1 点模式匹配 |
1.1 点模式匹配思想 |
1.2 点模式匹配算法 |
2 特征点选取及算法改进 |
2.1 特征点选取 |
2.1.1 雷达航迹特征点集 |
2.1.2 航行计划特征点集 |
2.2 算法改进与实现 |
3 数值仿真 |
3.1 选取特征点时m和n值的确定 |
3.2 匀速直线运动目标匹配 |
3.3 偏航目标匹配 |
3.4 机动目标匹配 |
3.5 结果分析 |
4 结束语 |
(7)多视点立体图像的深度提取及虚拟视点生成研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 立体电视技术 |
1.1.1 立体成像原理 |
1.1.2 立体图像获取技术 |
1.1.3 立体图像显示技术 |
1.2 立体电视发展历程与发展前景 |
1.3 本论文的主要贡献及论文结构 |
第二章 双视点立体图像的深度提取方法 |
2.1 深度图提取理论 |
2.1.1 双眼视差 |
2.1.2 深度图在立体成像中的重要作用 |
2.2 深度算法总结 |
2.3 算法提出:基于区域匹配的深度图提取算法 |
2.3.1 算法一:基于窗口的深度图提取算法 |
2.3.2 算法二:改进十字搜索深度图提取算法 |
2.4 本章小结 |
第三章 基于深度图的虚拟视点生成 |
3.1 虚拟视点理论研究 |
3.1.1 虚拟视点生成理论 |
3.1.2 虚拟视点生成算法 |
3.2 算法提出:基于深度图的虚拟视点生成算法 |
3.2.1 算法提出 |
3.2.2 实现步骤 |
3.2.3 基于标准深度图的实验结果及分析 |
3.2.4 基于实验深度图的实验结果及分析 |
3.3 双视点立体图像的显示及观看 |
3.4 八视点立体图像在3DFreeEyE42HD 显示器上的显示及裸眼观看 |
3.5 本章小结 |
第四章 双视点视频序列的深度提取方法 |
4.1 视频序列深度信息提取理论 |
4.2 算法提出:双视点视频序列深度信息提取算法 |
4.3 实现步骤及实验结果 |
4.3.1 双视点视频序列分割 |
4.3.2 各帧双视点BMP 图像的深度图提取 |
4.3.3 各帧深度图编码 |
4.3.4 深度图视频的时域平滑 |
4.4 本章小结 |
第五章 结束语 |
参考文献 |
英文缩略语表 |
致谢 |
四、平面点匹配的一点校准算法(论文参考文献)
- [1]基于LiDAR/IMU组合的室内定位方法研究[D]. 孟祥鹤. 辽宁工程技术大学, 2021
- [2]带回环约束带激光雷达与IMU耦合SLAM系统研究[D]. 黄瑞. 四川大学, 2021(02)
- [3]基于视觉—惯性—激光融合感的实时6DOF定位与3D环境建模研究[D]. 陈军. 北京交通大学, 2019(01)
- [4]基于GNSS/IMU/视觉多传感融合的组合导航定位算法研究[D]. 付廷强. 上海交通大学, 2019(06)
- [5]面向数字化工厂的便携式实时三维重建系统研究[D]. 李凯. 东北大学, 2017(06)
- [6]基于点模式匹配的雷达航迹与航行计划匹配算法[J]. 于小红,迟建平,周庆军,李艳丽. 指挥控制与仿真, 2012(05)
- [7]多视点立体图像的深度提取及虚拟视点生成研究[D]. 石静. 天津大学, 2010(03)
- [8]确定性退火技术及其在点匹配中的应用[J]. 张祥德,唐青松. 东北大学学报, 2003(11)
- [9]平面点匹配的一点校准算法[J]. 金升平. 计算机工程与应用, 2003(02)