一、概念设计平台中的摄像机标定方法(论文文献综述)
杨家琪[1](2021)在《基于双目立体视觉的三维信息重建》文中研究指明随着近年来人工智能技术的发展,计算机视觉也成为了当前研究的热门之一。由于双目立体视觉基本原理与人类视觉系统原理基本相同,所以双目立体视觉更是当下研究的重点。为了给室内移动机器人避障提供轨迹修正信息,需要利用双目立体视觉系统实现对外部场景障碍物空间信息的获取。双目立体视觉主要使用两个摄像机对同一场景从不同角度进行图像采集,通过对图像对的处理获取场景中物体对应点间的几何数据,再根据双目立体视觉的几何模型,最终得到场景中物体的三维信息,该信息可以用于机器人避障使用,由于该方法的简单实用性,具有很好的使用前景。环境信息三维重建,过程分为摄像机标定,图像预处理,图像立体匹配和三维信息重建四个部分进行。首先要对摄像机和镜头进行选取,基于平行双目立体视觉模型,将两个摄像机平行放置,完成双目立体视觉平台的搭建。在摄像机标定阶段,对自制的标定板从不同角度进行拍摄,使用MATLAB标定工具箱,手动完成摄像机的标定,得到两个摄像机相关的内外参数。图像预处理阶段对获取的彩色图像对使用高斯滤波进行降噪,直方图匹配完成亮度差异平衡,然后灰度化处理得到灰度图,最后通过LOG算子进行锐化四步处理,最终得到噪声少、亮度差异小、边缘细节突出的图像对。图像立体匹配阶段,选取区域匹配算法获取视差图,针对传统Census算法窗口信息单一,易受噪声干扰的问题,对传统Census算法进行改进,引入新的像素评判准则,进而丰富窗口信息的获取,在代价聚合阶段,引入多尺度代价聚合模型和引导图滤波算法完成代价聚合,提升算法的整体性能,通过实验证明本文改进算法可以获取稠密的视差图,并且在匹配精度和抗噪性方面均有提升,可以用来完成最终的三维信息重建工作。最后对完整的三维信息重建过程进行梳理,利用已经获得的视差图,通过三维坐标计算方法获取物体三维空间信息,完成三维重建,对获得的三维信息重建结果进行精确度实验,验证了重建结果的准确性和实用性。
邓继周[2](2020)在《基于增强现实的信息投影辅助装配平台关键技术研究》文中研究指明传统装配过程中,装配人员依靠纸质的装配工艺文档进行装配作业,存在如下问题:装配工艺文档以文字并辅以装配图详尽描述装配流程,但可视化效果不直观,装配人员需要花费一定的时间才能获取有效信息,制约着装配效率;同时,现代机械产品往往是多学科交叉、多技术融合的复杂装配体,对装配人员的专业素养、认知水平以及操作熟练度提出了较高的要求,现场装配时,极有可能因为装配人员的理解不充分,出现漏装、错装现象,造成产品质量不合格。因此,本文针对传统装配效率低、装配周期长等问题,以辅助机械产品装配为目的,研究基于增强现实的信息引导辅助装配技术,通过真实装配现场同虚拟装配信息相互融合,减轻装配人员认知与理解负担,实现装配作业引导。具体研究内容如下:(1)针对传统装配过程中存在的问题,提出了构建信息投影辅助装配平台。以辅助装配工人作业为目的,分析基于增强现实的信息投影辅助装配平台的特点,建立了体系框架,明确了平台功能模块的作用以及相互关系。在此基础上确定了信息投影平台的关键支撑技术。(2)研究了投影信息管理与可视化表达技术。针对增强现实装配过程中,产品装配对信息引导的需求,提出了构建装配信息层次结构模型以及基于XML的装配引导信息存储方法,实现了对装配引导信息的有效管理;采用多种可视化表达方式,形成装配现场增强显示的信息源。最后,通过研究基于手势质心运动轨迹的动态手势识别方法,实现基于增强现实装配过程中虚拟引导信息的更迭。(3)研究了基于图像自然特征的位姿注册技术,具体包括摄像机标定技术、投影仪标定技术、投影仪现场位姿注册技术。首先对摄像机标定技术进行研究,提出基于正面图像的摄像机标定方法,在此基础上了完成了投影仪的标定。其次在投影仪现场注册过程中,针对金属零件存在反光以及弱纹理等易造成特征识别与特征匹配不准确的问题,采用SURF特征检测算法并结合随机采样一致算法(RANSAC),完成基于自然特征的投影仪现场位姿注册,实现虚拟引导信息的现场叠加。(4)基于上述相关研究工作,在VS2010集成开发环境下,结合Open CV图像处理库和Open GL图形处理库,完成对信息投影辅助装配平台的开发。以自吸泵为实例对象,阐述了信息投影辅助装配的流程,验证平台各个功能的正确性和可行性。
马建[3](2020)在《基于机器视觉的工件识别与定位系统的设计与实现》文中提出随着我国经济的发展,我国对工业自动化以及信息化的程度提出了新的要求。为了满足新的要求,机器视觉技术由于其精确度高、非接触性、高适应性、高敏感性等特点,在工业生产中得到了广泛的应用。利用双目立体视觉进行工业生产中工件的识别与定位是机器视觉技术的一个重要发展方向,相对于单目视觉,双目视觉技术容易获取工件空间信息,具有效率高、定位准确等优点。本文利用机器视觉技术构建双目视觉定位系统来处理工件的识别与定位问题,主要的工作内容如下:(1)研究了针孔摄像机模型下各坐标系之间的转换关系。分析了传统标定法、摄像机自标定方法、主动视觉摄像机标定方法三种摄像机标定方法的原理以及优缺点,选择了传统标定法中的张氏标定法,并通过实验求得了摄像机的主要参数。(2)研究了图像的边缘检测方法,提出了改进Canny算子,把传统Canny算子中的高斯滤波器替换为双边滤波器、增加了梯度方向上的计算;与Prewitt算法、Sobel算法等几种算法的对比实验表明,改进后的Canny算子对于图像的边缘检测效果更好。(3)研究了工件表明缺陷检测方法,基于卷积神经网络改进了分割网络模型,并与U-Net、DeepLabv3工件表面检测模型进行实验对比,实验结果表明了改进的分割网络模型具有更高的准确率。(4)针对工件识别过程中图像特征的提取问题,选取了SURF算法应用于图像特征的提取;提出了一种改进的Harris算法与SIFT、K-D树、RANSAC等算法组成的方法,完成工件的匹配与识别,并将该方法与SIFT算法进行了实验对比;利用工件三维重建原理和摄像机的标定方法完成工件在空间内坐标以及角度的计算,为机械手进行工件的抓取提供依据。基于上面的研究成果,完成了双目视觉定位系统的构建,进行了系统的测试。测试结果表明该系统具有一定的实用性。
周启航[4](2020)在《基于单目视觉的电梯曳引轮绳槽磨损检测系统》文中认为近年来,高层居民小区、办公及商业楼宇中电梯的普及率逐年攀升,电梯的运行安全问题随之逐渐成为了社会普遍关注的焦点。曳引轮作为电梯动力系统中曳引机的重要组成部件之一,其可靠性对电梯安全稳定运行至关重要。在曳引式电梯使用过程中,曳引轮绳槽因与钢丝绳的不断接触摩擦而产生磨损。一旦绳槽磨损量超标,就可能导致钢丝绳发生打滑,并随之引发安全事故。目前国内针对曳引轮绳槽磨损量测量局限于传统的人工塞尺测量方法,该方法精度低且缺乏可溯源测量数据。本文采用非接触式的单目视觉测量方法,不仅能够弥补人工测量的不足,同时也避免了双目立体视觉法在狭小空间双相机难以安装以及缺乏公共视野而难以匹配的问题,在电梯曳引轮磨损检测领域具有广阔的应用前景。本文基于单目视觉原理,对曳引式电梯带切口半圆槽型曳引轮的绳槽磨损量检测进行了研究。测量系统硬件平台采用一台500万像素、像元尺寸为2.2μm×2.2μm的CMOS工业相机和配套光源,工业相机通过夹具固定在钢丝绳内侧并对钢丝绳和曳引轮绳槽接触间隙摄取图像。计算机通过控制模块触发相机采集图像信息,图像信息通过千兆网线传输至计算机进行图像处理。测量软件基于单目视觉技术与轮廓匹配等算法实现了目标间隙定位,通过绳槽边缘拟合得出测量结果。对测量值进行绳槽底面遮挡补偿,实现了电梯曳引轮磨损下沉量的实时测量。正文首先建立并分析了相机的小孔成像模型,研究单相机的标定方法,并采用12×9的棋盘格标定板,实现了相机系统的标定。接着分析了目标轮廓匹配和边缘拟合算法,验证了算法的实时性。通过与精度为±0.02mm、量程150mm数显游标卡尺做对比测量实验确定系统测量精度。在实验室搭建了电梯机房模拟实验平台并进行了静态测试和性能验证。实验结果表明,本系统在物距为300mm处测量绝对误差低于±0.1mm,算法平均用时约为5s,满足曳引轮绳槽磨损检测系统的测量精度与实时性要求。
翟文超[5](2020)在《带式输送机煤流量检测和能效优化技术研究》文中研究说明带式输送机承担着地面和井下煤炭的运输,是煤矿生产运输的主要设备。带式输送机上煤流量的实时检测是煤炭产量监测的重要步骤;同时,煤料运输过程中的电能利用率影响带式输送机控制系统的经济运行。针对目前大型煤矿煤流量检测和运行能耗方面存在的问题,本课题以国内某大型煤矿的带式输送机为研究背景,基于视觉技术与智能算法,研究了煤流量的智能检测技术和带式输送机的能效优化方法。围绕这一主题,本文主要进行了如下几方面的研究:在煤料图像的采集与处理方面:首先,利用双目摄像机实时采集输送带上的煤料原始图像;然后,研究基于小波变换和K-means++算法的煤料原始图像增强和煤料识别处理,得到仅包含煤料的图像,用于提取煤料的三维信息。针对煤料图像三维点云信息提取和煤料体积计算问题:首先,采用张正友标定法,计算摄像机内外参数;然后,利用SGBM半全局立体匹配算法,获得煤料左右图像的视差图;最后,利用Delaunay算法对煤料三维点云数据进行剖分运算得到煤料体积,并结合线性回归算法对煤料体积进行修正,以获得精确的煤流量数值。关于带式输送机的能效优化:根据计算分析得知带式输送机电能消耗只与带式输送机运行速度、煤流量有关,研究基于BP神经网络的带式输送机节能优化模型,得到调速优化控制表,依据此表进行调速控制。基于上述研究方法,结合现场实际情况,根据PROFIBUS-DP和MODBUS通讯协议,设计PLC控制程序和组态监控界面,可视化展现系统整体运行、报警显示和数据存储等功能,以实现带式输送机整体系统的智能控制。本课题研究了基于双目视觉技术的煤流量检测方法和带式输送机能效优化方法,对煤炭和其他矿产企业的生产、运输和管理方面具有较大的借鉴意义,对实现大型煤矿的煤流量实时精准检测和带式输送机的能效优化产生了积极的影响。该论文有图47幅,表8个,参考文献80篇。
王志成[6](2020)在《基于ROS的手眼机器人控制软件平台设计与实现》文中研究指明EAST托卡马克的堆芯装置在运行过程中会产生大量的辐射和超强电磁场,因此不能以人工方式近距离进行维护。为了满足托卡马克装置的遥操作维护需求,需要在机器人的机械臂末端安装视觉传感器,以构建手眼机器人系统,从而使机械臂进入真空室内部完成观测任务及内壁破损石墨瓦的更换操作。因此,需要软件控制机器人机械臂的运动。同时,由于堆芯内部光线不足以及视觉传感器成像存在的畸变,导致图像精度下降,从而影响机器人位姿控制的精度。所以,视觉传感器成像和机器人机械臂位姿的精准控制是手眼机器人控制软件平台中的重要问题。本文在使用UR5机器人和Xtion Pro Live视觉传感器搭建的手眼机器人系统中,实现机器人控制软件开发和视觉传感器的标定,并在此基础上完成手眼标定。主要研究内容如下:(1)面向UR5机器人的正运动学和逆运动学分析与仿真。机器人的控制过程中,既需要使用正运动学求解机器人末端执行器的空间位姿,也需要使用逆运动学求解当前位姿下机器人各关节的角度。基于建立的UR5机器人D-H参数表,进行UR5机器人正运动学分析,获得各关节角度与末端执行器位姿关系;同时,基于正运动学的分析结果,使用解析法进行UR5机器人的逆运动学分析;最后通过V-REP仿真环境验证了UR5机器人正逆运动学分析的正确性。(2)针对Xtion Pro Live视觉传感器成像和Eye-in-Hand手眼系统进行分析和建模。相机光学部件的装配和加工存在一定误差,导致相机获取的图像与实际图像的大小、形状不是线性关系,即图形畸变。对于图形配准后的相机,还需要经过手眼标定转换,获得相机与机器人末端位姿转换关系,才可以通过图像精准的控制机器人。针对以上问题,基于Xtion Pro Live视觉传感器建立相机成像模型,进行图像畸变分析,使用张氏标定法完成相机的内参标定;基于Eye-in-Hand结构,建立手眼标定的基本方程,采用两步法获得手眼系统坐标转换关系。(3)设计并实现基于ROS的手眼机器人应用开发工具,包括Ros Launch可视化创建、功能模块图形化(View Graph)、项目部署、机器人控制、机器人状态反馈。目前,机器人应用开发门槛较高,不利于机器人应用的推广。本文提出了基于插件形式的手眼机器人软件平台,将机器人功能模块化,运用可视化开发的方法完成手眼系统项目开发组装,实现了手眼标定实验软件环境搭建。(4)基于UR5机器人和Xtion Pro Live视觉传感器构成的手眼系统,测试手眼机器人控制软件平台功能。使用该软件平台完成机器人控制和图像数据采集。经手眼标定计算,本文搭建的手眼系统姿态误差仅为0.03,位置误差仅为0.0469mm,达到遥操作维护机器人的精度要求。实验表明本文设计并开发的机器人控制平台能准确、快捷的完成机器人控制功能。
徐倩南[7](2020)在《基于双目立体视觉的三维重建技术研究》文中研究说明随着计算机视觉的发展,人们逐渐意识到计算机视觉的根本任务之一便是恢复二维图像世界的三维信息,即三维重建技术。其中,基于双目立体视觉的三维重建技术由于其原理简单,精度合适而又不需要太多成本的特点得到了广泛的关注与应用。本文主要针对双目立体视觉三维重建技术中涉及的摄像机标定,立体校正,立体匹配方法与三维重建等问题进行研究,主要工作内容如下:论文首先对双目视觉的两种结构模型及其对应的测距原理进行了研究,确定光轴平行式结构模型为本文的双目视觉理论模型。然后在分析了常用的摄像机标定方法后,选择应用灵活方便的张正友平面标定法对双目摄像机进行标定,同时为了降低立体匹配的复杂度,根据标定获取的外参数采用Bouguet算法进行立体校正,获取共面行对准的二维图像。另外,在分析了常用的区域匹配算法和基于特征的匹配算法的优缺点后,选择高效的ORB(Oriented FAST and Rotated BRIEF)特征匹配算法来计算图像的视差,并在原ORB算法的基础上,引入LDB(Local Different Binary)算法构造特征点描述子,改善原ORB描述子的鲁棒性;针对存在误匹配点的问题,采用基于网格运动约束思想的GMS(Grid-based Motion Statistics)匹配方法对匹配后的特征点进行提纯,提高匹配的正确率。为了将特征匹配后得到的稀疏视差图稠密化,本文提出一种将局部特征匹配与区域生长相结合的算法,将匹配的特征点对作为种子点,在满足灰度相似性约束和视差梯度约束的情况下,执行区域生长策略,得到相对稠密的视差图。并通过实验证明该算法匹配速度和稳定性有明显提高。最后,通过获取的视差图和立体校正后得到的重投影矩阵,实现了对标准图像对和室内实际采集的目标场景的点云三维重建,验证了本文算法的有效性和实用性。
周喆[8](2020)在《手术机器人双目立体视觉系统研究》文中研究说明随着现代科学技术的不断进步,手术机器人领域得到了迅猛的发展,而成像系统作为其获取患者病灶点实时信息的重要组成部分,不仅决定了手术机器人的整体精度,还对机械、照明等模块的设计与使用有着深远影响。传统的成像系统使用单摄像头拍摄的二维图像进行手术操作,缺乏必要的深度信息,这样的成像系统主观性强,过于依赖医生的经验进行操作,不能保证手术的安全及稳定性。本文将双目立体视觉技术应用于手术机器人的辅助成像系统之中,详细研究了双目视觉系统的具体技术流程,着力提高了立体匹配算法的精确度与实时性,并以此设计了双目立体视觉软件系统。本文首先对双目立体视觉的基础性原理进行了介绍,并对其中立体视觉标定、双目图像校正等步骤进行了实验分析;然后着重研究了双目立体视觉的立体匹配算法,根据实际使用的环境及算法匹配度的要求,通过实验对比选择以局部匹配算法中的Census立体匹配算法作为研究基础,并引入阈值、平均值、引导滤波等改进方法提高了算法的精确度,利用GPU平台的多线程并行计算能力提高了算法的实时性。经过Middlebury官网上提供的标准图像对测试后表明:改进算法的平均误匹配率为6.03%,运行时间在160ms左右,精度上比原Census立体匹配算法提高50%以上,运行速度也提升了近24倍;最后通过三角测量关系求出实际空间点的三维坐标,实际测试中深度信息的误差均在5%以内,满足机器人的精确定位要求。本文在理论研究的基础上,搭建了双目立体视觉的硬件实验平台,并通过Visual Studio 2015和Open CV3.2.0计算机视觉库设计了一套双目立体视觉软件系统,实现了从图像获取到采集三维深度信息的整个过程,解决了传统成像系统缺乏必要深度信息的问题。实际环境图像测试表明:标定结果准确,深度信息还原的误差较小,软件系统具有较高的可靠性。
潘捷[9](2020)在《电力巡检多旋翼无人机避障系统关键技术研究》文中研究说明随着多旋翼无人机相关技术研究的成熟及其商业应用的飞速发展,我国电力企业尤其关注且极力推广多旋翼无人机在电力巡检工作中的应用,以期探索“无人机为主、人工为辅”的新型、高效、安全的巡检作业模式。但是,在实际的巡检作业中,目前均为飞手操控无人机巡检作业,对飞手经验的依赖程度较大,安全性难以得到保障。具体问题表现在:一是人眼无法有效识别高压铁塔和输电线路准确位置,容易导致碰撞事故;二是人工操纵无人机时难以有效地避开树木、房屋等地图上不可见的障碍物;三是无人机飞行姿态控制系统性能尚不稳定,控制系统对外部扰动响应较大。以上问题严重阻碍了基于多旋翼无人机的巡检作业技术在电力巡检行业的发展。因此,研究如何保障电力巡检无人机飞行作业时的安全问题,是当前行业内急需解决的重大难题之一。针对上述问题,本文开展了电力巡检多旋翼无人机避障系统关键技术研究,主要研究内容包括以下四个方面:1.提出一种基于改进的方向包围盒(Oriented Bounding Box,OBB)算法的障碍物构造方法。针对无人机自主飞行必须与高压铁塔和输电线路保持安全距离的问题,提出将高压铁塔和输电线路包围成规则几何体,以此辅助无人机自主飞行前的航线规划。本文通过改进的OBB算法,使得包围盒的紧密性较AABB算法和传统OBB算法更好,比传统OBB算法的运行时间缩短了90%以上。2.研究基于双目视觉的障碍物检测方法,搭建了对应的硬件实验平台,完成了双目视觉的立体标定与校正,基于SIFT(Scale-invariant feature transform,SIFT)算法实现双目视觉立体匹配,并且在电力巡检场景下实现了基于左右视差图的障碍物轮廓检测,实验结果能够满足应用要求。3.研究基于广义动态模糊神经网络(Generalized dynamic fuzzy neural network,GD-FNN)的四旋翼无人机姿态控制方法,并且设计了基于GD-FNN的四旋翼无人机姿态控制系统,通过Laypunov定理证明该系统的稳定性。通过与传统PID控制在滚转角、俯仰角、偏航角和x、y、z位置的控制性能对比实验,证明本系统的超调量更小、反应更迅速,并通过添加噪声模拟无人机的外部干扰因素,证明该系统的姿态控制效果更稳定。4.提出一种基于改进的OBB算法和双目视觉障碍物检测技术的双重避障方法,并设计了对应的实验方案。
张静[10](2019)在《焊接部件双目立体视觉关键测量技术研究》文中进行了进一步梳理制造工业中焊接多采用流水作业方式,具有批量大且对焊接部件焊接精度要求高等特点。随着智能制造以及自动化检测技术的广泛应用,当前工业生产中对焊接质量检测提出了更高的要求。传统的接触式测量因为工作效率低并且可能对待测物体表面造成不同程度的损伤,已经逐渐被非接触测量取代。与其他可实现三维重建的系统相比,双目立体视觉系统不需要复杂的光源设备就可以完成空间点的三维重建,具有造价低、易操作等优点。本文主要对焊接部件双目视觉测量技术中的摄像机标定、图像校正、立体匹配和特征点三维重建等方面的问题进行探究。首先,对视觉系统中用到的坐标系进行了介绍,并根据双目立体视觉的原理以及理论体系完成对实验系统的搭建。标定的精度对三维重建的效果有直接影响,讨论了当前常用的标定方法后,选择了具有较高精度且容易操作的张正友标定法,并且对标定过程中的畸变模型进行了分析。其次,通过搭建的双目立体视觉系统对待测焊接部件采集多组图像对,并采用极线校正对图像进行处理。主要分析处理后图像中待测焊接部件表面可进行识别的特征,采用基于SIFT特征匹配算法完成匹配工作。针对匹配时间过长和错误匹配的问题,本文对SIFT算法提出了改进,同时引入RANSAC算法对误配点进行剔除。最后,为了验证本文算法的有效性,在软件平台上成功实现了对图像上焊接部件的特征点三维坐标重建。实验表明,通过双目立体视觉测量技术恢复的特征点三维坐标具有较高的准确性。
二、概念设计平台中的摄像机标定方法(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、概念设计平台中的摄像机标定方法(论文提纲范文)
(1)基于双目立体视觉的三维信息重建(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 论文研究背景与意义 |
1.2 Marr计算机视觉理论 |
1.3 双目立体视觉的国内外研究现状与发展方向 |
1.4 本文主要研究内容和结构 |
1.4.1 本文主要研究内容 |
1.4.2 论文结构安排 |
2 双目立体视觉系统分析 |
2.1 摄像机成像模型分析 |
2.1.1 摄像机小孔成像模型 |
2.1.2 摄像机非畸变模型中各坐标系之间的关系 |
2.1.3 摄像机畸变模型分析 |
2.2 双目立体视觉理论模型分析 |
2.2.1 双目立体视觉一般理论模型 |
2.2.2 对极几何原理 |
2.3 双目立体视觉平台的搭建 |
2.4 本章小结 |
3 双目摄像机的标定与图像预处理 |
3.1 摄像机标定基本概念 |
3.1.1 摄像机参数 |
3.1.2 标定方法介绍 |
3.1.3 张正友标定方法 |
3.2 图像预处理方法研究 |
3.2.1 图像预处理简介 |
3.2.2 图像灰度化 |
3.2.3 图像去噪方法 |
3.2.4 图像亮度差异平衡 |
3.2.5 图像锐化处理 |
3.3 摄像机标定过程及结果 |
3.4 图像预处理过程与结果分析 |
3.4.1 图像预处理过程分析 |
3.4.2 图像预处理结果分析 |
3.5 本章小结 |
4 立体匹配算法研究 |
4.1 立体匹配的基本概念 |
4.1.1 基本步骤 |
4.1.2 匹配基元 |
4.1.3 约束准则 |
4.2 立体匹配算法分类 |
4.2.1 区域匹配算法 |
4.2.2 特征匹配算法 |
4.2.3 相位匹配算法 |
4.3 基于Census变换的立体匹配算法研究 |
4.3.1 传统Census算法 |
4.3.2 改进的Census算法 |
4.3.3 匹配代价聚合与视差计算 |
4.4 实验结果分析与对比 |
4.4.1 匹配代价评估 |
4.4.2 抗噪性评估 |
4.4.3 改进算法整体性能验证 |
4.5 本章小结 |
5 三维信息重建实验 |
5.1 双目立体视觉三维信息重建原理 |
5.1.1 非平行双目立体视觉模型求解 |
5.1.2 平行双目立体视觉模型求解 |
5.2 三维信息重建实验 |
5.3 实验结果与分析 |
5.4 本章小结 |
6 结论与展望 |
6.1 结论 |
6.2 创新点 |
6.3 展望 |
参考文献 |
附录 A 相关程序 |
作者简介 |
作者在攻读硕士学位期间获得的学术成果 |
致谢 |
(2)基于增强现实的信息投影辅助装配平台关键技术研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题研究的背景及意义 |
1.2 国内外相关研究现状 |
1.2.1 增强现实辅助装配技术发展现状 |
1.2.2 虚实注册技术研究现状 |
1.3 论文研究内容及章节安排 |
第2章 信息投影辅助装配平台总体方案设计 |
2.1 引言 |
2.2 传统装配作业流程分析 |
2.3 信息投影辅助装配平台的构建 |
2.3.1 信息投影平台的体系框架 |
2.3.2 信息投影平台的功能模块 |
2.3.3 信息投影平台开发支撑技术 |
2.4 本章小结 |
第3章 增强现实辅助装配信息管理与可视化技术研究 |
3.1 引言 |
3.2 增强现实装配引导信息管理 |
3.3 增强现实装配虚拟信息可视化技术 |
3.3.1 平面信息可视化显示 |
3.3.2 三维虚拟模型信息可视化 |
3.4 增强现实装配人机交互技术 |
3.4.1 运动目标检测 |
3.4.2 肤色模型建模 |
3.4.3 实验分析 |
3.5 本章小结 |
第4章 增强现实辅助装配现场位姿注册技术研究 |
4.1 引言 |
4.2 位姿注册原理 |
4.3 摄像机标定 |
4.3.1 概述 |
4.3.2 摄像机标定原理 |
4.3.3 摄像机标定结果分析 |
4.4 投影仪标定 |
4.5 装配现场位姿注册 |
4.6 本章小结 |
第5章 原型系统开发与应用实例 |
5.1 引言 |
5.2 系统概述 |
5.2.1 系统运行框架 |
5.2.2 系统开发环境 |
5.2.3 软件平台简介 |
5.3 应用实例 |
5.4 本章小结 |
总结与展望 |
1.论文总结 |
2.后续工作展望 |
参考文献 |
攻读硕士学位期间学术成果及参与的项目 |
致谢 |
(3)基于机器视觉的工件识别与定位系统的设计与实现(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 选题的背景及意义 |
1.2 国内外机器视觉研究现状 |
1.3 本文主要内容及组织结构 |
1.4 本章小结 |
第2章 双目视觉系统的构建和标定 |
2.1 引言 |
2.2 构建双目视觉定位系统 |
2.3 双目视觉定位系统中的坐标变换 |
2.4 摄像机标定方法研究 |
2.5 张氏标定法 |
2.5.1 单应性矩阵H |
2.5.2 内参数矩阵 |
2.5.3 外参数矩阵 |
2.5.4 畸变系数 |
2.6 基于张氏标定法下的参数求解 |
2.7 本章小结 |
第3章 工件图像预处理及算法研究 |
3.1 引言 |
3.2 图像预处理 |
3.2.1 图像滤波 |
3.2.2 图像增强 |
3.2.3 图像二值化 |
3.2.4 边缘检测 |
3.3 工件表面缺陷检测 |
3.3.1 卷积神经网络 |
3.3.2 网络模型 |
3.3.3 实验结果分析 |
3.4 本章小结 |
第4章 工件识别与定位算法的研究 |
4.1 引言 |
4.2 工件图像特征提取 |
4.2.1 Harris角点检验算子 |
4.2.2 SIFT特征提取算法 |
4.3 工件图像特征匹配 |
4.3.1 改进Harris算子 |
4.3.2 Forstner算子 |
4.3.3 K-D树算法 |
4.3.4 RANSAC算法 |
4.3.5 图像匹配流程 |
4.4 工件定位 |
4.4.1 工件抓取点的确定 |
4.4.2 工件的三维重建 |
4.4.3 工件方向的确定 |
4.5 本章小结 |
第5章 双目视觉定位系统的搭建与实验 |
5.1 引言 |
5.2 系统中的硬件环境 |
5.2.1 双目视觉定位系统中的实验平台 |
5.2.2 GRB-400 型工业机器人 |
5.3 系统人机界面设计 |
5.3.1 系统操作界面 |
5.3.2 系统功能介绍 |
5.3.3 系统工作流程 |
5.4 实验结果及分析 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 全文总结 |
6.2 展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(4)基于单目视觉的电梯曳引轮绳槽磨损检测系统(论文提纲范文)
致谢 |
摘要 |
abstract |
第一章 绪论 |
1.1 选题背景与研究意义 |
1.2 国内外机器视觉技术发展与应用 |
1.2.1 国内机器视觉研究现状 |
1.2.2 国外机器视觉研究现状 |
1.3 课题研究概述及章节内容安排 |
第二章 单目视觉检测标定原理 |
2.1 透镜成像模型 |
2.2 摄像机坐标系模型 |
2.2.1 理想摄像机成像模型 |
2.2.2 非线性摄像机成像模型 |
2.3 摄像机标定方法 |
2.3.1 传统摄像机标定方法 |
2.3.2 摄像机的自标定方法 |
2.3.3 张正友的平面标定法 |
2.3.4 各标定方法评价 |
2.4 本章小结 |
第三章 曳引轮绳槽磨损检测系统设计 |
3.1 图像采集系统设计 |
3.2 检测系统总体方案设计 |
3.3 设备选型 |
3.3.1 相机参数与选型 |
3.3.2 光源参数选型 |
3.3.3 控制模块部件选型 |
3.4 光源安装分析 |
3.5 本章小结 |
第四章 基于边缘拟合的绳槽磨损检测算法 |
4.1 图像预处理 |
4.1.1 图像阈值化分割 |
4.1.2 图像滤波去噪 |
4.2 目标绳槽间隙定位 |
4.2.1 二值化图像轮廓检测 |
4.2.2 绳槽间隙形状匹配 |
4.3 ROI区域图像预处理 |
4.4 绳槽间隙边缘拟合 |
4.5 绳槽槽底遮挡分析与补偿 |
4.6 本章小结 |
第五章 实验与结果分析 |
5.1 硬件平台搭建 |
5.2 系统标定实验 |
5.3 绳槽磨损检测系统测试 |
5.3.1 检测系统测量精度评价 |
5.3.2 测试结果分析 |
5.4 误差分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
攻读硕士学位期间的学术活动和成果情况 |
(5)带式输送机煤流量检测和能效优化技术研究(论文提纲范文)
致谢 |
摘要 |
abstract |
变量注释表 |
1 绪论 |
1.1 研究背景和意义 |
1.2 国内外研究现状 |
1.3 课题研究内容及实施方案 |
1.4 论文章节安排 |
2 煤料识别算法研究 |
2.1 双目视觉系统 |
2.2 图像识别算法分析 |
2.3 煤料图像增强 |
2.4 基于K-means++的煤料识别 |
2.5 本章小节 |
3 煤流量计算方法研究 |
3.1 三维重建方法 |
3.2 摄像机标定 |
3.3 图像校正与立体匹配 |
3.4 煤料体积计算与修正 |
3.5 本章小结 |
4 能效优化模型构建 |
4.1 带式输送机能耗分析 |
4.2 BP神经网络研究 |
4.3 基于BP神经网络的能效优化建模 |
4.4 网络模型训练结果分析 |
4.5 本章小结 |
5 智能控制系统设计与能效验证 |
5.1 PLC控制系统设计 |
5.2 上位机软件设计 |
5.3 通讯结构设计 |
5.4 能效验证及数据分析 |
5.5 本章小结 |
6 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
作者简历 |
学位论文数据集 |
(6)基于ROS的手眼机器人控制软件平台设计与实现(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 课题研究的背景及意义 |
1.2 相关问题的研究现状 |
1.2.1 手眼机器人研究概况 |
1.2.2 ROS机器人开发的研究概况 |
1.2.3 机器人可视化开发的研究概况 |
1.3 论文主要工作 |
第二章 基于UR5机器人的运动学分析 |
2.1 UR5机器人简介 |
2.2 面向UR5机器人的正运动学分析 |
2.2.1 UR5机器人正运动学求解 |
2.2.2 正运动学仿真 |
2.3 面向UR5机器人的逆运动学分析 |
2.3.1 UR5机器人逆运动学求解 |
2.3.2 UR5机器人的雅可比矩阵 |
2.3.3 逆运动学仿真 |
2.4 本章小结 |
第三章 面向UR5机器人手眼标定方法设计 |
3.1 已有视觉传感器性能调研 |
3.2 基于Xtion Pro Live相机成像畸变分析 |
3.3 Xtion Pro Live相机图像配准实验 |
3.3.1 RGB相机标定 |
3.3.2 深度相机标定 |
3.3.4 RGB-D标定 |
3.4 手眼系统设计与分析 |
3.5 本章小结 |
第四章 基于ROS的手眼机器人应用开发工具设计 |
4.1 手眼机器人应用开发工具框架分析 |
4.1.1 需求分析 |
4.1.2 结构设计 |
4.2 可视化开发环境框架分析 |
4.2.1 需求分析 |
4.2.2 总体结构设计 |
4.2.3 子功能模块设计 |
4.2.4 机器人可视化开发环境程序流程 |
4.3 手眼机器人可视化开发环境详细设计 |
4.3.1 Ros Launch文件可视化创建功能模块组装 |
4.3.2 View Graph功能模块 |
4.4 基于手眼机器人的软件功能设计 |
4.4.1 手眼任务部署管理 |
4.4.2 手眼机器人运行控制及反馈 |
4.5 本章小结 |
第五章 机器人控制软件实验 |
5.1 实验环境搭建 |
5.2 实验流程设计 |
5.3 手眼机器人控制软件测试结果 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 工作总结 |
6.2 研究展望 |
参考文献 |
攻读硕士学位期间的学术活动及成果情况 |
(7)基于双目立体视觉的三维重建技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 课题研究背景与意义 |
1.2 三维重建方法综述 |
1.3 立体视觉三维重建技术发展现状 |
1.4 本文主要研究内容与组织安排 |
第二章 双目立体视觉结构与框架设计 |
2.1 双目立体视觉结构模型 |
2.1.1 光轴平行式结构模型 |
2.1.2 光轴非平行式结构模型 |
2.2 双目立体视觉三维重建的框架设计 |
2.2.1 硬件平台 |
2.2.2 软件方案设计 |
2.3 本章小结 |
第三章 双目摄像机的标定与校正 |
3.1 摄像机成像模型 |
3.1.1 线性成像模型 |
3.1.2 非线性成像模型 |
3.2 摄像机标定坐标系 |
3.2.1 坐标系概述 |
3.2.2 坐标系转换 |
3.3 双目相机的标定 |
3.3.1 摄像机的标定 |
3.3.2 双目立体标定 |
3.4 立体视觉平行校正 |
3.5 实验结果与分析 |
3.5.1 摄像机标定实验结果与分析 |
3.5.2 立体校正实验结果 |
3.6 本章小结 |
第四章 立体匹配算法研究 |
4.1 常用的立体匹配方法 |
4.2 基于特征的立体匹配 |
4.2.1 ORB特征匹配 |
4.2.2 基于网格运动约束的ORB特征匹配 |
4.2.3 特征匹配实验结果与分析 |
4.3 局部特征与区域生长结合的立体匹配 |
4.3.1 区域生长算法 |
4.3.2 视差图空洞填充 |
4.3.3 立体匹配算法流程 |
4.3.4 立体匹配实验结果与分析 |
4.4 本章小结 |
第五章 双目立体视觉三维重建 |
5.1 三维坐标的获取 |
5.2 三维重建结果与分析 |
5.2.1 点云重建结果 |
5.2.2 重建结果分析 |
5.3 本章小结 |
第六章 总结与展望 |
6.1 论文总结 |
6.2 展望 |
参考文献 |
附录 A 插图清单 |
附录 B 表格清单 |
在学研究成果 |
致谢 |
(8)手术机器人双目立体视觉系统研究(论文提纲范文)
摘要 |
abstract |
注释表 |
缩写表 |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 手术机器人研究现状分析 |
1.3 手术机器人视觉图像显示发展现状 |
1.4 论文主要研究内容与结构安排 |
1.4.1 论文主要研究内容 |
1.4.2 论文结构层次 |
第二章 双目视觉理论与相机标定分析 |
2.1 摄像机成像模型 |
2.1.1 双目立体视觉结构 |
2.1.2 摄像机成像坐标系统 |
2.2 双目立体视觉标定系统研究 |
2.2.1 非线性摄像机模型 |
2.2.2 常见摄像机标定方法 |
2.2.3 张正友标定法 |
2.3 摄像机标定实验与结果分析 |
2.4 双目校正 |
2.5 本章小结 |
第三章 立体匹配算法研究 |
3.1 立体匹配常规算法步骤分析 |
3.1.1 匹配代价计算 |
3.1.2 匹配代价聚合 |
3.1.3 视差计算优化 |
3.1.4 视差细化求精 |
3.2 立体匹配基本约束准则 |
3.3 实际情况下立体匹配算法的选择与对比 |
3.3.1 全局匹配算法 |
3.3.2 局部匹配算法 |
3.4 Census区域匹配算法的分析与实验 |
3.4.1 Census变换 |
3.4.2 匹配算法技术研究 |
3.4.3 实验结果与分析 |
3.5 本章小结 |
第四章 基于Census变换和引导滤波器的立体匹配算法 |
4.1 改进立体匹配算法介绍 |
4.1.1 改进的Census变换 |
4.1.2 基于引导滤波器的匹配代价聚合 |
4.2 基于GPU的改进算法实时性研究 |
4.2.1 CUDA的编程模型与内存机制 |
4.2.2 改进算法的并行优化 |
4.3 实验结果与分析 |
4.4 本章小结 |
第五章 三维重建与双目视觉软件系统设计 |
5.1 双目立体视觉的三维重建 |
5.1.1 三维重建空间点计算原理 |
5.1.2 实验结果分析 |
5.2 双目视觉系统平台搭建与实验 |
5.2.1 双目视觉系统平台 |
5.2.2 双目视觉系统软件简介与实验分析 |
5.3 本章小结 |
第六章 总结与展望 |
6.1 全文总结 |
6.2 进一步研究展望 |
参考文献 |
致谢 |
在学期间的研究成果及发表的学术论文 |
(9)电力巡检多旋翼无人机避障系统关键技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 多旋翼无人机避障技术研究现状 |
1.2.2 包围盒算法研究现状 |
1.2.3 双目视觉技术研究现状 |
1.2.4 旋翼无人机姿态控制方面的研究现状 |
1.3 本文的主要研究内容及章节安排 |
第二章 电力巡检多旋翼无人机避障系统概述 |
2.1 系统框架 |
2.2 基于改进的OBB包围盒算法的软件设计方案 |
2.3 基于双目视觉的障碍物检测方法的实验方案 |
2.3.1 双目视觉系统平台 |
2.3.2 四旋翼无人机平台 |
2.4 无人机避障实验方案 |
2.5 本章小结 |
第三章 基于改进的方向包围盒算法的障碍物构造方法研究 |
3.1 常用包围盒类型介绍 |
3.2 OBB算法基本原理 |
3.2.1 OBB初始旋转方向的确定 |
3.2.2 OBB的计算与修正 |
3.2.3 OBB算法流程 |
3.3 OBB算法的改进 |
3.4 实验验证与结果分析 |
3.5 本章小结 |
第四章 基于双目视觉的障碍物检测方法研究 |
4.1 双目视觉系统原理 |
4.1.1 双目视觉系统成像原理 |
4.1.2 双目视觉测距原理 |
4.2 双目视觉系统的立体标定与校正 |
4.2.1 双目视觉系统立体标定 |
4.2.2 双目视觉系统标定实验 |
4.2.3 双目视觉系统立体校正 |
4.2.4 双目视觉系统立体校正实验结果 |
4.3 双目视觉系统图像立体匹配的研究 |
4.3.1 双目视觉系统立体匹配概述 |
4.3.2 基于特征描述算子的立体匹配算法研究 |
4.3.3 基于左右视差图的障碍物检测 |
4.3.4 实验验证 |
4.4 本章小结 |
第五章 基于GD-FNN的四旋翼无人机姿态控制系统设计 |
5.1 四旋翼无人机动力学模型 |
5.1.1 四旋翼无人机姿态控制原理 |
5.1.2 四旋翼无人机动力学模型 |
5.2 广义动态模糊神经网络结构及其学习算法 |
5.3 广义动态模糊神经网络控制器 |
5.3.1 控制器结构 |
5.3.2 控制系统稳定性分析及证明 |
5.4 实验结果分析 |
5.4.1 姿态角控制对比 |
5.4.2 位置控制对比 |
5.4.3 鲁棒性验证 |
5.5 本章小结 |
第六章 全文总结与展望 |
6.1 全文总结 |
6.2 后续研究工作展望 |
参考文献 |
发表论文和参加科研情况 |
致谢 |
(10)焊接部件双目立体视觉关键测量技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题研究背景和意义 |
1.2 国内外研究现状及发展 |
1.3 论文主要工作和安排 |
第2章 双目立体视觉基本理论 |
2.1 摄像机成像模型 |
2.1.1 摄像机成型模型的四个坐标系 |
2.1.2 摄像机的线性模型 |
2.1.3 摄像机的非线性模型 |
2.2 双目立体视觉基本原理 |
2.3 双目立体标定 |
2.3.1 张正友摄像机标定法 |
2.3.2 双目摄像机的标定原理 |
2.4 摄像机标定过程与结果 |
2.5 本章小结 |
第3章 双目立体视觉测量系统设计 |
3.1 双目立体视觉模型 |
3.1.1 双目摄像机平行模型 |
3.1.2 双目摄像机相交模型 |
3.2 焊接变形的成因 |
3.3 测量系统的搭建 |
3.3.1 测量系统硬件构成 |
3.3.2 测量系统的软件设计 |
3.4 系统结构参数精度分析 |
3.4.1 视差对测量精度的影响 |
3.4.2 其他影响精度的因素 |
3.5 本章小结 |
第4章 立体匹配算法研究 |
4.1 图像校正 |
4.2 立体匹配算法研究 |
4.2.1 基于区域的立体匹配算法 |
4.2.2 基于区域的立体匹配算法效果及评价 |
4.2.3 基于SIFT特征点的立体匹配算法 |
4.2.4 改进的SIFT特征点匹配算法 |
4.3 焊接部件立体匹配实验 |
4.4 本章小结 |
第5章 焊接部件三维测量 |
5.1 三维测量原理 |
5.2 焊接部件测量实验 |
5.3 本章小结 |
结论 |
参考文献 |
致谢 |
攻读硕士期间发表(含录用)的学术论文 |
四、概念设计平台中的摄像机标定方法(论文参考文献)
- [1]基于双目立体视觉的三维信息重建[D]. 杨家琪. 沈阳建筑大学, 2021
- [2]基于增强现实的信息投影辅助装配平台关键技术研究[D]. 邓继周. 江苏科技大学, 2020(02)
- [3]基于机器视觉的工件识别与定位系统的设计与实现[D]. 马建. 中国科学院大学(中国科学院沈阳计算技术研究所), 2020(07)
- [4]基于单目视觉的电梯曳引轮绳槽磨损检测系统[D]. 周启航. 合肥工业大学, 2020(02)
- [5]带式输送机煤流量检测和能效优化技术研究[D]. 翟文超. 中国矿业大学, 2020(01)
- [6]基于ROS的手眼机器人控制软件平台设计与实现[D]. 王志成. 合肥工业大学, 2020(02)
- [7]基于双目立体视觉的三维重建技术研究[D]. 徐倩南. 安徽工业大学, 2020(07)
- [8]手术机器人双目立体视觉系统研究[D]. 周喆. 南京航空航天大学, 2020(07)
- [9]电力巡检多旋翼无人机避障系统关键技术研究[D]. 潘捷. 天津工业大学, 2020(02)
- [10]焊接部件双目立体视觉关键测量技术研究[D]. 张静. 沈阳航空航天大学, 2019(04)