IOE OpenIR  > 光电技术研究所博硕士论文
主被动位姿测量系统中联合标定算法的研究
徐昀泽
Subtype硕士
2019-05-28
Degree Grantor中国科学院大学
Place of Conferral中国科学院光电技术研究所
Degree Name工学硕士
Keyword联合标定 位姿测量 相机标定 除法模型 特征点提取
Abstract

随着测量技术的发展,单一测量传感器越来越难以满足高精度测量任务的需求,融合多传感器的测量数据能够发挥各类型传感器的优势,是实现高精度测量任务的发展趋势。干涉合成孔径雷达是近年来热门的遥感技术,其雷达天线之间的相对运动对测量精度有着严重的影响,因此需要一套测量系统实时测量天线之间的位姿关系。本课题中的位姿测量系统采用主动激光测距传感器和被动视觉传感器的融合测量方案。本文将对主动激光测距传感器与被动视觉传感器之间的联合标定技术展开探索性研究,建立了基于主动激光测距传感器与视觉传感器的测量模型,分析研究了联合标定中激光光斑和相机标定板图像特征点提取方法,并提出了主动激光测距传感器与被动视觉传感器之间的联合标定算法。

本文首先在深入调研了相机标定和一维激光标定方法发展现状的基础之上,分析了相机标定和激光测距仪的原理,分别建立了引入相机畸变模型的针孔成像模型和激光测量模型。以相机成像模型为基础,通过分析激光光斑的分布和激光光束在三维空间中的位姿表示、三维空间中坐标系之间的相互转换,将激光测量模型统一到相机坐标系下,在此基础上建立了激光测距传感器和视觉传感器融合的测量模型,为激光测距仪与相机之间的联合标定奠定了坚实的理论基础。

然后为了将被动视觉测量中特征点的二维图像坐标和在真实世界的三维坐标联系起来,对图像特征点提取方法进行了研究,包括角点提取算法和质心提取算法。研究了Harris角点提取算法和Bouguet亚像素角点提取方法,通过基于棋盘格标定板的实验对比,分析了Bouguet算法对Harris算法的优势。在分析激光光斑的分布基础上,分别对灰度加权质心法和高斯函数拟合法原理进行研究,通过生成仿真光斑数据进行实验,对比分析了两种算法的优缺点。

最后,对多传感器融合的联合标定算法进行研究和分析。分别对相机标定算法和激光测距仪标定算法展开研究,以相机标定算法为基础将激光测距仪的测量模型转换至相机成像模型中,从而实现激光测距传感器和相机之间的联合标定。针对相机标定算法,在研究张正友标定法的基础上提出了基于三维标定板的单张线性标定法。根据RANSAC空间点拟合算法得到激光光束,利用相机坐标系与激光测距传感器坐标系的关系,将激光光束统一到相机坐标系下确定激光中心,从而实现激光测距仪与相机之间的联合标定。最后实际搭建激光测距仪和单目相机组成的主被动位姿测量系统,编写软件采集实际的测量数据,利用这些数据完成联合标定实验,验证了所提联合标定算法的可行性和有效性。

Subject Area计算机科学技术 ; 计算机应用
MOST Discipline Catalogue工学 ; 工学::计算机科学与技术(可授工学、理学学位)
Pages65
Language中文
Document Type学位论文
Identifierhttp://ir.ioe.ac.cn/handle/181551/9072
Collection光电技术研究所博硕士论文
Recommended Citation
GB/T 7714
徐昀泽. 主被动位姿测量系统中联合标定算法的研究[D]. 中国科学院光电技术研究所. 中国科学院大学,2019.
Files in This Item:
File Name/Size DocType Version Access License
主被动位姿测量系统中联合标定算法的研究.(3553KB)学位论文 开放获取CC BY-NC-SAApplication Full Text
Related Services
Recommend this item
Bookmark
Usage statistics
Export to Endnote
Google Scholar
Similar articles in Google Scholar
[徐昀泽]'s Articles
Baidu academic
Similar articles in Baidu academic
[徐昀泽]'s Articles
Bing Scholar
Similar articles in Bing Scholar
[徐昀泽]'s Articles
Terms of Use
No data!
Social Bookmark/Share
All comments (0)
No comment.
 

Items in the repository are protected by copyright, with all rights reserved, unless otherwise indicated.