CN110110131A - 一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法 - Google Patents
一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法 Download PDFInfo
- Publication number
- CN110110131A CN110110131A CN201910434977.7A CN201910434977A CN110110131A CN 110110131 A CN110110131 A CN 110110131A CN 201910434977 A CN201910434977 A CN 201910434977A CN 110110131 A CN110110131 A CN 110110131A
- Authority
- CN
- China
- Prior art keywords
- cable support
- aircraft cable
- image
- aircraft
- parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20164—Salient point detection; Corner detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/168—Segmentation; Edge detection involving transform domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法,结合双目立体视觉,进行飞机线缆支架的参数获取,将飞机线缆支架的种类和参数信息自动存储到数据库中,与标准数据库文件进行比对,调用对应飞机线缆支架的安装工艺文件供装配人员使用,实现了飞机线缆支架的种类和参数自动化识别以及自动调用安装工艺文件。本发明将飞机线缆支架原始图片进行输入,即可以得出飞机线缆支架的种类以及有关参数(孔,外形等),大大加快了对于飞机线缆支架的识别的准确率与识别速度。本发明只需要单人即可操作,不需要操作人员具备很强的专业知识,能够节省多人协作、专业培训等人力成本。
Description
技术领域
本发明涉及飞机线缆支架的研究领域,特别涉及是一种基于深度卷积神经网络进行特征提取以及特征表示的飞机线缆支架识别方法,涉及到利用双目立体视觉进行支架特征表示与参数获取。
背景技术
现阶段,在很多航空航天的装配场景中,需要工作人员对飞机线缆支架进行识别,确认飞机线缆支架的种类以及参数,工作人员通过与标准文件比对飞机线缆支架类别以及参数信息,在将其安装在机舱中合适的位置。中国专利201610496560.X公开了一种视觉检测方法及系统。其涉及的视觉检测方法中,主要包括:获取待检品的灰度图与目标圆的已知条件;其中,已知条件包括第一圆心位置、第一半径、目标圆的极性、第一偏差值与第二偏差值,对灰度图进行边缘检测获取灰度图的图像轮廓;根据已知条件对图像轮廓进行极性筛选,获取第一轮廓;根据第一轮廓上各点到目标圆的圆心位置范围内每个点的距离,确定第二圆心位置与第二半径;其中,第二圆心位置为确定的目标圆的圆心位置,第二半径为确定的目标圆的半径。其还提供了一种视觉检测系统,使得在检测待检品的图像上的圆时可以提高圆心和半径提取的准确度以及速度,进而提高提取效率。中国专利201810242277.3提出了一种视觉检测机构及视觉检测系统,该视觉检测机构包括平台基座、相机调整装置和产品调节装置;相机调整装置设置于平台基座,用于移动相机;产品调节装置设置于平台基座,用于移动待检测产品;相机调整装置与产品调节装置相配合,以移动相机和/或移动待检测产品使相机对待检测产品进行视觉检测。中国专利201810991696.7公开了一种基于双目立体相机的成像处理方法及成像处理系统,双目立体相机内置一个可见光摄像头和一个红外摄像头,该方法包括:利用可见光摄像头获取当前场景的彩色图像,利用红外摄像头获取当前场景的红外图像;利用预置的标定数据对彩色图像和红外图像分别进行校正,得到彩色校正图像和红外校正图像;对彩色校正图像和红外校正图像进行立体匹配,得到当前场景的深度信息;检测当前场景的光照条件;在当前场景处于低光照条件时,将彩色图像的彩色信息和红外图像的亮度信息进行图像融合得到复原图像,并输出复原图像及深度信息。其能够在低光照条件下获得高质量的成像效果,可以解决场景过暗、过曝等问题,达到宽动态的成像效果。
对飞机线缆支架的种类识别以及参数信息获取,目前采用的一般方法为使用目测和进行卡尺测量,并将其记录在对应的文档中,这些操作需要进行大量的人力操作并且需要多人协同,浪费大量人力物力,在多人操作的过程中也会出现理解错误和人工操作失误,造成信息记录的错误。完成信息记录后,装配人员需要人工比对飞机线缆支架的种类以及参数信息,从而获得其安装工艺要求,自动化程度不高。
发明内容
本发明主要目的在于克服现有技术缺陷和不足,提供了一种基于深度卷积神经网络进行特征提取及特征表示的支架种类识别方法,结合双目立体视觉,进行飞机线缆支架的参数(孔、尺寸)获取,将飞机线缆支架的种类和参数信息自动存储到数据库中,与标准数据库文件进行比对,调用对应飞机线缆支架的安装工艺文件供装配人员使用,实现了飞机线缆支架的种类和参数自动化识别以及自动调用安装工艺文件。
为了达到上述目的,本发明采用以下技术方案:
一种基于深度学习的飞机线缆支架种类识别和参数获取方法,包含以下步骤:
S1、利用两个相同型号的相机(焦距,像素等)构建双目立体成像系统,双目立体成像系统包括相机固定支架,飞机线缆支架放置平台;飞机线缆支架放置在飞机线缆支架放置平台上,相机固定支架上的相机正对飞机线缆支架。
S2、对双目立体成像系统进行立体标定,利用利用立体成像系统采集飞机线缆支架图像和并对关键特征进行提取测量。
S3、构件适应于飞机线缆支架种类识别的深度网络结构,以飞机线缆支架图像为输入,利用原始图像的特征提取和预处理特征提取之后的特征融合从而获得飞机线缆支架的种类。
S4、将求得的飞机线缆支架参数和飞机线缆支架种类,存储在数据库中。
S5、调用数据库中飞机线缆支架信息,与数据库中的飞机线缆支架的零件进行比对,将对应的安装工艺文件显示在人机交互界面上,供装配人员进行使用和参考。
步骤S2包括:
S2.1、利用人机交互界面控制双目立体成像系统拍摄图像,分别获得飞机线缆支架对应的左图像和右图像,利用已经标定好的双目立体相机的旋转矩阵和平移矢量,将拍摄的飞机线缆支架的左图像和右图像进行立体校正。
S2.2、利用高斯滤波的滤波方式对左图像和右图像进行图像平滑处理,采用canny算子提取飞机线缆支架的边缘,采用Harris检测飞机线缆支架的角点,得出飞机线缆支架在图像坐标系下的角点坐标。
S2.3、对提取到的边缘进行Hough line操作,提取飞机线缆支架的直线外边框。计算直线之间的偏移量,从而得到图像坐标系下飞机线缆支架中心点的坐标。
S2.4、对提取到的边缘进行Hough circle操作,提取飞机线缆支架的线缆安装孔外形,计算安装孔的半径尺寸。
S2.5、对左图像中的飞机线缆支架所有安装孔中心,分别在右图像上寻找对应的匹配点,利用极线约束,将飞机线缆支架的安装孔中心搜索压缩在一条直线上,减少搜索时间和降低误匹配。
S2.6、找到左右图像中的飞机线缆支架所有安装孔中心后,通过投影矩阵对安装孔中心进行三维重建,得到飞机线缆支架所有安装孔的三维位置,并计算各个安装孔之间的相对位置。
S2.7、对左右图像中的飞机线缆支架中心利用投影矩阵进行三维重建,得到其坐标为P。
S2.8、对左图像中的飞机线缆支架的所有角点,分别在右图像中寻找对应的匹配点,利用极线约束,将飞机线缆支架的安装孔中心搜索压缩在一条直线上,以角点为中心点计算固定窗口大小的灰度直方统计,统计相似度大的角点作为飞机线缆支架角点的辅助匹配。
S2.9、找到左右图像中的飞机线缆支架所有安装孔的角点后,利用投影矩阵进行三维重建,得到角点的三维坐标。对每个角点求角点到中心点P的距离,将得到的距离进行排序,寻找距离相近的四个点,用于获取真实飞机线缆支架的四个边界角点,去除非边界角点。
S2.10、利用获得的飞机线缆支架的边界角点三维坐标进行两两距离计算,将获得的计算结果进行排序,去除最高的两个计算结果,对剩下的四个计算结果接近程度大的两两求均值,获得飞机线缆支架的长宽尺寸。具体实现如下,将飞机线缆支架的四个边界角点的三维坐标进行两两距离计算,将获得值进行冒泡排序,去除最高的两个值为支架对角线的距离值,对剩下的四个值选择距离值小于阈值Ω的距离求均值,分别得到飞机线缆支架的长宽尺寸。
S2.11、将飞机线缆支架长宽尺寸、安装孔位置以及安装孔尺寸生成结构化文件。
步骤S3包括:
S3.1、构建神经网络模型,使用ASSP作为浅层特征提取,在高层语义层采用卷积层进行特征卷积。
S3.2、将最终的特征张量进行模长归一化处理,将特征张量压缩至一个超球面,通过计算张量之间的角度差异用来作为分类依据。
S3.3、利用Image net数据集进行预训练,获得预训练权重的模型。
S3.4、制作飞机线缆支架的图像训练样本,利用相机固定支架对放置在飞机线缆支架放置平台上的不同种类的飞机线缆支架进行图像样本采集。
S3.5、为了充分考虑现场工况的影响,将飞机线缆支架的图像样本进行RGB-HSV色彩空间转换,对亮度进行预定范围内的随机调节后转为RGB图像。
S3.6、将RGB图像样本采用小范围随机旋转,添加高斯噪声,用来扩充图像样本集。
S3.7、将飞机线缆支架的图像样本集作为原始图像输入到神经网络模型中,采用使用Image net预训练后的模型作为权重初始化,利用飞机线缆支架的图像样本进行神经网络参数调整。
S3.8、神经网络模型模型收敛后,进行保存神经网络模型。使用时,将立体视觉平台左图像拍摄的图像作为输入,输入到保存好的神经网络模型中,得到当前飞机线缆支架放置平台上放置的飞机线缆支架的种类。
S3.9、将飞机线缆支架种类信息与飞机S2步骤中求出的飞机线缆支架参数信息进行整合,统一保存为结构化文件。
本发明与现有技术相比,具有如下优点和有益效果:
1.本发明针对现有方法的不足,通过深度学习和双目立体视觉的方法,建立起飞机线缆支架原始图片与飞机线缆支架种类和参数的模态关系,将飞机线缆支架原始图片进行输入,即可以得出飞机线缆支架的种类以及有关参数(孔,外形等),能够大大加快了对于飞机线缆支架的识别的准确率与识别速度。
2.本发明利用原始图像的特征提取和预处理特征提取之后的特征融合实现分类,将飞机线缆支架识别与参数获取任务进行自动化处理,能够自动保存飞机线缆支架种类和飞机线缆支架参数,减少了由于工人协作和人工失误引入的错误,将飞机线缆支架识别与参数获取任务与装配工艺文件关联,做到了完成飞机线缆支架识别与参数获取任务后,装配工艺文件的自动展示,实现了装配过程可视化指引,提高了装配工艺的智能化和信息化水平。
3.本发明采用深度学习和双目立体视觉方法只需要单人即可操作,不需要操作人员具备很强的专业知识,能够节省多人协作、专业培训等人力成本。
附图说明
图1为本发明的整体流程图。
图2为本发明的深度网络结构图。
图3为本发明的飞机线缆支架参数获取方法图。
图4为本发明双目立体相机平台。
具体实施方式
下面结合实施例及附图对本发明进行进一步的详细的描述,但本发明的实施方式不限于此。
参考图1至图4对本发明实例进行进一步阐述说明。
S1、利用两个相同型号的相机(焦距,像素等)构建双目立体成像系统,包括相机固定支架,飞机线缆支架放置平台;
如图4所示,搭建类似的双目立体成像系统,综合考虑视距400mm和视场109mm*109mm,选择型号为MGE130M/C(EGYYO),焦距为25mm,像素为1.3MP的相机。利用相机固定支架将相机固定平行放置,将相机镜头朝下放置,将飞机线缆支架放置在平台上,将平台背景设置为黑色。相机设备与计算机端使用Usb3.0进行数据传输。
S2、对双目立体成像系统进行立体标定,利用利用立体成像设备对支架进行飞机线缆支架图像采集和关键特征提取测量。
步骤S2包括:
S2.1、利用人机交互界面控制相机设备拍摄图像,分别获得飞机线缆支架对应的左图像和右图像,利用已经标定好的双目立体相机的旋转矩阵和平移矢量,将拍摄的飞机线缆支架的左图像和右图像进行立体校正。
首先需要对双目立体成像设备进行标定,在平台上放置棋盘格靶标,利用以基于Flask框架的Web人机交互界面,控制左右相机拍摄平台上棋盘格靶标,通过变换棋盘格靶标的位姿和角度,获得25组棋盘格靶标图像。利用Harris提取角点,求得H矩阵,最终求得双目立体成像设备的旋转矩阵和平移矢量和相对基线参数,对左右相机进行标定,获得其焦距畸变系数等内参数,获得内参矩阵。
利用标定好双目立体成像设备的内外参数,可以建立左相机图像坐标系中特征点与右相机图像坐标系中特征点对应映射关系为:
R=Rr(Rl)
T=Tr-RTl
对采集的飞机线缆支架图像进行立体校正,并显示图像。
S2.2、利用高斯滤波的滤波方式对图像进行图像平滑,采用Canny算子提取飞机线缆支架的边缘,采用Harris检测飞机线缆支架的角点,得出飞机线缆支架在图像坐标系下的角点坐标。
飞机线缆支架的图像进行高斯滤波,滤除由于工况造成的噪声的影响。利用canny算子提取飞机线缆支架的边缘。
对飞机线缆支架图像利用Harris检测飞机线缆支架的外围角点,得出飞机线缆支架在图像坐标系下的角点坐标。
S2.3、对提取到的边缘进行Hough line操作,提取飞机线缆支架的直线外边框。计算直线之间的偏移量,从而得到图像坐标系下飞机线缆支架中心点的坐标。
S2.4、对提取到的边缘进行Hough circle操作,提取飞机线缆支架的线缆安装孔外形,计算孔半径尺寸。
S2.5、对左图像中的飞机线缆支架的所有安装孔中心,分别在右图像上寻找对应的匹配点,利用极线约束,将飞机线缆支架的安装孔中心搜索压缩在一条直线,减少搜索时间和降低误匹配。
左图像中的安装孔有N个,对于左图像上每个像素点,对应于右图像像素点在一条特征极线上,左图像中安装孔中心Pi,i∈(0,N]在右图像中的特征极线与右图像中的安装孔中心最接近的中心Pri为Pi在右图像中对应的中心孔位置。
S2.6、找到左右图像中的飞机线缆支架所有安装孔中心后,通过投影矩阵对安装孔中心进行三维重建,得到飞机线缆支架所有安装孔的三维位置。计算各个安装孔之间的相对位置。
S2.7、对左右图像中的飞机线缆支架中心利用投影矩阵进行三维重建,得到其坐标为P。
S2.8、对左图像中的飞机线缆支架的所有角点,分别在右图像中寻找对应的匹配点,利用极线约束,将飞机线缆支架的安装孔中心搜索压缩在一条直线上,以角点为中心点计算固定窗口大小的灰度直方统计,统计相似度大的角点作为飞机线缆支架角点的辅助匹配。
将左图像中的飞机线缆支架的角点Hi,i∈(0,N],找到Hi在右图像中的约束极线。以角点Hi为中心,计算50*50的方格像素的进行灰度统计值,计算灰度值δ∈(α,β)的像素占方格内所有像素的百分比,分别计算距离约束极线距离近的右图像中的角点的灰度统计百分比。选择右图像中相似性最大的角点作为Hi角点在右图像中的匹配角点。重复匹配过程直到左图像中所有的角点找到其对应的匹配点。
S2.9、找到左右图像中的飞机线缆支架的边界角点后,利用投影矩阵进行三维重建,得到角点的三维坐标。对每个角点求角点到中心点P的距离,将得到的距离进行排序,寻找距离相近的四个点,用于获取真实飞机线缆支架的四个边界角点,去除非边界角点。
找到左图像中的所有飞机线缆支架的边界角点Pl与其在右图像中的的对应匹配角点Pr,利用相机的标定信息和视差信息恢复边界角点的三维坐标。
求得角点的三维坐标(Xi,Yi,Zi),i∈(0,N]后,分别求与中心点P(X,Y,Z)的距离将其距离进行排序,对距离值进行两两做差值,选择距离值在阈值ε之内两对点作为真实飞机线缆支架的四个边界角点。
S2.10、利用获得的飞机线缆支架的边界角点三维坐标进行两两距离计算,将获得的值进行排序,去除最高的两个值,对剩下的四个值接近程度大的两两求均值,获得飞机线缆支架的长宽尺寸。
将飞机线缆支架的四个边界角点的三维坐标进行两两距离计算,将获得值进行冒泡排序,去除最高的两个值为支架对角线的距离值,对剩下的四个值选择距离值小于阈值Ω的距离求均值,分别得到飞机线缆支架的长宽尺寸。
S2.11、将飞机线缆支架长宽尺寸、安装孔位置以及安装孔尺寸生成结构化文件。
将飞机线缆支架长宽尺寸、安装孔间相对位置以及安装孔尺寸利用xml文件进行保存,其中包含支架图像文件路径<folder/>,<size/>字段保存飞机线缆支架长宽尺寸,<object/>字段中保存安装孔尺寸和安装孔位置信息。
S3、利用适应于飞机线缆支架种类识别的深度网络结构,深度网络以飞机线缆支架图像为输入,利用原始图像的特征提取和预处理特征提取之后的特征融合从而获得飞机线缆支架的种类。
步骤S3包括:
S3.1、构建神经网络模型,使用ASSP作为浅层特征提取,在高层语义层采用采用普通卷积层进行特征卷积。
使用VGG16作为基础网络,将第一、第二、第三层卷积转换为ASSP网络,剩下的特征提取层采用普通的卷积层进行特征提取,最后使用1*1的卷积核将其变换为4086*1*1的特征向量。
S3.2、将最终的特征张量进行模长归一化处理,将特征张量压缩至一个超球面,通过计算张量之间的角度差异用来作为分类依据。
因为考虑到支架之间的相似性比较大,其模长变化不大,模长变化大部分是噪声引起,为了抑制噪声,对特征向量进行模长归一化处理,将特征向量压缩至一个超球面上。
对压缩后的特征向量计算交叉熵用来作为分类依据。
S3.2、利用Image net数据集进行预训练,获得预训练权重的模型。
考虑到网络结构的层次较浅,使用Image net数据集进行预训练,待模型收敛后,保存预训练网络权重参数。
S3.3、制作飞机线缆支架的训练样本图像,利用立体视觉平台对放置在平台上的不同种类的飞机线缆支架进行图像样本采集。
将不同种类的飞机线缆支架固定在立体视觉平台上,分别利用Web前端人机交互界面控制分别控制左右相机进行拍摄,采集飞机线缆支架的图像样本。
S3.4、为了充分考虑现场工况的影响,将飞机线缆支架的图像样本进行RGB-HSV色彩空间转换,对亮度进行预定范围内的随机调节后转为RGB图像。
将飞机线缆支架的图像进行色彩通道转换。从R/G/B转换为HSV色彩空间,设(r,g,b)分别是一个颜色的红、绿和蓝坐标,它们的坐标值是0到255之间的实数。设MAX为r,g,b中的最大值,设MIN等于这些值中的最小者,设MED为r,g,b中间值。要找到HSL空间中的(H,S,V)值,这里的H∈[0,360)是角度的色相角,而S,V∈[0,1]是饱和度和亮度。计算为:
MAX=MAX(r,g,b)MIN=MIN(r,g,b)
R=MAX,Hv=(G-B)/(MAX-MIN)
G=MAX,Hv=2+(B-G)/(MAX-MIN)
B=MAX,Hv=4+(R-G)/(MAX-MIN)
H=Hv*60
若H<0,H=H+360
V=MAX(r,g,b)
S=(MAX-MIN)/MAX
对转换后图像V值进行范围为λ随机调整,用于模拟由于光照扰动带来的影响,将变换后的HSV图像转换回RGB格式,用于扩充飞机线缆支架的训练样本
S3.5、将图像样本采用小范围随机旋转,添加一定程度的高斯噪声,用来扩充飞机线缆支架图像样本集。
将飞机线缆支架的图像样本进行[-5°,5°]的随机旋转,模拟由于摆放固定飞机线缆支架造成的误差样本。
将飞机线缆支架20%的图像样本的添加高斯噪声,模拟外界噪声扰动。
以上几种扩充样本一种或者多种随机组合应用扩充样本量,最终得到飞机线缆支架图像样本为3000张。
S3.6、将飞机线缆支架的图像样本集作为原始图像输入到神经网络模型中,采用使用Image net预训练后的模型作为权重初始化,在此基础上利用飞机线缆支架的图像样本进行神经网络参数调整。
读取预训练模型的权重参数作为模型的初始化参数,利用扩充后的飞机线缆支架图像样本作为输入,改变输出层类别为飞机线缆支架的类别数量,利用反向传播算法进行模型参数微调。
S3.7、模型收敛后,保存神经网络模型。使用时将立体视觉平台左图像拍摄的图像作为输入,输入到保存好的神经网络模型中,得到当前平台上放置的飞机线缆支架的种类。
等待神经网络模型收敛后,保存已经训练好的神经网络模型,使用时利用Web界面控制相机拍摄飞机线缆支架,将左相机拍摄的图像作为输入,利用训练好的神经网络模型进行特征提取识别当前飞机线缆支架平台上的飞机线缆支架种类。
S3.8、将飞机线缆支架种类信息与飞机S2步骤中求出的飞机线缆支架参数信息进行整合,统一保存为结构化文件。
S4、将求得的飞机线缆支架参数和飞机线缆支架种类,存储在数据库中。
将得到的飞机线缆支架参数和飞机线缆支架种类结构化文件路径保存保存到Mysql数据库当中。
S5、调用数据库中飞机线缆支架的信息,与数据库中飞机线缆支架的零件进行比对,将对应的安装工艺文件显示在人机交互界面上,供装配人员进行使用和参考。
利用结构化文件中的当前飞机线缆支架的信息,匹配Mysql数据库中对应飞机线缆支架的信息,调用其安装工艺信息在显示在Web界面上,供装配人员使用与参考。
Claims (9)
1.一种基于深度学习的飞机线缆支架种类识别和参数获取方法,其特征在于:该方法包含以下步骤,
S1、利用两个相同型号的相机构建双目立体成像系统,双目立体成像系统包括相机固定支架,飞机线缆支架放置平台;飞机线缆支架放置在飞机线缆支架放置平台上,相机固定支架上的相机正对飞机线缆支架;
S2、对双目立体成像系统进行立体标定,利用利用立体成像系统采集飞机线缆支架图像和并对关键特征进行提取测量;
S3、构件适应于飞机线缆支架种类识别的深度网络结构,以飞机线缆支架图像为输入,利用原始图像的特征提取和预处理特征提取之后的特征融合从而获得飞机线缆支架的种类;
S4、将求得的飞机线缆支架参数和飞机线缆支架种类,存储在数据库中;
S5、调用数据库中飞机线缆支架信息,与数据库中的飞机线缆支架的零件进行比对,将对应的安装工艺文件显示在人机交互界面上,供装配人员进行使用和参考。
2.根据权利要求1所述的一种基于深度学习的飞机线缆支架种类识别和参数获取方法,其特征在于:步骤S2包括,
S2.1、利用人机交互界面控制双目立体成像系统拍摄图像,分别获得飞机线缆支架对应的左图像和右图像,利用已经标定好的双目立体相机的旋转矩阵和平移矢量,将拍摄的飞机线缆支架的左图像和右图像进行立体校正;
S2.2、利用高斯滤波的滤波方式对左图像和右图像进行图像平滑处理,采用canny算子提取飞机线缆支架的边缘,采用Harris检测飞机线缆支架的角点,得出飞机线缆支架在图像坐标系下的角点坐标;
S2.3、对提取到的边缘进行Hough line操作,提取飞机线缆支架的直线外边框;计算直线之间的偏移量,从而得到图像坐标系下飞机线缆支架中心点的坐标;
S2.4、对提取到的边缘进行Hough circle操作,提取飞机线缆支架的线缆安装孔外形,计算安装孔的半径尺寸;
S2.5、对左图像中的飞机线缆支架所有安装孔中心,分别在右图像上寻找对应的匹配点,利用极线约束,将飞机线缆支架的安装孔中心搜索压缩在一条直线上,减少搜索时间和降低误匹配;
S2.6、找到左右图像中的飞机线缆支架所有安装孔中心后,通过投影矩阵对安装孔中心进行三维重建,得到飞机线缆支架所有安装孔的三维位置,并计算各个安装孔之间的相对位置;
S2.7、对左右图像中的飞机线缆支架中心利用投影矩阵进行三维重建,得到其坐标为P;
S2.8、对左图像中的飞机线缆支架的所有角点,分别在右图像中寻找对应的匹配点,利用极线约束,将飞机线缆支架的安装孔中心搜索压缩在一条直线上,以角点为中心点计算固定窗口大小的灰度直方统计,统计相似度大的角点作为飞机线缆支架角点的辅助匹配;
S2.9、找到左右图像中的飞机线缆支架所有安装孔的角点后,利用投影矩阵进行三维重建,得到角点的三维坐标;对每个角点求角点到中心点P的距离,将得到的距离进行排序,寻找距离相近的四个点,用于获取真实飞机线缆支架的四个边界角点,去除非边界角点;
S2.10、利用获得的飞机线缆支架的边界角点三维坐标进行两两距离计算,将获得的计算结果进行排序,去除最高的两个计算结果,对剩下的四个计算结果接近程度大的两两求均值,获得飞机线缆支架的长宽尺寸;
S2.11、将飞机线缆支架长宽尺寸、安装孔位置以及安装孔尺寸生成结构化文件。
3.根据权利要求2所述的一种基于深度学习的飞机线缆支架种类识别和参数获取方法,其特征在于:S2.1中,首先需要对双目立体成像设备进行标定,在平台上放置棋盘格靶标,利用以基于Flask框架的Web人机交互界面,控制左右相机拍摄平台上棋盘格靶标,通过变换棋盘格靶标的位姿和角度,获得25组棋盘格靶标图像;利用Harris提取角点,求得H矩阵,最终求得双目立体成像设备的旋转矩阵和平移矢量和相对基线参数,对左右相机进行标定,获得其焦距畸变系数内参数,获得内参矩阵。
4.根据权利要求2所述的一种基于深度学习的飞机线缆支架种类识别和参数获取方法,其特征在于:S2.10中的具体实现过程如下,将飞机线缆支架的四个边界角点的三维坐标进行两两距离计算,将获得值进行冒泡排序,去除最高的两个值为支架对角线的距离值,对剩下的四个值选择距离值小于阈值Ω的距离求均值,分别得到飞机线缆支架的长宽尺寸。
5.根据权利要求1所述的一种基于深度学习的飞机线缆支架种类识别和参数获取方法,其特征在于:步骤S3包括,
S3.1、构建神经网络模型,使用ASSP作为浅层特征提取,在高层语义层采用卷积层进行特征卷积;
S3.2、将最终的特征张量进行模长归一化处理,将特征张量压缩至一个超球面,通过计算张量之间的角度差异用来作为分类依据;
S3.3、利用Image net数据集进行预训练,获得预训练权重的模型;
S3.4、制作飞机线缆支架的图像训练样本,利用相机固定支架对放置在飞机线缆支架放置平台上的不同种类的飞机线缆支架进行图像样本采集;
S3.5、为了充分考虑现场工况的影响,将飞机线缆支架的图像样本进行RGB-HSV色彩空间转换,对亮度进行预定范围内的随机调节后转为RGB图像;
S3.6、将RGB图像样本采用小范围随机旋转,添加高斯噪声,用来扩充图像样本集;
S3.7、将飞机线缆支架的图像样本集作为原始图像输入到神经网络模型中,采用使用Image net预训练后的模型作为权重初始化,利用飞机线缆支架的图像样本进行神经网络参数调整;
S3.8、神经网络模型模型收敛后,进行保存神经网络模型;使用时,将立体视觉平台左图像拍摄的图像作为输入,输入到保存好的神经网络模型中,得到当前飞机线缆支架放置平台上放置的飞机线缆支架的种类;
S3.9、将飞机线缆支架种类信息与飞机S2步骤中求出的飞机线缆支架参数信息进行整合,统一保存为结构化文件。
6.根据权利要求5所述的一种基于深度学习的飞机线缆支架种类识别和参数获取方法,其特征在于:S3.1中,使用VGG16作为基础网络,将第一、第二、第三层卷积转换为ASSP网络,剩下的特征提取层采用普通的卷积层进行特征提取,最后使用1*1的卷积核将其变换为4086*1*1的特征向量。
7.根据权利要求5所述的一种基于深度学习的飞机线缆支架种类识别和参数获取方法,其特征在于:S3.3中,将不同种类的飞机线缆支架固定在立体视觉平台上,分别利用Web前端人机交互界面控制分别控制左右相机进行拍摄,采集飞机线缆支架的图像样本。
8.根据权利要求1所述的一种基于深度学习的飞机线缆支架种类识别和参数获取方法,其特征在于:步骤S4中,将得到的飞机线缆支架参数和飞机线缆支架种类结构化文件路径保存保存到Mysql数据库当中。
9.根据权利要求8所述的一种基于深度学习的飞机线缆支架种类识别和参数获取方法,其特征在于:利用结构化文件中的当前飞机线缆支架的信息,匹配Mysql数据库中对应飞机线缆支架的信息,调用其安装工艺信息在显示在Web界面上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910434977.7A CN110110131B (zh) | 2019-05-23 | 2019-05-23 | 一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910434977.7A CN110110131B (zh) | 2019-05-23 | 2019-05-23 | 一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110110131A true CN110110131A (zh) | 2019-08-09 |
CN110110131B CN110110131B (zh) | 2021-04-13 |
Family
ID=67491985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910434977.7A Active CN110110131B (zh) | 2019-05-23 | 2019-05-23 | 一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110110131B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111028288A (zh) * | 2019-10-23 | 2020-04-17 | 淮安奇幻科技有限公司 | 一种基于深度学习技术的双目标定系统 |
CN111582237A (zh) * | 2020-05-28 | 2020-08-25 | 国家海洋信息中心 | 基于atsm模型的高分影像飞机类型识别方法 |
CN111597904A (zh) * | 2020-04-17 | 2020-08-28 | 许继集团有限公司 | 用于隧道电缆支架倾斜的识别方法 |
CN111767937A (zh) * | 2019-11-13 | 2020-10-13 | 杭州海康威视数字技术股份有限公司 | 目标检测模型训练方法、装置、电子设备及存储介质 |
CN113705591A (zh) * | 2020-05-20 | 2021-11-26 | 上海微创卜算子医疗科技有限公司 | 可读存储介质、支架规格识别方法及装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1758020A (zh) * | 2005-11-18 | 2006-04-12 | 北京航空航天大学 | 基于自适应正弦条纹投射的立体视觉检测系统 |
CN101261115A (zh) * | 2008-04-24 | 2008-09-10 | 吉林大学 | 空间圆几何参数的双目立体视觉测量方法 |
CN101308018A (zh) * | 2008-05-30 | 2008-11-19 | 汤一平 | 基于双目全方位视觉传感器的立体视觉测量装置 |
CN103454276A (zh) * | 2013-06-30 | 2013-12-18 | 上海工程技术大学 | 一种基于动态序列图像的织物形态风格评价方法 |
CN104281148A (zh) * | 2013-07-07 | 2015-01-14 | 哈尔滨点石仿真科技有限公司 | 基于双目立体视觉的移动机器人自主导航方法 |
CN104677330A (zh) * | 2013-11-29 | 2015-06-03 | 哈尔滨智晟天诚科技开发有限公司 | 一种小型双目立体视觉测距系统 |
CN106600581A (zh) * | 2016-12-02 | 2017-04-26 | 北京航空航天大学 | 一种基于双目立体视觉的列车运行故障自动检测系统及方法 |
CN107907048A (zh) * | 2017-06-30 | 2018-04-13 | 长沙湘计海盾科技有限公司 | 一种基于线结构光扫描的双目立体视觉三维测量方法 |
CN108010085A (zh) * | 2017-11-30 | 2018-05-08 | 西南科技大学 | 基于双目可见光相机与热红外相机的目标识别方法 |
CN109035193A (zh) * | 2018-08-29 | 2018-12-18 | 成都臻识科技发展有限公司 | 一种基于双目立体相机的成像处理方法及成像处理系统 |
US20190073793A1 (en) * | 2017-09-06 | 2019-03-07 | Samsung Electronics Co., Ltd. | Electronic apparatus, method for controlling thereof and the computer readable recording medium |
-
2019
- 2019-05-23 CN CN201910434977.7A patent/CN110110131B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1758020A (zh) * | 2005-11-18 | 2006-04-12 | 北京航空航天大学 | 基于自适应正弦条纹投射的立体视觉检测系统 |
CN101261115A (zh) * | 2008-04-24 | 2008-09-10 | 吉林大学 | 空间圆几何参数的双目立体视觉测量方法 |
CN101308018A (zh) * | 2008-05-30 | 2008-11-19 | 汤一平 | 基于双目全方位视觉传感器的立体视觉测量装置 |
CN103454276A (zh) * | 2013-06-30 | 2013-12-18 | 上海工程技术大学 | 一种基于动态序列图像的织物形态风格评价方法 |
CN104281148A (zh) * | 2013-07-07 | 2015-01-14 | 哈尔滨点石仿真科技有限公司 | 基于双目立体视觉的移动机器人自主导航方法 |
CN104677330A (zh) * | 2013-11-29 | 2015-06-03 | 哈尔滨智晟天诚科技开发有限公司 | 一种小型双目立体视觉测距系统 |
CN106600581A (zh) * | 2016-12-02 | 2017-04-26 | 北京航空航天大学 | 一种基于双目立体视觉的列车运行故障自动检测系统及方法 |
CN107907048A (zh) * | 2017-06-30 | 2018-04-13 | 长沙湘计海盾科技有限公司 | 一种基于线结构光扫描的双目立体视觉三维测量方法 |
US20190073793A1 (en) * | 2017-09-06 | 2019-03-07 | Samsung Electronics Co., Ltd. | Electronic apparatus, method for controlling thereof and the computer readable recording medium |
CN108010085A (zh) * | 2017-11-30 | 2018-05-08 | 西南科技大学 | 基于双目可见光相机与热红外相机的目标识别方法 |
CN109035193A (zh) * | 2018-08-29 | 2018-12-18 | 成都臻识科技发展有限公司 | 一种基于双目立体相机的成像处理方法及成像处理系统 |
Non-Patent Citations (3)
Title |
---|
ZHAOXUE CHEN ; MENGZHUO LI ; HAIZHONG YU: "A 3D Circular Object Detection Method Based on Binocular Stereo Vision", 《IEEE XPLORE》 * |
刘崇超: "空间翻滚非合作目标位姿及运动参数视觉识别技术研究", 《中国优秀硕士学位论文全文数据库》 * |
牛平月,郑联语,杨启龙: "基于双目视觉的管路快速检测技术研究与实现", 《航空精密制造技术》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111028288A (zh) * | 2019-10-23 | 2020-04-17 | 淮安奇幻科技有限公司 | 一种基于深度学习技术的双目标定系统 |
CN111028288B (zh) * | 2019-10-23 | 2023-12-26 | 深圳市聚业自动化技术有限公司 | 一种基于深度学习技术的双目标定系统 |
CN111767937A (zh) * | 2019-11-13 | 2020-10-13 | 杭州海康威视数字技术股份有限公司 | 目标检测模型训练方法、装置、电子设备及存储介质 |
CN111597904A (zh) * | 2020-04-17 | 2020-08-28 | 许继集团有限公司 | 用于隧道电缆支架倾斜的识别方法 |
CN111597904B (zh) * | 2020-04-17 | 2023-07-18 | 许继集团有限公司 | 用于隧道电缆支架倾斜的识别方法 |
CN113705591A (zh) * | 2020-05-20 | 2021-11-26 | 上海微创卜算子医疗科技有限公司 | 可读存储介质、支架规格识别方法及装置 |
CN111582237A (zh) * | 2020-05-28 | 2020-08-25 | 国家海洋信息中心 | 基于atsm模型的高分影像飞机类型识别方法 |
CN111582237B (zh) * | 2020-05-28 | 2022-08-12 | 国家海洋信息中心 | 基于atsm模型的高分影像飞机类型识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110110131B (zh) | 2021-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110110131A (zh) | 一种基于深度学习与双目立体视觉的飞机线缆支架识别与参数获取方法 | |
CN108470339A (zh) | 一种基于信息融合的重叠苹果视觉识别与定位方法 | |
WO2017128605A1 (zh) | 一种教育玩具套件及其基于hsv的魔方颜色识别方法 | |
CN107483906B (zh) | 图像的白平衡处理方法、装置和终端设备 | |
US8787666B2 (en) | Color analytics for a digital image | |
EP1800259A1 (en) | Image segmentation method and system | |
CN101882034A (zh) | 触摸装置的触摸笔颜色识别装置及方法 | |
CN109360163A (zh) | 一种高动态范围图像的融合方法及融合系统 | |
CN105678245A (zh) | 一种基于哈尔特征的靶位识别方法 | |
CN104504722B (zh) | 一种利用灰色点校正图像颜色的方法 | |
CN110207951A (zh) | 一种基于视觉的飞机线缆支架装配状态检测方法 | |
CN103914708A (zh) | 基于机器视觉的食品品种检测方法及系统 | |
CN105374051B (zh) | 智能移动终端防镜头抖动视频运动目标检测方法 | |
CN109461186A (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
JPH0862741A (ja) | 階調補正装置 | |
CN111131723A (zh) | 一种瓷砖图像采集方法及系统 | |
CN110348505A (zh) | 车辆颜色分类模型训练方法、装置和车辆颜色识别方法 | |
CN116862900A (zh) | 一种大葱育秧播种质量检测方法 | |
Aghaei et al. | A flying gray ball multi-illuminant image dataset for color research | |
CN110674737B (zh) | 一种虹膜识别的增强方法 | |
CN113439870A (zh) | 一种雪茄烟外观分类方法及装置 | |
CN113132700A (zh) | 一种调节投影机对比度的方法及系统 | |
CN108833875A (zh) | 一种自动白平衡校正方法 | |
CN109285151B (zh) | 一种ai智能调光方法 | |
CN111178229A (zh) | 一种基于深度学习的静脉显像方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |