CN105424724A - 基于主动式全景视觉的火炮內膛疵病检测装置及方法 - Google Patents

基于主动式全景视觉的火炮內膛疵病检测装置及方法 Download PDF

Info

Publication number
CN105424724A
CN105424724A CN201510689977.3A CN201510689977A CN105424724A CN 105424724 A CN105424724 A CN 105424724A CN 201510689977 A CN201510689977 A CN 201510689977A CN 105424724 A CN105424724 A CN 105424724A
Authority
CN
China
Prior art keywords
artillery
inner bore
panoramic
image
defects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510689977.3A
Other languages
English (en)
Other versions
CN105424724B (zh
Inventor
汤一平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201510689977.3A priority Critical patent/CN105424724B/zh
Publication of CN105424724A publication Critical patent/CN105424724A/zh
Application granted granted Critical
Publication of CN105424724B publication Critical patent/CN105424724B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

本发明公开了一种基于主动式全景视觉的火炮內膛疵病检测装置,利用沿火炮內膛爬行的主动式全景视觉传感器,采集火炮內膛全景图像和火炮內膛激光切片扫描全景图像;并在火炮內膛检测分析系统内对火炮內膛的进行3D模型,提取火炮內膛图像中带有疵病的区域,并进行疵病识别分类处理,量化疵病区域的大小与深浅,最终对疵病的等级作出精准的判定。本发明还公开了一种基于主动式全景视觉的火炮內膛疵病检测方法。本发明能够提高火炮内膛检测自动化和智能化水平,对火炮内膛缺陷进行高精度的自动分析和评估,实现火炮内膛的三维建模。

Description

基于主动式全景视觉的火炮內膛疵病检测装置及方法
技术领域
本发明涉及爬行器、全景激光光源、全方位视觉传感器、无线传输以及计算机视觉技术在火炮內膛疵病检测中的应用,具体涉及一种基于主动式全景视觉的火炮內膛疵病检测装置及方法。
背景技术
火炮长期使用后,内膛会出现烧蚀、磨损、裂纹、阳线断裂、严重挂铜与锈蚀等疵病,直接影响到火炮射击精度、火炮寿命和射击安全性,因而火炮射击前后都必须进行火炮内膛窥测。按照《GJB2977A—2006火炮静态检测方法》的规定,在部队实际使用和生产过程中应对身管内壁形貌的破坏情况进行定量测量,这对掌握火炮的精度、初速、射速、寿命等战术技术指标的变化和射击安全性进行评价具有重要的作用。
火炮内膛窥测属于深孔内表面的检测,必须通过检测仪器来窥测。现有窥膛设备多数采用CCTV来进行“内膛扫描”式窥膛方式,这种检测方式需要图像拼接,存在着无缝拼接难、进行视觉自动分析难等问题。
在国军标GJB2977A-2006火炮静态检测方法中,总共给出了14类身管内膛疵病。其中,内膛表面机械损伤、阳线磨损可分为若干种疵病情况,而小烧蚀、中烧蚀网和大烧蚀网等几类疵病又各分为3个损伤等级。在14类疵病中,内膛表面加工疵病等6类疵病损伤特征比较明显,各类疵病的差异较大,从疵病的位置、几何形状或颜色等特征,人眼很容易识别和判断;而小烧蚀等8类疵病,损伤特征有相似之处,每一类又分为3个损伤等级,而且每个损伤等级之间并没有明显的界限。国军标GJB2977A-2006对身管疵病的检测项目虽然有疵病深度的检测要求,但对检测标准、精度和方法都没有具体要求。目前,试验鉴定单位普遍采用塑泥将疵病形状拓下再利用其它工具完成测量。由于火炮身管狭长,使其检测非常困难且测量精度完全取决于拓块质量的好坏;因此,火炮的研制和使用部门曾尝试用超声波、涡流等方法对身管内壁疵病深度进行定量检测,但由于炮膛空间、疵病成因、形状尺寸等方面的制约,检测效果均不太理想。
在众多火炮身管内膛疵病中,有些疵病如阳线磨损、机械划伤、小烧蚀网等,即使长度、面积比较大,对于火炮的性能和安全性也不会造成严重影响;而有些疵病如阳线断脱、烧蚀沟、龟裂、冲凹等,即使面积不大,当达到一定深度时也会对火炮的结构完整性、刚度和强度造成严重影响,而且疵病越深,其扩展速度越快。如果不能及时准确地对疵病做出判断和处理,可能会导致炮弹卡滞、膛炸、弹道偏离等现象的发生,对火炮的使用安全和射击精度造成重大影响。并且随着高膛压、高初速新型火炮的出现,这类疵病的影响和危害程度越发严重。因此,及时准确地获取疵病的深度信息显得尤为重要。
中国发明专利申请号为94110155.X公开了火炮内膛疵病自动检查装置,该专利包括检测部分和控制与数据处理部分,检测部分由图象传感器和检测架组成,控制与数据处理部分由模数转换器、数据采集、缓存器和计算机系统等构成。该装置为全面、精确、定量的认识火炮膛内表面状况及变化规律提供了可能,改变了以往靠目视估测的低准确度方法。这种技术主要存在的问题是,需要额外的镜头控制系统不断调整摄像系统的位置与角度来获取火炮内膛的全景图像信息,并且要从这些图像信息进行三维重构及三维检测是极其困难的,另外,需要相关的技术人员根据这些检测录像,进行火炮内膛状况的判读与分析,从严格意义上讲,这类技术仅仅是获取了火炮内膛的图像信息。
目前,基层分队对高炮身管疵病检查主要通过光学窥膛镜依靠目测进行,仅能判断身管内是否有异物、锈蚀等明显的疵病,不能进行定量测量,自动化程度低,不易推广使用。
光学精密工程杂志2010年第18卷第10期的论文题目为火炮身管疵病深度测量系统,提出了一种新的基于等效多基线立体成像的疵病深度测量方法。该方法通过疵病特征提取和疵病图像立体匹配处理,获取疵病深度图像的输出,从而得到疵病深度值。这种基于视觉的测量方式属于被动式视觉测量,测量的鲁棒性存在着一些问题。
兵工学报杂志2015年第36卷第4期的论文题目为数字式高炮身管疵病探测仪的设计,应用光机电控制技术和CCD成像技术,结合炮膛结构特点设计了高炮身管疵病探测仪。该设计通过9个摄像头组合,实现了360度全景成像,观察内膛表面形貌,对身管内膛表面进行定性及定量检测,具有疵病自动定位、疵病类型自动比对、大小自动测量等功能。由于该技术成像原理属于透视成像,因此存在着无缝拼接难、进行3D视觉测量难问题。另外,在检测时要求检测装置必须对中,而且在检测不同管径的身管时需要调整检测算法,检测装备的鲁棒性、适用性欠佳。
综上所述,目前利用CCTV法进行火炮内膛检测时存在着以下的缺陷和不足:首先,摄像机所拍摄的范围有限,只能获取火炮内膛某一部分的图像,为了获取火炮内膛所有图像,需要不断改变摄像机的视角;另外,目前还只能靠检测人员用眼睛通过所获取火炮内膛的图像来判断表面是否存在缺陷,一般人眼只能察觉尺寸变化达±10%以上的图像变异,难以实现火炮内膛检测的精准自动化和智能化;其次,目前的火炮内膛图像获取方法导致了难以对缺陷的尺寸以及具体位置作定量的测量和分析,仍然依靠观察监视屏的工作人员的经验来判断,难以对火炮内膛的缺陷进行高精度的自动分析和评估,自动地将火炮内膛疵病分为14种不同类型;最后,火炮内膛的三维建模困难,难以用三维数据方式再现火炮内膛的详细情况。
发明内容
为了克服已有的CCTV法的自动化和智能化水平低、难以对火炮内膛的缺陷进行高精度的自动分析和评估、火炮内膛三维建模困难等不足,本发明提供一种基于主动式全景视觉的火炮內膛疵病检测装置及方法,能够提高火炮内膛检测自动化和智能化水平,对火炮内膛缺陷进行高精度的自动分析和评估,实现火炮内膛的三维建模。
要实现上述发明内容,必须要解决几个核心问题:(1)实现一种适合火炮內膛内进行稳定行走的爬行机构;(2)实现一种具有无线视频图像传输能力、并能快速并高精度获得实际物体深度信息的主动式全景视觉传感器;(3)采用计算机视觉技术对火炮內膛内自动疵病检测和三维重建方法。
本发明解决其技术问题所采用的技术方案是:
一种基于主动式全景视觉的火炮內膛疵病检测装置,包括主动式全景视觉传感器和火炮內膛检测分析系统;
所述的主动式全景视觉传感器,沿火炮內膛爬行并用于采集火炮內膛全景图像和火炮內膛激光切片扫描全景图像;
所述的火炮內膛检测分析系统包括:
全方位面激光信息解析单元,用于对火炮內膛激光切片扫描全景图像进行解析处理得到火炮內膛的点云数据、激光投影信息并计算出空间位置信息,得到火炮內膛边缘线;
火炮內膛3D建模单元,用于对所述的点云数据进行拼接和纹理映射处理得到火炮內膛的3D模型;
全景视频图像展开单元,用于对火炮內膛全景图像进行展开处理得到火炮內膛全景展开图;
膛线图像处理单元,用于对火炮內膛全景展开图进行火炮內膛阴阳线灰度值均匀化处理,得到灰度连续的火炮內膛全景展开图;
图像分割单元,利用最优阈值算法对灰度连续的火炮內膛全景展开图进行处理,提取出火炮內膛图像中带有疵病的区域;
内膛的疵病分类单元,用改进遗传算法和支持向量机算法对标有疵病的区域的火炮內膛图像进行疵病识别分类处理得到疵病的识别类型信息;
以及内膛的疵病量化处理单元,用于对疵病的识别类型进行量化处理得到疵病区域的大小与深浅量化指标,最终对疵病的等级作出精准的判定。
进一步优选的,所述的主动式全景视觉传感器包括:
全方位视觉传感器,用于采集火炮內膛全景图像和火炮內膛激光切片扫描全景图像;
LED带光源,用于为火炮內膛全景图像的采集提供照明;
全景激光光源,用于为火炮內膛激光切片扫描全景图像的采集提供全景激光照明。
其中,所述内膛的疵病量化处理单元包括:
疵病深度计算模块,用于计算火炮內膛疵病的深度信息;
疵病面积计算模块,用于计算火炮內膛疵病区域的面积;
疵病周长和圆形度计算模块,用于计算火炮內膛疵病区域的周长和圆形度;
疵病最小外接矩形计算模块,用于计算火炮內膛疵病区域的最小外接矩形、最大主轴长度、最小主轴长度和角度。
本发明还提供了一种基于主动式全景视觉的火炮內膛疵病检测方法,包括以下步骤:
1)采用沿火炮內膛爬行的主动式全景视觉传感器,采集火炮內膛全景图像和火炮內膛激光切片扫描全景图像;
2)在火炮內膛激光切片扫描全景图像进行解析处理得到火炮內膛的点云数据、激光投影信息并计算出空间位置信息,得到火炮內膛边缘线;
3)对所述的点云数据进行拼接和纹理映射处理,建立火炮內膛的3D模型;
4)对火炮內膛全景图像进行展开处理得到火炮內膛全景展开图,并对所述的火炮內膛全景展开图进行火炮內膛阴阳线灰度值均匀化处理,得到灰度连续的火炮內膛全景展开图;
5)利用最优阈值算法对灰度连续的火炮內膛全景展开图进行处理,提取出火炮內膛图像中带有疵病的区域;
6)采用改进遗传算法和支持向量机算法对标有疵病的区域的火炮內膛图像进行疵病识别分类处理得到疵病的识别类型信息;
7)对疵病的识别类型进行量化处理得到疵病区域的大小与深浅量化指标,最终对疵病的等级作出精准的判定。
优选的,在所述的步骤2)中,根据激光投射点的像素的亮度要大于成像平面上的平均亮度,以解析出火炮內膛激光切片扫描全景图像上的激光投射点;为得到激光投射线的准确位置,采用高斯近似方法来抽取出激光投射线的中心位置,具体实现算法是:
Step1:设置初始方位角β=0;
Step2:在火炮內膛激光切片扫描全景图像上以方位角β从火炮內膛激光切片扫描全景图像的中心点开始检索红色激光投射点,对于方位角β上存在着若干个连续的红色激光投射的像素,这里选择HIS颜色空间中的I分量,即亮度值接近最高值的三个连续像素通过高斯近似方法来估算激光投射线的中心位置;具体计算公式为
d = ln ( f ( i - 1 ) ) - l n ( f ( i + 1 ) ) 2 × [ l n ( f ( i - 1 ) ) - 2 l n ( f ( i ) ) + l n ( f ( i + 1 ) ) ]
式中,f(i-1)、f(i)和f(i+1)分别为三个相邻像素接近最高亮度值的亮度值,d为修正值,i表示从图像中心点开始的第i个像素点;因此估算得到的激光投射线的中心位置为(i+d),该值对应于p(u',v');
Step3:从全景图像上的点p(u',v')获得该点光束高度r和角度r';计算出爬行器沿火炮內膛轴向方向上的爬行距离Zm和方位角β'=β情况下在火炮內膛上的激光投射点到主动式全景视觉传感器的中心轴线之间的距离PR;得到该激光投射点的空间坐标位置值;
z = Z m y = P R × s i n β x = P R × cos β
式中,Zm为爬行器沿火炮內膛纵向方向上的爬行距离,PR为沿火炮內膛纵向方向上的位置Zm和方位角β'=β情况下在火炮內膛上的激光投射点到主动式全景视觉传感器的中心轴线之间的距离,x,y,z分别为激光投射点的空间点云数据坐标值,β为方位角;
Step4:改变方位角继续检索激光投射点,即β=β+Δβ,Δβ=0.36;
Step5:判断方位角β=360,如果成立,检索结束;反之转到Step2。
优选的,在所述的步骤3)中,为了对火炮內膛进行3D建模,需要对驱动着主动式全景视觉传感器的爬行器的运动进行估计,在某一空间点对火炮內膛进行3D测量后,随着爬行器的爬行对下一个测量点对火炮內膛进行3D测量,然后将各个横断面的3D测量结果进行拼接,并进行纹理映射,完成火炮內膛的自动3D建模。
优选的,在所述的步骤4)对火炮內膛全景图像进行展开处理的具体过程为:
根据火炮內膛全景图像的中心坐标以及图像的内外圆半径,将中心坐标设定平面坐标系的原点O**(0,0)、X*轴、Y*轴、全景图像的内径为r、外径为R,用r1=(r+R)/2设定中间圆的半径,方位角为β=tan-1(y*/x*);全景柱状展开图像以坐标原点O**(0,0)、X**轴、Y**轴为平面坐标系,将全景图像中的内径为r与X*轴的交点(r,0)作为坐标原点O**(0,0),以方位角β顺时针方向展开;建立全景柱状展开图像中任意一点象素坐标P**(x**,y**)与全景图像中的象素坐标Q*(x*,y*)的对应关系,其计算式为:
x*=y*/(tan(360x**/π(R+r)))
y*=(y**+r)cosβ
式中,x**,y**为全景柱状展开图像的象素坐标值,x*,y*为全景图像的象素坐标值,R为圆形全景图像的外径,r为圆形全景图像的内径,β为圆形全景图像坐标的方位角。
优选的,在所述的步骤5)中,利用最优阈值算法从膛线处理后的全景图像中提取出火炮內膛疵病区域,最优阈值计算公式为
T = μ 1 + μ 2 2 + σ 2 μ 1 - μ 2 l n ( p 2 ( t ) p 1 ( t ) )
式中,μ1和μ2分别是疵病和火炮內膛区域的灰度平均值,σ是关于均值的标准差,p1(t)和p2(t)分别是疵病和火炮內膛两种灰度的先验概率。
优选的,在所述的步骤6)中,火炮内膛疵病分类识别步骤为:
STEP1)对具有代表性的42种疵病的特征参数进行归一化处理,形成样本集合;
STEP2)用改进遗传算法进行参数优化;
STEP3)将优化得到的参数带入支持向量机分类算法,得到相应的分类模型;
STEP4)利用建好的分类模型对对提取出火炮內膛疵病区域的全景图像进行分类识别;
支持向量机算法的分类精度由惩罚参数C1和核参数σ1决定,在所述STEP3)中遗传算法的惩罚参数C1和核参数σ1进行优化;其算法流程为:
步骤1)对惩罚参数C1和核参数σ1进行二进制编码;
步骤2)建立每个个体都有两个变量的随机种群作为初始种群;
步骤3)根据惩罚参数C1和核参数σ1训练分类模型,得出的疵病分类准确率η1作为适应度函数;
步骤4)采用最优保存策略,运用选择自适应交叉和自适应变异算子作用于群体,得到新群体;检查每个个体是否满足计算要求或迭代次数要求;如果不满足计算要求或迭代次数要求,则返回步骤3)继续进化;如果满足则算法停止,并输出最优结果。
优选的,在步骤7)中,具体包括计算火炮內膛疵病的深度信息,火炮內膛疵病区域的面积、周长和圆形度,以及火炮內膛疵病区域的最小外接矩形、最大主轴长度、最小主轴长度和角度。
本发明的有益效果主要表现在:
1)提供了一种高性价比的、轻型的、能快速并高精度获得实际物体深度信息的主动式全景视觉传感器;与火炮內膛检测分析系统配合实现了“采集-识别-判定”全过程的自动运行,真正实现了窥膛检测的自动化;
2)提供了一种小型化、无线化的火炮內膛疵病自动检测的手段,极大的降低了火炮內膛疵病检测的工作负荷,提高了检测效率;
3)实现了对火炮內膛各种类型疵病较为全面的分析,为身管质量评定提供系统的指标,构建了一种完整的疵病评定体系,包括疵病评定标准知识库、疵病评定规则、疵病特征的语义描述与疵病图像特征之间的映射关系等;
4)实现了一种对火炮內膛进行边检测、边识别、边三维建模,实现了火炮內膛三维检测可视化。
附图说明
图1为一种全方位视觉传感器的结构图;
图2为凹面镜反射成像原理图;
图3为凹圆弧镜面的正视图;
图4为全景激光光源的结构图;
图5为一种主动式全景视觉传感器的结构图;
图6为主动式全景视觉传感器获取的激光投射全景图;
图7为一种微型无线主动式全景视觉传感器进行火炮內膛检测的总体宏观示意图;
图8为通过SFM算法确定火炮內膛爬行器的运动轨迹及3D建模的流程图;
图9为主动式全景视觉传感器的运动估计处理流程图;
图10为火炮內膛的横截面图;
图11为全方位传感器的成像原理图;
图12为火炮內膛的三维重构的结果;
图13为某一段火炮內膛的全景展开图像;
图14为主动式全景视觉传感器的视觉测量原理图。
具体实施方式
下面结合附图对本发明的火炮內膛疵病检测装置作进一步详细描述。
实施例1
参照图1~14,一种基于主动式全景视觉的火炮內膛疵病检测装置,包括爬行机构101、动力传动机构102、视觉检测设备103和火炮內膛检测分析系统。
爬行机构101由动力传动机构102驱动,爬行机构101携带着视觉检测设备103在火炮内膛爬行,视觉检测设备103在爬行过程中采集火炮內膛的视频图像,采集后的视频图像通过无线通信单元发送给火炮內膛检测分析系统,在火炮內膛检测分析系统中进行疵病自动检测、火炮內膛的三维重建,最后将检测结果和火炮內膛的三维重建显示在显示设备上。
爬行机构101位于火炮內膛疵病检测装置的中部,如图7所示,分为前后两组,前组起导向,后组为驱动;爬行机构具有足够摩擦力,防止在内膛打滑,由弹簧刚度保证;爬行脚具有一定宽度,确保在阳线上直线爬行,采用耐磨橡胶轮,以减小对炮膛内壁的磨损。
动力传动机构102位于火炮內膛疵病检测装置的后部,采用步进电机为动力源,经齿轮传动后,将动力传递给爬行脚,以驱动爬行机构101在内膛爬行。
视觉检测设备103主要包括无线通信单元、主动式全景视觉传感器和电源。
火炮內膛检测分析系统主要分为系统软硬件,系统硬件主要包括无线通信单元、计算单元、存储单元和显示单元;系统软件主要包括全景视频图像接收单元、全方位面激光信息解析单元、火炮內膛3D建模单元、全景视频图像展开单元、膛线图像处理单元、图像分割单元、内膛的疵病分类单元、内膛的疵病量化处理单元、疵病面积的计算单元、疵病周长和圆形度计算单元和疵病最小外接矩形计算单元。
主动式全景视觉传感器主要包括全方位视觉传感器、LED带光源和全景激光光源;
如图1所示,全方位视觉传感器包括凹圆弧镜面2、凹圆弧镜面盖1、透光玻璃3、固定螺钉4、外罩5和摄像单元7。凹圆弧镜面的轴心线上开有一个螺纹孔,透光玻璃的中心开有一个小孔,外罩由两个半圆柱型相合而成,半圆柱型上的雌雄扣相配合。装配时首先将透光玻璃嵌入到一个半圆柱型的外罩中,然后对准两半圆柱型的雌雄扣,并在其各自外壁上施加外力使其合成为一个固定了透光玻璃的外罩;外罩下部开有一个摄像镜头孔;接着用固定螺钉穿过透光玻璃的小孔与凹圆弧镜面上的螺纹孔进行连接;摄像单元的镜头固定在外罩摄像镜头孔中;凹圆弧镜面盖中心开有一个小孔8。
如图4所示,全景激光光源包括圆锥形镜面11、透明外罩12、圆圈形激光发射器13和底座14,圆圈形激光发射器固定在底座上,圆圈形激光发射器的发射光轴心线与底座轴心线一致,圆锥形镜面固定在透明外罩的一端,固定着圆圈形激光发射器的底座固定在透明外罩的另一端;圆圈形激光发射器发射出来的圆圈激光通过圆锥形镜面的反射产生垂直于轴心线的全景激光;圆锥形镜面的背面开有一个螺纹孔15。
全方位视觉传感器和全景激光光源的固定连接步骤是:螺钉穿过的凹圆弧镜面盖上的小孔8后对准圆锥形镜面的背面的螺纹孔15并旋紧;然后将凹圆弧镜面盖1与凹圆弧镜面2进行搭扣连接;通过上述连接将全方位视觉传感器和全景激光光源装配成主动式全景视觉传感器,如图5所示。
折反射镜面的垂直剖面设计为凹圆弧曲线,如图2所示,根据光学反射原理,得到以下几个公式;
α = θ + r ′ - π 2 - - - ( 1 )
δ=2θ+r'-π(2)
θ = a r c s i n ( r R ) - - - ( 3 )
δ = 2 a r c s i n ( r R ) + r ′ - π - - - ( 4 )
式中,r为入射光束的高度,r'为入射光束的角度,δ为反射光束的角度,R为反射镜面的圆弧半径,α为入射光束的入射角,θ为反射镜面圆弧曲线的切线角;对于选定的固定焦距的摄像机,反射光束的角度δ只有在一个固定的范围内才能在成像芯片上成像;也就是说,入射光束的高度和角度只有满足一定条件才能在成像芯片上成像。
全方位视觉传感器的折反射镜面是将凹圆弧的曲线环绕对称轴一周而形成的,如图11所示;这种设计便于塑料模具成型加工,全景成像的畸变小,垂直成像范围接近90°,并且成像焦距短;这些特性非常适合于火炮內膛的视觉检测。
基于上述全景成像几何关系,下面研究全方位视觉传感器的标定问题;标定的目的是从成像平面上的点p(u',v')上找出入射光束的高度r和入射光束的角度的r'对应关系。
本发明中将实际物理空间坐标系建立在全景激光光源的轴心线与垂直于轴心线的全景激光的交点,坐标值分别用X、Y、Z表示,如图14所示;全景图像坐标系建立在全景图像的中心,坐标值分别用u、v表示,如图11所示;折反射镜面的坐标系建立在凹圆弧的中心,坐标值分别用X'、Y'表示,如图14所示。
全景激光投射到火炮內膛上的点P(x,y,z)经全方位视觉传感器的凹圆弧镜面反射在成像平面上成像,得到带有全景激光信息的全景图像;根据标定结果,从全景图像上的点p(u',v')获得该点光束高度r和角度r';为了对火炮內膛进行3D测量,需要对全方位视觉传感器进行标定,标定的目的是从成像平面上的点p(u',v')上找出入射光束的高度r和入射光束的角度的r'对应关系;
r=f(p(u',v'))
(5)
r'=g(p(u',v'))
式中,p(u',v')是全景成像平面上的一个点,r为入射光束的高度,r'为入射光束的角度,f(…)和g(…)分别表示函数关系。
为了计算出火炮內膛上的点P(x,y,z)空间坐标值,这里将实际空间坐标系建立在全景激光投射面与对称轴的交点上,建立圆柱形坐标系;根据设计,凹圆弧镜面的圆弧中心O(B,-H),其中B为凹圆弧镜面的圆弧中心到圆柱形坐标系轴线的距离,H为凹圆弧镜面的圆弧中心到全景激光投射面的垂直距离;根据几何关系用公式(6)计算火炮內膛上的点到坐标系原点的距离PR
P R = [ H - r + ( B - R 2 - r 2 ) tanr ′ ] tanr ′ - - - ( 6 )
式中,H为凹圆弧镜面的圆弧中心到全景激光投射面的垂直距离,B为凹圆弧镜面的圆弧中心到圆柱形坐标系轴线的距离,r为全景激光在火炮內膛上的反射光束在凹圆弧镜面的高度,r'为全景激光在火炮內膛上的反射光束的角度,R为凹圆弧镜面的曲率半径。
基于主动式全景视觉的火炮內膛疵病检测原理是:爬行机构由动力传动机构驱动,爬行机构携带着视觉检测设备在火炮内膛爬行,视觉检测设备在爬行过程中采集火炮內膛的全景视频图像,其中包括了火炮內膛全景图像和火炮內膛激光切片扫描全景图像;采集后的两种全景视频图像通过无线通信单元发送给火炮內膛检测分析系统,在火炮內膛检测分析系统中进行疵病自动检测、火炮內膛的三维重建,最后将检测结果和火炮內膛的三维重建显示在显示设备上。
全景视频图像接收单元,用于接收从视觉检测设备发送过来的火炮內膛全景视频图像。根据LED带光源照射得到的是火炮內膛全景图像,根据全景激光光源照射得到的是火炮內膛激光切片扫描全景图像;由于在火炮內膛全景图像上缺少深度信息,在火炮內膛激光切片扫描全景图像上缺少纵向纹理信息;因此在对火炮內膛疵病进行解析和识别时,尤其是对疵病等级进行量化处理时需要融合上述两种信息;这里将接收单元接收到的火炮內膛激光切片扫描全景图像用爬行器的爬行距离Zm+LASER为文件名保存在存储单位中,将火炮內膛全景图像用爬行距离Zm为文件名保存在存储单位中。
从机器视觉角度来进行火炮內膛的视觉检测主要由两种不同的图像进行分析,一种是对火炮內膛全景展开图进行解析和识别,另一种是对火炮內膛激光切片扫描图进行解析和识别;在实际检测过程中,主动式全景视觉传感器由爬行器牵引在火炮內膛移动,随着爬行器沿火炮內膛轴线爬行,全景激光光源为火炮內膛提供火炮內膛断截面全景扫描光,全方位视觉传感器获取全景激光扫描的切片图像;图10所示的是火炮內膛横截面图像,在火炮內膛圆周上均匀分布着阳线和阴线。
进一步,需要在全景激光扫描的切片图像上解析出激光投影位置信息;本发明将上述处理过程称为全景激光截面法;
在全景激光截面法中,为了有效地获取全景扫描光线投射到火炮內膛的图像信息,当使用全景扫描光线时,将LED带光源的开关设置为OFF,即关闭所有LED的照明;全景扫描光线投射到火炮內膛上后再成像平面上会产生一条封闭的曲线,采用全方位面激光信息解析模块以方位角β遍历全景图得到全景扫描光线在火炮內膛上的空间坐标位置;本发明中全景扫描光线的颜色为红色;为了对火炮內膛上的点进行空间测量,这里建立了两个坐标系,如附图6所示,一个是固定坐标系,是建立在所述的爬行器放入火炮內膛后开始爬行前的空间位置;另一个是移动坐标系,是建立在所述的全景激光发射面与圆柱形坐标系轴线的交点;假设所述的爬行器是沿火炮內膛直线移动的,那么这两个坐标系之间的关系用公式(7)进行计算,
Z = Z 0 + Z m Y = Y 0 X = X 0 - - - ( 7 )
式中,X,Y,Z为移动坐标系的三个空间分量,X0,Y0,Z0为固定坐标系的三个空间分量,Zm为爬行器沿火炮內膛轴向方向上的爬行距离。
全方位面激光信息解析单元,用于对火炮內膛激光切片扫描全景图像进行解析处理得到火炮內膛的点云数据;在火炮內膛激光切片扫描全景图像上解析出激光投影信息并计算出空间位置信息,最终得到火炮內膛边缘线;解析在火炮內膛激光切片扫描全景图像上的红色激光投射点的方法是根据红色激光投射点的像素的亮度要大于成像平面上的平均亮度,首先是将全景图的RGB颜色空间转化成HIS颜色空间,然后将成像平面上的平均亮度的1.2倍作为提取红色激光投射点的阈值,为了得到激光投射线的准确位置,本发明采用高斯近似方法来抽取出激光投射线的中心位置,具体实现算法是:
Step1:设置初始方位角β=0;
Step2:在火炮內膛激光切片扫描全景图像上以方位角β从火炮內膛激光切片扫描全景图像的中心点开始检索红色激光投射点,对于方位角β上存在着若干个连续的红色激光投射的像素,这里选择HIS颜色空间中的I分量,即亮度值接近最高值的三个连续像素通过高斯近似方法来估算激光投射线的中心位置;具体计算方法由公式(8)给出,
d = ln ( f ( i - 1 ) ) - ln ( f ( i + 1 ) ) 2 × [ ln ( f ( i - 1 ) ) - 2 ln ( f ( i ) ) + ln ( f ( i + 1 ) ) ] - - - ( 8 )
式中,f(i-1)、f(i)和f(i+1)分别为三个相邻像素接近最高亮度值的亮度值,d为修正值,i表示从图像中心点开始的第i个像素点;因此估算得到的激光投射线的中心位置为(i+d),该值对应于p(u',v');
Step3:根据标定结果,从全景图像上的点p(u',v')获得该点光束高度r和角度r';根据火炮內膛激光切片扫描全景图像数据的文件名的信息,即以爬行距离Zm+LASER为文件名的形式,得到爬行器沿火炮內膛轴向方向上的爬行距离Zm,然后用公式(6)计算出爬行器沿火炮內膛轴向方向上的爬行距离Zm和方位角β'=β情况下在火炮內膛上的激光投射点到主动式全景视觉传感器的中心轴线之间的距离PR;最后用公式(9)计算该激光投射点的空间坐标位置值;
z = Z m y = P R × s i n β x = P R × cos β - - - ( 9 )
式中,Zm为爬行器沿火炮內膛纵向方向上的爬行距离,PR为沿火炮內膛纵向方向上的位置Zm和方位角β'=β情况下在火炮內膛上的激光投射点到主动式全景视觉传感器的中心轴线之间的距离,x,y,z分别为激光投射点的空间点云数据坐标值,β为方位角;
Step4:改变方位角继续检索激光投射点,即β=β+Δβ,Δβ=0.36;
Step5:判断方位角β=360,如果成立,检索结束;反之转到Step2。
火炮內膛3D建模单元,用于对解析处理得到火炮內膛的点云数据进行拼接和纹理映射处理得到火炮內膛的3D模型;为了对火炮內膛进行3D建模,需要对驱动着主动式3D立体全景视觉传感器的爬行器的运动进行估计;这里将检测坐标系建立在全景激光投射面与对称轴的交点上,使用SFM算法,即运动的结构重建算法,对爬行器的运动进行估计,得到测量点坐标变换的信息。
具体火炮內膛3D建模过程如下:首先,全方位视觉传感器获得其运动过程中的全方向图像序列;然后利用SFM算法提取和跟踪特征点,以获得全方向图像序列中的相对应点;接着用线性估计方法估计爬行器的运动,主要利用对应点在每个观测点拍摄的两个图像的位置;最后为了更精确地估计爬行器的运动,用非线性估计方法重新估算爬行器的运动。
特征点的提取和跟踪:为了在全方位图像序列中获得图像之间的对应点,首先在第一帧图像中提取特征点,然后沿着图像序列跟踪这些特征点;跟踪特征点采用SIFT算法,即尺度不变特征变换算法;然而,实际上全方位图像的畸变和投影畸变会影响对应特征点采集和跟踪;这是因为现有的SIFT算法是一种全局的算法,全景视觉在全局范围内难以保证尺度不变特征变换条件,从而导致了误跟踪;为了提高SIFT算法的跟踪精度,这里根据爬行器在火炮內膛中的运动特征,将对应特征点采集和跟踪规定在一个局部范围内,即通过划分跟踪扇区方法;该方法是基于在全方位图像序列中的两帧之间相对应点的空间位置是不会发生突变的假设,爬行器在前行过程中,相对应点是在某一个扇区范围内从全景图像的外圈向图像中心方向移动的,或者是从图像中心向全景图像的外圈方向移动的;有了扇区约束条件来提高SIFT算法的跟踪精度;具体实现方法是:在第N帧图像中提取特征点,然后在第N+1帧图像中的同一扇区内跟踪同一特征点。
爬行器的运动估计:为了估计爬行器的运动,这里计算两个观测点,即两个不同位置的检测坐标系之间的相对位置和方位的差异信息的基本矩阵;本质矩阵E用公式(10)表示;
ri 'TEri=0(10)
其中,ri=[xi,yi,zi]T,ri'=[xi',yi',zi']分别为两个全景图像中对应点的光线向量,将公式(10)转化成公式(11);
ui Te=0(11)
其中,
ui=[xix'i,yix'i,zix'i,xiy'i,yiy'i,ziy'i,xiz'i,yiz'i,ziz'i]T(12)
e=[e11,e12,e13,e21,e22,e23,e31,e32,e33]T(13)
式中,e11,e12,e13,e21,e22,e23,e31,e32,e33分别为矩阵e的元素;
通过对8组相应的光线向量r求解联立方程获得本质矩阵E,计算方法用公式(14)表示;
m i n e | | U e | | 2 - - - ( 14 )
其中,U=[u1,u2,…,un]T,本质矩阵E是以UTU的最小特征值的特征向量e进行计算获得的;
从本质矩阵E计算旋转矩阵R和平移向量t,由公式(15)所示,本质矩阵E由旋转矩阵R和平移向量t=[tx,ty,tz]T,表示;
E=RT(15)
这里T用下面矩阵表示,
T = 0 - t z t y t z 0 - t x - t y t x 0 - - - ( 16 )
从本质矩阵E计算旋转矩阵R和T一种方法是采用奇异值方法,即SVD方法,该方法属于数值运算方法;但是这种分解方法分解出的四组解间的几何意义并不直观,难以保证分解结果是惟一正确解,而且实时性欠佳;因此,还需要对爬行器的运动进行再估计和尺度匹配方法处理。
爬行器的运动再估计:用SVD方法从本质矩阵E来估计旋转矩阵R和平移向量T未必能得到良好的结果,这是因为在SVD方法中没有考虑图像中的各种错误。因此,需要重新估计爬行器运动中所获取全景图像内的每个特征点的测量误差;这里使用光束平差法对爬行器的运动进行重新估计;该方法的思想是将特征重投影误差总和最小化。
尺度匹配方法:由于SFM算法中仅仅是对输入的全景图像进行处理,并不包含任何尺度的信息;因此,通过SFM算法还不能确定2个观测点之间的距离|t|;然而,在全景激光截面法处理结果中包括了尺度坐标信息;因此,通过融合这两种处理方法的结果来实现尺度匹配;
首先,通过全景激光截面法测量一个火炮內膛点的三维坐标;然后,用SFM算法测量同一点的三维坐标;最后,通过尽可能接近的三维坐标同一点来实现尺度匹配;
当同一点远离观察点时,用两种不同算法,即SFM算法和全景激光截面法,对同一点进行处理所得到的坐标值之间的最小偏差更为敏感;基于此,这里采用最小偏差坐标值之间的距离来计算尺度s',如公式(17)所示;
min Σ k = 1 m | | l o g ( p k ) - l o g ( s ′ p k ′ ) | | 2 - - - ( 17 )
式中,pk=[xk,yk,zk]T表示全景激光截面法测量结果,pk'=[xk',yk',zk']T表示SFM算法测量结果,m表示为匹配点的总数;
纹理映射:图8所示的是对火炮內膛的建模过程;在某一空间点对火炮內膛进行3D测量后,随着爬行器的爬行对下一个测量点对火炮內膛进行3D测量;将各个横断面的3D测量结果进行拼接,最后还需要进行纹理映射,实现火炮內膛的自动3D建模;
全景视频图像展开单元,用于对火炮內膛全景图像进行展开处理得到火炮內膛全景展开图;根据全景图像的中心坐标以及图像的内外圆半径,将全景图像的中心坐标设定平面坐标系的原点O**(0,0)、X*轴、Y*轴、全景图像的内径为r、外径为R,用r1=(r+R)/2设定中间圆的半径,方位角为β=tan-1(y*/x*);全景柱状展开图像以坐标原点O**(0,0)、X**轴、Y**轴为平面坐标系,将全景图像中的内径为r与X*轴的交点(r,0)作为坐标原点O**(0,0),以方位角β顺时针方向展开;建立全景柱状展开图像中任意一点象素坐标P**(x**,y**)与全景图像中的象素坐标Q*(x*,y*)的对应关系,其计算式为:
x*=y*/(tan(360x**/π(R+r)))(21)
y*=(y**+r)cosβ(22)
式中,x**,y**为全景柱状展开图像的象素坐标值,x*,y*为全景图像的象素坐标值,R为圆形全景图像的外径,r为圆形全景图像的内径,β为圆形全景图像坐标的方位角;这里规定采用时钟时针位置来描述火炮內膛疵病出现在火炮內膛环向的位置;图13为某一段火炮內膛的全景展开图像。
膛线图像处理单元,用于对火炮內膛全景展开图进行火炮內膛阴阳线灰度值均匀化处理得到灰度连续的火炮內膛全景展开图;首先用Roberts算子对全景展开图像进行边缘的提取,使阴线区域与阳线区域分开,然后取全景展开图像中一块相邻的阳线阴线区域,并求得这两区域各自的灰度平均值,阳线区域的记为D1,阴线的记为D2,再把所有的阴线区域灰度都加上D1-D2,得到一幅灰度连续的图像,从而保证了图像中的其他相对信息不受干扰。
图像分割单元,用最优阈值算法对灰度连续的火炮內膛全景展开图进行处理提取出火炮內膛图像中带有疵病的区域;由于火炮內膛疵病在颜色特征上具有与火炮內膛表面灰度值较低的区域,这里用最优阈值算法从膛线处理后的全景图像中提取出火炮內膛疵病区域,最优阈值计算方法如公式(23)所示;
T = μ 1 + μ 2 2 + σ 2 μ 1 - μ 2 l n ( p 2 ( t ) p 1 ( t ) ) - - - ( 23 )
式中,μ1和μ2分别是疵病和火炮內膛区域的灰度平均值,σ是关于均值的标准差,p1(t)和p2(t)分别是疵病和火炮內膛两种灰度的先验概率。
内膛的疵病分类单元,用改进遗传算法和支持向量机算法对标有疵病的区域的火炮內膛图像进行疵病识别分类处理得到疵病的识别类型信息。采用支持向量机对提取出火炮內膛疵病区域的全景图像进行分类识别,分别提取各自的颜色、纹理和形状特征参数,进行归一化处理;本发明采用的基于改进遗传算法和支持向量机的火炮内膛疵病分类识别步骤为:
STEP1)对具有代表性的42种疵病的特征参数进行归一化处理,形成样本集合;
STEP2)用改进遗传算法进行参数优化;
STEP3)将优化得到的参数带入支持向量机分类算法,得到相应的分类模型;
STEP4)利用建好的分类模型对对提取出火炮內膛疵病区域的全景图像进行分类识别。
支持向量机算法的分类精度由惩罚参数C1和核参数σ1决定,在上述STEP3)中遗传算法的惩罚参数C1和核参数σ1进行优化;其算法流程为:
步骤1)对惩罚参数C1和核参数σ1进行二进制编码;
步骤2)建立每个个体都有两个变量的随机种群作为初始种群;
步骤3)根据惩罚参数C1和核参数σ1训练分类模型,得出的疵病分类准确率η1作为适应度函数;
步骤4)采用最优保存策略,运用选择自适应交叉和自适应变异算子作用于群体,得到新群体;检查每个个体是否满足计算要求或迭代次数要求;如果不满足计算要求或迭代次数要求,则返回步骤3)继续进化;如果满足则算法停止,并输出最优结果。
内膛的疵病量化处理单元,用于对疵病的识别类型进行量化处理得到疵病区域的大小与深浅量化指标,最终对疵病的等级作出精准的判定;在所述的内膛的疵病量化处理单元中包括了裂缝深度计算模块、疵病面积的计算模块、疵病周长和圆形度计算模块和疵病最小外接矩形计算模块。
疵病深度计算模块,对于身管疵病检测结果为阳线断脱、烧蚀沟、龟裂、冲凹疵病时,还需要进一步检测其深度值;即使这类疵病的面积不大,当达到一定深度时也会对火炮的结构完整性、刚度和强度造成严重影响,而且疵病越深,其扩展速度越快;本发明通过火炮內膛全景展开图上所标示的疵病区域并根据火炮內膛进行3D建模时所获取火炮內膛该疵病区域所对应的点云数据来得到该疵病的深度信息;
疵病面积计算模块,用于对提取出火炮內膛疵病区域的全景展开图像进行处理,得到各区域的面积,计算方法由公式(24)计算,
A i = Σ n = 0 N Σ m = 0 M f i ( n , m ) - - - ( 24 )
式中,fi(n,m)为标记了i值的像素,Ai为标记了i值的像素所构成的区域面积,N,M分别为区域像素的行数和列数;
疵病周长和圆形度计算模块,用于对提取出火炮內膛疵病区域的全景展开图像进行处理,得到各区域的周长,计算方法由公式(25)计算,
L i = Σ j = 0 Q l j - - - ( 25 )
式中, l j = 1 , ϵ i = 0 , 2 , 4 , 6 2 , ϵ i = 1 , 3 , 5 , 7
εi(i=0,1,2,3,4,5,6,7)代表8链码中8个方向的码元,Li为标记了i值的像素所构成的区域周长,Q表示区域边缘像素的总数个数;
根据公式(24)和公式(25)计算得到的各区域面积和周长,进一步计算得到各区域的圆形度,计算方法如公式(26)所示,
C i = 4 π A i L i 2 - - - ( 26 )
式中,Ci为标记了i值区域的圆形度,Ai为标记了i值的像素所构成的区域面积,Li为标记了i值的像素所构成的区域周长。
疵病最小外接矩形计算模块,用于对提取出火炮內膛疵病区域的全景展开图像进行处理,得到轮廓区域的最小外接矩形、最大主轴长度、最小主轴长度和角度;计算MER算法如下:
Step1:按照直接计算方法计算某个轮廓区域的外接矩形,并记录外接矩形长度、宽度和面积,获取最小外接矩形RectMin,并得到其面积值赋给变量AreaMin,设置旋转角度αR=0°;
Step2:对轮廓区域进行旋转一个角度θ=2°,即αR=αR+θ,判断αR≥180°,结束程序;
Step3:计算旋转后的最小外接矩形RectTmp,获得其面积值赋给变量AreaTmp;
Step4:判断AreaTmp<AreaMin,如果条件成立则AreaMin=AreaTmp,θiMaxA=αR,跳转到Step2。
通过上述算法求得各区域的最小外接矩形后,矩形的长轴就是该区域的最大主轴长度LiMaxA,矩形的短轴就是该区域的最小主轴长度LiMinA,矩形的长轴在水平方向上的角度就是角度θiMaxA;最后利用最大主轴长度与最小主轴长度的比求得边界离心率。
实施例2
其余与实施例1相同,所不同的是从本质矩阵E计算旋转矩阵R和T方法;该方法是:首先,利用本质矩阵E秩2的属性求出爬行器移动前后间的平移量t,如公式(18)所示;
t = - e i 2 Me k 2 + e i 3 Me k 3 e i 1 Me k 2 Me k 3 T , j = 1 , k ≠ j Me k 1 - e i 1 Me k 1 + e i 3 Me k 3 e i 2 Me k 3 T , j = 2 , k ≠ j Me k 1 Me k 2 - e i 1 Me k 1 + e i 2 Me k 2 e i 3 T , j = 3 , k ≠ j - - - ( 18 )
式中,eij为本质矩阵E的元素,Meij为eij的代数余子式;
进而求得满足约束||t||2=1的两个平移量t1=1,t2=-1,其中,
t = t | | t | | 2 - - - ( 19 )
然后,利用求解旋转矩阵方程组的方法求出爬行器移动前后间的旋转矩阵R;
将公式(19)代入到公式(15)计算旋转矩阵R,得到四组分解结果;最后,利用直接求取空间3D点成像深度的方法快速从四组分解结果中确定出满足空间3D点可见性约束的惟一正确解,计算方法如公式(20)给出;
σ 1 σ 2 = - K - 1 x - R T K ′ - 1 y ^ + R T t - - - ( 20 )
式中,K'-1、K-1分别为全方位视觉传感器的内外参数矩阵的逆矩阵,σ1,σ2分别为相对应点在爬行器移动前后间的全景图像中的成像深度,通过全景激光截面法测量得到;RT为旋转矩阵R的转矩阵,t为平移向量,x,分别为相对应点在爬行器移动前后间的全景图像中的成像部分。
只要公式(20)中的σ1,σ2均满足大于零的约束,则对应的R,t即为惟一正确解。
以上所述仅为本发明的较佳实施举例,并不用于限制本发明,凡在本发明精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于主动式全景视觉的火炮內膛疵病检测装置,其特征在于,包括主动式全景视觉传感器和火炮內膛检测分析系统;
所述的主动式全景视觉传感器,沿火炮內膛爬行并用于采集火炮內膛全景图像和火炮內膛激光切片扫描全景图像;
所述的火炮內膛检测分析系统包括:
全方位面激光信息解析单元,用于对火炮內膛激光切片扫描全景图像进行解析处理得到火炮內膛的点云数据;
火炮內膛3D建模单元,用于对所述的点云数据进行拼接和纹理映射处理得到火炮內膛的3D模型;
全景视频图像展开单元,用于对火炮內膛全景图像进行展开处理得到火炮內膛全景展开图;
膛线图像处理单元,用于对火炮內膛全景展开图进行火炮內膛阴阳线灰度值均匀化处理,得到灰度连续的火炮內膛全景展开图;
图像分割单元,利用最优阈值算法对灰度连续的火炮內膛全景展开图进行处理,提取出火炮內膛图像中带有疵病的区域;
内膛的疵病分类单元,用改进遗传算法和支持向量机算法对标有疵病的区域的火炮內膛图像进行疵病识别分类处理得到疵病的识别类型信息;
以及内膛的疵病量化处理单元,用于对疵病的识别类型进行量化处理得到疵病区域的大小与深浅量化指标,最终对疵病的等级作出精准的判定。
2.如权利要求1所述的基于主动式全景视觉的火炮內膛疵病检测装置,其特征在于,所述的主动式全景视觉传感器包括:
全方位视觉传感器,用于采集火炮內膛全景图像和火炮內膛激光切片扫描全景图像;
LED带光源,用于为火炮內膛全景图像的采集提供照明;
全景激光光源,用于为火炮內膛激光切片扫描全景图像的采集提供全景激光照明。
3.如权利要求1所述的基于主动式全景视觉的火炮內膛疵病检测装置,其特征在于,所述内膛的疵病量化处理单元包括:
疵病深度计算模块,用于计算火炮內膛疵病的深度信息;
疵病面积计算模块,用于计算火炮內膛疵病区域的面积;
疵病周长和圆形度计算模块,用于计算火炮內膛疵病区域的周长和圆形度;
疵病最小外接矩形计算模块,用于计算火炮內膛疵病区域的最小外接矩形、最大主轴长度、最小主轴长度和角度。
4.一种基于主动式全景视觉的火炮內膛疵病检测方法,其特征在于,包括以下步骤:
1)采用沿火炮內膛爬行的主动式全景视觉传感器,采集火炮內膛全景图像和火炮內膛激光切片扫描全景图像;
2)在火炮內膛激光切片扫描全景图像进行解析处理得到火炮內膛的点云数据;
3)对所述的点云数据进行拼接和纹理映射处理,建立火炮內膛的3D模型;
4)对火炮內膛全景图像进行展开处理得到火炮內膛全景展开图,并对所述的火炮內膛全景展开图进行火炮內膛阴阳线灰度值均匀化处理,得到灰度连续的火炮內膛全景展开图;
5)利用最优阈值算法对灰度连续的火炮內膛全景展开图进行处理,提取出火炮內膛图像中带有疵病的区域;
6)采用改进遗传算法和支持向量机算法对标有疵病的区域的火炮內膛图像进行疵病识别分类处理,得到疵病的识别类型信息;
7)对疵病的识别类型进行量化处理得到疵病区域的大小与深浅量化指标,最终对疵病的等级作出精准的判定。
5.如权利要求4所述的基于主动式全景视觉的火炮內膛疵病检测方法,其特征在于,在所述的步骤2)中,根据激光投射点的像素的亮度要大于成像平面上的平均亮度,以解析出火炮內膛激光切片扫描全景图像上的激光投射点;为得到激光投射线的准确位置,采用高斯近似方法来抽取出激光投射线的中心位置,具体实现算法是:
Step1:设置初始方位角β=0;
Step2:在火炮內膛激光切片扫描全景图像上以方位角β从火炮內膛激光切片扫描全景图像的中心点开始检索红色激光投射点,对于方位角β上存在着若干个连续的红色激光投射的像素,这里选择HIS颜色空间中的I分量,即亮度值接近最高值的三个连续像素通过高斯近似方法来估算激光投射线的中心位置;具体计算公式为
d = l n ( f ( i - 1 ) ) - l n ( f ( i + 1 ) ) 2 × [ l n ( f ( i - 1 ) ) - 2 l n ( f ( i ) ) + l n ( f ( i + 1 ) ) ]
式中,f(i-1)、f(i)和f(i+1)分别为三个相邻像素接近最高亮度值的亮度值,d为修正值,i表示从图像中心点开始的第i个像素点;因此估算得到的激光投射线的中心位置为(i+d),该值对应于p(u',v');
Step3:从全景图像上的点p(u',v')获得该点光束高度r和角度r';计算出爬行器沿火炮內膛轴向方向上的爬行距离Zm和方位角β'=β情况下在火炮內膛上的激光投射点到主动式全景视觉传感器的中心轴线之间的距离PR;得到该激光投射点的空间坐标位置值;
z = Z m y = P R × s i n β x = P R × cos β
式中,Zm为爬行器沿火炮內膛纵向方向上的爬行距离,PR为沿火炮內膛纵向方向上的位置Zm和方位角β'=β情况下在火炮內膛上的激光投射点到主动式全景视觉传感器的中心轴线之间的距离,x,y,z分别为激光投射点的空间点云数据坐标值,β为方位角;
Step4:改变方位角继续检索激光投射点,即β=β+Δβ,Δβ=0.36;
Step5:判断方位角β=360,如果成立,检索结束;反之转到Step2。
6.如权利要求4所述的基于主动式全景视觉的火炮內膛疵病检测方法,其特征在于,在所述的步骤3)中,为了对火炮內膛进行3D建模,需要对驱动着主动式全景视觉传感器的爬行器的运动进行估计,在某一空间点对火炮內膛进行3D测量后,随着爬行器的爬行对下一个测量点对火炮內膛进行3D测量,然后将各个横断面的3D测量结果进行拼接,并进行纹理映射,完成火炮內膛的自动3D建模。
7.如权利要求4所述的基于主动式全景视觉的火炮內膛疵病检测方法,其特征在于,在所述的步骤4)对火炮內膛全景图像进行展开处理的具体过程为:
根据火炮內膛全景图像的中心坐标以及图像的内外圆半径,将中心坐标设定平面坐标系的原点O**(0,0)、X*轴、Y*轴、全景图像的内径为r、外径为R,用r1=(r+R)/2设定中间圆的半径,方位角为β=tan-1(y*/x*);全景柱状展开图像以坐标原点O**(0,0)、X**轴、Y**轴为平面坐标系,将全景图像中的内径为r与X*轴的交点(r,0)作为坐标原点O**(0,0),以方位角β顺时针方向展开;建立全景柱状展开图像中任意一点象素坐标P**(x**,y**)与全景图像中的象素坐标Q*(x*,y*)的对应关系,其计算式为:
x*=y*/(tan(360x**/π(R+r)))
y*=(y**+r)cosβ
式中,x**,y**为全景柱状展开图像的象素坐标值,x*,y*为全景图像的象素坐标值,R为圆形全景图像的外径,r为圆形全景图像的内径,β为圆形全景图像坐标的方位角。
8.如权利要求4所述的基于主动式全景视觉的火炮內膛疵病检测方法,其特征在于,在所述的步骤5)中,利用最优阈值算法从膛线处理后的全景图像中提取出火炮內膛疵病区域,最优阈值计算公式为
T = μ 1 + μ 2 2 + σ 2 μ 1 - μ 2 l n ( p 2 ( t ) p 1 ( t ) )
式中,μ1和μ2分别是疵病和火炮內膛区域的灰度平均值,σ是关于均值的标准差,p1(t)和p2(t)分别是疵病和火炮內膛两种灰度的先验概率。
9.如权利要求4所述的基于主动式全景视觉的火炮內膛疵病检测方法,其特征在于,在所述的步骤6)中,火炮内膛疵病分类识别步骤为:
STEP1)对具有代表性的42种疵病的特征参数进行归一化处理,形成样本集合;
STEP2)用改进遗传算法进行参数优化;
STEP3)将优化得到的参数带入支持向量机分类算法,得到相应的分类模型;
STEP4)利用建好的分类模型对对提取出火炮內膛疵病区域的全景图像进行分类识别;
支持向量机算法的分类精度由惩罚参数C1和核参数σ1决定,在所述STEP3)中遗传算法的惩罚参数C1和核参数σ1进行优化;其算法流程为:
步骤1)对惩罚参数C1和核参数σ1进行二进制编码;
步骤2)建立每个个体都有两个变量的随机种群作为初始种群;
步骤3)根据惩罚参数C1和核参数σ1训练分类模型,得出的疵病分类准确率η1作为适应度函数;
步骤4)采用最优保存策略,运用选择自适应交叉和自适应变异算子作用于群体,得到新群体;检查每个个体是否满足计算要求或迭代次数要求;如果不满足计算要求或迭代次数要求,则返回步骤3)继续进化;如果满足则算法停止,并输出最优结果。
10.如权利要求4所述的基于主动式全景视觉的火炮內膛疵病检测方法,其特征在于,在步骤7)中,具体包括计算火炮內膛疵病的深度信息,火炮內膛疵病区域的面积、周长和圆形度,以及火炮內膛疵病区域的最小外接矩形、最大主轴长度、最小主轴长度和角度。
CN201510689977.3A 2015-10-22 2015-10-22 基于主动式全景视觉的火炮內膛疵病检测装置及方法 Expired - Fee Related CN105424724B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510689977.3A CN105424724B (zh) 2015-10-22 2015-10-22 基于主动式全景视觉的火炮內膛疵病检测装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510689977.3A CN105424724B (zh) 2015-10-22 2015-10-22 基于主动式全景视觉的火炮內膛疵病检测装置及方法

Publications (2)

Publication Number Publication Date
CN105424724A true CN105424724A (zh) 2016-03-23
CN105424724B CN105424724B (zh) 2018-05-25

Family

ID=55503073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510689977.3A Expired - Fee Related CN105424724B (zh) 2015-10-22 2015-10-22 基于主动式全景视觉的火炮內膛疵病检测装置及方法

Country Status (1)

Country Link
CN (1) CN105424724B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106950288A (zh) * 2017-05-03 2017-07-14 中国科学院武汉岩土力学研究所 一种基于多频超声扫描的孔内空区探测装置及方法
CN108375529A (zh) * 2018-02-12 2018-08-07 中国水利水电科学研究院 土石料级配自动检测方法及检测系统
CN108562507A (zh) * 2018-01-16 2018-09-21 重庆理工大学 速射武器身管抗烧蚀磨损实验方法及装置
CN108760768A (zh) * 2018-04-17 2018-11-06 中国人民解放军海军工程大学 一种电磁轨道发射装置内膛自动扫描检测小车
CN109242777A (zh) * 2018-09-17 2019-01-18 随州大方精密机电工程有限公司 火炮身管内膛完整图像合成方法
CN110132070A (zh) * 2019-04-24 2019-08-16 中国人民解放军陆军工程大学 一种火炮击针突出量检测装置与火炮击针突出量检测方法
CN114419135A (zh) * 2022-03-29 2022-04-29 武汉楚精灵医疗科技有限公司 胰腺标志物尺寸量化方法、装置、终端及可读存储介质
CN117073454A (zh) * 2023-07-24 2023-11-17 中国人民解放军陆军工程大学 基于图像和激光扫描的多口径管状内膛检测装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101571379A (zh) * 2009-06-11 2009-11-04 天津大学 一种无缝圆形钢管直径及直线度参数测量的方法
CN103438823A (zh) * 2012-12-27 2013-12-11 广州市地下铁道总公司 一种基于视觉测量的隧道断面轮廊测量方法及装置
CN104567708A (zh) * 2015-01-06 2015-04-29 浙江工业大学 基于主动式全景视觉的隧道全断面高速动态健康检测装置与方法
CN104568983A (zh) * 2015-01-06 2015-04-29 浙江工业大学 基于主动式全景视觉的管道内部功缺陷检测装置及方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101571379A (zh) * 2009-06-11 2009-11-04 天津大学 一种无缝圆形钢管直径及直线度参数测量的方法
CN103438823A (zh) * 2012-12-27 2013-12-11 广州市地下铁道总公司 一种基于视觉测量的隧道断面轮廊测量方法及装置
CN104567708A (zh) * 2015-01-06 2015-04-29 浙江工业大学 基于主动式全景视觉的隧道全断面高速动态健康检测装置与方法
CN104568983A (zh) * 2015-01-06 2015-04-29 浙江工业大学 基于主动式全景视觉的管道内部功缺陷检测装置及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
潘春雨 等: "基于区域阈值的图像分割方法研究", 《火力控制与指挥》 *
王东霞 等: "遗传算法优化特征权值的支持向量机图像分类", 《电视技术》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106950288A (zh) * 2017-05-03 2017-07-14 中国科学院武汉岩土力学研究所 一种基于多频超声扫描的孔内空区探测装置及方法
CN108562507B (zh) * 2018-01-16 2020-10-27 重庆理工大学 速射武器身管抗烧蚀磨损实验方法及装置
CN108562507A (zh) * 2018-01-16 2018-09-21 重庆理工大学 速射武器身管抗烧蚀磨损实验方法及装置
CN108375529A (zh) * 2018-02-12 2018-08-07 中国水利水电科学研究院 土石料级配自动检测方法及检测系统
CN108760768A (zh) * 2018-04-17 2018-11-06 中国人民解放军海军工程大学 一种电磁轨道发射装置内膛自动扫描检测小车
CN109242777A (zh) * 2018-09-17 2019-01-18 随州大方精密机电工程有限公司 火炮身管内膛完整图像合成方法
CN109242777B (zh) * 2018-09-17 2023-01-24 随州大方精密机电工程有限公司 火炮身管内膛完整图像合成方法
CN110132070A (zh) * 2019-04-24 2019-08-16 中国人民解放军陆军工程大学 一种火炮击针突出量检测装置与火炮击针突出量检测方法
CN110132070B (zh) * 2019-04-24 2024-04-12 中国人民解放军陆军工程大学 一种火炮击针突出量检测装置与火炮击针突出量检测方法
CN114419135A (zh) * 2022-03-29 2022-04-29 武汉楚精灵医疗科技有限公司 胰腺标志物尺寸量化方法、装置、终端及可读存储介质
CN114419135B (zh) * 2022-03-29 2022-06-28 武汉楚精灵医疗科技有限公司 胰腺标志物尺寸量化方法、装置、终端及可读存储介质
CN117073454A (zh) * 2023-07-24 2023-11-17 中国人民解放军陆军工程大学 基于图像和激光扫描的多口径管状内膛检测装置
CN117073454B (zh) * 2023-07-24 2024-03-15 中国人民解放军陆军工程大学 基于图像和激光扫描的多口径管状内膛检测装置

Also Published As

Publication number Publication date
CN105424724B (zh) 2018-05-25

Similar Documents

Publication Publication Date Title
CN105424724B (zh) 基于主动式全景视觉的火炮內膛疵病检测装置及方法
CN113705478B (zh) 一种基于改进YOLOv5的红树林单木目标检测方法
Lines et al. An automatic image-based system for estimating the mass of free-swimming fish
CN110766669B (zh) 一种基于多目视觉的管线测量方法
CN109631912B (zh) 一种深空球形目标被动测距方法
CN107609547B (zh) 星体快速识别方法、装置及望远镜
US20200105019A1 (en) Method and System for Calibrating Imaging System
CN113008158B (zh) 多线激光轮胎花纹深度测量方法
JP5023238B2 (ja) 薬莢ベースの自動領域セグメンテーションと薬莢比較用のベスト痕跡領域の選択の方法
CN103884281A (zh) 一种基于主动结构光的巡视器障碍探测方法
CN115578315A (zh) 一种基于无人机图像的桥梁应变近景摄影测量方法
Shi et al. Circular grid pattern based surface strain measurement system for sheet metal forming
CN116678826A (zh) 一种基于快速立体重建的外观缺陷检测系统及方法
CN105023270A (zh) 用于地下基础设施结构监测的主动式3d立体全景视觉传感器
Bhamare et al. Quality inspection of tire using deep learning based computer vision
CN113421236B (zh) 基于深度学习的建筑墙面渗漏水表观发育状况预测方法
CN116805416A (zh) 排水管道缺陷识别模型训练方法、排水管道缺陷识别方法
Motayyeb et al. Fusion of UAV-based infrared and visible images for thermal leakage map generation of building facades
Ozcan et al. A novel fusion method with thermal and RGB-D sensor data for human detection
CN113012103B (zh) 一种大口径望远镜镜片表面疵病定量检测方法
CN109373904A (zh) 三维视觉检测装置及三维视觉检测方法
Dong et al. Illumination variation robust circular target based on digital image correlation method
CN104813217A (zh) 用于设计能够估计景深的无源单通道成像器的方法
CN116930192A (zh) 一种高精度铜管缺陷检测方法及系统
Li et al. Road Damage Evaluation via Stereo Camera and Deep Learning Neural Network

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20180525

Termination date: 20191022

CF01 Termination of patent right due to non-payment of annual fee