CN118115414B - 一种船舶清洗机器人用视觉检测系统 - Google Patents
一种船舶清洗机器人用视觉检测系统 Download PDFInfo
- Publication number
- CN118115414B CN118115414B CN202410517921.9A CN202410517921A CN118115414B CN 118115414 B CN118115414 B CN 118115414B CN 202410517921 A CN202410517921 A CN 202410517921A CN 118115414 B CN118115414 B CN 118115414B
- Authority
- CN
- China
- Prior art keywords
- subarea
- ship
- subareas
- sub
- barnacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004140 cleaning Methods 0.000 title claims abstract description 67
- 238000011179 visual inspection Methods 0.000 title description 7
- 241000238586 Cirripedia Species 0.000 claims abstract description 91
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 230000000007 visual effect Effects 0.000 claims abstract description 12
- 230000001105 regulatory effect Effects 0.000 claims abstract description 9
- 238000000034 method Methods 0.000 claims description 27
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000007689 inspection Methods 0.000 claims 9
- 230000000694 effects Effects 0.000 abstract description 10
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000037396 body weight Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Abstract
本发明涉及图像数据处理技术领域,具体涉及一种船舶清洗机器人用视觉检测系统,包括:根据船舶表面图像的子区域中像素点的灰度值差异和梯度幅值差异获得子区域的灰度均匀度;根据灰度均匀度、子区域内边缘像素点的距离以及像素点的梯度幅值,获得子区域的藤壶表现度,利用不同子区域的灰度均匀度差异调节藤壶表现度,进一步根据得到的新藤壶表现度的大小对子区域进行合并以及增强处理,获得增强后的船舶表面图像。本发明有效保留了不同尺度下图像的细节信息,使得船舶清洗机器人可以有效利用增强后的船舶表面图像进行视觉检测,提高了船舶清洗机器人在船舶清洗工作中的清洗效果。
Description
技术领域
本发明涉及图像数据处理技术领域,具体涉及一种船舶清洗机器人用视觉检测系统。
背景技术
在使用船舶清洗机器人检测船舶表面的污垢时,还需要对船舶表面附着的藤壶进行处理,避免附着数量过大导致船体重量增加、阻力增大,从而影响船舶的航行速度、燃油消耗和排放量,增加船舶维护成本的问题。
在使用船舶清洗机器人对船舶外层表面藤壶进行视觉检测时,由于光照条件变化等原因,会使得采集到的图像对比度差,不利于有效检测出船体表面附着的藤壶,因此需要对采集到的图像进行增强处理,通常使用LHE算法(局部直方图均衡化算法)进行图像增强处理,但是由于图像中通常存在不同尺度的细节信息,使得利用固定大小的参数对图像进行划分以及局部直方图均衡化处理时,可能无法有效处理不同尺度的图像细节信息,导致对图像进行局部直方图均衡化处理效果不理想,进一步导致船舶清洗机器人对船舶表面的清洗效果不理想。
发明内容
本发明提供一种船舶清洗机器人用视觉检测系统,以解决现有的问题。
本发明的一种船舶清洗机器人用视觉检测系统采用如下技术方案:
本发明一个实施例提供了一种船舶清洗机器人用视觉检测系统,该系统包括以下模块:
图像采集模块,用于获取船舶表面图像;
灰度分析模块,用于将船舶表面图像进行划分获得若干个子区域,获取像素点的梯度幅值,根据子区域中像素点的灰度值差异以及梯度幅值差异获得子区域的灰度均匀度;
藤壶纹理模块,用于获取子区域内的边缘像素点,根据子区域的灰度均匀度、子区域内边缘像素点的距离以及像素点的梯度幅值大小,获得子区域的藤壶表现度,利用不同子区域的灰度均匀度的差异对子区域的藤壶表现度进行调节,获得子区域的新藤壶表现度;
增强检测模块,用于根据船舶表面图像中子区域的新藤壶表现度的大小对子区域进行合并以及局部直方图均衡化处理,获得增强后的船舶表面图像,利用增强后的船舶表面图像进行视觉检测和船舶外层表面清洗。
进一步地,所述将船舶表面图像进行划分获得若干个子区域,包括的具体方法为:
将船舶表面图像均匀划分为A个相同大小的区域,记为船舶表面图像的子区域,其中A为预设的数量参数。
进一步地,所述获取像素点的梯度幅值,根据子区域中像素点的灰度值差异以及梯度幅值差异获得子区域的灰度均匀度,包括的具体方法为:
利用Sobel算子获取船舶表面图像中每个像素点的梯度幅值;
根据子区域中像素点的灰度值差异以及梯度幅值差异分别获得第一累加值和第二累加值;
根据第一累加值和第二累加值获得子区域的灰度均匀度,所述第一累加值和第二累加值均与子区域的灰度均匀度成反比。
进一步地,所述根据子区域中像素点的灰度值差异以及梯度幅值差异分别获得第一累加值和第二累加值,包括的具体方法为:
将每个子区域内所有像素点的平均灰度值记为子区域的第一均值,将子区域内每个像素点的灰度值与子区域的第一均值的差值绝对值记为每个像素点的第一差值,将子区域内所有像素点的第一差值的累加值记为第一累加值;
将子区域内任意相邻的两个像素点之间的梯度幅值的差值绝对值记为所述相邻的两个像素点的相对梯度,将子区域内所有相邻的两个像素点的相对梯度的累加值记为第二累加值。
进一步地,所述获取子区域内的边缘像素点,根据子区域的灰度均匀度、子区域内边缘像素点的距离以及像素点的梯度幅值大小,获得子区域的藤壶表现度,包括的具体方法为:
首先,利用Sobel算子获取船舶表面图像中每个子区域内的边缘像素点,获取任意子区域内所有边缘像素点之间的平均欧氏距离;
然后,根据子区域中像素点的梯度幅值的大小获得子区域的高梯度参数;
最后,根据船舶表面图像中任意子区域的灰度均匀度、高梯度参数以及边缘像素点之间的平均欧氏距离,获得子区域的藤壶表现度,所述子区域的灰度均匀度与子区域的藤壶表现度成反比,子区域的高梯度参数以及边缘像素点之间的平均欧氏距离与子区域的藤壶表现度成正比。
进一步地,所述根据子区域中像素点的梯度幅值的大小获得子区域的高梯度参数,包括的具体方法为:
将任意像素点记为目标像素点,将目标像素点的8邻域范围内所有像素点的平均梯度幅值记为目标像素点的参考梯度值,获取船舶表面图像中每个像素点的参考梯度值,将船舶表面图像的任意子区域中所有梯度幅值大于参考梯度值的像素点的数量记为子区域的高梯度参数。
进一步地,所述利用不同子区域的灰度均匀度的差异对子区域的藤壶表现度进行调节,获得子区域的新藤壶表现度,包括的具体方法为:
将船舶表面图像中的任意子区域记为目标子区域,根据子区域之间的位置关系以及子区域的藤壶表现度的大小,获得子区域的参考子区域和最大参考子区域;将目标子区域与目标子区域的最大参考子区域合并为一个区域记为目标子区域的新子区域,获取新子区域的灰度均匀度,所述新子区域的灰度均匀度与子区域的灰度均匀度的获取方法相同;
根据子区域分别与子区域的参考子区域、子区域的新子区域之间的灰度均匀度差异,获得子区域的调节因子;
利用调节因子对子区域的藤壶表现度进行调节获得子区域的新藤壶表现度,所述子区域的新藤壶表现度与子区域的藤壶表现度、调节因子均成正比。
进一步地,所述根据子区域之间的位置关系以及子区域的藤壶表现度的大小,获得子区域的参考子区域和最大参考子区域,包括的具体方法为:
将与目标子区域相邻的子区域记为目标子区域的参考子区域,将目标子区域的所有参考子区域中藤壶表现度最大的参考子区域记为目标子区域的最大参考子区域。
进一步地,所述根据子区域分别与子区域的参考子区域、子区域的新子区域之间的灰度均匀度差异,获得子区域的调节因子,包括的具体方法为:
将子区域的任意一个参考子区域与子区域的灰度均匀度的差值记为第一差值,将子区域的所有参考子区域与子区域的第一差值的累加值记为第一因子;
将子区域的灰度均匀度与子区域的新子区域的灰度均匀度的差值记为第二因子;
将第一因子和第二因子的乘积记为子区域的调节因子。
进一步地,所述根据船舶表面图像中子区域的新藤壶表现度的大小对子区域进行合并以及局部直方图均衡化处理,获得增强后的船舶表面图像,利用增强后的船舶表面图像进行视觉检测和船舶外层表面清洗,包括的具体方法为:
将新藤壶表现度小于等于预设的表现度阈值的子区域记为第一子区域,将新藤壶表现度大于预设的表现度阈值的子区域记为第二子区域,将所有相邻的第一子区域进行合并,获得第三子区域;
利用LHE算法对船舶表面图像的所有第二子区域和第三子区域分别进行局部直方图均衡化处理,获得增强后的船舶表面图像;
利用CNN神经网络对增强后的船舶表面图像进行目标检测,识别出需要清洗的区域,将目标检测的结果反馈给船舶清洗机器人,通过船舶清洗机器人对船舶外层表面进行清洗。
本发明的技术方案的有益效果是:通过船舶清洗机器人在清洗过程中,获取的船舶表面图像中不同区域的灰度信息,进一步获取船舶表面图像中每个子区域的灰度均匀度和藤壶表现度,并利用子区域之间的灰度均匀度的差异对子区域的藤壶表现度进行调节,提高藤壶表现度对子区域相对于其他子区域的灰度信息的差异进行描述的准确性,进一步提高利用子区域的新藤壶表现度对子区域进行合并和局部增强的效果,有效保留了不同尺度下图像的细节信息,使得船舶清洗机器人可以有效利用增强后的船舶表面图像进行视觉检测,提高船舶清洗机器人在船舶清洗工作中的清洗效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种船舶清洗机器人用视觉检测系统的结构框图;
图2为本发明提供的船舶清洗机器人用视觉检测的流程图。
具体实施方式
为了更进一步阐述本发明为达成预定发明目的所采取的技术手段及功效,以下结合附图及较佳实施例,对依据本发明提出的一种船舶清洗机器人用视觉检测系统,其具体实施方式、结构、特征及其功效,详细说明如下。在下述说明中,不同的“一个实施例”或“另一个实施例”指的不一定是同一实施例。此外,一或多个实施例中的特定特征、结构或特点可由任何合适形式组合。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。
下面结合附图具体的说明本发明所提供的一种船舶清洗机器人用视觉检测系统的具体方案。
请参阅图1,其示出了本发明一个实施例提供的一种船舶清洗机器人用视觉检测系统的结构框图,该系统包括以下模块:
图像采集模块101,用于获取船舶表面图像。
需要说明的是,在利用船舶清洗机器人进行清洗工作时,为了提高清洗效果,通常通过对船舶清洗机器人采集船舶外层表面的图像进行处理分析,以指导船舶清洗机器人的清洗工作。由于船舶清洗机器人在实际的清洗工作中,光照条件复杂多变,可能会导致采集得到的船舶表面图像对比度差,影响船舶清洗机器人对船舶外层表面的清洗效果,因此选择利用LHE算法对船舶表面图像进行图像增强处理,提高船舶表面图像的对比度,提高船舶清洗机器人结合视觉检测技术的船舶清洗效果。
为了实现本实施例提出的一种船舶清洗机器人用视觉检测系统,首先需要采集船舶表面图像,具体过程为:
在船舶清洗机器人对船舶外层表面进行清洗的过程中,利用船舶清洗机器人搭载的相机获取船舶外层表面的RGB图像,并对船舶外层表面的RGB图像进行灰度化处理,获得船舶表面图像。
至此,通过上述方法得到船舶表面图像。
灰度分析模块102,用于将船舶表面图像进行划分获得若干个子区域,根据子区域中像素点的灰度值差异以及梯度幅值获得子区域的灰度均匀度。
需要说明的是,由于船舶表面附着的藤壶等海洋生物会使得船舶外层表面在图像中表现的不再平坦,即灰度分布均匀性低,因此本实施例通过分析船舶表面图像中不同局部区域中像素点的灰度值差异,以反映局部区域内像素点的灰度值分布情况,以便于后续获取灰度分布均匀性低的局部区域进行图像增强处理,并通过船舶清洗机器人对其进行进一步的清洗工作。
具体的,首先,将船舶表面图像均匀划分为A个相同大小的区域,记为船舶表面图像的子区域,其中A为预设的数量参数。
需要说明的是,根据经验预设数量参数A为100,可根据实际情况对数量参数A的大小进行调整,本实施例对其不进行具体限定。
然后,利用Sobel算子获取船舶表面图像中每个像素点的梯度幅值,将任意相邻的两个像素点之间的梯度幅值的差值绝对值记为所述两个像素点的相对梯度。
需要说明的是,Sobel算子为现有边缘检测算法,故本实施例不进行赘述。
最后,根据任意子区域中像素点的灰度值差异以及梯度幅值,获得子区域的灰度均匀度,作为一种实施例,具体计算方法为:
其中,表示子区域的灰度均匀度,表示子区域内像素点的数量,表示子区域内第个像素点的灰度值;表示子区域内所有像素点的平均灰度值;表示子区域中第m+1个像素点与第m个像素点的相对梯度;表示以自然常数为底数的指数函数;表示绝对值函数。
需要说明的是,反映了子区域中任意一个像素点相对于子区域整体的灰度值差异,子区域中像素点相对于子区域整体的灰度值差异越小,则表示子区域中像素点的灰度值大小接近,即子区域的灰度均匀度越大。
至此,通过上述方法得到船舶表面图像中每个子区域的灰度均匀度。
藤壶纹理模块103,用于获取子区域内的边缘像素点,根据子区域的灰度均匀度、子区域内边缘像素点的距离以及像素点的梯度幅值大小,获得子区域的藤壶表现度,利用不同子区域的灰度均匀度的差异对子区域的藤壶表现度进行调节,获得子区域的新藤壶表现度。
需要说明的是,由于藤壶的外壳由一系列等距排列的细小环形突起构成,这些突起相互之间密集排列,呈现出明显的环形纹理,因此使得船舶表面图像中的局部区域出现频繁的纹理变化,即子区域内相邻像素点之间的梯度幅值越大且数量越多,表示子区域内像素点之间的梯度变化由藤壶外壳的纹理导致的可能性越大,同时,局部区域内出现频繁的纹理变化时,在对应的子区域内边缘像素点之间的距离越小,即边缘像素点较为聚集,故在对应子区域内的船舶表面附着有藤壶等海洋生物的可能性越大。
具体的,步骤(3.1),首先,利用Sobel算子获取船舶表面图像中每个子区域内的边缘像素点。
然后,根据船舶表面图像中任意子区域的灰度均匀度、像素点的梯度幅值大小以及边缘像素点之间的距离,获得子区域的藤壶表现度,作为一种实施例,具体计算方法为:
其中,表示子区域的藤壶表现度;表示子区域的灰度值均匀程度;表示子区域的高梯度参数;表示子区域中边缘像素点的数量;表示子区域中的第个边缘像素点与第个边缘像素点之间的欧氏距离。
所述子区域的高梯度参数的具体获取方法为:
将任意像素点记为目标像素点,将目标像素点的8邻域范围内所有像素点的平均梯度幅值记为目标像素点的参考梯度值,获取船舶表面图像中每个像素点的参考梯度值,将船舶表面图像的任意子区域中所有梯度幅值大于参考梯度值的像素点的数量记为子区域的高梯度参数。
需要说明的是,藤壶表现度用于描述船舶表面图像中对应子区域内,像素点的灰度值分布以及纹理变化特征符合藤壶附着时所表现的图像特征时的概率,即藤壶表现度反映了子区域内存在藤壶的概率,藤壶表现度越大,子区域内存在藤壶的概率越大,反之越小。
步骤(3.2),首先,将任意子区域记为目标子区域,将与目标子区域相邻的子区域记为目标子区域的参考子区域,将目标子区域的所有参考子区域中藤壶表现度最大的参考子区域记为目标子区域的最大参考子区域,将目标子区域与目标子区域的最大参考子区域合并为一个区域记为目标子区域的新子区域,获取新子区域的灰度均匀度,所述新子区域的灰度均匀度与子区域的灰度均匀度的获取方法相同。
然后,对任意子区域的藤壶表现度进行修正,获得子区域的新藤壶表现度,作为一种实施例,具体计算方法为:
其中,表示子区域的新藤壶表现度;表示子区域的藤壶表现度;表示子区域的参考子区域的数量;表示子区域的灰度均匀度;表示子区域的第个参考子区域的灰度均匀度;表示子区域的新子区域的灰度均匀度;表示线性归一化函数。
需要说明的是,本实施例中线性归一化函数的值域范围为开区间,可根据实际情况进行调整,本实施例不进行具体限定。
需要说明的是,表示子区域的调节因子,调节因子越大,对子区域的藤壶表现度的大小的增大程度越大,反之越小;调节因子中的第一因子表示子区域与邻域范围内的参考子区域之间的灰度均匀度的差值累加值,反映了在局部范围内子区域与其他子区域在灰度分布信息方面的差异,差异越大,表示子区域相对于其他子区域的灰度信息越明显,在船舶外层表面对应位置处越有可能附着有藤壶等海洋生物;另外,调节因子中的第二因子表示子区域与对应的新子区域在合并前后的灰度均匀度的差异,差异越大,即子区域与邻域范围内藤壶表现度最大的子区域在灰度均匀度上的差异越大,表示子区域相对于最大藤壶表现度的子区域之间的差异越大,子区域的藤壶表现度应该更大,故通过对子区域的藤壶表现度进行调节,使子区域的藤壶表现度适当增大,获得子区域的新藤壶表现度。
需要说明的是,子区域的新藤壶表现度反映了子区域内存在藤壶的概率,新藤壶表现度越大,表示子区域对应的船舶表面上附着有藤壶等海洋生物的概率越大,反之越小。
至此,通过上述方法得到船舶表面图像中每个子区域的新藤壶表现度。
增强检测模块104,用于根据船舶表面图像中子区域的新藤壶表现度的大小对子区域进行合并以及局部直方图均衡化处理,获得增强后的船舶表面图像,利用船舶表面图像进行视觉检测和船舶外层表面清洗。
需要说明的是,为了保证足够的图像细节信息用于船舶清洗过程中的视觉检测,本实施例将不同大小的新藤壶表现度所对应的子区域分别进行合并处理,在提高LHE算法进行局部直方图均衡化处理的处理速度的同时,有效减小图像细节信息损失的程度。
具体的,步骤(4.1),将新藤壶表现度小于等于预设的表现度阈值的子区域记为第一子区域,将新藤壶表现度大于预设的表现度阈值的子区域记为第二子区域,将所有相邻的第一子区域进行合并,获得第三子区域。
需要说明的是,根据经验预设表现度阈值为0.4,可根据实际情况对表现度阈值的大小进行调整,本实施例不对其大小进行具体限定。
步骤(4.2),首先,利用LHE算法对船舶表面图像的所有第二子区域和第三子区域分别进行局部直方图均衡化处理,获得增强后的船舶表面图像。
然后,利用CNN神经网络对船舶表面图像进行目标检测,识别出需要清洗的区域,将目标检测的结果反馈给船舶清洗机器人,通过船舶清洗机器人对船舶外层表面进行清洗。
如图2所示为本实施例的船舶清洗机器人用视觉检测的流程图。
至此,本实施例完成。
需要说明的是,本实施例中所用的模型仅用于表示负相关关系和约束模型输出的结果处于区间内,具体实施时,可替换成具有同样目的的其他模型,本实施例只是以模型为例进行叙述,不对其做具体限定,其中是指该模型的输入。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种船舶清洗机器人用视觉检测系统,其特征在于,该系统包括以下模块:
图像采集模块,用于获取船舶表面图像;
灰度分析模块,用于将船舶表面图像进行划分获得若干个子区域,获取像素点的梯度幅值,根据子区域中像素点的灰度值差异以及梯度幅值差异获得子区域的灰度均匀度;
藤壶纹理模块,用于获取子区域内的边缘像素点,根据子区域的灰度均匀度、子区域内边缘像素点的距离以及像素点的梯度幅值大小,获得子区域的藤壶表现度,利用不同子区域的灰度均匀度的差异对子区域的藤壶表现度进行调节,获得子区域的新藤壶表现度;
所述获取子区域内的边缘像素点,根据子区域的灰度均匀度、子区域内边缘像素点的距离以及像素点的梯度幅值大小,获得子区域的藤壶表现度,包括的具体方法为:
首先,利用Sobel算子获取船舶表面图像中每个子区域内的边缘像素点,获取任意子区域内所有边缘像素点之间的平均欧氏距离;
然后,根据子区域中像素点的梯度幅值的大小获得子区域的高梯度参数;
最后,根据船舶表面图像中任意子区域的灰度均匀度、高梯度参数以及边缘像素点之间的平均欧氏距离,获得子区域的藤壶表现度,所述子区域的灰度均匀度与子区域的藤壶表现度成反比,子区域的高梯度参数以及边缘像素点之间的平均欧氏距离与子区域的藤壶表现度成正比;
所述利用不同子区域的灰度均匀度的差异对子区域的藤壶表现度进行调节,获得子区域的新藤壶表现度,包括的具体方法为:
将船舶表面图像中的任意子区域记为目标子区域,根据子区域之间的位置关系以及子区域的藤壶表现度的大小,获得子区域的参考子区域和最大参考子区域;将目标子区域与目标子区域的最大参考子区域合并为一个区域记为目标子区域的新子区域,获取新子区域的灰度均匀度,所述新子区域的灰度均匀度与子区域的灰度均匀度的获取方法相同;
根据子区域分别与子区域的参考子区域、子区域的新子区域之间的灰度均匀度差异,获得子区域的调节因子;
利用调节因子对子区域的藤壶表现度进行调节获得子区域的新藤壶表现度,所述子区域的新藤壶表现度与子区域的藤壶表现度、调节因子均成正比;
增强检测模块,用于根据船舶表面图像中子区域的新藤壶表现度的大小对子区域进行合并以及局部直方图均衡化处理,获得增强后的船舶表面图像,利用增强后的船舶表面图像进行视觉检测和船舶外层表面清洗。
2.根据权利要求1所述一种船舶清洗机器人用视觉检测系统,其特征在于,所述将船舶表面图像进行划分获得若干个子区域,包括的具体方法为:
将船舶表面图像均匀划分为A个相同大小的区域,记为船舶表面图像的子区域,其中A为预设的数量参数。
3.根据权利要求1所述一种船舶清洗机器人用视觉检测系统,其特征在于,所述获取像素点的梯度幅值,根据子区域中像素点的灰度值差异以及梯度幅值差异获得子区域的灰度均匀度,包括的具体方法为:
利用Sobel算子获取船舶表面图像中每个像素点的梯度幅值;
根据子区域中像素点的灰度值差异以及梯度幅值差异分别获得第一累加值和第二累加值;
根据第一累加值和第二累加值获得子区域的灰度均匀度,所述第一累加值和第二累加值均与子区域的灰度均匀度成反比。
4.根据权利要求3所述一种船舶清洗机器人用视觉检测系统,其特征在于,所述根据子区域中像素点的灰度值差异以及梯度幅值差异分别获得第一累加值和第二累加值,包括的具体方法为:
将每个子区域内所有像素点的平均灰度值记为子区域的第一均值,将子区域内每个像素点的灰度值与子区域的第一均值的差值绝对值记为每个像素点的第一差值,将子区域内所有像素点的第一差值的累加值记为第一累加值;
将子区域内任意相邻的两个像素点之间的梯度幅值的差值绝对值记为所述相邻的两个像素点的相对梯度,将子区域内所有相邻的两个像素点的相对梯度的累加值记为第二累加值。
5.根据权利要求1所述一种船舶清洗机器人用视觉检测系统,其特征在于,所述根据子区域中像素点的梯度幅值的大小获得子区域的高梯度参数,包括的具体方法为:
将任意像素点记为目标像素点,将目标像素点的8邻域范围内所有像素点的平均梯度幅值记为目标像素点的参考梯度值,获取船舶表面图像中每个像素点的参考梯度值,将船舶表面图像的任意子区域中所有梯度幅值大于参考梯度值的像素点的数量记为子区域的高梯度参数。
6.根据权利要求1所述一种船舶清洗机器人用视觉检测系统,其特征在于,所述根据子区域之间的位置关系以及子区域的藤壶表现度的大小,获得子区域的参考子区域和最大参考子区域,包括的具体方法为:
将与目标子区域相邻的子区域记为目标子区域的参考子区域,将目标子区域的所有参考子区域中藤壶表现度最大的参考子区域记为目标子区域的最大参考子区域。
7.根据权利要求1所述一种船舶清洗机器人用视觉检测系统,其特征在于,所述根据子区域分别与子区域的参考子区域、子区域的新子区域之间的灰度均匀度差异,获得子区域的调节因子,包括的具体方法为:
将子区域的任意一个参考子区域与子区域的灰度均匀度的差值记为第一差值,将子区域的所有参考子区域与子区域的第一差值的累加值记为第一因子;
将子区域的灰度均匀度与子区域的新子区域的灰度均匀度的差值记为第二因子;
将第一因子和第二因子的乘积记为子区域的调节因子。
8.根据权利要求1所述一种船舶清洗机器人用视觉检测系统,其特征在于,所述根据船舶表面图像中子区域的新藤壶表现度的大小对子区域进行合并以及局部直方图均衡化处理,获得增强后的船舶表面图像,利用增强后的船舶表面图像进行视觉检测和船舶外层表面清洗,包括的具体方法为:
将新藤壶表现度小于等于预设的表现度阈值的子区域记为第一子区域,将新藤壶表现度大于预设的表现度阈值的子区域记为第二子区域,将所有相邻的第一子区域进行合并,获得第三子区域;
利用LHE算法对船舶表面图像的所有第二子区域和第三子区域分别进行局部直方图均衡化处理,获得增强后的船舶表面图像;
利用CNN神经网络对增强后的船舶表面图像进行目标检测,识别出需要清洗的区域,将目标检测的结果反馈给船舶清洗机器人,通过船舶清洗机器人对船舶外层表面进行清洗。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410517921.9A CN118115414B (zh) | 2024-04-28 | 一种船舶清洗机器人用视觉检测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410517921.9A CN118115414B (zh) | 2024-04-28 | 一种船舶清洗机器人用视觉检测系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118115414A CN118115414A (zh) | 2024-05-31 |
CN118115414B true CN118115414B (zh) | 2024-07-05 |
Family
ID=
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115797225A (zh) * | 2023-01-06 | 2023-03-14 | 山东环宇地理信息工程有限公司 | 一种水下地形测量用无人船采集图像增强方法 |
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115797225A (zh) * | 2023-01-06 | 2023-03-14 | 山东环宇地理信息工程有限公司 | 一种水下地形测量用无人船采集图像增强方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109461141A (zh) | 一种工件缺胶检测方法 | |
CN115496692B (zh) | 一种润滑油磨粒图像增强方法 | |
CN111539935A (zh) | 一种基于机器视觉的电缆表面缺陷在线检测方法 | |
CN114926839B (zh) | 基于rpa和ai的图像识别方法及电子设备 | |
CN107590512B (zh) | 一种模板匹配中参数的自适应方法和系统 | |
CN109064479B (zh) | 一种基于邻近视频帧灰度动态特征的海天线检测方法 | |
CN115359053A (zh) | 一种金属板材缺陷智能检测方法及系统 | |
CN113327206B (zh) | 基于人工智能的输电线智能巡检系统的图像模糊处理方法 | |
CN116110053A (zh) | 基于图像识别的集装箱表面信息检测方法 | |
CN115029704B (zh) | 一种用于不锈钢酸洗工艺的智能控制方法及装置 | |
CN110378887A (zh) | 屏幕缺陷检测方法、装置及系统、计算机设备及介质 | |
CN113781585A (zh) | 一种增材制造零件表面缺陷在线检测方法及系统 | |
CN112561875A (zh) | 一种基于人工智能的光伏电池板粗栅检测方法 | |
CN117593193B (zh) | 一种基于机器学习的钣金图像增强方法及系统 | |
CN113705501B (zh) | 一种基于图像识别技术的海上目标检测方法和系统 | |
CN116843581B (zh) | 一种多场景图的图像增强方法、系统、设备和存储介质 | |
CN118115414B (zh) | 一种船舶清洗机器人用视觉检测系统 | |
CN107478656B (zh) | 基于机器视觉的纸浆搅拌效果检测评价方法、装置、系统 | |
CN117541582A (zh) | 一种高频变频器igbt绝缘质量检测方法 | |
CN109636785A (zh) | 一种识别金刚砂颗粒的视觉处理方法 | |
CN103177244A (zh) | 水下显微图像中快速检测目标生物的方法 | |
CN113052794A (zh) | 一种基于边缘特征的图像清晰度识别方法 | |
CN118115414A (zh) | 一种船舶清洗机器人用视觉检测系统 | |
CN114359276B (zh) | 基于麻点缺陷的钢模下料优选方案获取方法 | |
CN116843618A (zh) | 一种金属零件浅显外观缺陷检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |