CN115035397A - 一种基于水下移动目标识别方法、装置 - Google Patents
一种基于水下移动目标识别方法、装置 Download PDFInfo
- Publication number
- CN115035397A CN115035397A CN202210578614.2A CN202210578614A CN115035397A CN 115035397 A CN115035397 A CN 115035397A CN 202210578614 A CN202210578614 A CN 202210578614A CN 115035397 A CN115035397 A CN 115035397A
- Authority
- CN
- China
- Prior art keywords
- image
- channel
- background
- saliency map
- underwater
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 47
- 230000004927 fusion Effects 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims description 16
- 238000000354 decomposition reaction Methods 0.000 claims description 7
- 238000007499 fusion processing Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 abstract description 3
- 230000002708 enhancing effect Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/05—Underwater scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于水下移动目标识别方法、装置,包括:采集水下目标图像,得到初始图像;将所述初始图像转换为YUV通道图像,并分别获取Y、U、V通道图像;基于对所述Y通道图像进行第一图像处理,获取第一图像;基于对所述U、V通道图像进行第二图像处理,获取第二U通道图像、第二V通道图像;基于所述Y通道增强图像M1生成背景图像,进行水下目标识别。本发明,通过对于水下图像进行预处理增强获取更为有效的Y通道图像信息,并进一步基于对不同层次的图形进行显著图获取并基于显著图执行背景模型的建立而后执行不同层次显著图的融合使得背景模型最佳地保证了背景的完整性,从而便于识别保证目标的精度。
Description
技术领域
本发明涉及目标识别技术领域,尤其涉及一种基于水下移动目标识别方法、 装置。
背景技术
水下目标识别是实现水声装备与武器系统智能化的关键技术,更是高新技术 条件下克敌制胜的前提,也一直是海军部门久攻不克,悬之未决的技术难题,早 在上世纪40年代就受到有关学术界和应用部门高度重视。但由于该领域的特殊 性和复杂性(恶劣的环境和信道、可利用数据率低等)致使研究进展一直比较缓 慢。近三十年来,低噪声核潜艇的出现对水下目标特征分析和识别技术的需求更 加强烈。且新兴的信息处理技术、微处理器技术、VLSI和VHSIC技术也取得了 很大的进展。军事需求的牵引和新兴技术的推动使水下目标识别技术取得重大进 展,理论探索和实验室仿真技术日趋成熟,目前正向工程化应用方向迈进。
预处理的目的是去除噪声,提高信号增益,并对种种因素造成的声信号弱化 现象进行复原。国外常用的信号预处理方法包括信号相关、自适应噪声抵消、小 波分析、盲信号处理、各种非线性处理技术等。
而在目标识别领域,传统的目标检测算法:Cascade+HOG/DPM+Haar/SVM 以及上述方法的诸多改进、优化。传统的目标检测中,多尺度形变部件模型DPM (Deformable PartModel)表现比较优秀,连续获得VOC(Visual Object Class) 2007到2009的检测冠军,。DPM把物体看成了多个组成的部件(比如人脸的鼻 子、嘴巴等),用部件间的关系来描述物体,这个特性非常符合自然界很多物体 的非刚体特征。DPM可以看做是HOG+SVM的扩展,很好的继承了两者的优点, 在人脸检测、行人检测等任务上取得了不错的效果,但是DPM相对复杂,检测 速度也较慢,从而也出现了很多改进的方法。但传统目标检测存在两个主要问题:一个是基于滑动窗口的区域选择策略没有针对性,时间复杂度高,窗口冗余; 二是手工设计的特征对于多样性的变化并没有很好的鲁棒性。小目标是指图像中 覆盖区域较小的一类目标.与常规目标相比,小目标信息量少,训练数据难以标 记,这导致通用的目标检测方法对小目标的检测效果不好,而专门为小目标设计 的检测方法往往复杂度过高或不具有通用性.在分析现有目标检测方法的基础 上,现有技术中存在一些面向小目标的多尺度快速区域卷积神经网络(faster-regions with convolutional neural network,Faster-RCNN)检测算法。但是 现有技术中进行水下目标识别的图像模糊,且小目标识别的方式还是存在识别率 不高以及识别精确度不高的技术问题。
发明内容
有鉴于此,本发明提供了一种水下移动目标识别方、装置,旨在解决上述的 存在水下图像模糊,识别率不高以及识别精确度不高的技术问题。
本发明的技术方案如下:
一种基于水下移动目标识别方法,其特征在于,包括:
采集水下目标图像,得到初始图像;
将所述初始图像转换为YUV通道图像,并分别获取Y、U、V通道图像;
基于对所述Y通道图像进行第一图像处理,获取第一图像;基于对所述U、 V通道图像进行第二图像处理,获取第二U通道图像、第二V通道图像;
所述基于对所述Y通道图像进行第一图像处理,获取第一图像,包括:获 取水下光照度A,对所述Y通道图像提取高频信号M、D,计算M*A得到Y通 道高频增强图像信号M0,通过M0、D融合得到Y通道增强图像M1;
基于所述Y通道增强图像M1生成背景图像,进行水下目标识别。
优选的,水下光照度A=T/初始图像的平均灰度值。
优选的,所述基于所述Y通道增强图像M1生成背景图像,进行水下目标 识别,包括:
对所述Y通道增强图像M1进行高斯分解,获取第三图像、第四图像;并 分别对所述Y通道增强图像M1、第三图像、第四图像进行显著性检测,得到Y 通道增强图像显著图、第三图像显著图、第四图像显著图;分别对所述Y通道 增强图像显著图、第三图像显著图、第四图像显著图执行背景处理,得到第一背 景图像、第三背景图像、第四背景图像;
基于所述第一背景图像、第三背景图像、第四背景图像,进行融合处理, 生成融合背景图像,从而进行水下目标识别。
优选的,基于融合背景检测目标区域,生成目标区域掩膜,基于所述目标 区域掩膜以及Y通道增强图像、第二U通道图像、第二V通道图像,获取目标 的主颜色信息。
优选的,所述分别对所述Y通道增强图像显著图、第三图像显著图、第四 图像显著图执行背景处理,得到第一背景图像、第三背景图像、第四背景图像, 包括:
对所述Y通道增强图像显著图、第三图像显著图、第四图像显著分别选取 对应的局部邻域模板,对所述Y通道增强图像显著图、第三图像显著图、第四 图像显著中的每一个像素点,用它的灰度值与邻域内其它点的平均灰度值做差, 将差值的平方作为权值系数,与每一点的局部熵相乘,作为该像素点的最终局部 信息熵;
若该该像素点的最终局部信息熵小于一定阈值,则确定该像素点为背景区 域,从而遍历所有点,分别得到第一背景图像、第三背景图像、第四背景图像。
此外,还提出一种基于水下移动目标识别装置,包括:
采集模块,采集水下目标图像,得到初始图像;
转换模块,将所述初始图像转换为YUV通道图像,并分别获取Y、U、V 通道图像;
处理模块,基于对所述Y通道图像进行第一图像处理,获取第一图像;基 于对所述U、V通道图像进行第二图像处理,获取第二U通道图像、第二V通 道图像;所述基于对所述Y通道图像进行第一图像处理,获取第一图像,包括: 获取水下光照度A,对所述Y通道图像提取高频信号M、D,计算M*A得到Y 通道高频增强图像信号M0,通过M0、D融合得到Y通道增强图像M1;
识别模块,基于所述Y通道增强图像M1生成背景图像,进行水下目标识 别。
优选的,水下光照度A=T/初始图像的平均灰度值。
优选的,所述基于所述Y通道增强图像M1生成背景图像,进行水下目标 识别,包括:
对所述Y通道增强图像M1进行高斯分解,获取第三图像、第四图像;并 分别对所述Y通道增强图像M1、第三图像、第四图像进行显著性检测,得到Y 通道增强图像显著图、第三图像显著图、第四图像显著图;分别对所述Y通道 增强图像显著图、第三图像显著图、第四图像显著图执行背景处理,得到第一背 景图像、第三背景图像、第四背景图像;
基于所述第一背景图像、第三背景图像、第四背景图像,进行融合处理, 生成融合背景图像,从而进行水下目标识别。
优选的,基于融合背景检测目标区域,生成目标区域掩膜,基于所述目标 区域掩膜以及Y通道增强图像、第二U通道图像、第二V通道图像,获取目标 的主颜色信息。
优选的,所述分别对所述Y通道增强图像显著图、第三图像显著图、第四 图像显著图执行背景处理,得到第一背景图像、第三背景图像、第四背景图像, 包括:
对所述Y通道增强图像显著图、第三图像显著图、第四图像显著分别选取 对应的局部邻域模板,对所述Y通道增强图像显著图、第三图像显著图、第四 图像显著中的每一个像素点,用它的灰度值与邻域内其它点的平均灰度值做差, 将差值的平方作为权值系数,与每一点的局部熵相乘,作为该像素点的最终局部 信息熵;
若该该像素点的最终局部信息熵小于一定阈值,则确定该像素点为背景区 域,从而遍历所有点,分别得到第一背景图像、第三背景图像、第四背景图像。
在本发明实施例的方案中,基于水下移动目标识别方法、装置,包括:采集 水下目标图像,得到初始图像;将所述初始图像转换为YUV通道图像,并分别 获取Y、U、V通道图像;基于对所述Y通道图像进行第一图像处理,获取第一 图像;基于对所述U、V通道图像进行第二图像处理,获取第二U通道图像、 第二V通道图像;所述基于对所述Y通道图像进行第一图像处理,获取第一图 像,包括:获取水下光照度A,对所述Y通道图像提取高频信号M,计算M*A 得到Y通道增强图像M1;基于所述Y通道增强图像M1生成背景图像,进行水 下目标识别。本发明,通过对于水下图像进行预处理增强获取更为有效的Y通 道图像信息,并进一步基于对不同层次的图形进行显著图获取并基于显著图执行 背景模型的建立而后执行不同层次显著图的融合使得背景模型最佳地保证了背 景的完整性,从而便于识别保证目标的精度。
附图说明
图1为本发明实施例基于水下移动目标识别方法流程图;
图2为本发明实施例基于水下移动目标识别装置结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清 楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全 部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性 劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施一种水下移动目标识别方法,所述方法包括:
采集水下目标图像,得到初始图像;
将所述初始图像转换为YUV通道图像,并分别获取Y、U、V通道图像;
基于对所述Y通道图像进行第一图像处理,获取第一图像;基于对所述U、 V通道图像进行第二图像处理,获取第二U通道图像、第二V通道图像;
所述基于对所述Y通道图像进行第一图像处理,获取第一图像,包括:获 取水下光照度A,对所述Y通道图像提取高频信号M、D,计算M*A得到Y通 道高频增强图像信号M0,通过M0、D融合得到Y通道增强图像M1;
基于所述Y通道增强图像M1生成背景图像,进行水下目标识别。
优选的,水下光照度A=T/初始图像的平均灰度值。
优选的,所述基于所述Y通道增强图像M1生成背景图像,进行水下目标 识别,包括:
对所述Y通道增强图像M1进行高斯分解,获取第三图像、第四图像;并 分别对所述Y通道增强图像M1、第三图像、第四图像进行显著性检测,得到Y 通道增强图像显著图、第三图像显著图、第四图像显著图;分别对所述Y通道 增强图像显著图、第三图像显著图、第四图像显著图执行背景处理,得到第一背 景图像、第三背景图像、第四背景图像;
基于所述第一背景图像、第三背景图像、第四背景图像,进行融合处理, 生成融合背景图像,从而进行水下目标识别。
优选的,所述分别对所述Y通道增强图像显著图、第三图像显著图、第四 图像显著图执行背景处理,得到第一背景图像、第三背景图像、第四背景图像, 包括:
对所述Y通道增强图像显著图、第三图像显著图、第四图像显著图分别选 取对应的局部邻域模板,对所述Y通道增强图像显著图、第三图像显著图、第 四图像显著中的每一个像素点,用它的灰度值与邻域内其它点的平均灰度值做 差,将差值的平方作为权值系数,与每一点的局部熵相乘,作为该像素点的最终 局部信息熵;
若该该像素点的最终局部信息熵小于一定阈值,则确定该像素点为背景区 域,从而遍历所有点,分别得到第一背景图像、第三背景图像、第四背景图像。
具体地,本实施例,可以选取3*3、5*5、7*7、9*9模板作为局部邻域模板, 对于显著图中每一个点,用它的灰度值与邻域内其它点的平均灰度值做差,将差 值的平方作为权值系数,与每一点的局部熵相乘,作为该点的最终局部信息熵。 对比每个模板求得的显著图中的小目标对比度及运算需要的时间,选择效果最佳 的模板。基于选择效果最佳,运行时间最少的模板,最终我们可以选取5*5或 7*7的模板作为局部邻域模板。通过对所述第三图像显著图选取对应的局部邻域 模板,对所述第三图像显著图中的每一个像素点,用它的灰度值与邻域内其它点 的平均灰度值做差,将差值的平方作为权值系数,与每一点的局部熵相乘,作为 该像素点的最终局部信息熵,而每个像素点对应的最终局部信息熵组成的图像称 之为局部熵图像。
具体地,本实施例,首先对不同图层中的目标候选点位置关系进行分析,通 过高斯降采样分解得到的三个图层之间的关系是,下一级图层是上一级图层的 1/4,即长度和宽度分别为上一级的1/2。由于高斯滤波易在图像边缘产生畸变, 本实施例,对下一级图像四周进行了宽度为h的裁剪,以保证得到的显著图中 不含有畸变噪声影响显著区域的判断,h取值为10个像素。根据此关系,设下 一级图层中候选点位置为a2=(x,y),则对应到上一级图层中应当出现候选点a1 的位置:a1=2*(x+h,y+h)。
分别计算Y通道增强图像M1、第三图像、第四图像的图像整体方差值x1、 x2、x3;
分别计算Y通道增强图像M1、第三图像、第四图像的图像加权局部熵,获 取对应的加权局部熵图像M1、M2、M3;
则融合背景图像为:
M=(1/x1)×M1+(1/x2)×M2+(1/x3)×M3;
基于融合背景图像,执行小目标区域分割与识别。
具体地,本实施例,采取全局阈值分割方法,首先就、对图像进行判断,计 算图像的极大值、均值和标准差,如果极大值小于均值与n倍标准差的和值,那 么根据统计规律判断,所处理的图像中,不含有小目标;对判断含有小目标的图 像,将阈值设为极大值的0.65,大于这个阈值的点则认为是目标点。
优选的,基于融合背景检测目标区域,生成目标区域掩膜,基于所述目标 区域掩膜以及Y通道增强图像M1、第二U通道图像、第二V通道图像,获取 目标的主颜色信息。
具体的,本实施例,可以通过目标区域掩膜限定出目标的坐标信息,从而 获取目标对象的Y-U-V信息,从而基于K-Means算法提取目标主颜色。
此外,本发明还实施一种基于水下移动目标识别装置,包括:
采集模块,采集水下目标图像,得到初始图像;
转换模块,将所述初始图像转换为YUV通道图像,并分别获取Y、U、V 通道图像;
处理模块,基于对所述Y通道图像进行第一图像处理,获取第一图像;基 于对所述U、V通道图像进行第二图像处理,获取第二U通道图像、第二V通 道图像;所述基于对所述Y通道图像进行第一图像处理,获取第一图像,包括: 获取水下光照度A,对所述Y通道图像提取高频信号M、D,计算M*A得到Y 通道高频增强图像信号M0,通过M0、D融合得到Y通道增强图像M1;
识别模块,基于所述Y通道增强图像M1生成背景图像,进行水下目标识 别。
优选的,水下光照度A=T/初始图像的平均灰度值。
优选的,所述基于所述Y通道增强图像M1生成背景图像,进行水下目标 识别,包括:
对所述Y通道增强图像M1进行高斯分解,获取第三图像、第四图像;并 分别对所述Y通道增强图像M1、第三图像、第四图像进行显著性检测,得到Y 通道增强图像显著图、第三图像显著图、第四图像显著图;分别对所述Y通道 增强图像显著图、第三图像显著图、第四图像显著图执行背景处理,得到第一背 景图像、第三背景图像、第四背景图像;
基于所述第一背景图像、第三背景图像、第四背景图像,进行融合处理, 生成融合背景图像,从而进行水下目标识别。
优选的,基于融合背景检测目标区域,生成目标区域掩膜,基于所述目标 区域掩膜以及Y通道增强图像、第二U通道图像、第二V通道图像,获取目标 的主颜色信息。
优选的,所述分别对所述Y通道增强图像显著图、第三图像显著图、第四 图像显著图执行背景处理,得到第一背景图像、第三背景图像、第四背景图像, 包括:
对所述Y通道增强图像显著图、第三图像显著图、第四图像显著分别选取 对应的局部邻域模板,对所述Y通道增强图像显著图、第三图像显著图、第四 图像显著中的每一个像素点,用它的灰度值与邻域内其它点的平均灰度值做差, 将差值的平方作为权值系数,与每一点的局部熵相乘,作为该像素点的最终局部 信息熵;
若该该像素点的最终局部信息熵小于一定阈值,则确定该像素点为背景区 域,从而遍历所有点,分别得到第一背景图像、第三背景图像、第四背景图像。
在本发明实施例的方案中,基于水下移动目标识别方法、装置,包括:采集 水下目标图像,得到初始图像;将所述初始图像转换为YUV通道图像,并分别 获取Y、U、V通道图像;基于对所述Y通道图像进行第一图像处理,获取第一 图像;基于对所述U、V通道图像进行第二图像处理,获取第二U通道图像、 第二V通道图像;所述基于对所述Y通道图像进行第一图像处理,获取第一图 像,包括:获取水下光照度A,对所述Y通道图像提取高频信号M,计算M*A 得到Y通道增强图像M1;基于所述Y通道增强图像M1生成背景图像,进行水 下目标识别。本发明,通过对于水下图像进行预处理增强获取更为有效的Y通 道图像信息,并进一步基于对不同层次的图形进行显著图获取并基于显著图执行 背景模型的建立而后执行不同层次显著图的融合使得背景模型最佳地保证了背 景的完整性,从而便于识别保证目标的精度。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划 分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且 这些模块可以全部以软件通过处理元件调用的形式实现。也可以全部以硬件的形 式实现。还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件 的形式实现。
此外,本发明实施例还提供一种可读存储介质,所述可读存储介质中存储有 计算机执行指令,当处理器执行所述计算机执行指令时,实现如上处理方法。
上文已对基本概念做了描述,显然,对于本领域技术人员来说,上述详细披 露仅仅作为示例,而并不构成对本说明书的限定。虽然此处并没有明确说明,本 领域技术人员可能会对本说明书进行各种修改、改进和偏移处理。该类修改、改 进和偏移处理在本说明书中被建议,所以该类修改、改进、偏移处理仍属于本说 明书示范实施例的精神和范围。
同时,本说明书使用了特定词语来描述本说明书的实施例。如“一种可能的 实现方式”、“一种可能的示例”、和/或“示例性地”意指与本说明书至少一个实 施例相关的某一特征、结构或特点。因此,应强调并注意的是,本说明书中在不 同位置两次或多次提及的“一种可能的实现方式”、“一种可能的示例”、和/或“示 例性地”并不一定是指同一实施例。此外,本说明书的一个或多个实施例中的某 些特征、结构或特点可以进行适当的组合。
此外,本领域技术人员可以理解,本说明书的各方面可以通过若干具有可专 利性的种类或情况进行说明和描述,包括任何新的和有用的工序、机器、产品或 物质的组合,或对它们的任何新的和有用的改进。相应地,本说明书的各个方面 可以完全由硬件执行、可以完全由软件(包括固件、常驻软件、微码等)执行、 也可以由硬件和软件组合执行。以上硬件或软件均可被称为“数据块”、“模块”、 “引擎”、“单元”、“组件”或“系统”。此外,本说明书的各方面可能表现为位 于一个或多个计算机可读介质中的计算机产品,该产品包括计算机可读程序编 码。
需要说明的是,如果本说明书附属材料中的描述、定义、和/或术语的使用 与本说明书所述内容有不一致或冲突的地方,以本说明书的描述、定义和/或术 语的使用为准。
最后,应当理解的是,本说明书中所述实施例仅用以说明本说明书实施例的 原则。其它的变形也可能属于本说明书的范围。因此,作为示例而非限制,本说 明书实施例的替代配置可视为与本说明书的教导一致。相应地,本说明书的实施 例不仅限于本说明书明确介绍和描述的实施例。
Claims (10)
1.一种基于水下移动目标识别方法,其特征在于,包括:
采集水下目标图像,得到初始图像;
将所述初始图像转换为YUV通道图像,并分别获取Y、U、V通道图像;
基于对Y通道图像进行第一图像处理,获取第一图像;基于对U、V通道图像进行第二图像处理,获取第二U通道图像、第二V通道图像;
所述基于对所述Y通道图像进行第一图像处理,获取第一图像,包括:获取水下光照度A,对所述Y通道图像提取高频信号M、D,计算M*A得到Y通道高频增强图像信号M0,通过M0、D融合得到Y通道增强图像M1;
基于所述Y通道增强图像M1生成背景图像,进行水下目标识别。
2.如权利要求1所述的一种基于水下移动目标识别方法,其特征在于,水下光照度A=T/初始图像的平均灰度值。
3.权利要求1或2所述的一种基于水下移动目标识别方法,其特征在于,所述基于所述Y通道增强图像M1生成背景图像,进行水下目标识别,包括:
对所述Y通道增强图像M1进行高斯分解,获取第三图像、第四图像;并分别对所述Y通道增强图像M1、第三图像、第四图像进行显著性检测,得到Y通道增强图像显著图、第三图像显著图、第四图像显著图;分别对所述Y通道增强图像显著图、第三图像显著图、第四图像显著图执行背景处理,得到第一背景图像、第三背景图像、第四背景图像;
基于所述第一背景图像、第三背景图像、第四背景图像,进行融合处理,生成融合背景图像,从而进行水下目标识别。
4.权利要求3所述的一种基于水下移动目标识别方法,其特征在于,基于融合背景检测目标区域,生成目标区域掩膜,基于所述目标区域掩膜以及Y通道增强图像M1、第二U通道图像、第二V通道图像,获取目标的主颜色信息。
5.权利要求3所述的一种基于水下移动目标识别方法,其特征在于,所述分别对所述Y通道增强图像显著图、第三图像显著图、第四图像显著图执行背景处理,得到第一背景图像、第三背景图像、第四背景图像,包括:
对所述Y通道增强图像显著图、第三图像显著图、第四图像显著分别选取对应的局部邻域模板,对所述Y通道增强图像显著图、第三图像显著图、第四图像显著中的每一个像素点,用它的灰度值与邻域内其它点的平均灰度值做差,将差值的平方作为权值系数,与每一点的局部熵相乘,作为该像素点的最终局部信息熵;
若该该像素点的最终局部信息熵小于一定阈值,则确定该像素点为背景区域,从而遍历所有点,分别得到第一背景图像、第三背景图像、第四背景图像。
6.一种基于水下移动目标识别装置,其特征在于,包括:
采集模块,采集水下目标图像,得到初始图像;
转换模块,将所述初始图像转换为YUV通道图像,并分别获取Y、U、V通道图像;
处理模块,基于对Y通道图像进行第一图像处理,获取第一图像;基于对U、V通道图像进行第二图像处理,获取第二U通道图像、第二V通道图像;所述基于对所述Y通道图像进行第一图像处理,获取第一图像,包括:获取水下光照度A,对所述Y通道图像提取高频信号M、D,计算M*A得到Y通道高频增强图像信号M0,通过M0、D融合得到Y通道增强图像M1;
基于所述Y通道增强图像M1生成背景图像,进行水下目标识别。
7.如权利要求6所述的一种基于水下移动目标识别装置,其特征在于,水下光照度A=T/初始图像的平均灰度值。
8.权利要求6或7所述的一种基于水下移动目标识别装置,其特征在于,所述基于所述Y通道增强图像M1生成背景图像,进行水下目标识别,包括:
对所述Y通道增强图像M1进行高斯分解,获取第三图像、第四图像;并分别对所述Y通道增强图像M1、第三图像、第四图像进行显著性检测,得到Y通道增强图像显著图、第三图像显著图、第四图像显著图;分别对所述Y通道增强图像显著图、第三图像显著图、第四图像显著图执行背景处理,得到第一背景图像、第三背景图像、第四背景图像;
基于所述第一背景图像、第三背景图像、第四背景图像,进行融合处理,生成融合背景图像,从而进行水下目标识别。
9.权利要求8所述的一种基于水下移动目标识别装置,其特征在于,基于融合背景检测目标区域,生成目标区域掩膜,基于所述目标区域掩膜以及Y通道增强图像、第二U通道图像、第二V通道图像,获取目标的主颜色信息。
10.权利要求8所述的一种基于水下移动目标识别装置,其特征在于,所述分别对所述Y通道增强图像显著图、第三图像显著图、第四图像显著图执行背景处理,得到第一背景图像、第三背景图像、第四背景图像,包括:
对所述Y通道增强图像显著图、第三图像显著图、第四图像显著分别选取对应的局部邻域模板,对所述Y通道增强图像显著图、第三图像显著图、第四图像显著中的每一个像素点,用它的灰度值与邻域内其它点的平均灰度值做差,将差值的平方作为权值系数,与每一点的局部熵相乘,作为该像素点的最终局部信息熵;
若该该像素点的最终局部信息熵小于一定阈值,则确定该像素点为背景区域,从而遍历所有点,分别得到第一背景图像、第三背景图像、第四背景图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210578614.2A CN115035397A (zh) | 2022-05-25 | 2022-05-25 | 一种基于水下移动目标识别方法、装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210578614.2A CN115035397A (zh) | 2022-05-25 | 2022-05-25 | 一种基于水下移动目标识别方法、装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115035397A true CN115035397A (zh) | 2022-09-09 |
Family
ID=83121609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210578614.2A Pending CN115035397A (zh) | 2022-05-25 | 2022-05-25 | 一种基于水下移动目标识别方法、装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115035397A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115393579A (zh) * | 2022-10-27 | 2022-11-25 | 长春理工大学 | 一种基于加权块对比度的红外小目标检测方法 |
-
2022
- 2022-05-25 CN CN202210578614.2A patent/CN115035397A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115393579A (zh) * | 2022-10-27 | 2022-11-25 | 长春理工大学 | 一种基于加权块对比度的红外小目标检测方法 |
CN115393579B (zh) * | 2022-10-27 | 2023-02-10 | 长春理工大学 | 一种基于加权块对比度的红外小目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Visual depth guided color image rain streaks removal using sparse coding | |
CN112232349A (zh) | 模型训练方法、图像分割方法及装置 | |
CN106600625A (zh) | 检测小型生物的图像处理方法及装置 | |
CN105678213B (zh) | 基于视频特征统计的双模式蒙面人事件自动检测方法 | |
CN1918604A (zh) | 对背景区域和前景区域进行建模的方法 | |
CN109993744B (zh) | 一种海上逆光环境下的红外目标检测方法 | |
CN110135312B (zh) | 一种基于分级lcm的快速小目标检测方法 | |
US11042986B2 (en) | Method for thinning and connection in linear object extraction from an image | |
CN111160293A (zh) | 基于特征金字塔网络的小目标船只检测方法及系统 | |
CN118155149B (zh) | 一种智慧城市道路智能监控系统 | |
CN115035397A (zh) | 一种基于水下移动目标识别方法、装置 | |
CN113421210B (zh) | 一种基于双目立体视觉的表面点云重建方法 | |
CN102509308A (zh) | 基于混合动态纹理空时显著性检测的运动分割方法 | |
CN107248175B (zh) | 一种基于圆投影匹配算法的tld目标跟踪方法 | |
CN116311212A (zh) | 基于高速摄像机实现运动状态下的船号识别方法及装置 | |
Chu et al. | A content-adaptive method for single image dehazing | |
Taha et al. | Moving shadow removal for multi-objects tracking in outdoor environments | |
He et al. | A Pedestrian Detection Method Using SVM and CNN Multistage Classification. | |
CN111507968B (zh) | 一种图像融合质量检测方法及装置 | |
Jarraya et al. | Adaptive moving shadow detection and removal by new semi-supervised learning technique | |
Zhang et al. | Digital image forensics of non-uniform deblurring | |
CN117237619B (zh) | 基于机器视觉技术的水上救援探测系统及方法 | |
KR101312306B1 (ko) | 표지판 인식장치, 표지판 인식방법, 및 이미지 인식방법 | |
CN115018776A (zh) | 一种复杂背景下的小目标识别方法、系统 | |
Abdikhamitovich | Detection and determination coordinates of moving objects from a video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20220909 |