CN110363796A - 基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法 - Google Patents
基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法 Download PDFInfo
- Publication number
- CN110363796A CN110363796A CN201810510986.5A CN201810510986A CN110363796A CN 110363796 A CN110363796 A CN 110363796A CN 201810510986 A CN201810510986 A CN 201810510986A CN 110363796 A CN110363796 A CN 110363796A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- convolutional neural
- neural networks
- looking sonar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 28
- 238000005070 sampling Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 7
- 239000002245 particle Substances 0.000 claims abstract description 4
- 230000000694 effects Effects 0.000 abstract description 6
- 238000012545 processing Methods 0.000 abstract description 6
- 230000008569 process Effects 0.000 abstract description 2
- 238000013135 deep learning Methods 0.000 description 9
- 238000001914 filtration Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000012952 Resampling Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Abstract
本发明提供的是一种基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法。(1)检测出目标首次出现时的那一帧图像的所在位置,经过去均值、L2正则化的预处理;(2)采用无需训练的两层卷积神经网络结构,对图像进行滑动窗口采样,采用k‑means聚类的方法从图像块中聚类出滤波器作为卷积核,对目标图像周围的区域随机采样出m个样本,对每一个样本用滑动窗口的方法采样L个图像块;(3)采用稀疏表达的方式表示特征;(4)通过粒子滤波的跟踪框架进行跟踪。本发明易于使用、能很好地克服前视声纳图像中严重的噪声干扰、对目标的跟踪效果更好。该方法很大程度上提高了系统的处理帧率,使得跟踪过程的实时性有了很大保障。
Description
技术领域
本发明涉及的是一种运动目标跟踪方法,具体地说是一种前视声纳运动目标跟踪方法。
背景技术
机器学习(Machine Learning,简称ML)是一门正在被越来越多的人所熟知并且高速发展的技术,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
深度学习(Deep Learning,简称DL)是机器学习中一种基于对数据进行表征学习的方法。深度学习的概念源于人工神经网络的研究。含多隐层的多层感知器就是一种深度学习结构。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。
卷积神经网络(Convolutional neural networks,简称CNN)就是一种深度的监督学习下的机器学习模型。
深度学习技术在目标跟踪方面的应用具有十分重要的意义。在大数据背景下,利用深度学习训练网络模型,得到的卷积特征输出表达能力更强。在目标跟踪上,初期的应用方式是把网络学习到的特征,直接应用到相关的目标跟踪框架里面,从而得到更好的跟踪结果,本质上卷积输出得到的特征表达,更优于方向梯度直方图特征,这也是深度学习的优势之一,但同时也带来了计算量的增加,深度学习的另一大优势是端到端的输出。
在前视声纳目标跟踪中,用到的基本单元是卷积神经网络(简称CNN)。卷积神经网络最初是为解决图像识别等问题设计的,卷积神经网络不需要将特征提取和分类训练两个过程分开,它在训练时就自动提取了最有效的特征,并且所提取的特征使跟踪效果达到更好。CNN作为一个深度学习架构被提出的最初诉求,是降低对图像数据预处理的要求,以及避免复杂的特征提取过程。CNN可以直接使用图像的原始像素作为输入,减少了大量重复繁琐的数据预处理工作。CNN的最大特点是在于卷积的权值共享结构,可以大幅减少神经网络参数的数量,防止过拟合的同时又降低了神经网络模型的复杂度,有着很强的泛化性。
一般的卷积神经网络由多个卷积层构成,每个卷积层中通常会进行如下几个操作:首先,图像通过多个不同的卷积核滤波,并添加偏置,提取出局部特征,每一个卷积核会映射出一个新的2D图像;将前面卷积核的滤波输出结果,进行非线性的激活函数处理。常见的激活函数有Relu函数和Sigmoid函数等;对激活函数的结果再进行池化操作,保留最显著的特征,提升模型的畸变容忍能力。
在卷积神经网络中,对图像用一个卷积核进行卷积运算,实际上是一个滤波的过程。卷积的基本数学表示:
其中f(x,y)是一个图像,f(x,y)是图像上面x行y列上点的灰度值。而w(x,y)代表卷积核,a和b定义了卷积核即w(x,y)的大小。
根据深度学习关于人的视觉分层的理论,人的视觉对目标的辨识是分层的,低层会提取一些边缘特征,然后高一些层次进行形状或目标的认知,更高层的会分析一些运动和行为。也就是说高层的特征是低层特征的组合,从低层到高层的特征表示越来越抽象,越来越能表现语义或者意图。而抽象层面越高,存在的可能猜测就越少,就越利于分类。而深度学习就是通过这种分层的自动特征提取来达到目标分类,先构建一些基本的特征层,然后用这些基础特征去构建更高层的抽象,更精准的分类特征。
发明内容
本发明的目的在于提供一种能够提高目标跟踪阶段的实时性,提升目标跟踪的鲁棒性的基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法。
本发明的目的是这样实现的:
(1)检测出目标首次出现时的那一帧图像的所在位置,经过去均值、L2正则化的预处理以去除局部亮度差异和对比度的影响;
(2)采用无需训练的两层卷积神经网络结构,对步骤(1)得到的图像进行滑动窗口采样,然后采用k-means聚类的方法从图像块中聚类出滤波器作为卷积核,对目标图像周围的区域随机采样出m个样本,对每一个样本用滑动窗口的方法采样L个图像块;
(3)采用稀疏表达的方式表示特征;
(4)通过粒子滤波的跟踪框架进行跟踪。
滤波器的生成方式采用均值池化的方式。
传统的前视声纳运动目标跟踪采用的一般都是基于滤波和特征融合的方法。由于前视声纳图像本身具有噪声干扰十分严重的特点,基于普通滤波和特征融合的原理很难克服这种干扰,跟踪效果很差。这就迫切需要提出一种新的目标跟踪算法,在前视声纳图像受到严重噪声干扰以及目标变形严重的情况下依然能保持很好的鲁棒性和实时性。本发明提供了一种基于轻量卷积神经网络结构的高效前视声纳运动目标跟踪方法。
本发明的方法主要包括如下步骤:
(1)首先,根据目标特点用传统方法检测出目标所在位置(groundtruth),经过去均值、L2正则化的预处理以去除局部亮度差异和对比度的影响;
(2)采用无需训练的两层卷积神经网络结构,根据(1)对图像进行滑动窗口采样,然后采用k-means聚类的方法从图像块中聚类出适当的滤波器作为卷积核,对目标周围的区域随机采样出m个样本,对每一个样本用滑动窗口的方法采样L个图像块,其滤波器的生成方式采用了均值池化的方式;
(3)采用稀疏表达的方式表示特征,增加对目标表观特征的鲁棒性;
(4)最后通过粒子滤波的跟踪框架进行跟踪。
本发明的步骤(1)、(2)中预处理的方法和无需训练的轻量级网络结构,很好地消除了局部亮度的差异和对比度的影响,使得在目标跟踪阶段实时性大幅提高。
本发明的步骤(3)中自适应阈值(soft shrinkage)方法用来实现对全局表达的去噪,形成一个稀疏的表达。这个表达的更新采用的是简单有效的在线策略,能够有效地适应目标外观的变化,增加了对目标表观特征的鲁棒性,使得目标跟踪的鲁棒性大大提升。
本发明与现有技术相比的优势在于:该发明采用了轻量级的卷积神经网络,也就是整个架构只包含两层卷积神经网络,且与标准的卷积神经网络结构相比该轻量级结构去掉了池化层,这样做很大程度地提高了前视声纳目标跟踪系统的实时性。采用局部平均和二次抽样来解决失真问题,利用数据中的局部结构和内部几何布局信息进行视觉跟踪,这样最终呈现的全局图像是基于低级属性的但同时也是接近图像级信息的高级特征构建的,这样做使系统的鲁棒性显著提升,同时整体算法更加简单有效。
附图说明
图1是本发明方法的基本流程图;
图2是本发明方法整个跟踪模型的框架;
图3是用于获取第一帧图像中目标位置信息工具示意图;
图4a-图4f是前视声纳中变形严重的运动目标跟踪效果图;
图5a-图5e是复杂背景下前视声纳运动目标跟踪效果图。
具体实施方式
下面举例对本发明做更详细的描述。
结合图1,本发明的具体步骤如下:
(1)首先在Visual Studio平台上编写一个标定坐标程序,用来获取目标首次出现的那一帧图像上目标的位置信息,如图3所示。
(2)将输入图像进行灰度化的预处理并固定成n*n尺寸大小。然后进行密集重采样得到很多图像块y={Y1....Yl},尺寸为w*w大小,经过卷积层的处理后,总的图像块的个数就是(n-w+1)*(n-w+1),所有的图像块都通过去均值处理和L2正则化来消除光照和对比度的影响。
选取原则是:输入图像的尺寸是n*n,卷积核的尺寸是w*w,那么输入图像在经过卷积层处理之后输出的尺寸是(n-w+1)*(n-w+1)。
(3)采用k means聚类的方法从y中选出一组图像块F作为卷积核模板。给定第i个卷积核模板,于是对输入图像I的相应特征图就可以表示为: 尽管目标的外观由于光照变化和尺度变化而发生了明显的改变,但是经过卷积滤波之后的输出,也就是特征图不仅能够保留目标的局部结构,而且还能维持目标的全局几何布局几乎不变。同时由于目标周围的上下文背景可以为区分目标和背景提供很多有用的信息,因此同样需要对背景进行采样并且进行k-means聚类,获得一组模板:然后利用平均池化获得一个平均背景最后与输入图像I做卷积之后,可以得到:
(4)由于传统的CNN方法具有平移不变性,然而这对于目标跟踪会产生位置混淆的问题,于是本发明采用了轻量级的卷积神经网络,也就是整个架构只包含两层卷积神经网络,且与标准的卷积神经网络结构相比该轻量级结构去掉了池化层,提取到的高维特征图可以在位置混淆的情况下保证跟踪的准确性。通过将不同尺度上的目标处理成一个固定的尺度,目标上的每一个有用的部分在处理后的图像上变化不是很明显,因此复杂高维特征可以保留不同尺度上的有用部分的几何布局。用一个3维的张量C∈R(n-w+1)×(n-w+1)×d来表示卷积层获得的d个特征图的集合,同时为了提高鲁棒性,我们可以通过稀疏编码的方法利用一个稀疏的矢量c(vec(C))来近似,实现:然后求解这个模型的解:这样近似之后系统的鲁棒性有了显著提升。
(5)将(1)中得到的位置信息输入到跟踪框架中运行程序即可实现对前视声纳运动目标的跟踪。
通过说明书附图可以看出,本发明对于前视声纳运动目标的跟踪效果很好。
Claims (2)
1.一种基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法,其特征是:
(1)检测出目标首次出现时的那一帧图像的所在位置,经过去均值、L2正则化的预处理以去除局部亮度差异和对比度的影响;
(2)采用无需训练的两层卷积神经网络结构,对步骤(1)得到的图像进行滑动窗口采样,然后采用k-means聚类的方法从图像块中聚类出滤波器作为卷积核,对目标图像周围的区域随机采样出m个样本,对每一个样本用滑动窗口的方法采样L个图像块;
(3)采用稀疏表达的方式表示特征;
(4)通过粒子滤波的跟踪框架进行跟踪。
2.根据权利要求1所述的基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法,其特征是:滤波器的生成方式采用均值池化的方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810510986.5A CN110363796A (zh) | 2018-05-25 | 2018-05-25 | 基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810510986.5A CN110363796A (zh) | 2018-05-25 | 2018-05-25 | 基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110363796A true CN110363796A (zh) | 2019-10-22 |
Family
ID=68212965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810510986.5A Pending CN110363796A (zh) | 2018-05-25 | 2018-05-25 | 基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110363796A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101140324A (zh) * | 2007-10-11 | 2008-03-12 | 上海交通大学 | 海域合成孔径雷达图像点目标提取的方法 |
CN105447459A (zh) * | 2015-11-18 | 2016-03-30 | 上海海事大学 | 一种无人机自动检测目标和跟踪方法 |
CN107292844A (zh) * | 2017-06-20 | 2017-10-24 | 南京理工大学 | 全变差正则化变分随机共振自适应暗图像滤波增强方法 |
US20180114056A1 (en) * | 2016-10-25 | 2018-04-26 | Vmaxx, Inc. | Vision Based Target Tracking that Distinguishes Facial Feature Targets |
CN108021869A (zh) * | 2017-11-15 | 2018-05-11 | 华侨大学 | 一种结合高斯核函数的卷积神经网络跟踪方法 |
-
2018
- 2018-05-25 CN CN201810510986.5A patent/CN110363796A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101140324A (zh) * | 2007-10-11 | 2008-03-12 | 上海交通大学 | 海域合成孔径雷达图像点目标提取的方法 |
CN105447459A (zh) * | 2015-11-18 | 2016-03-30 | 上海海事大学 | 一种无人机自动检测目标和跟踪方法 |
US20180114056A1 (en) * | 2016-10-25 | 2018-04-26 | Vmaxx, Inc. | Vision Based Target Tracking that Distinguishes Facial Feature Targets |
CN107292844A (zh) * | 2017-06-20 | 2017-10-24 | 南京理工大学 | 全变差正则化变分随机共振自适应暗图像滤波增强方法 |
CN108021869A (zh) * | 2017-11-15 | 2018-05-11 | 华侨大学 | 一种结合高斯核函数的卷积神经网络跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhang et al. | A face emotion recognition method using convolutional neural network and image edge computing | |
CN111553929B (zh) | 基于融合网络的手机屏幕缺陷分割方法、装置及设备 | |
CN107491726B (zh) | 一种基于多通道并行卷积神经网络的实时表情识别方法 | |
CN108205803B (zh) | 图像处理方法、神经网络模型的训练方法及装置 | |
CN108304826A (zh) | 基于卷积神经网络的人脸表情识别方法 | |
CN110276402B (zh) | 一种基于深度学习语义边界增强的盐体识别方法 | |
CN109558832A (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN109034210A (zh) | 基于超特征融合与多尺度金字塔网络的目标检测方法 | |
CN109241982A (zh) | 基于深浅层卷积神经网络的目标检测方法 | |
CN105740773A (zh) | 基于深度学习和多尺度信息的行为识别方法 | |
Zheng et al. | Defect inspection in tire radiographic image using concise semantic segmentation | |
CN110599502B (zh) | 一种基于深度学习的皮肤病变分割方法 | |
CN113989890A (zh) | 基于多通道融合和轻量级神经网络的人脸表情识别方法 | |
CN114842238B (zh) | 一种嵌入式乳腺超声影像的识别方法 | |
CN113066025B (zh) | 一种基于增量学习与特征、注意力传递的图像去雾方法 | |
Xu et al. | Face expression recognition based on convolutional neural network | |
CN114511502A (zh) | 一种基于人工智能的胃肠道内窥镜图像息肉检测系统、终端及存储介质 | |
CN111145145A (zh) | 一种基于MobileNets的图像表面缺陷检测方法 | |
CN114882278A (zh) | 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置 | |
CN114863572B (zh) | 一种多通道异构传感器的肌电手势识别方法 | |
Darma et al. | Balinese carving recognition using pre-trained convolutional neural network | |
CN110363796A (zh) | 基于轻量卷积神经网络结构的前视声纳运动目标跟踪方法 | |
CN115861276A (zh) | 石墨膜片表面划痕检测方法和装置 | |
CN113343773B (zh) | 基于浅层卷积神经网络的人脸表情识别系统 | |
CN114898021A (zh) | 音乐舞台表演视频的智能卡通化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191022 |
|
RJ01 | Rejection of invention patent application after publication |