CN110148152A - 基于卷积神经网络的sar目标交互行为识别方法 - Google Patents
基于卷积神经网络的sar目标交互行为识别方法 Download PDFInfo
- Publication number
- CN110148152A CN110148152A CN201910259550.8A CN201910259550A CN110148152A CN 110148152 A CN110148152 A CN 110148152A CN 201910259550 A CN201910259550 A CN 201910259550A CN 110148152 A CN110148152 A CN 110148152A
- Authority
- CN
- China
- Prior art keywords
- target
- interbehavior
- image
- neural networks
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 30
- 230000033001 locomotion Effects 0.000 claims abstract description 32
- 239000011159 matrix material Substances 0.000 claims abstract description 16
- 241001424438 Surendra Species 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000005516 engineering process Methods 0.000 claims description 5
- 238000003475 lamination Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
一种基于卷积神经网络的SAR目标交互行为识别方法,从SAR图像序列中检测出运动目标,用卷积神经网络识别运动目标类型,提取运动目标交互行为中运动信息作为特征,构建目标的运动特征矩阵,用卷积神经网络进行SAR目标交互行为类型识别。本发明可有效解决单链隐马尔可夫模型无法完全表述交互行为的问题,也无需将特征分层设计,能够正确识别出SAR图像序列中有交互行为的两个目标构成的目标群事件,获得较优的交互行为识别性能。
Description
技术领域
本发明涉及图像处理、特征提取、目标识别等领域,尤其涉及一种SAR目标交互行为识别方法。
背景技术
行为识别是合成孔径雷达(Synthetic Aperture Radar,SAR)图像序列内容解译和分析中一个重要组成部分。行为识别旨在通过观察个体的动作来判断个体所做出的行为。交互行为识别则是通过观察有相互关联的多目标复杂行为来判断目标群的事件。通过识别目标的个体和交互行为,我们能更准确地对SAR图像序列中所发生的事件做出判断。
近些年来,隐马尔可夫模型(Hidden Markov Models,HMM)被应用在行为识别领域。由于HMM能够提供动态时间规整,因此可用于描述物体在时间域上的运动模式,并可进行动态行为建模和分析。HMM及其改进算法已经成为时间序列建模的常用方法之一。但是在交互行为识别中,每个目标在某一时刻的运动状态不仅依赖于自身在前一时刻的状态,同时也取决于另一目标在前一时刻的状态,HMM的结构却不能体现出这种相互的关系。另一方面,随着目标数量的增长,观察序列的长度、HMM中状态的数目和参数都会迅速增长,从而增加了HMM参数估计的复杂度。耦合隐马尔可夫模型(Coupled Hidden Markov Models,CHMM)可解决复杂多目标行为识别,可提供一种更为有效的过程建模方法。CHMM是一种用于描述两个或多个相互关联(条件概率依赖)的随机过程统计特性的概率模型,它可以看成是通过在多个HMM状态序列之间引入耦合条件概率而得到的一种多HMM链模型,可用于对两个相互关联的随机过程进行建模和分类,因此适合用来学习和描述多个数据之间的交互作用。但是,在设计交互行为特征时,特别是对特征进行分层设计时,需要许多先验知识和经验,同时随着交互目标数量的增长,参数估计的复杂度也会随着增加。
发明内容
为了克服现有方法对交互行为识别的不足,本发明提出一种基于卷积神经网络(Convolutional Neural Networks,CNN)的SAR目标交互行为识别方法,该方法能够正确识别出SAR图像序列中有交互行为的两个目标构成的目标群事件,获得较优的交互行为识别性能。
本发明解决其技术问题所采用的技术方案是:
一种基于卷积神经网络的SAR目标交互行为识别方法,包括以下步骤:
步骤1,采用Surendra背景更新算法从SAR图像序列中检测出运动目标所在的位置;
步骤2,用卷积神经网络识别运动目标类型,输入为运动目标图像,输出为该目标的类型;其中,采用的卷积神经网络模型共有8层,包括6个卷积层和2个全连接层,每2层卷积层叠加一个最大池化层,最后通过2个全连接层输出模型预测标签,使用ReLU激活函数,卷积层采用零填充技术,最大池化层使用重叠汇聚技术,第一层全连接层使用Dropout技术,并以0.5的概率随机将全连接层中神经元的输出值清零;
步骤3,提取运动目标交互行为中运动信息作为特征,构建目标的运动特征矩阵如下所示:
矩阵的每一行代表在第k帧中目标i的速度目标j的速度目标i与目标j间的距离目标i与目标j的运动速度之差k=1,2,3,4......n,矩阵行数n表示选取的图像帧数;
步骤4,用卷积神经网络进行SAR目标交互行为类型识别,输入为运动特征矩阵输出为该交互行为的类型;其中,卷积神经网络模型共有4层,包含2个卷积层和2个全连接层,2个卷积层后接有池化层,采用最大池化,下采样窗口的大小取2×2,滑动步长取2,ReLU非线性激活函数作用于每层卷积层,Softmax非线性函数作用于第2个全连接层的输出节点,卷积层中卷积核的滑动步长全部取2,输入特征图的周围没有补零,两个全连接层隐含节点个数分别为128和4,Dropout正则化方法应用于第2个卷积层和第1层全连接层。
进一步,所述步骤1中,采用Surendra背景更新算法从SAR图像序列中检测出运动目标所在的位置;
首先将交互行为序列的第1帧图像I1作为背景B1,选取阈值T,设定迭代次数初始值m=1,最大迭代次数MAXSTEP,采用Surendra背景更新算法,对当前帧的帧差分图像|Ii-Ii-1|的像素值进行判断,对像素值小于阈值的位置替换更新:
Bi=0.1*Ii(x,y)+(1-0.1)Ii-1(x,y) (1)
其中,Bi(x,y)为背景图像在(x,y)的灰度值,Ii(x,y)为输入的第i帧图像,Ii-1(x,y)为输入的第i-1帧图像,0.1为更新速度;
迭代次数m=m+1,继续重复求帧差分图像,对差值图像的像素值进行判断和更新,当迭代次数达到MAXSTEP时结束迭代,此时Bi(x,y)当作背景图像;
将实时输入的交互行为的场景图像Ii(x,y)与构建好的背景模型Bi(x,y)进行差分,检测出目标所在的位置,基于背景差法的二值化图像描述为:
Di(x,y)=|Ii(x,y)-Bi(x,y)| (2)
其中,Mi(x,y)为坐标(x,y)的二值化像素值,(x,y)为二维图像的平面坐标;
对转换后的二值图像采用形态学除噪,滤除过小的目标;
在整个过程中,需要构建自适应的全局阈值T,即选择T的初始估计值,用阈值T将图像分割成G1与G2区域,并对区域G1和G2中的所有像素计算平均灰度值μ1和μ2,更新阈值T=1/2(μ1+μ2),直到逐次迭代所得到的T值之差的绝对值小于1。
更进一步,所述步骤3中,交互行为采用运动信息作为特征,个体目标的运动速度为:
v=(P2(x,y)-P1(x,y))/(t2-t1) (4)
其中,P2(x,y)与P1(x,y)代表同一目标在时刻t2和时刻t1所在的位置,v为速度,是一向量值,包含了方向和大小;
两个目标之间的距离和运动速度之差为:
d=||PA(x,y)-PB(x,y)|| (5)
vd=||vA||-||vB|| (6)
其中PA(x,y)与PB(x,y)代表目标A与目标B在同一时刻所在的位置,||PA(x,y)-PB(x,y)||代表目标A与目标B之间的距离绝对值,||vA||与||vB||代表目标A与目标B速度的大小;
利用上述3种不同的运动特征构建目标的运动特征矩阵如下所示:
本发明的有益效果表现在:采用卷积神经网络的SAR目标交互行为识别方法,可有效解决单链隐马尔可夫模型无法完全表述交互行为的问题,也无需将特征分层设计,提高交互行为的识别率。
附图说明
图1为本发明的一种基于卷积神经网络的SAR目标交互行为识别方法流程图。
图2为运动目标类型识别卷积神经网络结构图。
图3为交互行为类型识别卷积神经网络结构图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
参照图1~图3,一种基于卷积神经网络的SAR目标交互行为识别方法,包括以下步骤:
步骤1,运动目标检测
本实施例采用自主构建的多目标交互行为SAR图像数据库进行,交互行为包括超越、尾随、相遇、会合四种。
首先将交互行为序列的第1帧图像I1作为背景B1。选取阈值T,设定迭代次数初始值m=1,最大迭代次数MAXSTEP为5,采用Surendra背景更新算法,对当前帧的帧差分图像|Ii-Ii-1|的像素值进行判断,对像素值小于阈值的位置替换更新:
Bi=0.1*Ii(x,y)+(1-0.1)Ii-1(x,y) (1)
其中,Bi(x,y)为背景图像在(x,y)的灰度值,Ii(x,y)为输入的第i帧图像,Ii-1(x,y)为输入的第i-1帧图像,0.1为更新速度。
迭代次数m=m+1。继续重复求帧差分图像,对差值图像的像素值进行判断和更新。当迭代次数m=5时结束迭代,此时Bi(x,y)可当作背景图像。
将实时输入的交互行为的场景图像Ii(x,y)与构建好的背景模型Bi(x,y)进行差分,检测出目标所在的位置。基于背景差法的二值化图像描述为:
Di(x,y)=|Ii(x,y)-Bi(x,y)| (2)
其中,Mi(x,y)为坐标(x,y)的二值化像素值,(x,y)为二维图像的平面坐标。
对转换后的二值图像采用形态学除噪,滤除过小的目标。
在整个过程中,需要构建自适应的全局阈值T。即选择T的初始估计值,用阈值T将图像分割成G1与G2区域,并对区域G1和G2中的所有像素计算平均灰度值μ1和μ2,更新阈值T=1/2(μ1+μ2),直到逐次迭代所得到的T值之差的绝对值小于1。
步骤2,运动目标类型识别
利用卷积神经网络识别运动目标类型,输入为运动目标图像,输出为该目标的类型;其中,采用的卷积神经网络模型共有8层,包括6个卷积层和2个全连接层,每2层卷积层叠加一个最大池化层,最后通过2个全连接层输出模型预测标签,使用ReLU激活函数,卷积层采用零填充技术,最大池化层使用重叠汇聚技术,第一层全连接层使用Dropout技术,并以0.5的概率随机将全连接层中神经元的输出值清零;
每次参数迭代更新向网络中输入75个样本,样本大小为128*128。经过两层卷积核为3*3、卷积个数为64的卷积层后,输出64个特征图,每个特征图尺寸为128*128像素。经过第一个最大池化层后,输出数据尺寸为64*64,特征图仍为64个。经过两层卷积核为3*3、卷积个数为128的卷积层后,输出128个特征图,每个特征图尺寸为64*64像素。经过第二个最大池化层后,输出数据尺寸为32*32,特征图个数不变。经过两层卷积核为3*3、卷积个数为256的卷积层后,输出256个特征图,每个特征图尺寸为32*32像素。经过第三个最大池化层后,输出数据尺寸为16*16,特征图仍为256个。随后特征图经过两个全连接层,每个全连接层隐含节点个数分别为128和10。最后输出标签尺寸为1*10,每一个元素代表预测为相应类别的概率。
卷积模型训练过程中使用Adadelta梯度下降优化算法。设置Adadelta优化算法衰减率β=0.95,常数ε=10-6。
步骤3,交互行为特征提取
交互行为采用运动信息作为特征。个体目标的运动速度为:
v=(P2(x,y)-P1(x,y))/(t2-t1) (4)
其中,P2(x,y)与P1(x,y)代表同一目标在时刻t2和时刻t1所在的位置,v为速度,是一向量值,包含了方向和大小。
两个目标之间的距离和运动速度之差为:
d=||PA(x,y)-PB(x,y)|| (5)
vd=||vA||-||vB|| (6)
其中PA(x,y)与PB(x,y)代表目标A与目标B在同一时刻所在的位置,||PA(x,y)-PB(x,y)||代表目标A与目标B之间的距离绝对值,||vA||与||vB||代表目标A与目标B速度的大小。
利用上述3种不同的运动特征构建目标的运动特征矩阵如下所示:
矩阵的每一行代表在第k帧中目标i的速度目标j的速度目标i与目标j间的距离目标i与目标j的运动速度之差k=1,2,3,4......n,矩阵行数n表示选取的图像帧数。
步骤4,交互行为类型识别
利用卷积神经网络进行SAR目标交互行为类型识别,输入为运动特征矩阵输出为该交互行为的类型;其中,卷积神经网络模型共有4层,包含2个卷积层和2个全连接层,2个卷积层后接有池化层,采用最大池化,下采样窗口的大小取2×2,滑动步长取2,ReLU非线性激活函数作用于每层卷积层,Softmax非线性函数作用于第2个全连接层的输出节点,卷积层中卷积核的滑动步长全部取2,输入特征图的周围没有补零。输入交互行为特征矩阵大小为14*4,经过两层卷积核为2*2、卷积个数为64的卷积层后,输出64个特征矩阵,每个特征矩阵尺寸为14*4像素。经过最大池化层后,输出数据尺寸为7*2,特征图仍为64个。两个全连接层隐含节点个数分别为128和4,Dropout正则化方法应用于第2个卷积层和第1层全连接层,以保证有4个大小为1×1的输出节点,每个节点的输出值经过Softmax归一化后对应于一个类别的概率。
为了验证本发明方法的识别效果,我们对四种行为分别用HMM、CHMM和CNN进行训练与识别。得到的召回率、准确率和F-Measure分别如表1、表2和表3所示。
表1为基于HMM识别的召回率、准确率和F-Measure;
行为 | 超越 | 尾随 | 相遇 | 会合 | 平均 |
召回率 | 100% | 60% | 100% | 53.33% | 78.33% |
准确率 | 71.42% | 100% | 68.18% | 100% | 84.9% |
F-Measure | 83.32% | 75% | 81.07% | 69.56% | 77.23% |
表1
表2为基于CHMM识别的召回率、准确率和F-Measure;
行为 | 超越 | 尾随 | 相遇 | 会合 | 平均 |
召回率 | 100% | 80% | 100% | 96.67% | 94.16% |
准确率 | 83.33% | 100% | 96.77% | 100% | 95.03% |
F-Measure | 90.9% | 88.88% | 98.35% | 98.3% | 94.11% |
表2
表3为基于CNN识别的召回率、准确率和F-Measure;
行为 | 超越 | 尾随 | 相遇 | 会合 | 平均 |
召回率 | 100.00% | 96.67% | 96.67% | 100.00% | 98.33% |
准确率 | 96.77% | 100.00% | 100.00% | 96.77% | 98.38% |
F-Measure | 98.35% | 98.30% | 98.30% | 98.35% | 98.32% |
表3
从基于HMM识别、基于CHMM识别和基于CNN识别的召回率、准确率和F-Measure可以看出,无论采用哪种评估指标,基于CNN的交互行为识别方法的识别效果优于基于HMM和基于CHMM的识别方法。尤其对于尾随、会合这两类交互行为,CNN能够较为准确地识别。
显而易见,在不偏离本发明的真实精神和范围的前提下,在此描述的本发明可以有许多变化。因此,所有对于本领域技术人员来说显而易见的改变,都应包括在本权利要求书所涵盖的范围之内。本发明所要求保护的范围仅由所述的权利要求书进行限定。
Claims (3)
1.一种基于卷积神经网络的SAR目标交互行为识别方法,其特征在于:所述方法包括以下步骤:
步骤1,采用Surendra背景更新算法从SAR图像序列中检测出运动目标所在的位置;
步骤2,用卷积神经网络识别运动目标类型,输入为运动目标图像,输出为该目标的类型;其中,采用的卷积神经网络模型共有8层,包括6个卷积层和2个全连接层,每2层卷积层叠加一个最大池化层,最后通过2个全连接层输出模型预测标签,使用ReLU激活函数,卷积层采用零填充技术,最大池化层使用重叠汇聚技术,第一层全连接层使用Dropout技术,并以0.5的概率随机将全连接层中神经元的输出值清零;
步骤3,提取运动目标交互行为中运动信息作为特征,构建目标的运动特征矩阵Fi m,如下所示:
矩阵的每一行代表在第k帧中目标i的速度目标j的速度目标i与目标j间的距离目标i与目标j的运动速度之差k=1,2,3,4......n,矩阵行数n表示选取的图像帧数;
步骤4,用卷积神经网络进行SAR目标交互行为类型识别,输入为运动特征矩阵Fi m,输出为该交互行为的类型;其中,卷积神经网络模型共有4层,包含2个卷积层和2个全连接层,2个卷积层后接有池化层,采用最大池化,下采样窗口的大小取2×2,滑动步长取2,ReLU非线性激活函数作用于每层卷积层,Softmax非线性函数作用于第2个全连接层的输出节点,卷积层中卷积核的滑动步长全部取2,输入特征图的周围没有补零,两个全连接层隐含节点个数分别为128和4,Dropout正则化方法应用于第2个卷积层和第1层全连接层。
2.如权利要求1所述的一种基于卷积神经网络的SAR目标交互行为识别方法,其特征在于:所述步骤1中,采用Surendra背景更新算法从SAR图像序列中检测出运动目标所在的位置;
首先将交互行为序列的第1帧图像I1作为背景B1,选取阈值T,设定迭代次数初始值m=1,最大迭代次数MAXSTEP,采用Surendra背景更新算法,对当前帧的帧差分图像|Ii-Ii-1|的像素值进行判断,对像素值小于阈值的位置替换更新:
Bi=0.1*Ii(x,y)+(1-0.1)Ii-1(x,y) (1)
其中,Bi(x,y)为背景图像在(x,y)的灰度值,Ii(x,y)为输入的第i帧图像,Ii-1(x,y)为输入的第i-1帧图像,0.1为更新速度;
迭代次数m=m+1,继续重复求帧差分图像,对差值图像的像素值进行判断和更新,当迭代次数达到MAXSTEP时结束迭代,此时Bi(x,y)当作背景图像;
将实时输入的交互行为的场景图像Ii(x,y)与构建好的背景模型Bi(x,y)进行差分,检测出目标所在的位置,基于背景差法的二值化图像描述为:
Di(x,y)=|Ii(x,y)-Bi(x,y)| (2)
其中,Mi(x,y)为坐标(x,y)的二值化像素值,(x,y)为二维图像的平面坐标;
对转换后的二值图像采用形态学除噪,滤除过小的目标;
在整个过程中,需要构建自适应的全局阈值T,即选择T的初始估计值,用阈值T将图像分割成G1与G2区域,并对区域G1和G2中的所有像素计算平均灰度值μ1和μ2,更新阈值T=1/2(μ1+μ2),直到逐次迭代所得到的T值之差的绝对值小于1。
3.如权利要求1所述的一种基于卷积神经网络的SAR目标交互行为识别方法,其特征在于:所述步骤3中,交互行为采用运动信息作为特征,个体目标的运动速度为:
v=(P2(x,y)-P1(x,y))/(t2-t1) (4)
其中,P2(x,y)与P1(x,y)代表同一目标在时刻t2和时刻t1所在的位置,v为速度,是一向量值,包含了方向和大小;
两个目标之间的距离和运动速度之差为:
d=||PA(x,y)-PB(x,y)|| (5)
vd=||vA||-||vB|| (6)
其中PA(x,y)与PB(x,y)代表目标A与目标B在同一时刻所在的位置,||PA(x,y)-PB(x,y)||代表目标A与目标B之间的距离绝对值,||vA||与||vB||代表目标A与目标B速度的大小;
利用上述3种不同的运动特征构建目标的运动特征矩阵Fi m,如下所示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910259550.8A CN110148152A (zh) | 2019-04-02 | 2019-04-02 | 基于卷积神经网络的sar目标交互行为识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910259550.8A CN110148152A (zh) | 2019-04-02 | 2019-04-02 | 基于卷积神经网络的sar目标交互行为识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110148152A true CN110148152A (zh) | 2019-08-20 |
Family
ID=67588421
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910259550.8A Pending CN110148152A (zh) | 2019-04-02 | 2019-04-02 | 基于卷积神经网络的sar目标交互行为识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110148152A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532960A (zh) * | 2019-08-30 | 2019-12-03 | 西安交通大学 | 一种基于图神经网络的目标辅助的动作识别方法 |
CN110929779A (zh) * | 2019-11-19 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 重建神经元质量检测方法、有序点云分类方法及装置 |
CN112819742A (zh) * | 2021-02-05 | 2021-05-18 | 武汉大学 | 一种基于卷积神经网络的事件场合成孔径成像方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101794396A (zh) * | 2010-03-25 | 2010-08-04 | 西安电子科技大学 | 基于迁移网络学习的遥感图像目标识别系统及方法 |
US20170372153A1 (en) * | 2014-01-09 | 2017-12-28 | Irvine Sensors Corp. | Methods and Devices for Cognitive-based Image Data Analytics in Real Time |
CN107895137A (zh) * | 2017-10-10 | 2018-04-10 | 浙江工业大学 | 基于耦合隐马尔可夫模型的sar图像目标交互行为识别方法 |
CN108133188A (zh) * | 2017-12-22 | 2018-06-08 | 武汉理工大学 | 一种基于运动历史图像与卷积神经网络的行为识别方法 |
CN108764006A (zh) * | 2018-02-05 | 2018-11-06 | 北京航空航天大学 | 一种基于深度强化学习的sar图像目标检测方法 |
CN108898155A (zh) * | 2018-05-18 | 2018-11-27 | 浙江工业大学 | 一种小波阈值降噪结合卷积神经网络的sar图像目标识别方法 |
US10643123B2 (en) * | 2014-07-16 | 2020-05-05 | General Dynamics Mission Systems, Inc. | Systems and methods for recognizing objects in radar imagery |
-
2019
- 2019-04-02 CN CN201910259550.8A patent/CN110148152A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101794396A (zh) * | 2010-03-25 | 2010-08-04 | 西安电子科技大学 | 基于迁移网络学习的遥感图像目标识别系统及方法 |
US20170372153A1 (en) * | 2014-01-09 | 2017-12-28 | Irvine Sensors Corp. | Methods and Devices for Cognitive-based Image Data Analytics in Real Time |
US10643123B2 (en) * | 2014-07-16 | 2020-05-05 | General Dynamics Mission Systems, Inc. | Systems and methods for recognizing objects in radar imagery |
CN107895137A (zh) * | 2017-10-10 | 2018-04-10 | 浙江工业大学 | 基于耦合隐马尔可夫模型的sar图像目标交互行为识别方法 |
CN108133188A (zh) * | 2017-12-22 | 2018-06-08 | 武汉理工大学 | 一种基于运动历史图像与卷积神经网络的行为识别方法 |
CN108764006A (zh) * | 2018-02-05 | 2018-11-06 | 北京航空航天大学 | 一种基于深度强化学习的sar图像目标检测方法 |
CN108898155A (zh) * | 2018-05-18 | 2018-11-27 | 浙江工业大学 | 一种小波阈值降噪结合卷积神经网络的sar图像目标识别方法 |
Non-Patent Citations (3)
Title |
---|
SIZHE CHEN 等: "SAR target recognition based on deep learning", 《2014 INTERNATIONAL CONFERENCE ON DATA SCIENCE AND ADVANCED ANALYTICS (DSAA)》 * |
关百胜: "基于卷积神经网络的双人交互行为识别技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
许庆勇: "《基于深度学习理论的纹身图像识别与检测研究》", 31 December 2018, 华中科技大学出版社 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110532960A (zh) * | 2019-08-30 | 2019-12-03 | 西安交通大学 | 一种基于图神经网络的目标辅助的动作识别方法 |
CN110532960B (zh) * | 2019-08-30 | 2022-02-11 | 西安交通大学 | 一种基于图神经网络的目标辅助的动作识别方法 |
CN110929779A (zh) * | 2019-11-19 | 2020-03-27 | 腾讯科技(深圳)有限公司 | 重建神经元质量检测方法、有序点云分类方法及装置 |
CN110929779B (zh) * | 2019-11-19 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 重建神经元质量检测方法、有序点云分类方法及装置 |
CN112819742A (zh) * | 2021-02-05 | 2021-05-18 | 武汉大学 | 一种基于卷积神经网络的事件场合成孔径成像方法 |
CN112819742B (zh) * | 2021-02-05 | 2022-05-13 | 武汉大学 | 一种基于卷积神经网络的事件场合成孔径成像方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110210320B (zh) | 基于深度卷积神经网络的多目标无标记姿态估计方法 | |
CN109800628B (zh) | 一种加强ssd小目标行人检测性能的网络结构及检测方法 | |
CN108334936B (zh) | 基于迁移卷积神经网络的故障预测方法 | |
CN106920243A (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN110378281A (zh) | 基于伪3d卷积神经网络的组群行为识别方法 | |
CN110148152A (zh) | 基于卷积神经网络的sar目标交互行为识别方法 | |
CN107527068A (zh) | 基于cnn和域自适应学习的车型识别方法 | |
CN107229904A (zh) | 一种基于深度学习的目标检测与识别方法 | |
CN105787492B (zh) | 基于均值采样的局部三值模式纹理特征提取方法 | |
CN104992223A (zh) | 基于深度学习的密集人数估计方法 | |
CN104217214A (zh) | 基于可配置卷积神经网络的rgb-d人物行为识别方法 | |
CN107292875A (zh) | 一种基于全局‑局部特征融合的显著性检测方法 | |
CN109753897B (zh) | 基于记忆单元强化-时序动态学习的行为识别方法 | |
CN111080675A (zh) | 一种基于时空约束相关滤波的目标跟踪方法 | |
CN109829449A (zh) | 一种基于超像素时空上下文的rgb-d室内场景标注方法 | |
CN114170789B (zh) | 基于时空图神经网络的智能网联车换道决策建模方法 | |
CN106874862B (zh) | 基于子模技术和半监督学习的人群计数方法 | |
CN108734109A (zh) | 一种面向图像序列的视觉目标跟踪方法及系统 | |
KR20210093875A (ko) | 비디오 분석 방법 및 연관된 모델 훈련 방법, 기기, 장치 | |
CN110310305A (zh) | 一种基于bssd检测与卡尔曼滤波的目标跟踪方法与装置 | |
CN112347930A (zh) | 基于自学习半监督深度神经网络高分影像场景分类方法 | |
CN107895137A (zh) | 基于耦合隐马尔可夫模型的sar图像目标交互行为识别方法 | |
CN111968156A (zh) | 一种自适应超特征融合的视觉跟踪方法 | |
CN107341471A (zh) | 一种基于双层条件随机场的人体行为识别方法 | |
CN110472514A (zh) | 一种自适应车辆目标检测算法模型及其构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190820 |