CN110084168B - 一种主动目标识别方法及装置 - Google Patents

一种主动目标识别方法及装置 Download PDF

Info

Publication number
CN110084168B
CN110084168B CN201910322445.4A CN201910322445A CN110084168B CN 110084168 B CN110084168 B CN 110084168B CN 201910322445 A CN201910322445 A CN 201910322445A CN 110084168 B CN110084168 B CN 110084168B
Authority
CN
China
Prior art keywords
imaging
target
state
imaging parameters
target identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910322445.4A
Other languages
English (en)
Other versions
CN110084168A (zh
Inventor
霍春雷
于佳园
潘春洪
向世明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201910322445.4A priority Critical patent/CN110084168B/zh
Publication of CN110084168A publication Critical patent/CN110084168A/zh
Application granted granted Critical
Publication of CN110084168B publication Critical patent/CN110084168B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明是一种主动目标识别方法及装置,包括:在第一状态,通过学习获取目标识别性能与成像参数的关系;至少依据所述关系及目标识别性能,调整在第二状态的成像参数;以及当所述目标识别性能满足预定条件时,在第二状态完成成像和目标识别。本发明以提高目标识别性能为目的、通过学习成像参数与目标识别性能的隐式、复杂对应关系来改善目标识别性能、成像质量。本发明可以广泛应用于在轨成像和目标识别中。

Description

一种主动目标识别方法及装置
技术领域
本发明涉及主动成像、图像处理和目标识别等技术领域,特别是一种主动目标识别方法及装置。
背景技术
目前的目标识别大都是在对给定的图像上“被动式”对目标进行识别。由于被动式目标识别在图像拍摄阶段没有考虑目标识别性能与成像参数之间的关系,导致在某些成像条件下一些重要目标无法检测或识别。另外,被动式目标识别方式成像和目标识别过程是分开的,成像完成后再进行目标识别,因此被动式目标识别性能很难有大幅度提升,“被动式”目标识别给实际应用带来了很多困难。
发明内容
为了解决上述技术问题,即为了解决被动式目标识别带来的目标识别率低的问题,本发明提出了一种主动目标识别方法及装置。
本发明提供的一种主动目标识别方法,包括:在第一状态,通过学习获取目标识别性能与成像参数的关系;至少依据所述关系及目标识别性能,调整在第二状态的成像参数;以及当所述目标识别性能满足预定条件时,在第二状态完成成像和目标识别。
在一些优选实施方式中,所述第一状态为离线状态,所述第二状态为在线状态。
在一些优选实施方式中,所述成像参数包括亮度和空间分辨率。
在一些优选实施方式中,所述的主动目标识别方法还包括,在所述第一状态,根据历史图像及标注训练第一目标识别器。
在一些优选实施方式中,所述第一目标识别器被配置为执行如下操作:利用生成模型提取并表征所述历史图像特征;利用判别模型调整所述生成模型,使所述生成模型输出最终特征表征;以及利用分类模型根据所述最终特征表征进行目标识别。
在一些优选实施方式中,所述的主动目标识别方法还包括,基于深度生成式对抗网络、类内相似性和类间差异性约束训练所述第一目标识别器。
在一些优选实施方式中,所述的主动目标识别方法还包括,采用强化学习技术学习所述关系;其中,与所述强化学习相关的要素包括成像状态数据、动作集合以及目标识别精度。
在一些优选实施方式中,所述成像状态数据包括当前成像参数,及相应于所述当前成像参数得到的图像数据;所述动作集合包括增加成像亮度、减少成像亮度、提高成像空间分别率或减少成像空间分别率;所述主动目标识别方法还包括:根据所述当前成像参数、所述图像数据及所述动作集合中的一特定动作,采用评估网络和动作网络学习所述关系,其中所述评估网络被配置为拟合强化学习中的动作值函数。
在一些优选实施方式中,所述主动目标识别方法还包括,在线自动更新目标识别器和自动调整成像参数的交替迭代,直至所述目标识别性能满足预定条件时,完成成像和目标识别。
本发明实施例还提供一种目标识别装置,包括:成像单元、存储器及处理器;所述成像单元被配置为依据成像参数获取图像;所述存储器被配置为:存储第一目标识别器及在线成像过程的中间结果;以及所述的处理器被配置为:目标识别器在线更新和成像参数自动调整,并完成对所述识别图像的识别。
与现有技术相比,上述技术方案至少具有以下有益效果:
本发明所述方法对于解决在轨成像、目标识别的难点具有重要的意义。本发明考虑了目标识别性能与成像参数的关系,以提高目标识别性能为目的调整成像参数,充分考虑了在轨成像的特殊性要求,利用学习得到的目标识别性能与成像参数的关系可以在线自动调整成像参数,提高目标识别性能,极大地提高了目标识别性能,可广泛应用于主动目标识别等系统中。
附图说明
图1是本发明实施例提供的主动目标识别方法示意图。
图2是本发明实施例提供的主动目标识别方法流程图。
图3是本发明实施例提供的主动目标识别装置。
具体实施方式
下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述参考在附图中示出并在以下描述中详述的非限制性示例实施例,更加全面地说明本公开的示例实施例和它们的多种特征及有利细节。应注意的是,图中示出的特征不是必须按照比例绘制。本公开省略了已知组件和技术的描述,从而不使本公开的示例实施例模糊。所给出的示例仅旨在有利于理解本公开示例实施例的实施,以及进一步使本领域技术人员能够实施示例实施例。因而,这些示例不应被理解为对本公开的实施例的范围的限制。
除非另外特别定义,本公开使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的特征的图像。
本公开实施例提供的主动目标识别方法如图1,步骤S1即在离线状态训练目标识别器,得到识别图像的模型;在步骤S2离线状态通过学习获得目标识别性能与成像参数的关系;在步骤S3即在线状态,更新目标识别器,并根据目标识别性能与成像参数的关系以及目标识别性能调整成像参数,在目标识别性能满足预定条件时完成成像并识别成像。也就是说,本公开实施例在在线成像阶段根据离线状态学习到的目标识别性能与成像参数的关系、自适应地调整成像参数,不仅可以得到目标识别性能最优的图像,还可以根据目标识别情况自适应确定是否下传图像,大大减少了网络传输压力。主动目标识别将在轨成像和目标识别技术相结合,对在轨成像和在轨目标识别具有广泛的应用前景。
本发明的目的是针对在轨成像、目标识别的难点和实际应用的需求,提供一种有效的主动目标识别方法及装置。
本发明实施例提供一种主动目标识别方法,如图2主动目标识别方法包括:步骤101在第一状态,通过学习获取目标识别性能与成像参数的关系;步骤102依据所述关系及目标识别性能,调整在第二状态的成像参数;以及步骤103在所述第二状态的目标识别性能满足预定条件时,完成成像和目标识别。
在一些实施例中,步骤101的第一状态为离线状态,相应的步骤102第二状态为在线状态。在在线状态时图2的主动目标识别方法还包括在线状态更新离线时的目标识别器(图中未示出),具体更新过程详见如下实例。在另一些实施例中,步骤101的第一状态为离轨状态,相应的第二状态为在轨状态。
在一些实施例中,步骤102及步骤103记载的成像参数包括亮度和空间分辨率。步骤102调整在第二状态的成像参数的方式包括但不限于:增加亮度、减少亮度、提高空间分辨率、降低空间分辨率或终止调整。
在一些实施例中图2示出的主动目标识别方法100还包括,在所述第一状态,根据历史图像及标注训练第一目标识别器,其中第一状态可以为离线状态。历史图像就是收集的按照传统成像方式所拍摄的目标区域或者目标对象的多张图像。在一些实施例中,第一目标识别器被配置为执行如下操作:利用生成模型提取并表征所述历史图像特征;利用判别模型调整生成模型,使生成模型输出最终特征表征;以及利用分类模型根据最终特征表征进行历史图像的目标识别。
在一些实施例中图2的主动目标识别方法100还包括,基于深度生成式对抗网络、类内相似性和类间差异性约束训练第一目标识别器。
在一些实施例中所述的主动目标识别方法还包括,采用强化学习技术学习所述关系;其中,与所述强化学习相关的要素包括成像状态数据、动作集合以及目标识别精度。成像状态数据包括当前成像参数(当前成像参数包括但不限于亮度和空间分辨率参数),及相应于所述当前成像参数得到的图像数据;所述动作集合包括增加成像亮度、减少成像亮度、提高成像空间分别率、减少成像空间分别率或终止调整。此时,步骤101根据所述当前成像参数、所述图像数据及所述动作集合中的一特定动作,采用评估网络和动作网络学习所述关系,其中所述评估网络被配置为拟合强化学习中的动作值函数。
在一些实施例中主动目标识别方法100还包括,在线自动更新目标识别器和自动调整成像参数的交替迭代,直至所述目标识别性能满足预定条件时,完成成像和目标识别。详见如下实例。
本发明提出一种在线成像和目标识别交替迭代的主动目标识别方法。下面结合附图说明本发明技术方案中所涉及的技术问题。应指出的是,所描述的实施方式仅旨在便于对本发明的理解,而对其不起任何限定作用。
步骤1根据历史图像及标注离线训练目标识别器。
目标识别器训练的主要难点在于正样本(目标样本)少而负样本(背景样本)多。为了从少量的正样本中学习目标的本质特征并能够有效区分目标和背景,本实施例拟利用深度生成式对抗网络并添加类内相似性和类间差异性约束。对于任意的训练样本(xi,yi)和(xj,yj),称(xi,xj,1)为类内样本对,如果xi和xj对应的类标yi和yj一致(即使xi和xj的相似性很小),其中xi和xj为固定大小的图像块;称(xi,xj,-1)为类间样本对,如果xi和xj对应的类标yi和yj不一致(即使xi和xj的相似性很大)。为方便,本实施例将(xi,xj,1)中的xj记为
Figure BDA0002035197570000061
(与xi的类别一致),将(xi,xj,-1)中的xj记为
Figure BDA0002035197570000062
(与xi的类别不一致)。深度生成式对抗网络由生成模型G和判别模型D组成。生成模型(或称为生成器)G的目的是理解弱小目标的本质特征并通过特征生成验证特征理解的有效性。为此,生成模型G采用AutoEncoder模型,AutoEncoder模型由编码器Q和解码器R两部分组成。编码器Q用于特征提取,解码器R用于特征生成和验证。通过编码器Q,类内样本对xi
Figure BDA0002035197570000063
的距离应减小,而类间样本对xi
Figure BDA0002035197570000064
的距离应增大;为验证特征理解、特征生成有效性,xi经编码、解码后得到的特征
Figure BDA0002035197570000065
与xi应尽可能接近。因此,生成模型G的目标函数可以表示为:
Figure BDA0002035197570000066
判别器D的作用是进一步提高鉴别能力以识别类间样本对和类内样本对,其目标函数为
Figure BDA0002035197570000067
其中,[x]+=max(0,x),α为表征正负样本间距的参数。
值得注意的是,生成模型G可以提取到表征力强的特征,但判别模型(又称为判决模型或判决器)D不能直接用于目标探测和识别。因此,本实施例还需要学习一个分类器C用来识别转换后的特征。本实施例拟采用基于多类交叉熵的分类器,目标函数如下:
Figure BDA0002035197570000068
其中,I(·)为示性函数,WC为分类器C的参数。
综上,目标识别器的目标函数为:
Figure BDA0002035197570000071
通过生成模型G和判别模型D的不断相互竞争,最终生成模型G掌握了数据的本质特性。
其中,λ1、λ2,λ3分别为正则化系数。
步骤2离线成像策略学习以最大化目标识别性能为目的对成像参数进行学习。
离线成像策略学习过程可以拆分为一系列的参数调整和动作选择,其中每一步都是成像系统根据当前的观测(当前图像和目标识别性能)所做的动作或行为,同时期望该行为所带来的累积奖赏最大。本专利拟用强化学习技术实现成像参数的学习。强化学习的基本要素包括状态s、行为a、回报r。对于本专利,上述关键要素的意义如下:
s:成像参数(包括亮度和空间分辨率参数)、当前成像参数得到的图像。
a:成像参数如何调整,本专利共包含五个动作:亮度增加、亮度减少、空间分辨率提高、空间分辨率降低、终止。
r:目标识别精度mAP。
成像参数学习是连续动作的强化学习问题,为此本实施例使用深度强化学习来进行建模求解。具体地,本实施例学习两个网络,分别为评估网络Qφ(参数为φ)和动作网络μθ(参数为θ)。评估网络用来拟合强化学习中的动作值函数,动作值函数表示理想情况下处于状态s时执行动作a的“价值”,是对动作值对(s,a)的一个评估;动作值越大,表示处于状态s时执行动作a越有利。
本实施例所述成像参数学习的步骤如下:
步骤2.1网络初始化;状态初始化。
步骤2.1.1随机初始化评估网络Qφ(s,a)网络的参数φ和动作网络μθ网络的参数θ;评估网络Qφ和动作网络μθ都是卷积神经网络(CNN),动作网络μθ的输入为根据当前成像参数(即根据当前的空间分辨率值和亮度值)获得的图像,输出为动作值a;评估网络Qφ网络的输入为当前图像和一个动作值a,输出一个评价值(用来评价当前场景s下采取动作a的好坏)。
步骤2.1.2初始化评估网络Q'φ(s,a)(Q'φ和Qφ网络结构一样,初始化参数相同)以及动作网络μ'θ(μ'θ网络和μθ网络结构一样,初始化参数相同)。
步骤2.1.3初始化一个空的经验回放缓冲区
Figure BDA0002035197570000083
步骤2.1.4初始化一个高斯噪声N(u,σ),用来做动作探索。
步骤2.1.5随机初始化状态s1,计算此时成像参数下的图像经目标识别器得到的精度值A1
步骤2.2重复执行下列步骤M次(本实施例M=100):
步骤2.2.1随机初始化高斯噪声N(u,σ);
步骤2.2.2令t=1,…,T,重复执行下列步骤(本实施例T=200):
步骤2.2.2.1在当前状态下根据μ网络和高斯噪声N(u,σ),选择一个动作at=μ(s)+N(u,σ)。
步骤2.2.2.2执行动作at,从而状态转移到st+1。重新计算此时成像参数下的检测识别精度At+1,目标识别精度rt=At+1-At
步骤2.2.2.3将(st,at,st+1,rt)存入经验回放缓冲区
Figure BDA0002035197570000081
中。
步骤2.2.2.4从经验回放缓冲区
Figure BDA0002035197570000082
中随机选取一个固定大小的{(si,ai,s'i,ri)},令
yi=ri+γQ'φ(si+1,μ'θ(si+1μ'Q'),
Figure BDA0002035197570000091
使用该Loss更新评估网络Qφ的参数φ,使用下式更新动作网络μθ参数θ:
Figure BDA0002035197570000092
步骤2.2.3更新目标评估网络Q'φ和动作网络μ'θ
Figure BDA0002035197570000093
Figure BDA0002035197570000094
其中,γ表示折扣因子,β表示学习率,θ表示网络μθ参数,τ表示权重系数,0≤τ≤1,φ表示网络Q'φ中的参数。
步骤3在线自动更新目标识别器、自动调整成像参数,获取目标识别性能最优的图像。所述在线主动目标识别是在线自动更新目标识别器和自动调整成像参数的交替迭代,具体过程如下:
步骤3.1目标识别器在线更新。目标识别器在线更新要解决的问题是如何将在训练集的训练模型应用到在轨成像。设训练集合为
Figure BDA0002035197570000095
在轨成像集合为
Figure BDA0002035197570000096
在线目标识别器也由深度生成式对抗网络完成,离线目标识别器与所述在线目标识别器的作用相似,可以共用生成器。另外,需要在生成器G上增加额外约束:在保证类间可分性的基础上将源域特征和目的域特征投影到共同的特征空间,以至于判决器无法区分源域特征和目的域特征。因此,生成器目标函数的增量部分为:
Figure BDA0002035197570000097
在线目标识别器的判决器与离线训练的目标识别器的作用不同,不能共用。在线目标识别器的判决器Z的目的是为了区分源域特征和目的域特征,目标函数为:
Figure BDA0002035197570000101
在线识别的分类器与离线训练的分类器相同,可以共用,但需要增量训练。于是,在线目标检测和识别器的总体目标函数为:
Figure BDA0002035197570000102
从上面可以看出,自适应目标识别器可以在引入新判决器Z的基础上对离线目标识别器的生成器G、分类器C进行增量训练,这种增量训练方式在保证可分性的基础上减少了迭代次数,有利于提高在线目标探测和识别的稳定性、计算效率。
步骤3.2成像参数自动调整。在实际成像过程中,将视场中当前成像条件的图像输入动作网络可以输出动作值a,相机按照动作值对当前成像参数进行调整得到新的图像。
通过不断自动调整成像参数,在图像上的目标识别精度越来越高。迭代终止时,达到最优识别精度;并且,此时目标识别已经完成,达到了“识别即成像”的目的,最优图像连同目标识别结果一同传输至地面,避免了数据不匹配、图像被搁置不用的弊端。
本发明实施例还提供一种目标识别装置300包括:成像单元301、存储器302及处理器303;成像单元301被配置为依据成像参数获取图像;存储器302被配置为:存储第一目标识别器及在线成像过程的中间结果;以及处理器303被配置为:目标识别器在线更新和成像参数自动调整,并完成对所述识别图像的识别。在一些实施例中,成像单元301可以是空间相机,处理器为GPU处理器。
处理器303可以处理数据信号,可以包括各种计算结构,例如复杂指令集计算机(CISC)结构、结构精简指令集计算机(RISC)结构或者一种实行多种指令集组合的结构。
存储器302可以保存处理器301执行的指令和/或数据。这些指令和/或数据可以包括代码,用于实现本公开实施例描述的一个或多个步骤。例如,存储器302包括动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、闪存(flash memory)、光存储器(opticalmemory),或者3D存储芯片或其他的本领域技术人员熟知的存储器。
所属技术领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的装置的具体工作过程及有关说明,可以参考前述方法实施例中的对应过程,在此不再赘述。
本领域技术人员应该能够意识到,结合本文中所公开的实施例描述的各示例的模块、方法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,软件模块、方法步骤对应的程序可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。为了清楚地说明电子硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以电子硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
术语“包括”或者任何其它类似用语旨在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备/装置不仅包括那些要素,而且还包括没有明确列出的其它要素,或者还包括这些过程、方法、物品或者设备/装置所固有的要素。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。
以上所述,仅为本发明中的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉该技术的人在本发明所揭露的技术范围内,可理解想到的变换或替换,都应涵盖在本发明的保护范围之内,因此,本发明的保护范围应该以权利要求书的保护范围为准。

Claims (8)

1.一种主动目标识别方法,包括:
在第一状态,通过学习获取目标识别性能与成像参数的关系,其方法为:采用强化学习技术学习所述目标识别性能与成像参数的关系;与所述强化学习相关的要素包括成像状态数据、动作集合以及目标识别精度;
其中,所述成像状态数据包括当前成像参数,及相应于所述当前成像参数得到的图像数据;
所述动作集合包括增加成像亮度、减少成像亮度、提高成像空间分辨率、减少成像空间分辨率或终止调整;
根据所述当前成像参数、所述图像数据及所述动作集合中的一特定动作,采用评估网络和动作网络学习所述目标识别性能与成像参数的关系,其中所述评估网络被配置为拟合强化学习中的动作值函数;
依据所述目标识别性能与成像参数的关系及目标识别性能,调整在第二状态的成像参数;以及当所述目标识别性能满足预定条件时,在第二状态完成成像和目标识别。
2.如权利要求1所述的主动目标识别方法,其中,所述第一状态为离线状态,所述第二状态为在线状态。
3.如权利要求1或2所述的主动目标识别方法,其中,所述成像参数包括亮度和空间分辨率。
4.如权利要求1或2所述的主动目标识别方法,还包括,在所述第一状态,根据历史图像及标注训练第一目标识别器。
5.如权利要求4所述的主动目标识别方法,其中,所述第一目标识别器被配置为执行如下操作:
利用生成模型提取并表征历史图像特征;
利用判别模型调整所述生成模型,使所述生成模型输出最终特征表征;以及利用分类模型根据所述最终特征表征进行目标识别。
6.如权利要求5所述的主动目标识别方法,还包括,基于深度生成式对抗网络、类内相似性和类间差异性约束训练所述第一目标识别器。
7.如权利要求1所述的主动目标识别方法,还包括,在线自动更新目标识别器和自动调整成像参数的交替迭代,直至所述目标识别性能满足预定条件时,完成成像和目标识别。
8.一种主动目标识别装置,包括:成像单元、存储器及处理器;
所述成像单元被配置为依据成像参数获取图像;
所述存储器被配置为:存储权利要求1-7中任一项权利要求所述的方法;以及所述的处理器被配置为:在第二状态时依据所述目标识别性能与成像参数的关系调整所述成像单元的成像参数以获取识别图像,并完成对所述识别图像的识别。
CN201910322445.4A 2019-04-22 2019-04-22 一种主动目标识别方法及装置 Active CN110084168B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910322445.4A CN110084168B (zh) 2019-04-22 2019-04-22 一种主动目标识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910322445.4A CN110084168B (zh) 2019-04-22 2019-04-22 一种主动目标识别方法及装置

Publications (2)

Publication Number Publication Date
CN110084168A CN110084168A (zh) 2019-08-02
CN110084168B true CN110084168B (zh) 2021-04-23

Family

ID=67415994

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910322445.4A Active CN110084168B (zh) 2019-04-22 2019-04-22 一种主动目标识别方法及装置

Country Status (1)

Country Link
CN (1) CN110084168B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105393252A (zh) * 2013-04-18 2016-03-09 数字标记公司 生理数据采集和分析
CN107438398A (zh) * 2015-01-06 2017-12-05 大卫·伯顿 移动式可穿戴的监控系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7893969B2 (en) * 2006-07-25 2011-02-22 Fujifilm Corporation System for and method of controlling a parameter used for detecting an objective body in an image and computer program
CN101448085B (zh) * 2008-12-26 2013-08-21 北京中星微电子有限公司 一种支持人脸检测的摄像处理方法和系统
CN104504362A (zh) * 2014-11-19 2015-04-08 南京艾柯勒斯网络科技有限公司 基于卷积神经网络的人脸检测方法
WO2017120336A2 (en) * 2016-01-05 2017-07-13 Mobileye Vision Technologies Ltd. Trained navigational system with imposed constraints
CN106056064B (zh) * 2016-05-26 2019-10-11 汉王科技股份有限公司 一种人脸识别方法及人脸识别装置
CN107169148B (zh) * 2017-06-21 2020-05-15 北京百度网讯科技有限公司 图像搜索方法、装置、设备以及存储介质
CN108764006B (zh) * 2018-02-05 2021-11-02 北京航空航天大学 一种基于深度强化学习的sar图像目标检测方法
CN108416318A (zh) * 2018-03-22 2018-08-17 电子科技大学 基于数据增强的合成孔径雷达图像目标深度模型识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105393252A (zh) * 2013-04-18 2016-03-09 数字标记公司 生理数据采集和分析
CN107438398A (zh) * 2015-01-06 2017-12-05 大卫·伯顿 移动式可穿戴的监控系统

Also Published As

Publication number Publication date
CN110084168A (zh) 2019-08-02

Similar Documents

Publication Publication Date Title
CN109165682B (zh) 一种融合深度特征和显著性特征的遥感图像场景分类方法
CN108681752B (zh) 一种基于深度学习的图像场景标注方法
CN111583263B (zh) 一种基于联合动态图卷积的点云分割方法
CN107273936B (zh) 一种gan图像处理方法及系统
CN108108764B (zh) 一种基于随机森林的视觉slam回环检测方法
CN111354017A (zh) 一种基于孪生神经网络及平行注意力模块的目标跟踪方法
CN111753881B (zh) 一种基于概念敏感性量化识别对抗攻击的防御方法
CN112800876B (zh) 一种用于重识别的超球面特征嵌入方法及系统
CN109271958B (zh) 人脸年龄识别方法及装置
CN111161315B (zh) 一种基于图神经网络的多目标跟踪方法和系统
US11468293B2 (en) Simulating and post-processing using a generative adversarial network
CN111368766A (zh) 一种基于深度学习的牛脸检测与识别方法
JP6798614B2 (ja) 画像認識装置、画像認識方法および画像認識プログラム
CN112541458A (zh) 基于元学习的域自适应的人脸识别方法、系统、装置
CN114663685B (zh) 一种行人重识别模型训练的方法、装置和设备
CN113191461B (zh) 一种图片识别方法、装置、设备及可读存储介质
CN114842343A (zh) 一种基于ViT的航空图像识别方法
CN108154186B (zh) 一种模式识别方法和装置
CN111126155B (zh) 一种基于语义约束生成对抗网络的行人再识别方法
Barua et al. Quality evaluation of gans using cross local intrinsic dimensionality
CN111144462A (zh) 一种雷达信号的未知个体识别方法及装置
CN112070181B (zh) 一种基于图像流的协同检测方法及装置、存储介质
CN110084168B (zh) 一种主动目标识别方法及装置
CN109101984B (zh) 一种基于卷积神经网络的图像识别方法及装置
CN109190505A (zh) 基于视觉理解的图像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant