CN109446901B - 一种可嵌入式移植的实时人形目标自动识别算法 - Google Patents

一种可嵌入式移植的实时人形目标自动识别算法 Download PDF

Info

Publication number
CN109446901B
CN109446901B CN201811108391.3A CN201811108391A CN109446901B CN 109446901 B CN109446901 B CN 109446901B CN 201811108391 A CN201811108391 A CN 201811108391A CN 109446901 B CN109446901 B CN 109446901B
Authority
CN
China
Prior art keywords
target
humanoid
gradient
human
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811108391.3A
Other languages
English (en)
Other versions
CN109446901A (zh
Inventor
陈波
王小兵
李江涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jingpin special decoration technology Co., Ltd
Original Assignee
Beijing Jingpintezhuang Science And Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jingpintezhuang Science And Technology Co ltd filed Critical Beijing Jingpintezhuang Science And Technology Co ltd
Priority to CN201811108391.3A priority Critical patent/CN109446901B/zh
Publication of CN109446901A publication Critical patent/CN109446901A/zh
Application granted granted Critical
Publication of CN109446901B publication Critical patent/CN109446901B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Abstract

本发明提供了一种可嵌入式移植的实时人形目标自动识别算法,涉及图像处理技术领域,能够在枪械击发过程中实现人形目标的快速识别及对目标进行自动击发;该算法步骤包括:S1、根据距离和光学视场角对目标的目标框尺度大小进行估算,根据估算值选定预设的人形模板;S2、根据选定的所述人形模板,遍历图像检测窗口内的所有样本目标,计算所述样本目标的特征向量;S3、将所述特征向量的方向梯度向量与预设的方向梯度特征人形模板的方向梯度向量进行匹配,判断所述样本目标是否是人形目标;S4、输出判断出的所述人形目标的位置、相对运动速度和个数。本发明提供的技术方案适用枪械自动识别目标及自动击发过程中。

Description

一种可嵌入式移植的实时人形目标自动识别算法
技术领域
本发明涉及图像处理技术领域,尤其涉及一种在枪械瞄准射击方面使用的可嵌入式移植的实时人形目标自动识别算法。
背景技术
战场上射击目标越来越出现多样化,如摩托化步兵乘车、机械化步兵增加以及战场高速机动目标的增多,目标出现和消失的时间均大大缩短。若目标作横向运动,对于点杀伤的枪械而言,很难构成快速瞄准实施精确打击。以色列特种部队要求队员从接触枪支到出枪、上膛、瞄准、击发、命中目标一整套动作必须在15秒内完成,而美国特种部队在400~800米距离上发现目标到准确命中为4秒。对此,为了实现搜索目标快、发现目标快、出枪动作快、瞄准击发快,枪械很有必要安装智能化瞄准机构,以便缩短其发现、识别、锁定目标与击发相应的时间,提高其快速反应能力。
智能化枪械是新一代枪械发展的一个重要方向,枪械的首要打击目标为人,因此通过实时快速的对人形目标进行自动识别,并且进行嵌入式移植,是实现枪械智能化的关键核心技术之一。
发明内容
有鉴于此,本发明提供了一种可嵌入式移植的实时人形目标自动识别算法,所述算法能够利用测距信息和光学镜头的视场角信息估算出人形目标的大小,并自动调用相应特征模板,利用相应模板的方向梯度对检测窗内存在的人形目标进行快速识别。
一方面,本发明提供一种可嵌入式移植的实时人形目标自动识别算法,步骤包括:
S1、根据距离和光学视场角对目标的目标框尺度大小进行估算,根据估算值选定预设的人形模板;
S2、根据选定的所述人形模板,遍历图像检测窗口内的所有样本目标,计算所述样本目标的特征向量;
S3、将所述特征向量的方向梯度向量与预设的方向梯度特征人形模板的方向梯度向量进行匹配,判断所述样本目标是否是人形目标;
S4、输出判断出的所述人形目标的位置、相对运动速度和个数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述人形目标自动识别算法应用在枪械上时采用以下方式射击:
根据所述S4输出的人形目标的信息由射击门对所述人形目标进行自动击发。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,S1中所述光学视场角包括大视场和小视场,所述大视场和所述小视场均被线性的分成7段,每一段分别预设所述人形模板。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S2计算所述样本目标的特征向量的具体步骤包括:
S21、选取特征样本,并计算和确定所述特征样本实际参与运算的尺寸、单元块的尺寸、相邻单元块之间重叠像素个数和识别框内单元块的布局信息;
S22、将每个单元块分为若干方向空间,计算每个方向空间里的像素的梯度幅值、梯度方向和对方向扇区的贡献幅值;
S23、计算出所述单元块内对应位置的方向梯度直方图并进行归一化;
S24、计算出整个识别框内的方向梯度向量;
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S22中计算像素的梯度幅值的公式为:
Figure GDA0002660929820000021
计算像素的梯度方向的公式为:
α(x,y)=tan-1(yg/xg),α∈(0,2π)
其中,xg,yg分别为对应像素在横、纵方向相邻两像素的差值。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,将α(x,y)从(0,2π)映射到6个不同的方向扇区里面,每个方向扇区的宽度为π/3,且均分为关于圆心对称的两部分;根据像素的梯度方向所在方向扇区的位置,判定所述像素对临近的两个或一个方向扇区的贡献幅值,且贡献幅值总和为1。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述S3中判断人形目标的公式为:
Figure GDA0002660929820000022
其中
Figure GDA0002660929820000023
为待判定人形目标的方向梯度向量;m、n为待判定人形目标像素点取值范围;
Figure GDA0002660929820000024
为对应的方向梯度特征人形模板的方向梯度向量;T为判断阈值。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上任一所述算法的步骤。
一种实时人形目标自动识别装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上任一所述算法的步骤。
与现有技术相比,本发明可以获得包括以下技术效果:能够根据测距和视场角信息推算人形目标大小,利用相应的模板方向梯度来识别检测窗口内存在的人形目标;能够在射击门与识别框经过相对运动修正后重合时实现自动击发。
当然,实施本发明的任一产品并不一定需要同时达到以上所述的所有技术效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明一个实施例提供的人形目标自动识别算法的流程图;
图2是本发明一个实施例提供的人形目标识别检测窗口的高斯金字塔搜索策略图;
图3是本发明一个实施例提供的人形目标识别的单元块、方向梯度特征及归一化特征向量图;
图4是本发明一个实施例提供的人形目标识别嵌入式移植试验效果图。
具体实施方式
为了更好的理解本发明的技术方案,下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
应当理解,尽管在本发明实施例中可能采用术语第一、第二来描述XXX,但这些文件不应限于这些术语。这些术语仅用来将文件彼此区分开。例如,在不脱离本发明实施例范围的情况下,第一XXX也可以被称为第二XXX,类似地,第二XXX也可以被称为第一XXX。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
本发明提供可嵌入式移植的实时人形目标自动识别算法,该算法可以应用于智能化枪械,实现智能化击发。本发明利用测距信息和光学镜头的视场角信息估算出人形目标的大小,并自动调用相应特征模板,利用相应的模板方向梯度对检测窗内存在的人形目标进行快速识别,单循环使得算法速度显著提高。利用视频流识别出目标相对于射手的运动速度,根据速度调整射击框的提前或滞后量,当射击框与识别框基本重合后实现自动击发。
人形目标识别算法流程如图1所示:
S1、测距并获取目标距离信息;
S2、根据距离和光学视场角对人形目标目标框的大小进行估算;
S3、遍历计算该尺度下图像检测窗口内的人形目标特征样本;
S4、与该尺度下的方向梯度特征人形模板进行匹配;
S5、匹配成功后输出识别出的人形目标位置、相对运动速度和个数;
S6、根据人形目标的信息由射击门进行自动击发。
光学镜头分为两个视场大视场为10°,小视场为2.5°,大视场的识别范围为50~200米,小视场的识别范围为200~800米,大视场和小视场均被线性的分成7段,1~7段按照距离远近将对应1~7号人形模板,人形模板由远及近分别为72×144、66×132、60×120、54×108、48×96、42×84、36×72像素。两个视场合起来就是14个识别区域。检测窗口是以测距分划为中心,256×256像素大小的区域,算法根据距离和视场选定好相应的模板后,便在检测窗口内用该模板进行特定步长高斯模型量化步长的遍历匹配,如图2所示,黑色小圈代表匹配点,由于瞄准区域中心的人形目标出现的概率比较高,边缘的出现概率比较低,所以可以对步长进行基于高斯模型的修正,距离检测窗口中心越近,匹配点越密集,相反的越远则越稀疏。匹配完毕后将相似度超过一定阈值的目标确定为人形目标。再根据人形目标的位置、相对运动速度和个数等信息,再结合修正后的射击门进行自动击发。
下面对方向梯度模板匹配识别人形目标的算法进行说明:
该算法所用的数字视频流是720×576@50场/秒的YUV422彩色图像序列。由于系统处理速度的原因,人形目标自动识别算法只用到图像的亮度分量Y,对于色彩分量UV不作处理。只对亮度分量Y进行处理而不对色彩分量UV进行处理的原因是:人形目标在色彩分量上存在诸多不确定的因素,非常难以模型化和量化,而亮度分量能够量化出人体的轮廓和梯度信息模型,进而可以对人形目标进行识别。
该算法使用一种带有多个重叠类似花砖排列的栅格块进行特征提取的,同时这些栅格块包含有所提取的方向梯度向量。为了对光照强度、阴影等干扰具有鲁棒性,需要对方向梯度向量进行对比度归一化处理。
归一化思想是利用图像的不变矩寻找一组参数使其能够消除其他变换函数对图像变换的影响。也就是转换成唯一的标准形式以抵抗仿射变换。图像归一化使得图像可以抵抗几何变换的攻击,它能够找出图像中的那些不变量,从而得知这些图像原本就是一样的或者一个系列的。
假设所选取的特征向量模板尺寸为66×132像素,由于采用隔行扫描、场处理的方式,实际参与运算的尺寸为66×66像素。其中单元块为12×12像素,如图3中的(a)所示,每个小方块代表一个像素,所有144个小方块构成一个单元块。块与块之间重叠6个像素,单元块横、纵方向均为(66-6)/6=10个,因此整个识别框内所含有的单元块为100个。需要说明的是以上像素数值均为众多选择中的一种,而非唯一;根据选取的特征向量模板尺寸不同,扫描方式、场处理方式的不同,实际参与运算的尺寸也不同,单元快的像素也有所不同,也就是说本段落所提到的数字根据具体情况可等比例的缩小或放大。
每个像素梯度的幅值按照下式计算:
Figure GDA0002660929820000051
每个像素梯度的方向按照下式计算:
α(x,y)=tan-1(yg/xg),α∈(0,2π) 2)
其中xg,yg为该像素在横、纵方向相邻像素的横纵坐标差值:
xg=xx+1-xx-1,yg=yy+1-yy-1 3)
其中,g代表梯度,x+1和x-1代表与x像素相邻的两个像素。
同时将α(x,y)从(0,2π)映射到6个不同颜色的方向扇区里面,每个扇区的宽度为π/3,关于圆心对称,如图3中的(b)所示。如果一个像素的梯度方向正好位于某个扇区的中间,其幅值则对该扇区的贡献因子为1;如果正好落入两个扇区的交界处,则对相邻的两个扇区贡献因子各为0.5。依此类推,根据像素梯度方向所在扇区的位置不同,只对与其最近的两个扇区有贡献,且贡献因子总和等于1。
每个单元块含有4组空间方向编码,如图3中的(a)所示0~5、6~11、12~17、18~23的4组空间方向编码。每组有6×6个像素,这些像素按照公式(1)和(2)计算梯度幅值、方向以及对每个扇区的贡献幅值。最后计算出该单元块内24位方向梯度直方图并进行归一化,如图3中的(c)所示。
通过以上计算得到整个检测窗口的特征向量为100×24=2400。此算法只对以测距分划为中心的256×256像素区域范围进行自动识别的处理,如图2所示。
待判断人形目标的方向梯度向量的计算方式与上述的方向梯度特征人形模板的方向梯度向量的计算方式相同。
人形目标判别公式为:
Figure GDA0002660929820000061
其中
Figure GDA0002660929820000062
为相应候选人形目标的方向梯度向量,其计算方法由(1)、(2)式得出,(m,n)为目标像素点取值范围。
Figure GDA0002660929820000063
为该距离下的模板的方向梯度向量。两个向量进行点积运算,当大于判断阈值T时,则可确定该像素点存在人形目标。由于T是N个归一化互相关系数的总和(N为检测窗口的单元块数目),所以阈值T设置为β*N,这里β和被识别的目标特征相关,当目标为人形目标时β≈0.45,因此当N=100时,阈值取45,随着单元块的数目增加,阈值会相应增加。
对于其余6个模板尺寸的人形目标,是根据单元块的大小来缩放的。例如54×108像素便是减少了一层单元块,而72×144则是增加了一层单元块。经试验验证,如果检测窗口内单元块个数小于5×5时,其行人特征描述空间会变得非常粗糙,进而导致识别成功率显著降低,因此设置最小可以识别到的行人尺寸为36×72像素。
在14个识别区域内分别设置不同大小相同比例的方向梯度特征人形模板,当识别目标位于某段区域时,自动调用相应方向梯度特征人形模板,并对检测窗口内存在的人形目标进行快速识别。由于模板大小固定,因此只需要遍历一次即可,算法速度显著提高。利用视频流识别出目标相对于射手的相对运动速度,根据速度调整射击框的提前或滞后量,当射击框与识别框基本重合后实现自动击发。
行人识别试验效果图如图4所示,图4是利用一段带有人形目标的720*576大小的视频对上述算法进行实验验证的效果图,算法选取72×144、66×132、60×120三种模板进行人形目标识别,最终识别出3个人形目标,由于最左边的人形目标存在明显的遮挡,因此该样本的归一化互相关系数较低,算法未识别出来。
可嵌入式移植的实时人形目标自动识别算法可大幅度提高新一代枪械的作战效能,提高士兵战场反应灵敏性,提高武器的作战使用武器性能和功能,还可以扩展枪械系统的作战时空,强化枪械系统效能,提高士兵的战场生存能力,为研制出适应未来军事斗争需求和我军适用的新一代单兵战斗枪械系统奠定基础。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置或单元的更加具体的工作过程,可以参考本领域通常使用的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的;例如,14个识别区域的划分,仅仅为一种距离功能划分,实际实现时可以有另外的划分方式;方向扇区的划分,也是选择的一种划分方式,可以根据实际情况有其他的划分方式;例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,方向梯度特征人形模板的尺寸、扫描方式、场处理方式可以有其他的实施方式,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (6)

1.一种可嵌入式移植的实时人形目标自动识别算法,步骤包括:
S1、根据距离和光学视场角对目标的目标框尺度大小进行估算,根据估算值选定预设的人形模板;
S2、根据选定的所述人形模板,遍历图像检测窗口内的所有样本目标,计算所述样本目标的特征向量;
S3、将所述特征向量的方向梯度向量与预设的方向梯度特征人形模板的方向梯度向量进行匹配,判断所述样本目标是否是人形目标;
S4、输出判断出的所述人形目标的位置、相对运动速度和个数;
所述S2计算所述样本目标的特征向量的具体步骤包括:
S21、选取特征样本,并计算和确定所述特征样本实际参与运算的尺寸、单元块的尺寸、相邻单元块之间重叠像素个数和识别框内单元块的布局信息;
S22、将每个单元块分为若干方向空间,计算每个方向空间里的像素的梯度幅值、梯度方向和对方向扇区的贡献幅值;
S23、计算出所述单元块内对应位置的方向梯度直方图并进行归一化;
S24、计算出整个识别框内的方向梯度向量;
所述S22中计算像素的梯度幅值的公式为:
Figure 680309DEST_PATH_IMAGE001
计算像素的梯度方向的公式为:
α(xy)=tan-1(y g /x g ),α∈(0,2π)
其中,xg,yg分别为对应像素在横、纵方向相邻两像素的差值;
将α(x,y)从(0,2π)映射到6个不同的方向扇区里面,每个方向扇区的宽度为π/3,且均分为关于圆心对称的两部分;根据像素的梯度方向所在方向扇区的位置,判定所述像素对临近的两个或一个方向扇区的贡献幅值,且贡献幅值总和为1。
2.根据权利要求1所述的可嵌入式移植的实时人形目标自动识别算法,其特征在于,所述人形目标自动识别算法应用在枪械上时采用以下方式射击:
根据所述S4输出的人形目标的信息由射击门对所述人形目标进行自动击发。
3.根据权利要求1或2所述的可嵌入式移植的实时人形目标自动识别算法,其特征在于,S1中所述光学视场角包括大视场和小视场,所述大视场和所述小视场均被线性的分成7段,每一段分别预设所述人形模板。
4.根据权利要求1所述的可嵌入式移植的实时人形目标自动识别算法,其特征在于,所述S3中判断人形目标的公式为:
Figure 784401DEST_PATH_IMAGE002
其中
Figure 659078DEST_PATH_IMAGE003
为待判定人形目标的方向梯度向量;m、n为待判定人形目标像素点取值范围;
Figure 739773DEST_PATH_IMAGE004
为对应的方向梯度特征人形模板的方向梯度向量;T为判断阈值。
5.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-4任一所述算法的步骤。
6.一种实时人形目标自动识别装置,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于:所述处理器执行所述计算机程序时实现如权利要求1-4任一所述算法的步骤。
CN201811108391.3A 2018-09-21 2018-09-21 一种可嵌入式移植的实时人形目标自动识别算法 Active CN109446901B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811108391.3A CN109446901B (zh) 2018-09-21 2018-09-21 一种可嵌入式移植的实时人形目标自动识别算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811108391.3A CN109446901B (zh) 2018-09-21 2018-09-21 一种可嵌入式移植的实时人形目标自动识别算法

Publications (2)

Publication Number Publication Date
CN109446901A CN109446901A (zh) 2019-03-08
CN109446901B true CN109446901B (zh) 2020-10-27

Family

ID=65532589

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811108391.3A Active CN109446901B (zh) 2018-09-21 2018-09-21 一种可嵌入式移植的实时人形目标自动识别算法

Country Status (1)

Country Link
CN (1) CN109446901B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101303B (zh) * 2020-11-05 2021-02-05 腾讯科技(深圳)有限公司 一种图像数据处理方法、装置以及计算机可读存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102556304A (zh) * 2010-12-30 2012-07-11 北京晶品特装科技有限责任公司 快速溺水救援甩棍

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100568262C (zh) * 2007-12-29 2009-12-09 浙江工业大学 基于多摄像机信息融合的人脸识别检测装置
JP5227629B2 (ja) * 2008-03-25 2013-07-03 富士フイルム株式会社 オブジェクト検出方法、オブジェクト検出装置、およびオブジェクト検出プログラム
CN102496230B (zh) * 2011-12-09 2014-08-20 中国科学院长春光学精密机械与物理研究所 多光束激光主动成像自动告警系统
CN104636749A (zh) * 2013-11-14 2015-05-20 中国移动通信集团公司 目标对象检测方法及装置
CN105139417A (zh) * 2015-07-27 2015-12-09 河海大学 视频监控下的多目标实时跟踪方法
CN107817679B (zh) * 2016-08-24 2021-08-31 南京理工大学 基于红外与可见光融合跟踪的舰船水炮控制系统及方法
CN106611157B (zh) * 2016-11-17 2019-11-29 中国石油大学(华东) 一种基于光流定位和滑动窗口检测的多人姿态识别方法
CN106910203B (zh) * 2016-11-28 2018-02-13 江苏东大金智信息系统有限公司 一种视频监测中运动目标的快速检测方法
CN106981073B (zh) * 2017-03-31 2019-08-06 中南大学 一种基于无人机的地面运动目标实时跟踪方法及系统
CN107301419A (zh) * 2017-05-26 2017-10-27 哈尔滨工程大学 一种基于百分比击中击不中变换的红外弱小目标检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102556304A (zh) * 2010-12-30 2012-07-11 北京晶品特装科技有限责任公司 快速溺水救援甩棍

Also Published As

Publication number Publication date
CN109446901A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
Zhong et al. Anchor box optimization for object detection
US10645299B2 (en) Method for tracking and shooting moving target and tracking device
Steder et al. Robust place recognition for 3D range data based on point features
CN110546651B (zh) 用于识别对象的方法、系统和计算机可读介质
Schmiedel et al. IRON: A fast interest point descriptor for robust NDT-map matching and its application to robot localization
US9256619B2 (en) Method for detecting and recognizing boats
CN115240130A (zh) 一种行人多目标跟踪方法、装置和计算机可读存储介质
CN114067444A (zh) 基于元伪标签和光照不变特征的人脸欺骗检测方法和系统
CN109658440A (zh) 一种基于目标显著性特征的目标跟踪方法
CN111754519A (zh) 一种基于类激活映射的对抗防御方法
CN110765975A (zh) 作弊行为的判定方法、装置、存储介质和计算机设备
CN113643278A (zh) 面向无人机影像目标检测的对抗样本生成方法
JP5367244B2 (ja) 目標検出装置および目標検出方法
CN109446901B (zh) 一种可嵌入式移植的实时人形目标自动识别算法
CN105913069A (zh) 一种图像识别方法
Liu et al. Keypoint matching by outlier pruning with consensus constraint
CN114037650A (zh) 变化检测及目标检测的地面目标可见光毁伤图像处理方法
Demir et al. Part-based co-difference object tracking algorithm for infrared videos
CN116824345A (zh) 基于计算机视觉的弹孔检测方法及装置
Kumar et al. Ship detection based on faster R-CNN in SAR imagery by anchor box optimization
WO2017068331A1 (en) Improvements in and relating to missile targeting
CN115984439A (zh) 一种伪装目标的三维对抗纹理生成方法和装置
CN114005018B (zh) 一种小算力驱动的水面无人艇多目标跟踪方法
Wang et al. Saliency selection for robust visual tracking
CN115527168A (zh) 行人重识别方法、存储介质、数据库编辑方法、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: Room 603, building 5, No.1, Chaoqian Road, science and Technology Park, Changping District, Beijing

Patentee after: Beijing Jingpin special decoration technology Co., Ltd

Address before: 102299, Beijing, Changping District, a road on the front of a macro science and Technology Park, building 5, 6 floor

Patentee before: BEIJING JINGPINTEZHUANG SCIENCE AND TECHNOLOGY Co.,Ltd.

CP03 Change of name, title or address