CN110633627A - 在视频中定位对象的方法、装置、计算机设备及存储介质 - Google Patents
在视频中定位对象的方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN110633627A CN110633627A CN201910707924.8A CN201910707924A CN110633627A CN 110633627 A CN110633627 A CN 110633627A CN 201910707924 A CN201910707924 A CN 201910707924A CN 110633627 A CN110633627 A CN 110633627A
- Authority
- CN
- China
- Prior art keywords
- image
- face
- candidate
- video
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000000605 extraction Methods 0.000 claims description 48
- 230000006870 function Effects 0.000 claims description 43
- 238000012549 training Methods 0.000 claims description 41
- 238000004422 calculation algorithm Methods 0.000 claims description 39
- 238000013527 convolutional neural network Methods 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 26
- 238000001514 detection method Methods 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000013135 deep learning Methods 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 8
- 238000000354 decomposition reaction Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 3
- 239000013598 vector Substances 0.000 description 24
- 238000004364 calculation method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005034 decoration Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000037308 hair color Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/785—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/7854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using shape
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于人工智能领域,本发明实施例公开了一种在视频中定位对象的方法、装置、计算机设备及存储介质,其中方法包括下述步骤:获取待定位对象的第一图像特征,所述第一图像特征包含图像轮廓和\或图像颜色特征;根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;获取待定位对象的人脸特征;将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。通过第一图像特征检索视频数据库,可以快速定位候选对象,再根据人脸特征定位待定位对象,很大程度地减少了计算量,提高了对象定位的时效性。
Description
技术领域
本发明属于人工智能领域,尤其涉及一种在视频中定位对象的方法、装置、计算机设备及存储介质。
背景技术
随着社会经济的发展,城镇化建设速度加快,导致城市中人口密度不断增加,社会人员流动性与日俱增,引发了城市建设中的交通、社会治安、重点区域防范防恐等新问题,社会管理难度不断增加。安防系统使用了大量的视频采集设备,通过视频实时监控,并记录视频数据以备查看,以便维护公共安全。
分析视频监控设备采集的数据,对特定对象进行识别、定位及跟踪是公安机关经常的工作。然而庞大的视频数据巨大仅依靠人工进行对象分辨识别,耗时费力,且精度低。
有些视频监控系统虽然引入了人脸识别技术对对象进行定位,但是人脸识别要求视频采集设备精度高,视频采集设备精度越高,产生的视频数据越大,且人脸识别计算过程复杂,因而在庞大的视频数据中检索出待定位对象的人脸,需要的计算时间较长或需要较多的计算资源,对一些计算资源有限但对时效性要求较高的场合往往不能满足检索要求。
发明内容
本发明提供一种在视频中定位对象的方法、装置、计算机设备及存储介质,以解决定位对象耗时的问题。
为解决上述技术问题,本发明提出一种在视频中定位对象的方法,包括如下步骤:
获取待定位对象的第一图像特征,所述第一图像特征包含图像轮廓和\或
图像颜色特征;
根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;
获取待定位对象的人脸特征;
将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。
可选地,在所述获取待定位对象的第一图像特征的步骤中,包括下述步骤:
获取待定位对象的图像;
根据图像轮廓特征提取算法和\或颜色特征提取算法对所述待定位对象的图像进行处理,获取所述待定位对象的第一图像特征。
可选地,在所述获取所述待定位对象的人脸特征的步骤中,包括下述步骤:
获取待定位对象的人脸图像;
将所述待定位对象的人脸图像输入到预设的人脸特征提取模型中,获取所述待定位对象图像的人脸特征。
可选地,在所述根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像的步骤中,包括下述步骤:
获取视频图像帧,所述视频图像帧为所述预设的视频数据库中保存的视频的分解;
将所述视频图像帧输入到预设的目标检测模型中,获取所述目标检测模型响应所述视频图像帧而输出的目标对象的图像,其中,所述预设的目标检测模型基于预先训练的深度学习神经网络,所述目标对象的图像为人体图像;
将所述目标对象的图像根据图像轮廓特征提取算法和\或颜色特征提取算法,计算所述目标对象的第一图像特征;
计算所述待定位对象的第一图像特征与所述目标对象的第一图像特征之间的匹配度,当所述匹配度大于预设的第一阈值时,确定所述目标对象为所述候选对象。
可选地,在所述将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象的步骤中,包括下述步骤:
获取所述候选对象的人脸图像,所述候选对象的人脸图像截取自所述候选对象的图像;
将所述候选对象的人脸图像输入到所述预设的人脸特征提取模型中,获取所述候选对象的人脸特征;
计算所述待定位对象的人脸特征与所述候选对象的人脸特征之间的匹配度,当所述匹配度大于预设的第二阈值时,确定所述候选对象为所述待定位对象。
可选地,所述预设的人脸特征提取模型基于预先训练的卷积神经网络模型,其中,所述卷积神经网络模型的训练包括下述步骤:
获取标记有身份标识的训练样本,所述训练样本为标记有不同身份标识的人脸图像;
将所述训练样本输入到卷积神经网络模型中,获取所述训练样本的身份标识预测结果;
根据损失函数比对所述训练样本的身份标识预测结果与所述身份标识是否一致,其中,所述损失函数为:
其中,N为训练样本数,针对第i个样本对应的yi是标记的结果,h=(h1,h2,...,hi)为样本i的预测结果;
当所述身份标识预测结果与所述身份标识不一致时,反复循环迭代的更新所述卷积神经网络模型中的权重,至所述损失函数收敛时结束。
可选地,所述图像轮廓特征提取算法采取图像梯度算法,梯度表示为:
Gx=f(x,y)-f(x-1,y)
Gy=f(x,y)-f(x,y-1)
其中,f(x,y)为待计算轮廓的图像的图像函数,f(x,y)、f(x-1,y)与f(x,y-1)分别是图像函数f(x,y)在点(x,y)、点(x-1,y)与点(x,y-1)的梯度,Gx、Gy分别为图像函数f(x,y)在x方向和y方向的梯度。
为解决上述技术问题,本发明实施例还提供一种在视频中定位对象的装置,包括:
第一获取模块,用于获取待定位对象的第一图像特征,所述第一图像特
征包含图像轮廓和\或图像颜色特征;
检索模块,用于根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;
第二获取模块,用于获取待定位对象的人脸特征;
处理模块,用于将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。
可选地,在所述第一获取模块中,还包括:
第一获取子模块,用于获取待定位对象的图像;
第一处理子模块,用于根据图像轮廓特征提取算法和\或颜色特征提取算法对所述待定位对象的图像进行处理,获取所述待定位对象的第一图像特征。
可选地,在所述第二获取模块中,还包括:
第二获取子模块,用于获取待定位对象的人脸图像;
第二处理子模块,用于将所述待定位对象的人脸图像输入到预设的人脸特征提取模型中,获取所述待定位对象图像的人脸特征。
可选地,在所述检索模块中,还包括:
第三获取子模块,用于获取视频图像帧,所述视频图像帧为所述预设的视频数据库中保存的视频的分解;
第一检测子模块,用于将所述视频图像帧输入到预设的目标检测模型中,获取所述目标检测模型响应所述视频图像帧而输出的目标对象的图像,其中,所述预设的目标检测模型基于预先训练的深度学习神经网络,所述目标对象的图像为人体图像;
第一计算子模块,用于根据图像轮廓特征提取算法和\或颜色特征提取算法对所述目标对象的图像进行处理,获取所述目标对象的第一图像特征;
第三处理子模块,用于计算所述待定位对象的第一图像特征与所述目标对象的第一图像特征之间的匹配度,当所述匹配度大于预设的第一阈值时,确定所述目标对象为所述候选对象。
可选地,在所述处理模块中,还包括:
第四获取子模块,用于获取所述候选对象的人脸图像,所述候选对象的人脸图像截取自所述候选对象的图像;
第二计算子模块,用于将所述候选对象的人脸图像输入到所述预设的人脸特征提取模型中,获取所述候选对象的人脸特征;
第四处理子模块,用于计算所述待定位对象的人脸特征与所述候选对象的人脸特征之间的匹配度,当所述匹配度大于预设的第二阈值时,确定所述候选对象为所述待定位对象。
可选地,在所述第二计算子模块中,所述预设的人脸特征提取模型基于预先训练的卷积神经网络模型,其中,所述第二计算子模块中,还包括:
第五获取子模块,用于获取标记有身份标识的训练样本,所述训练样本为标记有不同身份标识的人脸图像;
第一预测子模块,用于将所述训练样本输入到卷积神经网络模型中,获取所述训练样本的身份标识预测结果;
第一比对子模块,用于根据损失函数比对所述训练样本的身份标识预测结果与所述身份标识是否一致,其中,所述损失函数为:
其中,N为训练样本数,针对第i个样本对应的yi是标记的结果,h=(h1,h2,...,hi)为样本i的预测结果;
第五处理子模块,用于当所述身份标识预测结果与所述身份标识不一致时,反复循环迭代的更新所述卷积神经网络模型中的权重,至所述损失函数收敛时结束。
可选地,在所述第一计算子模块中,所述图像轮廓特征提取算法采取图像梯度算法,梯度表示为:
Gx=f(x,y)-f(x-1,y)
Gy=f(x,y)-f(x,y-1)
其中,f(x,y)为待计算轮廓的图像的图像函数,f(x,y)、f(x-1,y)与f(x,y-1)分别是图像函数f(x,y)在点(x,y)、点(x-1,y)与点(x,y-1)的梯度,Gx、Gy分别为图像函数f(x,y)在x方向和y方向的梯度。
为解决上述技术问题,本发明实施例还提供一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行上述所述在视频中定位对象的方法的步骤。
为解决上述技术问题,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时,使得所述处理器执行上述所述在视频中定位对象的方法的步骤。
本发明实施例的有益效果为:通过获取待定位对象的第一图像特征,所述第一图像特征包含图像轮廓和\或图像颜色特征;根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;获取待定位对象的人脸特征;将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。通过第一图像特征检索视频数据库,可以快速定位候选对象,再根据人脸特征定位待定位对象,减少了大量的计算,提高了对象定位的时效性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一种在视频中定位对象的方法基本流程示意图;
图2为本发明实施例获取待定位对象的第一图像特征流程示意图;
图3为本发明实施例确定候选对象流程示意图;
图4为本发明实施例卷积神经网络模型训练流程示意图;
图5为本发明实施例确定待定位对象流程示意图;
图6为本发明实施例一种在视频中定位对象的装置基本结构框图;
图7为本发明实施计算机设备基本结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
在本发明的说明书和权利要求书及上述附图中的描述的一些流程中,包含了按照特定顺序出现的多个操作,但是应该清楚了解,这些操作可以不按照其在本文中出现的顺序来执行或并行执行,操作的序号如101、102等,仅仅是用于区分开各个不同的操作,序号本身不代表任何的执行顺序。另外,这些流程可以包括更多或更少的操作,并且这些操作可以按顺序执行或并行执行。需要说明的是,本文中的“第一”、“第二”等描述,是用于区分不同的消息、设备、模块等,不代表先后顺序,也不限定“第一”和“第二”是不同的类型。
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本技术领域技术人员可以理解,这里所使用的“终端”、“终端设备”既包括无线信号接收器的设备,其仅具备无发射能力的无线信号接收器的设备,又包括接收和发射硬件的设备,其具有能够在双向通信链路上,执行双向通信的接收和发射硬件的设备。这种设备可以包括:蜂窝或其他通信设备,其具有单线路显示器或多线路显示器或没有多线路显示器的蜂窝或其他通信设备;PCS(Personal Communications Service,个人通信系统),其可以组合语音、数据处理、传真和/或数据通信能力;PDA(Personal Digital Assistant,个人数字助理),其可以包括射频接收器、寻呼机、互联网/内联网访问、网络浏览器、记事本、日历和/或GPS(Global Positioning System,全球定位系统)接收器;常规膝上型和/或掌上型计算机或其他设备,其具有和/或包括射频接收器的常规膝上型和/或掌上型计算机或其他设备。这里所使用的“终端”、“终端设备”可以是便携式、可运输、安装在交通工具(航空、海运和/或陆地)中的,或者适合于和/或配置为在本地运行,和/或以分布形式,运行在地球和/或空间的任何其他位置运行。这里所使用的“终端”、“终端设备”还可以是通信终端、上网终端、音乐/视频播放终端,例如可以是PDA、MID(Mobile Internet Device,移动互联网设备)和/或具有音乐/视频播放功能的移动电话,也可以是智能电视、机顶盒等设备。
本实施方式中的涉及到的终端即为上述的终端。
具体地,请参阅图1,图1为本实施例一种在视频中定位对象的方法的基本流程示意图。
如图1所示,一种在视频中定位对象的方法,包括下述步骤:
S101、获取待定位对象的第一图像特征,所述第一图像特征包含图像轮
廓和\或图像颜色特征;
通过可交互的接口接收待定位对象的第一图像特征,这里的待定位对象指具体的人,第一图像特征这里指包含待定位对象的图像的轮廓特征或颜色特征、或者两者的结合。
其中轮廓特征包括人的高矮胖瘦,颜色特征包括人的肤色、头发颜色、衣着的颜色。具体地,可通过可交互的界面由用户输入前述的特征。
本发明实施例中,通过获取待定位对象的图像,采用轮廓特征提取算法和颜色特征提取算法来获取待定位对象的第一图像特征,具体地,请参阅图2。
S102、根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;
根据第一图像特征检索预设的视频数据库,这里预设的视频数据库指保存了视频监控设备采集的视频的存储空间。图像的检索,现有的基于语义的检索,需要预先对图像进行语义属性标注,于本发明实施例中,图像来源于视频监控设备的实时采集,预先进行标注不适用,这里采用相似特征比对的算法,具体地,请参阅图3。
S103、获取待定位对象的人脸特征;
通过可交互的接口获取待定位对象的人脸特征,这里的人脸特征是表征人脸图像特征的一个n维的向量。图像特征是某一类对象区别于其他类对象的相应(本质)特点或特性,或是这些特点和特性的集合。特征是通过测量或处理能够抽取的数据。对于图像而言,每一幅图像都具有能够区别于其他类图像的自身特征,有些是可以直观地感受到的自然特征,如亮度、边缘、纹理和色彩等;有些则是需要通过变换或处理才能得到的,如矩、直方图以及主成份等。
特征向量的提取有多种方法,例如采用方向梯度直方图法,它通过计算和统计图像局部区域的梯度方向直方图来构成特征。这种方法的主要思想是在一副图像中,局部目标的表象和形状(appearance and shape)能够被梯度或边缘的方向密度分布很好地描述。具体实现方法为将一个图像image:
1)灰度化(将图像看作一个x,y,z(灰度)的三维图像);
2)采用Gamma校正法对输入图像进行颜色空间的标准化(归一化);目的是调节图像的对比度,降低图像局部的阴影和光照变化所造成的影响,同时可以抑制噪音的干扰;
3)计算图像每个像素的梯度(包括大小和方向);主要是为了捕获轮廓信息,同时进一步弱化光照的干扰;
4)将图像划分成小cells(例如6*6像素/cell);
5)统计每个cell的梯度直方图(不同梯度的个数),即可形成每个cell的描述子;
6)将每几个cell组成一个block(例如3*3个cell/block),一个block内所有cell的特征描述子串联起来便得到该block的梯度直方图特征描述子;
7)将图像image内的所有block的梯度直方图特征描述子串联起来就可以得到该image(你要检测的目标)的梯度直方图特征描述子。这个就是最终的可供图像识别的特征向量了。
本发明实施例中采用预先训练的卷积神经网络进行人脸图像特征向量的提取,卷积神经网络对图像特征的提取相对于其他方法来说,提取到的特征更不容易过拟合,可以利用不同的卷积、池化和最后输出的特征向量的大小控制整体模型的拟合能力,更灵活。训练的步骤请参阅图4。
S104、将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。
本发明实施例中,通过将待定位对象的人脸特征与步骤S102得到的候选对象的图像比对,确定候选对象中与待定位对象具有相同人脸特征的对象即为最终要定位的对象。
具体地,截取候选对象的人脸图像,按照与步骤103中相同的方式获得候选对象的人脸特征向量,比较两个向量之间的相似度。计算向量之间的欧氏距离或余弦相似度来衡量两者之间的相似度,当相似度大于设定的阈值时,确认该候选目标对象为待定位目标对象。其中余弦相似度,指两个向量之间夹角的余弦值取值范围在[-1,1]之间,值越趋近于1,代表两个向量的方向越接近,两个向量越相似;越趋近于-1,他们的方向越相反;接近于0,表示两个向量近乎于正交。具体的计算公式为:
其中,Ai、Bi分别代表向量A和B的各分量。
本发明实施例中,通过预设的人脸特征提取模型提取模型获取候选对象的人脸特征,再比较待定位对象人脸特征与候选对象的人脸特征相似度,具体请参阅图5。
如图2所示,在步骤S101中,还包括下述步骤:
S111、获取待定位对象的图像;
通过可交互的接口获取待定位对象的图像。
S112、根据图像轮廓特征其他算法和\或颜色特征提取算法,对所述待定位对象的图像进行处理,获取所述待定位对象的第一图像特征。
对待定位对象的图像进行图像轮廓特征提取。图像的轮廓特征提取可以采用图像梯度算法提取,图像函数f(x,y)在点(x,y)的梯度是一个具有大小和方向的矢量,设为Gx和Gy分别表示x方向和y方向的梯度,这个梯度的矢量可以表示为:
在数字图像中,梯度可以近似表示为:
Gx=f(x,y)-f(x-1,y)
Gy=f(x,y)-f(x,y-1)
其中,f(x,y)为待计算轮廓的图像的图像函数,f(x,y)、f(x-1,y)与f(x,y-1)分别是图像函数f(x,y)在点(x,y)、点(x-1,y)与点(x,y-1)的梯度,Gx、Gy分别为图像函数f(x,y)在x方向和y方向的梯度。
梯度的方向是函数f(x,y)变化最快的方向,当图像中存在边缘时,一定有较大的梯度值,相反,当图像中有比较平滑的部分时,灰度值变化较小,则相应的梯度也较小。图像梯度算法是考虑图像的每个像素的某个邻域内的灰度变化,利用边缘临近的一阶或二阶导数变化规律,对原始图像中像素某个邻域设置梯度算子,例如Sobel算子、Robinson算子、Laplace算子等,将原始图像与梯度算子进行卷积运算,得到目标对象图像的轮廓。
当第一图像特征为颜色特征时,颜色是一种全局特征,描述了图像或图像区域所对应的景物的表面性质。一般颜色特征是基于像素点的特征。为了使定位更准确,在利用颜色特征进行候选目标对象匹配时,为避免背景颜色信息对目标对象进行干扰,先通过目标检测算法,识别出图像中的目标图像,然后对图像进行裁剪,只保留目标对象本身。其中目标检测算法通过级联的卷积神经网络模型实现。通过计算裁剪后图像的颜色直方图获取目标图像的颜色特征,颜色直方图可以通过OpenCV里面提供的计算图像直方图的API函数calcHist计算。在对视频流中图像进行匹配时,计算视频流中图像各目标的颜色直方图,然后通过OpenCV提供的直方图比较函数compareHist()进行相似度的比较,得到候选的目标对象。
也可以先对含有目标对象的图像进行降采样,然后进行轮廓特征提取或颜色特征提取。在进行候选目标对象匹配时,同样将视频流中的图像进行相同倍数的降采样,并使用降采样后的图像与提取的目标对象的轮廓特征或颜色特征进行匹配,获取候选的目标对象。图像经过降采样后,像素数据减少,可以减少计算量,加快计算速度。
如图3所示,在步骤S102中,还包括下述步骤:
S121、获取视频图像帧,所述视频图像帧为所述预设的视频数据库中保存的视频的分解;
视频图像帧是视频的分解,可以采用第三方软件对视频进行分解,得到视频图像帧。
S122、将所述视频图像帧输入到预设的目标检测模型中,获取所述目标检测模型响应所述视频图像帧而输出的目标对象的图像,其中,所述预设的目标检测模型基于预先训练的深度学习神经网络,所述深度学习神经网络对输入的所述视频图像帧进行目标检测而输出的所述目标对象的图像为人体图像;
得到的视频图像帧往往不只包含目标图像,为了避免背景的干扰,先对视频图像帧进行目标检测,本发明的目标检测是对人体进行检测,目的是去除除了人体图像外的其他部分,经过目标检测后得到的目标对象的图像为人体图像。本发明实施例中采用预先训练的深度学习神经网络对目标对象进行检测。
具体地,先将视频图像帧进行等分切割。本发明实施例中,输入的图像划分为7*7的拼图图像。接着将拼图图像输入深度学习神经网络,对于每个拼图格子深度学习神经网络都会预测2个预测框。预测出的预测框包含5个值:x,y,w,h和置信度。x和y是预测框的中心坐标,w和h是预测框的宽与高。我们取两个预测框中的一个,即目标对象的预测框,最后第三卷积神经网络输出一个7x7x(2x5+1)的预测张量用于下一步目标对象预测框的确定。在获取到预测张量之后,通过设置置信度阈值进行筛选,置信度小于该阈值的预测框将被过滤掉,仅留下置信度比较高的预测框作为剩余框。然后对于剩下的每个预测框,依次计算一个剩下的预测框与剩余框的IOU(重合度)值,如果IOU值大于预设阈值,那么就将该预测框剔除,并对剩余的预测框重复上述过程,直到处理完所有的预测框,得到目标对象的图像。
S123、将所述目标对象的图像根据图像轮廓特征提取算法和\或颜色特征提取算法,计算所述目标对象的第一图像特征;
将目标对象的图像按照图像轮廓特征提取算法和\或颜色特征提取算法计算目标对象的第一图像特征,具体的算法与步骤S112中相同。
S124、计算所述待定位对象的第一图像特征与所述目标对象的第一图像特征之间的匹配度,当所述匹配度大于预设的第一阈值时,确定所述目标对象为所述候选对象。
轮廓特征匹配通过轮廓矩匹配法来实现。轮廓矩可以是空间矩、中心矩等,我们以空间矩为例,如下所示:
mpq表示图像的(p+q)阶矩,一般计算所有3阶的矩(p+q<=3)。
其中I(x,y)是图像轮廓象素点(x,y)的值,一般是1,n是轮廓上点的个数,p和q分别是x维度和y维度上的矩,即m00,m10,m01…m03
零阶矩m00是轮廓上点的简单累加,即轮廓上有多少个点。
一阶矩m10,m01分别是x和y方向上的累加。可以通过OpenCV的函数cvGetSpatialMoment()计算空间矩。
颜色特征匹配通过OpenCV提供的直方图比较函数compareHist()进行相似度的比较。
如图4所述,预先训练的卷积神经网络模型的训练包括下述步骤:
S131、获取标记有身份标识的训练样本,所述训练样本为标记有不同身份标识的人脸图像;
本发明实施例中,训练样本维标记了身份标识的人脸图像。
S132、将所述训练样本输入到卷积神经网络模型中,获取所述训练样本的身份标识预测结果;
将训练样本输入到卷积神经网络模型中,卷积神经网络模型输入每个样本的身份标识预测结果。
S133、通过损失函数比对所述训练样本的身份标识预测结果与所述身份标识是否一致,其中,所述损失函数为:
其中,N为训练样本数,针对第i个样本对应的yi是标记的结果,h=(h1,h2,...,hi)为样本i的预测结果。
通过损失函数比对训练样本的身份标识预测结果与标注的身份标识是否一致,本发明实施例采用Softmax交叉熵损失函数。在训练过程中,调整卷积神经网络模型中的权重,使Softmax交叉熵损失函数尽可能收敛,也就是说继续调整权重,在得到的损失函数的值不再缩小,反而增大时,认为第一卷积神经网络训练可以结束。
S134、当所述身份标识预测结果与所述身份标识不一致时,反复循环迭代的更新所述卷积神经网络模型中的权重,至所述损失函数收敛时结束。
如前所述当损失函数没有收敛时,更新卷积神经网络模型中的权重,本发明实施例中采用梯度下降法,梯度下降法是一个最优化算法,用于机器学习和人工智能当中用来递归性地逼近最小偏差模型。
如图5所示,在步骤104中,还包括下述步骤:
S141、获取所述候选对象的人脸图像,所述候选对象的人脸图像截取自所述候选对象的图像;
通过步骤S102得到了候选对象的图像,对候选对象图像进行人脸检测,截取候选对象的人脸图像。人脸检测方法与步骤S122中所述的方法相同。
S142、将所述候选对象的人脸图像输入到所述预设的人脸特征提取模型中,获取所述候选对象的人脸特征;
将候选对象的人脸图像输入到预设的人脸特征提取模型,本发明实施例中,预设的人脸特征提取模型采用预先训练的卷积神经网络模型,训练步骤图4相同。
S143、计算所述待定位对象的人脸特征与所述候选对象的人脸特征之间的匹配度,当所述匹配度大于预设的第二阈值时,确定所述候选对象为所述待定位对象。
比较两个向量之间的相似度。计算向量之间的欧氏距离或余弦相似度来衡量两者之间的相似度,当相似度大于设定的阈值时,确认该候选目标对象为待定位目标对象。其中余弦相似度,指两个向量之间夹角的余弦值取值范围在[-1,1]之间,值越趋近于1,代表两个向量的方向越接近,两个向量越相似;越趋近于-1,他们的方向越相反;接近于0,表示两个向量近乎于正交。具体的计算公式为
其中,Ai、Bi分别代表向量A和B的各分量。
为解决上述技术问题,本发明实施例还提供一种在视频中定位对象的装置。具体请参阅图6,图6为本实施例在视频中定位对象的装置的基本结构框图。
如图6所示,一种在视频中定位对象的装置,包括第一获取模块210、检索模块220、第二获取模块230和处理模块240,其中第一获取模块210,用于获取待定位对象的第一图像特征,所述第一图像特征包含图像轮廓和\或图像颜色特征;检索模块220,用于根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;第二获取模块230,用于获取待定位对象的人脸特征;处理模块240,用于将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。
本发明实施例通过获取待定位对象的第一图像特征,所述第一图像特征包含图像轮廓和\或图像颜色特征;根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;获取待定位对象的人脸特征;将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。通过第一图像特征检索视频数据库,可以快速定位候选对象,再根据人脸特征定位待定位对象,很大程度的减少了计算量,提高了对象定位的时效性。
在一些实施方式中,所述第一获取模块210中,还包括:第一获取子模块,用于获取待定位对象的图像;第一处理子模块,用于根据图像轮廓特征提取算法和\或颜色特征提取算法对所述待定位对象的图像进行处理,获取所述待定位对象的第一图像特征。
在一些实施方式中,所述第二获取模块230中,还包括:第二获取子模块,用于获取待定位对象的人脸图像;第二处理子模块,用于将所述待定位对象的人脸图像输入到预设的人脸特征提取模型中,获取所述待定位对象图像的人脸特征。
在一些实施方式中,所述检索模块220中,还包括:第三获取子模块,用于获取视频图像帧,所述视频图像帧为所述预设的视频数据库中保存的视频的分解;第一检测子模块,用于将所述视频图像帧输入到预设的目标检测模型中,获取所述目标检测模型响应所述视频图像帧而输出的目标对象的图像,其中,所述预设的目标检测模型基于预先训练的深度学习神经网络,所述目标对象的图像包括人体图像,所述深度学习神经网络对输入的所述视频图像帧进行目标检测而输出所述人体图像;第一计算子模块,用于将所述目标对象的图像根据图像轮廓特征提取算法和\或颜色特征提取算法,计算所述目标对象的第一图像特征;第三处理子模块,用于计算所述待定位对象的第一图像特征与所述目标对象的第一图像特征之间的匹配度,当所述匹配度大于预设的第一阈值时,确定所述目标对象为所述候选对象。
在一些实施方式中,所述处理模块240中,还包括:第四获取子模块,用于获取所述候选对象的人脸图像,所述候选对象的人脸图像截取自所述候选对象的图像;第二计算子模块,用于将所述候选对象的人脸图像输入到所述预设的人脸特征提取模型中,获取所述候选对象的人脸特征;第四处理子模块,用于计算所述待定位对象的人脸特征与所述候选对象的人脸特征之间的匹配度,当所述匹配度大于预设的第二阈值时,确定所述候选对象为所述待定位对象。
在一些实施方式中,所述第二计算子模块中,所述预设的人脸特征提取模型基于预先训练的卷积神经网络模型,其中,所述第二计算子模块中,还包括:第五获取子模块,用于获取标记有身份标识的训练样本,所述训练样本为标记有不同身份标识的人脸图像;第一预测子模块,用于将所述训练样本输入到卷积神经网络模型获取所述训练样本的身份标识预测结果;第一比对子模块,用于根据损失函数比对所述训练样本的身份标识预测结果与所述身份标识是否一致,其中,所述损失函数为:
其中,N为训练样本数,针对第i个样本对应的yi是标记的结果,h=(h1,h2,...,hi)为样本i的预测结果;第五处理子模块,用于当所述身份标识预测结果与所述身份标识不一致时,反复循环迭代的更新所述卷积神经网络模型中的权重,至所述损失函数收敛时结束。
在一些实施方式中,在所述第一计算子模块中,所述图像轮廓特征提取算法采取图像梯度算法,梯度表示为:
Gx=f(x,y)-f(x-1,y)
Gy=f(x,y)-f(x,y-1)
其中,f(x,y)为待计算轮廓的图像的图像函数,f(x,y)、f(x-1,y)与f(x,y-1)分别是图像函数f(x,y)在点(x,y)、点(x-1,y)与点(x,y-1)的梯度,Gx、Gy分别为图像函数f(x,y)在x方向和y方向的梯度。
为解决上述技术问题,本发明实施例还提供一种计算机设备。具体请参阅图7,图7为本实施例计算机设备基本结构框图。
如图7所示,计算机设备的内部结构示意图。如图7所示,该计算机设备包括通过系统总线连接的处理器、非易失性存储介质、存储器和网络接口。其中,该计算机设备的非易失性存储介质存储有操作系统、数据库和计算机可读指令,数据库中可存储有控件信息序列,该计算机可读指令被处理器执行时,可使得处理器实现一种对象的定位的方法。该计算机设备的处理器用于提供计算和控制能力,支撑整个计算机设备的运行。该计算机设备的存储器中可存储有计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种对象的定位的方法。该计算机设备的网络接口用于与终端连接通信。本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本实施方式中处理器用于执行图6中第一获取模块210、检索模块220、第二获取模块230和处理模块240的具体内容,存储器存储有执行上述模块所需的程序代码和各类数据。网络接口用于向用户终端或服务器之间的数据传输。本实施方式中的存储器存储有在视频中定位对象的方法中执行所有子模块所需的程序代码及数据,服务器能够调用服务器的程序代码及数据执行所有子模块的功能。
计算机设备通过获取待定位对象的第一图像特征,所述第一图像特征包含图像轮廓和\或图像颜色特征;根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;获取待定位对象的人脸特征;将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。通过第一图像特征检索视频数据库,可以快速定位候选对象,再根据人脸特征定位待定位对象,很大程度地减少了计算量,提高了对象定位的时效性。
本发明还提供一种存储有计算机可读指令的存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述任一实施例所述在视频中定位对象的方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种在视频中定位对象的方法,其特征在于,包括下述步骤:
获取待定位对象的第一图像特征,所述第一图像特征包含图像轮廓和\或图像颜色特征;
根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;
获取待定位对象的人脸特征;
将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。
2.根据权利要求1所述的在视频中定位对象的方法,其特征在于,在所述获取待定位对象的第一图像特征的步骤中,包括下述步骤:
获取所述待定位对象的图像;
根据图像轮廓特征提取算法和\或颜色特征提取算法对所述待定位对象的图像进行处理,获取所述待定位对象的第一图像特征。
3.根据权利要求1所述的在视频中定位对象的方法,其特征在于,在所述获取所述待定位对象的人脸特征的步骤中,包括下述步骤:
获取所述待定位对象的人脸图像;
将所述待定位对象的人脸图像输入到预设的人脸特征提取模型中,获取所述待定位对象图像的人脸特征。
4.根据权利要求1所述的在视频中定位对象的方法,其特征在于,在所述根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像的步骤中,包括下述步骤:
获取视频图像帧,所述视频图像帧为所述预设的视频数据库中保存的视频的分解;
将所述视频图像帧输入到预设的目标检测模型中,获取所述目标检测模型响应所述视频图像帧而输出的目标对象的图像,其中,所述预设的目标检测模型基于预先训练的深度学习神经网络,所述目标对象的图像为人体图像;
将所述目标对象的图像根据图像轮廓特征提取算法和\或颜色特征提取算法,计算所述目标对象的第一图像特征;
计算所述待定位对象的第一图像特征与所述目标对象的第一图像特征之间的匹配度,当所述匹配度大于预设的第一阈值时,确定所述目标对象为所述候选对象。
5.根据权利要求3所述的在视频中定位对象的方法,其特征在于,在所述将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象的步骤中,包括下述步骤:
获取所述候选对象的人脸图像,所述候选对象的人脸图像截取自所述候选对象的图像;
将所述候选对象的人脸图像输入到所述预设的人脸特征提取模型中,获取所述候选对象的人脸特征;
计算所述待定位对象的人脸特征与所述候选对象的人脸特征之间的匹配度,当所述匹配度大于预设的第二阈值时,确定所述候选对象为所述待定位对象。
6.根据权利要求3所述的在视频中定位对象的方法,其特征在于,所述预设的人脸特征提取模型基于预先训练的卷积神经网络模型,其中,所述卷积神经网络模型的训练包括下述步骤:
获取标记有身份标识的训练样本,所述训练样本为标记有不同身份标识的人脸图像;
将所述训练样本输入到卷积神经网络模型中,获取所述训练样本的身份标识预测结果;
根据损失函数比对所述训练样本的身份标识预测结果与所述身份标识是否一致,其中,所述损失函数为:
其中,N为训练样本数,针对第i个样本对应的yi是标记的结果,h=(h1,h2,...,hi)为样本i的预测结果;
当所述身份标识预测结果与所述身份标识不一致时,反复循环迭代的更新所述卷积神经网络模型中的权重,至所述损失函数收敛时结束。
7.根据权利要求2所述的在视频中定位对象的方法,其特征在于,所述图像轮廓特征提取算法采取图像梯度算法,梯度表示为:
Gx=f(x,y)-f(x-1,y)
Gy=f(x,y)-f(x,y-1)
其中,f(x,y)为待计算轮廓的图像的图像函数,f(x,y)、f(x-1,y)与f(x,y-1)分别是图像函数f(x,y)在点(x,y)、点(x-1,y)与点(x,y-1)的梯度,Gx、Gy分别为图像函数f(x,y)在x方向和y方向的梯度。
8.一种在视频中定位对象的装置,其特征在于,包括:
第一获取模块,用于获取待定位对象的第一图像特征,所述第一图像特征包含图像轮廓和\或图像颜色特征;
检索模块,用于根据所述待定位对象的第一图像特征检索预设的视频数据库,获取与所述待定位对象的第一图像特征匹配的候选对象的图像;
第二获取模块,用于获取待定位对象的人脸特征;
处理模块,用于将所述待定位对象的人脸特征与所述候选对象的图像比对,确定所述候选对象中与所述待定位对象的人脸特征匹配的对象为所述待定位对象。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述计算机可读指令被所述处理器执行时,使得所述处理器执行如权利要求1至7中任一项权利要求所述在视频中定位对象的方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项权利要求所述在视频中定位对象的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910707924.8A CN110633627A (zh) | 2019-08-01 | 2019-08-01 | 在视频中定位对象的方法、装置、计算机设备及存储介质 |
PCT/CN2019/117702 WO2021017289A1 (zh) | 2019-08-01 | 2019-11-12 | 在视频中定位对象的方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910707924.8A CN110633627A (zh) | 2019-08-01 | 2019-08-01 | 在视频中定位对象的方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110633627A true CN110633627A (zh) | 2019-12-31 |
Family
ID=68969147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910707924.8A Pending CN110633627A (zh) | 2019-08-01 | 2019-08-01 | 在视频中定位对象的方法、装置、计算机设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110633627A (zh) |
WO (1) | WO2021017289A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114282059A (zh) * | 2021-08-24 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 视频检索的方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170015639A (ko) * | 2015-07-29 | 2017-02-09 | 대한민국(관리부서: 행정자치부 국립과학수사연구원장) | 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법 |
CN106845385A (zh) * | 2017-01-17 | 2017-06-13 | 腾讯科技(上海)有限公司 | 视频目标跟踪的方法和装置 |
CN109190561A (zh) * | 2018-09-04 | 2019-01-11 | 四川长虹电器股份有限公司 | 一种视频播放中的人脸识别方法及系统 |
CN109299642A (zh) * | 2018-06-08 | 2019-02-01 | 嘉兴弘视智能科技有限公司 | 基于人像识别的逻辑布控预警系统及方法 |
CN109308463A (zh) * | 2018-09-12 | 2019-02-05 | 北京奇艺世纪科技有限公司 | 一种视频目标识别方法、装置及设备 |
CN109344713A (zh) * | 2018-08-31 | 2019-02-15 | 电子科技大学 | 一种姿态鲁棒的人脸识别方法 |
-
2019
- 2019-08-01 CN CN201910707924.8A patent/CN110633627A/zh active Pending
- 2019-11-12 WO PCT/CN2019/117702 patent/WO2021017289A1/zh active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170015639A (ko) * | 2015-07-29 | 2017-02-09 | 대한민국(관리부서: 행정자치부 국립과학수사연구원장) | 디지털 영상 내의 얼굴 인식을 통한 개인 식별 시스템 및 방법 |
CN106845385A (zh) * | 2017-01-17 | 2017-06-13 | 腾讯科技(上海)有限公司 | 视频目标跟踪的方法和装置 |
CN109299642A (zh) * | 2018-06-08 | 2019-02-01 | 嘉兴弘视智能科技有限公司 | 基于人像识别的逻辑布控预警系统及方法 |
CN109344713A (zh) * | 2018-08-31 | 2019-02-15 | 电子科技大学 | 一种姿态鲁棒的人脸识别方法 |
CN109190561A (zh) * | 2018-09-04 | 2019-01-11 | 四川长虹电器股份有限公司 | 一种视频播放中的人脸识别方法及系统 |
CN109308463A (zh) * | 2018-09-12 | 2019-02-05 | 北京奇艺世纪科技有限公司 | 一种视频目标识别方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2021017289A1 (zh) | 2021-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xie et al. | Multilevel cloud detection in remote sensing images based on deep learning | |
Chen et al. | Vehicle detection in high-resolution aerial images via sparse representation and superpixels | |
CN112801018B (zh) | 一种跨场景目标自动识别与追踪方法及应用 | |
Zhao et al. | Band-subset-based clustering and fusion for hyperspectral imagery classification | |
CN109711416B (zh) | 目标识别方法、装置、计算机设备和存储介质 | |
CN110781756A (zh) | 基于遥感图像的城市道路提取方法及装置 | |
Zhang et al. | Road recognition from remote sensing imagery using incremental learning | |
CN113361495A (zh) | 人脸图像相似度的计算方法、装置、设备及存储介质 | |
CN111275010A (zh) | 一种基于计算机视觉的行人重识别方法 | |
CN110852327A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111709317B (zh) | 一种基于显著性模型下多尺度特征的行人重识别方法 | |
US20230095533A1 (en) | Enriched and discriminative convolutional neural network features for pedestrian re-identification and trajectory modeling | |
Feng et al. | A novel saliency detection method for wild animal monitoring images with WMSN | |
CN114627424A (zh) | 一种基于视角转化的步态识别方法和系统 | |
CN114743139A (zh) | 视频场景检索方法、装置、电子设备及可读存储介质 | |
CN116740652B (zh) | 一种基于神经网络模型的锈斑面积扩大的监测方法与系统 | |
CN110633627A (zh) | 在视频中定位对象的方法、装置、计算机设备及存储介质 | |
CN112418262A (zh) | 车辆再识别的方法、客户端及系统 | |
CN116758419A (zh) | 针对遥感图像的多尺度目标检测方法、装置和设备 | |
Ataş | Performance Evaluation of Jaccard-Dice Coefficient on Building Segmentation from High Resolution Satellite Images | |
CN115063831A (zh) | 一种高性能行人检索与重识别方法及装置 | |
CN114581769A (zh) | 一种基于无监督聚类的在建房屋识别方法 | |
CN113723181A (zh) | 一种无人机航拍目标检测方法和装置 | |
Li et al. | A fast rotated template matching based on point feature | |
Li et al. | SAR object detection with a saliency method based on PCA and global contrast |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191231 |