CN109377518A - 目标追踪方法、装置、目标追踪设备及存储介质 - Google Patents
目标追踪方法、装置、目标追踪设备及存储介质 Download PDFInfo
- Publication number
- CN109377518A CN109377518A CN201811144760.4A CN201811144760A CN109377518A CN 109377518 A CN109377518 A CN 109377518A CN 201811144760 A CN201811144760 A CN 201811144760A CN 109377518 A CN109377518 A CN 109377518A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- image data
- face
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/243—Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/179—Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition
Abstract
本申请实施例公开了一种目标追踪方法、装置、目标追踪设备及存储介质,该方法包括当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点,其中,所述原始图像信息包括原始图像数据以及对应的采集时间和采集地点;根据所述历史地点确定多个目标采集地点;获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果,本方案实现了对目标对象的高效追踪。
Description
技术领域
本申请实施例涉及计算机技术,尤其涉及一种目标追踪方法、装置、目标追踪设备及存储介质。
背景技术
随着视频监控和网络传输技术的快速发展,在各级城市的街道、路口、车站、重要建筑物普遍安装拍摄装置。通过人工方式分析拍摄装置拍摄的内容以进行目标对象的识别是目前追踪目标人物的主要方法。
现有技术中,也存在通过机器人脸识别的方式以进行人脸图像的自动匹配来进行目标对象追踪,上述方式存在缺陷,需要改进。
发明内容
本申请提供了一种目标追踪方法、装置、目标追踪设备及存储介质,提高了目标追踪效率,实现了对目标对象的高效追踪。
第一方面,本申请实施例提供了一种目标追踪方法,包括:
当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点,其中,所述原始图像信息包括原始图像数据以及对应的采集时间和采集地点;
根据所述历史地点确定多个目标采集地点;
获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果。
第二方面,本申请实施例还提供了一种目标追踪装置,包括:
历史信息确定模块,用于当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点,其中,所述原始图像信息包括原始图像数据以及对应的采集时间和采集地点;
采集地点确定模块,用于根据所述历史地点确定多个目标采集地点;
目标对象识别模块,用于获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果。
第三方面,本申请实施例还提供了一种目标追踪设备,包括:处理器、存储器以及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例所述的目标追踪方法。
第四方面,本申请实施例还提供了一种包含目标追踪设备可执行指令的存储介质,所述目标追踪设备可执行指令在由目标追踪设备处理器执行时用于执行本申请实施例所述的目标追踪方法。
本方案中,当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点,其中,所述原始图像信息包括原始图像数据以及对应的采集时间和采集地点;根据所述历史地点确定多个目标采集地点;获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果,实现了对目标对象的高效追踪。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例提供的一种目标追踪方法的流程图;
图2是本申请实施例提供的另一种目标追踪方法的流程图;
图3是本申请实施例提供的另一种目标追踪方法的流程图;
图4是本申请实施例提供的另一种目标追踪方法的流程图;
图5是本申请实施例提供的一种目标追踪装置的结构框图;
图6是本申请实施例提供的一种目标追踪设备的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
图1是本申请实施例提供的一种目标追踪方法的流程图,可适用于对目标对象进行追踪,该方法可以由本申请实施例提供的目标追踪设备或服务器来执行,该目标追踪设备的目标追踪装置可采用软件和/或硬件的方式实现,如图1所示,本实施例提供的具体方案如下:
步骤S101、当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点。
其中,该目标对象可以是需要追踪的特定的人物对象。当识别到原始图像信息中该目标对象出现后,相应的确定目标对象出现的历史时间和历史地点。具体的识别方式可以采用人脸识别方式,还可以采用基于目标对象运动特征或体貌特征进行识别的方式。其中,历史时间和历史地点为对发现该目标对象的原始图像信息的采集时间和采集地点,举例而言,可以是在位置A处的摄像装置在时间点B拍摄的图像中识别到该目标对象出现,则位置A和时间点B即分别确定为目标对象出现的历史时间和历史地点。
步骤S102、根据所述历史地点确定多个目标采集地点。
在一个实施例中,根据所述历史地点确定多个目标采集地点包括:根据所述历史地点确定目标对象的出行地点集合;将所述出行地点集合中的地点确定为目标采集地点。示例性的,如果历史地点在银行,则相应的确定目标对象的出行地点集合为银行地点集合,如果如果历史地点在幼儿园,则相应的确定目标对象的出行地点集合为幼儿园地点集合。具体的,可建立不同采集地点和对应的地点属性关系映射集,相同属性关系可对应一个或多个采集地点,如在银行周边的摄像装置的属性可以定义为银行,商场中的摄像装置的属性可定义为商场。当发现目标对象后,根据该历史地点以及该映射集可相应的确定一个或多个目标采集地点。
步骤S103、获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果。
其中,不同采集地点对应有多个摄像装置,以采集该位置点的图像数据,本步骤中,在步骤S102确定目标采集地点后,相应的调取该多个目标采集地点处采集的图像数据,并依据前述确定的查询到目标对象的历史时间来选取对应的图像数据进行目标对象识别。具体的,依据所述历史时间对所述图像数据进行目标对象识别包括:依据所述历史时间以及预设时间阈值确定目标对象的查询时间段;确定所述查询时间段对应的图像数据,并进行目标对象识别。示例性的,该历史时间为15:00,该预设时间阈值可以是正负3个小时,确定出的查询时间段为每天的12:00至18:00,其中,该预设时间阈值还可以是设置的任意时间长短。其中,该识别结果可以是识别出的目标对象出现时的时间以及对应的包含目标对象的图像数据,将其反馈给查询追踪人员。
由上述内容可知,当识别到目标对象出现时,根据目标对象出现的时间和地点以预测其可能出现的时间段和目标采集地点,进而调取相应的图像数据进行目标对象的识别,减少了识别比对数据量,节省了识别比对时间,同时通过合理的预测分析,提高了目标对象的追踪识别效率。
图2是本申请实施例提供的另一种目标追踪方法的流程图,可选的,所述对所述图像数据进行目标对象识别包括:判断所述图像数据中的人脸图像是否为正面人脸图像,如果否,则对所述人脸图像进行图像矫正得到矫正人脸图像,将矫正后的人脸图像和目标对象人脸进行比对。如图2所示,技术方案具体如下:
步骤S201、当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点。
步骤S202、根据所述历史地点确定多个目标采集地点。
步骤S203、获取所述多个目标采集地点处采集的图像数据,并依据所述历史时间对所述图像数据进行提取得到图像识别数据。
步骤S204、判断所述图像识别数据中的人脸图像是否为正面人脸图像,如果否,则对所述人脸图像进行图像矫正得到矫正人脸图像。
在一个实施例中,通过判断人脸图像中的五官是否对称以确定截取的人脸图像是否为正面人脸图像。具体的,以双眼和嘴部为例,首先进行双眼和嘴部定位并得到双眼和嘴部之间的连线,如果双眼之间的连线处于水平状态,且双眼和嘴部连线组成的三角形处于为对称三角形,则确定当前人脸图像为正面人脸图像,否则为非正面人脸图像,进行图像矫正处理。
在一个实施例中,通过定位的人脸图像上的特征点,生成至少两个人脸特征点坐标,该特征点可以选取易识别定位的人脸五官中包含的点,如眼球、鼻尖等部位作为特征点,具体可采用现有技术中的模型定位方法实现;基于至少两个所述人脸特征点坐标计算人脸偏转角度,并根据所述人脸偏转角度反向旋转人脸图像,人脸图像处于标准姿态时,任意两特征点间的连线具有固定的方向性,例如鼻尖与人中的连线应该是竖直的。特征点连线与水平或竖直方向的夹角处于一个固定的范围内,比如鼻尖与人中的连线与水平方向的夹角大致为90°。因此,可利用统计学原理根据人脸五官的分布位置求出它们在标准姿态下的平均角度。已知人脸图像上两个特征点的坐标,即可确定这两个特征点的连线,从而求出人脸图像中的两个特征点的连线与水平或竖直方向的夹角,与平均角度进行比较即可得出人脸偏转角度。计算人脸偏转角度,至少需要两个人脸特征点的位置坐标,也可采用两个以上的人脸特征点的位置坐标进行计算,例如,若采用三个人脸特征点的位置坐标,则将三个人脸特征点连线为一个三角形,利用统计学原理得到这三个特征点标准姿态时的标准三角形,计算两个三角形的夹角,即可算出人脸偏转角度。在确定人脸偏转角度后,相应的进行人脸反转处理,旋转角度与人脸偏转角度相等,从而得到旋转之后的人脸图像;对反向旋转后的人脸图像画面进行修复处理得到矫正人脸图像画面,在经过反向旋转处理后,可根据人脸对称特性对图像亮度、对比度较差的一侧采用镜像方式进行修复处理。具体的,可对反向旋转后的图像进行图像亮度和对比度识别,将亮度和对比度较高的一侧的五官图像(如眼部图像)进行对称变换处理以修正亮度和对比度较差的一侧的图像,由此以最终得到矫正人脸图像。
步骤S205、将矫正后的人脸图像和目标对象人脸进行比对,并输出识别结果。
由上述可知,通过上述图像矫正处理,使得处理后的图像为正面人脸图像,同时矫正效率较高,通过图像矫正后的修复处理进一步提高了得到的正面人脸图像的清晰度,便于目标对象的比对。
图3是本申请实施例提供的另一种目标追踪方法的流程图,可选的,在识别原始图像信息是否存在目标对象之前,还包括:获取图像采集数据,如果所述图像采集数据中包含人脸画面,则截取所述人脸画面生成原始图像数据,将所述原始图像数据和对应的采集时间和采集地点关联保存生成原始图像信息。如图3所示,技术方案具体如下:
步骤S301、获取图像采集数据,如果所述图像采集数据中包含人脸画面,则截取所述人脸画面生成原始图像数据,将所述原始图像数据和对应的采集时间和采集地点关联保存生成原始图像信息。
在一个实施例中,图像采集数据可以是摄像装置采集的全天的图像数据,如每隔2秒拍摄的图像画面的集合。当确定出其中的图像画面包含人脸图像后,相应的对该人脸图像进行截取得到原始图像数据。具体的,可采用边缘检测识别的方式确定包含的人脸图像的边缘,根据该边缘进行人脸图像的截取,或者在识别到人脸图像后,选取人脸图像的4个基准点(如人脸面部的上、下、左、右四个基准点)确定包含此4个基准点的矩形区域进行截取。同时,将截取得到的原始图像数据和对应的采集时间和采集地点关联保存生成原始图像信息,示例性的,可以采用将采集时间和采集地点标注在原始图像数据上的方式进行关联,还可是采用在数据库中对应保存的方式进行关联。
步骤S302、当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点。
步骤S303、根据所述历史地点确定多个目标采集地点。
步骤S304、获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果。
由上述可知,通过保存截取的人脸图像得到原始图像数据,大幅降低了图像存储空间,同时便于后续目标对象的识别追踪,提高了图像处理效率。
图4是本申请实施例提供的另一种目标追踪方法的流程图,可选的,所述截取所述人脸画面生成原始图像数据包括:如果在预设时间内存在多张相同的人脸画面,则对每张人脸画面进行人脸清晰度识别,选择人脸清晰度最高的人脸画面进行图像截取生成原始图像数据。如图4所示,技术方案具体如下:
步骤S401、获取图像采集数据,如果所述图像采集数据中包含人脸画面,且在预设时间内存在多张相同的人脸画面,则对每张人脸画面进行人脸清晰度识别,选择人脸清晰度最高的人脸画面进行图像截取生成原始图像数据。
在一个实施例中,如果图像采集数据中包含人脸画面,且在预设时间内存在多张相同的人脸画面,则选取图像清晰度最高的图像进行人脸图像截取,其中,该预设时间可以是3秒、5秒或10秒等。具体的,采用图像边缘灰度变化率作为衡量图像清晰度的指标,在图像处理过程中,以每一行灰度值连续下降间隔像素点最多的边缘灰度变化率代表这一样的灰度变化率,由此通过确定包含相同人脸图像的图像边缘灰度变化率,将图像边缘灰度变化率变化最小的图像(即最清晰的图像)进行人脸图像截取生成原始图像数据。
步骤S402、将所述原始图像数据和对应的采集时间和采集地点关联保存生成原始图像信息。
步骤S403、当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点。
步骤S404、根据所述历史地点确定多个目标采集地点。
步骤S405、获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果。
由上述可知,在识别到同一时间段存在多张包含相同人脸图像的图像数据时,选取其中一幅清晰度最高的图像画面进行人脸图像截取,在减少存储空间的前提下便于后续目标对象的识别追踪比对,提高了追踪效率。
图5是本申请实施例提供的一种目标追踪装置的结构框图,该装置用于执行上述实施例提供的目标追踪方法,具备执行方法相应的功能模块和有益效果。如图5所示,该装置具体包括:历史信息确定模块101、采集地点确定模块102和目标对象识别模块103,其中,
历史信息确定模块101,用于当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点,其中,所述原始图像信息包括原始图像数据以及对应的采集时间和采集地点。
其中,该目标对象可以是需要追踪的特定的人物对象。当识别到原始图像信息中该目标对象出现后,相应的确定目标对象出现的历史时间和历史地点。具体的识别方式可以采用人脸识别方式,还可以采用基于目标对象运动特征或体貌特征进行识别的方式。其中,历史时间和历史地点为对发现该目标对象的原始图像信息的采集时间和采集地点,举例而言,可以是在位置A处的摄像装置在时间点B拍摄的图像中识别到该目标对象出现,则位置A和时间点B即分别确定为目标对象出现的历史时间和历史地点。
采集地点确定模块102,用于根据所述历史地点确定多个目标采集地点。
在一个实施例中,根据所述历史地点确定多个目标采集地点包括:根据所述历史地点确定目标对象的出行地点集合;将所述出行地点集合中的地点确定为目标采集地点。示例性的,如果历史地点在银行,则相应的确定目标对象的出行地点集合为银行地点集合,如果如果历史地点在幼儿园,则相应的确定目标对象的出行地点集合为幼儿园地点集合。具体的,可建立不同采集地点和对应的地点属性关系映射集,相同属性关系可对应一个或多个采集地点,如在银行周边的摄像装置的属性可以定义为银行,商场中的摄像装置的属性可定义为商场。当发现目标对象后,根据该历史地点以及该映射集可相应的确定一个或多个目标采集地点。
目标对象识别模块103,用于获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果。
其中,不同采集地点对应有多个摄像装置,以采集该位置点的图像数据,本步骤中,在确定目标采集地点后,相应的调取该多个目标采集地点处采集的图像数据,并依据前述确定的查询到目标对象的历史时间来选取对应的图像数据进行目标对象识别。具体的,依据所述历史时间对所述图像数据进行目标对象识别包括:依据所述历史时间以及预设时间阈值确定目标对象的查询时间段;确定所述查询时间段对应的图像数据,并进行目标对象识别。示例性的,该历史时间为15:00,该预设时间阈值可以是正负3个小时,确定出的查询时间段为每天的12:00至18:00,其中,该预设时间阈值还可以是设置的任意时间长短。其中,该识别结果可以是识别出的目标对象出现时的时间以及对应的包含目标对象的图像数据,将其反馈给查询追踪人员。
由上述内容可知,当识别到目标对象出现时,根据目标对象出现的时间和地点以预测其可能出现的时间段和目标采集地点,进而调取相应的图像数据进行目标对象的识别,减少了识别比对数据量,节省了识别比对时间,同时通过合理的预测分析,提高了目标对象的追踪识别效率。
在一个可能的实施例中,所述历史信息确定模块101具体用于:
根据所述历史地点确定目标对象的出行地点集合;
将所述出行地点集合中的地点确定为目标采集地点。
在一个可能的实施例中,所述目标对象识别模块103具体用于:
依据所述历史时间以及预设时间阈值确定目标对象的查询时间段;
确定所述查询时间段对应的图像数据,并进行目标对象识别。
在一个可能的实施例中,所述目标对象识别模块103具体用于:
判断所述图像数据中的人脸图像是否为正面人脸图像,如果否,则对所述人脸图像进行图像矫正得到矫正人脸图像,将矫正后的人脸图像和目标对象人脸进行比对。
在一个可能的实施例中,所述目标对象识别模块103具体用于:
定位所述人脸图像上的特征点,生成至少两个人脸特征点坐标;
基于至少两个所述人脸特征点坐标计算人脸偏转角度,并根据所述人脸偏转角度反向旋转所述人脸图像;
对反向旋转后的人脸图像进行修复处理得到矫正人脸图像。
在一个可能的实施例中,该装置还包括数据存储模块104,用于:
在识别原始图像信息是否存在目标对象之前,获取图像采集数据,如果所述图像采集数据中包含人脸画面,则截取所述人脸画面生成原始图像数据,将所述原始图像数据和对应的采集时间和采集地点关联保存生成原始图像信息。
在一个可能的实施例中,所述数据存储模块104具体用于:
如果在预设时间内存在多张相同的人脸画面,则对每张人脸画面进行人脸清晰度识别,选择人脸清晰度最高的人脸画面进行图像截取生成原始图像数据。
本实施例在上述各实施例的基础上提供了一种目标追踪设备,图6是本申请实施例提供的一种目标追踪设备的结构示意图,如图6所示,该目标追踪设备包括:存储器201、处理器(Central Processing Unit,CPU)202、外设接口203、摄像头205、电源管理芯片208、输入/输出(I/O)子系统209、触摸屏212、Wifi模块213、其他输入/控制设备210以及外部端口204,这些部件通过一个或多个通信总线或信号线207来通信。
应该理解的是,图示目标追踪设备仅仅是目标追踪设备的一个范例,并且目标追踪设备可以具有比图中所示出的更多的或者更少的部件,可以组合两个或更多的部件,或者可以具有不同的部件配置。图中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
下面就本实施例提供的用于目标追踪的目标追踪设备进行详细的描述。
存储器201,所述存储器201可以被CPU202、外设接口203等访问,所述存储器201可以包括高速随机存取存储器,还可以包括非易失性存储器,例如一个或多个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
外设接口203,所述外设接口203可以将设备的输入和输出外设连接到CPU202和存储器201。
I/O子系统209,所述I/O子系统209可以将设备上的输入输出外设,例如触摸屏212和其他输入/控制设备210,连接到外设接口203。I/O子系统209可以包括显示控制器2091和用于控制其他输入/控制设备210的一个或多个输入控制器2092。其中,一个或多个输入控制器2092从其他输入/控制设备210接收电信号或者向其他输入/控制设备210发送电信号,其他输入/控制设备210可以包括物理按钮(按压按钮、摇臂按钮等)、滑动开关、操纵杆、点击滚轮。值得说明的是,输入控制器2092可以与以下任一个连接:键盘、红外端口、USB接口以及诸如鼠标的指示设备。
触摸屏212,所述触摸屏212是用户终端与用户之间的输入接口和输出接口,将可视输出显示给用户,可视输出可以包括图形、文本、图标、视频等。
I/O子系统209中的显示控制器2091从触摸屏212接收电信号或者向触摸屏212发送电信号。触摸屏212检测触摸屏上的接触,显示控制器2091将检测到的接触转换为与显示在触摸屏212上的用户界面对象的交互,即实现人机交互,显示在触摸屏212上的用户界面对象可以是运行游戏的图标、联网到相应网络的图标等。值得说明的是,设备还可以包括光鼠,光鼠是不显示可视输出的触摸敏感表面,或者是由触摸屏形成的触摸敏感表面的延伸。
电源管理芯片208,用于为CPU202、I/O子系统及外设接口所连接的硬件进行供电及电源管理。
上述实施例中提供的目标追踪设备的目标追踪装置及目标追踪设备可执行本申请任意实施例所提供的目标追踪设备的目标追踪方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的目标追踪设备的目标追踪方法。
本申请实施例还提供一种包含目标追踪设备可执行指令的存储介质,所述目标追踪设备可执行指令在由目标追踪设备处理器执行时用于执行一种目标追踪方法,该方法包括:
当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点,其中,所述原始图像信息包括原始图像数据以及对应的采集时间和采集地点;
根据所述历史地点确定多个目标采集地点;
获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果。
在一个可能的实施例中,所述根据所述历史地点确定多个目标采集地点包括:
根据所述历史地点确定目标对象的出行地点集合;
将所述出行地点集合中的地点确定为目标采集地点。
在一个可能的实施例中,所述依据所述历史时间对所述图像数据进行目标对象识别包括:
依据所述历史时间以及预设时间阈值确定目标对象的查询时间段;
确定所述查询时间段对应的图像数据,并进行目标对象识别。
在一个可能的实施例中,所述对所述图像数据进行目标对象识别包括:
判断所述图像数据中的人脸图像是否为正面人脸图像,如果否,则对所述人脸图像进行图像矫正得到矫正人脸图像,将矫正后的人脸图像和目标对象人脸进行比对。
在一个可能的实施例中,所述对所述人脸图像进行图像矫正得到矫正人脸图像包括:
定位所述人脸图像上的特征点,生成至少两个人脸特征点坐标;
基于至少两个所述人脸特征点坐标计算人脸偏转角度,并根据所述人脸偏转角度反向旋转所述人脸图像;
对反向旋转后的人脸图像进行修复处理得到矫正人脸图像。
在一个可能的实施例中,在识别原始图像信息是否存在目标对象之前,还包括:
获取图像采集数据,如果所述图像采集数据中包含人脸画面,则截取所述人脸画面生成原始图像数据,将所述原始图像数据和对应的采集时间和采集地点关联保存生成原始图像信息。
在一个可能的实施例中,所述截取所述人脸画面生成原始图像数据包括:
如果在预设时间内存在多张相同的人脸画面,则对每张人脸画面进行人脸清晰度识别,选择人脸清晰度最高的人脸画面进行图像截取生成原始图像数据。
存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机系统存储器或随机存取存储器,诸如DRAM、DDR RAM、SRAM、EDO RAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的第一计算机系统中,或者可以位于不同的第二计算机系统中,第二计算机系统通过网络(诸如因特网)连接到第一计算机系统。第二计算机系统可以提供程序指令给第一计算机用于执行。术语“存储介质”可以包括可以驻留在不同位置中(例如在通过网络连接的不同计算机系统中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的目标追踪方法操作,还可以执行本申请任意实施例所提供的目标追踪方法中的相关操作。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。
Claims (10)
1.目标追踪方法,其特征在于,包括:
当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点,其中,所述原始图像信息包括原始图像数据以及对应的采集时间和采集地点;
根据所述历史地点确定多个目标采集地点;
获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述历史地点确定多个目标采集地点包括:
根据所述历史地点确定目标对象的出行地点集合;
将所述出行地点集合中的地点确定为目标采集地点。
3.根据权利要求1所述的方法,其特征在于,所述依据所述历史时间对所述图像数据进行目标对象识别包括:
依据所述历史时间以及预设时间阈值确定目标对象的查询时间段;
确定所述查询时间段对应的图像数据,并进行目标对象识别。
4.根据权利要求1-3中任一项所述的方法,其特征在于,所述对所述图像数据进行目标对象识别包括:
判断所述图像数据中的人脸图像是否为正面人脸图像,如果否,则对所述人脸图像进行图像矫正得到矫正人脸图像,将矫正后的人脸图像和目标对象人脸进行比对。
5.根据权利要求4所述的方法,其特征在于,所述对所述人脸图像进行图像矫正得到矫正人脸图像包括:
定位所述人脸图像上的特征点,生成至少两个人脸特征点坐标;
基于至少两个所述人脸特征点坐标计算人脸偏转角度,并根据所述人脸偏转角度反向旋转所述人脸图像;
对反向旋转后的人脸图像进行修复处理得到矫正人脸图像。
6.根据权利要求1-3中任一项所述的方法,其特征在于,在识别原始图像信息是否存在目标对象之前,还包括:
获取图像采集数据,如果所述图像采集数据中包含人脸画面,则截取所述人脸画面生成原始图像数据,将所述原始图像数据和对应的采集时间和采集地点关联保存生成原始图像信息。
7.根据权利要求6所述的方法,其特征在于,所述截取所述人脸画面生成原始图像数据包括:
如果在预设时间内存在多张相同的人脸画面,则对每张人脸画面进行人脸清晰度识别,选择人脸清晰度最高的人脸画面进行图像截取生成原始图像数据。
8.目标追踪装置,其特征在于,包括:
历史信息确定模块,用于当识别到原始图像信息存在目标对象时,确定所述目标对象出现的历史时间和历史地点,其中,所述原始图像信息包括原始图像数据以及对应的采集时间和采集地点;
采集地点确定模块,用于根据所述历史地点确定多个目标采集地点;
目标对象识别模块,用于获取所述多个目标采集地点处采集的图像数据,依据所述历史时间对所述图像数据进行目标对象识别,并输出识别结果。
9.一种目标追踪设备,包括:处理器、存储器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-7中任一项所述的目标追踪方法。
10.一种包含目标追踪设备可执行指令的存储介质,其特征在于,所述目标追踪设备可执行指令在由目标追踪设备处理器执行时用于执行如权利要求1-7中任一项所述的目标追踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811144760.4A CN109377518A (zh) | 2018-09-29 | 2018-09-29 | 目标追踪方法、装置、目标追踪设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811144760.4A CN109377518A (zh) | 2018-09-29 | 2018-09-29 | 目标追踪方法、装置、目标追踪设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109377518A true CN109377518A (zh) | 2019-02-22 |
Family
ID=65403177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811144760.4A Pending CN109377518A (zh) | 2018-09-29 | 2018-09-29 | 目标追踪方法、装置、目标追踪设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109377518A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427843A (zh) * | 2019-07-18 | 2019-11-08 | 广州利科科技有限公司 | 一种人脸智能识别方法 |
CN111429477A (zh) * | 2020-04-13 | 2020-07-17 | 展讯通信(上海)有限公司 | 目标追踪方法及装置、存储介质、计算机设备 |
CN113537309A (zh) * | 2021-06-30 | 2021-10-22 | 北京百度网讯科技有限公司 | 一种对象识别方法、装置及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101447021A (zh) * | 2008-12-30 | 2009-06-03 | 爱德威软件开发(上海)有限公司 | 人脸快速识别系统及其识别方法 |
CN102843547A (zh) * | 2012-08-01 | 2012-12-26 | 安科智慧城市技术(中国)有限公司 | 一种嫌疑目标智能追踪方法和系统 |
CN103605965A (zh) * | 2013-11-25 | 2014-02-26 | 苏州大学 | 一种多姿态人脸识别方法和装置 |
CN104063391A (zh) * | 2013-03-21 | 2014-09-24 | 腾讯科技(深圳)有限公司 | 推荐方法及系统 |
CN104679864A (zh) * | 2015-02-28 | 2015-06-03 | 武汉烽火众智数字技术有限责任公司 | 一种基于gis的嫌疑目标智能跟踪方法和装置 |
CN107909043A (zh) * | 2017-11-22 | 2018-04-13 | 成都欧远信电子科技有限公司 | 无线智能远程监控跟踪系统 |
CN108111818A (zh) * | 2017-12-25 | 2018-06-01 | 北京航空航天大学 | 基于多摄像机协同的运动目标主动感知方法和装置 |
-
2018
- 2018-09-29 CN CN201811144760.4A patent/CN109377518A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101447021A (zh) * | 2008-12-30 | 2009-06-03 | 爱德威软件开发(上海)有限公司 | 人脸快速识别系统及其识别方法 |
CN102843547A (zh) * | 2012-08-01 | 2012-12-26 | 安科智慧城市技术(中国)有限公司 | 一种嫌疑目标智能追踪方法和系统 |
CN104063391A (zh) * | 2013-03-21 | 2014-09-24 | 腾讯科技(深圳)有限公司 | 推荐方法及系统 |
CN103605965A (zh) * | 2013-11-25 | 2014-02-26 | 苏州大学 | 一种多姿态人脸识别方法和装置 |
CN104679864A (zh) * | 2015-02-28 | 2015-06-03 | 武汉烽火众智数字技术有限责任公司 | 一种基于gis的嫌疑目标智能跟踪方法和装置 |
CN107909043A (zh) * | 2017-11-22 | 2018-04-13 | 成都欧远信电子科技有限公司 | 无线智能远程监控跟踪系统 |
CN108111818A (zh) * | 2017-12-25 | 2018-06-01 | 北京航空航天大学 | 基于多摄像机协同的运动目标主动感知方法和装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427843A (zh) * | 2019-07-18 | 2019-11-08 | 广州利科科技有限公司 | 一种人脸智能识别方法 |
CN110427843B (zh) * | 2019-07-18 | 2021-07-13 | 广州利科科技有限公司 | 一种人脸智能识别方法 |
CN111429477A (zh) * | 2020-04-13 | 2020-07-17 | 展讯通信(上海)有限公司 | 目标追踪方法及装置、存储介质、计算机设备 |
CN113537309A (zh) * | 2021-06-30 | 2021-10-22 | 北京百度网讯科技有限公司 | 一种对象识别方法、装置及电子设备 |
CN113537309B (zh) * | 2021-06-30 | 2023-07-28 | 北京百度网讯科技有限公司 | 一种对象识别方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021115181A1 (zh) | 手势识别方法、手势控制方法、装置、介质与终端设备 | |
CN108764048B (zh) | 人脸关键点检测方法及装置 | |
WO2018028546A1 (zh) | 一种关键点的定位方法及终端、计算机存储介质 | |
CN106846403B (zh) | 一种三维空间中手部定位的方法、装置及智能设备 | |
US9075453B2 (en) | Human eye controlled computer mouse interface | |
CN109325456B (zh) | 目标识别方法、装置、目标识别设备及存储介质 | |
WO2015172679A1 (zh) | 一种图像处理方法和装置 | |
CN103164022B (zh) | 多指触摸方法和装置、便携式终端设备 | |
CN103425964B (zh) | 图像处理设备和图像处理方法 | |
CN109375765B (zh) | 眼球追踪交互方法和装置 | |
CN106778453B (zh) | 人脸图像中检测眼镜佩戴的方法及装置 | |
TW201035813A (en) | Pupil tracking method and system, and correction method and correction module for pupil tracking | |
TW201840179A (zh) | 視頻處理方法、裝置和儲存介質 | |
CN109377518A (zh) | 目标追踪方法、装置、目标追踪设备及存储介质 | |
CN110032271A (zh) | 对比度调节装置及其方法、虚拟现实设备及存储介质 | |
TW201120681A (en) | Method and system for operating electric apparatus | |
WO2021136386A1 (zh) | 数据处理方法、终端和服务器 | |
WO2022174594A1 (zh) | 基于多相机的裸手追踪显示方法、装置及系统 | |
WO2023071882A1 (zh) | 人眼注视检测方法、控制方法及相关设备 | |
US20200242800A1 (en) | Determination apparatus and method for gaze angle | |
WO2022002262A1 (zh) | 基于计算机视觉的字符序列识别方法、装置、设备和介质 | |
CN114138121B (zh) | 用户手势识别方法、装置、系统、存储介质及计算设备 | |
CN112507918A (zh) | 一种手势识别方法 | |
CN109948624A (zh) | 特征提取的方法、装置、电子设备和计算机存储介质 | |
CN114092985A (zh) | 一种终端控制方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190222 |
|
RJ01 | Rejection of invention patent application after publication |