CN107341443B - 视频处理方法、装置及存储介质 - Google Patents

视频处理方法、装置及存储介质 Download PDF

Info

Publication number
CN107341443B
CN107341443B CN201710366404.6A CN201710366404A CN107341443B CN 107341443 B CN107341443 B CN 107341443B CN 201710366404 A CN201710366404 A CN 201710366404A CN 107341443 B CN107341443 B CN 107341443B
Authority
CN
China
Prior art keywords
facial image
video
image
obtains
checked
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710366404.6A
Other languages
English (en)
Other versions
CN107341443A (zh
Inventor
彭齐荣
彭程
石小华
魏运运
李兰
郑晓东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Intellifusion Technologies Co Ltd
Original Assignee
Shenzhen Intellifusion Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Intellifusion Technologies Co Ltd filed Critical Shenzhen Intellifusion Technologies Co Ltd
Priority to CN201710366404.6A priority Critical patent/CN107341443B/zh
Publication of CN107341443A publication Critical patent/CN107341443A/zh
Application granted granted Critical
Publication of CN107341443B publication Critical patent/CN107341443B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47214End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for content reservation or setting reminders; for requesting event notification, e.g. of sport results or stock market
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Finance (AREA)
  • Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供了一种视频处理方法及装置,所述方法包括:获取由指定摄像头拍摄的第一视频;获取用户输入的查询时间范围以及待查询对象的目标人脸图像;根据所述查询时间范围对所述第一视频进行截取操作,得到第二视频;根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,所述N、所述M均为正整数。通过本发明实施例可提升对目标进行蹲点的效率。

Description

视频处理方法、装置及存储介质
技术领域
本发明涉及视频监控技术领域,具体涉及一种视频处理方法、装置及存储介质。
背景技术
随着经济、社会、文化的快速发展,国内外影响力的与日俱增,越来越多外来人口流向城市,这些人口增加在加快城市化进程的同时,也为城市管理带来更大的挑战,虽然,视频监控对城市安全提供了技术支持,目前来看,摄像头已经在城市中布局开来,摄像头可对城市的安全进行有效监控,以及为相关机构的安保提供有效帮助。生活中,对目标人物进行蹲点作为一种常用办案手段,需要浪费大量时间和精力,因此,如何利用摄像头对目标人物进行蹲点的问题亟待解决。
发明内容
本发明实施例提供了一种视频处理方法及装置,可提升对目标进行蹲点的效率。
本发明实施例第一方面提供了一种视频处理方法,包括:
获取由指定摄像头拍摄的第一视频;
获取用户输入的查询时间范围以及待查询对象的目标人脸图像;
根据所述查询时间范围对所述第一视频进行截取操作,得到第二视频;
根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,所述N、所述M均为正整数。
结合本发明实施例第一方面,在第一方面的第一种可能实施方式中,所述查询时间范围包含起点时间和结束时间,所述根据所述查询时间范围对所述第一视频进行截取操作,包括:
根据所述起点时间和所述结束时间对所述第一视频进行定位,得到第三视频;
对所述第三视频同时进行正序人脸检测和反序人脸检测;
确定所述正序人脸检测出现的第一关键帧的第一时刻和所述反序人脸检测出现的第二关键帧的第二时刻,其中,所述第一关键帧、所述第二关键帧均为首次出现人脸图像满足预设角度范围的视频图像;
将所述第一时刻与所述第二时刻之间的视频作为所述第二视频。
如此,上述本实施例,由于查询时间范围是一个指定范围,并非那么精准地让起始帧和结束帧均包含满足预设角度的人脸图像,因而,可对查询时间范围的视频采用正序人脸检测和反序人脸检测,从而,快速找到查询时间范围内包含符合预设角度的人脸图像的第一帧和最后一帧,进而,获取其对应的时刻,并获取对应的时刻对应的视频,如此,可减少后期人脸识别的工作量。
结合本发明实施例第一方面或第一方面的第一种可能实施方式中,在第一方面的第三种可能实施方式中,所述根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,包括:
将所述第二视频中每一帧视频图像进行人脸分割,得到P个人脸图像;
将所述目标人脸图像与所述P个人脸图像进行匹配,得到所述待查询对象的N个人脸图像,以及P-N人脸图像,所述P为大于所述N的整数;
分别计算所述P-N人脸图像中每一人脸图像与所述N个人脸图像之间的最短时间差,得到所述P-N个最短时间差值;
从所述P-N个最短时间差值中选取小于第一预设阈值的最短时间差值,得到所述M个最短时间差值,获取其对应的人脸图像,得到与所述待查询对象相关的M个人脸图像。
如此,上述本实施例,由于第二视频中每一帧图像包含的人脸图像数目不一样,有可能包含1个或者多个,当然,也可能是0个,如此,对每一帧图像进行图像分割,可得到一部分待查询对象的目标人脸图像,当然,也有其他的人脸图像,每一人脸图像均可对应一个时间点,如此,可分别计算不是待查询对象的人脸图像对应的时间点与每一待查询对象的人脸图像对应的时间点之间的最短时间差,例如,待查询对象的人脸图像对应的时间点为t1,t2,非待查询对象的人脸图像的时间点为t3,则可得到t1-t3和t2-t3,时间差可能是正数也可能是负数,只取得到的值作为时间差值,忽略正、负号。如此,可选取其最小值作为最短时间差值,如此,通过上述方式,由于图像分割,可得到视频中尽可能多的人脸图像,因而,可尽可能全面地得到与待查询对象的人脸图像相关的人脸图像,有利于全面分析可能与待查询对象相关的其他人物。例如,该方法用于蹲点中,可全面分析出可能与嫌疑人相关联的同伙。
结合本发明实施例第一方面的第二种可能实施方式中,在第一方面的第四种可能实施方式中,所述将所述目标人脸图像与所述P个人脸图像进行匹配,包括:
对所述P个人脸图像进行图像质量评价,得到所述P个图像质量评价值;
从所述P个图像质量评价值中选取大于第二预设阈值的图像质量评价值对应的Q个人脸图像,所述Q为小于或等于所述P且大于所述N的正整数;
将所述目标人脸图像与所述Q个人脸图像进行匹配。
如此,上述本实施例,可利用对每一人脸图像进行图像质量评价的方式,筛选出图像质量较好的图像,进而,再在这些图像中寻找与目标人脸图像匹配的图像的话,可大大缩减搜索时间,毕竟需要匹配的图像少了,提升了人脸是被效率。
结合本发明实施例第一方面或第一方面的第一种可能实施方式中,在第一方面的第五种可能实施方式中,在所述根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像之后,所述方法还包括:
对所述M个人脸图像进行行为分析,得到符合预设行为的X个人脸图像,所述X为小于或等于所述M的正整数。
如此,上述本实施例,可通过行为分析进行排除,尽可能缩小与待查询对象相关的对象,有利用为用户提供尽可能精准数据,例如,对于摄像头而言,也有可能捕捉到无关的行人,采用上述方式,则可以在一定程度排除行人。
本发明实施例第二方面提供了一种视频处理装置,包括:
获取单元,用于获取由指定摄像头拍摄的第一视频;
所述获取单元,还具体用于:
获取用户输入的查询时间范围以及待查询对象的目标人脸图像;
截取单元,用于根据所述查询时间范围对所述第一视频进行截取操作,得到第二视频;
搜索单元,用于根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,所述N、所述M均为正整数。
结合本发明实施例第二方面,在第二方面的第一种可能实施方式中,所述查询时间范围包含起点时间和结束时间,
所述截取单元包括:
定位模块,用于根据所述起点时间和所述结束时间对所述第一视频进行定位,得到第三视频;
检测模块,用于对所述第三视频同时进行正序人脸检测和反序人脸检测;
确定模块,用于确定所述正序人脸检测出现的第一关键帧的第一时刻和所述反序人脸检测出现的第二关键帧的第二时刻,其中,所述第一关键帧、所述第二关键帧均为首次出现人脸图像满足预设角度范围的视频图像;
所述确定模块,还具体用于
将所述第一时刻与所述第二时刻之间的视频作为所述第二视频。
结合本发明实施例第二方面或第二方面的第一种可能实施方式中,在第二方面的第二种可能实施方式中,所述搜索单元包括:
分割模块,用于将所述第二视频中每一帧视频图像进行人脸分割,得到P个人脸图像;
第一匹配模块,用于将所述目标人脸图像与所述P个人脸图像进行匹配,得到所述待查询对象的N个人脸图像,以及P-N人脸图像,所述P为大于所述N的整数;
计算模块,用于分别计算所述P-N人脸图像中每一人脸图像与所述N个人脸图像之间的最短时间差,得到所述P-N个最短时间差值;
第一选取模块,用于从所述P-N个最短时间差值中选取小于第一预设阈值的最短时间差值,得到所述M个最短时间差值,获取其对应的人脸图像,得到与所述待查询对象相关的M个人脸图像。
结合本发明实施例第二方面的第二种可能实施方式中,在第二方面的第三种可能实施方式中,所述第一匹配模块包括:
评价模块,用于对所述P个人脸图像进行图像质量评价,得到所述P个图像质量评价值;
第二选取模块,用于从所述P个图像质量评价值中选取大于第二预设阈值的图像质量评价值对应的Q个人脸图像,所述Q为小于或等于所述P且大于所述N的正整数;
第二匹配模块,用于将所述目标人脸图像与所述Q个人脸图像进行匹配。
结合本发明实施例第二方面或第二方面的第一种可能实施方式中,在第二方面的第四种可能实施方式中,所述装置还包括:
分析单元,用于在所述搜索单元根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像之后,对所述M个人脸图像进行行为分析,得到符合预设行为的X个人脸图像,所述X为小于或等于所述M的正整数。
实施本发明实施例,具有如下有益效果:
可以看出,通过本发明实施例,获取由指定摄像头拍摄的第一视频,获取用户输入的查询时间范围以及待查询对象的目标人脸图像,根据查询时间范围对所述第一视频进行截取操作,得到第二视频,根据目标人脸图像对第二视频进行搜索,得到待查询对象的N个人脸图像,以及与待查询对象相关的M个人脸图像,N、M均为正整数。如此,可获取指定摄像头的第一视频,进而,获取需要查询的时间范围以及目标人脸图像,依据该时间范围,截取第一视频的部分视频,可缩小人脸识别的工作量,另外,还可以在该部分视频中查找出与目标人脸图像匹配的人脸图像以及相关的人脸图像,相对于现有技术中,需要用户一帧一帧查看视频,并通过人为分析实现蹲点的方式而言,上述本实施例,则利用计算机强大的处理功能快速找到目标人物以及与该目标人物相关的同伙。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种视频处理方法的第一实施例流程示意图;
图2是本发明实施例提供的一种视频处理方法的第二实施例流程示意图;
图3a是本发明实施例提供的一种视频处理装置的第一实施例结构示意图;
图3b是本发明实施例提供的图3a所描述的视频处理装置的截取单元的结构示意图;
图3c是本发明实施例提供的图3a所描述的视频处理装置的搜索单元的结构示意图;
图3d是本发明实施例提供的图3c所描述的视频处理装置的第一匹配模块的结构示意图;
图3e是本发明实施例提供的图3a所描述的视频处理装置的又一结构示意图;
图4是本发明实施例提供的一种视频处理装置的第二实施例结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及所述附图中的术语“第一”、“第二”、“第三”和“第四”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置展示该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本发明实施例所描述视频处理装置可以包括智能手机(如Android手机、iOS手机、Windows Phone手机等)、平板电脑、掌上电脑、笔记本电脑、移动互联网设备(MID,MobileInternet Devices)或穿戴式设备等,上述仅是举例,而非穷举,包含但不限于上述装置,当然,上述视频处理装置还可以为服务器。
需要说明的是,本发明实施例中的视频处理装置可与多个摄像头连接,每一摄像头均可用于抓拍视频图像,每一摄像头均可有一个与之对应的位置标记,或者,可有一个与之对应的编号。通常情况下,摄像头可设置在公共场所,例如,学校、博物馆、十字路口、步行街、写字楼、车库、机场、医院、地铁站、车站、公交站台、超市、酒店、娱乐场所等等。摄像头在拍摄到视频图像后,可将该视频图像保存到视频处理装置所在系统的存储器。存储器中可存储有多个图像库,每一图像库可包含同一人的不同视频图像,当然,每一图像库还可以用于存储一个区域的视频图像或者某个指定摄像头拍摄的视频图像。
进一步可选地,本发明实施例中,摄像头拍摄的每一帧视频图像均对应一个属性信息,属性信息为以下至少一种:视频图像的拍摄时间、视频图像的位置、视频图像的属性参数(格式、大小、分辨率等)、视频图像的编号和视频图像中的人物特征属性。上述视频图像中的人物特征属性可包括但不仅限于:视频图像中的人物个数、人物位置、人物角度、年龄、图像质量等等。
进一步需要说明的是,每一摄像头采集的视频图像通常为动态人脸图像,因而,本发明实施例中可以对人脸图像的角度信息进行规划,上述角度信息可包括但不仅限于:水平转动角度、俯仰角或者倾斜度。例如,可定义动态人脸图像数据要求两眼间距不小于30像素,建议60像素以上。水平转动角度不超过±30°、俯仰角不超过±20°、倾斜角不超过±45°。建议水平转动角度不超过±15°、俯仰角不超过±10°、倾斜角不超过±15°。例如,还可对人脸图像是否被其他物体遮挡进行筛选,通常情况下,饰物不应遮挡脸部主要区域,饰物如深色墨镜、口罩和夸张首饰等,当然,也有可能摄像头上面布满灰尘,导致人脸图像被遮挡。本发明实施例中的视频图像的图片格式可包括但不仅限于:BMP,JPEG,JPEG2000,PNG等等,其大小可以在10-30KB之间,每一视频图像还可以对应一个拍摄时间、以及拍摄该视频图像的摄像头统一编号、与人脸图像对应的全景大图的链接等信息(人脸图像和全局图片建立特点对应性关系文件)。
请参阅图1,为本发明实施例提供的一种视频处理方法的第一实施例流程示意图。本实施例中所描述的视频处理方法,包括以下步骤:
101、获取由指定摄像头拍摄的第一视频。
其中,指定摄像头可由用户指定,或者,系统默认。上述第一视频可为由指定摄像头拍摄的一段时间内的视频。
102、获取用户输入的查询时间范围以及待查询对象的目标人脸图像。
其中,查询时间范围可由用户自行输入,例如,2017年4月20号8:00-2017年4月20号20:00。上述待查询对象为用户需要查询的对象,可获取该待查询对象的目标人脸图像。
103、根据所述查询时间范围对所述第一视频进行截取操作,得到第二视频。
其中,可根据查询时间范围截取第一视频的部分视频,作为第二视频,可减少后续人脸识别的工作量。
可选地,上述步骤103中,所述查询时间范围包含起点时间和结束时间,根据所述查询时间范围对所述第一视频进行截取操作,可包括如下步骤:
31)、根据所述起点时间和所述结束时间对所述第一视频进行定位,得到第三视频;
32)、对所述第三视频同时进行正序人脸检测和反序人脸检测;
33)、确定所述正序人脸检测出现的第一关键帧的第一时刻和所述反序人脸检测出现的第二关键帧的第二时刻,其中,所述第一关键帧、所述第二关键帧均为首次出现人脸图像满足预设角度的视频图像;
34)、将所述第一时刻与所述第二时刻之间的视频作为所述第二视频。
其中,查询时间范围可包含起点时间和结束时间,因而,可将起点时间和结束时间映射到第一视频中,以得到在第一视频中处于起点时间与结束时间之间的这段视频,即第三视频,可对第三视频同时进行正序人脸检测和反序人脸检测,其中,正序人脸检测为沿着时间轴正向方向进行人脸检测,即以起点时间开始的视频图像帧为起点,当出现第一个人脸图像且该人脸图像的角度满足预设角度范围,则该第一个人脸图像对应的图像帧作为第一关键帧,其对应的时刻作为第一时刻。反序人脸检测为沿着时间轴反向方向进行人脸检测,即以结束时间开始的视频图像帧为起点,当出现第一个人脸图像且该人脸图像的角度满足预设角度范围,则该第一个人脸图像对应的图像帧作为第二关键帧,其对应的时刻作为第二时刻,上述预设角度范围可由用户自行设置或者系统默认。进而,可将第一时刻与第二时刻之间的视频作为第二视频。由于查询时间范围是一个指定范围,并非那么精准地让起始帧和结束帧均包含满足预设角度的人脸图像,因而,可对查询时间范围的视频采用正序人脸检测和反序人脸检测,从而,快速找到查询时间范围内包含符合预设角度的人脸图像的第一帧和最后一帧,进而,获取其对应的时刻,获取对应的时刻对应的视频,如此,可减少后期人脸识别的工作量。
104、根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,所述N、所述M均为正整数。
其中,可根据目标人脸图像对第二视频进行搜索,进而,可得到与目标人脸图像匹配的N个人脸图像,以及与待查询对象相关的M个人脸图像。
可选地,上述步骤104中,根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,可包括如下步骤:
41)、将所述第二视频中每一帧视频图像进行人脸分割,得到P个人脸图像;
42)、将所述目标人脸图像与所述P个人脸图像进行匹配,得到所述待查询对象的N个人脸图像,以及P-N人脸图像,所述P为大于所述N的整数;
43)、分别计算所述P-N人脸图像中每一人脸图像与所述N个人脸图像之间的最短时间差,得到所述P-N个最短时间差值;
44)、从所述P-N个最短时间差值中选取小于第一预设阈值的最短时间差值,得到所述M个最短时间差值,获取其对应的人脸图像,得到与所述待查询对象相关的M个人脸图像。
其中,上述第一预设阈值可由用户自行设置或者系统默认,第一预设阈值的存在是为了缩小搜索范围,由经验可知,当搜索某个人的时候,出现与其相关的同伙的话,该嫌疑人与同伙之间出现的时间点间隔较短,当然,也有可能第一预设阈值需要设置较大,例如,嫌疑人将物品放在某个地方,用于等待同伙来取,这种情况,第一预设阈值可设置较大,以免第一预设阈值较小,在处理过程中,将嫌疑人的同伙排除了,第一预设阈值的具体设置依据实际情况而定。可采用图像分割算法对第二视频中每一帧视频图像进行人脸分割,得到P个人脸图像,将目标人脸图像与P个人脸图像进行匹配,得到待查询对象的N个人脸图像,以及P-N人脸图像,P为大于N的整数,可分别计算P-N人脸图像中每一人脸图像与N个人脸图像之间的最短时间差,得到P-N个最短时间差值,选取小于第一预设阈值的最短时间差值,得到M个最短时间差值,进而,可获取该M个最短时间差值对应的人脸图像,得到了与待查询对象相关的M个人脸图像。如此,由于第二视频中每一帧图像包含的人脸图像数目不一样,有可能包含1个或者多个,当然,也可能是0个,如此,对每一帧图像进行图像分割,可得到一部分待查询对象的目标人脸图像,当然,也有其他的人脸图像,每一人脸图像均可对应一个时间点,如此,可分别计算不是待查询对象的人脸图像对应的时间点与每一待查询对象的人脸图像对应的时间点之间的最短时间差,例如,待查询对象的人脸图像对应的时间点为t1,t2,非待查询对象的人脸图像的时间点为t3,则可得到t1-t3和t2-t3,时间差可能是正数也可能是负数,只取得到的值作为时间差值,忽略正、负号。如此,可选取其最小值作为最短时间差值,如此,通过上述方式,由于图像分割,可得到视频中尽可能多的人脸图像,因而,可尽可能全面地得到与待查询对象的人脸图像相关的人脸图像,有利于全面分析可能与待查询对象相关的其他人物。例如,该方法用于蹲点中,可全面分析出可能与嫌疑人相关联的同伙。
进一步可选地,上述步骤42中,将所述目标人脸图像与所述P个人脸图像进行匹配,可包括如下步骤:
441)、对所述P个人脸图像进行图像质量评价,得到所述P个图像质量评价值;
442)、从所述P个图像质量评价值中选取大于第二预设阈值的图像质量评价值对应的Q个人脸图像,所述Q为小于或等于所述P且大于所述N的正整数;
443)、将所述目标人脸图像与所述Q个人脸图像进行匹配。
其中,上述第二预设阈值可由用户自行设置或者系统默认。上述本发明实施例,可对P个人脸图像进行筛选,淘汰一些图像质量较差的人脸图像,以减少图像匹配的工作量。如此,可利用对每一人脸图像进行图像质量评价的方式,筛选出图像质量较好的图像,进而,再在这些图像中寻找与目标人脸图像匹配的图像的话,可大大缩减搜索时间,毕竟需要匹配的图像少了,提升了人脸是被效率。
可选地,在步骤441中,对P个人脸图像进行图像质量评价,可采用如下方式:可采用至少一个图像质量评价指标分别对图像进行图像质量评价,得到图像质量评价值,其中,图像质量评价指标可包括但不仅限于:平均灰度、均方差、熵、边缘保持度、信噪比等等。可定义为得到的图像质量评价值越大,则图像质量越好。
需要说明的是,由于采用单一评价指标对图像质量进行评价时,具有一定的局限性,因此,可采用多个图像质量评价指标对图像质量进行评价,当然,对图像质量进行评价时,并非图像质量评价指标越多越好,因为图像质量评价指标越多,图像质量评价过程的计算复杂度越高,也不见得图像质量评价效果越好,因此,在对图像质量评价要求较高的情况下,可采用2~10个图像质量评价指标对图像质量进行评价。具体地,选取图像质量评价指标的个数及哪个指标,依据具体实现情况而定。当然,也得结合具体地场景选取图像质量评价指标,在暗环境下进行图像质量评价和亮环境下进行图像质量评价选取的图像质量指标可不一样。
可选地,在对图像质量评价精度要求不高的情况下,可用一个图像质量评价指标进行评价,例如,以熵对人脸图像进行图像质量评价值,可认为熵越大,则说明图像质量越好,相反地,熵越小,则说明图像质量越差。
可选地,在对图像质量评价精度要求较高的情况下,可以采用多个图像质量评价指标对人脸图像进行评价,在多个图像质量评价指标对人脸图像进行图像质量评价时,可设置该多个图像质量评价指标中每一图像质量评价指标的权重,可得到多个图像质量评价值,根据该多个图像质量评价值及其对应的权重可得到最终的图像质量评价值,例如,三个图像质量评价指标分别为:A指标、B指标和C指标,A的权重为a1,B的权重为a2,C的权重为a3,采用A、B和C对某一图像进行图像质量评价时,A对应的图像质量评价值为b1,B对应的图像质量评价值为b2,C对应的图像质量评价值为b3,那么,最后的图像质量评价值=a1b1+a2b2+a3b3。通常情况下,图像质量评价值越大,说明图像质量越好。
可以看出,通过本发明实施例,获取由指定摄像头拍摄的第一视频,获取用户输入的查询时间范围以及待查询对象的目标人脸图像,根据查询时间范围对所述第一视频进行截取操作,得到第二视频,根据目标人脸图像对第二视频进行搜索,得到待查询对象的N个人脸图像,以及与待查询对象相关的M个人脸图像,N、M均为正整数。如此,可获取指定摄像头的第一视频,进而,获取需要查询的时间范围以及目标人脸图像,依据该时间范围,截取第一视频的部分视频,可缩小人脸识别的工作量,另外,还可以在该部分视频中查找出与目标人脸图像匹配的人脸图像以及相关的人脸图像,相对于现有技术中,需要用户一帧一帧查看视频,并通过人为分析实现蹲点的方式而言,上述本实施例,则利用计算机强大的处理功能快速找到目标人物以及与该目标人物相关的同伙。例如,在民警蹲点方面,本实施例可快速找到嫌疑人以及与之相关的同伙,提高了民警的侦查效率。
与上述一致地,请参阅图2,为本发明实施例提供的一种视频处理方法的第二实施例流程示意图。本实施例中所描述的视频处理方法,包括以下步骤:
201、获取由指定摄像头拍摄的第一视频。
202、获取用户输入的查询时间范围以及待查询对象的目标人脸图像。
203、根据所述查询时间范围对所述第一视频进行截取操作,得到第二视频。
204、根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,所述N、所述M均为正整数。
其中,上述步骤201-步骤204所描述的视频处理方法可参考图1所描述的视频处理方法的对应步骤。
205、对所述M个人脸图像进行行为分析,得到符合预设行为的X个人脸图像,所述X为小于或等于所述M的正整数。
其中,上述预设行为可为以下至少一种:低头、打架、打电话、表情猥琐、交头接耳、亲密行为等等。在具体实现中,视频处理装置可从第二视频中获取M个人脸图像对应的A个视频图像帧,对该A个视频图像帧中每一视频图像帧进行行为分析,得到符合上述预设行为的B个视频图像帧,其中,A与B均为正整数,且B小于A,进而,将M个人脸图像与该B个视频图像进行匹配,得到X个人脸图像。如此,可通过行为分析进行排除,尽可能缩小与待查询对象相关的对象,有利用为用户提供尽可能精准数据,例如,对于摄像头而言,也有可能捕捉到无关的行人,采用上述方式,则可以在一定程度排除行人。
可以看出,通过本发明实施例,获取由指定摄像头拍摄的第一视频,获取用户输入的查询时间范围以及待查询对象的目标人脸图像,根据查询时间范围对所述第一视频进行截取操作,得到第二视频,根据目标人脸图像对第二视频进行搜索,得到待查询对象的N个人脸图像,以及与待查询对象相关的M个人脸图像,N、M均为正整数,进而,对M个人脸图像进行行为分析,得到符合预设行为的X个人脸图像,X为小于或等于M的正整数。如此,可获取指定摄像头的第一视频,进而,获取需要查询的时间范围以及目标人脸图像,依据该时间范围,截取第一视频的部分视频,可缩小人脸识别的工作量,另外,还可以在该部分视频中查找出与目标人脸图像匹配的人脸图像以及相关的人脸图像,当然,在搜索相关的人脸图像方面,采用了行为识别方式,可降低误识别概率,为用户提供尽可能精准的数据,相对于现有技术中,需要用户一帧一帧查看视频,并通过人为分析实现蹲点的方式而言,上述本实施例,则利用计算机强大的处理功能快速找到目标人物以及与该目标人物相关的同伙。例如,在民警蹲点方面,本实施例可快速找到嫌疑人以及与之相关的同伙,提高了民警的侦查效率。
与上述一致地,以下为实施上述视频处理方法的装置,具体如下:
请参阅图3a,为本发明实施例提供的一种视频处理装置的第一实施例结构示意图。本实施例中所描述的视频处理装置,包括:获取单元301、截取单元302和搜索单元303,具体如下:
获取单元301,用于获取由指定摄像头拍摄的第一视频;
所述获取单元301,还具体用于:
获取用户输入的查询时间范围以及待查询对象的目标人脸图像;
截取单元302,用于根据所述查询时间范围对所述第一视频进行截取操作,得到第二视频;
搜索单元303,用于根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,所述N、所述M均为正整数。
其中,上述获取单元301可用于实现上述步骤101、102所描述的方法,截取单元302可用于实现上述步骤103所描述的方法,上述搜索单元303可用于实现上述步骤104所描述的方法,以下如此类推。
可选地,所述查询时间范围包含起点时间和结束时间,如图3b,图3b为图3a所描述的视频处理装置的截取单元302的具体细化结构,所述截取单元302可包括:定位模块3021、检测模块3022和确定模块3023,具体如下:
定位模块3021,用于根据所述起点时间和所述结束时间对所述第一视频进行定位,得到第三视频;
检测模块3022,用于对所述第三视频同时进行正序人脸检测和反序人脸检测;
确定模块3023,用于确定所述正序人脸检测出现的第一关键帧的第一时刻和所述反序人脸检测出现的第二关键帧的第二时刻,其中,所述第一关键帧、所述第二关键帧均为首次出现人脸图像满足预设角度范围的视频图像;
所述确定模块3023,还具体用于
将所述第一时刻与所述第二时刻之间的视频作为所述第二视频。
可选地,如图3c,图3c为图3a所描述的视频处理装置的搜索单元303的具体细化结构,所述搜索单元303可包括:分割模块3031、第一匹配模块3032、计算模块3033和第一选取模块3034,具体如下:
分割模块3031,用于将所述第二视频中每一帧视频图像进行人脸分割,得到P个人脸图像;
第一匹配模块3032,用于将所述目标人脸图像与所述P个人脸图像进行匹配,得到所述待查询对象的N个人脸图像,以及P-N人脸图像,所述P为大于所述N的整数;
计算模块3033,用于分别计算所述P-N人脸图像中每一人脸图像与所述N个人脸图像之间的最短时间差,得到所述P-N个最短时间差值;
第一选取模块3034,用于从所述P-N个最短时间差值中选取小于第一预设阈值的最短时间差值,得到所述M个最短时间差值,获取其对应的人脸图像,得到与所述待查询对象相关的M个人脸图像。
可选地,如图3d,图3d为图3c所描述搜索单元303的第一匹配模块3032具体细化结构,所述第一匹配模块3032可包括:评价模块401、第二选取模块402和第二匹配模块403,具体如下:
评价模块401,用于对所述P个人脸图像进行图像质量评价,得到所述P个图像质量评价值;
第二选取模块402,用于从所述P个图像质量评价值中选取大于第二预设阈值的图像质量评价值对应的Q个人脸图像,所述Q为小于或等于所述P且大于所述N的正整数;
第二匹配模块403,用于将所述目标人脸图像与所述Q个人脸图像进行匹配。
可选地,如图3d,图3d为图3a所描述的视频处理装置的又一变型结构,其与图3a相比较,还可包括:分析单元304,具体如下:
分析单元304,用于在所述搜索单元303根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像之后,对所述M个人脸图像进行行为分析,得到符合预设行为的X个人脸图像,所述X为小于或等于所述M的正整数。
可以看出,通过本发明实施例所提供的视频处理装置,获取由指定摄像头拍摄的第一视频,获取用户输入的查询时间范围以及待查询对象的目标人脸图像,根据查询时间范围对所述第一视频进行截取操作,得到第二视频,根据目标人脸图像对第二视频进行搜索,得到待查询对象的N个人脸图像,以及与待查询对象相关的M个人脸图像,N、M均为正整数。如此,可获取指定摄像头的第一视频,进而,获取需要查询的时间范围以及目标人脸图像,依据该时间范围,截取第一视频的部分视频,可缩小人脸识别的工作量,另外,还可以在该部分视频中查找出与目标人脸图像匹配的人脸图像以及相关的人脸图像,相对于现有技术中,需要用户一帧一帧查看视频,并通过人为分析实现蹲点的方式而言,上述本实施例,则利用计算机强大的处理功能快速找到目标人物以及与该目标人物相关的同伙。例如,在民警蹲点方面,本实施例可快速找到嫌疑人以及与之相关的同伙,提高了民警的侦查效率。
可以理解的是,本实施例的视频处理装置的各程序模块的功能可根据上述方法实施例中的方法具体实现,其具体实现过程可以参照上述方法实施例的相关描述,此处不再赘述。
与上述一致地,请参阅图4,为本发明实施例提供的一种视频处理装置的第二实施例结构示意图。本实施例中所描述的视频处理装置,包括:至少一个输入设备1000;至少一个输出设备2000;至少一个处理器3000,例如CPU;和存储器4000,上述输入设备1000、输出设备2000、处理器3000和存储器4000通过总线5000连接。
其中,上述输入设备1000具体可为触控面板、物理按键或者鼠标。
上述输出设备2000具体可为显示屏。
上述存储器4000可以是高速RAM存储器,也可为非易失存储器(non-volatilememory),例如磁盘存储器。上述存储器4000用于存储一组程序代码,上述输入设备1000、输出设备2000和处理器3000用于调用存储器4000中存储的程序代码,执行如下操作:
上述处理器3000,用于:
获取由指定摄像头拍摄的第一视频;
获取用户输入的查询时间范围以及待查询对象的目标人脸图像;
根据所述查询时间范围对所述第一视频进行截取操作,得到第二视频;
根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,所述N、所述M均为正整数。
可选地,所述查询时间范围包含起点时间和结束时间,上述处理器3000根据所述查询时间范围对所述第一视频进行截取操作,包括:
根据所述起点时间和所述结束时间对所述第一视频进行定位,得到第三视频;
对所述第三视频同时进行正序人脸检测和反序人脸检测;
确定所述正序人脸检测出现的第一关键帧的第一时刻和所述反序人脸检测出现的第二关键帧的第二时刻,其中,所述第一关键帧、所述第二关键帧均为首次出现人脸图像满足预设角度范围的视频图像;
将所述第一时刻与所述第二时刻之间的视频作为所述第二视频。
可选地,上述处理器3000,根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,包括:
将所述第二视频中每一帧视频图像进行人脸分割,得到P个人脸图像;
将所述目标人脸图像与所述P个人脸图像进行匹配,得到所述待查询对象的N个人脸图像,以及P-N人脸图像,所述P为大于所述N的整数;
分别计算所述P-N人脸图像中每一人脸图像与所述N个人脸图像之间的最短时间差,得到所述P-N个最短时间差值;
从所述P-N个最短时间差值中选取小于第一预设阈值的最短时间差值,得到所述M个最短时间差值,获取其对应的人脸图像,得到与所述待查询对象相关的M个人脸图像。
可选地,上述处理器3000将所述目标人脸图像与所述P个人脸图像进行匹配,包括:
对所述P个人脸图像进行图像质量评价,得到所述P个图像质量评价值;
从所述P个图像质量评价值中选取大于第二预设阈值的图像质量评价值对应的Q个人脸图像,所述Q为小于或等于所述P且大于所述N的正整数;
将所述目标人脸图像与所述Q个人脸图像进行匹配。
可选地,上述处理器3000,在所述根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像之后,还具体用于:
对所述M个人脸图像进行行为分析,得到符合预设行为的X个人脸图像,所述X为小于或等于所述M的正整数。
本发明实施例还提供一种计算机存储介质,其中,该计算机存储介质可存储有程序,该程序执行时包括上述方法实施例中记载的任何一种视频处理方法的部分或全部步骤。
尽管在此结合各实施例对本发明进行了描述,然而,在实施所要求保护的本发明过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。
本领域技术人员应明白,本发明的实施例可提供为方法、装置(设备)、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。计算机程序存储/分布在合适的介质中,与其它硬件一起提供或作为硬件的一部分,也可以采用其他分布形式,如通过Internet或其它有线或无线电信系统。
本发明是参照本发明实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管结合具体特征及其实施例对本发明进行了描述,显而易见的,在不脱离本发明的精神和范围的情况下,可对其进行各种修改和组合。相应地,本说明书和附图仅仅是所附权利要求所界定的本发明的示例性说明,且视为已覆盖本发明范围内的任意和所有修改、变化、组合或等同物。显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (6)

1.一种视频处理方法,其特征在于,包括:
获取由指定摄像头拍摄的第一视频;
获取用户输入的查询时间范围以及待查询对象的目标人脸图像,所述查询时间范围包含起点时间和结束时间;
根据所述查询时间范围对所述第一视频进行截取操作,得到第二视频;
根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,所述N、所述M均为正整数;
其中,所述根据所述查询时间范围对所述第一视频进行截取操作,包括:
根据所述起点时间和所述结束时间对所述第一视频进行定位,得到第三视频;
对所述第三视频同时进行正序人脸检测和反序人脸检测;
确定所述正序人脸检测出现的第一关键帧的第一时刻和所述反序人脸检测出现的第二关键帧的第二时刻,其中,所述第一关键帧、所述第二关键帧均为首次出现人脸图像满足预设角度范围的视频图像;
将所述第一时刻与所述第二时刻之间的视频作为所述第二视频;
其中,所述根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,包括:
将所述第二视频中每一帧视频图像进行人脸分割,以及对人脸图像的角度信息进行规划,得到P个人脸图像,每一人脸图像均为动态人脸图像数据,所述动态人脸图像数据包括:两眼间距在60像素以上,且水平转动角度不超过±15°、俯仰角不超过±10°、倾斜角不超过±15°;
将所述目标人脸图像与所述P个人脸图像进行匹配,得到所述待查询对象的N个人脸图像,以及P-N人脸图像,所述P为大于所述N的整数;
分别计算所述P-N人脸图像中每一人脸图像与所述N个人脸图像之间的最短时间差,得到所述P-N个最短时间差值;
从所述P-N个最短时间差值中选取小于第一预设阈值的最短时间差值,得到所述M个最短时间差值,获取其对应的人脸图像,得到与所述待查询对象相关的M个人脸图像。
2.根据权利要求1所述的方法,其特征在于,所述将所述目标人脸图像与所述P个人脸图像进行匹配,包括:
对所述P个人脸图像进行图像质量评价,得到所述P个图像质量评价值;
从所述P个图像质量评价值中选取大于第二预设阈值的图像质量评价值对应的Q个人脸图像,所述Q为小于或等于所述P且大于所述N的正整数;
将所述目标人脸图像与所述Q个人脸图像进行匹配。
3.根据权利要求1所述的方法,其特征在于,在所述根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像之后,所述方法还包括:
对所述M个人脸图像进行行为分析,得到符合预设行为的X个人脸图像,所述X为小于或等于所述M的正整数。
4.一种视频处理装置,其特征在于,包括:
获取单元,用于获取由指定摄像头拍摄的第一视频;
所述获取单元,还具体用于:
获取用户输入的查询时间范围以及待查询对象的目标人脸图像,所述查询时间范围包含起点时间和结束时间;
截取单元,用于根据所述查询时间范围对所述第一视频进行截取操作,得到第二视频;
搜索单元,用于根据所述目标人脸图像对所述第二视频进行搜索,得到所述待查询对象的N个人脸图像,以及与所述待查询对象相关的M个人脸图像,所述N、所述M均为正整数;
其中,所述截取单元包括:
定位模块,用于根据所述起点时间和所述结束时间对所述第一视频进行定位,得到第三视频;
检测模块,用于对所述第三视频同时进行正序人脸检测和反序人脸检测;
确定模块,用于确定所述正序人脸检测出现的第一关键帧的第一时刻和所述反序人脸检测出现的第二关键帧的第二时刻,其中,所述第一关键帧、所述第二关键帧均为首次出现人脸图像满足预设角度范围的视频图像;
所述确定模块,还具体用于:
将所述第一时刻与所述第二时刻之间的视频作为所述第二视频;
其中,所述搜索单元包括分割模块、第一匹配模块、计算模块和第一选取模块:
所述分割模块,用于将所述第二视频中每一帧视频图像进行人脸分割,所述装置还用于,对人脸图像的角度信息进行规划,得到P个人脸图像,每一人脸图像均为动态人脸图像数据,所述动态人脸图像数据包括:两眼间距在60像素以上,且水平转动角度不超过±15°、俯仰角不超过±10°、倾斜角不超过±15°;
所述第一匹配模块,用于将所述目标人脸图像与所述P个人脸图像进行匹配,得到所述待查询对象的N个人脸图像,以及P-N人脸图像,所述P为大于所述N的整数;
所述计算模块,用于分别计算所述P-N人脸图像中每一人脸图像与所述N个人脸图像之间的最短时间差,得到所述P-N个最短时间差值;
所述第一选取模块,用于从所述P-N个最短时间差值中选取小于第一预设阈值的最短时间差值,得到所述M个最短时间差值,获取其对应的人脸图像,得到与所述待查询对象相关的M个人脸图像。
5.根据权利要求4所述的装置,其特征在于,所述第一匹配模块包括:
评价模块,用于对所述P个人脸图像进行图像质量评价,得到所述P个图像质量评价值;
第二选取模块,用于从所述P个图像质量评价值中选取大于第二预设阈值的图像质量评价值对应的Q个人脸图像,所述Q为小于或等于所述P且大于所述N的正整数;
第二匹配模块,用于将所述目标人脸图像与所述Q个人脸图像进行匹配。
6.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行以实现如权利要求1-3任一项所述的方法。
CN201710366404.6A 2017-05-23 2017-05-23 视频处理方法、装置及存储介质 Active CN107341443B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710366404.6A CN107341443B (zh) 2017-05-23 2017-05-23 视频处理方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710366404.6A CN107341443B (zh) 2017-05-23 2017-05-23 视频处理方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN107341443A CN107341443A (zh) 2017-11-10
CN107341443B true CN107341443B (zh) 2018-06-22

Family

ID=60219921

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710366404.6A Active CN107341443B (zh) 2017-05-23 2017-05-23 视频处理方法、装置及存储介质

Country Status (1)

Country Link
CN (1) CN107341443B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229335A (zh) * 2017-12-12 2018-06-29 深圳市商汤科技有限公司 关联人脸识别方法和装置、电子设备、存储介质、程序
CN108563651B (zh) * 2017-12-19 2021-05-11 深圳云天励飞技术有限公司 一种多视频的目标搜索方法、装置及设备
CN110909567B (zh) * 2018-09-17 2023-06-30 杭州海康威视系统技术有限公司 拦截失驾人员的方法和装置
CN111178113B (zh) * 2018-11-09 2023-10-13 深圳技威时代科技有限公司 一种信息处理方法、装置及存储介质
CN109635149B (zh) * 2018-12-17 2021-03-23 北京旷视科技有限公司 人物搜索方法、装置及电子设备
CN111382627B (zh) * 2018-12-28 2024-03-26 成都云天励飞技术有限公司 同行判定方法及相关产品
CN109600554A (zh) * 2019-01-22 2019-04-09 成都品果科技有限公司 一种人脸自动聚焦的方法及装置
CN111627470A (zh) * 2020-05-29 2020-09-04 深圳市天一智联科技有限公司 视频剪辑方法、装置、存储介质及设备
CN112866611A (zh) * 2020-12-31 2021-05-28 上海新住信机电集成有限公司 一种智能楼宇监控系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103841367A (zh) * 2012-11-21 2014-06-04 深圳市赛格导航科技股份有限公司 一种监控系统
CN105100733A (zh) * 2015-08-27 2015-11-25 广东威创视讯科技股份有限公司 拼接显示装置的视频播放方法和系统
CN105426829A (zh) * 2015-11-10 2016-03-23 深圳Tcl新技术有限公司 基于人脸图像的视频分类方法和装置
CN105933538A (zh) * 2016-06-15 2016-09-07 维沃移动通信有限公司 一种移动终端的视频查找方法及移动终端
CN106127106A (zh) * 2016-06-13 2016-11-16 东软集团股份有限公司 视频中目标人物查找方法和装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160224837A1 (en) * 2013-10-25 2016-08-04 Hyperlayer, Inc. Method And System For Facial And Object Recognition Using Metadata Heuristic Search
US9552522B2 (en) * 2014-01-11 2017-01-24 Verint Systems Ltd. Counting and monitoring method using face detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103841367A (zh) * 2012-11-21 2014-06-04 深圳市赛格导航科技股份有限公司 一种监控系统
CN105100733A (zh) * 2015-08-27 2015-11-25 广东威创视讯科技股份有限公司 拼接显示装置的视频播放方法和系统
CN105426829A (zh) * 2015-11-10 2016-03-23 深圳Tcl新技术有限公司 基于人脸图像的视频分类方法和装置
CN106127106A (zh) * 2016-06-13 2016-11-16 东软集团股份有限公司 视频中目标人物查找方法和装置
CN105933538A (zh) * 2016-06-15 2016-09-07 维沃移动通信有限公司 一种移动终端的视频查找方法及移动终端

Also Published As

Publication number Publication date
CN107341443A (zh) 2017-11-10

Similar Documents

Publication Publication Date Title
CN107341443B (zh) 视频处理方法、装置及存储介质
CN107358146B (zh) 视频处理方法、装置及存储介质
CN107291810B (zh) 数据处理方法、装置及存储介质
CN111461089B (zh) 一种人脸检测的方法、人脸检测模型的训练方法及装置
CN107169458B (zh) 数据处理方法、装置及存储介质
CN106878670B (zh) 一种视频处理方法及装置
CN106791708B (zh) 一种视频处理方法及装置
CN105404860B (zh) 用于管理走失人员信息的方法和设备
CN106791655A (zh) 一种视频处理方法及装置
CN109766779A (zh) 徘徊人员识别方法及相关产品
CN106971142B (zh) 一种图像处理方法及装置
CN109815843A (zh) 目标检测方法及相关产品
CN108563651B (zh) 一种多视频的目标搜索方法、装置及设备
CN106851199A (zh) 一种视频处理方法及装置
CN109740444A (zh) 人流量信息展示方法及相关产品
CN106657913B (zh) 一种视频处理方法及装置
CN106937087A (zh) 一种视频处理方法及装置
CN106682092A (zh) 一种目标检索方法及终端
CN115002414A (zh) 监测方法、装置及服务器和计算机可读存储介质
CN114445780A (zh) 裸土苫盖的检测方法及装置、识别模型的训练方法及装置
CN109815839A (zh) 微服务架构下的徘徊人员识别方法及相关产品
CN107357821B (zh) 系统管理方法、装置及存储介质
CN107301373B (zh) 数据处理方法、装置及存储介质
CN109785439A (zh) 人脸素描图像生成方法及相关产品
CN106713864B (zh) 一种视频处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant