CN108388885B - 面向大型直播场景的多人特写实时识别与自动截图方法 - Google Patents
面向大型直播场景的多人特写实时识别与自动截图方法 Download PDFInfo
- Publication number
- CN108388885B CN108388885B CN201810222865.0A CN201810222865A CN108388885B CN 108388885 B CN108388885 B CN 108388885B CN 201810222865 A CN201810222865 A CN 201810222865A CN 108388885 B CN108388885 B CN 108388885B
- Authority
- CN
- China
- Prior art keywords
- face
- screenshot
- tracking
- detection
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种面向大型直播场景的多人特写实时识别与自动截图方法,具体为:将人脸大小、清晰度以及人脸位置分别作为截图的第一、二、三指标,首先实时获取直播视频的当前视频帧图像,检测所述视频帧图像中的人脸获得人脸区域并进行跟踪,然后对人脸区域的人脸大小、清晰度以及位置依次进行评估,进而选取符合截图标准的人脸图像,并将当前视频帧图像截图保存,送入人脸识别模块进行识别,输出识别结果。该发明可应用在大型直播场景下对视频中的多人特写进行识别与截图,当满足截图指标时自动截图保存,确保获得质量更佳的截图。
Description
技术领域:
本发明涉及一种面向大型直播场景的多人特写实时识别与自动截图方法,属于视频图像处理技术领域技术领域。
背景技术:
在各种直播平台,比如正规大会直播或者足球直播或者大型晚会直播时,需要在一定情况下截图,对图片上的人物进行人脸识别,从而方便图文介绍。需要截图就一定要检测到人物,关键技术就是人脸检测,而传统的人脸检测由于通常是实时进行检测的,因此在检测过程中会产生大量重复的同一对象的不同人脸快照,并且质量参齐不齐,另外如果全部保存快照进行人脸识别,则会带来存储量大和人脸识别效果不佳的缺点,因此本发明为了解决这个问题,提出了一种图像质量评估方法,只有满足截图要求才会进行保存识别。
公开于该背景技术部分的信息仅仅旨在增加对本发明的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容:
本发明的目的在于提供一种识别效果好、存储量小的面向大型直播场景的多人特写实时识别与自动截图方法,从而克服上述现有技术中的缺陷。
为实现上述目的,本发明提供了
一种面向大型直播场景的多人特写实时识别与自动截图方法,其特征在于,
具体步骤如下:
步骤1,实时获取直播视频信号,对视频流中的每帧图像中值滤波后转换到YCgCr颜色空间,并建立肤色模型,对图像进行肤色检测,通过形态学处理后去除背景区域,获得候选肤色区域;
步骤2,基于步骤1的肤色检测,采用Adaboost算法对候选肤色区域进行人脸检测,得到人脸区域的大小Sface及中心点坐标(xc,yc);
步骤3,对每个人脸区域采用带有多线程机制的CamShift算法进行目标跟踪,统计当前视频帧图像中被跟踪的人脸个数并记为L;
步骤4,对这L张人脸中的每一张人脸都依次进行人脸大小、清晰度以及位置的评估,符合记为1不符合记为0从而得到L个01序列;
步骤5,通过对L个01序列进行判断,进而选取符合截图标准的视频帧图像截图;
步骤6,将所截图像送入人脸识别模块并对序列号为111的人脸进行识别,输出识别结果。
本方面进一步限定的技术方案为:
优选地,上述技术方案中,步骤2中Adaboost算法,用正负人脸样本训练基于Haar-like特征的强分类器,并将强分类器串联成级联分类器,实现快速实时的人脸检测。
优选地,上述技术方案中,步骤3为CamShift动态人脸检测跟踪进程开设两个线程,分别为检测线程和跟踪线程,降低检测时间,提高跟踪实时性。
优选地,上述技术方案中,检测线程首先启动,负责定期检测图像中人脸,确定人脸个数是否变化及变化后的人脸初始位置,跟踪线程负责根据检测线程提供的最新检测结果进行多人脸的CamShift实时跟踪。
优选地,上述技术方案中,步骤5的截图标准判断规则如下:
1)若L张人脸的序列号均为111,则截图,若L张人脸的序列号没有一个为111,则舍弃;
2)当L为1时,若人脸的序列号均为111,则对当前视频帧图像截图,否则舍弃;
3)当L为奇数且L大于1时,若至少有(L+1)/2个人脸的序列号为111,则截图,否则舍弃;
4)当L为偶数时,若至少有L/2个人脸的序列号为111,则截图,否则舍弃。
优选地,上述技术方案中,步骤4中,人脸大小评估方法如下:
通过人脸区域面积占当前视频帧图像面积的比例进行评估,具体计算公式如下:
其中,Sface表示人脸区域的面积;S表示当前视频帧图像面积;
若Q1在区间[0.05,0.5]之间,则标记为1,否则标记为0。
优选地,上述技术方案中,步骤4中,所述人脸清晰度评估方法为:
对人脸区域采用Canny算子进行边缘检测,再对检测结果的边缘清晰度和灰度分布情况进行分析,综合这两方面的因素获得图像清晰度指标,其公式计算如下:
1)首先计算人脸区域边缘清晰度指标:
其中,α是边缘点数目占当前视频帧图像的比例;
3)最后,将p和η两个指标进行融合,可得最终的人脸有效区域清晰度指标Q2=0.5(p+η);
4)根据实际的视频情况,自主设定阈值T,若Q2的值大于T认为是清晰人脸记为1,否则认为是模糊人脸记为0。
优选地,上述技术方案中,步骤4中,所述人脸位置的评估方法如下:
优选地,上述技术方案中,步骤1中,对初始帧图像进行预处理,在YCgCr颜色空间下的建立肤色模型,对图像进行肤色检测,获得候选肤色区域,其过程如下:
1)通过如下公式将步骤1的图像序列转换到YCgCr颜色空间:
2)皮肤颜色在YCgCr颜色空间呈高斯分布,建立高斯肤色模型,获得灰度图像,其中高斯分布函数ρ(Cg,Cr)表达式为:
ρ(Cg,Cr)=exp[-0.5(a-K)TC-1(a-K)];
其中a是肤色样本在YCgCr颜色空间中的值,K为肤色样本像素在YCgCr颜色空间中的均值,C为肤色相似度协方差矩阵,均值K和协方差矩阵C可通过以下公式求出:K=E(a),a=(Cr,Cg)T,C=E[(a-K)(a-K)T];
3)按照一定阈值对灰度图像进行二值化操作,大于阈值的像素点置为1表示肤色区域,小于阈值的像素点置为0表示非肤色区域;
4)对二值化处理后采用先膨胀后腐蚀的形态学操作,得到候选肤色区域。优选地,上述技术方案中,带有多线程机制的CamShift算法(即MT-CamShift)多人脸跟踪算法步骤如下:
1)检测线程,检测线程先于跟踪线程启动,利用AdaBoost人脸检测算法对图像中的人脸个数进行定期检测,当图像中人脸个数发生变化时,检测线程通过设置标志位等于1与跟踪线程通信;
2)跟踪线程,在检测线程执行一个周期后,跟踪线程启动,控制多个CamShift跟踪器进行多人脸跟踪;每次跟踪前,跟踪线程检查检测线程中设置的标志位,并进行相应处理;
若标志位为1,则说明检测线程发现人脸个数已变化,此时跟踪线程为新增人脸分配CamShift跟踪器,释放离开人脸的CamShift跟踪器,并根据检测线程的最新结果重新确定跟踪窗口的初始位置,最后清零标志位;
若标志位为0,则说明检测线程尚未发现人脸个数的变化,此时跟踪线程不改变之前CamShift跟踪器个数,并继续以上次的跟踪结果作为本次跟踪的初始位置完成跟踪。
与现有技术相比,本发明具有如下有益效果:
通过对视频帧图像人脸检测获得人脸区域图像,并对人脸进行人脸大小、位置、清晰度进行评估,只有符合截图要求的图像才予以截图,保证了截图的质量,提高了人脸识别的效果,解决了以往视频人脸识别产生大量重复快照而导致后端服务器的存储及计算工作量大的问题,降低了系统处理的复杂性。
附图说明:
图1为本发明的多人特写实时识别与自动截图的流程图;
图2为本发明的人脸检测流程图;
图3a为人脸检测跟踪算法流程示意图;
图3b为目标更新处理流程示意图;
图4a为本发明MT-CamShift多人脸检测线程流程示意图;
图4b为本发明MT-CamShift多人脸跟踪线程流程示意图。
具体实施方式:
下面对本发明的具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
除非另有其它明确表示,否则在整个说明书和权利要求书中,术语“包括”或其变换如“包含”或“包括有”等等将被理解为包括所陈述的元件或组成部分,而并未排除其它元件或其它组成部分。
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明进行详细描述。
本发明提供一种面向大型直播场景的多人特写实时识别与自动截图方法,其特征在于,将人脸大小、清晰度以及人脸位置分别作为截图的第一、二、三指标,首先实时获取直播视频的当前视频帧图像,检测所述视频帧图像中的人脸获得人脸区域并进行跟踪,然后对人脸区域的人脸大小、清晰度以及位置依次进行评估,进而选取符合截图标准的人脸图像,并将当前视频帧图像截图保存,送入人脸识别模块进行识别,输出识别结果。该发明可应用在大型直播场景下对视频中的多人特写进行识别与截图,当满足截图指标时自动截图保存,确保获得质量更佳的截图。如图1所示,本发明一种面向大型直播场景的多人特写实时识别与自动截图方法的流程图,主要包括以下步骤:
步骤1,首先采集视频,对初始帧图像进行归一化预处理,再采用AdaBoost算法进行人脸检测,得到人脸区域的大小Sface及中心点坐标(xc,yc),具体详见图2;
步骤2,将人脸检测得到的信息作为CamShift跟踪算法的初始参数进行人脸的自动跟踪,并统计当前视频帧图像中被跟踪的人脸个数记为L,具体详见图3;
步骤3,对这L张人脸中的每一张人脸都依次进行人脸大小、清晰度以及位置的评估,符合记为1不符合记为0从而得到L个01序列;
所述人脸大小评估方法如下:
通过人脸区域面积占当前视频帧图像面积的比例进行评估,具体计算公式如下:
其中,Sface表示人脸区域的面积(总像素数);S表示当前视频帧图像面积(总像素数)。若Q1在区间[0.05,0.5]之间,则标记为1,否则标记为0。
所述人脸清晰度评估方法为:
对人脸区域采用Canny算子进行边缘检测,再对检测结果的边缘清晰度和灰度分布情况进行分析,综合这两方面的因素获得图像清晰度指标,其公式计算如下:
1)首先计算人脸区域边缘清晰度指标:
其中,α是边缘点数目占当前视频帧图像的比例。
3)最后,将p和η两个指标进行融合,可得最终的人脸有效区域清晰度指标Q2=0.5(p+η)。
根据实际的视频情况,自主设定阈值T,若Q2的值大于T认为是清晰人脸记为1,否则认为是模糊人脸记为0。
所述人脸位置的评估方法如下:
步骤4,通过对L个01序列进行判断,进而选取符合截图标准的视频帧图像截图;
步骤5,将所截图像通过人脸识别模块进行识别,输出识别结果。
如图2所示,对初始帧图像进行预处理,在YCgCr颜色空间下的建立肤色模型,对图像进行肤色检测,获得候选肤色区域,其过程如下:
1)通过如下公式将步骤1的图像序列转换到YCgCr颜色空间:
2)皮肤颜色在YCgCr颜色空间呈高斯分布,建立高斯肤色模型,获得灰度图像,其中高斯分布函数ρ(Cg,Cr)表达式为:
ρ(Cg,Cr)=exp[-0.5(a-K)TC-1(a-K)]
其中a是肤色样本在YCgCr颜色空间中的值,K为肤色样本像素在YCgCr颜色空间中的均值,C为肤色相似度协方差矩阵,均值K和协方差矩阵C可通过以下公式求出:K=E(a),a=(Cr,Cg)T,C=E[(a-K)(a-K)T],
3)按照一定阈值对灰度图像进行二值化操作,大于阈值的像素点置为1表示肤色区域,小于阈值的像素点置为0表示非肤色区域;
4)对二值化处理后采用先膨胀后腐蚀的形态学操作,得到候选肤色区域。
如图3a所示,人脸自动检测跟踪算法流程图,在实现多人脸目标的跟踪以及对当前帧中新增或减少人脸的检测跟踪,必须开启多个跟踪器(MT-CamShift),以便跟踪所有人脸信息。带有多线程机制的CamShift算法即MT-CamShift算法在执行时,可以根据跟踪对象所处的状态,将其按顺序编号并以线性表的形式维护在内存中,CamShift跟踪器及其跟踪的人脸都以编号为彼此的索引,以此实现对多人脸的跟踪。在检测跟踪过程中对比前后两帧中检测到的人脸数目判断是否出现了变化,若减少或出现新的人脸目标,更新人脸跟踪序列,如图3b为检测跟踪过程中,人脸目标更新处理流程图。
每进行一次人脸跟踪,需先进行人脸检测,再为检测到的人脸分配CamShift跟踪器,实现对数目更新的人脸进行跟踪,为了解决在检测上花费时间过长,失去跟踪意义,且后续跟踪算法不能及时运行,致使实时性变差的问题,本发明采用多线程机制予以解决,如图4所示,MT-CamShift多人脸跟踪算法步骤如下:
a)检测线程。如图4a所示,检测线程先于跟踪线程启动,利用AdaBoost人脸检测算法对图像中的人脸个数进行定期检测,当图像中人脸个数发生变化时,检测线程通过设置标志位等于1与跟踪线程通信。
b)跟踪线程。如图4b所示,在检测线程执行一个周期后,跟踪线程启动,控制多个CamShift跟踪器进行多人脸跟踪。每次跟踪前,跟踪线程检查检测线程中设置的标志位,并进行相应处理。
若标志位为1,则说明检测线程发现人脸个数已变化。此时跟踪线程为新增人脸分配CamShift跟踪器,释放离开人脸的CamShift跟踪器,并根据检测线程的最新结果重新确定跟踪窗口的初始位置,最后清零标志位。
若标志位为0,则说明检测线程尚未发现人脸个数的变化。此时跟踪线程不改变之前CamShift跟踪器个数,并继续以上次的跟踪结果作为本次跟踪的初始位置完成跟踪。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围内。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。
Claims (6)
1.一种面向大型直播场景的多人特写实时识别与自动截图方法,其特征在于,
具体步骤如下:
步骤1,实时获取直播视频信号,对视频流中的每帧图像中值滤波后转换到YCgCr颜色空间,并建立肤色模型,对图像进行肤色检测,通过形态学处理后去除背景区域,获得候选肤色区域;
步骤2,基于步骤1的肤色检测,采用Adaboost算法对候选肤色区域进行人脸检测,得到人脸区域的大小Sface及中心点坐标(xc,yc);
步骤3,对每个人脸区域采用带有多线程机制的CamShift算法进行目标跟踪,统计当前视频帧图像中被跟踪的人脸个数并记为L;
步骤4,对这L张人脸中的每一张人脸都依次进行人脸大小、清晰度以及位置的评估,符合记为1不符合记为0从而得到L个01序列;
步骤4中,人脸大小评估方法如下:
通过人脸区域面积占当前视频帧图像面积的比例进行评估,具体计算公式如下:
其中,Sface表示人脸区域的面积;S表示当前视频帧图像面积;
若Q1在区间[0.05,0.5]之间,则标记为1,否则标记为0;
步骤4中,所述人脸清晰度评估方法为:
对人脸区域采用Canny算子进行边缘检测,再对检测结果的边缘清晰度和灰度分布情况进行分析,综合这两方面的因素获得图像清晰度指标,其公式计算如下:
1)首先计算人脸区域边缘清晰度指标:
其中,α是边缘点数目占当前视频帧图像的比例;
2)然后计算灰度统计信息的清晰度指标:其中,表示Canny边缘检测后当前视频帧图像灰度的平均值,即M×N表示当前视频帧图像总像素个数,M为横向像素个数,N为纵向像素个数;3)最后,将p和η两个指标进行融合,可得最终的人脸有效区域清晰度指标Q2=0.5(p+η);
4)根据实际的视频情况,自主设定阈值T,若Q2的值大于T认为是清晰人脸记为1,否则认为是模糊人脸记为0;
步骤4中,所述人脸位置的评估方法如下:
步骤5,通过对L个01序列进行判断,进而选取符合截图标准的视频帧图像截图;步骤5的截图标准判断规则如下:
1)若L张人脸的序列号均为111,则截图,若L张人脸的序列号没有一个为111,则舍弃;
2)当L为1时,若人脸的序列号均为111,则对当前视频帧图像截图,否则舍弃;
3)当L为奇数且L大于1时,若至少有(L+1)/2个人脸的序列号为111,则截图,否则舍弃;
4)当L为偶数时,若至少有L/2个人脸的序列号为111,则截图,否则舍弃;
步骤6,将所截图像送入人脸识别模块并对序列号为111的人脸进行识别,输出识别结果。
2.根据权利要求1中所述的一种面向大型直播场景的多人特写实时识别与自动截图方法,其特征在于,步骤2中Adaboost算法,用正负人脸样本训练基于Haar-like特征的强分类器,并将强分类器串联成级联分类器,实现快速实时的人脸检测。
3.根据权利要求1中所述的一种面向大型直播场景的多人特写实时识别与自动截图方法,其特征在于,步骤3为CamShift动态人脸检测跟踪进程开设两个线程,分别为检测线程和跟踪线程,降低检测时间,提高跟踪实时性。
4.根据权利要求3中所述的一种面向大型直播场景的多人特写实时识别与自动截图方法,其特征在于,检测线程首先启动,负责定期检测图像中人脸,确定人脸个数是否变化及变化后的人脸初始位置,跟踪线程负责根据检测线程提供的最新检测结果进行多人脸的CamShift实时跟踪。
5.根据权利要求1中所述的一种面向大型直播场景的多人特写实时识别与自动截图方法,其特征在于,步骤1中,对初始帧图像进行预处理,在YCgCr颜色空间下的建立肤色模型,对图像进行肤色检测,获得候选肤色区域,其过程如下:
1)通过如下公式将步骤1的图像序列转换到YCgCr颜色空间:
2)皮肤颜色在YCgCr颜色空间呈高斯分布,建立高斯肤色模型,获得灰度图像,其中高斯分布函数ρ(Cg,Cr)表达式为:
ρ(Cg,Cr)=exp[-0.5(a-K)TC-1(a-K)];
其中a是肤色样本在YCgCr颜色空间中的值,K为肤色样本像素在YCgCr颜色空间中的均值,C为肤色相似度协方差矩阵,均值K和协方差矩阵C可通过以下公式求出:K=E(a),a=(Cr,Cg)T,C=E[(a-K)(a-K)T];
3)按照一定阈值对灰度图像进行二值化操作,大于阈值的像素点置为1表示肤色区域,小于阈值的像素点置为0表示非肤色区域;
4)对二值化处理后采用先膨胀后腐蚀的形态学操作,得到候选肤色区域。
6.根据权利要求1中所述的一种面向大型直播场景的多人特写实时识别与自动截图方法,其特征在于,带有多线程机制的CamShift算法步骤如下:
1)检测线程,检测线程先于跟踪线程启动,利用AdaBoost人脸检测算法对图像中的人脸个数进行定期检测,当图像中人脸个数发生变化时,检测线程通过设置标志位等于1与跟踪线程通信;
2)跟踪线程,在检测线程执行一个周期后,跟踪线程启动,控制多个CamShift跟踪器进行多人脸跟踪;每次跟踪前,跟踪线程检查检测线程中设置的标志位,并进行相应处理;
若标志位为1,则说明检测线程发现人脸个数已变化,此时跟踪线程为新增人脸分配CamShift跟踪器,释放离开人脸的CamShift跟踪器,并根据检测线程的最新结果重新确定跟踪窗口的初始位置,最后清零标志位;
若标志位为0,则说明检测线程尚未发现人脸个数的变化,此时跟踪线程不改变之前CamShift跟踪器个数,并继续以上次的跟踪结果作为本次跟踪的初始位置完成跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810222865.0A CN108388885B (zh) | 2018-03-16 | 2018-03-16 | 面向大型直播场景的多人特写实时识别与自动截图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810222865.0A CN108388885B (zh) | 2018-03-16 | 2018-03-16 | 面向大型直播场景的多人特写实时识别与自动截图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108388885A CN108388885A (zh) | 2018-08-10 |
CN108388885B true CN108388885B (zh) | 2021-06-08 |
Family
ID=63067868
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810222865.0A Active CN108388885B (zh) | 2018-03-16 | 2018-03-16 | 面向大型直播场景的多人特写实时识别与自动截图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108388885B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109816700B (zh) * | 2019-01-11 | 2023-02-24 | 佰路得信息技术(上海)有限公司 | 一种基于目标识别的信息统计方法 |
CN110084130B (zh) * | 2019-04-03 | 2023-07-25 | 深圳鲲云信息科技有限公司 | 基于多目标跟踪的人脸筛选方法、装置、设备及存储介质 |
CN110084830B (zh) * | 2019-04-07 | 2022-12-09 | 西安电子科技大学 | 一种视频运动目标检测与跟踪方法 |
CN110390263A (zh) * | 2019-06-17 | 2019-10-29 | 宁波江丰智能科技有限公司 | 一种视频图像处理方法及系统 |
CN110738250B (zh) * | 2019-10-09 | 2024-02-27 | 陈浩能 | 果蔬新鲜度识别方法及相关产品 |
CN111401238B (zh) * | 2020-03-16 | 2023-04-28 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种视频中人物特写片段的检测方法及装置 |
CN111507948A (zh) * | 2020-04-08 | 2020-08-07 | 四川大学华西第二医院 | 基于机器视觉的超声视频流关键图像自动截取系统和方法 |
CN111770299B (zh) * | 2020-04-20 | 2022-04-19 | 厦门亿联网络技术股份有限公司 | 一种智能视频会议终端的实时人脸摘要服务的方法及系统 |
CN111553302B (zh) * | 2020-05-08 | 2022-01-04 | 深圳前海微众银行股份有限公司 | 关键帧选取方法、装置、设备及计算机可读存储介质 |
CN111553915A (zh) * | 2020-05-08 | 2020-08-18 | 深圳前海微众银行股份有限公司 | 物品识别检测方法、装置、设备和可读存储介质 |
NO346137B1 (en) * | 2020-06-17 | 2022-03-14 | Pexip AS | Method, computer program and system for detecting changes and moving objects in a video view |
CN112036242B (zh) * | 2020-07-28 | 2023-07-21 | 重庆锐云科技有限公司 | 人脸图片采集方法、装置、计算机设备及存储介质 |
CN112541434B (zh) * | 2020-12-14 | 2022-04-12 | 无锡锡商银行股份有限公司 | 一种基于中心点跟踪模型的人脸识别方法 |
CN112712569B (zh) * | 2020-12-25 | 2023-12-12 | 百果园技术(新加坡)有限公司 | 一种肤色检测方法、装置、移动终端和存储介质 |
CN112686175A (zh) * | 2020-12-31 | 2021-04-20 | 北京澎思科技有限公司 | 人脸抓拍方法、系统及计算机可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101567044A (zh) * | 2009-05-22 | 2009-10-28 | 北京大学 | 一种人脸图像质量检测方法 |
CN102930261A (zh) * | 2012-12-05 | 2013-02-13 | 上海市电力公司 | 一种人脸抓拍识别方法 |
CN103473564A (zh) * | 2013-09-29 | 2013-12-25 | 公安部第三研究所 | 一种基于敏感区域的正面人脸检测方法 |
CN103942525A (zh) * | 2013-12-27 | 2014-07-23 | 高新兴科技集团股份有限公司 | 一种基于视频序列的实时人脸优选方法 |
CN104883548A (zh) * | 2015-06-16 | 2015-09-02 | 金鹏电子信息机器有限公司 | 监控视频人脸抓取处理方法及其系统 |
CN105046245A (zh) * | 2015-08-28 | 2015-11-11 | 深圳英飞拓科技股份有限公司 | 视频人脸检测评价方法 |
CN105913001A (zh) * | 2016-04-06 | 2016-08-31 | 南京邮电大学盐城大数据研究院有限公司 | 基于聚类的在线式多人脸图像处理的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004044771B4 (de) * | 2004-09-16 | 2006-08-24 | Bayerische Motoren Werke Ag | Verfahren zur bildbasierten Fahreridentifikation in einem Kraftfahrzeug |
-
2018
- 2018-03-16 CN CN201810222865.0A patent/CN108388885B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101567044A (zh) * | 2009-05-22 | 2009-10-28 | 北京大学 | 一种人脸图像质量检测方法 |
CN102930261A (zh) * | 2012-12-05 | 2013-02-13 | 上海市电力公司 | 一种人脸抓拍识别方法 |
CN103473564A (zh) * | 2013-09-29 | 2013-12-25 | 公安部第三研究所 | 一种基于敏感区域的正面人脸检测方法 |
CN103942525A (zh) * | 2013-12-27 | 2014-07-23 | 高新兴科技集团股份有限公司 | 一种基于视频序列的实时人脸优选方法 |
CN104883548A (zh) * | 2015-06-16 | 2015-09-02 | 金鹏电子信息机器有限公司 | 监控视频人脸抓取处理方法及其系统 |
CN105046245A (zh) * | 2015-08-28 | 2015-11-11 | 深圳英飞拓科技股份有限公司 | 视频人脸检测评价方法 |
CN105913001A (zh) * | 2016-04-06 | 2016-08-31 | 南京邮电大学盐城大数据研究院有限公司 | 基于聚类的在线式多人脸图像处理的方法 |
Non-Patent Citations (2)
Title |
---|
Design and evaluation of photometric image quality measures for effective face recognition;Ayman Abaza等;《IET BIOMETRICS》;20140430;全文 * |
人脸识别中的人脸图像质量快速评价;杨飞等;《第27届中国控制会议论文集》;20080731;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108388885A (zh) | 2018-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108388885B (zh) | 面向大型直播场景的多人特写实时识别与自动截图方法 | |
CN108491784B (zh) | 面向大型直播场景的单人特写实时识别与自动截图方法 | |
CN108229362B (zh) | 一种基于门禁系统的双目人脸识别活体检测方法 | |
CN107292252B (zh) | 一种自主学习的身份识别方法 | |
CN111611905B (zh) | 一种可见光与红外融合的目标识别方法 | |
US20230289979A1 (en) | A method for video moving object detection based on relative statistical characteristics of image pixels | |
CN107145862B (zh) | 一种基于霍夫森林的多特征匹配多目标跟踪方法 | |
CN110287907B (zh) | 一种对象检测方法和装置 | |
CN105678213B (zh) | 基于视频特征统计的双模式蒙面人事件自动检测方法 | |
CN104408707A (zh) | 一种快速数字成像模糊鉴别与复原图像质量评估方法 | |
CN109685045B (zh) | 一种运动目标视频跟踪方法及系统 | |
CN109034247B (zh) | 一种基于跟踪算法的较高纯度的人脸识别样本提取方法 | |
CN107564035B (zh) | 基于重要区域识别和匹配的视频跟踪方法 | |
CN113255608B (zh) | 一种基于cnn分类的多摄像头人脸识别定位方法 | |
WO2013075295A1 (zh) | 低分辨率视频的服装识别方法及系统 | |
CN106529441B (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN111275040A (zh) | 定位方法及装置、电子设备、计算机可读存储介质 | |
CN110458019B (zh) | 稀缺认知样本条件下的排除倒影干扰的水面目标检测方法 | |
CN113011399B (zh) | 基于生成协同判别网络的视频异常事件检测方法及系统 | |
Silva-Rodríguez et al. | Predicting the success of blastocyst implantation from morphokinetic parameters estimated through CNNs and sum of absolute differences | |
Miller et al. | Person tracking in UAV video | |
CN110349184B (zh) | 基于迭代滤波和观测判别的多行人跟踪方法 | |
CN107403192B (zh) | 一种基于多分类器的快速目标检测方法及系统 | |
CN108985216B (zh) | 一种基于多元logistic回归特征融合的行人头部检测方法 | |
CN108428241B (zh) | 高清视频中移动目标的运动轨迹捕获方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |