CN108491784B - 面向大型直播场景的单人特写实时识别与自动截图方法 - Google Patents
面向大型直播场景的单人特写实时识别与自动截图方法 Download PDFInfo
- Publication number
- CN108491784B CN108491784B CN201810222737.6A CN201810222737A CN108491784B CN 108491784 B CN108491784 B CN 108491784B CN 201810222737 A CN201810222737 A CN 201810222737A CN 108491784 B CN108491784 B CN 108491784B
- Authority
- CN
- China
- Prior art keywords
- face
- image
- skin color
- area
- screenshot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种面向大型直播场景的单人特写实时识别与自动截图方法,具体如下:实时获取直播视频当前的视频帧图像,检测所述视频帧图像中是否存在人脸;若所述视频帧图像中存在人脸,则采用人脸检测模块获得人脸区域,然后对人脸区域进行人脸大小、清晰度、位置以及角度综合评估,进而选取最优人脸,并将含有最优人脸的当前视频帧图像进行截图保存;最后将最优人脸图像送入人脸识别模块进行识别,输出识别结果。该发明可应用在大型直播场景下对视频中的单人特写进行识别与截图,当满足截图指标时自动截图保存;同时截图指标不仅可以得到质量更佳的截图,还避免了人脸识别中产生大量的重复人脸快照而带来的后端服务器及计算工作量大的问题。
Description
技术领域:
本发明涉及一种面向大型直播场景的单人特写实时识别与自动截图方法,属于视频图像处理技术领域技术领域。
背景技术:
在各种直播平台,比如正规大会直播或者足球直播或者大型晚会直播时,需要在一定情况下截图,对图片上的人物进行人脸识别,从而方便图文介绍。需要截图就一定要检测到人物,关键技术就是人脸检测,而传统的人脸检测由于通常是实时进行检测的,因此在检测过程中会产生大量重复的同一对象的不同人脸快照,并且质量参齐不齐,另外如果全部保存快照进行人脸识别,则会带来存储量大和人脸识别效果不佳的缺点,因此本发明为了解决这个问题,提出了一种图像质量评估方法,只有满足截图要求才会进行保存识别。
公开于该背景技术部分的信息仅仅旨在增加对本发明的总体背景的理解,而不应当被视为承认或以任何形式暗示该信息构成已为本领域一般技术人员所公知的现有技术。
发明内容:
本发明的目的在于提供一种识别效果好、存储量小的面向大型直播场景的单人特写实时识别与自动截图方法,从而克服上述现有技术中的缺陷。
为实现上述目的,本发明提供了一种面向大型直播场景的单人特写实时识别与自动截图方法,具体步骤如下:
步骤1,实时获取直播视频信号,对视频流中的每帧图像中值滤波后转换到YCgCr颜色空间,并建立肤色模型,对图像进行肤色检测,通过形态学处理后去除背景区域,获得候选肤色区域;
步骤2,基于步骤1的肤色检测,采用Adaboost算法训练基于Haar-like特征的人脸分类器对候选肤色区域进行人脸检测,得到人脸区域;
步骤3,采用多尺度Struck跟踪算法对步骤2检测到的人脸区域实时跟踪,并计算跟踪的人脸个数,只有当检测到的人脸个数为1时才保留当前帧图像,其余的舍弃;
步骤4,在步骤3的基础上,采用基于Haar-like特征的Adaboost算法检测人眼,并获得双眼位置坐标L(x1,y1),R(x2,y2),进而通过设定比例求得人脸矩形位置;
步骤5,对每个人脸区域图像进行人脸大小、清晰度、位置以及角度评估后经加权计算得到人脸图像的得分,选取得分最高的作为人脸区域图像中的最优脸;
步骤6,将含有最优脸的当前视频帧图像进行截图保存,送入人脸识别模块,输出识别结果。
本方面进一步限定的技术方案为:
优选地,上述技术方案中,步骤2中Adaboost算法,用正负人脸样本训练基于Haar-like特征的强分类器,并将强分类器串联成级联分类器,实现快速实时的人脸检测。
优选地,上述技术方案中,步骤3多尺度Struck人脸跟踪算法采用高斯核函数,并且支持向量集维数阈值取100。
优选地,上述技术方案中,步骤5所述人脸大小评估方法如下:
通过人脸区域图像面积占整幅原始自然人脸图像面积的比例进行评估,具体计算公式如下:
其中,T为设定的人脸有效区域最小面积,可根据实际情况进行设定;Sface表示人脸有效区域面积,即有效区域总像素数;S表示包含人脸图像的原始自然图像面积,即原图像总像素数。
优选地,上述技术方案中,步骤5中,所述人脸清晰度评估方法如下:
对人脸区域图像采用Canny算子进行边缘检测,再对检测结果的边缘清晰度和灰度分布情况进行分析,综合这两方面的因素获得图像清晰度指标,其公式计算如下:
1)首先计算图像边缘清晰度指标:
其中,α是边缘点数目占整幅人脸图像的比例;
3)最后,将p和η两个指标进行融合,可得最终的人脸有效区域清晰度指标Q2=0.5(p+η)。
优选地,上述技术方案中,步骤5中,所述人脸位置的评估方法如下:
根据双眼坐标求出脸部矩形的中心坐标(xc,yc),求出归一化后的脸部矩形中心坐标(xc,yc)到人脸图像中心的距离d,归一化准则:使人脸图像中心到其上对角点的距离为到其下对角点的距离为计算人脸位置评价系数Q3:Q3=1-d。
优选地,上述技术方案中,步骤5中,所述人脸角度的评估方法如下:
优选地,上述技术方案中,步骤5中,步骤5中,所述加权计算得到人脸区域图像的得分方法如下:
1)如果Q1=0,则Vscore=0,Vscore是每帧图像的得分;
2)如果Q1≠0,则Vscore=w1Q1+w2Q2+w3Q3+w4Q4,其中w1+w2+w3+w4=100;
上述权重系数w1=25,w2=30,w3=30,w4=15。
优选地,上述技术方案中,步骤1具体为:
对每帧图像进行预处理,在YCgCr颜色空间下的建立肤色模型,对图像进行肤色检测,获得候选肤色区域,其过程如下:
1)通过如下公式将步骤1的图像序列转换到YCgCr颜色空间:
2)皮肤颜色在YCgCr颜色空间呈高斯分布,建立高斯肤色模型,获得灰度图像,其中高斯分布函数ρ(Cg,Cr)表达式为:
ρ(Cg,Cr)=exp[-0.5(a-K)TC-1(a-K)],
其中a是肤色样本在YCgCr颜色空间中的值,K为肤色样本像素在YCgCr颜色空间中的均值,C为肤色相似度协方差矩阵,均值K和协方差矩阵C可通过以下公式求出:K=E(a),a=(Cr,Cg)T,C=E[(a-K) (a-K)T],肤色高斯模型中均值K和协方差矩阵C一般取值为:K=[116.09 148.7319]T;
3)按照一定阈值对灰度图像进行二值化操作,大于阈值的像素点置为1表示肤色区域,小于阈值的像素点置为0表示非肤色区域;
4)对二值化处理后采用先膨胀后腐蚀的形态学操作,得到候选肤色区域。
优选地,上述技术方案中,步骤4中,通过双眼位置坐标可以统计比例,求得人脸矩形位置,其中h,t,b为人脸矩形与人眼距离的比例关系,h=0.64,t=0.43,b=1.85,D为双眼的距离。
与现有技术相比,本发明具有如下有益效果:
本发明采用以上技术方案与现有技术相比,具有以下技术效果:通过对视频帧图像人脸检测获得人脸区域图像,并对人脸进行人脸大小,位置,清晰度等方面进行评估,只有符合质量要求的图像才予以截图,保证了截图的质量,提高了人脸识别的效果,解决了以往视频人脸识别产生大量重复快照而导致后端服务器的存储及计算工作量大的问题,降低了系统处理的复杂性。
附图说明:
图1为本发明的单人特写实时识别与自动截图的流程图;
图2为本发明的人脸检测流程图;
图3为本发明人脸矩形示意图。
具体实施方式:
下面对本发明的具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
除非另有其它明确表示,否则在整个说明书和权利要求书中,术语“包括”或其变换如“包含”或“包括有”等等将被理解为包括所陈述的元件或组成部分,而并未排除其它元件或其它组成部分。
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明进行详细描述。
实时获取直播视频当前的视频帧图像,检测所述视频帧图像中是否存在人脸;若所述视频帧图像中存在人脸,则采用人脸检测模块获得人脸区域,然后对人脸区域进行人脸大小、清晰度、位置以及角度综合评估,进而选取最优人脸;将含有最优人脸的当前视频帧图像截图保存,送入人脸识别模块识别,输出识别结果。该发明可应用与各种大型直播场景下,对视频中出现的单人特写进行识别与截图,当满足截图指标时自动截图保存,方便配图讲解。同时截图指标的设置不仅让所截图像的质量更佳,而且避免了人脸识别中产生大量的重复人脸快照而带来的后端服务器及计算工作量大的问题。如图1所示,本发明一种面向大型直播场景的单人特写实时识别与自动截图方法的流程图,主要包括以下步骤:
步骤1,采集视频进行人脸检测,具体详见图2;
步骤2,对检测到的人脸区域进行人脸跟踪,跟踪算法详见图3;
步骤3,对跟踪到的图像检测人眼,获得人眼位置坐标,通过设定比例求得人脸矩形位置;
步骤4,对每个人脸区域图像进行人脸大小、清晰度、位置以及角度评估后经加权计算得到人脸图像的得分,选取得分最高的作为人脸区域图像中的最优脸;
所述人脸大小评估方法如下:
通过人脸区域图像面积占整幅原始自然人脸图像面积的比例进行评估,具体计算公式如下:
其中,T为设定的人脸有效区域最小面积,可根据实际情况进行设定;Sface表示人脸有效区域面积,即有效区域总像素数;S表示包含人脸图像的原始自然图像面积,即原图像总像素数。
所述人脸清晰度评估方法为:
对人脸区域图像采用Canny算子进行边缘检测,再对检测结果的边缘清晰度和灰度分布情况进行分析,综合这两方面的因素获得图像清晰度指标,其公式计算如下:
1)首先计算图像边缘清晰度指标:
其中,α是边缘点数目占整幅人脸图像的比例。
3)最后,将p和η两个指标进行融合,可得最终的人脸有效区域清晰度指标Q2=0.5(p+η)。
所述人脸位置的评估方法如下:
根据双眼坐标求出脸部矩形的中心坐标(xc,yc),求出归一化后的脸部矩形中心坐标(xc,yc)到人脸图像中心的距离d,归一化准则:使人脸图像中心到其上对角点的距离为到其下对角点的距离为计算人脸位置评价系数Q3:Q3=1-d。
所述人脸角度的评估方法如下:
加权计算得到人脸区域图像的得分方法如下:
1)如果Q1=0,则Vscore=0,Vscore是每帧图像的得分;
2)如果Q1≠0,则Vscore=w1Q1+w2Q2+w3Q3+w4Q4,其中w1+w2+w3+w4=100。
上述权重系数w1=25,w2=30,w3=30,w4=15。
步骤5,将含有最优脸的当前视频帧图像进行截图保存,通过人脸识别模块识别最优脸图像,输出识别结果。
如图2所示,对每帧图像进行预处理,在YCgCr颜色空间下的建立肤色模型,对图像进行肤色检测,获得候选肤色区域,其过程如下:
1)通过如下公式将步骤1的图像序列转换到YCgCr颜色空间:
2)皮肤颜色在YCgCr颜色空间呈高斯分布,建立高斯肤色模型,获得灰度图像,其中高斯分布函数ρ(Cg,Cr)表达式为:
ρ(Cg,Cr)=exp[-0.5(a-K)TC-1(a-K)],
其中a是肤色样本在YCgCr颜色空间中的值,K为肤色样本像素在YCgCr颜色空间中的均值,C为肤色相似度协方差矩阵,均值K和协方差矩阵C可通过以下公式求出:K=E(a),a=(Cr,Cg)T,C=E[(a-K) (a-K)T],
3)按照一定阈值对灰度图像进行二值化操作,大于阈值的像素点置为1表示肤色区域,小于阈值的像素点置为0表示非肤色区域;
4)对二值化处理后采用先膨胀后腐蚀的形态学操作,得到候选肤色区域。
如图3所示,通过双眼位置坐标可以统计比例,求得人脸矩形位置,其中h,t,b为人脸矩形与人眼距离的比例关系,h=0.64,t=0.43,b=1.85,D为双眼的距离。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围内。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。
Claims (5)
1.一种面向大型直播场景的单人特写实时识别与自动截图方法,其特征在于,
具体步骤如下:
步骤1,实时获取直播视频信号,对视频流中的每帧图像中值滤波后转换到YCgCr颜色空间,并建立肤色模型,对图像进行肤色检测,通过形态学处理后去除背景区域,获得候选肤色区域;
步骤2,基于步骤1的肤色检测,采用Adaboost算法训练基于Haar-like特征的人脸分类器对候选肤色区域进行人脸检测,得到人脸区域;
步骤3,采用多尺度Struck跟踪算法对步骤2检测到的人脸区域实时跟踪,并计算跟踪的人脸个数,只有当检测到的人脸个数为1时才保留当前帧图像,其余的舍弃;
步骤4,在步骤3的基础上,采用基于Haar-like特征的Adaboost算法检测人眼,并获得双眼位置坐标L(x1,y1),R(x2,y2),进而通过设定比例求得人脸矩形位置;
步骤5,对每个人脸区域图像进行人脸大小、清晰度、位置以及角度评估后经加权计算得到人脸图像的得分,选取得分最高的作为人脸区域图像中的最优脸;
步骤6,将含有最优脸的当前视频帧图像进行截图保存,送入人脸识别模块,输出识别结果;
步骤5中,所述人脸大小评估方法如下:
通过人脸区域图像面积占整幅原始自然人脸图像面积的比例进行评估,具体计算公式如下:
其中,T为设定的人脸有效区域最小面积,可根据实际情况进行设定;Sface表示人脸有效区域面积,即有效区域总像素数;S表示包含人脸图像的原始自然图像面积,即原图像总像素数;
步骤5中,所述人脸清晰度评估方法如下:
对人脸区域图像采用Canny算子进行边缘检测,再对检测结果的边缘清晰度和灰度分布情况进行分析,综合这两方面的因素获得图像清晰度指标,其公式计算如下:
1)首先计算图像边缘清晰度指标:
其中,α是边缘点数目占整幅人脸图像的比例;
3)最后,将p和η两个指标进行融合,可得最终的人脸有效区域清晰度指标Q2=0.5(p+η);
步骤5中,所述人脸位置的评估方法如下:
根据双眼坐标求出脸部矩形的中心坐标(xc,yc),求出归一化后的脸部矩形中心坐标(xc,yc)到人脸图像中心的距离d,归一化准则:使人脸图像中心到其上对角点的距离为到其下对角点的距离为计算人脸位置评价系数Q3:Q3=1-d;
步骤5中,所述人脸角度的评估方法如下:
步骤5中,所述加权计算得到人脸区域图像的得分方法如下:
1)如果Q1=0,则vscore=0,Vscore是每帧图像的得分;
2)如果Q1≠0,则vscore=w1Q1+w2Q2+w3Q3+w4Q4,其中w1+w2+w3+w4=100;
上述权重系数w1=25,w2=30,w3=30,w4=15。
2.根据权利要求1中所述的-种面向大型直播场景的单人特写实时识别与自动截图方法,其特征在于,步骤2中Adaboost算法,用正负人脸样本训练基于Haar-like特征的强分类器,并将强分类器串联成级联分类器,实现快速实时的人脸检测。
3.根据权利要求1中所述的一种面向大型直播场景的单人特写实时识别与自动截图方法,其特征在于,步骤3多尺度Struck人脸跟踪算法采用高斯核函数,并且支持向量集维数阈值取100。
4.根据权利要求1中所述的一种面向大型直播场景的单人特写实时识别与自动截图方法,其特征在于,步骤1具体为:
对每帧图像进行预处理,在YCgCr颜色空间下的建立肤色模型,对图像进行肤色检测,获得候选肤色区域,其过程如下:
1)通过如下公式将步骤1的图像序列转换到YCgCr颜色空间:
2)皮肤颜色在YCgCr颜色空间呈高斯分布,建立高斯肤色模型,获得灰度图像,其中高斯分布函数ρ(Cg,Cr)表达式为:
ρ(Cg,Cr)=exp[-0.5(a-K)TC-1(a-K)],
其中a是肤色样本在YCgCr颜色空间中的值,K为肤色样本像素在YCgCr颜色空间中的均值,C为肤色相似度协方差矩阵,均值K和协方差矩阵C可通过以下公式求出:K=E(a),a=(Cr,Cg)T,C=E[(a-K)(a-K)T],
3)按照一定阈值对灰度图像进行二值化操作,大于阈值的像素点置为1表示肤色区域,小于阈值的像素点置为0表示非肤色区域;
4)对二值化处理后采用先膨胀后腐蚀的形态学操作,得到候选肤色区域。
5.根据权利要求1中所述的一种面向大型直播场景的单人特写实时识别与自动截图方法,其特征在于,步骤4中,通过双眼位置坐标统计比例,求得人脸矩形位置,其中h,t,b为人脸矩形与人眼距离的比例关系,h=0.64,t=0.43,b=1.85。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810222737.6A CN108491784B (zh) | 2018-03-16 | 2018-03-16 | 面向大型直播场景的单人特写实时识别与自动截图方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810222737.6A CN108491784B (zh) | 2018-03-16 | 2018-03-16 | 面向大型直播场景的单人特写实时识别与自动截图方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108491784A CN108491784A (zh) | 2018-09-04 |
CN108491784B true CN108491784B (zh) | 2021-06-22 |
Family
ID=63339760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810222737.6A Active CN108491784B (zh) | 2018-03-16 | 2018-03-16 | 面向大型直播场景的单人特写实时识别与自动截图方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108491784B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126122B (zh) * | 2018-10-31 | 2023-10-27 | 浙江宇视科技有限公司 | 人脸识别算法评估方法及装置 |
CN111199165B (zh) * | 2018-10-31 | 2024-02-06 | 浙江宇视科技有限公司 | 图像处理方法及装置 |
CN109711390A (zh) * | 2019-01-17 | 2019-05-03 | 深圳英飞拓科技股份有限公司 | 人脸抠图图片的优选方法及装置 |
CN110263680B (zh) * | 2019-06-03 | 2022-01-28 | 北京旷视科技有限公司 | 图像处理方法、装置和系统及存储介质 |
CN110781712B (zh) * | 2019-06-12 | 2023-05-02 | 上海荟宸信息科技有限公司 | 一种基于人脸检测与识别的人头空间定位方法 |
CN110287886A (zh) * | 2019-06-26 | 2019-09-27 | 新疆大学 | 一种人脸跟踪方法和装置 |
CN110298310A (zh) * | 2019-06-28 | 2019-10-01 | 深圳市商汤科技有限公司 | 图像处理方法及装置、电子设备和存储介质 |
CN113051978A (zh) * | 2019-12-27 | 2021-06-29 | 广州慧睿思通科技股份有限公司 | 一种人脸识别方法、电子设备以及可读介质 |
CN111401238B (zh) * | 2020-03-16 | 2023-04-28 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种视频中人物特写片段的检测方法及装置 |
KR20210157052A (ko) * | 2020-06-19 | 2021-12-28 | 삼성전자주식회사 | 객체 인식 방법 및 객체 인식 장치 |
CN112036242B (zh) * | 2020-07-28 | 2023-07-21 | 重庆锐云科技有限公司 | 人脸图片采集方法、装置、计算机设备及存储介质 |
CN113076790B (zh) * | 2020-12-06 | 2021-09-28 | 上海臻客信息技术服务有限公司 | 服务信息大数据监管平台及方法 |
CN112734231B (zh) * | 2021-01-09 | 2021-08-24 | 深圳市瑞驰文体发展有限公司 | 台球赛事管理平台 |
CN113936258A (zh) * | 2021-10-15 | 2022-01-14 | 北京百度网讯科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN114567794B (zh) * | 2022-03-11 | 2023-06-30 | 浙江理工大学 | 一种直播视频背景替换方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101567044A (zh) * | 2009-05-22 | 2009-10-28 | 北京大学 | 一种人脸图像质量检测方法 |
CN102930261A (zh) * | 2012-12-05 | 2013-02-13 | 上海市电力公司 | 一种人脸抓拍识别方法 |
CN103473564A (zh) * | 2013-09-29 | 2013-12-25 | 公安部第三研究所 | 一种基于敏感区域的正面人脸检测方法 |
CN103942525A (zh) * | 2013-12-27 | 2014-07-23 | 高新兴科技集团股份有限公司 | 一种基于视频序列的实时人脸优选方法 |
CN104883548A (zh) * | 2015-06-16 | 2015-09-02 | 金鹏电子信息机器有限公司 | 监控视频人脸抓取处理方法及其系统 |
CN105046245A (zh) * | 2015-08-28 | 2015-11-11 | 深圳英飞拓科技股份有限公司 | 视频人脸检测评价方法 |
CN105913001A (zh) * | 2016-04-06 | 2016-08-31 | 南京邮电大学盐城大数据研究院有限公司 | 基于聚类的在线式多人脸图像处理的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004044771B4 (de) * | 2004-09-16 | 2006-08-24 | Bayerische Motoren Werke Ag | Verfahren zur bildbasierten Fahreridentifikation in einem Kraftfahrzeug |
-
2018
- 2018-03-16 CN CN201810222737.6A patent/CN108491784B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101567044A (zh) * | 2009-05-22 | 2009-10-28 | 北京大学 | 一种人脸图像质量检测方法 |
CN102930261A (zh) * | 2012-12-05 | 2013-02-13 | 上海市电力公司 | 一种人脸抓拍识别方法 |
CN103473564A (zh) * | 2013-09-29 | 2013-12-25 | 公安部第三研究所 | 一种基于敏感区域的正面人脸检测方法 |
CN103942525A (zh) * | 2013-12-27 | 2014-07-23 | 高新兴科技集团股份有限公司 | 一种基于视频序列的实时人脸优选方法 |
CN104883548A (zh) * | 2015-06-16 | 2015-09-02 | 金鹏电子信息机器有限公司 | 监控视频人脸抓取处理方法及其系统 |
CN105046245A (zh) * | 2015-08-28 | 2015-11-11 | 深圳英飞拓科技股份有限公司 | 视频人脸检测评价方法 |
CN105913001A (zh) * | 2016-04-06 | 2016-08-31 | 南京邮电大学盐城大数据研究院有限公司 | 基于聚类的在线式多人脸图像处理的方法 |
Non-Patent Citations (2)
Title |
---|
Design and evaluation of photometric image quality measures for effective face recognition;Ayman Abaza等;《IET BIOMETRICS》;20140430;全文 * |
人脸识别中的人脸图像质量快速评价;杨飞等;《第27届中国控制会议论文集》;20080731;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108491784A (zh) | 2018-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108491784B (zh) | 面向大型直播场景的单人特写实时识别与自动截图方法 | |
CN108388885B (zh) | 面向大型直播场景的多人特写实时识别与自动截图方法 | |
CN108334848B (zh) | 一种基于生成对抗网络的微小人脸识别方法 | |
US7848548B1 (en) | Method and system for robust demographic classification using pose independent model from sequence of face images | |
CN107292252B (zh) | 一种自主学习的身份识别方法 | |
CN112686812B (zh) | 银行卡倾斜矫正检测方法、装置、可读存储介质和终端 | |
CN111104943B (zh) | 基于决策级融合的彩色图像感兴趣区域提取方法 | |
CN109685045B (zh) | 一种运动目标视频跟踪方法及系统 | |
EP1229493A2 (en) | Multi-mode digital image processing method for detecting eyes | |
JP2017531883A (ja) | 画像の主要被写体を抽出する方法とシステム | |
CN107358141B (zh) | 数据识别的方法及装置 | |
CN109918971B (zh) | 监控视频中人数检测方法及装置 | |
CN105893946A (zh) | 一种正面人脸图像的检测方法 | |
CN109190456B (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
CN110059634B (zh) | 一种大场景人脸抓拍方法 | |
US11475707B2 (en) | Method for extracting image of face detection and device thereof | |
CN111209818A (zh) | 视频个体识别方法、系统、设备及可读存储介质 | |
CN108875623B (zh) | 一种基于图像特征融合对比技术的人脸识别方法 | |
WO2013075295A1 (zh) | 低分辨率视频的服装识别方法及系统 | |
Li et al. | CG-DIQA: No-reference document image quality assessment based on character gradient | |
CN112784712A (zh) | 一种基于实时监控的失踪儿童预警实现方法、装置 | |
Ali et al. | A robust and efficient system to detect human faces based on facial features | |
WO2017116226A1 (en) | System and method to identify identification plate characters using background estimation binarization | |
Donate et al. | Classification of textures distorted by waterwaves | |
Patil et al. | A novel method for illumination normalization for performance improvement of face recognition system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |