CN111061914B - 一种基于人脸识别技术选取特定人脸视频片段的方法 - Google Patents
一种基于人脸识别技术选取特定人脸视频片段的方法 Download PDFInfo
- Publication number
- CN111061914B CN111061914B CN201911255820.4A CN201911255820A CN111061914B CN 111061914 B CN111061914 B CN 111061914B CN 201911255820 A CN201911255820 A CN 201911255820A CN 111061914 B CN111061914 B CN 111061914B
- Authority
- CN
- China
- Prior art keywords
- face
- video
- frame
- bit
- video clip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000005516 engineering process Methods 0.000 title claims abstract description 25
- 230000001815 facial effect Effects 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 18
- 230000008034 disappearance Effects 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 6
- 208000029152 Small face Diseases 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012937 correction Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000013467 fragmentation Methods 0.000 abstract description 5
- 238000006062 fragmentation reaction Methods 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 9
- 210000000887 face Anatomy 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7837—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
- G06F16/784—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Television Signal Processing For Recording (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于人脸识别技术选取特定人脸视频片段的方法,涉及视频处理技术领域。本发明在人脸识别技术步骤S03与步骤S04之间依次设置步骤S031、步骤S032、步骤S033;步骤S021:设置可配置参数X、参数M、参数N;步骤S031:在基准至上选取C位框的区域范围,标定该人物对应的视频片段Clips为C位,否则为非C位,取该视频片段Clips中主角人脸面积最大X帧的平均面积;步骤S032:对步骤S031中的C位进一步判断;步骤S033:权重的分配和优劣排序。本发明解决了现有的人脸识别和智慧视频技术获取并生成的Clips碎片化程度高,新的Clips支离破碎,不能连续的观看、生硬、突兀问题。
Description
技术领域
本发明属于视频处理技术领域,特别是涉及一种基于人脸识别技术选取特定人脸视频片段的方法。
背景技术
人脸识别(Face Recognition)技术是一种依据人的面部特征(如统计或几何特征等),自动进行身份识别的一种生物识别技术,又称为面像识别、人像识别、相貌识别、面孔识别、面部识别等。通常我们所说的人脸识别是基于光学人脸图像的身份识别与验证的简称。人脸检测算法、人脸跟踪算法、人脸抓拍算法、人脸质量评分算法、人脸属性识别算法及人脸特征识别算法。利用高精度人脸模型,提供一种直接从数据出发(输入端原始图像),经过网络结构模型得到最终结果(输出端)的端到端的模式。要完成对某一视频文件或视频流中人脸识别,首先需要对其中的人脸进行检测并跟踪,然后根据最优帧的人脸图片,进行人脸特征提取,并与人脸特征库进行匹配,给出命中人脸的ID号,完成人物的识别;
智慧视频技术所属的技术领域为人工智能领域,应用于视频自动生产环节中,基于人脸识别和视频自动生成双引擎,将原视频中人脸片段筛选、切分,并将新视频拼接、生成,在几分钟内生成个人专属视频;在人数众多的场景中,能根据用户需要快速制作个人视频集锦;
但是基于人脸识别和现有的智慧视频技术定位、生成Clips的方法由机器根据实际情况如实获得,这种方法会出现如下不理想的情况:生成的Clips碎片化程度高;特定人脸A面部特征在原视频B中仅消失短暂的几帧,就会被生成到新的Clips中造成新生成的Clips支离破碎,不能连续的观看。Clips观看效果生硬、突兀;从特定人脸A面部特征出现到结束生成Clips,没有开始的铺垫和结尾。因此针对以上问题,对人脸识别技术进行优化,提供一种基于人脸识别技术选取特定人脸视频片段的方法具有重要意义。
发明内容
本发明的一种基于人脸识别技术选取特定人脸视频片段的方法,解决了现有的人脸识别和智慧视频技术获取并生成的Clips碎片化程度高,特定人脸A面部特征在原视频B中仅消失短暂的几帧,就会被生成到新的Clips中造成新生成的Clips支离破碎,不能连续的观看,Clips观看效果生硬、突兀,从特定人脸A面部特征出现到结束生成Clips,没有开始的铺垫和结尾的问题。
为解决上述技术问题,本发明是通过以下技术方案实现的:
本发明的一种基于人脸识别技术选取特定人脸视频片段的方法,基于人脸识别技术实现,用于获取特定人脸视频片段,包括以下步骤;
S01:首先建立人脸特征库,包括面部的眼睛、鼻子和嘴巴特征,通过对源视频文件B的人脸区域进行检测和跟踪进行人脸定位;
S02:然后进行人脸矫正并进行源视频文件B的人脸特征提取,通过将人脸特征库中的特征与源视频文件B中的人脸特征进行比对并获得特征匹配;
S03:上述方法应用于源视频文件B某一特定人脸A出现的片段,并以该片段中特定人脸A的面部特征出现为起始帧,面部消失为结束帧;
S04:然后利用ffmpeg程序对起始帧和结束帧之间的连续帧部分进行重新编码生成新的视频文件,从而获得某一张特定人脸A的个人视频片段Clips;
S05:利用步骤S03和S04,由源视频文件B中定位并生成特定人脸A的若干个人视频片段C1、C2...Cn;
在所述步骤S02与步骤S03之前设置步骤S021,在所述步骤S03与步骤S04之间依次设置步骤S031、步骤S032、步骤S033;
所述步骤S021内容为:设置可配置参数X、参数M、参数N;参数X定义为:当X大于特定人脸A面部特征在源视频文件B中消失至再次出现之间的时间时,则分切成两个视频片段Clips;当参数X小于“特定人脸A面部特征在源视频文件B中消失至再次出现之间的时间时,则保留成一个视频片段Clips;参数M定义为:特定人脸A面部特征在源视频文件B中出现前补偿的时间;参数N定义为:特定人脸A面部特征在源视频文件B中消失后补偿的时间;
所述步骤S031内容为:对所述源视频文件B某一特定人脸A出现的片段以视频分辨率为基准,在基准至上选取C位框的区域范围,并规定视频片段Clips中特定人脸A只要在C位框的区域范围内出现过,且出现的人脸面积最大帧的主角人脸面积满足C位框最小面积A1,则标定该人物对应的视频片段Clips为C位,否则标记该人物对应的视频片段Clips为非C位,每个所述视频片段Clips都附带该视频片段Clips的全部帧的信息,取该所述视频片段Clips中主角人脸面积最大X帧的平均面积;若判定为非C位,则进行下一步骤S032对步骤步骤S031中C位继续进行分析;
所述步骤S032内容为:取C位框区域范围的对角线交叉点计算人脸范围框对角线交叉点/>距离/>的距离11,其计算公式为:
并对步骤S031中的C位进一步判断:以一个人脸的所有C位的视频片段Clips为例:取步骤S031中标记的视频片段Clips,计算并标记每个视频片段Clips中距离点最近的帧Fi;当标记Fi之后,取Fi帧出现的人脸,判断在该帧中,C位人员的脸面积是否为该帧中最大,如果不是最大,则取消该视频片段Clips的C位标记;如果是,则判断所述Fi帧中,C位人员脸范围框对角线/>距离/>点距离是否在Fi帧出现的人脸中距离/>点距离最近,如果不是,则取消该视频片段Clips的C位标记;
所述步骤S033的内容为:对步骤S031和步骤S032过后的视频片段Clips进行权重的分配,取步骤S032中X帧平均人脸面积a,取步骤S033中距离点最近帧主角人脸面积b,根据不同拍摄场景选用不同模式确定权重Q1和权重Q2,且Q1>Q2,按照权重计算方式对视频片段Clips的权重进行优劣排序。
进一步地,所述步骤S033中权重计算方式包括普通模式的计算:将b*Q1,a*Q2作为计算视频片段Clips的权重,其目的是将距离点距离最近和人脸面积最大的C位排在最前面,距离/>点距离远和人脸面积小的人脸可能会排在非C位之后,其选择条件为:非C位,人脸面积大。
进一步地,所述步骤S033中权重计算方式还包括泾渭分明模式的计算:将b*1000*Q1,a*0.001*Q2作为计算视频片段Clips的权重,目的是将分配权重后的C位和非C位区分,C位权重始终高于非C位权重。
进一步地,所述视频片段Clips为人物的面孔一直出现在画面中不曾消失的最小视频流数据单位。
进一步地,所述参数X、参数M、参数N的数值根据不同的视频内容需求进行设定,所述参数X、M、N的单位均为秒,其精度精确至毫秒。
进一步地,所述步骤S031中视频片段Clips的全部帧的信息包括但不局限于每帧出现的人脸、以及出现的人脸坐标、每帧人脸范围中心点距离画面中心点的距离、人脸出现的占比、性别、民族、仰角、俯角、睁眼、闭眼、张嘴、闭嘴状态信息。
进一步地,所述ffmpeg程序为是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。
本发明相对于现有技术包括以下有益效果:
1、本发明通过在设置可配置参数X、可配置参数M和可配置参数N,当X大于特定人脸A面部特征在原视频B中消失至再次出现之间的时间时,则分切成两个Clips,当X小于“特定人脸A面部特征在原视频B中消失至再次出现之间的时间时,则保留成为一个Clips,并在特定人脸A面部特征在原视频B中出现前补偿可配置参数M时间,在特定人脸A面部特征在原视频B中消失后补偿的可配置参数N时间,使特定人脸A面部特征出现到结束生成视频片段Clips,对开始至结尾具有补偿和铺垫,弥补可能消失的短暂帧数,使视频片段Clips观看的过渡效果更加连贯且柔顺自然。
2、本发明通过建立C位框,确定人脸面积最大帧的主角人脸面积满足C位最小面积A1对其视频片段Clips标记为C位,并通过面积比较、计算人脸范围框对角线交叉点距离进行确定的最优的视频片段Clips的C位,并对视频片段Clips进行权重的分配进行优劣排序,获取最优的视频片段Clips,其权重分配模式根据需要选用基于非C位,人脸面积大条件下的普通模式,和C位权重始终高于非C位权重下的泾渭分明模式;使获取视频片段Clips更加保真、清晰、连贯和自然,碎片化程度低。
当然,实施本发明的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的一种基于人脸识别技术选取特定人脸视频片段的方法的整体步骤图;
图2为现有技术中人脸识别流程图;
图3为图1中步骤S03的具体实施图;
图4为图1的基于步骤S021中可配置参数X设置后步骤S03的具体实施图;
图5为图1的基于步骤S021中可配置参数X、可配置参数M、可配置参数N设置后步骤S03的具体实施图;
图6为图1中步骤S031的基准—C位框图示意图;
图7为基于图6的步骤S031的C位/非C位的示意图;
图8为基于图6的步骤S032的基准—C位的示意图;
图9为基于步骤S033中普通模式下的多个视频片段Clips的C位和非C位的关系示意图;
图10为基于步骤S033中泾渭分明模式下的多个视频片段Clips的C位和非C位的关系示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参阅图1-10所示,本发明的一种基于人脸识别技术选取特定人脸视频片段的方法,基于人脸识别技术实现,用于获取特定人脸视频片段,包括以下步骤;如图1-2所示;
S01:首先建立人脸特征库,包括面部的眼睛、鼻子和嘴巴特征,通过对源视频文件B的人脸区域进行检测和跟踪进行人脸定位;
S02:然后进行人脸矫正并进行源视频文件B的人脸特征提取,通过将人脸特征库中的特征与源视频文件B中的人脸特征进行比对并获得特征匹配;
如图3所示,S03:上述方法应用于源视频文件B某一特定人脸A出现的片段,并以该片段中特定人脸A的面部特征出现为起始帧,面部消失为结束帧;
S04:然后利用ffmpeg程序对起始帧和结束帧之间的连续帧部分进行重新编码生成新的视频文件,从而获得某一张特定人脸A的个人视频片段Clips;
S05:利用步骤S03和S04,由源视频文件B中定位并生成特定人脸A的若干个人视频片段C1、C2...Cn;上述步骤S01-S05为现有技术;
在步骤S02与步骤S03之前设置步骤S021,在所述步骤S03与步骤S04之间依次设置步骤S031、步骤S032、步骤S033;
如图4-5所示,步骤S021内容为:设置可配置参数X、参数M、参数N;参数X定义为:当X大于特定人脸A面部特征在源视频文件B中消失至再次出现之间的时间时,则分切成两个视频片段Clips;当参数X小于“特定人脸A面部特征在源视频文件B中消失至再次出现之间的时间时,则保留成一个视频片段Clips;参数M定义为:特定人脸A面部特征在源视频文件B中出现前补偿的时间;参数N定义为:特定人脸A面部特征在源视频文件B中消失后补偿的时间;
如图6所示,步骤S031内容为:对源视频文件B某一特定人脸A出现的片段以视频分辨率为基准,在基准至上选取C位框的区域范围,并规定视频片段Clips中特定人脸A只要在C位框的区域范围内出现过,且出现的人脸面积最大帧的主角人脸面积满足C位框最小面积A1,则标定该人物对应的视频片段Clips为C位,否则标记该人物对应的视频片段Clips为非C位,每个视频片段Clips都附带该视频片段Clips的全部帧的信息,取该视频片段Clips中主角人脸面积最大X帧的平均面积;若判定为非C位,则进行下一步骤S032对步骤步骤S031中C位继续进行分析;步骤S031设置原因在于,经步骤S02生成的视频片段Clips数量多,但是可用视频片段Clips不多,基于人脸识别引擎分析出的人脸时间顺序数据基础上,做进一步的分析提取;
如图8所示,步骤S032内容为:取C位框区域范围的对角线交叉点计算人脸范围框对角线交叉点/>距离/>的距离11,其计算公式为:
并对步骤S031中的C位进一步判断:以一个人脸的所有C位的视频片段Clips为例:取步骤S031中标记的视频片段Clips,计算并标记每个视频片段Clips中距离点最近的帧Fi;当标记Fi之后,取Fi帧出现的人脸,判断在该帧中,C位人员的脸面积是否为该帧中最大,如果不是最大,则取消该视频片段Clips的C位标记;如果是,则判断所述Fi帧中,C位人员脸范围框对角线/>距离/>点距离是否在Fi帧出现的人脸中距离/>点距离最近,如果不是,则取消该视频片段Clips的C位标记;
步骤S033的内容为:对步骤S031和步骤S032过后的视频片段Clips进行权重的分配,取步骤S032中X帧平均人脸面积a,取步骤S033中距离点最近帧主角人脸面积b,根据不同拍摄场景选用不同模式确定权重Q1和权重Q2,且Q1>Q2,按照权重计算方式对视频片段Clips的权重进行优劣排序。
如图9所示,其中,步骤S033中权重计算方式包括普通模式的计算:
将b*Q1,a*Q2作为计算视频片段Clips的权重,其目的是将距离点距离最近和人脸面积最大的C位排在最前面,距离/>点距离远和人脸面积小的人脸可能会排在非C位之后,其选择条件为:非C位,人脸面积大。
如图10所示,其中,步骤S033中权重计算方式还包括泾渭分明模式的计算:
将b*1000*Q1,a*0.001*Q2作为计算视频片段Clips的权重,目的是将分配权重后的C位和非C位区分,C位权重始终高于非C位权重。
其中,视频片段Clips为人物的面孔一直出现在画面中不曾消失的最小视频流数据单位。
其中,参数X、参数M、参数N的数值根据不同的视频内容需求进行设定,所述参数X、M、N的单位均为秒,其精度精确至毫秒。
其中,步骤S031中视频片段Clips的全部帧的信息包括但不局限于每帧出现的人脸、以及出现的人脸坐标、每帧人脸范围中心点距离画面中心点的距离、人脸出现的占比、性别、民族、仰角、俯角、睁眼、闭眼、张嘴、闭嘴状态信息。
其中,ffmpeg程序为是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。
本发明相对于现有技术的有益效果包括:
2、本发明通过在设置可配置参数X、可配置参数M和可配置参数N,当X大于特定人脸A面部特征在原视频B中消失至再次出现之间的时间时,则分切成两个Clips,当X小于“特定人脸A面部特征在原视频B中消失至再次出现之间的时间时,则保留成为一个Clips,并在特定人脸A面部特征在原视频B中出现前补偿可配置参数M时间,在特定人脸A面部特征在原视频B中消失后补偿的可配置参数N时间,使特定人脸A面部特征出现到结束生成视频片段Clips,对开始至结尾具有补偿和铺垫,弥补可能消失的短暂帧数,使视频片段Clips观看的过渡效果更加连贯且柔顺自然。
3、本发明通过建立C位框,确定人脸面积最大帧的主角人脸面积满足C位最小面积A1对其视频片段Clips标记为C位,并通过面积比较、计算人脸范围框对角线交叉点距离进行确定的最优的视频片段Clips的C位,并对视频片段Clips进行权重的分配进行优劣排序,获取最优的视频片段Clips,其权重分配模式根据需要选用基于非C位,人脸面积大条件下的普通模式,和C位权重始终高于非C位权重下的泾渭分明模式;使获取视频片段Clips更加保真、清晰、连贯和自然,碎片化程度低。
以上公开的本发明优选实施例只是用于帮助阐述本发明。优选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本说明书的内容,可作很多的修改和变化。本说明书选取并具体描述这些实施例,是为了更好地解释本发明的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本发明。本发明仅受权利要求书及其全部范围和等效物的限制。
Claims (7)
1.一种基于人脸识别技术选取特定人脸视频片段的方法,基于人脸识别技术实现,用于获取特定人脸视频片段,包括以下步骤;
S01:首先建立人脸特征库,包括面部的眼睛、鼻子和嘴巴特征,通过对源视频文件B的人脸区域进行检测和跟踪进行人脸定位;
S02:然后进行人脸矫正并进行源视频文件B的人脸特征提取,通过将人脸特征库中的特征与源视频文件B中的人脸特征进行比对并获得特征匹配;
S03:上述方法应用于源视频文件B某一特定人脸A出现的片段,并以该片段中特定人脸A的面部特征出现为起始帧,面部消失为结束帧;
S04:然后利用ffmpeg程序对起始帧和结束帧之间的连续帧部分进行重新编码生成新的视频文件,从而获得某一张特定人脸A的个人视频片段Clips;
S05:利用步骤S03和S04,由源视频文件B中定位并生成特定人脸A的若干个人视频片段C1、C2...Cn;其特征在于:
在所述步骤S02与步骤S03之前设置步骤S021,在所述步骤S03与步骤S04之间依次设置步骤S031、步骤S032、步骤S033;
所述步骤S021内容为:设置可配置参数X、参数M、参数N;参数X定义为:当X大于特定人脸A面部特征在源视频文件B中消失至再次出现之间的时间时,则分切成两个视频片段Clips;当参数X小于“特定人脸A面部特征在源视频文件B中消失至再次出现之间的时间时,则保留成一个视频片段Clips;参数M定义为:特定人脸A面部特征在源视频文件B中出现前补偿的时间;参数N定义为:特定人脸A面部特征在源视频文件B中消失后补偿的时间;
所述步骤S031内容为:对所述源视频文件B某一特定人脸A出现的片段以视频分辨率为基准,在基准之上选取C位框的区域范围,并规定视频片段Clips中特定人脸A只要在C位框的区域范围内出现过,且出现的人脸面积最大帧的主角人脸面积满足C位框最小面积A1,则标定该人物对应的视频片段Clips为C位,否则标记该人物对应的视频片段Clips为非C位,每个所述视频片段Clips都附带该视频片段Clips的全部帧的信息,取该所述视频片段Clips中主角人脸面积最大X帧的平均面积;若判定为非C位,则进行下一步骤S032对步骤S031中C位继续进行分析;
所述步骤S032内容为:取C位框区域范围的对角线交叉点计算人脸范围框对角线交叉点/>距离/>的距离l1,其计算公式为:
并对步骤S031中的C位进一步判断:以一个人脸的所有C位的视频片段Clips为例:取步骤S031中标记的视频片段Clips,计算并标记每个视频片段Clips中距离点最近的帧Fi;当标记Fi之后,取Fi帧出现的人脸,判断在该帧中,C位人员的脸面积是否为该帧中最大,如果不是最大,则取消该视频片段Clips的C位标记;如果是,则判断所述Fi帧中,C位人员脸范围框对角线/>距离/>点距离是否在Fi帧出现的人脸中距离/>点距离最近,如果不是,则取消该视频片段Clips的C位标记;
所述步骤S033的内容为:对步骤S031和步骤S032过后的视频片段Clips进行权重的分配,取步骤S032中X帧平均人脸面积a,取步骤S033中距离点最近帧主角人脸面积b,根据不同拍摄场景选用不同模式确定权重Q1和权重Q2,且Q1>Q2,按照权重计算方式对视频片段Clips的权重进行优劣排序。
2.根据权利要求1所述的一种基于人脸识别技术选取特定人脸视频片段的方法,其特征在于,所述步骤S033中权重计算方式包括普通模式的计算:
将b*Q1,a*Q2作为计算视频片段Clips的权重,其目的是将距离点距离最近和人脸面积最大的C位排在最前面,距离/>点距离远和人脸面积小的人脸可能会排在非C位之后,其选择条件为:非C位,人脸面积大。
3.根据权利要求1所述的一种基于人脸识别技术选取特定人脸视频片段的方法,其特征在于,所述步骤S033中权重计算方式还包括泾渭分明模式的计算:
将b*1000*Q1,a*0.001*Q2作为计算视频片段Clips的权重,目的是将分配权重后的C位和非C位区分,C位权重始终高于非C位权重。
4.根据权利要求1所述的一种基于人脸识别技术选取特定人脸视频片段的方法,其特征在于,所述视频片段Clips为人物的面孔一直出现在画面中不曾消失的最小视频流数据单位。
5.根据权利要求1所述的一种基于人脸识别技术选取特定人脸视频片段的方法,其特征在于,所述参数X、参数M、参数N的数值根据不同的视频内容需求进行设定,所述参数X、M、N的单位均为秒,其精度精确至毫秒。
6.根据权利要求1所述的一种基于人脸识别技术选取特定人脸视频片段的方法,其特征在于,所述步骤S031中视频片段Clips的全部帧的信息包括但不局限于每帧出现的人脸、以及出现的人脸坐标、每帧人脸范围中心点距离画面中心点的距离、人脸出现的占比、性别、民族、仰角、俯角、睁眼、闭眼、张嘴、闭嘴状态信息。
7.根据权利要求1所述的一种基于人脸识别技术选取特定人脸视频片段的方法,其特征在于,所述ffmpeg程序为是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911255820.4A CN111061914B (zh) | 2019-12-10 | 2019-12-10 | 一种基于人脸识别技术选取特定人脸视频片段的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911255820.4A CN111061914B (zh) | 2019-12-10 | 2019-12-10 | 一种基于人脸识别技术选取特定人脸视频片段的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111061914A CN111061914A (zh) | 2020-04-24 |
CN111061914B true CN111061914B (zh) | 2024-01-02 |
Family
ID=70300245
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911255820.4A Active CN111061914B (zh) | 2019-12-10 | 2019-12-10 | 一种基于人脸识别技术选取特定人脸视频片段的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111061914B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111614899B (zh) * | 2020-05-15 | 2021-11-23 | 高斯贝尔数码科技股份有限公司 | 一种基于人脸识别的定制化视频内容产生方法和系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104616243A (zh) * | 2015-01-20 | 2015-05-13 | 北京大学 | 一种高效的gpu三维视频融合绘制方法 |
CN105183758A (zh) * | 2015-07-22 | 2015-12-23 | 深圳市万姓宗祠网络科技股份有限公司 | 一种连续记录视频、影像的内容识别方法 |
CN105323634A (zh) * | 2014-06-27 | 2016-02-10 | Tcl集团股份有限公司 | 一种视频的缩略图生成方法及系统 |
CN110009659A (zh) * | 2019-04-12 | 2019-07-12 | 武汉大学 | 基于多目标运动跟踪的人物视频片段提取方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10956494B2 (en) * | 2017-03-02 | 2021-03-23 | Ricoh Company, Ltd. | Behavioral measurements in a video stream focalized on keywords |
AU2018271424A1 (en) * | 2017-12-13 | 2019-06-27 | Playable Pty Ltd | System and Method for Algorithmic Editing of Video Content |
-
2019
- 2019-12-10 CN CN201911255820.4A patent/CN111061914B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105323634A (zh) * | 2014-06-27 | 2016-02-10 | Tcl集团股份有限公司 | 一种视频的缩略图生成方法及系统 |
CN104616243A (zh) * | 2015-01-20 | 2015-05-13 | 北京大学 | 一种高效的gpu三维视频融合绘制方法 |
CN105183758A (zh) * | 2015-07-22 | 2015-12-23 | 深圳市万姓宗祠网络科技股份有限公司 | 一种连续记录视频、影像的内容识别方法 |
CN110009659A (zh) * | 2019-04-12 | 2019-07-12 | 武汉大学 | 基于多目标运动跟踪的人物视频片段提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111061914A (zh) | 2020-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6028960A (en) | Face feature analysis for automatic lipreading and character animation | |
KR101490016B1 (ko) | 인물 화상 처리 장치 및 인물 화상 처리 방법 | |
JP5766564B2 (ja) | 顔認証装置及び顔認証方法 | |
JP7119907B2 (ja) | 顔認識モデルの訓練方法及び訓練装置 | |
CN108600865B (zh) | 一种基于超像素分割的视频摘要生成方法 | |
JP2008501172A (ja) | 画像比較方法 | |
WO2006097902A2 (en) | Method of performing face recognition | |
Chetty et al. | Automated lip feature extraction for liveness verification in audio-video authentication | |
JP2004086891A (ja) | デジタル画像におけるオブジェクト検出方法 | |
KR20070016849A (ko) | 얼굴 검출과 피부 영역 검출을 적용하여 피부의 선호색변환을 수행하는 방법 및 장치 | |
CN112487978B (zh) | 一种视频中说话人定位的方法、装置及计算机存储介质 | |
US10586098B2 (en) | Biometric method | |
CN113343878A (zh) | 基于生成对抗网络的高保真人脸隐私保护方法和系统 | |
US20240135956A1 (en) | Method and apparatus for measuring speech-image synchronicity, and method and apparatus for training model | |
CN111061914B (zh) | 一种基于人脸识别技术选取特定人脸视频片段的方法 | |
Pigeon et al. | Image-based multimodal face authentication | |
CN114466179A (zh) | 语音与图像同步性的衡量方法及装置 | |
KR101756919B1 (ko) | 얼굴 인식 장치 및 방법 | |
CN114494930B (zh) | 语音与图像同步性衡量模型的训练方法及装置 | |
KR102194511B1 (ko) | 대표 영상프레임 결정시스템 및 이를 이용한 방법 | |
CN108540867B (zh) | 影片校正方法及系统 | |
CN111062289A (zh) | 一种选取特定人脸视频片段替换模板窗口成短视频的方法 | |
CN112818728B (zh) | 年龄识别的方法及相关产品 | |
CN114466178A (zh) | 语音与图像同步性的衡量方法及装置 | |
Pigeon et al. | Multiple experts for robust face authentication |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |