CN109711297A - 基于面部图片的风险识别方法、装置、计算机设备及存储介质 - Google Patents

基于面部图片的风险识别方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN109711297A
CN109711297A CN201811535312.7A CN201811535312A CN109711297A CN 109711297 A CN109711297 A CN 109711297A CN 201811535312 A CN201811535312 A CN 201811535312A CN 109711297 A CN109711297 A CN 109711297A
Authority
CN
China
Prior art keywords
risk
hand
recognition result
face
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811535312.7A
Other languages
English (en)
Inventor
胡艺飞
徐国强
邱寒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OneConnect Smart Technology Co Ltd
Original Assignee
OneConnect Smart Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OneConnect Smart Technology Co Ltd filed Critical OneConnect Smart Technology Co Ltd
Priority to CN201811535312.7A priority Critical patent/CN109711297A/zh
Publication of CN109711297A publication Critical patent/CN109711297A/zh
Priority to PCT/CN2019/120987 priority patent/WO2020119450A1/zh
Priority to EP19895730.0A priority patent/EP3896601A4/en
Priority to JP2021516611A priority patent/JP7078803B2/ja
Priority to KR1020217013932A priority patent/KR20210100602A/ko
Priority to SG11202103323VA priority patent/SG11202103323VA/en
Priority to PH12021551368A priority patent/PH12021551368A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • G06V10/763Non-hierarchical techniques, e.g. based on statistics of modelling distributions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明公开了一种基于面部图片的风险识别方法、装置、计算机设备和存储介质,该方法包括获取客户回复预设问题时的视频数据;采用预先训练好的遮挡识别模型对视频数据进行图像识别,识别结果包括手部遮挡脸部图像和手部未遮挡脸部图像;获取每一手部遮挡脸部图像对应的手部遮挡位脸部位置,基于所有手部遮挡脸部图像对应的手部遮挡脸部位置,获取紧张程度识别结果;将手部未遮挡脸部图像输入至预先训练好的安全判断模型中,获取风险程度识别结果;根据紧张程度识别结果和风险程度识别结果,确定风险预警识别结果,若风险预警识别结果大于第一预设阈值,则视频数据为风险预警数据,以解决视频数据分析过程中,因手部遮挡脸部造成识别不准确的问题。

Description

基于面部图片的风险识别方法、装置、计算机设备及存储介质
技术领域
本发明涉及智能决策领域,尤其涉及一种基于面部图片的风险识别方法、装置、计算机设备及存储介质。
背景技术
目前,通常客户在贷款面审过程中,会实时录取客户回答问题时的视频数据,可以通过风险识别模型分析视频数据中客户的微表情来判断客户是否含有风险,但是客户在面审过程中可能因为过度紧张等行为导致手部遮挡脸部,使得不能通过识别视频数据中的微表情进行风险识别模型分析,导致分析结果不准确。
发明内容
本发明实施例提供一种基于面部图片的风险识别方法、装置、计算机设备及存储介质,以解决视频数据分析过程中,因手部遮挡脸部造成识别不准确的问题。
一种基于面部图片的风险识别方法,包括:
获取客户回复预设问题时的视频数据;
采用预先训练好的遮挡识别模型对所述视频数据进行图像识别,识别结果包括手部遮挡脸部图像和手部未遮挡脸部图像;
获取每一所述手部遮挡脸部图像对应的手部遮挡位脸部位置,基于所有所述手部遮挡脸部图像对应的手部遮挡脸部位置,获取紧张程度识别结果;
将所述手部未遮挡脸部图像输入至预先训练好的安全判断模型中,获取风险程度识别结果;
根据所述紧张程度识别结果和所述风险程度识别结果,确定风险预警识别结果,若所述风险预警识别结果大于第一预设阈值,则所述视频数据为风险预警数据。
一种基于面部图片的风险识别装置,包括:
视频数据获取模块,用于获取客户回复预设问题时的视频数据;
图像识别模块,用于采用预先训练好的遮挡识别模型对所述视频数据进行图像识别,识别结果包括手部遮挡脸部图像和手部未遮挡脸部图像;
第一识别结果获取模块,用于获取每一所述手部遮挡脸部图像对应的手部遮挡位脸部位置,基于所有所述手部遮挡脸部图像对应的手部遮挡脸部位置,获取紧张程度识别结果;
第二识别结果获取模块,用于将所述手部未遮挡脸部图像输入至预先训练好的安全判断模型中,获取风险程度识别结果;
风险判别模块,用于根据所述紧张程度识别结果和所述风险程度识别结果,确定风险预警识别结果,若所述风险预警识别结果大于第一预设阈值,则所述视频数据为风险预警数据。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于面部图片的风险识别方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于面部图片的风险识别方法的步骤。
上述基于面部图片的风险识别方法、装置、计算机设备及存储介质,通过获取客户回复预设问题时的视频数据,以便后续根据视频数据进行风险识别。采用预先训练好的遮挡识别模型对视频数据进行图像识别,识别结果包括手部遮挡脸部图像和手部未遮挡脸部图像,实现视频数据的分类,以便后续根据分类结果分别进行处理,提高风险识别的准确率。然后,获取每一手部遮挡脸部图像对应的手部遮挡位脸部位置,基于所有手部遮挡脸部图像对应的手部遮挡脸部位置,以快速获取到紧张程度识别结果,实现根据手部遮挡脸部图像进行风险识别。并且,将手部未遮挡脸部图像输入至预先训练好的安全判断模型中,以快速获取风险程度识别结果,获取过程简单方便,实现根据手部未遮挡脸部图像进行风险识别。最后,根据紧张程度识别结果和风险程度识别结果,确定风险预警识别结果,若风险预警识别结果大于第一预设阈值,则视频数据为风险预警数据,实现对视频数据中面部图片的风险识别。通过分别对视频数据中手部遮挡脸部图像和手部未遮挡脸部图像分别进行风险识别,提高风险识别的准确率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例中基于面部图片的风险识别方法的应用环境示意图;
图2是本发明一实施例中基于面部图片的风险识别方法的流程图;
图3是本发明一实施例中基于面部图片的风险识别方法的流程图;
图4是本发明一实施例中基于面部图片的风险识别方法的流程图;
图5是本发明一实施例中基于面部图片的风险识别方法的流程图;
图6是本发明一实施例中基于面部图片的风险识别方法的流程图;
图7是本发明一实施例中基于面部图片的风险识别方法的流程图;
图8是本发明一实施例中基于面部图片的风险识别装置的原理框图;
图9是本发明一实施例中计算机设备的一示意图。
具体实施方式
下面将结和本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的基于面部图片的风险识别方法,可应用在如图1的应用环境中,该基于面部图片的风险识别方法应用在服务端中,服务端与客户端通信连接。服务端通过预先训练好的遮挡识别模型对在面审过程中的视频数据进行分析,获取视频数据中手部遮挡脸部图像和手部未遮挡脸部图像,再对手部遮挡脸部图像和手部未遮挡脸部图像进行分析,分别获取到紧张程度识别结果和风险程度识别结果,并通过紧张程度识别结果和风险程度识别结果确定风险预警识别结果,提高风险识别效率。其中,客户端可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务端可以用独立的服务端或者是多个服务端组成的服务端集群来实现。
在一实施例中,如图2所示,提供一种基于面部图片的风险识别方法,以该方法应用在图1中的服务端为例进行说明,具体包括如下步骤:
S10:获取客户回复预设问题时的视频数据。
其中,视频数据是指客户在面审过程中回复预设问题时的录制的视频。该视频数据包括至少一帧待识别图像,该待识别图像是指客户在面审过程中回复预设问题时的每一帧图像,每一帧待识别图像中采集客户回复预设问题的微表情。
具体地,服务端中预先配置有面审过程中进行提问的问题(即预设问题),当进行视频面审时,调用预设问题,客户可基于预设问题进行回答,并实时获取客户回答预设问题时的视频数据。可以理解地,可以是只获取客户基于敏感性提问问题对应的视频数据(例如,敏感性提问问题为“月工资多少?”),也可以获取非敏感性提问问题和敏感性提问问题对应的视频数据,该视频数据中包含至少一帧待识别图像。
S20:采用预先训练好的遮挡识别模型对视频数据进行图像识别,识别结果包括手部遮挡脸部图像和手部未遮挡脸部图像。
其中,遮挡识别模型是指预先根据大量的训练图像数据进行分类训练所获得的分类器。可以理解地,预先进行训练的训练图像数据包含手部遮挡训练图像和手部未遮挡训练图像,通过分类算法对手部遮挡训练图像和手部未遮挡训练图像进行训练,以获取遮挡识别模型。其中,手部遮挡训练图像是指预先搜集的用于训练遮挡识别模型的手部遮挡脸部不同位置的图像。手部未遮挡训练图像是指预先搜集的用于训练遮挡识别模型的手部未遮挡脸部的一些图像。
具体地,服务端将视频数据输入到预先训练好的遮挡识别模型中,通过遮挡识别模型对视频数据中的每一帧待识别图像进行识别,确定待识别图像为手部遮挡脸部图像或是手部未遮挡脸部图像,以获取识别结果,识别结果包括手部遮挡脸部图像和手部未遮挡脸部图像。可以理解地,对视频数据中每一帧待识别图像进行处理,如进行二值化处理,并获取待识别图像对应的脸部区域,提取脸部区域对应的梯度直方图特征,将每一帧待识别图像对应的梯度直方图特征输入到预先训练好的遮挡识别模型中,通过该遮挡识别模型对该梯度直方图特征进行分类,并判断出与每一帧待识别图像对应的识别概率值;若大于预设概率值,则该待识别图像为手部遮挡脸部图像;若小于预设概率值,则该待识别图像为手部未遮挡脸部图像。其中,识别概率值是指通过遮挡识别模型对待识别图像进行识别,判断该识别图像是否为手部遮挡连图像的概率值。可选地,预设概率值可为0.6,通过遮挡识别模型将每一帧待识别图像进行识别,将视频数据中的每一帧待识别图像区分为手部遮挡脸部图像或者手部未遮挡脸部图像,以便后续分别对手部遮挡脸部图像和手部未遮挡脸部图像进行处理,提高风险识别效率。
S30:获取每一手部遮挡脸部图像对应的手部遮挡位脸部位置,基于所有手部遮挡脸部图像对应的手部遮挡脸部位置,获取紧张程度识别结果。
其中,手部遮挡脸部位置是指客户通过手部遮挡到脸部的位置。例如,客户通过手部遮挡脸部的眼、耳、口或鼻等位置。紧张程度识别结果是指与所有手部遮挡脸部图像对应的手部遮挡脸部位置对应的识别结果。其中,紧张程度识别结果可以采用0到1之间的数值表示,数值越大,其客户的紧张程度越高,反之,数值越小,其客户的紧张程度越低。
具体地,服务端获取到手部遮挡脸部图像后,通过遮挡识别模型可识别出待识别图像是否为手部遮挡脸部图像,其中,预先训练遮挡识别模型时,预先将遮挡训练图像中的脸部分为额头、左眼、右眼、左脸颊、右脸颊、鼻子、下巴这几个位置,并为每一位置进行位置编号,例如,额头为1,左眼为2,...,鼻子为6,下巴为7等,因此通过遮挡识别模型还可获取到手部遮挡脸部位置的位置编号(即手部遮挡位脸部位置)。其中,每一手部遮挡脸部图像中手部遮挡脸部位置为至少一个,通过遮挡识别模型输出每一手部遮挡脸部图像对应的位置编号,每一位置编号对应一脸部位置,通过位置编号查询数据库,获取每一手部遮挡脸部对应的手部遮挡脸部位置。然后,基于每一手部遮挡脸部图像的所有手部遮挡脸部位置,获取紧张识别识别结果。本实施例中,服务端计算出每一手部遮挡脸部位置的遮挡概率,将遮挡概率最大对应的手部遮挡脸部图像输入至紧张评估模型,获取与手部遮脸部位置的遮挡概率最大对应的紧张程度识别结果,其紧程度识别结果获取效率较高。
进一步地,获取遮挡概率较高的手部遮挡脸部位置,作为所有手部遮挡脸部图像对应的关键遮挡位置,根据关键遮挡位置确定紧张程度识别结果,提高风险识别效率。
S40:将手部未遮挡脸部图像输入至预先训练好的安全判断模型中,获取风险程度识别结果。
其中,安全判断模型是指预先训练的用于识别客户是否存在风险的模型,主要是通过训练含有风险的图像数据和未含有风险的图像数据,所获取到的安全判断模型。风险程度识别结果是指通过安全判断模型输出的与手部未遮挡脸部图像的识别结果。风险程度识别结果可以采用0到1之间的数值表示,数值越大,其客户对应的风险程度越高,反之,数值越小,其客户对应的风险程度越低。
具体地,服务端获取到手部未遮挡脸部图像后,将该手部未遮挡脸部图像输入到预先训练好的安全判断模型中,通过安全判断模型输出与手部未遮挡脸部图像对应的风险程度。可以理解地,先通过所有的手部未遮挡脸部图像,获取到关键帧图像,将关键帧图像输入到预先训练的安全判断模型中,通过安全判断模型判断出关键帧图像对应的面部动作单元对应的强度,并根据目标面部动作单元对应的强度进行分类,输出与关键帧图像对应的风险概率,将该风险概率作为所有手部未遮挡脸部图像对应的风险程度识别结果。风险程度识别结果越高,则该客户存在风险的概率越高。其中,风险概率是指通过安全判断模型对关键帧图像进行识别,判断该关键帧图像为风险图像的概率值。需要说明的是,关键帧图像是指根据每一帧手部未遮挡脸部图像中的面部动作单元(Action Unit,AU)的强度,对所有手部未遮挡脸部图像进行聚类,选取与聚类中心距离最近的一些待筛选图像,将待筛选图像中的面部动作单元的强度与预设强度阈值进行比较,以从待筛选图像中筛选出强度大于预设强度阈值的待筛选图像作为关键帧对应的手部未遮挡脸部图像。例如,选取某一聚类中心对应的待筛选手部未遮挡脸部图像,待筛选手部未遮挡脸部图像指定的面部动作单元的强度均大于预设强度阈值,则将该待筛选手部未遮挡脸部图像作为关键帧对应的手部未遮挡脸部图像。本实施例中,将关键帧图像输入到预先训练的安全判断模型中,获取风险程度识别结果,通过安全判断模型对待识别图像进行识别,使得获取到的风险程度识别结果更准确。
S50:根据紧张程度识别结果和风险程度识别结果,确定风险预警识别结果,若风险预警识别结果大于第一预设阈值,则视频数据为风险预警数据。
其中,风险预警识别结果是基于紧张程度识别结果和风险程度识别结果确定的识别结果。在一种实施方式中,服务端可以通过判断紧张程度识别结果对应的总帧数和风险程度识别结果对应的总帧数的大小来确定的识别结果。在另一种实施方式中,服务端可以是根据预先配置好的公式,通过计算紧张程度识别结果和风险程度识别结果来确定的识别结果。
具体地,服务端获取到与视频数据对应的紧张程度识别结果和风险程度结果后,根据紧张程度识别结果和风险程度结果,获取到对应的风险预警识别结果。可以理解地,风险预警识别结果可以将紧张程度识别结果作为风险预警识别结果,也可以将风险程度识别结果作为风险预警识别结果,还可以给紧张程度识别结果和风险程度识别结果配置权重,对紧张程度识别结果和风险程度识别结果进行加权计算,获取风险预警识别结果。本实施例中,服务端将风险预警识别结果与第一预设阈值进行比较,若风险预警识别结果大于第一预设阈值时,则该视频数据为风险预警数据;若风险预警识别结果不大于第一预设阈值时,则该视频数据不为风险预警数据。例如,第一预设阈值为0.6,某一视频数据对应的风险预警识别结果为0.7,将风险预警识别结果与预设阈值进行比较,该风险预警识别结果0.7大于第一预设阈值0.6,则该视频数据为风险预警数据。
步骤S10-S50中,通过获取客户回复预设问题时的视频数据,以便后续根据视频数据进行风险识别。采用预先训练好的遮挡识别模型对视频数据进行图像识别,将待识别图像区分为手部遮挡脸部图像或手部未遮挡脸部图像,实现待识别图像的分类,以便后续根据分类结果分别进行处理,提高风险识别的准确率。然后,获取每一手部遮挡脸部图像对应的手部遮挡位脸部位置,基于所有手部遮挡脸部图像对应的手部遮挡脸部位置,以快速获取到紧张程度识别结果,实现根据手部遮挡脸部图像进行风险识别。并且,将手部未遮挡脸部图像输入至预先训练好的安全判断模型中,以快速获取风险程度识别结果,获取过程简单方便,实现根据手部未遮挡脸部图像进行风险识别。最后,根据紧张程度识别结果和风险程度识别结果,确定风险预警识别结果,若风险预警识别结果大于第一预设阈值,则视频数据为风险预警数据,实现对视频数据的风险识别。通过分别对视频数据中手部遮挡脸部图像和手部未遮挡脸部图像分别进行风险识别,提高风险识别的准确率。
在一实施例中,如图3所示,步骤S20之前,即在采用预先训练好的遮挡识别模型对视频数据进行图像识别的步骤之前,基于面部图片的风险识别方法还包括如下步骤:
S201:获取遮挡训练图像,遮挡训练图像包含手部遮挡训练图像和手部未遮挡训练图像。
其中,遮挡训练图像是指用于训练遮挡识别模型的训练图像,包含手部遮挡训练图像和手部未遮挡训练图像。
具体地,通过预先搜集的包含手部遮挡训练图像和手部未遮挡训练图像,大约720000张,作为遮挡训练图像。对手部遮挡训练图像和手部未遮挡训练图像进行属性标注,并对每一手部遮挡训练图像中手部遮挡脸部位置进行位置编号标注,以获取遮挡训练图像。可以理解地,预先对脸部位置进行划分并进行位置编号。例如,将脸部划分为额头、左眼、有眼、左脸颊、右脸颊、鼻子和下巴这几个位置,根据划分后的脸部位置,对遮挡训练图像中每一手部遮挡训练图像中遮挡位置进行位置编号标注。
S202:将手部遮挡训练图像和手部未遮挡训练图像转换为二值化图像,采用脸部关键点识别算法确定二值化图像的脸部区域。
其中,二值化(Image Binarization)图像是指图像上的像素点的灰度值设置为0或255的图像。通过将手部遮挡训练图像和手部未遮挡训练图像转换为二值化图像,可减少手部遮挡训练图像和手部未遮挡训练图像的数据量,从而凸显出手部遮挡训练图像和手部未遮挡训练图像的轮廓。
具体地,将遮挡训练图像中的手部遮挡训练图像和手部未遮挡训练图像转换为二值化图像,并采用脸部关键点识别算法确定每一二值化图像对应的脸部区域。其中,脸部关键点识别算法可包括但不局限于CLNF算法+LNF算法。CLNF(Constrained Local NeuralField,受约束的局部神经域模型)结合LNF(local neural field,局部神经域模型)的patch模型,在拟合过程中,由原来采用均匀的正则化特征点均值偏移(regularisedlandmark mean shift,RLMS)改为采用不均匀的正则化特征点均值偏移方法进行人脸拟合,拟合速度更快,拟合准确率更高,能够使获取到脸部区域更加精确,通过CLNF算法+LNF算法获取到二值化图像的脸部区域属于现有技术,在此不做详细概述。
S203:基于脸部区域,获取与脸部区域对应的梯度直方图特征。
其中,梯度直方图特征(Histogram ofOriented Gradient,HOG特征)是一种在计算机视觉和图像处理中用来进行物体检测的特征描述子,它通过计算局部区域上的梯度直方图来构成人体特征,能够很好地描述人体的边缘。HOG特征不仅能提取人体目标轮廓的边界信息,还能提取到人体轮廓的内部信息。
具体地,获取与脸部区域对应的梯度直方图特征包括如下步骤:(1)先将脸部区域的图像进行预处理,获取预处理图像。例如,对脸部区域进行Gamma校正,使得脸部区域的整体亮度提高或降低,为后续提取梯度直方图特征(HOG特征)提供技术支持。(2)将脸部区域划分成多个细胞单元。如,n×n像素点为一个细胞单元,相邻的细胞单元可构成大的块(block),如,h×h个细胞单元组成一个块;块与块之间可以重叠,也可以不重叠。例如,216*304的脸部区域,假设一个细胞单元为8*8像素,则可将216*304的脸部区域划分为27*38个细胞单元,如果2*2的细胞单元构成一个块,则可有14*19个块。
(3)对预处理图像进行梯度计算,获取每个像素点的梯度方向和梯度幅值。具体地,通过公式获取梯度幅值,(x,y)为像素点,G(x,y)为像素点的梯度幅值。其中,先通过公式Gx(x,y)=I(x+1,y)-I(x-1,y),Gy(x,y)=I(x,y+1)-I(x,y-1),计算出像素点在水平方向上和在垂直方向上的梯度幅值,Gx(x,y)为像素点在水平方向上的梯度幅值,Gy(x,y)为像素点在垂直方向上的梯度幅值。再通过公式计算每个像素点的梯度方向,其中,θ(x,y)为梯度方向。(4)将每个单元内像素点的梯度方向范围均分成多个指定方向,根据像素点的梯度幅值及梯度方向计算每个指定方向对应的指定幅值。(5)计算每个单元的所有指定方向与对应的指定幅值形成该单元的特征向量。(6)将相邻的多个单元组成一个块,将一个块内所有单元的特征向量串联,形成该块的特征向量。(7)将脸部区域中所有块的特征向量串联起来,获取脸部区域的特征向量,即获取到与脸部区域对应的梯度直方图特征。
S204:采用主成分分析算法对梯度直方图特征进行降维处理,获取目标梯度直方图特征。
其中,主成分分析(Principal ComponentAnalysis,PCA)算法是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。
具体地,采用主成分分析算法对梯度直方图特征进行降维处理,获取目标梯度直方图特征,包括如下步骤:(1)基于梯度直方图特征,构建原始矩阵为X,其中,Xi={X1,X2,......,Xn},i=1,2.....n,X1为第一个特征点矩阵(梯度直方图中像素灰度值组成的向量作为一个特征点矩阵),X2为第2个特征点矩阵,Xn为第n个特征点矩阵,n为特征点总数。(2)通过公式获取协方差矩阵C,再对协方差矩阵C进行特征分解,获取协方差矩阵C对应的特征矩阵Ai和Bi,其中,C为协方差矩阵(通过原始矩阵和特征点矩阵均值可求出),为特征点矩阵均值(原始矩阵对应的平均矩阵),(3)将特征矩阵Ai和Bi按照特征值的大小进行降序排列,获取特征矩阵Ai和Bi前10维向量作为目标梯度直方图特征。
S205:采用SVM分类算法对目标梯度直方图特征进行训练,获取遮挡识别模型。
其中,SVM(支持向量机,Support Vector Machine)指的是支持向量机,是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。
具体地,采用SVM分类算法对目标梯度直方图特征进行训练,以获取到遮挡识别模型。可以理解地,获取支持向量机分类器的核函数和支持向量机分类器的惩罚参数,其中,目标梯度直方图特征为特征向量,采用以下公式求解拉格朗日乘子和决策阈值b,公式为 式中,s.t.是数学公式中约束条件的缩写,min是指在约束条件下取代数式的最小值,K(xi,xj)为支持向量机分类器的核函数,C为支持向量机分类器的惩罚参数,C>0,ai与拉格朗日乘子是共轭关系,xi为遮挡训练图像的特征向量,l为遮挡训练图像的特征向量(目标梯度直方图特征对应)的个数,yi为遮挡训练图像的标注。其中,核函数是支持向量机分类器中的核函数,用于对训练支持向量机分类器过程中输入的训练样本的特征向量进行核函数运算,支持向量机分类器的核函数包括但不限于线性核函数、多项式核函数、高斯核函数、高斯核函数和基于径向基核函数,因为本实施例中的支持向量机分类器是线性可分的,优选地,本实施例中采用线性核函数作为支持向量机分类器中的核函数,因此K(xi,xj)=(xi,xj),yi为遮挡训练图像的标注,因为是支持向量机分类器的二分类问题,因此yi可以为1或者-1两类,若手部遮挡训练图像为正样本则yi=1,若手部未遮挡训练图为负样本则yi=-1。惩罚参数C是用于对支持向量机分类器进行优化的参数,是一个确定数值。可以理解地,采用合适的核函数,设定合适的惩罚参数,采用公式对遮挡训练图像的特征向量与核函数进行核函数运算后,求解最优问题,即求取拉格朗日乘子的值,使得核函数运算后的结果达到最小,得到然后,确定开区间(0,C)范围中的的分量并根据计算b值,根据拉格朗日乘子和决策阈值b,采用得到支持向量机分类器的临界面g(x),并根据临界面对遮挡训练图像分类,以获取到遮挡识别模型,而不需要经常重复训练模型,提高了模型训练的效率。其中,临界面是指能够将正样本和负样本这两类样本正确分开,并且使两类样本距离最大的分类面。
本实施例中,采用SVM分类算法对目标梯度直方图特征进行训练时,还对手部遮挡训练图像中手部遮挡脸部位置进行训练,不同的位置对应的位置编号不同,将属于遮挡同一脸部位置的进行分类,若分类错误,则可重新训练,以便后续通过遮挡识别模型,可判别待识别图像是否为手部遮挡脸部位置图像,并能获取到手部遮挡脸部的位置编号,通过位置编号与手部遮挡脸部位置的关系,获取到手部遮挡脸部位置。
步骤S201-S205中,获取遮挡训练图像,以便后续对遮挡训练图像进行训练,获取遮挡识别模型。将手部遮挡训练图像和手部未遮挡训练图像转换为二值化图像,采用脸部关键点识别算法确定二值化图像的脸部区域,实现人脸关键点的获取,为后续模型训练提供技术支持。基于脸部区域,获取与脸部区域对应的梯度直方图特征,以实现人脸特征的提取。采用主成分分析算法对梯度直方图特征进行降维处理,获取目标梯度直方图特征,实现降维处理,用较少的数据维度,保留住较多原图像的特征,以助于遮挡识别模型的训练。采用SVM分类算法对目标梯度直方图特征进行训练,以获取到遮挡识别模型,以便后续通过遮挡识别模型确定待识别图像是否为手部遮挡脸部图像。通过CLNF算法+LNF算法能够更精准的获取到脸部区域,并通过梯度直方图特征描述脸部区域的边缘,并对梯度直方图特征进行降维处理,大大减少后续训练的处理量,通过SVM分类算法对降维后的目标梯度直方图特征进行训练,以获取到遮挡识别模型,提高后续识别效率。
在一实施例中,如图4所示,步骤S30,即基于所有手部遮挡脸部图像对应的手部遮挡脸部位置,获取紧张程度识别结果,具体包括如下步骤:
S31:基于所有手部遮挡脸部图像对应的手部遮挡脸部位置,获取每一手部遮挡脸部位置对应的遮挡概率。
其中,遮挡概率是指与手部遮挡脸部位置对应的概率。
具体地,服务端通过遮挡识别模型获取视频数据中每一手部遮挡脸部图像,其中,每一手部遮挡脸部图像中包含至少一个手部遮挡脸部位置。基于每一手部遮挡脸部图像,获取每一手部遮挡脸部图像对应的手部遮挡脸部位置;基于每一手部遮挡脸部图像对应的手部遮挡脸部位置,采用概率公式获取每一手部遮挡脸部图像中手部遮挡脸部位置对应的遮挡概率。其中,概率公式为y为手部遮挡脸部位置对应的遮挡概率,x为每一手部遮挡脸部位置对应的帧数,a视频数据中手部遮挡脸部图像的帧数。例如,视频数据中包含20帧手部遮挡脸部图像,其中,10帧为手部遮挡脸部额头,5帧为手部遮挡脸部鼻子,5帧为手部遮挡脸部下巴,通过概率公式计算出每一手部遮挡脸部位置对应的遮挡概率分别为50%,25%和25%。进一步地,若手部遮挡脸部图像中对应的手部遮挡脸部位置为多个时,确定每一手部遮挡脸部图像中的手部遮挡脸部位置,采用概率公式获取每一收遮挡脸部图像中手部遮挡脸部位置对应的遮挡概率。例如,视频数据中包含20帧手部遮挡脸部图像,其中,10帧为手部遮挡脸部额头和右眼,5帧为手部遮挡脸部鼻子和下巴,5帧为手部遮挡脸部下巴,通过概率公式计算出手部遮挡脸部额头和右眼的遮挡概率为50%,手部遮挡脸部鼻子和下巴的遮挡概率为25%,手部遮挡脸部下巴的遮挡概率为25%。
S32:将遮挡概率最大的手部遮挡脸部图像,输入至紧张评估模型,获取遮挡概率最大的手部遮挡脸部位置对应的紧张程度,作为紧张程度识别结果。
其中,紧张评估模型是指预先训练所获得的对照准则,手部遮挡脸部不同位置,对应的紧张程度不同。本实施例中,服务端预先获取不同紧张程度的包含有手部遮挡脸部位置的紧张图像数据,并将每一紧张图像数据标注相应的紧张程度,采用分类算法进行训练,例如,SVM算法,K-Means算法等,对紧张图像数据进行训练,获取训练好的紧张评估模型。需要说明的是,进行训练的紧张图像数据中手部遮挡脸部位置为至少一个,即将手部遮挡脸部不同位置,或者手部同时遮挡脸部多个位置的图像作为紧张图像数据,以便后续可通过紧张评估模型对手部遮挡脸部一个位置的图像,或者手部遮挡脸部多个位置的图像进行识别,获取到紧张程度。
具体地,服务端基于遮挡概率最大的手部遮挡脸部位置,输入至训练好的紧张评估模型,获取紧张程度识别结果,该紧张程度可以是0到1之间的数值,数值越高,则客户紧张程度越高。进一步地,基于每一手部遮挡脸部位置对应的遮挡概率,选取遮挡概率最大对应的手部遮挡脸部位置对应的手部遮挡脸部图像输入至紧张评估模型,获取与该手部遮挡脸部位置对应紧张程度。其中,若遮挡概率最大对应的手部遮挡脸部位置为多张手部遮挡脸部图像时,可任意选取一张包含手部遮挡脸部位置的手部遮挡脸部图像。例如,手部遮挡脸部额头的遮挡概率为0.5,手部遮挡脸部鼻子的遮挡概率为0.25,手部遮挡脸部下巴的遮挡概率为0.25,选取遮挡概率最大对应的任意一包含手部遮挡脸部额头的手部遮挡脸部图像输入至紧张评估模型,若通过紧张评估模型获取包含手部遮挡脸部额头的手部遮挡脸部图像对应的紧张程度为0.7,则当手部遮挡脸部额头时,表明客户较为紧张,将0.7作为紧张程度识别结果。再例如,手部遮挡脸部额头和右眼的遮挡概率为0.5,手部遮挡脸部鼻子和下巴的遮挡概率为0.25,手部遮挡脸部下巴的遮挡概率为0.25,选取遮挡概率最大对应的包含手部遮挡脸部额头和右眼的手部遮挡脸部图像输入至紧张评估模型,若紧张评估模型识别出包含手部遮挡脸部额头和右眼的手部遮挡脸部图像对应的紧张程度为0.8,则当手部遮挡脸部额头和右眼时,表明客户很紧张,将0.8作为紧张程度识别结果。
步骤S31-S32中,基于所有手部遮挡脸部图像对应的手部遮挡脸部位置,获取每一手部遮挡脸部位置对应的遮挡概率,以实现确定视频数据中客户手部遮挡脸部哪个位置或那几个位置的情况较多;将遮挡概率最大的手部遮挡脸部图像,输入至紧张评估模型,获取遮挡概率最大的手部遮挡脸部图像对应的紧张程度,作为紧张程度识别结果,以实现将客户手部遮挡脸部位置遮挡概率最大对应的紧张程度作为紧张程度识别结果,避免客户手部误遮挡脸部的情况。
在一实施例中,如图5所示,步骤S40中,将手部未遮挡脸部图像输入至预先训练好的安全判断模型中,获取风险程度识别结果,具体包括如下步骤:
S41:采用K-Means算法对手部未遮挡脸部图像进行聚类处理,确定关键帧对应的手部未遮挡脸部图像。
具体地,由于在贷款面审过程中客户可能回答的问题不止一个,获取敏感性提问问题对应的视频数据,并将视频数据中手部未遮挡脸部图像进行微表情分析,以获取到风险程度识别结果。微表情是一种持续时间仅为1/25~1/5s非常快速的表情,它是人们试图压抑或隐藏自己真实情感时表现出短暂的、不能自主控制的面部表情。在客户回答一个敏感性提问问题的视频数据里,通常客户的表情都是面无表情或其他一些常见表情,而有用的信息往往只出现在那些可能一闪而过的微表情里,则通过K-Means算法对所有手部未遮挡脸部图像进行聚类处理,获取到手部未遮挡脸部图像中关键帧对应的手部未遮挡脸部图像,提高风险识别准确率。
具体地,通过K-Means算法对所有手部未遮挡脸部图像进行聚类处理,获取到手部未遮挡脸部图像中的关键帧对应的手部未遮挡脸部图像,具体可包括如下步骤:(1)假设手部未遮挡脸部图像总共为n个数据对象,聚类个数为k,从n个数据对象任意选择k个对象作为初始聚类中心。(2)计算每个数据对象与各个中心的距离,根据最小距离准则将它们进行分类。(3)根据每个聚类中所有对象的均值(中心对象),计算样本集中每个对象与这些中心对象的距离,如同第(2)步再次进行分类。(4)重复步骤(2)和步骤(3),直到聚类中心的变化小于某个给定的阈值,停止运算,获取聚类结果,聚类结果包括聚类个数和聚类中心,将聚类中心的手部未遮挡脸部图像作为关键帧对应的手部未遮挡脸部图像。
进一步地,根据每一帧手部未遮挡脸部图像中面部动作单元(action unit)的强度,采用K-Means聚类算法对所有手部未遮挡脸部图像进行分类。具体地,一个微表情由一系列的面部动作单元构成,建立面部动作单元编号映射表,每个动作单元用一个预先规定的编号表示。例如,一个惊讶的表情包括眉毛内侧上扬、外侧眉毛上扬、上眼睑上扬和下颚张开,根据动作单元编号映射表可知,这些动作对应的动作单元编号分别是1、2、5和26。根据每一帧手部未遮挡脸部图像中面部动作单元,对视频中所有手部未遮挡脸部图像进行聚类,选取离一定数量的聚类中心距离最近的一些图片(如眉毛内侧上扬、外侧眉毛上扬、上眼睑上扬和下颚张开4个聚类中心,就选择4张图片),并根据事先通过统计结果得到的动作单元的预设强度阈值,筛选出关键帧对应的手部未遮挡脸部图像。可以理解地,对于一帧手部未遮挡脸部图像,指定的面部动作单元的强度均大于预设强度阈值,则将该手部未遮挡脸部图像作为关键帧对应的手部未遮挡脸部图像。
S42:将关键帧对应的手部未遮挡脸部图像输入到预先训练好的安全判断模型中,获取安全判断模型输出的风险概率,作为风险程度识别结果。
具体地,服务端将关键帧对应的手部未遮挡脸部图像输入到预先训练好的安全判断模型中,通过安全判断模型对该手部未遮挡脸部图像进行微表情识别,获取与该手部未遮挡脸部图像对应的风险概率作为风险程度识别结果,风险概率越高,则该客户对应的存在着风险的风险程度越大。
步骤S41-S42中,采用K-Means算法对手部未遮挡脸部图像进行聚类处理,确定关键帧对应的手部未遮挡脸部图像,以实现对手部未遮挡脸部图像的聚类处理,使得通过安全判断模型进行识别的图像为关键帧对应的手部未遮挡脸部图像,提高风险识别的准确性和风险识别的速度。将关键帧对应的手部未遮挡脸部图像输入到预先训练好的安全判断模型中,获取安全判断模型输出的风险概率,作为风险程度识别结果,实现风险识别,提高风险识别的处理效率。
在一实施例中,如图6所示,步骤S50中,即根据紧张程度识别结果和风险程度识别结果,确定风险预警识别结果,具体包括如下步骤:
S51:获取手部遮挡脸部图像对应的第一总帧数和手部未遮挡脸部图像对应的第二总帧数。
具体地,视频数据中包含至少一帧待识别图像,通过遮挡识别模型区分待识别图像为手部遮挡脸部图像或者手部未遮挡脸部图像,并统计视频数据中手部遮挡脸部图像对应的第一总帧数和手部未遮挡脸部图像对应的第二总帧数,以便后续通过第一总帧数和第二总帧数确定风险预警识别结果。
S52:基于第一总帧数、第二总帧数、紧张程度识别结果和风险程度识别结果,确定风险预警识别结果。
具体地,基于视频数据中手部遮挡脸部图像对应的紧张程度识别结果、视频数据中手部未遮挡脸部图像对应的风险程度识别结果、手部遮挡脸部图像对应的第一总帧数和手部未遮挡脸部图像对应的第二总帧数,获取风险预警识别结果。可以理解地,可判断第一总帧数和第二总帧数对应的大小,将较大总帧数对应的识别结果作为风险预警识别结果;还可以预先为紧张程度识别结果和风险程度识别结果配置对应的权重,并进行加权计算,将加权计算所得的结果作为风险预警识别结果。
步骤S51-S52中,通过获取手部遮挡脸部图像对应的第一总帧数和手部未遮挡脸部图像对应的第二总帧数,为后续确定风险预警识别结果提供技术支持。基于第一总帧数、第二总帧数、紧张程度识别结果和风险程度识别结果,确定风险预警识别结果,实现通过手部遮挡脸部图像和手部未遮挡脸部图像来确定风险预警识别结果,提高风险识别效率,避免手部遮挡脸部时,风险识别的不准确性。
在一实施例中,如图7所示,步骤S52中,即基于第一总帧数、第二总帧数、紧张程度识别结果和风险程度识别结果,确定风险预警识别结果,具体包括如下步骤:
S521:计算第一总帧数与第二总帧数的差值绝对值。
具体地,基于第一总帧数和第二总帧数,求取第一总帧数和第二总帧数的差值,并取绝对值,作为差值绝对值。例如,视频数据中包含100帧待识别图像,第一总帧数为20帧,第二总帧数为80帧,那么第一总帧数与第二总帧数的差值绝对值为60帧。
S522:若差值绝对值大于第二预设阈值,则在第一总帧数大于第二总帧数时,将紧张程度识别结果作为风险预警识别结果,在第一总帧数小于第二总帧数时,将风险程度识别结果作为风险预警识别结果。
具体地,服务端预设有第二预设阈值,将差值绝对值与第二预设阈值进行比较,若差值绝对值大于第二预设阈值,且第一总帧数大于第二总帧数,则将第一总帧数对应的紧张程度识别结果作为风险预警识别结果。若差值绝对值大于第二预设阈值,且第一总帧数小于第二总帧数,则将第二总帧数对应的风险程度识别结果作为风险预警识别结果。例如,差值绝对值60帧大于第二预设阈值50帧,且第一总帧数20帧小于第二总帧数80帧,则将80帧对应的风险程度识别结果作为风险预警识别结果。反之,差值绝对值60帧大于第二预设阈值50帧,且第一总帧数80帧大于第二总帧数20帧,则将80帧对应的紧张程度识别结果作为风险预警识别结果。
S523:若差值绝对值不大于第二预设阈值,则通过预先配置的结果计算公式对紧张程度识别结果和风险程度识别结果进行计算,获取风险预警识别结果。
具体地,服务端预设有第二预设阈值,将差值绝对值与第二预设阈值进行比较,若差值绝对值不大于第二预设阈值,则获取预先配置的结果计算公式对紧张程度识别结果和风险程度识别结果进行计算,获取风险预警识别结果。其中,结果计算公式为加权公式,预先为风险程度识别结果和风险程度识别结果配置权重,并根据紧张程度识别结果、紧张程度识别结果对应的权重、风险程度识别结果和风险程度识别结果对应的权重进行加权计算,获取风险预警识别结果。例如,紧张程度识别结果为0.3,紧张程度识别结果对应的权重为0.6,风险程度识别结果为0.5,风险程度识别结果对应的权重为0.4,那么风险预警识别结果为0.38。后续可根据风险预警识别结果判断视频数据是否为风险预警数据,可以理解地,预设有第一预设阈值,将风险预警识别结果与第一预设阈值进行比较,若风险预警识别结果0.38小于第一预设阈值0.5,则视频数据不为风险预警数据。
步骤S521-S523中,计算第一总帧数与第二总帧数的差值绝对值,以便根据差值绝对值确定风险预警识别结果。若差值绝对值大于第二预设阈值,则在第一总帧数大于第二总帧数时,将紧张程度识别结果作为风险预警识别结果,在第一总帧数小于第二总帧数时,将风险程度识别结果作为风险预警识别结果,实现风险预警识别结果的确定,避免客户手部遮挡导致风险预警识别结果不精准的情况。若差值绝对值不大于第二预设阈值,则通过预先配置的结果计算公式对紧张程度识别结果和风险程度识别结果进行计算,以实现根据手部遮挡脸部图像和手部未遮挡脸部图像对应的识别结果确定风险预警识别结果,提高风险识别的准确率。可以理解地,当差值绝对值大于第二预设阈值时,则说明视频数据中存在误遮挡脸部,或者大部分帧遮挡脸部,当为误遮挡脸部时,直接将手部未遮挡脸部图像对应的风险程度识别结果作为风险预警识别结果,避免误遮挡脸部的情况;当大部分帧手部遮挡脸部时,将手部遮挡脸部图像对应的紧张程度识别结果作为风险预警识别结果。当差值绝对值不大于第二预设阈值时,说明视频数据中客户手部遮挡脸部和手部未遮挡脸部的帧数相差不大,则根据手部遮挡脸部图像对应的紧张程度识别结果和手部未遮挡脸部对应的风险程度识别结果进行加权计算,使得获取到的风险预警识别结果更加精准。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种基于面部图片的风险识别装置,该基于面部图片的风险识别装置与上述实施例中基于面部图片的风险识别方法一一对应。如图8所示,该基于面部图片的风险识别装置包括视频数据获取模块10、图像识别模块20、第一识别结果获取模块30、第二识别结果获取模块40和风险判别模块50。各功能模块详细说明如下:
视频数据获取模块10,用于获取客户回复预设问题时的视频数据。
图像识别模块20,用于采用预先训练好的遮挡识别模型对视频数据进行图像识别,识别结果包括手部遮挡脸部图像和手部未遮挡脸部图像。
第一识别结果获取模块30,用于获取每一手部遮挡脸部图像对应的手部遮挡位脸部位置,基于所有手部遮挡脸部图像对应的手部遮挡脸部位置,获取紧张程度识别结果。
第二识别结果获取模块40,用于将手部未遮挡脸部图像输入至预先训练好的安全判断模型中,获取风险程度识别结果。
风险判别模块50,用于根据紧张程度识别结果和风险程度识别结果,确定风险预警识别结果,若风险预警识别结果大于第一预设阈值,则视频数据为风险预警数据。
在一实施例中,在图像识别模块20之前,基于面部图片的风险识别装置还包括训练数据获取单元、脸部区域获取单元、梯度直方图特征获取单元、目标梯度直方图特征获取单元和遮挡识别模型获取单元。
训练数据获取单元,用于获取遮挡训练图像,遮挡训练图像包含手部遮挡训练图像和手部未遮挡训练图像。
脸部区域获取单元,用于将手部遮挡训练图像和手部未遮挡训练图像转换为二值化图像,采用脸部关键点识别算法确定二值化图像的脸部区域。
梯度直方图特征获取单元,用于基于脸部区域,获取与脸部区域对应的梯度直方图特征。
目标梯度直方图特征获取单元,用于采用主成分分析算法对梯度直方图特征进行降维处理,获取目标梯度直方图特征。
遮挡识别模型获取单元,用于采用SVM分类算法对目标梯度直方图特征进行训练,获取遮挡识别模型。
在一实施例中,第一识别结果获取模块30包括遮挡概率获取单元和紧张程度识别结果获取单元。
遮挡概率获取单元,用于基于所有手部遮挡脸部图像对应的手部遮挡脸部位置,获取每一手部遮挡脸部位置对应的遮挡概率。
紧张程度识别结果获取单元,用于将遮挡概率最大的对应的手部遮挡脸部图像,输入至紧张评估模型,获取遮挡概率最大的手部遮挡脸部图像对应的紧张程度,作为紧张程度识别结果。
在一实施例中,第二识别结果获取模块40包括关键帧确定单元41和风险程度识别结果确定单元42。
关键帧确定单元41,用于采用K-Means算法对手部未遮挡脸部图像进行聚类处理,确定关键帧对应的手部未遮挡脸部图像。
风险程度识别结果确定单元42,用于将关键帧对应的手部未遮挡脸部图像输入到预先训练好的安全判断模型中,获取安全判断模型输出的风险概率,作为风险程度识别结果。
在一实施例中,风险判别模块50包括总帧数确定单元和识别单元。
总帧数确定单元,用于获取手部遮挡脸部图像对应的第一总帧数和手部未遮挡脸部图像对应的第二总帧数。
识别单元,用于基于第一总帧数、第二总帧数、紧张程度识别结果和风险程度识别结果,确定风险预警识别结果。
在一实施例中,识别单元包括差值绝对值计算子单元、第一确定子单元和第二确定子单元。
差值绝对值计算子单元,用于计算第一总帧数与第二总帧数的差值绝对值。
第一确定子单元,用于若差值绝对值大于第二预设阈值,则在第一总帧数大于第二总帧数时,将紧张程度识别结果作为风险预警识别结果,在第一总帧数小于第二总帧数时,将风险程度识别结果作为风险预警识别结果。
第二确定子单元,用于若差值绝对值不大于第二预设阈值,则通过预先配置的结果计算公式对紧张程度识别结果和风险程度识别结果进行计算,获取风险预警识别结果。
关于基于面部图片的风险识别装置的具体限定可以参见上文中对于基于面部图片的风险识别方法的限定,在此不再赘述。上述基于面部图片的风险识别装置中的各个模块可全部或部分通过软件、硬件及其组和来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务端,其内部结构图可以如图9所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储手部遮挡脸部位置与位置编号对应关系等等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于面部图片的风险识别方法。
在一实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中基于面部图片的风险识别方法的步骤,例如,图2所示的步骤S10至步骤S50。或者,处理器执行计算机程序时实现上述实施例中基于面部图片的风险识别装置中的各模块/单元的功能,例如,图8所示模块10至模块50的功能。为避免重复,此处不再赘述。
在一实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述方法实施例中基于面部图片的风险识别方法,例如,图2所示的步骤S10至步骤S50。或者,该计算机程序被处理器执行时实现上述实施例中基于面部图片的风险识别装置中各模块/单元的功能,例如,图8所示模块10至模块50的功能。为避免重复,此处不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(RambuS)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于面部图片的风险识别方法,其特征在于,包括:
获取客户回复预设问题时的视频数据;
采用预先训练好的遮挡识别模型对所述视频数据进行图像识别,识别结果包括手部遮挡脸部图像和手部未遮挡脸部图像;
获取每一所述手部遮挡脸部图像对应的手部遮挡脸部位置,基于所有所述手部遮挡脸部图像对应的手部遮挡脸部位置,获取紧张程度识别结果;
将所述手部未遮挡脸部图像输入至预先训练好的安全判断模型中,获取风险程度识别结果;
根据所述紧张程度识别结果和所述风险程度识别结果,确定风险预警识别结果,若所述风险预警识别结果大于第一预设阈值,则所述视频数据为风险预警数据。
2.如权利要求1所述的基于面部图片的风险识别方法,其特征在于,在所述采用预先训练好的遮挡识别模型对所述视频数据进行图像识别的步骤之前,所述基于面部图片的风险识别方法还包括:
获取遮挡训练图像,所述遮挡训练图像包含手部遮挡训练图像和手部未遮挡训练图像;
将所述手部遮挡训练图像和所述手部未遮挡训练图像转换为二值化图像,采用脸部关键点识别算法确定所述二值化图像的脸部区域;
基于所述脸部区域,获取与所述脸部区域对应的梯度直方图特征;
采用主成分分析算法对所述梯度直方图特征进行降维处理,获取目标梯度直方图特征;
采用SVM分类算法对所述目标梯度直方图特征进行训练,获取遮挡识别模型。
3.如权利要求1所述的基于面部图片的风险识别方法,其特征在于,所述基于所有所述手部遮挡脸部图像对应的手部遮挡脸部位置,获取紧张程度识别结果,包括:
基于所有所述手部遮挡脸部图像对应的手部遮挡脸部位置,获取每一所述手部遮挡脸部位置对应的遮挡概率;
将所述遮挡概率最大对应的手部遮挡脸部图像,输入至紧张评估模型,获取所述遮挡概率最大的手部遮挡脸部图像对应的紧张程度,作为紧张程度识别结果。
4.如权利要求1所述的基于面部图片的风险识别方法,其特征在于,所述将所述手部未遮挡脸部图像输入至预先训练好的安全判断模型中,获取风险程度识别结果,包括:
采用K-Means算法对所述手部未遮挡脸部图像进行聚类处理,确定关键帧对应的手部未遮挡脸部图像;
将所述关键帧对应的手部未遮挡脸部图像输入到预先训练好的安全判断模型中,获取所述安全判断模型输出的风险概率,作为所述风险程度识别结果。
5.如权利要求1所述的基于面部图片的风险识别方法,其特征在于,所述根据所述紧张程度识别结果和所述风险程度识别结果,确定风险预警识别结果,包括:
获取所述手部遮挡脸部图像对应的第一总帧数和所述手部未遮挡脸部图像对应的第二总帧数;
基于所述第一总帧数、所述第二总帧数、所述紧张程度识别结果和所述风险程度识别结果,确定风险预警识别结果。
6.如权利要求5所述的基于面部图片的风险识别方法,其特征在于,所述基于所述第一总帧数、所述第二总帧数、所述紧张程度识别结果和所述风险程度识别结果,确定风险预警识别结果,包括:
计算所述第一总帧数与所述第二总帧数的差值绝对值;
若所述差值绝对值大于第二预设阈值,则在所述第一总帧数大于所述第二总帧数时,将所述紧张程度识别结果作为风险预警识别结果,在所述第一总帧数小于所述第二总帧数时,将所述风险程度识别结果作为风险预警识别结果;
若所述差值绝对值不大于第二预设阈值,则通过预先配置的结果计算公式对所述紧张程度识别结果和所述风险程度识别结果进行计算,获取风险预警识别结果。
7.一种基于面部图片的风险识别装置,其特征在于,包括:
视频数据获取模块,用于获取客户回复预设问题时的视频数据;
图像识别模块,用于采用预先训练好的遮挡识别模型对所述视频数据进行图像识别,识别结果包括手部遮挡脸部图像和手部未遮挡脸部图像;
第一识别结果获取模块,用于获取每一所述手部遮挡脸部图像对应的手部遮挡位脸部位置,基于所有所述手部遮挡脸部图像对应的手部遮挡脸部位置,获取紧张程度识别结果;
第二识别结果获取模块,用于将所述手部未遮挡脸部图像输入至预先训练好的安全判断模型中,获取风险程度识别结果;
风险判别模块,用于根据所述紧张程度识别结果和所述风险程度识别结果,确定风险预警识别结果,若所述风险预警识别结果大于第一预设阈值,则所述视频数据为风险预警数据。
8.如权利要求7所述的基于面部图片的风险识别装置,其特征在于,所述第二识别结果获取模块,包括:
关键帧确定单元,用于采用K-Means算法对所述手部未遮挡脸部图像进行聚类处理,确定关键帧对应的手部未遮挡脸部图像;
风险程度识别结果确定单元,用于将所述关键帧对应的手部未遮挡脸部图像输入到预先训练好的安全判断模型中,获取所述安全判断模型输出的风险概率,作为所述风险程度识别结果。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述基于面部图片的风险识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述基于面部图片的风险识别方法的步骤。
CN201811535312.7A 2018-12-14 2018-12-14 基于面部图片的风险识别方法、装置、计算机设备及存储介质 Pending CN109711297A (zh)

Priority Applications (7)

Application Number Priority Date Filing Date Title
CN201811535312.7A CN109711297A (zh) 2018-12-14 2018-12-14 基于面部图片的风险识别方法、装置、计算机设备及存储介质
PCT/CN2019/120987 WO2020119450A1 (zh) 2018-12-14 2019-11-26 基于面部图片的风险识别方法、装置、计算机设备及存储介质
EP19895730.0A EP3896601A4 (en) 2018-12-14 2019-11-26 RISK IDENTIFICATION PROCEDURE WITH FACIAL IMAGE, DEVICE, COMPUTER DEVICE AND STORAGE MEDIA
JP2021516611A JP7078803B2 (ja) 2018-12-14 2019-11-26 顔写真に基づくリスク認識方法、装置、コンピュータ設備および記憶媒体
KR1020217013932A KR20210100602A (ko) 2018-12-14 2019-11-26 안면 이미지 기반의 리스크 인식 방법, 장치, 컴퓨터 디바이스 및 저장 매체
SG11202103323VA SG11202103323VA (en) 2018-12-14 2019-11-26 Risk identification method employing facial image, device, computer apparatus, and storage medium
PH12021551368A PH12021551368A1 (en) 2018-12-14 2021-06-08 Risk identification method employing facial image, device, computer apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811535312.7A CN109711297A (zh) 2018-12-14 2018-12-14 基于面部图片的风险识别方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN109711297A true CN109711297A (zh) 2019-05-03

Family

ID=66256524

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811535312.7A Pending CN109711297A (zh) 2018-12-14 2018-12-14 基于面部图片的风险识别方法、装置、计算机设备及存储介质

Country Status (7)

Country Link
EP (1) EP3896601A4 (zh)
JP (1) JP7078803B2 (zh)
KR (1) KR20210100602A (zh)
CN (1) CN109711297A (zh)
PH (1) PH12021551368A1 (zh)
SG (1) SG11202103323VA (zh)
WO (1) WO2020119450A1 (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110399818A (zh) * 2019-07-15 2019-11-01 联动优势科技有限公司 一种风险预测的方法和设备
CN110909595A (zh) * 2019-10-12 2020-03-24 平安科技(深圳)有限公司 面部动作识别模型训练方法、面部动作识别方法
CN111144360A (zh) * 2019-12-31 2020-05-12 新疆联海创智信息科技有限公司 多模信息识别方法、装置、存储介质及电子设备
WO2020119450A1 (zh) * 2018-12-14 2020-06-18 深圳壹账通智能科技有限公司 基于面部图片的风险识别方法、装置、计算机设备及存储介质
CN111401197A (zh) * 2020-03-10 2020-07-10 支付宝(杭州)信息技术有限公司 一种图片风险识别方法、装置及设备
CN111639584A (zh) * 2020-05-26 2020-09-08 深圳壹账通智能科技有限公司 基于多分类器的风险识别方法、装置及计算机设备
CN111768286A (zh) * 2020-05-14 2020-10-13 北京旷视科技有限公司 风险预测方法、装置、设备及存储介质
CN111967306A (zh) * 2020-07-02 2020-11-20 广东技术师范大学 目标远程监控方法、装置、计算机设备及存储介质
CN112001231A (zh) * 2020-07-09 2020-11-27 哈尔滨工业大学(深圳) 加权多任务稀疏表示的三维人脸识别方法、系统及介质
CN113705472A (zh) * 2021-08-30 2021-11-26 平安国际智慧城市科技股份有限公司 基于图像识别的异常摄像头排查方法、装置、设备及介质
CN115909468A (zh) * 2023-01-09 2023-04-04 广州佰锐网络科技有限公司 人脸五官遮挡检测方法、存储介质及系统
CN118135498A (zh) * 2024-05-08 2024-06-04 成都新希望金融信息有限公司 基于ai的双录实时风险识别方法、装置、设备及介质

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112132011B (zh) * 2020-09-22 2024-04-26 深圳市捷顺科技实业股份有限公司 一种面部识别方法、装置、设备及存储介质
CN112184523B (zh) 2020-09-27 2022-06-07 中南大学 基于环境监测和照明引导的地铁车厢乘客诱导方法及系统
CN112201343B (zh) * 2020-09-29 2024-02-02 浙江大学 基于脸部微表情的认知状态识别系统及方法
CN112336305A (zh) * 2020-09-30 2021-02-09 贵阳朗玛信息技术股份有限公司 一种体征数据采集的方法及装置
US20230093385A1 (en) * 2021-09-17 2023-03-23 Microsoft Technology Licensing, Llc Visibility-based attribute detection
CN113963424B (zh) * 2021-12-21 2022-03-08 西南石油大学 一种基于单阶人脸定位算法的婴儿窒息或猝死预警方法
CN114613069B (zh) * 2022-03-08 2023-04-28 广州锐景数码科技有限公司 一种智能自助终端及其智能辅助方法
CN116092228B (zh) * 2023-01-05 2024-05-14 厦门科拓通讯技术股份有限公司 针对面部遮挡的门禁处理方法、装置、门禁设备和介质
CN116156198B (zh) * 2023-04-23 2023-06-23 哈尔滨学院 一种舞蹈教学用视觉测量信号传输装置及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1567344A (zh) * 2003-06-23 2005-01-19 威视科技股份有限公司 脸部监视系统及方法
US20160110586A1 (en) * 2014-10-15 2016-04-21 Nec Corporation Image recognition apparatus, image recognition method and computer-readable medium
CN107180234A (zh) * 2017-06-01 2017-09-19 四川新网银行股份有限公司 基于人脸表情识别和人脸特征提取的信用风险预测方法
CN108537160A (zh) * 2018-03-30 2018-09-14 平安科技(深圳)有限公司 基于微表情的风险识别方法、装置、设备及介质
CN108596760A (zh) * 2018-05-14 2018-09-28 平安普惠企业管理有限公司 贷款风险评估方法及服务器
CN108734570A (zh) * 2018-05-22 2018-11-02 深圳壹账通智能科技有限公司 一种风险预测方法、存储介质和服务器
CN108765131A (zh) * 2018-05-18 2018-11-06 深圳壹账通智能科技有限公司 基于微表情的信贷审核方法、装置、终端及可读存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7027620B2 (en) * 2001-06-07 2006-04-11 Sony Corporation Method of recognizing partially occluded and/or imprecisely localized faces
CN102855496B (zh) * 2012-08-24 2016-05-25 苏州大学 遮挡人脸认证方法及系统
CN105005765B (zh) * 2015-06-29 2018-08-28 北京工业大学 一种基于Gabor小波和灰度共生矩阵的人脸表情识别方法
JP6206542B2 (ja) * 2015-12-01 2017-10-04 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
CN109711297A (zh) * 2018-12-14 2019-05-03 深圳壹账通智能科技有限公司 基于面部图片的风险识别方法、装置、计算机设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1567344A (zh) * 2003-06-23 2005-01-19 威视科技股份有限公司 脸部监视系统及方法
US20160110586A1 (en) * 2014-10-15 2016-04-21 Nec Corporation Image recognition apparatus, image recognition method and computer-readable medium
CN107180234A (zh) * 2017-06-01 2017-09-19 四川新网银行股份有限公司 基于人脸表情识别和人脸特征提取的信用风险预测方法
CN108537160A (zh) * 2018-03-30 2018-09-14 平安科技(深圳)有限公司 基于微表情的风险识别方法、装置、设备及介质
CN108596760A (zh) * 2018-05-14 2018-09-28 平安普惠企业管理有限公司 贷款风险评估方法及服务器
CN108765131A (zh) * 2018-05-18 2018-11-06 深圳壹账通智能科技有限公司 基于微表情的信贷审核方法、装置、终端及可读存储介质
CN108734570A (zh) * 2018-05-22 2018-11-02 深圳壹账通智能科技有限公司 一种风险预测方法、存储介质和服务器

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020119450A1 (zh) * 2018-12-14 2020-06-18 深圳壹账通智能科技有限公司 基于面部图片的风险识别方法、装置、计算机设备及存储介质
CN110399818A (zh) * 2019-07-15 2019-11-01 联动优势科技有限公司 一种风险预测的方法和设备
CN110909595B (zh) * 2019-10-12 2023-04-18 平安科技(深圳)有限公司 面部动作识别模型训练方法、面部动作识别方法
CN110909595A (zh) * 2019-10-12 2020-03-24 平安科技(深圳)有限公司 面部动作识别模型训练方法、面部动作识别方法
CN111144360A (zh) * 2019-12-31 2020-05-12 新疆联海创智信息科技有限公司 多模信息识别方法、装置、存储介质及电子设备
CN111401197A (zh) * 2020-03-10 2020-07-10 支付宝(杭州)信息技术有限公司 一种图片风险识别方法、装置及设备
CN111401197B (zh) * 2020-03-10 2023-08-15 支付宝(杭州)信息技术有限公司 一种图片风险识别方法、装置及设备
CN111768286A (zh) * 2020-05-14 2020-10-13 北京旷视科技有限公司 风险预测方法、装置、设备及存储介质
CN111768286B (zh) * 2020-05-14 2024-02-20 北京旷视科技有限公司 风险预测方法、装置、设备及存储介质
CN111639584A (zh) * 2020-05-26 2020-09-08 深圳壹账通智能科技有限公司 基于多分类器的风险识别方法、装置及计算机设备
CN111967306A (zh) * 2020-07-02 2020-11-20 广东技术师范大学 目标远程监控方法、装置、计算机设备及存储介质
CN112001231A (zh) * 2020-07-09 2020-11-27 哈尔滨工业大学(深圳) 加权多任务稀疏表示的三维人脸识别方法、系统及介质
CN112001231B (zh) * 2020-07-09 2023-07-21 哈尔滨工业大学(深圳) 加权多任务稀疏表示的三维人脸识别方法、系统及介质
CN113705472B (zh) * 2021-08-30 2024-01-26 平安国际智慧城市科技股份有限公司 基于图像识别的异常摄像头排查方法、装置、设备及介质
CN113705472A (zh) * 2021-08-30 2021-11-26 平安国际智慧城市科技股份有限公司 基于图像识别的异常摄像头排查方法、装置、设备及介质
CN115909468A (zh) * 2023-01-09 2023-04-04 广州佰锐网络科技有限公司 人脸五官遮挡检测方法、存储介质及系统
CN118135498A (zh) * 2024-05-08 2024-06-04 成都新希望金融信息有限公司 基于ai的双录实时风险识别方法、装置、设备及介质

Also Published As

Publication number Publication date
SG11202103323VA (en) 2021-04-29
EP3896601A4 (en) 2022-01-26
JP7078803B2 (ja) 2022-05-31
KR20210100602A (ko) 2021-08-17
JP2022501729A (ja) 2022-01-06
PH12021551368A1 (en) 2021-11-29
WO2020119450A1 (zh) 2020-06-18
EP3896601A1 (en) 2021-10-20

Similar Documents

Publication Publication Date Title
CN109711297A (zh) 基于面部图片的风险识别方法、装置、计算机设备及存储介质
CN103902961B (zh) 一种人脸识别方法及装置
CN104091147B (zh) 一种近红外眼睛定位及眼睛状态识别方法
CN103093215B (zh) 人眼定位方法及装置
KR101185525B1 (ko) 서포트 벡터 머신 및 얼굴 인식에 기초한 자동 생체 식별
JP6330385B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN108985159A (zh) 人眼模型训练方法、人眼识别方法、装置、设备及介质
CN108985155A (zh) 嘴巴模型训练方法、嘴巴识别方法、装置、设备及介质
CN106682578B (zh) 基于眨眼检测的弱光人脸识别方法
CN103136504A (zh) 人脸识别方法及装置
CN106056064A (zh) 一种人脸识别方法及人脸识别装置
CN104021384B (zh) 一种人脸识别方法及装置
CN114287878A (zh) 一种基于注意力模型的糖尿病性视网膜病变病灶图像识别方法
CN109543629B (zh) 一种眨眼识别方法、装置、设备及可读存储介质
CN105224285A (zh) 眼睛开闭状态检测装置和方法
CN104598888B (zh) 一种人脸性别的识别方法
CN103902962A (zh) 一种遮挡或光源自适应人脸识别方法和装置
CN111539911B (zh) 一种口呼吸面容识别方法、设备和存储介质
CN106650574A (zh) 基于PCANet的人脸识别方法
CN109034133A (zh) 一种人脸识别方法及装置
CN105975952A (zh) 一种视频图像中大胡子检测的方法及系统
CN104091173A (zh) 一种基于网络摄像机的性别识别方法及装置
CN113436735A (zh) 基于人脸结构度量的体重指数预测方法、设备和存储介质
CN117351537B (zh) 一种基于深度学习的猕猴脸部智能识别方法及系统
CN110555422B (zh) 驾驶行为检测算法优化方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190503