CN112818899A - 人脸图像处理方法、装置、计算机设备和存储介质 - Google Patents

人脸图像处理方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN112818899A
CN112818899A CN202110196801.XA CN202110196801A CN112818899A CN 112818899 A CN112818899 A CN 112818899A CN 202110196801 A CN202110196801 A CN 202110196801A CN 112818899 A CN112818899 A CN 112818899A
Authority
CN
China
Prior art keywords
user
image
category
face
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110196801.XA
Other languages
English (en)
Inventor
吴茜
赵山河
郭海旭
严超
王星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Merchants Union Consumer Finance Co Ltd
Original Assignee
Merchants Union Consumer Finance Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Merchants Union Consumer Finance Co Ltd filed Critical Merchants Union Consumer Finance Co Ltd
Priority to CN202110196801.XA priority Critical patent/CN112818899A/zh
Publication of CN112818899A publication Critical patent/CN112818899A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种人脸图像处理方法、装置、计算机设备和存储介质。所述方法包括:获取用户图像;对所述用户图像进行人脸定位,识别用户面部表情;对所述用户图像进行视觉检测,确定用户体貌类别;对所述用户图像进行图像识别,确定图像背景类别;从所述用户图像中获取图像颜色特征;将所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征输入至已训练的分类模型,确定用户信用等级。采用本方法能够提高人脸图像重复使用率。

Description

人脸图像处理方法、装置、计算机设备和存储介质
技术领域
本申请涉及图像处理技术领域,特别是涉及一种人脸图像处理方法、装置、计算机设备和存储介质。
背景技术
随着图像处理技术的发展,出现了人脸识别技术(Face RecognitionTechnology)。人脸识别技术是利用分析比较的计算机技术识别人脸的技术,通过人脸进行身份确认或者身份查找。
人脸识别的时候,基于人的脸部特征对输入的人脸图像或者视频流依次进行如下处理:首先判断是否存在人脸;如果存在人脸,则再进一步给出每个人脸的位置、大小和各个主要面部器官的位置信息;然后依据这些信息,进一步提取每个人脸中所蕴含的身份特征,并将其与已知的人脸进行对比,从而识别每个人脸的身份。
然而,目前采集的人脸图像通常都是以海量图片小文件的形式存储下来,被动地等待人脸比对进行身份验证,重复利用率很低,造成了资料的浪费。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高人脸图像重复使用率的人脸图像处理方法、装置、计算机设备和存储介质。
一种人脸图像处理方法,所述方法包括:
获取用户图像;
对所述用户图像进行人脸定位,识别用户面部表情;
对所述用户图像进行视觉检测,确定用户体貌类别;
对所述用户图像进行图像识别,确定图像背景类别;
从所述用户图像中获取图像颜色特征;
将所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征输入至已训练的分类模型,确定用户信用等级。
在其中一个实施例中,所述对所述用户图像进行人脸定位,识别用户面部表情,包括:
在所述用户图像上进行关键特征点定位,确定五官特征点在用户面部上的位置;
基于所述五官特征点在用户面部上的位置,确定用户面部几何特征;
根据面部几何特征和面部表情的对应关系,确定所述用户面部几何特征对应的用户面部表情。
在其中一个实施例中,所述在所述用户图像上进行关键特征点定位,确定五官特征点在用户面部上的位置,包括:
对所述用户图像进行人脸检测,确定所述用户图像中的关键特征点;
利用所述关键特征点,由所述用户图像得到与标准人脸图像对齐的处理图像;
将所述关键特征点在所述处理图像中的分布位置,作为五官特征点在用户面部上的位置。
在其中一个实施例中,所述对所述用户图像进行视觉检测,确定用户体貌类别,包括:
从所述用户图像中提取像素数据;
将所述像素数据分别输入至各种卷积核,得到对应的体貌特征;
将所述体貌特征输入至对应的分类模型,得到用户体貌类别。
在其中一个实施例中,所述对所述用户图像进行图像识别,确定图像背景类别,包括:
对所述用户图像中的像素进行聚类,将所述用户图像划分为前景图像和背景图像;
从所述用户图像中去除所述前景图像,并按照所述背景图像对所述用户图像中去除部分进行填充,得到填充图像;
确定所述填充图像所属的类别,作为图像背景类别。
在其中一个实施例中,所述将所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征输入至已训练的分类模型,确定用户信用等级,包括:
获取已训练的GBDT模型;所述GBDT模型包括至少一棵二叉树,每棵所述二叉树包括至少一个父结点和每个所述父结点连接的两个子结点;每个所述父结点对应判断所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征中的一个对应的类别,同一个所述父结点连接的两个子结点分别对应所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征中的一个对应的一种类别;各个所述子结点具有不同的信用分;
对每棵所述二叉树进行访问,并在访问每个所述父结点时,根据所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征中的一个从所述父结点连接的两个子结点中选择一个进行访问;
将访问的所有子结点具有的信用分相加,得到用户信用分;
将所述用户信用分输入至逻辑回归模型,得到所述用户信用等级。
在其中一个实施例中,所述方法还包括:
若多张所述用户图像的图像背景类别相同,则获取多张所述用户图像的上传时间;
若多张所述用户图像的上传时间的相差时长小于设定时长,则判定多张所述用户图像对应用户属于高风险团伙。
一种人脸图像处理装置,所述装置包括:
图像获取模块,用于获取用户图像;
表情识别模块,用于对所述用户图像进行人脸定位,识别用户面部表情;
体貌确定模块,用于对所述用户图像进行视觉检测,确定用户体貌类别;
背景确定模块,用于对所述用户图像进行图像识别,确定图像背景类别;
特征获取模块,用于从所述用户图像中获取图像颜色特征;
信用确定模块,用于将所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征输入至已训练的分类模型,确定用户信用等级。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
获取用户图像;
对所述用户图像进行人脸定位,识别用户面部表情;
对所述用户图像进行视觉检测,确定用户体貌类别;
对所述用户图像进行图像识别,确定图像背景类别;
从所述用户图像中获取图像颜色特征;
将所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征输入至已训练的分类模型,确定用户信用等级。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
获取用户图像;
对所述用户图像进行人脸定位,识别用户面部表情;
对所述用户图像进行视觉检测,确定用户体貌类别;
对所述用户图像进行图像识别,确定图像背景类别;
从所述用户图像中获取图像颜色特征;
将所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征输入至已训练的分类模型,确定用户信用等级。
上述人脸图像处理方法、装置、计算机设备和存储介质,在获取用户图像之后,分别基于用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征,并将用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,可以充分利用人脸图像确定用户信用等级,提高人脸图像的利用率,避免资源浪费。而且用户信用等级是综合用户面部表情、用户体貌类别、图像背景类别和图像颜色特征这些特征得到的,准确率很高。
附图说明
图1为一个实施例中人脸图像处理方法的一种应用环境图;
图2为一个实施例中人脸图像处理方法的另一种应用环境图;
图3为一个实施例中人脸图像处理方法的流程示意图;
图4为一个实施例中人脸图像处理装置的结构框图;
图5为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的人脸图像处理方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。终端102拍摄用户图像,并发送给服务器104。服务器104在获取到用户图像之后,分别从四个方面对用户图像进行处理:第一,对用户图像进行人脸检测,识别用户面部表情;第二,对用户图像进行视觉检测,确定用户体貌类别;第三,对用户图像进行图像识别,确定图像背景类别;第四,从用户图像中获取图像颜色特征。然后将用户面部表情、用户体貌类别、图像背景类别和图像颜色特征一起输入到已训练的分类模型中,确定用户信用等级。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
本申请提供的人脸图像处理方法,可以应用于如图2所示的应用环境中。其中,存储设备202通过网络与服务器204进行通信。存储设备202内存储有用户图像,服务器204从存储设备202中获取用户图像。服务器104在获取到用户图像之后,分别从四个方面对用户图像进行处理:第一,对用户图像进行人脸检测,识别用户面部表情;第二,对用户图像进行视觉检测,确定用户体貌类别;第三,对用户图像进行图像识别,确定图像背景类别;第四,从用户图像中获取图像颜色特征。然后将用户面部表情、用户体貌类别、图像背景类别和图像颜色特征一起输入到已训练的分类模型中,确定用户信用等级。其中,存储设备202可以用独立的存储设备或者是多个存储设备组成的集群存储系统来实现,服务器204可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图3所示,提供了一种人脸图像处理方法,以该方法应用于图1或图2中的服务器为例进行说明,包括以下步骤:
步骤S302,获取用户图像。
其中,用户图像为包含用户人脸的图像,如身份认证时拍摄的图像。
示例性地,用户图像可以为用户肩膀以上部位的图像,也可以为用户身体上半部分的图像,还可以为用户全身的全身像。
具体地,用户通常为服务请求方,可以通过终端向服务器提出某种服务请求,如借贷、抵押等。此时需要终端拍摄用户图像并上传到服务器,服务器获取到用户图像,可以基于用户图像对用户进行身份验证,也可以基于用户图像评估用户信用等级。
在实际应用中,可以由终端先拍摄用户图像,再将用户图像和服务器请求一起发送给服务器;也可以由终端先向服务器发送服务请求,服务器根据服务请求向终端索取用户图像,此时终端再拍摄用户图像并发送给服务器。
另外,用户也可以直接向服务器提出服务请求,此时由服务器拍摄用户图像,获取到用户图像。
具体地,服务器或者终端拍摄用户图像时,一方面通过摄像头拍摄图像,另一方面可以通过显示屏向用户展示摄像头当前拍摄的图像,以指示用户及时调整自身相对于摄像头的位置和姿态,确保摄像头能够拍摄到完整的人脸图像。
进一步地,服务器或者终端还可以通过显示屏向用户同步显示人脸轮廓,如在展示图像左右之间的中间区域同步显示人脸轮廓,用户可以根据同步显示的自身图像和人脸轮廓之间的相对位置关系,调整自身相对于摄像头的位置和姿态,使摄像头拍摄的人脸图像位于指定区域内,有利于在用户图像上进行准确定位。
本实施例中,服务器获取用户图像,可以分别基于用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征,并将用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,利用人脸图像确定用户信用等级,提高人脸图像的利用率,避免资源浪费。
步骤S304,对用户图像进行人脸定位,识别用户面部表情。
其中,人脸定位(Face Location)是确定人脸位置,可以在人脸检测的基础上,进一步确定脸部特征点(如眼睛、眉毛、鼻子、嘴巴、脸部外轮廓等)的位置。人脸检测(FaceDetection)是指对于任意一幅给定的图像,采用一定的策略对其进行搜索以确定其中是否含有人脸,如果是则返回各个人脸的位置和大小。
面部表情(facial expression)是指通过眼部肌肉、颜面肌肉和口部肌肉的变化来表现各种情绪状态,如兴奋、喜欢、惊讶、痛苦、恐惧、含羞、厌恶、愤怒等。对用户图像进行人脸定位,可以得到脸部特征点的位置,再基于脸部特征点的位置,可以识别出用户面部表情。
具体地,对用户图像进行人脸定位,得到脸部特征点的位置;根据脸部特征点的位置,确定用户五官形状;基于用户五官形状相对标准五官形状的变化情况,确定对应的情绪状态并作为用户面部表情。其中,标准五官形状为无面部表情时的五官形状。
本实施例中,服务器对用户图像进行人脸定位,识别用户面部表情,可以基于用户面部表情,确定用户信用等级。用户面部表情可以反映用户的情绪状态和精神状态,特别是微表情。微表情是一种在人试图掩盖内在情绪时产生的自发式表情,既无法伪造也无法抑制,可以通过微表情识别用户的真实目的。因此,基于用户面部表情确定用户信用等级,可以有效识别出高风险用户,提高用户信用等级评定的准确度。
步骤S306,对用户图像进行视觉检测,确定用户体貌类别。
其中,视觉检测是用机器代替人眼来做测量和判断。视觉检测时,先将被摄取目标转换成图像信号;再将像素分布和亮度、颜色等信息,转变成数字化信号;对这些数字化信号进行各种运算来抽取目标的特征进行判别,得到判别结果,如用户体貌类别。
体貌类别是形体面貌所属的类别,如是否染发、有没纹身、是否赤膊等。
具体地,对用户图像进行视觉检测,得到用户体貌特征;将用户体貌特征与标准体貌特征进行对比,确定用户体貌类别。其中,标准体貌特征为某一类别的体貌特征,如染发的体貌特征、纹身的体貌特征、赤膊的体貌特征等。
本实施例中,服务器对用户图像进行视觉检测,确定用户体貌类别,可以基于用户体貌类别,确定用户信用等级。用户体貌类别可以反映用户的生活环境和性格特点,了解用户信用的维护能力,为用户信用等级评估提供参考信息。因此,基于用户体貌类别确定用户信用等级,可以提高用户信用等级评定的准确度。
步骤S308,对用户图像进行图像识别,确定图像背景类别。
其中,图像识别是指利用计算机对图像进行处理,以识别各种不同模式的目标和对象的技术。图像背景类别为图像中背景部分所属的类别,如某种布置方式的室内空间、某种款式的汽车等。对用户图像进行图像识别,可以从用户图像中提取出背景图像,进而确定图像背景类别。
具体地,先对用户图像进行预处理,得到待处理图像;再对待处理图像进行特征提取,得到图像背景特征;最后根据图像背景特征,确定图像背景类别。
本实施例中,对用户图像进行图像识别,确定图像背景类别,可以基于图像背景类别,确定用户信用等级。通常欺诈团伙的各个成员都会采用相同或者类似的背景,即图像背景类别相同,可以利用图像背景类别辨识这种高风险用户。因此,基于图像背景类别确定用户信用等级,有利于识别出高风险用户,提高用户信用等级评定的准确度。
步骤S310,从用户图像中获取图像颜色特征。
其中,图像颜色特征可以包括背景颜色是否单一、人物图像是否明亮等。
具体地,先获取用户图像中各个像素的颜色值,再对用户图像中各个像素的颜色值进行比较,确定图像颜色特征。
本实施例中,从用户图像中获取图像颜色特征,可以了解到用户图像的整体特点,为用户信用等级判定提供参考信息。
步骤S312,将用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,确定用户信用等级。
其中,分类模型为划分用户信用等级的模型。将用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,分类模型可以综合考虑用户面部表情、用户体貌类别、图像背景类别和图像颜色特征,划分出用户信用等级并输出。
本实施例中,利用已训练的分类模型针对用户面部表情、用户体貌类别、图像背景类别和图像颜色特征,确定对应的用户信用等级,实现简单方便。
上述人脸图像处理方法,在获取用户图像之后,分别基于用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征,并将用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,可以充分利用人脸图像确定用户信用等级,提高人脸图像的利用率,避免资源浪费。而且用户信用等级是综合用户面部表情、用户体貌类别、图像背景类别和图像颜色特征这些特征得到的,准确率很高。
在一个实施例中,在获取用户图像之后,该方法还包括:对用户图像进行处理。
示例性地,预处理包括但不限于图像尺寸统一、图像增强、人脸扶正和归一化处理中的至少一种。
本实施例中,将用户图像调整为统一尺寸,有利于后续采用相同模型进行处理,降低实现成本。对用户图像进行图像增强,可以增强图像中的有用信息,改善图像的视觉效果,有目的地强调图像的整体或者局部特性,将原来不清晰的图像变得清晰或者强调某些感兴趣的特征,扩大图像中不同物体特征之间的差别,抑制不感兴趣的特征,有利于后续特征的提取。将用户图像中的人脸扶正,有利于在用户图像中进行特征点定位。归一化处理可以方便数据的处理,提高数据处理的速度。
在一个实施例中,对用户图像进行人脸检测,识别用户面部表情,包括:在用户图像上进行关键特征点定位,确定五官特征点在用户面部上的位置;基于五官特征点在用户面部上的位置,确定用户面部几何特征;根据面部几何特征和面部表情的对应关系,确定用户面部几何特征对应的用户面部表情。
其中,特征点指的是图像灰度值发生剧烈变化的点或者在图像边缘上曲率较大的点。关键特征点是对人脸图像进行定位的特征点。基于关键特征点,可以定位出人脸的分布区域。关键特征点主要是五官特征点。五官特征点为人脸图像中形成五官轮廓的特征点。基于五官特征点,可以确定五官形状和相互之间的位置关系。
面部几何特征主要指的是面部五官的形状和分布区域。示例性地,面部几何特征包括但不限于两个器官的间距、单个器官的占比、单个器官在某条轮廓线上的长度、单个器官两条轮廓线的夹角、单个器官某条轮廓线的弯曲程度、同一器官是否左右对称。例如,两个眼睛是否左右对称、两个眼睛的间距、眼角曲率、嘴角弧度、口唇上下距离等。
具体地,可以采用人脸定位算法对用户图像进行处理,在用户图像上找到各个关键特征点。基于各个关键特征点所属的器官和所在的位置,得到五官特征点在用户面部上的位置。根据五官特征点在用户面部上的位置,确定各个五官特征点的分布特点,得到用户面部几何特征。根据面部几何特征和面部表情的对应关系,即可得到用户面部几何特征对应的用户面部表情。
本实施例中,在用户图像上进行关键特征点定位,可以确定五官特征点在用户面部上的位置。然后基于五官特征点在用户面部上的位置,可以确定用户面部几何特征。最后根据面部几何特征和面部表情的对应关系,即可确定用户面部几何特征对应的用户面部表情。
在一个实施例中,在用户图像上进行关键特征点定位,确定五官特征点在用户面部上的位置,包括:对用户图像进行人脸检测,确定用户图像中的关键特征点;利用关键特征点,由用户图像得到与标准人脸图像对齐的处理图像;将关键特征点在处理图像中的分布位置,作为五官特征点在用户面部上的位置。
其中,标准人脸图像为预先存储的标记有关键特征点的人脸图像。
具体地,采用人脸检测算法对用户图像进行处理,可以得到用户图像中的关键特征点。对比用户图像中部分关键特征点的位置关系与标准人脸图像中对应关键特征点的位置关系,对用户图像进行缩放、翻转、截取中的至少一种处理得到处理图像,使处理图像中这些关键特征点的位置关系与标准人脸图像中对应关键特征点的位置关系一致。将各个关键特征点在处理图像中的分布位置,确定为五官特征点在用户面部上的位置。
例如,对用户图像进行人脸检测,确定用户图像中的眼睛特征点、鼻子特征点、嘴巴特征点、耳朵特征点和脸部轮廓特征点。对比用户图像中左右眼睛特征点之间的距离与标准人脸图像中左右眼睛特征点之间的距离,对用户图像进行缩放,使处理图像中左右眼睛特征点之间的距离与标准人脸图像中左右眼睛特征点之间的距离相同。根据用户图像中左右眼睛特征点的连线是否与图像边缘平行或者垂直,对用户图像进行翻转和截取,使处理图像中左右眼睛特征点的连线与图像边缘平行或者垂直。最后将处理图像中眼睛特征点、鼻子特征点、嘴巴特征点、耳朵特征点和脸部轮廓特征点,作为五官特征点在用户面部上的位置。
示例性地,人脸检测可以采用已训练的CNN(Convolutional Neural Networks,卷积神经网络)模型,从而在光照、姿势、面部表情等条件不同的用户图像中准确提取到关键特征点。
本实施例中,对用户图像进行人脸检测,可以得到用户图像中的关键特征点。然后针对用户图像与标准人脸图像中关键特征点的分布差异,可以将用户图像与标准人脸图像对齐,得到处理图像。最后将处理图像中关键特征点的分布位置,作为五官特征点在用户面部上的位置即可。
在一个实施例中,基于五官特征点在用户面部上的位置,确定用户面部几何特征,包括:依次连接同一器官的五官特征点;基于同一器官的五官特征点在用户面部上的位置,得到各个器官在用户面部上的分布区域;基于各个器官在用户面部上的分布区域,得到各个器官的轮廓;基于各个器官的轮廓,确定各个器官的形状、长度、转角、曲率、对称性,以及各个器官的间距、比例、相对位置,得到用户面部几何特征。
示例性地,面部几何特征包括但不限于以下的至少一种:人脸各区域的长宽比例、五官间距、五官比例、五官对称性、下巴轮廓的弧长、下巴轮廓的切线转角、下巴轮廓的曲率、瞳孔间距、瞳孔偏移角度、眼睛上下轮廓弧长、眼睛上下轮廓弧长、眼睛上下轮廓曲率、左右眼睛对称性、内外眉角距离、内外眉角角度、眉毛上下轮廓弧长、眉毛上下轮廓曲率、左右眉毛对称性、嘴角角度、嘴唇厚度、上下嘴唇轮廓弧长、上下嘴唇轮廓切线转角、上下嘴唇轮廓曲率、嘴唇上下对称性、鼻子大小、左右鼻翼轮廓弧长、左右鼻翼轮廓切线转角、鼻翼左右对称性、鼻底轮廓弧长、鼻底轮廓切线转角、鼻底轮廓曲率。
在一个实施例中,根据面部几何特征和面部表情的对应关系,确定用户面部几何特征对应的用户面部表情,包括:获取面部几何特征和面部表情的对应关系;在获取的对应关系中查找用户面部几何特征,得到用户面部几何特征对应的用户面部表情。
例如,双眼外侧眼角的曲率大于曲率阈值,说明双眼睁得很大,此时用户应该处于兴奋状态,即用户面部表情为兴奋。又如,嘴角弧度大于弧度阈值,或者,口唇上下距离大于距离阈值,说明嘴巴张得很大,此时用户应该处于高兴状态,即用户面部表情为高兴。再如,瞳孔在眼眶中的角度大于角度阈值,说明用户未正视前方,此时用户应该处于紧张状态,即用户面部表情为紧张。
在一个实施例中,对用户图像进行视觉检测,确定用户体貌类别,包括:从用户图像中提取像素数据;将像素数据分别输入至各种卷积核,得到对应的体貌特征;将体貌特征输入至对应的分类模型,得到用户体貌类别。
其中,图像处理时,给定输入图像,输入图像中一个小区域中像素加权平均后成为输出图像中的每个对应像素,其中权值由一个函数定义,这个函数称为卷积核。卷积核相当于滤波器,可以对图像从边缘、形状、颜色等维度进行特征提取,帮忙机器认识图像特点。
示例性地,体貌特征可以包括但不限于以下的至少一种:拍摄角度、衣着妆发、整体面相、眼睛眼镜和嘴巴口罩。拍摄角度包括抬头角度、摇头角度、平面旋转角度等。衣着妆发包括赤膊、帽子、耳机、工牌、项链、领带、纹身、光头、染发等。整体面相包括年龄、性别、颜值高低、人脸情绪、生物信息比对等。眼睛眼镜包括睁闭眼、眼镜、墨镜、是否遮挡等。嘴巴口罩包括张闭嘴、口罩、面具、是否遮挡等。
具体地,可以将用户图像中各个像素的取值形成像素数据。分别将像素数据输入至不同的卷积核中,可以得到不同的体貌特征。再判定体貌特征的类别,即可得到用户体貌类别。
例如,将像素数据输入至获取睁闭眼特征的卷积核中,可以得到用户睁闭眼的特征值。根据这个特征值,即可确定用户是睁眼还是闭眼。又如,将像素数据输入至获取张闭嘴特征的卷积核中,可以得到用户张闭嘴的特征值。根据这个特征值,即可确定用户是张嘴还是闭嘴。再如,将像素数据输入至获取年龄特征的卷积核中,可以得到用户年龄特征值。根据这个特征值,即可确定用户的年龄范围。
示例性地,分类模型可以集成CNN和Sigmoid算法。
本实施例中,从用户图像中提取像素数据,以方便卷积核进行特征提取。分别将像素数据分别输入至不同的卷积核,可以得到不同的体貌特征。将体貌特征输入至对应的分类模型,即可用户体貌类别。
另外,视觉检测还可以确定图像特征,图像特征也可以输入至已训练的分类模型,确定用户信用等级。
其中,图像特征包括图像参数和/或图像背景。图像参数包括清晰度、对比度、色彩饱和度、色域均值、色域标准差等。图像背景包括车辆内部空间、上下铺位置、人脸数量等。
在一个实施例中,对用户图像进行图像识别,确定图像背景类别,包括:对用户图像中的像素进行聚类,将用户图像划分为前景图像和背景图像;从用户图像中去除前景图像,并按照背景图像对用户图像中去除部分进行填充,得到填充图像;确定填充图像所属的类别,作为图像背景类别。
其中,聚类是将物理或抽象对象的集合分成由类似的对象组成的多个类的过程。由聚类所生成的簇是一组数据对象的集合,这些对象与同一个簇中的对象彼此相似,与其他簇中的对象相异。
具体地,采用聚类算法对用户图像中各个像素进行聚类,前景图像中的各个像素聚集到一个集合中,背景图像中的各个像素聚集到另一个集合中。根据两个集合的边界线,可以将用户图像划分为前景图像和背景图像。然后从用户图像中去除前景图像,用户图像中前景图像所在区域变成空白区域。此时基于背景图像预测空白区域的图像进行填充,恢复被用户遮挡的背景,实现用户图像拍摄区域的背景复原。
示例性地,可以采用DBSCAN(Density-Based Spatial Clustering ofApplications with Noise,具有噪声的基于密度的聚类方法)聚类算法对用户图像中的像素进行聚类。
DBSCAN假定类别可以通过样本分布的紧密程度决定。同一类别的样本,他们之间的紧密相连的,也就是说,在该类别任意样本周围不远处一定有同类别的样本存在。通过将紧密相连的样本划为一类,这样就得到了一个聚类类别。通过将所有各组紧密相连的样本划为各个不同的类别,可以得到最终的聚类类别结果。既可以适用于凸样本集,也可以适用于非凸样本集,而且实现速度较快,可以实时动态地将用户图像划分为前景图像和背景图像,并在具有噪声的空间像素数据集中可以发现任意形状的簇,便于有效划分前景图像和背景图像。
示例性地,可以采用Deeplabv3模型、Resnet50模型和Inpainting模型级联构成的系统将用户图像转换成填充图像。
Deeplabv3模型可以进行语义分割,简单地对图像中各个像素点分类,并将图像根据内容分成不同的块,可以从用户图像中去除前景图像。Resnet50模型将靠前若干层的某一层数据输出直接跳过多层引入到后面数据层的输入部分,使后面的特征层的内容会有一部分由其前面的某一层线性贡献,可以克服由于网络深度加深而产生的学习效率变低与准确率无法有效提升的问题。Inpainting模型可以对受到损坏的图像进行修复重建或者去除图像中的多余物体,可以按照背景图像对用户图像中去除部分进行填充。
本实施例中,对用户图像中的像素进行聚类,前景图像中的像素可以聚集到一个类别中,背景图像中的像素可以聚集到另一个类别中,从而将用户图像划分为前景图像和背景图像。用户图像划分为前景图像和背景图像之后,可以从用户图像中去除前景图像,用户图像中前景图像所在区域空白。此时按照背景图像对用户图像中去除部分进行填充,得到的填充图像是一个完整的背景图像。基于填充图像,即可确定图像背景类别。
在一个实施例中,从用户图像中获取图像颜色特征,包括:从用户图像中获取各个像素的颜色值;根据各个像素的颜色值,确定用户图像中颜色值的波动幅度和明亮度,得到图像颜色特征。
其中,波动幅度为用户图像中各个像素颜色值的最大差值,明亮度为用户图像中各个像素颜色值的分布范围。
在本实施例中,用户图像中颜色值的波动幅度可以表明背景图像是否单一,用户图像中颜色值的明亮度可以表明用户图像是否颜色鲜艳,这些信息都可以为用户信用等级确定提供参考。
在一个实施例中,将用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,确定用户信用等级,包括:获取已训练的GBDT(GradientBoosting Decision Tree,梯度提升决策树)模型;对每棵二叉树进行访问,并在访问每个父结点时,根据用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个从父结点连接的两个子结点中选择一个进行访问;将访问的所有子结点具有的信用分相加,得到用户信用分;将用户信用分输入至逻辑回归模型,得到用户信用等级。
其中,GBDT模型包括至少一棵二叉树,每棵二叉树包括至少一个父结点和每个父结点连接的两个子结点;每个父结点对应判断用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个对应的类别,同一个父结点连接的两个子结点分别对应用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个对应的一种类别;各个子结点具有不同的信用分。
其中,GBDT模型是一种迭代的决策树算法,该算法由多棵决策树组成,所有决策树的预测结果累加起来作为最终答案。
逻辑回归模型是一种用于解决二分类问题的机器学习模型,用于估计某种事物的可能性。例如,用户的信用风险等级是有风险还是无风险,或者是高风险还是低风险。
具体地,将用户面部表情、用户体貌类别、图像背景类别和图像颜色特征依次输入至GBDT模型,遍历GBDT模型中的每棵决策树,并在每次访问到决策树中的一个分支结点时,基于输入选择这个分支结点对应的子结点进行访问。最后将所有访问到的结点具有的数值累加起来,得到最终结果并输出。然后将输出结果输入至逻辑回归模型,可以得到用户的信用风险等级。
本实施例中,获取已训练的GBDT模型,可以对每棵二叉树进行访问,并在访问每个父结点时,根据用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个从父结点连接的两个子结点中选择一个进行访问。然后将访问的所有子结点具有的信用分相加,得到用户信用分。最后将用户信用分输入至逻辑回归模型,即可得到用户信用等级。
在一个实施例中,该方法还包括:若多张用户图像的图像背景类别相同,则获取多张用户图像的上传时间;若多张用户图像的上传时间的相差时长小于设定时长,则判定多张用户图像对应用户属于高风险团伙。
本实施例中,如果多张用户图像的图像背景类别相同,则获取这些用户图像的上传时间,并确定这些用户图像的上传时间是否接近。如果这些用户图像的上传时间接近,则说明这些用户图像对应用户可能属于同一个欺诈团伙,属于高风险团伙。因此,若多张用户图像的上传时间的相差时长小于设定时长,则判定多张用户图像对应用户属于高风险团伙。通过识别出欺诈团伙,可以进一步提高用户信用等级确定的准确性。
应该理解的是,虽然图3的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图3中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图4所示,提供了一种人脸图像处理装置,包括:图像获取模块401、表情识别模块402、体貌确定模块403、背景确定模块404、特征获取模块405和信用确定模块406,其中:
图像获取模块401,用于获取用户图像。
表情识别模块402,用于对用户图像进行人脸定位,识别用户面部表情。
体貌确定模块403,用于对用户图像进行视觉检测,确定用户体貌类别。
背景确定模块404,用于对用户图像进行图像识别,确定图像背景类别。
特征获取模块405,用于从用户图像中获取图像颜色特征。
信用确定模块406,用于将用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,确定用户信用等级。
在一个实施例中,表情识别模块402包括:位置确定单元、几何特征确定单元和表情确定单元。位置确定单元,用于在用户图像上进行关键特征点定位,确定五官特征点在用户面部上的位置。几何特征确定单元,用于基于五官特征点在用户面部上的位置,确定用户面部几何特征。表情确定单元,用于根据面部几何特征和面部表情的对应关系,确定用户面部几何特征对应的用户面部表情。
在一个实施例中,位置确定单元用于,对用户图像进行人脸检测,确定用户图像中的关键特征点;利用关键特征点,由用户图像得到与标准人脸图像对齐的处理图像;将关键特征点在处理图像中的分布位置,作为五官特征点在用户面部上的位置。
在一个实施例中,体貌确定模块包括:数据提取单元、体貌特征确定单元和体貌类别确定单元。数据提取单元,用于从用户图像中提取像素数据。体貌特征确定单元,用于将像素数据分别输入至各种卷积核,得到对应的体貌特征。体貌类别确定单元,用于将体貌特征输入至对应的分类模型,得到用户体貌类别。
在一个实施例中,背景确定模块包括:图像划分单元、图像确定单元和背景类别确定单元。图像划分单元,用于对用户图像中的像素进行聚类,将用户图像划分为前景图像和背景图像。图像确定单元,用于从用户图像中去除前景图像,并按照背景图像对用户图像中去除部分进行填充,得到填充图像。背景类别确定单元,用于确定填充图像所属的类别,作为图像背景类别。
在一个实施例中,信用确定模块用于,获取已训练的GBDT模型;GBDT模型包括至少一棵二叉树;对每棵二叉树进行访问,并在访问每个父结点时,根据用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个从父结点连接的两个子结点中选择一个进行访问;将访问的所有子结点具有的信用分相加,得到用户信用分;将用户信用分输入至逻辑回归模型,得到用户信用等级。
其中,每棵二叉树包括至少一个父结点和每个父结点连接的两个子结点;每个父结点对应判断用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个对应的类别,同一个父结点连接的两个子结点分别对应用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个对应的一种类别;各个子结点具有不同的信用分。
在一个实施例中,该装置还包括时间获取模块和团伙确定模块。时间获取模块,用于当多张用户图像的图像背景类别相同时,获取多张用户图像的上传时间。团伙确定模块,用于当多张用户图像的上传时间的相差时长小于设定时长时,判定多张用户图像对应用户属于高风险团伙。
上述人脸图像处理装置,在获取用户图像之后,分别基于用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征,并将用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,可以充分利用人脸图像确定用户信用等级,提高人脸图像的利用率,避免资源浪费。而且用户信用等级是综合用户面部表情、用户体貌类别、图像背景类别和图像颜色特征这些特征得到的,准确率很高。
关于人脸图像处理装置的具体限定可以参见上文中对于人脸图像处理方法的限定,在此不再赘述。上述人脸图像处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图5所示。该计算机设备包括通过系统总线连接的处理器、存储器和网络接口。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储用户图像。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种人脸图像处理方法。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:获取用户图像;对用户图像进行人脸定位,识别用户面部表情;对用户图像进行视觉检测,确定用户体貌类别;对用户图像进行图像识别,确定图像背景类别;从用户图像中获取图像颜色特征;将用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,确定用户信用等级。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:在用户图像上进行关键特征点定位,确定五官特征点在用户面部上的位置;基于五官特征点在用户面部上的位置,确定用户面部几何特征;根据面部几何特征和面部表情的对应关系,确定用户面部几何特征对应的用户面部表情。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:对用户图像进行人脸检测,确定用户图像中的关键特征点;利用关键特征点,由用户图像得到与标准人脸图像对齐的处理图像;将关键特征点在处理图像中的分布位置,作为五官特征点在用户面部上的位置。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:从用户图像中提取像素数据;将像素数据分别输入至各种卷积核,得到对应的体貌特征;将体貌特征输入至对应的分类模型,得到用户体貌类别。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:对用户图像中的像素进行聚类,将用户图像划分为前景图像和背景图像;从用户图像中去除前景图像,并按照背景图像对用户图像中去除部分进行填充,得到填充图像;确定填充图像所属的类别,作为图像背景类别。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:获取已训练的GBDT模型;GBDT模型包括至少一棵二叉树,每棵二叉树包括至少一个父结点和每个父结点连接的两个子结点;每个父结点对应判断用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个对应的类别,同一个父结点连接的两个子结点分别对应用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个对应的一种类别;各个子结点具有不同的信用分;对每棵二叉树进行访问,并在访问每个父结点时,根据用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个从父结点连接的两个子结点中选择一个进行访问;将访问的所有子结点具有的信用分相加,得到用户信用分;将用户信用分输入至逻辑回归模型,得到用户信用等级。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:若多张用户图像的图像背景类别相同,则获取多张用户图像的上传时间;若多张用户图像的上传时间的相差时长小于设定时长,则判定多张用户图像对应用户属于高风险团伙。
上述计算机设备,在获取用户图像之后,分别基于用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征,并将用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,可以充分利用人脸图像确定用户信用等级,提高人脸图像的利用率,避免资源浪费。而且用户信用等级是综合用户面部表情、用户体貌类别、图像背景类别和图像颜色特征这些特征得到的,准确率很高。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取用户图像;对用户图像进行人脸定位,识别用户面部表情;对用户图像进行视觉检测,确定用户体貌类别;对用户图像进行图像识别,确定图像背景类别;从用户图像中获取图像颜色特征;将用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,确定用户信用等级。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:在用户图像上进行关键特征点定位,确定五官特征点在用户面部上的位置;基于五官特征点在用户面部上的位置,确定用户面部几何特征;根据面部几何特征和面部表情的对应关系,确定用户面部几何特征对应的用户面部表情。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:对用户图像进行人脸检测,确定用户图像中的关键特征点;利用关键特征点,由用户图像得到与标准人脸图像对齐的处理图像;将关键特征点在处理图像中的分布位置,作为五官特征点在用户面部上的位置。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:从用户图像中提取像素数据;将像素数据分别输入至各种卷积核,得到对应的体貌特征;将体貌特征输入至对应的分类模型,得到用户体貌类别。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:对用户图像中的像素进行聚类,将用户图像划分为前景图像和背景图像;从用户图像中去除前景图像,并按照背景图像对用户图像中去除部分进行填充,得到填充图像;确定填充图像所属的类别,作为图像背景类别。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:获取已训练的GBDT模型;GBDT模型包括至少一棵二叉树,每棵二叉树包括至少一个父结点和每个父结点连接的两个子结点;每个父结点对应判断用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个对应的类别,同一个父结点连接的两个子结点分别对应用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个对应的一种类别;各个子结点具有不同的信用分;对每棵二叉树进行访问,并在访问每个父结点时,根据用户面部表情、用户体貌类别、图像背景类别和图像颜色特征中的一个从父结点连接的两个子结点中选择一个进行访问;将访问的所有子结点具有的信用分相加,得到用户信用分;将用户信用分输入至逻辑回归模型,得到用户信用等级。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:若多张用户图像的图像背景类别相同,则获取多张用户图像的上传时间;若多张用户图像的上传时间的相差时长小于设定时长,则判定多张用户图像对应用户属于高风险团伙。
上述存储介质,在获取用户图像之后,分别基于用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征,并将用户图像得到用户面部表情、用户体貌类别、图像背景类别和图像颜色特征输入至已训练的分类模型,可以充分利用人脸图像确定用户信用等级,提高人脸图像的利用率,避免资源浪费。而且用户信用等级是综合用户面部表情、用户体貌类别、图像背景类别和图像颜色特征这些特征得到的,准确率很高。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-Only Memory,ROM)、磁带、软盘、闪存或光存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic Random Access Memory,DRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种人脸图像处理方法,其特征在于,所述方法包括:
获取用户图像;
对所述用户图像进行人脸定位,识别用户面部表情;
对所述用户图像进行视觉检测,确定用户体貌类别;
对所述用户图像进行图像识别,确定图像背景类别;
从所述用户图像中获取图像颜色特征;
将所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征输入至已训练的分类模型,确定用户信用等级。
2.根据权利要求1所述的方法,其特征在于,所述对所述用户图像进行人脸定位,识别用户面部表情,包括:
在所述用户图像上进行关键特征点定位,确定五官特征点在用户面部上的位置;
基于所述五官特征点在用户面部上的位置,确定用户面部几何特征;
根据面部几何特征和面部表情的对应关系,确定所述用户面部几何特征对应的用户面部表情。
3.根据权利要求2所述的方法,其特征在于,所述在所述用户图像上进行关键特征点定位,确定五官特征点在用户面部上的位置,包括:
对所述用户图像进行人脸检测,确定所述用户图像中的关键特征点;
利用所述关键特征点,由所述用户图像得到与标准人脸图像对齐的处理图像;
将所述关键特征点在所述处理图像中的分布位置,作为五官特征点在用户面部上的位置。
4.根据权利要求1至3任意一项所述的方法,其特征在于,所述对所述用户图像进行视觉检测,确定用户体貌类别,包括:
从所述用户图像中提取像素数据;
将所述像素数据分别输入至各种卷积核,得到对应的体貌特征;
将所述体貌特征输入至对应的分类模型,得到用户体貌类别。
5.根据权利要求1至3任意一项所述的方法,其特征在于,所述对所述用户图像进行图像识别,确定图像背景类别,包括:
对所述用户图像中的像素进行聚类,将所述用户图像划分为前景图像和背景图像;
从所述用户图像中去除所述前景图像,并按照所述背景图像对所述用户图像中去除部分进行填充,得到填充图像;
确定所述填充图像所属的类别,作为图像背景类别。
6.根据权利要求5所述的方法,其特征在于,所述将所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征输入至已训练的分类模型,确定用户信用等级,包括:
获取已训练的GBDT模型;所述GBDT模型包括至少一棵二叉树,每棵所述二叉树包括至少一个父结点和每个所述父结点连接的两个子结点;每个所述父结点对应判断所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征中的一个对应的类别,同一个所述父结点连接的两个子结点分别对应所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征中的一个对应的一种类别;各个所述子结点具有不同的信用分;
对每棵所述二叉树进行访问,并在访问每个所述父结点时,根据所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征中的一个从所述父结点连接的两个子结点中选择一个进行访问;
将访问的所有子结点具有的信用分相加,得到用户信用分;
将所述用户信用分输入至逻辑回归模型,得到所述用户信用等级。
7.根据权利要求1至3任意一项所述的方法,其特征在于,所述方法还包括:
若多张所述用户图像的图像背景类别相同,则获取多张所述用户图像的上传时间;
若多张所述用户图像的上传时间的相差时长小于设定时长,则判定多张所述用户图像对应用户属于高风险团伙。
8.一种人脸图像处理装置,其特征在于,所述装置包括:
图像获取模块,用于获取用户图像;
表情识别模块,用于对所述用户图像进行人脸定位,识别用户面部表情;
体貌确定模块,用于对所述用户图像进行视觉检测,确定用户体貌类别;
背景确定模块,用于对所述用户图像进行图像识别,确定图像背景类别;
特征获取模块,用于从所述用户图像中获取图像颜色特征;
信用确定模块,用于将所述用户面部表情、所述用户体貌类别、所述图像背景类别和所述图像颜色特征输入至已训练的分类模型,确定用户信用等级。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN202110196801.XA 2021-02-22 2021-02-22 人脸图像处理方法、装置、计算机设备和存储介质 Pending CN112818899A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110196801.XA CN112818899A (zh) 2021-02-22 2021-02-22 人脸图像处理方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110196801.XA CN112818899A (zh) 2021-02-22 2021-02-22 人脸图像处理方法、装置、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN112818899A true CN112818899A (zh) 2021-05-18

Family

ID=75864576

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110196801.XA Pending CN112818899A (zh) 2021-02-22 2021-02-22 人脸图像处理方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN112818899A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114415528A (zh) * 2021-12-08 2022-04-29 珠海格力电器股份有限公司 智能家居设备提醒方法、装置、计算机设备及存储介质
TWI827910B (zh) * 2021-02-18 2024-01-01 合作金庫商業銀行股份有限公司 信用評價方法與系統

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101493913A (zh) * 2008-01-23 2009-07-29 阿里巴巴集团控股有限公司 一种评估网上用户信用的方法及系统
CN108537990A (zh) * 2018-04-13 2018-09-14 深圳壹账通智能科技有限公司 一体机欺诈判断方法、装置、设备及计算机可读存储介质
CN109919754A (zh) * 2019-01-24 2019-06-21 北京迈格威科技有限公司 一种数据获取方法、装置、终端及存储介质
CN110427858A (zh) * 2019-07-26 2019-11-08 广州利科科技有限公司 一种结合图像的人物行为识别轨迹方法
CN111695410A (zh) * 2020-04-24 2020-09-22 平安国际智慧城市科技股份有限公司 违章举报方法、装置、计算机设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101493913A (zh) * 2008-01-23 2009-07-29 阿里巴巴集团控股有限公司 一种评估网上用户信用的方法及系统
CN108537990A (zh) * 2018-04-13 2018-09-14 深圳壹账通智能科技有限公司 一体机欺诈判断方法、装置、设备及计算机可读存储介质
CN109919754A (zh) * 2019-01-24 2019-06-21 北京迈格威科技有限公司 一种数据获取方法、装置、终端及存储介质
CN110427858A (zh) * 2019-07-26 2019-11-08 广州利科科技有限公司 一种结合图像的人物行为识别轨迹方法
CN111695410A (zh) * 2020-04-24 2020-09-22 平安国际智慧城市科技股份有限公司 违章举报方法、装置、计算机设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI827910B (zh) * 2021-02-18 2024-01-01 合作金庫商業銀行股份有限公司 信用評價方法與系統
CN114415528A (zh) * 2021-12-08 2022-04-29 珠海格力电器股份有限公司 智能家居设备提醒方法、装置、计算机设备及存储介质

Similar Documents

Publication Publication Date Title
CN110084259B (zh) 一种结合面部纹理和光流特征的面瘫分级综合评估系统
CN109657554B (zh) 一种基于微表情的图像识别方法、装置以及相关设备
WO2019237567A1 (zh) 基于卷积神经网络的跌倒检测方法
CN109284738B (zh) 不规则人脸矫正方法和系统
CN112215180B (zh) 一种活体检测方法及装置
CN111310624A (zh) 遮挡识别方法、装置、计算机设备及存储介质
CN109508638A (zh) 人脸情绪识别方法、装置、计算机设备及存储介质
CN111797683A (zh) 一种基于深度残差注意力网络的视频表情识别方法
CN112801057B (zh) 图像处理方法、装置、计算机设备和存储介质
Das et al. SSERBC 2017: Sclera segmentation and eye recognition benchmarking competition
CN112016527B (zh) 基于深度学习的大熊猫行为识别方法、系统、终端及介质
CN110532925B (zh) 基于时空图卷积网络的驾驶员疲劳检测方法
CN110543848B (zh) 一种基于三维卷积神经网络的驾驶员动作识别方法及装置
CN109583364A (zh) 图像识别方法及设备
CN111028216A (zh) 图像评分方法、装置、存储介质及电子设备
CN113139439B (zh) 一种基于人脸识别的在线学习专注度评价方法及装置
CN112818899A (zh) 人脸图像处理方法、装置、计算机设备和存储介质
WO2024109374A1 (zh) 换脸模型的训练方法、装置、设备、存储介质和程序产品
Monwar et al. Pain recognition using artificial neural network
CN111611851A (zh) 模型生成方法、虹膜检测方法及装置
CN110929570B (zh) 虹膜快速定位装置及其定位方法
CN106960199B (zh) 一种真彩色眼象图白睛区域的完整提取方法
CN114036553A (zh) 一种结合k匿名的行人身份隐私保护方法
CN113449550A (zh) 人体重识别数据处理的方法、人体重识别的方法和装置
CN115830720A (zh) 活体检测方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Country or region after: China

Address after: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Applicant after: Zhaolian Consumer Finance Co.,Ltd.

Address before: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Applicant before: MERCHANTS UNION CONSUMER FINANCE Co.,Ltd.

Country or region before: China

CB02 Change of applicant information