CN110516622A - 一种车内人员的性别、年龄和情绪智能识别方法及系统 - Google Patents

一种车内人员的性别、年龄和情绪智能识别方法及系统 Download PDF

Info

Publication number
CN110516622A
CN110516622A CN201910810333.3A CN201910810333A CN110516622A CN 110516622 A CN110516622 A CN 110516622A CN 201910810333 A CN201910810333 A CN 201910810333A CN 110516622 A CN110516622 A CN 110516622A
Authority
CN
China
Prior art keywords
age
gender
occupant
module
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910810333.3A
Other languages
English (en)
Inventor
李楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dilu Technology Co Ltd
Original Assignee
Dilu Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dilu Technology Co Ltd filed Critical Dilu Technology Co Ltd
Priority to CN201910810333.3A priority Critical patent/CN110516622A/zh
Publication of CN110516622A publication Critical patent/CN110516622A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Abstract

本发明公开了一种车内人员的性别、年龄和情绪智能识别方法及系统,包括以下步骤,采集模块采集图像并输入人脸检测模块中;所述人脸检测模块检测输入的所述图像中是否包含人脸图像,并将检测到的所述人脸图像进行处理,输出人脸框图像;将所述人脸框图像输入识别模块中,所述识别模块对所述人脸框图像进行分析并输出识别结果。本发明的有益效果:本发明采集模块采集图像,通过图像处理和识别,得到该图像对应车内人员的性别、年龄和情绪,能够作为车载AI人机交互系统的参考,以便于其根据不同人的性别、年龄和情绪做出不同的响应。

Description

一种车内人员的性别、年龄和情绪智能识别方法及系统
技术领域
本发明涉及自动驾驶中人机交互的技术领域,尤其涉及一种车内人员的性别、年龄和情绪智能识别方法及系统。
背景技术
在交通出行方面,当汽车加入AI技术,可以提升通行效率,这也是AI在车联网中的典型应用。路况监控摄像头、红绿灯、停车场等物联网数据与AI技术结合,可以更加合理地规划出行路线,实现互联互通,提升整体出行效率。
车载AI的核心竞争力是语音识别、副驾驶功能、用户体验。汽车中的娱乐设施、语音助手、空调等设备都可以与AI技术结合,从而更好地执行指令。汽车中还可以引入面部识别、步态识别等与AI有关的技术。通过这些与AI相关的应用,提升人与汽车、汽车与环境的交互体验。车载AI还有一个优势,通过不断使用车载AI,它会记住用户平时常做的选择,当你再进行同样的操作时,它会猜到你可能要做什么,这就极大的减少了操作量,智能的学习算法让车载AI给驾车带来了更多地便捷。汽车AI刚开始用时就像个什么都不太懂的小孩,但在长时间、高频次的互动后,海量精确的数据通过深度学习,将更加贴合用户的使用习惯。也就是说,汽车AI这个助理会越来越好用。
目前的车载AI的人际交互方面,主要集中在语音识别技术,用户可以通过语音发出指令信号,汽车终端识别用户语音指令,并做出相应的动作来满足用户的需求。比如现有的车载音乐控制系统、地图导航以及服务搜索系统、空调温度调节系统等等。然而,现有的车载娱乐推荐系统尚未考虑到利用驾驶员的性别、年龄、心情信息来预测用户的喜好,进而做出有效的推荐。本申请将集中在利用车载AI,检测到用户面部,对用户的性别、年龄、情绪等信息进行识别,进而根据识别结果辅助车载的娱乐、驾驶等推荐系统,例如音乐推荐系统、空调温度控制系统等,就能够大大提升人机交互的智能化程度。
发明内容
本部分的目的在于概述本发明的实施例的一些方面以及简要介绍一些较佳实施例。在本部分以及本申请的说明书摘要和发明名称中可能会做些简化或省略以避免使本部分、说明书摘要和发明名称的目的模糊,而这种简化或省略不能用于限制本发明的范围。
鉴于上述现有存在的问题,提出了本发明。
因此,本发明解决的一个技术问题是提供一种车内人员的性别、年龄和情绪智能识别方法,能够根据采集模块采集到的图像,识别该图像对应车内人员的性别、年龄和情绪。
为解决上述技术问题,本发明提供如下技术方案:一种车内人员的性别、年龄和情绪智能识别方法,包括以下步骤,采集模块采集图像并输入人脸检测模块中;所述人脸检测模块检测输入的所述图像中是否包含人脸图像,并将检测到的所述人脸图像进行处理,输出人脸框图像;将所述人脸框图像输入识别模块中,所述识别模块对所述人脸框图像进行分析并输出识别结果。
作为本发明所述的车内人员的性别、年龄和情绪智能识别方法的一种优选方案,其中:所述检测输入的图像是基于MTCNN网络模型,检测包括以下步骤,所述图像进行scale操作,得到若干个不同scale的输入图像;不同scale的输入图像输入P-NET中,输出是人脸的候选图像的集合;所述候选图像输入R-NET中进行筛选校准;R-NET中筛选后的图像输入O-Net中进行提取,输出最终的人脸框图像。
作为本发明所述的车内人员的性别、年龄和情绪智能识别方法的一种优选方案,其中:所述识别模块包括性别识别模块、年龄识别模块和情绪识别模块,分别根据输入的所述人脸框图像分析其对应车内人员的性别、年龄和情绪。
作为本发明所述的车内人员的性别、年龄和情绪智能识别方法的一种优选方案,其中:所述性别识别模块、所述年龄识别模块和所述心情预测模块分别基于不同的深度学习神经网络架构训练得到。
作为本发明所述的车内人员的性别、年龄和情绪智能识别方法的一种优选方案,其中:所述性别识别模块的工作包括以下步骤,基于SSRNET网络架构构建性别识别模型;使用亚洲人脸数据集数据集对所述性别识别模型进行充分训练;将所述人脸框图像输入所述性别识别模型并判断对应车内人员的性别,并输出性别识别结果。
作为本发明所述的车内人员的性别、年龄和情绪智能识别方法的一种优选方案,其中:所述年龄识别模块的工作包括以下步骤,基于SSRNET网络架构构建年龄识别模型;使用亚洲人脸数据集对所述年龄识别模型进行充分训练;将所述人脸框图像输入所述年龄识别模型并判断对应车内人员的年龄,并输出年龄识别结果。
作为本发明所述的车内人员的性别、年龄和情绪智能识别方法的一种优选方案,其中:所述情绪识别模块的工作包括以下步骤,基于VGG 16网络架构构建情绪识别模型;使用Cohn-Kanade扩展数据集对所述情绪识别模型进行充分训练;将所述人脸框图像输入所述情绪识别模型并判断对应车内人员的情绪,并输出情绪识别结果。
作为本发明所述的车内人员的性别、年龄和情绪智能识别方法的一种优选方案,其中:所述输出的识别结果包括,性别识别结果,包括男或女;年龄识别结果,所述年龄识别结果为一自然数;情绪识别结果,包括生气、害怕、开心、中立、悲伤、惊讶和厌恶。
本发明解决的另一个技术问题是提供一种车内人员的性别、年龄和情绪智能识别系统,将上述车内人员的性别、年龄和情绪智能识别方法应用于车内人员性别、年龄和情绪的识别。
为解决上述技术问题,本发明提供如下技术方案:一种车内人员的性别、年龄和情绪智能识别系统,包括,采集模块,所述采集模块用于采集车内人员的图像;人脸检测模块,所述人脸检测模块能够接收所述采集模块采集到的所述图像,检测其是否包括人脸图像,并处理所述人脸图像后输出人脸框图像;识别模块,所述识别模块与所述人脸检测模块相连接,所述人脸框图像输入所述识别模块中进行识别,得到识别结果。
作为本发明所述的车内人员的性别、年龄和情绪智能识别系统的一种优选方案,其中:所述识别模块包括性别识别模块、年龄预测模块和心情预测模块,分别用于识别车内人员的性别、年龄和心情;所述识别结果包括性别识别结果、年龄识别结果和情绪识别结果。
本发明的有益效果:本发明利用采集模块采集车内图像,并通过人脸检测模块检测图像中是否包含车内人员的人脸图像,同时对人脸图像进行处理并输入识别模块中进行识别,最后输出识别结果,即图像对应车内人员的性别、年龄和情绪,该识别结果能够辅助车载AI的人际交互系统,作为参考标准来预测用户的喜好,进而做出有效的推荐等。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。其中:
图1为本发明第一个实施例中所述性别、年龄和情绪智能识别方法的流程示意图;
图2为本发明第二个实施例中所述性别、年龄和情绪智能系统的示意图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合说明书附图对本发明的具体实施方式做详细的说明,显然所描述的实施例是本发明的一部分实施例,而不是全部实施例。基于本发明中的实施例,本领域普通人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明的保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
其次,此处所称的“一个实施例”或“实施例”是指可包含于本发明至少一个实现方式中的特定特征、结构或特性。在本说明书中不同地方出现的“在一个实施例中”并非均指同一个实施例,也不是单独的或选择性的与其他实施例互相排斥的实施例。
本发明结合示意图进行详细描述,在详述本发明实施例时,为便于说明,表示器件结构的剖面图会不依一般比例作局部放大,而且所述示意图只是示例,其在此不应限制本发明保护的范围。此外,在实际制作中应包含长度、宽度及深度的三维空间尺寸。
同时在本发明的描述中,需要说明的是,术语中的“上、下、内和外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一、第二或第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
本发明中除非另有明确的规定和限定,术语“安装、相连、连接”应做广义理解,例如:可以是固定连接、可拆卸连接或一体式连接;同样可以是机械连接、电连接或直接连接,也可以通过中间媒介间接相连,也可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
实施例1
目前车载AI的人际交互方面主要依赖于车内人员发出指令后做出响应,其智能化程度还比较有限。为了提升这一方面,考虑到不同的车内人员,其性别、年龄和情绪不同时,对应的喜好和需求也不同,若能够对此做出区分,就能够根据不同性别、年龄和情绪的车内人员,做出与之相适应的响应,提升人际交互装置的智能化程度。因此在本实施例中,提出了一种车内人员的性别、年龄和情绪智能识别方法,能够根据图像判断车内人员的性别、心情和年龄。
参照图1,本发明第一种实施例提供了一种车内人员的性别、年龄和情绪智能识别方法,将该方法应用于车内人员的性别、年龄和情绪的识别,具体的,该方法包括以下步骤,
步骤1:采集模块100采集图像101并输入人脸检测模块200中。具体的,采集模块100一般设置在车内,其采集到的图像101为实时图像。
步骤2:人脸检测模块200检测输入的图像101中是否包含人脸图像,并将检测到的人脸图像201进行处理,输出处理后的人脸框图像202。
本步骤中检测人脸图像201和对其进行处理是基于MTCNN网络模型,MTCNN算法是利用三层级联架构结合设计的卷积神经网络算法,能够对图像中的人脸进行检测和人脸关键点的粗略定位,实现人脸的检测与对齐。其中,三个网络结构分别是P-Net、R-Net和O-Net,人脸检测可以用来进行后续的人脸识别,人脸对齐能够找出人脸的眼睛,嘴,鼻子的位置。具体的,图像101的检测和处理包括以下步骤,
图像101进行scale操作,得到若干个不同scale的输入图像。其中,图像最基本的操作有三种,分别是scale,rotation和translation,对应尺度,旋转和平移,可以通过对图像的像素值或者像素的坐标运算来达到特定的效果。在本实施例中,对于输入的图像101进行scale操作,是对图像101的像素坐标做scale,具体如下:
其中,(x,y)为图像101中某个像素点变换前的坐标,(x′,y′)为其变换后的坐标,c、d的值可任选。
不同scale的输入图像输入P-NET中,输出是人脸的候选图像的集合。具体的,P-NET是一个全卷积网络,能够用来生成脸部候选窗和边框回归向量。基于边框回归向量来校正候选窗,并使用非极大值抑制(NMS)方法合并重叠的候选图像。
候选图像输入R-NET中进行筛选校准;所有的候选图像输入R-Net中,R-NET是一个全卷积网络,其作用在于能够进一步清除大量的从P-NET中输出的非脸部候选图像,R-NET使用边框回归向量进行校准和非极大值抑制方法进行合并,得到筛选后的图像。
R-NET中筛选后的图像输入O-Net中进行提取,通过边框回归向量和非极大值抑制方法处理图像,在这一步骤中会去除重复的人脸框,以及对图像中的人脸特征值进行回归精调并进行标记,输出最终的人脸框图像202和特征点。
步骤3:将人脸框图像202输入识别模块300中,识别模块300对输入的人脸框图像202进行分析并输出识别结果400。识别模块300包括性别识别模块301、年龄识别模块302和心情识别模块303,分别能够根据输入的人脸框图像202分析对应车内人员的性别、年龄和心情。输出的识别结果400包括性别识别结果401、年龄识别结果402和情绪识别结果403。其中,性别识别模块301和年龄识别模块302分别基于SSRNET网络架构训练得到,心情识别模块303基于VGG16网络框架训练得到。具体的,
识别模块300,包括性别识别模块301、年龄识别模块302和心情识别模块303,分别基于不同的深度学习神经网络架构训练得到。其中,性别识别模块301的工作包括以下步骤,
基于SSRNET网络架构构建性别识别模型。具体的,SSRNET网络包括两个平行的异构网络,对于这两个平行的异构网络,均分别包括卷积层、归一化层、非线性激活函数和池化层,其中,
卷积层内部包含多个卷积核,是通过不同的卷积核进行卷积操作得到的一组特征层,经过此操作的图像能够使得特征增强并降低噪声,是卷积神经网络中特征学习的最重要部分,在本实施例中,卷积层使用3*3的卷积核。
池化层通常用于缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性,池化类型一般包括最大池化和平均池化,本实施例中中使用的是2*2的池化层,即将子矩阵的每2x2个元素变成一个元素。
不用类型的激活函数(如tanh函数、ReLU函数)和池化结构(如平均池化、最大池化),被用于单个网络使其异构。通过该方式使异构网络得到不同的特征,并将其融合提升效果。
不同阶段采用不同级别的特征,对于每个阶段,来自两个异构网络某些级别的特征被送入融合模块中,融合模块负责生成阶段性的输出,包括分布偏移矢量和比例因子Δk(对于第k阶段)。在融合模块中,来自每个异构网络的特征通过1*1的卷积层,激活函数和池化层来获取更多的紧凑特征。为了获取Δk,获得的两个特征矩阵通过对应元素相乘进行融合。得到的结果经过一个全连接层,然后用tanh函数获取一个在[-1,1]的值作为Δk。其中,
均为矢量,因此,特征在对应元素相乘前先经给一个预测模块。代表分布,ReLU函数作为激活函数用于获取正值,其中,
ReLU=max(0,x)
另一方面,tanh函数被用于令在正负值之间转换。
对于构建好的性别识别模型,使用亚洲人脸数据集对性别识别网络模型进行充分训练。在本实施例中使用的亚洲人脸数据集是一种主要用于评估年龄和性别的人脸数据集,其包含160K以上的人脸图像和相应和性别标签。该数据集内所有的人脸图像都是针对亚洲人脸的,亚洲人脸数据集通过收集社交网络上的自拍照片而建立,其内容丰富、适合用于性别的识别训练。经过训练后,得到用于识别输入人脸图像对应人物性别的性别识别网络模型。
可以理解的是,能够使用不同的数据集对性别识别模型进行训练,使其检测结果更加可靠,且用于训练的数据集应当含有性别标签。
将人脸框图像202输入训练好的性别识别模型并判断性别,并将识别结果输出。对于性别识别结果401,包括男或女,即性别识别模型能够识别输入的人脸框图像202对应的车内人员的性别为男性或女性。
年龄识别模块302的工作包括如下步骤,
基于SSRNET网络架构构建年龄识别模型。SSRNET网络模型是用紧凑的模型大小用于单一图像的年龄估计。在DEX的启发下,通过多类分类处理年龄估计,然后通过计算期望值将分类结果转化为回归。SSRNET采用从粗到细的策略,分多个阶段执行多类分类。每个阶段只负责细化前一阶段的决策,以获得更准确的年龄估计,这种方法大大减少了年龄识别卷积神经网络模型的大小。
同时,为了弥补由于把年龄分段造成的量化问题,SSRNET网络模型对每个年龄段允许其进行适当的调整,如根据输入的人脸图像进行移位和缩放。将多阶段策略和动态范围结合到软阶段回归的公式中,提出了一种实现软阶段回归的网络体系结构。SSRNET网络模型小、精度高,非常适合用于年龄的识别。
SSRNET网络模型结构可以参考训练性别识别模块301中的SSRNET网络模型。对于年龄预测网络模型相对于普通的深度学习网络模型的改进主要有两个部分,
一是多层分段。其中,对年龄进行分段采用的是由粗到细策略,每个阶段执行部分年龄分类,减少任务量,以产生更少参数和更紧凑的模型。例如若采用3-stage,则每个stage进行3分类,第三stage可以分出3*3*3=27个bin。且由于采用的是软分类,所以每一个bin的区间不是固定值,而是有一定交叠的自适应值。预测出的年龄阶段是融合各阶段的分布:
其中每一个bin的宽度为,
其中i为bin的索引。
在训练时,对于包含N个人脸图像的数据集X,需要最小化平均误差函数,其中,
二是软分类。引入动态范围,允许每个bin根据输入图像进行移位(调整bin的索引i)和缩放(调整ωk)。其中,为了调整ωk,引入网络的回归输出Δk,且
调整后的宽度为,
为了实现移位,对每个bin添加偏移量η,
由此得到索引改变,
使用亚洲人脸数据集对年龄识别模型进行充分训练。其中亚洲人脸数据集同样可以参考训练性别识别模块301时使用的数据集。同样可以理解的是,能够使用不同的数据集对年龄识别模型进行训练,使其检测结果更加可靠,且用于训练的数据集应当含有年龄标签。
将人脸框图像202输入年龄识别模型并判断年龄。对于年龄识别结果402,其结果应为一自然数,其范围可以为0~100中的任一自然数,且范围可以根据需求进行适当的缩小或放大,例如对于驾驶员的年龄预测,可以设置为18~70中的任一自然数。
心情识别模块303的工作包括以下步骤,
基于VGG 16网络架构构建心情识别模型。用于心情识别的卷积神经网络共包括16层,分为多段卷积网络共同构成。其中,第一段卷积网络包括两个卷积层和一个池化层,卷积层的卷积核大小为3*3,池化层使用的是最大池化结构,大小为2*2;第二段卷积网络结构与第一段卷积网络的结构相同;第三段卷积网络包括三个卷积层和一个池化层,卷积层的卷积核大小为3*3,池化层使用的是最大池化结构,大小为2*2;第四段卷积网络和第五段卷积网络与第三段卷积网络的结构相同。对于以上的每段卷积网络,输出的图像的宽度和高度按一定规律不断减小。第七、八段卷积网络分别包括全连接层,用于将前面的卷积网络提取到的特征综合起来。第九段卷积网络包括输出层,在输出层使用softmax作为激活函数,对图像识别进行分类。
使用Cohn-Kanade扩展数据集对心情识别卷积神经网络模型进行充分训练。训练时采用的Cohn-Kanade扩展数据集是基于Cohn-Kanade Dataset数据集扩展而来的,包括300张以上标注了情绪的人脸图像,该数据集是一种较为严谨、内容可靠的数据集,常用于人脸情绪识别模型的训练。可以理解的是,除此之外,还可以使用其它数据集加入训练,例如使用FER2013数据集,该数据集包括接近30000张图像,但由于其存在一定的误差,因此在本实施例中不单独采用该数据集进行训练。训练后即可得到用于识别输入的人脸框图像202对应情绪的情绪识别模型。
将人脸框图像202输入心情识别网络模型并判断心情。对于情绪识别结果403,包括生气、害怕、开心、中立、悲伤、惊讶和厌恶共七种不同的情绪,根据输入情绪识别模型的人脸框图像202,能够判断并输出该人脸框图像202对应车内人员的情绪,输出的情绪为生气、害怕、开心、中立、悲伤、惊讶或厌恶中的至少一种。
场景一:
为了测试本发明提供的基于车内人员的性别、年龄和情绪智能识别方法在实际使用中识别的准确率,采用如下的测试方法,首先收集待测试人员的实际性别和年龄,并采集不同情绪下待测试人员的面部图像,将三者对应并构成待测数据集,利用待测数据集进行识别测试,最后对比识别结果与待测数据集的数据,判断识别的准确性,具体测试方法如下:
首先构建待测数据集,选择本公司的30名工作人员,分别记录其实际性别和年龄数据,完成对性别和年龄部分的数据采集;采集30名工作人员在不同情绪下的面部图像,可以通过播放恐怖片收集害怕时的图像、正常工作状态下收集中立图像、观看喜剧片时收集开心时的图像等,具体的,使用摄像头录制视频,并从视频中分割图像,注意从视频中获取图像时,需要由被采集者本人以及心理学专家共同对图像进行判定是否符合要求的情绪,以避免误差。
通过以上方法,获取到待测数据集,包括30名不同年龄、性别、情绪的人员脸部图像,从数据集中随机挑选图像并利用本发明所述的车内人员的性别、年龄和情绪智能识别方法进行识别,对比识别结果和数据集提供的实际结果,判断测试的准确性,具体如下:
表1:基于本发明提供的方法进行性别、年龄和情绪智能识别的结果
通过测试可以看出,针对性别和情绪的识别完全是正确的,针对年龄的识别存在一定程度的误差,但均控制在2岁以内,基本与实际年龄一致。
实施例2
参照图2,本实施例基于上述车内人员的性别、年龄和情绪智能识别方法提出一种车内人员的性别、年龄和情绪智能识别系统,该系统能够用于识别车内人员的性别、年龄和情绪。具体的,该车内人员的性别、年龄和情绪智能识别系统包括采集模块100、人脸检测模块200和识别模块300。
其中,采集模块100属于系统的硬件部分,用于采集车内人员的图像101。在本实施例中,采集模块100可以为摄像头,其能够采集车内人员的图像信息,图像101为采集模块100采集到的图像信息。
人脸检测模块200和识别模块300属于系统的软件部分,其中,人脸检测模块200与采集模块100相连,能够接收采集模块100采集到的图像101,并检测图像101中是否包含人脸信息,并将图像101中的人脸图像201进行处理,筛选出特征点,得到人脸框图像202并输出。
识别模块300与人脸检测模块200相连接,能够接收人脸检测模块200输出的人脸框图像202,并对其进行分析识别,得到识别结果400。识别模块300包括性别识别模块301、年龄识别模块302和情绪识别模块303,且性别识别模块301、年龄识别模块302和心情识别模块303分别基于不同的卷积神经网络训练得到性别识别模型、年龄识别模型和情绪识别模型,分别能够识别人脸框图像202对应车内人员的性别、年龄和情绪并输出识别结果400,识别结果400包括性别识别结果401,性别识别结果401为男或女;年龄识别结果402,为一自然数;情绪识别结果403,为生气、害怕、开心、中立、悲伤、惊讶和厌恶七种情绪中的至少一种。
在实际使用中,采集模块100安装于车上,用于采集车内人员的图像,人脸检测模块200和识别模块300作为软件模块需要在计算机上运行,且采集模块100与人脸检测模块200相连。采集模块100将采集到的图像101输入人脸检测模块200,通过识别检测输出人脸框图像202,识别模块300的性别识别模块301、年龄识别模块302和心情识别模块303分别对人脸框图像202进行检测识别,输出的识别结果400包括人脸框图像202对应车内人员的性别、年龄和心情,能够显示在计算机屏幕上或输入车载的娱乐模块等供其参考。该系统能够辅助车内的智能人机交互装置,根据车内人员性别、年龄和心情的不同,做出不同的推送或响应,提高车载人机交互装置的服务性、适应性和智能化程度。
应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (10)

1.一种车内人员的性别、年龄和情绪智能识别方法,其特征在于:包括以下步骤,
采集模块(100)采集图像(101)并输入人脸检测模块(200)中;
所述人脸检测模块(200)检测输入的所述图像(101)中是否包含人脸图像(201),并将检测到的所述人脸图像(201)进行处理,输出人脸框图像(202);
将所述人脸框图像(202)输入识别模块(300)中,所述识别模块(300)对所述人脸框图像(202)进行分析并输出识别结果(400)。
2.如权利要求1所述的车内人员的性别、年龄和情绪智能识别方法,其特征在于:所述检测输入的图像(101)是基于MTCNN网络模型,检测包括以下步骤,
所述图像(101)进行scale操作,得到若干个不同scale的输入图像;
不同scale的输入图像输入P-NET中,输出是人脸的候选图像的集合;
所述候选图像输入R-NET中进行筛选校准;
R-NET中筛选后的图像输入O-Net中进行提取,输出最终的人脸框图像(202)。
3.如权利要求2所述的车内人员的性别、年龄和情绪智能识别方法,其特征在于:所述识别模块(300)包括性别识别模块(301)、年龄识别模块(302)和情绪识别模块(303),分别根据输入的所述人脸框图像(202)分析其对应车内人员的性别、年龄和情绪。
4.如权利要求3所述的车内人员的性别、年龄和情绪智能识别方法,其特征在于:所述性别识别模块(301)、所述年龄识别模块(302)和所述心情预测模块(303)分别基于不同的深度学习神经网络架构训练得到。
5.如权利要求4所述的车内人员的性别、年龄和情绪智能识别方法,其特征在于:所述性别识别模块(301)的工作包括以下步骤,
基于SSRNET网络架构构建性别识别模型;
使用亚洲人脸数据集数据集对所述性别识别模型进行充分训练;
将所述人脸框图像(202)输入所述性别识别模型并判断对应车内人员的性别,并输出性别识别结果(401)。
6.如权利要求5所述的车内人员的性别、年龄和情绪智能识别方法,其特征在于:所述年龄识别模块(302)的工作包括以下步骤,
基于SSRNET网络架构构建年龄识别模型;
使用亚洲人脸数据集对所述年龄识别模型进行充分训练;
将所述人脸框图像(202)输入所述年龄识别模型并判断对应车内人员的年龄,并输出年龄识别结果(402)。
7.如权利要求6所述的车内人员的性别、年龄和情绪智能识别方法,其特征在于:所述情绪识别模块(303)的工作包括以下步骤,
基于VGG 16网络架构构建情绪识别模型;
使用Cohn-Kanade扩展数据集对所述情绪识别模型进行充分训练;
将所述人脸框图像(202)输入所述情绪识别模型并判断对应车内人员的情绪,并输出情绪识别结果(403)。
8.如权利要求7所述的车内人员的性别、年龄和情绪智能识别方法,其特征在于:所述输出的识别结果(400)包括,
性别识别结果(401),包括男或女;
年龄识别结果(402),所述年龄识别结果(402)为一自然数;
情绪识别结果(403),包括生气、害怕、开心、中立、悲伤、惊讶和厌恶。
9.一种车内人员的性别、心情、年龄智能预测系统,其特征在于:包括,
采集模块(100),所述采集模块(100)用于采集车内人员的图像(101);
人脸检测模块(200),所述人脸检测模块(200)能够接收所述采集模块(100)采集到的所述图像(101),检测其是否包括人脸图像(201),并处理所述人脸图像(201)后输出人脸框图像(202);
识别模块(300),所述识别模块(300)与所述人脸检测模块(200)相连接,所述人脸框图像(202)输入所述识别模块(300)中进行识别,得到识别结果(400)。
10.如权利要求9所述的车车内人员的性别、心情、年龄智能预测系统,其特征在于:所述识别模块(300)包括性别识别模块(301)、年龄预测模块(302)和心情预测模块(303),分别用于识别车内人员的性别、年龄和心情;
所述识别结果(400)包括性别识别结果(401)、年龄识别结果(402)和情绪识别结果(403)。
CN201910810333.3A 2019-08-29 2019-08-29 一种车内人员的性别、年龄和情绪智能识别方法及系统 Pending CN110516622A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910810333.3A CN110516622A (zh) 2019-08-29 2019-08-29 一种车内人员的性别、年龄和情绪智能识别方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910810333.3A CN110516622A (zh) 2019-08-29 2019-08-29 一种车内人员的性别、年龄和情绪智能识别方法及系统

Publications (1)

Publication Number Publication Date
CN110516622A true CN110516622A (zh) 2019-11-29

Family

ID=68629167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910810333.3A Pending CN110516622A (zh) 2019-08-29 2019-08-29 一种车内人员的性别、年龄和情绪智能识别方法及系统

Country Status (1)

Country Link
CN (1) CN110516622A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956142A (zh) * 2019-12-03 2020-04-03 中国太平洋保险(集团)股份有限公司 一种智能交互培训系统
CN111695415A (zh) * 2020-04-28 2020-09-22 平安科技(深圳)有限公司 图像识别模型的构建方法、识别方法及相关设备
CN112084831A (zh) * 2020-04-27 2020-12-15 上海大学 基于年龄编辑的年龄估计方法
CN112906525A (zh) * 2021-02-05 2021-06-04 广州市百果园信息技术有限公司 年龄识别方法、装置及电子设备
CN114564159A (zh) * 2020-11-27 2022-05-31 上海擎感智能科技有限公司 控制方法、系统及计算机存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700682A (zh) * 2016-01-08 2016-06-22 北京乐驾科技有限公司 基于视觉和语音的智能性别、情绪识别检测系统及方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105700682A (zh) * 2016-01-08 2016-06-22 北京乐驾科技有限公司 基于视觉和语音的智能性别、情绪识别检测系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KAIPENG ZHANG等: "Joint Face Detection and Alignment Using Multitask Cascaded Convolutional Networks", 《ARXIV》 *
TSUN-YI YANG等: "SSR-Net: A Compact Soft Stagewise Regression Network for Age Estimation", 《ACM》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110956142A (zh) * 2019-12-03 2020-04-03 中国太平洋保险(集团)股份有限公司 一种智能交互培训系统
CN112084831A (zh) * 2020-04-27 2020-12-15 上海大学 基于年龄编辑的年龄估计方法
CN112084831B (zh) * 2020-04-27 2022-11-22 上海大学 基于年龄编辑的年龄估计方法
CN111695415A (zh) * 2020-04-28 2020-09-22 平安科技(深圳)有限公司 图像识别模型的构建方法、识别方法及相关设备
CN111695415B (zh) * 2020-04-28 2024-04-12 平安科技(深圳)有限公司 图像识别方法及相关设备
CN114564159A (zh) * 2020-11-27 2022-05-31 上海擎感智能科技有限公司 控制方法、系统及计算机存储介质
CN114564159B (zh) * 2020-11-27 2024-01-30 上海擎感智能科技有限公司 控制方法、系统及计算机存储介质
CN112906525A (zh) * 2021-02-05 2021-06-04 广州市百果园信息技术有限公司 年龄识别方法、装置及电子设备

Similar Documents

Publication Publication Date Title
CN110516622A (zh) 一种车内人员的性别、年龄和情绪智能识别方法及系统
CN109284670A (zh) 一种基于多尺度注意力机制的行人检测方法及装置
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
CN110532421A (zh) 一种基于人的性别、心情和年龄的音乐推荐方法及系统
CN108491858A (zh) 基于卷积神经网络的疲劳驾驶检测方法及系统
CN111160249A (zh) 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN104281853A (zh) 一种基于3d卷积神经网络的行为识别方法
CN108416314B (zh) 图片重要人脸检测方法
CN110807434A (zh) 一种基于人体解析粗细粒度结合的行人重识别系统及方法
CN104021381B (zh) 一种基于多层级特征的人体动作识别方法
CN112906617A (zh) 一种基于手部检测的驾驶员异常行为识别方法与系统
CN110472511A (zh) 一种基于计算机视觉的驾驶员状态监测装置
CN111091044B (zh) 一种面向网约车的车内危险场景识别方法
CN110263822A (zh) 一种基于多任务学习方式的图像情感分析方法
CN104134364A (zh) 具有自我学习能力的实时交通信号识别方法及系统
CN112906631A (zh) 一种基于视频的危险驾驶行为检测方法和检测系统
CN114565770A (zh) 基于边缘辅助计算和掩模注意力的图像分割方法及系统
CN112418302A (zh) 一种任务预测方法及装置
CN110059675A (zh) 一种机器人识别道路交通执法行为并提供规范化辅助的方法
CN111797854A (zh) 场景模型建立方法、装置、存储介质及电子设备
CN113283334A (zh) 一种课堂专注度分析方法、装置和存储介质
CN113221680A (zh) 基于文本动态引导视觉特征提炼的文本行人检索方法
CN115147817B (zh) 一种姿态引导的实例感知网络的驾驶员分心行为识别方法
Wang et al. Online gesture recognition algorithm applied to HUD based smart driving system
CN112115779B (zh) 可解释性课堂学生情感分析方法、系统、装置及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination