CN108280426A - 基于迁移学习的暗光源表情识别方法及装置 - Google Patents

基于迁移学习的暗光源表情识别方法及装置 Download PDF

Info

Publication number
CN108280426A
CN108280426A CN201810065194.1A CN201810065194A CN108280426A CN 108280426 A CN108280426 A CN 108280426A CN 201810065194 A CN201810065194 A CN 201810065194A CN 108280426 A CN108280426 A CN 108280426A
Authority
CN
China
Prior art keywords
human face
recognition model
expression
model
face recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810065194.1A
Other languages
English (en)
Other versions
CN108280426B (zh
Inventor
罗韵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong Jijian Technology Co.,Ltd.
Shenzhen Runyi Culture Development Co ltd
Original Assignee
Shenzhen Moisten Culture Development Co Ltd
Shenzhen Polar View Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Moisten Culture Development Co Ltd, Shenzhen Polar View Technology Co Ltd filed Critical Shenzhen Moisten Culture Development Co Ltd
Priority to CN201810065194.1A priority Critical patent/CN108280426B/zh
Publication of CN108280426A publication Critical patent/CN108280426A/zh
Application granted granted Critical
Publication of CN108280426B publication Critical patent/CN108280426B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本申请实施例公开了基于迁移学习的暗光源表情识别方法及装置,用于根据平衡图像光源准确识别出人脸并进行表情识别,提高了人脸识别模型识别人脸的正确率。本申请实施例方法包括:服务器接收摄像头拍摄的图像信息,所述图像信息中包含有第一人脸数据;所述服务器将所述图像信息输入至第一人脸识别模型;所述服务器将所述第一人脸识别模型转换为第二人脸识别模型;所述服务器从所述第二人脸识别模型输出第二人脸数据;所述服务器将所述第二人脸数据输入至表情识别模型;所述服务器利用所述表情识别模型输出所述第二人脸数据所具有的表情。

Description

基于迁移学习的暗光源表情识别方法及装置
技术领域
本申请涉及人脸识别技术,特别涉及人脸表情识别技术。
背景技术
人脸表情是人类交流的一种有效表达方式,影视剧娱乐公司为了促进文化和自身公司的商业发展,提升公演和播放的影视剧作品的价值至关重要,其中,通过分析观众在观剧时的表情能够有助于公司自身制定更好的战略,并且,通过分析表演过程中观众在观看精彩或失误的片段时的表情,能够促进影视剧作品以及表演者演技的进一步提升。这就需要在环境昏暗、光照闪烁不定的剧场环境中,对观众的表情进行准确的识别。
现有的计算机视觉领域,对图像中的人脸识别是在颜色空间下对图像中的人脸进行识别,最常用的颜色空间是三原色RGB(red/green/blue)空间,RGB空间也可称为RGB模型,其常用于颜色显示和图像处理,是三维坐标的模型形式,以三种基本色为基础,对图像进行不同程度的叠加,产生丰富而广泛的颜色。
然而,RGB模型对光线的亮暗程度比较敏感,容易受到光线变化的影响,导致在RGB模型中通过人脸识别模型对人脸识别的正确率低下。
发明内容
本申请实施例提供了基于迁移学习的暗光源表情识别的方法以及装置,能够在对人脸识别模型进行了转换后,准确识别出人脸并进行表情识别,提高了人脸识别模型识别人脸的正确率。
本申请实施例提供了一种基于迁移学习的暗光源表情识别的方法,包括:
服务器接收摄像头拍摄的图像信息,所述图像信息中包含有第一人脸数据;
所述服务器将所述图像信息输入至第一人脸识别模型;
所述服务器将所述第一人脸识别模型转换为第二人脸识别模型;
所述服务器从所述第二人脸识别模型输出第二人脸数据;
所述服务器将所述第二人脸数据输入至表情识别模型;
所述服务器利用所述表情识别模型输出所述第二人脸数据所具有的表情。
可选地,所述服务器将所述第一人脸识别模型转换为第二人脸识别模型包括:
所述服务器将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型;
所述服务器去除所述预处理人脸识别模型中的亮度V向量空间的特征,得到所述第二人脸识别模型。
可选地,所述服务器将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型包括:
所述服务器在迁移网络下将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型,所述迁移网络是将最大均值差异MMD作为目标函数进行训练得到。
可选地,所述第一人脸识别模型为利用深度学习算法计算得到的模型。
可选地,所述第一人脸识别模型为利用可变形部件模型DPM算法计算得到的模型。
可选地,所述服务器利用所述表情识别模型输出所述第二人脸数据所具有的表情包括:
所述服务器利用所述表情识别模型输出所述第二人脸数据为所述表情识别模型中已分类的每种表情类型的概率;
所述服务器选择最大概率的表情类型作为所述第二人脸数据所具有的表情。
本申请实施例提供了一种基于迁移学习的暗光源表情识别装置,包括:
接收单元,用于接收摄像头拍摄的图像信息,所述图像信息中包含有第一人脸数据;
第一输入单元,用于将所述图像信息输入至第一人脸识别模型;
转换单元,用于将所述第一人脸识别模型转换为第二人脸识别模型;
第二输入单元,用于将所述第二人脸数据输入至表情识别模型;
输出单元,用于利用所述表情识别模型输出所述第二人脸数据所具有的表情。
可选地,所述转换单元具有用于将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型;去除所述预处理人脸识别模型中的亮度V向量空间的特征,得到所述第二人脸识别模型。
可选地,所述转换单元具体用于在迁移网络下将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型,所述迁移网络是将最大均值差异MMD作为目标函数进行训练得到。
可选地,所述第一人脸识别模型为利用深度学习算法计算得到的模型。
可选地,所述第一人脸识别模型为利用可变形部件模型DPM算法计算得到的模型。
可选地,所述输出单元具体用于利用所述表情识别模型输出所述第二人脸数据为所述表情识别模型中已分类的每种表情类型的概率;选择最大概率的表情类型作为所述第二人脸数据所具有的表情。
本申请实施例提供了一种基于迁移学习的暗光源表情识别装置,该基于迁移学习的暗光源表情识别装置具有实现上述表情识别的方法中基于迁移学习的暗光源表情识别装置的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
本申请实施例提供了一种计算机存储介质,该计算机存储介质用于储存上述基于迁移学习的暗光源表情识别装置所用的计算机软件指令,其包括用于执行为基于迁移学习的暗光源表情识别装置所设计的程序。
本申请实施例提供了一种计算机程序产品,该计算机程序产品包括计算机软件指令,该计算机软件指令可通过处理器进行加载来实现上述基于迁移学习的暗光源表情识别方法的流程。
从以上技术方案可以看出,本申请实施例具有以下优点:由于服务器对人脸识别模型进行了转换,使服务器在昏暗和光线变换的环境下也能够使用转换后的人脸识别模型,根据平衡图像光源准确识别出人脸并进行表情识别,提高了人脸识别模型识别人脸的正确率。
附图说明
图1为本申请实施例中基于迁移学习的暗光源表情识别方法的一个实施例示意图;
图2为本申请实施例中基于迁移学习的暗光源表情识别方法的另一个实施例示意图;
图3为本申请实施例中基于迁移学习的暗光源表情识别装置的一个实施例示意图;
图4为本申请实施例中基于迁移学习的暗光源表情识别装置的另一个实施例示意图。
具体实施方式
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行脸部的一系列相关技术。人脸识别系统(即人脸识别器)主要包括四个组成部分,分别为:人脸图像采集及检测、人脸图像预处理、人脸图像特征提取以及匹配与识别。输入人脸识别系统的一般是一张或者一系列含有未确定身份的人脸图像,以及人脸数据库中的若干已知身份的人脸图像或者相应的编码,而其输出则是一系列相似度得分,表明待识别的人脸的身份。
面部表情识别是指利用计算机对人脸的面部表情信息进行特征提取,按照人的认识和思维方式加以归类和理解,进而从人脸表情信息中去分析理解人的情绪,如高兴、悲伤、惊讶、恐惧、愤怒和厌恶等。表情识别系统(即表情识别器)一般分为四个处理过程,人脸图像的获取与预处理、人脸检测、表情特征提取和表情分类。特征提取是人脸表情识别中的核心步骤,是识别技术的关键,决定着最终的识别结果,直接影响识别率的高低。
近年来在机器学习领域出现了以深度学习(Deep Learning)为突破点的纯数据驱动的特征学习算法,其本质上是对深层结构的模型进行训练的一类方法的统称。深层结构模型通过分层逐级地表示特征,它舍弃了依靠人工精心设计的显式特征提取方法,通过逐层地构建一个多层的深度神经网络(拥有数十隐层、数千万甚至过亿的网络参数),让机器自主地从样本数据中学习到表征这些样本的更加本质的特征,从而使得学习到的特征更具有推广性和表征能力。
本申请实施例提供了基于迁移学习的暗光源表情识别方法及装置,能够在对人脸识别模型进行了转换后,准确识别出人脸并进行表情识别,提高了人脸识别模型识别人脸的正确率。
下面结合附图对本申请实施例提供的基于迁移学习的暗光源表情识别方法及装置做详细说明。
请参阅图1,本申请实施例中基于迁移学习的暗光源表情识别的方法的一个实施例包括:
101、服务器接收摄像头拍摄的图像信息,所述图像信息中包含有第一人脸数据;
摄像头拍摄的图像信息中包含有第一人脸数据,该图像信息可以是图片,也可以是一段视频,此处具体不做限定,且在服务器上可以预先设置接收图片的张数和视频的长度的阈值,具体此处不做限定。
102、服务器将图像信息输入至第一人脸识别模型;
服务器在接收到图像信息后,可以将图像信息输入到第一人脸识别模型,第一人脸识别模型可以基于特征脸(PCA)进行人脸识别,也可以基于神经网络进行人脸识别,具体此处不做限定。
103、服务器将第一人脸识别模型转换为第二人脸识别模型;
本实施例中,平衡图像光源是通过迁移学习以及颜色空间的转换,来实现平衡图像光源的目的,用于对即使在光线昏暗或闪烁不定的环境下拍摄的图像信息中的人脸也能准确识别的算法。服务器根据该算法将第一人脸识别模型从原特征空间“迁移”(即转换)到新特征空间,构建与原特征空间相应的特征映射,得到新特征空间下的第二人脸识别模型。
本实施例中需要说明的是,特征空间中的特征是对原始人脸数据的抽象表示,通过使用数值表示原始数据。模型是对特征的一种数学的总结,是指对特征进行的一种数学的表达。通过特征空间的转换,可以使常用的人脸识别模型在特征转换后在昏暗和光线变换的环境下也能够使用,正确对人脸进行识别。特征空间可以基于图片颜色纹理进行分类,也可以基于轮廓规则进行分类,具体此处不做限定。图片颜色纹理指同一种族人的面部肤色在颜色空间中的分布相对比较集中,颜色信息在一定程度上可以将人脸从大部分背景区分开来。轮廓规则之人脸轮廓可以简单地看成一个近似椭圆,而人脸检测可以通过椭圆检测来完成。
104、服务器从第二人脸数据模型输出第二人脸数据;
本实施例中,服务器在将第一人脸数据模型经过转换后得到第二人脸数据模型后,可以使用迁移学习方法,将第一人脸识别模型中的第一人脸数据转换成第二人脸数据,并利用第二人脸数据模型(即转换到新的特征空间的人脸数据模型)输出第二人脸数据。通过该迁移学习方法进行特征映射后,新的映射空间下的人脸数据分布可以具有与在原特征空间的人脸数据一致的分布。需要说明的是,迁移学习是把已训练好的模型参数迁移到新的模型来帮助新模型训练数据集。迁移学习按照学习方式可以分为基于模型的迁移以及基于样本的迁移等,本实施例中的迁移学习方式可以是基于模型的迁移是将源域(已有的知识)和目标域(要学习的新知识)的模型与样本结合起来调整模型的参数,迁移学习的方法具体此处不做限定。
105、服务器将第二人脸数据输入至表情识别模型;
服务器从第二人脸识别模型输出第二人脸数据后,将第二人脸数据输入到表情识别模型中。表情识别模型对于表情特征的提取根据图像性质的不同可以分为静态图像特征提取和序列图像特征提取。静态图像中提取的是表情的形变特征,即表情的暂态特征,而对于序列图像不仅要提取每一帧的表情形变特征还要提取连续序列的运动特征。表情识别模型中表情识别的方法还可包含有基于模板的匹配方法、基于神经网络的方法、基于概率模型的方法等,具体此处不做限定。
106、服务器利用表情识别模型输出第二人脸数据所具有的表情。
第二人脸数据输入至表情识别模型之后,会与表情识别模型中的训练分类器里的各类表情进行匹配,随后,服务器里利用表情识别模型输出匹配好的表情种类。对于表情识别,可以分为七个类别,自然的、高兴的、不安的、沮丧的、哭泣的、惊讶的,具体此处不做限定。表情识别模型的训练分类器可以是极限学习机,即ELM分类器(extreme learningmachine,ELM),也可以是支持向量机,即SVM分类器(support vector machine,SVM),具体此处不做限定。
本申请实施例中,由于服务器将第一人脸识别模型从原特征空间转换到新的特征空间,得到第二人脸识别模型,使服务器能够将在昏暗和光线变换的第一人脸数据通过特征映射(即平衡图像光源)得到更容易识别的第二人脸数据,提高了服务器识别人脸数据的准确性。
下面对另一个实施例进行描述,请参阅图2,图2示出了本发明实施例提供的基于迁移学习的暗光源表情识别方法的具体实现流程。
以下实施例中,人脸识别模型可以是利用深度学习算法计算得到的模型,例如可以是利用深度学习算法中经典的可变形部件模型(deformable part model,DPM)算法计算得到的模型,具体此处不做限定。
201、服务器接收摄像头拍摄的图像信息,图像信息中包含有原始人脸数据;
步骤201与上述图1的实施例中的步骤101类似,具体此处不再赘述。
202、服务器将图像信息输入至RGB空间的人脸识别模型;
本实施例中,服务器接收到摄像头拍摄的图像信息后,将图像信息输入到RGB空间的人脸识别模型。对图像处理而言,RGB是最为重要和常见的颜色模型,RGB颜色空间以R(Red:红)、G(Green:绿)、B(Blue:蓝)三种基本色为基础,当色光三原色重叠时,由于不同的混色比例能产生出各种中间色。屏幕显示的基础是RGB模式,彩色印刷品却无法用RGB模式来产生各种彩色。另外,R、G、B这3个分量是高度相关的,即如果一个颜色的某一个分量发生了一定程度的改变,那么这个颜色很可能要发生改变。本实施例中的颜色空间也可以YUV颜色空间(即灰阶值Y,色调U和饱和度V),具体此处不做限定。
203、服务器在迁移网络下将原始人脸识别模型从RGB空间转换到HSV空间,得到预处理人脸识别模型;
本实施例中,服务器将原始人脸识别模型从RGB空间转换到HSV空间,构建与RGB空间相应的特征映射,得到HSV空间的预处理人脸识别模型。由于六角椎体模型(也称HSV颜色空间),是一种比较直观的颜色模型,侧重于色彩表示,具有颜色的直观特性,所以在许多图像编辑工具中应用比较广泛。相对于RGB空间,HSV空间能够非常直观地表达色彩的明暗、色调以及鲜艳程度,方便进行颜色之间的对比。这个模型中颜色的参数分别是色调(hue,H),饱和度(saturation,S),明度(value,V)。本实施例中,服务器也可以将原始人脸模型从YUV空间转换到HSV空间,得到预处理人脸识别模型,具体此处不做限定。
此外,本实施例中,服务器使用最大均值差异(Maximum Mean Discrepancy,MMD)作为目标函数训练了一个迁移网络,该迁移网络使RGB空间的人脸识别模型经过特征转换后变为HSV空间的人脸识别模型,从而使服务器可以在昏暗和光线变换的环境下根据平衡图像光源更准确地识别人脸。本实施例中,也可以使用其他目标函数训练迁移网络,具体此处不做限定。
204、服务器去除预处理人脸识别模型中的亮度V向量空间的特征,得到HS向量空间的目标人脸识别模型;
本实施例中,具体地,服务器将用于代表光线亮度的V向量空间的特征去除,只考虑在H和S向量空间的特征,将RGB空间的人脸识别模型建立到HS空间的映射关系,从而排除了亮度信息的影响,然后重新在HS空间建立人脸检测的模型,得到HS向量空间的目标人脸识别模型。
205、服务器从HS向量空间的目标人脸识别模型输出待识别的人脸数据;
本实施例中,服务器使用迁移学习方法以及映射关系,将RGB空间的人脸数据模型中的原始人脸数据转换成待识别的人脸数据,并利用HS向量空间的人脸数据模型输出待识别的人脸数据。通过该迁移学习方法进行特征映射后,HS的映射空间下的人脸数据分布具有与在RGB空间的人脸数据一致的分布。
206、服务器将目标人脸数据输入至表情识别模型;
本实施例中,表情识别模型可以是根据深度学习得到的表情识别模型,例如可以是经典的FaceNet模型。需要说明的是,表情识别模型可以是通过人脸三点定位(本实施例中,即对左眼中心、右眼中心以及鼻尖进行定位)后,通过对人脸位置的预估,得到人脸的像素的信息。而对于本实施例中采用多尺寸人脸检测得到的人脸,会产生很多较小的人脸,此时可以使用通过生成式模型创建的超分辨重构技术,对人脸进行特征重构,然后重新将重构后的人脸作为输入数据,训练一个8层的深度学习模型,该深度学习模型的输出即为表情分类器。
目前已有的技术方案是将人脸的信息通过FaceNet网络转换到128维的特征空间,但由于图像信息中的人脸部分的像素数据比较少,所以不适合将人脸数据划分到128维,因此本实施例的技术方案是服务器将FaceNet原本输出的128维修改为64维,并且对人脸数据进行重新训练,从而得到输出为64位的新的神经网络,简称FaceNet-64。FaceNet-64模型对每个人脸输出64维特征,进而服务器将每个人脸的64维特征作为训练数据,每个人脸有对应的表情标签,包括正常的、开心的、不安的、悲伤的、恶心的、惊讶的,进而对数据进行分类训练,获得表情识别模型。表情识别模型的分类训练可以采用多线性回归模型的方法,具体此处不做限定。
207、服务器利用表情识别模型输出目标人脸数据为表情识别模型中已分类的每种表情类型的概率;
本实施例中,表情识别模型的训练分类器中预存有各种类型的表情(悲伤、哭泣、高兴、沮丧、大小、自然和不安),服务器利用表情识别模型将待识别的人脸数据与训练分类器中已分类的每种表情类型相比对,通过人脸的8层深度学习模型在HS空间下对待识别的人脸数据进行特征提取,得出在HS空间下的提取的特征。然后,服务器对提取的特征可以采用多线性回归模型的方法,得到每种表情类型的概率。表情识别模型的训练分类器可以采用多线性回归模型的方法,具体此处不做限定。
208、服务器选择最大概率的表情类型作为待识别人脸数据所具有的表情。
本实施例中,服务器可以选择最大概率的表情类型作为待识别人脸数据所具有的表情,也可以列表显示待识别人脸数据所具有的表情概率,具体此处不做限定。
本实施例的有益效果是,服务器通过迁移网络将原始人脸识别模型从RGB空间转换到HSV空间,根据特征映射,得到预处理人脸识别模型,然后去除亮度V向量空间的特征,使预处理人脸识别模型变为目标人脸识别模型,接着将原始人脸识别模型中的原始人脸数据根据迁移学习的方法以及将RGB空间的人脸识别模型建立到HS空间的映射关系转换为待识别的人脸数据,最后利用表情识别模型,将待识别的人脸数据与表情识别模型中的训练分类器中的各类预存的表情做比对,输出待识别人脸数据所具有的表情概率,因此服务器即使在昏暗和光线变换的环境下也能够使用转换后的人脸识别模型,准确识别出人脸并进行表情识别,提高人脸识别模型识别人脸的正确率。
上面对本申请实施例中的基于迁移学习的暗光源表情识别方法进行了描述,下面对本申请实施例中的基于迁移学习的暗光源表情识别装置进行描述,请参阅图3,本申请实施例中基于迁移学习的暗光源表情识别装置的一个实施例包括:
接收单元301,用于接收摄像头拍摄的图像信息,该图像信息中包含有第一人脸数据;
第一输入单元302,用于将图像信息输入至第一人脸识别模型;
转换单元303,用于将第一人脸识别模型转换为第二人脸识别模型;
第一输出单元304,用于从所述第二人脸识别模型输出第二人脸数据;
第二输入单元305,用于将第二人脸数据输入至表情识别模型;
第二输出单元306,用于利用表情识别模型输出第二人脸数据所具有的表情。
本实施例中,转换单元303具体用于将第一人脸识别模型从RGB空间转换到HSV空间,得到预处理人脸识别模型;去除预处理人脸识别模型中的V向量空间的特征,得到第二人脸识别模型。
转换单元303具有用于在迁移网络下将第一人脸识别模型从RGB空间转换到HSV空间,得到预处理人脸识别模型,迁移网络可以将MMD作为目标函数进行训练得到。
本实施例中,第一人脸识别模型可以为利用深度学习算法得到的模型,例如可以为利用DPM算法计算得到的模型。具体地,深度学习是多层神经网络模型,在人脸检测模型中,在第一人脸识别模型中,可以使用8层隐藏层的基于HS空间的神经网络模型。
本实施例中,第二输出单元306具体用于利用表情识别模型输出第二人脸数据为表情识别模型中已分类的每种表情类型的概率;选择最大概率的表情类型作为第二人脸数据所具有的表情。
本实施例中,表情识别模型为输出为64维的FaceNet神经网络模型。
本实施例中,基于迁移学习的暗光源表情识别装置中各单元所执行的流程与前述图1和图2所示的实施例中描述的方法流程类似,此处不再赘述。
本实施例中,第一输入单元302在输入接收单元301接收包含有第一人脸信息的图像信息后,转换单元303将第一人脸识别模型从RGB空间转换到HSV空间,根据特征映射,得到预处理的人脸识别模型,然后去掉V向量空间的特征,得到目标人脸识别模型,根据迁移学习的方法,第一输出单元304从第二人脸识别模型输出与第一人脸数据的特征分布一致的第二人脸数据,从而使基于迁移学习的暗光源表情识别装置在昏暗和光线变换的环境下也能够使用转换后的人脸识别模型,根据平衡图像光源准确识别出人脸并进行表情识别,提高了人脸识别模型识别人脸的正确率。
以上是本申请实施例中基于迁移学习的暗光源表情识别装置的一个实施例。请参阅图4,本申请实施例中基于迁移学习的暗光源表情识别装置的另一个实施例包括:
该基于迁移学习的暗光源表情识别装置400可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(central processing units,CPU)401(例如,一个或一个以上处理器)和存储器405,该存储器405中存储有一个或一个以上的应用程序或数据。
其中,存储器405可以是易失性存储或持久存储。存储在存储器405的程序可以包括一个或一个以上模块,每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器401可以设置为与存储器405通信,在基于迁移学习的暗光源表情识别装置400上执行存储器405中的一系列指令操作。
接入网网元400还可以包括一个或一个以上电源402,一个或一个以上有线或无线网络接口403,一个或一个以上输入输出接口404,和/或,一个或一个以上操作系统,例如Windows Server TM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
本实施例中基于迁移学习的暗光源表情识别装置400中的中央处理器401所执行的流程与前述图1至图2所示的实施例中描述的方法流程类似,此处不再赘述。
本申请实施例还提供一种计算机存储介质,该计算机存储介质用于储存为前述接入网网元所用的计算机软件指令,其包括用于执行为接入网网元所设计的程序。
本申请实施例还提供一种计算机程序产品,该计算机程序产品包括计算机软件指令,该计算机软件指令可通过处理器进行加载来实现前所述图1至3所示的实施例中的方法流程。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (14)

1.一种基于迁移学习的暗光源表情识别的方法,其特征在于,包括:
服务器接收摄像头拍摄的图像信息,所述图像信息中包含有第一人脸数据;
所述服务器将所述图像信息输入至第一人脸识别模型;
所述服务器将所述第一人脸识别模型转换为第二人脸识别模型;
所述服务器从所述第二人脸识别模型输出第二人脸数据;
所述服务器将所述第二人脸数据输入至表情识别模型;
所述服务器利用所述表情识别模型输出所述第二人脸数据所具有的表情。
2.根据权利要求1所述的方法,其特征在于,所述服务器将所述第一人脸识别模型转换为第二人脸识别模型包括:
所述服务器将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型;
所述服务器去除所述预处理人脸识别模型中的亮度V向量空间的特征,得到所述第二人脸识别模型。
3.根据权利要求2所述的方法,其特征在于,所述服务器将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型包括:
所述服务器在迁移网络下将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型,所述迁移网络是将最大均值差异MMD作为目标函数进行训练得到。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述第一人脸识别模型为利用深度学习算法计算得到的模型。
5.根据权利要求4所述的方法,其特征在于,所述第一人脸识别模型为利用可变形部件模型DPM算法计算得到的模型。
6.根据权利要求1至3中任一项所述的方法,其特征在于,所述服务器利用所述表情识别模型输出所述第二人脸数据所具有的表情包括:
所述服务器利用所述表情识别模型输出所述第二人脸数据为所述表情识别模型中已分类的每种表情类型的概率;
所述服务器选择最大概率的表情类型作为所述第二人脸数据所具有的表情。
7.根据权利要求6所述的方法,其特征在于,所述表情识别模型为输出为64维的FaceNet神经网络模型。
8.一种基于迁移学习的暗光源表情识别装置,其特征在于,包括:
接收单元,用于接收摄像头拍摄的图像信息,所述图像信息中包含有第一人脸数据;
第一输入单元,用于将所述图像信息输入至第一人脸识别模型;
转换单元,用于将所述第一人脸识别模型转换为第二人脸识别模型;
第二输入单元,用于将所述第二人脸数据输入至表情识别模型;
输出单元,用于利用所述表情识别模型输出所述第二人脸数据所具有的表情。
9.根据权利要求8所述的基于迁移学习的暗光源表情识别装置,其特征在于,所述转换单元具有用于将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型;去除所述预处理人脸识别模型中的亮度V向量空间的特征,得到所述第二人脸识别模型。
10.根据权利要求9所述的基于迁移学习的暗光源表情识别装置,其特征在于,所述转换单元具体用于在迁移网络下将所述第一人脸识别模型从三原色RGB空间转换到六角锥模型HSV空间,得到预处理人脸识别模型,所述迁移网络是将最大均值差异MMD作为目标函数进行训练得到。
11.根据权利要求8至10所述的基于迁移学习的暗光源表情识别装置,其特征在于,所述第一人脸识别模型为利用深度学习算法计算得到的模型。
12.根据权利要求11所述的基于迁移学习的暗光源表情识别装置,其特征在于,所述第一人脸识别模型为利用可变形部件模型DPM算法计算得到的模型。
13.根据权利要求8至10中任一项所述的基于迁移学习的暗光源表情识别装置,其特征在于,所述输出单元具体用于利用所述表情识别模型输出所述第二人脸数据为所述表情识别模型中已分类的每种表情类型的概率;选择最大概率的表情类型作为所述第二人脸数据所具有的表情。
14.根据权利要求13所述的基于迁移学习的暗光源表情识别装置,其特征在于,所述表情识别模型为输出为64维的FaceNet神经网络模型。
CN201810065194.1A 2018-01-23 2018-01-23 基于迁移学习的暗光源表情识别方法及装置 Active CN108280426B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810065194.1A CN108280426B (zh) 2018-01-23 2018-01-23 基于迁移学习的暗光源表情识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810065194.1A CN108280426B (zh) 2018-01-23 2018-01-23 基于迁移学习的暗光源表情识别方法及装置

Publications (2)

Publication Number Publication Date
CN108280426A true CN108280426A (zh) 2018-07-13
CN108280426B CN108280426B (zh) 2022-02-25

Family

ID=62804668

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810065194.1A Active CN108280426B (zh) 2018-01-23 2018-01-23 基于迁移学习的暗光源表情识别方法及装置

Country Status (1)

Country Link
CN (1) CN108280426B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109344764A (zh) * 2018-09-28 2019-02-15 大连民族大学 度量视频连续帧与其卷积特征图间差异的系统及装置
CN109376692A (zh) * 2018-11-22 2019-02-22 河海大学常州校区 面向人脸表情识别的迁移卷积神经网络方法
CN109389588A (zh) * 2018-09-28 2019-02-26 大连民族大学 度量视频连续帧与其卷积特征图间差异的方法
CN110163277A (zh) * 2019-05-17 2019-08-23 成都汇晟连横科技有限公司 基于原色分解的图像识别训练方法、图像识别方法及系统
CN110276263A (zh) * 2019-05-24 2019-09-24 长江大学 一种人脸识别系统及识别方法
CN110503703A (zh) * 2019-08-27 2019-11-26 北京百度网讯科技有限公司 用于生成图像的方法和装置
CN110738071A (zh) * 2018-07-18 2020-01-31 浙江中正智能科技有限公司 一种基于深度学习和迁移学习的人脸算法模型训练方法
CN111382602A (zh) * 2018-12-28 2020-07-07 深圳光启空间技术有限公司 一种跨域人脸识别算法、存储介质及处理器

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0932114A2 (en) * 1998-01-23 1999-07-28 Sharp Kabushiki Kaisha A method of and apparatus for detecting a face-like region and observer tracking display
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN105389553A (zh) * 2015-11-06 2016-03-09 北京汉王智远科技有限公司 一种活体检测方法和装置
CN106791471A (zh) * 2016-12-29 2017-05-31 宇龙计算机通信科技(深圳)有限公司 图像优化方法、图像优化装置和终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0932114A2 (en) * 1998-01-23 1999-07-28 Sharp Kabushiki Kaisha A method of and apparatus for detecting a face-like region and observer tracking display
CN103116763A (zh) * 2013-01-30 2013-05-22 宁波大学 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN105389553A (zh) * 2015-11-06 2016-03-09 北京汉王智远科技有限公司 一种活体检测方法和装置
CN106791471A (zh) * 2016-12-29 2017-05-31 宇龙计算机通信科技(深圳)有限公司 图像优化方法、图像优化装置和终端

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李枫: "基于混合RGB和HSV方法的人脸检测", 《兰州工业学院学报》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110738071A (zh) * 2018-07-18 2020-01-31 浙江中正智能科技有限公司 一种基于深度学习和迁移学习的人脸算法模型训练方法
CN109344764A (zh) * 2018-09-28 2019-02-15 大连民族大学 度量视频连续帧与其卷积特征图间差异的系统及装置
CN109389588A (zh) * 2018-09-28 2019-02-26 大连民族大学 度量视频连续帧与其卷积特征图间差异的方法
CN109376692A (zh) * 2018-11-22 2019-02-22 河海大学常州校区 面向人脸表情识别的迁移卷积神经网络方法
CN111382602A (zh) * 2018-12-28 2020-07-07 深圳光启空间技术有限公司 一种跨域人脸识别算法、存储介质及处理器
CN110163277A (zh) * 2019-05-17 2019-08-23 成都汇晟连横科技有限公司 基于原色分解的图像识别训练方法、图像识别方法及系统
CN110163277B (zh) * 2019-05-17 2021-03-26 成都汇晟连横科技有限公司 基于原色分解的图像识别训练方法、图像识别方法及系统
CN110276263A (zh) * 2019-05-24 2019-09-24 长江大学 一种人脸识别系统及识别方法
CN110276263B (zh) * 2019-05-24 2021-05-14 长江大学 一种人脸识别系统及识别方法
CN110503703A (zh) * 2019-08-27 2019-11-26 北京百度网讯科技有限公司 用于生成图像的方法和装置
CN110503703B (zh) * 2019-08-27 2023-10-13 北京百度网讯科技有限公司 用于生成图像的方法和装置

Also Published As

Publication number Publication date
CN108280426B (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
CN108280426A (zh) 基于迁移学习的暗光源表情识别方法及装置
Bianco et al. Single and multiple illuminant estimation using convolutional neural networks
Almogdady et al. A flower recognition system based on image processing and neural networks
CN108229458A (zh) 一种基于运动检测和多特征提取的火焰智能识别方法
Li et al. Globally and locally semantic colorization via exemplar-based broad-GAN
KR20200055811A (ko) 감정을 식별하기 위한 얼굴 감정 인식 장치 및 그 방법
CN110046544A (zh) 基于卷积神经网络的数字手势识别方法
CN111476849A (zh) 对象颜色识别方法、装置、电子设备以及存储介质
Kiani et al. Image colorization using generative adversarial networks and transfer learning
Mohammed et al. Image segmentation for skin detection
Borza et al. Automatic Skin Tone Extraction for Visagism Applications.
JPWO2020216808A5 (zh)
Simon et al. DeepLumina: A method based on deep features and luminance information for color texture classification
Sowmya et al. Significance of processing chrominance information for scene classification: a review
CN108197593A (zh) 基于三点定位方法的多尺寸人脸表情识别方法及装置
Ouannes et al. Comparative Study Based on De-Occlusion and Reconstruction of Face Images in Degraded Conditions.
Quan et al. Detecting colorized images via convolutional neural networks: Toward high accuracy and good generalization
Chi et al. Infrared Image Colorization Algorithm Based on DCGAN and Its Edge Device Acceleration
Alharbawee et al. Generative Adversarial Networks for Facial Expression Recognition in the Wild
Saxena et al. Colour detection in objects using NIN implemented CNN
Devi et al. Active facial tracking
CN115641317B (zh) 面向病理图像的动态知识回溯多示例学习及图像分类方法
Nunes et al. Fuss: Fusing superpixels for improved segmentation consistency
Aziz et al. Color segmentation for a region-based attention model
Maheswari et al. Evolutionary Algorithm with Machine Learning Enabled Color Texture Image Segmentation and Classification Model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 266000 Huangdao District, Qingdao City, Shandong Province (1403, No. 7 Wuyishan Road, former Development Zone)

Applicant after: Shandong jivisual angle Technology Co.,Ltd.

Applicant after: SHENZHEN RUNYI CULTURE DEVELOPMENT Co.,Ltd.

Address before: 518000 floor 11, United headquarters building, Rongchao high tech Zone, Yuehai street, Nanshan District, Shenzhen, Guangdong

Applicant before: SHENZHEN EXTREME VISION TECHNOLOGY CO.,LTD.

Applicant before: SHENZHEN RUNYI CULTURE DEVELOPMENT Co.,Ltd.

GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 266000 Huangdao District, Qingdao City, Shandong Province (1403, No. 7 Wuyishan Road, former Development Zone)

Patentee after: Shandong Jijian Technology Co.,Ltd.

Patentee after: SHENZHEN RUNYI CULTURE DEVELOPMENT Co.,Ltd.

Address before: 266000 Huangdao District, Qingdao City, Shandong Province (1403, No. 7 Wuyishan Road, former Development Zone)

Patentee before: Shandong jivisual angle Technology Co.,Ltd.

Patentee before: SHENZHEN RUNYI CULTURE DEVELOPMENT Co.,Ltd.