CN110390307A - 表情识别方法、表情识别模型训练方法及装置 - Google Patents

表情识别方法、表情识别模型训练方法及装置 Download PDF

Info

Publication number
CN110390307A
CN110390307A CN201910676912.3A CN201910676912A CN110390307A CN 110390307 A CN110390307 A CN 110390307A CN 201910676912 A CN201910676912 A CN 201910676912A CN 110390307 A CN110390307 A CN 110390307A
Authority
CN
China
Prior art keywords
indicate
pixel
quaternary number
network model
indicates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910676912.3A
Other languages
English (en)
Other versions
CN110390307B (zh
Inventor
邵珠宏
薛志毅
尚媛园
沈珺
徐子涵
丁辉
赵晓旭
刘铁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha Chuangye Information Technology Co.,Ltd.
Dongguan Pengbo Information Technology Co ltd
Original Assignee
Capital Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capital Normal University filed Critical Capital Normal University
Priority to CN201910676912.3A priority Critical patent/CN110390307B/zh
Publication of CN110390307A publication Critical patent/CN110390307A/zh
Application granted granted Critical
Publication of CN110390307B publication Critical patent/CN110390307B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Abstract

本申请提供了一种表情识别方法、表情识别模型训练方法及装置,其中,该方法包括:将待识别图像进行处理,以获取人脸图像;将人脸图像中的各个像素点使用四元数进行表示,形成人脸四元矩阵,其中,四元数中的每一虚数的权重表示对应的一颜色分量的值;将人脸四元矩阵作为目标神经网络模型的输入,对待识别图像进行识别,以得到待识别图像中的人脸的表情。

Description

表情识别方法、表情识别模型训练方法及装置
技术领域
本申请涉及图像处理领域,具体而言,涉及一种表情识别方法、表情识别模型训练方法及装置。
背景技术
表情是人们对自己内心感受最为直观的表现,基于神经网络的发展,现有的技术中也有一些通过神经网络的模型实现表情的识别。但是,现有的识别方法还是存在一些识别准确率较低的问题。
发明内容
有鉴于此,本申请实施例的目的在于提供一种表情识别方法、表情识别模型训练方法及装置。能够达到提高表情识别的准确率效果。
第一方面,本申请实施例提供了一种表情识别方法,包括:
将待识别图像进行处理,以获取人脸图像;
将所述人脸图像中的各个像素点使用四元数进行表示,形成人脸四元矩阵,其中,四元数中的每一虚数的权重表示对应的一颜色分量的值;
将所述人脸四元矩阵作为目标神经网络模型的输入,对所述待识别图像进行识别,以得到所述待识别图像中的人脸的表情。
本申请实施例提供的表情识别方法,采用四元数能够表示出各个色道中颜色分量的值,从而基于能够不表示彩色图像的人脸四元矩阵作为识别基础,可以提高人脸的表情识别的准确率。
一种可能的实施方式,所述将所述人脸图像中的各个像素点使用四元数进行表示,形成人脸四元矩阵的步骤,包括:
将所述人脸图像中的各个像素点使用四元数表示,以确定出各个像素点的第一四元数,每一像素点对应的第一四元数中的三个虚数的权重分别表示三个颜色分量的值;
根据各个像素点的所述第一四元数使用设定计算公式计算得到矩阵元素,以得到人脸四元矩阵。
本申请实施例提供的表情识别方法,还可以通过一计算公式计算确定出人脸四元矩阵,在进行人脸识别时,人脸四元矩阵可以更好地表示出人脸图像中对应的表情,提高表情识别的准确率。
一种可能的实施方式,所述设定计算公式包括:
其中,
其中,|m|≤n且n-|m|为偶数,μ表示单位纯四元数,(r,θ)表示极坐标,q表示四元数矩阵形式,fq(r,θ)表示坐标为(r,θ)的像素点的第一四元数,Rn,m(r)表示一中间变量,Zn,m表示人脸四元矩阵中的第n行第m列的值,s表示一临时变量。
本申请实施例提供的表情识别方法,还可以通过Zernike矩中的元素值表示出人脸的特征,由于Zernike多项式圆域上的正交性具有反变换和描述的图像具有最少的信息冗余度的特点,因此,基于Zernike矩可以更好地表示出人脸的特性,从而可以提高人脸识别的准确率。
一种可能的实施方式,所述将所述人脸图像中的各个像素点使用四元数表示,以确定出各个像素点的第一四元数的步骤,包括:
通过将所述人脸图像中的各个像素点在笛卡尔坐标系下使用四元数表示,确定出各个像素点的中间四元数;
将所述各个像素点的中间四元数转换成各个像素点在极坐标系下的四元数,各个像素点在极坐标系下的四元数为所述第一四元数。
本申请实施例提供的表情识别方法,还可以先确定出笛卡尔坐标系下使用四元数,再由笛卡尔坐标系下的四元数转换至极坐标系下的四元数,从而可以降低使四元数转换的难度。
一种可能的实施方式,所述通过将所述人脸图像中的各个像素点在笛卡尔坐标系下使用四元数表示,确定出各个像素点的中间四元数通过以下公式实现:
fq(x,y)=ifR(x,y)+jfG(x,y)+kfB(x,y);
其中,fq(x,y)表示坐标为(x,y)的像素点的中间四元数,i,j,k分别表示四元数的三个虚数单位,R,G,B分别表示红、绿、蓝色道,fR(x,y)表示坐标为(x,y)的像素点在R色道的颜色分量,fG(x,y)表示坐标为(x,y)的像素点在G色道的颜色分量,fB(x,y)表示坐标为(x,y)的像素点在B色道的颜色分量。
本申请实施例提供的表情识别方法,还可以通过上述的公式表达出各个像素点,从而保留像素点中各个色道中的颜色分量,从而更好地表示人脸图像的特性。
第二方面,本申请实施例提供一种表情识别模型训练方法,包括:
将初始数据集进行处理,以获取人脸图像集,所述初始数据集中的各个图像中包含人脸部分;
将所述人脸图像集中的各个人脸图像中的各个像素点使用四元数进行表示,以得到所述人脸图像集中的各个人脸图像的人脸四元矩阵,各个人脸图像的人脸四元矩阵形成训练数据集,其中,四元数中的每一虚数的权重表示其中一颜色分量的值;
将所述训练数据集输入初始神经网络模型中进行训练,以得到目标神经网络模型,所述目标神经网络模型为第一方面或第一方面的任意一种可能的实施方式中的方法中的目标神经网络模型。
本申请实施例提供的表情识别模型训练方法,由于接触到的图像多数是彩色图像,而且彩色图像也相对能够更好地表示人脸图像对应的表情,基于此,本申请实施例采用能表示彩色图像的人脸四元矩阵作为训练模型的输入,从而可以使训练出的模型能够更好地对表情进行识别。
一种可能的实施方式,所述将所述训练数据集输入初始神经网络模型中进行训练,以得到目标神经网络模型的步骤,包括:
a.将所述训练数据集输入当前神经网络模型的前向传播公式进行计算,得到输出特征,其中,第一次训练时,所述当前神经网络模型为所述初始神经网络模型,第N次训练时,所述当前神经网络模型为最近一次更新后得到的当前神经网络模型,N为大于一的整数;
b.当所述输出特征的误差大于设定值时,根据反向传播公式计算所述初始神经网络模型中的各个待确定参数的更新值;
c.通过所述待确定参数的更新值对所述初始神经网络模型进行更新,得到更新后的当前神经网络模型;
在当前的输出特征的误差小于或等于设定值时,将所述当前神经网络模型作为所述目标神经网络模型,在当前的输出特征的误差大于设定值时,执行步骤a-c,直至当前的输出特征的误差小于或等于设定值。
本申请实施例提供的表情识别模型训练方法,通过训练进行多次对待确定参数的调整可以实现模型的训练,从而使训练得到的目标神经网络模型能够更准确地识别表情。
一种可能的实施方式,所述前向传播公式包括:
其中,xt表示t时间的输入向量;ht表示隐藏层,Whx、Whh表示输入层和隐藏层权重矩阵;bh表示隐藏层偏差;α表示一四元数分离的激活函数;
α定义为:
α(Q)=g(a)+g(b)i+g(c)j+g(d)k;
其中,a、b、c、d分别表示激活函数的输入参数,i,j,k分别表示四元数的三个虚数单位;
上述的前向传播公式输出向量为pt
Why表示输出层的权重矩阵;β表示任意的分离激活函数;
在t时刻的初始神经网络模型中的遗忘门ft,输入门it,输出门ot,神经元状态Ct以及隐藏层状态ht的公式包括:
ht=ot×tanh(Ct);
其中,tanh(·)表示激活函数,xt表示t时间的输入向量,α表示一四元数分离的激活函数,Wf、Wi、Wo表示输入权重矩阵,R表示循环权重矩阵,b表示偏置向量,×表示两四元数的分量形式乘积,表示两四元数的Hamilton乘积,bf、bi、bc、bo分别表示遗忘门、输入门、输出门、神经元状态对应的偏置向量。
一种可能的实施方式,所述反向传播公式包括:
待确定参数的更新公式包括:
其中,λ表示学习率,yt表示期望目标向量即表情的标签向量,表示ht的共轭四元数,Et表示初始神经网络模型的损失函数,W表示权重矩阵,Wi、Wj、Wk分别表示三个虚数对应的权重矩阵,Whx表示输入层的权重矩阵,bh表示隐藏层偏差,b表示偏置向量。
本申请实施例提供的表情识别模型训练方法,通过反向传播以实现对待确定参数的计算调整,实现对模型的更新。
第三方面,本申请实施例提供一种表情识别装置,包括:
第一获取模块,用于将待识别图像进行处理,以获取人脸图像;
形成模块,用于将所述人脸图像中的各个像素点使用四元数进行表示,形成人脸四元矩阵,其中,四元数中的每一虚数的权重表示其中一颜色分量的值;
识别模块,用于将所述人脸四元矩阵作为目标神经网络模型的输入,对所述待识别图像进行识别,以得到所述待识别图像中的人脸的表情。
第四方面,本申请实施例提供一种表情识别模型训练装置,包括:
第二获取模块,用于将初始数据集进行处理,以获取人脸图像集,所述初始数据集中的各个图像中包含人脸部分;
得到模块,用于将所述人脸图像集中的各个人脸图像中的各个像素点使用四元数进行表示,以得到所述人脸图像集中的各个人脸图像的人脸四元矩阵,各个人脸图像的人脸四元矩阵形成训练数据集,其中,四元数中的每一虚数的权重表示其中一颜色分量的值;
训练模块,用于将所述训练数据集输入初始神经网络模型中进行训练,以得到目标神经网络模型,所述目标神经网络模型为第一方面或第一方面的任意一种可能的实施方式中的方法中的目标神经网络模型。
第五方面,本申请实施例还提供一种电子设备,包括:处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述机器可读指令被所述处理器执行时执行上述第一方面或第二方面的任一种可能的实施方式中的方法的步骤。
第四方面,本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述第一方面,或第二方面的任一种可能的实施方式中的方法的步骤。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的电子设备的方框示意图。
图2为本申请实施例提供的表情识别方法的流程图。
图3为本申请实施例提供的表情识别方法中的步骤202的详细流程图。
图4为本申请实施例提供的表情识别装置的功能模块示意图。
图5为本申请实施例提供的表情识别模型训练方法的流程图。
图6为本申请实施例提供的表情识别模型训练方法中的步骤403的详细流程图。
图7为本申请实施例提供的表情识别模型训练装置的功能模块示意图。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
根据心理学相关研究表明:在日常生活中,人与人之间的信息交流有大约55%的信息量是通过表情来传达的。表情是人们对自己内心感受最为直观的表现,通过对表情信息合理的分析可以得知对方的心理状态从而做出一些有利的判断,比如迎合对方的需求或者避开对方所厌恶的话题。基于此,本申请提供的一种表情识别方法、表情识别模型训练方法及装置,可以对采集到的图像中的人脸表情进行识别。流程可概括为:对人脸图像进行预处理;将彩色人脸表情图像编码为四元数矩阵;计算四元数Zernike矩;将Zernike矩输入四元数长短期记忆神经网络进行训练。训练得到的模型可以用于表情分类。相对于现有技术中的神经网络的训练方式,本申请实施例中的方法能够减少需要训练的参数数量,提高训练速度,而且有效地提高表情识别的精度。
实施例一
为便于对本实施例进行理解,首先对执行本申请实施例所公开的一种表情识别方法或表情识别模型训练方法的电子设备进行详细介绍。
如图1所示,是电子设备的方框示意图。电子设备100可以包括存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115、显示单元116。本领域普通技术人员可以理解,图1所示的结构仅为示意,其并不对电子设备100的结构造成限定。例如,电子设备100还可包括比图1中所示更多或者更少的组件,或者具有与图1所示不同的配置。
上述的存储器111、存储控制器112、处理器113、外设接口114、输入输出单元115及显示单元116各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。上述的处理器113用于执行存储器中存储的可执行模块。
其中,存储器111可以是,但不限于,随机存取存储器(Random Access Memory,简称RAM),只读存储器(Read Only Memory,简称ROM),可编程只读存储器(ProgrammableRead-Only Memory,简称PROM),可擦除只读存储器(Erasable Programmable Read-OnlyMemory,简称EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-OnlyMemory,简称EEPROM)等。其中,存储器111用于存储程序,所述处理器113在接收到执行指令后,执行所述程序,本申请实施例任一实施例揭示的过程定义的电子设备100所执行的方法可以应用于处理器113中,或者由处理器113实现。
上述的处理器113可能是一种集成电路芯片,具有信号的处理能力。上述的处理器113可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(digital signalprocessor,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
上述的外设接口114将各种输入/输出装置耦合至处理器113以及存储器111。在一些实施例中,外设接口114,处理器113以及存储控制器112可以在单个芯片中实现。在其他一些实例中,他们可以分别由独立的芯片实现。
上述的输入输出单元115用于提供给用户输入数据。所述输入输出单元115可以是,但不限于,鼠标和键盘等。
上述的显示单元在电子设备100与用户之间提供一个交互界面(例如用户操作界面)或用于显示图像数据给用户参考。在本实施例中,所述显示单元可以是液晶显示器或触控显示器。若为触控显示器,其可为支持单点和多点触控操作的电容式触控屏或电阻式触控屏等。支持单点和多点触控操作是指触控显示器能感应到来自该触控显示器上一个或多个位置处同时产生的触控操作,并将该感应到的触控操作交由处理器进行计算和处理。
本实施例中的电子设备100可以用于执行本申请实施例提供的各个方法中的各个步骤。下面通过几个实施例详细描述表情识别方法或表情识别模型训练方法的实现过程。
实施例二
请参阅图2,是本申请实施例提供的表情识别方法的流程图。下面将对图2所示的具体流程进行详细阐述。
步骤201,将待识别图像进行处理,以获取人脸图像。
本实施例中的方法可以用于一公共社交场所,上述的待识别图像可以是在上述的公共社交场所中采集到的图像。
本实施例中的方法还可以用于对一用户的状态进行分析,上述的待识别图像则可以是该用户在一阶段的照片。
可选地,上述的待识别图像可以包括人脸部分图像还可以包括其它部分图像,例如,背景、脖子、肩膀等。
可选地,可以通过人脸识别算法对待识别图像中的人脸进行识别,可根据人脸识别结果提取待识别图像中的人脸部分图像,将该人脸部分图像确定为上述的人脸图像。示例性地,人脸识别算法可以是SeetaFace人脸识别引擎中的Detection模块。
可选地,也可以对根据人脸识别结果提取的人脸部分图像进行优化处理,将处理后的图像作为上述的人脸图像。可选地,优化处理可以包括:人脸对齐处理、尺寸归一化处理、去噪处理等。
步骤202,将所述人脸图像中的各个像素点使用四元数进行表示,形成人脸四元矩阵。
其中,四元数中的每一虚数的权重表示对应的一颜色分量的值。
在一种实施方式中,如图3所示,上述的步骤202可以包括以下步骤。
步骤2021,将所述人脸图像中的各个像素点使用四元数表示,以确定出各个像素点的第一四元数。
每一像素点对应的第一四元数中的三个虚数的权重分别表示三个颜色分量的值。
步骤2021可以包括:通过将所述人脸图像中的各个像素点在笛卡尔坐标系下使用四元数表示,确定出各个像素点的中间四元数;将所述各个像素点的中间四元数转换成各个像素点在极坐标系下的四元数,各个像素点在极坐标系下的四元数为所述第一四元数。
上述的通过将所述人脸图像中的各个像素点在笛卡尔坐标系下使用四元数表示,确定出各个像素点的中间四元数通过以下公式实现:
fq(x,y)=ifR(x,y)+jfG(x,y)+kfB(x,y);
其中,fq(x,y)表示坐标为(x,y)的像素点的中间四元数,i,j,k分别表示四元数的三个虚数单位,R,G,B分别表示红、绿、蓝色道,fR(x,y)表示坐标为(x,y)的像素点在R色道的颜色分量,fG(x,y)表示坐标为(x,y)的像素点在G色道的颜色分量,fB(x,y)表示坐标为(x,y)的像素点在B色道的颜色分量。
由一笛卡尔坐标系下的坐标(x,y)与极坐标系下的坐标(r,θ)可以对应,因此,可以将坐标为(x,y)的像素点的中间四元数fq(x,y)转换成极坐标系下表示,得到fq(r,θ)。
步骤2022,根据各个像素点的所述第一四元数使用设定计算公式计算得到矩阵元素,以得到人脸四元矩阵。
可选地,可以根据fq(r,θ)计算四元数Zernike矩。
在一种实施方式中,上述的所述设定计算公式可以包括:
其中,
其中,|m|≤n且n-|m|为偶数,μ表示单位纯四元数,(r,θ)表示极坐标,q表示四元数矩阵形式,fq(r,θ)表示坐标为(r,θ)的像素点的第一四元数,Rn,m(r)表示一中间变量,Zn,m表示人脸四元矩阵中的第n行第m列的值,s表示一临时变量。
在另一种实施方式中,上述的所述设定计算公式可以包括:
其中,
其中,|m|≤n且n-|m|为偶数,μ表示单位纯四元数,(r,θ)表示极坐标,q表示四元数矩阵形式,fq(r,θ)表示坐标为(r,θ)的像素点的第一四元数,Rn,m(r)表示一中间变量,Zn,m表示人脸四元矩阵中的第n行第m列的值,s表示一临时变量。其中,上述的人脸图像的大小为N*N。
步骤203,将所述人脸四元矩阵作为目标神经网络模型的输入,对所述待识别图像进行识别,以得到所述待识别图像中的人脸的表情。
示例性地,可以将计算得到的人脸四元矩阵作为目标神经网络模型进行计算,可以确定出上述的人脸图像中的人脸的表情。
可选地,可以识别的表情可以包括:中性、生气、高兴、厌恶、恐惧、惊讶、悲伤等。步骤203的输出结果可以是上述的中性、生气、高兴、厌恶、恐惧、惊讶、悲伤中的任意一种。
本申请实施例提供的表情识别方法,采用四元数能够表示出各个色道中颜色分量的值,从而基于能够不表示彩色图像的人脸四元矩阵作为识别基础,可以提高人脸的表情识别的准确率。
实施例三
基于同一申请构思,本申请实施例中还提供了与表情识别方法对应的表情识别装置,由于本申请实施例中的装置解决问题的原理与本申请实施例上述表情识别方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
请参阅图4,是本申请实施例提供的表情识别装置的功能模块示意图。本实施例中的表情识别装置中的各个模块用于执行上述方法实施例中的各个步骤。本实施例中的表情识别装置包括第一获取模块301、形成模块302及识别模块303;其中,
第一获取模块301,用于将待识别图像进行处理,以获取人脸图像;
形成模块302,用于将所述人脸图像中的各个像素点使用四元数进行表示,形成人脸四元矩阵,其中,四元数中的每一虚数的权重表示其中一颜色分量的值;
识别模块303,用于将所述人脸四元矩阵作为目标神经网络模型的输入,对所述待识别图像进行识别,以得到所述待识别图像中的人脸的表情。
一种可能的实施方式中,上述的形成模块302,还用于:
将所述人脸图像中的各个像素点使用四元数表示,以确定出各个像素点的第一四元数,每一像素点对应的第一四元数中的三个虚数的权重分别表示三个颜色分量的值;
根据各个像素点的所述第一四元数使用设定计算公式计算得到矩阵元素,以得到人脸四元矩阵。
一种可能的实施方式中,上述的所述设定计算公式包括:
其中,
其中,|m|≤n且n-|m|为偶数,μ表示单位纯四元数,(r,θ)表示极坐标,q表示四元数矩阵形式,fq(r,θ)表示坐标为(r,θ)的像素点的第一四元数,Rn,m(r)表示一中间变量,Zn,m表示人脸四元矩阵中的第n行第m列的值,s表示一临时变量。
一种可能的实施方式中,上述的形成模块302,还用于:
通过将所述人脸图像中的各个像素点在笛卡尔坐标系下使用四元数表示,确定出各个像素点的中间四元数;
将所述各个像素点的中间四元数转换成各个像素点在极坐标系下的四元数,各个像素点在极坐标系下的四元数为所述第一四元数。
一种可能的实施方式中,上述的通过将所述人脸图像中的各个像素点在笛卡尔坐标系下使用四元数表示,确定出各个像素点的中间四元数通过以下公式实现:
fq(x,y)=ifR(x,y)+jfG(x,y)+kfB(x,y);
其中,fq(x,y)表示坐标为(x,y)的像素点的中间四元数,i,j,k分别表示四元数的三个虚数单位,R,G,B分别表示红、绿、蓝色道。
实施例四
请参阅图5,是本申请实施例提供的表情识别模型训练方法的流程图。下面将对图5所示的具体流程进行详细阐述。
步骤401,将初始数据集进行处理,以获取人脸图像集。
其中,初始数据集中的各个图像中包含人脸部分。
可选地,可以对步骤401采用与步骤201类似的处理方式进行处理,以得到人脸对齐、尺寸归一化的人脸图像集。
步骤402,将所述人脸图像集中的各个人脸图像中的各个像素点使用四元数进行表示,以得到所述人脸图像集中的各个人脸图像的人脸四元矩阵,各个人脸图像的人脸四元矩阵形成训练数据集。
其中,四元数中的每一虚数的权重表示其中一颜色分量的值。
步骤402可以包括:针对人脸图像集中的每幅人脸图像,将该人脸图像中的各个像素点使用四元数表示,以确定出各个像素点的第一四元数,每一像素点对应的第一四元数中的三个虚数的权重分别表示三个颜色分量的值;根据各个像素点的所述第一四元数使用设定计算公式计算得到矩阵元素,以得到各个人脸图像的人脸四元矩阵。
在一个实例中,可以假设上述的人脸图像中表示为:f1(x,y)、f2(x,y)、…、fP(x,y),P表示人脸图像集中的人脸图像数量,将人脸图像集每幅人脸图像编码为四元数矩阵。
可选地,将每幅人脸图像中的各个像素点在笛卡尔坐标系下使用四元数表示,再将笛卡尔坐标系下的四元数表示为极坐标系下的四元数。
第p幅人脸图像中各个像素点在笛卡尔坐标系下使用四元数表示通过以下公式实现:
其中,表示第p幅人脸图像中坐标为(x,y)的像素点的中间四元数,P表示人脸图像集中的人脸图像数量,i,j,k分别表示四元数的三个虚数单位,R,G,B分别表示红、绿、蓝色道。
示例性地,可以通过以下公式对极坐标系下的四元数进行计算以确定出作为训练输入的矩阵。
其中,
其中,|m|≤n且n-|m|为偶数,μ表示单位纯四元数,(r,θ)表示极坐标,p表示人脸图像集中第p幅人脸图像,q表示四元数矩阵形式,表示第p个图像中坐标为(r,θ)的像素点的第一四元数,Rn,m(r)表示一中间变量,表示人脸四元矩阵中的第n行第m列的值,s表示一临时变量。
步骤403,将所述训练数据集输入初始神经网络模型中进行训练,以得到目标神经网络模型。
可选地,本实施例中的目标神经网络模型可以是实施例二中所述的方法中的目标神经网络模型。
首先,可以随机生成纯虚四元数qimag作为初始神经网络模型中的待确定参数的初始值。
在一实施方式中,如图6所示,步骤403可以包括以下步骤。
步骤4031,将训练数据集输入当前神经网络模型的前向传播公式进行计算,得到输出特征。
其中,第一次训练时,所述当前神经网络模型为所述初始神经网络模型,第N次训练时,所述当前神经网络模型为最近一次更新后得到的当前神经网络模型,N为大于一的整数。
可选地,上述的初始神经网络模型可以是一长短期记忆神经网络(Long-ShortTerm Memory,简称:LSTM)。在一个实例中,可以使用四元数长短期记忆神经网络(Quaternion Long-Short Term Memory,简称:QLSTM)作为初始神经网络模型。
可选地,上述的前向传播公式可以包括:
其中,xt表示t时间的输入向量;ht表示隐藏层,Whx、Whh表示输入层和隐藏层权重矩阵;bh表示隐藏层偏差;α表示一四元数分离的激活函数;
α定义为:
α(Q)=g(a)+g(b)i+g(c)j+g(d)k;
其中,a、b、c、d分别表示激活函数的输入参数,i,j,k分别表示四元数的三个虚数单位;
其中,a、b、c、d分别表示激活函数的输入参数,i,j,k分别表示四元数的三个虚数单位;
上述的前向传播公式输出向量为pt
Why表示输出层的权重矩阵;β表示任意的分离激活函数;
在t时刻的初始神经网络模型中的遗忘门ft,输入门it,输出门ot,神经元状态Ct以及隐藏层状态ht的公式包括:
ht=ot×tanh(Ct);
其中,tanh(·)表示激活函数,xt表示t时间的输入向量,α表示一四元数分离的激活函数,Wf、Wi、Wo表示输入权重矩阵,R表示循环权重矩阵,b表示偏置向量,×表示两四元数的分量形式乘积,表示两四元数的Hamilton乘积,bf、bi、bc、bo分别表示遗忘门、输入门、输出门、神经元状态对应的偏置向量。
步骤4032,当所述输出特征的误差大于设定值时,根据反向传播公式计算所述初始神经网络模型中的各个待确定参数的更新值。
可选地,上述的反向传播公式包括:
待确定参数的更新公式包括:
其中,λ表示学习率,yt表示期望目标向量即表情的标签向量,表示ht的共轭四元数,Et表示初始神经网络模型的损失函数,W表示权重矩阵,Wi、Wj、Wk分别表示三个虚数对应的权重矩阵,Whx表示输入层的权重矩阵,bh表示隐藏层偏差,b表示偏置向量。
步骤4033,通过所述待确定参数的更新值对所述初始神经网络模型进行更新,得到更新后的当前神经网络模型。
步骤4034,判断当前的输出特征的误差是否小于或等于设定值。
在当前的输出特征的误差小于或等于设定值时,将所述当前神经网络模型作为所述目标神经网络模型,在当前的输出特征的误差大于设定值时,执行步骤4031-4033,直至当前的输出特征的误差小于或等于设定值。
根据本申请实施例中的方法,可以使四元数将彩色人脸表情图像的不同颜色分量编码为一个四元数矩阵进行处理,充分利用了颜色信息。使用四元数Zernike矩提取彩色人脸表情图像特征,不仅有效地提高了识别的精度,而且极大地减少了训练网络参数的数量。
为了验证本申请提供的表情识别方法及表情识别模型训练方法的有效性,在RafD表情库进行实验,具体描述如下。
在一实例中,可以共有67个人的正面样本图像,每人包含七种表情(中性、生气、高兴、厌恶、恐惧、惊讶、悲伤),每种表情有三张样本,共1407张。其中,每张样本的大小为96×96像素。矩的阶次n=5。随机选取每个人每种表情中的两个样本为训练样本,剩下的一个为测试样本。
通过上述实例对本申请实施例中所使用的方法进行验证的相关数据如下表。
表1分类准确率
LSTM QLSTM QZM+QLSTM
识别率 84.37% 88.02% 92.66%
表2 QLSTM与LSTM的网络参数对比
其中,表1和表2中的“QZM”表示四元数Zernike矩(Quaternion Zernike matrix);“QLSTM”表示四元数长短期记忆神经网络(Quaternion Long-Short Term Memory)。
从表1可以看出,使用四元数Zernike矩和四元数长短期记忆神经网络算法的识别准确率明显高其它两种算法,表明该本申请实施例中的方法是有效的;同时可以看出使用四元数矩阵的表示方法使识别率得到显著提高。从表2可以看出,对于彩色人脸表情图像使用QLSTM处理时所需要的神经元数量仅为实数域长短期记忆神经网络(LSTM)的四分之一,而且极大地减少了需要训练的参数数量。
通过上述的实例表示,本申请实施例提供的表情识别方法或表情识别模型训练方法中的四元数Zernike矩和四元数长短期记忆神经网络算法的组合训练,与长短期记忆神经网络算法相比具有相对更少的训练量。四元数Zernike矩和四元数长短期记忆神经网络算法的组合训练,与长短期记忆神经网络算法相比具有更高的识别准确率。
实施例五
基于同一申请构思,本申请实施例中还提供了与表情识别模型训练方法对应的表情识别模型训练装置,由于本申请实施例中的装置解决问题的原理与本申请实施例上述表情识别模型训练方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
请参阅图7,是本申请实施例提供的表情识别模型训练装置的功能模块示意图。本实施例中的表情识别模型训练装置中的各个模块用于执行上述方法实施例中的各个步骤。表情识别模型训练装置包括:第二获取模块501、得到模块502及训练模块503;其中,
第二获取模块501,用于将初始数据集进行处理,以获取人脸图像集,所述初始数据集中的各个图像中包含人脸部分;
得到模块502,用于将所述人脸图像集中的各个人脸图像中的各个像素点使用四元数进行表示,以得到所述人脸图像集中的各个人脸图像的人脸四元矩阵,各个人脸图像的人脸四元矩阵形成训练数据集,其中,四元数中的每一虚数的权重表示其中一颜色分量的值;
训练模块503,用于将所述训练数据集输入初始神经网络模型中进行训练,以得到目标神经网络模型。
可选地,本实施例中的目标神经网络模型可以是实施例二中所述的方法中的目标神经网络模型。
一种可能的实施方式中,上述的训练模块503,还用于:
a.将所述训练数据集输入当前神经网络模型的前向传播公式进行计算,得到输出特征,其中,第一次训练时,所述当前神经网络模型为所述初始神经网络模型,第N次训练时,所述当前神经网络模型为最近一次更新后得到的当前神经网络模型,N为大于一的整数;
b.当所述输出特征的误差大于设定值时,根据反向传播公式计算所述初始神经网络模型中的各个待确定参数的更新值;
c.通过所述待确定参数的更新值对所述初始神经网络模型进行更新,得到更新后的当前神经网络模型;
在当前的输出特征的误差小于或等于设定值时,将所述当前神经网络模型作为所述目标神经网络模型,在当前的输出特征的误差大于设定值时,执行上述的a-c过程,直至当前的输出特征的误差小于或等于设定值。
一种可能的实施方式中,上述的前向传播公式包括:
其中,xt表示t时间的输入向量;ht表示隐藏层,Whx、Whh表示输入层和隐藏层权重矩阵;bh表示隐藏层偏差;α表示一四元数分离的激活函数;
α定义为:
α(Q)=g(a)+g(b)i+g(c)j+g(d)k;
其中,a、b、c、d分别表示激活函数的输入参数,i,j,k分别表示四元数的三个虚数单位;
上述的前向传播公式输出向量为pt
Why表示输出层的权重矩阵;β表示任意的分离激活函数;
在t时刻的初始神经网络模型中的遗忘门ft,输入门it,输出门ot,神经元状态Ct以及隐藏层状态ht的公式包括:
ht=ot×tanh(Ct);
其中,tanh(·)表示激活函数,xt表示t时间的输入向量,α表示一四元数分离的激活函数,Wf、Wi、Wo表示输入权重矩阵,R表示循环权重矩阵,b表示偏置向量,×表示两四元数的分量形式乘积,表示两四元数的Hamilton乘积,bf、bi、bc、bo分别表示遗忘门、输入门、输出门、神经元状态对应的偏置向量。
一种可能的实施方式中,上述的反向传播公式包括:
待确定参数的更新公式包括:
其中,λ表示学习率,yt表示期望目标向量即表情的标签向量,表示ht的共轭四元数,Et表示初始神经网络模型的损失函数,W表示权重矩阵,Wi、Wj、Wk分别表示三个虚数对应的权重矩阵,Whx表示输入层的权重矩阵,bh表示隐藏层偏差,b表示偏置向量。
此外,本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行上述方法实施例中所述的表情识别方法或表情识别模型训练方法的步骤。
本申请实施例所提供的表情识别方法或表情识别模型训练方法的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行上述方法实施例中所述的表情识别方法或表情识别模型训练方法的步骤,具体可参见上述方法实施例,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。

Claims (13)

1.一种表情识别方法,其特征在于,包括:
将待识别图像进行处理,以获取人脸图像;
将所述人脸图像中的各个像素点使用四元数进行表示,形成人脸四元矩阵,其中,四元数中的每一虚数的权重表示对应的一颜色分量的值;
将所述人脸四元矩阵作为目标神经网络模型的输入,对所述待识别图像进行识别,以得到所述待识别图像中的人脸的表情。
2.根据权利要求1所述的方法,其特征在于,所述将所述人脸图像中的各个像素点使用四元数进行表示,形成人脸四元矩阵的步骤,包括:
将所述人脸图像中的各个像素点使用四元数表示,以确定出各个像素点的第一四元数,每一像素点对应的第一四元数中的三个虚数的权重分别表示三个颜色分量的值;
根据各个像素点的所述第一四元数使用设定计算公式计算得到矩阵元素,以得到人脸四元矩阵。
3.根据权利要求2所述的方法,其特征在于,所述设定计算公式包括:
其中,
其中,|m|≤n且n-|m|为偶数,μ表示单位纯四元数,(r,θ)表示极坐标,q表示四元数矩阵形式,fq(r,θ)表示坐标为(r,θ)的像素点的第一四元数,Rn,m(r)表示一中间变量,Zn,m表示人脸四元矩阵中的第n行第m列的值,s表示一临时变量。
4.根据权利要求2所述的方法,其特征在于,所述将所述人脸图像中的各个像素点使用四元数表示,以确定出各个像素点的第一四元数的步骤,包括:
通过将所述人脸图像中的各个像素点在笛卡尔坐标系下使用四元数表示,确定出各个像素点的中间四元数;
将所述各个像素点的中间四元数转换成各个像素点在极坐标系下的四元数,各个像素点在极坐标系下的四元数为所述第一四元数。
5.根据权利要求4所述的方法,其特征在于,所述通过将所述人脸图像中的各个像素点在笛卡尔坐标系下使用四元数表示,确定出各个像素点的中间四元数通过以下公式实现:
fq(x,y)=ifR(x,y)+jfG(x,y)+kfB(x,y);
其中,fq(x,y)表示坐标为(x,y)的像素点的中间四元数,i,j,k分别表示四元数的三个虚数单位,R,G,B分别表示红、绿、蓝色道,fR(x,y)表示坐标为(x,y)的像素点在R色道的颜色分量,fG(x,y)表示坐标为(x,y)的像素点在G色道的颜色分量,fB(x,y)表示坐标为(x,y)的像素点在B色道的颜色分量。
6.一种表情识别模型训练方法,其特征在于,包括:
将初始数据集进行处理,以获取人脸图像集,所述初始数据集中的各个图像中包含人脸部分;
将所述人脸图像集中的各个人脸图像中的各个像素点使用四元数进行表示,以得到所述人脸图像集中的各个人脸图像的人脸四元矩阵,各个人脸图像的人脸四元矩阵形成训练数据集,其中,四元数中的每一虚数的权重表示其中一颜色分量的值;
将所述训练数据集输入初始神经网络模型中进行训练,以得到目标神经网络模型,所述目标神经网络模型为权利要求1-5任意一项所述的方法中的目标神经网络模型。
7.根据权利要求6所述的方法,其特征在于,所述将所述训练数据集输入初始神经网络模型中进行训练,以得到目标神经网络模型的步骤,包括:
a.将所述训练数据集输入当前神经网络模型的前向传播公式进行计算,得到输出特征,其中,第一次训练时,所述当前神经网络模型为所述初始神经网络模型,第N次训练时,所述当前神经网络模型为最近一次更新后得到的当前神经网络模型,N为大于一的整数;
b.当所述输出特征的误差大于设定值时,根据反向传播公式计算所述初始神经网络模型中的各个待确定参数的更新值;
c.通过所述待确定参数的更新值对所述初始神经网络模型进行更新,得到更新后的当前神经网络模型;
在当前的输出特征的误差小于或等于设定值时,将所述当前神经网络模型作为所述目标神经网络模型,在当前的输出特征的误差大于设定值时,执行步骤a-c,直至当前的输出特征的误差小于或等于设定值。
8.根据权利要求7所述的方法,其特征在于,所述前向传播公式包括:
其中,xt表示t时间的输入向量;ht表示隐藏层,Whx、Whh分别表示输入层和隐藏层权重矩阵;bh表示隐藏层偏差;α表示一四元数分离的激活函数;
α定义为:
α(Q)=g(a)+g(b)i+g(c)j+g(d)k;
其中,a、b、c、d分别表示激活函数的输入参数,i,j,k分别表示四元数的三个虚数单位;
上述的前向传播公式输出向量为pt
Why表示输出层的权重矩阵;β表示任意的分离激活函数;
在t时刻的初始神经网络模型中的遗忘门ft,输入门it,输出门ot,神经元状态Ct以及隐藏层状态ht的公式包括:
ht=ot×tanh(Ct);
其中,tanh(·)表示激活函数,xt表示t时间的输入向量,α表示一四元数分离的激活函数,Wf、Wi、Wo、Wc分别表示输入权重矩阵,R表示循环权重矩阵,b表示偏置向量,×表示两四元数的分量形式乘积,表示两四元数的Hamilton乘积,bf、bi、bc、bo分别表示遗忘门、输入门、输出门、神经元状态对应的偏置向量。
9.根据权利要求7所述的方法,其特征在于,所述反向传播公式包括:
待确定参数的更新公式包括:
其中,λ表示学习率,yt表示表情的标签向量,表示ht的共轭四元数,Et表示初始神经网络模型的损失函数,W表示权重矩阵,Wi、Wj、Wk分别表示三个虚数对应的权重矩阵,Whx表示输入层的权重矩阵,bh表示隐藏层偏差,b表示偏置向量。
10.一种表情识别装置,其特征在于,包括:
第一获取模块,用于将待识别图像进行处理,以获取人脸图像;
形成模块,用于将所述人脸图像中的各个像素点使用四元数进行表示,形成人脸四元矩阵,其中,四元数中的每一虚数的权重表示其中一颜色分量的值;
识别模块,用于将所述人脸四元矩阵作为目标神经网络模型的输入,对所述待识别图像进行识别,以得到所述待识别图像中的人脸的表情。
11.一种表情识别模型训练装置,其特征在于,包括:
第二获取模块,用于将初始数据集进行处理,以获取人脸图像集,所述初始数据集中的各个图像中包含人脸部分;
得到模块,用于将所述人脸图像集中的各个人脸图像中的各个像素点使用四元数进行表示,以得到所述人脸图像集中的各个人脸图像的人脸四元矩阵,各个人脸图像的人脸四元矩阵形成训练数据集,其中,四元数中的每一虚数的权重表示其中一颜色分量的值;
训练模块,用于将所述训练数据集输入初始神经网络模型中进行训练,以得到目标神经网络模型,所述目标神经网络模型为权利要求1-5任意一项所述的方法中的目标神经网络模型。
12.一种电子设备,其特征在于,包括:处理器、存储器,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述机器可读指令被所述处理器执行时执行如权利要求1至9任一所述的方法的步骤。
13.一种计算机可读存储介质,其特征在于,该计算机可读存储介质上存储有计算机程序,该计算机程序被处理器运行时执行如权利要求1至9任一所述的方法的步骤。
CN201910676912.3A 2019-07-25 2019-07-25 表情识别方法、表情识别模型训练方法及装置 Active CN110390307B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910676912.3A CN110390307B (zh) 2019-07-25 2019-07-25 表情识别方法、表情识别模型训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910676912.3A CN110390307B (zh) 2019-07-25 2019-07-25 表情识别方法、表情识别模型训练方法及装置

Publications (2)

Publication Number Publication Date
CN110390307A true CN110390307A (zh) 2019-10-29
CN110390307B CN110390307B (zh) 2021-06-08

Family

ID=68287358

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910676912.3A Active CN110390307B (zh) 2019-07-25 2019-07-25 表情识别方法、表情识别模型训练方法及装置

Country Status (1)

Country Link
CN (1) CN110390307B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126297A (zh) * 2019-12-25 2020-05-08 淮南师范学院 一种基于学习者表情的体验分析方法
CN111325123A (zh) * 2020-02-10 2020-06-23 北京格灵深瞳信息技术有限公司 面部角度表示和标注方法、装置及计算机存储介质
CN112633226A (zh) * 2020-12-30 2021-04-09 国电南京自动化股份有限公司 一种基于四元数分数阶伪Zernike矩的人脸验证方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102288176A (zh) * 2011-07-07 2011-12-21 中国矿业大学(北京) 基于信息融合的煤矿救灾机器人导航系统及方法
CN106599520A (zh) * 2016-12-31 2017-04-26 中国科学技术大学 一种基于lstm‑rnn模型的空气污染物浓度预报方法
CN107368819A (zh) * 2017-08-02 2017-11-21 首都师范大学 人脸识别方法及系统
CN107657204A (zh) * 2016-07-25 2018-02-02 中国科学院声学研究所 深层网络模型的构建方法及人脸表情识别方法和系统
CN108256426A (zh) * 2017-12-15 2018-07-06 安徽四创电子股份有限公司 一种基于卷积神经网络的人脸表情识别方法
CN108960041A (zh) * 2018-05-17 2018-12-07 首都师范大学 图像特征提取方法及装置
CN109508646A (zh) * 2018-10-22 2019-03-22 西安电子科技大学 一种基于生成对抗式网络的人脸表情识别方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102288176A (zh) * 2011-07-07 2011-12-21 中国矿业大学(北京) 基于信息融合的煤矿救灾机器人导航系统及方法
CN107657204A (zh) * 2016-07-25 2018-02-02 中国科学院声学研究所 深层网络模型的构建方法及人脸表情识别方法和系统
CN106599520A (zh) * 2016-12-31 2017-04-26 中国科学技术大学 一种基于lstm‑rnn模型的空气污染物浓度预报方法
CN107368819A (zh) * 2017-08-02 2017-11-21 首都师范大学 人脸识别方法及系统
CN108256426A (zh) * 2017-12-15 2018-07-06 安徽四创电子股份有限公司 一种基于卷积神经网络的人脸表情识别方法
CN108960041A (zh) * 2018-05-17 2018-12-07 首都师范大学 图像特征提取方法及装置
CN109508646A (zh) * 2018-10-22 2019-03-22 西安电子科技大学 一种基于生成对抗式网络的人脸表情识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
KAZUHIKO TAKAHASHI等: "Remarks on Computational Facial Expression Recognition from HOG Features Using Quaternion Multi-layer Neural Network", 《ENGINEERING APPLICATIONS OF NEURAL NETWORKS 》 *
TITOUAN PARCOLLET等: "Bidirectional Quaternion Long Short-term Memory Recurrent Neural Networks for Speech Recognition", 《ICASSP》 *
TITOUAN PARCOLLET等: "Quaternion Recurrent Neural Networks", 《ARXIV》 *
邵珠宏等: "基于局部特征和集成学习的鲁棒彩色人脸识别算法", 《东南大学学报》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126297A (zh) * 2019-12-25 2020-05-08 淮南师范学院 一种基于学习者表情的体验分析方法
CN111126297B (zh) * 2019-12-25 2023-10-31 淮南师范学院 一种基于学习者表情的体验分析方法
CN111325123A (zh) * 2020-02-10 2020-06-23 北京格灵深瞳信息技术有限公司 面部角度表示和标注方法、装置及计算机存储介质
CN112633226A (zh) * 2020-12-30 2021-04-09 国电南京自动化股份有限公司 一种基于四元数分数阶伪Zernike矩的人脸验证方法及系统
CN112633226B (zh) * 2020-12-30 2023-09-22 国电南京自动化股份有限公司 一种基于四元数分数阶伪Zernike矩的人脸验证方法及系统

Also Published As

Publication number Publication date
CN110390307B (zh) 2021-06-08

Similar Documents

Publication Publication Date Title
Han et al. Two-stage learning to predict human eye fixations via SDAEs
Modi et al. Facial emotion recognition using convolution neural network
Jabri et al. Revisiting visual question answering baselines
Xie et al. Scut-fbp: A benchmark dataset for facial beauty perception
Lake et al. One-shot learning by inverting a compositional causal process
Chen et al. Assessing four neural networks on handwritten digit recognition dataset (MNIST)
Malinowski et al. Ask your neurons: A neural-based approach to answering questions about images
CN105469041B (zh) 基于多任务正则化与逐层监督神经网络的人脸点检测系统
CN110390307A (zh) 表情识别方法、表情识别模型训练方法及装置
CN106068514A (zh) 用于在不受约束的媒体中识别面孔的系统和方法
JP2017513144A (ja) 顔認証方法およびシステム
CN108108751A (zh) 一种基于卷积多特征和深度随机森林的场景识别方法
CN109558902A (zh) 一种快速目标检测方法
Fu et al. A computational cognition model of perception, memory, and judgment
CN105893947B (zh) 基于多局部相关特征学习的两视角人脸识别方法
CN110163111A (zh) 基于人脸识别的叫号方法、装置、电子设备及存储介质
CN107491729B (zh) 基于余弦相似度激活的卷积神经网络的手写数字识别方法
CN104463243B (zh) 基于平均脸特征的性别检测方法
CN104715266B (zh) 基于src‑dp与lda相结合的图像特征提取方法
Liao et al. A deep convolutional neural network module that promotes competition of multiple-size filters
Gao et al. A novel face feature descriptor using adaptively weighted extended LBP pyramid
Tiwari Supervised learning: From theory to applications
CN109614990A (zh) 一种目标检测装置
CN107066979A (zh) 一种基于深度信息和多维度卷积神经网络的人体动作识别方法
Lee et al. Recognition of visually perceived compositional human actions by multiple spatio-temporal scales recurrent neural networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20231121

Address after: 410000, Building 8, 307, Hengguang International Jingyuan Zone 1, No. 1 Liangtang West Road, Xianglong Street, Changsha County, Changsha City, Hunan Province

Patentee after: Changsha Chuangye Information Technology Co.,Ltd.

Address before: Room 1109, No. 31, Nancheng Section, Guantai Road, Nancheng Street, Dongguan City, Guangdong Province, 523000

Patentee before: Dongguan Pengbo Information Technology Co.,Ltd.

Effective date of registration: 20231121

Address after: Room 1109, No. 31, Nancheng Section, Guantai Road, Nancheng Street, Dongguan City, Guangdong Province, 523000

Patentee after: Dongguan Pengbo Information Technology Co.,Ltd.

Address before: 105 West Third Ring Road North, Haidian District, Beijing

Patentee before: Capital Normal University