CN110363074A - 一种针对复杂抽象化事物的类人化识别交互方法 - Google Patents

一种针对复杂抽象化事物的类人化识别交互方法 Download PDF

Info

Publication number
CN110363074A
CN110363074A CN201910474678.6A CN201910474678A CN110363074A CN 110363074 A CN110363074 A CN 110363074A CN 201910474678 A CN201910474678 A CN 201910474678A CN 110363074 A CN110363074 A CN 110363074A
Authority
CN
China
Prior art keywords
feature
human face
peopleization
things
learning network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910474678.6A
Other languages
English (en)
Other versions
CN110363074B (zh
Inventor
韦政松
邓晓燕
黄海真
陈洲楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201910474678.6A priority Critical patent/CN110363074B/zh
Publication of CN110363074A publication Critical patent/CN110363074A/zh
Application granted granted Critical
Publication of CN110363074B publication Critical patent/CN110363074B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种针对复杂抽象化事物的类人化识别交互方法,该方法包括以下步骤:1)采集人的语音和脸部信息;2)提取人脸部表情特征和语言情感倾向特征;3)情感状态分析;4)交互模式判定;5)交互效果反馈。该方法利用数字摄像头和麦克风获取人的脸部和语音信息,通过语音识别和人脸识别获得脸部表情特征和语言情感倾向,并通过类人思维直接分析情感状态和完成交互模式的判定。最后,再次通过步骤1)和2)获得交互反馈调整优化用于情感状态分析的网络,从而实现机器在和人交互时可以对人类特有的复杂抽象事物进行识别交互和自适应。

Description

一种针对复杂抽象化事物的类人化识别交互方法
技术领域
本发明涉及人工智能以及嵌入式系统技术领域,具体涉及一种针对复杂抽象化事物的类人化识别交互方法。
背景技术
智能人机交互是人工智能领域重要的研究方向之一,随着人工智能的不断发展,人们对智能产品的提出了更高的要求。
同时,随着弱人工智能技术应用的泛化和普及,用户对交互式人工智能设备的需求越来越向强人工智能化和仿人化发展,希望和机器的信息交互能像和人对话一样方便自然。而传统智能终端的弱人工智能AI只针对某些简单的场景和意图进行对话交互,依托大数据和大量人为标注和编程,并不具备对复杂场景和模态的识别理解和交互能力,只能基于设定好的规则做出识别和执行指令,也无自主学习和适应的能力,难以满足灵活性地需求,从而导致这些产品和技术在应用时遭到某些质疑和边缘化。而目前大部分对话交互研究工作主要集中在自然语言处理上,而且也只是针对单一模态的处理。目前亟待提出一种可以对与人类交互时的复杂场景和模态变化做出识别响应,并且可以灵活自调整和适应的方法。以解决目前智能设备的对话交互受场景限制的问题,并且能不断适应各类新场景,新交互需求。
发明内容
本发明的目的是为了解决现有智能终端的交互能力不足的缺陷,提供一种针对复杂抽象化事物的类人化识别交互方法。
本发明的目的可以通过采取如下技术方案达到:
一种针对复杂抽象化事物的类人化识别交互方法,包括以下步骤:
S1、利用麦克风和摄像头分别采集语音信息和人脸图像信息;
S2、将上述语音信息和人脸图像信息经过多层卷积神经网络处理,分别提取语言情感倾向特征S和人脸表情特征F;
S3、基于随机森林算法,将人脸表情特征F和语言情感倾向特征S融合分析出用户的情感状态;
S4、通过经验学习网络,结合历史经验信息和情绪特征曲线综合判定得出交互模式后完成交互;
S5、重复步骤S1-步骤S2,利用麦克风和摄像头再次分别采集语音信息和人脸图像信息,并分别提取语言情感倾向特征S和人脸表情特征F,分析并反馈交互效果,优化调整用于情感状态分析的经验学习网络;
S6、利用麦克风和摄像头分别采集语音信息和人脸图像信息,重复步骤S1-步骤S4,通过优化调整后的经验学习网络得出交互模式进行交互。
进一步地,所述的步骤S2过程如下:
S21、麦克风阵列接收到声音数据后,采用DoA(到达方向),BF(波束形成),AEC(声学回声消除)以及特征判定等多种语音算法处理信号得到语音信息并通过语义分析网络提取出语言情感倾向特征S;
S22、人脸图像信息采集完毕后调用OpenCV库和基于Keras的深层卷积神经网络进行人脸检测,并提取出人脸表情特征F。
进一步地,所述的步骤S3过程如下:
S31、采用随机森林算法模型作为集成学习中的强分类器,通过一定量的预训练样本集预训练让随机森林算法模型学习得到用于类人化的识别融合的模型框架;
S32、采用预训练后的随机森林算法模型处理人脸表情特征F和语言情感倾向特征S,从而分析得到当下用户的情感状态m,并定义:
△m=ε×m,其中,ε为随机森林算法模型附带置信值。
该参数可作为拟画步骤S4中情绪特征曲线的动态参考值。
进一步地,所述的步骤S4过程如下:
S41、通过采用随机抽样方法采集人对复杂抽象化事物的识别数据,搭建出类人识别数据集并使用决策树模型训练得到经验学习网络;
所述的识别数据提取过程如下:
用随机抽样调查方法采集真人经验识别样本,采集后将其导入输入矩阵Ri,有:
其中Fi,i∈[0,n]为人脸表情特征样本数据;Si,i∈[0,n]为语言情感倾向特征样本数据;mi,i∈[0,n]为情感状态样本数据,此处变量下标i均指第i个样本数据,n为样本容量。
样本经过标注后再导入输出矩阵Ro,有:
其中Fi,i∈[0,n]为人脸表情特征样本数据;Si,i∈[0,n]为语言情感倾向特征样本数据;mi,i∈[0,n]为情感状态样本数据;boti,i∈[0,n]为输出模型标注数据。此处所述变量下标i均指第i个样本数据,n为样本容量。
利用矩阵乘法特性辅助样本的输入输出将有利于提高多特征的融合识别的网络搭建速率。
S42、所述的决策树模型通过将经验(类人)样本训练为决策树,其过程包括:
设置树的数量N和正则化分量x,y;
导入单人经验数据集,根据x,y权重加权训练并评判识别效果,得到子判断集;导入多份不同的经验数据训练更多的子判断集并再次评估识别效果;每个子判断集映射成一棵决策树。
多棵决策树根据随机森林搭建框架组成随机森林,采用bagging式集成学习方法训练并导出参数权重和识别偏差。再评估随机森林识别效果和置信度并相应的调整权重参数,使其决策结果趋近于样本社群集体识别率&n,从而得到经验学习网络初步框架。
综合类人识别经验数据集和经验(类人)样本后输入经验学习网络,从而通过经验学习网络获得历史经验信息;
S43、依据情绪心理学相关理论,为了还原人类情绪心理特征变化时所具有的时间连续性和积累效应,将和第n轮对话轮数相关的用户情感状态定义为Mn,上一轮的用户情感状态定义为Mn-1,初始值定义为M0,对话轮数定义为n,时间定义为t,采用的积分求和方式拟合出情绪特征曲线:
Mn=Mn-1+△M
故对于M0和m,有:
S44、所述的经验学习网络结合所述的情绪特征曲线上各点的参数权重训练镜像网络,为了模拟集体决策这一能显著提高决策正确率的社会文明成果,采取多网络投票决策的方式形成强学习器,并让该强学习器做出交互决策完成交互动作。这一决策方式可以使智能终端行为附带有人性化判断的一些特征。并且用机器模拟该方法不会存在时间开销大,存在严重的滞后和不便利性等问题。
进一步地,所述的步骤S5过程如下:
S51、利用麦克风和摄像头再次分别采集语音信息和人脸图像信息,并分别提取语言情感倾向特征S和人脸表情特征F,并定义反馈量为B,其中,反馈量B如下:
其中,b为阈值常量;
S52、如果反馈量B的值为正,记录数据并对经验学习网络进行正优化,如果反馈量B的值为负,记录数据并对经验学习网络进行负优化,如果反馈量B的值为零,则不对经验学习网络进行优化。
通过在真实场景下的人机对话交互中不断重复步骤S1到步骤S5,智能终端可不断获得真实的交互数据并记录。
通过对真实场景交互数据的自学习,该方法可以使智能终端不断训练调整自身的决策树和经验学习网络的相关权重,具体为根据反馈的真实实场景交互数据和决策方式进行学习并自动优化森林参数结构使得向该场景下的&n转化,从而实现不同场景的自适应学习。并以此让智能设备获得动态学习能力和自适应能力。
本发明相对于现有技术具有如下的优点及效果:
1、本发明采用多模融合的方法对脸部和语音情感特征进行融合,相较与单模识别,其具有更高的准确性;其由人类经验数据集训练而成的判断集和判断网络,相较于运用复杂的情感计算算法和多维情绪空间解析模型,其识别方法更具有直观性,简洁性,高效性,以及具有编程算法所无法还原的人类做模式识别时所具有的某些非线性特征。
2、本发明还采用了反馈闭环学习、强化学习和交互式学习方法可以让智能终端在对话时提取信息反馈并做出动态调整,模拟人的交流学习过程,解决了现有技术面临的无法实时学习,识别僵硬死板的问题。从而使得该方法具有极好的动态特征和在各种环境场景下的交互适应能力。即使针对不同交互对象和环境背景,运用该方法也可以让智能终端快速适应该场景下的判别规则。
附图说明
图1是本发明中公开的针对复杂抽象化事物的类人化识别交互方法的步骤流程图;
图2是本发明实施例中技术实施路线框图;
图3是本发明实施例中随机森林的实施结构图;
图4是本发明实施例中少样本下的决策效果图;
图5是本发明实施例中多样本下的决策效果图;
图6是本发明实施例中判别度随样本量增大的变化图;
图7是本发明实施例中强化学习和自适应学习搭建框架图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
本实施例具体公开了一种针对复杂抽象化事物的类人化识别交互方法,如附图1所示,包括以下步骤:
S1、利用麦克风和摄像头分别采集语音信息和人脸图像信息;如附图2左半部分所示,运用到的相关技术流程包括微表情识别、语音识别、所述的人脸识别将人脸图像信号转化为人脸图像信息、语音识别模型用于将声音信号转换成文本信号提取出语音信息。S2、将上述语音信息和人脸图像信息经过多层卷积神经网络处理,如附图2右半部分所示,通过情绪分析技术、并在NLP技术的辅助处理下得到分别提取语言情感倾向特征S和人脸表情特征F;继而再通过交互控制、与AI-BOT通信、执行语音合成等完成后续部分交互。
本实施例中,所述的步骤S2过程如下:
S21、为了得到更好的识别信息,解决目前识别技术处理信息时存在的噪声严重的问题,麦克风阵列接收到声音数据后,采用DoA(到达方向),BF(波束形成),AEC(声学回声消除)以及特征判定等多种语音算法处理信号得到语音信息并通过语义分析网络提取出语言情感倾向特征S;
S22、人脸图像信息采集完毕后调用OpenCV库和基于Keras的深层卷积神经网络进行人脸检测,并提取出人脸表情特征F。
S3、基于随机森林算法,将人脸表情特征F和语言情感倾向特征S融合分析出用户的情感状态;
本实施例中,所述的步骤S3过程如下:
S31、采用随机森林算法模型作为集成学习中的强分类器,通过一定样本预训练得到经验识别网络框架,让随机森林算法模型学习得到目前靠编程算法所不具备的类人化的识别融合能力;
S32、采用预训练后的随机森林算法模型处理人脸表情特征F和语言情感倾向特征S,如附图3所示为软件层的随机森林算法模型的运行结构,抽样采样得到的经验训练集合source sample经过分类导入训练后成为subsample,对某情景或某事件产生各自的predictionX,最终的result由各个prediction投票而出并按照占比计算概率置信值ε。从而分析得到当下用户的情感状态m,并定义:
△m=ε×m,其中,ε为随机森林算法模型附带置信值。
该参数可作为拟画步骤S4中情绪特征曲线的动态参考值。
S4、通过经验学习网络,结合历史经验信息和情绪特征曲线综合判定得出交互模式后完成交互;
本实施例中,所述的步骤S4过程如下:
S41、通过采用随机抽样方法采集人对复杂抽象化事物的识别数据,搭建出类人识别数据集并导入决策树模型训练。结果如附图4所示,分析数据得单一样本量下的识别效果具有单一性,个体性和死板性,不适用于做自然决策。为了解决这一问题,进一步增加镜像样本,如附图5所示,当样本量增大,复杂抽象事物和情景如情感情绪的识别结果在某些边界呈现类人判断的模糊化和不定化。相比与传统的通过设置规则实现模糊化的模糊算法方式,这种方式具有更优质的非线性特征。
S42、所述的决策树模型通过将经验(类人)样本训练为决策树,综合类人识别数据集和经验(类人)样本后输入经验学习网络,通过经验学习网络获得历史经验信息;
S43、依据情绪心理学相关理论,为还原人类情绪心理特征变化时所具有的时间连续性和积累效应,将和第n轮对话轮数相关的用户情感状态定义为Mn,上一轮的用户情感状态定义为Mn-1,初始值定义为M0,对话轮数定义为n,时间定义为t,采用的积分求和方式拟合出情绪特征曲线:
Mn=Mn-1+△M
故对于M0和m,有:
S44、所述的经验学习网络结合所述的情绪特征曲线上各点的参数权重训练镜像网络,并采取投票决策的方式形成强学习器,并让该强学习器做出交互决策完成交互动作。这一决策方式模拟了社群综合决策过程,可以使智能终端行为附带有人性化判断的一些特征。如附图6所示,随着样本量的增大,判别效果趋近于社群智慧或集体意志。总判别率收敛于80%左右,趋近于人在对话时的情感情绪判别率,说明在实施中具有一定的类人话识别和应用效果。
S5、重复步骤S1-步骤S2,利用麦克风和摄像头再次分别采集语音信息和人脸图像信息,并分别提取语言情感倾向特征S和人脸表情特征F,分析并反馈交互效果,优化调整用于情感状态分析的经验学习网络;
本实施例中,所述的步骤S5过程如下:
S51、如附图7所示,给模型增加反馈学习闭环,利用麦克风和摄像头再次分别采集语音信息和人脸图像信息,并分别提取语言情感倾向特征S和人脸表情特征F,并定义反馈量为B,其中,反馈量B如下:
其中,b为阈值常量;
S52、为了模拟类人反馈机制,算法设置如果反馈量B的值为正,记录数据并对经验学习网络进行正优化,如果反馈量B的值为负,记录数据并对经验学习网络进行负优化,如果反馈量B的值为零,则不对经验学习网络进行优化。该闭环反馈学习方法的反馈调整机制使得智能终端具有强化学习和自适应自学习的能力。
S6、利用麦克风和摄像头分别采集语音信息和人脸图像信息,重复步骤S1-步骤S4,通过优化调整后的经验学习网络得出交互模式进行交互。通过在真实场景下的人机对话交互中不断重复步骤S1到步骤S5,智能终端可不断获得真实的交互数据并记录。
通过对真实场景交互数据的自学习,该方法可以使智能终端不断训练调整自身的决策树和经验学习网络的相关权重,获得目前识别方法中所不具备的动态学习能力和自适应能力。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种针对复杂抽象化事物的类人化识别交互方法,其特征在于,所述的类人化模式识别方法包括以下步骤:
S1、利用麦克风和摄像头分别采集语音信息和人脸图像信息;
S2、将上述语音信息和人脸图像信息经过多层卷积神经网络处理,分别提取语言情感倾向特征S和人脸表情特征F;
S3、基于随机森林算法,将人脸表情特征F和语言情感倾向特征S融合分析出用户的情感状态;
S4、通过经验学习网络,结合历史经验信息和情绪特征曲线综合判定得出交互模式后完成交互;
S5、利用麦克风和摄像头再次分别采集语音信息和人脸图像信息,并分别提取语言情感倾向特征S和人脸表情特征F,分析并反馈交互效果,优化调整用于情感状态分析的经验学习网络;
S6、利用麦克风和摄像头分别采集语音信息和人脸图像信息,重复步骤S1-步骤S4,通过优化调整后的经验学习网络得出交互模式进行交互。
2.根据权利要求1所述的一种针对复杂抽象化事物的类人化识别交互方法,其特征在于,所述的步骤S2过程如下:
S21、语音信息采集完毕后采用DoA、BF、AEC以及特征判定联合处理信号,并通过语义分析网络提取出语言情感倾向特征S;
S22、人脸图像信息采集完毕后调用OpenCV库和基于Keras的深层卷积神经网络进行人脸检测,并提取出人脸表情特征F。
3.根据权利要求1所述的一种针对复杂抽象化事物的类人化识别交互方法,其特征在于,所述的步骤S3过程如下:
S31、采用随机森林算法模型作为集成学习中的强分类器,通过一定样本预训练让随机森林算法模型学习得到类人化的识别融合能力;
S32、采用预训练后的随机森林算法模型处理人脸表情特征F和语言情感倾向特征S,从而分析得到当下用户的情感状态m,并定义:
△m=ε×m,其中,ε为随机森林算法模型附带置信值。
4.根据权利要求3所述的一种针对复杂抽象化事物的类人化识别交互方法,其特征在于,所述的步骤S4过程如下:
S41、通过采用随机抽样方法采集人对复杂抽象化事物的识别数据,搭建出类人识别数据集并使用决策树模型训练得到经验学习网络;
S42、所述的决策树模型通过将经验样本训练为决策树,综合类人识别数据集和经验样本后输入经验学习网络,通过经验学习网络获得历史经验信息;
S43、将和第n轮对话轮数相关的用户情感状态定义为Mn,上一轮的用户情感状态定义为Mn-1,初始值定义为M0,对话轮数定义为n,时间定义为t,采用的积分求和方式拟合出情绪特征曲线:
Mn=Mn-1+△M
故对于M0和m,有:
S44、所述的经验学习网络结合所述的情绪特征曲线上各点的参数权重训练镜像网络,并采取投票决策的方式形成强学习器,并让该强学习器做出交互决策完成交互动作。
5.根据权利要求4所述的一种针对复杂抽象化事物的类人化识别交互方法,其特征在于,所述的步骤S5过程如下:
S51、利用麦克风和摄像头再次分别采集语音信息和人脸图像信息,并分别提取语言情感倾向特征S和人脸表情特征F,并定义反馈量为B,其中,反馈量B如下:
其中,b为阈值常量;
S52、如果反馈量B的值为正,记录数据并对经验学习网络进行正优化,如果反馈量B的值为负,记录数据并对经验学习网络进行负优化,如果反馈量B的值为零,则不对经验学习网络进行优化。
CN201910474678.6A 2019-06-03 2019-06-03 一种针对复杂抽象化事物的类人化识别交互方法 Active CN110363074B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910474678.6A CN110363074B (zh) 2019-06-03 2019-06-03 一种针对复杂抽象化事物的类人化识别交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910474678.6A CN110363074B (zh) 2019-06-03 2019-06-03 一种针对复杂抽象化事物的类人化识别交互方法

Publications (2)

Publication Number Publication Date
CN110363074A true CN110363074A (zh) 2019-10-22
CN110363074B CN110363074B (zh) 2021-03-30

Family

ID=68214961

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910474678.6A Active CN110363074B (zh) 2019-06-03 2019-06-03 一种针对复杂抽象化事物的类人化识别交互方法

Country Status (1)

Country Link
CN (1) CN110363074B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112083806A (zh) * 2020-09-16 2020-12-15 华南理工大学 一种基于多模态识别的自学习情感交互方法

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103105924A (zh) * 2011-11-15 2013-05-15 中国科学院深圳先进技术研究院 人机交互方法和装置
CN104200804A (zh) * 2014-09-19 2014-12-10 合肥工业大学 一种面向人机交互的多类信息耦合的情感识别方法
US8965762B2 (en) * 2007-02-16 2015-02-24 Industrial Technology Research Institute Bimodal emotion recognition method and system utilizing a support vector machine
CN104835507A (zh) * 2015-03-30 2015-08-12 渤海大学 一种串并结合的多模式情感信息融合与识别方法
US9269374B1 (en) * 2014-10-27 2016-02-23 Mattersight Corporation Predictive video analytics system and methods
CN106782615A (zh) * 2016-12-20 2017-05-31 科大讯飞股份有限公司 语音数据情感检测方法和装置及系统
CN107015983A (zh) * 2016-01-27 2017-08-04 阿里巴巴集团控股有限公司 一种用于智能问答中提供知识信息的方法与设备
CN107220591A (zh) * 2017-04-28 2017-09-29 哈尔滨工业大学深圳研究生院 多模态智能情绪感知系统
US20170289624A1 (en) * 2016-04-01 2017-10-05 Samsung Electrônica da Amazônia Ltda. Multimodal and real-time method for filtering sensitive media
CN107256392A (zh) * 2017-06-05 2017-10-17 南京邮电大学 一种联合图像、语音的全面情绪识别方法
CN108334583A (zh) * 2018-01-26 2018-07-27 上海智臻智能网络科技股份有限公司 情感交互方法及装置、计算机可读存储介质、计算机设备
CN108427722A (zh) * 2018-02-09 2018-08-21 卫盈联信息技术(深圳)有限公司 智能交互方法、电子装置及存储介质
CN109117952A (zh) * 2018-07-23 2019-01-01 厦门大学 一种基于深度学习的机器人情感认知的方法
CN109344781A (zh) * 2018-10-11 2019-02-15 上海极链网络科技有限公司 一种基于声音视觉联合特征的视频内表情识别方法
CN109409296A (zh) * 2018-10-30 2019-03-01 河北工业大学 将人脸表情识别和语音情感识别融合的视频情感识别方法
CN109558935A (zh) * 2018-11-28 2019-04-02 黄欢 基于深度学习的情感识别与交互方法及系统
WO2019103484A1 (ko) * 2017-11-24 2019-05-31 주식회사 제네시스랩 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965762B2 (en) * 2007-02-16 2015-02-24 Industrial Technology Research Institute Bimodal emotion recognition method and system utilizing a support vector machine
CN103105924A (zh) * 2011-11-15 2013-05-15 中国科学院深圳先进技术研究院 人机交互方法和装置
CN104200804A (zh) * 2014-09-19 2014-12-10 合肥工业大学 一种面向人机交互的多类信息耦合的情感识别方法
US9269374B1 (en) * 2014-10-27 2016-02-23 Mattersight Corporation Predictive video analytics system and methods
CN104835507A (zh) * 2015-03-30 2015-08-12 渤海大学 一种串并结合的多模式情感信息融合与识别方法
CN107015983A (zh) * 2016-01-27 2017-08-04 阿里巴巴集团控股有限公司 一种用于智能问答中提供知识信息的方法与设备
US20170289624A1 (en) * 2016-04-01 2017-10-05 Samsung Electrônica da Amazônia Ltda. Multimodal and real-time method for filtering sensitive media
CN106782615A (zh) * 2016-12-20 2017-05-31 科大讯飞股份有限公司 语音数据情感检测方法和装置及系统
CN107220591A (zh) * 2017-04-28 2017-09-29 哈尔滨工业大学深圳研究生院 多模态智能情绪感知系统
CN107256392A (zh) * 2017-06-05 2017-10-17 南京邮电大学 一种联合图像、语音的全面情绪识别方法
WO2019103484A1 (ko) * 2017-11-24 2019-05-31 주식회사 제네시스랩 인공지능을 이용한 멀티모달 감성인식 장치, 방법 및 저장매체
CN108334583A (zh) * 2018-01-26 2018-07-27 上海智臻智能网络科技股份有限公司 情感交互方法及装置、计算机可读存储介质、计算机设备
CN108427722A (zh) * 2018-02-09 2018-08-21 卫盈联信息技术(深圳)有限公司 智能交互方法、电子装置及存储介质
CN109117952A (zh) * 2018-07-23 2019-01-01 厦门大学 一种基于深度学习的机器人情感认知的方法
CN109344781A (zh) * 2018-10-11 2019-02-15 上海极链网络科技有限公司 一种基于声音视觉联合特征的视频内表情识别方法
CN109409296A (zh) * 2018-10-30 2019-03-01 河北工业大学 将人脸表情识别和语音情感识别融合的视频情感识别方法
CN109558935A (zh) * 2018-11-28 2019-04-02 黄欢 基于深度学习的情感识别与交互方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112083806A (zh) * 2020-09-16 2020-12-15 华南理工大学 一种基于多模态识别的自学习情感交互方法

Also Published As

Publication number Publication date
CN110363074B (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN110110707A (zh) 人工智能cnn、lstm神经网络动态识别系统
CN110377686A (zh) 一种基于深度神经网络模型的地址信息特征抽取方法
CN106919903A (zh) 一种鲁棒的基于深度学习的连续情绪跟踪方法
CN109829541A (zh) 基于学习自动机的深度神经网络增量式训练方法及系统
CN107423756A (zh) 基于深度卷积神经网络结合长短期记忆模型的核磁共振图像序列分类方法
CN108182259A (zh) 一种基于深度长短期记忆神经网络对多变量时间序列分类的方法
CN108804453A (zh) 一种视音频识别方法及装置
CN108345894B (zh) 一种基于深度学习和熵模型的交通事件检测方法
CN107145893A (zh) 一种基于卷积深度网络的图像识别算法及系统
CN108427665A (zh) 一种基于lstm型rnn模型的文本自动生成方法
CN112036276A (zh) 一种人工智能视频问答方法
Zhang et al. Skip-connected self-recurrent spiking neural networks with joint intrinsic parameter and synaptic weight training
CN112668486A (zh) 一种预激活残差深度可分离卷积网络面部表情识别方法、装置和载体
Qian Exploration of machine algorithms based on deep learning model and feature extraction
Wang et al. Research on state prediction method of tobacco curing process based on model fusion
CN110363074A (zh) 一种针对复杂抽象化事物的类人化识别交互方法
CN111401261B (zh) 基于gan-cnn框架的机器人手势识别方法
CN117198468A (zh) 基于行为识别和数据分析的干预方案智慧化管理系统
CN116720057A (zh) 基于特征筛选与权值分配的江河水质预测方法及系统
Cheng et al. Triple-stage attention-based multiple parallel connection hybrid neural network model for conditional time series forecasting
CN111145169A (zh) 基于多列异步神经网络的地铁站乘客数量调度系统及方法
Sahay et al. Integration of prophet model and convolution neural network on wikipedia trend data
Liu et al. Research on stock price prediction method based on deep learning
CN110046709A (zh) 一种基于双向lstm的多任务学习模型
Li et al. Multimodal information-based broad and deep learning model for emotion understanding

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant