CN109858330A - 基于视频的表情分析方法、装置、电子设备及存储介质 - Google Patents

基于视频的表情分析方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN109858330A
CN109858330A CN201811537718.9A CN201811537718A CN109858330A CN 109858330 A CN109858330 A CN 109858330A CN 201811537718 A CN201811537718 A CN 201811537718A CN 109858330 A CN109858330 A CN 109858330A
Authority
CN
China
Prior art keywords
data
expression
analysis
voice
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811537718.9A
Other languages
English (en)
Inventor
张敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OneConnect Smart Technology Co Ltd
Original Assignee
OneConnect Smart Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OneConnect Smart Technology Co Ltd filed Critical OneConnect Smart Technology Co Ltd
Priority to CN201811537718.9A priority Critical patent/CN109858330A/zh
Publication of CN109858330A publication Critical patent/CN109858330A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

本发明提供一种基于视频的表情分析方法、装置、电子设备及存储介质。所述基于视频的表情分析方法能够在接收到基于视频的表情分析指令后,接收带有指定人物的视频,并提取所述视频中所述指定人物的语音,对所述语音进行自然语言处理,得到处理后的目标语音,并结合预先配置的语音数据集,从所述语音数据集中自动、快速地确定语音分析数据,进一步提取所述视频中所述指定人物的目标表情数据,并结合预先配置的表情数据集,从所述表情数据集中自动确定表情分析数据,并根据所述语音分析数据及所述表情分析数据,确定分析结果,从而将表情识别技术与自然语言处理技术相结合,实现自动分析,自动化的处理过程提高了分析效率,为医生看诊提供辅助参考。

Description

基于视频的表情分析方法、装置、电子设备及存储介质
技术领域
本发明涉及智能分析技术领域,尤其涉及一种基于视频的表情分析方法、装置、电子设备及存储介质。
背景技术
现有技术方案中,表情观察和语言分析是医生就诊的很重要的手段,例如,抑郁症作为当前社会关注度比较高的精神科类疾病,其初始诊断主要就是依靠患者与医生的面对面沟通,医生通过观察病人的表情、分析病人的语言等来判定病人的情况是消极性抑郁症、积极性抑郁症,还是其他情况。
因此,为了保证诊断的准确性,医生在就诊过程中,需要尽可能的关注到病人的所有表情、动作、语言等细节,这将给医生的诊断带来一定的挑战,只要一时注意不到或疏忽,极有可能造成错误诊断,给病人和医生均带来困扰。
发明内容
鉴于以上内容,有必要提供一种基于视频的表情分析方法、装置、电子设备及存储介质,能将表情识别技术与自然语言处理技术相结合,实现自动分析,自动化的处理过程提高了分析效率,能够为医生看诊提供辅助参考。
一种基于视频的表情分析方法,所述方法包括:
在接收到基于视频的表情分析指令后,接收带有指定人物的视频;
提取所述视频中所述指定人物的语音;
对所述语音进行自然语言处理,得到处理后的目标语音;
获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系;
根据所述目标语音,从所述语音数据集中确定语音分析数据;
提取所述视频中所述指定人物的目标表情数据;
获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系;
根据所述目标表情数据,从所述表情数据集中确定表情分析数据;
根据所述语音分析数据及所述表情分析数据,确定分析结果。
根据本发明优选实施例,所述提取所述视频中所述指定人物的目标表情数据包括:
将所述视频做分帧处理,得到至少一个视频段;
提取每个视频段中所述指定人物的每个表情数据;
将每个表情数据加权以确定所述目标表情数据。
根据本发明优选实施例,所述根据所述目标表情数据,从所述表情数据集中确定表情分析数据包括:
从所述目标表情数据中获取目标微表情数据;
从所述表情数据集中,确定与所述目标微表情数据对应的微表情分析数据;
从所述目标表情数据中获取目标面相数据;
从所述表情数据集中,确定与所述目标面相数据对应的面相分析数据;
根据所述微表情分析数据及所述面相分析数据,确定所述表情分析数据。
根据本发明优选实施例,所述根据所述语音分析数据及所述表情分析数据,确定分析结果包括:
从所述语音分析数据中确定所述语音分析数据的第一等级;
从所述表情分析数据中确定所述表情分析数据的第二等级;
根据所述第一等级及所述第二等级,从所述语音分析数据及所述表情分析数据中,确定主分析数据及辅助分析数据;
组合所述主分析数据和所述辅助分析数据以得到所述分析结果。
根据本发明优选实施例,在确定所述分析结果后,所述方法还包括:
将所述分析结果发送至指定医务人员,以辅助所述医务人员进行分析。
根据本发明优选实施例,所述方法还包括:
当所述视频为所述指定人物发来的视频通话时,将所述分析结果发送至所述指定人物的终端上。
根据本发明优选实施例,所述方法还包括:
当接收到所述指定人物发送的人工分析指令时,根据所述分析结果,匹配对应的目标医务人员;
建立所述指定人物的终端与所述目标医务人员的终端的网络连接。
一种基于视频的表情分析装置,所述装置包括:
接收单元,用于在接收到基于视频的表情分析指令后,接收带有指定人物的视频;
提取单元,用于提取所述视频中所述指定人物的语音;
处理单元,用于对所述语音进行自然语言处理,得到处理后的目标语音;
获取单元,用于获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系;
确定单元,用于根据所述目标语音,从所述语音数据集中确定语音分析数据;
所述提取单元,还用于提取所述视频中所述指定人物的目标表情数据;
所述获取单元,还用于获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系;
所述确定单元,还用于根据所述目标表情数据,从所述表情数据集中确定表情分析数据;
所述确定单元,还用于根据所述语音分析数据及所述表情分析数据,确定分析结果。
根据本发明优选实施例,所述提取单元提取所述视频中所述指定人物的目标表情数据包括:
将所述视频做分帧处理,得到至少一个视频段;
提取每个视频段中所述指定人物的每个表情数据;
将每个表情数据加权以确定所述目标表情数据。
根据本发明优选实施例,所述确定单元根据所述目标表情数据,从所述表情数据集中确定表情分析数据包括:
从所述目标表情数据中获取目标微表情数据;
从所述表情数据集中,确定与所述目标微表情数据对应的微表情分析数据;
从所述目标表情数据中获取目标面相数据;
从所述表情数据集中,确定与所述目标面相数据对应的面相分析数据;
根据所述微表情分析数据及所述面相分析数据,确定所述表情分析数据。
根据本发明优选实施例,所述确定单元根据所述语音分析数据及所述表情分析数据,确定分析结果包括:
从所述语音分析数据中确定所述语音分析数据的第一等级;
从所述表情分析数据中确定所述表情分析数据的第二等级;
根据所述第一等级及所述第二等级,从所述语音分析数据及所述表情分析数据中,确定主分析数据及辅助分析数据;
组合所述主分析数据和所述辅助分析数据以得到所述分析结果。
根据本发明优选实施例,所述装置还包括:
发送单元,用于在确定所述分析结果后,将所述分析结果发送至指定医务人员,以辅助所述医务人员进行分析。
根据本发明优选实施例,所述发送单元,还用于当所述视频为所述指定人物发来的视频通话时,将所述分析结果发送至所述指定人物的终端上。
根据本发明优选实施例,所述装置还包括:
匹配单元,用于当接收到所述指定人物发送的人工分析指令时,根据所述分析结果,匹配对应的目标医务人员;
建立单元,用于建立所述指定人物的终端与所述目标医务人员的终端的网络连接。
一种电子设备,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述基于视频的表情分析方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现所述基于视频的表情分析方法。
由以上技术方案可以看出,本发明能够在接收到基于视频的表情分析指令后,接收带有指定人物的视频,并提取所述视频中所述指定人物的语音,对所述语音进行自然语言处理,得到处理后的目标语音,并结合预先配置的语音数据集,从所述语音数据集中自动、快速地确定语音分析数据,进一步提取所述视频中所述指定人物的目标表情数据,并结合预先配置的表情数据集,从所述表情数据集中自动确定表情分析数据,并根据所述语音分析数据及所述表情分析数据,确定分析结果,从而将表情识别技术与自然语言处理技术相结合,实现自动分析,自动化的处理过程提高了分析效率,能够为医生看诊提供辅助参考。
附图说明
图1是本发明基于视频的表情分析方法的较佳实施例的流程图。
图2是本发明基于视频的表情分析装置的较佳实施例的功能模块图。
图3是本发明实现基于视频的表情分析方法的较佳实施例的电子设备的结构示意图。
主要元件符号说明
电子设备 1
存储器 12
处理器 13
基于视频的表情分析装置 11
接收单元 110
提取单元 111
处理单元 112
获取单元 113
确定单元 114
发送单元 115
匹配单元 116
建立单元 117
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于视频的表情分析方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于视频的表情分析方法应用于一个或者多个电子设备中,所述电子设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(DigitalSignal Processor,DSP)、嵌入式设备等。
所述电子设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(PersonalDigital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述电子设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,所述电子设备在接收到基于视频的表情分析指令后,接收带有指定人物的视频。
表情观察和语言分析是医生就诊的很重要的手段,例如,抑郁症作为当前社会关注度比较高的精神科类疾病,其初始分析主要就是依靠患者与医生的面对面沟通,医生通过观察病人的表情、分析病人的语言等来判定病人的情况是消极性抑郁症、积极性抑郁症,还是其他情况。
因此,为了保证分析的准确性,医生在就诊过程中,需要尽可能的关注到病人的所有表情、动作、语言等细节,这将给医生的分析带来一定的挑战,只要一时注意不到或疏忽,极有可能造成错误分析,给病人和医生均带来困扰。
在微表情技术和自然语言处理(Natural Language Processing,NPL)技术十分发达的今天,本案能够对这两项技术进行结合,以实现对疾病的基于视频的表情分析。
在本发明的至少一个实施例中,所述指定人物包括,但不限于:具有分析需求的病人、需要判断是否患病的人员等。
在本发明的至少一个实施例中,为了保证更加准确地对所述指定人物进行分析,所述视频应该能够反应出所述指定人物的日常表现。
具体地,所述视频可以是一段录制的视频,也可以是所述用户发起的视频通话过程中的实时视频等,本发明不限制。
S11,所述电子设备提取所述视频中所述指定人物的语音。
在本发明的至少一个实施例中,所述指定人物的语音包括,但不限于所述指定人物的说话内容、所述指定人物的语气等。
具体地,只要能够起到语音提取的作用,本发明对所述指定人物的语音的提取方式不做限制。
S12,所述电子设备对所述语音进行自然语言处理,得到处理后的目标语音。
在本发明的至少一个实施例中,所述自然语言处理(Natural LanguageProcessing,NPL)是计算机科学领域与人工智能领域中的一个重要方向,是计算机科学、人工智能、语言学关注计算机和人类(自然)语言之间的相互作用的领域。
具体地,所述电子设备对所述语音进行自然语言处理包括:
所述电子设备读取所述语音,对所述语音进行数据清洗,所述电子设备进一步对所述语音进行数据切片,并进行数据分词处理,所述电子设备获取分词处理后的分词切片,并执行文本转换,最后获取处理后的词汇。
通过上述实施方式,所述电子设备能够在对所述语音进行自然语言处理后,从所述语音中提取出关键字,并根据所述关键字获取到所述目标语音。
由于上述实现过程是较为成熟的技术,本发明将不再赘述。
S13,所述电子设备获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系。
在本发明的至少一个实施例中,在所述电子设备获取所述语音数据集前,所述方法还包括:
所述电子设备配置所述语音数据集。
具体地,所述电子设备配置所述语音数据集包括:
所述电子设备获取样本语音,并对所述样本语音进行语音识别,得到识别出的所有语音,所述电子设备获取所述所有语音中每种语音对应的分析结果,并根据每种语音与对应的分析结果间的关系,配置所述语音数据集。
进一步地,所述电子设备可以从网络上获取所述所有语音中每种语音对应的分析结果,也可以请相关医务人员进行对应分析结果的确认,所述电子设备还可以从指定数据库中获取所述所有语音中每种语音对应的分析结果,本发明不限制。
更进一步地,所述电子设备对所述指定数据库的类型不做限制。
S14,所述电子设备根据所述目标语音,从所述语音数据集中确定语音分析数据。
在本发明的至少一个实施例中,由于所述语音数据集中存储着所有语音与相应分析结果间的对应关系,因此,所述电子设备可以将所述目标语音与所述语音数据集中所存储的语音进行匹配,并得到所述语音分析数据。
具体地,所述语音分析数据能够反映出所述指定人物的情绪等,例如,所述语音分析数据可以包括,但不限于:情绪高涨、情绪低落等。
具体地,所述电子设备根据所述目标语音,从所述语音数据集中确定语音分析数据包括:
所述电子设备从所述语音数据集中,获取与所述目标语音对应的分析结果作为所述语音分析数据。
例如:当所述电子设备从所述目标语音中,识别出所述指定人物声音较小,且气息较弱时,所述电子设备从所述语音数据集中获取与上述特点相匹配的分析结果为情绪低落,则所述电子设备确定所述语音分析数据为情绪低落。
S15,所述电子设备提取所述视频中所述指定人物的目标表情数据。
在本发明的至少一个实施例中,只要能够起到表情提取的作用,本发明对所述指定人物的表情的提取方式不做限制。
具体地,所述电子设备提取所述视频中所述指定人物的目标表情数据包括:
所述电子设备将所述视频做分帧处理,得到至少一个视频段,所述电子设备提取每个视频段中所述指定人物的每个表情数据,并将每个表情数据加权以确定所述目标表情数据。
通过对所述视频做分帧处理,所述电子设备能够对所述视频中国的表情数据进行逐帧提取,以使表情提取更加精细,相应地,分析结果也将更加准确。
S16,所述电子设备获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系。
在本发明的至少一个实施例中,在所述电子设备获取所述表情数据集前,所述方法还包括:
所述电子设备配置所述表情数据集。
具体地,所述电子设备配置所述表情数据集包括:
所述电子设备获取样本人脸图片,并对所述样本人脸图片进行微表情识别,以得到M个微表情数据,进一步地,所述电子设备对所述样本图片进行面相属性识别,以得到N个面相属性数据,所述电子设备获取所述微表情数据中每种微表情数据对应的分析结果,并获取所述面相属性数据中每种面相属性数据对应的分析结果,并根据每种微表情数据与对应的分析结果间的关系,以及每种面相属性数据与对应的分析结果间的关系,配置所述表情数据集。
其中,所述样本人脸图片需要有足够的数量进行支撑,以满足识别需求;所述M及所述N根据识别结果进行确定,例如:M=56,N=22等。
进一步地,所述电子设备可以从网络上获取所述微表情数据中每种微表情数据对应的分析结果,也可以请相关医务人员进行对应分析结果的确认,所述电子设备还可以从指定数据库中获取所述微表情数据中每种微表情数据对应的分析结果,本发明不限制。
同样地,所述电子设备可以采取同样地获取方式获取所述面相属性数据中每种面相属性数据对应的分析结果,本发明不限制。
S17,所述电子设备根据所述目标表情数据,从所述表情数据集中确定表情分析数据。
在本发明的至少一个实施例中,所述表情分析数据能够反映出所述指定人物的情绪、状态等,例如,所述表情分析数据可以包括,但不限于:厌烦、消沉等。
具体地,所述电子设备根据所述目标表情数据,从所述表情数据集中确定表情分析数据包括:
所述电子设备从所述目标表情数据中获取目标微表情数据,并从所述表情数据集中,确定与所述目标微表情数据对应的微表情分析数据,所述电子设备从所述目标表情数据中获取目标面相数据,进一步从所述表情数据集中,确定与所述目标面相数据对应的面相分析数据,所述电子设备根据所述微表情分析数据及所述面相分析数据,确定所述表情分析数据。
例如:当所述电子设备确定所述微表情分析数据为厌烦情绪,且确定所述面相分析数据为意志消沉时,所述电子设备可以确定所述表情分析数据为带有厌烦情绪,且意志消沉。
S18,所述电子设备根据所述语音分析数据及所述表情分析数据,确定分析结果。
在本发明的至少一个实施例中,所述分析结果为所述电子设备自动分析的结果,具有参考作用,可以辅助专业医务人员进行分析,也可以为所述指定人物进行自助分析。
具体地,所述电子设备根据所述语音分析数据及所述表情分析数据,确定分析结果包括:
所述电子设备从所述语音分析数据中确定所述语音分析数据的第一等级,并从所述表情分析数据中确定所述表情分析数据的第二等级,所述电子设备根据所述第一等级及所述第二等级,从所述语音分析数据及所述表情分析数据中,确定主分析数据及辅助分析数据,组合所述主分析数据和所述辅助分析数据以得到所述分析结果。
进一步地,所述第一等级、所述第二等级是根据大量实验确定的,可以反应出所述语音分析数据及所述表情分析数据分别的重要等级,等级高的为所述主分析数据,且等级低的为所述辅助分析数据。
具体地,所述第一等级可以包括,但不限于:高、低,所述第二等级可以包括,但不限于:高、低。
例如:当所述第一等级为高,所述第二等级为低时,所述电子设备确定所述语音分析数据为情绪低落,所述表情分析数据为带有厌烦情绪,则所述电子设备可以确定所述分析结果为:所述指定人物的情绪较为低落,可能带有厌烦情绪。
通过上述实施方式,所述电子设备能够实现对所述指定人物的分析,且分析过程无需人工干预,分析效率较高。
优选地,在确定所述分析结果后,所述方法还包括:
所述电子设备将所述分析结果发送至指定医务人员,以辅助所述医务人员进行分析。
通过上述实施方式,所述电子设备能够为所述医务人员提供分析建议,以辅助所述医务人员进行分析,从而提高分析效率,并有效防止所述医务人员由于遗漏细节造成误诊,进一步提高分析的准确率。
优选地,所述方法还包括:
当所述视频为所述指定人物发来的视频通话时,所述电子设备将所述分析结果发送至所述指定人物的终端上。
通过上述实施方式,所述电子设备可以为所述指定人物提供自助分析,方便所述指定人物进行提早预防。
优选地,所述方法还包括:
当接收到所述指定人物发送的人工分析指令时,所述电子设备根据所述分析结果,匹配对应的目标医务人员,所述电子设备建立所述指定人物的终端与所述目标医务人员的终端的网络连接。
具体地,所述人工分析指令可以由用户触摸指定按键进行触发,或者是语音触发,本发明不限制。
通过上述实施方式,所述电子设备能够为所述指定人物配置最合适的医务人员进行面对面的人工分析,以更加满足用户的分析需求,有效提高了用户体验。
综上所述,本发明能在接收到基于视频的表情分析指令后,接收带有指定人物的视频;提取所述视频中所述指定人物的语音;对所述语音进行自然语言处理,得到处理后的目标语音;获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系;根据所述目标语音,从所述语音数据集中确定语音分析数据;提取所述视频中所述指定人物的目标表情数据;获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系;根据所述目标表情数据,从所述表情数据集中确定表情分析数据;根据所述语音分析数据及所述表情分析数据,确定分析结果。因此,本发明能将表情识别技术与自然语言处理技术相结合,实现自动分析,自动化的处理过程提高了分析效率,能够为医生看诊提供辅助参考。
如图2所示,是本发明基于视频的表情分析装置的较佳实施例的功能模块图。所述基于视频的表情分析装置11包括接收单元110、提取单元111、处理单元112、获取单元113、确定单元114、发送单元115、匹配单元116及建立单元117。本发明所称的模块/单元是指一种能够被处理器13所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器12中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
接收单元110在接收到基于视频的表情分析指令后,接收带有指定人物的视频。
表情观察和语言分析是医生就诊的很重要的手段,例如,抑郁症作为当前社会关注度比较高的精神科类疾病,其初始分析主要就是依靠患者与医生的面对面沟通,医生通过观察病人的表情、分析病人的语言等来判定病人的情况是消极性抑郁症、积极性抑郁症,还是其他情况。
因此,为了保证分析的准确性,医生在就诊过程中,需要尽可能的关注到病人的所有表情、动作、语言等细节,这将给医生的分析带来一定的挑战,只要一时注意不到或疏忽,极有可能造成错误分析,给病人和医生均带来困扰。
在微表情技术和自然语言处理技术十分发达的今天,本案能够对这两项技术进行结合,以实现对疾病的基于视频的表情分析。
在本发明的至少一个实施例中,所述指定人物包括,但不限于:具有分析需求的病人、需要判断是否患病的人员等。
在本发明的至少一个实施例中,为了保证更加准确地对所述指定人物进行分析,所述视频应该能够反应出所述指定人物的日常表现。
具体地,所述视频可以是一段录制的视频,也可以是所述用户发起的视频通话过程中的实时视频等,本发明不限制。
提取单元111提取所述视频中所述指定人物的语音。
在本发明的至少一个实施例中,所述指定人物的语音包括,但不限于所述指定人物的说话内容、所述指定人物的语气等。
具体地,只要能够起到语音提取的作用,本发明对所述指定人物的语音的提取方式不做限制。
处理单元112对所述语音进行自然语言处理,得到处理后的目标语音。
在本发明的至少一个实施例中,所述自然语言处理是计算机科学领域与人工智能领域中的一个重要方向,是计算机科学、人工智能、语言学关注计算机和人类(自然)语言之间的相互作用的领域。
具体地,所述处理单元112对所述语音进行自然语言处理包括:
所述处理单元112读取所述语音,对所述语音进行数据清洗,所述处理单元112进一步对所述语音进行数据切片,并进行数据分词处理,所述处理单元112获取分词处理后的分词切片,并执行文本转换,最后获取处理后的词汇。
通过上述实施方式,所述处理单元112能够在对所述语音进行自然语言处理后,从所述语音中提取出关键字,并根据所述关键字获取到所述目标语音。
由于上述实现过程是较为成熟的技术,本发明将不再赘述。
获取单元113获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系。
在本发明的至少一个实施例中,在所述获取单元113获取所述语音数据集前,所述方法还包括:
所述电子设备配置所述语音数据集。
具体地,所述电子设备配置所述语音数据集包括:
所述电子设备获取样本语音,并对所述样本语音进行语音识别,得到识别出的所有语音,所述电子设备获取所述所有语音中每种语音对应的分析结果,并根据每种语音与对应的分析结果间的关系,配置所述语音数据集。
进一步地,所述电子设备可以从网络上获取所述所有语音中每种语音对应的分析结果,也可以请相关医务人员进行对应分析结果的确认,所述电子设备还可以从指定数据库中获取所述所有语音中每种语音对应的分析结果,本发明不限制。
更进一步地,所述电子设备对所述指定数据库的类型不做限制。
确定单元114根据所述目标语音,从所述语音数据集中确定语音分析数据。
在本发明的至少一个实施例中,由于所述语音数据集中存储着所有语音与相应分析结果间的对应关系,因此,所述确定单元114可以将所述目标语音与所述语音数据集中所存储的语音进行匹配,并得到所述语音分析数据。
具体地,所述语音分析数据能够反映出所述指定人物的情绪等,例如,所述语音分析数据可以包括,但不限于:情绪高涨、情绪低落等。
具体地,所述确定单元114根据所述目标语音,从所述语音数据集中确定语音分析数据包括:
所述确定单元114从所述语音数据集中,获取与所述目标语音对应的分析结果作为所述语音分析数据。
例如:当所述确定单元114从所述目标语音中,识别出所述指定人物声音较小,且气息较弱时,所述确定单元114从所述语音数据集中获取与上述特点相匹配的分析结果为情绪低落,则所述确定单元114确定所述语音分析数据为情绪低落。
所述提取单元111提取所述视频中所述指定人物的目标表情数据。
在本发明的至少一个实施例中,只要能够起到表情提取的作用,本发明对所述指定人物的表情的提取方式不做限制。
具体地,所述提取单元111提取所述视频中所述指定人物的目标表情数据包括:
所述提取单元111将所述视频做分帧处理,得到至少一个视频段,所述提取单元111提取每个视频段中所述指定人物的每个表情数据,并将每个表情数据加权以确定所述目标表情数据。
通过对所述视频做分帧处理,所述提取单元111能够对所述视频中国的表情数据进行逐帧提取,以使表情提取更加精细,相应地,分析结果也将更加准确。
所述获取单元113获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系。
在本发明的至少一个实施例中,在所述获取单元113获取所述表情数据集前,所述方法还包括:
所述电子设备配置所述表情数据集。
具体地,所述电子设备配置所述表情数据集包括:
所述电子设备获取样本人脸图片,并对所述样本人脸图片进行微表情识别,以得到M个微表情数据,进一步地,所述电子设备对所述样本图片进行面相属性识别,以得到N个面相属性数据,所述电子设备获取所述微表情数据中每种微表情数据对应的分析结果,并获取所述面相属性数据中每种面相属性数据对应的分析结果,并根据每种微表情数据与对应的分析结果间的关系,以及每种面相属性数据与对应的分析结果间的关系,配置所述表情数据集。
其中,所述样本人脸图片需要有足够的数量进行支撑,以满足识别需求;所述M及所述N根据识别结果进行确定,例如:M=56,N=22等。
进一步地,所述电子设备可以从网络上获取所述微表情数据中每种微表情数据对应的分析结果,也可以请相关医务人员进行对应分析结果的确认,所述电子设备还可以从指定数据库中获取所述微表情数据中每种微表情数据对应的分析结果,本发明不限制。
同样地,所述电子设备可以采取同样地获取方式获取所述面相属性数据中每种面相属性数据对应的分析结果,本发明不限制。
所述确定单元114根据所述目标表情数据,从所述表情数据集中确定表情分析数据。
在本发明的至少一个实施例中,所述表情分析数据能够反映出所述指定人物的情绪、状态等,例如,所述表情分析数据可以包括,但不限于:厌烦、消沉等。
具体地,所述确定单元114根据所述目标表情数据,从所述表情数据集中确定表情分析数据包括:
所述确定单元114从所述目标表情数据中获取目标微表情数据,并从所述表情数据集中,确定与所述目标微表情数据对应的微表情分析数据,所述确定单元114从所述目标表情数据中获取目标面相数据,进一步从所述表情数据集中,确定与所述目标面相数据对应的面相分析数据,所述确定单元114根据所述微表情分析数据及所述面相分析数据,确定所述表情分析数据。
例如:当所述确定单元114确定所述微表情分析数据为厌烦情绪,且确定所述面相分析数据为意志消沉时,所述确定单元114可以确定所述表情分析数据为带有厌烦情绪,且意志消沉。
所述确定单元114根据所述语音分析数据及所述表情分析数据,确定分析结果。
在本发明的至少一个实施例中,所述分析结果为所述电子设备自动分析的结果,具有参考作用,可以辅助专业医务人员进行分析,也可以为所述指定人物进行自助分析。
具体地,所述确定单元114根据所述语音分析数据及所述表情分析数据,确定分析结果包括:
所述确定单元114从所述语音分析数据中确定所述语音分析数据的第一等级,并从所述表情分析数据中确定所述表情分析数据的第二等级,所述确定单元114根据所述第一等级及所述第二等级,从所述语音分析数据及所述表情分析数据中,确定主分析数据及辅助分析数据,合所述主分析数据和所述辅助分析数据以得到所述分析结果。
进一步地,所述第一等级、所述第二等级是根据大量实验确定的,可以反应出所述语音分析数据及所述表情分析数据分别的重要等级,等级高的为所述主分析数据,且等级低的为所述辅助分析数据。
具体地,所述第一等级可以包括,但不限于:高、低,所述第二等级可以包括,但不限于:高、低。
例如:当所述第一等级为高,所述第二等级为低时,所述确定单元114确定所述语音分析数据为情绪低落,所述表情分析数据为带有厌烦情绪,则所述确定单元114可以确定所述分析结果为:所述指定人物的情绪较为低落,可能带有厌烦情绪。
通过上述实施方式,所述电子设备能够实现对所述指定人物的分析,且分析过程无需人工干预,分析效率较高。
优选地,在确定所述分析结果后,所述方法还包括:
发送单元115将所述分析结果发送至指定医务人员,以辅助所述医务人员进行分析。
通过上述实施方式,所述电子设备能够为所述医务人员提供分析建议,以辅助所述医务人员进行分析,从而提高分析效率,并有效防止所述医务人员由于遗漏细节造成误诊,进一步提高分析的准确率。
优选地,所述方法还包括:
当所述视频为所述指定人物发来的视频通话时,所述发送单元115将所述分析结果发送至所述指定人物的终端上。
通过上述实施方式,所述电子设备可以为所述指定人物提供自助分析,方便所述指定人物进行提早预防。
优选地,所述方法还包括:
当接收到所述指定人物发送的人工分析指令时,匹配单元116根据所述分析结果,匹配对应的目标医务人员,建立单元117建立所述指定人物的终端与所述目标医务人员的终端的网络连接。
具体地,所述人工分析指令可以由用户触摸指定按键进行触发,或者是语音触发,本发明不限制。
通过上述实施方式,所述电子设备能够为所述指定人物配置最合适的医务人员进行面对面的人工分析,以更加满足用户的分析需求,有效提高了用户体验。
综上所述,本发明能在接收到基于视频的表情分析指令后,接收带有指定人物的视频;提取所述视频中所述指定人物的语音;对所述语音进行自然语言处理,得到处理后的目标语音;获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系;根据所述目标语音,从所述语音数据集中确定语音分析数据;提取所述视频中所述指定人物的目标表情数据;获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系;根据所述目标表情数据,从所述表情数据集中确定表情分析数据;根据所述语音分析数据及所述表情分析数据,确定分析结果。因此,本发明能将表情识别技术与自然语言处理技术相结合,实现自动分析,自动化的处理过程提高了分析效率,能够为医生看诊提供辅助参考。
如图3所示,是本发明实现基于视频的表情分析方法的较佳实施例的电子设备的结构示意图。
所述电子设备1是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述电子设备1还可以是但不限于任何一种可与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(PersonalDigital Assistant,PDA)、游戏机、交互式网络电视(InternetProtocol Television,IPTV)、智能式穿戴式设备等。
所述电子设备1还可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。
所述电子设备1所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
在本发明的一个实施例中,所述电子设备1包括,但不限于,存储器12、处理器13,以及存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如基于视频的表情分析程序。
本领域技术人员可以理解,所述示意图仅仅是电子设备1的示例,并不构成对电子设备1的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述电子设备1还可以包括输入输出设备、网络接入设备、总线等。
所称处理器13可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器13是所述电子设备1的运算核心和控制中心,利用各种接口和线路连接整个电子设备1的各个部分,及执行所述电子设备1的操作系统以及安装的各类应用程序、程序代码等。
所述处理器13执行所述电子设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个基于视频的表情分析方法实施例中的步骤,例如图1所示的步骤S10、S11、S12、S13、S14、S15、S16、S17、S18。
或者,所述处理器13执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如:在接收到基于视频的表情分析指令后,接收带有指定人物的视频;提取所述视频中所述指定人物的语音;对所述语音进行自然语言处理,得到处理后的目标语音;获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系;根据所述目标语音,从所述语音数据集中确定语音分析数据;提取所述视频中所述指定人物的目标表情数据;获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系;根据所述目标表情数据,从所述表情数据集中确定表情分析数据;根据所述语音分析数据及所述表情分析数据,确定分析结果。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述电子设备1中的执行过程。例如,所述计算机程序可以被分割成接收单元110、提取单元111、处理单元112、获取单元113、确定单元114、发送单元115、匹配单元116及建立单元117。
所述存储器12可用于存储所述计算机程序和/或模块,所述处理器13通过运行或执行存储在所述存储器12内的计算机程序和/或模块,以及调用存储在存储器12内的数据,实现所述电子设备1的各种功能。所述存储器12可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器12可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述存储器12可以是电子设备1的外部存储器和/或内部存储器。进一步地,所述存储器12可以是集成电路中没有实物形式的具有存储功能的电路,如RAM(Random-AccessMemory,随机存取存储器)、FIFO(First In First Out,)等。或者,所述存储器12也可以是具有实物形式的存储器,如内存条、TF卡(Trans-flash Card)等等。
所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
结合图1,所述电子设备1中的所述存储器12存储多个指令以实现一种基于视频的表情分析方法,所述处理器13可执行所述多个指令从而实现:在接收到基于视频的表情分析指令后,接收带有指定人物的视频;提取所述视频中所述指定人物的语音;对所述语音进行自然语言处理,得到处理后的目标语音;获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系;根据所述目标语音,从所述语音数据集中确定语音分析数据;提取所述视频中所述指定人物的目标表情数据;获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系;根据所述目标表情数据,从所述表情数据集中确定表情分析数据;根据所述语音分析数据及所述表情分析数据,确定分析结果。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
将所述视频做分帧处理,得到至少一个视频段;
提取每个视频段中所述指定人物的每个表情数据;
将每个表情数据加权以确定所述目标表情数据。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
从所述目标表情数据中获取目标微表情数据;
从所述表情数据集中,确定与所述目标微表情数据对应的微表情分析数据;
从所述目标表情数据中获取目标面相数据;
从所述表情数据集中,确定与所述目标面相数据对应的面相分析数据;
根据所述微表情分析数据及所述面相分析数据,确定所述表情分析数据。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
从所述语音分析数据中确定所述语音分析数据的第一等级;
从所述表情分析数据中确定所述表情分析数据的第二等级;
根据所述第一等级及所述第二等级,从所述语音分析数据及所述表情分析数据中,确定主分析数据及辅助分析数据;
组合所述主分析数据和所述辅助分析数据以得到所述分析结果。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
将所述分析结果发送至指定医务人员,以辅助所述医务人员进行分析。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
当所述视频为所述指定人物发来的视频通话时,将所述分析结果发送至所述指定人物的终端上。
根据本发明优选实施例,所述处理器13还执行多个指令包括:
当接收到所述指定人物发送的人工分析指令时,根据所述分析结果,匹配对应的目标医务人员;
建立所述指定人物的终端与所述目标医务人员的终端的网络连接。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。

Claims (10)

1.一种基于视频的表情分析方法,其特征在于,所述方法包括:
在接收到基于视频的表情分析指令后,接收带有指定人物的视频;
提取所述视频中所述指定人物的语音;
对所述语音进行自然语言处理,得到处理后的目标语音;
获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系;
根据所述目标语音,从所述语音数据集中确定语音分析数据;
提取所述视频中所述指定人物的目标表情数据;
获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系;
根据所述目标表情数据,从所述表情数据集中确定表情分析数据;
根据所述语音分析数据及所述表情分析数据,确定分析结果。
2.如权利要求1所述的基于视频的表情分析方法,其特征在于,所述提取所述视频中所述指定人物的目标表情数据包括:
将所述视频做分帧处理,得到至少一个视频段;
提取每个视频段中所述指定人物的每个表情数据;
将每个表情数据加权以确定所述目标表情数据。
3.如权利要求1所述的基于视频的表情分析方法,其特征在于,所述根据所述目标表情数据,从所述表情数据集中确定表情分析数据包括:
从所述目标表情数据中获取目标微表情数据;
从所述表情数据集中,确定与所述目标微表情数据对应的微表情分析数据;
从所述目标表情数据中获取目标面相数据;
从所述表情数据集中,确定与所述目标面相数据对应的面相分析数据;
根据所述微表情分析数据及所述面相分析数据,确定所述表情分析数据。
4.如权利要求1所述的基于视频的表情分析方法,其特征在于,所述根据所述语音分析数据及所述表情分析数据,确定分析结果包括:
从所述语音分析数据中确定所述语音分析数据的第一等级;
从所述表情分析数据中确定所述表情分析数据的第二等级;
根据所述第一等级及所述第二等级,从所述语音分析数据及所述表情分析数据中,确定主分析数据及辅助分析数据;
组合所述主分析数据和所述辅助分析数据以得到所述分析结果。
5.如权利要求1所述的基于视频的表情分析方法,其特征在于,在确定所述分析结果后,所述方法还包括:
将所述分析结果发送至指定医务人员,以辅助所述医务人员进行分析。
6.如权利要求1所述的基于视频的表情分析方法,其特征在于,所述方法还包括:
当所述视频为所述指定人物发来的视频通话时,将所述分析结果发送至所述指定人物的终端上。
7.如权利要求1所述的基于视频的表情分析方法,其特征在于,所述方法还包括:
当接收到所述指定人物发送的人工分析指令时,根据所述分析结果,匹配对应的目标医务人员;
建立所述指定人物的终端与所述目标医务人员的终端的网络连接。
8.一种基于视频的表情分析装置,其特征在于,所述装置包括:
接收单元,用于在接收到基于视频的表情分析指令后,接收带有指定人物的视频;
提取单元,用于提取所述视频中所述指定人物的语音;
处理单元,用于对所述语音进行自然语言处理,得到处理后的目标语音;
获取单元,用于获取预先配置的语音数据集,所述语音数据集中存储着所有语音与相应分析结果间的对应关系;
确定单元,用于根据所述目标语音,从所述语音数据集中确定语音分析数据;
所述提取单元,还用于提取所述视频中所述指定人物的目标表情数据;
所述获取单元,还用于获取预先配置的表情数据集,所述表情数据集中存储着所有表情与相应分析结果间的对应关系;
所述确定单元,还用于根据所述目标表情数据,从所述表情数据集中确定表情分析数据;
所述确定单元,还用于根据所述语音分析数据及所述表情分析数据,确定分析结果。
9.一种电子设备,其特征在于,所述电子设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至7中任意一项所述的基于视频的表情分析方法。
10.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被电子设备中的处理器执行以实现如权利要求1至7中任意一项所述的基于视频的表情分析方法。
CN201811537718.9A 2018-12-15 2018-12-15 基于视频的表情分析方法、装置、电子设备及存储介质 Pending CN109858330A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811537718.9A CN109858330A (zh) 2018-12-15 2018-12-15 基于视频的表情分析方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811537718.9A CN109858330A (zh) 2018-12-15 2018-12-15 基于视频的表情分析方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN109858330A true CN109858330A (zh) 2019-06-07

Family

ID=66891337

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811537718.9A Pending CN109858330A (zh) 2018-12-15 2018-12-15 基于视频的表情分析方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN109858330A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401147A (zh) * 2020-02-26 2020-07-10 中国平安人寿保险股份有限公司 基于视频行为数据的智能分析方法、装置及存储介质
CN113517064A (zh) * 2021-04-14 2021-10-19 华南师范大学 一种抑郁症程度评估方法、系统、装置及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107066514A (zh) * 2017-01-23 2017-08-18 深圳亲友科技有限公司 老年人的情绪识别方法和系统
CN107705808A (zh) * 2017-11-20 2018-02-16 合光正锦(盘锦)机器人技术有限公司 一种基于面部特征与语音特征的情绪识别方法
CN108053838A (zh) * 2017-12-01 2018-05-18 上海壹账通金融科技有限公司 结合音频分析和视频分析的欺诈识别方法、装置及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107066514A (zh) * 2017-01-23 2017-08-18 深圳亲友科技有限公司 老年人的情绪识别方法和系统
CN107705808A (zh) * 2017-11-20 2018-02-16 合光正锦(盘锦)机器人技术有限公司 一种基于面部特征与语音特征的情绪识别方法
CN108053838A (zh) * 2017-12-01 2018-05-18 上海壹账通金融科技有限公司 结合音频分析和视频分析的欺诈识别方法、装置及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111401147A (zh) * 2020-02-26 2020-07-10 中国平安人寿保险股份有限公司 基于视频行为数据的智能分析方法、装置及存储介质
CN111401147B (zh) * 2020-02-26 2024-06-04 中国平安人寿保险股份有限公司 基于视频行为数据的智能分析方法、装置及存储介质
CN113517064A (zh) * 2021-04-14 2021-10-19 华南师范大学 一种抑郁症程度评估方法、系统、装置及存储介质

Similar Documents

Publication Publication Date Title
CN109241524B (zh) 语义解析方法及装置、计算机可读存储介质、电子设备
CN108053838B (zh) 结合音频分析和视频分析的欺诈识别方法、装置及存储介质
CN107480162B (zh) 基于人工智能的搜索方法、装置、设备及计算机可读存储介质
CN110008378B (zh) 基于人工智能的语料收集方法、装置、设备及存储介质
CN111274365A (zh) 基于语义理解的智能问诊方法、装置、存储介质及服务器
CN107194158A (zh) 一种基于图像识别的疾病辅助诊断方法
CN112270196A (zh) 实体关系的识别方法、装置及电子设备
CN109637642A (zh) 医疗机构透析水平的考核方法、装置、设备及存储介质
CN109256133A (zh) 一种语音交互方法、装置、设备及存储介质
CN110072140A (zh) 一种视频信息提示方法、装置、设备及存储介质
CN112699645A (zh) 语料标注方法、装置及设备
CN111986793A (zh) 基于人工智能的导诊处理方法、装置、计算机设备及介质
CN109858330A (zh) 基于视频的表情分析方法、装置、电子设备及存储介质
CN109697676A (zh) 基于社交群的用户分析及应用方法和装置
CN109859747A (zh) 语音交互方法、设备以及存储介质
CN116402166A (zh) 一种预测模型的训练方法、装置、电子设备及存储介质
CN116775815A (zh) 对话数据的处理方法、装置、电子设备及存储介质
CN114065720A (zh) 会议纪要生成方法、装置、存储介质及电子设备
CN117828355A (zh) 基于多模态信息的情绪定量模型训练方法及情绪定量方法
CN110020429A (zh) 语义识别方法及设备
CN116828246B (zh) 一种数字人直播交互方法、系统、设备及存储介质
CN110263346B (zh) 基于小样本学习的语意分析方法、电子设备及存储介质
CN109829033A (zh) 数据展示方法和终端设备
CN117273167A (zh) 医疗模型的训练方法、医疗方法、装置、设备及存储介质
CN109948426A (zh) 应用程序调整方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination