CN111739558A - 监控系统、方法、装置、服务器及存储介质 - Google Patents
监控系统、方法、装置、服务器及存储介质 Download PDFInfo
- Publication number
- CN111739558A CN111739558A CN201910219098.2A CN201910219098A CN111739558A CN 111739558 A CN111739558 A CN 111739558A CN 201910219098 A CN201910219098 A CN 201910219098A CN 111739558 A CN111739558 A CN 111739558A
- Authority
- CN
- China
- Prior art keywords
- emotion recognition
- user
- emotion
- voice
- state information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000008909 emotion recognition Effects 0.000 claims abstract description 279
- 230000002996 emotional effect Effects 0.000 claims abstract description 99
- 230000008451 emotion Effects 0.000 claims abstract description 78
- 238000013523 data management Methods 0.000 claims abstract description 63
- 238000007726 management method Methods 0.000 claims abstract description 35
- 238000012806 monitoring device Methods 0.000 claims abstract description 10
- 238000012795 verification Methods 0.000 claims description 64
- 238000012549 training Methods 0.000 claims description 33
- 238000012545 processing Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 7
- 230000015654 memory Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 230000003595 spectral effect Effects 0.000 description 8
- 238000012360 testing method Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000001503 joint Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009323 psychological health Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本申请公开了一种监控系统、方法、装置、服务器及存储介质,属于监控技术领域。系统包括:语音采集设备、情感识别服务器和数据管理服务器,语音采集设备,用于采集语音信号,将语音信号和与语音采集设备具有关联关系的用户的身份标识发送给情感识别服务器;情感识别服务器,用于基于身份标识调用用户的所有情感识别模型,每个情感识别模型与用户的一种情感状态对应;基于语音信号,通过调用的情感识别模型确定用户当前的情感状态信息;将确定的情感状态信息发送给数据管理服务器;数据管理服务器,用于对情感状态信息进行管理。该监控系统可以对用户的情感状态进行监控,增加了监控系统的管理性能。
Description
技术领域
本申请涉及监控技术领域,特别涉及一种监控系统、方法、装置、服务器及存储介质。
背景技术
目前,监控系统在各个领域得到广泛应用,监控系统可以用于对用户、动物等目标进行监控管理,比如可以应用于对留守儿童或老年人等弱势群体的监护管理。
在针对弱势群体的应用场景中,监控系统一般包括安全手环和数据管理服务器,该安全手环可以用于向该数据管理服务器上报用户的位置信息,该数据管理服务器可以用于存储各个用户的基本信息和该各个用户配带的安全手环上报的位置信息,以便于管理人员对需要监护管理的人员进行监护管理。
然而,在上述实现方式中,由于监控系统具备的功能仅仅在于对用户的位置信息和基本信息进行管理,导致监控系统的管理性能较差。
发明内容
本申请实施例提供了一种监控系统、方法、装置、服务器及存储介质,可以解决相关技术中监控系统的管理性能较差的问题。所述技术方案如下:
第一方面,提供了一种监控系统,所述系统包括:语音采集设备、情感识别服务器和数据管理服务器,所述情感识别服务器分别与所述语音采集设备和所述数据管理服务器建立通信连接;
所述语音采集设备,用于采集语音信号,将所述语音信号和与所述语音采集设备具有关联关系的用户的身份标识发送给所述情感识别服务器;
所述情感识别服务器,用于基于所述身份标识调用所述用户的所有情感识别模型,每个情感识别模型与所述用户的一种情感状态对应;基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息;将确定的情感状态信息发送给所述数据管理服务器;
所述数据管理服务器,用于对所述情感状态信息进行管理。
可选地,所述情感识别服务器,用于基于所述身份标识调用所述用户的所有情感识别模型,包括:
所述情感识别服务器,用于基于所述身份标识,从存储的参考对应关系中确定对应的所有情感识别模型标识,所述参考对应关系用于存储多个用户中每个用户的身份标识与所述每个用户的所有情感识别模型标识之间的对应关系;调用所确定的所有情感识别模型标识对应的情感识别模型。
可选地,所述情感识别服务器,用于基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息,包括:
所述情感识别服务器,用于提取所述语音信号的声纹特征;分别将所述声纹特征输入至调用的所有情感识别模型中的每个情感识别模型,由所述每个情感识别模型对所述声纹特征进行识别处理并输出情感相似度;基于输出的所有情感相似度,确定最大情感相似度对应的情感识别模型;将确定的情感识别模型对应的情感状态信息确定为所述用户当前的情感状态信息。
可选地,所述情感识别服务器基于所述身份标识调用所述用户的所有情感识别模型之前,还用于:
基于所述身份标识,调用所述用户对应的语音验证模型;通过所述语音验证模型对所述语音信号进行语音验证;对应的,当对所述语音信号验证通过时,执行所述基于所述身份标识调用所述用户的所有情感识别模型的操作。
可选地,所述情感识别服务器基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息之后,还用于:
将所述语音信号和所述情感状态信息保存为训练样本,所述训练样本用于对所述情感状态信息对应的情感识别模型继续训练。
可选地,所述将确定的情感状态信息发送给所述数据管理服务器,包括:
将所述语音信号和所述确定的情感状态信息发送给所述数据管理服务器;
对应的,所述数据管理服务器,用于对所述情感状态信息进行管理,包括:
所述数据管理服务器,用于对所述语音信号和所述情感状态信息进行管理。
第二方面,提供了一种监控方法,所述方法应用于监控系统的情感识别服务器中,所述监控系统还包括语音采集设备和数据管理服务器,所述情感识别服务器分别与所述语音采集设备和所述数据管理服务器建立通信连接;
接收所述语音采集设备采集的语音信号和与所述语音采集设备具有关联关系的用户的身份标识;
基于所述身份标识调用所述用户的所有情感识别模型,每个情感识别模型与所述用户的一种情感状态对应;
基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息;
将确定的情感状态信息发送给所述数据管理服务器进行管理。
可选地,所述基于所述身份标识调用所述用户的所有情感识别模型,包括:
基于所述身份标识,从存储的参考对应关系中确定对应的所有情感识别模型标识,所述参考对应关系用于存储多个用户中每个用户的身份标识与所述每个用户的所有情感识别模型标识之间的对应关系;
调用所确定的所有情感识别模型标识对应的情感识别模型。
可选地,所述基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息,包括:
提取所述语音信号的声纹特征;
分别将所述声纹特征输入至调用的所有情感识别模型中的每个情感识别模型,由所述每个情感识别模型对所述声纹特征进行识别处理并输出情感相似度;
基于输出的所有情感相似度,确定最大情感相似度对应的情感识别模型;
将确定的情感识别模型对应的情感状态信息确定为所述用户当前的情感状态信息。
可选地,所述基于所述身份标识调用所述用户的所有情感识别模型之前,还包括:
基于所述身份标识,调用所述用户对应的语音验证模型;
通过所述语音验证模型对所述语音信号进行语音验证;
对应的,当对所述语音信号验证通过时,执行所述基于所述身份标识调用所述用户的所有情感识别模型的操作。
可选地,所述基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息之后,还包括:
将所述语音信号和所述情感状态信息保存为训练样本,所述训练样本用于对所述情感状态信息对应的情感识别模型继续训练。
可选地,所述将确定的情感状态信息发送给所述数据管理服务器,包括:
将所述语音信号和所述确定的情感状态信息发送给所述数据管理服务器进行管理。
第三方面,提供了一种监控装置,配置于监控系统的情感识别服务器中,所述监控系统还包括语音采集设备和数据管理服务器,所述情感识别服务器分别与所述语音采集设备和所述数据管理服务器建立通信连接;所述装置包括:
接收模块,用于接收所述语音采集设备采集的语音信号和与所述语音采集设备具有关联关系的用户的身份标识;
调用模块,用于基于所述身份标识调用所述用户的所有情感识别模型,每个情感识别模型与所述用户的一种情感状态对应;
确定模块,用于基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息;
发送模块,用于将确定的情感状态信息发送给所述数据管理服务器进行管理。
可选地,所述调用模块用于:
基于所述身份标识,从存储的参考对应关系中确定对应的所有情感识别模型标识,所述参考对应关系用于存储多个用户中每个用户的身份标识与所述每个用户的所有情感识别模型标识之间的对应关系;
调用所确定的所有情感识别模型标识对应的情感识别模型。
可选地,所述确定模块用于:
提取所述语音信号的声纹特征;
分别将所述声纹特征输入至调用的所有情感识别模型中的每个情感识别模型,由所述每个情感识别模型对所述声纹特征进行识别处理并输出情感相似度;
基于输出的所有情感相似度,确定最大情感相似度对应的情感识别模型;
将确定的情感识别模型对应的情感状态信息确定为所述用户当前的情感状态信息。
可选地,所述调用模块还用于:
基于所述身份标识,调用所述用户对应的语音验证模型;
通过所述语音验证模型对所述语音信号进行语音验证;
当对所述语音信号验证通过时,基于所述身份标识调用所述用户的所有情感识别模型。
可选地,所述装置还包括:
存储模块,用于将所述语音信号和所述情感状态信息保存为训练样本,所述训练样本用于对所述情感状态信息对应的情感识别模型继续训练。
可选地,所述发送模块用于:
将所述语音信号和所述确定的情感状态信息发送给所述数据管理服务器进行管理。
第四方面,提供了一种情感识别服务器,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现上述第二方面所述的监控方法。
第五方面,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,所述指令被处理器执行时实现上述第二方面所述的监控方法。
第六方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第二方面所述的监控方法。
本申请实施例提供的技术方案带来的有益效果是:
语音采集设备采集语音信号,并将该语音信号和与该语音采集设备具有关联关系的用户的身份标识发送给情感服务器。该情感服务器调用该身份标识对应的所有情感识别模型,即调用该用户的所有情感识别模型。然后基于该语音信号,通过调用的所有情感识别模型确定用户当前的情感状态信息,并发给数据管理服务器进行管理。即该监控系统可以对用户的情感状态进行监控,增加了监控系统的管理性能。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的一种监控系统的框架图;
图2是根据一示例性实施例示出的一种监控方法的流程图;
图3是根据另一示例性实施例示出的一种语音验证的原理示意图;
图4根据另一示例性实施例示出的一种情感识别的基本原理示意图;
图5是根据一示例性实施例示出的一种监控装置的结构示意图;
图6是根据另一示例性实施例示出的一种监控装置的结构示意图;
图7是根据一示例性实施例示出的一种服务器700的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
首先,对本申请实施例提供的应用场景进行简单介绍。
近几年,随着大数据和互联网等信息技术的发展创新以及政府对留守儿童心理和人身安全的逐渐重视,部分地区引入“留守儿童工作大数据平台”,通过为中小学阶段留守儿童配发安全手环实现儿童信息与公安机关报警平台的无缝对接。其中,该“留守儿童工作大数据平台”又可称为监控系统。然而,目前的监控系统仅仅具备对留守儿童的信息不全提醒、GPS(Global Positioning System,全球定位系统)定位、自动生成报表等功能,且儿童佩戴的安全手环的功能有限,仅仅可用来定位、存储基本信息,所以很难对留守儿童的心理和人身健康作更具针对性的动态监测,更无法及时有效把握儿童的情感动向。为此,本申请实施例提供了一种监控系统,该监控系统可以对儿童的情感动向进行监测和管理,增加了监控系统的管理性能。其具体实现请参见如下各个实施例。
接下来,请参考图1,该图1是根据一示例性实施例示出的一种监控系统的框架图,该监控系统主要包括:语音采集设备110、情感识别服务器120和数据管理服务器130,该情感识别服务器120分别与语音采集设备110和数据管理服务器130建立通信连接。
其中,该语音采集设备110具有语音采集功能,用于采集用户的语音信号,并将该语音信号发送给情感识别服务器120。在一些实施例中,该语音采集设备110可以配置有可配带部件,以便于用户可以利用该可配带部件将其配带在身上。或者,该语音采集设备110也可以为配置有语音采集器的可穿戴设备,譬如,可以为配置有语音采集器的手环、手表等,本申请实施例对此不限定。另外,该语音采集设备110除了具有语音采集功能外,还可以具有定位等功能。
其中,该情感识别服务器120可以用于基于用户的语音信号对该用户进行情感识别,以确定用户当前的情感状态。在一些实施例中,该情感识别服务器120可以为一台服务器。进一步地,该情感识别服务器120还可以为由多台服务器组成的服务器集群,比如,请继续参考图1,该情感识别服务器120可以包括声纹认证算法服务器120a、情感识别算法服务器120b和情感管理库120c。其中,该声纹认证算法服务器120a可以用于对用户的语音信号进行语音验证,并在语音验证通过后触发该情感管理库120c获取用户的情感识别模型;也即是,该情感管理库120c可以用于存储每个用户的所有情感识别模型,并将获取的情感识别模型共享给该情感识别算法服务器120b;情感识别算法服务器120b可以用于使用情感管理库120c共享的情感识别模型,对用户的情感进行识别,并将识别出的情感状态信息发送给数据管理服务器130。
其中,该数据管理服务器130可以用于对情感状态信息进行动态管理,以便于监管人员可以根据数据管理服务器130中的管理信息,及时对用户的情感动向进行监控。在一些实施例中,该数据管理服务器130可以为一台服务器,或者,也可以为由多台服务器组成的服务器集群,本申请实施例对此不做限定。
进一步地,请参考图1,该监控系统还可以包括虚拟服务器140,该虚拟服务器140分别与语音采集设备110和情感识别服务器120连接,以将该语音采集设备110传输的语音信号传递给情感识别服务器120。在一些实施例中,该虚拟服务器140可以称为交换机。
另外,该监控系统还可以包括远程监控服务器150,该远程监控服务器150分别与情感识别服务器120和数据管理服务器130连接,以将该情感识别服务器120传输的数据传递给数据管理服务器130。
接下来将结合图1所示的监控系统,对监控系统的监测过程进行详细介绍。请参考图2,该图2是根据一示例性实施例示出的一种监控方法的流程图,该监控方法可以包括如下几个步骤:
步骤201:语音采集设备采集语音信号,将该语音信号和与该语音采集设备具有关联关系的用户的身份标识发送给该情感识别服务器。
其中,与语音采集设备具有关联关系的用户可以是指使用该语音采集设备的用户,或者,也可以是指该语音采集设备的拥有者等,另外,该身份标识可以用于唯一的标识一个用户。
以该监控系统应用于对某个村的留守儿童进行监控管理为例,在该种应用场景中,可以为每个留守儿童配发语音采集设备,比如,该语音采集设备可以为嵌有语音采集器的安全手环等,以通过该语音采集设备采集语音信号。
在一种可能的实现方式中,该语音采集设备可以实时执行采集操作,在另一种可能的实现方式中,该语音采集设备也可以每隔参考时长进行一次采集操作。其中,该参考时长可以由用户根据实际需求进行设置,或者,也可以由该语音采集设备默认设置,本申请实施例对此不作限定。
该语音采集设备采集语音信号后,将该语音信号和与该语音采集设备具有关联关系的用户的身份标识发送给该情感识别服务器,以便于该情感识别服务器对该用户的情感状态进行识别。
进一步地,请参考图1,当该监控系统还包括虚拟服务器时,该语音采集设备将采集的语音信号和与该语音采集设备具有关联关系的用户的身份标识发送给虚拟服务器。在一些实施例中,该虚拟服务器可以确定该语音信号的频谱能量,当该频谱能量大于或等于频谱能量阈值时,将该语音信号和与该语音采集设备具有关联关系的用户的身份标识转发给情感识别服务器,否则,当该频谱能量小于频谱能量阈值时,可以不将该语音信号和与该语音采集设备具有关联关系的用户的身份标识转发给情感识别服务器。
也就是说,当该监控系统还包括虚拟服务器时,可以由该虚拟服务器抉择是否将该语音采集设备采集的语音信号和与该语音采集设备具有关联关系的用户的身份标识发送给情感识别服务器。一般来说,不同情感表达的语音信号在其时间构造、振幅构造、基频构造和共振峰构造等特征方面也有着不同的构造特点和分布规律。当该语音信号的频谱能量大于或等于频谱能量阈值时,一般可以说明该用户说话语气不平稳,进一步可以说明该用户情绪可能比较激动,因为,需要将该语音信号和与该语音采集设备具有关联关系的用户的身份标识发送给情感识别服务器作进一步情感识别。而当该语音信号的频谱能量小于频谱能量阈值时,一般可以说明该用户说话语气比较平稳,进一步可以说明该用户情绪可能比较稳定,因为,可以不将该语音信号和与该语音采集设备具有关联关系的用户的身份标识转发给情感识别服务器,即可以丢弃该语音信号,并继续等待或处理语音采集设备发送的下一个语音信号等数据,如此可以减小情感识别服务器的运算量。
其中,该频谱能量阈值可以由用户根据实际需求自定义设置,也可以由该虚拟服务器默认设置,本申请实施例对此不做限定。
步骤202:情感识别服务器基于该身份标识,调用该用户对应的语音验证模型,通过该语音验证模型对该语音信号进行语音验证。
在一种可能的实现方式中,语音采集设备发送至情感识别服务器的语音信号可能并不是与该语音采集设备具有关联关系的用户的,譬如,某个留守儿童A配带的语音采集设备发送给情感识别服务器的语音信号可能来自与留守儿童A发生争执的留守儿童B。针对该种情况,为了避免监控管理出错,该情感识别服务器接收该语音采集设备发送的语音信号和身份标识用户后,可以基于该身份标识对语音信号进行验证,即验证该语音信号是否属于该用户的。
在一种可能的实现方式中,该情感识别服务器可以预先存储有各个用户的身份标识与语音验证模型之间的对应关系,即每个用户可以对应一个语音验证模型。如此,情感识别服务器可以基于该身份标识,调用该用户对应的语音验证模型,并使用该语音验证模型进行语音验证。在实施中,该情感识别服务器可以提取该语音信号的声纹特征,将该声纹特征输入至该语音验证模型中,由该语音验证模型进行验证处理,输出语音相似度。进一步地,当该语音相似度大于或等于语音相似度阈值时,可以确定该语音信号验证通过,否则,当该语音相似度小于该语音相似度阈值时,可以确定该语音信号验证未通过。
其中,语音相似度阈值可以由用户根据实际需求自定义设置,也可以由情感识别服务器默认设置,本申请实施例对此不做限定。
值得一提的是,在接收到语音信号后,该情感识别服务器先对该语音信号进行语音验证,以确定该语音信号是否真正属于该用户,从而可以提高监控管理的准确性。
需要说明的是,每个用户的语音验证模型可以预先通过训练得到。进一步地,每个用户的语音验证模型可以基于大量的训练样本对待训练的网络模型进行训练得到。譬如,请参考图3,在实施中,针对每个用户,建立待训练的语音验证模型,获取该每个用户的多个语音片段,提取该多个语音片段中每个语音片段的声纹特征,将提取的声纹特征输入至待训练的语音验证模型中进行深度学习,得到训练后的语音验证模型。进一步地,可以使用该每个用户的测试样本对训练后的语音验证模型进行性能评估,即提取测试样本的声纹特征,将该声纹特征输入至训练后的语音验证模型中,当语音验证输出结果大于或等于第一性能阈值时,存储训练后的语音验证模型与每个用户的身份标识之间的对应关系。反之,当该语音验证输出结果小于该第一性能阈值时,可以继续获取该每个用户的训练样本进行深度学习。
其中,该第一性能阈值可以由用户根据实际需求自定设置,也可以由该情感识别服务器默认设置,本申请实施例对此不做限定。
步骤203:当对该语音信号验证通过时,情感识别服务器基于该身份标识调用该用户的所有情感识别模型,每个情感识别模型与该用户的一种情感状态对应。
当对该语音信号验证通过时,说明该语音信号确实是来自于与该语音采集设备具有关联关系的用户,此时该情感识别服务器基于该身份标识调用该用户的所有情感识别模型。
在一种可能的实现方式中,基于该身份标识调用该用户的所有情感识别模型的具体实现可以包括:基于该身份标识,从存储的参考对应关系中确定对应的所有情感识别模型标识,该参考对应关系用于存储多个用户中每个用户的身份标识与该每个用户的所有情感识别模型标识之间的对应关系;调用所确定的所有情感识别模型标识对应的情感识别模型。
其中,每个情感识别模型标识可以用于唯一发标识一种情感识别模型,每个用户可以对应有一个或者多个情感识别模型,每种情感识别模型对应该用户的一种情感状态。譬如,假设每个用户的情感识别模型可以包括第一情感识别模型、第二情感识别模型和第三情感识别模型,该第一情感识别模型对应的情感状态可以定义为“恐惧”,该第二情感识别模型对应的情感状态可以定义为“恸哭”,该第三情感识别模型对应的情感状态可以定义为“悲愤”等极端情感状态。基于用户的语音信号,通过情感识别模型可以输出该语音信号表达的情感与该情感识别模型对应的情感状态之间的相似度。
在一些实施例中,该情感识别服务器可以预先存储有每个用户的所有情感识别模型,并存储有每个用户的身份标识与该用户对应的所有情感识别模型标识之间的参考对应关系,如此情感识别服务器即可基于用户的身份标识和参考对应关系,调用用户的所有情感识别模型。
需要说明的是,每个用户的每种情感识别模型可以预先通过训练得到。在一种可能的实现方式中,每个用户的情感识别模型可以基于大量的训练样本对待训练的网络模型进行训练得到。譬如,请参考图4,在实施中,针对每个用户的每种情感状态,建立待训练的情感识别模型,获取该每个用户针对该种情感状态的多个语音片段,对该多个语音片段中每个语音片段依次进行数字化及预处理、端点检测处理、特征提取处理,得到每个语音片段的声纹特征,将提取的声纹特征输入至待训练的情感识别模型中进行深度学习,得到每种情感状态对应的情感识别模型。进一步地,可以使用该每个用户的测试样本对训练后的情感识别模型进行性能评估,即可以对测试样本依次进行数字化及预处理、端点检测处理、特征提取处理,得到测试样本的声纹特征,将该声纹特征输入至训练后的情感识别模型中,当情感识别的输出结果大于或等于第二性能阈值时,存储训练后的情感识别模型与每个用户的身份标识之间的对应关系,并记录该情感识别模型对应的情感状态信息。反之,当情感识别的输出结果小于该第二性能阈值时,可以继续获取训练样本进行深度学习。
需要说明的是,本申请实施例是以在情感识别服务器基于该身份标识调用该用户的所有情感识别模型之前,情感识别服务器对情感识别服务器基于该身份标识,调用该用户对应的语音验证模型,通过该语音验证模型对该语音信号进行语音验证为例进行说明。在另一实施例中,也可以不对语音信号进行语音验证,即情感识别服务器接收到语音信号和身份标识后,可以直接基于该身份标识调用该用户的所有情感识别模型,本申请实施例对此不作限定。
步骤204:情感识别服务器基于该语音信号,通过调用的情感识别模型确定该用户当前的情感状态信息。
在一种可能的实现方式中,提取该语音信号的声纹特征,分别将该声纹特征输入至调用的所有情感识别模型中的每个情感识别模型,由该每个情感识别模型对该声纹特征进行识别处理并输出情感相似度,基于输出的所有情感相似度,确定最大情感相似度对应的情感识别模型,将确定的情感识别模型对应的情感状态信息确定为该用户当前的情感状态信息。
进一步地,在提取该语音信号的声纹特征之前,还可以对该语音信号依次进行数字化及预处理、端点检测处理,然后提取声纹特征输入至每个情感识别模型中。其中,由于每种情感识别模型对应一种情感状态,因此,可以根据每个情感识别模型输出的识别结果来确定该用户当前的情感状态。即可以判断该语音信号通过哪个情感识别模型输出的情感相似度最大,情感识别模型输出的情感相似度越大,说明该语音信号所表达的情感与该情感识别模型对应的情感状态越接近,因此,确定最大情感相似度对应的情感识别模型,将确定的情感识别模型对应的情感状态信息确定为该用户当前的情感状态信息。
进一步地,确定该用户当前的情感状态信息之后,情感识别服务器将该语音信号和该情感状态信息保存为训练样本,该训练样本用于对该情感状态信息对应的情感识别模型继续训练。
在本申请的一种可能实现方式中,当该情感识别服务器包括声纹认证算法服务器、情感识别算法服务器和情感管理库时,每个用户的语音验证模型可以存储在声纹认证算法服务器中,且每个用户的所有情感识别模型可以存储在该情感管理库中。在该种情况下,声纹认证算法服务器对语音信号进行验证,并在验证通过后,可以向该情感管理库发送验证成功消息,进一步,该验证成功消息中可以携带有该用户的身份标识。该情感管理库接收到该验证成功消息后,基于该身份标识获取该用户的所有情感识别模型,并分享给情感识别算法服务器,该情感识别算法服务器通过该情感管理库分享的所有情感识别模型,对该用户的语音信号进行情感识别。
进一步地,情感识别算法服务器确定该用户当前的情感状态信息之后,可以将该语音信号和该情感状态信息作为训练样本存储至对应的情感管理库中,以通过不断收集不同用户的特定情感语音信息,不断完善每个用户的情感识别模型,从而增加情感识别的准确率。
步骤205:情感识别服务器将确定的情感状态信息发送给该数据管理服务器。
在一些实施例中,该情感识别服务器将确定的情感状态信息和身份标识发送给该数据管理服务器。进一步地,该情感识别服务器可以将该语音信号和该确定的情感状态信息发送给该数据管理服务器。也就是说,该情感识别服务器除了将确定的情感状态信息发送给该数据管理服务器外,还可以将该语音信号也一同发送给该数据管理服务器。
进一步地,在上述各个实现步骤中传输的数据还可以包括用户当前的位置信息和身份标识等,这里对此不做具体限定。
在一种可能的实现方式中,当该监控系统包括远程监控服务器时,该情感识别服务器可以将要发送给数据管理服务器的数据发送至远程监控服务器,以由该远程监控服务器将数据共享给数据管理服务器。
步骤206:数据管理服务器对该情感状态信息进行管理。
进一步地,当情感识别服务器将该语音信号和该确定的情感状态信息发送给该数据管理服务器时,该数据管理服务器对该语音信号和该情感状态信息进行管理。
在一种可能的实现方式中,数据管理服务器根据接收的数据,更新该身份标识对应的用户的情绪状态发生时间、频度及发生地点等要素的记录,村委会成员或政府监管人员利用大数据分析技术定期梳理分析以上数据管理服务器上的留守儿童相关数据,对于一些短期内情绪波动较为频繁的儿童信息单独标记并及时反馈给家长及监护人,当然对于留守儿童情绪极端所在的位置或场所通过大数据分析后,可适当增加摄像头等监管措施,从源头上保护留守儿童的行为安全和心理健康。
需要说明的是,上述仅是以该监控系统应用于对留守儿童的情感状态进行监控的场景中为例进行说明,此外,该监控系统还可以应用于任何需要情感监控的场景中,本申请实施例对此不做限定。
在本申请实施例中,语音采集设备采集语音信号,并将该语音信号和与该语音采集设备具有关联关系的用户的身份标识发送给情感服务器。该情感服务器调用该身份标识对应的所有情感识别模型,即调用该用户的所有情感识别模型。然后基于该语音信号,通过调用的所有情感识别模型确定用户当前的情感状态信息,并发给数据管理服务器进行管理。即该监控系统可以对用户的情感状态进行监控,增加了监控系统的管理性能。
图5是根据一示例性实施例示出的一种监控装置的结构示意图,该监控装置可以配置于情感识别服务器中。该监控装置可以包括:
接收模块510,用于接收所述语音采集设备采集的语音信号和与所述语音采集设备具有关联关系的用户的身份标识;
调用模块520,用于基于所述身份标识调用所述用户的所有情感识别模型,每个情感识别模型与所述用户的一种情感状态对应;
确定模块530,用于基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息;
发送模块540,用于将确定的情感状态信息发送给所述数据管理服务器进行管理。
可选地,所述调用模块520用于:
基于所述身份标识,从存储的参考对应关系中确定对应的所有情感识别模型标识,所述参考对应关系用于存储多个用户中每个用户的身份标识与所述每个用户的所有情感识别模型标识之间的对应关系;
调用所确定的所有情感识别模型标识对应的情感识别模型。
可选地,所述确定模块530用于:
提取所述语音信号的声纹特征;
分别将所述声纹特征输入至调用的所有情感识别模型中的每个情感识别模型,由所述每个情感识别模型对所述声纹特征进行识别处理并输出情感相似度;
基于输出的所有情感相似度,确定最大情感相似度对应的情感识别模型;
将确定的情感识别模型对应的情感状态信息确定为所述用户当前的情感状态信息。
可选地,所述调用模块520还用于:
基于所述身份标识,调用所述用户对应的语音验证模型;
通过所述语音验证模型对所述语音信号进行语音验证;
当对所述语音信号验证通过时,基于所述身份标识调用所述用户的所有情感识别模型。
可选地,请参考图6,所述装置还包括:
存储模块550,用于将所述语音信号和所述情感状态信息保存为训练样本,所述训练样本用于对所述情感状态信息对应的情感识别模型继续训练。
可选地,所述发送模块540用于:
将所述语音信号和所述确定的情感状态信息发送给所述数据管理服务器进行管理。
在本申请实施例中,语音采集设备采集语音信号,并将该语音信号和与该语音采集设备具有关联关系的用户的身份标识发送给情感服务器。该情感服务器调用该身份标识对应的所有情感识别模型,即调用该用户的所有情感识别模型。然后基于该语音信号,通过调用的所有情感识别模型确定用户当前的情感状态信息,并发给数据管理服务器进行管理。即该监控系统可以对用户的情感状态进行监控,增加了监控系统的管理性能。
需要说明的是:上述实施例提供的监控装置在实现监控方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的监控装置与监控方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图7是本申请实施例提供的一种服务器700的结构示意图,该服务器700可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(central processingunits,CPU)701和一个或一个以上的存储器702,其中,所述存储器702中存储有至少一条指令,所述至少一条指令由所述处理器701加载并执行以实现上述各个方法实施例提供的监控方法。
当然,该服务器700还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器700还可以包括其他用于实现设备功能的部件,在此不做赘述。
本申请实施例还提供了一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行上述各个实施例提供的监控方法。
本申请实施例还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述各个实施例提供的监控方法。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (20)
1.一种监控系统,其特征在于,所述系统包括:语音采集设备、情感识别服务器和数据管理服务器,所述情感识别服务器分别与所述语音采集设备和所述数据管理服务器建立通信连接;
所述语音采集设备,用于采集语音信号,将所述语音信号和与所述语音采集设备具有关联关系的用户的身份标识发送给所述情感识别服务器;
所述情感识别服务器,用于基于所述身份标识调用所述用户的所有情感识别模型,每个情感识别模型与所述用户的一种情感状态对应;基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息;将确定的情感状态信息发送给所述数据管理服务器;
所述数据管理服务器,用于对所述情感状态信息进行管理。
2.如权利要求1所述的系统,其特征在于,所述情感识别服务器,用于基于所述身份标识调用所述用户的所有情感识别模型,包括:
所述情感识别服务器,用于基于所述身份标识,从存储的参考对应关系中确定对应的所有情感识别模型标识,所述参考对应关系用于存储多个用户中每个用户的身份标识与所述每个用户的所有情感识别模型标识之间的对应关系;调用所确定的所有情感识别模型标识对应的情感识别模型。
3.如权利要求1或2所述的系统,其特征在于,所述情感识别服务器,用于基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息,包括:
所述情感识别服务器,用于提取所述语音信号的声纹特征;分别将所述声纹特征输入至调用的所有情感识别模型中的每个情感识别模型,由所述每个情感识别模型对所述声纹特征进行识别处理并输出情感相似度;基于输出的所有情感相似度,确定最大情感相似度对应的情感识别模型;将确定的情感识别模型对应的情感状态信息确定为所述用户当前的情感状态信息。
4.如权利要求1所述的系统,其特征在于,所述情感识别服务器基于所述身份标识调用所述用户的所有情感识别模型之前,还用于:
基于所述身份标识,调用所述用户对应的语音验证模型;通过所述语音验证模型对所述语音信号进行语音验证;对应的,当对所述语音信号验证通过时,执行所述基于所述身份标识调用所述用户的所有情感识别模型的操作。
5.如权利要求1所述的系统,其特征在于,所述情感识别服务器基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息之后,还用于:
将所述语音信号和所述情感状态信息保存为训练样本,所述训练样本用于对所述情感状态信息对应的情感识别模型继续训练。
6.如权利要求1所述的系统,其特征在于,所述将确定的情感状态信息发送给所述数据管理服务器,包括:
将所述语音信号和所述确定的情感状态信息发送给所述数据管理服务器;
对应的,所述数据管理服务器,用于对所述情感状态信息进行管理,包括:
所述数据管理服务器,用于对所述语音信号和所述情感状态信息进行管理。
7.一种监控方法,其特征在于,所述方法应用于监控系统的情感识别服务器中,所述监控系统还包括语音采集设备和数据管理服务器,所述情感识别服务器分别与所述语音采集设备和所述数据管理服务器建立通信连接;
接收所述语音采集设备采集的语音信号和与所述语音采集设备具有关联关系的用户的身份标识;
基于所述身份标识调用所述用户的所有情感识别模型,每个情感识别模型与所述用户的一种情感状态对应;
基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息;
将确定的情感状态信息发送给所述数据管理服务器进行管理。
8.如权利要求7所述的方法,其特征在于,所述基于所述身份标识调用所述用户的所有情感识别模型,包括:
基于所述身份标识,从存储的参考对应关系中确定对应的所有情感识别模型标识,所述参考对应关系用于存储多个用户中每个用户的身份标识与所述每个用户的所有情感识别模型标识之间的对应关系;
调用所确定的所有情感识别模型标识对应的情感识别模型。
9.如权利要求7或8所述的方法,其特征在于,所述基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息,包括:
提取所述语音信号的声纹特征;
分别将所述声纹特征输入至调用的所有情感识别模型中的每个情感识别模型,由所述每个情感识别模型对所述声纹特征进行识别处理并输出情感相似度;
基于输出的所有情感相似度,确定最大情感相似度对应的情感识别模型;
将确定的情感识别模型对应的情感状态信息确定为所述用户当前的情感状态信息。
10.如权利要求7所述的方法,其特征在于,所述基于所述身份标识调用所述用户的所有情感识别模型之前,还包括:
基于所述身份标识,调用所述用户对应的语音验证模型;
通过所述语音验证模型对所述语音信号进行语音验证;
对应的,当对所述语音信号验证通过时,执行所述基于所述身份标识调用所述用户的所有情感识别模型的操作。
11.如权利要求7所述的方法,其特征在于,所述基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息之后,还包括:
将所述语音信号和所述情感状态信息保存为训练样本,所述训练样本用于对所述情感状态信息对应的情感识别模型继续训练。
12.如权利要求7所述的方法,其特征在于,所述将确定的情感状态信息发送给所述数据管理服务器,包括:
将所述语音信号和所述确定的情感状态信息发送给所述数据管理服务器进行管理。
13.一种监控装置,其特征在于,配置于监控系统的情感识别服务器中,所述监控系统还包括语音采集设备和数据管理服务器,所述情感识别服务器分别与所述语音采集设备和所述数据管理服务器建立通信连接;所述装置包括:
接收模块,用于接收所述语音采集设备采集的语音信号和与所述语音采集设备具有关联关系的用户的身份标识;
调用模块,用于基于所述身份标识调用所述用户的所有情感识别模型,每个情感识别模型与所述用户的一种情感状态对应;
确定模块,用于基于所述语音信号,通过调用的情感识别模型确定所述用户当前的情感状态信息;
发送模块,用于将确定的情感状态信息发送给所述数据管理服务器进行管理。
14.如权利要求13所述的装置,其特征在于,所述调用模块用于:
基于所述身份标识,从存储的参考对应关系中确定对应的所有情感识别模型标识,所述参考对应关系用于存储多个用户中每个用户的身份标识与所述每个用户的所有情感识别模型标识之间的对应关系;
调用所确定的所有情感识别模型标识对应的情感识别模型。
15.如权利要求13或14所述的装置,其特征在于,所述确定模块用于:
提取所述语音信号的声纹特征;
分别将所述声纹特征输入至调用的所有情感识别模型中的每个情感识别模型,由所述每个情感识别模型对所述声纹特征进行识别处理并输出情感相似度;
基于输出的所有情感相似度,确定最大情感相似度对应的情感识别模型;
将确定的情感识别模型对应的情感状态信息确定为所述用户当前的情感状态信息。
16.如权利要求13所述的装置,其特征在于,所述调用模块还用于:
基于所述身份标识,调用所述用户对应的语音验证模型;
通过所述语音验证模型对所述语音信号进行语音验证;
当对所述语音信号验证通过时,基于所述身份标识调用所述用户的所有情感识别模型。
17.如权利要求13所述的装置,其特征在于,所述装置还包括:
存储模块,用于将所述语音信号和所述情感状态信息保存为训练样本,所述训练样本用于对所述情感状态信息对应的情感识别模型继续训练。
18.如权利要求13所述的装置,其特征在于,所述发送模块用于:
将所述语音信号和所述确定的情感状态信息发送给所述数据管理服务器进行管理。
19.一种情感识别服务器,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为实现权利要求7-12所述的任一项方法的步骤。
20.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于,所述指令被处理器执行时实现权利要求7-12所述的任一项方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910219098.2A CN111739558B (zh) | 2019-03-21 | 2019-03-21 | 监控系统、方法、装置、服务器及存储介质 |
PCT/CN2020/080256 WO2020187300A1 (zh) | 2019-03-21 | 2020-03-19 | 监控系统、方法、装置、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910219098.2A CN111739558B (zh) | 2019-03-21 | 2019-03-21 | 监控系统、方法、装置、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111739558A true CN111739558A (zh) | 2020-10-02 |
CN111739558B CN111739558B (zh) | 2023-03-28 |
Family
ID=72519629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910219098.2A Active CN111739558B (zh) | 2019-03-21 | 2019-03-21 | 监控系统、方法、装置、服务器及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111739558B (zh) |
WO (1) | WO2020187300A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968679A (zh) * | 2020-10-22 | 2020-11-20 | 深圳追一科技有限公司 | 情感识别方法、装置、电子设备及存储介质 |
CN112767946A (zh) * | 2021-01-15 | 2021-05-07 | 北京嘀嘀无限科技发展有限公司 | 确定用户状态的方法、装置、设备、存储介质和程序产品 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113129904B (zh) * | 2021-03-30 | 2022-08-23 | 北京百度网讯科技有限公司 | 声纹判定方法、装置、系统、设备和存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104036776A (zh) * | 2014-05-22 | 2014-09-10 | 毛峡 | 一种应用于移动终端的语音情感识别方法 |
CN105895101A (zh) * | 2016-06-08 | 2016-08-24 | 国网上海市电力公司 | 用于电力智能辅助服务系统的语音处理设备及处理方法 |
CN106128475A (zh) * | 2016-07-12 | 2016-11-16 | 华南理工大学 | 基于异常情绪语音辨识的可穿戴智能安全设备及控制方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005283647A (ja) * | 2004-03-26 | 2005-10-13 | Matsushita Electric Ind Co Ltd | 感情認識装置 |
WO2008092473A1 (en) * | 2007-01-31 | 2008-08-07 | Telecom Italia S.P.A. | Customizable method and system for emotional recognition |
CN101930735B (zh) * | 2009-06-23 | 2012-11-21 | 富士通株式会社 | 语音情感识别设备和进行语音情感识别的方法 |
CN107452405B (zh) * | 2017-08-16 | 2021-04-09 | 北京易真学思教育科技有限公司 | 一种根据语音内容进行数据评价的方法及装置 |
CN107452385A (zh) * | 2017-08-16 | 2017-12-08 | 北京世纪好未来教育科技有限公司 | 一种基于语音的数据评价方法及装置 |
CN107705807B (zh) * | 2017-08-24 | 2019-08-27 | 平安科技(深圳)有限公司 | 基于情绪识别的语音质检方法、装置、设备及存储介质 |
-
2019
- 2019-03-21 CN CN201910219098.2A patent/CN111739558B/zh active Active
-
2020
- 2020-03-19 WO PCT/CN2020/080256 patent/WO2020187300A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104036776A (zh) * | 2014-05-22 | 2014-09-10 | 毛峡 | 一种应用于移动终端的语音情感识别方法 |
CN105895101A (zh) * | 2016-06-08 | 2016-08-24 | 国网上海市电力公司 | 用于电力智能辅助服务系统的语音处理设备及处理方法 |
CN106128475A (zh) * | 2016-07-12 | 2016-11-16 | 华南理工大学 | 基于异常情绪语音辨识的可穿戴智能安全设备及控制方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968679A (zh) * | 2020-10-22 | 2020-11-20 | 深圳追一科技有限公司 | 情感识别方法、装置、电子设备及存储介质 |
CN112767946A (zh) * | 2021-01-15 | 2021-05-07 | 北京嘀嘀无限科技发展有限公司 | 确定用户状态的方法、装置、设备、存储介质和程序产品 |
Also Published As
Publication number | Publication date |
---|---|
CN111739558B (zh) | 2023-03-28 |
WO2020187300A1 (zh) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109769099B (zh) | 通话人物异常的检测方法和装置 | |
CN111739558B (zh) | 监控系统、方法、装置、服务器及存储介质 | |
CN103650035B (zh) | 经由社交图谱、语音模型和用户情境识别接近移动装置用户的人 | |
WO2016115835A1 (zh) | 人体特征数据的处理方法及装置 | |
CN109766859B (zh) | 基于微表情的校园监控方法、装置、设备及存储介质 | |
PH12020551830A1 (en) | Computerized systems and methods for determining authenticity using micro expressions | |
CN111241883B (zh) | 防止远程被测人员作弊的方法和装置 | |
CN112037820B (zh) | 安防报警方法、装置、系统及设备 | |
CN107832720B (zh) | 基于人工智能的信息处理方法和装置 | |
CN109644192A (zh) | 具有语音检测周期持续时间补偿的音频传送 | |
CN112418121A (zh) | 基于智能认证及测温的智慧社区出入管理方法及系统 | |
CN108833721B (zh) | 一种基于通话的情绪分析方法及用户终端、系统 | |
CN110047518A (zh) | 一种语音情感分析系统 | |
US20190008466A1 (en) | Life log utilization system, life log utilization method, and recording medium | |
CN111311774A (zh) | 基于语音识别的签到方法及系统 | |
CN115050372A (zh) | 一种音频片段的聚类方法、装置、电子设备和介质 | |
CN111914673A (zh) | 目标行为的检测方法、装置及计算机可读存储介质 | |
CN108171185B (zh) | 身份识别的方法、装置及系统 | |
CN110782622A (zh) | 一种安全监控系统、安全检测方法、装置及电子设备 | |
US11380318B2 (en) | Evaluation system, evaluation method, and program | |
CN109509329B (zh) | 一种基于可穿戴设备的溺水报警方法及可穿戴设备 | |
TWI691923B (zh) | 金融交易詐騙偵測防範系統及其方法 | |
CN105354475A (zh) | 一种基于瞳孔识别的人机交互识别方法及系统 | |
CN112507972B (zh) | 基于区块链的绩效考核系统 | |
CN115206328A (zh) | 数据处理方法、装置和客服机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |