CN112116925A - 情绪识别方法、装置、终端设备、服务器及存储介质 - Google Patents

情绪识别方法、装置、终端设备、服务器及存储介质 Download PDF

Info

Publication number
CN112116925A
CN112116925A CN202010984475.4A CN202010984475A CN112116925A CN 112116925 A CN112116925 A CN 112116925A CN 202010984475 A CN202010984475 A CN 202010984475A CN 112116925 A CN112116925 A CN 112116925A
Authority
CN
China
Prior art keywords
information
voice
user
server
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202010984475.4A
Other languages
English (en)
Inventor
黄杰辉
李健
徐世超
梁志婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Minglue Artificial Intelligence Group Co Ltd
Original Assignee
Shanghai Minglue Artificial Intelligence Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Minglue Artificial Intelligence Group Co Ltd filed Critical Shanghai Minglue Artificial Intelligence Group Co Ltd
Priority to CN202010984475.4A priority Critical patent/CN112116925A/zh
Publication of CN112116925A publication Critical patent/CN112116925A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/72Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for transmitting results of analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请提供了一种情绪识别方法、装置、终端设备、服务器及存储介质,涉及智能工牌技术领域。该情绪识别方法,应用于终端设备,包括:采集持有所述终端设备的用户的语音信息;判断所述语音信息所指示的语音数值是否大于目标语音模型的语音参数的数值;若所述语音信息所指示的语音数值大于目标语音模型的语音参数的数值,则将所述语音信息发送给服务器;接收来自所述服务器的指示信息,所述指示信息用于指示所述用户的情绪。通过本申请所提供的方法,可以实时跟踪用户的语音信息,并对语音信息进行实时监测,避免了人为主观评估所引起的误判断,提高了员工情绪识别的及时性和准确度。

Description

情绪识别方法、装置、终端设备、服务器及存储介质
技术领域
本申请涉及智能工牌技术领域,具体而言,涉及一种情绪识别方法、装置、终端设备、服务器及存储介质。
背景技术
生活中,难免碰到让人心情不好的事情,处于工作状态的职业人士,就需要在工作中及时控制好自己的情绪,避免将个人情绪带到工作中来,特别是服务行业,更需如此。
目前,企业对于员工工作压力、工作状态的评估都是依靠管理人员通过员工的表情进行追溯。然而,即使有专门的管理人员来跟踪了解员工的工作压力,也无法做到每天对全体人员的情绪进行跟踪,并且,管理人员也可能存在情绪波动,因此,无法管理人员所评估出的工作人员情绪可能并不是该工作人员的实际情绪。
因此,现有技术对于员工情绪识别的及时性和准确度不高。
发明内容
有鉴于此,本申请实施例的目的在于提供一种情绪识别方法、装置、终端设备、服务器及存储介质,以解决现有技术中存在的对员工情绪识别的及时性和准确度不高的问题。
为实现上述目的,本申请实施例采用的技术方案如下:
第一方面,本申请实施例提供了一种情绪识别方法,应用于终端设备,包括:
采集持有所述终端设备的用户的语音信息;
判断所述语音信息所指示的语音数值是否大于目标语音模型的语音参数的数值,所述目标语音模型用于标识所述用户的声音特征,所述目标语音模型的语音参数基于所述用户在正常情绪下的实际声音信息得到;
若所述语音信息所指示的语音数值大于目标语音模型的语音参数的数值,则将所述语音信息发送给服务器;
接收来自所述服务器的指示信息,所述指示信息用于指示所述用户的情绪。
可选地,所述采集持有所述终端设备的用户的语音信息之前,还包括:
获取用户的身份信息;
向所述服务器发送模型获取请求,所述模型获取请求中包括所述身份信息;
接收来自所述服务器的所述目标语音模型。
可选地,所述获取用户的身份信息,包括:
接收用户输入的待验证信息,所述待验证信息包括如下至少一项:声纹信息、指纹信息、登录工号;
将所述待验证信息发送给所述服务器;
接收来自所述服务器的所述用户的身份信息。
可选地,所述指示信息包括:震动警示信号。
第二方面,本申请实施例提供了一种情绪识别方法,应用于服务器,包括:
接收终端设备发送的持有所述终端设备的用户的语音信息;
将所述语音信息进行语音转换,得到所述语音信息对应的识别文本数据;
将所述识别文本数据与目标用语模型中的文本信息进行比对,得到比对结果,所述目标用语模型用于标识针对所述用户的不规范用语;
根据所述比对结果,生成指示信息,所述指示信息用于指示所述用户的情绪;
向所述终端设备发送所述指示信息。
可选地,所述根据所述比对结果,生成指示信息,包括:
若所述识别文本数据与所述目标用语模型中的任一文本匹配,则生成第一指示信息,所述第一指示信息用于指示所述用户的情绪为不良情绪。
可选地,所述方法还包括:
接收所述用户的身份信息;
根据所述用户的身份信息,查找所述用户对应的目标语音模型;
向所述终端设备发送所述目标语音模型。
可选地,所述根据所述用户的身份信息,查找所述用户对应的目标语音模型之前,还包括:
获取所述用户在正常情绪下的实际声音信息;
根据所述用户在正常情绪下的实际声音信息,生成所述用户对应的目标语音模型,所述目标语音模型包括多个语音参数,所述语音参数包括:声速、声高、声量。
可选地,所述方法还包括:
接收所述终端设备发送的待验证信息,所述待验证信息中包括如下至少一项:声纹信息、指纹信息、登录工号;
根据所述待验证信息,确定所述用户的身份信息;
向所述终端设备发送所述用户的身份信息。
第三方面,本申请实施例提供了一种情绪识别装置,应用于终端设备,包括:采集单元、判断单元、发送单元以及接收单元;
所述采集单元,用于采集持有所述终端设备的用户的语音信息;
所述判断单元,用于判断所述语音信息所指示的语音数值是否大于目标语音模型的语音参数的数值,所述目标语音模型用于标识所述用户的声音特征,所述目标语音模型的语音参数基于所述用户在正常情绪下的实际声音信息得到;
所述发送单元,用于若所述语音信息所指示的语音数值大于目标语音模型的语音参数的数值,则将所述语音信息发送给服务器;
所述接收单元,用于接收来自所述服务器的指示信息,所述指示信息用于指示所述用户的情绪。
可选地,所述装置还包括:获取单元;
所述获取单元,用于获取用户的身份信息;
所述发送单元,用于向所述服务器发送模型获取请求,所述模型获取请求中包括所述身份信息;
所述接收单元,用于接收来自所述服务器的所述目标语音模型。
可选地,所述获取单元,用于接收用户输入的待验证信息,所述待验证信息包括如下至少一项:声纹信息、指纹信息、登录工号;
将所述待验证信息发送给所述服务器;
接收来自所述服务器的所述用户的身份信息。
可选地,所述指示信息包括:震动警示信号。
第四方面,本申请实施例提供了一种情绪识别装置,应用于服务器,包括:接收单元、转换单元、比对单元、生成单元、以及发送单元;
所述接收单元,用于接收终端设备发送的持有所述终端设备的用户的语音信息;
所述转换单元,用于将所述语音信息进行语音转换,得到所述语音信息对应的识别文本数据;
所述比对单元,用于将所述识别文本数据与目标用语模型中的文本信息进行比对,得到比对结果,所述目标用语模型用于标识针对所述用户的不规范用语;
所述生成单元,用于根据所述比对结果,生成指示信息,所述指示信息用于指示所述用户的情绪;
所述发送单元,用于向所述终端设备发送所述指示信息。
可选地,所述生成单元,用于若所述识别文本数据与所述目标用语模型中的任一文本匹配,则生成第一指示信息,所述第一指示信息用于指示所述用户的情绪为不良情绪。
可选地,所述装置还包括:查找单元;
所述接收单元,用于接收所述用户的身份信息;
所述查找单元,用于根据所述用户的身份信息,查找所述用户对应的目标语音模型;
所述发送单元,用于向所述终端设备发送所述目标语音模型。
可选地,所述装置还包括:获取单元;
所述获取单元,用于获取所述用户在正常情绪下的实际声音信息;
所述生成单元,用于根据所述用户在正常情绪下的实际声音信息,生成所述用户对应的目标语音模型,所述目标语音模型包括多个语音参数,所述语音参数包括:声速、声高、声量。
可选地,所述装置还包括:确定单元;
所述接收单元,用于接收所述终端设备发送的待验证信息,所述待验证信息中包括如下至少一项:声纹信息、指纹信息、登录工号;
所述确定单元,用于根据所述待验证信息,确定所述用户的身份信息;
所述发送单元,用于向所述终端设备发送所述用户的身份信息。
第五方面,本申请实施例提供了一种终端设备,包括:存储器和处理器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的方法。
第六方面,本申请实施例提供了一种服务器,包括:存储器和处理器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述第二方面所述的方法。
第七方面,本申请实施例提供了存储介质,所述存储介质上存储有计算机程序,所述计算机程序被读取并执行时,实现上述第一方面以及第二方面任一项的方法。
本申请提供了一种情绪识别方法、装置、终端设备、服务器及存储介质。其中,该情绪识别方法,应用于终端设备,包括:采集持有所述终端设备的用户的语音信息;判断所述语音信息所指示的语音数值是否大于目标语音模型的语音参数的数值,所述目标语音模型用于标识所述用户的声音特征,所述目标语音模型的语音参数基于所述用户在正常情绪下的实际声音信息得到;若所述语音信息所指示的语音数值大于目标语音模型的语音参数的数值,则将所述语音信息发送给服务器;接收来自所述服务器的指示信息,所述指示信息用于指示所述用户的情绪。本方案中,通过终端设备可实时采集用户的语音信息,且当用户的语音信息所指示的语音数值大于语音参数的数值时,则将语音信息发送到服务器并接收来自服务器的指示信息,基于本申请所提供的方法,可以实时跟踪用户的语音信息,并对语音信息进行实时监测,避免了人为主观评估所引起的误判断,提高了员工情绪识别的及时性和准确度。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请一实施例提供的一种情绪识别系统的框图;
图2为本申请一实施例提供的可以实现本申请思想的电子设备的示例性硬件和软件组件的示意图;
图3为本申请一实施例提供的情绪识别方法的流程示意图;
图4为本申请另一实施例提供的情绪识别方法的流程示意图;
图5为本申请另一实施例提供的情绪识别方法的流程示意图;
图6为本申请一实施例提供的情绪识别方法的流程示意图;
图7为本申请另一实施例提供的情绪识别方法的流程示意图;
图8为本申请另一实施例提供的情绪识别方法的流程示意图;
图9为本申请另一实施例提供的情绪识别方法的流程示意图;
图10为本申请一实施例提供的一种情绪识别装置的示意图;
图11为本申请另一实施例提供的一种情绪识别装置的示意图;
图12为本申请一实施例提供的一种情绪识别装置的示意图;
图13为本申请另一实施例提供的一种情绪识别装置的示意图;
图14为本申请另一实施例提供的一种情绪识别装置的示意图;
图15为本申请另一实施例提供的一种情绪识别装置的示意图;
图16为本申请一实施例提供的一种终端设备的结构示意图;
图17为本申请一实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例中将会用到术语“包括”,用于指出其后所声明的特征的存在,但并不排除增加其它的特征。
现有的情绪识别方法,特别是服务行业员工的情绪识别,主要依靠管理人员通过员工的表情进行追溯。然而,即使有专门的管理人员来跟踪了解员工的工作压力,也无法做到每天对全体人员的情绪进行跟踪,并且,管理人员也可能存在情绪波动,因此,无法管理人员所评估出的工作人员情绪可能并不是该工作人员的实际情绪。比如:当企业员工人数较多时,管理人员并无法关注到每个员工的情绪变化,因而可能存在对员工情绪评估的及时性较低;又比如,当管理人员的情绪不佳时,可能无法客观评估其他员工的真实情绪,因而可能存在对员工情绪评估的准确性较低。
为了解决上述现有技术中存在的技术问题,本发明实施例提供一种发明构思:通过终端设备实时采集用户的语音信息,且当用户的语音信息所指示的语音数值大于语音参数的数值时,则将语音信息发送到服务器并接收来自服务器的指示信息,该指示信息用于表征用户的情绪状态。基于本申请所提供的方法,可以实时跟踪用户的语音信息,并对语音信息进行实时监测,避免了人为主观评估所引起的误判断,提高了员工情绪识别的及时性和准确度。
下面通过可能的实现方式对本申请所提供的具体技术方案进行说明。
图1为本申请实施例提供的一种情绪识别系统的框图。例如,情绪识别系统100可以是应用于员工佩戴的个人工牌、一些患有精神性疾病的患者所佩戴的诊断卡片等一些需要检测人员情绪变化的系统中。情绪识别系统100可以包括服务器110、网络120、终端设备140和数据库150中的一种或多种,服务器110中可以包括执行指令操作的处理器。
在一些实施例中,服务器110可以是单个服务器,也可以是服务器组。服务器组可以是集中式的,也可以是分布式的(例如,服务器110可以是分布式系统)。在一些实施例中,服务器110相对于终端设备,可以是本地的、也可以是远程的。例如,服务器110可以经由网络120访问存储在终端设备140、或数据库150、或其任意组合中的信息和/或数据。作为另一示例,服务器110可以直接连接到终端设备140和数据库150中至少一个,以访问存储的信息和/或数据。在一些实施例中,服务器110可以在云平台上实现;仅作为示例,云平台可以包括私有云、公有云、混合云、社区云(community cloud)、分布式云、跨云(inter-cloud)、多云(multi-cloud)等,或者它们的任意组合。在一些实施例中,服务器110可以在具有本申请中图2所示的一个或多个组件的电子设备200上实现。
在一些实施例中,服务器110可以包括处理器。处理器可以处理与服务请求有关的信息和/或数据,以执行本申请中描述的一个或多个功能。例如,处理器可以基于从终端设备140获得的用户语音信息确定用户实时的情绪状态。在一些实施例中,处理器可以包括一个或多个处理核(例如,单核处理器(S)或多核处理器(S))。仅作为举例,处理器可以包括中央处理单元(Central Processing Unit,CPU)、专用集成电路(Application SpecificIntegrated Circuit,ASIC)、专用指令集处理器(Application Specific Instruction-set Processor,ASIP)、图形处理单元(Graphics Processing Unit,GPU)、物理处理单元(Physics Processing Unit,PPU)、数字信号处理器(Digital Signal Processor,DSP)、现场可编程门阵列(Field Programmable Gate Array,FPGA)、可编程逻辑器件(Programmable Logic Device,PLD)、控制器、微控制器单元、简化指令集计算机(ReducedInstruction Set Computing,RISC)、或微处理器等,或其任意组合。
网络120可以用于信息和/或数据的交换。在一些实施例中,情绪识别系统100中的一个或多个组件(例如,服务器110,终端设备140和数据库150)可以向其他组件发送信息和/或数据。例如,服务器110可以经由网络120从终端设备140获取用户语音信息。在一些实施例中,网络120可以是任何类型的有线或者无线网络,或者是他们的结合。仅作为示例,网络120可以包括有线网络、无线网络、光纤网络、远程通信网络、内联网、因特网、局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)、无线局域网(WirelessLocal Area Networks,WLAN)、城域网(Metropolitan Area Network,MAN)、广域网(WideArea Network,WAN)、公共电话交换网(Public Switched Telephone Network,PSTN)、蓝牙网络、ZigBee网络、或近场通信(Near Field Communication,NFC)网络等,或其任意组合。在一些实施例中,网络120可以包括一个或多个网络接入点。例如,网络120可以包括有线或无线网络接入点,例如基站和/或网络交换节点,情绪识别系统100的一个或多个组件可以通过该接入点连接到网络120以交换数据和/或信息。
在一些实施例中,终端设备140可以包括智能移动设备、智能工牌、智能头戴式麦克风等,或其任意组合。
数据库150可以存储数据和/或指令。在一些实施例中,数据库150可以存储从终端设备140获得的数据。在一些实施例中,数据库150可以存储在本申请中描述的示例性方法的数据和/或指令。在一些实施例中,数据库150可以包括大容量存储器、可移动存储器、易失性读写存储器、或只读存储器(Read-Only Memory,ROM)等,或其任意组合。作为举例,大容量存储器可以包括磁盘、光盘、固态驱动器等;可移动存储器可包括闪存驱动器、软盘、光盘、存储卡、zip磁盘、磁带等;易失性读写存储器可以包括随机存取存储器(Random AccessMemory,RAM);RAM可以包括动态RAM(Dynamic Random Access Memory,DRAM),双倍数据速率同步动态RAM(Double Date-Rate Synchronous RAM,DDR SDRAM);静态RAM(StaticRandom-Access Memory,SRAM),晶闸管RAM(Thyristor-Based Random Access Memory,T-RAM)和零电容器RAM(Zero-RAM)等。作为举例,ROM可以包括掩模ROM(Mask Read-OnlyMemory,MROM)、可编程ROM(Programmable Read-Only Memory,PROM)、可擦除可编程ROM(Programmable Erasable Read-only Memory,PEROM)、电可擦除可编程ROM(ElectricallyErasable Programmable read only memory,EEPROM)、光盘ROM(CD-ROM)、以及数字通用磁盘ROM等。在一些实施例中,数据库150可以在云平台上实现。仅作为示例,云平台可以包括私有云、公有云、混合云、社区云、分布式云、跨云、多云或者其它类似的等,或其任意组合。
在一些实施例中,数据库150可以连接到网络120以与情绪识别系统100(例如,服务器110,终端设备140等)中的一个或多个组件通信。情绪识别系统100中的一个或多个组件可以经由网络120访问存储在数据库150中的数据或指令。在一些实施例中,数据库150可以直接连接到情绪识别系统100中的一个或多个组件(例如,服务器110,终端设备140等);或者,在一些实施例中,数据库150也可以是服务器110的一部分。
图2为本申请实施例提供的可以实现本申请思想的终端设备的示例性硬件和软件组件的示意图。例如,处理器220可以用于电子设备200上,并且用于执行本申请中的功能。
电子设备200可以是通用计算机或特殊用途的计算机,两者都可以用于实现本申请的情绪识别方法。本申请尽管仅示出了一个计算机,但是为了方便起见,可以在多个类似平台上以分布式方式实现本申请描述的功能,以均衡处理负载。
例如,电子设备200可以包括连接到网络的网络端口210、用于执行程序指令的一个或多个处理器220、通信总线230、和不同形式的存储介质240,例如,磁盘、ROM、或RAM,或其任意组合。示例性地,计算机平台还可以包括存储在ROM、RAM、或其他类型的非暂时性存储介质、或其任意组合中的程序指令。根据这些程序指令可以实现本申请的方法。电子设备200还包括计算机与其他输入输出设备(例如键盘、显示屏)之间的输入/输出(Input/Output,I/O)接口250。
为了便于说明,在电子设备200中仅描述了一个处理器。然而,应当注意,本申请中的电子设备200还可以包括多个处理器,因此本申请中描述的一个处理器执行的步骤也可以由多个处理器联合执行或单独执行。例如,若电子设备200的处理器执行步骤A和步骤B,则应该理解,步骤A和步骤B也可以由两个不同的处理器共同执行或者在一个处理器中单独执行。
如下将通过多个具体的实施例对本申请所提供的情绪识别方法的实现原理以及对应产生的有益效果进行说明。
图3为本申请实施例提供的情绪识别方法的流程示意图,该方法的执行主体可以是上述的终端设备。如图3所示,该方法可包括:
S301、采集持有终端设备的用户的语音信息。
可选地,本申请实施例所提供的方法可以应用于识别服务行业员工的情绪状态、可以应用于识别患有精神性疾病的患者的情绪状态,也可以应用于识别教育行业工作者的情绪状态。
示例性地,当应用于识别服务行业(例如:餐饮、银行、导游、快递、销售等)员工的情绪状态时,可以通过终端设备,如:智能工牌、智能头戴式麦克风、智能手机等终端设备实时采集员工在工作状态时的语音信息。
当然,上述仅示例性的列举了几种应用场景,实际应用中,并不限于上述的应用场景。在后续实施例中,为了便于描述以用户主要为服务业人员为例进行说明。
S302、判断语音信息所指示的语音数值是否大于目标语音模型的语音参数的数值。
可选地,目标语音模型用于标识服务人员的声音特征,目标语音模型的语音参数基于服务人员在正常情绪下的实际声音信息得到。
需要说明的是,在本申请实施例中,目标语音模型的语音参数可以包括:服务人员在正常情绪下的声速、声高、声量等参数信息。基于每个服务人员的声音特点以及习惯可能存在不同,针对每个服务人员设置的语音参数的数值可能也存在差异。
示例性地,语言习惯为快语速的服务人员,其正常情绪下的声速也必然大于语言习惯为慢语速或者正常语速的服务人员在正常情绪下的声速。基于此,设定快语速的服务人员的目标语音模型中的声速值高于慢语速或者正常语速的服务人员的目标语音模型中的声速值。
当获取到服务人员的语音信息后,提取语音信息中的语音数值,判断该数值是否大于该服务人员对应的目标语音模型中预先设定的语音参数的数值。
本实施例中,对于不同的服务人员设定其对应的目标语音模型,并利用目标语音模型针对性的监测不同员工的语音数值,是否处于正常情绪下下,避免了人为主观判断的误差,提高了对于服务人员情绪识别的精准度。
S303、若语音信息所指示的语音数值大于目标语音模型的语音参数的数值,则将语音信息发送给服务器。
在一些可能的实现方式中,为了避免服务人员只是由于距离原因将声量调大,并不存在情绪不佳的状况,还需要对获取的服务人员的语音信息进行进一步处理,判断语音信息中是否不存在不礼貌用语。
具体地,当监测到服务人员的语音信息所指示的语音数值大于目标语音模型的语音参数的数值时,则将当前获取的语音信息发送到服务器,利用服务器对语音信息做进一步检测判断。
S304、接收来自服务器的指示信息,指示信息用于指示用户的情绪。
在一些实现方式中,当利用服务器对服务人员的语音信息进行处理判断后,并未发现语音信息中存在不礼貌的用语,则表明此时服务人员的情绪状态处于正常状态。此时,接收来自服务器的指示信息,例如:可以是鼓励性语音,例如“给您点个赞!”、“再接再厉!”等。
在另一些实现方式中,当利用服务器对服务人员的语音信息进行处理判断后,发现语音信息中存在不礼貌的用语,则表明此时服务人员的情绪处于非正常状态。此时,接收来自服务器的指示信息,例如:可以是警示语音,例如“请您调整情绪!”,也可以是终端设备的震动警示信号。此外,指示信息还会以例如:语音或者文字的形式发送到管理者终端上,管理者可以及时了解员工的情绪异常,并对情绪不佳的员工及时进行心理辅导。
综上,本申请实施例提供了一种情绪识别方法,应用于终端设备,包括:采集持有所述终端设备的用户的语音信息;判断所述语音信息所指示的语音数值是否大于目标语音模型的语音参数的数值,所述目标语音模型用于标识所述用户的声音特征,所述目标语音模型的语音参数基于所述用户在正常情绪下的实际声音信息得到;若所述语音信息所指示的语音数值大于目标语音模型的语音参数的数值,则将所述语音信息发送给服务器;接收来自所述服务器的指示信息,所述指示信息用于指示所述用户的情绪。通过终端设备可实时采集用户的语音信息,且当用户的语音信息所指示的语音数值大于语音参数的数值时,则将语音信息发送到服务器并接收来自服务器的指示信息,基于本申请实施例所提供的方法,可以实时跟踪用户的语音信息,并对语音信息进行实时监测,避免了人为主观评估所引起的误判断,提高了员工情绪识别的及时性和准确度。
图4为本申请另一实施例提供的情绪识别方法的流程示意图,如图4所示,步骤S301之前还包括:
S401、获取用户的身份信息。
S402、向服务器发送模型获取请求,模型获取请求中包括身份信息。
S403、接收来自服务器的目标语音模型。
可选地,为了使终端设备获取到服务器上预存的每个不同服务人员对应的目标语音模型,在终端设备投入使用之前,需要将服务人员身份信息与智能终端进行绑定。
可选地,可通过终端设备获取服务人员的身份信息,并向服务器发送模型获取请求,该请求中携带有服务人员的身份信息,利用服务器对服务人员的身份信息做相关处理后,终端设备会接收到来自服务器发送的与该服务人员身份信息匹配的目标语音模型。
图5为本申请另一实施例提供的情绪识别方法的流程示意图,如图5所示,步骤S401,具体可以包括:
S501、接收用户输入的待验证信息。
在本申请实施例中,需要利用服务人员输入的验证信息获取服务器中预存的验证信息对应的身份信息。可选地,待验证信息可以包括服务人员的声纹信息、指纹信息、以及工号信息。需要说明的是,登录工号可以是一串字符串,相当于服务人员的身份标识号码(Identity document,简称ID)。
上述列举的待验证信息的类型只是示例性地,具体的待验证信息并不限于此。
S502、将待验证信息发送给服务器。
S503、接收来自服务器的用户的身份信息。
终端设备接收到服务人员输入的待验证信息之后,可通过网络将待验证信息发送到服务器,利用服务器在预存在数据中查找待验证信息对应的服务人员的身份信息,当匹配到待验证信息对应的服务人员的身份信息后,终端设备可接收到来自服务器的用户的身份信息。
可选地,指示信息包括:震动警示信号。
当利用服务器判断出服务人员的语音信息中存在不礼貌用语时,终端设备会接收到来自服务器的震动警示信号。该震动警示信号可使服务人员佩戴的终端设备以震动的方式提醒服务人员注意情绪异常。
此外,指示信息的类型还可以是语音提醒类、文字提醒类,即只要能够达到警示的效果均在本实施例的保护范围之内。
在一些实现方式中,终端设备接收服务器发送的用户的身份信息的同时,还可以同时接收该身份信息对应的目标语音模型,不需要再发起模型获取请求。
图6为本申请一实施例提供的情绪识别方法的流程示意图,应用于服务器,如图6所示,包括:
S601、接收终端设备发送的持有终端设备的用户的语音信息。
S602、将语音信息进行语音转换,得到语音信息对应的识别文本数据。
可选地,服务器接收到终端设备发送的用户语音信息之后,可将语音信息进行语音转换处理,得到语音信息对应的识别文本数据。
S603、将识别文本数据与目标用语模型中的文本信息进行比对,得到比对结果。
可选地,目标用语模型用于标识针对服务人员的不规范用语,示例性地,当服务人员为银行工作人员时,其目标用语模型中的文本信息可以是“怎么还没填好?”、“这都不会填!”、“笨蛋”、“说了几遍了还不会?”等。目标用语模型中的文本信息可以根据服务人员的语言习惯以及不同的地域进行具体设定,本实施例对此不做限定。
S604、根据比对结果,生成指示信息。
S605、向终端设备发送指示信息。
可选地,将识别文本数据与目标用语模型中的文本信息比对之后,可以根据比对结果生成指示信息,具体地,指示信息用于指示用户的情绪。
可选地,当比对结果为服务人员情绪正常,则生成的指示信息可以是,指示终端设备不做任何警示处理。当比对结果为服务人员情绪异常,则生成的指示信息可以是,指示终端设备发出震动提醒的震动信号。
综上,本申请实施例提供了一种情绪识别方法,应用于服务器,包括:接收终端设备发送的持有所述终端设备的用户的语音信息;将所述语音信息进行语音转换,得到所述语音信息对应的识别文本数据;将所述识别文本数据与目标用语模型中的文本信息进行比对,得到比对结果,所述目标用语模型用于标识针对所述用户的不规范用语;根据所述比对结果,生成指示信息,所述指示信息用于指示所述用户的情绪;向所述终端设备发送所述指示信息。通过该方法可以实时跟踪用户的语音信息,并对语音信息进行实时监测,避免了人为主观评估所引起的误判断,提高了员工情绪识别的及时性和准确度。
可选地,根据比对结果,生成指示信息,包括:若识别文本数据与目标用语模型中的任一文本匹配,则生成第一指示信息,第一指示信息用于指示用户的情绪为不良情绪。
在一些实现方式中,当识别文本数据与目标用语模型中的任一文本匹配时,则表明服务人员的情绪为不良情绪,生成第一指示信息。
在另一些实现方式中,当识别文本数据与目标用语模型中的任一文本均不匹配时,则表明服务人员的情绪为正常情绪,可生成第二指示信息。
图7为本申请另一实施例提供的情绪识别方法的流程示意图,如图7所示,该方法还包括:
S701、接收用户的身份信息。
S702、根据用户的身份信息,查找用户对应的目标语音模型。
S703、向终端设备发送目标语音模型。
服务器接收到服务人员的身份信息之后,可与数据库中预存的身份信息进行比对,并将与该身份信息匹配的目标语音模型发送到终端设备。
在本申请实施例中,通过将目标语音模型发送到终端设备,可以利用终端设备对获取的语音信息进行初步判断,该过程并不需要与服务器进行交互,一定程度上减轻了服务器的数据处理压力。
图8为本申请另一实施例提供的情绪识别方法的流程示意图,如图8所示,步骤S702之前,还包括:
S801、获取用户在正常情绪下的实际声音信息。
S802、根据用户在正常情绪下的实际声音信息,生成用户对应的目标语音模型。
在本申请实施例中,可通过获取服务人员培训期间的声音信息,得到服务人员在正常情绪下的声音信息,并利用该服务人员正常情绪下的声音信息,生成与该服务人员匹配的目标语音模型。其中,目标语音模型包括多个语音参数,语音参数可包括:声速、声高、声量等。
图9为本申请另一实施例提供的情绪识别方法的流程示意图,如图9所示,该方法还包括:
S901、接收终端设备发送的待验证信息。
需要说明的是,在本申请实施例中,待验证信息中包括如下至少一项:声纹信息、指纹信息、登录工号。
S902、根据待验证信息,确定用户的身份信息。
S903、向终端设备发送用户的身份信息。
服务器获取到终端设备发送的待验证信息之后,可将待验证信息与预存于数据中的验证信息进行比对,当待验证信息与数据库中预存的验证信息匹配时,则确定该预存的验证信息对应的身份信息为该服务人员的身份信息。得到服务人员的身份信息后,服务器可将该身份信息发送到终端设备。
图10为本申请实施例提供的一种情绪识别装置的示意图,应用于终端设备,如图10所示,该装置可包括:采集单元1001、判断单元1002、发送单元1003以及接收单元1004;
采集单元1001,用于采集持有终端设备的用户的语音信息;
判断单元1002,用于判断语音信息所指示的语音数值是否大于目标语音模型的语音参数的数值,目标语音模型用于标识用户的声音特征,目标语音模型的语音参数基于用户在正常情绪下的实际声音信息得到;
发送单元1003,用于若语音信息所指示的语音数值大于目标语音模型的语音参数的数值,则将语音信息发送给服务器;
接收单元1004,用于接收来自服务器的指示信息,指示信息用于指示用户的情绪。
图11为本申请另一实施例提供的一种情绪识别装置的示意图,如图11所示,该装置还包括:获取单元1005;
获取单元1005,用于获取用户的身份信息;
发送单元1003,用于向服务器发送模型获取请求,模型获取请求中包括身份信息;
接收单元1004,用于接收来自服务器的目标语音模型。
可选地,获取单元1005,用于接收用户输入的待验证信息,待验证信息包括如下至少一项:声纹信息、指纹信息、登录工号;将待验证信息发送给服务器;接收来自服务器的用户的身份信息。
可选地,指示信息包括:震动警示信号。
图12为本申请一实施例提供的一种情绪识别装置的示意图,应用于服务器,如图12所示,包括:接收单元1101、转换单元1102、比对单元1103、生成单元1104、以及发送单元1105;
接收单元1101,用于接收终端设备发送的持有终端设备的用户的语音信息;
转换单元1102,用于将语音信息进行语音转换,得到语音信息对应的识别文本数据;
比对单元1103,用于将识别文本数据与目标用语模型中的文本信息进行比对,得到比对结果,目标用语模型用于标识针对用户的不规范用语;
生成单元1104,用于根据比对结果,生成指示信息,指示信息用于指示用户的情绪;
发送单元1105,用于向终端设备发送指示信息。
可选地,生成单元1104,用于若识别文本数据与目标用语模型中的任一文本匹配,则生成第一指示信息,第一指示信息用于指示用户的情绪为不良情绪。
图13为本申请另一实施例提供的一种情绪识别装置的示意图,如图13所示,该装置还包括:查找单元1106;
接收单元1101,用于接收用户的身份信息;
查找单元1106,用于根据用户的身份信息,查找用户对应的目标语音模型;
发送单元1105,用于向终端设备发送目标语音模型。
图14为本申请另一实施例提供的一种情绪识别装置的示意图,如图14所示,该装置还包括:获取单元1107;
获取单元1107,用于获取用户在正常情绪下的实际声音信息;
生成单元1104,用于根据用户在正常情绪下的实际声音信息,生成用户对应的目标语音模型,目标语音模型包括多个语音参数,语音参数包括:声速、声高、声量。
图15为本申请一实施例提供的一种情绪识别装置的示意图,如图15所示,该装置还包括:确定单元1108;
接收单元1101,用于接收终端设备发送的待验证信息,待验证信息中包括如下至少一项:声纹信息、指纹信息、登录工号;
确定单元1108,用于根据待验证信息,确定用户的身份信息;
发送单元1105,用于向终端设备发送用户的身份信息。
图16为本申请实施例提供的一种终端设备的结构示意图,如图16所示,该设备可包括:处理器801和存储器802,所述存储器802存储有所述处理器801可执行的计算机程序,所述处理器801执行所述计算机程序时实现上述方法实施例。
图17为本申请实施例提供的一种服务器的结构示意图,如图17所示,该设备可包括:处理器901和存储器902,所述存储器902存储有所述处理器901可执行的计算机程序,所述处理器901执行所述计算机程序时实现上述方法实施例。
可选地,本申请还提供一种存储介质,该存储介质上存储有计算机程序,当计算机程序被读取并执行时,用于执行上述方法实施例。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (14)

1.一种情绪识别方法,其特征在于,应用于终端设备,包括:
采集持有所述终端设备的用户的语音信息;
判断所述语音信息所指示的语音数值是否大于目标语音模型的语音参数的数值,所述目标语音模型用于标识所述用户的声音特征,所述目标语音模型的语音参数基于所述用户在正常情绪下的实际声音信息得到;
若所述语音信息所指示的语音数值大于目标语音模型的语音参数的数值,则将所述语音信息发送给服务器;
接收来自所述服务器的指示信息,所述指示信息用于指示所述用户的情绪。
2.根据权利要求1所述的方法,其特征在于,所述采集持有所述终端设备的用户的语音信息之前,还包括:
获取用户的身份信息;
向所述服务器发送模型获取请求,所述模型获取请求中包括所述身份信息;
接收来自所述服务器的所述目标语音模型。
3.根据权利要求2所述的方法,其特征在于,所述获取用户的身份信息,包括:
接收用户输入的待验证信息,所述待验证信息包括如下至少一项:声纹信息、指纹信息、登录工号;
将所述待验证信息发送给所述服务器;
接收来自所述服务器的所述用户的身份信息。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述指示信息包括:震动警示信号。
5.一种情绪识别方法,其特征在于,应用于服务器,包括:
接收终端设备发送的持有所述终端设备的用户的语音信息;
将所述语音信息进行语音转换,得到所述语音信息对应的识别文本数据;
将所述识别文本数据与目标用语模型中的文本信息进行比对,得到比对结果,所述目标用语模型用于标识针对所述用户的不规范用语;
根据所述比对结果,生成指示信息,所述指示信息用于指示所述用户的情绪;
向所述终端设备发送所述指示信息。
6.根据权利要求5所述的方法,其特征在于,所述根据所述比对结果,生成指示信息,包括:
若所述识别文本数据与所述目标用语模型中的任一文本匹配,则生成第一指示信息,所述第一指示信息用于指示所述用户的情绪为不良情绪。
7.根据权利要求5或6所述的方法,其特征在于,还包括:
接收所述用户的身份信息;
根据所述用户的身份信息,查找所述用户对应的目标语音模型;
向所述终端设备发送所述目标语音模型。
8.根据权利要求7所述的方法,其特征在于,所述根据所述用户的身份信息,查找所述用户对应的目标语音模型之前,还包括:
获取所述用户在正常情绪下的实际声音信息;
根据所述用户在正常情绪下的实际声音信息,生成所述用户对应的目标语音模型,所述目标语音模型包括多个语音参数,所述语音参数包括:声速、声高、声量。
9.根据权利要求5或6所述的方法,其特征在于,还包括:
接收所述终端设备发送的待验证信息,所述待验证信息中包括如下至少一项:声纹信息、指纹信息、登录工号;
根据所述待验证信息,确定所述用户的身份信息;
向所述终端设备发送所述用户的身份信息。
10.一种情绪识别装置,其特征在于,应用于终端设备,包括:采集单元、判断单元、发送单元以及接收单元;
所述采集单元,用于采集持有所述终端设备的用户的语音信息;
所述判断单元,用于判断所述语音信息所指示的语音数值是否大于目标语音模型的语音参数的数值,所述目标语音模型用于标识所述用户的声音特征,所述目标语音模型的语音参数基于所述用户在正常情绪下的实际声音信息得到;
所述发送单元,用于若所述语音信息所指示的语音数值大于目标语音模型的语音参数的数值,则将所述语音信息发送给服务器;
所述接收单元,用于接收来自所述服务器的指示信息,所述指示信息用于指示所述用户的情绪。
11.一种情绪识别装置,其特征在于,应用于服务器,包括:接收单元、转换单元、比对单元、生成单元、以及发送单元;
所述接收单元,用于接收终端设备发送的持有所述终端设备的用户的语音信息;
所述转换单元,用于将所述语音信息进行语音转换,得到所述语音信息对应的识别文本数据;
所述比对单元,用于将所述识别文本数据与目标用语模型中的文本信息进行比对,得到比对结果,所述目标用语模型用于标识针对所述用户的不规范用语;
所述生成单元,用于根据所述比对结果,生成指示信息,所述指示信息用于指示所述用户的情绪;
所述发送单元,用于向所述终端设备发送所述指示信息。
12.一种终端设备,其特征在于,包括:存储器和处理器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求1-4任一项所述的方法。
13.一种服务器,其特征在于,包括:存储器和处理器,所述存储器存储有所述处理器可执行的计算机程序,所述处理器执行所述计算机程序时实现上述权利要求5-9任一项所述的方法。
14.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被读取并执行时,实现上述权利要求1-9任一项所述的方法。
CN202010984475.4A 2020-09-17 2020-09-17 情绪识别方法、装置、终端设备、服务器及存储介质 Withdrawn CN112116925A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010984475.4A CN112116925A (zh) 2020-09-17 2020-09-17 情绪识别方法、装置、终端设备、服务器及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010984475.4A CN112116925A (zh) 2020-09-17 2020-09-17 情绪识别方法、装置、终端设备、服务器及存储介质

Publications (1)

Publication Number Publication Date
CN112116925A true CN112116925A (zh) 2020-12-22

Family

ID=73801242

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010984475.4A Withdrawn CN112116925A (zh) 2020-09-17 2020-09-17 情绪识别方法、装置、终端设备、服务器及存储介质

Country Status (1)

Country Link
CN (1) CN112116925A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112860213A (zh) * 2021-03-09 2021-05-28 腾讯科技(深圳)有限公司 音频的处理方法、存储介质及电子设备
CN115204127A (zh) * 2022-09-19 2022-10-18 深圳市北科瑞声科技股份有限公司 基于远程流调的表单填写方法、装置、设备及介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112860213A (zh) * 2021-03-09 2021-05-28 腾讯科技(深圳)有限公司 音频的处理方法、存储介质及电子设备
CN112860213B (zh) * 2021-03-09 2023-08-25 腾讯科技(深圳)有限公司 音频的处理方法和装置、存储介质及电子设备
CN115204127A (zh) * 2022-09-19 2022-10-18 深圳市北科瑞声科技股份有限公司 基于远程流调的表单填写方法、装置、设备及介质
CN115204127B (zh) * 2022-09-19 2023-01-06 深圳市北科瑞声科技股份有限公司 基于远程流调的表单填写方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN107818798B (zh) 客服服务质量评价方法、装置、设备及存储介质
JP6857581B2 (ja) 成長型対話装置
CN105261362B (zh) 一种通话语音监测方法及系统
JP6502512B2 (ja) 動的パスワード音声に基づいた自己学習機能を有する身分認証システム及び方法
CN109767787B (zh) 情绪识别方法、设备及可读存储介质
CN108962282A (zh) 语音检测分析方法、装置、计算机设备及存储介质
CN111883140B (zh) 基于知识图谱和声纹识别的认证方法、装置、设备及介质
US9538005B1 (en) Automated response system
JP2018010501A (ja) 面接システム
KR20200048201A (ko) 전자 장치 및 이의 제어 방법
KR101615848B1 (ko) 유사상황 검색을 통한 대화 스티커 추천방법 및 컴퓨터 프로그램
CN112116925A (zh) 情绪识别方法、装置、终端设备、服务器及存储介质
CN103635962A (zh) 声音识别系统、识别字典登记系统以及声学模型标识符序列生成装置
CN110147936A (zh) 基于情绪识别的服务评价方法、装置、存储介质
CN109599127A (zh) 信息处理方法、信息处理装置以及信息处理程序
EP4371027A1 (en) Intelligent task completion detection at a computing device
US11315573B2 (en) Speaker recognizing method, speaker recognizing apparatus, recording medium recording speaker recognizing program, database making method, database making apparatus, and recording medium recording database making program
US11495230B2 (en) Predictive analysis system
CN112860213B (zh) 音频的处理方法和装置、存储介质及电子设备
CN105869631B (zh) 语音预测的方法和装置
WO2021135322A1 (zh) 一种自动出题方法、装置及系统
CN208607703U (zh) 一种上门探访的监管系统
KR101119867B1 (ko) 다중 감정 센싱 기반으로 사용자의 감정정보를 제공하는 장치
CN113724693B (zh) 语音判别方法、装置、电子设备及存储介质
CN110046161A (zh) 数据写入方法及装置、存储介质、电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20201222