CN110931002A - 人机交互方法、装置、计算机设备和存储介质 - Google Patents

人机交互方法、装置、计算机设备和存储介质 Download PDF

Info

Publication number
CN110931002A
CN110931002A CN201910969590.1A CN201910969590A CN110931002A CN 110931002 A CN110931002 A CN 110931002A CN 201910969590 A CN201910969590 A CN 201910969590A CN 110931002 A CN110931002 A CN 110931002A
Authority
CN
China
Prior art keywords
emotion
reply
data
determining
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910969590.1A
Other languages
English (en)
Other versions
CN110931002B (zh
Inventor
邹倩霞
徐国强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910969590.1A priority Critical patent/CN110931002B/zh
Publication of CN110931002A publication Critical patent/CN110931002A/zh
Application granted granted Critical
Publication of CN110931002B publication Critical patent/CN110931002B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请涉及数据处理技术领域,提供了一种人机交互方法、装置、计算机设备和存储介质。方法包括:接收输入数据,提取情绪特征参数进行情绪识别处理,确定用户情绪标签,获取输入数据的文本内容,并根据其所属的业务场景,确定输入数据在业务场景中的节点,并通过交互内容匹配确定在节点的回复分支,根据与回复分支对应的预设情绪标签匹配关系,确定匹配的输出情绪标签,生成输出数据。通过将情绪标签匹配关系应用到具体的每次人机交互的回复分支,考虑到在每一次人机交互过程中对输出数据采取的应对情绪,不仅可以应用于多种具有不同情绪要求的应用场景,而且可以更好的满足各个场景的处理要求,提高了各个场景下的人机交互业务处理效率。

Description

人机交互方法、装置、计算机设备和存储介质
技术领域
本申请涉及数据处理技术领域,特别是涉及一种人机交互方法、装置、计算机设备和存储介质。
背景技术
随着科学技术发展越来越成熟,人机交互的应用也越来越广泛,通过及其来取代人工进行交互服务,一方面节省了人工投入,另一方面,为用户的生活提供了便利。
传统的人机交互方法一般都是针对用户回复的文字内容进行回答,即同一句话只有同一种回复或同一意图/语义只有一种回答,然而,由于业务场景的多样化,传统的人机交互方式给用户的答案通常是客观回复,由于不同场景有不同的处理需求,在应用到具体的场景时,统一的客观回复方式具有局限性,不仅限制了人机交互的应用范围,而且由于无法满足不同业务场景的处理需求,对于各个场景的处理效率都受到了不同程度的影响。
发明内容
基于此,有必要针对上述技术问题,提供一种能够业务处理效率的人机交互方法、装置、计算机设备和存储介质。
一种人机交互方法,所述方法包括:
接收输入数据,提取所述输入数据的情绪特征参数,并根据所述情绪特征参数进行情绪识别处理,确定所述输入数据对应的用户情绪标签;
获取所述输入数据对应的文本内容,并根据所述输入数据所属的业务场景,确定所述输入数据在所述业务场景中的节点,并将所述文本内容与所述节点的多个预设回复分支进行交互内容匹配,确定所述文本内容对应的回复分支;
根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签,其中,所述预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系;
根据所述回复分支以及所述输出情绪标签,生成输出数据。
在其中一个实施例中,所述预设情绪标签匹配关系的数量为多个;所述根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签包括:
根据所述用户情绪标签,按所述回复分支对应的预设情绪标签匹配关系的优先级顺序,依次所述预设匹配情绪标签匹配关系;
当匹配到包含所述用户情绪标签的预设情绪标签匹配关系时,得到与所述用户情绪标签匹配的输出情绪标签。
在其中一个实施例中,所述根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签之前,还包括:
根据所述业务场景的流程节点,获取所述流程节点对应的业务数据要求,并根据所述业务数据要求划分回复分支;
根据划分的所述回复分支与所述业务数据要求的对应满足级别,确定与所述回复分支对应的预设情绪标签匹配关系。
在其中一个实施例中,所述根据划分的所述回复分支与所述业务数据要求的对应满足级别,确定与所述回复分支对应的预设情绪标签匹配关系之后,还包括:
根据与所述回复分支对应的多种预设情绪标签匹配关系,确定所述回复分支对应的多种输出情绪标签;
根据多种输出情绪标签和所述回复分支的语义数据,生成多个包含语义相同情绪不同的回复文本。
在其中一个实施例中,所述输出数据为语音数据,所述根据所述回复分支以及所述输出情绪标签,生成输出数据包括:
获取所述回复分支的语义数据,查找包含所述语义数据且与所述输出情绪标签相匹配的回复文本;
根据所述输出情绪标签,将所述回复文本转换为语音数据并输出。
在其中一个实施例中,所述接收输入数据,提取所述输入数据的情绪特征参数,并根据所述情绪特征参数进行情绪识别处理,确定所述输入数据对应的用户情绪标签,之前,还包括:
建立与终端的交互连接,并确定所述交互连接对应的业务场景。
在其中一个实施例中,所述建立与终端的交互连接,并确定所述交互连接对应的业务场景包括以下任意一种:
接收终端发送的交互请求,建立与所述终端的交互连接,并根据所述交互请求携带的触发场景数据,确定所述交互连接对应的业务场景;
根据预设的任务数据,向终端发送交互请求,当检测到所述终端接受所述交互请求时,建立与所述终端的交互连接,并根据所述预设的任务数据,确定所述交互连接对应的业务场景。
一种人机交互装置,所述装置包括:
情绪识别模块,用于接收输入数据,提取所述输入数据的情绪特征参数,并根据所述情绪特征参数进行情绪识别处理,确定所述输入数据对应的用户情绪标签;
回复分支确定模块,用于获取所述输入数据对应的文本内容,并根据所述输入数据所属的业务场景,确定所述输入数据在所述业务场景中的节点,并将所述文本内容与所述节点的多个预设回复分支进行交互内容匹配,确定所述文本内容对应的回复分支;
输出情绪确定模块,用于根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签,其中,所述预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系;
输出数据生成模块,用于根据所述回复分支以及所述输出情绪标签,生成输出数据。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
接收输入数据,提取所述输入数据的情绪特征参数,并根据所述情绪特征参数进行情绪识别处理,确定所述输入数据对应的用户情绪标签;
获取所述输入数据对应的文本内容,并根据所述输入数据所属的业务场景,确定所述输入数据在所述业务场景中的节点,并将所述文本内容与所述节点的多个预设回复分支进行交互内容匹配,确定所述文本内容对应的回复分支;
根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签,其中,所述预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系;
根据所述回复分支以及所述输出情绪标签,生成输出数据。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
接收输入数据,提取所述输入数据的情绪特征参数,并根据所述情绪特征参数进行情绪识别处理,确定所述输入数据对应的用户情绪标签;
获取所述输入数据对应的文本内容,并根据所述输入数据所属的业务场景,确定所述输入数据在所述业务场景中的节点,并将所述文本内容与所述节点的多个预设回复分支进行交互内容匹配,确定所述文本内容对应的回复分支;
根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签,其中,所述预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系;
根据所述回复分支以及所述输出情绪标签,生成输出数据。
上述人机交互方法、装置、计算机设备和存储介质,通过应用场景来确定回复分支,并通过对输入数据进行情绪分析,通过将情绪标签匹配关系应用到具体的每次人机交互的回复分支,考虑到在每一次人机交互过程中对输出数据采取的应对情绪,以确定携带有情绪特征的输出数据,不仅可以应用于多种具有不同情绪要求的应用场景,而且可以更好地表征对问题的处理态度,满足各个场景的处理要求,避免在不满足用户需求的情况下就同一问题进行多次重复交互,提高了各个场景下的人机交互业务处理效率。
附图说明
图1为一个实施例中人机交互方法的应用场景图;
图2为一个实施例中人机交互方法的流程示意图;
图3为另一个实施例中人机交互方法的流程示意图;
图4为又一个实施例中人机交互方法的流程示意图;
图5为一个实施例中人机交互装置的结构框图;
图6为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的人机交互方法,可以应用于如图1所示的应用环境中。其中,终端102与服务器104通过网络进行通信。服务器104建立与终端102的交互连接,接收用户通过终端102输入的输入数据,对输入数据进行情绪识别处理,确定输入数据对应的用户情绪标签,获取输入数据对应的文本内容,并根据输入数据所属的业务场景,确定输入数据在业务场景中的节点,并将文本内容与节点的多个预设回复分支进行交互内容匹配,确定文本内容对应的回复分支,根据与回复分支对应的预设情绪标签匹配关系,确定与用户情绪标签匹配的输出情绪标签,其中,预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系,根据回复分支以及输出情绪标签,生成输出数据并发送至终端102。其中,终端102可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在一个实施例中,如图2所示,提供了一种人机交互方法,以该方法应用于图1中的服务器为例进行说明,包括步骤S202至S208。
步骤S202,接收输入数据,提取输入数据的情绪特征参数,并根据情绪特征参数进行情绪识别处理,确定输入数据对应的用户情绪标签。
在实施例中,输入数据包括文本数据或语音数据,文本数据的情绪特征参数包括分词的词性特征以及句法特征,语音数据的情绪特征参数包括声谱特征、韵律特征和音质特征。
服务器接收的输入数据可以是用户通过终端的触摸屏、键盘或其他输入设备输入的文本数据,也可以是通过终端的麦克风等语音采集设备采集的语音数据。当输入数据为文本数据时,可以利用学习模型、自然语言处理或者两者结合的方式确定情感状态,得到文本数据对应的而用户情绪标签。在实施例中,可以将获取到的文本数据通过分词、词性判断、句法分析后,结合预先设置的情感词库和情感语义数据库判断该文本的情感状态,得到文本数据对应的而用户情绪标签。当输入数据为语音数据时,通过提取语音数据包含的声谱特征、韵律学特征和音质特征,通过与数据库的匹配程度,通过加权计算实现用户情感的识别与标注,得到用户情感标签。
在一个实施例中,当输入数据为文本数据时,提取输入数据的情绪特征参数,并根据情绪特征参数进行情绪识别处理包括以下处理过程:
利用学习模型进行情绪识别分析时,需要预先训练学习模型。首先确定对输出情感标签的分类,并按照分类要求对训练语料进行标注。训练语料可以包括输入文本数据和文本数据标记好的情感标签。将文本数据输入训练完成的学习模型,学习模型可以输出情感标签。利用自然语言处理的方式时,需要预先构建情感表达词库和情感语义数据库。情感表达词库可以包括多元情感词汇搭配,情感语义数据库可以包括语言符号。具体地,词汇本身不具有情感成分,但多个词汇组合起来可以用于传达情感信息,称为多元情感词汇搭配。多元情感词汇搭配可能通过预置情感语义数据库或外部开源接口得到。情感语义数据库的作用是根据当前文本数据或上下文(例如历史用户数据)对多情感歧义词进行消歧,以明确多情感歧义词表达的情感类别。获取到的文本通过分词、词性判断、句法分析后,结合情感词库和情感语义数据库判断该文本的情感状态,得到用户情绪标签。
在一个实施例中,当输入数据为语音数据时,提取输入数据的情绪特征参数,并根据情绪特征参数进行情绪识别处理包括以下处理过程:
输入数据为语音数据时,语音数据的情绪特征参数包含声谱特征、韵律学特征和音质特征,进一步地,声谱特征具体包括频率倒谱系数和倒谱特征参数,韵律特征具体包括音高特征、能量特征、发音帧数特征、基音频率特征和语速特征,音质特征具体包括共振峰特征、谐波噪声比特征。上述特征的特征值可以通过调用声学特征分析软件等第三方应用程序分析得到,特征值可以通过比例值、均值、最大值、中值以及标准差等方式体现特征。通过将声谱特征、韵律特征和音质特征分别与情绪数据库中各种情绪类别对应的预置声谱特征、预置韵律学特征和预置音质特征进行模式匹配,根据对应的预置权值计算各种情绪类别的加权平均数,以加权平均数为匹配度,匹配度最大的情绪类别对应的情绪标签即为用户情绪标签。
步骤S204,获取输入数据对应的文本内容,并根据输入数据所属的业务场景,确定输入数据在业务场景中的节点,并将文本内容与节点的多个预设回复分支进行交互内容匹配,确定文本内容对应的回复分支。
服务器接收用户的输入数据,根据输入数据的数据格式信息,确定该输入数据的数据类型,根据数据类型,对该输入数据进行处理,得到该输入数据的文本内容。用户通过终端向服务器发送或反馈交互请求时,可以通过终端界面选择不同的交互方式,从而实现通过不同的路径输入数据。例如,语音交互时,语音数据通过终端的麦克风输入,文本交互时,文本数据通过终端界面指定的文本框输入,不同路径的输入数据携带有不同的数据来源标识,服务器可以根据数据来源标识确定输入数据的数据类型。也可以根据输入数据的数据格式信息确定输入数据的数据类型,一般来说,文本数据为文本格式,语音数据为音频格式。当输入数据为文本数据时,对输入数据进行消歧等数据清洗处理,将处理结果作为文本内容;当输入数据为语音数据时,对用户的输入数据进行文本识别处理,获得与输入数据对应的文本内容,其中,语音识别可以采用基于声道模型和语音知识的方法、模板匹配的方法以及利用人工神经网络的方法来实现,在此不作限定。
业务场景是指人机交互的交互内容所涉及业务的交互场景。在实施例中,当交互发起方为服务器时,由服务器所需处理的任务数据来确定业务场景信息。在实施例中服务器根据客服人员发送的任务添加请求,将任务添加请求中的各项任务数据添加至任务列表,服务器根据任务列表中的各项任务数据,向任务数据中的指定用户终端发起交互,任务数据携带有业务场景标识。例如,当需要对用户进行催收等主动交互时,交互发起方一般为服务器,服务器的交互任务为按照预先设定的业务流程,与用户进行交互,对用户进行催收。当交互发起方为用户时,属于被动式交互,通过对用户的输入数据进行关键字识别,确定用户意图,根据关键字确定对应的待处理业务,得到业务场景信息,服务器根据待处理业务的业务流程与用户进行交互。在人机交互过程中,服务器配置有与业务场景匹配的业务流程,对应为多个节点,业务流程中设置有若干回复分支,服务器需要回复用户的回答即根据用户的输入数据,判断进入哪一路回复分支,并回复用户进行下一轮的交互,在实施例中,根据业务场景的业务流程节点,以及按业务流程节点对应的业务数据要求划分的回复分支,通过交互内容匹配,确定输入数据对应文本内容在业务场景下对应的回复分支。其中,交互内容匹配可以通过业务流程节点的问答关键词匹配来实现。服务器的回复内容以用户的输入数据为依据进行判断选择,具体来说,针对服务器的第一个问题,事先配置有用户回答对应的回复分支,根据用户回答所对应的分支,确定服务器要回复的内容。同一个问题的回复分支的数量可以为1个或多个。举例来说,在贷款场景下,需要了解用户的薪资情况,服务器在第一次交互时向用户提出的问题是薪资,当用户回答的薪资数额小于5000元时,回复分支为条件不符,当用户回答的薪资数额大于5000元时,回复分支为请用户提供工资流水。
步骤S206,根据与回复分支对应的预设情绪标签匹配关系,确定与用户情绪标签匹配的输出情绪标签,其中,预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系。
情绪标签匹配关系是用户情绪标签与输出情绪标签的匹配,在每一个回复分支下,配置有一条或多条预设情绪标签匹配关系。根据用户的输入数据对应的用户情绪,配置有对应的输出情绪。例如,在客户毫不在意或者害怕的情况下,选择施压重的情绪策略,当客户非常生气,反抗的时候,需要实施安抚的语气客气的策略。
步骤S208,根据回复分支以及输出情绪标签,生成输出数据。
同一回复分支,在采用不同的情绪匹配策略时,采用不同的回复文本来表达该回复分支的回复语义。不同情绪对应的回复文本可以预先设置,例如,当回复分支的回复语义为“拒绝”时,委婉的回复可以是“这个我们恐怕做不到”,严厉的回复可以是“这个我们无法配合”。在实施例中,输出数据的数据类型可以与输入数据的数据类型相同,例如,当输入数据为文本数据时,输出数据也为文本数据,当输入数据为语音数据时,将回复文本转换为语音数据,得到语音数据并输出。
上述人机交互方法,通过对输入数据进行分析,根据应用场景来确定回复分支,并通过对输入数据进行情绪分析,结合回复分支对应的预设情绪标签匹配关系,来匹配对应的输出情绪,以确定该输出情绪下的对应携带有情绪特征的输出数据。通过将情绪标签匹配关系应用到具体的每次人机交互的回复分支,考虑到在每一次人机交互过程中对输出数据采取的应对情绪,不仅可以应用于多种具有不同情绪要求的应用场景,而且可以更好的满足各个场景的处理要求,避免在不满足交互需求的情况下需要多次重复交互,提高了各个场景下的人机交互业务处理效率。
在其中一个实施例中,预设情绪标签匹配关系的数量为多个。根据与回复分支对应的预设情绪标签匹配关系,确定与用户情绪标签匹配的输出情绪标签包括:
根据用户情绪标签,按回复分支对应的预设情绪标签匹配关系的优先级顺序,依次预设匹配情绪标签匹配关系。
当匹配到包含用户情绪标签的预设情绪标签匹配关系时,得到与用户情绪标签匹配的输出情绪标签。
在同一个回复分支,可以配置有多个预设情绪标签匹配关系,同一个情绪标签匹配关系也可以配置于多个回复分支,情绪标签匹配关系的配置可以通过配置界面由工作人员手动配置至各个回复分支,也可以基于大数据分析,实现智能配置。具体来说,可以通过大量历史样本数据进行大数据分析,在各个回复分支下,确定各个输入情绪适用的输出情绪。在同一个分支下,可以配置1条或多条情绪匹配策略,其中,预设情绪标签匹配关系可以采用具有优先级的情绪匹配策略的形式来体现,情绪匹配策略包括默认匹配策略,多条情绪匹配策略之间的关系不必互斥。当确定回复分支时,根据输入数据的对应用户情绪标签,按优先级的先后顺序依次匹配情绪匹配策略。例如,策略一为输入“高兴”,输出“高兴”,策略二为输入“高兴”,输出“中性”,设置的优先级顺序是策略一在策略二前,默认情绪匹配策略的优先级最低,在匹配时,按顺序检测哪些策略是满足的,只要有满足的就会停止继续检测。在实施例中,如果输入情绪标签是“高兴”,当满足策略一,就会匹配出策略一的输出情绪标签“高兴”,不再检测策略二,当多条情绪匹配策略都未匹配成功时,匹配默认情绪匹配策略。在应用中,各个回复分支的情绪匹配策略还可以实现增、删、改、查等操作。
在其中一个实施例中,根据与回复分支对应的预设情绪标签匹配关系,确定与用户情绪标签匹配的输出情绪标签之前,还包括:
根据业务场景的流程节点,获取流程节点对应的业务数据要求,并根据业务数据要求划分回复分支。
根据划分的回复分支与业务数据要求的对应满足级别,确定与回复分支对应的预设情绪标签匹配关系。
在一个业务场景中包含多个流程节点,一个流程交点可以对应一次人机交互,在流程节点上,对应有多个回复分支,回复分支的划分可以根据流程节点的业务数据要求来确定。在实施例中,业务数据要求可以通过配置的业务数据要求文件来确定,业务数据要求文件可以通过人工配置并存储于服务器。在实施例中,业务数据要求可以设定有多个级别,满足不同级别的业务数据要求的回复分支,对应可以采用不同的预设情绪标签匹配关系。举例来说,对于催款的业务场景,其中的一个流程节点为询问用户的还款时间,业务数据要求可以包括:第一级别:3天内还款且处理要求为允许、第二级别:3-5天内还款且处理要求为协商、第三级别:5天以后还款且处理要求为拒绝。如果用户输入数据对应为第四天还款,则对应满足级别为第二级别。回复分支对应的情绪标签匹配关系,可以通过回复分支所满足的业务数据要求等级来确定,也可以通过参数配置界面,通过人工配置得到。在实施例中,第二级别的回复分支对应的情绪标签匹配关系可以根据其处理要求为协商来匹配,也可以根据人工配置来得到,在实施例中,在通过参数配置界面配置情绪标签匹配关系时,可以将同一情绪标签匹配关系配置于多个回复分支,以提高配置效率。在实施例中,获取输入数据对应的文本内容,并根据输入数据所属的业务场景,根据业务场景的流程节点,获取流程节点对应的业务数据要求,并根据业务数据要求划分回复分支,然后确定输入数据对应文本内容在业务场景下对应的回复分支,再根据该回复分支与业务数据要求的对应满足级别,确定与该回复分支对应的预设情绪标签匹配关系。
在其中一个实施例中,根据划分的回复分支与业务数据要求的对应满足级别,确定与回复分支对应的预设情绪标签匹配关系之后,还包括:
根据与回复分支对应的多种预设情绪标签匹配关系,确定回复分支对应的多种输出情绪标签。
根据多种输出情绪标签和回复分支的语义数据,生成多个包含语义相同情绪不同的回复文本。
同一回复分支,在采用不同的情绪匹配策略时,采用不同的回复文本来表达该回复分支的回语义。不同情绪对应的回复文本可以预先设置,例如,当回复分支的回复语义为“拒绝”时,输出情绪为委婉的回复文本可以是“这个我们恐怕做不到”,输出情绪为严厉的回复文本可以是“这个我们无法配合”。
在其中一个实施例中,输出数据为语音数据,根据回复分支以及输出情绪标签,生成输出数据包括:
获取回复分支的语义数据,查找包含语义数据且与输出情绪标签相匹配的回复文本。
根据输出情绪标签,将回复文本转换为语音数据并输出。
在实施例中,输出数据的数据类型与输入数据相同,当输入数据为文本数据时,输出数据为查找得到的回复文本。当输入数据问语音数据时,输出数据为根据输出情绪标签对回复文本进行转换得到的语音数据。相同的文本采用不同的情绪进行表达可能会产生不同的效果,传统的服务器在进行人机交互时,都只针对用户回复的文字内容进行回答,即同一句话只有同一种回复或同一意图或语义只有一种回答,不考虑因为语音本身或者文本措辞,用户表达的情感并不一样,或者即使考虑到文字情绪但是只内置的一种情感回复,例如一直以客服式的客气回复。在实施例中,不同的情绪标签预先配置有对应的语速和语调,输出数据为语音数据时,通过输出情绪标签对应的语速和语调的语音来表述回复文本。
在其中一个实施例中,接收输入数据,提取输入数据的情绪特征参数,并根据情绪特征参数进行情绪识别处理,确定输入数据对应的用户情绪标签,之前,还包括:
建立与终端的交互连接,并确定交互连接对应的业务场景。
服务器与终端在建立交互连接后,才能实现人机交互,交互连接对应的业务场景的确定方式与交互连接的发起方有关。具体来说,包括以下两种情况:
第一种,如图3所示,服务器接收终端发送的交互请求,建立与终端的交互连接,并根据交互请求携带的触发场景数据,确定交互连接对应的业务场景。
第二种,如图4所示,服务器根据预设的任务数据,向终端发送交互请求,当检测到终端接受交互请求时,建立与终端的交互连接,并根据预设的任务数据,确定交互连接对应的业务场景。
在服务器与用户建立人机交互连接时,交互发起方可能是服务器也可能是用户。交互请求分为主动请求和被动请求,主动请求是服务器根据预设的任务数据,主动向终端发送连接请求,终端接受连接请求时建立终端与服务器之间的交互连接。被动请求是服务器接收用户通过终端发送的交互请求,服务器响应交互请求,建立服务器与终端的交互连接。当交互发起方为服务器时,由服务器所需处理的任务数据来确定业务场景信息。在实施例中,服务器根据工作人员发送的任务添加请求,将任务添加请求中的各项任务数据添加至任务列表,服务器根据任务列表中的各项任务数据,向任务数据中的指定用户终端发起交互,各项任务数据携带有业务场景标识。例如,当需要对用户进行催收等主动交互时,交互发起方一般为服务器,服务器的交互任务为按照预先设定的业务流程,与用户进行交互,对用户进行催收。当交互发起方为用户时,属于被动式交互,通过对用户触发界面,确定用户意图,根据关键字确定对应的待处理业务,得到业务场景信息,服务器根据待处理业务的业务流程与用户进行交互。
应该理解的是,虽然图2-4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图5所示,提供了一种人机交互装置,包括:
情绪识别模块502,用于接收输入数据,提取输入数据的情绪特征参数,并根据情绪特征参数进行情绪识别处理,确定输入数据对应的用户情绪标签;
回复分支确定模块504,用于获取输入数据对应的文本内容,并根据输入数据所属的业务场景,确定输入数据在业务场景中的节点,并将文本内容与节点的多个预设回复分支进行交互内容匹配,确定文本内容对应的回复分支;
输出情绪确定模块506,用于根据与回复分支对应的预设情绪标签匹配关系,确定与用户情绪标签匹配的输出情绪标签,其中,预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系;
输出数据生成模块508,用于根据回复分支以及输出情绪标签,生成输出数据。
上述人机交互装置,通过对输入数据进行分析,根据应用场景来确定回复分支,并通过对输入数据进行情绪分析,结合回复分支对应的预设情绪标签匹配关系,来匹配对应的输出情绪,以确定该输出情绪下的对应携带有情绪特征的输出数据。通过将情绪标签匹配关系应用到具体的每次人机交互的回复分支,考虑到在每一次人机交互过程中对输出数据采取的应对情绪,不仅可以应用于多种具有不同情绪要求的应用场景,而且可以更好的满足各个场景的处理要求,避免在不满足交互需求的情况下需要多次重复交互,提高了各个场景下的人机交互业务处理效率。
在其中一个实施例中,预设情绪标签匹配关系的数量为多个;输出情绪确定模块还用于根据用户情绪标签,按回复分支对应的预设情绪标签匹配关系的优先级顺序,依次预设匹配情绪标签匹配关系,当匹配到包含用户情绪标签的预设情绪标签匹配关系时,得到与用户情绪标签匹配的输出情绪标签。
在其中一个实施例中,人机交互装置还包括回复分支划分模块,用于根据业务场景的流程节点,获取流程节点对应的业务数据要求,并根据业务数据要求划分回复分支,根据划分的回复分支与业务数据要求的对应满足级别,确定与回复分支对应的预设情绪标签匹配关系。
在其中一个实施例中,人机交互装置还包括回复文本生成模块,用于根据与回复分支对应的多种预设情绪标签匹配关系,确定回复分支对应的多种输出情绪标签,根据多种输出情绪标签和回复分支的语义数据,生成多个包含语义相同情绪不同的回复文本。
在其中一个实施例中,输出数据为语音数据,输出数据生成模块还用于获取回复分支的语义数据,查找包含语义数据且与输出情绪标签相匹配的回复文本,根据输出情绪标签,将回复文本转换为语音数据并输出。
在其中一个实施例中,人机交互装置还包括交互连接建立模块,用于建立与终端的交互连接,并确定交互连接对应的业务场景。
在其中一个实施例中,交互连接建立模块还用于接收终端发送的交互请求,建立与终端的交互连接,并根据交互请求携带的触发场景数据,确定交互连接对应的业务场景。
在其中一个实施例中,交互连接建立模块还用于根据预设的任务数据,向终端发送交互请求,当检测到终端接受交互请求时,建立与终端的交互连接,并根据预设的任务数据,确定交互连接对应的业务场景。
关于人机交互装置的具体限定可以参见上文中对于人机交互方法的限定,在此不再赘述。上述人机交互装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图6所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储人机交互方法的流程数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种人机交互方法。
本领域技术人员可以理解,图6中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
接收输入数据,提取输入数据的情绪特征参数,并根据情绪特征参数进行情绪识别处理,确定输入数据对应的用户情绪标签;
获取输入数据对应的文本内容,并根据输入数据所属的业务场景,确定输入数据在业务场景中的节点,并将文本内容与节点的多个预设回复分支进行交互内容匹配,确定文本内容对应的回复分支;
根据与回复分支对应的预设情绪标签匹配关系,确定与用户情绪标签匹配的输出情绪标签,其中,预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系;
根据回复分支以及输出情绪标签,生成输出数据。
在其中一个实施例中,预设情绪标签匹配关系的数量为多个,处理器执行计算机程序时还实现以下步骤:
根据用户情绪标签,按回复分支对应的预设情绪标签匹配关系的优先级顺序,依次预设匹配情绪标签匹配关系;
当匹配到包含用户情绪标签的预设情绪标签匹配关系时,得到与用户情绪标签匹配的输出情绪标签。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据业务场景的流程节点,获取流程节点对应的业务数据要求,并根据业务数据要求划分回复分支;
根据划分的回复分支与业务数据要求的对应满足级别,确定与回复分支对应的预设情绪标签匹配关系。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据与回复分支对应的多种预设情绪标签匹配关系,确定回复分支对应的多种输出情绪标签;
根据多种输出情绪标签和回复分支的语义数据,生成多个包含语义相同情绪不同的回复文本。
在其中一个实施例中,输出数据为语音数据,处理器执行计算机程序时还实现以下步骤:
获取回复分支的语义数据,查找包含语义数据且与输出情绪标签相匹配的回复文本;
根据输出情绪标签,将回复文本转换为语音数据并输出。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
建立与终端的交互连接,并确定交互连接对应的业务场景。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
接收终端发送的交互请求,建立与终端的交互连接,并根据交互请求携带的触发场景数据,确定交互连接对应的业务场景。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据预设的任务数据,向终端发送交互请求,当检测到终端接受交互请求时,建立与终端的交互连接,并根据预设的任务数据,确定交互连接对应的业务场景。
上述用于实现人机交互方法的计算机设备,通过对输入数据进行分析,根据应用场景来确定回复分支,并通过对输入数据进行情绪分析,结合回复分支对应的预设情绪标签匹配关系,来匹配对应的输出情绪,以确定该输出情绪下的对应携带有情绪特征的输出数据。通过将情绪标签匹配关系应用到具体的每次人机交互的回复分支,考虑到在每一次人机交互过程中对输出数据采取的应对情绪,不仅可以应用于多种具有不同情绪要求的应用场景,而且可以更好的满足各个场景的处理要求,避免在不满足交互需求的情况下需要多次重复交互,提高了各个场景下的人机交互业务处理效率。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
接收输入数据,提取输入数据的情绪特征参数,并根据情绪特征参数进行情绪识别处理,确定输入数据对应的用户情绪标签;
获取输入数据对应的文本内容,并根据输入数据所属的业务场景,确定输入数据在业务场景中的节点,并将文本内容与节点的多个预设回复分支进行交互内容匹配,确定文本内容对应的回复分支;
根据与回复分支对应的预设情绪标签匹配关系,确定与用户情绪标签匹配的输出情绪标签,其中,预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系;
根据回复分支以及输出情绪标签,生成输出数据。
在其中一个实施例中,预设情绪标签匹配关系的数量为多个,计算机程序被处理器执行时还实现以下步骤:
根据用户情绪标签,按回复分支对应的预设情绪标签匹配关系的优先级顺序,依次预设匹配情绪标签匹配关系;
当匹配到包含用户情绪标签的预设情绪标签匹配关系时,得到与用户情绪标签匹配的输出情绪标签。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据业务场景的流程节点,获取流程节点对应的业务数据要求,并根据业务数据要求划分回复分支;
根据划分的回复分支与业务数据要求的对应满足级别,确定与回复分支对应的预设情绪标签匹配关系。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据与回复分支对应的多种预设情绪标签匹配关系,确定回复分支对应的多种输出情绪标签;
根据多种输出情绪标签和回复分支的语义数据,生成多个包含语义相同情绪不同的回复文本。
在其中一个实施例中,输出数据为语音数据,计算机程序被处理器执行时还实现以下步骤:
获取回复分支的语义数据,查找包含语义数据且与输出情绪标签相匹配的回复文本;
根据输出情绪标签,将回复文本转换为语音数据并输出。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
建立与终端的交互连接,并确定交互连接对应的业务场景。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
接收终端发送的交互请求,建立与终端的交互连接,并根据交互请求携带的触发场景数据,确定交互连接对应的业务场景。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据预设的任务数据,向终端发送交互请求,当检测到终端接受交互请求时,建立与终端的交互连接,并根据预设的任务数据,确定交互连接对应的业务场景。
上述用于实现人机交互方法的计算机可读存储介质,通过对输入数据进行分析,根据应用场景来确定回复分支,并通过对输入数据进行情绪分析,结合回复分支对应的预设情绪标签匹配关系,来匹配对应的输出情绪,以确定该输出情绪下的对应携带有情绪特征的输出数据。通过将情绪标签匹配关系应用到具体的每次人机交互的回复分支,考虑到在每一次人机交互过程中对输出数据采取的应对情绪,不仅可以应用于多种具有不同情绪要求的应用场景,而且可以更好的满足各个场景的处理要求,避免在不满足交互需求的情况下需要多次重复交互,提高了各个场景下的人机交互业务处理效率。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种人机交互方法,所述方法包括:
接收输入数据,提取所述输入数据的情绪特征参数,并根据所述情绪特征参数进行情绪识别处理,确定所述输入数据对应的用户情绪标签;
获取所述输入数据对应的文本内容,并根据所述输入数据所属的业务场景,确定所述输入数据在所述业务场景中的节点,并将所述文本内容与所述节点的多个预设回复分支进行交互内容匹配,确定所述文本内容对应的回复分支;
根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签,其中,所述预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系;
根据所述回复分支以及所述输出情绪标签,生成输出数据。
2.根据权利要求1所述的方法,其特征在于,所述预设情绪标签匹配关系的数量为多个;所述根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签包括:
根据所述用户情绪标签,按所述回复分支对应的预设情绪标签匹配关系的优先级顺序,依次匹配所述预设情绪标签匹配关系;
当匹配到包含所述用户情绪标签的预设情绪标签匹配关系时,得到与所述用户情绪标签匹配的输出情绪标签。
3.根据权利要求2所述的方法,其特征在于,所述根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签之前,还包括:
根据所述业务场景的流程节点,获取所述流程节点对应的业务数据要求,并根据所述业务数据要求划分回复分支;
根据划分的所述回复分支与所述业务数据要求的对应满足级别,确定与所述回复分支对应的预设情绪标签匹配关系。
4.根据权利要求3所述的方法,其特征在于,所述根据划分的所述回复分支与所述业务数据要求的对应满足级别,确定与所述回复分支对应的预设情绪标签匹配关系之后,还包括:
根据与所述回复分支对应的多种预设情绪标签匹配关系,确定所述回复分支对应的多种输出情绪标签;
根据多种输出情绪标签和所述回复分支的语义数据,生成多个包含语义相同情绪不同的回复文本。
5.根据权利要求4所述的方法,其特征在于,所述输出数据为语音数据,所述根据所述回复分支以及所述输出情绪标签,生成输出数据包括:
获取所述回复分支的语义数据,查找包含所述语义数据且与所述输出情绪标签相匹配的回复文本;
根据所述输出情绪标签,将所述回复文本转换为语音数据并输出。
6.根据权利要求1所述的方法,其特征在于,所述接收输入数据,提取所述输入数据的情绪特征参数,并根据所述情绪特征参数进行情绪识别处理,确定所述输入数据对应的用户情绪标签之前,还包括:
建立与终端的交互连接,并确定所述交互连接对应的业务场景。
7.根据权利要求6所述的方法,其特征在于,所述建立与终端的交互连接,并确定所述交互连接对应的业务场景包括以下任意一种:
接收终端发送的交互请求,建立与所述终端的交互连接,并根据所述交互请求携带的触发场景数据,确定所述交互连接对应的业务场景;
根据预设的任务数据,向终端发送交互请求,当检测到所述终端接受所述交互请求时,建立与所述终端的交互连接,并根据所述预设的任务数据,确定所述交互连接对应的业务场景。
8.一种人机交互装置,其特征在于,所述装置包括:
情绪识别模块,用于接收输入数据,提取所述输入数据的情绪特征参数,并根据所述情绪特征参数进行情绪识别处理,确定所述输入数据对应的用户情绪标签;
回复分支确定模块,用于获取所述输入数据对应的文本内容,并根据所述输入数据所属的业务场景,确定所述输入数据在所述业务场景中的节点,并将所述文本内容与所述节点的多个预设回复分支进行交互内容匹配,确定所述文本内容对应的回复分支;
输出情绪确定模块,用于根据与所述回复分支对应的预设情绪标签匹配关系,确定与所述用户情绪标签匹配的输出情绪标签,其中,所述预设情绪标签匹配关系为用户情绪标签和输出情绪标签之间的匹配关系;
输出数据生成模块,用于根据所述回复分支以及所述输出情绪标签,生成输出数据。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
CN201910969590.1A 2019-10-12 2019-10-12 人机交互方法、装置、计算机设备和存储介质 Active CN110931002B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910969590.1A CN110931002B (zh) 2019-10-12 2019-10-12 人机交互方法、装置、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910969590.1A CN110931002B (zh) 2019-10-12 2019-10-12 人机交互方法、装置、计算机设备和存储介质

Publications (2)

Publication Number Publication Date
CN110931002A true CN110931002A (zh) 2020-03-27
CN110931002B CN110931002B (zh) 2023-06-20

Family

ID=69848909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910969590.1A Active CN110931002B (zh) 2019-10-12 2019-10-12 人机交互方法、装置、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN110931002B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111862938A (zh) * 2020-05-07 2020-10-30 北京嘀嘀无限科技发展有限公司 一种智能应答方法与终端、计算机可读存储介质
CN116662503A (zh) * 2023-05-22 2023-08-29 深圳市新美网络科技有限公司 私域用户场景话术推荐方法及其系统
CN116758908A (zh) * 2023-08-18 2023-09-15 中国工业互联网研究院 基于人工智能的交互方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106773923A (zh) * 2016-11-30 2017-05-31 北京光年无限科技有限公司 面向机器人的多模态情感数据交互方法及装置
CN108427722A (zh) * 2018-02-09 2018-08-21 卫盈联信息技术(深圳)有限公司 智能交互方法、电子装置及存储介质
CN108922564A (zh) * 2018-06-29 2018-11-30 北京百度网讯科技有限公司 情绪识别方法、装置、计算机设备及存储介质
CN109036405A (zh) * 2018-07-27 2018-12-18 百度在线网络技术(北京)有限公司 语音交互方法、装置、设备及存储介质
CN109670166A (zh) * 2018-09-26 2019-04-23 平安科技(深圳)有限公司 基于语音识别的催收辅助方法、装置、设备和存储介质
CN109949805A (zh) * 2019-02-21 2019-06-28 江苏苏宁银行股份有限公司 基于意图识别及有限状态自动机的智能催收机器人及催收方法
CN110085262A (zh) * 2018-01-26 2019-08-02 上海智臻智能网络科技股份有限公司 语音情绪交互方法、计算机设备和计算机可读存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106773923A (zh) * 2016-11-30 2017-05-31 北京光年无限科技有限公司 面向机器人的多模态情感数据交互方法及装置
CN110085262A (zh) * 2018-01-26 2019-08-02 上海智臻智能网络科技股份有限公司 语音情绪交互方法、计算机设备和计算机可读存储介质
CN108427722A (zh) * 2018-02-09 2018-08-21 卫盈联信息技术(深圳)有限公司 智能交互方法、电子装置及存储介质
CN108922564A (zh) * 2018-06-29 2018-11-30 北京百度网讯科技有限公司 情绪识别方法、装置、计算机设备及存储介质
CN109036405A (zh) * 2018-07-27 2018-12-18 百度在线网络技术(北京)有限公司 语音交互方法、装置、设备及存储介质
CN109670166A (zh) * 2018-09-26 2019-04-23 平安科技(深圳)有限公司 基于语音识别的催收辅助方法、装置、设备和存储介质
CN109949805A (zh) * 2019-02-21 2019-06-28 江苏苏宁银行股份有限公司 基于意图识别及有限状态自动机的智能催收机器人及催收方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111862938A (zh) * 2020-05-07 2020-10-30 北京嘀嘀无限科技发展有限公司 一种智能应答方法与终端、计算机可读存储介质
CN116662503A (zh) * 2023-05-22 2023-08-29 深圳市新美网络科技有限公司 私域用户场景话术推荐方法及其系统
CN116662503B (zh) * 2023-05-22 2023-12-29 深圳市新美网络科技有限公司 私域用户场景话术推荐方法及其系统
CN116758908A (zh) * 2023-08-18 2023-09-15 中国工业互联网研究院 基于人工智能的交互方法、装置、设备及存储介质
CN116758908B (zh) * 2023-08-18 2023-11-07 中国工业互联网研究院 基于人工智能的交互方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110931002B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
CN111028827B (zh) 基于情绪识别的交互处理方法、装置、设备和存储介质
CN111368609B (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
CN110444198B (zh) 检索方法、装置、计算机设备和存储介质
US10679613B2 (en) Spoken language understanding system and method using recurrent neural networks
CN110162633B (zh) 语音数据意图确定方法、装置、计算机设备和存储介质
CN110472224B (zh) 服务质量的检测方法、装置、计算机设备和存储介质
CN111104495A (zh) 基于意图识别的信息交互方法、装置、设备和存储介质
CN111930940A (zh) 一种文本情感分类方法、装置、电子设备及存储介质
CN111105782A (zh) 会话交互处理方法、装置、计算机设备和存储介质
CN110931002B (zh) 人机交互方法、装置、计算机设备和存储介质
CN111223476B (zh) 语音特征向量的提取方法、装置、计算机设备和存储介质
CN114678014A (zh) 意图识别方法、装置、计算机设备及计算机可读存储介质
CN114220461A (zh) 客服话术的引导方法、装置、设备及存储介质
CN116414959A (zh) 数字人的互动控制方法、装置、电子设备和存储介质
CN112183106A (zh) 一种基于音素联想及深度学习的语义理解方法及装置
CN111128175B (zh) 口语对话管理方法及系统
CN115497465A (zh) 语音交互方法、装置、电子设备和存储介质
CN112989046A (zh) 实时话术预判方法、装置、计算机设备和存储介质
CN112102807A (zh) 语音合成方法、装置、计算机设备和存储介质
CN112632248A (zh) 问答方法、装置、计算机设备和存储介质
CN112809694B (zh) 机器人控制方法、装置、存储介质和计算机设备
CN113688636A (zh) 扩展问的推荐方法、装置、计算机设备和存储介质
CN109002498B (zh) 人机对话方法、装置、设备及存储介质
CN116402057A (zh) 一种基于自然语言的人机交互系统
CN111552785A (zh) 人机交互系统数据库更新方法、装置、计算机设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant