CN111710336A - 语音的意图识别方法、装置、计算机设备及存储介质 - Google Patents

语音的意图识别方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN111710336A
CN111710336A CN202010507190.1A CN202010507190A CN111710336A CN 111710336 A CN111710336 A CN 111710336A CN 202010507190 A CN202010507190 A CN 202010507190A CN 111710336 A CN111710336 A CN 111710336A
Authority
CN
China
Prior art keywords
voice
reply
user
data
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010507190.1A
Other languages
English (en)
Other versions
CN111710336B (zh
Inventor
叶怡周
马骏
王少军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202010507190.1A priority Critical patent/CN111710336B/zh
Publication of CN111710336A publication Critical patent/CN111710336A/zh
Priority to PCT/CN2020/123205 priority patent/WO2021135548A1/zh
Application granted granted Critical
Publication of CN111710336B publication Critical patent/CN111710336B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0281Customer communication at a business location, e.g. providing product or service information, consulting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Finance (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Databases & Information Systems (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开了语音的意图识别方法、装置、计算机设备及存储介质,涉及人工智能的语音语义,若接收用户初始语音数据,对其进行识别得到初始语音文本数据;调用NLU模型获取其对应的当前回复文本,调用NLG模型将当前回复文本生成当前回复语音;若接收到用户回复语音数据,对其进行识别得到当前回复语音文本数据;若当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,调用对应的目标词槽;由目标NLP模型编码获取目标NLP模型,通过其对第一事项办理语音数据进行识别得到第一识别结果。该方法实现了通过多种不同的方式完成对用户意图识别,提高了基于用户语音的意图识别准确率,降低与智能客服机器人对话进行事项办理的耗时。

Description

语音的意图识别方法、装置、计算机设备及存储介质
技术领域
本发明涉及人工智能的语音语义技术领域,尤其涉及一种语音的意图识别方法、装置、计算机设备及存储介质。
背景技术
目前,在智能客服机器人系统中,对话管理是用来控制智能客服机器人与客户之间交互的核心部分。对话管理中主要是根据NLU模型(即自然语言理解模型)对用户的说话来进行理解和判断意图,但由于通过ASR技术(即自动语音识别技术)对客户语音进行语音转文字时转化正确率不高,导致NLU模型无法在短时间内准确识别用户意图,从而导致与智能客服机器人对话进行事项办理时间耗时较长,而且处理效率低下。
发明内容
本发明实施例提供了一种语音的意图识别方法、装置、计算机设备及存储介质,旨在解决现有技术中智能客服机器人系统中通过自动语音识别技术对客户语音进行语音转文字,由于转化正确率不高,自然语言理解模型无法在短时间内准确识别用户意图,导致与智能客服机器人对话进行事项办理时间耗时较长,而且处理效率低下的问题。
第一方面,本发明实施例提供了一种语音的意图识别方法,其包括:
若接收到用户端发送的用户初始语音数据,对所述用户初始语音数据进行语音识别,得到与所述用户初始语音数据对应的初始语音文本数据;
通过调用预先训练的自然语言理解模型以获取所述初始语音文本数据对应的当前回复文本,通过调用预先训练的自然语言生成模型以将当前回复文本对应生成当前回复语音,将所述当前回复语音发送至用户端;
若接收用户端所发送的与所述当前回复语音对应的用户回复语音数据,对所述用户回复语音数据进行语音识别得到对应的当前回复语音文本数据;
判断所述当前回复语音文本数据中是否包括肯定回复关键词、否定回复关键词、或是跳转人工服务关键词;
若所述当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,调用本地存储的与所述当前回复文本对应的目标词槽;其中,目标词槽中包括目标词槽名称、目标NLP模型编码、目标词槽固定话术模型;以及
若检测接收到用户的第一事项办理语音数据,由所述目标NLP模型编码获取对应的目标NLP模型,通过所述目标NLP模型对所述第一事项办理语音数据进行识别,得到对应的第一识别结果。
第二方面,本发明实施例提供了一种语音的意图识别装置,其包括:
第一语音识别单元,用于若接收到用户端发送的用户初始语音数据,对所述用户初始语音数据进行语音识别,得到与所述用户初始语音数据对应的初始语音文本数据;
当前回复语音获取单元,用于通过调用预先训练的自然语言理解模型以获取所述初始语音文本数据对应的当前回复文本,通过调用预先训练的自然语言生成模型以将当前回复文本对应生成当前回复语音,将所述当前回复语音发送至用户端;
第二语音识别单元,用于若接收用户端所发送的与所述当前回复语音对应的用户回复语音数据,对所述用户回复语音数据进行语音识别得到对应的当前回复语音文本数据;
关键词判断单元,用于判断所述当前回复语音文本数据中是否包括肯定回复关键词、否定回复关键词、或是跳转人工服务关键词;
目标词槽获取单元,用于若所述当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,调用本地存储的与所述当前回复文本对应的目标词槽;其中,目标词槽中包括目标词槽名称、目标NLP模型编码、目标词槽固定话术模型;以及
事项语音识别单元,用于若检测接收到用户的第一事项办理语音数据,由所述目标NLP模型编码获取对应的目标NLP模型,通过所述目标NLP模型对所述第一事项办理语音数据进行识别,得到对应的第一识别结果。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的语音的意图识别方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的语音的意图识别方法。
本发明实施例提供了一种语音的意图识别方法、装置、计算机设备及存储介质,包括若接收到用户端发送的用户初始语音数据,对用户初始语音数据进行语音识别,得到对应的初始语音文本数据;通过调用自然语言理解模型以获取初始语音文本数据对应的当前回复文本,通过调用自然语言生成模型以将当前回复文本对应生成当前回复语音,将当前回复语音发送至用户端;若接收用户端所发送的与当前回复语音对应的用户回复语音数据,对用户回复语音数据进行语音识别得到对应的当前回复语音文本数据;若当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,调用本地存储的与当前回复文本对应的目标词槽;以及若检测接收到用户的第一事项办理语音数据,由目标NLP模型编码获取对应的目标NLP模型,通过目标NLP模型对第一事项办理语音数据进行识别,得到对应的第一识别结果。该方法实现了通过多种不同的方式完成对用户意图识别,提高了基于用户语音的意图识别准确率,降低与智能客服机器人对话进行事项办理的耗时。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的语音的意图识别方法的应用场景示意图;
图2为本发明实施例提供的语音的意图识别方法的流程示意图;
图3为本发明实施例提供的语音的意图识别方法的的子流程示意图;
图4为本发明实施例提供的语音的意图识别装置的示意性框图;
图5为本发明实施例提供的语音的意图识别装置的子单元示意性框图;
图6为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的语音的意图识别方法的应用场景示意图,图2为本发明实施例提供的语音的意图识别方法的流程示意图,该语音的意图识别方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S110~S160。
S110、若接收到用户端发送的用户初始语音数据,对所述用户初始语音数据进行语音识别,得到与所述用户初始语音数据对应的初始语音文本数据。
在本实施例中,为了更清楚的理解技术方案,对具体实现场景所涉及的终端进行详细介绍。本申请是在服务器的角度描述技术方案。
一是用户端,用户端为用户所使用的智能终端(如智能手机等终端),用户可以使用用户端与服务器对应提供的智能对话系统进行语音交流,以实现具体的事项办理。也即用户端可以将所采集到的用户语音发送至服务器。
二是服务器,服务器对所接收到的由用户端所发送的用户语音,结合本地的智能对话系统的语音识别功能,进行各种事项办理。
服务器判断是否接收到用户端发送的用户初始语音数据,对应的场景是此时通过用户端与服务器建立连接后,用户可与服务器一侧所部署的智能对话系统进行交流。一般服务器这一侧的智能对话系统向用户端发送的第一段语音一般是包括欢迎词和待办业务类型询问语句,例如“欢迎致电XXX公司,请问您需要办理哪种业务”这一类型的语音。
当用户端接收了服务器发送的第一段语音后,用户会根据第一段语音对应进行回答,此时用户端对用户回答第一段语音而发出的语音进行采集,得到对应的用户初始语音数据。服务器接收了用户初始语音数据对其进行识别,得到初始语音文本数据。
在一实施例中,步骤S110包括:
通过调用预先存储的N元模型对所述用户初始语音数据进行语音识别,得到对应的初始语音文本数据。
在本实施例中,N元模型即N-gram模型,N-gram模型是一种语言模型(LanguageModel,LM),语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列),输出是这句话的概率,即这些单词的联合概率(joint probability)。N-gram模型也可以用于语音文本识别。
当服务器接收到了用户端所发送的用户初始语音数据时,可以通过调用N元模型所述对所述用户初始语音数据进行语音识别,以得到对应的初始语音文本数据。通过N元模型进行语音识别,提高了对客户语音进行语音转文字时的正确率。
S120、通过调用预先训练的自然语言理解模型以获取所述初始语音文本数据对应的当前回复文本,通过调用预先训练的自然语言生成模型以将当前回复文本对应生成当前回复语音,将所述当前回复语音发送至用户端。
在本实施例中,自然语言理解模型即NLU模型(NLU的全称是Natural LanguageUnderstanding)。自然语言处理模型(即NLP模型)一般是包括自然语言理解模型和自然语言生成模型(即NLG模型,NLG的全称是Natural Language Generation)。其中,NLU负责理解内容,NLG负责生成内容。当用户对智能对话系统说“我的银行卡还信用卡时自动扣款失败”,首先需要利用NLU模型判断用户意图,理解用户想要什么,然后利用NLG模型说出“请问您是否开通自动还款功能”。
其中,常用的自然语言理解模型是Transformer模型(是一个完全基于注意力机制的编解码器模型,即翻译模型),用了encoer-decoder架构。Transformer模型的具体处理过程如下:输入序列首先经过word embedding(即词嵌入,也就是将输入序列转化为词向量),再和positional encoding(即位置编码)相加后,输入到encoder(即编码器)中,编码器的输出序列经过的处理和输入序列一样,然后输入到decoder(即解码器中),最终得到与输入序列对应的最终输出序列。
之后由于最终输出序列是文本数据,而此时智能对话系统需要将其转化为语音数据后发送至用户端,此时则可将该当前回复语音发送至用户端。例如仍然参考上述实例,当用户对智能对话系统说“我的银行卡还信用卡时自动扣款失败”,智能对话系统对用户说出“请问您是否开通自动还款功能”。
在一实施例中,步骤S120中所述自然语言理解模型及所述自然语言生成模型均存储于区块链网络中。
在本实施例中,基于所述自然语言理解模型及所述自然语言生成模型得到对应的摘要信息,具体来说,摘要信息由所述自然语言理解模型及所述自然语言生成模型进行散列处理得到,比如利用sha256算法处理得到。将摘要信息上传至区块链可保证其安全性和对用户的公正透明性。用户设备可以从区块链中下载得该摘要信息,以便查证所述自然语言理解模型及所述自然语言生成模型是否被篡改。
本示例所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。。
此时,服务器中所述调用的所述自然语言理解模型及所述自然语言生成模型均存储于区块链网络中,以确保模型的不可篡改。而且服务器作为区块链节点设备上传的所述自然语言理解模型及所述自然语言生成模型,均可以被与服务器处于同一区块链网络中的其他区块链节点设备所调用。
S130、若接收用户端所发送的与所述当前回复语音对应的用户回复语音数据,对所述用户回复语音数据进行语音识别得到对应的当前回复语音文本数据。
在本实施例中,由于用户端接收了当前回复语音(例如请问您是否开通自动还款功能)后,会根据该当前回复语音进行回复,即用户端在采集到的与当前回复语音对应的用户回复语音数据后,将用户回复语音数据发送至服务器。此时在服务器中还是可以通过N元模型对所述用户回复语音数据进行语音识别以得到对应的当前回复语音文本数据。
S140、判断所述当前回复语音文本数据中是否包括肯定回复关键词、否定回复关键词、或是跳转人工服务关键词。
在本实施例中,在服务器中可以判断所述当前回复语音文本数据中是否包括肯定回复关键词(肯定回复关键词具体为是),或是否包括否定回复关键词(否定回复关键词具体为不是),或是否包括跳转人工服务关键词,一旦所述当前回复语音文本数据中包括上述三种类型关键词其中一种时则执行对应的处理流程;若所述当前回复语音文本数据中未包括上述三种类型关键词任意一种时则也执行对应的处理流程。
S150、若所述当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,调用本地存储的与所述当前回复文本对应的目标词槽;其中,目标词槽中包括目标词槽名称、目标NLP模型编码、目标词槽固定话术模型。
在本实施例中,当判定所述当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,表示用户针对所述当前回复语音做出了肯定或者否定的回复,表示进入了办理当前事项的正常流程。此时为了提高用户后续对话的识别效率,此时可以调用本地存储的与所述当前回复文本对应的目标词槽。
目标词槽中包括针对智能对话系统在接下来与用户的交谈中所采用的NLP模型对应的目标NLP模型编码,以及所采用的目标词槽固定话术模型。该目标词槽固定话术模型设置了智能对话系统在接下来与用户的交谈中固定使用的话术,例如您暂未开通我行自动还款功能,如需开通请说“是”,无需开通请说“返回”。由于此时调用了目标NLP模型对用户的后续语音文本进行识别转换,且该目标NLP模型就是针对此种对话场景训练的模型,故能有更高的识别率,能更准确的理解用户意图。而且由于目标词槽中设置了固定话术模型,可以根据该固定话术模型引导用户更快速的办理完事项,提高了对每一用户所需办理事项的数据处理效率。
S160、若检测接收到用户的第一事项办理语音数据,由所述目标NLP模型编码获取对应的目标NLP模型,通过所述目标NLP模型对所述第一事项办理语音数据进行识别,得到对应的第一识别结果。
在本实施例中,由于目标词槽中设置了对应的目标NLP模型编码,当根据目标NLP模型编码在服务器的本地调用与所述目标NLP模型编码获取对应的目标NLP模型后,通过所述目标NLP模型对所述第一事项办理语音数据进行识别,得到对应的第一识别结果。通过这一定向获取目标NLP模型,由于该目标NLP模型就是针对此种对话场景训练的模型,故能有更高的识别率,能更准确的理解用户意图。
在一实施例中,如图3所示,步骤S160之后还包括:
S170、若所述当前回复语音文本数据中包括跳转人工服务关键词,获取当前状态为空闲的坐席端连接请求发送至用户端。
在本实施例中,当判定所述当前回复语音文本数据中包括跳转人工服务关键词,表示用户针对所述当前回复语音不太理解,可能需要跳转人工服务。此时,获取当前状态为空闲的坐席端连接请求发送至用户端,用户端选定接收与该坐席端进行连接后,即可通过坐席端提供的人工服务辅助用户完成后续流程。通过人工服务介入事项流程,能辅助用户更快捷的完成事项办理。
在一实施例中,步骤S160之后还包括:
若所述当前回复语音文本数据中未包括回复关键词、否定回复关键词及跳转人工服务关键词中其中任意一个,调用本地存储的与所述当前回复语音文本数据对应的事项流程数据。
在本实施例中,当判定若所述当前回复语音文本数据中未包括回复关键词、否定回复关键词及跳转人工服务关键词中其中任意一个,表示可以根据用户端针对用户初始语音数据回复而得到的初始语音文本数据来进一步判断用户所需办理事项的事项类型。
例如,用户针对“请问您是否开通自动还款功能”这一问题,所给出的答复并非为是、不是、或者跳转人工服务中的任意一种时,而是答复“我要查询信用卡固定额度”,此时上述回复中包括信用卡固定额度及查询这两个关键词,此时在本地调用与上述两个关键词对应的事项流程数据,并按照事项流程数据中流程顺序依序将对应的流程问题发送至用户端,以通过自助办理的流程指引用户完成事项办理。
在一实施例中,步骤S160、或者步骤S170或者所述若所述当前回复语音文本数据中未包括回复关键词、否定回复关键词及跳转人工服务关键词中其中任意一个,调用本地存储的与所述当前回复语音文本数据对应的事项流程数据的步骤还包括:
若检测到与所述事项流程数据对应的未识别指令,将初始语音文本数据发送至当前状态为空闲的静默坐席端;
接收静默坐席端的静默回复文本,将所述静默回复文本转化为对应的人工协助语音数据并发送至用户端。
在本实施例中,若通过所述事项流程数据的指引,仍未引导用户成功办理事项,此时可以触发生成未识别指令。此时若服务器检测到生成的未识别指令,表示可以切换至静默坐席端以辅助用户办理事项。此时用户不再与智能对话系统进行对话,而且切换为静默坐席服务。
静默坐席端与前述坐席端的区别在于,该静默坐席端不是通过其本人语音沟通的方式与用户进行沟通,而是服务器将用户的每一句对话转化为文本后展示在静默坐席端的显示界面上,即静默坐席端根据该对话的文本配置对应的话术后转化为静默回复文本发送至服务器。
当服务器接收到收到静默坐席端的静默回复文本,将所述静默回复文本转化为对应的人工协助语音数据并发送至用户端,也即通过一种人工静默辅助参与的方式,引导用户完成事项办理。
该方法实现了通过多种不同的方式完成对用户意图识别,提高了基于用户语音的意图识别准确率,降低与智能客服机器人对话进行事项办理的耗时。
本发明实施例还提供一种语音的意图识别装置,该语音的意图识别装置用于执行前述语音的意图识别方法的任一实施例。具体地,请参阅图4,图4是本发明实施例提供的语音的意图识别装置的示意性框图。该语音的意图识别装置100可以配置于服务器中。
如图4所示,语音的意图识别装置100包括:第一语音识别单元110、当前回复语音获取单元120、第二语音识别单元130、关键词判断单元140、目标词槽获取单元150、事项语音识别单元160。
第一语音识别单元110,用于若接收到用户端发送的用户初始语音数据,对所述用户初始语音数据进行语音识别,得到与所述用户初始语音数据对应的初始语音文本数据。
在本实施例中,服务器判断是否接收到用户端发送的用户初始语音数据,对应的场景是此时通过用户端与服务器建立连接后,用户可与服务器一侧所部署的智能对话系统进行交流。一般服务器这一侧的智能对话系统向用户端发送的第一段语音一般是包括欢迎词和待办业务类型询问语句,例如“欢迎致电XXX公司,请问您需要办理哪种业务”这一类型的语音。
当用户端接收了服务器发送的第一段语音后,用户会根据第一段语音对应进行回答,此时用户端对用户回答第一段语音而发出的语音进行采集,得到对应的用户初始语音数据。服务器接收了用户初始语音数据对其进行识别,得到初始语音文本数据。
在一实施例中,第一语音识别单元110还用于:
通过调用预先存储的N元模型对所述用户初始语音数据进行语音识别,得到对应的初始语音文本数据。
在本实施例中,N元模型即N-gram模型,N-gram模型是一种语言模型(LanguageModel,LM),语言模型是一个基于概率的判别模型,它的输入是一句话(单词的顺序序列),输出是这句话的概率,即这些单词的联合概率(joint probability)。N-gram模型也可以用于语音文本识别。
当服务器接收到了用户端所发送的用户初始语音数据时,可以通过调用N元模型所述对所述用户初始语音数据进行语音识别,以得到对应的初始语音文本数据。通过N元模型进行语音识别,提高了对客户语音进行语音转文字时的正确率。
当前回复语音获取单元120,用于通过调用预先训练的自然语言理解模型以获取所述初始语音文本数据对应的当前回复文本,通过调用预先训练的自然语言生成模型以将当前回复文本对应生成当前回复语音,将所述当前回复语音发送至用户端。
在本实施例中,自然语言理解模型即NLU模型(NLU的全称是Natural LanguageUnderstanding)。自然语言处理模型(即NLP模型)一般是包括自然语言理解模型和自然语言生成模型(即NLG模型,NLG的全称是Natural Language Generation)。其中,NLU负责理解内容,NLG负责生成内容。当用户对智能对话系统说“我的银行卡还信用卡时自动扣款失败”,首先需要利用NLU模型判断用户意图,理解用户想要什么,然后利用NLG模型说出“请问您是否开通自动还款功能”。
其中,常用的自然语言理解模型是Transformer模型(是一个完全基于注意力机制的编解码器模型,即翻译模型),用了encoer-decoder架构。Transformer模型的具体处理过程如下:输入序列首先经过word embedding(即词嵌入,也就是将输入序列转化为词向量),再和positional encoding(即位置编码)相加后,输入到encoder(即编码器)中,编码器的输出序列经过的处理和输入序列一样,然后输入到decoder(即解码器中),最终得到与输入序列对应的最终输出序列。
之后由于最终输出序列是文本数据,而此时智能对话系统需要将其转化为语音数据后发送至用户端,此时则可将该当前回复语音发送至用户端。例如仍然参考上述实例,当用户对智能对话系统说“我的银行卡还信用卡时自动扣款失败”,智能对话系统对用户说出“请问您是否开通自动还款功能”。
在一实施例中,当前回复语音获取单元120中所述自然语言理解模型及所述自然语言生成模型均存储于区块链网络中。
在本实施例中,基于所述自然语言理解模型及所述自然语言生成模型得到对应的摘要信息,具体来说,摘要信息由所述自然语言理解模型及所述自然语言生成模型进行散列处理得到,比如利用sha256算法处理得到。将摘要信息上传至区块链可保证其安全性和对用户的公正透明性。用户设备可以从区块链中下载得该摘要信息,以便查证所述自然语言理解模型及所述自然语言生成模型是否被篡改。
本示例所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。。
此时,服务器中所述调用的所述自然语言理解模型及所述自然语言生成模型均存储于区块链网络中,以确保模型的不可篡改。而且服务器作为区块链节点设备上传的所述自然语言理解模型及所述自然语言生成模型,均可以被与服务器处于同一区块链网络中的其他区块链节点设备所调用。
第二语音识别单元130,用于若接收用户端所发送的与所述当前回复语音对应的用户回复语音数据,对所述用户回复语音数据进行语音识别得到对应的当前回复语音文本数据。
在本实施例中,由于用户端接收了当前回复语音(例如请问您是否开通自动还款功能)后,会根据该当前回复语音进行回复,即用户端在采集到的与当前回复语音对应的用户回复语音数据后,将用户回复语音数据发送至服务器。此时在服务器中还是可以通过N元模型对所述用户回复语音数据进行语音识别以得到对应的当前回复语音文本数据。
关键词判断单元140,用于判断所述当前回复语音文本数据中是否包括肯定回复关键词、否定回复关键词、或是跳转人工服务关键词。
在本实施例中,在服务器中可以判断所述当前回复语音文本数据中是否包括肯定回复关键词(肯定回复关键词具体为是),或是否包括否定回复关键词(否定回复关键词具体为不是),或是否包括跳转人工服务关键词,一旦所述当前回复语音文本数据中包括上述三种类型关键词其中一种时则执行对应的处理流程;若所述当前回复语音文本数据中未包括上述三种类型关键词任意一种时则也执行对应的处理流程。
目标词槽获取单元150,用于若所述当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,调用本地存储的与所述当前回复文本对应的目标词槽;其中,目标词槽中包括目标词槽名称、目标NLP模型编码、目标词槽固定话术模型。
在本实施例中,当判定所述当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,表示用户针对所述当前回复语音做出了肯定或者否定的回复,表示进入了办理当前事项的正常流程。此时为了提高用户后续对话的识别效率,此时可以调用本地存储的与所述当前回复文本对应的目标词槽。
目标词槽中包括针对智能对话系统在接下来与用户的交谈中所采用的NLP模型对应的目标NLP模型编码,以及所采用的目标词槽固定话术模型。该目标词槽固定话术模型设置了智能对话系统在接下来与用户的交谈中固定使用的话术,例如您暂未开通我行自动还款功能,如需开通请说“是”,无需开通请说“返回”。由于此时调用了目标NLP模型对用户的后续语音文本进行识别转换,且该目标NLP模型就是针对此种对话场景训练的模型,故能有更高的识别率,能更准确的理解用户意图。而且由于目标词槽中设置了固定话术模型,可以根据该固定话术模型引导用户更快速的办理完事项,提高了对每一用户所需办理事项的数据处理效率。
事项语音识别单元160,用于若检测接收到用户的第一事项办理语音数据,由所述目标NLP模型编码获取对应的目标NLP模型,通过所述目标NLP模型对所述第一事项办理语音数据进行识别,得到对应的第一识别结果。
在本实施例中,由于目标词槽中设置了对应的目标NLP模型编码,当根据目标NLP模型编码在服务器的本地调用与所述目标NLP模型编码获取对应的目标NLP模型后,通过所述目标NLP模型对所述第一事项办理语音数据进行识别,得到对应的第一识别结果。通过这一定向获取目标NLP模型,由于该目标NLP模型就是针对此种对话场景训练的模型,故能有更高的识别率,能更准确的理解用户意图。
在一实施例中,如图5所示,语音的意图识别装置100还包括:
人工服务跳转单元170,用于若所述当前回复语音文本数据中包括跳转人工服务关键词,获取当前状态为空闲的坐席端连接请求发送至用户端。
在本实施例中,当判定所述当前回复语音文本数据中包括跳转人工服务关键词,表示用户针对所述当前回复语音不太理解,可能需要跳转人工服务。此时,获取当前状态为空闲的坐席端连接请求发送至用户端,用户端选定接收与该坐席端进行连接后,即可通过坐席端提供的人工服务辅助用户完成后续流程。通过人工服务介入事项流程,能辅助用户更快捷的完成事项办理。
在一实施例中,语音的意图识别装置100还包括:
自助办理提示单元,用于若所述当前回复语音文本数据中未包括回复关键词、否定回复关键词及跳转人工服务关键词中其中任意一个,调用本地存储的与所述当前回复语音文本数据对应的事项流程数据。
在本实施例中,当判定若所述当前回复语音文本数据中未包括回复关键词、否定回复关键词及跳转人工服务关键词中其中任意一个,表示可以根据用户端针对用户初始语音数据回复而得到的初始语音文本数据来进一步判断用户所需办理事项的事项类型。
例如,用户针对“请问您是否开通自动还款功能”这一问题,所给出的答复并非为是、不是、或者跳转人工服务中的任意一种时,而是答复“我要查询信用卡固定额度”,此时上述回复中包括信用卡固定额度及查询这两个关键词,此时在本地调用与上述两个关键词对应的事项流程数据,并按照事项流程数据中流程顺序依序将对应的流程问题发送至用户端,以通过自助办理的流程指引用户完成事项办理。
在一实施例中,语音的意图识别装置100还包括:
静默坐席端通讯单元,用于若检测到与所述事项流程数据对应的未识别指令,将初始语音文本数据发送至当前状态为空闲的静默坐席端;
静默回复文本转化单元,用于接收静默坐席端的静默回复文本,将所述静默回复文本转化为对应的人工协助语音数据并发送至用户端。
在本实施例中,若通过所述事项流程数据的指引,仍未引导用户成功办理事项,此时可以触发生成未识别指令。此时若服务器检测到生成的未识别指令,表示可以切换至静默坐席端以辅助用户办理事项。此时用户不再与智能对话系统进行对话,而且切换为静默坐席服务。
静默坐席端与前述坐席端的区别在于,该静默坐席端不是通过其本人语音沟通的方式与用户进行沟通,而是服务器将用户的每一句对话转化为文本后展示在静默坐席端的显示界面上,即静默坐席端根据该对话的文本配置对应的话术后转化为静默回复文本发送至服务器。
当服务器接收到收到静默坐席端的静默回复文本,将所述静默回复文本转化为对应的人工协助语音数据并发送至用户端,也即通过一种人工静默辅助参与的方式,引导用户完成事项办理。
该装置实现了通过多种不同的方式完成对用户意图识别,提高了基于用户语音的意图识别准确率,降低与智能客服机器人对话进行事项办理的耗时。
上述语音的意图识别装置可以实现为计算机程序的形式,该计算机程序可以在如图6所示的计算机设备上运行。
请参阅图6,图6是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图6,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行语音的意图识别方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行语音的意图识别方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图6中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现本发明实施例公开的语音的意图识别方法。
本领域技术人员可以理解,图6中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图6所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现本发明实施例公开的语音的意图识别方法。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (10)

1.一种语音的意图识别方法,其特征在于,包括:
若接收到用户端发送的用户初始语音数据,对所述用户初始语音数据进行语音识别,得到与所述用户初始语音数据对应的初始语音文本数据;
通过调用预先训练的自然语言理解模型以获取所述初始语音文本数据对应的当前回复文本,通过调用预先训练的自然语言生成模型以将当前回复文本对应生成当前回复语音,将所述当前回复语音发送至用户端;
若接收用户端所发送的与所述当前回复语音对应的用户回复语音数据,对所述用户回复语音数据进行语音识别得到对应的当前回复语音文本数据;
判断所述当前回复语音文本数据中是否包括肯定回复关键词、否定回复关键词、或是跳转人工服务关键词;
若所述当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,调用本地存储的与所述当前回复文本对应的目标词槽;其中,目标词槽中包括目标词槽名称、目标NLP模型编码、目标词槽固定话术模型;以及
若检测接收到用户的第一事项办理语音数据,由所述目标NLP模型编码获取对应的目标NLP模型,通过所述目标NLP模型对所述第一事项办理语音数据进行识别,得到对应的第一识别结果。
2.根据权利要求1所述的语音的意图识别方法,其特征在于,所述判断所述当前回复语音文本数据中是否包括肯定回复关键词、否定回复关键词、或是跳转人工服务关键词之后,还包括:
若所述当前回复语音文本数据中包括跳转人工服务关键词,获取当前状态为空闲的坐席端连接请求发送至用户端。
3.根据权利要求1所述的语音的意图识别方法,其特征在于,所述判断所述当前回复语音文本数据中是否包括肯定回复关键词、否定回复关键词、或是跳转人工服务关键词之后,还包括:
若所述当前回复语音文本数据中未包括回复关键词、否定回复关键词及跳转人工服务关键词中其中任意一个,调用本地存储的与所述当前回复语音文本数据对应的事项流程数据。
4.根据权利要求3所述的语音的意图识别方法,其特征在于,还包括:
若检测到与所述事项流程数据对应的未识别指令,将初始语音文本数据发送至当前状态为空闲的静默坐席端;
接收静默坐席端的静默回复文本,将所述静默回复文本转化为对应的人工协助语音数据并发送至用户端。
5.根据权利要求1所述的语音的意图识别方法,其特征在于,所述对所述用户初始语音数据进行语音识别,得到与所述用户初始语音数据对应的初始语音文本数据,包括:
通过调用预先存储的N元模型对所述用户初始语音数据进行语音识别,得到对应的初始语音文本数据。
6.根据权利要求1所述的语音的意图识别方法,其特征在于,所述自然语言理解模型及所述自然语言生成模型均存储于区块链网络中。
7.一种语音的意图识别装置,其特征在于,包括:
第一语音识别单元,用于若接收到用户端发送的用户初始语音数据,对所述用户初始语音数据进行语音识别,得到与所述用户初始语音数据对应的初始语音文本数据;
当前回复语音获取单元,用于通过调用预先训练的自然语言理解模型以获取所述初始语音文本数据对应的当前回复文本,通过调用预先训练的自然语言生成模型以将当前回复文本对应生成当前回复语音,将所述当前回复语音发送至用户端;
第二语音识别单元,用于若接收用户端所发送的与所述当前回复语音对应的用户回复语音数据,对所述用户回复语音数据进行语音识别得到对应的当前回复语音文本数据;
关键词判断单元,用于判断所述当前回复语音文本数据中是否包括肯定回复关键词、否定回复关键词、或是跳转人工服务关键词;
目标词槽获取单元,用于若所述当前回复语音文本数据中包括肯定回复关键词或否定回复关键词,调用本地存储的与所述当前回复文本对应的目标词槽;其中,目标词槽中包括目标词槽名称、目标NLP模型编码、目标词槽固定话术模型;以及
事项语音识别单元,用于若检测接收到用户的第一事项办理语音数据,由所述目标NLP模型编码获取对应的目标NLP模型,通过所述目标NLP模型对所述第一事项办理语音数据进行识别,得到对应的第一识别结果。
8.根据权利要求7所述的语音的意图识别装置,其特征在于,还包括:
人工服务跳转单元,用于若所述当前回复语音文本数据中包括跳转人工服务关键词,获取当前状态为空闲的坐席端连接请求发送至用户端。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述的语音的意图识别方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至6任一项所述的语音的意图识别方法。
CN202010507190.1A 2020-06-05 2020-06-05 语音的意图识别方法、装置、计算机设备及存储介质 Active CN111710336B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010507190.1A CN111710336B (zh) 2020-06-05 2020-06-05 语音的意图识别方法、装置、计算机设备及存储介质
PCT/CN2020/123205 WO2021135548A1 (zh) 2020-06-05 2020-10-23 语音的意图识别方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010507190.1A CN111710336B (zh) 2020-06-05 2020-06-05 语音的意图识别方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN111710336A true CN111710336A (zh) 2020-09-25
CN111710336B CN111710336B (zh) 2023-05-26

Family

ID=72539507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010507190.1A Active CN111710336B (zh) 2020-06-05 2020-06-05 语音的意图识别方法、装置、计算机设备及存储介质

Country Status (2)

Country Link
CN (1) CN111710336B (zh)
WO (1) WO2021135548A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112365894A (zh) * 2020-11-09 2021-02-12 平安普惠企业管理有限公司 基于ai的复合语音交互方法、装置及计算机设备
WO2021135548A1 (zh) * 2020-06-05 2021-07-08 平安科技(深圳)有限公司 语音的意图识别方法、装置、计算机设备及存储介质
CN113114851A (zh) * 2021-03-24 2021-07-13 北京百度网讯科技有限公司 来电智能语音回复方法、设备和存储介质
CN113160817A (zh) * 2021-04-22 2021-07-23 平安科技(深圳)有限公司 基于意图识别的语音交互方法及系统
CN113506573A (zh) * 2021-08-06 2021-10-15 百融云创科技股份有限公司 生成回复语音的方法及装置
CN114220432A (zh) * 2021-11-15 2022-03-22 交通运输部南海航海保障中心广州通信中心 基于海事单边带语音自动监听方法、系统及存储介质
WO2022160969A1 (zh) * 2021-02-01 2022-08-04 北京邮电大学 基于多轮对话改进的智能客服辅助系统系统和方法
CN115643229A (zh) * 2022-09-29 2023-01-24 深圳市毅光信电子有限公司 通话事项处理方法、装置、系统、电子设备及存储介质
CN116450799A (zh) * 2023-06-16 2023-07-18 浪潮智慧科技有限公司 一种应用于交通管理服务的智能对话方法及设备

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113642334B (zh) * 2021-08-11 2023-12-05 科大讯飞股份有限公司 意图识别方法、装置、电子设备和存储介质
CN113689862B (zh) * 2021-08-23 2024-03-22 南京优飞保科信息技术有限公司 一种客服坐席语音数据的质检方法和系统
CN113727051A (zh) * 2021-08-31 2021-11-30 深圳市思迪信息技术股份有限公司 基于虚拟坐席的双向视频方法及系统、设备及存储介质
CN113794808B (zh) * 2021-09-01 2024-01-30 北京亿心宜行汽车技术开发服务有限公司 代驾电话下单方法及系统
CN113849604A (zh) * 2021-09-27 2021-12-28 广东纬德信息科技股份有限公司 一种基于nlp的电网调控方法、系统、设备及可存储介质
CN113988803A (zh) * 2021-10-28 2022-01-28 国网福建省电力有限公司 支持服务流程可视化配置的供电服务指挥人机交互引擎
CN114202363B (zh) * 2021-12-13 2024-10-01 中国平安财产保险股份有限公司 基于人工智能的话术调用方法、装置、计算机设备及介质
CN114781401A (zh) * 2022-05-06 2022-07-22 马上消费金融股份有限公司 一种数据处理方法、装置、设备和存储介质
CN115936011B (zh) * 2022-12-28 2023-10-20 南京易米云通网络科技有限公司 智能对话中多意图语义识别方法
CN116664078B (zh) * 2023-07-24 2023-10-10 杭州所思互连科技有限公司 基于语意特征向量的rpa对象识别方法
CN117238293B (zh) * 2023-09-12 2024-08-06 深圳市途林科技有限公司 基于大型语言模型的酒店旅游交互方法、装置及计算设备
CN117149983B (zh) * 2023-10-30 2024-02-27 山东高速信息集团有限公司 基于高速公路业务智能对话的方法、装置及设备
CN117594038B (zh) * 2024-01-19 2024-04-02 壹药网科技(上海)股份有限公司 语音服务改进方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109688281A (zh) * 2018-12-03 2019-04-26 复旦大学 一种智能语音交互方法及系统
CN109829036A (zh) * 2019-02-12 2019-05-31 浙江核新同花顺网络信息股份有限公司 一种对话管理方法及相关装置
CN109981910A (zh) * 2019-02-22 2019-07-05 中国联合网络通信集团有限公司 业务推荐方法及设备
CN110060663A (zh) * 2019-04-28 2019-07-26 北京云迹科技有限公司 一种应答服务的方法、装置及系统
CN110377716A (zh) * 2019-07-23 2019-10-25 百度在线网络技术(北京)有限公司 对话的交互方法、装置及计算机可读存储介质
CN110827816A (zh) * 2019-11-08 2020-02-21 杭州依图医疗技术有限公司 语音指令识别方法、装置、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961780B (zh) * 2017-12-22 2024-02-02 深圳市优必选科技有限公司 一种人机交互方法、装置、服务器和存储介质
WO2019207597A1 (en) * 2018-04-23 2019-10-31 Zubair Ahmed System and method of operating open ended interactive voice response in any spoken languages
CN109829744A (zh) * 2018-12-15 2019-05-31 深圳壹账通智能科技有限公司 基于自然语言处理的咨询方法、装置、电子设备及介质
CN110491383B (zh) * 2019-09-25 2022-02-18 北京声智科技有限公司 一种语音交互方法、装置、系统、存储介质及处理器
CN111710336B (zh) * 2020-06-05 2023-05-26 平安科技(深圳)有限公司 语音的意图识别方法、装置、计算机设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109688281A (zh) * 2018-12-03 2019-04-26 复旦大学 一种智能语音交互方法及系统
CN109829036A (zh) * 2019-02-12 2019-05-31 浙江核新同花顺网络信息股份有限公司 一种对话管理方法及相关装置
CN109981910A (zh) * 2019-02-22 2019-07-05 中国联合网络通信集团有限公司 业务推荐方法及设备
CN110060663A (zh) * 2019-04-28 2019-07-26 北京云迹科技有限公司 一种应答服务的方法、装置及系统
CN110377716A (zh) * 2019-07-23 2019-10-25 百度在线网络技术(北京)有限公司 对话的交互方法、装置及计算机可读存储介质
CN110827816A (zh) * 2019-11-08 2020-02-21 杭州依图医疗技术有限公司 语音指令识别方法、装置、电子设备及存储介质

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021135548A1 (zh) * 2020-06-05 2021-07-08 平安科技(深圳)有限公司 语音的意图识别方法、装置、计算机设备及存储介质
CN112365894B (zh) * 2020-11-09 2024-05-17 青岛易蓓教育科技有限公司 基于ai的复合语音交互方法、装置及计算机设备
CN112365894A (zh) * 2020-11-09 2021-02-12 平安普惠企业管理有限公司 基于ai的复合语音交互方法、装置及计算机设备
WO2022160969A1 (zh) * 2021-02-01 2022-08-04 北京邮电大学 基于多轮对话改进的智能客服辅助系统系统和方法
CN113114851A (zh) * 2021-03-24 2021-07-13 北京百度网讯科技有限公司 来电智能语音回复方法、设备和存储介质
CN113114851B (zh) * 2021-03-24 2022-06-21 北京百度网讯科技有限公司 来电智能语音回复方法、装置、电子设备和存储介质
CN113160817A (zh) * 2021-04-22 2021-07-23 平安科技(深圳)有限公司 基于意图识别的语音交互方法及系统
CN113506573A (zh) * 2021-08-06 2021-10-15 百融云创科技股份有限公司 生成回复语音的方法及装置
CN113506573B (zh) * 2021-08-06 2022-03-18 百融云创科技股份有限公司 生成回复语音的方法及装置
CN114220432A (zh) * 2021-11-15 2022-03-22 交通运输部南海航海保障中心广州通信中心 基于海事单边带语音自动监听方法、系统及存储介质
CN115643229A (zh) * 2022-09-29 2023-01-24 深圳市毅光信电子有限公司 通话事项处理方法、装置、系统、电子设备及存储介质
CN116450799A (zh) * 2023-06-16 2023-07-18 浪潮智慧科技有限公司 一种应用于交通管理服务的智能对话方法及设备
CN116450799B (zh) * 2023-06-16 2023-09-12 浪潮智慧科技有限公司 一种应用于交通管理服务的智能对话方法及设备

Also Published As

Publication number Publication date
WO2021135548A1 (zh) 2021-07-08
CN111710336B (zh) 2023-05-26

Similar Documents

Publication Publication Date Title
CN111710336A (zh) 语音的意图识别方法、装置、计算机设备及存储介质
CN111309889B (zh) 用于文本处理的方法和装置
KR102297394B1 (ko) 적절한 에이전트의 자동화된 어시스턴트 호출
McTear Modelling spoken dialogues with state transition diagrams: experiences with the CSLU toolkit
US7873149B2 (en) Systems and methods for gathering information
CN101207656B (zh) 用于动态切换模态的方法和用于提供文本交换服务的系统
CN111739519B (zh) 基于语音识别的对话管理处理方法、装置、设备及介质
US10148600B1 (en) Intelligent conversational systems
CN110838288A (zh) 一种语音交互方法及其系统和对话设备
US10382624B2 (en) Bridge for non-voice communications user interface to voice-enabled interactive voice response system
CN104488027A (zh) 声音处理系统以及终端装置
US20050043953A1 (en) Dynamic creation of a conversational system from dialogue objects
CN111696558A (zh) 智能外呼方法、装置、计算机设备及存储介质
CN111540353B (zh) 一种语义理解方法、装置、设备及存储介质
CN112131358A (zh) 场景流程结构及所应用的智能客服系统
US20060287868A1 (en) Dialog system
CN112084317A (zh) 预训练语言模型的方法和装置
CN111258529B (zh) 电子设备及其控制方法
JP2024520659A (ja) 対話型通信システムを動的にナビゲートするための方法、装置、及びシステム
CN112313657B (zh) 用于检测自动会话的方法、系统和计算机程序产品
US11669697B2 (en) Hybrid policy dialogue manager for intelligent personal assistants
CN110556111A (zh) 语音数据处理方法及装置、系统、电子设备、存储介质
CN110297702B (zh) 一种多任务并行处理方法和装置
CN112367494A (zh) 基于ai的在线会议通讯方法、装置及计算机设备
US11430446B1 (en) Dialogue system and a dialogue method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant