CN110534104B - 智能对话系统的语音匹配方法、电子装置、计算机设备 - Google Patents

智能对话系统的语音匹配方法、电子装置、计算机设备 Download PDF

Info

Publication number
CN110534104B
CN110534104B CN201910593107.4A CN201910593107A CN110534104B CN 110534104 B CN110534104 B CN 110534104B CN 201910593107 A CN201910593107 A CN 201910593107A CN 110534104 B CN110534104 B CN 110534104B
Authority
CN
China
Prior art keywords
similarity
text information
questions
expansion
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910593107.4A
Other languages
English (en)
Other versions
CN110534104A (zh
Inventor
马力
程宁
王健宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201910593107.4A priority Critical patent/CN110534104B/zh
Priority to PCT/CN2019/102841 priority patent/WO2021000403A1/zh
Publication of CN110534104A publication Critical patent/CN110534104A/zh
Application granted granted Critical
Publication of CN110534104B publication Critical patent/CN110534104B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • G06F16/319Inverted lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3338Query expansion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/148Duration modelling in HMMs, e.g. semi HMM, segmental models or transition probabilities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Machine Translation (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本发明公开了一种智能对话系统的语音匹配方法、电子装置、计算机设备,通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序,确定与所述文本信息相对应的扩展问识别意图,并与预置回应话术进行匹配,使得在智能对话系统中与用户的直接语音交互更加精准,并有效提高用户的交互性以及体验性。

Description

智能对话系统的语音匹配方法、电子装置、计算机设备
技术领域
本发明涉及智能技术领域,尤其涉及一种智能对话系统的语音匹配方法、电子装置、计算机设备。
背景技术
随着计算机技术的普及,当今人们的生活已经逐渐走入智能时代。不仅仅是电脑,手机,PAD,人们的衣食住行的方方面面都开始应用出现不久的智能技术,智能电视,智能导航,智能家居等等,智能技术将在人们生活的各个方面提供方便快捷的服务。智能语音交互是基于语音输入的新一代交互模式,通过说话就可以得到反馈结果。智能对话系统是受到数据驱动的框架需求所推动,这种框架可以降低劳时费力的人工复杂对话管理的成本,并且可以抵御在噪声环境中运行的语音识别器所产生的错误。通过包含不确定性的显式贝叶斯模型,以及通过奖励驱动过程的策略优化。
尽管在过去几十年中,语音识别技术取得了稳步进展,但在许多现实运营环境(如汽车等公共场所)中,将会话语音转换为单词的过程中仍有15%到30%的单词错误率。因此,解释和响应口头命令的系统必须实施对话策略,以解决输入的不可靠性并提供错误检查和恢复机制。结果是,传统的基于流程图的确定性系统构建起来很昂贵并且在操作中通常很脆弱,语音识别的准确率较低。
发明内容
有鉴于此,本发明提出一种智能对话系统的语音匹配方法、电子装置、计算机设备,能够在智能对话系统的语音系统中,通过在POMDP模型的精确策略学习的基础上加入相似度技术,有效地提升模型精度,使得语音匹配结果更加准确。
首先,为实现上述目的,本发明提出一种智能对话系统的语音方法,应用于电子装置中,该方法包括步骤:
将获取的用户端输入的语音信息转换为对应的文本信息;
通过检索确定与所述文本信息相对应的N个扩展问;
通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序;
根据相似度递减排序后的N个所述扩展问,生成与所述文本信息相对应的扩展问识别意图;
根据所述扩展问识别意图与预置回应话术进行匹配,并返回与所述文本信息匹配的回应话术,是的用户端进行回应语音播放。
进一步地,通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序的步骤,包括:
通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算;
将N个所述扩展问的相似度与预置阈值进行一一比对,若N个所述相似度均大于等于预置阈值,则将N个所述扩展问进行相似度递减排序。
进一步地,将N个所述扩展问的相似度与预置阈值进行一一比对的步骤,还包括:
若N个所述相似度均小于预置阈值,则通过预先训练的LSTM+CRF模型对N个所述扩展问进行分类预测;
根据分类预测结果对N个所述扩展问进行分类,使得扩展问识别意图根据分类结果生成。
进一步地,通过检索确定与所述文本信息相对应的N个扩展问的步骤,包括:
通过elasticsearch对预置数据库中的与业务场景对应的问题话术的标注意图库进行检索;
通过elasticsearch对未检索到的与所述文本信息对应的所述原扩展问进行倒排索引;
根据倒排索引结果确定与所述文本信息相对应的相似度排名为前N个的 N个扩展问。
进一步地,通过elasticsearch对预置数据库中的与业务场景对应的标注意图库进行检索的步骤,还包括:
若通过elasticsearch对预置数据库中的与业务场景对应的标注意图库进行检索,检索到与所述文本信息对应的原扩展问;
生成与所述文本信息相对应的原扩展问识别意图。
进一步地,将获取的用户语音输入的语音信箱转换为对应的文本信息的步骤,包括:
获取的用户语音输入的语音信息通过基于HMM-GMM的ASR进行识别,将所述语音信息转译为对应的预文本信息;
将所述预文本信息通过纠错算法进行纠错,获取到纠错后的所述文本信息。
进一步地,根据所述扩展问识别意图与预置回应话术进行匹配,并返回与所述文本信息匹配的回应话术,是的用户端进行回应语音播放,包括:
根据所述扩展问识别意图与预置回应话术进行匹配获取与所述文本信息匹配的回应话术;
将所述回应话术进行语音合成为与语音信息对应的回应语音,并返回所述回应语音,使得用户端进行回应语音播放。
此外,为实现上述目的,本发明还提供一种电子装置,其包括:
转换模块,适于将获取的用户端输入的语音信息转换为对应的文本信息;
检索模块,适于通过检索确定与所述文本信息相对应的N个扩展问;
相似度计算模块,适于通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序;
生成模块,适于根据相似度递减排序后的N个所述扩展问,生成与所述文本信息相对应的扩展问识别意图;
匹配模块,适于根据所述扩展问识别意图与预置回应话术进行匹配,并返回与所述文本信息匹配的回应话术,是的用户端进行回应语音播放。
进一步地,相似度计算模块,适于通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算;将N个所述扩展问的相似度与预置阈值进行一一比对,若N个所述相似度均大于等于预置阈值,则将N个所述扩展问进行相似度递减排序。
进一步地,相似度计算模块,还适于若N个所述相似度均小于预置阈值,则通过预先训练的LSTM+CRF模型对N个所述扩展问进行分类预测;根据分类预测结果对N个所述扩展问进行分类,使得扩展问识别意图根据分类结果生成。
进一步地,检索模块,适于通过elasticsearch对预置数据库中的与业务场景对应的标注意图库进行检索;通过elasticsearch对未检索到的与所述文本信息对应的所述原扩展问进行倒排索引;确定与所述文本信息相对应的N个扩展问。
进一步地,检索模块,还适于若通过elasticsearch对预置数据库中的与业务场景对应的标注意图库进行检索,检索到与所述文本信息对应的原扩展问;生成与所述文本信息相对应的原扩展问识别意图。
进一步地,转换模块,适于获取的用户语音输入的语音信息通过基于 HMM-GMM的ASR进行识别,将所述语音信息转译为对应的预文本信息;将所述预文本信息通过纠错算法进行纠错,获取到纠错后的所述文本信息。
进一步地,匹配模块,适于根据所述扩展问识别意图与预置回应话术进行匹配获取与所述文本信息匹配的回应话术;将所述回应话术进行语音合成为与语音信息对应的回应语音,并返回所述回应语音,使得用户端进行回应语音播放。
为实现上述目的,本发明还提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
为实现上述目的,本发明还提供计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述方法的步骤。
相较于现有技术,本发明所提出的智能对话系统的语音匹配方法、电子装置、计算机设备,能够通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序,确定与所述文本信息相对应的扩展问识别意图,并与预置回应话术进行匹配,使得在智能对话系统中与用户的直接语音交互更加精准,并有效提高用户的交互性以及体验性。
附图说明
图1是现有的智能语音交互系统架构图;
图2是目前的传统对话系统的主要组成部分示意图;
图3是POMDP流程图;
图4是POMDP的关系图;
图5是本发明实施例之电子装置一可选的应用环境图;
图6是本发明第一实施例之电子装置的硬件架构示意图;
图7是本发明第一实施例之电子装置的程序模块示意图;
图8是本发明第一实施例之智能对话系统的语音方法的流程示意图;
图9是本发明第二实施例之智能对话系统的语音方法的流程示意图;
图10是本发明第三实施例之智能对话系统的语音方法的流程示意图。
附图标记:
用户终端 10
电子装置 20
机房 30
存储器 21
处理器 22
接口 23
智能对话系统 24
转换模块 201
检索模块 202
相似度计算模块 203
生成模块 204
匹配模块 205
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了便于理解本发明实施例的具体实施方式,下面先对现有的智能语音交互系统架构进行描述。
图1所示的现有的智能语音交互系统架构图,智能对话系统允许用户使用语音作为主要的,通常是唯一的通信媒介,与各种各样的信息系统进行交互。传统上,SDS主要部署在呼叫中心应用中,应用中的系统可以减少对操作人员的需求,从而降低成本。最近,移动电话中语音接口的使用已经变得很普遍,例如Apple的Siri和Nuance的Dragon Go!,展示了将自然的对话语音交互集成到移动产品,应用程序和服务中的价值。图1显示了整个智能对话系统的整体框架。在整个语音交互流程中,对话部分起着承上启下的左右,客户端用户说的话经过ASR转为文本后进入对话系统,在对话系统中通过语义理解和对话决策后,调用指定的内容服务,输出文本内容,再经过TTS转换成语音后返回给客户端上的用户。
智能对话平台一般由两部分组成。基于自然语言理解的问答系统和基于任务驱动的对话系统。其中基于自然语言理解的问答系统侧重于一问一答,即直接根据用户的问题给出精准的答案,是一个信息检索的过程。需要事先准备好一个知识库,知识库可以包含一个或多个领域,当有用户提问时,会根据用户提问的句子从知识库中找到语义匹配的答案;基于任务驱动的对话系统侧重于任务驱动的多轮对话,指用户带着明确的目的而来,希望得到满足特定限制条件的信息或服务,例如:订餐,订票,查找音乐、电影或某种商品等。因为用户需求比较负责,可能需要分成多轮陈述,在对话过程中不断修改或完善用户自己的需求意图。此外,当用户陈述的需求不够明确时,机器也可以通过询问、澄清或确认来帮助用户找到满意的结果。学术文献中所说的Spoken Dialogue System(SDS)一般特指任务驱动的多轮对话。相比问答系统的信息检索,任务驱动的对话系统是一个决策的过程,需要机器在对话过程中不断根据当前和上下文状态决策下一步应该采取的最优动作。问答和对话的根本区别在于是否需要维护用户状态和需要一个决策过程来完成任务。
结合图1描述的智能语音交互系统的架构,先就其中硬件装置部分进行描述,参阅图5所示,是本发明电子装置20一可选的应用环境示意图。
本实施例中,所述电子装置20可通过有线或无线方式与用户端10以及服务器30进行通信。所述电子装置20通过接口23获取所述用户端10的语音输入语音信息,根据获取到的语音信息获取服务器30的回应语音,并将所述回应语音通过接口于所述用户端10进行语音播放,从而实现智能对话系统的语音匹配。所述虚拟现实设备10包括眼镜、头盔以及手柄等。所述电子装置20还可以是嵌入在用户端10或服务器30。
参阅图6所示,是本发明电子装置20一可选的硬件架构示意图。电子装置 20包括,但不仅限于,可通过系统总线相互通信连接存储器21、处理22以及接口23,图6仅示出了具有组件21-23的电子装置20,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
所述存储器21至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器21可以是所述电子装置 20的内部存储单元,例如该电子装置20的硬盘或内存。在另一些实施例中,所述存储器也可以是所述电子装置20的外部存储设备,例如该电子装置20上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器21还可以既包括所述电子装置20的内部存储单元也包括其外部存储设备。本实施例中,所述存储器21通常用于存储安装于所述电子装置20的操作系统和各类应用软件,例如数据可视化系统24的程序代码等。此外,所述存储器21还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器22在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器22通常用于控制所述电子装置20的总体操作。本实施例中,所述处理器22用于运行所述存储器21中存储的程序代码或者处理数据,例如运行所述智能对话系统24等。
所述接口23可包括无线接口或有线接口,该接口23通常用于在所述电子装置20与其他电子设备之间建立通信连接。
至此,己经详细介绍了本发明相关设备的硬件结构和功能。下面,将基于上述介绍提出本发明的各个实施例。
第一实施例
首先,本发明实施例提出一种图5所示的电子装置20,并参阅图7所示,是本发明第一实施例之电子装置20的程序模块示意图。
本实施例中,所述电子装置20包括一系列的存储于存储器21上的计算机程序指令,当该计算机程序指令被处理器22执行时,可以实现本发明各实施例的智能对话系统的语音匹配操作。
在一些实施例中,基于该计算机程序指令各部分所实现的特定的操作,电子装置20可以被划分为一个或多个模块。例如,在图7中,所述电子装置20 可以被分割成转换模块201、检索模块202、相似度计算模块203、生成模块204、匹配模块205。其中:
转换模块201,适于将将获取的用户端输入的语音信息转换为对应的文本信息;
具体地,转换模块201,适于将获取的用户端输入的语音信息通过基于 HMM-GMM(隐马尔可夫模型-高斯混合模型)的ASR(自动语音识别技术, Automatic SpeechRecognition)进行识别,将所述语音信息转译为对应的预文本信息;将所述预文本信息通过纠错算法进行纠错,获取到纠错后的所述文本信息。
在一实施例中,HMM-GMM的ASR为本领域技术人员公知,此处不再详细赘述,同时,在语音识别技术中,除了HMM-GMM的ASR识别,还有其它的技术方案,此处不再赘述。
检索模块202,适于通过检索确定与所述文本信息相对应的N个扩展问;
在一个实施例中,检索模块202通过elasticsearch对预置数据库中的与业务场景对应的标注意图库进行检索;通过elasticsearch对未检索到的与所述文本信息对应的所述原扩展问进行倒排索引;确定与所述文本信息相对应的N 个扩展问。
若检索模块202通过elasticsearch对预置数据库中的与业务场景对应的标注意图库进行检索,检索到与所述文本信息对应的原扩展问;生成与所述文本信息相对应的原扩展问识别意图。
相似度计算模块203,适于通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序;
在一个实施例中,相似度计算模块203通过采用预先训练好的POMDP 模型对N个所述扩展问进行相似度计算;将N个所述扩展问的相似度与预置阈值进行一一比对,若N个所述相似度均大于等于预置阈值,则将N个所述扩展问进行相似度递减排序。
若N个所述相似度均小于预置阈值,则相似度计算模块203通过预先训练的LSTM+CRF模型对N个所述扩展问进行分类预测;根据分类预测结果对 N个所述扩展问进行分类,使得扩展问识别意图根据分类结果生成。
生成模块204,适于根据相似度递减排序后的N个所述扩展问,生成与所述文本信息相对应的扩展问识别意图;
匹配模块205,适于根据所述扩展问识别意图与预置回应话术进行匹配,并返回与所述文本信息匹配的回应话术,是的用户端进行回应语音播放。
具体地,匹配模块205根据所述扩展问识别意图与预置回应话术进行匹配获取与所述文本信息匹配的回应话术;将所述回应话术进行语音合成为与语音信息对应的回应语音,并返回所述回应语音,使得用户端进行回应语音播放。
本发明实施例所提出的电子装置20,能够通过采用预先训练好的POMDP 模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序,确定与所述文本信息相对应的扩展问识别意图,并与预置回应话术进行匹配,使得在智能对话系统中与用户的直接语音交互更加精准,并有效提高用户的交互性以及体验性。
此外,本发明还提出一种智能对话系统的语音方法。
参阅图8所示,是本发明智能对话系统的语音方法之第一实施例的流程示意图。所述智能对话系统的语音方法应用于电子装置20中。在本实施例中,根据不同的需求,图8所示的流程图中的步骤的执行顺序可以改变,某些步骤可以省略。
步骤S800,将获取的用户语音输入的语音信息转换为对应的文本信息;
具体地,当用户需要通过用户端进行智能语音对话时,用户在用户端语音输入如“最好吃的餐厅”,用户语音输入可以是不同国家语言,亦或者是不同地区方言。则将“最好吃的餐厅”转换为文本信息“最好吃的餐厅”。
步骤S801,通过检索确定与所述文本信息相对应的N个扩展问;
具体地,通过检索确定与所述文本信息“最好吃的餐厅”相对应的N个扩展问,例如当前用户端附近最好吃的餐厅,当前所处城市最好吃的餐厅,评价最好的餐厅等N个扩展问,此处具体不做限定。
步骤S802,通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序;
在其中一个实施例中,通过采用预先训练好的POMDP模型对N个所述扩展问为当前用户端附近最好吃的餐厅,当前所处城市最好吃的餐厅,评价最好的餐厅等N个扩展问进行相似度计算,例如当前用户端附近最好吃的餐厅相似度为90%,当前所处城市最好吃的餐厅相似度为70%,评价最好的餐厅相似度为80%并根据计算的所述相似度对N个所述扩展问进行相似度递减排序为当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅的相似度递减排序。
步骤S803,根据相似度递减排序后的N个所述扩展问,生成与所述文本信息相对应的扩展问识别意图;
在其中一个实施例中,根据前述的当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅的相似度递减排序,生成与所述文本信息相对应的扩展问识别意图。
步骤S804,根据所述扩展问识别意图与预置回应话术进行匹配,并返回与所述文本信息匹配的回应话术,使得用户端进行回应语音播放。
具体地,根据前述的当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅的相似度递减排序相对应的扩展问识别意图与预置回应话术进行匹配,并返回与所述文本信息匹配的回应话术,使得用户端进行回应语音播放。
本发明实施例所提出的智能对话系统的语音匹配方法、电子装置、计算机设备,能够通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序,确定与所述文本信息相对应的扩展问识别意图,并与预置回应话术进行匹配,使得在智能对话系统中与用户的直接语音交互更加精准,并有效提高用户的交互性以及体验性。
首先在过去几十年中,语音识别技术取得了稳步进展,但在许多现实运营环境(如汽车等公共场所)中,将会话语音转换为单词的过程中仍有15%到 30%的单词错误率。因此,解释和响应口头命令的系统必须实施对话策略,以解决输入的不可靠性并提供错误检查和恢复机制。结果是,传统的基于流程图的确定性系统构建起来很昂贵并且在操作中通常很脆弱。
在过去几年中,出现了一种新的对话管理方法,这种方法是基于部分可观察的马尔科夫决策过程(POMDPs)的数学框架。该方法假设对话演变为马尔科夫过程,即,从某个初始状态s0开始,每个后续状态由转移概率建模: p(st|st-1,at-1)。状态st不能直接观察到反映用户话语解释的不确定性;相反,在每一回合,系统将SLU的输出视为具有概率p(ot|st)的用户输入的噪声观察 ot(图2)。过渡和观察概率函数由适当的随机模型表示,这里称为对话模型M。在每个回合采取哪个行动的决策由编码策略P的第二个随机模型确定。随着对话的进行,一个奖励被分配在每一个步骤,这个设计用于反映对话系统的期望特征。然后可以通过与用户的在线交互或在离线相似域内收集的对话语料库来最大化这些奖励的预期累积总和,来优化对话模型M和策略模型P。
这种基于POMDP的对话模型结合了两个关键思想:置信状态跟踪和强化学习。这些想法是可分离的,并且本身就有益处。然而,将它们结合起来可以形成一个完整且有根据的数学框架,为进一步的协同增益提供机会。与传统方法相比,这种方法的潜在优势可归纳如下:
1)置信状态提供了对不确定性的明确表征,使系统对语音识别错误更加灵敏健壮。在称为置信监视的过程中,通过贝叶斯推断更新每个用户输入之后的置信状态的后验概率。置信状态的设计允许通过模型先验来捕获用户行为,并且,推理过程能够利用识别假设的完整分布,例如混淆网络和N-最佳列表。因此,证据被整合在每一回合中,使得单个错误的影响被显著降低,并且与传统系统相比,用户的持久性会得到奖励。如果用户经常足够地重复某件事情,只要正确的假设在N-最佳列表中重复出现,系统对他们所说内容的置信就会随时间增加。
2)通过维持在所有状态下的置信分布,系统可以有效地、并行地追踪所有可能的对话路径,选择其下一个行动不是基于最可能的状态而是基于所有状态的概率分布。当用户提示问题困难时,当前最可能状态的概率会降低,并且焦点简单地切换到另一状态。因此,没有必要进行反向跟踪或对特定的对话纠错。这使得强大的对话策略中嵌入一个简单的从置信到行动的同质映射。
3)状态的明确表示和策略衍生行动使得对话设计准则可以被合并,通过将奖励与状态-行动对联合。这些奖励的总和构成了对对话性能的客观衡量标准,并使强化学习能够被用于最大化性能,其中包括离线对话语料库性能和在线与真实用户的互动性能。从而引向最优决策策略,避免了昂贵的人工手动调整和细化程序的成本,并且实现了更复杂的可实施的计划,而不是可行的人工设计。
基于前述的基于POMDP的对话模型结合了两个关键思想:置信状态跟踪和强化学习描述,下面将对通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序进行详细的描述,参阅图9所示,是本发明智能对话系统的语音方法之第二实施例的流程示意图。所述智能对话系统的语音方法应用于电子装置 20中。在本实施例中,根据不同的需求,图9所示的流程图中的步骤的执行顺序可以改变,某些步骤可以省略。
步骤S900,将获取的用户语音输入的语音信息转换为对应的文本信息;
具体地,当用户需要通过用户端进行智能语音对话时,用户在用户端语音输入如“最好吃的餐厅”,用户语音输入可以是不同国家语言,亦或者是不同地区方言。则将“最好吃的餐厅”转换为文本信息“最好吃的餐厅”。
步骤S901,通过elasticsearch对未检索到的与所述文本信息对应的所述原扩展问进行倒排索引;
在其中一个实施例中,通过elasticsearch对未检索确定到的与所述文本信息对应的所述原扩展问进行倒排索引,如文本信息“最好吃的餐厅”的原扩展问未检索到,则通过elasticsearch对“最好吃的餐厅”在数据库中进行倒排索引。
步骤S902,确定与所述文本信息相对应的N个所述扩展问;
在其中一个实施例中,确定与所述文本信息“最好吃的餐厅”相对应的N 个扩展问,例如当前用户端附近最好吃的餐厅,当前所处城市最好吃的餐厅,评价最好的餐厅等N个扩展问,此处具体不做限定。
步骤S903,通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算;
在一具体实施方式中,采用预先训练好的POMDP模型对N个所述扩展问进行相似度的计算,可以是通过POMDPs的Bellman最优性方程进行近似值的计算,通过策略搜索的方式,先计算策略对应的值函数,通过找到回报值最高的策略来获得最优策略,该最优策略为相似度最高,也就是本实施例所描述的预先训练好的POMDP模型对N个所述扩展问的相似度计算。
在其中一个实施例中,通过采用预先训练好的POMDP模型对N个所述扩展问为当前用户端附近最好吃的餐厅,当前所处城市最好吃的餐厅,评价最好的餐厅等N个扩展问进行相似度计算,例如当前用户端附近最好吃的餐厅相似度为90%,当前所处城市最好吃的餐厅相似度为70%,评价最好的餐厅相似度为80%。
具体地,采用预先训练好的POMDP模型建立过程:
部分可观察的马尔科夫决策过程。形式上,部分可观察的马尔可夫决策过程被定义为元数(S,A,T,R,O,Z,γ,b0),其中S是一组状态,其中S∈S,A是一组具有a∈A的动作;T定义转移概率P(st|st-1,at-1),R定义了预期(即时,实值)奖励r(st,a_t)∈R,O是一组具有o∈O的观察值;Z定义观察概率 P(ot|st,at-1),γ是几何衰减因子0≤γ≤1,和b0是初始置信状态,定义如下。 POMDP的操作如下:在每个时间阶段,事件处于未被观察到的状态st。由于st未确切知道,被称为置信状态bt的可能状态的分布维持下去,其中表示处于特定状态st的概率。基于bt,机器选择动作at,接收奖励rt,并转换到(未观察到)状态st+1,其中s(t+1)仅取决于st和at。然后机器接收观察结果ot+1,这取决于s(t+1)和at。该过程以影像图的图形方式表示为图3。
给定现有的置信状态bt,最后的系统动作at,以及新的观察结果ot+1,更新的置信状态由下式给出:
其中η=P(ot+1|bt,at)是归一化常数,b0是在采取第一个系统动作之前的初始置信状态分布系统动作由策略π确定,策略π可以以各种方式表示。最常见的是从置信状态到行为π(b)∈A的确定性映射,或者通过动作π(a|b)∈[0,1] 的随机分布,其中π(a|b)是在置信状态b时执行动作a的概率,且为了便捷,两种类型的策略将使用相同的符号π,在符号中动作的发生决定策略是确定性的还是随机的。但请注意,其他定义是可能的,例如有限状态控制器,或从有限长度的观察序列到动作的映射(参见预测状态表示)
通过开始置信状态bt和跟随的策略π(由目标函数 给出),奖励的折扣总和可以递归地表示为确定性策略,如
和随机策略
相关量是Q函数Q^π(b,a),该函数给出期待的奖励的折扣总和,当在给定置信状态b是特定动作a发生,然后遵循策略π。显然,对于确定性政策,Vπ(b)=Qπ(b,π(b))和随机策略
Vπ(b)=∑aπ(a|b)Qπ(b,a) (4)
最优策略π*是使Vπ最大化以产生V*的策略
这是POMDPs的Bellman最优性方程。在POMDP中找到满足(5)的策略π通常被称为“求解”或“优化”POMDP。对于简单的任务,本文已经开发了精确的解决方法。但是,标准的POMDP方法无法扩展到代表现实世界对话系统所需的复杂性。即使在中等大小的系统中,状态,动作和观察的数量也可以很容易地超过1010。即使是罗列P(st+1|st,at)也是难以处理的,因此,直接计算(1)并将直接求解方法应用于(5)是非常困难的。相反,近似值已经被开发出来,近似值利用口语对话任务的特定域属性,以便为模型和策略提供紧凑的表示;并允许使用易处理的算法来执行置信监控和策略优化。这些将在以下部分中介绍。
置信状态表示和监控。对话模型M的可能方法,见图4。在实际的面向任务的SDS中,状态必须编码三种不同类型的信息:用户的目标gt,最近用户话语的意图ut和对话历史ht。目标包括必须从用户收集以便完成任务的信息,最近的用户话语表示实际表达和识别内容的对比,并且历史跟踪与先前回合相关的信息。这表明状态应该分为三个部分:
st=(gt,ut,ht) (6)
由此产生的影响图如图4所示,其中引入了一些合理的独立性假设。以这种方式对状态进行分解是有帮助的,因为它减少了状态转移矩阵的维度,并且减少了条件依赖性的数量。
将(6)中的因子分解插入到置信更新方程(1)中,并根据图4中所示的独立性假设进行简化,给出了统计SDS的基本置信更新方程:
b(t+1)(st+1)=ηP(ot+1|St+1,at)bt(st) (7)
(7)中反映了决定置信状态的各个因素以及因此在实际系统中代表这些因素所需的基础模型。
需要说明的是,前述建立的POMDP模型的目的是决定置信状态的各个因素以及因此在实际系统中代表这些因素所需的基础模型,例如是对N个扩展问通过贝叶斯推断更新每个用户输入之后的置信状态的后验概率,前述的用户目标如最好吃的餐厅,包含需要完成任务所有信息,用户真实意图是指用户实际想表达的意图而非系统识别出的意图,对话历史跟踪之前的对话流进行对应的训练,确定最好吃的餐厅这些因素所需的基础模型。
步骤S904,将N个所述扩展问的相似度与预置阈值进行一一比对,将N 个所述扩展问中相似度大于预设阈值的扩展问进行相似度递减排序;
在其中一个实施例中,将N个所述扩展问的相似度与预置阈值进行一一比对,若N个所述相似度均大于等于预置阈值,则根据计算的所述相似度对 N个所述扩展问进行相似度递减排序为当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅的相似度递减排序。
步骤S905,根据相似度递减排序后的N个所述扩展问,生成与所述文本信息相对应的扩展问识别意图;
在其中一个实施例中,根据前述的当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅的相似度递减排序,生成与所述文本信息相对应的扩展问识别意图,扩展问识别意图是根据相似度递减排序确定的,例如前述的当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅,则生成的扩展问识别意图为当前用户端附近最好吃的餐厅。
步骤S906,根据所述扩展问识别意图与预置回应话术进行匹配获取与所述文本信息匹配的回应话术文本;
具体地,根据前述的当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅的相似度递减排序相对应的扩展问识别意图与预置回应话术进行匹配,获取与所述文本信息匹配的回应话术为当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅,例如生成的扩展问识别意图为当前用户端附近最好吃的餐厅,则与预置回应话术进行匹配获取与所述文本信息匹配的回应话术文本,根据位置匹配、评价匹配获取与当前用户端附近最好吃的餐厅的回应话术文本,例如XX餐厅等。
步骤S907,将所述回应话术进行语音合成为与语音信息对应的回应语音;
具体地,将回应话术为当前用户端附近最好吃的餐厅--评价最好的餐厅-- 当前所处城市最好吃的餐厅为与语音信息对应的回应语音,例如当前用户端附近最好吃的餐厅匹配的结果为通过语音信息进行对应的回应语音,如语音为“XX餐厅”等。
步骤S908,返回与所述回应语音,使得用户端进行回应语音播放。
本发明实施例所提出的智能对话系统的语音方法,能够通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序,确定与所述文本信息相对应的扩展问识别意图,并与预置回应话术进行匹配,使得在智能对话系统中与用户的直接语音交互更加精准,并有效提高用户的交互性以及体验性。
进一步,解决了由于现实世界的SDS的状态-行动空间非常大,其有效的表示和操作需要复杂的算法和软件。实时贝叶斯推理具有挑战性,POMDP的精确策略学习同样难以处理的技术问题,因此使用有效的近似度计算,有足够的准确度来使模型参数能够被优化到可接受的性能水平。
参阅图10所示,是本发明智能对话系统的语音方法之第三实施例的流程示意图。所述智能对话系统的语音方法应用于电子装置20中。在本实施例中,根据不同的需求,图10所示的流程图中的步骤的执行顺序可以改变,某些步骤可以省略。
步骤S1000,将获取的用户语音输入的语音信息通过基于HMM-GMM的 ASR进行识别,将所述语音信息转译为对应的预文本信息;
具体地,当用户需要通过用户端进行智能语音对话时,用户在用户端语音输入如“最好吃的餐厅”,用户语音输入可以是不同国家语言,亦或者是不同地区方言。由于不同国家语言,亦或者是不同地区方言,转译为对应的预文本信息有可能会是“最好差的餐厅”等,进一步可以是,通过HMM-GMM进行音频信号的处理,例如第一步,把帧识别成状态(难点)。第二步,把状态组合成音素。第三步,把音素组合成单词。第一步可以当做GMM做的,后面两布都是HMM做的,对于本领域技术人员而言,HMM-GMM进行语音识别为本领域公知的技术,此处不再具体赘述。
步骤S1001,将所述预文本信息通过纠错算法进行纠错,获取到纠错后的所述文本信息;
具体地,当用户需要通过用户端进行智能语音对话时,用户在用户端语音输入如“最好吃的餐厅”,转译后为“最好差的餐厅”,则需要纠错,将文本信息改为“最好吃的餐厅”。需要说明的是,前述的纠错算法可以是LSTM构造的语言模型,通过对HMM-GMM进行语音识别后的文本进行进一步纠错,语音识别的纠错算法为本领域公知的技术,此处不再赘述。
步骤S1002,通过elasticsearch对预置数据库中的与业务场景对应的标注意图库进行检索;
步骤S1003,检索到与所述文本信息对应的原扩展问;
具体地,使用elasticsearch检索已经入库的业务场景的标注意图库,检索是否标注的意图库扩展问,检索到原扩展问,通过业务场景的标注意图库返回标注的对应意图,检索到与所述文本信息对应的原扩展问“最好吃的餐厅”,则直接执行步骤S1011。
步骤S1004,通过elasticsearch对未检索到的与所述文本信息对应的所述原扩展问进行倒排索引;
在其中一个实施例中,通过elasticsearch对未检索确定到的与所述文本信息对应的所述原扩展问进行倒排索引,如文本信息“最好吃的餐厅”的原扩展问未检索到,则通过elasticsearch对“最好吃的餐厅”在数据库中进行倒排索引。
步骤S1005,确定与所述文本信息相对应的N个所述扩展问;
在其中一个实施例中,确定与所述文本信息“最好吃的餐厅”相对应的N 个扩展问,例如当前用户端附近最好吃的餐厅,当前所处城市最好吃的餐厅,评价最好的餐厅等N个扩展问,此处具体不做限定。
步骤S1006,通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算;
在其中一个实施例中,通过采用预先训练好的POMDP模型对N个所述扩展问为当前用户端附近最好吃的餐厅,当前所处城市最好吃的餐厅,评价最好的餐厅等N个扩展问进行相似度计算,例如当前用户端附近最好吃的餐厅相似度为90%,当前所处城市最好吃的餐厅相似度为70%,评价最好的餐厅相似度为80%。
步骤S1007,将N个所述扩展问的相似度与预置阈值进行一一比对,若N 个所述相似度均大于等于预置阈值,则将N个所述扩展问进行相似度递减排序;
在其中一个实施例中,将N个所述扩展问的相似度与预置阈值进行一一比对,若N个所述相似度均大于等于预置阈值,则根据计算的所述相似度对 N个所述扩展问进行相似度递减排序为当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅的相似度递减排序。
步骤S1008,根据相似度递减排序后的N个所述扩展问,生成与所述文本信息相对应的扩展问识别意图;
在其中一个实施例中,根据前述的当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅的相似度递减排序,生成与所述文本信息相对应的扩展问识别意图。
步骤S1009,若N个所述相似度均小于预置阈值,则通过预先训练的LSTM+CRF模型对N个所述扩展问进行分类预测;
具体地,当步骤S1007将N个所述扩展问的相似度与预置阈值进行一一比对,若N个所述相似度均小于预置阈值,则通过预先训练的LSTM+CRF 模型对N个所述扩展问进行分类预测。LSTM+CRF模型为本领域技术人员公知的,此处不再赘述。
在一具体应用场景中,假设一段语音序列,X即表示这段语音中的一句话所含的信息,则第二句话不仅受自身所含信息X1的影响,还取决于第一句话所带的隐藏状态h0的影响。正因为此特性,RNN能够记忆序列本身信息,但因为RNN本身机制的设计,易导致严重的梯度爆炸和梯度消失问题(信息爆炸和后续信息丢失),从而记忆不了太长时间段信息,而且对内存和计算时间要求也高。鉴于此,LSTM提出了三扇“门”,遗忘门,输入门,输出门来解决RNN存在的问题。“遗忘门”——忘记部分过去的信息,“输入门”——记住部分现在的信息,然后将过去的记忆与现在的记忆合并后通过“输出门”——决定最终输出的部分。比如识别一段语音,X为其中一句话,我们在识别这句话时,会利用上一句话的信息帮助识别。假设上一句话的信息包含主题的性别,但此时这句话的信息中出现了新的性别,这时候“遗忘门”就起作用了,它会删去上句话中旧的主题性别,同时“输入门”会更新新的主题性别。这样,当前信息状态即可得到一句新的输入。最终我们通过“输出门”决定输出哪部分信息,考虑到主题后可能出现的动词,它可能会输出主题的单复数信息,以便知道如何与动词结合在一起。通过对前期信息有选择的记忆和遗忘,LSTM实现了对相关信息的长期记忆,从而提取了时间特征。则通过LSTM+CRF模型对N个所述扩展问进行分类预测输出对应的信息。步骤S1010,根据分类预测结果对N个所述扩展问进行分类,使得扩展问识别意图根据分类结果生成。
具体地,本实施例的根据分类预测结果对N个所述扩展问进行分类,使得扩展问识别意图根据分类结果生成,则后续步骤对应的匹配获取与所述文本信息匹配的回应话术步骤是根据本步骤实现。
步骤S1011,根据所述扩展问识别意图与预置回应话术进行匹配获取与所述文本信息匹配的回应话术;
具体地,根据前述的当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅的相似度递减排序相对应的扩展问识别意图与预置回应话术进行匹配,获取与所述文本信息匹配的回应话术为当前用户端附近最好吃的餐厅--评价最好的餐厅--当前所处城市最好吃的餐厅。
在一个实施例中,若为步骤S1010,则将分类预测结果与预置回应话术进行匹配获取与所述文本信息匹配的回应话术。
步骤S1012,将所述回应话术进行语音合成为与语音信息对应的回应语音,并返回所述回应语音,使得用户端进行回应语音播放。
具体地,将回应话术为当前用户端附近最好吃的餐厅--评价最好的餐厅-- 当前所处城市最好吃的餐厅为与语音信息对应的回应语音,并返回所述回应语音,使得用户端进行回应语音播放。
本发明实施例所提出的智能对话系统的语音方法,能够通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序,确定与所述文本信息相对应的扩展问识别意图,并与预置回应话术进行匹配,使得在智能对话系统中与用户的直接语音交互更加精准,并有效提高用户的交互性以及体验性。
本实施例还提供一种计算机可读存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器 (EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机程序,程序被处理器执行时实现相应功能。本实施例的计算机可读存储介质用于存储电子装置20,被处理器执行时实现本发明的智能对话系统的语音方法。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘) 中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (6)

1.一种智能对话系统的语音方法,应用于电子装置中,其特征在于,所述方法包括步骤:
将获取的用户端输入的语音信息转换为对应的文本信息;
通过检索确定与所述文本信息相对应的N个扩展问;
通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序,所述POMDP为部分可观察马尔可夫决策过程;
根据相似度递减排序后的N个所述扩展问,生成与所述文本信息相对应的扩展问识别意图;
根据所述扩展问识别意图与预置回应话术进行匹配,并返回与所述文本信息匹配的回应话术,使得用户端进行回应语音播放;
通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序的步骤,包括:
通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算;
将N个所述扩展问的相似度与预置阈值进行一一比对,若N个所述相似度均大于等于预置阈值,则将N个所述扩展问进行相似度递减排序;
将N个所述扩展问的相似度与预置阈值进行一一比对的步骤,还包括:
若N个所述相似度均小于预置阈值,则通过预先训练的LSTM+CRF模型对N个所述扩展问进行分类预测;
根据分类预测结果对N个所述扩展问进行分类,使得扩展问识别意图根据分类结果生成;
通过检索确定与所述文本信息相对应的N个扩展问的步骤,包括:
通过elasticsearch对预置数据库中的与业务场景对应的问题话术的标注意图库进行检索;
通过elasticsearch对未检索到的与所述文本信息对应的所述扩展问进行倒排索引;
根据倒排索引结果确定与所述文本信息相对应的相似度排名为前N个的N个扩展问;
通过elasticsearch对预置数据库中的与业务场景对应的标注意图库进行检索的步骤,还包括:
若通过elasticsearch对预置数据库中的与业务场景对应的标注意图库进行检索,检索到与所述文本信息对应的扩展问;
生成与所述文本信息相对应的扩展问识别意图。
2.如权利要求1所述的智能对话系统的语音方法,其特征在于,将获取的用户语音输入的语音信息转换为对应的文本信息的步骤,包括:
获取的用户语音输入的语音信息通过基于HMM-GMM的ASR进行识别,将所述语音信息转译为对应的预文本信息;
将所述预文本信息通过纠错算法进行纠错,获取到纠错后的所述文本信息。
3.如权利要求1所述的智能对话系统的语音方法,其特征在于,根据所述扩展问识别意图与预置回应话术进行匹配,并返回与所述文本信息匹配的回应话术,使得用户端进行回应语音播放,包括:
根据所述扩展问识别意图与预置回应话术进行匹配获取与所述文本信息匹配的回应话术;
将所述回应话术进行语音合成为与语音信息对应的回应语音,并返回所述回应语音,使得用户端进行回应语音播放。
4.一种电子装置,用于实施权利要求1-3任一项所述的智能对话系统的语音方法,其特征在于,包括:
转换模块,用于将获取的用户端输入的语音信息转换为对应的文本信息;
检索模块,用于通过检索确定与所述文本信息相对应的N个扩展问;
相似度计算模块,用于通过采用预先训练好的POMDP模型对N个所述扩展问进行相似度计算,并根据计算的所述相似度对N个所述扩展问进行相似度递减排序,所述POMDP为部分可观察马尔可夫决策过程;
生成模块,用于根据相似度递减排序后的N个所述扩展问,生成与所述文本信息相对应的扩展问识别意图;
匹配模块,用于根据所述扩展问识别意图与预置回应话术进行匹配,并返回与所述文本信息匹配的回应话术,使得用户端进行回应语音播放。
5.一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至3任一项所述智能对话系统的语音方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现权利要求1至3任一项所述智能对话系统的语音方法的步骤。
CN201910593107.4A 2019-07-03 2019-07-03 智能对话系统的语音匹配方法、电子装置、计算机设备 Active CN110534104B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910593107.4A CN110534104B (zh) 2019-07-03 2019-07-03 智能对话系统的语音匹配方法、电子装置、计算机设备
PCT/CN2019/102841 WO2021000403A1 (zh) 2019-07-03 2019-08-27 智能对话系统的语音匹配方法、电子装置、计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910593107.4A CN110534104B (zh) 2019-07-03 2019-07-03 智能对话系统的语音匹配方法、电子装置、计算机设备

Publications (2)

Publication Number Publication Date
CN110534104A CN110534104A (zh) 2019-12-03
CN110534104B true CN110534104B (zh) 2024-06-04

Family

ID=68659843

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910593107.4A Active CN110534104B (zh) 2019-07-03 2019-07-03 智能对话系统的语音匹配方法、电子装置、计算机设备

Country Status (2)

Country Link
CN (1) CN110534104B (zh)
WO (1) WO2021000403A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110895940A (zh) * 2019-12-17 2020-03-20 集奥聚合(北京)人工智能科技有限公司 智能语音交互方法及装置
CN111291154B (zh) * 2020-01-17 2022-08-23 厦门快商通科技股份有限公司 方言样本数据抽取方法、装置、设备及存储介质
CN111402872B (zh) * 2020-02-11 2023-12-19 升智信息科技(南京)有限公司 用于智能语音对话系统的语音数据处理方法及装置
CN112699213A (zh) * 2020-12-23 2021-04-23 平安普惠企业管理有限公司 语音意图识别方法、装置、计算机设备及存储介质
CN113189986B (zh) * 2021-04-16 2023-03-14 中国人民解放军国防科技大学 一种自主机器人的二阶段自适应行为规划方法及系统
CN114295732B (zh) * 2022-03-09 2022-12-09 深圳市信润富联数字科技有限公司 混凝土拌车离析度监测方法、系统、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901249A (zh) * 2009-05-26 2010-12-01 复旦大学 一种图像检索中基于文本的查询扩展与排序方法
CN105677783A (zh) * 2015-12-31 2016-06-15 上海智臻智能网络科技股份有限公司 智能问答系统的信息处理方法及装置
CN106503175A (zh) * 2016-11-01 2017-03-15 上海智臻智能网络科技股份有限公司 相似文本的查询、问题扩展方法、装置及机器人
CN107315766A (zh) * 2017-05-16 2017-11-03 广东电网有限责任公司江门供电局 一种集合智能与人工问答的语音问答方法及其装置
CN107609101A (zh) * 2017-09-11 2018-01-19 远光软件股份有限公司 智能交互方法、设备及存储介质
KR101959292B1 (ko) * 2017-12-08 2019-03-18 주식회사 머니브레인 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7392185B2 (en) * 1999-11-12 2008-06-24 Phoenix Solutions, Inc. Speech based learning/training system using semantic decoding
US8275803B2 (en) * 2008-05-14 2012-09-25 International Business Machines Corporation System and method for providing answers to questions
CN107992543B (zh) * 2017-11-27 2020-11-17 上海智臻智能网络科技股份有限公司 问答交互方法和装置、计算机设备及计算机可读存储介质
CN109271498B (zh) * 2018-09-14 2022-02-22 南京七奇智能科技有限公司 面向虚拟机器人的自然语言交互方法及系统
CN109859747B (zh) * 2018-12-29 2021-05-04 北京百度网讯科技有限公司 语音交互方法、设备以及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101901249A (zh) * 2009-05-26 2010-12-01 复旦大学 一种图像检索中基于文本的查询扩展与排序方法
CN105677783A (zh) * 2015-12-31 2016-06-15 上海智臻智能网络科技股份有限公司 智能问答系统的信息处理方法及装置
CN106503175A (zh) * 2016-11-01 2017-03-15 上海智臻智能网络科技股份有限公司 相似文本的查询、问题扩展方法、装置及机器人
CN107315766A (zh) * 2017-05-16 2017-11-03 广东电网有限责任公司江门供电局 一种集合智能与人工问答的语音问答方法及其装置
CN107609101A (zh) * 2017-09-11 2018-01-19 远光软件股份有限公司 智能交互方法、设备及存储介质
KR101959292B1 (ko) * 2017-12-08 2019-03-18 주식회사 머니브레인 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체

Also Published As

Publication number Publication date
CN110534104A (zh) 2019-12-03
WO2021000403A1 (zh) 2021-01-07

Similar Documents

Publication Publication Date Title
CN110534104B (zh) 智能对话系统的语音匹配方法、电子装置、计算机设备
US11238845B2 (en) Multi-dialect and multilingual speech recognition
US20200365142A1 (en) Encoder-decoder models for sequence to sequence mapping
Griol et al. A statistical approach to spoken dialog systems design and evaluation
US10635698B2 (en) Dialogue system, a dialogue method and a method of adapting a dialogue system
Young et al. Pomdp-based statistical spoken dialog systems: A review
CN108255934B (zh) 一种语音控制方法及装置
Rastogi et al. Multi-task learning for joint language understanding and dialogue state tracking
Perez et al. Dialog state tracking, a machine reading approach using memory network
US11514916B2 (en) Server that supports speech recognition of device, and operation method of the server
CN110021293B (zh) 语音识别方法及装置、可读存储介质
Wang et al. Policy learning for domain selection in an extensible multi-domain spoken dialogue system
CN113505591A (zh) 一种槽位识别方法及电子设备
US20150149391A1 (en) System and a method for prividing a dialog with a user
EP2879062A2 (en) A system and a method for providing a dialog with a user
JP4634156B2 (ja) 音声対話方法および音声対話装置
Kim et al. Sequential labeling for tracking dynamic dialog states
KR101959292B1 (ko) 문맥 기반으로 음성 인식의 성능을 향상하기 위한 방법, 컴퓨터 장치 및 컴퓨터 판독가능 기록 매체
Thomson et al. Parameter learning for POMDP spoken dialogue models
CN112927695A (zh) 语音识别方法、装置、设备及存储介质
Misu et al. Bayes risk-based dialogue management for document retrieval system with speech interface
CN112818096A (zh) 对话生成方法及其装置
KR102386898B1 (ko) 인텐츠 기반의 질문/답변 서비스 제공장치 및 방법
Hurtado et al. Spoken dialog systems based on online generated stochastic finite-state transducers
Ahmed et al. A comparative study of various approaches for dialogue management

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant