CN113838461B - 智能语音交互方法、装置、设备和计算机存储介质 - Google Patents

智能语音交互方法、装置、设备和计算机存储介质 Download PDF

Info

Publication number
CN113838461B
CN113838461B CN202110961950.0A CN202110961950A CN113838461B CN 113838461 B CN113838461 B CN 113838461B CN 202110961950 A CN202110961950 A CN 202110961950A CN 113838461 B CN113838461 B CN 113838461B
Authority
CN
China
Prior art keywords
voice
embedded information
attribute
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110961950.0A
Other languages
English (en)
Other versions
CN113838461A (zh
Inventor
黄际洲
王少磊
王海峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110961950.0A priority Critical patent/CN113838461B/zh
Publication of CN113838461A publication Critical patent/CN113838461A/zh
Priority to EP22164719.1A priority patent/EP4137985A1/en
Priority to US17/657,114 priority patent/US20230058949A1/en
Application granted granted Critical
Publication of CN113838461B publication Critical patent/CN113838461B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/527Centralised call answering arrangements not requiring operator intervention
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0638Interactive procedures
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Telephonic Communication Services (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开公开了一种智能语音交互方法、装置、设备和计算机存储介质,涉及人工智能技术领域下的语音、大数据和深度学习技术。具体实现方案为:获取用户输入的第一对话语音;将第一对话语音输入语音交互模型,获取语音交互模型针对第一对话语音生成的第二对话语音用以返回给用户;语音交互模型包括:语音编码子模型,用于对第一对话语音以及当前会话的历史对话语音进行编码,得到语音状态嵌入信息;状态记忆网络,用于利用语音状态嵌入信息,得到至少一个预设属性的嵌入信息;语音生成子模型,用于利用语音状态嵌入信息和至少一个预设属性的嵌入信息,生成第二对话语音;至少一个预设属性依据被核实对象的信息预先设置。本公开实现了智能化数据核实。

Description

智能语音交互方法、装置、设备和计算机存储介质
技术领域
本申请涉及计算机技术领域,特别涉及人工智能技术领域下的语音、大数据和深度学习技术。
背景技术
随着计算机应用技术的迅速发展和不断普及,人们的衣食住行越来越依赖于各种应用,而这些应用大多数是以各领域的大数据为基础的。而这些数据的真实性和准确性则很大程度影响了应用效果和用户体验。例如在地图类应用中,地理位置点可以是地图上的POI(PointOfInterest,兴趣点)、AOI(AreaOfInterest,兴趣区域)或者更大范围的ROI(RegionOf Interest,位置区域),尤其是与人们生活密切相关的地点,如学校、银行、餐馆、医院、超市等。一个地理位置往往包括:名称、坐标、地址、类别和电话等信息。地理位置信息通常由实地采集、互联网数据获取和用户上报等方式获取。由于城市建设快速发展和业务单位规划的变更,导致地理位置信息也会频繁地发生变化。
因此,在诸如地图类应用的大量应用场景下,对数据进行核实是一个重要的环节。
发明内容
有鉴于此,本申请提供了一种智能语音交互方法、装置、设备和计算机存储介质,以便于智能化的实现数据核实。
第一方面,本申请提供了一种智能语音交互方法,包括:
获取用户输入的第一对话语音;
将所述第一对话语音输入语音交互模型,获取所述语音交互模型针对所述第一对话语音生成的第二对话语音用以返回给所述用户;
其中所述语音交互模型包括:
语音编码子模型,用于对所述第一对话语音以及当前会话的历史对话语音进行编码,得到语音状态嵌入信息;
状态记忆网络,用于利用所述语音状态嵌入信息,得到至少一个预设属性的嵌入信息,其中所述至少一个预设属性依据被核实对象的信息预先设置;
语音生成子模型,用于利用所述语音状态嵌入信息和所述至少一个预设属性的嵌入信息,生成所述第二对话语音。
第二方面,本申请提供了一种获取语音交互模型的方法,包括:
获取训练数据,所述训练数据包括同一会话中的对话语音对,所述对话语音包括用户语音和反馈给用户的响应语音;
将所述用户语音作为语音交互模型的输入,训练所述语音交互模型,训练目标包括最小化所述语音交互模型输出的响应语音与训练数据中对应响应语音的差异;其中所述语音交互模型包括:
语音编码子模型,用于对所述用户语音以及同一会话的历史对话语音进行编码,得到语音状态嵌入信息;
状态记忆网络,用于利用所述语音状态嵌入信息,得到至少一个预设属性的嵌入信息,其中所述至少一个预设属性依据被核实对象的信息预先设置;
语音生成子模型,用于利用所述语音状态嵌入信息和所述至少一个预设属性的嵌入信息,生成响应语音。
第三方面,本申请提供了一种智能语音交互装置,包括:
语音获取单元,用于获取用户输入的第一对话语音;
语音生成单元,用于将所述第一对话语音输入语音交互模型,获取所述语音交互模型针对所述第一对话语音生成的第二对话语音用以返回给所述用户;
其中所述语音交互模型包括:
语音编码子模型,用于对所述第一对话语音以及当前会话的历史对话语音进行编码,得到语音状态嵌入信息;
状态记忆网络,用于利用所述语音状态嵌入信息,得到至少一个预设属性的嵌入信息,其中所述至少一个预设属性依据被核实对象的信息预先设置;
语音生成子模型,用于利用所述语音状态嵌入信息和所述至少一个预设属性的嵌入信息,生成所述第二对话语音。
第四方面,本申请还提供了一种获取语音交互模型的装置,包括:
训练数据获取单元,用于获取训练数据,所述训练数据包括同一会话中的对话语音对,所述对话语音包括用户语音和反馈给用户的响应语音;
第一模型训练单元,用于将所述用户语音作为语音交互模型的输入,训练所述语音交互模型,训练目标包括最小化所述语音交互模型输出的响应语音与训练数据中对应响应语音的差异;
其中所述语音交互模型包括:
语音编码子模型,用于对所述用户语音以及同一会话的历史对话语音进行编码,得到语音状态嵌入信息;
状态记忆网络,用于利用所述语音状态嵌入信息,得到至少一个预设属性的嵌入信息,其中所述至少一个预设属性依据被核实对象的信息预先设置;
语音生成子模型,用于利用所述语音状态嵌入信息和所述至少一个预设属性的嵌入信息,生成响应语音。
第五方面,本申请还提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上任一项所述的方法。
第六方面,本申请还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述中任一项所述的方法。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本公开实施例提供的智能语音交互的方法流程图;
图2为本公开实施例提供的语音交互架构示意图;
图3为本公开实施例提供的语音交互模型的结构示意图;
图4为本公开实施例提供的状态记忆网络的工作原理图;
图5为本公开实施例提供的获取语音交互模型的方法流程图;
图6为本公开实施例提供的智能语音交互装置的结构图;
图7为本公开实施例提供的获取语音交互模型的装置结构图;
图8是用来实现本公开实施例的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
目前进行的数据核实通常采用人工的方式。例如针对地理位置点数据的核实,通常采用实地采集核实和人工客服打电话核实的方法。实地采集核实是地图信息采集员到达地理位置点实地,通过勘测、拍照、询问等方法对地理位置点信息进行核实。实地采集核实的方案在早期非信息化时代的地理信息建设中使用普遍,但是该方案需要消耗大量人力物力,不仅效率低,而且对作业人员有专业能力要求,不适用于大量数据作业,目前基本已被摒弃。
人工客服打电话核实则是客服拨打地理位置点的电话,使用人工对话询问的方式来核实信息。核实人员可以不用到达实地即可通过电话获得信息反馈。人工客服通过与用户直接沟通,更容易获得确切的信息。同时该方案操作门槛低对人工客服无特殊专业能力要求。如人工客服可基于现存信息询问该地理位置点的名称、地址、营业时间等属性信息,通过对方的反馈来标记该地理位置点的各个信息是否正确并进行更新。
然而人工客服打电话核实的方式需要大量人工参与,人工成本高、效率低,一个人一天只能核实100到200条。并且人很容易疲劳和情绪化,很难保证长时间的稳定作业。
虽然目前也有一些相关技术能够实现智能语音交互式的问询来进行信息核实,但整个系统需要由语音识别模型、语义理解模型、对话管理模型、自然语言生成模型、语音合成模型等大量模型构成。这些模型之间存在依赖,上游模型的错误会级联到下游模型,从而造成错误累积。例如如果语义理解模型对意图理解错误,则后续的对话则会完全失控。
图1为本公开实施例提供的智能语音交互的方法流程图。该方法的执行主体可以为语音交互装置,该装置可以位于服务器端的应用,或者还可以为位于服务器端的应用中的插件或软件开发工具包(Software DevelopmentKit,SDK)等功能单元,或者,还可以位于具有较强计算能力的计算机终端,本发明实施例对此不进行特别限定。若该方法在服务器端执行,则该服务器可以是单个的服务器,也可以是由多个服务器组成的服务器集群,服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决传统物理主机与虚拟专用服务器(VPs,ⅥirtualPrivateServer)服务中存在的管理难度大,业务扩展性弱的缺陷。如图1中所示,该方法主要包括以下步骤:
在101中,获取用户输入的第一对话语音。
在102中,将第一对话语音输入语音交互模型,获取语音交互模型针对第一对话语音生成的第二对话语音用以返回给用户;其中语音交互模型包括语音编码子模型、状态记忆网络和语音生成子模型;语音编码子模型,用于对第一对话语音以及当前会话的历史对话语音进行编码,得到语音状态嵌入信息;状态记忆网络,用于利用语音状态嵌入信息,得到至少一个预设属性的嵌入信息;语音生成子模型,用于利用语音状态嵌入信息和至少一个预设属性的嵌入信息,生成第二对话语音;其中上述至少一个预设属性依据被核实对象的信息预先设置。
由以上技术方案可以看出,通过上述方式能够针对用户输入的第一对话语音,依据被核实对象的信息预先设置的属性生成第二对话语音,这种自动化的端到端语音生成方式能够实现智能化的数据核实。
本公开实施例涉及的被核实对象可以是任意领域的被核实对象,例如地图类应用中的地理位置点、电子商务领域的交易信息、商品信息等等。
为了方便对本公开实施例的理解,首先对本公开所基于的应用架构进行简单描述。如图2中所示,如图2中所示,本公开的语音交互架构中,用户与本公开实施例提供的语音交互装置建立通信连接后,可以实现由语音交互装置通过通信连接与用户进行语音交互以进行信息核实。例如可以通过电话与用户进行语音交互,通过网络语音通话与用户进行语音交互,通过网络语音消息与用户进行语音交互等。
语音交互装置与用户在建立连接的一次会话中可以进行多轮对话,在本公开中为了方便描述和在名称上进行区分,将用户输入的语音称为“第一对话语音”,将针对用户输入的语音生成的响应语音(即返回给用户的语音)称为“第二对话语音”。需要说明的是,本公开中涉及的“第一”、“第二”等限定并不具备大小、顺序和数量等方面的限制,仅仅用以在名称上加以区分,例如“第一对话语音”和“第二对话语音”用以区分两条语音。
用户与语音交互装置建立连接后,首句语音可以由用户发出,也可以由语音交互装置发出。如果首句语音由用户发出,通常不具备特别的含义,例如是“喂”、“你好”、“hello”、“哪位”等等。
对于由语音交互装置发出的首句语音,则可以采用预设的话术,该话术可以是对本次会话的目的进行简单介绍,例如“您好,我是AAA客服,本次通话是为了向您进行信息核实”,其中“AAA”可以是应用服务或应用服务提供商等的名称。
或者,对于由语音交互装置发出的首句语音,也可以直接根据被核实对象的信息进入正题。被核实对象的信息可以在领域知识库库中获取。以地图类应用为例,领域知识库可以是POI数据库。语音交互装置向用户发出的首句语音可以是例如“请问您是XXX商铺吗?”,其中“XXX”可以是商铺的名称。
无论是用户的语音还是向用户返回的语音,都会被记录为本次会话的对话语音历史。也就是说,对话语音历史是以会话为记录范围的,仅仅记录本次会话的对话语音历史。
对于来自用户的第一对话语音,语音交互装置会对其第一对话语音和对话语音历史进行联合编码,编码后得到的语音状态嵌入信息送入状态记忆网络,用以更新该状态记忆网络。状态记忆网络利用语音状态嵌入信息,得到至少一个预设属性的嵌入信息。然后至少一个预设属性的嵌入信息被利用进行语音生成,从而得到第二对话语音返回给用户。继续周而复始进行多轮对话,直至对话结束后,利用状态记忆网络当前记忆的各属性的嵌入信息进入业务处理逻辑,即依据各属性的嵌入信息进行分类处理后,得到各属性的信息,用以作为被核实对象的信息更新领域知识库。
下面对上述方法实施例中的各步骤进行详细描述。首先对上述步骤101即“获取用户输入的第一对话语音”进行详细描述。
在本步骤中获取的第一对话语音指的是来自用户的语音,该语音可以是用户在会话中发出的首句语音,也可以是用户在会话中的多轮对话中的任一次输入的语音,本公开针对用户输入的语音均执行上述方法流程中的处理,生成针对用户返回的第二对话语音,直至会话结束。
若本公开所提供的方法在服务器端实现,则用户通过用户终端输入第一对话语音后,通过用户终端与服务器端之间建立的通信连接将第一对话语音发送给服务器端。
若本公开所提供的方法在用户终端实现,则可以直接获取用户在用户终端输入的第一对话语音。
下面重点对上述步骤102即“将第一对话语音输入语音交互模型,获取语音交互模型针对第一对话语音生成的第二对话语音用以返回给用户”。
上面已经提及本公开中的语音交互模型采用端到端模型,直接由用户输入的第一对话语音生成第二对话语音,而无需先对第一对话语音进行语音识别,在对识别文本进行语义理解后生成回复文本,再利用回复文本进行语音合成。也就是说,本公开采用了一种全新的思路,语音交互模型直接从语音到语音进行转换。如图3所示,该语音交互模型可以包括语音编码子模型、状态记忆网络和语音生成子模型。在模型的整体架构上采取seq2seq(sequence-to-sequence,序列到序列)的方式。
语音编码子模型,用于对第一对话语音以及当前会话的历史对话语音进行编码,得到语音状态嵌入信息。
在本公开实施例中,语音编码子模型实际上是一个Encoder(编码器),该Encoder对第一对话语音和当前会话的历史对话语音(不包括该第一对话语音)进行联合编码,得到语音状态嵌入信息(Embedding)。所谓嵌入信息实际上是一种向量表示。
语音编码子模型可以采用诸如双向LSTM(LongShort-TermMemory,长短期记忆网络)、CNN(ConvolutionalNeuralNetworks,卷积神经网络)、Transformer编码器等来实现。
用户本轮的第一对话语音也会被记录于历史对话语音中,但并不参与本轮的语音编码。
状态记忆网络,用于利用语音状态嵌入信息,得到至少一个预设属性的嵌入信息。其中上述至少一个预设属性依据被核实对象的信息预先设置。
在本公开实施例中可以采用循环动态记忆网络来记忆和更新属性状态信息,循环动态记忆网络中包括m个记忆单元,每个属性各自对应一个记忆单元。
具体地,可以根据被核实对象信息设置m个属性,m为正整数。例如,假设被核实对象为地图类应用中的POI,那么可以针对POI名称、POI状态、开门时间、关门时间等属性设置。其中POI状态可以是诸如新增、更名、搬迁、关闭等。
如图4中所示,在状态记忆网络中各记忆单元(memoryslot)之间相互独立,由(key,value)组成,key用来标识属性名,value用来存储该属性的Embedding。针对每个记忆单元可以使用RNN(RecurrentNeural Network,循环神经网路)来实现。优选地,可以使用GatedRNN(门限循环神经网络),在图中表示为GRU(门控循环单元)。语音状态Embedding被送入到状态记忆网络后,状态记忆网络会同时对m个不同的记忆单元的RNN进行更新,各记忆单元的计算相互独立,但在更新状态时各RNN分别更新。为了减少餐数量,在本公开实施例中可以将各记忆单元的RNN网络参数保持相同,也就是说共享一套RNN参数。
在每一轮对话中,记忆单元利用对应的属性名、语音状态Embedding以及该记忆单元记录的Embedding,生成该记忆单元所对应属性的Embedding。然后记忆单元利用本次生成的Embedding更新记录的Embedding。
如图4中所示,假设有m个记忆单元。记忆单元1中在第一次对话中,利用key1、第一次对话的语音状态Embedding(表示为e1)以及value1,生成该记忆单元1所对应属性即key1的Embedding表示为
Figure BDA0003222654430000091
然后记忆单元1记录该生成的Embedding,也就是说,利用本次生成的Embedding更新value1。
记忆单元2中在第一次对话中,利用key2、第一次对话的语音状态Embedding(表示为e1)以及value2,生成该记忆单元2所对应属性即key2的Embedding表示为
Figure BDA0003222654430000092
然后记忆单元2记录该生成的Embedding,也就是说,利用本次生成的Embedding更新value2。记忆单元2图中省略未示出。
其他记忆单元类似,不做赘述。然后该状态记忆网络将本次对话中生成的m个Embedding输出,表示为
Figure BDA0003222654430000093
然后在第二次对话中,记忆单元1中在第一次对话中,利用key1、第二次对话的语音状态Embedding(表示为e2)以及value1,生成该记忆单元1所对应属性即key1的Embedding表示为
Figure BDA0003222654430000094
然后记忆单元1记录该生成的Embedding,也就是说,利用本次生成的Embedding更新value1。
记忆单元2中在第二次对话中,利用key2、第二次对话的语音状态Embedding(表示为e2)以及value2,生成该记忆单元2所对应属性即key2的Embedding表示为
Figure BDA0003222654430000095
然后记忆单元2记录该生成的Embedding,也就是说,利用本次生成的Embedding更新value2。
其他记忆单元类似,不做赘述。然后该状态记忆网络将本次对话中生成的m个Embedding输出,表示为
Figure BDA0003222654430000096
一直到第n次对话,状态记忆网络生成的m个Embedding输出,表示为
Figure BDA0003222654430000097
可以看出每一轮的语音状态Embedding均被及时更新到状态记忆网络中,使得状态记忆网络能够捕捉语音对话历史中涉及到的属性值变更的信息。
语音生成子模型,相当于一个Decoder(解码器),用于利用语音状态Embedding和至少一个预设属性的嵌入信息,生成第二对话语音。
语音生成子模型可以采用单向RNN加上attention(注意力机制)的结构,也可以采用Transformer解码器的结构。其中在进行attention时需要同时在语音编码子模型和状态记忆网络两个输出上进行attention。
举个例子,第一次对话中的语音状态Embedding即图4中的e1以及状态记忆网络输出的各属性的Embedding即图4中的
Figure BDA0003222654430000101
生成第二对话语音用以返回给用户。
生成的第二对话语音也会被记录于历史对话语音中。
依次类推。直至第n次对话,利用图4中的en以及状态记忆网络输出的各属性的Embedding即图4中的
Figure BDA0003222654430000102
生成第二对话语音用以返回给用户。
若第n次对话是本次会话的最后一次对话,各记忆单元当前记录的各属性的Embedding分别送入各属性对应的分类模型,该分类模型可以是图4中所示的Softmax层。即记忆单元1当前记录的
Figure BDA0003222654430000103
送入第一个softmax层,得到第一个属性的分类结果,该分类结果对应该属性的核实数据。记忆单元m当前记录的
Figure BDA0003222654430000104
送入第m个softmax层,得到第m个属性的分类结果,该分类结果对应该属性的核实数据。该分类结果实际上利用了在整个会话过程中捕捉到的各属性的信息。
对于被核实对象信息而言,经过上述分类后得到的核实数据仍可能不准确。例如,对于POI名称“永乐超市”大概率正确。但对于某些时空场景下,其可能是“勇乐超市”、“涌乐超市”等。为了解决这一情况,可以进一步将核实数据链指到被核实对象所属领域知识库中的对象信息。例如,将POI名称链指到POI知识库中的POI名称上。
具体地,可以预先构建领域知识库,在该知识库中可以包括地理位置点信息,包括名称、类型、地址、坐标、联系方式、开门时间、关门时间等等。然后对于获取到的地理位置点信息,基于语音相似度、文本相似度、属性相似度中的至少一种,将核实数据分类至领域知识库,以将核实数据链指到领域知识库中的对象信息。如果确定出链指到的对象信息,则利用确定出的对象信息更新核实数据。其中,在进行上述分类时,实际上是利用预先构建的分类器对核实数据进行分类。该分类器所分类的类别就是领域知识库中各已有地理位置点,即分类器计算得到的核实数据属于领域知识库中各已有地理位置点的概率,依据该概率确定该核实数据是否链指到领域知识库中的已有地理位置点,以及如果链指到,则具体链指到哪个已有地理位置点。
例如,对于得到的核实数据“永乐超市”,将该核实数据的语音、文本、地址、坐标等其他属性值分类至领域知识库中的各已有地理位置点。若最终发现将其分类至“勇乐超市”的概率最高且超过预设阈值,则将语义理解得到的“永乐超市”更正为“勇乐超市”。其中在进行分类时可以采用GBDT(GradientBoostingDecisionTree,梯度提升迭代决策树)算法。
通过上述链指处理,能够使得通过语义交互得到的核实数据更加准确。
下面针对上述语音交互方法,举一个应用实例:
假设需要进行POI的信息核实,预先设置4个属性,相应地,在语音交互装置的状态记忆网络设置4个记忆网络。这4个属性分别是:
M1:电话是否正确;
M2:是否正常营业;
M3:起始营业时间;
M4:结束营业时间。
与用户建立通信连接后,语音交互装置可以通过冷启动的方式按照预设的话术发起首句语音1:“您好,我是AAA客服,请问您那里是XXX饭店吗?”。该语音1被记录于当前会话的对话语音历史。其中“AAA”为具体应用服务的名字或者应用服务提供商的名字。
获取用户输入的语音2:“嗯是的,有啥事您说”。该语音2被记录于当前会话的对话语音历史。此时,语音交互装置获取到的隐含属性信息为:电话正确,该信息被更新到状态记忆网络中。
语音交互装置生成语音3返回给用户:“为了更好地让顾客在地图上找到您的店铺,我们正在帮您核实地图上登记的店面信息是否准确,您那边现在还照常开门营业吗?”该语音3被记录于当前会话的对话语音历史。
获取用户输入的语音4:“照常营业”。该语音4被记录于当前会话的对话语音历史。此时,语音交互装置获取到的隐含属性信息为:正常营业,该信息被更新到状态记忆网络中。
语音交互装置生成语音5返回给用户:“那您家每天具体的营业时间是什么时候?”该语音5被记录于当前会话的对话语音历史。
获取用户输入的语音6:“我们每天早上10点就开门了”。该语音6被记录于当前会话的对话语音历史。此时,语音交互装置获取到的隐含属性信息为:开门时间10点,该信息被更新到状态记忆网络中。
语音交互装置生成语音7返回给用户:“那您家每天什么时间关门?”该语音7被记录于当前会话的对话语音历史。
获取用户输入的语音8:“九点”。该语音8被记录于当前会话的对话语音历史。此时,语音交互装置获取到的隐含属性信息为:关门时间9点,该信息被更新到状态记忆网络中。
语音交互装置生成语音9返回给用户:“好的,感谢您对AAA的支持,祝您生活愉快,再见”。该语音9被记录于当前会话的对话语音历史。
会话结束后,对状态记忆网络中每个记忆单元记录的属性Embedding进行分类后,得到如下核实数据:
M1:正确;
M2:是;
M3:10;
M4:9。
图5为本公开实施例提供的获取语音交互模型的方法流程图,该方法的执行主体可以为获取语音交互模型的装置,该装置可以位于服务器端的应用,或者还可以为位于服务器端的应用中的插件或软件开发工具包(SoftwareDevelopmentKit,SDK)等功能单元,或者,还可以位于具有较强计算能力的计算机终端,本发明实施例对此不进行特别限定。若该方法在服务器端执行,则该服务器可以是单个的服务器,也可以是由多个服务器组成的服务器集群,服务器可以是云服务器。如图5中所示,该方法可以包括以下步骤:
在501中,获取训练数据,训练数据包括同一会话中的对话语音对,对话语音包括用户语音和反馈给用户的响应语音。
由于目前在很多场景下已经累积了大量的人工客服与用户的通话记录,因此可以直接用来作为模型训练的训练数据。训练数据包括同一会话中的对话语音对,对话语音对包括用户语音和人工客服反馈给用户的响应语音。在本公开实施例中,将人工客服反馈给用户的语音均称为响应语音。
同一会话中的上述对话语音对是有先后顺序的,在一个对话语音对之前的对话语音对均是该一个对话语音对的历史对话语音。
上述人工客服与用户之间的通话记录可以是用于进行被核实对象的信息核实的,例如对POI数据进行信息核实,则可以预先设置m个预设属性,可以是诸如POI名称、POI状态、开门时间、关门时间等。在训练数据中还可以针对各会话标注各预设属性的取值,该取值是根据通话记录中会话的内容得到的。
在502中,将用户语音作为语音交互模型的输入,训练语音交互模型,训练目标包括最小化语音交互模型输出的响应语音与训练数据中响应语音的差异。
语音交互模型的结构仍如图3中所示,即包括语音编码子模型、状态记忆网络和语音生成子模型。
在训练过程中,语音编码子模型对用户语音以及同一会话的历史对话语音进行编码,得到语音状态Embedding。
状态记忆网络利用语音状态嵌入信息,得到至少一个预设属性的Embedding。关于状态记忆网络的结构和原理参见之前实施例中的相关记载,在此不做赘述。
语音生成子模型利用语音状态嵌入信息和至少一个预设属性的嵌入信息,生成响应语音。其中预设属性同样可以是依据被核实对象的信息预先设置的。
在训练时,可以根据训练目标设计损失函数,例如设计损失函数L1体现语音交互模型输出的响应语音与训练数据中响应语音的差异。每一轮迭代依据损失函数L1的取值,采用梯度下降等方式更新语音交互模型的模型参数,可以包括语音编码子模型、状态记忆网络以及语音生成子模型的参数。
利用训练数据中一个会话中的各对话语音对按照时间顺序分别执行上述训练过程后,在503中,若一个会话结束则分别将此时状态记忆网络记忆的各属性的Embedding作为各分类模型的输入,训练分类模型和语音交互模型。可以依据训练目标即最小化分类模型输出的分类结果与标注的属性取值之间的差异来设计损失函数L2。采用梯度下降等方式更新分类模型和语音交互模型的模型参数(至少包括语音编码子模型、状态记忆网络的参数)。
可以先利用L1更新语音交互模型的模型参数,然后在会话结束时再利用L2更新分类模型和至少部分语音交互模型的模型参数。也可以利用L1和L2设计一个总的损失函数L,每一轮迭代利用该总的损失函数L进行分类模型和语音交互模型的模型参数的更新。
以上是对本公开所提供方法进行的详细描述,下面结合实施例对本公开所提供装置进行详细描述。
图6为本公开实施例提供的智能语音交互装置的结构图,如图6中所示,该装置600可以包括:语音获取单元601和语音生成单元602,还可以进一步包括历史记录单元603、核实数据获取单元604和链指单元605。其中,各组成单元的主要功能如下:
语音获取单元601,用于获取用户输入的第一对话语音。
语音生成单元602,用于将第一对话语音输入语音交互模型,获取语音交互模型针对第一对话语音生成的第二对话语音用以返回给用户。
其中语音交互模型包括语音编码子模型、状态记忆网络和语音生成子模型;语音编码子模型,用于对第一对话语音以及当前会话的历史对话语音进行编码,得到语音状态嵌入信息;状态记忆网络,用于利用语音状态嵌入信息,得到至少一个预设属性的嵌入信息;语音生成子模型,用于利用语音状态嵌入信息和至少一个预设属性的嵌入信息,生成第二对话语音;其中至少一个预设属性依据被核实对象的信息预先设置。
历史记录单元603,用于将第一对话语音和第二对话语音记录于当前会话的历史对话语音。
作为一种优选的实施方式,状态记忆网络包括至少一个记忆单元,每个记忆单元与一个预设属性对应。记忆单元用于利用对应的属性名、语音状态嵌入信息以及记忆的嵌入信息,生成并记忆该记忆单元所对应属性的嵌入信息。
核实数据获取单元604,用于当前会话结束后,获取各记忆单元记忆的对应属性的嵌入信息;将各属性的嵌入信息分别经过对应的分类模型进行分类,得到各属性的核实数据。
链指单元605,用于将核实数据链指到被核实对象所属领域知识库中的对象信息。
图7为本公开实施例提供的获取语音交互模型的装置结构图,如图7中所示,该装置700可以包括:训练数据获取单元701和第一模型训练单元702,还可以包括第二模型训练单元703。其中,各组成单元的主要功能如下:
训练数据获取单元701,用于获取训练数据,训练数据包括同一会话中的对话语音对,对话语音包括用户语音和反馈给用户的响应语音。
第一模型训练单元702,用于将用户语音作为语音交互模型的输入,训练语音交互模型,训练目标包括最小化语音交互模型输出的响应语音与训练数据中响应语音的差异。
其中语音交互模型包括语音编码子模型、状态记忆网络和语音生成子模型;语音编码子模型,用于对用户语音以及同一会话的历史对话语音进行编码,得到语音状态嵌入信息;状态记忆网络,用于利用语音状态嵌入信息,得到至少一个预设属性的嵌入信息;语音生成子模型,用于利用语音状态嵌入信息和至少一个预设属性的嵌入信息,生成响应语音。
作为一种优选的实施方式,训练数据获取单元701可以从人工客服与用户的通话记录中,获取同一会话的对话语音对,对话语音对包括用户语音和人工客服反馈给用户的响应语音。
作为一种优选的实施方式,状态记忆网络包括至少一个记忆单元,每个记忆单元与一个预设属性对应。
记忆单元用于利用对应的属性名、语音状态嵌入信息以及记忆的嵌入信息,生成并记忆该记忆单元所对应属性的嵌入信息。
更进一步地,训练数据还可以包括:针对各会话标注的各预设属性的取值。
相应地,第二模型训练单元703,用于获取会话结束后各记忆单元记忆的对应属性的嵌入信息;分别将各属性的嵌入信息作为各分类模型的输入,训练分类模型和语音交互模型,训练目标包括最小化分类模型输出的分类结果与标注的取值之间的差异。
可以看出,在本公开实施例中语音交互装置中并不存在语音识别、语义理解、对话管理、情感分析等等模块,而是采用端到端的方式,直接由用户语音生成向用户返回的语音。即对模型输入语音,模型直接输出返回的语音,不存在大量模型之间的依赖和级联,解决了错误累积的问题。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图8所示,是根据本申请实施例方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的方法对应的程序指令/模块。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据该电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至该电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
该电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与该电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (22)

1.一种智能语音交互方法,包括:
获取用户输入的第一对话语音;
将所述第一对话语音输入语音交互模型,获取所述语音交互模型针对所述第一对话语音生成的第二对话语音用以返回给所述用户;
其中所述语音交互模型包括:
语音编码子模型,用于对所述第一对话语音以及当前会话的历史对话语音进行编码,得到语音状态嵌入信息;
状态记忆网络,用于利用所述语音状态嵌入信息,得到至少一个预设属性的嵌入信息,其中所述至少一个预设属性依据被核实对象的信息预先设置;
语音生成子模型,用于利用所述语音状态嵌入信息和所述至少一个预设属性的嵌入信息,生成所述第二对话语音。
2.根据权利要求1所述的方法,还包括:
将所述第一对话语音和所述第二对话语音记录于所述当前会话的历史对话语音。
3.根据权利要求1所述的方法,其中,所述状态记忆网络包括至少一个记忆单元,每个记忆单元与一个预设属性对应;
所述记忆单元用于利用对应的属性名、所述语音状态嵌入信息以及记忆的嵌入信息,生成该记忆单元所对应属性的嵌入信息,并记忆生成的嵌入信息。
4.根据权利要求1所述的方法,还包括:
所述当前会话结束后,获取各记忆单元记忆的对应属性的嵌入信息;
将各属性的嵌入信息分别经过对应的分类模型进行分类,得到各属性的核实数据。
5.根据权利要求4所述的方法,还包括:将所述核实数据链指到所述被核实对象所属领域知识库中的对象信息。
6.根据权利要求1至5中任一项所述的方法,其中,所述被核实对象信息包括地理位置点信息。
7.一种获取语音交互模型的方法,包括:
获取训练数据,所述训练数据包括同一会话中的对话语音对,所述对话语音包括用户语音和反馈给用户的响应语音;
将所述用户语音作为语音交互模型的输入,训练所述语音交互模型,训练目标包括最小化所述语音交互模型输出的响应语音与训练数据中对应响应语音的差异;其中所述语音交互模型包括:
语音编码子模型,用于对所述用户语音以及同一会话的历史对话语音进行编码,得到语音状态嵌入信息;
状态记忆网络,用于利用所述语音状态嵌入信息,得到至少一个预设属性的嵌入信息,其中所述至少一个预设属性依据被核实对象的信息预先设置;
语音生成子模型,用于利用所述语音状态嵌入信息和所述至少一个预设属性的嵌入信息,生成响应语音。
8.根据权利要求7所述的方法,其中,所述获取训练数据包括:
从人工客服与用户的通话记录中,获取同一会话的对话语音对,所述对话语音对包括用户语音和人工客服反馈给用户的响应语音。
9.根据权利要求7所述的方法,其中,所述状态记忆网络包括至少一个记忆单元,每个记忆单元与一个预设属性对应;
所述记忆单元用于利用对应的属性名、所述语音状态嵌入信息以及记忆的嵌入信息,生成并记忆该记忆单元所对应属性的嵌入信息。
10.根据权利要求7至9中任一项所述的方法,其中,所述训练数据还包括:针对各会话标注的各预设属性的取值;
该方法还包括:
获取会话结束后各记忆单元记忆的对应属性的嵌入信息;
分别将各属性的嵌入信息作为各分类模型的输入,训练所述分类模型和所述语音交互模型,训练目标包括最小化所述分类模型输出的分类结果与标注的取值之间的差异。
11.一种智能语音交互装置,包括:
语音获取单元,用于获取用户输入的第一对话语音;
语音生成单元,用于将所述第一对话语音输入语音交互模型,获取所述语音交互模型针对所述第一对话语音生成的第二对话语音用以返回给所述用户;
其中所述语音交互模型包括:
语音编码子模型,用于对所述第一对话语音以及当前会话的历史对话语音进行编码,得到语音状态嵌入信息;
状态记忆网络,用于利用所述语音状态嵌入信息,得到至少一个预设属性的嵌入信息,其中所述至少一个预设属性依据被核实对象的信息预先设置;
语音生成子模型,用于利用所述语音状态嵌入信息和所述至少一个预设属性的嵌入信息,生成所述第二对话语音。
12.根据权利要求11所述的装置,还包括:
历史记录单元,用于将所述第一对话语音和所述第二对话语音记录于所述当前会话的历史对话语音。
13.根据权利要求11所述的装置,其中,所述状态记忆网络包括至少一个记忆单元,每个记忆单元与一个预设属性对应;
所述记忆单元用于利用对应的属性名、所述语音状态嵌入信息以及记忆的嵌入信息,生成并记忆该记忆单元所对应属性的嵌入信息。
14.根据权利要求11所述的装置,还包括:
核实数据获取单元,用于所述当前会话结束后,获取各记忆单元记忆的对应属性的嵌入信息;将各属性的嵌入信息分别经过对应的分类模型进行分类,得到各属性的核实数据。
15.根据权利要求14所述的装置,还包括:
链指单元,用于将所述核实数据链指到所述被核实对象所属领域知识库中的对象信息。
16.一种获取语音交互模型的装置,包括:
训练数据获取单元,用于获取训练数据,所述训练数据包括同一会话中的对话语音对,所述对话语音包括用户语音和反馈给用户的响应语音;
第一模型训练单元,用于将所述用户语音作为语音交互模型的输入,训练所述语音交互模型,训练目标包括最小化所述语音交互模型输出的响应语音与训练数据中对应响应语音的差异;
其中所述语音交互模型包括:
语音编码子模型,用于对所述用户语音以及同一会话的历史对话语音进行编码,得到语音状态嵌入信息;
状态记忆网络,用于利用所述语音状态嵌入信息,得到至少一个预设属性的嵌入信息,其中所述至少一个预设属性依据被核实对象的信息预先设置;
语音生成子模型,用于利用所述语音状态嵌入信息和所述至少一个预设属性的嵌入信息,生成响应语音。
17.根据权利要求16所述的装置,其中,所述训练数据获取单元,具体用于从人工客服与用户的通话记录中,获取同一会话的对话语音对,所述对话语音对包括用户语音和人工客服反馈给用户的响应语音。
18.根据权利要求16所述的装置,其中,所述状态记忆网络包括至少一个记忆单元,每个记忆单元与一个预设属性对应;
所述记忆单元用于利用对应的属性名、所述语音状态嵌入信息以及记忆的嵌入信息,生成并记忆该记忆单元所对应属性的嵌入信息。
19.根据权利要求16至18中任一项所述的装置,其中,所述训练数据还包括:针对各会话标注的各预设属性的取值;
该装置还包括:
第二模型训练单元,用于获取会话结束后各记忆单元记忆的对应属性的嵌入信息;分别将各属性的嵌入信息作为各分类模型的输入,训练所述分类模型和所述语音交互模型,训练目标包括最小化所述分类模型输出的分类结果与标注的取值之间的差异。
20.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10中任一项所述的方法。
21.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-10中任一项所述的方法。
22.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-10中任一项所述的方法。
CN202110961950.0A 2021-08-20 2021-08-20 智能语音交互方法、装置、设备和计算机存储介质 Active CN113838461B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110961950.0A CN113838461B (zh) 2021-08-20 2021-08-20 智能语音交互方法、装置、设备和计算机存储介质
EP22164719.1A EP4137985A1 (en) 2021-08-20 2022-03-28 Intelligent voice interaction method and apparatus, device and computer storage medium
US17/657,114 US20230058949A1 (en) 2021-08-20 2022-03-29 Intelligent voice interaction method and apparatus, device and computer storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110961950.0A CN113838461B (zh) 2021-08-20 2021-08-20 智能语音交互方法、装置、设备和计算机存储介质

Publications (2)

Publication Number Publication Date
CN113838461A CN113838461A (zh) 2021-12-24
CN113838461B true CN113838461B (zh) 2022-11-01

Family

ID=78961111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110961950.0A Active CN113838461B (zh) 2021-08-20 2021-08-20 智能语音交互方法、装置、设备和计算机存储介质

Country Status (3)

Country Link
US (1) US20230058949A1 (zh)
EP (1) EP4137985A1 (zh)
CN (1) CN113838461B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117556221B (zh) * 2024-01-09 2024-03-26 四川大学 基于智能电气控制交互会话的数据分析方法及系统
CN117792800B (zh) * 2024-02-28 2024-05-03 四川合佳科技有限公司 一种基于物联网安全评估系统的信息验证方法及系统

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11449744B2 (en) * 2016-06-23 2022-09-20 Microsoft Technology Licensing, Llc End-to-end memory networks for contextual language understanding
US10929614B2 (en) * 2019-01-03 2021-02-23 International Business Machines Corporation Automated contextual dialog generation for cognitive conversation
CN111625629B (zh) * 2019-02-28 2023-08-25 Tcl科技集团股份有限公司 任务型对话机器人应答方法、装置及机器人、存储介质
CN110297616B (zh) * 2019-05-31 2023-06-02 百度在线网络技术(北京)有限公司 话术的生成方法、装置、设备以及存储介质
CN110704588B (zh) * 2019-09-04 2023-05-30 平安科技(深圳)有限公司 基于长短期记忆网络的多轮对话语义分析方法和系统
US11113479B2 (en) * 2019-09-12 2021-09-07 Adobe Inc. Utilizing a gated self-attention memory network model for predicting a candidate answer match to a query
US11562744B1 (en) * 2020-02-13 2023-01-24 Meta Platforms Technologies, Llc Stylizing text-to-speech (TTS) voice response for assistant systems
EP3940693A4 (en) * 2020-05-22 2022-03-23 Baidu Online Network Technology (Beijing) Co., Ltd. METHOD AND APPARATUS FOR VERIFYING INFORMATION BASED ON VOICE INTERACTION AND COMPUTER STORAGE DEVICE AND MEDIUM
EP4030421A4 (en) * 2020-11-18 2023-07-12 Minds Lab Inc. METHOD FOR CONVERTING A VOCAL CHARACTERISTIC OF THE VOICE
CN112382291B (zh) * 2020-11-23 2021-10-22 北京百度网讯科技有限公司 语音交互的处理方法、装置、电子设备及存储介质
CN112925995B (zh) * 2021-02-22 2022-01-28 北京百度网讯科技有限公司 获取poi状态信息的方法及装置

Also Published As

Publication number Publication date
EP4137985A1 (en) 2023-02-22
US20230058949A1 (en) 2023-02-23
CN113838461A (zh) 2021-12-24

Similar Documents

Publication Publication Date Title
CN111696535B (zh) 基于语音交互的信息核实方法、装置、设备和计算机存储介质
CN108536679B (zh) 命名实体识别方法、装置、设备及计算机可读存储介质
CN107210035B (zh) 语言理解系统和方法的生成
CN109325091B (zh) 兴趣点属性信息的更新方法、装置、设备及介质
CA2929018C (en) Natural expression processing method, processing and response method, device and system
CN113838461B (zh) 智能语音交互方法、装置、设备和计算机存储介质
CN114600114A (zh) 助理系统的设备上卷积神经网络模型
CN114547263A (zh) 流式实时对话管理
CN111819625A (zh) 用于语言模型个性化的系统和方法
CN105869633A (zh) 语言模型的跨语种初始化
CN110674255B (zh) 文本内容审核方法及装置
CN111666380A (zh) 一种智能呼叫方法、装置、设备和介质
EP3940693A1 (en) Voice interaction-based information verification method and apparatus, and device and computer storage medium
CN105354199A (zh) 一种基于场景信息的实体含义识别方法和系统
US11816609B2 (en) Intelligent task completion detection at a computing device
CN108228567B (zh) 用于提取组织机构的简称的方法和装置
CN108768824A (zh) 信息处理方法及装置
US20190163816A1 (en) Electronic message text classification framework selection
US20180211669A1 (en) Speech Recognition Based on Context and Multiple Recognition Engines
CN111737430A (zh) 实体链接方法、装置、设备以及存储介质
CN116343766A (zh) 生成式大模型训练方法、基于模型的人机语音交互方法
KR102017229B1 (ko) 발화 패턴의 무한성 개선을 위한 딥러닝 기반의 텍스트 문장 자동 생성시스템
CN114547244A (zh) 用于确定信息的方法和装置
CN110222333A (zh) 一种语音交互方法、装置以及相关设备
CN112328896B (zh) 用于输出信息的方法、装置、电子设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant