CN109637519B - 语音交互实现方法、装置、计算机设备及存储介质 - Google Patents

语音交互实现方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN109637519B
CN109637519B CN201811344027.7A CN201811344027A CN109637519B CN 109637519 B CN109637519 B CN 109637519B CN 201811344027 A CN201811344027 A CN 201811344027A CN 109637519 B CN109637519 B CN 109637519B
Authority
CN
China
Prior art keywords
voice
voice recognition
user
server
recognition results
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811344027.7A
Other languages
English (en)
Other versions
CN109637519A (zh
Inventor
远超
常先堂
陈怀亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Shanghai Xiaodu Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201811344027.7A priority Critical patent/CN109637519B/zh
Publication of CN109637519A publication Critical patent/CN109637519A/zh
Priority to JP2019150886A priority patent/JP6848147B2/ja
Priority to US16/557,917 priority patent/US20200151258A1/en
Application granted granted Critical
Publication of CN109637519B publication Critical patent/CN109637519B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/227Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了语音交互实现方法、装置、计算机设备及存储介质,其中方法包括:内容服务器获取来自设备端的用户的语音信息,并按照第一方式完成本次语音交互;所述第一方式包括:将语音信息发送给自动语音识别服务器,获取自动语音识别服务器每次返回的部分语音识别结果;当确定出语音活动检测开始之后,针对每次获取到的部分语音识别结果,若通过语义理解确定出该部分语音识别结果中已经包含了用户希望表达的完整内容,则将该部分语音识别结果作为最终的语音识别结果,获取最终的语音识别结果对应的应答语音,返回给设备端。应用本发明所述方案,能够提升语音交互响应速度等。

Description

语音交互实现方法、装置、计算机设备及存储介质
【技术领域】
本发明涉及计算机应用技术,特别涉及语音交互实现方法、装置、计算机设备及存储介质。
【背景技术】
人机语音交互,即指通过语音的方式实现人与机器的对话等。
图1为现有人机语音交互的处理流程示意图。如图1所示,内容服务器(server)可获取来自设备端(client)的用户的语音信息,并发送给自动语音识别(ASR,AutomaticSpeech Recognition)服务器,之后可获取ASR服务器返回的语音识别结果,根据语音识别结果发起对下游垂类服务的搜索请求,并可将获取到的搜索结果发送给从文本到语音(TTS,Text To Speech)服务器,获取TTS服务器根据搜索结果生成的应答语音,返回给设备端进行播放。
在人机语音交互过程中,为了提升语音交互响应速度,通过会采取预测预取的方法。
图2为现有预测预取方法的实现方式示意图。如图2所示,其中的ASR开始(start)表示开始进行语音识别,部分语音识别结果(ASR partial result)表示语音识别的部分结果,如:北-北京-北京的-北京的天气,VAD start表示语音活动检测开始(起点),VAD end表示语音活动检测结束(尾点),即机器认为用户的语音说完了,VAD表示语音活动检测(VoiceActivity Detection)。
ASR服务器会将每次获取到的部分语音识别结果发送给内容服务器,内容服务器会根据每次获取到的部分语音识别结果发起对下游垂类服务的搜索请求,并将搜索结果发送给TTS服务器进行语音合成,等到VAD end结束时,内容服务器可将最终得到的语音合成结果作为应答语音,返回给设备端进行播放。
在实际应用中,在VAD end之前,可能会出现之前某次获取到的部分语音识别结果已经是最终的语音识别结果的情况,比如,在VAD start到VAD end之间,用户可能没有发出语音,那么,在此期间所进行的发起搜索请求等操作本质上都是无意义的,不但增加了资源消耗,而且延长了语音应答时间,即降低了语音交互响应速度等。
【发明内容】
有鉴于此,本发明提供了语音交互实现方法、装置、计算机设备及存储介质。
具体技术方案如下:
一种语音交互实现方法,包括:
内容服务器获取来自设备端的用户的语音信息,并按照第一方式完成本次语音交互;
所述第一方式包括:将所述语音信息发送给自动语音识别服务器,获取所述自动语音识别服务器每次返回的部分语音识别结果;当确定出语音活动检测开始之后,针对每次获取到的所述部分语音识别结果,若通过语义理解确定出所述部分语音识别结果中已经包含了用户希望表达的完整内容,则将所述部分语音识别结果作为最终的语音识别结果,获取所述最终的语音识别结果对应的应答语音,返回给所述设备端。
根据本发明一优选实施例,该方法进一步包括:
针对所述语音活动检测开始之前及之后每次获取到的部分语音识别结果,分别获取所述部分语音识别结果对应的搜索结果,并将所述搜索结果发送给从文本到语音服务器进行语音合成;
当获取到所述最终的语音识别结果时,将根据所述最终的语音识别结果得到的语音合成结果作为所述应答语音。
根据本发明一优选实施例,该方法进一步包括:
所述内容服务器获取到用户的语音信息之后,获取用户的表达属性信息;
若根据所述表达属性信息确定出用户为一次表达内容完整的用户,则按照所述第一方式完成本次语音交互。
根据本发明一优选实施例,该方法进一步包括:
若根据所述表达属性信息确定出用户为一次表达内容不完整的用户,则按照第二方式完成本次语音交互;
所述第二方式包括:
将所述语音信息发送给所述自动语音识别服务器,获取所述自动语音识别服务器每次返回的部分语音识别结果;
针对每次获取到的所述部分语音识别结果,分别获取所述部分语音识别结果对应的搜索结果,并将所述搜索结果发送给所述从文本到语音服务器进行语音合成;
当确定语音活动检测结束时,将最终得到的语音合成结果作为所述应答语音,返回给所述设备端。
根据本发明一优选实施例,该方法进一步包括:通过分析用户过往的说话表达习惯确定出用户的表达属性信息。
一种语音交互实现装置,包括:语音交互单元;
所述语音交互单元,用于获取来自设备端的用户的语音信息,并按照第一方式完成本次语音交互;所述第一方式包括:将所述语音信息发送给自动语音识别服务器,获取所述自动语音识别服务器每次返回的部分语音识别结果;当确定语音活动检测开始之后,针对每次获取到的所述部分语音识别结果,若通过语义理解确定出所述部分语音识别结果中已经包含了用户希望表达的完整内容,则将所述部分语音识别结果作为最终的语音识别结果,获取所述最终的语音识别结果对应的应答语音,返回给所述设备端。
根据本发明一优选实施例,所述语音交互单元进一步用于,
针对所述语音活动检测开始之前及之后每次获取到的部分语音识别结果,分别获取所述部分语音识别结果对应的搜索结果,并将所述搜索结果发送给从文本到语音服务器进行语音合成;
当获取到所述最终的语音识别结果时,将根据所述最终的语音识别结果得到的语音合成结果作为所述应答语音。
根据本发明一优选实施例,所述语音交互单元进一步用于,在获取到用户的语音信息之后,获取用户的表达属性信息,若根据所述表达属性信息确定出用户为一次表达内容完整的用户,则按照所述第一方式完成本次语音交互。
根据本发明一优选实施例,所述语音交互单元进一步用于,若根据所述表达属性信息确定出用户为一次表达内容不完整的用户,则按照第二方式完成本次语音交互;所述第二方式包括:将所述语音信息发送给所述自动语音识别服务器,获取所述自动语音识别服务器每次返回的部分语音识别结果,针对每次获取到的所述部分语音识别结果,分别获取所述部分语音识别结果对应的搜索结果,并将所述搜索结果发送给所述从文本到语音服务器进行语音合成,当确定语音活动检测结束时,将最终得到的语音合成结果作为所述应答语音,返回给所述设备端。
根据本发明一优选实施例,所述装置中进一步包括:预处理单元;
所述预处理单元,用于通过分析用户过往的说话表达习惯确定出用户的表达属性信息。
一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如以上所述的方法。
基于上述介绍可以看出,采用本发明所述方案,在确定出语音活动检测开始之后,针对每次获取到的部分语音识别结果,如果通过语义理解确定出该部分语音识别结果中已经包含了用户希望表达的完整内容,那么可直接将该部分语音识别结果作为最终的语音识别结果,并获取对应的应答语音,返回并播放给用户,结束本次语音交互,从而无需像现有技术一样等到语音活动检测结束,进而提升了语音交互响应速度,并通过减少搜索请求次数等减少了资源消耗。
【附图说明】
图1为现有人机语音交互的处理流程示意图。
图2为现有预测预取方法的实现方式示意图。
图3为本发明所述语音交互实现方法第一实施例的流程图。
图4为本发明所述语音交互实现方法第二实施例的流程图。
图5为本发明所述语音交互实现装置实施例的组成结构示意图。
图6示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。
【具体实施方式】
为了使本发明的技术方案更加清楚、明白,以下参照附图并举实施例,对本发明所述方案进行进一步说明。
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
图3为本发明所述语音交互实现方法第一实施例的流程图。如图3所示,包括以下具体实现方式。
在301中,内容服务器获取来自设备端的用户的语音信息,并按照302所示第一方式完成本次语音交互。
在302中,内容服务器将语音信息发送给ASR服务器,获取ASR服务器每次返回的部分语音识别结果;当确定语音活动检测开始之后,针对每次获取到的部分语音识别结果,若通过语义理解确定出该部分语音识别结果中已经包含了用户希望表达的完整内容,则将该部分语音识别结果作为最终的语音识别结果,获取该最终的语音识别结果对应的应答语音,返回给设备端。
内容服务器通过设备端获取到用户的语音信息之后,可将语音信息发送给ASR服务器,并按照现有的预测预取的方式进行后续处理。
ASR服务器可将每次生成的部分语音识别结果发送给内容服务器,相应地,内容服务器可针对每次获取到的部分语音识别结果,分别获取该部分语音识别结果对应的搜索结果,并将获取到的搜索结果发送给TTS服务器进行语音合成。
其中,内容服务器可针对每次获取到的部分语音识别结果,分别根据该部分语音识别结果发起对下游垂类服务的搜索请求,并获取搜索结果,进行缓存。内容服务器还可将获取到的搜索结果发送给TTS服务器,基于获取到的搜索结果,TTS服务器可按照现有方式进行语音合成。具体地,TTS服务器在进行语音合成时,针对每次获取到的搜索结果,可基于该搜索结果对之前得到的语音合成结果进行补充或完善等,从而得到最终所需的应答语音。
当语音活动检测开始时,ASR服务器会告知内容服务器。后续,针对每次获取到的部分语音识别结果,内容服务器除了进行上述处理之外,还可进一步通过语义理解,确定出该部分语音识别结果中是否已经包含了用户希望表达的完整内容。
若是,则可将该部分语音识别结果作为最终的语音识别结果,即认为该部分语音识别结果即为用户最终希望表达的内容,并可将根据最终的语音识别结果得到的语音合成结果作为应答语音,返回给设备端,由设备端播放给用户,从而完成本次语音交互。若否,可针对下一次获取到的部分语音识别结果,重复执行上述语义理解及之后的相关操作。
可以看出,相比于现有方式,本实施例所述的处理方式中仍采用了预测预取的方法,但不同于现有方式的是,从语音活动检测开始之后,针对每次获取到的部分语音识别结果,会额外的进行判断,判断该部分语音识别结果中是否已经包含了用户希望表达的完整内容,并根据判断结果的不同,后续执行不同的操作,如当判断结果为是时,可直接将该部分语音识别结果作为最终的语音识别结果,并获取对应的应答语音,返回并播放给用户,结束本次语音交互。
从语音活动检测开始到语音活动检测结束,通常需要消耗600~700ms的时间,而采用本实施例所述的处理方式,通常可以节省500~600ms的时间消耗,较好地提升了语音交互响应速度。
而且,采用本实施例所述的处理方式,通过提前结束语音交互过程,减少了搜索请求次数等,进而减少了资源消耗。
在实际应用中,有可能会出现以下情况:在语音活动检测开始到语音活动检测结束之间,用户又临时补充了一些语音内容,比如,用户说出“我想看侏罗纪公园”之后,间隔了200ms,又说出了“2”,那么用户最终希望表达的内容应该是:我想看侏罗纪公园2,但如果采用上述实施例中的处理方式,得到的最终的语音识别结果很可能是“我想看侏罗纪公园”,这样,用户最终获取到的应答语音的内容也是和侏罗纪公园相关的内容,而不是和侏罗纪公园2相关的内容。
针对上述情况,本发明中提出,可对上述实施例中的处理方式进行进一步优化,从而尽可能地避免上述情况的发生,确保应答语音内容的准确性。
图4为本发明所述语音交互实现方法第二实施例的流程图。如图4所示,包括以下具体实现方式。
在401中,内容服务器获取来自设备端的用户的语音信息。
在402中,内容服务器获取用户的表达属性信息。
可通过分析用户过往的说话表达习惯确定出不同用户的表达属性信息,并可根据需要进行更新。
表达属性信息作为用户的一个属性,用于说明用户为一次表达内容完整的用户还是一次表达内容不完整的用户。
表达属性信息可预先生成,当需要时,可直接进行查询。
在403中,内容服务器根据表达属性信息确定出用户是否为一次表达内容完整的用户,若是,则执行404,否则,执行405。
内容服务器可根据表达属性信息确定出用户是否为一次表达内容完整的用户,并可根据确定结果的不同后续执行不同的操作。
比如,对于一些老年人用户,希望表达的内容经常不能一次性说完,那么这类用户则为一次表达内容不完整的用户。
在404中,按照第一方式完成本次语音交互。
即按照图3所示实施例中的方式完成本次语音交互,如将语音信息发送给ASR服务器,获取ASR服务器每次返回的部分语音识别结果,并在当确定出语音活动检测开始之后,针对每次获取到的部分语音识别结果,若通过语义理解确定出该部分语音识别结果中已经包含了用户希望表达的完整内容,则将该部分语音识别结果作为最终的语音识别结果,获取该最终的语音识别结果对应的应答语音,返回给设备端进行播放。
在405中,按照第二方式完成本次语音交互。
第二方式可包括:将语音信息发送给ASR服务器,获取ASR服务器每次返回的部分语音识别结果;针对每次获取到的部分语音识别结果,分别获取该部分语音识别结果对应的搜索结果,并将搜索结果发送给TTS服务器进行语音合成;当确定语音活动检测结束时,将最终得到的语音合成结果作为应答语音,返回给设备端进行播放。
对于一次表达内容不完整的用户,可按照上述第二方式完成本次语音交互,即可按照现有方式完成本次语音交互。
需要说明的是,对于前述的各方法实施例,为了简单描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
总之,采用本发明方法实施例所述方案,可通过执行针对部分语音识别结果的语义理解及后续相关操作,提升语音交互响应速度,并减少资源消耗,而且,可通过对具有不同表达属性的用户采用不同的处理方式,尽可能地确保应答语音内容的准确性等。
以上是关于方法实施例的介绍,以下通过装置实施例,对本发明所述方案进行进一步说明。
图5为本发明所述语音交互实现装置实施例的组成结构示意图。如图5所示,包括:语音交互单元501。
语音交互单元501,用于获取来自设备端的用户的语音信息,并按照第一方式完成本次语音交互;所述第一方式包括:将语音信息发送给ASR服务器,获取ASR服务器每次返回的部分语音识别结果;当确定出语音活动检测开始之后,针对每次获取到的部分语音识别结果,若通过语义理解确定出该部分语音识别结果中已经包含了用户希望表达的完整内容,则将该部分语音识别结果作为最终的语音识别结果,获取最终的语音识别结果对应的应答语音,返回给设备端。
针对语音活动检测开始之前及之后每次获取到的部分语音识别结果,语音交互单元501还可分别获取该部分语音识别结果对应的搜索结果,并将搜索结果发送给TTS服务器进行语音合成。TTS服务器在进行语音合成时,针对每次获取到的搜索结果,可基于该搜索结果对之前得到的语音合成结果进行补充或完善等。
当确定出语音活动检测开始之后,针对每次获取到的部分语音识别结果,语音交互单元501除了可进行上述处理之外,还可进一步通过语义理解,确定出该部分语音识别结果中是否已经包含了用户希望表达的完整内容。
若是,则可将该部分语音识别结果作为最终的语音识别结果,即认为该部分语音识别结果即为用户最终希望表达的内容,并可将根据最终的语音识别结果得到的语音合成结果作为应答语音,返回给设备端,由设备端播放给用户,从而完成本次语音交互。若否,可针对下一次获取到的部分语音识别结果,重复执行上述语义理解及之后的相关操作。
优选地,语音交互单元501还可在获取到用户的语音信息之后,获取用户的表达属性信息,若根据表达属性信息确定出用户为一次表达内容完整的用户,则按照第一方式完成本次语音交互。
若根据表达属性信息确定出用户为一次表达内容不完整的用户,语音交互单元501可按照第二方式完成本次语音交互;所述第二方式包括:将语音信息发送给ASR服务器,获取ASR服务器每次返回的部分语音识别结果,针对每次获取到的部分语音识别结果,分别获取该部分语音识别结果对应的搜索结果,并将搜索结果发送给TTS服务器进行语音合成,当确定语音活动检测结束时,将最终得到的语音合成结果作为应答语音,返回给设备端进行播放。
相应地,图5所示装置中可进一步包括:预处理单元500,用于通过分析用户过往的说话表达习惯确定出不同用户的表达属性信息,以便语音交互单元501进行查询。
图5所示装置实施例的具体工作流程请参照前述方法实施例中的相关说明,不再赘述。
总之,采用本发明装置实施例所述方案,可通过执行针对部分语音识别结果的语义理解及后续相关操作,提升语音交互响应速度,并减少资源消耗,而且,可通过对具有不同表达属性的用户采用不同的处理方式,尽可能地确保应答语音内容的准确性等。
图6示出了适于用来实现本发明实施方式的示例性计算机系统/服务器12的框图。图6显示的计算机系统/服务器12仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统/服务器12以通用计算设备的形式表现。计算机系统/服务器12的组件可以包括但不限于:一个或者多个处理器(处理单元)16,存储器28,连接不同系统组件(包括存储器28和处理器16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机系统/服务器12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机系统/服务器12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)30和/或高速缓存存储器32。计算机系统/服务器12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本发明所描述的实施例中的功能和/或方法。
计算机系统/服务器12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机系统/服务器12交互的设备通信,和/或与使得该计算机系统/服务器12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机系统/服务器12还可以通过网络适配器20与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图6所示,网络适配器20通过总线18与计算机系统/服务器12的其它模块通信。应当明白,尽管图中未示出,可以结合计算机系统/服务器12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器16通过运行存储在存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现图3或图4所示实施例中的方法。
本发明同时公开了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时将实现如图3或图4所示实施例中的方法。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法等,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (10)

1.一种语音交互实现方法,其特征在于,包括:
内容服务器获取来自设备端的用户的语音信息,并按照第一方式完成本次语音交互;
所述第一方式包括:将所述语音信息发送给自动语音识别服务器,获取所述自动语音识别服务器每次返回的部分语音识别结果;当确定出语音活动检测开始之后,针对每次获取到的所述部分语音识别结果,若通过语义理解确定出所述部分语音识别结果中已经包含了用户希望表达的完整内容,则将所述部分语音识别结果作为最终的语音识别结果,获取所述最终的语音识别结果对应的应答语音,返回给所述设备端;
该方法进一步包括:所述内容服务器获取到用户的语音信息之后,获取用户的表达属性信息;若根据所述表达属性信息确定出用户为一次表达内容完整的用户,则按照所述第一方式完成本次语音交互。
2.根据权利要求1所述的方法,其特征在于,
该方法进一步包括:
针对所述语音活动检测开始之前及之后每次获取到的部分语音识别结果,分别获取所述部分语音识别结果对应的搜索结果,并将所述搜索结果发送给从文本到语音服务器进行语音合成;
当获取到所述最终的语音识别结果时,将根据所述最终的语音识别结果得到的语音合成结果作为所述应答语音。
3.根据权利要求1所述的方法,其特征在于,
该方法进一步包括:
若根据所述表达属性信息确定出用户为一次表达内容不完整的用户,则按照第二方式完成本次语音交互;
所述第二方式包括:
将所述语音信息发送给所述自动语音识别服务器,获取所述自动语音识别服务器每次返回的部分语音识别结果;
针对每次获取到的所述部分语音识别结果,分别获取所述部分语音识别结果对应的搜索结果,并将所述搜索结果发送给从文本到语音服务器进行语音合成;
当确定语音活动检测结束时,将最终得到的语音合成结果作为所述应答语音,返回给所述设备端。
4.根据权利要求1所述的方法,其特征在于,
该方法进一步包括:通过分析用户过往的说话表达习惯确定出用户的表达属性信息。
5.一种语音交互实现装置,其特征在于,包括:语音交互单元;
所述语音交互单元,用于获取来自设备端的用户的语音信息,并按照第一方式完成本次语音交互;所述第一方式包括:将所述语音信息发送给自动语音识别服务器,获取所述自动语音识别服务器每次返回的部分语音识别结果;当确定语音活动检测开始之后,针对每次获取到的所述部分语音识别结果,若通过语义理解确定出所述部分语音识别结果中已经包含了用户希望表达的完整内容,则将所述部分语音识别结果作为最终的语音识别结果,获取所述最终的语音识别结果对应的应答语音,返回给所述设备端;
所述语音交互单元进一步用于,在获取到用户的语音信息之后,获取用户的表达属性信息,若根据所述表达属性信息确定出用户为一次表达内容完整的用户,则按照所述第一方式完成本次语音交互。
6.根据权利要求5所述的语音交互实现装置,其特征在于,
所述语音交互单元进一步用于,
针对所述语音活动检测开始之前及之后每次获取到的部分语音识别结果,分别获取所述部分语音识别结果对应的搜索结果,并将所述搜索结果发送给从文本到语音服务器进行语音合成;
当获取到所述最终的语音识别结果时,将根据所述最终的语音识别结果得到的语音合成结果作为所述应答语音。
7.根据权利要求5所述的语音交互实现装置,其特征在于,
所述语音交互单元进一步用于,若根据所述表达属性信息确定出用户为一次表达内容不完整的用户,则按照第二方式完成本次语音交互;所述第二方式包括:将所述语音信息发送给所述自动语音识别服务器,获取所述自动语音识别服务器每次返回的部分语音识别结果,针对每次获取到的所述部分语音识别结果,分别获取所述部分语音识别结果对应的搜索结果,并将所述搜索结果发送给从文本到语音服务器进行语音合成,当确定语音活动检测结束时,将最终得到的语音合成结果作为所述应答语音,返回给所述设备端。
8.根据权利要求5所述的语音交互实现装置,其特征在于,
所述装置中进一步包括:预处理单元;
所述预处理单元,用于通过分析用户过往的说话表达习惯确定出用户的表达属性信息。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1~4中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1~4中任一项所述的方法。
CN201811344027.7A 2018-11-13 2018-11-13 语音交互实现方法、装置、计算机设备及存储介质 Active CN109637519B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201811344027.7A CN109637519B (zh) 2018-11-13 2018-11-13 语音交互实现方法、装置、计算机设备及存储介质
JP2019150886A JP6848147B2 (ja) 2018-11-13 2019-08-21 音声インタラクション実現方法、装置、コンピュータデバイス及びプログラム
US16/557,917 US20200151258A1 (en) 2018-11-13 2019-08-30 Method, computer device and storage medium for impementing speech interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811344027.7A CN109637519B (zh) 2018-11-13 2018-11-13 语音交互实现方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN109637519A CN109637519A (zh) 2019-04-16
CN109637519B true CN109637519B (zh) 2020-01-21

Family

ID=66067781

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811344027.7A Active CN109637519B (zh) 2018-11-13 2018-11-13 语音交互实现方法、装置、计算机设备及存储介质

Country Status (3)

Country Link
US (1) US20200151258A1 (zh)
JP (1) JP6848147B2 (zh)
CN (1) CN109637519B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3567585A4 (en) * 2017-11-15 2020-04-15 Sony Corporation INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
CN110047484A (zh) * 2019-04-28 2019-07-23 合肥马道信息科技有限公司 一种语音识别交互方法、系统、设备和存储介质
CN110517673B (zh) * 2019-07-18 2023-08-18 平安科技(深圳)有限公司 语音识别方法、装置、计算机设备及存储介质
CN112542163B (zh) * 2019-09-04 2023-10-27 百度在线网络技术(北京)有限公司 智能语音交互方法、设备及存储介质
KR20210034276A (ko) * 2019-09-20 2021-03-30 현대자동차주식회사 대화 시스템, 대화 처리 방법 및 전자 장치
CN112581938B (zh) * 2019-09-30 2024-04-09 华为技术有限公司 基于人工智能的语音断点检测方法、装置和设备
CN111128168A (zh) * 2019-12-30 2020-05-08 斑马网络技术有限公司 语音控制方法、装置及存储介质
CN111583923B (zh) * 2020-04-28 2023-11-14 北京小米松果电子有限公司 信息控制方法及装置、存储介质
CN111583933B (zh) * 2020-04-30 2023-10-27 北京猎户星空科技有限公司 一种语音信息的处理方法、装置、设备及介质
CN111968680B (zh) * 2020-08-14 2024-10-01 北京小米松果电子有限公司 一种语音处理方法、装置及存储介质
CN112527984B (zh) * 2020-12-04 2024-04-19 北京百度网讯科技有限公司 获取拥堵事件信息的方法、装置、设备和计算机存储介质
CN113053392B (zh) * 2021-03-26 2024-04-05 京东科技控股股份有限公司 语音识别方法、语音识别装置、电子设备及介质
CN113643696B (zh) * 2021-08-10 2024-06-21 阿波罗智联(北京)科技有限公司 语音处理方法、装置、设备、存储介质及程序

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103984408A (zh) * 2013-02-07 2014-08-13 三星电子株式会社 支持语音对话功能的移动终端和语音对话方法
JP2015121760A (ja) * 2013-11-25 2015-07-02 日本電信電話株式会社 音声認識装置、特徴量変換行列生成装置、音声認識方法、特徴量変換行列生成方法及びプログラム
CN106228978A (zh) * 2016-08-04 2016-12-14 成都佳荣科技有限公司 一种语音识别方法
CN107665706A (zh) * 2016-07-29 2018-02-06 科大讯飞股份有限公司 快速语音交互方法及系统
CN107943834A (zh) * 2017-10-25 2018-04-20 百度在线网络技术(北京)有限公司 人机对话的实现方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263092A (ja) * 1995-03-23 1996-10-11 N T T Data Tsushin Kk 応答音声生成方法および音声対話システム
JPWO2013125203A1 (ja) * 2012-02-21 2015-07-30 日本電気株式会社 音声認識装置、音声認識方法およびコンピュータプログラム
JP5616390B2 (ja) * 2012-03-27 2014-10-29 ヤフー株式会社 応答生成装置、応答生成方法および応答生成プログラム
EP3201913A4 (en) * 2014-10-01 2018-06-06 Xbrain Inc. Voice and connection platform
JP6669073B2 (ja) * 2015-03-31 2020-03-18 ソニー株式会社 情報処理装置、制御方法、およびプログラム
US20180268813A1 (en) * 2017-03-17 2018-09-20 Intel IP Corporation Misspeak resolution in natural language understanding for a man-machine interface

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103984408A (zh) * 2013-02-07 2014-08-13 三星电子株式会社 支持语音对话功能的移动终端和语音对话方法
JP2015121760A (ja) * 2013-11-25 2015-07-02 日本電信電話株式会社 音声認識装置、特徴量変換行列生成装置、音声認識方法、特徴量変換行列生成方法及びプログラム
CN107665706A (zh) * 2016-07-29 2018-02-06 科大讯飞股份有限公司 快速语音交互方法及系统
CN106228978A (zh) * 2016-08-04 2016-12-14 成都佳荣科技有限公司 一种语音识别方法
CN107943834A (zh) * 2017-10-25 2018-04-20 百度在线网络技术(北京)有限公司 人机对话的实现方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US20200151258A1 (en) 2020-05-14
JP6848147B2 (ja) 2021-03-24
CN109637519A (zh) 2019-04-16
JP2020079921A (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
CN109637519B (zh) 语音交互实现方法、装置、计算机设备及存储介质
JP7191987B2 (ja) 話者埋め込みと訓練された生成モデルとを使用する話者ダイアライゼーション
CN107808670B (zh) 语音数据处理方法、装置、设备及存储介质
CN110069608B (zh) 一种语音交互的方法、装置、设备和计算机存储介质
CA3158979C (en) Headless task completion within digital personal assistants
CN107943834B (zh) 人机对话的实现方法、装置、设备及存储介质
CN113412514B (zh) 用于设备上语音识别模型的训练的文本片段的设备上语音合成
US20140379334A1 (en) Natural language understanding automatic speech recognition post processing
JP2018523144A (ja) 提案される音声ベースのアクションクエリの提供
CN109346074B (zh) 一种语音处理方法及系统
US11164584B2 (en) System and method for uninterrupted application awakening and speech recognition
JP7170739B2 (ja) リモートに生成された自動化アシスタントコンテンツのレンダリングにおけるクライアントデバイスレイテンシの軽減
US11763813B2 (en) Methods and systems for reducing latency in automated assistant interactions
US20140142945A1 (en) Application Services Interface to ASR
KR20230005966A (ko) 거의 일치하는 핫워드 또는 구문 검출
WO2020195897A1 (ja) 言語識別装置及びそのためのコンピュータプログラム、並びに音声処理装置
EP2733697A1 (en) Application services interface to ASR
US20230197071A1 (en) Accelerometer-based endpointing measure(s) and /or gaze-based endpointing measure(s) for speech processing
CN112307162A (zh) 用于信息交互的方法和装置
CN112185370A (zh) 语音交互的方法、装置、设备和计算机存储介质
EP2816553A1 (en) Natural language understanding automatic speech recognition post processing
EP4380164A1 (en) Video processing method and apparatus
CN112185371B (zh) 语音交互的方法、装置、设备和计算机存储介质
US20230230578A1 (en) Personalized speech query endpointing based on prior interaction(s)
JP2024147552A (ja) 話者埋め込みと訓練された生成モデルとを使用する話者ダイアライゼーション

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210514

Address after: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Patentee after: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.

Patentee after: Shanghai Xiaodu Technology Co.,Ltd.

Address before: 100085 Baidu Building, 10 Shangdi Tenth Street, Haidian District, Beijing

Patentee before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd.