CN112614491A - 一种车载语音交互方法、装置、车辆、可读介质 - Google Patents

一种车载语音交互方法、装置、车辆、可读介质 Download PDF

Info

Publication number
CN112614491A
CN112614491A CN202011453583.5A CN202011453583A CN112614491A CN 112614491 A CN112614491 A CN 112614491A CN 202011453583 A CN202011453583 A CN 202011453583A CN 112614491 A CN112614491 A CN 112614491A
Authority
CN
China
Prior art keywords
voice
data
user
reply
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011453583.5A
Other languages
English (en)
Other versions
CN112614491B (zh
Inventor
杨如栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Xiaopeng Motors Technology Co Ltd
Guangzhou Chengxingzhidong Automotive Technology Co., Ltd
Original Assignee
Guangzhou Xiaopeng Motors Technology Co Ltd
Guangzhou Chengxingzhidong Automotive Technology Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Xiaopeng Motors Technology Co Ltd, Guangzhou Chengxingzhidong Automotive Technology Co., Ltd filed Critical Guangzhou Xiaopeng Motors Technology Co Ltd
Priority to CN202011453583.5A priority Critical patent/CN112614491B/zh
Publication of CN112614491A publication Critical patent/CN112614491A/zh
Application granted granted Critical
Publication of CN112614491B publication Critical patent/CN112614491B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/50Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
    • H04M3/527Centralised call answering arrangements not requiring operator intervention
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例提供了一种车载语音交互方法、装置、车辆以及可读介质,所述方法包括:当处于所述连续对话状态且响应于所述用户的第一语音请求,播报预置的第一语音答复数据时,接收所述智能座舱内用户的第二语音请求数据;对所述第二语音请求数据进行语义识别,获取语义识别结果;根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息;中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据。从而使得智能座舱可随时针对用户的提问进行回应,用户无需等待智能座舱完成当前正在进行的语音播报即可进行提问,减少了用户的等待时间,直接大大提升了用户体验。

Description

一种车载语音交互方法、装置、车辆、可读介质
技术领域
本发明涉及语音交互领域,特别是涉及一种车载语音交互方法和一种车载语音交互装置、车辆、可读介质。
背景技术
近年来,汽车行业高速发展的主要驱动力已经由过去供给端的产品和技术驱动逐步转换为不断提高客户需求的驱动,车载终端也在不断进步,目前基于车载终端的人机对话采用的是一问一答的形式,只有等车载终端播报完语音之后才允许用户说下一句,然而对于用户来说,在目前快节奏的生活习惯下等待终端播报完语音才能说下一句局限性比较强,需要耗费较多的等待时间,用户体验也不友好。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种车载语音交互方法和相应的一种车载语音交互装置。
为了解决上述问题,本发明实施例公开了一种车载语音交互方法,应用于智能座舱,所述智能座舱具有与用户进行连续语音交互的连续对话状态,所述方法包括:
当处于所述连续对话状态且响应于所述用户的第一语音请求,播报预置的第一语音答复数据时,接收所述智能座舱内用户的第二语音请求数据;
对所述第二语音请求数据进行语义识别,获取语义识别结果;
根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息;
中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据。
可选地,所述答复信息包括执行指令和语音答复文本,所述根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息的步骤,包括:
根据所述语义识别结果获取与所述第二语音请求数据对应的预置的执行指令和语音答复文本。
可选地,所述语义识别结果包括与所述第二语音请求数据对应的用户文本,所述根据所述语义识别结果获取与所述第二语音请求数据对应的预置的执行指令和语音答复文本的步骤,包括:
对所述用户文本进行文本识别,确认与所述用户文本关联的请求领域类别和用户行为数据;
采用所述请求领域类别和所述用户行为数据获取预置的执行指令和语音答复文本。
可选地,所述采用所述请求领域类别和所述用户行为数据获取预置的执行指令和语音答复文本的步骤,包括:
从预置的服务领域类别中确定与所述请求领域类别一致的目标服务领域类别;所述目标服务领域类别具有预置的执行指令和语音答复文本;
从所述预置的执行指令和语音答复文本中,获取与所述用户行为数据对应的目标执行指令和目标语音答复文本。
可选地,所述中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据的步骤之后,还包括:
执行所述目标执行指令并开始采集所述用户的第三语音请求数据。
可选地,所述根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息的步骤之后,还包括:
根据所述语义识别结果判断所述第二语音请求数据是否属于噪音数据;
若否,则执行所述中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据的步骤;
若是,则开始采集所述用户的第四语音请求数据。
可选地,所述根据所述语义识别结果判断所述第二语音请求数据是否属于噪音数据的步骤,包括:
判断所述目标服务领域类别是否属于预置的噪音领域类别;
若是,则确定所述第二语音请求数据为噪音数据;
若否,则判断所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据是否属于相同的服务领域类别;
若所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据属于相同的服务领域类别,则确定所述第二语音请求数据不是所述噪音数据;
若所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据不属于相同的服务领域类别,则确定所述第二语音请求数据为所述噪音数据。
本发明实施例还公开了一种车载语音交互装置,应用于智能座舱,所述智能座舱具有与用户进行连续语音交互的连续对话状态,所述装置包括:
语音请求接收模块,用于当处于所述连续对话状态且响应于所述用户的第一语音请求数据,播报预置的第一语音答复数据时,接收所述智能座舱内用户的第二语音请求数据;
语义识别结果获取模块,对所述第二语音请求数据进行语义识别,获取语义识别结果;
答复信息获取模块,根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息;
播报模块,用于中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据。
本发明实施例还公开了一种车辆,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述车辆执行如上所述的一个或多个的方法。
本发明实施例还公开了一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行如上所述的一个或多个的方法。
本发明实施例包括以下优点:
本发明实施例中,当处于连续对话状态且响应于用户的第一语音请求,播报预置的第一语音答复数据时,接收智能座舱内用户的第二语音请求数据,对第二语音请求数据进行语义识别,获取语义识别结果,根据语义识别结果获取预置的与第二语音请求数据对应的答复信息,中断第一语音答复数据的播报并开始播报与答复信息对应的第二语音答复数据。从而使得智能座舱可随时针对用户的提问进行回应,用户无需等待智能座舱完成当前正在进行的语音播报即可进行提问,减少了用户的等待时间,直接大大提升了用户体验。
附图说明
图1是本发明的一种车载语音交互方法实施例的步骤流程图;
图2是本发明的另一种车载语音交互方法实施例的步骤流程图;
图3是本发明的一种车载语音交互的架构图;
图4是本发明的一种车载语音交互过程的流程图;
图5是本发明的一种车载语音交互过程示意图;
图6是本发明的一种车载语音交互过程示意图;
图7是本发明的一种车载语音交互装置实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
近年来,车辆行业发展的主要驱动力已经由过去供给端的产品和技术驱动,逐步转换为不断提高的用户需求驱动,用户对车辆的认知也逐渐从单一的交通工具向生活空间转变,而驾驶舱作为用户直接体验的空间,提高驾驶舱的智能程度,使驾驶舱成为人车交互的体验核心,可以为用户提供更好的车辆乘坐体验。
智能座舱电子系统可以指由中控、全液晶仪表、平视显示器、娱乐系统、智能音响、车联网模块、流媒体后视镜、远程信息处理系统等组成的一整套系统。
智能座舱系统可以指以驾驶舱区域控制器为中心,在统一的软硬件平台上实现上述智能座舱电子系统功能,并融入智能交互、智能场景、个性化服务的系统。智能座舱系统可以形成人车交互、车与外界互联的基础。
智能座舱系统的使用场景通常可以覆盖用户使用车辆的全部场景。具体地,可以包括用户使用车辆前、用户使用车辆过程中,用户使用车辆后的时间场景,也可以包括驾驶员、副驾驶、后排乘客、车外相关人物或物体的空间场景。
智能座舱中的人机交互,与过去的指令式交互相比,可以结合车辆与用户的使用场景,基于图像识别、语音识别、环境感知等基础技术,实现更加符合用户需求的智能化效果。
在本发明实施例中,当处于连续对话状态且响应于用户的第一语音请求,播报预置的第一语音答复数据时,接收智能座舱内用户的第二语音请求数据,对第二语音请求数据进行语义识别,获取语义识别结果,根据语义识别结果获取预置的与第二语音请求数据对应的答复信息,中断第一语音答复数据的播报并开始播报与答复信息对应的第二语音答复数据。从而使得智能座舱可随时针对用户的提问进行回应,用户无需等待智能座舱完成当前正在进行的语音播报即可进行提问,减少了用户的等待时间,直接大大提升了用户体验。
参照图1,示出了本发明的一种车载语音交互方法实施例的步骤流程图,应用于智能座舱,所述智能座舱具有与用户进行连续语音交互的连续对话状态,具体可以包括如下步骤:
步骤101,当处于所述连续对话状态且响应于所述用户的第一语音请求,播报预置的第一语音答复数据时,接收所述智能座舱内用户的第二语音请求数据;
当智能座舱处于连续对话状态时,用户可以与智能座舱进行流畅的连续对话,无需重复对智能座舱进行唤醒,例如当智能座舱的唤醒识别语音为“小P”时,用户开始提问“小P,请打开空调”,智能座舱被用户唤醒,通过语音播报答复“给您开空调啦”,此时用户可接着进行对话,直接说“将空调开到26度”,而无需说“小P,将空调开到26度”,即在连续对话状态下,智能座舱可识别用户的连续对话语音,而用户无需每句话都提及智能座舱的唤醒识别语音才进行识别。
本发明实施例中,当智能座舱处于连续对话状态,且正在对用户的语音请求进行答复时,可以同时开启语音采集功能,对用户接下来说的话,即用户的语音请求进行接收。
步骤102,对所述第二语音请求数据进行语义识别,获取语义识别结果;
当智能座舱在进行语音播报时接收到用户的语音请求数据,则可以对该语音请求数据进行语义识别,分析其含义,获取语义识别结果。
步骤103,根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息;
具体的,答复信息即用于回应用户所提出的语音请求的信息,例如当用户的语音请求为开启空调,则答复信息则可以包含开启空调的指令以及向用户播报的语音所对应的文字“已开启空调”。智能座舱的系统中预先设置了多种针对不同用户请求的答复信息,根据对用户的语音请求数据的语义识别结果,可以获取与语音请求对应的答复信息。
步骤104,中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据。
在获取了与用户的语音请求对应的答复信息后,由于用户在语音答复数据的播报尚未完成时即提出了新的语音请求,因此智能座舱可以确定当前正在播放的语音答复数据对用户来说已没有作用,用户需要的是对新的语音请求的答复,因此智能座舱中断当前播报的第一语音答复数据,并开始播报和新的语音请求对应的语音答复数据。
在本发明实施例中,通过当处于连续对话状态且响应于用户的第一语音请求,播报预置的第一语音答复数据时,接收智能座舱内用户的第二语音请求数据,对第二语音请求数据进行语义识别,获取语义识别结果,根据语义识别结果获取预置的与第二语音请求数据对应的答复信息,中断第一语音答复数据的播报并开始播报与答复信息对应的第二语音答复数据。从而使得智能座舱可随时针对用户的提问进行回应,用户无需等待智能座舱完成当前正在进行的语音播报即可进行提问,减少了用户的等待时间,直接大大提升了用户体验。
参考图2,示出了本发明的另一种车载语音交互方法实施例的步骤流程图,应用于智能座舱,所述智能座舱具有与用户进行连续语音交互的连续对话状态,具体可以包括如下步骤:
步骤201,当处于所述连续对话状态且响应于所述用户的第一语音请求,播报预置的第一语音答复数据时,接收所述智能座舱内用户的第二语音请求数据;
步骤202,对所述第二语音请求数据进行语义识别,获取语义识别结果;
步骤201和步骤202与上一实施例中步骤101和步骤102类似,具体描述可参照上一实施例中步骤101和步骤102,在此不再赘述。
步骤203,根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息;
在本发明一种可选实施例中,所述答复信息包括执行指令和语音答复文本,所述步骤203,还包括如下子步骤:
根据所述语义识别结果获取与所述第二语音请求数据对应的预置的执行指令和语音答复文本。
具体的,答复信息可以包括两部分,第一部分为与用户的请求对应的执行指令,例如用户的请求为开空调,则执行指令为开启车载空调的执行指令,当用户的请求为打开音乐,则执行指令则可以为开始音乐播放器的执行指令。而第二部分则为与执行指令对应的语音答复文本,智能座舱在完成用户提出的请求后,还需要向用户进行答复,使用户得到反馈,知道自己提出的语音请求已得到执行,因此智能座舱可通过语音向用户播报语音答复文本的内容,从而使用户得到反馈。例如用户请求为开空调,语音答复文本则可以为“空调已帮您开启啦”,用户的请求为打开音乐,则语音答复文本则可以为“音乐已为您打开,请欣赏”。
在本发明一种可选实施例中,所述语义识别结果包括与所述第二语音请求数据对应的用户文本,所述根据所述语义识别结果获取与所述第二语音请求数据对应的预置的执行指令和语音答复文本的步骤,包括:
对所述用户文本进行文本识别,确认与所述用户文本关联的请求领域类别和用户行为数据;
采用所述请求领域类别和所述用户行为数据获取预置的执行指令和语音答复文本。
具体的,在对语音请求数据进行语义识别的时候,可以在识别语音请求数据的含义后,将语音请求数据转换为文字数据,即与语音对应的用户文本,从而得到包含用户文本的语义识别结果,通过对用户文本进行文本识别,例如对用户文本进行分段,得到多个关键词,通过关键词确认与用户文本相关联的请求领域类别和用户行为数据,请求领域类别以智能座舱可提供的不同功能作为分类,可以包括导航、音乐、天气、日历、电台等,对于无法进行分类的用户请求,则可以全部归为一个请求领域类别,例如可以归为闲聊,而用户行为数据则是指用户的语音请求想要实现的目的,即用户的意图。例如当用户的语音请求数据为“播放音乐”,则可以确认请求领域类别为“音乐”,用户行为为“播放音乐”。在确认了用户语音请求所属的请求领域类别和用户意图后,可以利用该请求领域类别和用户行为数据从智能座舱预设的多种对应不同用户请求的执行指令和语音答复文本中选择与用户的语音请求对应的执行指令和语音答复文本。
在本发明一种可选实施例中,所述采用所述请求领域类别和所述用户行为数据获取预置的执行指令和语音答复文本的步骤,还包括如下子步骤:
从预置的服务领域类别中确定与所述请求领域类别一致的目标服务领域类别;所述目标服务领域类别具有预置的执行指令和语音答复文本;
从所述预置的执行指令和语音答复文本中,获取与所述用户行为数据对应的目标执行指令和目标语音答复文本。
具体的,智能座舱中存储的执行指令和语音答复文本以领域不同进行分类存储,智能座舱中设置有多种不同的服务领域类别,例如导航、音乐、天气、日历、电台等,因此根据用户的语音请求所属的请求领域类别,可以首先在多个服务领域类别中选择与之相同的服务领域类别,然后再根据用户行为数据从多种执行指令和语音答复文本中选择对应的执行指令和语音答复文本。例如用户的语音请求数据为“我要听电台”,则通过语义识别后识别出该语音请求数据所属的请求领域类别为“电台”,用户行为数据为“听电台”,依据请求领域类别“电台”从服务领域类别中找到名为“电台”的服务领域类别,从该服务领域类别中根据用户行为数据“听电台”选择能够能够为用户打开电台的执行指令“打开电台”以及对应的语音答复文本“电台已为您开启,请欣赏吧”。需要注意的是,请求领域类别以及服务领域类别均可根据用户需求自行设置,本发明对此不作限制。
步骤204,根据所述语义识别结果判断所述第二语音请求数据是否属于噪音数据;
具体的,在很多时候,用户在智能座舱内发出的声音并不属于连续的对话,例如用户在说完“打开空调”之后,接着又说了一句“今天的晚餐真不错”,很明显,第二句话与“打开空调”并没有任何联系,并不属于用户对智能座舱提出的语音请求,因此智能座舱在接收到用户“今天的晚餐真不错”的语音请求后,可以根据该语音请求数据的语义识别结果判断该语音请求数据是否属于噪音数据,噪音数据指的是智能座舱无法执行的语音请求数据或与当前正在播报的语音答复数据所属的服务领域类别不同的语音请求数据。例如用户的语音请求为“刚才的电影真好看”,则该语音请求在经过语义识别后,智能座舱根据语义识别结果将该语音请求判断为闲聊,而对于闲聊的语音请求,智能座舱获取的执行指令可以为“不响应”,即无需响应该语音请求,保持现有状态即可,即智能座舱无法根据该语音请求为用户提供服务,所以将语音请求“刚才的电影真好看”判断为噪音数据。
在本发明一种可选实施例中,所述步骤204还包括如下子步骤:
判断所述目标服务领域类别是否属于预置的噪音领域类别;
若是,则确定所述第二语音请求数据为噪音数据;
若否,则判断所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据是否属于相同的服务领域类别;
若所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据属于相同的服务领域类别,则确定所述第二语音请求数据不是所述噪音数据;
若所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据不属于相同的服务领域类别,则确定所述第二语音请求数据为所述噪音数据。
具体的,噪音领域类别是指智能座舱无法提供对应服务的服务领域类别,智能座舱设置的服务领域类别中可以包括“闲聊”服务领域类别,当语音请求数据在经过语义识别后无法确定其所属的具有功能属性的请求领域类别时,可以认为该语音请求属于“闲聊”请求领域类别,例如“刚才的电影真好看”无法归类到导航、音乐、天气、日历、电台等智能座舱可以提供服务的请求领域类别,因此只能判断“刚才的电影真好看”属于“闲聊”请求领域类别,将“闲聊”服务领域类别设置为噪音领域类别,属于噪音领域类别的语音请求即可认为是智能座舱无法提供与该语音请求对应的服务的噪音数据,当语音请求数据属于“闲聊”服务领域类别,则可以认为该语音请求数据为噪音数据。而有些时候,用户的语音请求数据并不属于闲聊,而是与上一句语音请求数据不相关,例如用户首先提出语音请求“打开空调”,智能座舱在打开空调的同时为用户播报语音答复数据“空调已打开啦”,在智能座舱正在播报的时候,用户又提出了新的语音请求“我要听音乐”,此时智能座舱根据语音请求数据“我要听音乐”获取到执行指令“打开音乐播放器”和语音答复文本“已为您播放音乐,请欣赏”,然而该执行指令和语音答复文本,与正在播放的语音答复数据“空调已打开啦”以及正在执行的执行指令“打开空调”并不属于相同的服务领域类别,因此也可以认为此时的语音请求“我要听音乐”也属于噪音数据。而当新的语音请求为“调到26度”时,智能座舱获取的执行指令为“温度调节至26度”,语音答复文本为“已为您将温度调至26度”,与正在播放的语音答复数据“空调已打开啦”以及正在执行的执行指令“打开空调”相关,且属于相同的服务领域类别,因此则认为语音请求数据“调到26度”并不是噪音数据。
步骤205,若否,则中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据;
若智能座舱判断语音请求数据不是噪音数据时,则可以认为用户在语音答复数据的播报尚未完成时即对该次连续对话提出了新的语音请求,因此智能座舱可以确定当前正在播放的语音答复数据对用户来说已没有作用,用户需要的是对新的语音请求的答复,因此智能座舱中断当前播报的第一语音答复数据,并开始播报和新的语音请求对应的第二语音答复数据。而若当前没有正在播报的语音数据时,则可以直接开始播报和新的语音请求对应的第二语音答复数据。
在本发明一种可选实施例中,所述方法还包括:
若是,则开始采集所述用户的第四语音请求数据。
若确认用户的语音请求数据为噪音数据,即该语音请求数据不予响应,若当前正在播放语音答复数据,则保持播放的语音答复数据,并且再次开始采集用户的语音请求数据;若当前处于沉默状态,没有播放语音答复数据,则保持沉默状态,不对该语音请求数据进行答复,并且开始采集用户的下一次语音请求数据。
步骤206,执行所述目标执行指令并开始采集所述用户的第三语音请求数据。
在播放语音答复数据时,可以执行对应的执行指令,例如在播放“空调已为您打开”的时候,执行对应的执行指令“打开空调”,而此时还可以开始采集用户的下一次语音请求数据,使得智能终端可以持续响应用户的语音请求数据。
在本发明实施例中,当处于连续对话状态且响应于用户的第一语音请求,播报预置的第一语音答复数据时,接收智能座舱内用户的第二语音请求数据,对第二语音请求数据进行语义识别,获取语义识别结果,根据语义识别结果获取预置的与第二语音请求数据对应的答复信息,根据语义识别结果判断第二语音请求数据是否属于噪音数据,若否,则中断第一语音答复数据的播报并开始播报与答复信息对应的第二语音答复数据,执行目标执行指令并开始采集用户的第三语音请求数据,从而可在接收到用户的语音请求数据时,排除无需进行答复的噪音数据,提高了智能座舱答复的准确度,大大提升了用户的使用体验。
为了方便技术人员进一步加深对本发明的理解,下面通过应用场景举例对本发明进行说明。
如图3所示,为本发明的一种车载语音交互的架构图,智能座舱的车载终端接收到用户发出的语音请求数据后,将语音请求数据发送至车载对话平台,车载对话平台向语义理解服务模块发送请求从而对语音请求数据进行语义理解,车载对话平台根据语义识别结果从服务领域类别中确定目标服务领域类别并获取对应的执行指令和语音答复文本。车载对话平台获取对应的执行指令和语音答复文本向语义拒识服务发出请求,请求根据执行指令和语音答复文本判断语音请求数据是否为噪音数据,根据判断的结果不同采取不同的对应措施,例如当判断语音请求数据不是噪音数据时,若当前正在播报语音答复数据,则中断正在播放的语音答复数据,播放与该语音请求数据的语音答复文本对应的语音答复数据。
如图4所示,为本发明的一种车载语音交互的流程图,车主在发送语音请求数据后,车载终端接收并将语音请求数据转化为用户文本,车载终端将用户文本发送给车载对话平台,车载对话平台请求文本理解服务对用户文本进行文本识别,确定请求领域类别和用户行为数据,根据请求领域类别和用户行为数据从领域服务中确定对应的服务领域类别,并获取执行指令和语音答复文本,根据服务领域类别、执行指令和语音答复文本向语义拒识服务请求判断该语音请求是否为噪音数据,最终将噪音判断结果返回车载终端,车载终端根据判断结果可以采取不同的应对措施,具体的,当判断语音请求数据不是噪音数据时,若当前正在播报语音答复数据,则中断正在播报的语音答复数据,播报与该语音请求数据的语音答复文本对应的语音答复数据并开始收集用户的语音请求数据;若当前没有播报语音答复数据,则直接开始播报与该语音请求数据的语音答复文本对应的语音答复数据并开始收集用户的语音请求数据。而当判断语音请求数据为噪音数据时,若当前正在播报语音答复数据,则继续该语音答复数据的播报并开始收集用户的语音请求数据;若当前没有正在播报的语音答复数据,则保持倾听状态并开始收集用户的语音请求数据。
情景一
如图5所示,用户发出语音请求“去北京大学”,车载终端接收后将其转化为用户文本“去北京大学”并发送给车载对话平台,车载对话平台接收后经处理获取答复信息,答复信息包括执行指令和语音答复文本,执行指令为显示所有北京大学相关地址结果集合,语音答复文本为“为你找到以下结果你要选择哪一个”,在车载显示部件上显示北京大学相关地址结果集合,并开始播报语音答复数据,当智能座舱播报到一半,例如说出了“为你找到”的时候,用户再次发出语音请求“第一个”,车载终端接收后将其转化为用户文本“第一个”发送给车载对话平台,车载对话平台接收后经处理获取答复信息,答复信息包括执行指令和语音答复文本,执行指令为选中第一个地址,语音答复文本为“好的”,中断播报的语音答复数据“为你找到”,开始播报“好的”。
情景二
如图6所示,用户发出语音请求“去北京大学”,车载终端接收后将其转化为用户文本“去北京大学”并发送给车载对话平台,车载对话平台接收后经处理获取答复信息,答复信息包括执行指令和语音答复文本,执行指令为显示所有北京大学相关地址结果集合,语音答复文本为“为你找到以下结果你要选择哪一个”,在车载显示部件上显示北京大学相关地址结果集合,并开始播报语音答复数据,当智能座舱播报到一半,例如说出了“为你找到”的时候,用户再次发出语音请求“今天中午吃得还不错”,车载终端接收后将其转化为用户文本“今天中午吃得还不错”发送给车载对话平台,车载对话平台接收后经处理获取答复信息,答复信息包括执行指令和语音答复文本,根据执行指令和语音答复文本判断该语音请求为噪音数据,因此继续播报的语音答复数据“为你找到”,完成“以下结果你要选择哪一个”的播报。
在本发明实施例中,智能座舱可随时针对用户的提问进行回应,用户无需等待智能座舱完成当前正在进行的语音播报即可进行提问,减少了用户的等待时间,此外,智能座舱还能判断用户的语音是否为需要答复的语音请求,提高了答复的准确率,直接大大提升了用户体验。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图7,示出了本发明的一种车载语音交互装置实施例的结构框图,应用于智能座舱,所述智能座舱具有与用户进行连续语音交互的连续对话状态,具体可以包括如下模块:
语音请求接收模块301,用于当处于所述连续对话状态且响应于所述用户的第一语音请求数据,播报预置的第一语音答复数据时,接收所述智能座舱内用户的第二语音请求数据;
语义识别结果获取模块302,对所述第二语音请求数据进行语义识别,获取语义识别结果;
答复信息获取模块303,根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息;
播报模块304,用于中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据。
在本发明一实施例中,所述答复信息包括执行指令和语音答复文本,所述答复信息获取模块303包括:
执行指令和语音答复文本获取子模块,用于根据所述语义识别结果获取与所述第二语音请求数据对应的预置的执行指令和语音答复文本。
在本发明一实施例中,所述语义识别结果包括与所述第二语音请求数据对应的用户文本,所述执行指令和语音答复文本获取子模块包括:
用户文本识别单元,用于对所述用户文本进行文本识别,确认与所述用户文本关联的请求领域类别和用户行为数据;
获取单元,用于采用所述请求领域类别和所述用户行为数据获取预置的执行指令和语音答复文本。
在本发明一实施例中,所述获取单元包括:
目标服务领域类别确定子单元,用于从预置的服务领域类别中确定与所述请求领域类别一致的目标服务领域类别;所述目标服务领域类别具有预置的执行指令和语音答复文本;
目标执行指令和目标语音答复文本获取子单元,用于从所述预置的执行指令和语音答复文本中,获取与所述用户行为数据对应的目标执行指令和目标语音答复文本。
在本发明一实施例中,所述装置还包括:
执行模块,用于执行所述目标执行指令并开始采集所述用户的第三语音请求数据。
在本发明一实施例中,所述装置还包括:
噪音数据判断模块,用于根据所述语义识别结果判断所述第二语音请求数据是否属于噪音数据;
第四语音请求数据采集模块,用于若所述第二语音请求数据属于噪音数据,则开始采集所述用户的第四语音请求数据。
在本发明一实施例中,所述噪音数据判断模块还包括:
噪音领域类别判断子模块,用于判断所述目标服务领域类别是否属于预置的噪音领域类别;
第一噪音数据确定子模块,用于若所述目标服务领域类别属于预置的噪音领域类别,则确定所述第二语音请求数据为噪音数据;
服务领域类别判断子模块,用于判断所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据是否属于相同的服务领域类别;
第二噪音数据确定子模块,用于若所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据属于相同的服务领域类别,则确定所述第二语音请求数据不是所述噪音数据;若所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据不属于相同的服务领域类别,则确定所述第二语音请求数据为所述噪音数据。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明实施例还公开了一种车辆,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述车辆执行如上所述的一个或多个的方法。
本发明实施例还公开了一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行如上所述的一个或多个的方法。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种车载语音交互方法和一种车载语音交互装置、车辆和可读介质,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种车载语音交互方法,其特征在于,所述方法应用于智能座舱,所述智能座舱具有与用户进行连续语音交互的连续对话状态,所述方法包括:
当处于所述连续对话状态且响应于所述用户的第一语音请求,播报预置的第一语音答复数据时,接收所述智能座舱内用户的第二语音请求数据;
对所述第二语音请求数据进行语义识别,获取语义识别结果;
根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息;
中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据。
2.根据权利要求1所述的方法,其特征在于,所述答复信息包括执行指令和语音答复文本,所述根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息的步骤,包括:
根据所述语义识别结果获取与所述第二语音请求数据对应的预置的执行指令和语音答复文本。
3.根据权利要求2所述的方法,其特征在于,所述语义识别结果包括与所述第二语音请求数据对应的用户文本,所述根据所述语义识别结果获取与所述第二语音请求数据对应的预置的执行指令和语音答复文本的步骤,包括:
对所述用户文本进行文本识别,确认与所述用户文本关联的请求领域类别和用户行为数据;
采用所述请求领域类别和所述用户行为数据获取预置的执行指令和语音答复文本。
4.根据权利要求3所述的方法,其特征在于,所述采用所述请求领域类别和所述用户行为数据获取预置的执行指令和语音答复文本的步骤,包括:
从预置的服务领域类别中确定与所述请求领域类别一致的目标服务领域类别;所述目标服务领域类别具有预置的执行指令和语音答复文本;
从所述预置的执行指令和语音答复文本中,获取与所述用户行为数据对应的目标执行指令和目标语音答复文本。
5.根据权利要求4所述的方法,其特征在于,所述中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据的步骤之后,还包括:
执行所述目标执行指令并开始采集所述用户的第三语音请求数据。
6.根据权利要求4所述的方法,其特征在于,所述根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息的步骤之后,还包括:
根据所述语义识别结果判断所述第二语音请求数据是否属于噪音数据;
若否,则执行所述中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据的步骤;
若是,则开始采集所述用户的第四语音请求数据。
7.根据权利要求6所述的方法,其特征在于,所述根据所述语义识别结果判断所述第二语音请求数据是否属于噪音数据的步骤,包括:
判断所述目标服务领域类别是否属于预置的噪音领域类别;
若是,则确定所述第二语音请求数据为噪音数据;
若否,则判断所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据是否属于相同的服务领域类别;
若所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据属于相同的服务领域类别,则确定所述第二语音请求数据不是所述噪音数据;
若所述目标执行指令和所述目标语音答复文本与当前正在播放的第一语音答复数据不属于相同的服务领域类别,则确定所述第二语音请求数据为所述噪音数据。
8.一种车载语音交互装置,其特征在于,所述方法应用于智能座舱,所述智能座舱具有与用户进行连续语音交互的连续对话状态,所述装置包括:
语音请求接收模块,用于当处于所述连续对话状态且响应于所述用户的第一语音请求数据,播报预置的第一语音答复数据时,接收所述智能座舱内用户的第二语音请求数据;
语义识别结果获取模块,对所述第二语音请求数据进行语义识别,获取语义识别结果;
答复信息获取模块,根据所述语义识别结果获取预置的与所述第二语音请求数据对应的答复信息;
播报模块,用于中断所述第一语音答复数据的播报并开始播报与所述答复信息对应的第二语音答复数据。
9.一种车辆,其特征在于,包括:
一个或多个处理器;和
其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述车辆执行如权利要求1-7任一项所述的一个或多个的方法。
10.一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得所述处理器执行如权利要求1-7任一项所述的一个或多个的方法。
CN202011453583.5A 2020-12-11 2020-12-11 一种车载语音交互方法、装置、车辆、可读介质 Active CN112614491B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011453583.5A CN112614491B (zh) 2020-12-11 2020-12-11 一种车载语音交互方法、装置、车辆、可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011453583.5A CN112614491B (zh) 2020-12-11 2020-12-11 一种车载语音交互方法、装置、车辆、可读介质

Publications (2)

Publication Number Publication Date
CN112614491A true CN112614491A (zh) 2021-04-06
CN112614491B CN112614491B (zh) 2024-03-08

Family

ID=75233120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011453583.5A Active CN112614491B (zh) 2020-12-11 2020-12-11 一种车载语音交互方法、装置、车辆、可读介质

Country Status (1)

Country Link
CN (1) CN112614491B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210237757A1 (en) * 2020-01-31 2021-08-05 Toyota Jidosha Kabushiki Kaisha Information processing device, information processing method, and storage medium storing information processing program
CN113470649A (zh) * 2021-08-18 2021-10-01 三星电子(中国)研发中心 语音交互方法及装置
CN113488047A (zh) * 2021-07-06 2021-10-08 思必驰科技股份有限公司 人机对话打断方法、电子设备及计算机可读存储介质
CN114454894A (zh) * 2022-01-29 2022-05-10 重庆长安新能源汽车科技有限公司 基于服务调用的语音播报控制方法及其系统、车辆

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071547A1 (en) * 2006-09-15 2008-03-20 Volkswagen Of America, Inc. Speech communications system for a vehicle and method of operating a speech communications system for a vehicle
CN105070290A (zh) * 2015-07-08 2015-11-18 苏州思必驰信息科技有限公司 人机语音交互方法及系统
CN105426357A (zh) * 2015-11-06 2016-03-23 武汉卡比特信息有限公司 语音快速选择方法
CN111128140A (zh) * 2019-12-30 2020-05-08 云知声智能科技股份有限公司 语音播报的中断方法及装置
CN111292732A (zh) * 2018-12-06 2020-06-16 深圳市广和通无线股份有限公司 音频信息处理方法、装置、计算机设备和存储介质
CN111767021A (zh) * 2020-06-28 2020-10-13 广州小鹏车联网科技有限公司 语音交互方法、车辆、服务器、系统和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080071547A1 (en) * 2006-09-15 2008-03-20 Volkswagen Of America, Inc. Speech communications system for a vehicle and method of operating a speech communications system for a vehicle
CN105070290A (zh) * 2015-07-08 2015-11-18 苏州思必驰信息科技有限公司 人机语音交互方法及系统
CN105426357A (zh) * 2015-11-06 2016-03-23 武汉卡比特信息有限公司 语音快速选择方法
CN111292732A (zh) * 2018-12-06 2020-06-16 深圳市广和通无线股份有限公司 音频信息处理方法、装置、计算机设备和存储介质
CN111128140A (zh) * 2019-12-30 2020-05-08 云知声智能科技股份有限公司 语音播报的中断方法及装置
CN111767021A (zh) * 2020-06-28 2020-10-13 广州小鹏车联网科技有限公司 语音交互方法、车辆、服务器、系统和存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210237757A1 (en) * 2020-01-31 2021-08-05 Toyota Jidosha Kabushiki Kaisha Information processing device, information processing method, and storage medium storing information processing program
US11577745B2 (en) * 2020-01-31 2023-02-14 Toyota Jidosha Kabushiki Kaisha Information processing device, information processing method, and storage medium storing information processing program
CN113488047A (zh) * 2021-07-06 2021-10-08 思必驰科技股份有限公司 人机对话打断方法、电子设备及计算机可读存储介质
CN113470649A (zh) * 2021-08-18 2021-10-01 三星电子(中国)研发中心 语音交互方法及装置
CN114454894A (zh) * 2022-01-29 2022-05-10 重庆长安新能源汽车科技有限公司 基于服务调用的语音播报控制方法及其系统、车辆
CN114454894B (zh) * 2022-01-29 2023-06-13 重庆长安新能源汽车科技有限公司 基于服务调用的语音播报控制方法及其系统、车辆

Also Published As

Publication number Publication date
CN112614491B (zh) 2024-03-08

Similar Documents

Publication Publication Date Title
CN112614491B (zh) 一种车载语音交互方法、装置、车辆、可读介质
US8135506B2 (en) Methods and systems for providing vehicle information
CN109493871A (zh) 车载系统的多屏语音交互方法及装置、存储介质和车机
DE102018125966A1 (de) System und verfahren zur erfassung von stichworten in einer unterhaltung
CN112242141B (zh) 一种语音控制方法、智能座舱、服务器、车辆和介质
CN103802761A (zh) 激活与车辆乘员语音交互的方法和车辆的语音交互系统
CN111816189A (zh) 一种车辆用多音区语音交互方法及电子设备
CN113879235A (zh) 汽车多屏控制的方法、系统、设备及存储介质
CN106059997A (zh) 车载语音交互方法及系统
WO2024078460A1 (zh) 语音处理方法、语音交互方法、服务器及存储介质
US9715878B2 (en) Systems and methods for result arbitration in spoken dialog systems
CN113548062A (zh) 汽车的交互控制方法、装置及计算机存储介质
CN105427881A (zh) 汽车用语音记录本系统
CN113409797A (zh) 语音处理方法和系统、及语音交互设备和方法
CN112534499B (zh) 声音对话装置、声音对话系统以及声音对话装置的控制方法
CN114005447A (zh) 一种语音对话交互方法、装置、车辆及介质
CN115240677A (zh) 用于车辆座舱的语音交互方法、装置和设备
CN115424623A (zh) 语音交互方法、装置、设备及计算机可读存储介质
CN116486798A (zh) 一种语音交互方法、装置、设备、车辆以及存储介质
CN114530154A (zh) 车载机器人及其操作方法、介质和计算机程序产品
CN113949720A (zh) 一种基于车辆座舱的互联方法、装置、设备及存储介质
CN108806682B (zh) 获取天气信息的方法和装置
CN111583918A (zh) 语音控制方法、车载终端及车辆
CN113035181A (zh) 语音数据处理方法、设备和系统
CN115878070B (zh) 一种车载音频播放方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant