CN112017667B - 语音交互方法、车辆和计算机存储介质 - Google Patents

语音交互方法、车辆和计算机存储介质 Download PDF

Info

Publication number
CN112017667B
CN112017667B CN202010924348.5A CN202010924348A CN112017667B CN 112017667 B CN112017667 B CN 112017667B CN 202010924348 A CN202010924348 A CN 202010924348A CN 112017667 B CN112017667 B CN 112017667B
Authority
CN
China
Prior art keywords
information
target
processing
voice interaction
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010924348.5A
Other languages
English (en)
Other versions
CN112017667A (zh
Inventor
丁磊
郭刘飞
王超
周宏波
郭昊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Human Horizons Shanghai Internet Technology Co Ltd
Original Assignee
Human Horizons Shanghai Internet Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Human Horizons Shanghai Internet Technology Co Ltd filed Critical Human Horizons Shanghai Internet Technology Co Ltd
Priority to CN202010924348.5A priority Critical patent/CN112017667B/zh
Publication of CN112017667A publication Critical patent/CN112017667A/zh
Application granted granted Critical
Publication of CN112017667B publication Critical patent/CN112017667B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

本申请公开了一种语音交互方法、车辆和计算机存储介质。具体实现方案为包括:检测所述车辆的至少一种状态信息;基于所述车辆的至少一种状态信息,确定目标对象的驾驶状态信息;基于所述目标对象的驾驶状态信息,从至少一种语音交互处理模式中确定目标语音交互处理模式;基于所述目标语音交互处理模式,进行至少一次语音交互处理;其中,所述语音交互处理中包括:对当前采集的语音信息进行对应的响应处理。

Description

语音交互方法、车辆和计算机存储介质
技术领域
本申请涉及车辆控制领域,尤其涉及一种语音交互、车辆和计算机存储介质。
背景技术
随着信息技术的发展,在车辆领域的信息处理技术也越来越智能化,在针对车辆的智能化处理中越来越多的关注到人车交互的场景,在人车交互场景中语音交互有成为解放驾驶人员双手的重要场景。然而,如何使得语音交互的处理能够更加智能化的满足驾驶人员的需求,就成为需要解决的问题。
发明内容
为了解决现有技术中上述至少一个问题,本申请实施例提供一种语音交互方法、车辆和计算机存储介质。
第一方面,本申请实施例提供一种语音交互方法,所述方法包括:
检测所述车辆的至少一种状态信息;
基于所述车辆的至少一种状态信息,确定目标对象的驾驶状态信息;
基于所述目标对象的驾驶状态信息,从至少一种语音交互处理模式中确定目标语音交互处理模式;
基于所述目标语音交互处理模式,进行至少一次语音交互处理;其中,所述语音交互处理中包括:对当前采集的语音信息进行对应的响应处理。
第二方面,本申请实施例提供一种车辆,包括:
检测模块,用于检测所述车辆的至少一种状态信息;
状态确定模块,用于基于所述车辆的至少一种状态信息,确定目标对象的驾驶状态信息;
模式选择模块,用于基于所述目标对象的驾驶状态信息,从至少一种语音交互处理模式中确定目标语音交互处理模式;
语音交互处理模块,用于基于所述目标语音交互处理模式,进行至少一次语音交互处理;
其中,所述语音交互处理模块,具体用于对当前采集的语音信息进行对应的响应处理。
第三方面,本申请实施例提供一种车辆,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请任意一项实施例所提供的方法。
第四方面,本申请实施例提供一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请任意一项实施例所提供的方法。
上述申请中的一个实施例具有如下优点或有益效果:通过检测车辆的状态来确定目标对象的驾驶状态;进而基于目标对象的驾驶状态来确定目标语音交互处理模式,如此,可以使得车辆与目标对象之间的语音交互处理更加智能化,并且更加贴合目标对象当前的状态,使得车辆的驾驶体验更加个性化。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请一实施例的语音交互方法流程示意图;
图2是根据本申请一实施例的语音交互的场景示意图一;
图3是根据本申请一实施例的语音交互的场景示意图二;
图4是根据本申请一实施例的语音交互的场景示意图三;
图5是本申请另一实施例的车辆组成结构示意图;
图6是本申请另一实施例的车辆硬件组成架构示意图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请实施例提供一种语音交互方法,应用于车辆,如图1所示,所述方法包括:
S101:检测所述车辆的至少一种状态信息;
S102:基于所述车辆的至少一种状态信息,确定目标对象的驾驶状态信息;
S103:基于所述目标对象的驾驶状态信息,从至少一种语音交互处理模式中确定目标语音交互处理模式;
S104:基于所述目标语音交互处理模式,进行至少一次语音交互处理;其中,所述语音交互处理中包括:对当前采集的语音信息进行对应的响应处理。
触发执行前述S101-S104的处理的方式,可以是默认的,比如车辆点火及开始执行S101-S104。又或者,可以根据车辆中对应的功能开关是否开启来确定的。
比如,在车辆中可以包括一功能开关,若该功能开关处于开启状态,可以执行上述S101-S104的处理;若该功能开关处于关闭状态,可以不执行上述S101-S104。
关于是否开启该功能开关,可以由用户根据实际情况进行设置,比如用户当前可能需要跟副驾驶聊天,可以将该功能开关关闭以避免打扰等等。
再进一步地,上述功能开关可以是通过车辆内的界面内容展示的按键是否开启来控制,比如在界面内容中可以设置“语音交互流程”按键,若按下该按键可以确定该功能开启。
上述S101中,所述车辆的至少一种状态信息可以包括以下至少之一:
档位状态、自动驾驶相关功能的状态、交互界面状态、系统主动交互状态、用户主动交互状态、GPS、车速状态。
当然,还可以包括更多的其他状态,本实施例中不做穷举。
具体来说,所述档位状态可以包括:倒挡、前进挡或停止档等等。所述自动驾驶相关功能的状态可以包括:自动驾驶相关功能开启或关闭的状态。所述交互界面状态,可以包括:交互界面为语音帮忙的交互界面或其他交互界面。所述系统主动交互状态可以包括:系统是否处于主动交互状态。所述GPS状态可以包括:基于GPS确定当前所处位置的状态。车速状态可以包括:当前瞬间车速、平均车速、瞬间加速度、平均加速度等等。
另外,采集上述车辆的至少一种状态信息可以通过车辆中的应用、系统、传感器、应用的数据中至少之一来获取或检测。
S102中,基于所述车辆的至少一种状态信息,确定目标对象的驾驶状态信息,具体可以为以下之一:
基于预设规则以及所述车辆的至少一种状态,确定目标对象的驾驶状态信息;
基于预设注意力模型以及所述车辆的至少一种状态,确定目标对象的驾驶状态信息。
这里,所述目标对象可以为车辆的驾驶人员,或者可以为用户。
驾驶状态信息可以为:驾驶人员处于空闲注意力少的状态、或空闲注意力多的状态。也就是,当前驾驶人员是否可以分散出来较多注意力进行语音交互的状态。
所述预设规则可以根据实际情况进行设置。举例来说,预设规则可以包括:
若当前档位为前进挡、自动驾驶相关功能关闭、交互界面进入语音帮助状态、用户未主动交互、GPS定位信息表征当前处于市区人流较大的路段、加速度较高中至少之一,则可以确定目标对象处于空闲注意力较少的状态。
或者,若当前档位为前进挡、自动驾驶相关功能开启、交互界面进入语音帮助状态、用户主动交互、GPS定位信息表征当前处于高速路上车流较小的路段、加速度为0,车速较高等等至少之一,则可以确定目标对象处于空闲注意力较多的状态。
或者,若当前档位为N挡、自动驾驶相关功能开启、交互界面进入语音帮助状态、用户未主动交互、GPS定位信息表征当前处于市区路口处、加速度为0,车速为0等等至少之一,则可以确定目标对象处于空闲注意力较少的状态。
当然,前述各个车辆的状态还可以结合具体数值以及预设规则来进行判断,比如,GPS的具体数值,车速的具体数值、加速度的具体数值,结合预设规则中的门限值来进行综合判断,来确定当前目标对象的驾驶状态。
需要指出的是,前述判断目标对象的驾驶状态的预设规则仅为示例,实际处理中可以与以上规则设置不同,或者有更多的预设规则,只要能够基于车辆的状态以及预设规则判断目标对象的驾驶状态的示例均在本实施例保护范围内,只是不再进行穷举。
预设注意力模型可以是基于神经网络构建的。注意力模型可以为预先训练得到的,在训练注意力模型的时候,可以采用大量的训练数据,训练数据中可以包括不同时间点采集得到的车辆的以下状态至少之一:档位状态、自动驾驶相关功能的状态、交互界面状态、系统主动交互状态、用户主动交互状态、GPS、车速状态;以及每一个时间点在车辆的上述一种或多种状态时,目标对象的驾驶状态。具体训练中,可以将不同时间点的至少一种车辆状态作为输入信息,将该时间点目标对象的驾驶状态作为输出信息对该注意力模型进行训练。
需要理解的是,构建注意力模型的方式可以存在其他方式,本实施例不再穷举。
S103中,基于所述目标对象的驾驶状态信息,从至少一种语音交互处理模式中确定目标语音交互处理模式,可以包括:
若目标对象的驾驶状态信息为空闲注意力较少,则从所述至少一种语音交互处理模式中确定目标语音交互处理模式为第一处理模式;
若目标对象的驾驶状态信息为空闲注意力较多,则从所述至少一种语音交互处理模式中确定目标语音交互处理模式为第二处理模式。
所述至少一种语音交互的处理模式,包括:第一处理模式以及第二处理模式;
其中,所述第一处理模式包括针对目标任务的N次语音交互处理;
所述第二处理模式包括与所述目标任务相关的M次语音交互处理;其中,与所述目标任务相关的M次语音交互处理中包括:针对目标任务的语音交互处理,以及与所述目标任务关联的推荐任务的语音交互处理;所述N和M均为整数,且N小于M。
这里,所述目标任务可以指的任意一个任务,比如,车辆中可以支持多个任务,目标任务指的其中之一。举例来说,可以有导航任务、开启某一个功能的任务、开启或关闭车辆中某一项功能的任务等等。本实施例中所谓的任务所对应的交互处理可以理解为从触发该任务、到执行该任务的过程中、以及完成针对该任务的处理这个过程中的全部的交互处理。
其中,N次以及M次不用于限定目标任务与的具体交互次数,仅用于表示第一处理模式下针对某一个任务执行的交互处理的次数小于第二处理模式针对同一个任务执行的交互处理的次数。也就是说,不论针对哪个任务,只要是第一处理模式针对该任务的交互处理次数就小于第二处理模式针对该任务的交互处理次数。
再进一步地,上述一次语音交互处理中可以包括有:目标对象(即驾驶人员)发起语音信息或语音指令、车辆对该语音信息或语音指令做出响应;或者,车辆发出文字或语音提示信息,目标对象针对该文字或语音提示信息发出对应的语音信息。或者,展示界面内容、采集语音信息、基于语音信息生成执行响应处理。
也就是说,针对某一个任务的处理中,可以包括一次或多次语音交互处理。
关于第二处理模式中,与所述目标任务相关的M次语音交互处理中包括:针对目标任务的语音交互处理,以及与所述目标任务关联的推荐任务的语音交互处理。指的是,第二处理模式中除了有针对目标任务本身的一次或多次语音交互处理之外,还包括完成针对目标任务本身的一次或多次语音交互处理之后,的与目标任务相关的相关任务的一次或多次语音交互处理。
S104中,在目标语音交互处理模式不同的情况下,可以存在以下几种处理方式,分别来说:
方式1、
采用所述目标语音交互处理模式,对当前采集到的语音信息进行响应。
其中,所述对当前采集的语音信息进行对应的响应处理,包括以下至少之一:
基于当前采集的语音信息确定对应的反馈信息,将所述反馈信息进行音频输出;
基于当前采集的语音信息确定针对目标功能的控制指令,基于所述控制指令对目标功能进行处理;
基于当前采集的语音信息确定针对目标功能的控制指令,基于所述控制指令对目标功能进行处理,基于对所述目标功能的处理结果生成响应信息,将所述响应信息进行音频输出。
其中,所述语音信息可以为目标对象发出的语音信息,采集语音信息的方式可以为车内的拾音器或者麦克风等采集得到的。
还需要理解的是,一次语音交互处理可以根据实际情况进行定义,本示例方式中将用户发出语音信息到车辆执行对应的响应处理作为一次交互处理。
该语音信息可以是目标对象根据上一次语音交互的响应处理的结果发起的本次语音交互处理的语音信息。举例来说,第i-1次语音交互处理中可以得到响应处理的结果为车输出的音频信息“是否选择饭店1”;则第i次语音交互处理中,可以是回答“是的”,此时,如果没有后续的处理可以直接进行语音导航。或者,i=1,也就是目标对象(或称为驾驶人员或称为用户)触发了针对某一个任务的第一次语音交互处理,目标对象可以发起“去附近吃饭”,相应的,车辆可以分析得到对应的响应结果为附近有饭店1、2、3,此时执行的响应处理可以是输出音频“去饭店1、2还是3”,至此完成一次语音交互处理。
当然,用户发出的语音信息还可以是对车辆的目标功能进行控制的指令,比如,打开天窗,此时,响应处理可以是直接打开车辆的天窗,同时可以输出音频信息,比如“好的,已打开”。
需要指出的是,上述车辆分析得到针对语音信息的响应处理的方式,可以根据预设的第一模型来实现,第一模型的功能可以是:对语音信息进行识别转换为文字信息;根据该文字信息生成对应的响应处理结果或者响应处理所对应的指令信息。
再进一步地,响应处理对应的指令信息可以是:针对目标功能进行控制的指令信息,或者是,控制生成与语音信息所对应的文本信息,并将该文本信息进行TTS转换得到对应的音频信息并输出的指令信息等等。
该第一模型可以为预先基于大量的训练数据训练得到的,比如,训练数据中可以包括,语音信息及其对应的文字信息,以及文字信息所对应的响应处理,或者响应处理所对应的指令信息等等。基于这些训练数据可以使得训练后的第一模型至少能够得到针对语音信息的响应处理的指令信息。
本方式优选的可以应用于第一处理模式,由于第一处理模式对应了空闲注意力较少的驾驶状态,因此以减少用户看屏幕或避免看屏幕为目的,控制第一处理模式中进行N次目标对象与车辆之间的语音交互处理。
当然,本方式也可以应用于第二处理模式。
在两种模式中使用的过程中,不同点可以结合图2进行说明:比如,第一次语音交互处理中,用户发出语音信息“我想吃XX”,相应的,车辆会响应并输出“确定导航到XX饭店码,或请说第几个”;第二次语音交互处理中,用户发出“第一个”的信息,然后车辆响应“好的,为您导航到有XX饭店”。以上的处理可以在第一处理模式以及第二处理模式中均包含。但是第一处理模式中截止至此可以完成处理,避免分散驾驶人员更多的注意力。
第二处理模式则可以基于以上的任务处理确定关联的推荐任务(或称为相关任务),此时,可以进一步发出提示信息“是否连接蓝牙”,若用户回答“是”,则响应相应的信息“可以联系到店家,需要拨打电话吗”;用户发出语音信息“好的”,则响应信息可以直接拨打电话。
另外,还需要指出的是,确定推荐任务的方式可以是根据用户的历史操作习惯来确定的,比如,用户多次询问完饭店都会拨打电话,那么该推荐任务会排在第一优先级为用户优先推荐。当然,确定推荐任务的方式可以根据预设的分析模型来实现,比如将用户一段时间内触发某一任务、及其后续的使用习惯作为输入,将与该触发的任务关联的任务作为推荐任务作为输出来训练分析模型。这种情况中,训练分析模型可以是根据用户新的操作习惯不停的更新的,从而可以保证分析模型得到的推荐任务与用户变化的操作喜欢相匹配,提升用户的使用体验。
方式2、
可以在第一处理模式的N次语音交互的处理中的至少部分语音交互处理增加展示界面内容的场景。其中,在一次语音交互的处理中可以包括:在当前采集的所述语音信息与当前展示的界面内容中的目标可选信息匹配的情况下,基于所述目标可选信息确定并执行对应的响应处理。
具体的:
在采用第一处理模式对N次语音交互处理中的第j次语音交互处理的过程中,在当前采集的所述语音信息与当前展示的界面内容中的目标可选信息匹配的情况下,基于所述目标可选信息确定并执行对应的响应处理;j为大于等于1且小于等于N的整数;
其中,所述基于所述目标可选信息确定对应的响应处理,包括以下至少之一:
在所述目标可选信息关联至第一界面内容的情况下,确定响应处理为将当前展示的界面内容更新为所述第一界面内容;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理,基于对所述目标功能的控制处理的结果生成响应信息,将所述响应信息进行音频输出。
其中,所述语音信息可以为目标对象发出的语音信息,采集语音信息的方式可以为车内的拾音器或者麦克风等采集得到的。
本方式中,所述目标语音交互处理模式为第一处理模式;相应的,所述当前展示的界面内容作为第一类界面内容。
需要指出的是,上述处理中,当前展示的界面内容,可以为第j-1次(上一次)语音交互处理得到的响应结果;又或者,可以为初始界面内容。也就是,可能存在一种情况就是相邻两次语音交互处理之间,前一次语音交互处理的结果作为下一次语音交互处理可以参考或看到的界面内容信息被使用。
所述当前采集的所述语音信息与当前展示的界面内容中的目标可选信息匹配的判断方式可以为:对语音信息进行转换得到对应的文字信息;判断文字信息是否与当前展示的界面内容中的至少一个可选信息匹配,若匹配,则将匹配到的可选信息作为目标可选信息。
举例来说,第j-1次语音交互处理得到的响应结果可以展示在屏幕上,比如“饭店1、2、3”,即为至少一个可选信息;第j次语音交互处理中,接收到语音信息,比如“饭店2”;车辆分析该语音信息,确定该语音信息所对应的文字信息与至少一个第一类可选信息中的第一类所述目标可选信息,即“饭店2”匹配,则可以生成相应结果,即从当前位置到饭店2的路线,将该路线图作为第一界面内容,并将当前展示的界面内容更新为所述第一界面内容。
需要理解的是,本方式中,在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理,可以包括:目标可选信息可以关联至某一个功能的控制,比如,目标可选信息可以是播放音乐的一个播放按键;在确定语音信息为“播放”的时候,可以生成针对播放按键的点击指令,进而基于该点击指令控制播放音乐。
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理,并基于对所述目标功能的控制处理的结果生成响应信息。这种处理中,目标可选信息也可以关联至某一个功能的控制,比如可以是雾灯的开启指令,此时可以根据该开启指令控制开启雾灯,若开启成功,可以生成相应的响应信息,并通过音频输出装置比如扬声器,输出该响应信息。
需要指出的是,上述车辆分析得到针对语音信息的所述响应结果的方式,可以根据预设的第二模型来实现,第二模型的功能可以是:对语音信息进行识别转换为文字信息;根据该文字信息生成对应的响应处理结果或者响应处理所对应的指令信息。
该第二模型可以为预先基于大量的训练数据训练得到的,比如,训练数据中可以包括,语音信息及其对应的文字信息,以及文字信息所对应的响应处理,或者响应处理所对应的指令信息等等。基于这些训练数据可以使得训练后的第一模型至少能够得到针对语音信息的响应处理的指令信息。
方式3、
可以将上述方式1、2结合使用,也就是在第一处理模式中的N次语音交互处理中,可以存在部分语音交互处理使用方式1进行处理,剩下一部分语音交互处理采用方式2进行处理。不再进行赘述。
方式4、
在采用第二处理模式对M次语音交互处理中的第k次语音交互处理的过程中,在当前采集的所述语音信息与当前展示的界面内容中的目标可选信息匹配的情况下,基于所述目标可选信息确定并执行对应的响应处理。k为大于等于1且小于等于N的整数。
其中,所述基于所述目标可选信息确定对应的响应处理,包括以下至少之一:
在所述目标可选信息关联至第一界面内容的情况下,确定响应处理为将当前展示的界面内容更新为所述第一界面内容;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理,基于对所述目标功能的控制处理的结果生成响应信息,将所述响应信息进行音频输出。
关于方式4的处理中,关于一次语音交互处理的定义与方式2类似、以及如何匹配目标可选信息的方式与方式2中匹配目标可选信息的方式类似,另外,关于响应处理的确定方式也与方式2类似,这里不再赘述。
方式4与方式2的不同之处包括:
所述目标语音交互处理模式为第二处理模式;相应的,所述当前展示的界面内容为第二类界面内容。
在第一处理模式中的第一类界面内容、与第二处理模式中的第二类界面内容用于展示同一内容的情况下,
所述第一类界面内容中包含的第一类可选信息的数量少于所述第二类界面内容中的第二类可选信息的数量,和/或,所述第一类界面内容中包含的字段信息的数量少于第二类界面内容中包含的字段信息的数量。
具体来说,第一类界面内容中展示的信息少于第二类界面内容中展示的信息。前述所谓的同一内容,举例来说,在导航的场景中,若进行路线选择的提示的时候,都包括了起点、目的地、路线的内容。
两种处理模式针对同一内容展示的时候是不同的,比如,用户在上一次语音交互处理中发出的语音信息为“附近有什么好玩儿的”,那么第一处理模式可以展示图3中右侧所示的第一类界面内容;相应的,在本次语音交互处理中会展示该第一类界面内容,图3中示出,仅有一个第一类可选信息“导航”虚拟按键;而图3左侧所示的第二类界面内容则会展示多个字段,比如目的地-1的名称、与当前位置的距离,并且会提供更丰富的第二类可选信息,如图中所示除了“导航”之外,还有“查看路线”的虚拟按键。
需要指出的是,在第二处理模式中,上述车辆分析得到针对语音信息的所述响应结果的方式,可以根据预设的第三模型来实现,第三模型的功能可以是:对语音信息进行识别转换为文字信息;根据该文字信息生成对应的响应处理结果或者响应处理所对应的指令信息。需要指出的是,与第二模型的不同之处在于,本方式中第三模型生成的指令信息可以指示更加丰富的内容。
同样的,与第二模型的不同在于,上述输出的文本信息可以比第二模型更丰富,换句话说,若第二模型输出的文字内容包含L个文字,那么第三模型输出的文字内容可以为P个文字,并且P大于L。另外,界面内容中同样的,第三模型输出的第二类可选信息的数量也可以大于第二模型输出的第一类可选信息的数量,并且,第三模型输出的字段信息的内容也多与第二模型输出的字段信息的内容。
进一步地,关于上述方式2、4中涉及到了针对当前展示的第一类界面内容或第二类界面内容中的可选信息(第一类可选信息或第二类可选信息),可以直接通过语音信息进行选择,进而,车辆可以得到点击选中的目标可选信息(第一类目标可选信息或第二类目标可选信息)的指令;相应的,车辆内部就会执行点击该目标可选信息的后续处理并展示对应的结果。
需要理解的是,语音信息仅会与当前展示的界面内容中的可选信息进行匹配,比如参见图4,当显示界面1时,其中包含3个按键,即3个可选信息,分别为可选信息-1、可选信息-2以及可选信息-3,所对应的语音信息可以生效,也就是只要语音信息与其中任意一个匹配则确定选中某一个可选信息,然后根据该可选信息所对应的链接展示后续界面内容,或执行后续的响应处理;此时,界面2中的2个按键,即2个可选信息是不会与语音信息进行匹配的;
当从界面内容1切换到界面2时,界面1中的3个可选信息或按键是不会与语音信息进行匹配的,依次类推不再赘述。
再进一步地,在音频输出响应结果的时候,可以是先生成相应的文字信息,然后将该文字信息进行TTS转换得到对应的音频信息并输出。
本申请实施例还提供一种车辆,如图5所示,包括:
检测模块51,用于检测所述车辆的至少一种状态信息;
状态确定模块52,用于基于所述车辆的至少一种状态信息,确定目标对象的驾驶状态信息;
模式选择模块53,用于基于所述目标对象的驾驶状态信息,从至少一种语音交互处理模式中确定目标语音交互处理模式;
语音交互处理模块54,用于基于所述目标语音交互处理模式,进行至少一次语音交互处理;
其中,所述语音交互处理模块54,具体用于对当前采集的语音信息进行对应的响应处理。
所述至少一种语音交互的处理模式,包括:第一处理模式以及第二处理模式;
其中,所述第一处理模式包括针对目标任务的N次语音交互处理;
所述第二处理模式包括与所述目标任务相关的M次语音交互处理;其中,与所述目标任务相关的M次语音交互处理中包括:针对目标任务的语音交互处理,以及与所述目标任务关联的推荐任务的语音交互处理;
所述N和M均为整数,且N小于M。
所述语音交互处理模块54,用于执行以下至少之一:
基于当前采集的语音信息确定对应的反馈信息,将所述反馈信息进行音频输出;
基于当前采集的语音信息确定针对目标功能的控制指令,基于所述控制指令对目标功能进行处理;
基于当前采集的语音信息确定针对目标功能的控制指令,基于所述控制指令对目标功能进行处理,基于对所述目标功能的处理结果生成响应信息,将所述响应信息进行音频输出。
所述语音交互处理模块54,用于在当前采集的所述语音信息与当前展示的界面内容中的目标可选信息匹配的情况下,基于所述目标可选信息确定并执行对应的响应处理。
所述目标语音交互处理模式为第一处理模式;相应的,所述当前展示的界面内容为第一类界面内容;所述目标语音交互处理模式为第二处理模式;相应的,所述当前展示的界面内容为第二类界面内容;其中,
所述第一类界面内容中包含的第一类可选信息的数量少于所述第二类界面内容中的第二类可选信息的数量,和/或,所述第一类界面内容中包含的字段信息的数量少于第二类界面内容中包含的字段信息的数量。
所述语音交互处理模块54,用于执行以下至少之一:
在所述目标可选信息关联至第一界面内容的情况下,确定响应处理为将当前展示的界面内容更新为所述第一界面内容;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理,并基于对所述目标功能的控制处理的结果生成响应信息。
所述状态确定模块52,用于执行以下之一:
基于预设规则以及所述车辆的至少一种状态,确定目标对象的驾驶状态信息;
基于预设注意力模型以及所述车辆的至少一种状态,确定目标对象的驾驶状态信息。
根据本申请的实施例,本申请还提供了一种车辆和一种可读存储介质。
如图6所示,是根据本申请实施例的车辆的框图。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该车辆包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在车辆内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个车辆,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图5中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的语音交互方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的语音交互方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的语音交互方法对应的程序指令/模块。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的语音交互方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据车辆的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至车辆。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
车辆还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图5中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与车辆的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (14)

1.一种语音交互方法,应用于车辆,所述方法包括:
检测所述车辆的至少一种状态信息;
基于所述车辆的至少一种状态信息,确定目标对象的驾驶状态信息;
基于所述目标对象的驾驶状态信息,从至少一种语音交互处理模式中确定目标语音交互处理模式,所述至少一种语音交互处理模式包括:第一处理模式以及第二处理模式;其中,所述第一处理模式包括针对目标任务的N次语音交互处理;所述第二处理模式包括与所述目标任务相关的M次语音交互处理;其中,与所述目标任务相关的M次语音交互处理中包括:针对目标任务的语音交互处理,以及与所述目标任务关联的推荐任务的语音交互处理;所述N和M均为整数,且N小于M;
基于所述目标语音交互处理模式,进行至少一次语音交互处理;其中,所述语音交互处理中包括:对当前采集的语音信息进行对应的响应处理。
2.根据权利要求1所述的方法,其特征在于,所述对当前采集的语音信息进行对应的响应处理,包括以下至少之一:
基于当前采集的语音信息确定对应的反馈信息,将所述反馈信息进行音频输出;
基于当前采集的语音信息确定针对目标功能的控制指令,基于所述控制指令对目标功能进行处理;
基于当前采集的语音信息确定针对目标功能的控制指令,基于所述控制指令对目标功能进行处理,基于对所述目标功能的处理结果生成响应信息,将所述响应信息进行音频输出。
3.根据权利要求1所述的方法,其特征在于,所述对当前采集的语音信息进行对应的响应处理,包括:
在当前采集的所述语音信息与当前展示的界面内容中的目标可选信息匹配的情况下,基于所述目标可选信息确定并执行对应的响应处理。
4.根据权利要求3所述的方法,其特征在于,所述目标语音交互处理模式为第一处理模式;相应的,所述当前展示的界面内容为第一类界面内容;所述目标语音交互处理模式为第二处理模式;相应的,所述当前展示的界面内容为第二类界面内容;其中,
所述第一类界面内容中包含的第一类可选信息的数量少于所述第二类界面内容中的第二类可选信息的数量,和/或,所述第一类界面内容中包含的字段信息的数量少于第二类界面内容中包含的字段信息的数量。
5.根据权利要求3所述的方法,其特征在于,所述基于所述目标可选信息确定对应的响应处理,包括以下至少之一:
在所述目标可选信息关联至第一界面内容的情况下,确定响应处理为将当前展示的界面内容更新为所述第一界面内容;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理,并基于对所述目标功能的控制处理的结果生成响应信息。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述基于所述车辆的至少一种状态信息,确定目标对象的驾驶状态信息,包括以下之一:
基于预设规则以及所述车辆的至少一种状态,确定目标对象的驾驶状态信息;
基于预设注意力模型以及所述车辆的至少一种状态,确定目标对象的驾驶状态信息。
7.一种车辆,包括:
检测模块,用于检测所述车辆的至少一种状态信息;
状态确定模块,用于基于所述车辆的至少一种状态信息,确定目标对象的驾驶状态信息;
模式选择模块,用于基于所述目标对象的驾驶状态信息,从至少一种语音交互处理模式中确定目标语音交互处理模式,所述至少一种语音交互的处理模式,包括:第一处理模式以及第二处理模式;其中,所述第一处理模式包括针对目标任务的N次语音交互处理;所述第二处理模式包括与所述目标任务相关的M次语音交互处理;其中,与所述目标任务相关的M次语音交互处理中包括:针对目标任务的语音交互处理,以及与所述目标任务关联的推荐任务的语音交互处理;所述N和M均为整数,且N小于M;
语音交互处理模块,用于基于所述目标语音交互处理模式,进行至少一次语音交互处理;
其中,所述语音交互处理模块,具体用于对当前采集的语音信息进行对应的响应处理。
8.根据权利要求7所述的车辆,其特征在于,所述语音交互处理模块,用于执行以下至少之一:
基于当前采集的语音信息确定对应的反馈信息,将所述反馈信息进行音频输出;
基于当前采集的语音信息确定针对目标功能的控制指令,基于所述控制指令对目标功能进行处理;
基于当前采集的语音信息确定针对目标功能的控制指令,基于所述控制指令对目标功能进行处理,基于对所述目标功能的处理结果生成响应信息,将所述响应信息进行音频输出。
9.根据权利要求7所述的车辆,其特征在于,所述语音交互处理模块,用于
在当前采集的所述语音信息与当前展示的界面内容中的目标可选信息匹配的情况下,基于所述目标可选信息确定并执行对应的响应处理。
10.根据权利要求9所述的车辆,其特征在于,所述目标语音交互处理模式为第一处理模式;相应的,所述当前展示的界面内容为第一类界面内容;所述目标语音交互处理模式为第二处理模式;相应的,所述当前展示的界面内容为第二类界面内容;其中,
所述第一类界面内容中包含的第一类可选信息的数量少于所述第二类界面内容中的第二类可选信息的数量,和/或,所述第一类界面内容中包含的字段信息的数量少于第二类界面内容中包含的字段信息的数量。
11.根据权利要求10所述的车辆,其特征在于,所述语音交互处理模块,用于执行以下至少之一:
在所述目标可选信息关联至第一界面内容的情况下,确定响应处理为将当前展示的界面内容更新为所述第一界面内容;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理;
在所述目标可选信息用于触发针对目标功能的控制的情况下,确定响应处理为对所述目标功能进行相应的控制处理,并基于对所述目标功能的控制处理的结果生成响应信息。
12.根据权利要求7-11任一项所述的车辆,其特征在于,所述状态确定模块,用于执行以下之一:
基于预设规则以及所述车辆的至少一种状态,确定目标对象的驾驶状态信息;
基于预设注意力模型以及所述车辆的至少一种状态,确定目标对象的驾驶状态信息。
13.一种车辆,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的方法。
CN202010924348.5A 2020-09-04 2020-09-04 语音交互方法、车辆和计算机存储介质 Active CN112017667B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010924348.5A CN112017667B (zh) 2020-09-04 2020-09-04 语音交互方法、车辆和计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010924348.5A CN112017667B (zh) 2020-09-04 2020-09-04 语音交互方法、车辆和计算机存储介质

Publications (2)

Publication Number Publication Date
CN112017667A CN112017667A (zh) 2020-12-01
CN112017667B true CN112017667B (zh) 2024-03-15

Family

ID=73515374

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010924348.5A Active CN112017667B (zh) 2020-09-04 2020-09-04 语音交互方法、车辆和计算机存储介质

Country Status (1)

Country Link
CN (1) CN112017667B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113688277B (zh) * 2021-08-26 2023-05-12 三一专用汽车有限责任公司 语音内容展示方法、装置、系统及车辆
CN114648992A (zh) * 2022-03-28 2022-06-21 广州小鹏汽车科技有限公司 交互方法、车辆及存储介质
CN115273865A (zh) * 2022-07-26 2022-11-01 中国第一汽车股份有限公司 一种智能语音交互方法、装置、设备和存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150193A (ja) * 2001-11-12 2003-05-23 Toyota Central Res & Dev Lab Inc 車輌制御装置
CN105895095A (zh) * 2015-02-12 2016-08-24 哈曼国际工业有限公司 自适应交互语音系统
JP2016207001A (ja) * 2015-04-24 2016-12-08 マツダ株式会社 運転支援装置
CN108735203A (zh) * 2018-03-28 2018-11-02 上海乐愚智能科技有限公司 语音交互方法、终端及计算机可读介质
CN110641476A (zh) * 2019-08-16 2020-01-03 广汽蔚来新能源汽车科技有限公司 基于车载机器人的交互方法、装置、控制器和存储介质
CN110723087A (zh) * 2019-10-30 2020-01-24 大陆投资(中国)有限公司 车载电子设备及其人机交互方式自适应调整方法
CN110929074A (zh) * 2018-08-31 2020-03-27 长城汽车股份有限公司 车载语音播报方法及系统
WO2020119542A1 (zh) * 2018-12-11 2020-06-18 阿里巴巴集团控股有限公司 一种语音交互方法、装置及系统
WO2020147360A1 (zh) * 2019-01-15 2020-07-23 北京百度网讯科技有限公司 用于无人车的控制方法和装置
CN111439271A (zh) * 2020-04-21 2020-07-24 上汽大众汽车有限公司 基于语音控制的辅助驾驶方法及辅助驾驶设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008233678A (ja) * 2007-03-22 2008-10-02 Honda Motor Co Ltd 音声対話装置、音声対話方法、及び音声対話用プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150193A (ja) * 2001-11-12 2003-05-23 Toyota Central Res & Dev Lab Inc 車輌制御装置
CN105895095A (zh) * 2015-02-12 2016-08-24 哈曼国际工业有限公司 自适应交互语音系统
JP2016207001A (ja) * 2015-04-24 2016-12-08 マツダ株式会社 運転支援装置
CN108735203A (zh) * 2018-03-28 2018-11-02 上海乐愚智能科技有限公司 语音交互方法、终端及计算机可读介质
CN110929074A (zh) * 2018-08-31 2020-03-27 长城汽车股份有限公司 车载语音播报方法及系统
WO2020119542A1 (zh) * 2018-12-11 2020-06-18 阿里巴巴集团控股有限公司 一种语音交互方法、装置及系统
WO2020147360A1 (zh) * 2019-01-15 2020-07-23 北京百度网讯科技有限公司 用于无人车的控制方法和装置
CN110641476A (zh) * 2019-08-16 2020-01-03 广汽蔚来新能源汽车科技有限公司 基于车载机器人的交互方法、装置、控制器和存储介质
CN110723087A (zh) * 2019-10-30 2020-01-24 大陆投资(中国)有限公司 车载电子设备及其人机交互方式自适应调整方法
CN111439271A (zh) * 2020-04-21 2020-07-24 上汽大众汽车有限公司 基于语音控制的辅助驾驶方法及辅助驾驶设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A training tool for speech driven human-robot interaction applications;Christopher Hudson;《2017 15th International Conference on Emerging eLearning Technologies and Applications (ICETA)》;全文 *
车载娱乐系统人机交互设计研究;赵默涵;《中国优秀硕士学位论文全文数据库》;全文 *

Also Published As

Publication number Publication date
CN112017667A (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
CN112017667B (zh) 语音交互方法、车辆和计算机存储介质
US11745585B2 (en) Vehicle infotainment apparatus using widget and operation method thereof
US10654489B2 (en) Vehicular human machine interfaces
US9103691B2 (en) Multimode user interface of a driver assistance system for inputting and presentation of information
JP7093181B2 (ja) 車両ベースのマルチモーダルインターフェース
JP5910904B1 (ja) 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
US20180059798A1 (en) Information processing device
US10528150B2 (en) In-vehicle device
JP5957744B1 (ja) 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
CN112141102B (zh) 巡航控制方法、装置、设备、车辆和介质
WO2016002872A1 (ja) 情報処理装置
JP2017030570A (ja) 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
CN111497611A (zh) 一种车辆交互方法和装置
CN111121814A (zh) 导航方法、装置、电子设备及计算机可读存储介质
US20170017497A1 (en) User interface system, user interface control device, user interface control method, and user interface control program
JP2017032543A (ja) 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
KR20210129575A (ko) 위젯을 이용한 차량용 인포테인먼트 장치와 그의 동작 방법
CN111625094A (zh) 智能后视镜的交互方法、装置、电子设备和存储介质
KR102501913B1 (ko) 조작 시스템, 조작 시스템의 조작 방법 및 조작 시스템을 포함하는 차량
KR101518911B1 (ko) 차량의 스마트 기능 검색 시스템 및 그 방법
JP6558738B2 (ja) 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP2008233009A (ja) カーナビゲーション装置及びカーナビゲーション装置用プログラム
CN117373456A (zh) 语音交互方法、服务器及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant