CN112562674A - 车联网智能语音处理方法及相关装置 - Google Patents
车联网智能语音处理方法及相关装置 Download PDFInfo
- Publication number
- CN112562674A CN112562674A CN202110188367.0A CN202110188367A CN112562674A CN 112562674 A CN112562674 A CN 112562674A CN 202110188367 A CN202110188367 A CN 202110188367A CN 112562674 A CN112562674 A CN 112562674A
- Authority
- CN
- China
- Prior art keywords
- response result
- voice input
- user
- intelligent
- matched
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Abstract
本申请公开了一种车联网智能语音处理方法及相关装置,本申请方法包括智能车载网联终端接收用户的语音输入,其中,智能车载网联终端接入运营商提供的网络;在语音输入对应的应答结果返回后,通过智能车载网联终端接收用户对应答结果的反馈行为;根据反馈行为并基于预设模型判断应答结果是否与语音输入匹配,其中,预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:用户的语音输入、对用户的语音输入的反馈行为;根据智能车载网联终端,返回与语音输入匹配的预设应答结果。本申请解决用户通过语音输入,智能端返回对应的答结果的场景中如何提高用户体验的问题。
Description
技术领域
本申请涉及车联网技术领域,具体而言,涉及一种车联网智能语音处理方法及相关装置。
背景技术
随着智能语音的快速发展,为了方便用户的操作,语音输入的模式应用越来越广泛。比如应用在便携式移动终端、电视、机器人、汽车等场景中。
其中,在车联网应用场景中,用户可以通过语音输入点歌、点视频等,车载智能终端接收到语音输入请求后会将对应的应答结果呈现,相比于手动输入搜索信息更加的快捷,非常方便。但是发明人发现,在用户通过语音输入进行点歌、点视频等操作时,经常会遇到用户对返回的应答结果不满意的情况,还需要用户进行重新的语音输入,或者需要手动输入,影响用户的体验。
综上,应答结果结果不满意,需要用户进行重新的语音输入,或者需要手动输入,影响用户的体验是亟需解决的问题。
发明内容
本申请的主要目的在于提供一种车联网智能语音处理方法及相关装置,解决应答结果结果不满意,需要用户进行重新的语音输入,或者需要手动输入,影响用户的体验是亟需解决的问题。
为了实现上述目的,根据本申请的第一方面,提供了一种车联网智能语音处理方法。
根据本申请的车联网智能语音处理方法包括:
智能车载网联终端接收用户的语音输入,其中,所述智能车载网联终端接入运营商提供的网络;
在所述语音输入对应的应答结果返回后,通过所述智能车载网联终端接收用户对所述应答结果的反馈行为;
根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配,其中,所述预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:所述用户的语音输入、对所述用户的语音输入的反馈行为;
根据所述智能车载网联终端,返回与所述语音输入匹配的预设应答结果。
可选的,所述方法还包括:
接收初始时用户多次输入的语音输入;
在每次返回语音输入对应的应答结果后,接收用户对应答结果的反馈行为;
根据接收到反馈行为的时间与应答结果的返回时间之间的时间差判断应答结果是否与语音输入匹配;
若匹配,则将匹配时对应的反馈行为记作一个正样本;
若不匹配,则将不匹配时对应的反馈行为记作一个负样本;
基于正样本、负样本进行模型的迭代训练得到所述预设模型。
可选的,所述根据接收到反馈行为的时间与应答结果的返回时间之间的时间差判断应答结果是否与语音输入匹配包括:
若所述时间差大于等于预设时长,则确定应答结果与语音输入匹配;
若所述时间差小于预设时长,则确定应答结果与语音输入不匹配。
可选的,所述方法还包括:
获取应答结果对应的时间信息,所述时间信息包括播放时长;
根据所述播放时长确定所述预设时长。
可选的,在根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配之后,所述方法还包括:
将语音输入与应答结果匹配时的语音输入以及应答结果进行对应保存,作为第一修正组,以根据第一修正组对应答结果进行优化;和/或,
将语音输入与应答结果不匹配时的语音输入以及应答结果进行对应保存,作为第二修正组,以根据第二修正组对应答结果进行优化。
可选的,所述应答结果为音视频数据。
为了实现上述目的,根据本申请的第二方面,提供了另一种车联网智能语音处理装置。
根据本申请的车联网智能语音处理装置包括:
第一接收单元,用于智能车载网联终端接收用户的语音输入,其中,所述智能车载网联终端接入运营商提供的网络;
第二接收单元,用于在所述语音输入对应的应答结果返回后,通过所述智能车载网联终端接收用户对所述应答结果的反馈行为;
判断单元,用于根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配,其中,所述预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:所述用户的语音输入、对所述用户的语音输入的反馈行为;
返回单元,用于根据所述智能车载网联终端,返回与所述语音输入匹配的预设应答结果。
可选的,所述装置还包括:
所述第一接收单元,还用于接收初始时用户多次输入的语音输入;
所述第二接收单元,还用于在每次返回语音输入对应的应答结果后,接收用户对应答结果的反馈行为;
所述判断单元,还用于根据接收到反馈行为的时间与应答结果的返回时间之间的时间差判断应答结果是否与语音输入匹配;
样本确定单元,用于若匹配,则将匹配时对应的反馈行为记作一个正样本;若不匹配,则将不匹配时对应的反馈行为记作一个负样本;
训练单元,用于基于正样本、负样本进行模型的迭代训练得到所述预设模型。
可选的,所述判断单元包括:
第一匹配模块,用于若所述时间差大于等于预设时长,则确定应答结果与语音输入匹配;
第二匹配模块,用于若所述时间差小于预设时长,则确定应答结果与语音输入不匹配。
可选的,所述装置还包括:
获取单元,用于获取应答结果对应的时间信息,所述时间信息包括播放时长;
确定单元,用于根据所述播放时长确定所述预设时长。
可选的,所述装置还包括:
第一保存单元,用于在根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配之后,将语音输入与应答结果匹配时的语音输入以及应答结果进行对应保存,作为第一修正组,以根据第一修正组对应答结果进行优化;
第二保存单元,用于在根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配之后,将语音输入与应答结果不匹配时的语音输入以及应答结果进行对应保存,作为第二修正组,以根据第二修正组对应答结果进行优化。
可选的,所述应答结果为音视频数据。
为了实现上述目的,根据本申请的第三方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行上述第一方面中任意一项所述的车联网智能语音处理方法。
为了实现上述目的,根据本申请的第四方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器执行上述第一方面中任意一项所述的车联网智能语音处理方法。
在本申请实施例中,车联网智能语音处理方法及相关装置中,智能车载网联终端接收用户的语音输入,其中,所述智能车载网联终端接入运营商提供的网络;在所述语音输入对应的应答结果返回后,通过所述智能车载网联终端接收用户对所述应答结果的反馈行为;根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配,其中,所述预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:所述用户的语音输入、对所述用户的语音输入的反馈行为;最后根据所述智能车载网联终端,返回与所述语音输入匹配的预设应答结果。可以看到,本申请可以根据用户对应答结果的反馈行为进行语音输入与应答结果之间是否匹配的判断,而且判断是基于用户自身的语音输入以及反馈行为样本得到的模型进行判断的,符合用户的个性化需求。最后,将其判断的结果应用到应答结果的返回中,可以对应答结果的返回起到一个更好的参考或者筛选或者修正的作用,从而实现应答结果与用户语音输入更匹配的效果,提高用户体验。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,使得本申请的其它特征、目的和优点变得更明显。本申请的示意性实施例附图及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例提供的一种车联网智能语音处理方法流程图;
图2 是根据本申请实施例提供的一种车联网智能语音处理装置的组成框图;
图3是根据本申请实施例提供的另一种车联网智能语音处理装置的组成框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
根据本申请实施例,提供了一种车联网智能语音处理方法,如图1所示,该方法包括如下的步骤:
发明人考虑到不同的用户的喜欢倾向是不同的,因此得出造成应答结果让用户不满意的原因,一定程度是由用户本身的喜好不同导致的,本申请从该角度出发,找到一种解决方式,可以辅助应答结果的返回更符合用户的个性化的需求。
S101. 智能车载网联终端接收用户的语音输入。
首先需要说明的是,本申请的车联网智能语音处理方法主要是应用在车联网应用状态中的。同样后续步骤的中的判断所述应答结果是否与所述语音输入匹配的预设模型也主要是在车联网应用状态下进行语音训练得到的。智能车载网联终端具有智能语音识别的功能,接收到用户的语音输入后可以进行文本的转换。语音输入可以为“歌曲,一生何求”,也可以为“相声,德云社”,也可以为“小品,过年”等等。还需要说明的是,智能车载网联终端接入运营商提供的网络。
S102. 在所述语音输入对应的应答结果返回后,通过所述智能车载网联终端接收用户对所述应答结果的反馈行为。
语音输入对应的应答结果可以是由我方智能车载网联终端提供的,也可以是第三方的其他的智能车载网联终端根据语音输入提供的,本申请不做限制。在返回应答结果后,通过所述智能车载网联终端接收用户对该应答结果的反馈行为,具体的反馈行为的类型可以为语音输入或者手动操作应答结果反馈界面或者手动操作其他的按钮等等,反馈行为的时间可能是应答结果返回后2秒或者1分钟或者20分钟,具体的时间由实际的情况决定。优选的,本申请中的应答结果为音视频数据。
对于反馈行为的具体内容,结合具体的示例进行说明:
比如,对于“歌曲,一生何求”的语音输入,返回的应答结果可能为将多个演唱者的演唱版本进行显示,并播放排在第一位的版本,此时如果正好符合用户的需求,用户有可能不会立即进行任何反馈行为,直到歌曲快播放完成或已经播放完后,语音输入“歌曲,明天你好”,则将该语音输入作为应答结果的反馈行为;对于“歌曲,一生何求”的语音输入,返回的应答结果如果不符合用户的需求,此处用户可能会语音输入“原唱版”或“粤语版”等,这些语音输入也是应答结果的反馈行为;对于不符合用户的需求的情况,用户还有可能手动从显示的所有演唱者的版本中选择某一个,或者手动返回主界面进行手动输入点歌需求,上述手动选择、手动返回、手动输入也是应答结果的反馈行为。
S103. 根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配。
其中,预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:所述用户的语音输入、对所述用户的语音输入的反馈行为。预设模型的输入为用户的反馈行为,输出为匹配的结果,包括匹配和不匹配。
具体的对于预设模型的建立是根据如下的流程实现的:
1)接收初始时用户多次输入的语音输入;
初始时,可以是用户刚开始使用车辆时,可以通过用户多次的语音输入以得到用户个性化的样本,为后续预设模型的训练提供数据基础。语音输入的内容可以按照提示(提示可以按照不同的应答结果的类型进行区别设置,应答结果的类型可以为音频、视频,也可以为其他的分类)进行输入,也可以自由输入。初始时,输入的语音输入越多,最终得到的预设模型就更准确。不过为了用户的体验,初始时要求用户的语音输入次数可以不太多,后续可以在使用过程中,也可以不断的进行样本的增加更新。
2)在每次返回语音输入对应的应答结果后,接收用户对应答结果的反馈行为;
3)根据接收到反馈行为的时间与应答结果的返回时间之间的时间差判断应答结果是否与语音输入匹配;
具体的用户实施反馈行为后,将车载终端接收到该反馈行为的时间记作接收到反馈行为的时间。应答结果的返回时间为返回应答结果时对应的时间,对于上述示例中,“并播放排在第一位的版本”的播放时间可以记作应答结果的返回时间。然后计算两者的时间差,并将该时间差与预设时长进行比较,若时间差大于等于预设时长,则确定应答结果与语音输入匹配;若所述时间差小于预设时长,则确定应答结果与语音输入不匹配。
优选的,预设时长可以根据应答结果对应的时间信息确定。时间信息可以为播放时长,还对应上述示例的应答结果“将多个演唱者的演唱版本进行显示,并播放排在第一位的版本”中时间信息为第一位的版本的播放时长,该播放时长是理论上完整播放的时长,并不是当前时间播放的时长。假设第一位的版本的完整播完的时长为4.05min,则播放时长可以为4.05min。根据应答结果对应的时间信息确定预设时长,可以为根据播放时长的百分比确定预设时长,百分比可以为0.5-1之间的任一数值,也可以为其他的数值。
假设应答结果对应的播放时长为a,百分比为b,则预设时长为a×b,然后将之前确定的时间差与a×b的结果进行比较,根据比较结果确定语音输入与返回的对应的应答信息是否匹配。
对于上述匹配的原理可以理解为,如果应答结果用户满意则通常会听完或看完之后进行语音或者显示界面的操作,如果用户不满意则通常会在接收到应答结果后很快通过语音输入或者手动操作进行应答结果的更换。
4)若匹配,则将匹配时对应的反馈行为记作一个正样本;
5)若不匹配,则将不匹配时对应的反馈行为记作一个负样本;
6)基于正样本、负样本进行模型的迭代训练得到所述预设模型。
每一次的语音输入和应答结果都可以得到一个正样本或负样本,根据所有的样本进行模型的迭代训练得到预设模型。其中模型可以为神经网络模型等其他种类的算法模型。
得到预设模型之后,在后续应用时就可以将反馈行为输入到预设模型,得到语音输入与应答结果是否匹配的结果。
S104. 根据智能车载网联终端,返回与语音输入匹配的预设应答结果。
对于上述步骤的判断结果,若语音输入与应答结果匹配,则将匹配的应答结果作为预设应答结果通过智能车载网联终端返回。若应答结果与语音输入不匹配,则进行应答结果的修正、调整,并继续接收用户的反馈行为,直到应答结果与语音输入匹配为止,将匹配的应答结果作为预设应答结果通过智能车载网联终端返回。
从以上的描述中,可以看出,本申请实施例的车联网智能语音处理方法中,智能车载网联终端接收用户的语音输入,其中,所述智能车载网联终端接入运营商提供的网络;在所述语音输入对应的应答结果返回后,通过所述智能车载网联终端接收用户对所述应答结果的反馈行为;根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配,其中,所述预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:所述用户的语音输入、对所述用户的语音输入的反馈行为;最后根据所述智能车载网联终端,返回与所述语音输入匹配的预设应答结果。可以看到,本申请可以根据用户对应答结果的反馈行为进行语音输入与应答结果之间是否匹配的判断,而且判断是基于用户自身的语音输入以及反馈行为样本得到的模型进行判断的,符合用户的个性化需求。最后,将其判断的结果应用到应答结果的返回中,可以对应答结果的返回起到一个更好的参考或者筛选或者修正的作用,从而实现应答结果与用户语音输入更匹配的效果,提高用户体验。
进一步的,作为上述实施例的补充,该方法包括如下的步骤:
在根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配之后,将语音输入与应答结果匹配时的语音输入以及应答结果进行对应保存,作为第一修正组,以根据第一修正组对应答结果进行优化;和/或,将语音输入与应答结果不匹配时的语音输入以及应答结果进行对应保存,作为第二修正组,以根据第二修正组对应答结果进行优化。
对应答结果进行优化可以为,若语音输入与应答结果匹配,则可以对原来可能得到多种选择(比如前述的示例中显示的多种演唱版本的“一生何求”)的应答结果中筛选出匹配的后再返回给用户;或者将不匹配的删除后再作为应答结果返回给用户。
另外,需要说明的是,对应于前述步骤S102中的两种提供应答结果的情况,对应的应答信息的修正的执行方也分为我方和第三方,如果是第三方将第一修正组和第二修正组发给第三方即可。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
根据本申请实施例,还提供了一种用于实施上述图1方法的车联网智能语音处理装置,如图2所示,该装置包括:
第一接收单元201,用于智能车载网联终端接收用户的语音输入,其中,所述智能车载网联终端接入运营商提供的网络;
第二接收单元202,用于在所述语音输入对应的应答结果返回后,通过所述智能车载网联终端接收用户对所述应答结果的反馈行为;
判断单元203,用于根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配,其中,所述预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:所述用户的语音输入、对所述用户的语音输入的反馈行为;
返回单元204,用于根据所述智能车载网联终端,返回与所述语音输入匹配的预设应答结果。
从以上的描述中,可以看出,本申请实施例的车联网智能语音处理装置中,智能车载网联终端接收用户的语音输入,其中,所述智能车载网联终端接入运营商提供的网络;在所述语音输入对应的应答结果返回后,通过所述智能车载网联终端接收用户对所述应答结果的反馈行为;根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配,其中,所述预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:所述用户的语音输入、对所述用户的语音输入的反馈行为;最后根据所述智能车载网联终端,返回与所述语音输入匹配的预设应答结果。可以看到,本申请可以根据用户对应答结果的反馈行为进行语音输入与应答结果之间是否匹配的判断,而且判断是基于用户自身的语音输入以及反馈行为样本得到的模型进行判断的,符合用户的个性化需求。最后,将其判断的结果应用到应答结果的返回中,可以对应答结果的返回起到一个更好的参考或者筛选或者修正的作用,从而实现应答结果与用户语音输入更匹配的效果,提高用户体验。
进一步的,如图3所示,所述装置还包括:
所述第一接收单元201,还用于接收初始时用户多次输入的语音输入;
所述第二接收单元202,还用于在每次返回语音输入对应的应答结果后,接收用户对应答结果的反馈行为;
所述判断单元203,还用于根据接收到反馈行为的时间与应答结果的返回时间之间的时间差判断应答结果是否与语音输入匹配;
样本确定单元205,用于若匹配,则将匹配时对应的反馈行为记作一个正样本;若不匹配,则将不匹配时对应的反馈行为记作一个负样本;
训练单元206,用于基于正样本、负样本进行模型的迭代训练得到所述预设模型。
进一步的,如图3所示,所述判断单元203包括:
第一匹配模块2031,用于若所述时间差大于等于预设时长,则确定应答结果与语音输入匹配;
第二匹配模块2032,用于若所述时间差小于预设时长,则确定应答结果与语音输入不匹配。
进一步的,如图3所示,所述装置还包括:
获取单元207,用于获取应答结果对应的时间信息,所述时间信息包括播放时长;
确定单元208,用于根据所述播放时长确定所述预设时长。
进一步的,如图3所示,所述装置还包括:
第一保存单元209,用于在根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配之后,将语音输入与应答结果匹配时的语音输入以及应答结果进行对应保存,作为第一修正组,以根据第一修正组对应答结果进行优化;
第二保存单元210,用于在根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配之后,将语音输入与应答结果不匹配时的语音输入以及应答结果进行对应保存,作为第二修正组,以根据第二修正组对应答结果进行优化。
进一步的,所述应答结果为音视频数据。
具体的,本申请实施例的装置中各单元、模块实现其功能的具体过程可参见方法实施例中的相关描述,此处不再赘述。
根据本申请实施例,还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行上述方法实施例中的车联网智能语音处理方法。
根据本申请实施例,还提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器执行上述方法实施例中所述的车联网智能语音处理方法。
显然,本领域的技术人员应该明白,上述的本申请的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本申请不限制于任何特定的硬件和软件结合。
以上所述仅为本申请的优选实施例而已,并不用于限制本申请,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种车联网智能语音处理方法,其特征在于,所述方法包括:
智能车载网联终端接收用户的语音输入,其中,所述智能车载网联终端接入运营商提供的网络;
在所述语音输入对应的应答结果返回后,通过所述智能车载网联终端接收用户对所述应答结果的反馈行为;
根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配,其中,所述预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:所述用户的语音输入、对所述用户的语音输入的反馈行为;
根据所述智能车载网联终端,返回与所述语音输入匹配的预设应答结果。
2.根据权利要求1所述的车联网智能语音处理方法,其特征在于,所述方法还包括:
接收初始时用户多次输入的语音输入;
在每次返回语音输入对应的应答结果后,接收用户对应答结果的反馈行为;
根据接收到反馈行为的时间与应答结果的返回时间之间的时间差判断应答结果是否与语音输入匹配;
若匹配,则将匹配时对应的反馈行为记作一个正样本;
若不匹配,则将不匹配时对应的反馈行为记作一个负样本;
基于正样本、负样本进行模型的迭代训练得到所述预设模型。
3.根据权利要求2所述的车联网智能语音处理方法,其特征在于,所述根据接收到反馈行为的时间与应答结果的返回时间之间的时间差判断应答结果是否与语音输入匹配包括:
若所述时间差大于等于预设时长,则确定应答结果与语音输入匹配;
若所述时间差小于预设时长,则确定应答结果与语音输入不匹配。
4.根据权利要求3所述的车联网智能语音处理方法,其特征在于,所述方法还包括:
获取应答结果对应的时间信息,所述时间信息包括播放时长;
根据所述播放时长确定所述预设时长。
5.根据权利要求1所述的车联网智能语音处理方法,其特征在于,在根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配之后,所述方法还包括:
将语音输入与应答结果匹配时的语音输入以及应答结果进行对应保存,作为第一修正组,以根据第一修正组对应答结果进行优化;和/或,
将语音输入与应答结果不匹配时的语音输入以及应答结果进行对应保存,作为第二修正组,以根据第二修正组对应答结果进行优化。
6.根据权利要求1所述的车联网智能语音处理方法,其特征在于,所述应答结果为音视频数据。
7.一种车联网智能语音处理装置,其特征在于,所述装置包括:
第一接收单元,用于智能车载网联终端接收用户的语音输入,其中,所述智能车载网联终端接入运营商提供的网络;
第二接收单元,用于在所述语音输入对应的应答结果返回后,通过所述智能车载网联终端接收用户对所述应答结果的反馈行为;
判断单元,用于根据所述反馈行为并基于预设模型判断所述应答结果是否与所述语音输入匹配,其中,所述预设模型为使用多组样本数据通过机器学习训练得出的,多组样本数据中的每组数据均包括:所述用户的语音输入、对所述用户的语音输入的反馈行为;
返回单元,用于根据所述智能车载网联终端,返回与所述语音输入匹配的预设应答结果。
8.根据权利要求7所述的车联网智能语音处理装置,其特征在于,所述装置还包括:
所述第一接收单元,还用于接收初始时用户多次输入的语音输入;
所述第二接收单元,还用于在每次返回语音输入对应的应答结果后,接收用户对应答结果的反馈行为;
所述判断单元,还用于根据接收到反馈行为的时间与应答结果的返回时间之间的时间差判断应答结果是否与语音输入匹配;
样本确定单元,用于若匹配,则将匹配时对应的反馈行为记作一个正样本;若不匹配,则将不匹配时对应的反馈行为记作一个负样本;
训练单元,用于基于正样本、负样本进行模型的迭代训练得到所述预设模型。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行权利要求1至6中任意一项所述的车联网智能语音处理方法。
10.一种电子设备,其特征在于,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器执行权利要求1至6中任意一项所述的车联网智能语音处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110188367.0A CN112562674A (zh) | 2021-02-19 | 2021-02-19 | 车联网智能语音处理方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110188367.0A CN112562674A (zh) | 2021-02-19 | 2021-02-19 | 车联网智能语音处理方法及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112562674A true CN112562674A (zh) | 2021-03-26 |
Family
ID=75035950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110188367.0A Pending CN112562674A (zh) | 2021-02-19 | 2021-02-19 | 车联网智能语音处理方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112562674A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024027089A1 (zh) * | 2022-08-04 | 2024-02-08 | 北京百度网讯科技有限公司 | 智能语音助手的持续学习方法、装置、电子设备及介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013056343A1 (en) * | 2011-09-30 | 2013-04-25 | Ming Li | System, method and computer program for correcting speech recognition information |
CN103247291A (zh) * | 2013-05-07 | 2013-08-14 | 华为终端有限公司 | 一种语音识别设备的更新方法、装置及系统 |
CN103794214A (zh) * | 2014-03-07 | 2014-05-14 | 联想(北京)有限公司 | 一种信息处理方法、装置和电子设备 |
CN104795065A (zh) * | 2015-04-30 | 2015-07-22 | 北京车音网科技有限公司 | 一种提高语音识别率的方法和电子设备 |
CN107146607A (zh) * | 2017-04-10 | 2017-09-08 | 北京猎户星空科技有限公司 | 智能设备交互信息的修正方法、装置及系统 |
CN108766428A (zh) * | 2018-06-01 | 2018-11-06 | 安徽江淮汽车集团股份有限公司 | 一种语音播报控制方法及系统 |
CN108874823A (zh) * | 2017-05-12 | 2018-11-23 | 阿里巴巴集团控股有限公司 | 智能客服的实现方法和装置 |
-
2021
- 2021-02-19 CN CN202110188367.0A patent/CN112562674A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013056343A1 (en) * | 2011-09-30 | 2013-04-25 | Ming Li | System, method and computer program for correcting speech recognition information |
CN103247291A (zh) * | 2013-05-07 | 2013-08-14 | 华为终端有限公司 | 一种语音识别设备的更新方法、装置及系统 |
CN103794214A (zh) * | 2014-03-07 | 2014-05-14 | 联想(北京)有限公司 | 一种信息处理方法、装置和电子设备 |
CN104795065A (zh) * | 2015-04-30 | 2015-07-22 | 北京车音网科技有限公司 | 一种提高语音识别率的方法和电子设备 |
CN107146607A (zh) * | 2017-04-10 | 2017-09-08 | 北京猎户星空科技有限公司 | 智能设备交互信息的修正方法、装置及系统 |
CN108874823A (zh) * | 2017-05-12 | 2018-11-23 | 阿里巴巴集团控股有限公司 | 智能客服的实现方法和装置 |
CN108766428A (zh) * | 2018-06-01 | 2018-11-06 | 安徽江淮汽车集团股份有限公司 | 一种语音播报控制方法及系统 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024027089A1 (zh) * | 2022-08-04 | 2024-02-08 | 北京百度网讯科技有限公司 | 智能语音助手的持续学习方法、装置、电子设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110377716B (zh) | 对话的交互方法、装置及计算机可读存储介质 | |
JP4037081B2 (ja) | 情報選択装置及び方法、情報選択再生装置並びに情報選択のためのコンピュータプログラム | |
CN111261151B (zh) | 一种语音处理方法、装置、电子设备及存储介质 | |
CN109961786B (zh) | 基于语音分析的产品推荐方法、装置、设备和存储介质 | |
CN106384591A (zh) | 一种与语音助手应用交互的方法和装置 | |
CN111753061B (zh) | 多轮对话处理方法、装置、电子设备及存储介质 | |
CN108519998B (zh) | 基于知识图谱的问题引导方法及装置 | |
CN107655154A (zh) | 终端控制方法、空调器及计算机可读存储介质 | |
CN109996026B (zh) | 基于穿戴式设备的视频特效互动方法、装置、设备及介质 | |
CN111191450A (zh) | 语料清洗方法、语料录入设备及计算机可读存储介质 | |
CN109545185A (zh) | 交互系统评价方法、评价系统、服务器及计算机可读介质 | |
US20230133146A1 (en) | Method and apparatus for determining skill field of dialogue text | |
CN109829037A (zh) | 智能自动问答的方法、系统、服务器及存储介质 | |
CN110992937A (zh) | 语言离线识别方法、终端及可读存储介质 | |
CN113806569A (zh) | 多媒体聚合方法、装置、车辆及计算机可读存储介质 | |
CN112562674A (zh) | 车联网智能语音处理方法及相关装置 | |
CN114822532A (zh) | 语音交互方法、电子设备和存储介质 | |
CN110443382A (zh) | 一种基于智能客服平台的用户交互方法 | |
CN113821620A (zh) | 多轮对话任务处理方法、装置及电子设备 | |
CN109726002B (zh) | 一种处理流程调整方法及装置 | |
CN116700705A (zh) | 一种基于配置的业务系统对接方法及系统 | |
CN111339349A (zh) | 歌单推荐方法 | |
CN110070891A (zh) | 一种歌曲识别方法、装置以及存储介质 | |
CN115905575A (zh) | 语义知识图谱的构建方法、电子设备和存储介质 | |
CN109960489B (zh) | 生成智能问答系统的方法、装置、设备、介质及问答系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210326 |