CN112883221B - 一种语义信息纠正方法、装置和智能座舱 - Google Patents
一种语义信息纠正方法、装置和智能座舱 Download PDFInfo
- Publication number
- CN112883221B CN112883221B CN202011453556.8A CN202011453556A CN112883221B CN 112883221 B CN112883221 B CN 112883221B CN 202011453556 A CN202011453556 A CN 202011453556A CN 112883221 B CN112883221 B CN 112883221B
- Authority
- CN
- China
- Prior art keywords
- semantic information
- language model
- trained
- data
- corrected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012937 correction Methods 0.000 title claims abstract description 127
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000012549 training Methods 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 18
- 230000002452 interceptive effect Effects 0.000 claims description 14
- 230000015654 memory Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 239000013598 vector Substances 0.000 description 8
- 230000003993 interaction Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 239000002775 capsule Substances 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000013106 supervised machine learning method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例提供了一种语义信息纠正方法、装置和智能座舱,所述方法包括:针对获取到的语音请求,生成匹配的语义信息;采用已训练的第一语言模型,检测所述语义信息中的错误位置纠正;采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果。本发明实施例可以实现基于两个语言模型对根据语音请求进行ASR识别得到的语义信息就行纠正,由于采用第一语言模型识别出语义信息中需要纠正的错误位置,第二语言模型能够针对错误位置对待纠正数据进行预测,提高第二语言模型对待纠正数据的预测准确性,即提高了纠正结果的准确性。
Description
技术领域
本发明涉及汽车技术领域,特别是涉及一种语义信息纠正方法、一种语义信息纠正装置和智能座舱。
背景技术
ASR(Automatic Speech Recognition,自动语音识别)是一种能够将人的语音转换为文本的技术。
由于错误的ASR识别文本会从源头影响下游的NLP(Natural LanguageProcessing,自然语言处理)任务,使得用户在与智能设备进行语音交互时,在识别语言指令过程中会出现识别不准的情况。
目标现有的ASR识别文本纠正的技术包括:
一种是利用拼音、编辑距离等相似度计算方法,进行模糊匹配纠错,但是该技术存在如下缺陷:1、需要根据经验整理一个易错集,有很大的时间成本和人力成本。2、影响范围有限,只能解决局部问题。3、不够准确,容易有较多误召回情况。
另一种是利用有监督的机器学习方法进行模型训练与预测纠错,但是该技术存在以下缺陷:1、需要大量人工标注数据。2、模型准确度不够,一般用分类模型来做,每一个字的位置都有词典个数的预测结果,会造成标签预测灾难。3、线上推理时延较大。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的一种语义信息纠正方法和相应的另一种语义信息纠正方法、一种语义信息纠正装置、智能座舱。
为了解决上述问题,本发明实施例公开了一种语义信息纠正方法,包括:
针对获取到的语音请求,生成匹配的语义信息;
采用已训练的第一语言模型,检测所述语义信息中的错误位置纠正;
采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;
采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果。
可选地,所述方法还包括:
生成与所述纠正结果匹配的指令信息;
响应于所述指令信息,执行相应的操作。
可选地,所述语义信息包括多个已排序的初始字符;所述采用已训练的第一语言模型,检测所述语义信息中的错误位置的步骤包括:
采用已训练的第一语言模型,生成与所述初始字符的评分值;
基于所述评分值,确定所述语义信息中的错误位置;
其中,所述评分值与当前初始字符作为前一初始字符的后继字符的概率呈负相关关系。
可选地,所述基于所述评分值,确定所述语义信息中的错误位置的步骤包括:
在所述评分值大于第一预设阈值时,确定所述评分值对应的初始字符为待纠正字符;
确定所述待纠正字符位于所述语义信息中顺序为错误位置。
可选地,所述采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据的步骤,包括:
采用预设信息对所述错误位置对应的初始字符进行替换,得到待纠正数据;
其中,所述预设信息可以为预设字符和/或预设标志。
可选地,所述采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果的步骤,包括:
采用所述错误位置以及所述待纠正数据,生成待预测数据;
采用已训练的第二语言模型,生成与所述待预测数据匹配的纠正结果。
可选地,所述方法还包括:
确定所述语义信息的字符个数;
依据所述字符个数以及所述评分值,确定所述语义信息的评分均值;
当所述评分均值大于第二预设阈值时,将所述语义信息标记为待筛选数据。
可选地,所述已训练的第一语言模型通过如下方法生成:
获取与交互业务相关的第一语料数据,以及第一初始语言模型;
采用所述第一语料数据训练所述第一初始语言模型,生成已训练的第一语言模型。
可选地,所述已训练的第二语言模型通过如下方法生成:
获取与交互业务相关的第二语料数据,以及第二初始语言模型;
采用预设信息对第二语料中正确字符的至少一个进行替换,得到第三语料数据;
采用所述第二语料数据以及所述第三语料数据训练所述第二初始语言模型,得到已训练的第二语言模型。
本发明实施例还公开了一种语义信息纠正方法,应用于智能座舱,所述智能座舱设置有显示组件;所述智能座舱与服务器连接,所述方法包括:
获取语音请求;
将所述语音请求发送至所述服务器;所述服务器用于针对获取到的语音请求,生成匹配的语义信息;采用已训练的第一语言模型,检测所述语义信息中的错误位置纠正;采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果;
接收所述纠正结果;
采用所述显示组件中输出所述纠正结果。
本发明实施例还公开了一种语义信息纠正装置,包括:
语义信息生成模块,用于针对获取到的语音请求,生成匹配的语义信息;
错误位置检测模块,用于采用已训练的第一语言模型,检测所述语义信息中的错误位置;
待纠正数据生成模块,用于采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;
纠正结果生成模块,用于采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果。
本发明实施例还公开了一种智能座舱,所述智能座舱设置有显示组件;所述智能座舱与服务器连接,所述智能座舱包括:
语音请求获取模块,用于获取语音请求;
语音请求发送模块,用于将所述语音请求发送至所述服务器;所述服务器用于针对获取到的语音请求,生成匹配的语义信息;采用已训练的第一语言模型,检测所述语义信息中的错误位置纠正;采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果;
纠正结果接收模块,用于接收所述纠正结果;
纠正结果输出模块,用于采用所述显示组件中输出所述纠正结果。
本发明实施例还公开了一种车辆,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的语义信息纠正方法。
本发明实施例还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上所述的语义信息纠正方法。
本发明实施例包括以下优点:
通过针对获取到的语音请求生成匹配的语义信息,并采用已训练的第一语言模型确定语义信息中的错误位置,采用预设信息对语义信息中的错误位置的内容进行替换得到待纠正数据,采用已训练的第二语言模型对待纠正数据进行预测,得到纠正结果,从而实现基于两个语言模型对根据语音请求进行ASR识别得到的语义信息就行纠正,由于采用第一语言模型识别出语义信息中需要纠正的错误位置,第二语言模型能够针对错误位置对待纠正数据进行预测,提高第二语言模型对待纠正数据的预测准确性,即提高了纠正结果的准确性。
附图说明
图1是本发明的一种语义信息纠正方法实施例一的步骤流程图;
图2是本发明的一种语义信息纠正方法实施例二的步骤流程图;
图3是本发明实施例中第一语言模型的训练示意图;
图4是本发明实施例中第一语言模型的一种模型预测示意图;
图5是本发明实施例中第一语言模型的另一种模型预测示意图;
图6是本发明实施例中第二语言模型的训练示意图;
图7是本发明实施例中第二语言模型的一种模型预测示意图;
图8是本发明的一种语义信息纠正方法的示例流程示意图;
图9是本发明的另一种语义信息纠正方法实施例的步骤流程图;
图10是本发明的另一种语义信息纠正方法示例流程图;
图11是本发明的一种语义信息纠正装置实施例的结构框图;
图12是本发明的一种智能座舱实施例的结构框图。
具体实施方式
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
近年来,车辆行业发展的主要驱动力已经由过去供给端的产品和技术驱动,逐步转换为不断提高的用户需求驱动,用户对车辆的认知也逐渐从单一的交通工具向生活空间转变,而驾驶舱作为用户直接体验的空间,提高驾驶舱的智能程度,使驾驶舱成为人车交互的体验核心,可以为用户提供更好的车辆乘坐体验。
智能座舱电子系统可以指由中控、全液晶仪表、平视显示器、娱乐系统、智能音响、车联网模块、流媒体后视镜、远程信息处理系统等组成的一整套系统。
智能座舱系统可以指以驾驶舱区域控制器为中心,在统一的软硬件平台上实现上述智能座舱电子系统功能,并融入智能交互、智能场景、个性化服务的系统。智能座舱系统可以形成人车交互、车与外界互联的基础。
智能座舱系统的使用场景通常可以覆盖用户使用车辆的全部场景。具体地,可以包括用户使用车辆前、用户使用车辆过程中,用户使用车辆后的时间场景,也可以包括驾驶员、副驾驶、后排乘客、车外相关人物或物体的空间场景。
智能座舱中的人机交互,与过去的指令式交互相比,可以结合车辆与用户的使用场景,基于图像识别、语音识别、环境感知等基础技术,实现更加符合用户需求的智能化效果。
参照图1,示出了本发明的一种语义信息纠正方法实施例一的步骤流程图,上述语义信息纠正方法可以应用于智能座舱,也可以应用于与智能座舱连接的服务器,本发明实施例对此不作限定。以下以语义信息纠正方法应用于服务器为例对本发明实施例作进一步说明。
本发明实施例具体可以包括如下步骤:
步骤101,针对获取到的语音请求,生成匹配的语义信息;
智能座舱可以设置有具备语音采集功能的显示组件,采用显示组件采集位于智能座舱内的用户的语音请求。并将语音请求发送至与其连接的服务器。
服务器在接收到智能座舱发送的语音请求后,针对语音请求进行ASR识别,得到ASR识别文本,即与语音请求匹配的语义信息。
步骤102,采用已训练的第一语言模型,检测所述语义信息中的错误位置;
服务器中可以部署有已完成训练的第一语言模型,并采用已训练的第一语言模型对语义信息进行处理,确定语义信息中的错误位置。
其中,第一语言模型为RNN(recurrent neural network,循环神经网络)模型。
通过将语义信息输入至RNN模型。基于RNN模型针对语义信息输出的结果确定语义信息中的错误位置。
语义信息可以包括具有一定顺序的多个字符,RNN模型可以针对任一字符进行计算,得到当前初始字符作为前一初始字符的后继字符的概率。基于RNN输出得到的上述概率,确定语义信息中的错误位置。
步骤103,采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;
采用预设信息对语义信息中与错误位置对应的内容进行替换,得到待纠正数据。即屏蔽语义信息中与错误位置对应的内容,得到待纠正数据。
其中,预设信息可以是指定的字符或者标志。
步骤104,采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果。
服务器中可以部署有已完成训练的第二语言模型,并采用已训练的第二语言模型对待纠正数据进行预测,生成匹配的纠正结果。
其中,第二语言模型可以为BERT(Bidirectional Encoder Representationsfrom Transformers,深度双向预训练转换器)模型。
BERT采用了双向的Transformer网络结构来进行语言建模,可以很好的捕获词的上下文信息。BERT能够对语义信息进行分词,对于中文来说每一个语义信息会被切分若干部分(每一部分由一个或多个字符组成),之后可以对语义信息中的部分字符进行替换,来对部分内容被替换后的语义信息进行预测,预测准确完整的语义信息。
通过采用已训练的第二语言模型对采用预设信息替换错误位置的内容进行得到的待纠正数据进行预测,从而对待纠正数据中错误位置进行预测,得到与待纠正数据匹配的准确完整的语义信息,即纠正结果。
在一示例中,上述服务器为云服务器,云服务器能够实现调用已训练的第一语言模型以及已训练的第二语言模型,在较短时间内即可完成相应的数据处理,的得到相应的错误位置以及纠正结果。
在本发明实施例中,通过针对获取到的语音请求生成匹配的语义信息,并采用已训练的第一语言模型确定语义信息中的错误位置,采用预设信息对语义信息中错误位置的内容进行替换得到待纠正数据,采用已训练的第二语言模型对待纠正数据进行预测,得到纠正结果,从而实现基于两段式语言模型对根据语音请求进行ASR识别得到的语义信息就行纠正,采用第一语言模型识别出语义信息中需要纠正的错误位置,第二语言模型能够针对错误位置对待纠正数据进行预测,提高第二语言模型对待纠正数据的预测准确性,即提高了纠正结果的准确性。
可以理解的是,本发明实施例也可以应用于智能座舱,智能座舱通过在获取语音请求后,执行步骤101~步骤104,实现对语音请求进行纠正,提高对语音请求的识别准确性。
参照图2,示出了本发明的一种语义信息纠正方法实施例二的步骤流程图,具体可以包括如下步骤:
步骤201,针对获取到的语音请求,生成匹配的语义信息;
步骤202,采用已训练的第一语言模型,检测所述语义信息中的错误位置;
所述已训练的第一语言模型通过如下方法生成:
获取与交互业务相关的第一语料数据,以及第一初始语言模型;
采用所述第一语料数据训练所述第一初始语言模型,生成已训练的第一语言模型。
车辆中可以设置有车载系统,第一语料为与车载系统的交互业务相关的正确的语音请求说法。
参照图3,示出了本发明实施例中第一语言模型的训练示意图。
例如:第一语料可以为“帮我打开蓝牙设置吧”,初始第一语言模型包含BiLSTM(Bi-directional Long Short-Term Memory,双向长短期记忆网络)网络,LSTM是RNN的一种。对第一语义样本进行拆分,得到依次排序的“帮”、“我”、“打”、“开”、“蓝”、“牙”、“设”、“置”、“吧”八个字符,基于独热编码得到各个字符的词向量,将上述词向量,针对每一个词向量设置有标签,标签为当前字符的下一字符的词向量,例如:“我”的词向量的标签为“打”的词向量。其中,<EOS>(End of String,字符串的末尾)为结尾标识。
针对初始第一语言模型设置相应的第一超参数,使得初始第一语言模型在处理一定量的第一语料后,生成已训练的第一语言模型,已训练的第一语言模型包含针对任一字符的上下文信息,上下文信息为任一字符是当前字符的下一字符的概率。
在一种示例中,第一超参数可以包括:LSTM层数为2,每一层LSTM网络包含有300个LSTM网络,每训练批次(第一语料数量)为20,句子长度(第一语料字符)上限为30,dropoutrate(丢失率)为0.1,训练轮次为20。
采用已训练的第一语言模型对语义信息进行处理,能够确定出语义信息中的错误位置。
在本发明的一种可选实施例中,所述语义信息包括多个已排序的初始字符;例如:语义信息为“帮我打开蓝牙设置吧”,初始字符“帮”、“我”、“打”、“开”、“蓝”、“牙”、“设”、“置”、“吧”的顺序依次为1、2、3、4、5、6、7、8。
步骤202包括:子步骤S11,采用已训练的第一语言模型,生成与所述初始字符的评分值;
参照图4,示出了本发明实施例中第一语言模型的一种模型预测示意图。
将语义信息输入至已训练的第一语言模型,已训练的第一语言模型能够针对语义信息中的已排序的初始字符生成相应的评分值(例如:初始字符“我”的评分值为0.201),所述评分值与当前初始字符作为前一初始字符的后继字符的概率呈负相关关系。即评分值越高,当前初始字符作为前一字符的后继字符的概率越低。
本发明实施例对具体的评分值计算公式不作限定。
子步骤S12,基于所述评分值,确定所述语义信息中的错误位置;
基于评分值的大小,确定语义信息中的错误位置。
在本发明的一种可选实施例中,子步骤S12包括:
子步骤S121,在所述评分值大于第一预设阈值时,确定所述评分值对应的初始字符为待纠正字符;
第一预设阈值可以基于负例样本(包含错误位置的历史语义信息)中的字符的评分值确定。本发明实施例对第一预设阈值的具体数值做限定。
当初始字符对应的评分值大于第一预设阈值时,确定该初始字符为待纠正字符,从而进行ASR识别文本的错误检测,检测出ASR识别文本中出行错误的字符。
子步骤S122,采用所述待纠正字符位于所述语义信息中顺序,确定错误位置;
确定待纠正字符相对于语义信息中的顺序,确定错误位置。
参照图5,示出了本发明实施例中第一语言模型的另一种模型预测示意图。在一示例中,第一预设阈值为10,语义信息为“帮我打开蓝颜设计吧”。已训练的第一语言模型生成各个初始字符的评分值,其中,初始字符“颜”对应的评分值为15.056,顺序为6;初始字符“计”对应的评分值为13.581,顺序为8,确定错误位置为6和8,得到相应的错误位置。
错误位置包含语义信息的错误位置,如上示例,错误位置为[6、8];错误位置也可以包含有错误位置以及相应的初始字符,如上示例,错误位置为[[“颜”,6]、[“计”,8]]。
在本发明的一种可选实施例中,所述方法可以还包括:确定所述语义信息的字符个数;依据所述字符个数以及所述评分值,确定所述语义信息的评分均值;当所述评分均值大于第二预设阈值时,将所述语义信息标记为待筛选数据。
在一定情况下,语义信息中的各个初始字符的评分值均小于第一预设阈值,但语义信息存在包含待纠正字符的可能。通过计算语义信息的评分均值,评分均值=各初始评分值之和/字符个数,筛选出可能存在待纠正字符的语义信息。当评分均值大于第二预设阈值时,将语义信息标记为待筛选数据,使得可以通过已训练的第一语言模型,挖掘可能存在ASR识别错误的语义信息,标注人员可以对待筛选数据进行正确标注,从而提高了标注效率。
进一步地,可以针对筛选数据优化已训练的第一语言模型。
第二预设阈值可以基于负例样本(包含错误位置的历史语义信息)的评分值确定,第二预设阈值小于第一预设阈值,本发明实施例对第二预设阈值的具体数值做限定。例如:第一预设阈值为10,第二预设阈值为3。
步骤203,采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;
在本发明的一种可选实施例中,步骤203可以包括:采用预设信息对所述错误位置对应的初始字符进行替换,得到待纠正数据。
采用预设信息对语义信息中错误位置对应的初始字符进行替换,得到待纠正数据。
例如:采用预设标志“<MASK>”对“帮我打开蓝颜设计吧”中的错误位置进行替换,得到待纠正数据为“帮我打开蓝<MASK>设<MASK>吧”其中,<MASK>(Mask,掩藏)为语义信息中被替换的字符。
步骤204,采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果;
在本发明的一种可选实施例中,所述已训练的第二语言模型通过如下方法生成:获取与交互业务相关的第二语料数据,以及第二初始语言模型;采用预设信息对第二语料中正确字符的至少一个进行替换,得到第三语料数据;采用所述第二语料数据以及所述第三语料数据训练所述第二初始语言模型,得到已训练的第二语言模型。
车辆中可以设置有车载系统,第一语料为与车载系统的交互业务相关的正确的语音请求说法。
参照图6,示出了本发明实施例中第二语言模型的训练示意图。
可以采用预设信息对第二语料中的任意字符进行进行替换,得到第三语料数据,并标签与第三语料数据对应的第二语料数据。例如:第三语料可以为“小<MASK>我打开我窗吧”,并标签其对应的第二语料为“小P帮我打开车窗吧”,采用第二语料及第三语料训练第二语言模型。
针对初始第二语言模型设置相应的第二超参数,使得初始第一语言模型在处理一定量的第二语料后,生成已训练的第二语言模型,已训练的第二语言模型能够对部分内容被替换后的字符串进行预测,输出准确的字符串。
在一种示例中,第二超参数可以包括:注意力层丢弃神经元的概率为0.1,方向性为双向、激活函数为GELU(Gaussian Error Linear Unit,高斯误差线性单元)、隐层丢弃神经元的概率为0.1、隐层大小为123、初始化函数为0.02、隐藏层维度为3072、位置嵌入的最大值为64、注意力头数为4、隐层层数为2、pooler(普勒)的全连接层大小为128、pooler的注意力头数为4、pooler的全连接层数为3、pooler的每个注意力头的大小为128、词典类别数为2、词典大小为21128。
采用已训练的第二语言模型对待纠正数据进行处理,能够生成与所述待纠正数据匹配的纠正结果。
在本发明的一种可选实施例中,步骤204可以包括:
子步骤S21,采用所述错误位置以及所述待纠正数据,生成待预测数据;
组合错误位置和待纠正数据,生成待预测数据。
子步骤S22,生成与所述待预测数据匹配的纠正结果。
将待预测数据发送至已训练的第二语言模型,已训练的第二语言模型能够针对错误位置,生成与待纠正数据匹配的纠正结果。
避免已训练的第二语言模型对随机替换字符后的数据处理,导致纠正结果准确性不高的问题,通过已训练的第一语言模型确定错误位置,使得已训练的第二语言模型能够针对错误位置对待纠正数据进行预测,输出匹配的纠正结果,提高纠正结果的准确性。
参照图7,示出了本发明实施例中第二语言模型的一种模型预测示意图。在一示例中,待纠正数据为“帮我打开蓝<MASK>设<MASK>吧”,提取上述待纠正数据的词向量,并将待纠正数据的词向量输入至已训练的第二语言模型,已训练的第二语言模型针对待纠正数据的词向量输出纠正结果为“帮我打开蓝牙设置吧”。
参照图8,示出了本发明的一种语义信息纠正方法的示例流程示意图,在一示例中,具体可以包括如下步骤:
801,针对获取到的语音请求(query)得到ASR识别文本为“帮我打开蓝牙设计吧”。
802,针对ASR识别文本,采用RNN语言模型错误位置检测。
803,在判断是否ASR错误query时,确定是ASR错误query。
804,RNN语言模型进行错误位置输出:[[“颜”,6][“计”,8]],采用预设信息对语义信息中错误位置的初始字符进行替换,得到待纠正数据,。
805,采用BSRT语言模型错误纠正。
806,得到纠正结果“帮我打开蓝牙设置吧”。
步骤205,生成与所述纠正结果匹配的指令信息;
指令信息可以为智能座舱能够识别并响应的指令。
步骤206,响应于所述指令信息,执行相应的操作。
智能座舱能够响应采用纠正结果生成的指令信息执行相应的操作,由于指令信息是针对用户语音请求得到的语义信息进行纠正后的纠正结果生成,提高了指令信息的准确性。
在一种示例中,指令信息可以为服务器能够响应的指令,服务器能够响应指令信息执行相应操作。在本发明实施例中,通过针对获取到的语音请求生成匹配的语义信息,并采用已训练的第一语言模型确定语义信息中的错误位置,采用预设信息对语义信息中错误位置对应的初始字符进行替换得到待纠正数据,并基于错误位置和待纠正数据得到待预测数据,采用已训练的第二语言模型对待预测数据进行预测,得到纠正结果,从而实现基于两段式语言模型对根据语音请求进行ASR识别得到的语义信息就行纠正,采用第一语言模型识别出语义信息中需要纠正的错误位置,第二语言模型能够依据针对错误位置对待预测数据进行预测得到纠正结果,提高第二语言模型生成纠正结果的预测准确性,进一步,可以生成与纠正结果匹配的指令信息,并执行相应操作,从而准确地响应用户的语音请求。
参照图9,示出了本发明的另一种语义信息纠正方法实施例步骤流程图,本发明实施例应用于智能座舱,所述智能座舱设置有显示组件;所述智能座舱与服务器连接,具体可以包括如下步骤:
步骤901,获取语音请求;
步骤902,将所述语音请求发送至所述服务器;所述服务器用于针对获取到的语音请求,生成匹配的语义信息;采用已训练的第一语言模型,检测所述语义信息中的错误位置纠正;采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果;
步骤903,接收所述纠正结果;
步骤904,采用所述显示组件中输出所述纠正结果。
在本发明的一种可选实施例中,所述服务器还用于生成与所述纠正结果匹配的指令信息;所述方法还包括:
接收所述指令信息;
响应于所述指令信息,执行相应的操作。
参照图10,示出了本发明的另一种语义信息纠正方法示例流程示意图。
在本示例中,具体可以包括如下步骤:
1001,大屏(显示组件)接收query。对query进行ASR识别,得到ASR识别文本为“帮我打开蓝颜设计吧”。
1002,RNN语言模型错误位置检测。在判断是否ASR错误query时,确定是ASR错误query。RNN语言模型进行错误位置输出:[[“颜”,6][“计”,8]],采用预设信息对语义信息中错误位置的内容进行替换,得到待纠正数据。
1003,采用BERT语言模型错误纠正。基于错误位置和待纠正数据得到待预测数据,采用BERT语言模型对待预测数据进行处理,得到纠正结果“帮我打开蓝牙设置吧”。
1004,在用户大屏(显示组件)中输出纠正结果,智能座舱相应于依据纠正结果生成的指令信息,执行相应操作,并得到执行结果。在显示组件中输出执行结果。例如:指令信息为打开蓝牙设置页面,执行结果为展示蓝牙设置页面。
在本发明的一种可选实施例中,所述服务器用于采用已训练的第一语言模型,生成与所述初始字符的评分值;基于所述评分值,确定所述语义信息中的错误位置;其中,所述评分值与当前初始字符作为前一初始字符的后继字符的概率呈负相关关系。
在本发明的一种可选实施例中,所述服务器用于在所述评分值大于第一预设阈值时,确定所述评分值对应的初始字符为待纠正字符;确定所述待纠正字符位于所述语义信息中顺序为错误位置。
在本发明的一种可选实施例中,所述所述服务器用于采用预设信息对所述错误位置对应的初始字符进行替换,得到待纠正数据;其中,所述预设信息可以为预设字符和/或预设标志。
在本发明的一种可选实施例中,所述服务器用于采用所述错误位置以及所述待纠正数据,生成待预测数据;采用已训练的第二语言模型,生成与所述待预测数据匹配的纠正结果。
在本发明的一种可选实施例中,所述服务器还用于确定所述语义信息的字符个数;依据所述字符个数以及所述评分值,确定所述语义信息的评分均值;当所述评分均值大于第二预设阈值时,将所述语义信息标记为待筛选数据。
在本发明的一种可选实施例中,所述已训练的第一语言模型通过如下方法生成:
获取与车辆的交互业务相关的第一语料数据,以及第一初始语言模型;
采用所述第一语料数据训练所述第一初始语言模型,生成已训练的第一语言模型。
在本发明的一种可选实施例中,所述已训练的第二语言模型通过如下方法生成:
获取与车辆的交互业务相关的第二语料数据,以及第二初始语言模型;
采用预设信息对第二语料中正确字符的至少一个进行替换,得到第三语料数据;
采用所述第二语料数据以及所述第三语料数据训练所述第二初始语言模型,得到已训练的第二语言模型。
在本发明实施例中,智能座舱在接收到语音请求后,将语音请求发送至服务器。服务器通过针对获取到的语音请求生成匹配的语义信息,并采用已训练的第一语言模型确定语义信息中的错误位置,采用预设信息对语义信息中错误位置对应的初始字符进行替换得到待纠正数据,并基于错误位置和待纠正数据得到待预测数据,采用已训练的第二语言模型对待预测数据进行预测,得到纠正结果,从而实现基于两段式语言模型对根据语音请求进行ASR识别得到的语义信息就行纠正,采用第一语言模型识别出语义信息中需要纠正的错误位置,第二语言模型能够针对错误位置对待预测进行预测得到纠正结果,提高第二语言模型生成纠正结果的预测准确性,进一步,可以生成与纠正结果匹配的指令信息,智能座舱在接收到指令信息后执行相应操作,从而提高了智能座舱响应用户的语音请求的准确性。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明实施例并不受所描述的动作顺序的限制,因为依据本发明实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本发明实施例所必须的。
参照图11,示出了本发明的一种语义信息纠正装置实施例的结构框图,具体可以包括如下模块:
语义信息生成模块1101,用于针对获取到的语音请求,生成匹配的语义信息;
错误位置确定模块1102,用于采用已训练的第一语言模型,检测所述语义信息中的错误位置;
待纠正数据生成模块1103,用于采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;
纠正结果生成模块1104,用于采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果。
在本发明的一种可选实施例中,所述装置还包括:
指令信息生成模块,用于生成与所述纠正结果匹配的指令信息;
指令信息响应模块,用于响应于所述指令信息,执行相应的操作。
在本发明的一种可选实施例中,所述语义信息包括多个已排序的初始字符;错误位置确定模块1102包括:
评分值生成模块,用于采用已训练的第一语言模型,生成与所述初始字符的评分值;
错误位置确定模块,用于基于所述评分值,确定所述语义信息中的错误位置;
其中,所述评分值与当前初始字符作为前一初始字符的后继字符的概率呈负相关关系。
在本发明的一种可选实施例中,所述基错误位置确定模块包括:
待纠正字符确定子模块,用于在所述评分值大于第一预设阈值时,确定所述评分值对应的初始字符为待纠正字符;
错误位置确定子模块,用于采确定述待纠正字符位于所述语义信息中顺序位错误位置。
在本发明的一种可选实施例中,所述待纠正数据生成模块1103包括:
初始字符替换子模块,用于采用预设信息对所述错误位置对应的初始字符进行替换,得到待纠正数据;
其中,所述预设信息可以为预设字符和/或预设标志。
在本发明的一种可选实施例中,所述纠正结果生成模块1104包括:
待预测数据生成子模块,用于采用所述错误位置以及所述待纠正数据,生成待预测数据;
纠正结果生成子模块,用于采用已训练的第二语言模型,生成与所述待预测数据匹配的纠正结果。
在本发明的一种可选实施例中,所述装置还包括:
字符个数确定模块,用于确定所述语义信息的字符个数;
评分均值确定模块,用于依据所述字符个数以及所述评分值,确定所述语义信息的评分均值;
待筛选数据标记模块,用于当所述评分均值大于第二预设阈值时,将所述语义信息标记为待筛选数据。
在本发明的一种可选实施例中,所述已训练的第一语言模型通过如下模块生成:
第一语料获取模块,用于获取与车辆的交互业务相关的第一语料数据,以及第一初始语言模型;
第一训练模块,用于采用所述第一语料数据训练所述第一初始语言模型,生成已训练的第一语言模型。
在本发明的一种可选实施例中,所述已训练的第二语言模型通过如下模块生成:
第二语料获取模块,用于获取与车辆的交互业务相关的第二语料数据,以及第二初始语言模型;
第三语料生成模块,用于采用预设信息对第二语料中正确字符的至少一个进行替换,得到第三语料数据;
第二训练模块,用于采用所述第二语料数据以及所述第三语料数据训练所述第二初始语言模型,得到已训练的第二语言模型。
参照图12,示出了本发明的一种智能座舱实施例的结构框图,所述智能座舱设置有显示组件;所述智能座舱与服务器连接,所述智能座舱具体可以包括如下模块:
语音请求获取模块1201,用于获取语音请求;
语音请求发送模块1202,用于采用已训练的第一语言模型,检测所述语义信息中的错误位置纠正;采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果;
纠正结果接收模块1203,用于接收所述纠正结果;
纠正结果输出模块1204,用于采用所述显示组件中输出所述纠正结果。
在本发明的一种可选实施例中,所述服务器还用于生成与所述纠正结果匹配的指令信息;所述智能座舱还包括:
指令信息接收模块,用于接收所述指令信息;
响应模块,用于响应于所述指令信息,执行相应的操作。
在本发明的一种可选实施例中,所述语义信息包括多个已排序的初始字符;所述服务器用于采用已训练的第一语言模型,生成与所述初始字符的评分值;基于所述评分值,确定所述语义信息中的错误位置;其中,所述评分值与当前初始字符作为前一初始字符的后继字符的概率呈负相关关系。
在本发明的一种可选实施例中,所述服务器用于在所述评分值大于第一预设阈值时,确定所述评分值对应的初始字符为待纠正字符;确定所述待纠正字符位于所述语义信息中顺序为错误位。
在本发明的一种可选实施例中,所述所述服务器用于采用预设信息对所述错误位置对应的初始字符进行替换,得到待纠正数据;其中,所述预设信息可以为预设字符和/或预设标志。
在本发明的一种可选实施例中,所述服务器用于采用所述错误位置以及所述待纠正数据,生成待预测数据;采用已训练的第二语言模型,生成与所述待预测数据匹配的纠正结果。
在本发明的一种可选实施例中,所述服务器还用于确定所述语义信息的字符个数;依据所述字符个数以及所述评分值,确定所述语义信息的评分均值;当所述评分均值大于第二预设阈值时,将所述语义信息标记为待筛选数据。
在本发明的一种可选实施例中,所述服务器用于通过如下方法生成所述已训练的第一语言模型:
获取与车辆的交互业务相关的第一语料数据,以及第一初始语言模型;
采用所述第一语料数据训练所述第一初始语言模型,生成已训练的第一语言模型。
在本发明的一种可选实施例中,所述服务器用于通过如下方法生成已训练的第二语言模型:
获取与车辆的交互业务相关的第二语料数据,以及第二初始语言模型;
采用预设信息对第二语料中正确字符的至少一个进行替换,得到第三语料数据;
采用所述第二语料数据以及所述第三语料数据训练所述第二初始语言模型,得到已训练的第二语言模型。
对于装置实施例以及智能座舱实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本发明实施例还公开了一种车辆,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上所述的语义信息纠正方法。
本发明实施例还公开了一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上所述的语义信息纠正方法。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本发明实施例的实施例可提供为方法、装置、或计算机程序产品。因此,本发明实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明实施例是参照根据本发明实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本发明所提供的一种语义信息纠正方法、装置和智能座舱,进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (13)
1.一种语义信息纠正方法,其特征在于,包括:
针对获取到的语音请求,生成匹配的语义信息;
采用已训练的第一语言模型,检测所述语义信息中的错误位置;
采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;其中,所述预设信息为预设字符和/或预设标志;所述预设信息用于屏蔽所述语义信息中与所述错误位置对应的内容;
采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果;
其中,所述语义信息包括多个已排序的初始字符;所述采用已训练的第一语言模型,检测所述语义信息中的错误位置的步骤包括:
采用已训练的第一语言模型,生成与所述初始字符的评分值;
基于所述评分值,确定所述语义信息中的错误位置;
其中,所述评分值与当前初始字符作为前一初始字符的后继字符的概率呈负相关关系。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
生成与所述纠正结果匹配的指令信息;
响应于所述指令信息,执行相应的操作。
3.根据权利要求1所述的方法,其特征在于,所述基于所述评分值,确定所述语义信息中的错误位置的步骤包括:
在所述评分值大于第一预设阈值时,确定所述评分值对应的初始字符为待纠正字符;
确定所述待纠正字符位于所述语义信息中顺序为错误位置。
4.根据权利要求3所述的方法,其特征在于,所述采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据的步骤,包括:
采用预设信息对所述错误位置对应的初始字符进行替换,得到待纠正数据。
5.根据权利要求1所述的方法,其特征在于,所述采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果的步骤,包括:
采用所述错误位置以及所述待纠正数据,生成待预测数据;
采用已训练的第二语言模型,生成与所述待预测数据匹配的纠正结果。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
确定所述语义信息的字符个数;
依据所述字符个数以及所述评分值,确定所述语义信息的评分均值;
当所述评分均值大于第二预设阈值时,将所述语义信息标记为待筛选数据。
7.根据权利要求1所述的方法,其特征在于,所述已训练的第一语言模型通过如下方法生成:
获取与交互业务相关的第一语料数据,以及第一初始语言模型;
采用所述第一语料数据训练所述第一初始语言模型,生成已训练的第一语言模型。
8.根据权利要求1所述的方法,其特征在于,所述已训练的第二语言模型通过如下方法生成:
获取与交互业务相关的第二语料数据,以及第二初始语言模型;
采用预设信息对第二语料中正确字符的至少一个进行替换,得到第三语料数据;
采用所述第二语料数据以及所述第三语料数据训练所述第二初始语言模型,得到已训练的第二语言模型。
9.一种语义信息纠正方法,其特征在于,应用于智能座舱,所述智能座舱设置有显示组件;所述智能座舱与服务器连接,所述方法包括:
获取语音请求;
将所述语音请求发送至所述服务器;所述服务器用于针对获取到的语音请求,生成匹配的语义信息;采用已训练的第一语言模型,检测所述语义信息中的错误位置纠正;采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;其中,所述预设信息为预设字符和/或预设标志;所述预设信息用于屏蔽所述语义信息中与所述错误位置对应的内容;采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果;其中,所述语义信息包括多个已排序的初始字符;所述采用已训练的第一语言模型,检测所述语义信息中的错误位置的步骤包括:采用已训练的第一语言模型,生成与所述初始字符的评分值;基于所述评分值,确定所述语义信息中的错误位置;其中,所述评分值与当前初始字符作为前一初始字符的后继字符的概率呈负相关关系;
接收所述纠正结果;
采用所述显示组件中输出所述纠正结果。
10.一种语义信息纠正装置,其特征在于,包括:
语义信息生成模块,用于针对获取到的语音请求,生成匹配的语义信息;
错误位置确定模块,用于采用已训练的第一语言模型,检测所述语义信息中的错误位置;
待纠正数据生成模块,用于采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;其中,所述预设信息为预设字符和/或预设标志;所述预设信息用于屏蔽所述语义信息中与所述错误位置对应的内容;
纠正结果生成模块,用于采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果;
其中,所述语义信息包括多个已排序的初始字符;所述错误位置确定模块包括:
评分值生成模块,用于采用已训练的第一语言模型,生成与所述初始字符的评分值;
错误位置确定模块,用于基于所述评分值,确定所述语义信息中的错误位置;
其中,所述评分值与当前初始字符作为前一初始字符的后继字符的概率呈负相关关系。
11.一种智能座舱,其特征在于,所述智能座舱设置有显示组件;所述智能座舱与服务器连接,所述智能座舱包括:
语音请求获取模块,用于获取语音请求;
语音请求发送模块,用于将所述语音请求发送至所述服务器;所述服务器用于针对获取到的语音请求,生成匹配的语义信息;采用已训练的第一语言模型,检测所述语义信息中的错误位置纠正;采用预设信息替换所述语义信息中所述错误位置的内容,得到待纠正数据;其中,所述预设信息为预设字符和/或预设标志;所述预设信息用于屏蔽所述语义信息中与所述错误位置对应的内容;采用已训练的第二语言模型,生成与所述待纠正数据匹配的纠正结果;其中,所述语义信息包括多个已排序的初始字符;所述采用已训练的第一语言模型,检测所述语义信息中的错误位置的步骤包括:采用已训练的第一语言模型,生成与所述初始字符的评分值;基于所述评分值,确定所述语义信息中的错误位置;其中,所述评分值与当前初始字符作为前一初始字符的后继字符的概率呈负相关关系;
纠正结果接收模块,用于接收所述纠正结果;
纠正结果输出模块,用于采用所述显示组件中输出所述纠正结果。
12.一种车辆,其特征在于,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至8或9中任一项所述的语义信息纠正方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8或9中任一项所述的语义信息纠正方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011453556.8A CN112883221B (zh) | 2020-12-11 | 2020-12-11 | 一种语义信息纠正方法、装置和智能座舱 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011453556.8A CN112883221B (zh) | 2020-12-11 | 2020-12-11 | 一种语义信息纠正方法、装置和智能座舱 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112883221A CN112883221A (zh) | 2021-06-01 |
CN112883221B true CN112883221B (zh) | 2024-03-08 |
Family
ID=76043296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011453556.8A Active CN112883221B (zh) | 2020-12-11 | 2020-12-11 | 一种语义信息纠正方法、装置和智能座舱 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112883221B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117238276B (zh) * | 2023-11-10 | 2024-01-30 | 深圳市托普思维商业服务有限公司 | 一种基于智能化语音数据识别的分析纠正系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110928997A (zh) * | 2019-12-04 | 2020-03-27 | 北京文思海辉金信软件有限公司 | 意图识别方法、装置、电子设备及可读存储介质 |
CN110969012A (zh) * | 2019-11-29 | 2020-04-07 | 北京字节跳动网络技术有限公司 | 文本纠错方法、装置、存储介质及电子设备 |
CN110992944A (zh) * | 2019-12-17 | 2020-04-10 | 广州小鹏汽车科技有限公司 | 语音导航的纠错方法、语音导航装置、车辆和存储介质 |
CN111061868A (zh) * | 2019-11-05 | 2020-04-24 | 百度在线网络技术(北京)有限公司 | 读法预测模型获取及读法预测方法、装置及存储介质 |
CN111985213A (zh) * | 2020-09-07 | 2020-11-24 | 科大讯飞华南人工智能研究院(广州)有限公司 | 一种语音客服文本纠错的方法和装置 |
CN112002323A (zh) * | 2020-08-24 | 2020-11-27 | 平安科技(深圳)有限公司 | 语音数据处理方法、装置、计算机设备及存储介质 |
-
2020
- 2020-12-11 CN CN202011453556.8A patent/CN112883221B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111061868A (zh) * | 2019-11-05 | 2020-04-24 | 百度在线网络技术(北京)有限公司 | 读法预测模型获取及读法预测方法、装置及存储介质 |
CN110969012A (zh) * | 2019-11-29 | 2020-04-07 | 北京字节跳动网络技术有限公司 | 文本纠错方法、装置、存储介质及电子设备 |
CN110928997A (zh) * | 2019-12-04 | 2020-03-27 | 北京文思海辉金信软件有限公司 | 意图识别方法、装置、电子设备及可读存储介质 |
CN110992944A (zh) * | 2019-12-17 | 2020-04-10 | 广州小鹏汽车科技有限公司 | 语音导航的纠错方法、语音导航装置、车辆和存储介质 |
CN112002323A (zh) * | 2020-08-24 | 2020-11-27 | 平安科技(深圳)有限公司 | 语音数据处理方法、装置、计算机设备及存储介质 |
CN111985213A (zh) * | 2020-09-07 | 2020-11-24 | 科大讯飞华南人工智能研究院(广州)有限公司 | 一种语音客服文本纠错的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112883221A (zh) | 2021-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11367434B2 (en) | Electronic device, method for determining utterance intention of user thereof, and non-transitory computer-readable recording medium | |
KR102414456B1 (ko) | 대화 시스템, 이를 포함하는 차량 및 유고 정보 처리 방법 | |
CN111931929B (zh) | 一种多任务模型的训练方法、装置及存储介质 | |
CN111951789B (zh) | 语音识别模型的训练、语音识别方法、装置、设备及介质 | |
CN111651996A (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
CN111653274B (zh) | 唤醒词识别的方法、装置及存储介质 | |
CN111178036B (zh) | 一种知识蒸馏的文本相似度匹配模型压缩方法及系统 | |
CN111901627B (zh) | 视频处理方法、装置、存储介质及电子设备 | |
CN109166569B (zh) | 音素误标注的检测方法和装置 | |
CN113761883A (zh) | 一种文本信息识别方法、装置、电子设备及存储介质 | |
CN111554276A (zh) | 语音识别方法、装置、设备及计算机可读存储介质 | |
CN115512696A (zh) | 模拟训练方法及车辆 | |
CN112883221B (zh) | 一种语义信息纠正方法、装置和智能座舱 | |
CN115205930A (zh) | 一种基于决策融合的多模态情感分类方法 | |
CN112116181B (zh) | 课堂质量模型的训练方法、课堂质量评价方法及装置 | |
CN117312562A (zh) | 内容审核模型的训练方法、装置、设备及存储介质 | |
CN112668337A (zh) | 一种语音指令分类方法和装置 | |
CN116189657A (zh) | 一种多模态语音识别纠错方法和系统 | |
CN116304014A (zh) | 训练实体类型识别模型的方法、实体类型识别方法及装置 | |
CN115689603A (zh) | 用户反馈信息收集方法、装置及用户反馈系统 | |
CN110188342A (zh) | 一种基于知识图谱与语义图技术的口语理解方法 | |
CN113627197B (zh) | 文本的意图识别方法、装置、设备及存储介质 | |
CN114462418A (zh) | 事件检测方法、系统、智能终端及计算机可读存储介质 | |
CN115101090A (zh) | 语音内容检测方法、模型训练方法及相关装置 | |
CN111128181B (zh) | 背诵题评测方法、装置以及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |