CN110110041B - 错词纠正方法、装置、计算机装置及存储介质 - Google Patents
错词纠正方法、装置、计算机装置及存储介质 Download PDFInfo
- Publication number
- CN110110041B CN110110041B CN201910199221.9A CN201910199221A CN110110041B CN 110110041 B CN110110041 B CN 110110041B CN 201910199221 A CN201910199221 A CN 201910199221A CN 110110041 B CN110110041 B CN 110110041B
- Authority
- CN
- China
- Prior art keywords
- pinyin
- sentence
- natural language
- neural network
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000003062 neural network model Methods 0.000 claims abstract description 104
- 238000012549 training Methods 0.000 claims abstract description 38
- 238000012937 correction Methods 0.000 claims description 38
- 238000004590 computer program Methods 0.000 claims description 22
- 210000002569 neuron Anatomy 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000006467 substitution reaction Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/232—Orthographic correction, e.g. spell checking or vowelisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Signal Processing (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
本发明提供一种错词纠正方法、装置、计算机装置及存储介质。所述错词纠正方法包括:获取通用自然语言数据集;将自然语言数据集包含的每个句子转换为拼音序列,得到通用自然语言数据集的拼音‑句子对;将通用自然语言数据集的部分拼音‑句子对进行拼音替换,得到第一样本集;利用第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;获取多个与特定领域相关的含相近拼音的拼音‑句子对作为第二样本集;利用第二样本集对预训练后的神经网络模型进行微调,得到微调后的神经网络模型;将待纠错句子的拼音序列输入微调后的神经网络模型进行纠错,得到纠错后的句子。本发明可以对语言识别中专有词语被识别为常用词进行纠错。
Description
技术领域
本发明涉及语音识别技术领域,具体涉及一种错词纠正方法、装置、计算机装置及计算机存储介质。
背景技术
随着语音识别应用场景的迅猛拓宽,语音识别技术越来越成熟,市场对高准确度的语音识别需求越来越强烈。对于一些开发具有语音识别功能产品的公司,更多的情况是使用通用系统的语音识别模块,不针对其具体应用场景进行识别,就会很容易出现将某些专有词语识别为常用词。例如将“需要为谁投保”识别为“需要为谁淘宝”,由于其并没有明显的错误,现有错词纠正系统难以发现此类错误。
目前,对于如何提升语言识别在实际应用场景中的纠正效果并没有一个有效的解决方法。如何制定合适的方案,以减少语音识别的偏差,提升用户体验,是相关技术人员目前需要解决的技术问题。
发明内容
鉴于以上内容,有必要提出一种错词纠正方法、装置、计算机装置及计算机存储介质,可以对语言识别中专有词语被识别为常用词进行纠错。
本申请的第一方面提供一种错词纠正方法,所述方法包括:
获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;
将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;
从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;
利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;
获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;
利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;
将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
另一种可能的实现方式中,所述将所述通用自然语言数据集包含的每个句子转换为拼音序列包括:
根据汉字的ASCII码将所述句子转换为拼音序列;或
根据汉字的Unicode值将所述句子转换为拼音序列。
另一种可能的实现方式中,所述根据汉字的Unicode值将所述句子转换为拼音序列包括:
建立拼音-编号对照表,对所有拼音进行编号并将所有拼音对应的编号添加到所述拼音-编号对照表中;
建立Unicode值-拼音编号对照表,将汉字对应拼音的编号按照汉字的Unicode值添加到所述Unicode值-拼音编号对照表中;
逐一读取所述句子中的待转换汉字,确定所述待转换汉字的Unicode值,根据所述待转换汉字的Unicode值从所述Unicode值-拼音编号对照表中获取所述待转换汉字对应的拼音的编号,根据所述待转换汉字对应的拼音的编号从所述拼音-编号对照表获得所述待转换汉字对应的拼音,从而将所述句子中的每个汉字转换为拼音
另一种可能的实现方式中,所述从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对包括:
从所述通用自然语言数据集的拼音-句子对中随机选择所述多个拼音-句子对;和/或
按照预设比例从所述通用自然语言数据集的拼音-句子对中选择所述多个拼音-句子对。
另一种可能的实现方式中,所述神经网络模型是transformer模型。
另一种可能的实现方式中,所述对所述预训练后的神经网络模型进行微调包括:
固定所述神经网络模型的前面几层神经元的权值,微调所述神经网络模型的后面几层神经元的权值。
另一种可能的实现方式中,所述方法还包括:
对输入的语音进行识别,得到所述待纠错句子。
本申请的第二方面提供一种错词纠正装置,所述装置包括:
第一获取模块,用于获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;
转换模块,用于将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;
生成模块,用于从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;
预训练模块,用于用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;
第二获取模块,用于获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;
微调模块,用于利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;
纠错模块,用于将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
另一种可能的实现方式中,所述将所述通用自然语言数据集包含的每个句子转换为拼音序列包括:
根据汉字的ASCII码将所述句子转换为拼音序列;或
根据汉字的Unicode值将所述句子转换为拼音序列。
另一种可能的实现方式中,所述根据汉字的Unicode值将所述句子转换为拼音序列包括:
建立拼音-编号对照表,对所有拼音进行编号并将所有拼音对应的编号添加到所述拼音-编号对照表中;
建立Unicode值-拼音编号对照表,将汉字对应拼音的编号按照汉字的Unicode值添加到所述Unicode值-拼音编号对照表中;
逐一读取所述句子中的待转换汉字,确定所述待转换汉字的Unicode值,根据所述待转换汉字的Unicode值从所述Unicode值-拼音编号对照表中获取所述待转换汉字对应的拼音的编号,根据所述待转换汉字对应的拼音的编号从所述拼音-编号对照表获得所述待转换汉字对应的拼音,从而将所述句子中的每个汉字转换为拼音
另一种可能的实现方式中,所述从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对包括:
从所述通用自然语言数据集的拼音-句子对中随机选择所述多个拼音-句子对;和/或
按照预设比例从所述通用自然语言数据集的拼音-句子对中选择所述多个拼音-句子对。
另一种可能的实现方式中,所述神经网络模型是transformer模型。
另一种可能的实现方式中,所述对所述预训练后的神经网络模型进行微调包括:
固定所述神经网络模型的前面几层神经元的权值,微调所述神经网络模型的后面几层神经元的权值。
另一种可能的实现方式中,所述装置还包括:
识别模块,用于对输入的语音进行识别,得到所述待纠错句子。
本申请的第三方面提供一种计算机装置,所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序时实现所述错词纠正方法。
本申请的第四方面提供一种计算机存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述错词纠正方法。
本发明获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。本实施例可以解决由于语音识别系统的通用性在特定领域内无法准确预测专有词语的问题,能够对语言识别中专有词语被识别为常用词进行纠错。
附图说明
图1是本发明实施例提供的错词纠正方法的流程图。
图2是本发明实施例提供的错词纠正装置的结构图。
图3是本发明实施例提供的计算机装置的示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
优选地,本发明的错词纠正方法应用在一个或者多个计算机装置中。所述计算机装置是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机装置可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机装置可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
实施例一
图1是本发明实施例一提供的错词纠正方法的流程图。所述错词纠正方法应用于计算机装置。
本发明的错词纠正方法是对语言识别得到的句子进行纠错。所述错词纠正方法可以解决由于语音识别系统的通用性在特定领域内无法准确预测专有词语的问题,同时增强了纠错系统在专有词语被替换为常用词时的错词寻找能力,提升用户的使用体验。
如图1所示,所述错词纠正方法包括:
步骤101,获取通用自然语言数据集,所述通用自然语言数据集包含多个句子。
所述通用自然语言数据集是包含日常用语的中文文本。
可以从书籍、新闻、网页(例如百度百科、维基百科等)等数据源中收集所述通用自然语言数据集。例如,可以对书籍中的文字进行文字识别,得到所述通用自然语言数据集。又如,可以对播报的新闻进行语言识别,得到所述通用自然语言数据集。再如,可以从网页中抓取文本,得到所述通用自然语言数据集。
或者,可以从预设数据库读取所述通用自然语言数据集。所述预设数据库可以预先存储大量的中文文本。
或者,可以接收用户输入的中文文本,将用户输入的中文文本作为所述通用自然语言数据集。
步骤102,将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对。
在本实施例中,所述通用自然语言数据集可以包括多个中文文本,每个中文文本可以包括多个句子(即多句话)。这种情况下,可以根据标点符号(例如逗号、分号、句号等)将每个中文文本划分为多个句子,将划分得到的每个句子转换为拼音序列,即得到每个句子对应的拼音-句子对。
可以根据汉字的ASCII码将所述句子转换为拼音序列。由于汉字在计算机系统中以ASCII码表示,只需要利用计算机系统中已有的或用户建立的每个拼音与每个ASCII码对应关系,即可实现将句子转换成拼音序列。若句子含有多音字,可以列出多音字的多个拼音,接收用户选择的正确拼音。
或者,可以根据汉字的Unicode值将所述句子转换为拼音序列。具体步骤如下:
(1)建立拼音-编号对照表,对所有拼音进行编号并将所有拼音对应的编号添加到所述拼音-编号对照表中。所有汉字的拼音不超过512个,可以用两个字节对拼音进行编号。每个拼音对应一个编号。
(2)建立Unicode值-拼音编号对照表,将汉字对应拼音的编号按照汉字的Unicode值添加到所述Unicode值-拼音编号对照表中。
(3)逐一读取所述句子中的待转换汉字,确定所述待转换汉字的Unicode值,根据所述待转换汉字的Unicode值从所述Unicode值-拼音编号对照表中获取所述待转换汉字对应的拼音的编号,根据所述待转换汉字对应的拼音的编号从所述拼音-编号对照表获得所述待转换汉字对应的拼音,从而将所述句子中的每个汉字转换为拼音。
若所述句子中含有多音字,可以在上述步骤(2)中将所述多音字对应的多个拼音的编号按照所述多音字的Unicode值添加到所述Unicode值-拼音编号对照表中,在上述(3)中确定所述多音字的Unicode值,根据所述多音字的Unicode值从所述Unicode值-拼音编号对照表中获取所述多音字对应的多个拼音的编号,根据所述多音字对应的多个拼音的编号从所述拼音-编号对照表获得所述多音字对应的多个拼音。可以接收用户从所述多个拼音中选择的正确拼音,将用户选择的拼音作为所述多音字在所述句子中的正确拼音。
步骤103,从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集。
可以从所述通用自然语言数据集的拼音-句子对中随机选择所述多个拼音-句子对,将选择的每个拼音-句子中的部分拼音替换为相近拼音。
可以按照预设比例从通用自然语言数据集的拼音-句子对中选择多个拼音-句子对。例如,可以从所述通用自然语言数据集的拼音-句子对中选择20%的拼音-句子对进行拼音替换。举例来说,若所述通用自然语言数据集包括100个句子(即包括100个拼音-句子对),则选择20个拼音-句子对进行拼音替换。
所述第一样本集的训练样本包括未选择的拼音-句子对,即正确的拼音-句子对,还包括替换后的拼音-句子对,即将部分拼音替换为相近拼音的拼音-句子对。
本发明主要用于对语言识别得到的句子进行纠错。由于语音识别得到的句子错误大多是句子中的词语有意义而句子无意义,例如“需要为谁投保”有时会被识别成“需要为谁淘宝”。因此,不仅需要正确的拼音-句子对作为训练样本,还需要将部分拼音替换为相近拼音的拼音-句子对作为模型的训练样本。
步骤104,利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型。
所述神经网络模型的输入为拼音序列,输出为对应的句子(即汉字序列),对拼音序列中的每一个拼音,预测其对应的汉字。
在对神经网络模型进行训练时,以每个未选择的拼音-句子对(即未替换的拼音-句子对)和每个替换后的拼音-句子对作为训练样本。拼音-句子对中的拼音序列为神经网络模型的输入,拼音-句子对中的句子为真实结果。
在本实施例中,所述神经网络模型可以是transformer模型。
transformer模型可以接受一串序列作为输入,同时输出一串序列,在本发明中,Transformer模型将拼音序列作为输入,输出汉字序列。
transformer模型包含编码层、自注意力层、解码层。其中编码层和解码层分别对应拼音的编码和到汉字的解码。自注意力层则用于重复拼音的汉字预测。由于汉字拼音有大量重复,不同的汉字和词语对应于相同的拼音,例如“爆笑”和“报效”拥有同样的拼音和声调,因此在每一个拼音所在进行预测时,需要“关注”整个句子的拼音序列,而不是只看当前位置的拼音。自注意力机制可以使得某一位置的拼音获得其它所有位置的拼音表示,从而做出更符合该句子场景的汉字预测。
在经过大量样本的训练后,该Ttransformer模型可以通过输入拼音序列来输出对应的汉字序列。
步骤105,获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集。
所述第二样本集中的每个训练样本是与特定领域相关的一个拼音-句子对,该拼音-句子对中包含与所述特定领域相关的相近拼音。
特定领域是本方法所要应用的专有领域,例如法律、保险等。
步骤101获得的语料数据集是通用自然语言数据集,主要包含一些日常用语,根据通用自然语言数据集得到的第一样本集是关于日常用语的训练样本,因此预训练得到的神经网络模型在当日常生活中的句子有明显的语音识别错误时,可以进行很好地纠错。但当遇到某些例如法律、保险等专有领域,则神经网络模型的纠错效果有所下降,会将很多专有词语识别为日常用语。例如将“需要为谁投保”中的“投保”识别为“淘宝”。因此要应用到特定领域进行错词纠错时,需要该特定领域的样本数据。
可以按照下述方法获取多个与特定领域相关的包含相近拼音的拼音-句子对:
获取所述特定领域的文本数据集,所述文本数据集包含多个句子;
将所述文本数据集包含的每个句子转换为拼音序列,得到所述文本数据集的拼音-句子对;
将所述文本数据集的拼音-句子对中所述特定领域的专有词语的拼音替换为相近拼音,得到与特定领域相关的包含相近拼音的拼音-句子对。例如,将“需要为谁投保”中的“投保”的拼音(tou,二声,bao,三声)替换为“淘宝”的拼音(tao,二声,bao,三声)。
或者,可以预先建立数据库,用于存储所述特定领域识别错误的拼音-句子对,从所述数据库获取多个与特定领域相关的包含相近拼音的拼音-句子对。
步骤106,利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型。
利用所述第二样本集对所述神经网络模型进行微调的目的是使所述神经网络模型更适用于特定领域,提高特定领域的纠错准确率。
微调训练后的模型在拼音近似的情况下,更倾向于预测为该特定领域的专有词语,从而提高语音识别错误的错词纠正效果。
可以固定所述神经网络模型的前面几层神经元的权值,微调神经网络模型的后面几层神经元的权值。这样做主要是为了避免第二样本集过小出现过拟合现象,神经网络模型前几层神经元一般包含更多的一般特征,对于许多任务而言非常重要,但是后面几层神经元的特征学习注重高层特征,不同的数据集间差异较大。
步骤107,将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
语言识别得到的结果可以包括多个中文文本,每个中文文本可以包括多个待纠错句子(即多句话)。这种情况下,可以根据标点符号(例如逗号、分号、句号等)将语言识别得到的中文文本划分为多个待纠错句子,将划分得到的每个待纠错句子转换为拼音序列。
可以根据汉字的ASCII码将所述待纠错句子转换为拼音序列。或者,可以根据汉字的Unicode值将所述待纠错句子转换为拼音序列。将待纠错句子转换为拼音序列的方法可以参考步骤102。
或者,可以接收用户输入的待纠错句子,将所述待纠错句子转换为拼音序列。例如,可以生成用户界面,从所述用户界面接收用户输入的待纠错句子。也可以直接接收用户输入的待纠错句子的拼音序列。
实施例一的错词纠正方法获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。本实施例可以解决由于语音识别系统的通用性在特定领域内无法准确预测专有词语的问题,能够对语言识别中专有词语被识别为常用词进行纠错。
在另一实施例中,所述错词纠正方法还可以包括:对输入的语音进行识别,得到所述待纠错句子。可以采用各种语音识别技术,例如动态时间规整(Dynamic Time Warping,DTW)、隐马尔可夫模型(Hidden Markov Model,HMM)、矢量量化(Vector Quantization,VQ)、人工神经网络(Artificial Neural Network,ANN)等技术对所述语音进行识别。
实施例二
图2是本发明实施例二提供的错词纠正装置的结构图。所述错词纠正装置20应用于计算机装置。如图2所示,所述错词纠正装置20可以包括第一获取模块201、转换模块202、生成模块203、预训练模块204、第二获取模块205、微调模块206、纠错模块207。
第一获取模块201,用于获取通用自然语言数据集,所述通用自然语言数据集包含多个句子。
所述通用自然语言数据集是包含日常用语的中文文本。
可以从书籍、新闻、网页(例如百度百科、维基百科等)等数据源中收集所述通用自然语言数据集。例如,可以对书籍中的文字进行文字识别,得到所述通用自然语言数据集。又如,可以对播报的新闻进行语言识别,得到所述通用自然语言数据集。再如,可以从网页中抓取文本,得到所述通用自然语言数据集。
或者,可以从预设数据库读取所述通用自然语言数据集。所述预设数据库可以预先存储大量的中文文本。
或者,可以接收用户输入的中文文本,将用户输入的中文文本作为所述通用自然语言数据集。
转换模块202,用于将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对。
在本实施例中,所述通用自然语言数据集可以包括多个中文文本,每个中文文本可以包括多个句子(即多句话)。这种情况下,可以根据标点符号(例如逗号、分号、句号等)将每个中文文本划分为多个句子,将划分得到的每个句子转换为拼音序列,即得到每个句子对应的拼音-句子对。
可以根据汉字的ASCII码将所述句子转换为拼音序列。由于汉字在计算机系统中以ASCII码表示,只需要利用计算机系统中已有的或用户建立的每个拼音与每个ASCII码对应关系,即可实现将句子转换成拼音序列。若句子含有多音字,可以列出多音字的多个拼音,接收用户选择的正确拼音。
或者,可以根据汉字的Unicode值将所述句子转换为拼音序列。具体步骤如下:
(1)建立拼音-编号对照表,对所有拼音进行编号并将所有拼音对应的编号添加到所述拼音-编号对照表中。所有汉字的拼音不超过512个,可以用两个字节对拼音进行编号。每个拼音对应一个编号。
(2)建立Unicode值-拼音编号对照表,将汉字对应拼音的编号按照汉字的Unicode值添加到所述Unicode值-拼音编号对照表中。
(3)逐一读取所述句子中的待转换汉字,确定所述待转换汉字的Unicode值,根据所述待转换汉字的Unicode值从所述Unicode值-拼音编号对照表中获取所述待转换汉字对应的拼音的编号,根据所述待转换汉字对应的拼音的编号从所述拼音-编号对照表获得所述待转换汉字对应的拼音,从而将所述句子中的每个汉字转换为拼音。
若所述句子中含有多音字,可以在上述步骤(2)中将所述多音字对应的多个拼音的编号按照所述多音字的Unicode值添加到所述Unicode值-拼音编号对照表中,在上述(3)中确定所述多音字的Unicode值,根据所述多音字的Unicode值从所述Unicode值-拼音编号对照表中获取所述多音字对应的多个拼音的编号,根据所述多音字对应的多个拼音的编号从所述拼音-编号对照表获得所述多音字对应的多个拼音。可以接收用户从所述多个拼音中选择的正确拼音,将用户选择的拼音作为所述多音字在所述句子中的正确拼音。
生成模块203,用于从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集。
可以从所述通用自然语言数据集的拼音-句子对中随机选择所述多个拼音-句子对,将选择的每个拼音-句子中的部分拼音替换为相近拼音。
可以按照预设比例从通用自然语言数据集的拼音-句子对中选择多个拼音-句子对。例如,可以从所述通用自然语言数据集的拼音-句子对中选择20%的拼音-句子对进行拼音替换。举例来说,若所述通用自然语言数据集包括100个句子(即包括100个拼音-句子对),则选择20个拼音-句子对进行拼音替换。
所述第一样本集的训练样本包括未选择的拼音-句子对,即正确的拼音-句子对,还包括替换后的拼音-句子对,即将部分拼音替换为相近拼音的拼音-句子对。
本发明主要用于对语言识别得到的句子进行纠错。由于语音识别得到的句子错误大多是句子中的词语有意义而句子无意义,例如“需要为谁投保”有时会被识别成“需要为谁淘宝”。因此,不仅需要正确的拼音-句子对作为训练样本,还需要将部分拼音替换为相近拼音的拼音-句子对作为模型的训练样本。
预训练模块204,用于利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型。
所述神经网络模型的输入为拼音序列,输出为对应的句子(即汉字序列),对拼音序列中的每一个拼音,预测其对应的汉字。
在对神经网络模型进行训练时,以每个未选择的拼音-句子对(即未替换的拼音-句子对)和每个替换后的拼音-句子对作为训练样本。拼音-句子对中的拼音序列为神经网络模型的输入,拼音-句子对中的句子为真实结果。
在本实施例中,所述神经网络模型可以是transformer模型。
transformer模型可以接受一串序列作为输入,同时输出一串序列,在本发明中,Transformer模型将拼音序列作为输入,输出汉字序列。
transformer模型包含编码层、自注意力层、解码层。其中编码层和解码层分别对应拼音的编码和到汉字的解码。
自注意力层则用于重复拼音的汉字预测。由于汉字拼音有大量重复,不同的汉字和词语对应于相同的拼音,例如“爆笑”和“报效”拥有同样的拼音和声调,因此在每一个拼音所在进行预测时,需要“关注”整个句子的拼音序列,而不是只看当前位置的拼音。自注意力机制可以使得某一位置的拼音获得其它所有位置的拼音表示,从而做出更符合该句子场景的汉字预测。
在经过大量样本的训练后,该Ttransformer模型可以通过输入拼音序列来输出对应的汉字序列。
第二获取模块205,用于获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集。
所述第二样本集中的每个训练样本是与特定领域相关的一个拼音-句子对,该拼音-句子对中包含与所述特定领域相关的相近拼音。
特定领域是本方法所要应用的专有领域,例如法律、保险等。
第一获取模块201获得的语料数据集是通用自然语言数据集,主要包含一些日常用语,根据通用自然语言数据集得到的第一样本集是关于日常用语的训练样本,因此预训练得到的神经网络模型在当日常生活中的句子有明显的语音识别错误时,可以进行很好地纠错。但当遇到某些例如法律、保险等专有领域,则神经网络模型的纠错效果有所下降,会将很多专有词语识别为日常用语。例如将“需要为谁投保”中的“投保”识别为“淘宝”。因此要应用到特定领域进行错词纠错时,需要该特定领域的样本数据。
可以按照下述方法获取多个与特定领域相关的包含相近拼音的拼音-句子对:
获取所述特定领域的文本数据集,所述文本数据集包含多个句子;
将所述文本数据集包含的每个句子转换为拼音序列,得到所述文本数据集的拼音-句子对;
将所述文本数据集的拼音-句子对中所述特定领域的专有词语的拼音替换为相近拼音,得到与特定领域相关的包含相近拼音的拼音-句子对。例如,将“需要为谁投保”中的“投保”的拼音(tou,二声,bao,三声)替换为“淘宝”的拼音(tao,二声,bao,三声)。
或者,可以预先建立数据库,用于存储所述特定领域识别错误的拼音-句子对,从所述数据库获取多个与特定领域相关的包含相近拼音的拼音-句子对。
微调模块206,用于利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型。
利用所述第二样本集对所述神经网络模型进行微调的目的是使所述神经网络模型更适用于特定领域,提高特定领域的纠错准确率。
微调训练后的模型在拼音近似的情况下,更倾向于预测为该特定领域的专有词语,从而提高语音识别错误的错词纠正效果。
可以固定所述神经网络模型的前面几层神经元的权值,微调神经网络模型的后面几层神经元的权值。这样做主要是为了避免第二样本集过小出现过拟合现象,神经网络模型前几层神经元一般包含更多的一般特征,对于许多任务而言非常重要,但是后面几层神经元的特征学习注重高层特征,不同的数据集间差异较大。
纠错模块207,用于将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
语言识别得到的结果可以包括多个中文文本,每个中文文本可以包括多个待纠错句子(即多句话)。这种情况下,可以根据标点符号(例如逗号、分号、句号等)将语言识别得到的中文文本划分为多个待纠错句子,将划分得到的每个待纠错句子转换为拼音序列。
可以根据汉字的ASCII码将所述待纠错句子转换为拼音序列。或者,可以根据汉字的Unicode值将所述待纠错句子转换为拼音序列。将待纠错句子转换为拼音序列的方法可以参考转换模块202的描述。
或者,可以接收用户输入的待纠错句子,将所述待纠错句子转换为拼音序列。例如,可以生成用户界面,从所述用户界面接收用户输入的待纠错句子。也可以直接接收用户输入的待纠错句子的拼音序列。
本实施例的错词纠正装置20获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。本实施例可以解决由于语音识别系统的通用性在特定领域内无法准确预测专有词语的问题,能够对语言识别中专有词语被识别为常用词进行纠错。
在另一实施例中,所述错词纠正装置20还可以包括:识别模块,对输入的语音进行识别,得到所述待纠错句子。可以采用各种语音识别技术,例如动态时间规整(DynamicTime Warping,DTW)、隐马尔可夫模型(Hidden Markov Model,HMM)、矢量量化(VectorQuantization,VQ)、人工神经网络(Artificial Neural Network,ANN)等技术对所述语音进行识别。
实施例三
本实施例提供一种计算机存储介质,该计算机存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述错词纠正方法实施例中的步骤,例如图1所示的步骤101-107:
步骤101,获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;
步骤102,将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;
步骤103,从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;
步骤104,利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;
步骤105,获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;
步骤106,利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;
步骤107,将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
或者,该计算机程序被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-207:
第一获取模块201,用于获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;
转换模块202,用于将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;
生成模块203,用于从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;
预训练模块204,用于利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;
第二获取模块205,用于获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;
微调模块206,用于利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;
纠错模块207,用于将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
实施例四
图3为本发明实施例四提供的计算机装置的示意图。所述计算机装置30包括存储器301、处理器302以及存储在所述存储器301中并可在所述处理器302上运行的计算机程序303,例如错词纠正程序。所述处理器302执行所述计算机程序303时实现上述错词纠正方法实施例中的步骤,例如图1所示的步骤101-107:
步骤101,获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;
步骤102,将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;
步骤103,从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;
步骤104,利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;
步骤105,获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;
步骤106,利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;
步骤107,将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
或者,该计算机程序被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-207:
第一获取模块201,用于获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;
转换模块202,用于将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;
生成模块203,用于从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;
预训练模块204,用于利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;
第二获取模块205,用于获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;
微调模块206,用于利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;
纠错模块207,用于将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
示例性的,所述计算机程序303可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器301中,并由所述处理器302执行,以完成本方法。所述一个或多个模块可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序303在所述计算机装置30中的执行过程。例如,所述计算机程序303可以被分割成图2中的第一获取模块201、转换模块202、生成203、预训练模块204、第二获取模块205、微调模块206、纠错模块207,各模块具体功能参见实施例二。
所述计算机装置30可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。本领域技术人员可以理解,所述示意图3仅仅是计算机装置30的示例,并不构成对计算机装置30的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算机装置30还可以包括输入输出设备、网络接入设备、总线等。
所称处理器302可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器302也可以是任何常规的处理器等,所述处理器302是所述计算机装置30的控制中心,利用各种接口和线路连接整个计算机装置30的各个部分。
所述存储器301可用于存储所述计算机程序303,所述处理器302通过运行或执行存储在所述存储器301内的计算机程序或模块,以及调用存储在存储器301内的数据,实现所述计算机装置30的各种功能。所述存储器301可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机装置30的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器301可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
所述计算机装置30集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他模块或步骤,单数不排除复数。系统权利要求中陈述的多个模块或装置也可以由一个模块或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种错词纠正方法,其特征在于,所述方法包括:
获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;
将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;
从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;
利用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;
获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;
利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;
将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
2.如权利要求1所述的方法,其特征在于,所述将所述通用自然语言数据集包含的每个句子转换为拼音序列包括:
根据汉字的ASCII码将所述句子转换为拼音序列;或
根据汉字的Unicode值将所述句子转换为拼音序列。
3.如权利要求2所述的方法,其特征在于,所述根据汉字的Unicode值将所述句子转换为拼音序列包括:
建立拼音-编号对照表,对所有拼音进行编号并将所有拼音对应的编号添加到所述拼音-编号对照表中;
建立Unicode值-拼音编号对照表,将汉字对应拼音的编号按照汉字的Unicode值添加到所述Unicode值-拼音编号对照表中;
逐一读取所述句子中的待转换汉字,确定所述待转换汉字的Unicode值,根据所述待转换汉字的Unicode值从所述Unicode值-拼音编号对照表中获取所述待转换汉字对应的拼音的编号,根据所述待转换汉字对应的拼音的编号从所述拼音-编号对照表获得所述待转换汉字对应的拼音,从而将所述句子中的每个汉字转换为拼音。
4.如权利要求1所述的方法,其特征在于,所述从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对包括:
从所述通用自然语言数据集的拼音-句子对中随机选择所述多个拼音-句子对;和/或
按照预设比例从所述通用自然语言数据集的拼音-句子对中选择所述多个拼音-句子对。
5.如权利要求1所述的方法,其特征在于,所述神经网络模型是transformer模型。
6.如权利要求1所述的方法,其特征在于,所述对所述预训练后的神经网络模型进行微调包括:
固定所述神经网络模型的前面几层神经元的权值,微调所述神经网络模型的后面几层神经元的权值。
7.如权利要求1-6中任一项所述的方法,其特征在于,所述方法还包括:
对输入的语音进行识别,得到所述待纠错句子。
8.一种错词纠正装置,其特征在于,所述装置包括:
第一获取模块,用于获取通用自然语言数据集,所述通用自然语言数据集包含多个句子;
转换模块,用于将所述通用自然语言数据集包含的每个句子转换为拼音序列,得到所述通用自然语言数据集的拼音-句子对;
生成模块,用于从所述通用自然语言数据集的拼音-句子对中选择多个拼音-句子对,将选择的每个拼音-句子对的部分拼音替换为相近拼音,得到替换后的拼音-句子对,将所述通用自然语言数据集的未选择的拼音-句子对和所述替换后的拼音-句子对组成第一样本集;
预训练模块,用于用所述第一样本集对神经网络模型进行预训练,得到预训练后的神经网络模型;
第二获取模块,用于获取多个与特定领域相关的包含相近拼音的拼音-句子对作为第二样本集;
微调模块,用于利用所述第二样本集对所述预训练后的神经网络模型进行微调,得到微调后的神经网络模型;
纠错模块,用于将待纠错句子的拼音序列输入所述微调后的神经网络模型进行纠错,得到纠错后的句子。
9.一种计算机装置,其特征在于:所述计算机装置包括处理器,所述处理器用于执行存储器中存储的计算机程序以实现如权利要求1-7中任一项所述错词纠正方法。
10.一种计算机存储介质,所述计算机存储介质上存储有计算机程序,其特征在于:所述计算机程序被处理器执行时实现如权利要求1-7中任一项所述错词纠正方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910199221.9A CN110110041B (zh) | 2019-03-15 | 2019-03-15 | 错词纠正方法、装置、计算机装置及存储介质 |
PCT/CN2019/117237 WO2020186778A1 (zh) | 2019-03-15 | 2019-11-11 | 错词纠正方法、装置、计算机装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910199221.9A CN110110041B (zh) | 2019-03-15 | 2019-03-15 | 错词纠正方法、装置、计算机装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110110041A CN110110041A (zh) | 2019-08-09 |
CN110110041B true CN110110041B (zh) | 2022-02-15 |
Family
ID=67484339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910199221.9A Active CN110110041B (zh) | 2019-03-15 | 2019-03-15 | 错词纠正方法、装置、计算机装置及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110110041B (zh) |
WO (1) | WO2020186778A1 (zh) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110110041B (zh) * | 2019-03-15 | 2022-02-15 | 平安科技(深圳)有限公司 | 错词纠正方法、装置、计算机装置及存储介质 |
CN110705262B (zh) * | 2019-09-06 | 2023-08-29 | 宁波市科技园区明天医网科技有限公司 | 一种改进的应用于医技检查报告的智能纠错方法 |
CN110705217B (zh) * | 2019-09-09 | 2023-07-21 | 上海斑马来拉物流科技有限公司 | 一种错别字检测方法、装置及计算机存储介质、电子设备 |
CN112786014A (zh) * | 2019-10-23 | 2021-05-11 | 北京京东振世信息技术有限公司 | 一种识别数据的方法和装置 |
CN110956959B (zh) * | 2019-11-25 | 2023-07-25 | 科大讯飞股份有限公司 | 语音识别纠错方法、相关设备及可读存储介质 |
CN112988955B (zh) * | 2019-12-02 | 2024-03-15 | 卢文祥 | 多语语音识别及主题语意分析方法与装置 |
CN110909535B (zh) * | 2019-12-06 | 2023-04-07 | 北京百分点科技集团股份有限公司 | 命名实体校对方法、装置、可读存储介质及电子设备 |
CN111414772B (zh) * | 2020-03-12 | 2023-09-26 | 北京小米松果电子有限公司 | 一种机器翻译方法、装置及介质 |
CN113807080A (zh) * | 2020-06-15 | 2021-12-17 | 科沃斯商用机器人有限公司 | 文本纠正方法、设备及存储介质 |
CN111783471B (zh) * | 2020-06-29 | 2024-05-31 | 中国平安财产保险股份有限公司 | 自然语言的语义识别方法、装置、设备及存储介质 |
CN114091408A (zh) * | 2020-08-04 | 2022-02-25 | 科沃斯商用机器人有限公司 | 文本纠正、模型训练方法、纠正模型、设备及机器人 |
CN112686036B (zh) * | 2020-08-18 | 2022-04-01 | 平安国际智慧城市科技股份有限公司 | 风险文本识别方法、装置、计算机设备及存储介质 |
CN111931490B (zh) * | 2020-09-27 | 2021-01-08 | 平安科技(深圳)有限公司 | 文本纠错方法、装置及存储介质 |
CN112164403A (zh) * | 2020-09-27 | 2021-01-01 | 江苏四象软件有限公司 | 一种基于人工智能的自然语言处理系统 |
CN112116907A (zh) * | 2020-10-22 | 2020-12-22 | 浙江同花顺智能科技有限公司 | 语音识别模型建立、语音识别方法、装置、设备和介质 |
CN112329447B (zh) * | 2020-10-29 | 2024-03-26 | 语联网(武汉)信息技术有限公司 | 中文纠错模型的训练方法、中文纠错方法及装置 |
CN112037755B (zh) * | 2020-11-03 | 2021-02-02 | 北京淇瑀信息科技有限公司 | 一种基于音色克隆的语音合成方法、装置及电子设备 |
CN112509581B (zh) * | 2020-11-20 | 2024-03-01 | 北京有竹居网络技术有限公司 | 语音识别后文本的纠错方法、装置、可读介质和电子设备 |
CN112528637B (zh) * | 2020-12-11 | 2024-03-29 | 平安科技(深圳)有限公司 | 文本处理模型训练方法、装置、计算机设备和存储介质 |
CN112580324B (zh) * | 2020-12-24 | 2023-07-25 | 北京百度网讯科技有限公司 | 文本纠错方法、装置、电子设备以及存储介质 |
CN112686041B (zh) * | 2021-01-06 | 2024-06-04 | 北京猿力未来科技有限公司 | 一种拼音标注方法及装置 |
CN112735396B (zh) * | 2021-02-05 | 2024-10-15 | 北京小米松果电子有限公司 | 语音识别纠错方法、装置及存储介质 |
CN113012701B (zh) * | 2021-03-16 | 2024-03-22 | 联想(北京)有限公司 | 一种识别方法、装置、电子设备及存储介质 |
CN113129894A (zh) * | 2021-04-12 | 2021-07-16 | 阿波罗智联(北京)科技有限公司 | 语音识别方法、装置、电子设备以及存储介质 |
CN113159168B (zh) * | 2021-04-19 | 2022-09-02 | 清华大学 | 基于冗余词删除的预训练模型加速推理方法和系统 |
CN113192497B (zh) * | 2021-04-28 | 2024-03-01 | 平安科技(深圳)有限公司 | 基于自然语言处理的语音识别方法、装置、设备及介质 |
CN113284499B (zh) * | 2021-05-24 | 2024-07-12 | 亿咖通(湖北)技术有限公司 | 一种语音指令识别方法及电子设备 |
CN113380225B (zh) * | 2021-06-18 | 2024-05-17 | 广州虎牙科技有限公司 | 语言模型的训练方法、语音识别方法及相关装置 |
CN113449514B (zh) * | 2021-06-21 | 2023-10-31 | 浙江康旭科技有限公司 | 一种适用于垂直领域的文本纠错方法及其纠错装置 |
CN113449090A (zh) * | 2021-06-23 | 2021-09-28 | 山东新一代信息产业技术研究院有限公司 | 一种用于智能问答的纠错方法、设备及介质 |
CN113822054A (zh) * | 2021-07-05 | 2021-12-21 | 国网冀北电力有限公司 | 基于数据增强的中文语法纠错方法及装置 |
CN113626563A (zh) * | 2021-08-30 | 2021-11-09 | 京东方科技集团股份有限公司 | 训练自然语言处理模型和自然语言处理的方法、电子设备 |
CN114220417A (zh) * | 2021-12-10 | 2022-03-22 | 京东科技信息技术有限公司 | 一种意图识别方法、装置及相关设备 |
CN114861635B (zh) * | 2022-05-10 | 2023-04-07 | 广东外语外贸大学 | 一种中文拼写纠错方法、装置、设备及存储介质 |
CN115437511B (zh) * | 2022-11-07 | 2023-02-21 | 北京澜舟科技有限公司 | 一种拼音汉字转换方法、转换模型训练方法及存储介质 |
CN117875267B (zh) * | 2024-03-11 | 2024-05-24 | 江西曼荼罗软件有限公司 | 一种汉字转拼音的方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103235789A (zh) * | 2013-03-29 | 2013-08-07 | 惠州市德赛西威汽车电子有限公司 | 一种汉字转换为拼音及首字母的方法 |
CN103971677A (zh) * | 2013-02-01 | 2014-08-06 | 腾讯科技(深圳)有限公司 | 一种声学语言模型训练方法和装置 |
CN108091328A (zh) * | 2017-11-20 | 2018-05-29 | 北京百度网讯科技有限公司 | 基于人工智能的语音识别纠错方法、装置及可读介质 |
CN108874174A (zh) * | 2018-05-29 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 一种文本纠错方法、装置以及相关设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9262397B2 (en) * | 2010-10-08 | 2016-02-16 | Microsoft Technology Licensing, Llc | General purpose correction of grammatical and word usage errors |
US9396723B2 (en) * | 2013-02-01 | 2016-07-19 | Tencent Technology (Shenzhen) Company Limited | Method and device for acoustic language model training |
CN105869634B (zh) * | 2016-03-31 | 2019-11-19 | 重庆大学 | 一种基于领域的带反馈语音识别后文本纠错方法及系统 |
CN107357775A (zh) * | 2017-06-05 | 2017-11-17 | 百度在线网络技术(北京)有限公司 | 基于人工智能的循环神经网络的文本纠错方法及装置 |
CN108021554A (zh) * | 2017-11-14 | 2018-05-11 | 无锡小天鹅股份有限公司 | 语音识别方法、装置以及洗衣机 |
CN110110041B (zh) * | 2019-03-15 | 2022-02-15 | 平安科技(深圳)有限公司 | 错词纠正方法、装置、计算机装置及存储介质 |
-
2019
- 2019-03-15 CN CN201910199221.9A patent/CN110110041B/zh active Active
- 2019-11-11 WO PCT/CN2019/117237 patent/WO2020186778A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971677A (zh) * | 2013-02-01 | 2014-08-06 | 腾讯科技(深圳)有限公司 | 一种声学语言模型训练方法和装置 |
CN103235789A (zh) * | 2013-03-29 | 2013-08-07 | 惠州市德赛西威汽车电子有限公司 | 一种汉字转换为拼音及首字母的方法 |
CN108091328A (zh) * | 2017-11-20 | 2018-05-29 | 北京百度网讯科技有限公司 | 基于人工智能的语音识别纠错方法、装置及可读介质 |
CN108874174A (zh) * | 2018-05-29 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 一种文本纠错方法、装置以及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110110041A (zh) | 2019-08-09 |
WO2020186778A1 (zh) | 2020-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110110041B (zh) | 错词纠正方法、装置、计算机装置及存储介质 | |
CN107220235B (zh) | 基于人工智能的语音识别纠错方法、装置及存储介质 | |
CN108287858B (zh) | 自然语言的语义提取方法及装置 | |
US20200335096A1 (en) | Pinyin-based method and apparatus for semantic recognition, and system for human-machine dialog | |
CN111951779B (zh) | 语音合成的前端处理方法及相关设备 | |
CN109299471B (zh) | 一种文本匹配的方法、装置及终端 | |
JP5809381B1 (ja) | 自然言語処理システム、自然言語処理方法、および自然言語処理プログラム | |
CN113255331B (zh) | 文本纠错方法、装置及存储介质 | |
CN112036184A (zh) | 基于BiLSTM网络模型及CRF模型的实体识别方法、装置、计算机装置及存储介质 | |
CN108304387B (zh) | 文本中噪音词的识别方法、装置、服务器组及存储介质 | |
US20240296603A1 (en) | Systems and methods for digital ink generation and editing | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
CN114218945A (zh) | 实体识别方法、装置、服务器及存储介质 | |
CN115840808A (zh) | 科技项目咨询方法、装置、服务器及计算机可读存储介质 | |
CN114510925A (zh) | 一种中文文本纠错方法、系统、终端设备及存储介质 | |
CN114020774A (zh) | 多轮问答语句的处理方法、装置、设备及存储介质 | |
CN111858860B (zh) | 搜索信息处理方法及系统、服务器、计算机可读介质 | |
CN116932736A (zh) | 一种基于用户需求结合倒排表的专利推荐方法 | |
CN116909435A (zh) | 一种数据处理方法、装置、电子设备及存储介质 | |
CN115080603B (zh) | 一种数据库查询语言转换方法、装置、设备及存储介质 | |
CN111209724A (zh) | 文本的校验方法、装置、存储介质以及处理器 | |
CN115831117A (zh) | 实体识别方法、装置、计算机设备和存储介质 | |
CN111090720B (zh) | 一种热词的添加方法和装置 | |
CN112036183B (zh) | 基于BiLSTM网络模型及CRF模型的分词方法、装置、计算机装置及计算机存储介质 | |
CN111126082A (zh) | 一种翻译方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |