CN111339750B - 去除停用语并预测句子边界的口语文本处理方法 - Google Patents
去除停用语并预测句子边界的口语文本处理方法 Download PDFInfo
- Publication number
- CN111339750B CN111339750B CN202010112638.XA CN202010112638A CN111339750B CN 111339750 B CN111339750 B CN 111339750B CN 202010112638 A CN202010112638 A CN 202010112638A CN 111339750 B CN111339750 B CN 111339750B
- Authority
- CN
- China
- Prior art keywords
- text
- sentence
- stop
- punctuation
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了去除停用语并预测句子边界的口语文本处理方法,首先收集口语识别文本语料;然后对文本语料中的停用语进行标注;再对文本语料中句子边界两侧的字词进行标注;继而采用机器学习方法训练序列标注模型;最后采用模型对口语文本进行处理。采用序列标注方式识别并去除文本序列中的停用语,采用文本向量嵌入、正反双向编码结合条件随机场的机器学习方案,高效抽取口语文本的深层语义特征,提高标签序列预测准确率;采用一个模型同时完成去停用语和句子边界预测;经过处理后,语音识别文本重点更加突出,有了合理的标点分隔,不仅利于人类阅读,也便于自然语言理解模块选择最佳处理粒度。
Description
技术领域
本发明涉及一种对语音识别后无标点文本序列去除停用语并预测句子边界的处理方法,属于自然语言处理技术领域。
背景技术
近几年来,随着人工智能技术在语音信号处理领域的突破,语音识别取得了突飞猛进的发展,目前已经拥有许多商业化应用场景,比如语音输入法、语音助手、智能音箱、翻译机等。无论什么样的应用形态,语音识别为文本序列都是首当其冲的第一步。但遗憾的是,典型的语音识别系统只负责将声音片段转换为概率最大的文本序列,带有信息的音节与文本是一一对应的,对于话语中包含的长短停顿、语调升降等特征无法在输出文本序列中体现,因此语音识别的结果经常是连续的长文本。
连续的长文本因为没有标点,在子句切分方面存在模糊性,导致人们在阅读时需要反复回看来检查断句的正确性。同时,过长的序列增加了人脑处理信息的短时记忆负担,大大提高了信息理解的难度。因此,为连续文本序列做句子切分成了阅读或进行自然语言理解之前的必经环节。另外,由于口语自身的特点,说话人在表达中会添加无意义的插入语,如“我想请问下、我的意思是、这个、那么、然后……、……的话”等。这类词语或词组在理解阶段是需要去除的。但许多插入语在特定上下文中是必要的,如果简单机械地使用停用词表进行去除,则会引入新的错误。因此口语文本在去停问题上长期面临着忍受噪声与接受差错的两难困境。
语句边界预测是标点恢复任务的子集,主要致力于涉及句子边界的特定标点符号。口语的语序灵活,句式多变,而传统标点预测任务往往使用广泛存在的书面语料,这种模型套用过来效果较差。目前工业界与学术界提出了多种解决办法。一类方法是尽量利用语音信号包含的信息,收集静音间隔和语调特征来预测句子边界。这类方法难以适应不同的语速,语速稍慢就会有大量多余标点;而且标点也比较单一,往往一逗到底,不符合实际情况;另外非语音识别企业也难以使用这种方法。另一类方法是针对文本序列进行处理,往往通过特征模板与条件随机等机器学习方法提取标点两侧的文本特征然后进行标点预测。但现有方法难以提取文本序列的深层特征,在预测准确率方面也不够理想,难以达到商业化落地的要求。
发明内容
本发明的目的是克服现有技术存在的不足,提供一种去除停用语并预测句子边界的口语文本处理方法。
本发明的目的通过以下技术方案来实现:
去除停用语并预测句子边界的口语文本处理方法,特点是:包括以下步骤:
S101)收集口语识别文本语料;
S102)对文本语料中的停用语进行标注;
S103)对文本语料中句子边界两侧的字词进行标注;
S104)采用机器学习方法训练序列标注模型;
S105)采用模型对口语文本进行处理。
进一步地,上述的去除停用语并预测句子边界的口语文本处理方法,其中,步骤S102),对获取的语料逐句分析审核,并标注其中的无意义片段;如果语料中包含带标点文本,忽略标点符号。
进一步地,上述的去除停用语并预测句子边界的口语文本处理方法,其中,标注采用BIEOS系统,对停用片段的第一个字标记为B-Stop,第二个字至倒数第二个字全部标记为I-Stop,最末一个字标记为E-Stop,非停用语的正常部分标记为O。
进一步地,上述的去除停用语并预测句子边界的口语文本处理方法,其中,步骤S103),若语料中包含带标点文本,在标注句子边界的同时去掉标点符号,包括以下步骤:
1)确定需要标注的标点符号集合
将语句边界预测的目标确定为以句子休止符为核心,包括逗号、句号、问号、感叹号所在的位置;
2)确定边界标点的标签集合
对标点前b个字与标点后a个字赋予不同名称的标签,以便模型学习标点符号的位置;b和a取值为1~6;
3)对步骤S102)处理后的文本序列添加句子边界标签
当停用语位于句子边界时,因一个字无法承载多个标签,则标注方案为:
首先,句子边界在后面紧接停用语时提前结束;
其次,句子边界在前面紧接停用语时,追溯到停用语前标注。
进一步地,上述的去除停用语并预测句子边界的口语文本处理方法,其中,步骤S104),已获得口语文本语料与字标签对应的数据文件,采用机器学习方法按照序列标注任务训练模型,模型学习的结果是对文本序列的每一个字预测其概率最大的标签。
进一步地,上述的去除停用语并预测句子边界的口语文本处理方法,其中,机器学习方法为隐马尔科夫模型、条件随机场、双向长短时记忆网络或卷积神经网络。
进一步地,上述的去除停用语并预测句子边界的口语文本处理方法,其中,采用以双向编码器结合双向长短时与条件随机场连接的方法,进行模型训练:
1)对文本做向量化表示
采用Transformer的双向编码器表示,通过多层编码器抽取语料的高层次特征,获取字、句各种粒度的向量表示,模型内部对于中文是以字作为基本单位,避免分词偏差的影响;双向编码器结合上下文进行动态嵌入,对于不同场景下一词多义的情况有效区分;当前已有包括中文在内的多个语种的BERT预训练模型开放下载使用;
2)基于字向量的序列编码
采用双向长短时记忆网络对文本的向量序列进行编码,双向长短时记忆网络沿着从左到右、从右到左两个方向利用上下文信息对文字进行编码,经过正向、反向编码后分别得到两个方向的隐状态向量,将正反向隐状态向量拼接得到最终隐状态向量,然后通过全连接层将最终隐状态向量映射到d维向量,其中d表示单字标签的种类数;
3)通过条件随机场加强标签约束
条件随机场中有一个转移矩阵M,其中每个元素Mij表示第i个状态后面跟随第j个状态的转移概率,通过条件随机场从训练语料中学习到每个标签转移到下一个标签的概率,生成对应的转移矩阵,转移矩阵是(d+2)×(d+2)维,除了d种标签状态外,还包含一个初始状态和一个终止状态;
将上一步生成的d维向量送入条件随机场之后,模型根据转移矩阵约束各维度的概率,避免预测出不符合实际的标签序列;
4)根据概率最大原则估计每个字的标签
经过条件随机场约束之后可获得文本序列中每个字在d类标签中的概率分布,通过公式(1)对每个字c取最大概率所在的类别标签即可得到各个字的最可能标签Label(c);
其中y’ci表示模型预测字符c是第i类标签的概率,argmax函数可得到当概率取最大值时的第i类标签;
5)计算误差反向传播,更新模型参数
模型参数包括向量化表示层、双向长短时记忆网络层的权重W与偏置B、转移矩阵M,其中向量化表示层的参数已经过预训练,在任务中不做训练,对于预测值与目标语料中的真实值之间的偏差,采用公式(2)作为损失函数,通过梯度下降法学习降低损失值优化模型参数,设定不同的激活函数或遗忘系数,添加L2正则化;
其中N表示训练样本的总字数,d是标签类别数量,yci表示字符c的真实标签是第i类的概率,y’ci表示模型预测字符c是第i类标签的概率;
训练过程在经过预设的最大迭代次数或满足终止条件后结束。
进一步地,上述的去除停用语并预测句子边界的口语文本处理方法,其中,步骤S105),得到一个同时处理去停与句子边界预测的模型,对新的口语文本进行预测,模型在预测时,对输入文本的处理过程为正向传播过程,模型预测结果是输入各个字对应的标签序列,通过与标注过程相反的转换程序还原为符合阅读习惯的带中文标点形式。
本发明与现有技术相比具有显著的优点和有益效果,具体体现在以下方面:
本发明采用序列标注方式识别并去除文本序列中的停用语,充分利用停用语前后的上下文特征,克服传统按停用词表去除方式容易引入错误的弊端,为后续的自然语言理解模块降低数据噪声;针对语句边界涉及前后两部分内容的特点,在传统序列标注体系基础上加入后置标签,增强连续标签的协同预测能力;采用文本向量嵌入、正反双向编码结合条件随机场的机器学习方案,高效抽取口语文本的深层语义特征,提高标签序列预测准确率;采用一个模型同时完成去停用语和句子边界预测,不仅克服传统去停方法容易引入错误的弊端,而且在口语句子边界预测准确性上得到显著提升。经过处理后,语音识别文本重点更加突出,有了合理的标点分隔,不仅利于人类阅读,也便于自然语言理解模块选择最佳处理粒度。在垂直行业领域的语音交互系统中具有广泛的应用价值;堪称是具有新颖性、创造性、实用性的好技术。
本发明的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明具体实施方式了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书中所特别指出的结构来实现和获得。
附图说明
图1:本发明的流程示意图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现详细说明具体实施方案。
如图1所示,去除停用语并预测句子边界的口语文本处理方法,具体包括以下步骤:
S101)收集口语识别文本语料;
口语识别所得的无标点文本序列是前提条件,也是需要批量处理的数据形式;数据欠缺时,相同领域内带有标点的类口语文本,例如在线问答记录等,可以作为初始语料;
S102)对文本语料中的停用语进行标注;
对于步骤S101中获取的语料逐句分析审核,并标注其中的无意义片段;如果语料中包含带标点文本,则忽略标点符号,因为标点在步骤S103中被去除;
标注体系可以采用BIEOS系统,具体地,对停用片段的第一个字标记为B-Stop,第二个字到倒数第二个字全部标记为I-Stop,最末一个字标记为E-Stop,非停用语的正常部分标记为O;
例如,对于一段文本序列“我以为他在这个单位辞职了那么我想问一下他这个单位档案在哪”进行停用语(下划线部分)标注之后,标签序列为:
OOOOOOOOOOOO B-Stop I-Stop I-Stop I-Stop I-Stop I-Stop E-Stop OOOOOOOO
S103)对文本语料中句子边界两侧的字词进行标注;
如果语料中包含带标点文本,则在标注句子边界的同时去掉标点符号,包括以下步骤:
1)确定需要标注的标点符号集合
由于语句内部的语义高度内聚,对话系统的语言理解单元中句法分析是以句子作为基本单位,因此对于语音交互的大多数场景来说,是确定文本序列的句子边界;将语句边界预测的目标确定为以句子休止符为核心,包括逗号、句号、问号、感叹号所在的位置;
2)确定边界标点的标签集合
对序列标注任务来说,原文本序列与标签序列是一一对应的;因此,标点符号不能通过额外增加标签的方式标注;本发明采用对标点前b个字与标点后a个字赋予自定名称标签的方式来辅助模型学习标点的位置;标点前字数b与标点后字数a的典型取值在1~6之间,例如可选择b=3,a=1。
标点/标签 | 标点前的字 | 标点后的字 |
逗号 | B-Com、I-Com、E-Com | A-Pun |
句号 | B-Per、I-Per、E-Per | A-Pun |
问号 | B-Que、I-Que、E-Que | A-Pun |
感叹号 | B-Exc、I-Exc、E-Exc | A-Pun |
3)对步骤S102处理后的文本序列添加句子边界标签
停用语经常会出于句子边界上,但一个字无法赋予多个标签。为了确保停用片段识别的完整性,当停用语位于句子边界时,标注方案为:
首先,句子边界在后面紧接停用语时提前结束;例如在句号后面紧跟着停用语,则该句号后不再标A-Pun,只对句号前的字做标注;
其次,句子边界在前面紧接停用语时,追溯到停用语前标注;例如语句“如果女方没有工作的话,生育保险可以领取吗?”,则B-Com、I-Com、E-Com标记在停用语‘的话’之前;
以步骤S102中的文本序列为例,“我以为他在这个单位辞职了那么我想问一下他这个单位档案在哪”进行添加句子边界之后标签序列为:
OOOOOOO B-Per I-Per I-Per I-Per E-Per B-Stop I-Stop I-Stop I-Stop I-Stop I-Stop E-Stop OOOO B-Que I-Que I-Que I-Que E-Que
S104)采用机器学习方法训练序列标注模型;
经过步骤S102与步骤S103已获得口语文本语料与字标签对应的数据文件,采用各类机器学习方法按照序列标注任务训练模型,模型学习的结果是对文本序列的每一个字预测其最有可能的标签,机器学习方法是隐马尔科夫模型(HMM)、条件随机场(CRF)、双向长短时记忆网络(Bi-LSTM)、卷积神经网络(CNN)。
以双向编码器结合双向长短时和条件随机场连接的方法,模型训练的的过程:
1)对文本做向量化表示
文本向量化的方法有:word2vec嵌入、Glove、elmo等。采用Transformer的双向编码器表示(BERT,全称为Bidirectional Encoder Representations from Transformers),通过多层编码器可以抽取语料的高层次特征,获取更准确的字、句等各种粒度的向量表示,模型内部对于中文以字作为基本单位,避免分词偏差的影响;而且不同于词向量每个词采用确定的向量表示,BERT结合上下文进行动态嵌入,对于不同场景下一词多义的情况有效区分。当前已有包括中文在内的多个语种的BERT预训练模型开放下载使用。
2)基于字向量的序列编码
采用双向长短时记忆网络对文本的向量序列进行编码。长短时记忆网络可利用某个字前方的信息对其进行表示,而双向长短时记忆网络则沿着从左到右、从右到左两个方向利用上下文信息对文字进行编码,经过正向、反向编码后分别得到两个方向的隐状态向量,将正反向隐状态向量拼接得到最终隐状态向量,然后通过全连接层将最终隐状态向量映射到d维向量,其中d表示单字标签的种类数。
3)通过条件随机场加强标签约束
条件随机场中有一个转移矩阵M,其中每个元素Mij表示第i个状态后面跟随第j个状态的转移概率,通过条件随机场可从训练语料中学习到每个标签(如B-Stop)转移到下一个标签(如I-Stop)的概率,生成对应的转移矩阵,转移矩阵是(d+2)×(d+2)维,除了d种标签状态外,还包含一个初始状态和一个终止状态。
将上一步生成的d维向量送入条件随机场之后,模型根据转移矩阵约束各维度的概率,避免预测出不符合实际的标签序列(例如I-Sop后面跟着B-Stop)。
4)根据概率最大原则估计每个字的标签
经过条件随机场约束之后可获得文本序列中每个字在d类标签中的概率分布,通过公式(1)对每个字c取最大概率所在的类别标签即可得到各个字的最可能标签Label(c);
其中y’ci表示模型预测字符c是第i类标签的概率,argmax函数可得到当概率取最大值时的第i类标签。
5)计算误差反向传播,更新模型参数
模型参数包括向量化表示层、双向长短时记忆网络层的权重W与偏置B,转移矩阵M,其中向量化表示层的参数已经过预训练,在任务中不做训练。对于预测值与目标语料中的真实值之间的偏差,采用公式(2)作为损失函数,通过梯度下降法学习降低损失值来优化模型参数,根据实际情况,可设定不同的激活函数(如Relu)或遗忘系数,添加L2正则化等;
其中N表示训练样本的总字数,d是标签类别数量,yci表示字符c的真实标签是第i类的概率(0或者1),y’ci表示模型预测字符c是第i类标签的概率。
训练过程在经过预设的最大迭代次数或满足终止条件(例如损失小于一个类似0.0001的预设阈值)后结束。
S105)采用模型对口语文本进行处理
经过步骤S104可得到一个同时处理去停与句子边界预测的模型,对新的口语文本进行预测,模型在预测时,对输入文本的处理过程主要包括步骤S104中的第1)~第4)步,即正向传播过程。
模型预测结果是输入各个字对应的标签序列,还通过与标注过程相反的转换程序还原为符合阅读习惯的带中文标点形式。
综上所述,本发明采用序列标注方式识别并去除文本序列中的停用语,充分利用停用语前后的上下文特征,克服传统按停用词表去除方式容易引入错误的弊端,为后续的自然语言理解模块降低数据噪声;针对语句边界涉及前后两部分内容的特点,在传统序列标注体系基础上加入后置标签,增强连续标签的协同预测能力;采用文本向量嵌入、正反双向编码结合条件随机场的机器学习方案,高效抽取口语文本的深层语义特征,提高标签序列预测准确率;采用一个模型同时完成去停用语和句子边界预测,不仅克服传统去停方法容易引入错误的弊端,而且在口语句子边界预测准确性上得到显著提升。经过处理后,语音识别文本重点更加突出,有了合理的标点分隔,不仅利于人类阅读,也便于自然语言理解模块选择最佳处理粒度。在垂直行业领域的语音交互系统中具有广泛的应用价值。
需要说明的是:以上所述仅为本发明的优选实施方式,并非用以限定本发明的权利范围;同时以上的描述,对于相关技术领域的专门人士应可明了及实施,因此其它未脱离本发明所揭示的精神下所完成的等效改变或修饰,均应包含在申请专利范围中。
Claims (3)
1.去除停用语并预测句子边界的口语文本处理方法 ,其特征在于:包括以下步骤:
S101)收集口语识别文本语料;
S102)对文本语料中的停用语进行标注;
对获取的语料逐句分析审核,并标注其中的无意义片段;如果语料中包含带标点文本,忽略标点符号;
S103)对文本语料中句子边界两侧的字词进行标注;
若语料中包含带标点文本,在标注句子边界的同时去掉标点符号,包括以下步骤:
1)确定需要标注的标点符号集合
将语句边界预测的目标确定为以句子休止符为核心,包括逗号、句号、问号、感叹号所在的位置;
2)确定边界标点的标签集合
对标点前b个字与标点后a个字赋予不同名称的标签,以便模型学习标点符号的位置;b和a取值为1~6;
3)对步骤S102)处理后的文本序列添加句子边界标签
当停用语位于句子边界时,因一个字无法承载多个标签,则标注方案为:
首先,句子边界在后面紧接停用语时提前结束;
其次,句子边界在前面紧接停用语时,追溯到停用语前标注;
S104)采用机器学习方法训练序列标注模型;
获得口语文本语料与字标签对应的数据文件后,采用机器学习方法按照序列标注任务训练模型,模型学习的结果是对文本序列的每一个字预测其概率最大的标签;
S105)采用模型对口语文本进行处理
使用训练得到的同时处理去停与句子边界预测的模型,对新的口语文本进行预测;模型在预测时,对输入文本的处理过程为正向传播过程,模型预测结果是输入各个字对应的标签序列,通过与标注过程相反的转换程序还原为符合阅读习惯的带中文标点形式。
2.根据权利要求1所述的去除停用语并预测句子边界的口语文本处理方法,其特征在于:标注采用BIEOS系统,对停用片段的第一个字标记为B-Stop,第二个字至倒数第二个字全部标记为I-Stop,最末一个字标记为E-Stop,非停用语的正常部分标记为O。
3.根据权利要求1所述的去除停用语并预测句子边界的口语文本处理方法,其特征在于:机器学习方法为隐马尔科夫模型、条件随机场、双向长短时记忆网络或卷积神经网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010112638.XA CN111339750B (zh) | 2020-02-24 | 2020-02-24 | 去除停用语并预测句子边界的口语文本处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010112638.XA CN111339750B (zh) | 2020-02-24 | 2020-02-24 | 去除停用语并预测句子边界的口语文本处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111339750A CN111339750A (zh) | 2020-06-26 |
CN111339750B true CN111339750B (zh) | 2023-09-08 |
Family
ID=71183694
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010112638.XA Active CN111339750B (zh) | 2020-02-24 | 2020-02-24 | 去除停用语并预测句子边界的口语文本处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111339750B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112101003B (zh) * | 2020-09-14 | 2023-03-14 | 深圳前海微众银行股份有限公司 | 语句文本的切分方法、装置、设备和计算机可读存储介质 |
CN112183086B (zh) * | 2020-09-23 | 2024-06-14 | 北京先声智能科技有限公司 | 基于意群标注的英语发音连读标记模型 |
CN112487812B (zh) * | 2020-10-21 | 2021-07-06 | 上海旻浦科技有限公司 | 一种基于边界识别的嵌套实体识别方法及系统 |
CN112270615A (zh) * | 2020-10-26 | 2021-01-26 | 西安邮电大学 | 基于语义计算的复杂装备制造bom智能分解方法 |
CN113392641A (zh) * | 2020-10-26 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、存储介质和设备 |
CN112712804B (zh) * | 2020-12-23 | 2022-08-26 | 哈尔滨工业大学(威海) | 语音识别方法、系统、介质、计算机设备、终端及应用 |
CN112784574B (zh) * | 2021-02-02 | 2023-09-15 | 网易(杭州)网络有限公司 | 一种文本分割方法、装置、电子设备及介质 |
CN112765957A (zh) * | 2021-02-27 | 2021-05-07 | 中电万维信息技术有限责任公司 | 一种无标点文本分句方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032732A (zh) * | 2019-03-12 | 2019-07-19 | 平安科技(深圳)有限公司 | 一种文本标点预测方法、装置、计算机设备及存储介质 |
CN110674629A (zh) * | 2019-09-27 | 2020-01-10 | 上海智臻智能网络科技股份有限公司 | 标点符号标注模型及其训练方法、设备、存储介质 |
-
2020
- 2020-02-24 CN CN202010112638.XA patent/CN111339750B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110032732A (zh) * | 2019-03-12 | 2019-07-19 | 平安科技(深圳)有限公司 | 一种文本标点预测方法、装置、计算机设备及存储介质 |
CN110674629A (zh) * | 2019-09-27 | 2020-01-10 | 上海智臻智能网络科技股份有限公司 | 标点符号标注模型及其训练方法、设备、存储介质 |
Non-Patent Citations (1)
Title |
---|
孙安 ; 于英香 ; 罗永刚 ; 王祺 ; .序列标注模型中的字粒度特征提取方案研究――以CCKS2017:Task2临床病历命名实体识别任务为例.图书情报工作.2018,(11),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111339750A (zh) | 2020-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111339750B (zh) | 去除停用语并预测句子边界的口语文本处理方法 | |
CN110046350B (zh) | 文法错误识别方法、装置、计算机设备及存储介质 | |
CN111062217B (zh) | 语言信息的处理方法、装置、存储介质及电子设备 | |
CN110083831A (zh) | 一种基于BERT-BiGRU-CRF的中文命名实体识别方法 | |
CN101645271B (zh) | 发音质量评估系统中的置信度快速求取方法 | |
CN109471793B (zh) | 一种基于深度学习的网页自动化测试缺陷定位方法 | |
CN112541356B (zh) | 一种生物医学命名实体识别的方法和系统 | |
CN111046670B (zh) | 基于毒品案件法律文书的实体及关系联合抽取方法 | |
CN109918681B (zh) | 一种基于汉字-拼音的融合问题语义匹配方法 | |
CN110852040B (zh) | 一种标点预测模型训练方法及文本标点确定方法 | |
CN116127952A (zh) | 一种多粒度中文文本纠错方法和装置 | |
CN112037773A (zh) | 一种n最优口语语义识别方法、装置及电子设备 | |
Gallwitz et al. | Integrated recognition of words and prosodic phrase boundaries | |
CN112417823B (zh) | 一种中文文本语序调整和量词补全方法及系统 | |
CN110717341A (zh) | 一种以泰语为枢轴的老-汉双语语料库构建方法及装置 | |
González-Gallardo et al. | Sentence boundary detection for French with subword-level information vectors and convolutional neural networks | |
CN115510863A (zh) | 一种面向问句匹配任务的数据增强方法 | |
CN116432645A (zh) | 一种基于预训练模型的交通事故命名实体识别方法 | |
CN112417132A (zh) | 一种利用谓宾信息筛选负样本的新意图识别方法 | |
CN111553147A (zh) | 一种基于N-gram的BERT模型以及语义分割方法 | |
CN112989839A (zh) | 一种基于关键词特征嵌入语言模型的意图识别方法及系统 | |
CN113901210B (zh) | 利用局部多头注意力机制融合词-音节对的泰文和缅甸文词性标注方法 | |
CN112634878B (zh) | 语音识别后处理方法和系统及相关设备 | |
CN113012685A (zh) | 音频识别方法、装置、电子设备及存储介质 | |
Pandey et al. | Improving data driven inverse text normalization using data augmentation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |