CN107729313A - 基于深度神经网络的多音字读音的判别方法和装置 - Google Patents
基于深度神经网络的多音字读音的判别方法和装置 Download PDFInfo
- Publication number
- CN107729313A CN107729313A CN201710876713.8A CN201710876713A CN107729313A CN 107729313 A CN107729313 A CN 107729313A CN 201710876713 A CN201710876713 A CN 201710876713A CN 107729313 A CN107729313 A CN 107729313A
- Authority
- CN
- China
- Prior art keywords
- chinese character
- chinese
- probability
- pronunciation
- tone
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Document Processing Apparatus (AREA)
Abstract
本申请提出一种基于深度神经网络的多音字读音的判别方法和装置,其中,上述基于深度神经网络的多音字读音的判别方法包括:对待识别文本中的每个汉字进行量化编码,生成所述汉字的特征向量;根据汉字的特征向量,结合所述汉字的双方向的上下文信息,生成汉字的输入特征;将所述汉字的输入特征分别输入声母、韵母和声调对应的DNN模型,分别获得第一概率、第二概率和第三概率;根据第一概率、第二概率和第三概率计算声母、韵母和声调的各种组合的概率,以概率最高的组合作为所述汉字的读音。本申请可以提高读音判别的准确性,有效缓解多音字高频音引起的训练样本不均衡的问题,并且可以解决多个多音字的读音判别问题,有利于语音合成系统的集成。
Description
技术领域
本申请涉及语音合成技术领域,尤其涉及一种基于深度神经网络的多音字读音的判别方法和装置。
背景技术
字音转换是中文语音合成系统必不可少的环节,其正确率直接影响语音合成的可懂度。大多数中文汉字具有确定的读音,可通过检索词典的方式得到正确的读音。但汉语中有很多字具有两种及以上的读音。字音转换的关键点和难点就是这些多音字的判别和消岐。一般认为,多音字的读音通常和具体的上下文信息、语义以及语言习惯密切相关。如何根据上下文信息自动辨析多音字的读音是语音合成系统目前需要解决的关键问题。
现有相关技术中,提供了两种多音字消岐方法:
1)基于规则的方法,通过事先设计的规则模板和评判机制,对人工标注的文本逐一过滤,分别对每个多音字生成一系列规则。再将输入的文本按照相应的规则模板转化,进行规则匹配,映射到最佳匹配规则对应的读音。
2)基于统计机器学习的方法:将多音字消岐看作分类问题,抽取大量的人工标注读音的文本语料的字词、词性等上下文特征,训练得到每个多音字的分类模型。将含多音字的文本转化为对应模型的输入特征,通过模型计算得到多音字的读音。
但是现有相关技术中采用的多音字消岐方法依赖有限距离的上下文分词信息,在有长定语或长状语修饰的文本中多音字读音判别的准确率不高;由于多音字存在高频读音(即经常在文本中出现的读音),导致模型倾向于预测某一常见读音,对非常见读音的预测不准确;训练得到的规则或者模型只针对某一多音字有效,多个多音字需要训练多个模型或者规则,不适用于含有多个多音字的文本的训练和读音的预测。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请的第一个目的在于提出一种基于深度神经网络的多音字读音的判别方法,以实现利用待识别文本中汉字的双方向的上下文信息,确定汉字的读音,提高读音判别的准确性,通过声母、韵母和声调对应的深层神经网络模型对上述汉字的读音进行识别,可以有效缓解多音字高频音引起的训练样本不均衡的问题,并且上述声母、韵母和声调对应的深层神经网络模型可以解决多个多音字的读音判别问题,有利于语音合成系统的集成。
本申请的第二个目的在于提出一种基于深度神经网络的多音字读音的判别装置。
本申请的第三个目的在于提出一种计算机设备。
本申请的第四个目的在于提出一种非临时性计算机可读存储介质。
为达上述目的,本申请第一方面实施例提出一种基于深度神经网络的多音字读音的判别方法,包括:对待识别文本中的每个汉字进行量化编码,根据所述汉字的量化编码、所述汉字的分词词性和分词边界,以及所述汉字的多音字标识生成所述汉字的特征向量;根据所述汉字的特征向量,结合双向的长短时记忆模型获取的所述汉字的双方向的上下文信息,生成所述汉字的输入特征;将所述汉字的输入特征分别输入声母、韵母和声调对应的深层神经网络模型,分别获得所述汉字的读音的声母对应汉语拼音中每个声母的第一概率、所述汉字的读音的韵母对应汉语拼音中每个韵母的第二概率和所述汉字的读音的声调对应汉语拼音中每个声调的第三概率;根据所述第一概率、所述第二概率和所述第三概率计算所述汉字的读音对应的声母、韵母和声调的各种组合的概率,以概率最高的组合作为所述汉字的读音。
本申请实施例的基于深度神经网络的多音字读音的判别方法,利用待识别文本中汉字的双方向的上下文信息,确定汉字的读音,提高了读音判别的准确性,通过声母、韵母和声调对应的深层神经网络模型对上述汉字的读音进行识别,可以有效缓解多音字高频音引起的训练样本不均衡的问题,并且上述声母、韵母和声调对应的深层神经网络模型可以解决多个多音字的读音判别问题,有利于语音合成系统的集成。
为达上述目的,本申请第二方面实施例提出了一种基于深度神经网络的多音字读音的判别装置,包括:编码模块,用于对待识别文本中的每个汉字进行量化编码;生成模块,用于根据所述汉字的量化编码、所述汉字的分词词性和分词边界,以及所述汉字的多音字标识生成所述汉字的特征向量;以及根据所述汉字的特征向量,结合双向的长短时记忆模型获取的所述汉字的双方向的上下文信息,生成所述汉字的输入特征;获得模块,用于将所述生成模块生成的所述汉字的输入特征分别输入声母、韵母和声调对应的深层神经网络模型,分别获得所述汉字的读音的声母对应汉语拼音中每个声母的第一概率、所述汉字的读音的韵母对应汉语拼音中每个韵母的第二概率和所述汉字的读音的声调对应汉语拼音中每个声调的第三概率;确定模块,用于根据所述第一概率、所述第二概率和所述第三概率计算所述汉字的读音对应的声母、韵母和声调的各种组合的概率,以概率最高的组合作为所述汉字的读音。
本申请实施例的基于深度神经网络的多音字读音的判别装置,利用待识别文本中汉字的双方向的上下文信息,确定汉字的读音,提高了读音判别的准确性,通过声母、韵母和声调对应的深层神经网络模型对上述汉字的读音进行识别,可以有效缓解多音字高频音引起的训练样本不均衡的问题,并且上述声母、韵母和声调对应的深层神经网络模型可以解决多个多音字的读音判别问题,有利于语音合成系统的集成。
为达上述目的,本申请第三方面实施例提出了一种计算机设备,包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如上所述的方法。
为达上述目的,本申请第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的方法。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请基于深度神经网络的多音字读音的判别方法一个实施例的流程图;
图2为本申请基于深度神经网络的多音字读音的判别方法中基于深度神经网络的多音字读音的判别模型一个实施例的示意图;
图3为本申请基于深度神经网络的多音字读音的判别方法另一个实施例的流程图;
图4为本申请基于深度神经网络的多音字读音的判别方法再一个实施例的流程图;
图5为本申请基于深度神经网络的多音字读音的判别装置一个实施例的结构示意图;
图6为本申请基于深度神经网络的多音字读音的判别装置另一个实施例的结构示意图;
图7为本申请计算机设备一个实施例的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
图1为本申请基于深度神经网络的多音字读音的判别方法一个实施例的流程图,如图1所示,上述基于深度神经网络的多音字读音的判别方法可以包括:
步骤101,对待识别文本中的每个汉字进行量化编码,根据上述汉字的量化编码、上述汉字的分词词性和分词边界,以及上述汉字的多音字标识生成上述汉字的特征向量。
其中,上述汉字的多音字标识用于标识上述汉字是否为多音字,举例来说,可以用“1”表示上述汉字为多音字,用“0”表示上述汉字不是多音字。也就是说,如果上述汉字的多音字标识位的值为“1”,则表示上述汉字为多音字;如果上述汉字的多音字标识位的值为“0”,则表示上述汉字不是多音字。当然,这只是上述多音字标识的一种表示方式,本实施例对上述多音字标识的表示方式不作限定,只要可以区分是否为多音字即可。
本实施例中,在上述汉字的特征向量添加多音字标识,可以增加每个汉字的特征向量区别于其他汉字的特征向量的区别度,便于后续准确地确定上述汉字的读音。
步骤102,根据上述汉字的特征向量,结合双向的长短时记忆(Long Short-TermMemory;以下简称:LSTM)模型获取的上述汉字的双方向的上下文信息,生成上述汉字的输入特征。
参见图2,图2为本申请基于深度神经网络的多音字读音的判别方法中基于深度神经网络的多音字读音的判别模型一个实施例的示意图,如图2所示,上述步骤101与步骤102均是在共享层完成的。共享层采用双向的LSTM模型。双向的LSTM模型通过LSTM结构中的状态结构缓存历史的状态信息,并且通过输入门、遗忘门以及输出门对历史状态进行维护,从而实现了长距离的文本信息(例如:整句文本)的有效缓存和提取。双向的LSTM模型可以获取上述汉字的从前至后和从后至前两个方向的上下文信息,上述上下文信息包括上述汉字所属的句子成分、上述汉字在句子中的位置和所述汉字的上下文文本中各分词的分词属性。
其中,上述汉字所属的句子成分是指上述汉字属于句子的主语、谓语、宾语、状语或定语等;上述汉字的上下文文本中各分词的分词属性是指上述汉字的上下文文本中各分词的词性,例如上述分词为动词或名词等。
具体地,参见图2,双向的LSTM模型获得由待识别文本中每个汉字的特征向量组成的特征向量序列之后,需要按照序列的先后顺序来构建输出,将待识别文本看作序列,就存在从前至后和从后至前两个方向。从前往后,LSTM模型依据汉字前面的汉字特征(先输入的)来获取上文信息,从后往前,LSTM会依据汉字后面的汉字特征(反向先输入)来获取下文信息。
步骤103,将上述汉字的输入特征分别输入声母、韵母和声调对应的深层神经网络(Deep Neural Networks;以下简称:DNN)模型,分别获得上述汉字的读音的声母对应汉语拼音中每个声母的第一概率、上述汉字的读音的韵母对应汉语拼音中每个韵母的第二概率和上述汉字的读音的声调对应汉语拼音中每个声调的第三概率。
参见图2,上述声母、韵母和声调对应的DNN模型位于任务层。在任务层,可以将汉字的读音按照声母、韵母和声调拆开,分别构建声母、韵母和声调对应的DNN模型,从而可以有效缓解个别多音字的各个读音的训练样本分布不均衡的问题。
本实施例中,声母对应的DNN模型的输出是多维的浮点数向量,表示上述汉字的读音的声母为汉语拼音中每个声母的第一概率。同理,韵母对应的DNN模型的输出是多维的浮点数向量,表示上述汉字的读音的韵母为汉语拼音中每个韵母的第二概率;声调对应的DNN模型的输出是多维的浮点数向量,表示上述汉字的读音的声调为汉语拼音中每个声调的第三概率。
步骤104,根据上述第一概率、上述第二概率和上述第三概率计算上述汉字的读音对应的声母、韵母和声调的各种组合的概率,以概率最高的组合作为上述汉字的读音。
由于每个汉字的读音均为固定的声母、韵母和声调的组合,于是可以根据上述第一概率、上述第二概率和上述第三概率计算上述汉字的读音对应的声母、韵母和声调的各种组合的概率,然后以概率最高的组合作为上述汉字的读音。
图3为本申请基于深度神经网络的多音字读音的判别方法另一个实施例的流程图,如图3所示,本申请图1所示实施例中,步骤101可以包括:
步骤301,利用语料库预训练得到的单字的字向量表示,对待识别文本中的每个汉字进行量化编码。
步骤302,根据上述汉字的量化编码、上述汉字的分词词性和分词边界,以及上述汉字的多音字标识生成上述汉字的特征向量。
图4为本申请基于深度神经网络的多音字读音的判别方法再一个实施例的流程图,如图4所示,本申请图1所示实施例中,步骤103之前,还可以包括:
步骤401,采用标注好的训练数据分别训练声母、韵母和声调对应的DNN模型。
其中,在对声母、韵母和声调对应的DNN模型进行训练时,可以采用Adam算法,当然还可以采用其他的算法训练上述声母、韵母和声调对应的DNN模型,本实施例对所采用的算法不作限定。
步骤402,当声母、韵母和声调对应的DNN模型的输出结果与上述训练数据的标注结果的误差最小时,获得训练好的声母、韵母和声调对应的DNN模型。
其中,上述训练数据的标注结果包括上述训练数据的正确的声母、韵母和声调的信息。
具体地,在对声母、韵母和声调对应的DNN模型进行训练时,可以定义目标函数为声母、韵母和声调对应的DNN模型的输出结果与上述训练数据的标注结果的交叉熵的加权和,通过误差的反向传播更新上述DNN模型中的参数,使声母、韵母和声调对应的DNN模型的输出结果与上述训练数据的标注结果的误差越来越小,取最小的误差对应的DNN模型作为训练好的声母、韵母和声调对应的DNN模型,从而上述声母、韵母和声调对应的DNN模型对于声母、韵母和声调的识别具有较高的准确度。
其中,上述步骤401和步骤402可以与步骤101~步骤102并行执行或者先后执行,本实施例对此不作限定。
上述基于深度神经网络的多音字读音的判别方法,利用待识别文本中汉字的双方向的上下文信息,确定汉字的读音,提高了读音判别的准确性,通过声母、韵母和声调对应的DNN模型对上述汉字的读音进行识别,可以有效缓解多音字高频音引起的训练样本不均衡的问题,并且上述声母、韵母和声调对应的DNN模型可以解决多个多音字的读音判别问题,有利于语音合成系统的集成。
图5为本申请基于深度神经网络的多音字读音的判别装置一个实施例的结构示意图,本申请实施例中的基于深度神经网络的多音字读音的判别装置可以作为计算机设备,或者计算机设备的一部分实现本申请实施例提供的基于深度神经网络的多音字读音的判别方法。
上述计算机设备可以为服务器,本实施例对上述服务器的形态不作限定。
如图5所示,上述基于深度神经网络的多音字读音的判别装置可以包括:编码模块51、生成模块52、获得模块53和确定模块54;
其中,编码模块51,用于对待识别文本中的每个汉字进行量化编码;
生成模块52,用于根据上述汉字的量化编码、上述汉字的分词词性和分词边界,以及上述汉字的多音字标识生成上述汉字的特征向量;以及根据上述汉字的特征向量,结合双向的LSTM模型获取的上述汉字的双方向的上下文信息,生成上述汉字的输入特征;
其中,上述汉字的多音字标识用于标识上述汉字是否为多音字,举例来说,可以用“1”表示上述汉字为多音字,用“0”表示上述汉字不是多音字。也就是说,如果上述汉字的多音字标识位的值为“1”,则表示上述汉字为多音字;如果上述汉字的多音字标识位的值为“0”,则表示上述汉字不是多音字。当然,这只是上述多音字标识的一种表示方式,本实施例对上述多音字标识的表示方式不作限定,只要可以区分是否为多音字即可。
本实施例中,在上述汉字的特征向量添加多音字标识,可以增加每个汉字的特征向量区别于其他汉字的特征向量的区别度,便于后续准确地确定上述汉字的读音。
如图2所示,编码模块51和生成模块52可以位于图2所示的基于深度神经网络的多音字读音的判别模型的共享层。共享层采用双向的LSTM模型。双向的LSTM模型通过LSTM结构中的状态结构缓存历史的状态信息,并且通过输入门、遗忘门以及输出门对历史状态进行维护,从而实现了长距离的文本信息(例如:整句文本)的有效缓存和提取。双向的LSTM模型可以获取上述汉字的从前至后和从后至前两个方向的上下文信息,上述上下文信息包括上述汉字所属的句子成分、上述汉字在句子中的位置和所述汉字的上下文文本中各分词的分词属性。
其中,上述汉字所属的句子成分是指上述汉字属于句子的主语、谓语、宾语、状语或定语等;上述汉字的上下文文本中各分词的分词属性是指上述汉字的上下文文本中各分词的词性,例如上述分词为动词或名词等。
具体地,参见图2,双向的LSTM模型获得由待识别文本中每个汉字的特征向量组成的特征向量序列之后,需要按照序列的先后顺序来构建输出,将待识别文本看作序列,就存在从前至后和从后至前两个方向。从前往后,LSTM模型依据汉字前面的汉字特征(先输入的)来获取上文信息,从后往前,LSTM会依据汉字后面的汉字特征(反向先输入)来获取下文信息。
获得模块53,用于将生成模块52生成的上述汉字的输入特征分别输入声母、韵母和声调对应的DNN模型,分别获得上述汉字的读音的声母对应汉语拼音中每个声母的第一概率、上述汉字的读音的韵母对应汉语拼音中每个韵母的第二概率和上述汉字的读音的声调对应汉语拼音中每个声调的第三概率;参见图2,上述声母、韵母和声调对应的DNN模型位于任务层。在任务层,可以将汉字的读音按照声母、韵母和声调拆开,分别构建声母、韵母和声调对应的DNN模型,从而可以有效缓解个别多音字的各个读音的训练样本分布不均衡的问题。
本实施例中,声母对应的DNN模型的输出是多维的浮点数向量,表示上述汉字的读音的声母对应汉语拼音中每个声母的第一概率。同理,韵母对应的DNN模型的输出是多维的浮点数向量,表示上述汉字的读音的韵母对应汉语拼音中每个韵母的第二概率;声调对应的DNN模型的输出是多维的浮点数向量,表示上述汉字的读音的声调对应汉语拼音中每个声调的第三概率。
确定模块54,用于根据上述第一概率、上述第二概率和上述第三概率计算上述汉字的读音对应的声母、韵母和声调的各种组合的概率,以概率最高的组合作为上述汉字的读音。
由于每个汉字的读音均为固定的声母、韵母和声调的组合,于是可以根据上述第一概率、上述第二概率和上述第三概率计算上述汉字的读音对应的声母、韵母和声调的各种组合的概率,然后以概率最高的组合作为上述汉字的读音。
图6为本申请基于深度神经网络的多音字读音的判别装置另一个实施例的结构示意图,与图5所示的基于深度神经网络的多音字读音的判别装置相比,本实施例中,编码模块51,具体用于利用语料库预训练得到的单字的字向量表示,对待识别文本中的每个汉字进行量化编码。
进一步地,上述基于深度神经网络的多音字读音的判别装置还可以包括:训练模块55;
训练模块55,用于在获得模块53将上述汉字的输入特征分别输入声母、韵母和声调对应的深层神经网络模型之前,采用标注好的训练数据分别训练声母、韵母和声调对应的深层神经网络模型;当声母、韵母和声调对应的深层神经网络模型的输出结果与所述训练数据的标注结果的误差最小时,获得训练好的声母、韵母和声调对应的深层神经网络模型,上述训练数据的标注结果包括上述训练数据的正确的声母、韵母和声调的信息。
其中,训练模块55在对声母、韵母和声调对应的DNN模型进行训练时,可以采用Adam算法,当然还可以采用其他的算法训练上述声母、韵母和声调对应的DNN模型,本实施例对所采用的算法不作限定。
具体地,训练模块55在对声母、韵母和声调对应的DNN模型进行训练时,可以定义目标函数为声母、韵母和声调对应的DNN模型的输出结果与上述训练数据的标注结果的交叉熵的加权和,通过误差的反向传播更新上述DNN模型中的参数,使声母、韵母和声调对应的DNN模型的输出结果与上述训练数据的标注结果的误差越来越小,取最小的误差对应的DNN模型作为训练好的声母、韵母和声调对应的DNN模型,从而上述声母、韵母和声调对应的DNN模型对于声母、韵母和声调的识别具有较高的准确度。
上述基于深度神经网络的多音字读音的判别装置,利用待识别文本中汉字的双方向的上下文信息,确定汉字的读音,提高了读音判别的准确性,通过声母、韵母和声调对应的DNN模型对上述汉字的读音进行识别,可以有效缓解多音字高频音引起的训练样本不均衡的问题,并且上述声母、韵母和声调对应的DNN模型可以解决多个多音字的读音判别问题,有利于语音合成系统的集成。
图7为本申请计算机设备一个实施例的结构示意图,如图7所示,上述计算机设备可以包括存储器、处理器及存储在上述存储器上并可在上述处理器上运行的计算机程序,上述处理器执行上述计算机程序时,可以实现本申请实施例提供的基于深度神经网络的多音字读音的判别方法。
其中,上述计算机设备可以为终端设备,也可以为服务器,本实施例对上述计算机设备的形态不作限定,其中,上述终端设备可以为智能手机、平板电脑、笔记本电脑或PC等智能终端设备,本实施例对此不作限定。
图7示出了适于用来实现本申请实施方式的示例性计算机设备12的框图。图7显示的计算机设备12仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图7所示,计算机设备12以通用计算设备的形式表现。计算机设备12的组件可以包括但不限于:一个或者多个处理器或者处理单元16,系统存储器28,连接不同系统组件(包括系统存储器28和处理单元16)的总线18。
总线18表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及外围组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算机设备12典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备12访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器28可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)30和/或高速缓存存储器32。计算机设备12可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统34可以用于读写不可移动的、非易失性磁介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc Read OnlyMemory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线18相连。存储器28可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
具有一组(至少一个)程序模块42的程序/实用工具40,可以存储在例如存储器28中,这样的程序模块42包括——但不限于——操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块42通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备12也可以与一个或多个外部设备14(例如键盘、指向设备、显示器24等)通信,还可与一个或者多个使得用户能与该计算机设备12交互的设备通信,和/或与使得该计算机设备12能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口22进行。并且,计算机设备12还可以通过网络适配器20与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图7所示,网络适配器20通过总线18与计算机设备12的其它模块通信。应当明白,尽管图7中未示出,可以结合计算机设备12使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元16通过运行存储在系统存储器28中的程序,从而执行各种功能应用以及数据处理,例如实现本申请实施例提供的基于深度神经网络的多音字读音的判别方法。
本申请还提供一种非临时性计算机可读存储介质,其上存储有计算机程序,上述计算机程序被处理器执行时实现本申请实施例提供的基于深度神经网络的多音字读音的判别方法。
上述非临时性计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(Read Only Memory;以下简称:ROM)、可擦式可编程只读存储器(ErasableProgrammable Read Only Memory;以下简称:EPROM)或闪存、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LocalArea Network;以下简称:LAN)或广域网(Wide Area Network;以下简称:WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(Random AccessMemory;以下简称:RAM),只读存储器(Read Only Memory;以下简称:ROM),可擦除可编辑只读存储器(Erasable Programmable Read Only Memory;以下简称:EPROM)或闪速存储器,光纤装置,以及便携式光盘只读存储器(Compact Disc Read Only Memory;以下简称:CD-ROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(ProgrammableGate Array;以下简称:PGA),现场可编程门阵列(Field Programmable Gate Array;以下简称:FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种基于深度神经网络的多音字读音的判别方法,其特征在于,包括:
对待识别文本中的每个汉字进行量化编码,根据所述汉字的量化编码、所述汉字的分词词性和分词边界,以及所述汉字的多音字标识生成所述汉字的特征向量;
根据所述汉字的特征向量,结合双向的长短时记忆模型获取的所述汉字的双方向的上下文信息,生成所述汉字的输入特征;
将所述汉字的输入特征分别输入声母、韵母和声调对应的深层神经网络模型,分别获得所述汉字的读音的声母对应汉语拼音中每个声母的第一概率、所述汉字的读音的韵母对应汉语拼音中每个韵母的第二概率和所述汉字的读音的声调对应汉语拼音中每个声调的第三概率;
根据所述第一概率、所述第二概率和所述第三概率计算所述汉字的读音对应的声母、韵母和声调的各种组合的概率,以概率最高的组合作为所述汉字的读音。
2.根据权利要求1所述的方法,其特征在于,所述对待识别文本中的每个汉字进行量化编码包括:
利用语料库预训练得到的单字的字向量表示,对待识别文本中的每个汉字进行量化编码。
3.根据权利要求1所述的方法,其特征在于,所述双向的长短时记忆模型获取的所述汉字的双方向的上下文信息包括:所述汉字的从前至后和从后至前两个方向的上下文信息,所述上下文信息包括所述汉字所属的句子成分、所述汉字在句子中的位置和所述汉字的上下文文本中各分词的分词属性。
4.根据权利要求1-3任意一项所述的方法,其特征在于,所述将所述汉字的输入特征分别输入声母、韵母和声调对应的深层神经网络模型之前,还包括:
采用标注好的训练数据分别训练声母、韵母和声调对应的深层神经网络模型;
当声母、韵母和声调对应的深层神经网络模型的输出结果与所述训练数据的标注结果的误差最小时,获得训练好的声母、韵母和声调对应的深层神经网络模型,所述训练数据的标注结果包括所述训练数据的正确的声母、韵母和声调的信息。
5.一种基于深度神经网络的多音字读音的判别装置,其特征在于,包括:
编码模块,用于对待识别文本中的每个汉字进行量化编码;
生成模块,用于根据所述汉字的量化编码、所述汉字的分词词性和分词边界,以及所述汉字的多音字标识生成所述汉字的特征向量;以及根据所述汉字的特征向量,结合双向的长短时记忆模型获取的所述汉字的双方向的上下文信息,生成所述汉字的输入特征;
获得模块,用于将所述生成模块生成的所述汉字的输入特征分别输入声母、韵母和声调对应的深层神经网络模型,分别获得所述汉字的读音的声母对应汉语拼音中每个声母的第一概率、所述汉字的读音的韵母对应汉语拼音中每个韵母的第二概率和所述汉字的读音的声调对应汉语拼音中每个声调的第三概率;
确定模块,用于根据所述第一概率、所述第二概率和所述第三概率计算所述汉字的读音对应的声母、韵母和声调的各种组合的概率,以概率最高的组合作为所述汉字的读音。
6.根据权利要求5所述的装置,其特征在于,
所述编码模块,具体用于利用语料库预训练得到的单字的字向量表示,对待识别文本中的每个汉字进行量化编码。
7.根据权利要求5所述的装置,其特征在于,所述双向的长短时记忆模型获取的所述汉字的双方向的上下文信息包括:所述汉字的从前至后和从后至前两个方向的上下文信息,所述上下文信息包括所述汉字所属的句子成分、所述汉字在句子中的位置和所述汉字的上下文文本中各分词的分词属性。
8.根据权利要求5-7任意一项所述的装置,其特征在于,还包括:
训练模块,用于在所述获得模块将所述汉字的输入特征分别输入声母、韵母和声调对应的深层神经网络模型之前,采用标注好的训练数据分别训练声母、韵母和声调对应的深层神经网络模型;当声母、韵母和声调对应的深层神经网络模型的输出结果与所述训练数据的标注结果的误差最小时,获得训练好的声母、韵母和声调对应的深层神经网络模型,所述训练数据的标注结果包括所述训练数据的正确的声母、韵母和声调的信息。
9.一种计算机设备,其特征在于,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时,实现如权利要求1-4中任一所述的方法。
10.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-4中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710876713.8A CN107729313B (zh) | 2017-09-25 | 2017-09-25 | 基于深度神经网络的多音字读音的判别方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710876713.8A CN107729313B (zh) | 2017-09-25 | 2017-09-25 | 基于深度神经网络的多音字读音的判别方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107729313A true CN107729313A (zh) | 2018-02-23 |
CN107729313B CN107729313B (zh) | 2021-09-17 |
Family
ID=61206845
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710876713.8A Active CN107729313B (zh) | 2017-09-25 | 2017-09-25 | 基于深度神经网络的多音字读音的判别方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107729313B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670014A (zh) * | 2018-11-21 | 2019-04-23 | 北京大学 | 一种基于规则匹配和机器学习的论文作者名消歧方法 |
CN110189744A (zh) * | 2019-04-09 | 2019-08-30 | 阿里巴巴集团控股有限公司 | 文本处理的方法、装置和电子设备 |
CN110619112A (zh) * | 2019-08-08 | 2019-12-27 | 北京金山安全软件有限公司 | 用于汉字的读音标注方法、装置、电子设备及存储介质 |
CN110782883A (zh) * | 2019-11-12 | 2020-02-11 | 百度在线网络技术(北京)有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
CN111145718A (zh) * | 2019-12-30 | 2020-05-12 | 中国科学院声学研究所 | 一种基于自注意力机制的中文普通话字音转换方法 |
CN111144110A (zh) * | 2019-12-27 | 2020-05-12 | 科大讯飞股份有限公司 | 拼音标注方法、装置、服务器及存储介质 |
CN112037756A (zh) * | 2020-07-31 | 2020-12-04 | 北京搜狗科技发展有限公司 | 语音处理方法、装置和介质 |
CN112151072A (zh) * | 2020-08-21 | 2020-12-29 | 北京搜狗科技发展有限公司 | 语音处理方法、装置和介质 |
CN112818657A (zh) * | 2019-11-15 | 2021-05-18 | 北京字节跳动网络技术有限公司 | 多音字读音的确定方法、装置、电子设备及存储介质 |
CN112818089A (zh) * | 2021-02-23 | 2021-05-18 | 掌阅科技股份有限公司 | 文本注音方法、电子设备及存储介质 |
CN113268989A (zh) * | 2021-05-14 | 2021-08-17 | 北京金山数字娱乐科技有限公司 | 多音字处理方法及装置 |
CN113268974A (zh) * | 2021-05-18 | 2021-08-17 | 平安科技(深圳)有限公司 | 多音字发音标注方法、装置、设备及存储介质 |
CN113302683A (zh) * | 2019-12-24 | 2021-08-24 | 深圳市优必选科技股份有限公司 | 多音字预测方法及消歧方法、装置、设备及计算机可读存储介质 |
CN113887200A (zh) * | 2021-09-29 | 2022-01-04 | 平安银行股份有限公司 | 文本变长纠错方法、装置、电子设备及存储介质 |
CN115273809A (zh) * | 2022-06-22 | 2022-11-01 | 北京市商汤科技开发有限公司 | 多音字读音预测网络的训练方法、语音生成方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103365925A (zh) * | 2012-04-09 | 2013-10-23 | 高德软件有限公司 | 获取多音字拼音、基于拼音检索的方法及其相应装置 |
CN105336322A (zh) * | 2015-09-30 | 2016-02-17 | 百度在线网络技术(北京)有限公司 | 多音字模型训练方法、语音合成方法及装置 |
CN105654939A (zh) * | 2016-01-04 | 2016-06-08 | 北京时代瑞朗科技有限公司 | 一种基于音向量文本特征的语音合成方法 |
US20160351188A1 (en) * | 2015-05-26 | 2016-12-01 | Google Inc. | Learning pronunciations from acoustic sequences |
CN106601228A (zh) * | 2016-12-09 | 2017-04-26 | 百度在线网络技术(北京)有限公司 | 基于人工智能韵律预测的样本标注方法及装置 |
CN106649749A (zh) * | 2016-12-26 | 2017-05-10 | 浙江传媒学院 | 一种基于汉语音位特征的文本查重方法 |
CN106910497A (zh) * | 2015-12-22 | 2017-06-30 | 阿里巴巴集团控股有限公司 | 一种中文词语发音预测方法及装置 |
-
2017
- 2017-09-25 CN CN201710876713.8A patent/CN107729313B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103365925A (zh) * | 2012-04-09 | 2013-10-23 | 高德软件有限公司 | 获取多音字拼音、基于拼音检索的方法及其相应装置 |
US20160351188A1 (en) * | 2015-05-26 | 2016-12-01 | Google Inc. | Learning pronunciations from acoustic sequences |
CN105336322A (zh) * | 2015-09-30 | 2016-02-17 | 百度在线网络技术(北京)有限公司 | 多音字模型训练方法、语音合成方法及装置 |
CN106910497A (zh) * | 2015-12-22 | 2017-06-30 | 阿里巴巴集团控股有限公司 | 一种中文词语发音预测方法及装置 |
CN105654939A (zh) * | 2016-01-04 | 2016-06-08 | 北京时代瑞朗科技有限公司 | 一种基于音向量文本特征的语音合成方法 |
CN106601228A (zh) * | 2016-12-09 | 2017-04-26 | 百度在线网络技术(北京)有限公司 | 基于人工智能韵律预测的样本标注方法及装置 |
CN106649749A (zh) * | 2016-12-26 | 2017-05-10 | 浙江传媒学院 | 一种基于汉语音位特征的文本查重方法 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109670014B (zh) * | 2018-11-21 | 2021-02-19 | 北京大学 | 一种基于规则匹配和机器学习的论文作者名消歧方法 |
CN109670014A (zh) * | 2018-11-21 | 2019-04-23 | 北京大学 | 一种基于规则匹配和机器学习的论文作者名消歧方法 |
CN110189744A (zh) * | 2019-04-09 | 2019-08-30 | 阿里巴巴集团控股有限公司 | 文本处理的方法、装置和电子设备 |
CN110619112A (zh) * | 2019-08-08 | 2019-12-27 | 北京金山安全软件有限公司 | 用于汉字的读音标注方法、装置、电子设备及存储介质 |
CN110619112B (zh) * | 2019-08-08 | 2024-03-05 | 北京金山安全软件有限公司 | 用于汉字的读音标注方法、装置、电子设备及存储介质 |
CN110782883A (zh) * | 2019-11-12 | 2020-02-11 | 百度在线网络技术(北京)有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
CN112818657A (zh) * | 2019-11-15 | 2021-05-18 | 北京字节跳动网络技术有限公司 | 多音字读音的确定方法、装置、电子设备及存储介质 |
CN112818657B (zh) * | 2019-11-15 | 2024-04-26 | 北京字节跳动网络技术有限公司 | 多音字读音的确定方法、装置、电子设备及存储介质 |
CN113302683B (zh) * | 2019-12-24 | 2023-08-04 | 深圳市优必选科技股份有限公司 | 多音字预测方法及消歧方法、装置、设备及计算机可读存储介质 |
CN113302683A (zh) * | 2019-12-24 | 2021-08-24 | 深圳市优必选科技股份有限公司 | 多音字预测方法及消歧方法、装置、设备及计算机可读存储介质 |
CN111144110A (zh) * | 2019-12-27 | 2020-05-12 | 科大讯飞股份有限公司 | 拼音标注方法、装置、服务器及存储介质 |
CN111144110B (zh) * | 2019-12-27 | 2024-06-04 | 科大讯飞股份有限公司 | 拼音标注方法、装置、服务器及存储介质 |
CN111145718A (zh) * | 2019-12-30 | 2020-05-12 | 中国科学院声学研究所 | 一种基于自注意力机制的中文普通话字音转换方法 |
CN112037756A (zh) * | 2020-07-31 | 2020-12-04 | 北京搜狗科技发展有限公司 | 语音处理方法、装置和介质 |
CN112151072A (zh) * | 2020-08-21 | 2020-12-29 | 北京搜狗科技发展有限公司 | 语音处理方法、装置和介质 |
CN112818089A (zh) * | 2021-02-23 | 2021-05-18 | 掌阅科技股份有限公司 | 文本注音方法、电子设备及存储介质 |
CN112818089B (zh) * | 2021-02-23 | 2022-06-03 | 掌阅科技股份有限公司 | 文本注音方法、电子设备及存储介质 |
CN113268989A (zh) * | 2021-05-14 | 2021-08-17 | 北京金山数字娱乐科技有限公司 | 多音字处理方法及装置 |
CN113268974A (zh) * | 2021-05-18 | 2021-08-17 | 平安科技(深圳)有限公司 | 多音字发音标注方法、装置、设备及存储介质 |
CN113887200A (zh) * | 2021-09-29 | 2022-01-04 | 平安银行股份有限公司 | 文本变长纠错方法、装置、电子设备及存储介质 |
CN113887200B (zh) * | 2021-09-29 | 2024-09-27 | 平安银行股份有限公司 | 文本变长纠错方法、装置、电子设备及存储介质 |
CN115273809A (zh) * | 2022-06-22 | 2022-11-01 | 北京市商汤科技开发有限公司 | 多音字读音预测网络的训练方法、语音生成方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107729313B (zh) | 2021-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107729313A (zh) | 基于深度神经网络的多音字读音的判别方法和装置 | |
US12056458B2 (en) | Translation method and apparatus based on multimodal machine learning, device, and storage medium | |
CN107767870A (zh) | 标点符号的添加方法、装置和计算机设备 | |
CN113205817B (zh) | 语音语义识别方法、系统、设备及介质 | |
CN108062388A (zh) | 人机对话的回复生成方法和装置 | |
CN109670029A (zh) | 用于确定问题答案的方法、装置、计算机设备及存储介质 | |
CN110196894A (zh) | 语言模型的训练方法和预测方法 | |
CN112487182A (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN103578464A (zh) | 语言模型的建立方法、语音辨识方法及电子装置 | |
CN112528649B (zh) | 针对多语言混合文本的英文拼音识别方法和系统 | |
CN110276396B (zh) | 基于物体显著性和跨模态融合特征的图片描述生成方法 | |
CN110851601A (zh) | 基于分层注意力机制的跨领域情感分类系统及方法 | |
CN110377882A (zh) | 用于确定文本的拼音的方法、装置、系统和存储介质 | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
CN110457683A (zh) | 模型优化方法、装置、计算机设备及存储介质 | |
CN113095063B (zh) | 一种基于遮蔽语言模型的两阶段情感迁移方法和系统 | |
CN114461806A (zh) | 广告识别模型的训练方法及装置、广告屏蔽方法 | |
CN113095072A (zh) | 文本处理方法及装置 | |
CN117574892A (zh) | 文本立场分析方法、装置、设备及存储介质 | |
CN117290515A (zh) | 文本标注模型的训练方法、文生图方法及装置 | |
CN113095066A (zh) | 文本处理方法及装置 | |
CN111914084A (zh) | 一种基于深度学习的带有情感标签文本生成及评估系统 | |
CN112883188A (zh) | 一种情感分类方法、装置、电子设备和存储介质 | |
CN113378541B (zh) | 文本标点预测方法、装置、系统及存储介质 | |
CN111104806A (zh) | 神经机器翻译模型的构建方法及装置、翻译方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |