CN109271636A - 词嵌入模型的训练方法及装置 - Google Patents

词嵌入模型的训练方法及装置 Download PDF

Info

Publication number
CN109271636A
CN109271636A CN201811093148.9A CN201811093148A CN109271636A CN 109271636 A CN109271636 A CN 109271636A CN 201811093148 A CN201811093148 A CN 201811093148A CN 109271636 A CN109271636 A CN 109271636A
Authority
CN
China
Prior art keywords
word
near synonym
target
training
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811093148.9A
Other languages
English (en)
Other versions
CN109271636B (zh
Inventor
杨凯程
李健铨
刘小康
陈玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dinfo Beijing Science Development Co ltd
Original Assignee
Beijing Shenzhou Taiyue Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Shenzhou Taiyue Software Co Ltd filed Critical Beijing Shenzhou Taiyue Software Co Ltd
Priority to CN201811093148.9A priority Critical patent/CN109271636B/zh
Publication of CN109271636A publication Critical patent/CN109271636A/zh
Application granted granted Critical
Publication of CN109271636B publication Critical patent/CN109271636B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例公开一种词嵌入模型的训练方法及装置,该方法包括:利用词嵌入矩阵,将训练样本的输入词向量化表示为第一向量;根据所述第一向量得到预测词;利用所述预测词,以及所述输入词所对应的真实词,更新所述输入词在词嵌入矩阵中所对应的参数;获取目标词的近义词集,所述目标词包括所述输入词或所述真实词;更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数,以缩短所述近义词集中每一个近义词与所述目标词之间的距离。通过这样的方法不断训练,使每一个目标词的近义词集中的近义词都朝着该目标词聚拢,从而将一个词的近义词与其反义词区分开来,以此减轻词嵌入的极性问题,同时也不会导致整个词向量空间紊乱。

Description

词嵌入模型的训练方法及装置
技术领域
本发明涉及自然语言处理技术领域,具体涉及一种词嵌入模型的训练方法及装置。
背景技术
在自然语言处理(Natural Language Processing,NLP)领域,词的表示方法有独热表示(one-hot representation)和分布式表示(distributed representation)两大类,其中,分布式表示是基于分布假说(Distributional Hypothesis),它的核心思想由两部分组成:一、选择一种方式描述上下文;二、选择一种模型来刻画某个词(即中心词)与其上下文之间的关系。根据建模的不同,词的分布式表示主要可以分为三类:基于矩阵的分布表示、基于聚类的分布表示和基于神经网络的分布表示。其中,基于神经网络的分布式表示一般也被称为词嵌入(word embedding),主要是通过神经网络技术对中心词的上下文,以及上下文与中心词之间的关系进行建模。词嵌入是一种低维实数向量,例如[0.792,-0.177,-0.107,0.109,-0.542,…],其维度可以是50维、100维等。
连续词袋模型(Continous Bag of Words Model,CBOW)和Skip-gram模型是Mikolov等人提出的神经网络语言模型,可以用来训练以得到语料库中每一个词的词嵌入。CBOW是统计语言模型的一种,请参考图1,其主要思想是根据中心词(w(t))的上下文,即中心词前面的C个词(例如w(t-2)、w(t-1)等)以及后面的C个词(例如w(t+1)、w(t+2)等),来计算中心词的概率。与CBOW相反,请参考图2,Skip-Gram模型的主要思想是根据中心词(w(t))来分别计算它前后的词(例如w(t-2)、w(t-1)、w(t+1)、w(t+2)等)的概率。
但是,采用CBOW、Skip-gram模型等训练出来的词嵌入在表示能力上还存在缺陷,极性问题较为严重。具体来说,当计算两个词的相似度时,通常是将两个词各自的词嵌入代入到欧式距离或者余弦距离的公式中来计算。但是无论是采用欧式距离还是余弦距离来表示两个词的相似度,经常会出现这样的错误——语义相反的词之间的距离反而比语义一致的词之间的距离更近。例如“开心”与“快乐”的语义一致,利用CBOW、Skip-gram模型等训练得到的词嵌入来计算二者的语义相似度P1;“开心”与“不开心”的语义相反,同样利用CBOW、Skip-gram模型等训练得到的词嵌入来计算二者的语义相似度P2。理应P1>P2,但实际计算出来却可能是P1<P2。
由于采用CBOW、Skip-gram模型等训练出来的词嵌入存在这样的极性问题,进而导致进行文本匹配、文本分类等自然语言处理任务的时候容易出错,匹配到完全不同的句子,或者将语义相反的两个文本分类到同一个类别中,这是本领域技术人员亟待解决的问题。
发明内容
为解决上述技术问题,本申请提供一种新的词嵌入模型的训练方法,可以局部调整一个词的所有近义词与其之间的距离。通过这样的方法训练得到的词嵌入矩阵,能够更好地区分近义词和反义词,从而有效地减轻词嵌入的极性问题。
第一方面,本申请提供一种词嵌入模型的训练方法,包括以下步骤:
利用词嵌入矩阵,将训练样本的输入词向量化表示为第一向量;
根据所述第一向量得到预测词;
利用所述预测词,以及所述输入词所对应的真实词,更新所述输入词在词嵌入矩阵中所对应的参数;
获取目标词的近义词集,所述目标词包括所述输入词或所述真实词;
更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数,以缩短所述近义词集中每一个近义词与所述目标词之间的距离。
结合第一方面,在第一方面第一种可能的实现方式中,所述词嵌入模型的目标函数为:
L(H)=L+α·J(wt,wsyn),
其中,L为第一目标函数,表示CBOW模型或Skip模型的目标函数;
wt表示目标词,wsyn表示目标词的近义词集;
J(wt,wsyn)为第二目标函数,表示目标词的近义词集中每一个近义词与所述目标词之间的距离;
α表示影响因子。
结合第一方面的第一种实现方式,在第一方面第二种可能的实现方式中,
其中,wt表示目标词,wi表示所述近义词集中的一个近义词;
J(wt,wi)表示近义词集中一个近义词wi与目标词wt之间的距离。
结合第一方面的第二种实现方式,在第一方面第三种可能的实现方式中,更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数的步骤,包括:
wij (new)=wij+η·Gradient(wij),
其中,wij (new)表示近义词集中的近义词wi的第j维在更新后的值;
η表示第二学习率;
Gredient(wij)表示近义词集中的近义词wi的第j维的更新梯度;
表示目标词wt与一个近义词wi之间的距离值,对wi的第j维的偏导数;
wij表示近义词wi的第j维在更新之前的值;
wtj表示目标词的第j维的值。
结合第一方面的第三种实现方式,在第一方面第四种可能的实现方式中,第二学习率η通过以下方式得到:
η=α·μ,
其中,α表示影响因子;
μ表示第一学习率;
μ0表示第一学习率预设初始值;
train_words表示训练语料的总词数;
word_ca表示当前已经训练过的输入词的数量;
iter表示当前训练的迭代轮次。
结合第一方面的第三种或第四种实现方式,在第一方面第五种可能的实现方式中,当更新梯度Gredient(wij)的绝对值>max_Gradient时,取所述Gradient(wij)=max_Gradient;
其中,max_Gradient为梯度最大值;
starting_m G表示梯度最大值的预设初始值;
train_words表示训练语料的总词数;
word_ca表示当前已经训练过的输入词的数量;
iter表示当前训练的迭代轮次。
结合第一方面及上述可能的实现方式,在第一方面第六种可能的实现方式中,当所述词嵌入模型基于CBOW模型时,所述训练样本的输入词为上下文词,所述预测词为中心词的预测值,所述真实词为中心词的真实值。
结合第一方面的第六种实现方式,在第一方面第七种可能的实现方式中,所述利用词嵌入矩阵,将训练样本的输入词向量化表示为第一向量的步骤,包括:
确定至少两个上下文词;
利用词嵌入矩阵分别确定所述至少两个上下文词的向量表示;
将所述至少两个上下文词的向量表示累加,得到第一向量。
结合第一方面及上述可能的实现方式,在第一方面第八种可能的实现方式中,当所述词嵌入模型基于Skip模型时,所述训练样本的输入词为中心词,所述预测词为上下文词的预测值,所述真实词为上下文词的真实值。
第二方面,本申请提供一种词嵌入模型的训练装置,包括:
第一处理单元,用于利用词嵌入矩阵,将训练样本的输入词向量化表示为第一向量;根据所述第一向量得到预测词;利用所述预测词,以及所述输入词所对应的真实词,更新所述输入词在词嵌入矩阵中所对应的参数;
第二处理单元,用于获取目标词的近义词集,以及,更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数,以缩短所述近义词集中每一个近义词与所述目标词之间的距离;其中,所述目标词包括所述输入词或所述真实词。
上述技术方案中的方法和装置,利用目标词的近义词集构造一个远程监督函数,将其与常规模型的目标函数合在一起,从而使二者做联合学习。即,一方面,利用词嵌入矩阵,将输入词向量化表示为第一向量,根据第一向量得到预测词,利用预测词以及输入词所对应的真实词,更新所述输入词在词嵌入矩阵中所对应的参数;另一方面,获取目标词的近义词集,这里的目标词包括输入词或真实词;然后更新近义词集中的所有近义词在词嵌入矩阵所对应的参数,以缩短每一个近义词与目标词之间的距离。通过这样的方法不断训练,不断更新词嵌入矩阵中的参数,使每一个目标词的近义词集中的近义词都朝着该目标词聚拢,进而使得在最终训练得到的词嵌入矩阵中,一个词与其近义词的距离小于该词与其反义词的距离。
上述训练方法中,除了利用语言单位的组合关系之外,还引入了语言单位之间的聚合关系,从而可以很好地将一个词的近义词与其反义词区分开来,以此减轻词嵌入的极性问题。同时,这样训练得到的词嵌入也不会导致整个词向量空间紊乱。相比于采用常规的词嵌入模型所训练得到的词嵌入而言,将这样的方法所训练得到的词嵌入应用到文本语义匹配、文本分类等自然语言处理任务中,可以使匹配或分类的准确率更高,取得更加令人满意的效果,尤其适合应用在文本匹配相关的自然语言处理任务中。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为CBOW模型的原理示意图;
图2为Skip模型的原理示意图;
图3为CBOW模型的结构及工作原理示意图;
图4为本申请的词嵌入模型的训练方法的一个实施例的流程图;
图5为获取目标词的近义词集的一个实例示意图;
图6为采用本申请的训练方法将目标词的近义词聚拢之前和之后的效果示意图;
图7为本申请的词嵌入模型的训练装置的一个实施例的结构示意图。
附图标记说明:
目标词的近义词聚拢之前的范围1;目标词的近义词聚拢之后的范围2;目标词3;第一处理单元4;第二处理单元5。
具体实施方式
像CBOW、Skip这样的词嵌入模型,一般包括三层结构:输入层、投影层和输出层。以下以CBOW模型为例来具体说明其工作原理。
请参考图3,在输入层内具有一个词嵌入矩阵,包括了训练语料中的所有词(n个)的初始向量表示,该词嵌入矩阵为n×d的矩阵,其中每一个词对应的初始向量表示都可以是随机设定或预设的。在输入层中,利用该词嵌入矩阵,获取中心词(w(t))的上下文,即中心词前面的C个词(例如w(t-2)、w(t-1)等)以及后面的C个词(例如w(t+1)、w(t+2)等)的向量表示,即2C个上下文词的向量表示。投影层中具有m个神经元,输入层到投影层的权值表示为V,投影层到输出层的权值表示为U。这里V和U也都是矩阵,在训练的初始可以随机设置权值V和权值U。将上下文词的向量表示映射到投影层上的神经元之后,再映射到输出层,从输出层输出预测到的中心词(预测词)。根据预测的中心词(预测词),以及实际的中心词(真实词),采用梯度下降法来更新词嵌入矩阵、权值V和权值U。直到所有的训练样本都迭代训练了预设的次数,或者满足预设的停止条件,则认为训练完成。此时的权值V和权值U就是模型的最优参数,同时此时的词嵌入矩阵就是训练得到的词嵌入矩阵,其中包含了训练语料中每一个词的向量表示,即词嵌入,每一个词的词嵌入的维度为1×d。
对于一个词嵌入模型而言,其目标函数用于计算预测到预测词与真实词之间的误差,并用于通过反向传播的方法来更新模型中的参数,包括前述的词嵌入矩阵、参数U和V等。
像CBOW、Skip这样的词嵌入模型,其目标函数是似然对数函数。
CBOW的目标函数如下:
Sikp的目标函数如下:
其中,w表示中心词,Context(x)表示上下文词,C表示语料库中所有的词。
在语言学里面,语言单位之间的关系包括了组合关系和聚合关系。
组合关系是语言单位之间的横向关系。语言是一个线性结构,要表达一定意义的一个句子通常需要许多语言单位组合在一起。这些语言单位在组合过程中有一定的顺序和选择对象,并不是任意组合的,例如:肉-吃,雪-冷,医生-医院等。
聚合关系是语言单位之间的纵向关系。具有聚合关系的语言单位在一个句子中可能出现在同一个位置上,具有相同的功能,在符合语法要求的情况下可以相互替换。例如,“你是一个好学生”以及“你是一个坏学生”这两个句子中,“好”和“坏”这两个词可以相互替换,不会影响语法结构。与一个词具有聚合关系的词,可以包括其近义词、同类别词、反义词等。
现有的像CBOW、Skip这样的词嵌入模型,是基于上下文概率最大化为优化目标的模型,在语言学里面就是利用句子中语言单位之间的组合关系来进行预测。而利用这样的模型训练后得到的词嵌入之所以存在极性问题,主要是由于模型本身是基于语言单位之间的组合关系而构建的,而词嵌入的极性问题其本质上属于语言单位之间的聚合关系,故而利用CBOW、Skip等词嵌入模型难以准确地表示出语言单位之间的聚合关系。
为了能够有效区分近、反义词,一种实现方式是引入近义词集和反义词集,构造一个远程监督的函数去区分近、反义词,然后和原始词嵌入模型的优化目标函数一起做联合学习。但是在实现该方案的过程中,发明人发现,使近、反义词移动,缩短每一对近义词之间的距离,放大每一对反义词之间的距离,虽然可以较好地区分近、反义词,但会破坏整个词向量空间。具体来说,在整个词向量空间中,词之间是很密集的,每一维的值差距特别小。例如,将50万个词都压缩在200维的浮动数字上,每一维的数字都小于1,并且每一维的数字的差基本都只有零点零几。CBOW、Skip等模型训练得到的词嵌入,其相对位置都是较为合理的,只是存在有些近、反义词区分不了的问题。而如果将近、反义词大面积移动,就会造成整个词向量空间的紊乱。例如,“提升”这个词,其移动到了靠近“苹果”的位置,虽然其与“降低”的距离更远了,可以很好地被区分开,但是这使得动词都移动到了名词的位置,从而造成了词向量空间的紊乱。这样得到的词嵌入用在后续的自然语言处理任务(例如分类、匹配、语义相关推理等)中,处理的效果较差。
故而,本申请提供一种新的词嵌入模型(在本申请中将其称之为UnidirectionalMovement of Synonym Model,即UMS模型)的训练方法,在现有的词嵌入模型的基础上进行了改进,引入一个远程监督榜样,使二者做联合训练。以使目标词的近义词词集中的近义词都朝着目标词聚拢,从而对目标词的近义词做局部调整,以便可以将目标词的近义词和反义词区分开来,同时不会导致整个词向量空间紊乱。
具体来说,以下将详细描述利用一个训练样本来训练该词嵌入模型的过程,请参考图4,包括以下S100至S500的步骤。
S100:利用词嵌入矩阵,将训练样本的输入词向量化表示为第一向量。
这里的词嵌入矩阵,包括语料库中所有训练语料中的词的向量表示。例如,语料库中所有训练语料中一共包含了1000个不同的词,预设每个词都采用200维的向量来表示,则词嵌入矩阵为一个1000×200的矩阵,其中每一行对应表示一个语料库中的词。这里,词嵌入矩阵中的每一个元素的初始值可以为随机值,也可以为预设值,随着训练的进行,词嵌入矩阵中的元素的值会被不断更新。
训练样本来自训练语料,包括了输入词和与之对应的真实词。在一种实现方式中,可以将该真实词以标签的形式标注在对应的输入词上。以训练语料中的一句文本“他是一个好学生”为例,这句话中包含了多个训练样本。用于训练CBOW模型,每个训练样本包括了上下文词以及中心词的真实值,这里的上下文词就是输入词,中心词的真实值就是真实词。从训练语料中获取训练样本的过程中,可以设置取词的窗口大小。例如,当窗口大小为2时,输入词是“他”、“是”、“好”、“学生”,与之对应的真实词为“一个”。又例如,输入词是“是”、“一个”、“学生”,与之对应的真实词为“好”。用于训练Skip模型,每个训练样本包括了中心词以及上下文词的真实值,这里的中心词就是输入词,上下文词的真实值就是真实词。例如,输入词是“一个”,与之对应的真实词为“他”、“是”、“好”、“学生”。又例如,输入词是“好”,与之对应的真实词为“是”、“一个”、“学生”。
将输入词向量化表示的方法,在一种实现方式中,当本申请中的词嵌入模型(即USM模型)基于CBOW模型时,也就是说UMS模型是在CBOW模型的基础上改进而成的模型,此时,所述输入词为上下文词。在大部分情况下,上下文词往往有至少两个。此时,S100的步骤可以包括:
S101:确定至少两个上下文词;
S102:利用词嵌入矩阵分别确定所述至少两个上下文词的向量表示;
S103:将所述至少两个上下文词的向量表示累加,得到第一向量。
从当前的词嵌入矩阵中查找出每一个上下文词对应的向量表示,然后将所有上下文词的向量累加,就得到了第一向量。举例来说,如果上下文词共2个——“一个”和“学生”,从1000×200的词嵌入矩阵中查找到“一个”的向量v1为[0.790,-0.117,-0.107,……],“学生”的v2向量[0.176,0.354,-0.835……],二者均是200维的向量。将v1和v2对应的列的元素值分别相加,就得到了第一向量,即[0.966,0.237,-0.942,……]。
当获取训练样本的过程中窗口大小为1,并且中心词为训练语料的第一个词或最后一个词时,训练样本中作为输入词的上下文词仅有1个。此时,从词嵌入矩阵中查找到该上下文词的向量表示,直接将该向量表示作为第一向量,用于后续步骤中进行预测。
在另一种实现方式中,当词嵌入模型(即USM模型)基于Skip模型时,也就是说UMS模型是在Skip模型的基础上改进而成的模型,此时,所述输入词为中心词。一般来说,中心词只取一个,因此,从当前的词嵌入矩阵中查找到该中心词对应的向量表示,该向量表示就是第一向量。
S200:根据所述第一向量得到预测词。
对于常规的词嵌入模型,例如CBOW、Skip这样的词嵌入模型而言,将一个向量作为词嵌入模型的输入值,经过模型预测就会得到预测词。这里,根据第一向量得到预测词的过程,可以与现有的CBOW、Skip等模型的预测过程一致,此处不再赘述。
S300:利用所述预测词,以及所述输入词所对应的真实词,更新所述输入词在词嵌入矩阵中所对应的参数。
在训练的过程中,利用输入词预测得到的预测词往往与真实词存在一定的误差,可以根据二者的误差来更新词嵌入矩阵中与当前输入词对应的参数。例如,如果输入词中包括了“学生”这个词,就会更新词嵌入矩阵中“学生”一词所对应的向量中的部分或全部元素的值。这里,更新词嵌入矩阵的具体方法可以采用现有的方法,例如梯度下降法等,此处不再赘述。
此外,在更新词嵌入矩阵的同时,还会根据预测词和真实词来更新词嵌入模型中各层之间的权值等参数。
当所述词嵌入模型(UMS模型)是基于CBOW模型这样的利用上下文词来预测中心词的模型时,所述输入词为上下文词,所述预测词为中心词的预测值,所述真实词为中心词的真实值。当所述词嵌入模型(UMS模型)是基于Skip模型这样的利用中心词来预测上下文词的模型时,所述输入词为中心词,所述预测词为上下文词的预测值,所述真实词为上下文词的真实值。
在本实施例中,词嵌入模型(UMS模型)的目标函数可以是:
L(H)=L+α·J(wt,wsyn) (1)
其中,L为第一目标函数,表示CBOW模型或Skip模型的目标函数。
前述步骤S300中更新输入词在词嵌入矩阵中所对应的参数的过程,主要就是依据该第一目标函数。
α·J(wt,wsyn)是用于调整近义词集中的近义词与目标词之间的距离的目标函数,其含义将在后续的S500的步骤中进行详细的说明。
S400:获取目标词的近义词集,所述目标词包括所述输入词或所述真实词。
目标词可以是输入词和真实词中的任一个。针对目标词,可以在预设的近义词库中查找,确定该目标词的至少一个近义词,获取至少一个近义词所组成的近义词集。例如,请参考图5,其中,输入词包括“build”、“your”、“home”、“now”共4个词,真实词为“smart”。将真实词“smart”作为目标词,可以获取到该目标词的近义词集,其中包括了3个近义词,分别为“wise”、“intelligent”和“clever”。
这里需要说明的是,此步骤中获取的近义词集中的每一个近义词,必然包含在语料库的所有词中,如果一个目标词在预设的近义词库中存在4个近义词,而其中一个是不在语料库的所有词中的,那么这个词就没必要作为该目标词的近义词而引入到训练过程中来。例如前述的例子中,预设的近义词库中“smart”的近义词还包括“bright”,但训练该词嵌入模型所采用的语料库的所有词中并没有“bright”一词,则获取的近义词集中就不包含“bright”。
另外需要说明的是,尽管该例子中以英语单词为例来说明,但是,本申请的训练方法可以适用于中文、英文、日文等多种语言,并仅限于本申请例子中的几种语言。
S500:更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数,以缩短所述近义词集中每一个近义词与所述目标词之间的距离。
这里近义词与目标词之间的距离,可以采用余弦距离来表示。通过更新近义词集中的所有近义词在词嵌入矩阵中各自对应的参数,即更新这些近义词在词嵌入矩阵中各自对应的向量中部分或全部元素的值,从而缩短近义词集中每一个词与目标词的距离,进而使目标词与近义词的距离小于目标词与其反义词的距离,以减少词嵌入的极性问题。
S100至S500的步骤仅仅是描述了利用一个训练样本进行训练的过程,通常训练时需要将语料库中包含的所有训练样本都训练一遍,视为训练了一个迭代轮次,一般需要迭代训练一个或多个轮次才会完成训练。具体迭代轮次可以是由用户预设,例如可以为4次或5次等。每一轮的每一次训练,都可能会更新词嵌入矩阵中的参数。当训练完成后,就得到了最终的词嵌入矩阵。
在S400的步骤中,可以将输入词中的一个或多个词,或者真实词中的一个或多个词作为目标词,也可以将输入词中的一个或多个词,以及真实词中的一个或多个词作为目标词都作为目标词。也就是说,对于利用一个训练样本的训练过程而言,目标词可以有多个。此时,可以分别获取每一个目标词所对应的近义词,然后分别调整各个目标词的近义词与对应的目标词之间的距离,即重复执行S400和S500的步骤即可。
在上述技术方案中,利用目标词的近义词集构造一个远程监督函数,将其与常规模型的目标函数合在一起,从而使二者做联合学习。即,一方面,利用词嵌入矩阵,将输入词向量化表示为第一向量,根据第一向量得到预测词,利用预测词以及输入词所对应的真实词,更新所述输入词在词嵌入矩阵中所对应的参数;另一方面,获取目标词的近义词集,这里的目标词包括输入词或真实词;然后更新近义词集中的所有近义词在词嵌入矩阵所对应的参数,以缩短每一个近义词与目标词之间的距离。通过这样的方法不断训练,不断更新词嵌入矩阵中的参数,使每一个目标词的近义词集中的近义词都朝着该目标词聚拢,进而使得在最终训练得到的词嵌入矩阵中,一个词与其近义词的距离小于该词与其反义词的距离。图6示出了一个目标词的近义词集聚拢前后的效果示意图。在聚拢之前,目标词的近义词距其的距离在圈1内,此时,该目标词3的部分反义词与之的距离反而比部分近义词与之的距离更近。在聚拢之后,目标词3周围的近义词与之的距离由圈1所示的距离缩小至圈2所示的距离,此时,目标词3的所有近义词与之的距离都小于任何一个反义词与之的距离。
上述训练方法中,除了利用语言单位的组合关系之外,还引入了语言单位之间的聚合关系,从而可以很好地将一个词的近义词与其反义词区分开来,以此减轻词嵌入的极性问题。同时,这样训练得到的词嵌入仅仅进行了局部调整,而不会导致整个词向量空间紊乱。相比于采用常规的词嵌入模型所训练得到的词嵌入而言,将这样的词嵌入应用到文本语义匹配、文本分类等自然语言处理任务中,可以使匹配或分类的准确率更高,取得更加令人满意的效果,尤其适合应用在文本匹配相关的自然语言处理任务中。
如前所述,在本实施例中,词嵌入模型的目标函数可以是:
L(H)=L+α·J(wt,wsyn) (1)
在前述式(1)中,wt表示目标词,wsyn表示目标词的近义词集。J(wt,wsyn)为第二目标函数,也就是利用目标词的近义词集构建的远程监督函数,表示目标词的近义词集中每一个近义词与所述目标词之间的距离。α表示影响因子,其取值一般在0.05-0.2之间。具体可以为预设值,也可以通过其他方式来确定。
在式(1)中将第一目标函数L与α·J(wt,wsyn)相加,表示利用第一目标函数与第二目标函数联合训练。
更具体地,可以采用余弦距离来表示目标词与其近义词之间的距离,从而来构建第二目标函数,具体为:
其中,wt表示目标词,wi表示所述近义词集中的一个近义词;
J(wt,wi)表示近义词集中的一个近义词wi与目标词wt之间的距离。
更具体地,前述S500的步骤中,更新目标词的某一个近义词在词嵌入矩阵中所对应的参数,可以分别更新词嵌入矩阵中该近义词的每一个维度的元素的值。在一种实现方式中,对于一个近义词wi的第j维而言,其更新后的值wij (new)可以通过以下计算公式来计算得到:
wij (new)=wij+η·Gradient(wij) (3)
其中,wij (new)表示近义词集中的近义词wi的第j维在更新后的值;
η表示第二学习率;
Gradient(wij)表示近义词集中的近义词wi的第j维的更新梯度;
表示目标词wt与一个近义词wi之间的距离值,对wi的第j维的偏导数;
wij表示近义词wi的第j维在更新之前的值;
wtj表示目标词的第j维的值。
这里,第二学习率η可以采用预设的数值,也可以随着训练的不断进行而不断变化。具体来说,其可以通过以下方式得到:
η=α·μ (6)
其中,α表示影响因子;
μ表示第一学习率;
μ0表示第一学习率预设初始值;
train_words表示训练语料的总词数;
word_ca表示当前已经训练过的输入词的数量;
iter表示当前训练的迭代轮次。
需要说明的是,在本实施例中,将语料库中包含的所有样本都训练一遍,视为完成了一个迭代轮次的训练。整个词嵌入矩阵的训练过程可以包括多个迭代轮次。通过上述公式(6)和(7)可以看出,随着训练的不断进行,iter原来越大,word_ca越来越大。在每一个迭代轮次中,逐渐增大至接近于1,第一学习率μ不断减小,第二学习率η也不断减小。随着训练的不断进行,词嵌入矩阵中的各个词所对应的向量越来越接近于最优解或局部最优解,此时,如果第二学习率很大,会导致更新参数的时候更新的步长过大,反而难以更新到更接近于最优解的位置。故而,通过上述方式,可以使得在训练过程中第二学习率不断减小,从而在训练前期以较大的步长来更新参数,在训练后期减小更新的步长,起到微调的作用,更有利于提升训练的稳定性及训练效率。
此外,可选地,在更新目标词的近义词在词嵌入矩阵中所对应的参数时,为了防止梯度爆炸,可以通过以下方式来限定更新梯度Gradient(wij)的最大值。即,当更新梯度Gradient(wij)的绝对值>max_Gradient时,取所述Gradient(wij)=max_Gradient;
其中,max_Gradient为梯度最大值;
starting_m G表示梯度最大值的预设初始值;
train_words表示训练语料的总词数;
word_ca表示当前已经训练过的输入词的数量;
iter表示当前训练的迭代轮次。
通过式(8)可以看出,随着训练的不断进行,iter原来越大,word_ca越来越大。在每一个迭代轮次中,逐渐增大至接近于1,max_Gradient逐渐减小。一旦采用式(4)的方式计算出的更新梯度超过了梯度最大值,就取该梯度最大值为更新梯度,从而有效地控制更新的梯度,避免梯度爆炸,进而提升训练的稳定性。
需要说明的是,当词嵌入模型(UMS模型)是基于负采样(Negative Sampling)的模型时,不但将“输入词-真实词”作为一个训练样本,还可以从训练语料中采集“输入词-非真实词”作为一个负样本来训练词嵌入模型。还是以训练语料中的一句文本“他是一个好学生”为例,输入词为“是”、“一个”、“学生”,与之对应的真实词为“好”,这是一个正向的训练样本。还可以采集输入词为“是”、“一个”、“学生”,与之对应的非真实词为“他”,这就是一个负样本。前述的UMS模型是基于负采样的UMS模型,在这种情况下,前述的S400的步骤中的目标词除了可以包括输入词和/或真实词以外,还可以包括语料库中所有其他的词,即与输入词对应的非真实词。
还需要说明的是,在本申请的方法中,步骤的编号仅为了便于区分不同的步骤以及引用,并不隐含对步骤之间的先后顺序的限定。例如,前述的步骤S300可以在S500之前执行,也可以与S500同时执行;还例如,S400的步骤可以与S100的步骤同时执行,也可以在其之前或之后执行,本申请对于其执行的先后顺序不做限定。
通过上述方法所训练得到的词嵌入可以被应用在很多涉及自然语言处理的应用场景中,例如智能问答、机器翻译、新闻文本分类、意图判断等。
以下以智能问答中的文本匹配任务为实例,对训练得到的词嵌入的应用效果进行进一步说明。在智能问答的场景中,聊天机器人可以与用户进行交互。首先获取用户的会话内容,然后将会话内容所形成的文本与预存的问答库中的问题文本进行文本匹配,如果匹配到某一个问题文本,就将与该问题文本对应答复信息反馈给用户。在一种实现方式中,进行文本匹配的过程中,首先将会话内容所形成的文本、问题文本分别向量化表示,然后计算二者的相似度;分别计算会话内容所形成的文本与问答库中的多个问题文本之间的相似度,将相似度最大的问题文本确定为与会话内容所形成的文本匹配的问题文本。在向量化表示文本时,针对不同的语言,实现的过程会稍有差异。例如,如果文本是中文文本,通常需要将其先分词,得到分词结果,然后获取分词结果中的每一个分词在词嵌入矩阵中所对应的向量,即获取每一个单词所对应的词嵌入,然后将这些向量加和,得到表示中文文本的向量。又例如,如果文本是英文文本,则可以直接获取每一个单词在词嵌入矩阵中所对应的向量,然后将这些向量加和,得到表示英文文本的向量。
在本实例中,以下的(1)、(2)、(3)为3个用户的会话内容所形成的文本,将其作为待匹配的文本。
(1)A person on a horse jumps over a broken down airplane.
(2)Children smiling and waving at camera.
(3)A boy is jumping on skateboard in the middle of a red bridge.
以文本(2)为例,利用前述的词嵌入矩阵,获取文本(2)中每一个单词所对应的向量,然后将这些向量加和,得到表示文本(2)的向量。然后分别计算其与问答库中的多个问题文本,例如“There are children present are happy.”以及“The children arecrying”等,之间的文本相似度,将相似度最大的一个问题文本确定为文本(2)的预测结果。文本(1)和(3)的预测过程与文本(2)类似。三个预测结果如表1所示。作为对照组,表1中还示出了利用常规方法训练得到的词嵌入来进行文本匹配的预测结果,其预测过程与前述过程类似。
表1
从表1的结果中可以看出,对于文本(1)和文本(3),利用本申请的方法所训练得到的词嵌入,以及常规方法训练得到的词嵌入,都可以匹配到准确的结果。而对于文本(2),由于常规方法训练得到的词嵌入中存在极性的缺陷,例如与“smiling”语义相近的“happy”与其的相似度较低,而与“smiling”语义相反的“crying”与其的相似度较高,这就导致匹配文本的时候从文本库中匹配到“The children are crying.”作为预测结果。而采用本申请的方法所训练得到的词嵌入,由于已经缓解了词嵌入的极性问题,故而可以准确地匹配到“There are children present are happy.”作为预测结果。由于二者所匹配到的问题文本不一样,聊天机器人所反馈的回复信息也会相应不同。因此,采用本申请的方法所训练得到的词嵌入矩阵,可以提高后续自然语言处理任务的准确率,进而获得更为理想的效果,例如使聊天机器人的回复信息的准确率更高。
以下以智能问答中的文本分类任务为实例,对训练得到的词嵌入的应用效果进行进一步说明。对于用于客服的聊天机器人来说,其在获取到用户的会话内容所形成的文本时,可以首先通过提取至少一个特征词,将该文本分类到预设的几个业务类型中,例如“运费相关”、“退货相关”、“服装尺寸咨询”等;然后再根据业务类型和会话内容所形成的文本中的其他信息,给出回复信息。这个过程中涉及到文本分类的处理任务。可见,如果文本分类出错,那么聊天机器人所给出的回复信息很大概率都不是用户期望得到的回复。
利用本申请的方法训练词嵌入模型(UMS),得到词嵌入矩阵。将该词嵌入矩阵应用在文本分类器的训练中。采用公开数据集AG’s news作为文本分类器训练的语料库,训练集中包括120000个样本,测试集中包括7600个样本。共训练2种文本分类器,一种为基于CNN(卷积神经网络)的文本分类器,另一种为基于LR(逻辑回归)的文本分类器。然后用测试集来测试这两种文本分类器的预测准确率,其结果具体如表2所示。
表2
从表2可以看出,相比于常规CBOW和Skip的训练方法所训练得到的词嵌入矩阵,通过本申请的词嵌入模型训练方法所训练得到的词嵌入矩阵应用在文本分类任务中时,有效地提高了文本分类的分类准确率。
在本申请的第二个实施例中,提供一种词嵌入模型的训练装置,包括:
第一处理单元4,用于利用词嵌入矩阵,将训练样本的输入词向量化表示为第一向量;根据所述第一向量得到预测词;利用所述预测词,以及所述输入词所对应的真实词,更新所述输入词在词嵌入矩阵中所对应的参数;
第二处理单元5,用于获取目标词的近义词集,以及,更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数,以缩短所述近义词集中每一个近义词与所述目标词之间的距离;其中,所述目标词包括所述输入词或所述真实词。
可选地,所述词嵌入模型的目标函数为:
L(H)=L+α·J(wt,wsyn),
其中,L为第一目标函数,表示CBOW模型或Skip模型的目标函数;
wt表示目标词,wsyn表示目标词的近义词集;
J(wt,wsyn)为第二目标函数,表示目标词的近义词集中每一个近义词与所述目标词之间的距离;
α表示影响因子。
可选地,在上述的词嵌入模型的目标函数中,
其中,wt表示目标词,wi表示所述近义词集中的一个近义词;
J(wt,wi)表示近义词集中的一个近义词wi与目标词wt之间的距离。
可选地,第二处理单元5更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数的步骤,包括:
wij (new)=wij+η·Gradient(wij),
其中,wij (new)表示近义词集中的近义词wi的第j维在更新后的值;
η表示第二学习率;
Gradient(wij)表示近义词集中的近义词wi的更新梯度;
表示目标词wt与一个近义词wi之间的距离值,对wi的第j维的偏导数;
wij表示近义词wi的第j维在更新之前的值;
wtj表示目标词的第j维的值。
可选地,第二学习率η通过以下方式得到:
η=α·μ,
其中,α表示影响因子;
μ表示第一学习率;
μ0表示第一学习率预设初始值;
train_words表示训练语料的总词数;
word_ca表示当前已经训练过的输入词的数量;
iter表示当前训练的迭代轮次。
可选地,当更新梯度Gradient(wij)的绝对值>max_Gradient时,取所述Gradient(wij)=max_Gradient;
其中,max_Gradient为梯度最大值;
starting_m G表示梯度最大值的预设初始值;
train_words表示训练语料的总词数;
word_ca表示当前已经训练过的输入词的数量;
iter表示当前训练的迭代轮次。
可选地,当所述词嵌入模型基于CBOW模型时,所述训练样本的输入词为上下文词,所述预测词为中心词的预测值,所述真实词为中心词的真实值。
可选地,第一处理单元4还用于确定至少两个上下文词;利用词嵌入矩阵分别确定所述至少两个上下文词的向量表示;以及将所述至少两个上下文词的向量表示累加,得到第一向量。
可选地,当所述词嵌入模型基于Skip模型时,所述训练样本的输入词为中心词,所述预测词为上下文词的预测值,所述真实词为上下文词的真实值。
可选地,上述训练装置中,第一处理单元4和第二处理单元5的功能也可以由一个处理单元来实现。
此外,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在计算机上运行时,使得计算机执行第一个实施例中所描述的任一种方法。
上述的词嵌入模型的训练装置、计算机可读存储介质与第一个实施例中的词嵌入模型训练方法相对应,故而相应地具有前述训练方法所具有的有益效果,此处不再赘述。
本说明书中各个实施例之间相同相似的部分互相参见即可。以上所述的本发明实施方式并不构成对本发明保护范围的限定。

Claims (10)

1.一种词嵌入模型的训练方法,其特征在于,包括以下步骤:
利用词嵌入矩阵,将训练样本的输入词向量化表示为第一向量;
根据所述第一向量得到预测词;
利用所述预测词,以及所述输入词所对应的真实词,更新所述输入词在词嵌入矩阵中所对应的参数;
获取目标词的近义词集,所述目标词包括所述输入词或所述真实词;
更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数,以缩短所述近义词集中每一个近义词与所述目标词之间的距离。
2.根据权利要求1所述的词嵌入模型的训练方法,其特征在于,所述词嵌入模型的目标函数为:
L(H)=L+α·J(wt,wsyn),
其中,L为第一目标函数,表示CBOW模型或Skip模型的目标函数;
wt表示目标词,wsyn表示目标词的近义词集;
J(wt,wsyn)为第二目标函数,表示目标词的近义词集中每一个近义词与所述目标词之间的距离;
α表示影响因子。
3.根据权利要求2所述的词嵌入模型的训练方法,其特征在于,
其中,wt表示目标词,wi表示所述近义词集中的一个近义词;
J(wt,wi)表示近义词集中的一个近义词wi与目标词wt之间的距离。
4.根据权利要求3所述的词嵌入模型的训练方法,其特征在于,更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数的步骤,包括:
wij (new)=wij+η·Gradient(wij),
其中,wij (new)表示近义词集中的近义词wi的第j维在更新后的值;
η表示第二学习率;
Gredient(wij)表示近义词集中的近义词wi的第j维的更新梯度;
表示目标词wt与一个近义词wi之间的距离值,对wi的第j维的偏导数;
wij表示近义词wi的第j维在更新之前的值;
wtj表示目标词的第j维的值。
5.根据权利要求4所述的词嵌入模型的训练方法,其特征在于,第二学习率η通过以下方式得到:
η=α·μ,
其中,α表示影响因子;
μ表示第一学习率;
μ0表示第一学习率预设初始值;
train_words表示训练语料的总词数;
word_ca表示当前已经训练过的输入词的数量;
iter表示当前训练的迭代轮次。
6.根据权利要求4所述的词嵌入模型的训练方法,其特征在于,当更新梯度Gradient(wij)的绝对值>max_Gradient时,取所述Gradient(wij)=max_Gradient;
其中,max_Gradient为梯度最大值;
starting_mG表示梯度最大值的预设初始值;
train_words表示训练语料的总词数;
word_ca表示当前已经训练过的输入词的数量;
iter表示当前训练的迭代轮次。
7.根据权利要求1-6任一项所述的词嵌入模型的训练方法,其特征在于,当所述词嵌入模型基于CBOW模型时,所述训练样本的输入词为上下文词,所述预测词为中心词的预测值,所述真实词为中心词的真实值。
8.根据权利要求7所述的词嵌入模型的训练方法,其特征在于,所述利用词嵌入矩阵,将训练样本的输入词向量化表示为第一向量的步骤,包括:
确定至少两个上下文词;
利用词嵌入矩阵分别确定所述至少两个上下文词的向量表示;
将所述至少两个上下文词的向量表示累加,得到第一向量。
9.根据权利要求1-6任一项所述的词嵌入模型的训练方法,其特征在于,当所述词嵌入模型基于Skip模型时,所述训练样本的输入词为中心词,所述预测词为上下文词的预测值,所述真实词为上下文词的真实值。
10.一种词嵌入模型的训练装置,其特征在于,包括:
第一处理单元,用于利用词嵌入矩阵,将训练样本的输入词向量化表示为第一向量;根据所述第一向量得到预测词;利用所述预测词,以及所述输入词所对应的真实词,更新所述输入词在词嵌入矩阵中所对应的参数;
第二处理单元,用于获取目标词的近义词集,以及,更新所述近义词集中的所有近义词在词嵌入矩阵中所对应的参数,以缩短所述近义词集中每一个近义词与所述目标词之间的距离;其中,所述目标词包括所述输入词或所述真实词。
CN201811093148.9A 2018-09-17 2018-09-17 词嵌入模型的训练方法及装置 Active CN109271636B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811093148.9A CN109271636B (zh) 2018-09-17 2018-09-17 词嵌入模型的训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811093148.9A CN109271636B (zh) 2018-09-17 2018-09-17 词嵌入模型的训练方法及装置

Publications (2)

Publication Number Publication Date
CN109271636A true CN109271636A (zh) 2019-01-25
CN109271636B CN109271636B (zh) 2023-08-11

Family

ID=65197473

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811093148.9A Active CN109271636B (zh) 2018-09-17 2018-09-17 词嵌入模型的训练方法及装置

Country Status (1)

Country Link
CN (1) CN109271636B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN111125328A (zh) * 2019-12-12 2020-05-08 深圳数联天下智能科技有限公司 文本处理方法及相关设备
CN112052671A (zh) * 2019-06-06 2020-12-08 阿里巴巴集团控股有限公司 负样本采样方法、文本处理方法、装置、设备及介质
US11626107B1 (en) * 2020-12-07 2023-04-11 Amazon Technologies, Inc. Natural language processing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150095017A1 (en) * 2013-09-27 2015-04-02 Google Inc. System and method for learning word embeddings using neural language models
CN105930318A (zh) * 2016-04-11 2016-09-07 深圳大学 一种词向量训练方法及系统
CN107180026A (zh) * 2017-05-02 2017-09-19 苏州大学 一种基于词嵌入语义映射的事件短语学习方法及装置
CN107239444A (zh) * 2017-05-26 2017-10-10 华中科技大学 一种融合词性与位置信息的词向量训练方法及系统
CN107357776A (zh) * 2017-06-16 2017-11-17 北京奇艺世纪科技有限公司 一种相关词挖掘方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150095017A1 (en) * 2013-09-27 2015-04-02 Google Inc. System and method for learning word embeddings using neural language models
CN105930318A (zh) * 2016-04-11 2016-09-07 深圳大学 一种词向量训练方法及系统
CN107180026A (zh) * 2017-05-02 2017-09-19 苏州大学 一种基于词嵌入语义映射的事件短语学习方法及装置
CN107239444A (zh) * 2017-05-26 2017-10-10 华中科技大学 一种融合词性与位置信息的词向量训练方法及系统
CN107357776A (zh) * 2017-06-16 2017-11-17 北京奇艺世纪科技有限公司 一种相关词挖掘方法及装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN112052671A (zh) * 2019-06-06 2020-12-08 阿里巴巴集团控股有限公司 负样本采样方法、文本处理方法、装置、设备及介质
CN112052671B (zh) * 2019-06-06 2023-10-27 阿里巴巴集团控股有限公司 负样本采样方法、文本处理方法、装置、设备及介质
CN111125328A (zh) * 2019-12-12 2020-05-08 深圳数联天下智能科技有限公司 文本处理方法及相关设备
CN111125328B (zh) * 2019-12-12 2023-11-07 深圳数联天下智能科技有限公司 文本处理方法及相关设备
US11626107B1 (en) * 2020-12-07 2023-04-11 Amazon Technologies, Inc. Natural language processing

Also Published As

Publication number Publication date
CN109271636B (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
CN109902298B (zh) 一种自适应学习系统中领域知识建模及知识水平估测方法
Mathews et al. Semstyle: Learning to generate stylised image captions using unaligned text
CN109844743B (zh) 在自动聊天中生成响应
CN110148318B (zh) 一种数字助教系统、信息交互方法和信息处理方法
CN108549658B (zh) 一种基于语法分析树上注意力机制的深度学习视频问答方法及系统
CN109308353B (zh) 词嵌入模型的训练方法及装置
CN108536679A (zh) 命名实体识别方法、装置、设备及计算机可读存储介质
CN110096711B (zh) 序列全局关注和局部动态关注的自然语言语义匹配方法
CN112199608B (zh) 基于网络信息传播图建模的社交媒体谣言检测方法
CN110516245A (zh) 细粒度情感分析方法、装置、计算机设备及存储介质
CN109271636A (zh) 词嵌入模型的训练方法及装置
CN110222178A (zh) 文本情感分类方法、装置、电子设备及可读存储介质
CN109214006B (zh) 图像增强的层次化语义表示的自然语言推理方法
CN109190126A (zh) 词嵌入模型的训练方法及装置
CN109145304B (zh) 一种基于字的中文观点要素情感分析方法
CN109255359B (zh) 一种基于复杂网络分析方法的视觉问答问题解决方法
CN107544960B (zh) 一种基于变量绑定和关系激活的自动问答方法
CN111143569A (zh) 一种数据处理方法、装置及计算机可读存储介质
CN113987147A (zh) 样本处理方法及装置
CN114756681B (zh) 一种基于多注意力融合的评教文本细粒度建议挖掘方法
Tang et al. Modelling student behavior using granular large scale action data from a MOOC
CN111898374A (zh) 文本识别方法、装置、存储介质和电子设备
CN111368082A (zh) 一种基于层次网络的领域自适应词嵌入的情感分析方法
Yuan et al. Twitter sentiment analysis with recursive neural networks
CN114925687A (zh) 一种基于动态词向量表征的中文作文评分方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20190905

Address after: Room 630, 6th floor, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant after: DINFO (BEIJING) SCIENCE DEVELOPMENT Co.,Ltd.

Address before: Room 601, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant before: ULTRAPOWER SOFTWARE Co.,Ltd.

TA01 Transfer of patent application right
CB02 Change of applicant information

Address after: 230000 zone B, 19th floor, building A1, 3333 Xiyou Road, hi tech Zone, Hefei City, Anhui Province

Applicant after: Dingfu Intelligent Technology Co.,Ltd.

Address before: Room 630, 6th floor, Block A, Wanliu Xingui Building, 28 Wanquanzhuang Road, Haidian District, Beijing

Applicant before: DINFO (BEIJING) SCIENCE DEVELOPMENT Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant