CN108874765A - 词向量处理方法及装置 - Google Patents

词向量处理方法及装置 Download PDF

Info

Publication number
CN108874765A
CN108874765A CN201710337594.9A CN201710337594A CN108874765A CN 108874765 A CN108874765 A CN 108874765A CN 201710337594 A CN201710337594 A CN 201710337594A CN 108874765 A CN108874765 A CN 108874765A
Authority
CN
China
Prior art keywords
word
phonetic character
vector
corpus
cliction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710337594.9A
Other languages
English (en)
Other versions
CN108874765B (zh
Inventor
曹绍升
周俊
李小龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced New Technologies Co Ltd
Advantageous New Technologies Co Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201710337594.9A priority Critical patent/CN108874765B/zh
Publication of CN108874765A publication Critical patent/CN108874765A/zh
Application granted granted Critical
Publication of CN108874765B publication Critical patent/CN108874765B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/232Orthographic correction, e.g. spell checking or vowelisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本申请实施例公开了词向量处理方法及装置。所述方法包括:对语料分词得到各词;确定所述各词对应的各n元注音字符,所述n元注音字符表征其对应的词的连续n个注音字符;建立并初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量;根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练。利用本申请实施例,可以实现通过词对应的n元注音字符更精细地表现该词的特征,进而有利于提高中文词的词向量的准确度,实用效果较好。

Description

词向量处理方法及装置
技术领域
本申请涉及计算机软件技术领域,尤其涉及词向量处理方法及装置。
背景技术
如今的自然语言处理的解决方案,大都采用基于神经网络的架构,而在这种架构下一个重要的基础技术就是词向量。词向量是将词映射到一个固定维度的向量,该向量表征了该词的语义信息。
在现有技术中,常见的用于生成词向量的算法是专门针对英文设计的。比如,谷歌公司的单词向量算法、脸书公司的n元字符算法、微软公司的深度神经网络算法等。
但是,现有技术的这些算法或者无法用于中文,或者虽能用于中文,但是,所生成中文词的词向量的实用效果较差。
发明内容
本申请实施例提供词向量处理方法及装置,用以解决现有技术中用于生成词向量的算法或者无法用于中文,或者虽能用于中文,但是,所生成中文词的词向量的实用效果较差的问题。
为解决上述技术问题,本申请实施例是这样实现的:
本申请实施例提供的一种词向量处理方法,包括:
对语料分词得到各词;
确定所述各词对应的各n元注音字符,所述n元注音字符表征其对应的词的连续n个注音字符;
建立并初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量;
根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练。
本申请实施例提供的一种词向量处理装置,包括:
分词模块,对语料分词得到各词;
确定模块,确定所述各词对应的各n元注音字符,所述n元注音字符表征其对应的词的连续n个注音字符;
初始化模块,建立并初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量;
训练模块,根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练。
本申请实施例提供的另一种词向量处理方法,包括:
步骤1,对语料分词,并建立通过所述分词得到的各词构成的词汇表,其中,所述各词不包括在所述语料中出现次数少于设定次数的词;跳转步骤2;
步骤2,根据所述词汇表,建立n元注音字符映射表,所述映射表包含所述各词与n元注音字符之间的映射关系,所述n元注音字符表征其映射的词的连续n个注音字符;跳转步骤3;
步骤3,根据所述n元注音字符映射表,建立并初始化所述各词的词向量,以及所述各词映射的各n元注音字符的注音字符向量;跳转步骤4;
步骤4,遍历分词后的所述语料,分别将遍历到的每个词作为当前词w并对当前词w执行步骤5,若遍历完成则结束,否则继续遍历;
步骤5,以当前词w为中心,向两侧分别滑动至多k个词建立窗口,遍历所述窗口中除当前词w以外的所有词,分别将遍历到的每个词作为当前词w的当前上下文词c并对当前上下文词c执行步骤6,若遍历完成则继续步骤4的执行,否则继续遍历;
步骤6,按照如下公式计算当前词w与当前上下文词c的相似度:
其中,S(w)表示所述n元注音字符映射表中当前词w映射的各n元注音字符集合,q表示S(w)中的各n元注音字符,sim(w,c)表示当前词w与当前上下文词c的相似度;表示q的注音字符向量与当前上下文词语c的词向量的向量点积;跳转步骤7;
步骤7,随机抽取λ个词作为负样例词,按照如下损失函数计算对应的损失表征值l(w,c):
其中,c’是随机抽取的负样例词,而Ec'∈p(V)[x]是指随机抽取的负样例词c’满足概率分布p(V)的情况下,表达式x的期望值,σ(·)是神经网络激励函数,定义为
根据计算出的损失表征值l(w,c)计算所述损失函数对应的梯度,根据所述梯度,对q的注音字符向量和当前上下文词语c的词向量进行更新。
本申请实施例采用的上述至少一个技术方案能够达到以下有益效果:可以实现通过词对应的n元注音字符更精细地表现该词的特征,进而有利于提高中文词的词向量的准确度,实用效果较好,因此,可以部分或全部地解决现有技术中的问题。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种词向量处理方法的流程示意图;
图2为本申请实施例提供的实际应用场景下,所述词向量处理方法的一种具体实施方案的流程示意图;
图3为本申请实施例提供的对应于图1的一种词向量处理装置的结构示意图。
具体实施方式
本申请实施例提供词向量处理方法及装置。
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
本申请的方案适用于中文词的词向量,也适用于类似中文的某些其他语言的词的词向量,比如,日文等注音字符特征较明显的语言的词的词向量等。对于中文词,由于中文词可以用拼音来注音,因此,所述注音字符具体可以是拼音字符;对于日文词,由于日文词可以用罗马音或者假名来注音,因此,所述注音字符具体可以是罗马音字符或者假名字符。
为了便于描述,以下各实施例主要针对中文词的场景,对本申请的方案进行说明。
图1为本申请实施例提供的一种词向量处理方法的流程示意图。从程序角度而言,该流程的执行主体可以是具有词向量生成功能和/或训练功能的程序等;从设备角度而言,该流程的执行主体可以包括但不限于可搭载所述程序的以下至少一种设备:个人计算机、大中型计算机、计算机集群、手机、平板电脑、智能可穿戴设备、车机等。
图1中的流程可以包括以下步骤:
S101:对语料分词得到各词。
在本申请实施例中,所述各词具体可以是:语料中至少出现过一次的词中的至少部分词。为了便于后续处理,可以将各词保存在词汇表中,需要使用时从词汇表中读取词即可。
S102:确定所述各词对应的各n元注音字符,所述n元注音字符表征其对应的词的连续n个注音字符。
为了便于理解,以中文为例,对“n元注音字符”进一步地解释。对于中文字或者词,注音字符包括拼音字符“a”、“b”、“c”、“d”、“e”、“f”、“g”等,n元注音字符可以表征1个中文字或词的连续n个拼音字符。
例如,对于“江”字。其对应的完整的拼音字符序列为“jiang”,据此可知:其对应的3元注音字符为:“jia”(第1~3个拼音字符)、“ian”(第2~4个拼音字符)、“ang”(第3~5个拼音字符);其对应的4元注音字符为:“jian”(第1~4个拼音字符)、“iang”(第2~5个拼音字符)。
又例如,对于词“人民”。其对应的完整的拼音字符序列为“renmin”,据此可知:其对应的3元注音字符为:“ren”(第1~3个拼音字符)、“enm”(第2~4个拼音字符)等;其对应的4元注音字符为:“renm”(第1~4个拼音字符)、“enmi”(第2~5个拼音字符)等;其对应的5元注音字符为:“renmi”(第1~5个拼音字符)、“enmin”(第2~6个拼音字符)。
在本申请实施例中,n的取值可以是动态可调的。对于同一个词,在确定该词对应的各n元注音字符时,n的取值可以只取1个(比如,只确定该词对应的各3元注音字符),也可以取多个(比如,确定该词对应的各3元注音字符和各4元注音字符等)。当n的取值为某个特定数值时,n元注音字符可能恰好为字的声母或韵母,当n的取值恰好为字或词的总拼音字符数时,n元注音字符恰好为该字或该词完整的拼音字符序列。
在本申请实施例中,为了便于计算机处理,n元注音字符可以用指定的代码进行表示。比如,可以将不同的注音字符分别用一个不同的代码表示,则n元注音字符相应地可以表示为代码串。
S103:建立并初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量。
在本申请实施例中,为了保证方案的效果,在初始化词向量和注音字符向量时,可能会有一些限制条件。比如,不能将各词向量和各注音字符向量都初始化为相同的向量;又比如,某些词向量或注音字符向量中的向量元素取值不能全为0;等等。
在本申请实施例中,可以采用随机初始化的方式或者按照指定概率分布初始化的方式,初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量,其中,相同n元注音字符的注音字符向量也相同。比如,所述指定概率分布可以是0-1分布等。
另外,若之前已经基于其他语料,训练过某些词对应的词向量及注音字符向量,则在进一步地基于图1中的语料训练这些词对应的词向量及注音字符向量时,可以不再重新建立并初始化这些词对应的词向量及注音字符向量,而是基于图1中的语料和之前的训练结果,再进行训练即可。
S104:根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练。
在本申请实施例中,所述训练可以是通过神经网络实现的,所述神经网络包括但不限于浅层神经网络和深层神经网络。本申请对采用的神经网络的具体结构并不做限定。
通过图1的方法,可以实现通过词对应的n元注音字符更精细地表现该词的特征,进而有利于提高中文词的词向量的准确度,实用效果较好,因此,可以部分或全部地解决现有技术中的问题。
基于图1的方法,本申请实施例还提供了该方法的一些具体实施方案,以及扩展方案,下面进行说明。
在本申请实施例中,对于步骤S102,所述确定所述各词对应的各n元注音字符,具体可以包括:根据对所述语料分词的结果,确定在所述语料中出现过的词;
分别针对所述确定的互不相同的每个词,执行:
确定该词对应的各n元注音字符,该词对应的n元注音字符表征该词连续的n个注音字符,n为一个正整数或多个不同的正整数。
在本申请实施例中,对于相同的词,它们对应的各n元注音字符也是相同的,因此,对于上一段中的步骤,分别针对确定的互不相同的每个词执行即可,而对于重复的词,可以直接沿用已有结果,而无需重复执行,从而可以节省资源。
进一步地,考虑到若某个词在语料中出现的次数太少,则基于该语料训练时对应的训练样本与训练次数也较少,会给训练结果的可信度带来不利影响,因此,可以将这类词筛除,暂不训练。后续可以在其他语料中进行训练。
基于这样的思路,所述根据对所述语料分词的结果,确定在所述语料中出现过的词,具体可以包括:根据对所述语料分词的结果,确定在所述语料中出现过且出现次数不少于设定次数的词。设定次数具体是多少次可以根据实际情况确定。
在本申请实施例中,对于步骤S104,具体的训练方式可以有多种,比如基于上下文词的训练方式、基于指定近义词或同义词的训练方式等,为了便于理解,以前一种方式为例进行详细介绍。
所述根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练,具体可以包括:确定分词后的所述语料中的指定词,以及所述指定词在分词后的所述语料中的一个或多个上下文词;根据所述指定词对应的各n元注音字符的注音字符向量,以及所述上下文词的词向量,确定所述指定词与所述上下文词的相似度;根据所述指定词与所述上下文词的相似度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
本申请对确定相似度的具体方式并不做限定。比如,可以基于向量的夹角余弦运算计算相似度,可以基于向量的平方和运算计算相似度,等等。
所述指定词可以有多个,指定词可以重复而在语料中的位置不同,可以分别针对每个指定词执行上一段中的处理动作。优选地,可以分别将分词后的语料中包含的每个词都作为一个指定词。
在本申请实施例中,步骤S104中的训练可以使得:指定词与上下文词的相似度相对变高(在这里,相似度可以反映关联度,词与其上下文词的关联度相对较高,而且词义相同或相近的各词分别对应的上下文词往往也是相同或相近的),而指定词与非上下文词的相似度相对地变低,非上下文词可以作为下述的负样例词,则上下文词相对地可以作为正样例词。
由此可见,在训练过程中,需要确定一些负样例词作为对照。可以在分词后的语料中随机选择一个或多个词作为负样例词,也可以严格地选择非上下文词作为负样例词。以前一种方式为例,所述根据所述指定词与所述上下文词的相似度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新,具体可以包括:从所述各词中选择一个或多个词,作为负样例词;确定所述指定词与各所述负样例词的相似度;根据指定的损失函数、所述指定词与所述上下文词的相似度,以及所述指定词与各所述负样例词的相似度,确定所述指定词对应的损失表征值;根据所述损失表征值,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
其中,所述损失表征值用于衡量当前的向量值与训练目标之间的误差程度。所述损失函数的参数可以以上述的几种相似度作为参数,具体的损失函数表达式本申请并不做限定,后面会详细举例说明。
在本申请实施例中,对词向量和注音字符向量更新实际上对所述误差程度的修正。当采用神经网络实现本申请的方案时,这种修正可以基于反向传播和梯度下降法实现。在这种情况下,所述梯度即为损失函数对应的梯度。
则所述根据所述损失表征值,对所述指定词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新,具体可以包括:根据所述损失表征值,确定所述损失函数对应的梯度;根据所述梯度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
在本申请实施例中,对词向量和注音字符向量的训练过程可以是基于分词后的语料中的至少部分词迭代进行的,从而可以使词向量和注音字符向量逐渐地收敛,直至完成训练。
以基于分词后的语料中的全部词进行训练为例。对于步骤S104,所述根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练,具体可以包括:
对分词后的所述语料进行遍历,分别对分词后的所述语料中的每个词执行:
确定该词在分词后的所述语料中的一个或多个上下文词;
分别根据每个所述上下文词,执行:
根据该词对应的各n元注音字符的注音字符向量,以及该上下文词的词向量,确定该词与该上下文词的相似度;
根据该词与该上下文词的相似度,对该上下文词的词向量和该词对应的各n元注音字符的注音字符向量进行更新。
具体如何进行更新上面已经进行说明,不再赘述。
进一步地,为了便于计算机处理,可以基于窗口实现上面的遍历过程。
例如,所述确定该词在分词后的所述语料中的一个或多个上下文词,具体可以包括:在分词后的所述语料中,通过以该词为中心,向左和/或向右滑动指定数量个词的距离,建立窗口;将所述窗口中该词以外的词确定为该词的上下文词。
当然,也可以以分词后的所述语料的第一个词为开始位置,建立一个设定长度的窗口,窗口中包含第一个词以及之后连续的设定数量个词;处理完窗口内的各词后,将窗口向后滑动以处理该语料中的下一批词,直至遍历完该语料。
上面对本申请实施例提供的一种词向量处理方法进行了说明。为了便于理解,基于上述说明,本申请实施例还提供了实际应用场景下,所述词向量处理方法的一种具体实施方案的流程示意图,如图2所示。
图2中的流程主要包括以下步骤:
步骤1,使用分词工具对中文语料进行分词,扫描分词后的中文语料,统计所有出现过的词以建立词汇表,删除出现次数小于b次(也即,上述的设定次数)的词语;跳转步骤2;
步骤2,逐一扫描词汇表,提取每一个词对应的n元注音字符,建立n元注音字符表,以及词与对应的n元注音字符的映射表;跳转步骤3;
步骤3,针对词汇表中每个词都建立一个维度为d的词向量,对n元注音字符表中的每个n元注音字符都建立一个维度也为d的注音字符向量,随机初始化建立的所有向量;跳转步骤4;
步骤4,从完成分词的中文语料中,从第一个词开始逐一滑动,每次选择一个词作为“当前词w(也即,上述的指定词)”,若w遍历过整个语料所有词,则结束;否则跳转步骤5;
步骤5,以当前词w为中心,向两侧滑动k个词建立窗口,从窗口内的第一个词到最后一个词(除当前词w以外),每次选择一个词作为“上下文词c”,若c遍历过窗口内的所有词,则跳转步骤4;否则,跳转步骤6;
步骤6,对于当前词w,根据步骤2中的词与对应的n元注音字符映射表,找到当前词w对应的各n元注音字符,按照公式(1)计算当前词w与上下文词c的相似度:
其中,公式中S表示步骤2中建立的n元注音字符表,S(w)表示步骤2中映射表里当前词w所对应的n元注音字符集合,q表示集合S(w)中的元素(即某个n元注音字符)。sim(w,c)表示当前词w与上下文单词c的相似度得分;表示n元注音字符q与上下文词语c的向量点积运算;跳转步骤7;
步骤7,随机抽取λ个词作为负样例词,并且按照公式(2)(也即,上述的损失函数)计算损失得分l(w,c),损失得分即可以作为上述的损失表征值:
其中,log是对数函数,c’是随机抽取的负样例词语,而Ec'∈p(V)[x]是指随机抽取的负样例词c’满足概率分布p(V)的情况下,表达式x的期望值,σ(·)是神经网络激励函数,详细参见公式(3):
其中,若x是一个实数,则σ(x)也是一个实数;根据l(w,c)的值计算梯度,更新n元注音字符向量和上下文词语的向量跳转步骤5。
上述步骤1~7中,步骤6和步骤7是较关键的步骤。为了便于理解,举例说明。假定语料中有语句“治理雾霾刻不容缓”,分词得到该语句中的三个词语“治理”、“雾霾”、“刻不容缓”。
假定此时选定“雾霾”为当前词w,选定“治理”为上下文词c,提取当前词w映射的所有n元注音字符S(w),比如,“雾霾”映射的3元注音字符包括“wum”、“uma”、“mai”,“治理”映射的3元注音字符包括“zhi”、“hil”、“ili”。然后,根据公式(1)、公式(2)和公式(3)计算损失得分l(w,c),进而计算梯度,以更新c的词向量和w对应的所有的注音字符向量。
基于与图1同样的发明思路以及图2中的实施方式,本申请实施例提供了另一种词向量处理方法。
所述另一种词向量处理方法的流程可以包括以下步骤:
步骤1,对语料分词,并建立通过所述分词得到的各词构成的词汇表,其中,所述各词不包括在所述语料中出现次数少于设定次数的词;跳转步骤2;
步骤2,根据所述词汇表,建立n元注音字符映射表,所述映射表包含所述各词与n元注音字符之间的映射关系,所述n元注音字符表征其映射的词的连续n个注音字符;跳转步骤3;
步骤3,根据所述n元注音字符映射表,建立并初始化所述各词的词向量,以及所述各词映射的各n元注音字符的注音字符向量;跳转步骤4;
步骤4,遍历分词后的所述语料,分别将遍历到的每个词作为当前词w并对当前词w执行步骤5,若遍历完成则结束,否则继续遍历;
步骤5,以当前词w为中心,向两侧分别滑动至多k个词建立窗口,遍历所述窗口中除当前词w以外的所有词,分别将遍历到的每个词作为当前词w的当前上下文词c并对当前上下文词c执行步骤6,若遍历完成则继续步骤4的执行,否则继续遍历;
步骤6,按照如下公式计算当前词w与当前上下文词c的相似度:
其中,S(w)表示所述n元注音字符映射表中当前词w映射的各n元注音字符集合,q表示S(w)中的各n元注音字符,sim(w,c)表示当前词w与当前上下文词c的相似度;表示q的注音字符向量与当前上下文词语c的词向量的向量点积;跳转步骤7;
步骤7,随机抽取λ个词作为负样例词,按照如下损失函数计算对应的损失表征值l(w,c):
其中,c’是随机抽取的负样例词,而Ec'∈p(V)[x]是指随机抽取的负样例词c’满足概率分布p(V)的情况下,表达式x的期望值,σ(·)是神经网络激励函数,定义为
根据计算出的损失表征值l(w,c)计算所述损失函数对应的梯度,根据所述梯度,对q的注音字符向量和当前上下文词语c的词向量进行更新。
所述另一种词向量处理方法中各步骤可以由相同或者不同的模块执行,本申请对此并不做具体限定。
上面为本申请实施例提供的词向量处理方法,基于同样的发明思路,本申请实施例还提供了对应的装置,如图3所示。
图3为本申请实施例提供的对应于图1的一种词向量处理装置的结构示意图,该装置可以位于图1中流程的执行主体,包括:
分词模块301,对语料分词得到各词;
确定模块302,确定所述各词对应的各n元注音字符,所述n元注音字符表征其对应的词的连续n个注音字符;
初始化模块303,建立并初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量;
训练模块304,根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练。
可选地,所述确定模块302确定所述各词对应的各n元注音字符,具体包括:
所述确定模块302根据对所述语料分词的结果,确定在所述语料中出现过的词;
分别针对所述确定的每个词,执行:
确定该词对应的各n元注音字符,该词对应的n元注音字符表征该词连续的n个注音字符,n为一个正整数或多个不同的正整数。
可选地,所述确定模块302根据对所述语料分词的结果,确定在所述语料中出现过的词,具体包括:
所述确定模块302根据对所述语料分词的结果,确定在所述语料中出现过且出现次数不少于设定次数的词。
可选地,所述初始化模块303初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量,具体包括:
所述初始化模块303采用随机初始化的方式或者按照指定概率分布初始化的方式,初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量,其中,相同n元注音字符的注音字符向量也相同。
可选地,所述训练模块304根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练,具体包括:
所述训练模块304确定分词后的所述语料中的指定词,以及所述指定词在分词后的所述语料中的一个或多个上下文词;
根据所述指定词对应的各n元注音字符的注音字符向量,以及所述上下文词的词向量,确定所述指定词与所述上下文词的相似度;
根据所述指定词与所述上下文词的相似度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
可选地,所述训练模块304根据所述指定词与所述上下文词的相似度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新,具体包括:
所述训练模块304从所述各词中选择一个或多个词,作为负样例词;
确定所述指定词与各所述负样例词的相似度;
根据指定的损失函数、所述指定词与所述上下文词的相似度,以及所述指定词与各所述负样例词的相似度,确定所述指定词对应的损失表征值;
根据所述损失表征值,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
可选地,所述训练模块304根据所述损失表征值,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新,具体包括:
所述训练模块304根据所述损失表征值,确定所述损失函数对应的梯度;
根据所述梯度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
可选地,所述训练模块304从所述各词中选择一个或多个词,作为负样例词,具体包括:
所述训练模块304从所述各词中随机选择一个或多个词,作为负样例词。
可选地,所述训练模块304根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练,具体包括:
所述训练模块304对分词后的所述语料进行遍历,分别对分词后的所述语料中的每个词执行:
确定该词在分词后的所述语料中的一个或多个上下文词;
分别根据每个所述上下文词,执行:
根据该词对应的各n元注音字符的注音字符向量,以及该上下文词的词向量,确定该词与该上下文词的相似度;
根据该词与该上下文词的相似度,对该上下文词的词向量和该词对应的各n元注音字符的注音字符向量进行更新。
可选地,所述训练模块304确定该词在分词后的所述语料中的一个或多个上下文词,具体包括:
所述训练模块304在分词后的所述语料中,通过以该词为中心,向左和/或向右滑动指定数量个词的距离,建立窗口;
将所述窗口中该词以外的词确定为该词的上下文词。
可选地,所述词为中文词,所述词向量为中文词的词向量,所述注音字符为拼音字符。
本申请实施例提供的装置与方法是一一对应的,因此,装置也具有与其对应的方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述对应装置的有益技术效果。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (23)

1.一种词向量处理方法,包括:
对语料分词得到各词;
确定所述各词对应的各n元注音字符,所述n元注音字符表征其对应的词的连续n个注音字符;
建立并初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量;
根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练。
2.如权利要求1所述的方法,所述确定所述各词对应的各n元注音字符,具体包括:
根据对所述语料分词的结果,确定在所述语料中出现过的词;
分别针对所述确定的互不相同的每个词,执行:
确定该词对应的各n元注音字符,该词对应的n元注音字符表征该词连续的n个注音字符,n为一个正整数或多个不同的正整数。
3.如权利要求2所述的方法,所述根据对所述语料分词的结果,确定在所述语料中出现过的词,具体包括:
根据对所述语料分词的结果,确定在所述语料中出现过且出现次数不少于设定次数的词。
4.如权利要求1所述的方法,所述初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量,具体包括:
采用随机初始化的方式或者按照指定概率分布初始化的方式,初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量,其中,相同n元注音字符的注音字符向量也相同。
5.如权利要求1所述的方法,所述根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练,具体包括:
确定分词后的所述语料中的指定词,以及所述指定词在分词后的所述语料中的一个或多个上下文词;
根据所述指定词对应的各n元注音字符的注音字符向量,以及所述上下文词的词向量,确定所述指定词与所述上下文词的相似度;
根据所述指定词与所述上下文词的相似度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
6.如权利要求5所述的方法,所述根据所述指定词与所述上下文词的相似度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新,具体包括:
从所述各词中选择一个或多个词,作为负样例词;
确定所述指定词与各所述负样例词的相似度;
根据指定的损失函数、所述指定词与所述上下文词的相似度,以及所述指定词与各所述负样例词的相似度,确定所述指定词对应的损失表征值;
根据所述损失表征值,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
7.如权利要求6所述的方法,所述根据所述损失表征值,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新,具体包括:
根据所述损失表征值,确定所述损失函数对应的梯度;
根据所述梯度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
8.如权利要求6所述的方法,所述从所述各词中选择一个或多个词,作为负样例词,具体包括:
从所述各词中随机选择一个或多个词,作为负样例词。
9.如权利要求1所述的方法,所述根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练,具体包括:
对分词后的所述语料进行遍历,分别对分词后的所述语料中的每个词执行:
确定该词在分词后的所述语料中的一个或多个上下文词;
分别根据每个所述上下文词,执行:
根据该词对应的各n元注音字符的注音字符向量,以及该上下文词的词向量,确定该词与该上下文词的相似度;
根据该词与该上下文词的相似度,对该上下文词的词向量和该词对应的各n元注音字符的注音字符向量进行更新。
10.如权利要求9所述的方法,所述确定该词在分词后的所述语料中的一个或多个上下文词,具体包括:
在分词后的所述语料中,通过以该词为中心,向左和/或向右滑动指定数量个词的距离,建立窗口;
将所述窗口中该词以外的词确定为该词的上下文词。
11.如权利要求1~10任一项所述的方法,所述词为中文词,所述词向量为中文词的词向量,所述注音字符为拼音字符。
12.一种词向量处理装置,包括:
分词模块,对语料分词得到各词;
确定模块,确定所述各词对应的各n元注音字符,所述n元注音字符表征其对应的词的连续n个注音字符;
初始化模块,建立并初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量;
训练模块,根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练。
13.如权利要求12所述的装置,所述确定模块确定所述各词对应的各n元注音字符,具体包括:
所述确定模块根据对所述语料分词的结果,确定在所述语料中出现过的词;
分别针对所述确定的互不相同的每个词,执行:
确定该词对应的各n元注音字符,该词对应的n元注音字符表征该词连续的n个注音字符,n为一个正整数或多个不同的正整数。
14.如权利要求13所述的装置,所述确定模块根据对所述语料分词的结果,确定在所述语料中出现过的词,具体包括:
所述确定模块根据对所述语料分词的结果,确定在所述语料中出现过且出现次数不少于设定次数的词。
15.如权利要求12所述的装置,所述初始化模块初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量,具体包括:
所述初始化模块采用随机初始化的方式或者按照指定概率分布初始化的方式,初始化所述各词的词向量,以及所述各词对应的各n元注音字符的注音字符向量,其中,相同n元注音字符的注音字符向量也相同。
16.如权利要求12所述的装置,所述训练模块根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练,具体包括:
所述训练模块确定分词后的所述语料中的指定词,以及所述指定词在分词后的所述语料中的一个或多个上下文词;
根据所述指定词对应的各n元注音字符的注音字符向量,以及所述上下文词的词向量,确定所述指定词与所述上下文词的相似度;
根据所述指定词与所述上下文词的相似度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
17.如权利要求16所述的装置,所述训练模块根据所述指定词与所述上下文词的相似度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新,具体包括:
所述训练模块从所述各词中选择一个或多个词,作为负样例词;
确定所述指定词与各所述负样例词的相似度;
根据指定的损失函数、所述指定词与所述上下文词的相似度,以及所述指定词与各所述负样例词的相似度,确定所述指定词对应的损失表征值;
根据所述损失表征值,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
18.如权利要求17所述的装置,所述训练模块根据所述损失表征值,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新,具体包括:
所述训练模块根据所述损失表征值,确定所述损失函数对应的梯度;
根据所述梯度,对所述上下文词的词向量和所述指定词对应的各n元注音字符的注音字符向量进行更新。
19.如权利要求17所述的装置,所述训练模块从所述各词中选择一个或多个词,作为负样例词,具体包括:
所述训练模块从所述各词中随机选择一个或多个词,作为负样例词。
20.如权利要求12所述的装置,所述训练模块根据所述词向量、所述注音字符向量,以及分词后的所述语料,对所述词向量和所述注音字符向量进行训练,具体包括:
所述训练模块对分词后的所述语料进行遍历,分别对分词后的所述语料中的每个词执行:
确定该词在分词后的所述语料中的一个或多个上下文词;
分别根据每个所述上下文词,执行:
根据该词对应的各n元注音字符的注音字符向量,以及该上下文词的词向量,确定该词与该上下文词的相似度;
根据该词与该上下文词的相似度,对该上下文词的词向量和该词对应的各n元注音字符的注音字符向量进行更新。
21.如权利要求20所述的装置,所述训练模块确定该词在分词后的所述语料中的一个或多个上下文词,具体包括:
所述训练模块在分词后的所述语料中,通过以该词为中心,向左和/或向右滑动指定数量个词的距离,建立窗口;
将所述窗口中该词以外的词确定为该词的上下文词。
22.如权利要求12~21任一项所述的装置,所述词为中文词,所述词向量为中文词的词向量,所述注音字符为拼音字符。
23.一种词向量处理方法,包括:
步骤1,对语料分词,并建立通过所述分词得到的各词构成的词汇表,其中,所述各词不包括在所述语料中出现次数少于设定次数的词;跳转步骤2;
步骤2,根据所述词汇表,建立n元注音字符映射表,所述映射表包含所述各词与n元注音字符之间的映射关系,所述n元注音字符表征其映射的词的连续n个注音字符;跳转步骤3;
步骤3,根据所述n元注音字符映射表,建立并初始化所述各词的词向量,以及所述各词映射的各n元注音字符的注音字符向量;跳转步骤4;
步骤4,遍历分词后的所述语料,分别将遍历到的每个词作为当前词w并对当前词w执行步骤5,若遍历完成则结束,否则继续遍历;
步骤5,以当前词w为中心,向两侧分别滑动至多k个词建立窗口,遍历所述窗口中除当前词w以外的所有词,分别将遍历到的每个词作为当前词w的当前上下文词c并对当前上下文词c执行步骤6,若遍历完成则继续步骤4的执行,否则继续遍历;
步骤6,按照如下公式计算当前词w与当前上下文词c的相似度:
其中,S(w)表示所述n元注音字符映射表中当前词w映射的各n元注音字符集合,q表示S(w)中的各n元注音字符,sim(w,c)表示当前词w与当前上下文词c的相似度;表示q的注音字符向量与当前上下文词语c的词向量的向量点积;跳转步骤7;
步骤7,随机抽取λ个词作为负样例词,按照如下损失函数计算对应的损失表征值l(w,c):
其中,c’是随机抽取的负样例词,而Ec'∈p(V)[x]是指随机抽取的负样例词c’满足概率分布p(V)的情况下,表达式x的期望值,σ(·)是神经网络激励函数,定义为
根据计算出的损失表征值l(w,c)计算所述损失函数对应的梯度,根据所述梯度,对q的注音字符向量和当前上下文词语c的词向量进行更新。
CN201710337594.9A 2017-05-15 2017-05-15 词向量处理方法及装置 Active CN108874765B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710337594.9A CN108874765B (zh) 2017-05-15 2017-05-15 词向量处理方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710337594.9A CN108874765B (zh) 2017-05-15 2017-05-15 词向量处理方法及装置

Publications (2)

Publication Number Publication Date
CN108874765A true CN108874765A (zh) 2018-11-23
CN108874765B CN108874765B (zh) 2021-12-24

Family

ID=64320027

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710337594.9A Active CN108874765B (zh) 2017-05-15 2017-05-15 词向量处理方法及装置

Country Status (1)

Country Link
CN (1) CN108874765B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147550A (zh) * 2019-04-23 2019-08-20 南京邮电大学 基于神经网络的发音特征融合方法
CN110263320A (zh) * 2019-05-05 2019-09-20 清华大学 一种基于专用语料库字向量的无监督中文分词方法
CN110427608A (zh) * 2019-06-24 2019-11-08 浙江大学 一种引入分层形声特征的中文词向量表示学习方法
CN112686035A (zh) * 2019-10-18 2021-04-20 北京沃东天骏信息技术有限公司 一种未登录词进行向量化的方法和装置
CN113743054A (zh) * 2021-08-17 2021-12-03 上海明略人工智能(集团)有限公司 字母向量学习方法、系统、存储介质及电子设备
CN113743053A (zh) * 2021-08-17 2021-12-03 上海明略人工智能(集团)有限公司 字母向量计算方法、系统、存储介质及电子设备
RU2789796C2 (ru) * 2020-12-30 2023-02-10 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер для обучения алгоритму машинного обучения для выполнения перевода
US11989528B2 (en) 2020-12-30 2024-05-21 Direct Cursus Technology L.L.C Method and server for training a machine learning algorithm for executing translation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4363941B2 (ja) * 2003-09-30 2009-11-11 マイクロジェニックス株式会社 単語認識プログラム及び単語認識装置
CN105868184A (zh) * 2016-05-10 2016-08-17 大连理工大学 一种基于循环神经网络的中文人名识别方法
CN106557462A (zh) * 2016-11-02 2017-04-05 数库(上海)科技有限公司 命名实体识别方法和系统
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4363941B2 (ja) * 2003-09-30 2009-11-11 マイクロジェニックス株式会社 単語認識プログラム及び単語認識装置
CN105868184A (zh) * 2016-05-10 2016-08-17 大连理工大学 一种基于循环神经网络的中文人名识别方法
CN106569998A (zh) * 2016-10-27 2017-04-19 浙江大学 一种基于Bi‑LSTM、CNN和CRF的文本命名实体识别方法
CN106557462A (zh) * 2016-11-02 2017-04-05 数库(上海)科技有限公司 命名实体识别方法和系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
余本功等: "基于CP_CNN的中文短文本分类研究", 《计算机应用研究》 *
张强: "音字转换评测体系的研究与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
才智杰等: "藏文字符的向量模型及构建特征分析", 《中文信息学报》 *
沈翔翔等: "使用无监督学习改进中文分词", 《小型微型计算机系统》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147550A (zh) * 2019-04-23 2019-08-20 南京邮电大学 基于神经网络的发音特征融合方法
CN110263320A (zh) * 2019-05-05 2019-09-20 清华大学 一种基于专用语料库字向量的无监督中文分词方法
CN110427608A (zh) * 2019-06-24 2019-11-08 浙江大学 一种引入分层形声特征的中文词向量表示学习方法
CN110427608B (zh) * 2019-06-24 2021-06-08 浙江大学 一种引入分层形声特征的中文词向量表示学习方法
CN112686035A (zh) * 2019-10-18 2021-04-20 北京沃东天骏信息技术有限公司 一种未登录词进行向量化的方法和装置
RU2789796C2 (ru) * 2020-12-30 2023-02-10 Общество С Ограниченной Ответственностью "Яндекс" Способ и сервер для обучения алгоритму машинного обучения для выполнения перевода
US11989528B2 (en) 2020-12-30 2024-05-21 Direct Cursus Technology L.L.C Method and server for training a machine learning algorithm for executing translation
CN113743054A (zh) * 2021-08-17 2021-12-03 上海明略人工智能(集团)有限公司 字母向量学习方法、系统、存储介质及电子设备
CN113743053A (zh) * 2021-08-17 2021-12-03 上海明略人工智能(集团)有限公司 字母向量计算方法、系统、存储介质及电子设备
CN113743053B (zh) * 2021-08-17 2024-03-12 上海明略人工智能(集团)有限公司 字母向量计算方法、系统、存储介质及电子设备

Also Published As

Publication number Publication date
CN108874765B (zh) 2021-12-24

Similar Documents

Publication Publication Date Title
TWI685761B (zh) 詞向量處理方法及裝置
CN108874765A (zh) 词向量处理方法及装置
CN108170667A (zh) 词向量处理方法、装置以及设备
TWI689831B (zh) 詞向量產生方法、裝置以及設備
TWI686713B (zh) 詞向量產生方法、裝置以及設備
CN107957989A (zh) 基于集群的词向量处理方法、装置以及设备
CN110019903A (zh) 图像处理引擎组件的生成方法、搜索方法及终端、系统
CN109034183A (zh) 一种目标检测方法、装置及设备
CN109062782A (zh) 一种回归测试用例的选择方法、装置及设备
CN107423269A (zh) 词向量处理方法及装置
CN107402945A (zh) 词库生成方法及装置、短文本检测方法及装置
CN109960815A (zh) 一种神经机器翻译nmt模型的创建方法及系统
CN109325508A (zh) 知识表示、机器学习模型训练、预测方法、装置以及电子设备
CN109034534A (zh) 一种模型评分解释方法、装置及设备
CN107247704A (zh) 词向量处理方法、装置以及电子设备
CN107562716A (zh) 词向量处理方法、装置以及电子设备
CN110119381A (zh) 一种索引更新方法、装置、设备及介质
CN108170663A (zh) 基于集群的词向量处理方法、装置以及设备
CN107577658A (zh) 词向量处理方法、装置以及电子设备
CN107562715A (zh) 词向量处理方法、装置以及电子设备
TW201939278A (zh) 針對rpc資訊的向量處理方法、裝置以及設備
CN107844472A (zh) 词向量处理方法、装置以及电子设备
CN107577659A (zh) 词向量处理方法、装置以及电子设备
CN110516814A (zh) 一种业务模型参数值确定方法、装置、设备及介质
CN109389157A (zh) 一种用户群识别方法和装置及对象群识别方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20200925

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Innovative advanced technology Co.,Ltd.

Address before: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant before: Advanced innovation technology Co.,Ltd.

Effective date of registration: 20200925

Address after: Cayman Enterprise Centre, 27 Hospital Road, George Town, Grand Cayman Islands

Applicant after: Advanced innovation technology Co.,Ltd.

Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands

Applicant before: Alibaba Group Holding Ltd.

GR01 Patent grant
GR01 Patent grant