CN110321552A - 词向量构建方法、装置、介质及电子设备 - Google Patents
词向量构建方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN110321552A CN110321552A CN201910462774.9A CN201910462774A CN110321552A CN 110321552 A CN110321552 A CN 110321552A CN 201910462774 A CN201910462774 A CN 201910462774A CN 110321552 A CN110321552 A CN 110321552A
- Authority
- CN
- China
- Prior art keywords
- neologisms
- term vector
- term
- word
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 28
- 206010028916 Neologism Diseases 0.000 claims abstract description 176
- 238000000034 method Methods 0.000 claims description 37
- 238000004590 computer program Methods 0.000 claims description 14
- 238000012549 training Methods 0.000 abstract description 21
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例公开了一种词向量构建方法、装置、介质及电子设备,所述词向量构建方法用于构建未包含在训练好的Word2Vec模型词典中的新词的词向量,所述词向量构建方法包括:在包含所述新词的相关语料文本中,获得在所述新词的上下文中出现的相关词;根据所述相关词的词向量构建所述新词的词向量。本发明可以高效、经济地计算新词的词向量,并且得到的新词的词向量表达接近该新词的语义信息。此外,将新词的词向量作为重新训练或增量训练的初始化值,可以让训练更快、更有效地进行。
Description
技术领域
本发明涉及语言建模技术领域,具体而言,涉及一种词向量构建方法、装置、介质及电子设备,用于构建未包含在训练好的Word2Vec模型词典中的新词的词向量。
背景技术
近年来,为了将自然语言应用于语义分析、情绪走势分析、信息检索等领域,人们通常会先将词语(简称词)表达成一维或多维的词向量,再利用计算设备对该词向量进行进一步的处理。Google公司在2013年开放了Word2Vec技术,用于根据给定的语料库训练词向量。训练完成后,所得到的Word2Vec模型词典可以用来映射(语料库中包含的)词到一个词向量,从而实现快速的词向量建模。
然而,随着网络新词汇、新主题的不断涌现以及大量新语料文本的出现,已经训练好的Word2Vec模型词典中可能不包含新出现的新词,目前解决这一问题的方法是利用这些新的语料文本重新训练模型,或者在已有模型的基础上增量式地训练模型。由于训练模型时需要多次遍历语料文本并且进行大量的数值计算,因此带来低效、耗时、成本高等问题。
发明内容
为解决上述现有技术中存在的问题,根据本发明的一个实施例,提供一种词向量构建方法,所述方法用于构建未包含在训练好的Word2Vec模型词典中的新词的词向量,包括:在包含所述新词的相关语料文本中,获得在所述新词的上下文中出现的相关词;以及,根据所述相关词的词向量构建所述新词的词向量。
上述方法中,在包含所述新词的相关语料文本中,获得在所述新词的上下文中出现的相关词包括:对所述相关语料文本进行分词操作,得到词序列;以及,在所述词序列中,获取在所述新词之前和之后出现的预定数量的词作为所述相关词。
上述方法中,根据所述相关词的词向量构建所述新词的词向量包括:在训练好的Word2Vec模型词典中查找所述相关词对应的词向量,将找到对应的词向量的相关词作为实际关联词加入所述新词的上下文相关词列表;以及,获得所述上下文相关词列表中的实际关联词对应的词向量,根据所获得的词向量计算所述新词的词向量。
上述方法中,根据所获得的实际关联词对应的词向量计算所述新词的词向量可以包括:将所获得的词向量的平均值作为所述新词的词向量。
上述方法中,根据所获得的实际关联词对应的词向量计算所述新词的词向量可以包括:记录所述实际关联词在所述新词的上下文中出现的次数;以及,根据下式计算所述新词的词向量:
其中,WVi表示新词i的词向量,Listi表示新词i的上下文相关词列表,WVj表示新词i的实际关联词j在训练好的Word2Vec模型词典中对应的词向量,wj表示实际关联词j在新词i的上下文中出现的次数与Listi中所有实际关联词在新词i的上下文中出现的次数总和的比值。
上述方法中,根据所获得的实际关联词对应的词向量计算所述新词的词向量可以包括:记录所述实际关联词与所述新词的平均距离;以及,根据下式计算所述新词的词向量:
其中,WVi表示新词i的词向量,Listi表示新词i的上下文相关词列表,WVj表示新词i的实际关联词j在训练好的Word2Vec模型词典中对应的词向量,vj表示实际关联词j和新词i的平均距离的倒数与Listi中所有实际关联词和新词i的平均距离的倒数之和的比值。
根据本发明的一个实施例,还提供一种Word2Vec模型词典的更新方法,包括:获取待生成词向量的新词;根据上述的词向量构建方法构建所述新词的词向量;以及,将所述新词和所述新词的词向量加入所述Word2Vec模型词典。
根据本发明的一个实施例,还提供一种词向量构建装置,所述装置用于构建未包含在训练好的Word2Vec模型中的新词的词向量,所述装置包括:
相关词获取模块,用于在包含所述新词的相关语料文本中,获得在所述新词的上下文中出现的相关词;
词向量构建模块,用于根据所述相关词的词向量构建所述新词的词向量。
根据本发明的一个实施例,还提供一种计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述词向量构建方法或Word2Vec模型词典的更新方法。
根据本发明的一个实施例,还提供一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个计算机程序,当所述一个或多个计算机程序被所述一个或多个处理器执行时,使得所述电子设备实现上述词向量构建方法或Word2Vec模型词典的更新方法。
本发明实施例提供的技术方案具有以下有益效果:
利用新词在语料文本中的上下文相关词以及训练好的Word2Vec模型词典来为新词构建词向量,该过程仅需对包含新词的语料文本进行一次遍历,实现了高效、经济地计算新词的词向量;此外,由于上下文相关词和新词在语义上有相关性,因此所得到的新词的词向量表达接近该新词的语义信息。在未来重新训练模型或者增量训练模型时,所得到的新词的词向量可以作为重新/增量训练的初始化值,从而让训练更快、更有效地进行。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示意性示出了根据本发明一个实施例的词向量构建方法的流程图;
图2示意性示出了根据本发明一个实施例的在包含新词的相关语料文本中获得在该新词的上下文中出现的相关词的方法的流程图;
图3示意性示出了根据本发明一个实施例的根据相关词的词向量构建新词的词向量的方法的流程图;
图4示意性示出了根据本发明一个实施例的Word2Vec模型词典的更新方法的流程图;
图5示意性示出了根据本发明一个实施例的词向量构建装置的框图;
图6示意性示出了根据本发明一个实施例的Word2Vec模型词典的更新装置的框图;
图7示意性示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
对于已经训练好的Word2Vec模型词典中不包含的新词而言,由于这些新词在语料文本中的出现频率比较低,重新训练Word2Vec模型或者增量训练Word2Vec模型都会造成效率低而成本高的问题,此外,鉴于Word2Vec算法的核心思想在于一个词的语义是由其上下文相关词所共同决定的,因此在构建新词的词向量时,可以基于该新词的上下文相关词的词向量进行构建,从而得到符合该新词的语义的词向量。
有鉴于此,根据本发明的一个实施例,提供一种词向量构建方法,该词向量构建方法用于构建未包含在训练好的Word2Vec模型词典中的新词的词向量,该方法可以在具有计算功能和存储功能的电子设备处执行,该电子设备可以位于客户端或者服务器处。
图1示意性地示出了根据本发明一个实施例的词向量构建方法的流程图,概括而言,包括:在包含待构建词向量的新词的相关语料文本中,获得在所述新词的上下文中出现的相关词;以及,根据相关词的词向量构建所述新词的词向量。下文将参照图1详细描述该词向量构建方法的各个步骤:
步骤S101.在包含新词的相关语料文本中,获得在该新词的上下文中出现的相关词。参见图2,步骤S101包括如下的子步骤:
步骤S1011.获取新词(或称目标新词)以及包含该新词的相关语料文本。
其中,新词指的是未包含在训练好的Word2Vec模型词典中的词;训练好的Word2Vec模型词典中包含经训练得到的多个词以及每个词所对应的词向量;相关语料文本既可以是曾经训练过的语料文本(即用于训练已训练好的Word2Vec模型词典的语料文本),也可以是新增的语料文本,这些语料文本可以来自于不同的领域。
步骤S1012.将相关语料文本进行分词操作,得到词序列。
步骤S1013.在词序列中获取在所述新词之前和之后出现的n(n为正整数)个词,作为新词的相关词(即新词的上下文相关词)。其中,某些相关词可能会多次出现在新词的上下文中,因此,还记录在相关语料文本中,相关词在新词的上下文中出现的次数。
具体地,遍历所述词序列,若匹配到新词,则根据一个预设的窗口大小,获取在词序列内该新词前一个窗口和后一个窗口内的词作为该新词的相关词。优选地,预设的窗口大小为7,则在匹配到新词时,获取该新词在相关语料文本中的前七个词和后七个词作为新词的相关词。如果某个相关词在窗口内第一次出现,则将该相关词在新词的上下文中出现的次数设置为1;如果不是第一次出现,则将该相关词在新词的上下文中出现的次数加1。
步骤S102.根据新词的相关词的词向量构建该新词的词向量。参见图3,步骤S102包括如下子步骤:
步骤S1021.加载训练好的Word2Vec模型词典。
步骤S1022.构造新词的上下文相关词列表。
对于新词的所有相关词中的每个相关词,在训练好的Word2Vec模型词典中查找该相关词以及对应的词向量,如果找到对应的词向量则将该相关词作为实际关联词加入所述新词的上下文相关词列表,并在列表中记录该相关词在所述新词的上下文中出现的次数,以及记录该相关词在Word2Vec模型词典中所对应的词向量。如果没找到,则舍弃该相关词不进行记录。
步骤S1023.根据上下文相关词列表中的实际关联词对应的词向量计算新词的词向量。
具体地,获得所述上下文相关词列表中的实际关联词对应的词向量,将所获得的词向量进行加权平均,以得到新词的词向量。其中,词向量的权重为对应的实际关联词在新词的上下文中出现的次数与上下文相关词列表中所有实际关联词在新词的上下文中出现的次数总和的比值,具体参见下式:
其中,WVi表示新词i的词向量,Listi表示新词i的上下文相关词列表,WVj表示新词i的实际关联词j在Word2Vec模型词典中对应的词向量,wj表示实际关联词j在新词i的上下文中出现的次数与Listi中所有实际关联词在新词i的上下文中出现的次数总和的比值。
根据上述的实施例,仅需要对包含新词的语料文本进行一次遍历,因此与重新训练/增量训练模型相比,上述实施例提供的词向量构建方法更为高效和经济。计算时考虑了新词的上下文信息,因此所得到的新词的词向量表达接近该新词的语义信息。此外,在未来重新训练模型或者增量训练模型时,所得到的新词的词向量可以作为重新/增量训练的初始化值,从而让训练更快、更有效地进行。
在上述实施例中,需要记录相关词在新词的上下文中出现的次数,用于计算新词的词向量。在另一个实施例中,为了进一步提高效率、节省计算资源,也可以不记录相关词在新词上下文中出现的次数,而是以新词的上下文相关词列表中的所有实际关联词对应的词向量的平均值作为新词的词向量。
在另一个实施例中,可以记录相关词与新词的平均距离,用于计算新词的词向量。举例而言,在获得新词上下文中出现的相关词时,并非记录相关词出现的次数,而是记录每个相关词与新词的距离d(距离d表示新词与该相关词之间间隔了d-1个词);如果在训练好的Word2Vec模型词典中找到相关词对应的词向量,则除了在上下文相关词列表中记录该相关词(即实际关联词)和对应的词向量,则还要记录该相关词与新词的平均距离;在计算新词的词向量时,将新词的上下文相关词列表中的实际关联词所对应的词向量进行加权平均,其中,词向量的权重为:对应的实际关联词和新词的平均距离的倒数与上下文相关词列表中所有实际关联词和新词的平均距离的倒数之和的比值,具体参见下式:
其中,WVi表示新词i的词向量,Listi表示新词i的上下文相关词列表,WVj表示新词i的实际关联词j在Word2Vec模型词典中对应的词向量,vj表示实际关联词j和新词i的平均距离的倒数与Listi中所有实际关联词和新词i的平均距离的倒数之和的比值。
根据本发明的一个实施例,还提供一种Word2Vec模型词典的更新方法,该方法可以在具有计算功能和存储功能的电子设备处执行,该电子设备可以位于客户端或者服务器处。
图4示意性地示出了根据本发明一个实施例的Word2Vec模型词典的更新方法的流程图,下文将参照图4详细描述该方法的各个步骤:
步骤S201.获取待生成词向量的新词。
步骤S202.构建所述新词的词向量,包括如下的子步骤:
步骤S2021.在包含新词的相关语料文本中,获得在该新词的上下文中出现的相关词。
具体地,获取新词以及包含该新词的相关语料文本;将相关语料文本进行分词操作,得到词序列;以及,在词序列中获取在所述新词之前和之后出现的n(n为正整数)个词,作为新词的相关词。
步骤S2022.根据新词的相关词的词向量构建该新词的词向量。
具体地,加载训练好的Word2Vec模型词典;构造新词的上下文相关词列表;以及,根据新词的上下文相关词列表中的实际关联词对应的词向量计算新词的词向量。
步骤S203.将新词和新词的词向量加入Word2Vec模型词典,实现对word2Vec模型词典的更新。
以下结合附图介绍本发明的装置实施例。
根据本发明的一个实施例,还提供一种词向量构建装置。图5示出了该词向量构建装置500的框图,该装置包括:相关词获取模块501和词向量构建模块502。其中,相关词获取模块501用于在包含新词的相关语料文本中,获得在该新词的上下文中出现的相关词;词向量构建模块502用于根据新词的相关词的词向量构建该新词的词向量。
由于本实施例的词向量构建装置的各个功能模块与上文结合图1-3描述的词向量构建方法的实施例的步骤对应,因此对于本装置实施例中未披露的细节,请参照结合图1-3描述的词向量构建方法的实施例。
根据本发明的一个实施例,还提供一种Word2Vec模型词典的更新装置。图6示出了该Word2Vec模型词典的更新装置600的框图,如图6所示,该装置包括:新词获取模块601,新词向量构建模块602,以及更新模块603。其中,新词获取模块601用于获取待生成词向量的新词;词向量构建模块602用于构建新词的词向量;以及更新模块603用于将新词和新词的词向量加入Word2Vec模型词典,实现对word2Vec模型词典的更新。
由于本实施例的Word2Vec模型词典的更新装置的各个功能模块与上文结合图4描述的Word2Vec模型词典的更新方法的实施例的步骤对应,因此对于本装置实施例中未披露的细节,请参照结合图4描述的Word2Vec模型词典的更新方法的实施例。
根据本发明的一个实施例,还提供一种适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。参见图7,计算机系统700包括总线705,耦合到总线705的设备之间可以快速地传输信息。处理器701与总线705耦合,用于执行由计算机程序代码所指定的一组动作或操作,处理器701可以单独地或者与其他设备组合实现为机械、电、磁、光、量子或者化学部件等。
计算机系统700还包括耦合到总线705的存储器703,存储器703(例如,RAM或者其他动态存储设备)存储可由计算机系统700改变的数据,包括实现上述实施例所述的词向量构建方法以及Word2Vec模型词典的更新方法的指令或计算机程序。当处理器701执行该指令或计算机程序时,使得计算机系统700能够实现上述实施例中描述的词向量构建方法和Word2Vec模型词典的更新方法,例如,可以实现如图1-4中所示的各个步骤。存储器703还可以存储处理器701执行指令或计算机程序期间产生的临时数据,以及系统操作所需的各种程序和数据。计算机系统700还包括耦合到总线705的只读存储器702以及非易失性储存设备708,例如磁盘或光盘等,用于存储当计算机系统700被关闭或掉电时也能持续的数据。
计算机系统700还包括诸如键盘、传感器等的输入设备706,以及诸如阴极射线管(CRT)、液晶显示器(LCD)、打印机等的输出设备707。计算机系统700还包括耦合到总线705的通信接口704,通信接口704可以提供对外部设备的单向或双向的通信耦合。例如,通信接口704可以是并行端口、串行端口、电话调制解调器或者局域网(LAN)卡。计算机系统700还包括耦合到总线705的驱动设备709以及可拆卸设备710,诸如磁盘、光盘、磁光盘、半导体存储器等等,其根据需要安装在驱动设备709上,以便于从其上读出的计算机程序根据需要被安装入储存设备708。
根据本发明的另一个实施例,还提供一种计算机可读介质,该计算机可读介质可以是上述计算机系统700中所包含的,也可以是单独存在而未装配入该计算机系统700中的。该计算机可读介质承载有一个或者多个计算机程序或者指令,当所述一个或者多个计算机程序或者指令被处理器执行时,使得该计算机系统700实现上述实施例中所述的词向量构建方法和Word2Vec模型词典的更新方法。需要说明的是,计算机可读介质指的是向处理器501提供数据的任意介质,这种介质可以采取任意形式,包括但不限于,计算机可读存储介质(例如,非易失性介质、易失性介质)以及传输介质。其中,非易失性介质诸如包括光盘或磁盘,例如储存设备708;易失性介质例如包括存储器704。传输介质例如包括同轴电缆、铜线、光纤电缆以及在没有电缆和线缆的情况下通过空间的载波,例如声波和电磁波,包括无线电、光和红外波。计算机可读介质的一般形式包括:软盘、柔性盘、硬盘、磁带、任意其它磁介质、CD-ROM、CDRW、DVD、任意其它光介质、穿孔卡片、纸带、光标记表单、具有孔或其它光可识别标识的图案的任意其它物理介质、RAM、PROM、EPROM、FLASH-EPROM、任意其它存储器芯片或磁带盒、载波、或计算机可读取的任意其它介质。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (10)
1.一种词向量构建方法,所述方法用于构建未包含在训练好的Word2Vec模型词典中的新词的词向量,所述方法包括:
在包含所述新词的相关语料文本中,获得在所述新词的上下文中出现的相关词;
根据所述相关词的词向量构建所述新词的词向量。
2.根据权利要求1所述的方法,其特征在于,在包含所述新词的相关语料文本中,获得在所述新词的上下文中出现的相关词包括:
对所述相关语料文本进行分词操作,得到词序列;
在所述词序列中,获取在所述新词之前和之后出现的预定数量的词作为所述相关词。
3.根据权利要求1或2所述的方法,其特征在于,根据所述相关词的词向量构建所述新词的词向量包括:
在训练好的Word2Vec模型词典中查找所述相关词对应的词向量,将找到对应的词向量的相关词作为实际关联词加入所述新词的上下文相关词列表;
获得所述上下文相关词列表中的实际关联词对应的词向量,根据所获得的实际关联词对应的词向量计算所述新词的词向量。
4.根据权利要求3所述的方法,其特征在于,根据所获得的实际关联词对应的词向量计算所述新词的词向量包括:
将所获得的实际关联词对应的词向量的平均值作为所述新词的词向量。
5.根据权利要求3所述的方法,其特征在于,根据所获得的实际关联词对应的词向量计算所述新词的词向量包括:
记录所述实际关联词在所述新词的上下文中出现的次数;以及,
根据下式计算所述新词的词向量:
其中,WVi表示新词i的词向量,Listi表示新词i的上下文相关词列表,WVj表示新词i的实际关联词j在训练好的Word2Vec模型词典中对应的词向量,wj表示实际关联词j在新词i的上下文中出现的次数与Listi中所有实际关联词在新词i的上下文中出现的次数总和的比值。
6.根据权利要求3所述的方法,其特征在于,根据所获得的实际关联词对应的词向量计算所述新词的词向量包括:
记录所述实际关联词与所述新词的平均距离;以及,
根据下式计算所述新词的词向量:
其中,WVi表示新词i的词向量,Listi表示新词i的上下文相关词列表,WVj表示新词i的实际关联词j在训练好的Word2Vec模型词典中对应的词向量,vj表示实际关联词j和新词i的平均距离的倒数与Listi中所有实际关联词和新词i的平均距离的倒数之和的比值。
7.一种Word2Vec模型词典的更新方法,包括:
获取待生成词向量的新词;
根据权利要求1-6中任一项所述的词向量构建方法构建所述新词的词向量;
将所述新词和所述新词的词向量加入所述Word2Vec模型词典。
8.一种词向量构建装置,所述装置用于构建未包含在训练好的Word2Vec模型中的新词的词向量,所述装置包括:
相关词获取模块,用于在包含所述新词的相关语料文本中,获得在所述新词的上下文中出现的相关词;
词向量构建模块,用于根据所述相关词的词向量构建所述新词的词向量。
9.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个计算机程序,当所述一个或多个计算机程序被所述一个或多个处理器执行时,使得所述电子设备实现如权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910462774.9A CN110321552A (zh) | 2019-05-30 | 2019-05-30 | 词向量构建方法、装置、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910462774.9A CN110321552A (zh) | 2019-05-30 | 2019-05-30 | 词向量构建方法、装置、介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110321552A true CN110321552A (zh) | 2019-10-11 |
Family
ID=68119189
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910462774.9A Pending CN110321552A (zh) | 2019-05-30 | 2019-05-30 | 词向量构建方法、装置、介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110321552A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069822A (zh) * | 2020-09-14 | 2020-12-11 | 上海风秩科技有限公司 | 一种词向量表示的获取方法、装置、设备及可读介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05324611A (ja) * | 1992-05-19 | 1993-12-07 | Sharp Corp | 用語辞書生成機能付き文書処理装置 |
JP2002092017A (ja) * | 2000-09-13 | 2002-03-29 | Nippon Telegr & Teleph Corp <Ntt> | 概念辞書拡張方法、装置、および概念辞書拡張プログラムを記録した記録媒体 |
JP2004070636A (ja) * | 2002-08-06 | 2004-03-04 | Mitsubishi Electric Corp | 概念検索装置 |
US20130204885A1 (en) * | 2012-02-02 | 2013-08-08 | Xerox Corporation | Document processing employing probabilistic topic modeling of documents represented as text words transformed to a continuous space |
CN107957989A (zh) * | 2017-10-23 | 2018-04-24 | 阿里巴巴集团控股有限公司 | 基于集群的词向量处理方法、装置以及设备 |
CN109614481A (zh) * | 2018-09-29 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 对象识别方法、装置、电子设备及计算机可读存储介质 |
-
2019
- 2019-05-30 CN CN201910462774.9A patent/CN110321552A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05324611A (ja) * | 1992-05-19 | 1993-12-07 | Sharp Corp | 用語辞書生成機能付き文書処理装置 |
JP2002092017A (ja) * | 2000-09-13 | 2002-03-29 | Nippon Telegr & Teleph Corp <Ntt> | 概念辞書拡張方法、装置、および概念辞書拡張プログラムを記録した記録媒体 |
JP2004070636A (ja) * | 2002-08-06 | 2004-03-04 | Mitsubishi Electric Corp | 概念検索装置 |
US20130204885A1 (en) * | 2012-02-02 | 2013-08-08 | Xerox Corporation | Document processing employing probabilistic topic modeling of documents represented as text words transformed to a continuous space |
CN107957989A (zh) * | 2017-10-23 | 2018-04-24 | 阿里巴巴集团控股有限公司 | 基于集群的词向量处理方法、装置以及设备 |
CN109614481A (zh) * | 2018-09-29 | 2019-04-12 | 阿里巴巴集团控股有限公司 | 对象识别方法、装置、电子设备及计算机可读存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112069822A (zh) * | 2020-09-14 | 2020-12-11 | 上海风秩科技有限公司 | 一种词向量表示的获取方法、装置、设备及可读介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111522958A (zh) | 文本分类方法和装置 | |
CN107491534A (zh) | 信息处理方法和装置 | |
US11586817B2 (en) | Word vector retrofitting method and apparatus | |
CN109219812A (zh) | 口语对话系统中的自然语言生成 | |
CN108986805B (zh) | 用于发送信息的方法和装置 | |
CN108171276A (zh) | 用于生成信息的方法和装置 | |
CN110489751A (zh) | 文本相似度计算方法及装置、存储介质、电子设备 | |
US11934441B2 (en) | Generative ontology learning and natural language processing with predictive language models | |
CN109325213A (zh) | 用于标注数据的方法和装置 | |
CN110134931A (zh) | 媒介标题生成方法、装置、电子设备及可读介质 | |
CN109036425A (zh) | 用于操作智能终端的方法和装置 | |
CN109165344A (zh) | 用于推送信息的方法和装置 | |
CN109271403A (zh) | 一种数据查询的操作方法、装置、介质及电子设备 | |
CN109697239A (zh) | 用于生成图文信息的方法和用于生成图像数据库的方法 | |
US11003701B2 (en) | Dynamic faceted search on a document corpus | |
US11842290B2 (en) | Using functions to annotate a syntax tree with real data used to generate an answer to a question | |
CN108460458A (zh) | 在图形处理单元上执行计算图 | |
CN108038200A (zh) | 用于存储数据的方法和装置 | |
CN109920431A (zh) | 用于输出信息的方法和装置 | |
CN109389660A (zh) | 图像生成方法和装置 | |
US20230029687A1 (en) | Dialog method and system, electronic device and storage medium | |
CN109087627A (zh) | 用于生成信息的方法和装置 | |
CN108121814A (zh) | 搜索结果排序模型生成方法和装置 | |
CN109948140A (zh) | 一种词向量嵌入方法及装置 | |
CN110457325A (zh) | 用于输出信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |