CN116562232A - 词向量处理方法及装置、存储介质及电子设备 - Google Patents

词向量处理方法及装置、存储介质及电子设备 Download PDF

Info

Publication number
CN116562232A
CN116562232A CN202310532544.1A CN202310532544A CN116562232A CN 116562232 A CN116562232 A CN 116562232A CN 202310532544 A CN202310532544 A CN 202310532544A CN 116562232 A CN116562232 A CN 116562232A
Authority
CN
China
Prior art keywords
word
weight matrix
words
vector
word vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310532544.1A
Other languages
English (en)
Inventor
刘康
曹家伟
杨明川
梁伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Research Institute Of China Telecom Corp ltd
China Telecom Corp Ltd
Original Assignee
Beijing Research Institute Of China Telecom Corp ltd
China Telecom Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Research Institute Of China Telecom Corp ltd, China Telecom Corp Ltd filed Critical Beijing Research Institute Of China Telecom Corp ltd
Priority to CN202310532544.1A priority Critical patent/CN116562232A/zh
Publication of CN116562232A publication Critical patent/CN116562232A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Machine Translation (AREA)

Abstract

本公开提供一种词向量处理方法、装置、存储介质及电子设备,涉及自然语言处理技术领域。词向量处理方法包括:获取目标文本中待处理词和待处理词的上下文信息;初始化词向量编码模型的输入层到隐藏层的第一权重矩阵,词向量编码模型用于生成待处理词的词向量;根据第一权重矩阵、待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定词向量编码模型中隐藏层向量;字相关性参数表征一个词中多个字向量之间的相关性;根据隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵;根据调整第一权重矩阵后的词向量编码模型,生成待处理词的词向量。本公开考虑了组成词的多个字之间的紧密联系程度,生成的词向量更为准确。

Description

词向量处理方法及装置、存储介质及电子设备
技术领域
本公开涉及自然语言处理技术领域,尤其涉及一种词向量处理方法及装置、存储介质及电子设备。
背景技术
词向量(Word embedding),又叫Word嵌入式自然语言处理(NLP)中的一组语言建模和特征学习技术的统称,其中来自词汇表的单词或短语被映射到实数的向量。从概念上讲,它涉及从每个单词一维的空间到具有更低维度的连续向量空间的数学嵌入。词向量的训练结果好坏直接影响到后续的自然语言处理任务的处理效果。
但主流词向量训练算法,都是针对英文的语料特点设计出来的,对于中文语料的训练结果并不理想,即中文语料训练得到的词向量不够准确,使得后续利用训练好的词向量进行聚类分析等处理时,不能够很好地识别语义。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供一种词向量处理方法及相关设备,至少在一定程度上克服相关技术中文语料训练得到的词向量不够准确的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供了一种词向量处理方法,包括:
获取目标文本中待处理词和所述待处理词的上下文信息;
初始化词向量编码模型的输入层到隐藏层的第一权重矩阵,其中,所述词向量编码模型用于生成所述待处理词的词向量;
根据所述第一权重矩阵、所述待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量;所述字相关性参数表征一个词中多个字向量之间的相关性;
根据所述词向量编码模型中隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵;
根据调整第一权重矩阵后的词向量编码模型,生成所述待处理词的词向量。
在一些实施例中,获取目标文本中待处理词和所述待处理词的上下文信息,包括:
获取待处理的目标文本;
对所述目标文本进行分词,得到多个按照目标文本语序排列的分词;
从多个所述分词中选取待处理词,确定所述待处理词的上下文信息。
具体实施例中,根据所述词向量编码模型中隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵,包括:
初始化所述词向量编码模型的隐藏层到输出层的第二权重矩阵;
基于所述词向量编码模型中隐藏层向量和所述第二权重矩阵,确定所述词向量编码模型的输出层概率分布;
根据所述词向量编码模型中输出层概率分布,对所述第一权重矩阵和所述第二权重矩阵进行调整,得到调整后的第一权重矩阵。
在一些实施例中,根据所述第一权重矩阵、所述待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量,包括:
根据所述待处理词的上下文信息,确定所述待处理词的上文词和下文词;
根据所述待处理词的上文词和下文词以及所述第一权重矩阵,确定所述待处理词的初始上文词的词向量和初始下文词的词向量;
根据初始上文词的词向量、上文词对应的字相关性参数、初始下文词的词向量和下文词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量。
具体地,根据所述待处理词的上文词和下文词以及所述第一权重矩阵,确定所述待处理词的初始上文词的词向量和初始下文词的词向量,包括:
对上文词进行向量编码,得到上文词的编码;
对下文词进行向量编码,得到下文词的编码;
根据所述第一权重矩阵和上文词的编码,得到初始上文词的词向量;
根据所述第一权重矩阵和下文词的编码,得到初始下文词的词向量。
在一具体实施例中,根据所述第一权重矩阵、所述待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量之前,所述方法还包括:确定上下文信息中每个词对应的字相关性参数;该步骤包括:
基于每个词包含的多个字的上下文序列,确定每个词中多个字的字向量;
计算每个词中任意两个字向量之间的余弦相似度;
根据每个词中任意两个字向量之间的余弦相似度,确定每个词对应的字相关性参数。
其中,基于每个词包含的多个字的上下文序列,确定每个词中多个字的字向量,包括:
初始化字向量编码模型的输入层到隐藏层的第三权重矩阵;其中,所述字向量编码模型用于生成字的字向量;
根据所述第三权重矩阵,确定每个词中每个字的初始字向量;
基于每个词包含的多个字的上下文序列,根据每个词中每个字的初始字向量,确定每个词中每个字对应的所述字向量编码模型中隐藏层向量;
初始化所述字向量编码模型的隐藏层到输出层的第四权重矩阵;
基于每个词中每个字对应的所述字向量编码模型中隐藏层向量和所述第四权重矩阵,确定每个字对应的所述字向量编码模型的输出层概率分布;
根据每个字对应的所述字向量编码模型中输出层概率分布,对所述第三权重矩阵和所述第四权重矩阵进行调整,得到调整后的第三权重矩阵;
根据调整第三权重矩阵后的字向量编码模型,生成每个词中每个字的字向量。
具体地,根据每个字对应的所述字向量编码模型中输出层概率分布,对所述第三权重矩阵和所述第四权重矩阵进行调整,得到调整后的第三权重矩阵,包括:
利用随机梯度下降方法,以每个字对应的所述字向量编码模型中输出层概率分布为优化目标,调整所述第三权重矩阵和所述第四权重矩阵,得到调整后的第三权重矩阵。
根据本公开的又一个方面,还提供了一种词向量处理装置,包括:
数据获取模块,用于获取目标文本中待处理词和所述待处理词的上下文信息;
第一权重矩阵初始模块,用于初始化词向量编码模型的输入层到隐藏层的第一权重矩阵,其中,所述词向量编码模型用于生成所述待处理词的词向量;
隐藏层向量确定模块,用于根据所述第一权重矩阵、所述待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量;所述字相关性参数表征一个词中多个字向量之间的相关性;
第一权重矩阵调整模块,用于根据所述词向量编码模型中隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵;
词向量生成模块,用于根据调整第一权重矩阵后的词向量编码模型,生成所述待处理词的词向量。
根据本公开的另一个方面,还提供了一种电子设备,该电子设备包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的词向量处理方法。
根据本公开的另一个方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的词向量处理方法。
根据本公开的另一个方面,还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述任意一项的词向量处理方法。
本公开的实施例中提供的词向量处理方法及装置、存储介质及电子设备,基于待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定词向量编码模型中隐藏层向量,再根据隐藏层向量调整第一权重矩阵,使得在生成词向量时,引入了词中字向量相关性的影响,基于字与词的相关性融合生成词向量,使得生成的词向量考虑了组成词的多个字之间的紧密联系程度以及中文文本组成字之间的语序,使得生成的词向量更为准确。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开实施例中一种词向量处理方法的示例性应用系统结构的示意图;
图2示出本公开实施例中一种词向量处理方法流程图;
图3示出本公开实施例中S206的一种实施过程流程示意图;
图4示出本公开具体实施例中一种词向量处理方法流程图;
图5示出本公开实施例中S402的一种实施过程流程示意图;
图6示出本公开实施例中S502的一种实施过程流程示意图;
图7示出本公开实施例中一具体实例的实施过程示意图;
图8示出本公开实施例中一种词向量处理装置示意图;
图9示出本公开具体实施例中一种词向量处理装置示意图;和
图10示出本公开实施例中一种电子设备的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
下面结合附图,对本公开实施例的具体实施方式进行详细说明。
图1示出了可以应用本公开实施例中词向量处理方法的示例性应用系统架构示意图。如图1所示,该系统架构可以包括终端设备101和服务器102。
终端设备101和服务器102之间可以是有线网络,也可以是无线网络。
可选地,上述的无线网络或有线网络使用标准通信技术和/或协议。网络通常为因特网、但也可以是任何网络,包括但不限于局域网(Local Area Network,LAN)、城域网(Metropolitan Area Network,MAN)、广域网(Wide Area Network,WAN)、移动、有线或者无线网络、专用网络或者虚拟专用网络的任何组合)。在一些实施例中,使用包括超文本标记语言(Hyper Text Mark-up Language,HTML)、可扩展标记语言(ExtensibleMarkupLanguage,XML)等的技术和/或格式来代表通过网络交换的数据。此外还可以使用诸如安全套接字层(Secure Socket Layer,SSL)、传输层安全(Transport Layer Security,TLS)、虚拟专用网络(Virtual Private Network,VPN)、网际协议安全(InternetProtocolSecurity,IPsec)等常规加密技术来加密所有或者一些链路。在另一些实施例中,还可以使用定制和/或专用数据通信技术取代或者补充上述数据通信技术。
终端设备101可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机、可穿戴设备、增强现实设备、虚拟现实设备等。
可选地,不同的终端设备101中安装的应用程序的客户端是相同的,或基于不同操作系统的同一类型应用程序的客户端。基于终端平台的不同,该应用程序的客户端的具体形态也可以不同,比如,该应用程序客户端可以是手机客户端、PC客户端等。
服务器102可以是提供各种服务的服务器,例如对用户利用终端设备101所进行操作的装置提供支持的后台管理服务器。后台管理服务器可以对接收到的请求等数据进行分析等处理,并将处理结果反馈给终端设备。
可选地,服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN(Content Delivery Network,内容分发网络)、以及大数据和人工智能平台等基础云计算服务的云服务器。终端可以是智能手机、平板电脑、笔记本电脑、台式计算机、智能音箱、智能手表等,但并不局限于此。终端以及服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。
本领域技术人员可以知晓,图1中的终端设备和服务器的数量仅仅是示意性的,根据实际需要,可以具有任意数目的终端设备和服务器。本公开实施例对此不作限定。
在上述系统架构下,本公开实施例中提供了一种词向量处理方法,在一些实施例中,本公开实施例中提供的词向量处理方法可以由上述系统架构的终端设备执行;在另一些实施例中,例如需要进行大量的文本处理时,单独的终端设备难以迅速生成大量文本的词向量时,本公开实施例中提供的词向量处理方法可以由上述系统架构中的服务器执行,用以大批量生成不同词的词向量;在另一些实施例中,本公开实施例中提供的词向量处理方法可以由上述系统架构中的终端设备和服务器通过交互的方式来实现。
如图2所示,本公开实施例中提供的词向量处理方法包括如下步骤:
S202,获取目标文本中待处理词和待处理词的上下文信息;
需要说明的是,目标文本一般为含有中文语料的文本。具体地,获取待处理的目标文本;对目标文本进行分词,得到多个按照目标文本语序排列的分词;从多个分词中选取待处理词,确定待处理词的上下文信息。可选地,在分词前,对目标文本进行去除语气词、去除标点符号以及更正错别字等数据清洗预处理操作,以减少后续处理中的冗杂信息。可选地,分词时可以根据适用于中文的分词算法进行拆分,也可根据实际需要构建分词词典,依据构建的分词词典进行拆分。例如,在通信场景下,包含多种业务场景,例如大客户业务订单、IP虚拟专网、ICT业务、IDC订单、95专线等专有词汇,在此场景下,通过构建包含有上述专有词汇的分词词典进行拆分,能够避免本应用场景下的专有词汇被误拆,使得生成的词向量能够更贴合本应用场景,进而提高该场景后续的文本处理的准确性。具体实施时,可按照目标文本语序排列逐个选择分词作为待处理词,并确定该待处理词的上文词和下文词,需要注意的是,确定该待处理词的上文词和下文词时,根据预先设置的文本窗口大小进行处理,例如,预先设置的文本窗口为2,则需要距离该待处理词在2以内上文词和下文词。以“今天很热天气真好”为例,选择“很热”为待处理词,由于上文词仅有一个,则待处理词的上文词为“今天”,下文词为“天气”和“真好”。
S204,初始化词向量编码模型的输入层到隐藏层的第一权重矩阵;其中,上述词向量编码模型用于生成待处理词的词向量;
需要说明的是,上述词向量编码模型可选用CBow模型,CBow模型认为相邻的词相似度越高,越远的相似度越低,那么如果相邻词出现了,中心词出现的概率应该很大,因此可以用中心词去预测相邻的词。词向量编码模型中至少包含输入层、隐藏层和输出层,对输入层到隐藏层的第一权重矩阵W1进行初始化,一般地,W1的初始值可选为V1×N1,其中,V1表示待处理词以及上下文词所构建的待处理词库中词的个数;N1表示隐藏层神经元的数量,即希望最后得到的词向量维数为N1。具体实施过程中,可对待处理词库中词进行独热向量one-hot编码,也就是说每个词进行one-hot编码后的向量的维数是V1。
S206,根据第一权重矩阵、待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定词向量编码模型中隐藏层向量;其中,字相关性参数表征一个词中多个字向量之间的相关性;
在本公开的实施例中,S206的实施过程如图3所示,包括如下步骤:
S302,根据待处理词的上下文信息,确定待处理词的上文词和下文词;
S304,根据待处理词的上文词和下文词以及第一权重矩阵,确定待处理词的初始上文词的词向量和初始下文词的词向量;
具体实施时,通过第一权重矩阵的初始值,确定初始上文词的词向量和初始下文词的词向量。S304具体实施过程,包括:对上文词进行向量编码,得到上文词的编码;对下文词进行向量编码,得到下文词的编码;根据第一权重矩阵和上文词的编码,得到初始上文词的词向量;根据第一权重矩阵和下文词的编码,得到初始下文词的词向量。一般来说,初始上文词的词向量为对上文词的one-hot编码后得到的向量与第一权重矩阵相乘后得到的向量,初始下文词的词向量是对下文词的one-hot编码后得到的向量与第一权重矩阵相乘后得到的向量。可用如下公式进行表示:
Xi=Oi×W1 (1)
其中,Xi表示第i个词的词向量;
Oi表示对第i个词one-hot编码后得到的向量;
W1表示第一权重矩阵。
S306,根据初始上文词的词向量、上文词对应的字相关性参数、初始下文词的词向量和下文词对应的字相关性参数,确定词向量编码模型中隐藏层向量。
具体实施时,初始上文词的词向量乘上对应的字相关性参数,以及初始下文词的词向量乘上下文词对应的字相关性参数后求和取均值,即可确定词向量编码模型中隐藏层向量。
S208,根据词向量编码模型中隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵;
具体实施时,初始化词向量编码模型的隐藏层到输出层的第二权重矩阵W2;基于词向量编码模型中隐藏层向量和第二权重矩阵,确定词向量编码模型的输出层概率分布;根据词向量编码模型中输出层概率分布,对第一权重矩阵W1和第二权重矩阵W2进行调整,得到调整后的第一权重矩阵W1。
具体实施时,第二权重矩阵W2的初始值可选为与第一权重矩阵W1的初始值一致。
词向量编码模型中输出层概率分布表征的是表示上下文中的每一个词预测出的中心目标词的概率,希望这个概率值越接近1越好,故以此为目标,调整W1和W2,迭代S206和S208,以使得完成迭代目标。具体实施例中,通过词向量编码模型的输出层概率分布,计算该词向量编码模型的损失函数,以该损失函数最小化为目标,循环迭代S206和S208,直至满足收敛条件,一般地,收敛条件设置为循环迭代次数需大于或等于某一数值,例如5、8或10等,本领域技术人员能够理解的是,该取值仅为举例,不用于限定本公开的保护范围。
S210,根据调整第一权重矩阵后的词向量编码模型,生成待处理词的词向量。
具体地,将调整后的第一权重矩阵代入公式(1)中,即可确定该待处理词的词向量。
由上述步骤可以看出,本公开实施例提供的词向量处理方法,基于待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定词向量编码模型中隐藏层向量,再根据隐藏层向量调整第一权重矩阵,使得在生成词向量时,引入了词中字向量相关性的影响,基于字与词的相关性融合生成词向量,使得生成的词向量考虑了组成词的多个字之间的紧密联系程度以及中文文本组成字之间的语序,使得生成的词向量更为准确。
在本公开的一个实施例中,还提供一种词向量处理方法,如图4所示,在图2的基础上,在S206之前,还包括如下步骤:
S402,确定上下文信息中每个词对应的字相关性参数。
在本公开的具体实施过程中,S402的实现步骤如图5所示,包括:
S502,基于每个词包含的多个字的上下文序列,确定每个词中多个字的字向量;
S504,计算每个词中任意两个字向量之间的余弦相似度;
其中,余弦相似度量表征的是计算个体间的相似度:相似度越小,距离越大;相似度越大,距离越小。需要注意的是,每个词中字的个数大于或等于2,即在具体实施时,在分词时若分词为单个词时,将其去除。
S506,根据每个词中任意两个字向量之间的余弦相似度,确定每个词对应的字相关性参数。
需要注意的是,需要根据词的长度,来确定这个词对应的字相关性参数。词长度为2时,也就是说该词中仅包含两个字,将两个字向量之间的余弦相似度确定为该词对应的字相关性参数。词长度大于2时,也就是说该词中至少包含三个字,循环余弦相似度求平均,作为词对应的字相关性参数,即任意两个字向量之间的余弦相似度求和后,除字的个数的平方值,得到的值为字相关性参数。
在本公开的实施例中,S502的实现过程,如图6所示,包括:
S602,初始化字向量编码模型的输入层到隐藏层的第三权重矩阵;其中,字向量编码模型用于生成字的字向量;
需要注意的是,字向量编码模型可选用CBow模型,至少包括一输入层、一隐藏层和一输出层。对输入层到隐藏层的第三权重矩阵W3进行初始化,一般地,W3的初始值可选为V2×N2,其中,V2表示一个词中字的个数;N2表示隐藏层神经元的数量,即希望最后得到的字向量维数为N2。具体实施过程中,可对词中多个字进行one-hot编码,也就是说每个字进行one-hot编码后的向量的维数是V2。举例说明,以“今天天气真好”为例,按照语序分为“今”、“天”、“气”、“真”和“好”,对每个字进行one-hot编码:
今=[1 0 0 0 0]
天=[0 1 0 0 0]
气=[0 0 1 0 0]
真=[0 0 0 1 0]
好=[0 0 0 0 1]
则W3随机初始化为:
S604,根据第三权重矩阵,确定每个词中每个字的初始字向量;
利用上述每个字的one-hot编码后的向量,与W3相乘后即可得到每个字的初始字向量。可用如下公式进行表示:
Yj=Oj×W3 (2)
其中,Yj表示第j个字的字向量;
Qj表示对第j个字进行one-hot编码后得到的向量;
W3表示第三权重矩阵。
S606,基于每个词包含的多个字的上下文序列,根据每个词中每个字的初始字向量,确定每个词中每个字对应的字向量编码模型中隐藏层向量;
本公开具体实施例中,按照语序逐个选取一个词中的每个字作为中心字,以此确定这个字作为中心字时字向量编码模型中隐藏层向量。在确定一个字作为中心字时字向量编码模型中隐藏层向量时,首先确定预先设置的文本窗口大小,例如为1,则以该字为中心向前找一个字,向后找一个字,并获取这两个字的初始字向量。若为上文字,初始字向量除上该字与中心字之间的距离得到计算值;若为下文字,初始字向量除上该字与中心字之间的距离并取负数得到计算值。把每个字的计算值相加取均值就是这个字作为中心字时字向量编码模型中隐藏层向量。以“大客户业务订单”中的“业”作为中心字,文本窗口大小取值为2为例,此时字向量编码模型中隐藏层向量为:
(“客”的初始字向量/2+“户”的初始字向量/1-“务”的初始字向量/1-“订”的初始字向量/2)
S608,初始化字向量编码模型的隐藏层到输出层的第四权重矩阵W4;
具体实施时,第四权重矩阵W4的初始值可选择与第三权重矩阵W3的初始值一致。
S610,基于每个词中每个字对应的字向量编码模型中隐藏层向量和第四权重矩阵,确定每个字对应的字向量编码模型的输出层概率分布;
具体实施时,对某个字对应的字向量编码模型中隐藏层向量和第四权重矩阵相乘后得到的值进行softmax的函数处理,即可得到这个字对应的字向量编码模型的输出层概率分布。字向量编码模型中输出层概率分布表征的是表示词中上下文中的每一个字预测出的中心目标字的概率,希望这个概率值越接近1越好。
S612,根据每个字对应的字向量编码模型中输出层概率分布,对第三权重矩阵和第四权重矩阵进行调整,得到调整后的第三权重矩阵;
具体地,利用随机梯度下降方法,以每个字对应的字向量编码模型中输出层概率分布为优化目标,调整第三权重矩阵和第四权重矩阵,得到调整后的第三权重矩阵。以字向量编码模型中输出层概率分布为优化目标,迭代S604至S610,以使得完成迭代目标。具体地,通过计算该字向量编码模型的损失函数,以该损失函数最小化为目标,循环迭代S604至S610,直至满足收敛条件,一般地,收敛条件设置为循环迭代次数需大于或等于某一数值,例如5、8或10等,本领域技术人员能够理解的是,该取值仅为举例,不用于限定本公开的保护范围。
S614,根据调整第三权重矩阵后的字向量编码模型,生成每个词中每个字的字向量。
具体地,对每个字而言,在将这个字作为中心字时,都能得到一个调整后的第三权重矩阵,将其代入公式(2)中,即可确定这个字的字向量。以此类推,得到一个词中多个字的字向量。
通过构建基于上下文预测中心字向量的字向量编码模型,确定更为准确的字向量,并计算确定一个词中字向量之间的余弦相似度,以此为依据确定这个词对应的字相关性参数,以表征词中字的紧密联系程度,并在后续词向量生成过程中,把字相关性参数作为权重的一部分加入,即在生成的词向量过程中,充分考虑了组成词语的汉字之间的联系程度和语序,使得生成的词向量能够很大程度表达词的重点性。
进一步地,通过构建某些应用场景的词库,以此训练上述词向量编码模型和字向量编码模型,能够得到该应用场景下最关注的重点词的词向量生成,所生成的词向量重要性特征较高,即生成的词向量能够准确地表达这个词是否被该应用场景所重点关注,使得基于生成的词向量聚类分析的结果更为准确,进而使得后续的目标文本的自然语言处理结果更为准确。
特别是,针对通信服务领域中使用常规的词向量生成算法,所产生的文本数据样本数量少、标注比例低、标注成本高等的问题,应用本公开所提供的词向量处理方法,得到的词向量无需大量的文本数据样本,不依靠大量的标注,故而减少了人工对词的标注成本,能够解决上述问题,且得到的词向量对文本的表示更为准确。相较于原始的文本数据,所生成的词向量表示并挖掘了原始文本数据中隐藏的知识,便于知识图谱等下游任务的使用与分析。且能够依据生成的词向量识别被服务的用户意图,从而针对性地优化用户服务,提高用户服务体验。同时,也能够基于所生成的词向量,构建贴合通信服务领域的行业词向量数据库,庞大的数据储备能够大大减少日常行业中各种文本处理的时间,提升业务办理的效率。
为了更好地解释说明本公开提供的词向量处理方法,以一具体实例为例进一步说明词向量处理方法的过程。如图7所示为本具体实例的具体实施流程示意图。
本具体实例中目标文本为“今天好热天气真好”,将其分词后得到“今天”、“好热”和“天气真好”三个按照语序排列的分词,选取“好热”作为待处理词为例,“今天”是其上文词,“天气真好”是其下文词。
对“今天”、“好热”和“天气真好”分别进行one-hot编码,编码分别为:
今天=[1 0 0],好热=[0 1 0],天气真好=[0 0 1]
并随机初始化W1为:
接着,确定“今天”和“天气真好”的字相关性参数,具体地,以“天气真好”为例,对“天”、“气”、“真”、“好”这四个字进行one-hot编码,编码分别为:
天=[1 0 0 0],气=[0 1 0 0]
真=[0 0 1 0],好=[0 0 0 1]
分别以“天”、“气”、“真”、“好”为中心字,循环迭代确定每个字的字向量。在确定过程中,文本窗口大小取值为2。得到的字向量结果为:
天=[0.312 -0.071 0.02]气=[0.21 -0.09 -0.041]
真=[-0.238 -0.117 0.0068]好=[0.194 0.052 -0.26]
基于上述字向量确定字相关性参数,具体过程,包括:
令x1=[0.312 -0.071 0.02]x2=[0.21 -0.09 -0.041]
x3=[-0.238 -0.117 0.0068]x4=[0.194 0.052 -0.26]
其中,p表示计算当前字相似度的位置;q表示计算相似度的组成词所有字的位置;k表示组成词的所有字的位置;n表示字向量的维度大小。
具体地,cos(θ)取值为0.25241735821555666。
同样地,“今天”对应的字相关性参数值为0.8108552813855323。
接着,文本窗口大小取值为1,计算此时的词向量编码模型中隐藏层向量为:
h=(X1×cos(θ1)+X3×cos(θ3))/2
其中,h表示此时的词向量编码模型中隐藏层向量;X1表示“今天”的初始词向量;cos(θ1)表示“今天”对应的字相关性参数;X3表示“天气真好”的初始词向量;cos(θ3)表示“天气真好”对应的字相关性参数。
初始化W2,得到词向量编码模型中输出层概率分布为:
u=h×W2
U=softmax(u)
其中,u表示上下文中每一个词预测出的中心目标词的概率;
U表示被归一化的取值在0至1之间的概率值。
基于上述输出层概率分布,确定损失函数,损失函数就是给定输入上下文的输出中心目标词的条件概率,一般都是取对数,利用随机梯度下降方法,以损失函数最小化为目标,调整W1和W2,循环迭代多次,得到调整后的W1为:
基于此,生成“好热”的词向量为:[-1.0541883 0.35622352 0.255165130.16101919]。
需要注意的是,本公开技术方案中对数据的获取、存储、使用、处理等均符合国家法律法规的相关规定。
基于同一发明构思,本公开实施例中还提供了一种词向量处理装置,如下面的实施例所述。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
图8示出本公开实施例中一种词向量处理装置示意图,如图8所示,该装置包括:
数据获取模块801,用于获取目标文本中待处理词和待处理词的上下文信息;
第一权重矩阵初始模块802,用于初始化词向量编码模型的输入层到隐藏层的第一权重矩阵,其中,词向量编码模型用于生成待处理词的词向量;
隐藏层向量确定模块803,用于根据第一权重矩阵、待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定词向量编码模型中隐藏层向量;其中,字相关性参数表征一个词中多个字向量之间的相关性;
第一权重矩阵调整模块804,用于根据词向量编码模型中隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵;
词向量生成模块805,用于根据调整第一权重矩阵后的词向量编码模型,生成待处理词的词向量。
此处需要说明的是,上述数据获取模块801、第一权重矩阵初始模块802、隐藏层向量确定模块803、第一权重矩阵调整模块804和词向量生成模块805对应于方法实施例中的S202~S210,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述方法实施例所公开的内容。需要说明的是,上述模块作为装置的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
在本公开的一个实施例中,上述数据获取模块801,具体用于:获取待处理的目标文本;对目标文本进行分词,得到多个按照目标文本语序排列的分词;从多个分词中选取待处理词,确定待处理词的上下文信息。
在本公开的一个实施例中,隐藏层向量确定模块803,具体用于:根据待处理词的上下文信息,确定待处理词的上文词和下文词;根据待处理词的上文词和下文词以及第一权重矩阵,确定待处理词的初始上文词的词向量和初始下文词的词向量;根据初始上文词的词向量、上文词对应的字相关性参数、初始下文词的词向量和下文词对应的字相关性参数,确定词向量编码模型中隐藏层向量。
进一步地,隐藏层向量确定模块803,具体用于:对上文词进行向量编码,得到上文词的编码;对下文词进行向量编码,得到下文词的编码;根据第一权重矩阵和上文词的编码,得到初始上文词的词向量;根据第一权重矩阵和下文词的编码,得到初始下文词的词向量。
在本公开的一个实施例中,第一权重矩阵调整模块804,具体用于:初始化词向量编码模型的隐藏层到输出层的第二权重矩阵;
基于词向量编码模型中隐藏层向量和第二权重矩阵,确定词向量编码模型的输出层概率分布;
根据词向量编码模型中输出层概率分布,对第一权重矩阵和第二权重矩阵进行调整,得到调整后的第一权重矩阵。
在本公开的具体实施例中,还提供一种词向量处理装置,如图9所示,在图8的基础上,还包括:
字相关性参数确定模块901,用于基于每个词包含的多个字的上下文序列,确定每个词中多个字的字向量;计算每个词中任意两个字向量之间的余弦相似度;根据每个词中任意两个字向量之间的余弦相似度,确定每个词对应的字相关性参数。
具体地,字相关性参数确定模块901,具体用于:初始化字向量编码模型的输入层到隐藏层的第三权重矩阵;其中,字向量编码模型用于生成字的字向量;根据第三权重矩阵,确定每个词中每个字的初始字向量;基于每个词包含的多个字的上下文序列,根据每个词中每个字的初始字向量,确定每个词中每个字对应的字向量编码模型中隐藏层向量;初始化字向量编码模型的隐藏层到输出层的第四权重矩阵;基于每个词中每个字对应的字向量编码模型中隐藏层向量和第四权重矩阵,确定每个字对应的字向量编码模型的输出层概率分布;根据每个字对应的字向量编码模型中输出层概率分布,对第三权重矩阵和第四权重矩阵进行调整,得到调整后的第三权重矩阵;根据调整第三权重矩阵后的字向量编码模型,生成每个词中每个字的字向量。
进一步地,字相关性参数确定模块901,具体用于:利用随机梯度下降方法,以每个字对应的字向量编码模型中输出层概率分布为优化目标,调整第三权重矩阵和所述第四权重矩阵,得到调整后的第三权重矩阵。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图10来描述根据本公开的这种实施方式的电子设备1000。图10显示的电子设备1000仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图10所示,电子设备1000以通用计算设备的形式表现。电子设备1000的组件可以包括但不限于:上述至少一个处理单元1010、上述至少一个存储单元1020、连接不同系统组件(包括存储单元1020和处理单元1010)的总线1030。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1010执行,使得所述处理单元1010执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元1010可以执行上述方法实施例的如下步骤:
获取目标文本中待处理词和待处理词的上下文信息;
初始化词向量编码模型的输入层到隐藏层的第一权重矩阵,其中,词向量编码模型用于生成待处理词的词向量;
根据第一权重矩阵、待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定词向量编码模型中隐藏层向量;其中,字相关性参数表征一个词中多个字向量之间的相关性;
根据词向量编码模型中隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵;
根据调整第一权重矩阵后的词向量编码模型,生成待处理词的词向量。
存储单元1020可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)10201和/或高速缓存存储单元10202,还可以进一步包括只读存储单元(ROM)10203。
存储单元1020还可以包括具有一组(至少一个)程序模块10205的程序/实用工具10204,这样的程序模块10205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1030可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1000也可以与一个或多个外部设备1040(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1000交互的设备通信,和/或与使得该电子设备1000能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1050进行。并且,电子设备1000还可以通过网络适配器1060与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器1060通过总线1030与电子设备1000的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1000使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机程序产品,该计算机程序产品包括:计算机程序,所述计算机程序被处理器执行时实现上述词向量处理方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。

Claims (11)

1.一种词向量处理方法,其特征在于,包括:
获取目标文本中待处理词和所述待处理词的上下文信息;
初始化词向量编码模型的输入层到隐藏层的第一权重矩阵,其中,所述词向量编码模型用于生成所述待处理词的词向量;
根据所述第一权重矩阵、所述待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量;所述字相关性参数表征一个词中多个字向量之间的相关性;
根据所述词向量编码模型中隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵;
根据调整第一权重矩阵后的词向量编码模型,生成所述待处理词的词向量。
2.根据权利要求1所述的词向量处理方法,其特征在于,获取目标文本中待处理词和所述待处理词的上下文信息,包括:
获取待处理的目标文本;
对所述目标文本进行分词,得到多个按照目标文本语序排列的分词;
从多个所述分词中选取待处理词,确定所述待处理词的上下文信息。
3.根据权利要求1所述的词向量处理方法,其特征在于,根据所述词向量编码模型中隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵,包括:
初始化所述词向量编码模型的隐藏层到输出层的第二权重矩阵;
基于所述词向量编码模型中隐藏层向量和所述第二权重矩阵,确定所述词向量编码模型的输出层概率分布;
根据所述词向量编码模型中输出层概率分布,对所述第一权重矩阵和所述第二权重矩阵进行调整,得到调整后的第一权重矩阵。
4.根据权利要求1所述的词向量处理方法,其特征在于,根据所述第一权重矩阵、所述待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量,包括:
根据所述待处理词的上下文信息,确定所述待处理词的上文词和下文词;
根据所述待处理词的上文词和下文词以及所述第一权重矩阵,确定所述待处理词的初始上文词的词向量和初始下文词的词向量;
根据初始上文词的词向量、上文词对应的字相关性参数、初始下文词的词向量和下文词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量。
5.根据权利要求4所述的词向量处理方法,其特征在于,根据所述待处理词的上文词和下文词以及所述第一权重矩阵,确定所述待处理词的初始上文词的词向量和初始下文词的词向量,包括:
对上文词进行向量编码,得到上文词的编码;
对下文词进行向量编码,得到下文词的编码;
根据所述第一权重矩阵和上文词的编码,得到初始上文词的词向量;
根据所述第一权重矩阵和下文词的编码,得到初始下文词的词向量。
6.根据权利要求4所述的词向量处理方法,其特征在于,根据所述第一权重矩阵、所述待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量之前,所述方法还包括:确定上下文信息中每个词对应的字相关性参数;该步骤包括:
基于每个词包含的多个字的上下文序列,确定每个词中多个字的字向量;
计算每个词中任意两个字向量之间的余弦相似度;
根据每个词中任意两个字向量之间的余弦相似度,确定每个词对应的字相关性参数。
7.根据权利要求6所述的词向量处理方法,其特征在于,基于每个词包含的多个字的上下文序列,确定每个词中多个字的字向量,包括:
初始化字向量编码模型的输入层到隐藏层的第三权重矩阵;其中,所述字向量编码模型用于生成字的字向量;
根据所述第三权重矩阵,确定每个词中每个字的初始字向量;
基于每个词包含的多个字的上下文序列,根据每个词中每个字的初始字向量,确定每个词中每个字对应的所述字向量编码模型中隐藏层向量;
初始化所述字向量编码模型的隐藏层到输出层的第四权重矩阵;
基于每个词中每个字对应的所述字向量编码模型中隐藏层向量和所述第四权重矩阵,确定每个字对应的所述字向量编码模型的输出层概率分布;
根据每个字对应的所述字向量编码模型中输出层概率分布,对所述第三权重矩阵和所述第四权重矩阵进行调整,得到调整后的第三权重矩阵;
根据调整第三权重矩阵后的字向量编码模型,生成每个词中每个字的字向量。
8.根据权利要求7所述的词向量处理方法,其特征在于,根据每个字对应的所述字向量编码模型中输出层概率分布,对所述第三权重矩阵和所述第四权重矩阵进行调整,得到调整后的第三权重矩阵,包括:
利用随机梯度下降方法,以每个字对应的所述字向量编码模型中输出层概率分布为优化目标,调整所述第三权重矩阵和所述第四权重矩阵,得到调整后的第三权重矩阵。
9.一种词向量处理装置,其特征在于,包括:
数据获取模块,用于获取目标文本中待处理词和所述待处理词的上下文信息;
第一权重矩阵初始模块,用于初始化词向量编码模型的输入层到隐藏层的第一权重矩阵,其中,所述词向量编码模型用于生成所述待处理词的词向量;
隐藏层向量确定模块,用于根据所述第一权重矩阵、所述待处理词的上下文信息和上下文信息中每个词对应的字相关性参数,确定所述词向量编码模型中隐藏层向量;所述字相关性参数表征一个词中多个字向量之间的相关性;
第一权重矩阵调整模块,用于根据所述词向量编码模型中隐藏层向量,对第一权重矩阵进行调整,得到调整后的第一权重矩阵;
词向量生成模块,用于根据调整第一权重矩阵后的词向量编码模型,生成所述待处理词的词向量。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~8中任意一项所述的词向量处理方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~8中任意一项所述的词向量处理方法。
CN202310532544.1A 2023-05-11 2023-05-11 词向量处理方法及装置、存储介质及电子设备 Pending CN116562232A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310532544.1A CN116562232A (zh) 2023-05-11 2023-05-11 词向量处理方法及装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310532544.1A CN116562232A (zh) 2023-05-11 2023-05-11 词向量处理方法及装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN116562232A true CN116562232A (zh) 2023-08-08

Family

ID=87503109

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310532544.1A Pending CN116562232A (zh) 2023-05-11 2023-05-11 词向量处理方法及装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN116562232A (zh)

Similar Documents

Publication Publication Date Title
CN111444340B (zh) 文本分类方法、装置、设备及存储介质
US20180357225A1 (en) Method for generating chatting data based on artificial intelligence, computer device and computer-readable storage medium
CN107273503B (zh) 用于生成同语言平行文本的方法和装置
JP7112536B2 (ja) テキストにおける実体注目点のマイニング方法および装置、電子機器、コンピュータ読取可能な記憶媒体並びにコンピュータプログラム
US10902191B1 (en) Natural language processing techniques for generating a document summary
CN110163205B (zh) 图像处理方法、装置、介质和计算设备
CN111709240A (zh) 实体关系抽取方法、装置、设备及其存储介质
CN110555298B (zh) 验证码识别模型训练及识别方法、介质、装置、计算设备
CN116166271A (zh) 代码生成方法、装置、存储介质及电子设备
CN111597807A (zh) 分词数据集生成方法、装置、设备及其存储介质
CN113743101B (zh) 文本纠错方法、装置、电子设备和计算机存储介质
CN113947091A (zh) 用于语言翻译的方法、设备、装置和介质
CN110852057A (zh) 一种计算文本相似度的方法和装置
JP2023062150A (ja) 文字認識モデルトレーニング、文字認識方法、装置、機器及び媒体
CN112732896B (zh) 目标信息显示方法、装置、电子设备和介质
CN113836308B (zh) 网络大数据长文本多标签分类方法、系统、设备及介质
CN116562232A (zh) 词向量处理方法及装置、存储介质及电子设备
US12014142B2 (en) Machine learning for training NLP agent
CN113268452B (zh) 一种实体抽取的方法、装置、设备和存储介质
CN111444331B (zh) 基于内容的分布式特征提取方法、装置、设备及介质
CN114626370A (zh) 训练方法、风险预警方法、装置、设备、介质和程序产品
CN114444441A (zh) 名称相似度计算方法、装置、存储介质和计算设备
CN115063536B (zh) 图像生成方法、装置、电子设备及计算机可读存储介质
CN113947095B (zh) 多语种文本翻译方法、装置、计算机设备及存储介质
CN114971744B (zh) 一种依据稀疏矩阵的用户画像确定方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination