CN107220220A - 用于文本处理的电子设备和方法 - Google Patents

用于文本处理的电子设备和方法 Download PDF

Info

Publication number
CN107220220A
CN107220220A CN201610166105.3A CN201610166105A CN107220220A CN 107220220 A CN107220220 A CN 107220220A CN 201610166105 A CN201610166105 A CN 201610166105A CN 107220220 A CN107220220 A CN 107220220A
Authority
CN
China
Prior art keywords
text
vector
text vector
correlation
representation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610166105.3A
Other languages
English (en)
Inventor
吴友政
祁均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to CN201610166105.3A priority Critical patent/CN107220220A/zh
Priority to CN201780007352.1A priority patent/CN108475262A/zh
Priority to US16/080,670 priority patent/US10860798B2/en
Priority to PCT/CN2017/077473 priority patent/WO2017162134A1/zh
Priority to EP17769411.4A priority patent/EP3435247A4/en
Publication of CN107220220A publication Critical patent/CN107220220A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/117Tagging; Marking up; Designating a block; Setting of attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks

Abstract

提供了一种用于文本处理的电子设备和方法,该电子设备包括处理器,该处理器被配置为:确定第一文本向量与第二文本向量之间的相关性,第一文本向量和第二文本向量是分别基于同一文本生成的多维实数向量;以及根据相关性获得第三文本向量以用于表示该文本,其中,第三文本向量所在的向量空间与第一文本向量和第二文本向量所在的向量空间相关。根据本公开的实施例,可以建立结合多个视角进行文本特征表示的文本特征表示模型,从而能够提高自然语言处理中的性能。

Description

用于文本处理的电子设备和方法
技术领域
本公开涉及自然语言处理领域,更具体地,涉及一种用于文本处理的电子设备和方法,其基于两个或更多个词特征表示模型之间的相关性来构建多视角词特征表示模型,以实现对文本对象的特征的深度共享视角表示,从而更有利于后续的自然语言处理。
背景技术
在传统的自然语言理解(Natural Language Understanding,NLU)算法中,文本(例如,词语)被当作一个离散的符号,词语的表示是独立的、离散的,使得词之间并没有很大的关联。例如:
“中国”的表示为[0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0...]
“北京”的表示为[0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0...]
该离散向量的维度是词典的大小,因此维度通常较高。这种简洁的离散表示方法通过配合最大熵、支持向量机(Support Vector Machine,SVM)、条件随机场(Condition Random Field,CRF)等统计模型已经很好地完成了自然语言处理(Natural Language Processing,NLP)领域的各种主流任务,例如,词性标注(Part-of-Speech Tagging)、要素抽取(Slot Filling)、命名实体识别(Named Entity Recognition)等。
然而,这种离散表示方法通常也意味着我们需要更多的训练数据去成功地训练统计模型,因此运算量较大,并且这种词的独立表示往往不能反映词语之间的语义关联,从而对于自然语言理解可能是不利的。
近年来发展起来的词嵌入(word embedding)技术克服了这些缺点。词嵌入简单来说就是把离散的文本(例如,词语、短语或句子)表示为低维空间的向量。以词语为例,利用词嵌入技术的词向量表示通常为例如:
“中国”的表示为[0.0172,-0.77,-0.507,0.1,-0.42,...]
“北京”的表示为[0.01,-0.8,-0.5,0.123,-0.142,...]
在词嵌入技术中,词向量的纬度以50维、100维、300维比较常见。由于词嵌入技术考虑了各个文本之间的语义关系,因此各个词语的向量表示并不是完全独立的而是存在一定的语义关联,这样,不仅使得词向量表示的维度大大降低从而降低了计算复杂度,而且还使得这样的词向量表示更加有利于自然语言处理和口语理解中的任务。
C&W,Word2vec和GloVe是近年来被广泛使用的几种词嵌入技术。随着深度学习的发展,词嵌入技术已经成为自然语言处理和口语理解中不可缺少的重要分支,且该技术已经取得了一定的成功。
然而,现有的词嵌入技术仅是从一个视角出发(例如,采用同一种训练机制或者基于同一个训练语料库)来进行词特征表示,这样的词特征表示通常具有局限性,即,在某一方面具有较突出的优点而在其它方面有所欠缺。例如,Word2Vec依赖于跳元(skip-grams)或连续词袋(ContinuousBag of Words,CBOX)模型来创建词向量从而可以获得长的词上下文,而GloVe是基于全局词共现矩阵的非零项训练的,这需要对整个语料库进行遍历以收集统计信息。又例如,针对新闻报导的训练语料库和针对日常口语的训练语料库训练得到的词特征表示在各个词语间的语义关联上各有偏重而具有局限性。
发明内容
在下文中给出了关于本公开的简要概述,以便提供关于本公开的某些方面的基本理解。但是,应当理解,这个概述并不是关于本公开的穷举性概述。它并不是意图用来确定本公开的关键性部分或重要部分,也不是意图用来限定本公开的范围。其目的仅仅是以简化的形式给出关于本公开的某些概念,以此作为稍后给出的更详细描述的前序。
鉴于以上问题,本公开的目的是提供一种用于文本处理的电子设备和方法,其从多个视角出发,根据以不同视角表示文本对象的不同文本特征表示之间的相关性来提供该文本对象的深度共享视角特征表示,以优化执行自然语言处理和口语理解等任务时的系统性能。
根据本公开的一方面,提供了一种用于文本处理的电子设备,该电子设备包括处理器,该处理器被配置为:确定第一文本向量与第二文本向量之间的相关性,第一文本向量和第二文本向量是分别基于同一文本生成的多维实数向量;以及根据相关性获得第三文本向量以用于表示该文本,其中,第三文本向量所在的向量空间与第一文本向量和第二文本向量所在的向量空间相关。
根据本公开的优选实施例,文本对应于词语。
根据本公开的另一优选实施例,文本对应于以下之一:多个词语组成的短语;以及多个短语组成的句子。
根据本公开的另一优选实施例,第一文本向量和第二文本向量分别基于第一词特征表示模型和第二词特征表示模型。
根据本公开的另一优选实施例,第一词特征表示模型和第二词特征表示模型是分别基于不同的词特征表示训练机制得到的。
根据本公开的另一优选实施例,词特征表示训练机制包括以下至少之一:Word2Vec机制、GloVe机制和C&W机制。
根据本公开的另一优选实施例,处理器进一步被配置为:基于典型相关分析来确定第一文本向量与第二文本向量之间的相关性,并且以使得相关性满足预定条件为目标来调整典型相关分析的参数。
根据本公开的另一优选实施例,处理器进一步被配置为:利用神经网络对第一文本向量和第二文本向量进行处理以得到第一文本向量的变量和第二文本向量的变量,基于第一文本向量的变量和第二文本向量的变量确定相关性,并且以使得相关性满足预定条件为目标来调整神经网络的参数。
根据本公开的另一优选实施例,处理器进一步被配置为:利用自动编码器对第一文本向量的变量和第二文本向量的变量进行处理以重构第一文本向量和第二文本向量,并且以还使得重构后的第一文本向量和第二文本向量与第一文本向量和第二文本向量之间的误差满足预定条件为目标来调整自动编码器和神经网络的参数,以确定相关性。
根据本公开的另一优选实施例,处理器进一步被配置为针对多个文本分别确定相应的第一文本向量与第二文本向量之间的相关性并获得相应的第三文本向量,并且该电子设备还包括存储器,该存储器被配置为存储多个文本的第三文本向量以用于建立多视角文本特征表示模型。
根据本公开的另一优选实施例,处理器进一步被配置成针对多个文本中的每个文本,还基于关于其它文本的相关性来确定该文本的相应的第一文本向量与第二文本向量之间的相关性。
根据本公开的另一方面,还提供了一种用于文本处理的方法,该方法包括:确定第一文本向量与第二文本向量之间的相关性,第一文本向量和第二文本向量是分别基于同一文本生成的多维实数向量;以及根据相关性获得第三文本向量以用于表示该文本,其中,第三文本向量所在的向量空间与第一文本向量和第二文本向量所在的向量空间相关。
根据本公开的另一方面,还提供了一种用于文本处理的电子设备,该电子设备包括:存储器,被配置为存储多视角文本特征表示模型,其中,该多视角文本特征表示模型是利用上述方法建立的;以及处理器,被配置为从存储器读取多视角文本特征表示模型,并且基于该多视角文本特征表示模型将待处理的文本对象映射为相应的多维实数向量。
根据本公开的另一方面,还提供了一种用于文本处理的方法,该方法包括:从存储器读取多视角文本特征表示模型,其中,该多视角文本特征表示模型是利用上述方法建立的;以及基于多视角文本特征表示模型将待处理的文本对象映射为相应的多维实数向量。
根据本公开的其它方面,还提供了用于实现上述根据本公开的方法的计算机程序代码和计算机程序产品以及其上记录有该用于实现上述根据本公开的方法的计算机程序代码的计算机可读存储介质。另外,还提供了用于承载本公开的多视角文本特征表示模型的计算机可读存储介质。
根据本公开的实施例,通过结合多个视角来表示文本特征,以此来建立多视角文本特征表示模型,可以克服现有技术中单一视角的文本特征表示模型的不足,从而能够提高应用于自然语言处理时的性能。
在下面的说明书部分中给出本公开实施例的其它方面,其中,详细说明用于充分地公开本公开实施例的优选实施例,而不对其施加限定。
附图说明
本公开可以通过参考下文中结合附图所给出的详细描述而得到更好的理解,其中在所有附图中使用了相同或相似的附图标记来表示相同或者相似的部件。所述附图连同下面的详细说明一起包含在本说明书中并形成说明书的一部分,用来进一步举例说明本公开的优选实施例和解释本公开的原理和优点。其中:
图1是示出根据本公开的实施例的用于文本处理的电子设备的功能配置示例的框图;
图2是示出根据本公开的实施例的基于典型相关分析(CanonicalCorrelation Analysis,CCA)来确定文本向量间的相关性的实现方案的示意图;
图3是示出对图2所示的方案进一步应用神经网络来确定文本向量间的相关性的实现方案的示意图;
图4是示出对图3所示的方案进一步应用自动编码器来确定文本向量间的相关性的实现方案的示意图;
图5是示出根据本公开的实施例的用于文本处理的电子设备的功能配置示例的框图;
图6是示出根据本公开的实施例的用于文本处理的方法的过程示例的流程图;
图7是示出根据本公开的实施例的用于文本处理的方法的过程示例的流程图;以及
图8是示出作为本公开的实施例中可采用的信息处理设备的个人计算机的示例结构的框图。
具体实施方式
在下文中将结合附图对本公开的示范性实施例进行描述。为了清楚和简明起见,在说明书中并未描述实际实施方式的所有特征。然而,应该了解,在开发任何这种实际实施例的过程中必须做出很多特定于实施方式的决定,以便实现开发人员的具体目标,例如,符合与系统及业务相关的那些限制条件,并且这些限制条件可能会随着实施方式的不同而有所改变。此外,还应该了解,虽然开发工作有可能是非常复杂和费时的,但对得益于本公开内容的本领域技术人员来说,这种开发工作仅仅是例行的任务。
在此,还需要说明的一点是,为了避免因不必要的细节而模糊了本公开,在附图中仅仅示出了与根据本公开的方案密切相关的设备结构和/或处理步骤,而省略了与本公开关系不大的其它细节。
接下来,将参照图1至图8详细描述本公开的实施例。
首先,将参照图1描述根据本公开的实施例的用于文本处理的电子设备的功能配置示例。图1是示出根据本公开的实施例的用于文本处理的电子设备的功能配置示例的框图。
如图1所示,根据该实施例的电子设备100可包括相关性确定单元102和文本向量生成单元104。应指出,这里的相关性确定单元102和文本向量生成单元104可以是分立的物理实体或逻辑实体,或者也可由同一个物理实体(例如,中央处理单元(CPU)、大规模集成电路(ASIC)等)来实现。
相关性确定单元102可被配置成确定第一文本向量与第二文本向量之间的相关性,其中,这里的第一文本向量和第二文本向量是分别基于同一文本生成的多维实数向量。该文本例如可以是词语、由多个词语组成的短语或者由多个短语组成的句子。
以文本是词语为例,第一文本向量和第二文本向量分别基于第一词特征表示模型和第二词特征表示模型,这两个词特征表示模型是分别从不同的视角所建立的词特征表示模型。例如,这两个词特征表示模型是分别基于不同的词特征表示训练机制得到,优选地,这里的词特征表示训练机制可包括Word2Vec机制、GloVe机制和C&W机制中的至少一个,即,可从这三种训练机制中选择两种分别作为用于第一词特征表示模型和第二次特征模型的训练机制。这些机制均是现有技术中常用的词嵌入技术,在此不再对其进行详细描述。作为示例,第一词特征表示模型是基于Word2Vec机制获得的,而第二词特征表示模型是基于GloVe机制获得的。可以理解,随着技术的发展、改进,可能出现其他的主流词特征表示训练机制,本领域技术人员显然也可根据本公开的构思融合基于其他的两种主流词特征表示训练机制得到的词特征表示模型。
另一方面,替选地,这两个词特征表示模型是分别基于不同的训练语料(corpus)得到的。例如,第一词特征表示模型是基于一般语料(例如,大规模的新闻语料或网页文本)得到的,而第二词特征表示模型是基于用户固有语料(例如,邮件语料、口语语料等)训练得到的,其中用于训练第一词特征表示模型和第二词特征表示模型的训练机制可以相同也可以不同。
需要注意,上述的两种词特征表示模型在一个示例中是执行本公开技术方案的人员自行根据相应的训练机制和语料训练得到的(在线或离线的形式),例如根据其具体的语言处理任务进行针对性的训练得到的,在另一个示例中是直接从外部获取的,例如从学术研究共享平台上获取的他人已经训练好的词特征表示模型来作为待融合的词特征表示模型。另外,本公开主要以两个词特征表示模型的融合作为示例,然而,本领域技术人员可以理解,根据实际需要,还可以基于本公开执行多于两个词特征表示模型的融合,例如,先依据本公开的方案针对第一及第二词特征表示模型进行融合,将融合得到的第三词特征表示模型再根据本公开的方案与第四词特征表示模型进行融合;亦可以先依据本公开的方案针对第一及第二词特征表示模型进行融合以得到第三词特征表示模型,同时针对第四及第五词特征表示模型进行融合以得到第六词特征表示模型,再将第三词特征表示模型与第六词特征表示模型进行融合,在此不再赘述。
优选地,相关性确定单元102可进一步被配置成基于典型相关分析(CCA)来确定第一文本向量与第二文本向量之间的相关性,并且以使得该相关性满足预定条件为目标来调整典型相关分析的参数。典型相关分析(CCA)是用于分析两组变量之间的相关关系的一种常用统计分析方法,在此将其应用于确定词嵌入技术中的两组词特征表示(即,词向量)之间的相关性。然而,应理解,本领域技术人员显然也可想到利用其它相关性分析方法(包括现有的或者未来可能出现的分析方法)来确定第一文本向量与第二文本向量之间的相关性。
在这里,将简要介绍CCA。CCA是用于找到两个随机向量的相关性最大的线性投影的无监督数据分析的标准技术。在数学上,我们定义两个随机向量(X1,X2),其协方差矩阵定义为(∑11,∑22)并且互协方差矩阵定义为∑12。(r1,r2)>0是协方差矩阵∑11和∑22的两个正则项以保证样本协方差的非特异性。CCA试图找到两个视角A1、A2的相关性最大的一对线性投影如以下表达式(1)所示:
表达式(1)是经典的半定规划(semi-definite programming)。假设中间项为并且令Uk和Vk为T的前k个左奇异向量和前k个右奇异向量,则最优解为以下表达式(2)所示:
在实施例的以下描述中,将以典型相关分析为例来描述本公开的技术,但是应理解,本公开并不限于此。
图2是示出根据本公开的实施例的基于典型相关分析来确定文本向量间的相关性的实现方案的示意图。
如图2所示,假设X和Y分别为第一文本向量和第二文本向量,并且U和V分别为典型相关分析的线性变换参数。根据典型相关分析,这里例如以使得经线性变换后的第一文本向量(UTX)与第二文本向量(VTY)之间的相关性最高为优化目标来调整参数U和V,即,在数学上可以表示为例如以使得UTX与VTY之间的协方差最小为优化目标来确定参数U和V的值,其中(·)T表示矩阵的转置。这里应理解,尽管这里以使得UTX与VTY之间的相关性最高为例来描述如何调整典型相关分析的参数U和V,但是本公开不限于此,而是也可根据实际情况(例如,计算能力等)而以满足其它预定条件(例如,预定相关性阈值、预定迭代次数等)的相关性为目标来确定典型相关分析的参数,这同样适用于随后的实施例中的描述。根据优化目标函数来确定线性变换参数U和V的具体过程是本领域技术人员根据相关数学知识可以实现的,在此不再详细描述。
返回参照图1,文本向量生成单元104可被配置成根据所确定的相关性来获得第三文本向量以表示同一文本。
在图2所示的示例中,根据在相关性满足预定条件时所确定的U和V,可以获得同一文本的两个文本特征表示,即UTX、VTY,其中任一者皆可作为第三文本向量,换言之,第三文本向量例如可以表示为UTX、VTY或者基于UTX和VTY中至少之一确定的向量(例如两者的加权平均等变换形式)。
可以理解,如上所述,由于参数U和V是基于第一文本向量与第二文本向量之间的相关性所确定的,因此所生成的第三文本向量所在的向量空间与第一文本向量和第二文本向量所在的向量空间具有相关性。这样,所生成的第三文本向量考虑了基于不同视角得到的第一文本向量和第二文本向量之间的相关性,因此其是对同一文本的多视角、深度特征表示,能够提高后续的自然语言处理的性能。另外,本公开的技术方案可以是针对既得的至少两个文本特征表示模型进行融合从而易于实现和推广,不必再例如重新统合两种语料进行训练。
以上描述了对于一个文本进行处理以得到新的第三文本向量的示例,类似地,可对多个文本为了进行类似处理以得到相应的第三文本向量的集合,以用于建立多视角文本特征表示模型。
优选地,上述相关性确定单元102可进一步被配置成针对多个文本,通过上述方式分别确定相应的第一文本向量与第二文本向量之间的相关性,并且文本向量生成单元104可进一步被配置成根据关于各个文本所确定的相关性来获得相应的第三文本向量。
优选地,该电子设备100还可包括存储器106,存储器106可被配置为存储这多个文本的第三文本向量以用于建立多视角文本特征表示模型,该多视角文本特征表示模型表示从文本对象到基于多个视角确定的文本向量的映射,可用于执行后续的自然语言处理中的各种任务。
此外,优选地,相关性确定单元102可进一步被配置成针对多个文本中的每个文本,还基于关于其它文本的相关性来确定该文本的第一文本向量与第二文本向量之间的相关性。根据上述方式,针对每个文本,可仅基于该文本自身的第一文本向量与第二文本向量之间的相关性来确定其对应的第三文本向量,然后根据这些分别确定的第三文本向量的集合来建立新的多视角文本特征表示模型。然而,通常地,当对特定文本集合进行处理以建立新的文本特征表示模型时,取代逐文本地确定第三文本向量,还可基于针对该文本集合的第一文本向量集合与第二文本向量集合之间的整体相关性来确定针对该文本集合的典型相关分析的参数,即,在确定关于特定文本的相关性时还需要将其它文本的相关性纳入考虑,由此来确定针对该文本集合的第三文本向量集合,从而用于建立多视角文本特征表示模型。
利用典型相关分析技术、以文本集合作为整体来确定第一文本向量集合与第二文本向量集合之间的相关性的具体实现过程可参见典型相关分析技术的原理,在此不再详细描述。此外,应指出,在以下参照图3和图4描述的确定相关性的示例实现方案中,均是以多个文本的集合作为整体来确定相关性,但是替选地也可逐文本地来确定相关性,从而根据相关性来确定相应的第三文本向量集合以用于建立多视角文本特征表示模型,本领域技术人员可根据实际情况而选择具体的实现方式,本公开对此不作限制。
优选地,还可进一步利用神经网络来确定上述相关性。图3是示出对图2所示的方案进一步应用神经网络来确定文本向量间的相关性的实现方案的示意图。
如图3所示,在图2所示的方案的基础上,进一步添加了两个独立的深度神经网络(Deep Neural Network,DNN)以对所输入的两个文本向量X和Y(这里的X和Y也可表示文本向量集合)进行非线性变换,然后再利用典型相关分析(CAA)来确定非线性变换后的向量之间的相关性,该方案在下文中也可以称为深度典型相关分析(Deep CanonicalCorrelation Analysis,DCCA)。然而,应理解,尽管这里以深度神经网络与典型相关分析的组合为例来确定文本向量间的相关性,但是如上所述,也可利用深度神经网络与其它相关性分析技术的组合来执行该确定。此外,这里利用两个独立的深度神经网络来进行非线性变换是为了降低计算复杂度,在不考虑计算复杂度的情况下,当然也可利用一个深度神经网络来对第一和第二文本向量进行非线性变换。
在图3所示的示例中,符号X、Y、U和V的含义与以上参照图2描述的相同,在此不再重复,f(·)和g(·)分别表示两个深度神经网络的非线性变换,其参数分别为Wf和Wg。根据图3所示的方案,第一文本向量X和第二文本向量Y首先经过深度神经网络以接受非线性变换,并且变换后的第一文本向量的变量和第二文本向量的变量分别记为f(X)和g(Y)。然后,利用CCA对f(X)和g(Y)分别进行线性变换,并且以使得线性变换后的f(X)和g(Y)(即,UTf(X)和VTg(Y))之间的相关性最大化为目标来调整典型相关分析的参数(即,U和V)和深度神经网络的参数,深度神经网络的参数可包括上述Wf和Wg,另外还可以包括其结构参数(包括深度神经网络的层数和每层上的维度),从而可以确定最终的第三文本向量为UTf(X)、VTg(Y)或者基于UTf(X)和VTg(Y)中至少之一确定的向量(例如两者的加权平均等变换形式)。其中,深度神经网络的结构参数也可以是根据运算系统环境等因素预定义的,根据本发明的一个示例预定结构为4层,每层的维度分别为100、1024、1024和100。
上述计算过程在数学上可以表示为寻找使得UTf(X)与VTg(Y)之间的协方差最小的U、V、Wf和Wg,例如可以表示为如下表达式(3):
其中,N表示文本向量集合的总数,I表示单位矩阵,并且(rx,ry)>0是用于协方差估计的正则化参数。
如何根据上述目标优化函数对模型进行训练以确定深度神经网络的参数Wf和Wg以及CCA的线性变换参数U和V是本领域技术人员根据掌握的数学知识可以实现的,这并不是本公开的技术的重点,因此在此不再详细描述。例如,可以使用例如受限玻尔兹曼(Restricted BoltzmannMachine,RBM)技术来进行模型的预训练,然后使用反向传播(Back-propagation)例如随机梯度下降(Stochastic Gradient Descent,SGD)技术,基于使得文本向量间的相关性最大的目标函数对深度神经网络的参数Wf和Wg以及CCA的线性变换参数U和V进行联合优化学习。根据一个示例,利用上述的随机梯度下降方案对DNN的参数进行精细调整,例如先确定DNN顶层的梯度(delta),再根据梯度调整DNN顶层参数如W’f=Wf+调整系数*梯度,进而再推算DNN其他层次的参数。其中,DNN顶层的梯度可以通过基于目标函数(即公式(3))分别针对Hx和Hy对corr(Hx,Hy)进行求导来获得,其中,corr(Hx,Hy)表示Hx和Hy的相关度,Hx=UTf(X)以及Hy=VTg(Y)。
在利用局部或优选的全局训练数据基于DCCA方案对深度神经网络的参数以及CCA的线性变换参数完成训练之后,可以得到确定的深度神经网络的参数Wf和Wg及CCA参数U和V。届时,逐个地针对每个文本,将其第一文本向量X和第二文本向量Y分别输入相应的神经网络f(·)和g(·)中,之后再由CCA进行变换即可获得该文本的目标第三文本向量例如UTf(X),直至完成所有待处理文本的文本向量变换。其中,局部或全局是相对于待处理的全部文本集合而言的,本领域技术人员可以根据其面对的具体语言处理任务,从全部文本集合中抽取出有关的文本作为局部训练数据进行训练以提高效率,也可以根据其对模型精度的要求和运算资源来选择全局或局部训练数据。
此外,应指出,以上给出的目标优化函数仅为示例而非限制,并且本领域技术人员也可根据具体的优化目标,基于本公开的原理而设计适合实际需要的目标函数。
应指出,上述典型相关分析(CCA)和深度典型相关分析(DCCA)均属于无监督学习过程,因此,在确定相关性的过程中,尽管可能获得了第一文本向量与第二文本向量之间的较高相关性,但是在此过程中,可能会使得此时获得的第三文本向量与第一文本向量和/或第二文本向量的差别较大,即,导致较大的失真,这有可能在一定程度上影响后续的自然语言处理的性能。鉴于此,为了进一步优化系统性能,还可通过利用自动编码器重构第一文本向量和第二文本向量,以在最大化相关性的同时最小化自动编码错误来调整相关参数,从而确定相应的第三文本向量。以下将参照图4描述该情况下的实现方案。
图4是示出对图3所示的方案进一步应用自动编码器来确定文本向量间的相关性的实现方案的示意图。
如图4所示,在图3所示的方案的基础上,进一步加入了两个自动编码器(auto-encoder)以对经过深度神经网络非线性变换后的第一文本向量和第二文本向量进行重构,该方案在下文可称为深度典型相关自动编码(Deep Canonically Correlated Auto-Encoders,DCCAE)。类似地,如上所述,在该实现方案中,也可应用除CCA之外的技术来确定相关性。
在图4所示的示例中,符号X、Y、U、V、f(·)和g(·)的含义与以上参照图3描述的相同,在此不再重复,符号p(·)和q(·)分别表示用于重构的自动编码器(即,深度神经网络)的非线性变换,其参数分别为Wp和Wq
根据图4所示的方案,经过深度神经网络的非线性变换后的第一文本向量的变量f(X)和第二文本向量的变量g(Y)同时被输入到CCA模块和自动编码器模块以分别接受相关性分析和重构,并且以在使得线性变换后的f(X)和g(Y)(即,UTf(X)和VTg(Y))之间的相关性最大化的同时使得自动编码误差(即,重构后的第一文本向量p(f(X))和第二文本向量q(g(y))分别与原始的第一文本向量X和第二文本向量Y之间的差的绝对值|p(f(X))-X|和|q(g(y))-Y|)最小化为优化目标来调整典型相关分析的参数(即,U和V)、深度神经网络的参数(即,Wf和Wg)以及自动编码器的参数(即,Wp和Wq),从而可以确定最终的第三文本向量为UTf(X)、VTg(Y)或者基于UTf(X)和VTg(Y)中至少之一确定的向量。
上述计算过程在数学上可以例如表示为寻找使得UTf(X)与VTg(Y)之间的协方差与p(f(X))与X之间的差的绝对值以及q(g(y))与Y之间的差的绝对值的和最小的U、V、Wf、Wg、Wp和Wq,这例如可以表示为如下表达式(4):
在表达式(4)中,与以上表达式(3)中的符号相同的符号表示相同的含义,在此不再重复。λ是与用于控制自动编码器的水平的归一化常数(实际上是控制自动编码错误在目标函数中所占的比例),其为经验值或者通过有限次实验确定的值。
如何根据该目标表达式来对相关参数进行联合优化学习可参见以上针对DCCA方案的描述,在此不再重复。此外,应理解,该目标函数仅是示例而非限制,并且本领域技术人员可以根据实际的设计目标而对该目标函数进行修改。在利用局部或全局训练数据基于DCCAE方案对深度神经网络的参数以及CCA的线性变换参数完成训练之后,可以得到确定的深度神经网络的参数Wf和Wg及CCA参数U和V。届时,逐个地针对每个文本,将其第一文本向量X和第二文本向量Y分别输入相应的神经网络f(·)和g(·)中,之后再由CCA进行变换即可获得该文本的目标第三文本向量例如UTf(X),直至完成所有待处理文本的文本向量变换。
应指出,尽管以上参照图2至图4描述了确定文本向量间的相关性的示例实现方案,但是应理解,这仅是示例而非限制,并且本领域技术人员可根据本公开的原理而对上述实现方案进行修改。例如,优化目标函数可以不是使得相关性最大化,而是预设的最大迭代次数或者满足预定阈值的相关性等,或者也可采用除CCA之外的相关性分析技术等等,并且这样的变型均认为落入本公开的范围内。
通过利用上述CCA、DCCA、DCCAE方案来获得文本向量间的相关性,由于结合了多个视角来表示文本特征,因此能够获得深度多视角文本特征表示模型,从而能够提高自然语言理解等中的任务的性能。
接下来,将参照图5描述利用上述获得的多视角文本特征表示模型来进行文本处理的实施例。图5是示出根据本公开的实施例的用于文本处理的电子设备的功能配置示例的框图。
如图5所示,根据该实施例的电子设备500可包括存储器502和处理器504。
存储器502可被配置为存储上述所建立的多视角文本特征表示模型。
处理器504可被配置为从存储器502读取多视角文本特征表示模型,并且基于该多视角文本特征表示模型而将待处理的文本对象映射为相应的多维实数向量。该待处理的文本对象可存储在存储器502或者外部存储器中,或者也可以是用户输入的,例如用户输入语音,由语音识别模块将语音转化为文本,进而由本公开的方案进行处理。
该文本对象例如可以是词语,并且该多视角文本特征表示模型例如是词特征表示模型。在该情况下,当对短语、句子或段落进行处理时,处理器504可通过利用现有的词划分技术将该短语、句子或段落适当地划分为多个词语单元,并基于该词特征表示模型而将这多个词语单元分别映射为相应的词向量,以用于执行要素抽取、语句分类、自动翻译等自然语言理解处理。
替选地,在所建立的多视角文本特征表示模型例如是短语或句子等文本对象的特征表示模型时,取代将短语、句子、段落等划分为相应的词单元,可通过直接映射、将句子或段落划分为短语或者将段落划分为句子等方式,基于多视角文本特征表示模型将这些文本对象映射为相应的文本向量,并且基于这些文本向量对这些短语、句子或段落进行理解。即,在实际处理过程中,可能还需要进行词语划分的处理,该处理可采用现有技术中公知的技术,并且与本发明的发明点不相关,因此在此不详细描述。
利用所建立的文本特征表示模型来进行自然语言理解等处理的具体过程与现有技术中相同,在此不再详细描述。
在这里,应指出,尽管以上参照图1和图5描述了用于文本处理的电子设备的功能配置示例,但是这仅是示例而非限制,并且本领域技术人员可根据本公开的原理而对上述功能配置进行修改。例如,所示出的各个功能单元可以进行组合、进一步划分或者添加另外的功能单元,并且这样的变型应认为落入本公开的范围内。
与上述装置实施例相对应的,本公开还提供了以下方法实施例。接下来,将参照图6和图7描述根据本公开的实施例的用于文本处理的方法的过程示例。
图6是示出根据本公开的实施例的用于文本处理的方法的过程示例的流程图。该方法对应于以上参照图1描述的用于文本处理的电子设备的实施例。
如图6所示,首先,在步骤S610中,确定第一文本向量与第二文本向量之间的相关性,第一文本向量和第二文本向量是分别基于同一文本生成的多维实数向量。
接下来,在步骤S620中,根据所确定的相关性获得第三文本向量以用于表示该文本,第三文本向量所在的向量空间与第一文本向量和第二文本向量所在的向量空间相关。
优选地,该文本对应于词语、由多个词语构成的短语或者由多个短语构成的句子。
优选地,第一文本向量和第二文本向量分别基于第一词特征表示模型和第二词特征表示模型,第一词特征表示模型和第二词特征表示模型是分别基于不同的词特征表示训练机制以及/或者不同的训练语料得到的。词特征表示训练机制可包括以下至少之一:Word2Vec机制、GloVe机制和C&W机制,即,可从这三种训练机制中选择两种分别作为用于第一次特征表示模型和第二词特征表示模型的训练机制。
优选地,该方法还包括:基于典型相关分析确定第一文本向量与第二文本向量之间的相关性,并且以使得相关性满足预定条件为目标来调整典型相关分析的参数。
优选地,该方法还包括:针对多个文本分别确定相应的第一文本向量与第二文本向量之间的相关性并获得相应的第三文本向量;以及基于多个文本的第三文本向量建立多视角文本特征表示模型。
此外,优选地,该方法还可包括基于上述DCCA和DCCAE等方案来确定文本向量间的相关性。
利用CCA、DCCA和DCCAE等方案来确定文本向量间的相关性以生成相应的第三文本向量从而建立多视角文本特征表示模型的具体处理过程可参见以上装置实施例中相应位置的描述,在此不再重复。
图7是示出根据本公开的实施例的用于文本处理的方法的过程示例的流程图。该方法对应于以上参照图5描述的用于文本处理的电子设备的实施例。
如图7所示,首先,在步骤S710中,从存储器读取上述建立的多视角文本特征表示模型。接下来,在步骤S720中,基于该多视角文本特征表示模型而将待处理的文本对象映射为相应的多维实数向量。该待处理的文本对象可存储在内部存储器或者外部存储器中,或者也可以是用户输入的。
优选地,该文本对象可对应于词语,并且该方法还可包括基于该文本对象的多维实数向量而对包含该文本对象的短语、句子和段落中至少之一进行文本理解。
应理解,图6和图7所示的方法实施例的流程图仅是示例而非限制,并且本领域技术人员可根据本公开的原理而对上述处理步骤进行修改,例如,对上述处理步骤进行添加、删除、组合和/或变更等,并且这样的变型都应认为落入本公开的范围内。
此外,还应指出,这里参照图6和图7描述的方法实施例分别与以上参照图1和图5描述的装置实施例相对应,因此在此未详细描述的内容可参见以上装置实施例中相应位置的描述,而在此不再重复。
当将根据本公开的实施例所建立的多视角文本特征表示模型应用于执行自然语言理解中的任务时,其能够有效地优化处理性能。下面将作为示例给出当分别将根据现有技术构建的文本特征表示模型和根据本发明的CCA、DCCA和DCCAE方案分别建立的多视角文本特征表示模型应用于口语理解中的要素抽取任务时,各个模型之间的处理性能对比。
应理解,尽管这里给出了要素抽取任务作为示例来检验本发明的实际效果,但是本发明还可以应用于自然语言理解中的任何其它任务,诸如上述词性标注、命名实体识别等任务。也就是说,本公开的例如电子设备500实际上还可以包括要素提取模块、词性标注模块或命名实体识别模块等高层的自然语言处理模块,响应于基于多视角文本特征表示模型对待处理的文本映射得到的多维实数向量,上述高层语言处理模块进一步执行相应的自然语言理解。其中,要素抽取的任务具体来说就是抽取输入句子中的要素并且进行标记。例如,在该对比实验中,作为示例,采用的数据集合是航空交通信息系统(Air Travel Information System,ATIS),并且要素抽取的具体任务是:今天从波士顿到西雅图的航班,执行要素抽取后的结果为以下表1所示:
表1 要素抽取的结果
输入的句子 今天 波士顿 西雅图 航班
输出的要素标注结果 B-日期 0 B-出发地 0 B-到达地 0 0
其中,今天是日期的起始词(B-日期),波士顿是出发地的起始词(B-出发地),西雅图是到达地的起始词(B-到达地),并且“0”表示非要素词。应指出,根据该示例,本公开的方案可应用于例如航旅订票系统、日程安排系统等产品中。当然,由于本公开的方案涉及基础的词嵌入技术,还可以广泛地被应用于多种其他语言理解场景。
近年来的研究表明,循环神经网络(Recurrent Neural Network,RNN)在要素抽取任务中能够获得更好的性能,因此,在本实验中,分别采用两种类型的RNN(即,埃尔曼型RNN和乔丹型RNN)来验证本发明的效果,并且参与实验对比的词嵌入技术包括:随机法、Word2Vec、GloVe、基于Word2Vec和GloVe的CCA方案、DCCA方案以及DCCAE方案。
这里用于衡量要素抽取任务中的性能的指标定义为F1测度,其表示准确率和召回率的调和平均值。以下表2示出了实验对比结果:
表2 性能比较结果
从上表可以看出,无论是哪种类型的循环神经网络,根据本公开的技术所建立的多视角文本特征表示模型均能够实现更优的性能。
此外,尽管这里未具体描述,但是根据本公开的技术所建立的多视角文本特征表示模型在其它自然语言理解任务中同样可以实现更优的性能。
应理解,根据本公开的实施例的存储介质和程序产品中的机器可执行的指令还可以被执行以上描述的用于文本处理的方法,因此在此未详细描述的部分可参考先前相应位置的描述,在此不再重复进行描述。
相应地,用于承载上述存储有机器可读取的指令代码的程序产品的存储介质以及用于承载本公开的多视角文本特征表示模型的存储介质也包括在本发明的公开中。所述存储介质包括但不限于软盘、光盘、磁光盘、存储卡、存储棒等等。
另外,还应该指出的是,上述系列处理和装置也可以通过软件和/或固件实现。在通过软件和/或固件实现的情况下,从存储介质或网络向具有专用硬件结构的计算机,例如图8所示的通用个人计算机800安装构成该软件的程序,该计算机在安装有各种程序时,能够执行各种功能等等。
在图8中,中央处理单元(CPU)801根据只读存储器(ROM)802中存储的程序或从存储部分808加载到随机存取存储器(RAM)803的程序执行各种处理。在RAM 803中,也根据需要存储当CPU 801执行各种处理等等时所需的数据。
CPU 801、ROM 802和RAM 803经由总线804彼此连接。输入/输出接口805也连接到总线804。
下述部件连接到输入/输出接口805:输入部分806,包括键盘、鼠标等等;输出部分807,包括显示器,比如阴极射线管(CRT)、液晶显示器(LCD)等等,和扬声器等等;存储部分808,包括硬盘等等;和通信部分809,包括网络接口卡比如LAN卡、调制解调器等等。通信部分809经由网络比如因特网执行通信处理。
根据需要,驱动器810也连接到输入/输出接口805。可拆卸介质811比如磁盘、光盘、磁光盘、半导体存储器等等根据需要被安装在驱动器810上,使得从中读出的计算机程序根据需要被安装到存储部分808中。
在通过软件实现上述系列处理的情况下,从网络比如因特网或存储介质比如可拆卸介质811安装构成软件的程序。
本领域的技术人员应当理解,这种存储介质不局限于图8所示的其中存储有程序、与设备相分离地分发以向用户提供程序的可拆卸介质811。可拆卸介质811的例子包含磁盘(包含软盘(注册商标))、光盘(包含光盘只读存储器(CD-ROM)和数字通用盘(DVD))、磁光盘(包含迷你盘(MD)(注册商标))和半导体存储器。或者,存储介质可以是ROM 802、存储部分808中包含的硬盘等等,其中存有程序,并且与包含它们的设备一起被分发给用户。
还需要指出的是,执行上述系列处理的步骤可以自然地根据说明的顺序按时间顺序执行,但是并不需要一定根据时间顺序执行。某些步骤可以并行或彼此独立地执行。
例如,在以上实施例中包括在一个单元中的多个功能可以由分开的装置来实现。替选地,在以上实施例中由多个单元实现的多个功能可分别由分开的装置来实现。另外,以上功能之一可由多个单元来实现。无需说,这样的配置包括在本公开的技术范围内。
在该说明书中,流程图中所描述的步骤不仅包括以所述顺序按时间序列执行的处理,而且包括并行地或单独地而不是必须按时间序列执行的处理。此外,甚至在按时间序列处理的步骤中,无需说,也可以适当地改变该顺序。
虽然已经详细说明了本公开及其优点,但是应当理解在不脱离由所附的权利要求所限定的本公开的精神和范围的情况下可以进行各种改变、替代和变换。而且,本公开实施例的术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。

Claims (23)

1.一种用于文本处理的电子设备,所述电子设备包括处理器,所述处理器被配置为:
确定第一文本向量与第二文本向量之间的相关性,所述第一文本向量和所述第二文本向量是分别基于同一文本生成的多维实数向量;以及
根据所述相关性获得第三文本向量以用于表示所述文本,其中,所述第三文本向量所在的向量空间与所述第一文本向量和所述第二文本向量所在的向量空间相关。
2.根据权利要求1所述的电子设备,其中,所述文本对应于词语。
3.根据权利要求1所述的电子设备,其中,所述文本对应于以下之一:多个词语组成的短语;以及多个短语组成的句子。
4.根据权利要求2所述的电子设备,其中,所述第一文本向量和所述第二文本向量分别基于第一词特征表示模型和第二词特征表示模型。
5.根据权利要求4所述的电子设备,其中,所述第一词特征表示模型和所述第二词特征表示模型是分别基于不同的词特征表示训练机制得到的。
6.根据权利要求5所述的电子设备,其中,所述词特征表示训练机制包括以下至少之一:Word2Vec机制、GloVe机制和C&W机制。
7.根据权利要求4或5所述的电子设备,其中,所述第一词特征表示模型和所述第二词特征表示模型是分别基于不同的训练语料得到的。
8.根据权利要求1所述的电子设备,其中,所述处理器进一步被配置为:基于典型相关分析来确定所述第一文本向量与所述第二文本向量之间的相关性,并且以使得所述相关性满足预定条件为目标来调整所述典型相关分析的参数。
9.根据权利要求1或8所述的电子设备,其中,所述处理器进一步被配置为:利用神经网络对所述第一文本向量和所述第二文本向量进行处理以得到所述第一文本向量的变量和所述第二文本向量的变量,基于所述第一文本向量的变量和所述第二文本向量的变量确定所述相关性,并且以使得所述相关性满足预定条件为目标来调整所述神经网络的参数。
10.根据权利要求9所述的电子设备,其中,所述处理器进一步被配置为:利用自动编码器对所述第一文本向量的变量和所述第二文本向量的变量进行处理以重构所述第一文本向量和所述第二文本向量,并且以还使得重构后的第一文本向量和第二文本向量与所述第一文本向量和所述第二文本向量之间的误差满足预定条件为目标来调整所述自动编码器和所述神经网络的参数,以确定所述相关性。
11.根据权利要求1至10中任一项所述的电子设备,其中,所述处理器进一步被配置为针对多个文本分别确定相应的第一文本向量与第二文本向量之间的相关性并获得相应的第三文本向量,并且所述电子设备还包括存储器,所述存储器被配置为存储所述多个文本的第三文本向量以用于建立多视角文本特征表示模型。
12.根据权利要求11所述的电子设备,其中,所述处理器进一步被配置成针对所述多个文本中的每个文本,还基于关于其它文本的所述相关性来确定该文本的相应的第一文本向量与第二文本向量之间的相关性。
13.一种用于文本处理的方法,包括:
确定第一文本向量与第二文本向量之间的相关性,所述第一文本向量和所述第二文本向量是分别基于同一文本生成的多维实数向量;以及
根据所述相关性获得第三文本向量以用于表示所述文本,其中,所述第三文本向量所在的向量空间与所述第一文本向量和所述第二文本向量所在的向量空间相关。
14.根据权利要求13所述的方法,其中,所述文本对应于词语。
15.根据权利要求14所述的方法,其中,所述第一文本向量和所述第二文本向量分别基于第一词特征表示模型和第二词特征表示模型,所述第一词特征表示模型和所述第二词特征表示模型是分别基于不同的词特征表示训练机制以及/或者不同的训练语料得到的。
16.根据权利要求13所述的方法,其中,还包括:基于典型相关分析确定所述第一文本向量与所述第二文本向量之间的相关性,并且以使得所述相关性满足预定条件为目标来调整所述典型相关分析的参数。
17.根据权利要求13至16中任一项所述的方法,还包括:针对多个文本分别确定相应的第一文本向量与第二文本向量之间的相关性并获得相应的第三文本向量;以及基于所述多个文本的第三文本向量建立多视角文本特征表示模型。
18.一种用于文本处理的电子设备,包括
存储器,被配置为存储多视角文本特征表示模型,其中,所述多视角文本特征表示模型是利用根据权利要求17所述的方法建立的;以及
处理器,被配置为从所述存储器读取所述多视角文本特征表示模型,并且基于所述多视角文本特征表示模型将待处理的文本对象映射为相应的多维实数向量。
19.根据权利要求18所述的电子设备,其中,所述文本对象对应于词语。
20.根据权利要求19所述的电子设备,其中,所述处理器进一步被配置为基于所述文本对象的多维实数向量对包含所述文本对象的短语、句子和段落中至少之一进行文本理解。
21.一种用于文本处理的方法,包括:
从存储器读取多视角文本特征表示模型,其中,所述多视角文本特征表示模型是利用根据权利要求17所述的方法建立的;以及
基于所述多视角文本特征表示模型将待处理的文本对象映射为相应的多维实数向量。
22.根据权利要求21所述的方法,其中,所述文本对象对应于词语。
23.根据权利要求22所述的方法,还包括:基于所述文本对象的多维实数向量对包含所述文本对象的短语、句子和段落中至少之一进行文本理解。
CN201610166105.3A 2016-03-22 2016-03-22 用于文本处理的电子设备和方法 Pending CN107220220A (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201610166105.3A CN107220220A (zh) 2016-03-22 2016-03-22 用于文本处理的电子设备和方法
CN201780007352.1A CN108475262A (zh) 2016-03-22 2017-03-21 用于文本处理的电子设备和方法
US16/080,670 US10860798B2 (en) 2016-03-22 2017-03-21 Electronic device and method for text processing
PCT/CN2017/077473 WO2017162134A1 (zh) 2016-03-22 2017-03-21 用于文本处理的电子设备和方法
EP17769411.4A EP3435247A4 (en) 2016-03-22 2017-03-21 ELECTRONIC DEVICE AND TEXT PROCESSING METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610166105.3A CN107220220A (zh) 2016-03-22 2016-03-22 用于文本处理的电子设备和方法

Publications (1)

Publication Number Publication Date
CN107220220A true CN107220220A (zh) 2017-09-29

Family

ID=59899235

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201610166105.3A Pending CN107220220A (zh) 2016-03-22 2016-03-22 用于文本处理的电子设备和方法
CN201780007352.1A Pending CN108475262A (zh) 2016-03-22 2017-03-21 用于文本处理的电子设备和方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201780007352.1A Pending CN108475262A (zh) 2016-03-22 2017-03-21 用于文本处理的电子设备和方法

Country Status (4)

Country Link
US (1) US10860798B2 (zh)
EP (1) EP3435247A4 (zh)
CN (2) CN107220220A (zh)
WO (1) WO2017162134A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108305306A (zh) * 2018-01-11 2018-07-20 中国科学院软件研究所 一种基于草图交互的动画数据组织方法
CN109299887A (zh) * 2018-11-05 2019-02-01 阿里巴巴集团控股有限公司 一种数据处理方法、装置及电子设备
CN109670171A (zh) * 2018-11-23 2019-04-23 山西大学 一种基于词对非对称共现的词向量表示学习方法
WO2019140863A1 (en) * 2018-01-22 2019-07-25 Boe Technology Group Co., Ltd. Method of calculating relevancy, apparatus for calculating relevancy, data query apparatus, and non-transitory computer-readable storage medium
CN110321551A (zh) * 2019-05-30 2019-10-11 泰康保险集团股份有限公司 GloVe词向量模型增量训练方法、装置、介质及电子设备
CN111047917A (zh) * 2019-12-18 2020-04-21 四川大学 一种基于改进dqn算法的航班着陆调度方法
WO2021238333A1 (zh) * 2020-05-29 2021-12-02 华为技术有限公司 一种文本处理网络、神经网络训练的方法以及相关设备

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11023580B1 (en) * 2018-03-21 2021-06-01 NortonLifeLock Inc. Systems and methods for cross-product malware categorization
CN111428516B (zh) 2018-11-19 2022-08-19 腾讯科技(深圳)有限公司 一种信息处理的方法以及装置
CN109800298B (zh) * 2019-01-29 2023-06-16 苏州大学 一种基于神经网络的中文分词模型的训练方法
US20210056127A1 (en) * 2019-08-21 2021-02-25 Nec Laboratories America, Inc. Method for multi-modal retrieval and clustering using deep cca and active pairwise queries
CN111026319B (zh) * 2019-12-26 2021-12-10 腾讯科技(深圳)有限公司 一种智能文本处理方法、装置、电子设备及存储介质
US11132514B1 (en) * 2020-03-16 2021-09-28 Hong Kong Applied Science and Technology Research Institute Company Limited Apparatus and method for applying image encoding recognition in natural language processing
CN111566665B (zh) * 2020-03-16 2021-07-30 香港应用科技研究院有限公司 在自然语言处理中应用图像编码识别的装置和方法
CN111476026A (zh) * 2020-03-24 2020-07-31 珠海格力电器股份有限公司 语句向量的确定方法、装置、电子设备及存储介质
CN113642302B (zh) * 2020-04-27 2024-04-02 阿里巴巴集团控股有限公司 文本填充模型的训练方法及装置、文本处理方法及装置
CN112115718A (zh) * 2020-09-29 2020-12-22 腾讯科技(深圳)有限公司 内容文本生成方法和装置、音乐评论文本生成方法
CN112509562B (zh) * 2020-11-09 2024-03-22 北京有竹居网络技术有限公司 用于文本后处理的方法、装置、电子设备和介质
EP4254401A4 (en) * 2021-02-17 2024-05-01 Samsung Electronics Co Ltd ELECTRONIC DEVICE AND CONTROL METHOD THEREFOR
CN116911288B (zh) * 2023-09-11 2023-12-12 戎行技术有限公司 一种基于自然语言处理技术的离散文本识别方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6714897B2 (en) * 2001-01-02 2004-03-30 Battelle Memorial Institute Method for generating analyses of categorical data
US8335683B2 (en) 2003-01-23 2012-12-18 Microsoft Corporation System for using statistical classifiers for spoken language understanding
US8060360B2 (en) * 2007-10-30 2011-11-15 Microsoft Corporation Word-dependent transition models in HMM based word alignment for statistical machine translation
US20140067368A1 (en) * 2012-08-29 2014-03-06 Microsoft Corporation Determining synonym-antonym polarity in term vectors
US20140278349A1 (en) * 2013-03-14 2014-09-18 Microsoft Corporation Language Model Dictionaries for Text Predictions
CN104199809A (zh) 2014-04-24 2014-12-10 江苏大学 一种专利文本向量的语义表示方法
US9575952B2 (en) * 2014-10-21 2017-02-21 At&T Intellectual Property I, L.P. Unsupervised topic modeling for short texts
CN104657350B (zh) * 2015-03-04 2017-06-09 中国科学院自动化研究所 融合隐式语义特征的短文本哈希学习方法
CN104881401B (zh) * 2015-05-27 2017-10-17 大连理工大学 一种专利文献聚类方法
CN104915448B (zh) * 2015-06-30 2018-03-27 中国科学院自动化研究所 一种基于层次卷积网络的实体与段落链接方法
US9607616B2 (en) * 2015-08-17 2017-03-28 Mitsubishi Electric Research Laboratories, Inc. Method for using a multi-scale recurrent neural network with pretraining for spoken language understanding tasks
CN106484682B (zh) * 2015-08-25 2019-06-25 阿里巴巴集团控股有限公司 基于统计的机器翻译方法、装置及电子设备
CN106486115A (zh) * 2015-08-28 2017-03-08 株式会社东芝 改进神经网络语言模型的方法和装置及语音识别方法和装置
KR101778679B1 (ko) * 2015-10-02 2017-09-14 네이버 주식회사 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템
US10019438B2 (en) * 2016-03-18 2018-07-10 International Business Machines Corporation External word embedding neural network language models
KR20180001889A (ko) * 2016-06-28 2018-01-05 삼성전자주식회사 언어 처리 방법 및 장치
US10515400B2 (en) * 2016-09-08 2019-12-24 Adobe Inc. Learning vector-space representations of items for recommendations using word embedding models

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108305306A (zh) * 2018-01-11 2018-07-20 中国科学院软件研究所 一种基于草图交互的动画数据组织方法
CN108305306B (zh) * 2018-01-11 2020-08-21 中国科学院软件研究所 一种基于草图交互的动画数据组织方法
WO2019140863A1 (en) * 2018-01-22 2019-07-25 Boe Technology Group Co., Ltd. Method of calculating relevancy, apparatus for calculating relevancy, data query apparatus, and non-transitory computer-readable storage medium
CN109299887A (zh) * 2018-11-05 2019-02-01 阿里巴巴集团控股有限公司 一种数据处理方法、装置及电子设备
CN109299887B (zh) * 2018-11-05 2022-04-19 创新先进技术有限公司 一种数据处理方法、装置及电子设备
CN109670171A (zh) * 2018-11-23 2019-04-23 山西大学 一种基于词对非对称共现的词向量表示学习方法
CN110321551A (zh) * 2019-05-30 2019-10-11 泰康保险集团股份有限公司 GloVe词向量模型增量训练方法、装置、介质及电子设备
CN110321551B (zh) * 2019-05-30 2022-12-06 泰康保险集团股份有限公司 GloVe词向量模型增量训练方法、装置、介质及电子设备
CN111047917A (zh) * 2019-12-18 2020-04-21 四川大学 一种基于改进dqn算法的航班着陆调度方法
WO2021238333A1 (zh) * 2020-05-29 2021-12-02 华为技术有限公司 一种文本处理网络、神经网络训练的方法以及相关设备

Also Published As

Publication number Publication date
CN108475262A (zh) 2018-08-31
EP3435247A1 (en) 2019-01-30
US10860798B2 (en) 2020-12-08
WO2017162134A1 (zh) 2017-09-28
EP3435247A4 (en) 2019-02-27
US20190018838A1 (en) 2019-01-17

Similar Documents

Publication Publication Date Title
CN107220220A (zh) 用于文本处理的电子设备和方法
CN108984745B (zh) 一种融合多知识图谱的神经网络文本分类方法
CN111966812B (zh) 一种基于动态词向量的自动问答方法和存储介质
CN112990296B (zh) 基于正交相似度蒸馏的图文匹配模型压缩与加速方法及系统
Gupta et al. Neural topic modeling with continual lifelong learning
CN111339255A (zh) 目标情感分析的方法、模型训练方法、介质和设备
CN110796160A (zh) 一种文本分类方法、装置和存储介质
CN106970981B (zh) 一种基于转移矩阵构建关系抽取模型的方法
CN112883714B (zh) 基于依赖图卷积和迁移学习的absc任务句法约束方法
CN113128206B (zh) 基于单词重要性加权的问题生成方法
Horn Context encoders as a simple but powerful extension of word2vec
WO2017136674A1 (en) Generating feature embeddings from a co-occurrence matrix
CN109325806A (zh) 一种用户信息的处理方法及装置
Puscasiu et al. Automated image captioning
CN114297399A (zh) 知识图谱生成方法、系统、存储介质及电子设备
Ma et al. UniTranSeR: A unified transformer semantic representation framework for multimodal task-oriented dialog system
CN116467443A (zh) 基于主题识别的网络舆情文本分类方法
CN112463989A (zh) 一种基于知识图谱的信息获取方法及系统
CN114282592A (zh) 一种基于深度学习的行业文本匹配模型方法及装置
Yonglan et al. English-Chinese Machine Translation Model Based on Bidirectional Neural Network with Attention Mechanism.
CN116680575B (zh) 模型处理方法、装置、设备及存储介质
Oh et al. BERTAC: Enhancing transformer-based language models with adversarially pretrained convolutional neural networks
Cao et al. Fuzzy emotional semantic analysis and automated annotation of scene images
CN109829054A (zh) 一种文本分类方法及系统
Wang et al. Improving relation extraction by multi-task learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170929

WD01 Invention patent application deemed withdrawn after publication