CN112036439A - 依存关系分类方法及相关设备 - Google Patents
依存关系分类方法及相关设备 Download PDFInfo
- Publication number
- CN112036439A CN112036439A CN202010753501.2A CN202010753501A CN112036439A CN 112036439 A CN112036439 A CN 112036439A CN 202010753501 A CN202010753501 A CN 202010753501A CN 112036439 A CN112036439 A CN 112036439A
- Authority
- CN
- China
- Prior art keywords
- word
- sample
- samples
- vector
- classification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能技术领域,提供一种依存关系分类方法及相关设备。所述依存关系分类方法通过分词层对语句样本进行分词;通过词编码层根据语句样本的特征向量序列计算多个词语样本的词向量;通过感知层根据多个词语样本的词向量确定多个词语样本的核心词向量和依存词向量;通过仿射分类层根据任意两个词语样本的核心词向量和依存词向量对任意两个词语样本的依存关系进行分类;根据任意两个词语样本的依存关系分类结果和任意两个词语样本在语句样本中的依存关系标签对分类模型进行训练;通过训练后的分类模型对目标语句进行词语依存关系分类。本发明提升分类的准确性。此外,本发明还涉及区块链技术,分类结果可存储于区块链中。
Description
技术领域
本发明涉及人工智能技术领域,具体涉及一种依存关系分类方法、装置、计算机设备及计算机可读存储介质。
背景技术
依存关系分类是自然语言处理过程中的一类关键技术。依存关系分类的准确性将影响自然语言处理的准确性。依存关系分类常存在分类不准确的问题。
如何提升依存关系分类的准确性成为待解决的问题。
发明内容
鉴于以上内容,有必要提出一种依存关系分类方法、装置、计算机设备及计算机可读存储介质,其可以对目标语句进行词语依存关系分类,提升分类的准确性。
本申请的第一方面提供一种依存关系分类方法,所述依存关系分类方法包括:
获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层;
通过所述BERT层生成所述语句样本的第一字向量序列;
通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本;
通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列;
通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量;
通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量;
通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类;
根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;
通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
另一种可能的实现方式中,所述通过所述字编码层对所述语句样本进行编码包括:
对于所述语句样本中的每个字样本,获取所述字样本的位置信息和类型信息;
通过所述字编码层的第一字编码子层对所述字样本的位置信息进行编码,得到所述字样本的第二字向量;
依字序组合所述语句样本中的多个字样本的第二字向量,得到所述语句样本第二字向量序列;
通过所述字编码层的第二字编码子层对所述字样本的类型信息进行编码,得到所述字样本的第三字向量;
依字序组合所述语句样本中的多个字样本的第三字向量,得到所述语句样本第三字向量序列。
另一种可能的实现方式中,所述通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量包括:
对于所述多个词语样本中的每个词语样本,确定组成所述词语样本的多个目标字样本;
对于每个目标字样本,根据所述目标字样本的第一字向量、第二字向量、第三字向量生成所述目标字样本的特征向量;
根据所述多个目标字样本的特征向量计算所述词语样本的词向量。
另一种可能的实现方式中,所述根据所述目标字样本的第一字向量、第二字向量、第三字向量生成所述目标字样本的特征向量包括:
连接所述目标字样本的第一字向量、第二字向量、第三字向量,得到所述目标字样本的特征向量;或
计算所述目标字样本的第一字向量、第二字向量和第三字向量的第一均值向量,将所述第一均值向量确定为所述目标字样本的特征向量。
另一种可能的实现方式中,所述根据所述多个目标字样本的特征向量计算所述词语样本的词向量包括:
计算所述多个目标字样本的特征向量的第二均值向量,将所述第二均值向量确定为所述目标字样本的特征向量。
另一种可能的实现方式中,所述根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练包括:
根据所述语句样本中的依存关系标签确定多个标签权重;
基于交叉熵损失算法根据所述任意两个词语样本的依存关系分类结果,所述任意两个词语样本在所述语句样本中的依存关系标签和所述多个标签权重计算损失值;
基于反向传播算法根据所述损失值对所述分类模型中的参数进行优化。
另一种可能的实现方式中,所述根据所述语句样本中的依存关系标签确定多个标签权重包括:
获取依存关系标签的标签类型,所述依存关系标签的标签类型包括表示不存在依存关系的第一标签类型和表示存在依存关系的第二标签类型;
获取第一标签权重和第二标签权重,所述第一标签权重小于所述第二标签权重;
将所述第一标签权重确定为第一标签类型的依存关系标签的标签权重,将所述第二标签权重确定为第二标签类型的依存关系标签的标签权重。
本申请的第二方面提供一种依存关系分类装置,所述依存关系分类装置包括:
获取模块,用于获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层;
生成模块,用于通过所述BERT层生成所述语句样本的第一字向量序列;
分词模块,用于通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本;
编码模块,用于通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列;
计算模块,用于通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量;
确定模块,用于通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量;
第一分类模块,用于通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类;
训练模块,用于根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;
第二分类模块,用于通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
本申请的第三方面提供一种计算机设备,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机可读指令时实现所述依存关系分类方法。
本申请的第四方面提供一种计算机可读存储介质,其上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现所述依存关系分类方法。
本发明通过BERT层、字编码层对语句样本进行编码,提升了训练所述分类模型的效率。通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类,增加了场景适应性,使所述分类模型可以对目标语句中的任意两个词语进行依存关系分类。根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;通过所述训练后的分类模型对所述目标语句进行词语依存关系分类,提升了分类的准确性。
附图说明
图1是本发明实施例提供的依存关系分类方法的流程图。
图2是本发明实施例提供的依存关系分类装置的结构图。
图3是本发明实施例提供的计算机设备的示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施例对本发明进行详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本发明。
优选地,本发明的依存关系分类方法应用在一个或者多个计算机设备中。所述计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路 (Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field- Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
实施例一
图1是本发明实施例一提供的依存关系分类方法的流程图。所述依存关系分类方法应用于计算机设备,用于对目标语句进行词语依存关系分类,提升分类的准确性。
如图1所示,所述依存关系分类方法包括:
101,获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层。
可以接收用户输入的语句样本、所述目标语句、所述分类模型。或从云存储设备中拉取所述语句样本、所述目标语句、所述分类模型。
所述语言样本用于对所述分类模型进行训练。所述目标语句是待分类的语句。
可以对所述BERT层和所述字编码层进行预训练。
102,通过所述BERT层生成所述语句样本的第一字向量序列。
BERT的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer模型的Encoder部分。可以基于Masked LM和Next Sentence Prediction两种方法对BERT层,进行预训练。以达到通过BERT层捕捉词语和句子级别的语义表示的目的。
所述语句样本的第一字向量序列包括了所述语句样本的语义信息。
103,通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本。
所述分词层可以包括循环神经网络(RNN,Recurrent Neural Network);或者所述分词层可以包括BiLSTM(双向长短期记忆网络)层和CRF (Conditional Random Fields,条件随机场)层。
例如,用分词层对语句样本“百度第一季度总营收为241亿元”进行分词,得到语句样本的多个词语样本为“百度”“第一季度”“总营收”“为”“241亿元”。
所述每个词语样本的成分类型包括实体、属性、属性值、描述、关系等。
在另一实施例中,所述依存关系分类方法还包括:
对于每个词语样本,获取所述词语样本的成分类型;
当所述词语样本的成分类型不是实体、属性、属性值、描述或关系时,删除所述词语样本。
如上例,删除后的多个词语样本为“百度”“第一季度”“总营收”“241 亿元”。
104,通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列。
在一具体实施例中,所述通过所述字编码层对所述语句样本进行编码包括:
对于所述语句样本中的每个字样本,获取所述字样本的位置信息和类型信息;
通过所述字编码层的第一字编码子层对所述字样本的位置信息进行编码,得到所述字样本的第二字向量;
依字序组合所述语句样本中的多个字样本的第二字向量,得到所述语句样本第二字向量序列;
通过所述字编码层的第二字编码子层对所述字样本的类型信息进行编码,得到所述字样本的第三字向量;
依字序组合所述语句样本中的多个字样本的第三字向量,得到所述语句样本第三字向量序列。
所述字样本的位置信息是所述字样本在所述语句样本中的顺序序号,或所述字样本在所述语句样本中的逆序序号。
确定所述字样本所属的目标词样本,将所述目标词语样本的成分类型确定为所述字样本的类型信息,通过所述第二字编码子层将所述字样本的类型信息编码为所述字样本的第三字向量。例如,成分类型为实体、属性、属性值、描述、关系的字样本的第三字向量分别为“001”、“010”、“011”、“100”、“101”。
105,通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量。
在一具体实施例中,所述通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量包括:
对于所述多个词语样本中的每个词语样本,确定组成所述词语样本的多个目标字样本;
对于每个目标字样本,根据所述目标字样本的第一字向量、第二字向量、第三字向量生成所述目标字样本的特征向量;
根据所述多个目标字样本的特征向量计算所述词语样本的词向量。
在一具体实施例中,所述根据所述目标字样本的第一字向量、第二字向量、第三字向量生成所述目标字样本的特征向量包括:
连接所述目标字样本的第一字向量、第二字向量、第三字向量,得到所述目标字样本的特征向量;或
计算所述目标字样本的第一字向量、第二字向量和第三字向量的第一均值向量,将所述第一均值向量确定为所述目标字样本的特征向量。
在一具体实施例中,所述根据所述多个目标字样本的特征向量计算所述词语样本的词向量包括:
计算所述多个目标字样本的特征向量的第二均值向量,将所述第二均值向量确定为所述目标字样本的特征向量。
106,通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量。
所述感知层包括两个不同的感知器,核心词感知器和依存词感知器。
对于每个词语样本,通过所述核心词感知器对所述词语样本的词向量进行编码,得到所述词语样本的核心词向量;
通过所述依存词感知器对所述词语样本的词向量进行编码,得到所述词语样本的依存词向量。
当所述词语样本对应依存关系中的核心项时,所述词语样本的核心词向量是所述词语样本的向量表示;当所述词语样本对应依存关系中的依存项时,所述词语样本的依存词向量是所述词语样本的向量表示。所述依存关系由所述核心项指向所述依存项。
107,通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类。
对于所述多个词语样本中的第u个词语样本和第v个词语样本,当所述第u个词语样本对应依存关系中的核心项,所述第v个词语样本对应依存关系中的依存项时,将所述第u个词语样本的核心词向量和所述第v个词语样本的依存词向量输入所述仿射分类层;通过所述仿射分类层对所述第u个词语样本的核心词向量和所述第v个词语样本的依存词向量进行计算,输出第一得分向量;将所述第一得分向量中得分最高的维度对应的依存关系类型确定为由所述第u个词语样本指向所述第v个词语样本的目标依存关系类型。
当所述第u个词语样本对应依存关系中的依存项,所述第v个词语样本对应依存关系中的核心项时,将所述第u个词语样本的依存词向量和所述第 v个词语样本的核心词向量输入所述仿射分类层;通过所述仿射分类层对所述第u个词语样本的依存词向量和所述第v个词语样本的核心词向量进行计算,输出第二得分向量;将所述第二得分向量中得分最高的维度对应的依存关系类型确定为由所述第v个词语样本指向所述第u个词语样本的目标依存关系类型。
需要强调的是,为进一步保证上述分类结果的私密和安全性,上述分类结果还可以存储于一区块链的节点中。
108,根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型。
在一具体实施例中,所述根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练包括:
根据所述语句样本中的依存关系标签确定多个标签权重;
基于交叉熵损失算法根据所述任意两个词语样本的依存关系分类结果,所述任意两个词语样本在所述语句样本中的依存关系标签和所述多个标签权重计算损失值;
基于反向传播算法根据所述损失值对所述分类模型中的参数进行优化。
在一具体实施例中,所述根据所述语句样本中的依存关系标签确定多个标签权重包括:
获取依存关系标签的标签类型,所述依存关系标签的标签类型包括表示不存在依存关系的第一标签类型和表示存在依存关系的第二标签类型;
获取第一标签权重和第二标签权重,所述第一标签权重小于所述第二标签权重;
将所述第一标签权重确定为第一标签类型的依存关系标签的标签权重,将所述第二标签权重确定为第二标签类型的依存关系标签的标签权重。
例如,第一标签类型包括“UNK”,第二标签类型包括“root”、“subj”、“obj”、“pred”、“adv”等。确定第一标签权重为0.1,确定第二标签权重为1。或者,确定第一标签权重为0.2,确定第二标签权重为0.9。第一标签类型表示所述任意两个词语样本之间不存在依存关系(即不存在核心项对应的词语样本指向依存项指向的词语样本的依存弧)。
将任意两个词语样本记为一组词语对,得到n组词语对。n组词语对中的第i组的词语对的依存关系分类结果为yi,第i组的词语对的依存关系标签为y′i,第i组的词语对的标签权重为wi。损失值为ce, 其中,yi和y′i为onehot向量,当第i组的词语对的标签类型为第一标签类型时,wi值取0.1;当第i组的词语对的标签类型为第二标签类型时,wi值取1。
在另一实施例中,所述依存关系分类方法还包括:
通过Macro-F1模型评估所述分类模型的分类能力;
当所述分类模型的分类能力大于预设能力值时,停止训练所述分类模型,得到训练后的分类模型。
109,通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
通过所述训练后的分类模型对所述目标语句进行词语依存关系分类,可以得到所述目标语句中的任意两个词语的双向依存关系类型。对于所述目标语句中的第j个词语和第k个词语,当所述第j个词语对应依存关系中的核心项,所述第k个词语对应依存关系中的依存项时,用所训练后的分类模型输出第三得分向量;将所述第三得分向量中得分最高的维度对应的依存关系类型确定为由所述第j个词语指向所述第k个词语的目标依存关系类型。
当所述第k个词语对应依存关系中的核心项,所述第j个词语对应依存关系中的依存项时,用所训练后的分类模型输出第四得分向量;将所述第四得分向量中得分最高的维度对应的依存关系类型确定为由所述第k个词语指向所述第j个词语的目标依存关系类型。
实施例一的依存关系分类方法通过BERT层、字编码层对语句样本进行编码,提升了训练所述分类模型的效率。通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类,增加了场景适应性,使所述分类模型可以对目标语句中的任意两个词语进行依存关系分类。根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;通过所述训练后的分类模型对所述目标语句进行词语依存关系分类,提升了分类的准确性。
实施例二
图2是本发明实施例二提供的依存关系分类装置的结构图。所述依存关系分类装置20应用于计算机设备。所述依存关系分类装置20用于对目标语句进行词语依存关系分类,提升分类的准确性。
如图2所示,所述依存关系分类装置20可以包括获取模块201、生成模块202、分词模块203、编码模块204、计算模块205、确定模块206、第一分类模块207、训练模块208、第二分类模块209。
获取模块201,用于获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层。
可以接收用户输入的语句样本、所述目标语句、所述分类模型。或从云存储设备中拉取所述语句样本、所述目标语句、所述分类模型。
所述语言样本用于对所述分类模型进行训练。所述目标语句是待分类的语句。
生成模块202,用于通过所述BERT层生成所述语句样本的第一字向量序列。
BERT的全称是Bidirectional Encoder Representation from Transformers,即双向Transformer模型的Encoder部分。可以基于Masked LM和Next Sentence Prediction两种方法对BERT层,进行预训练。以达到通过BERT层捕捉词语和句子级别的语义表示的目的。
所述语句样本的第一字向量序列包括了所述语句样本的语义信息。
分词模块203,用于通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本。
所述分词层可以包括循环神经网络(RNN,Recurrent Neural Network);或者所述分词层可以包括BiLSTM(双向长短期记忆网络)层和CRF (Conditional Random Fields,条件随机场)层。
例如,用分词层对语句样本“百度第一季度总营收为241亿元”进行分词,得到语句样本的多个词语样本为“百度”“第一季度”“总营收”“为”“241亿元”。
所述每个词语样本的成分类型包括实体、属性、属性值、描述、关系等。
在另一实施例中,所述依存关系分类装置还包括删除模块,用于对于每个词语样本,获取所述词语样本的成分类型;
当所述词语样本的成分类型不是实体、属性、属性值、描述或关系时,删除所述词语样本。
如上例,删除后的多个词语样本为“百度”“第一季度”“总营收”“241 亿元”。
编码模块204,用于通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列。
在一具体实施例中,所述通过所述字编码层对所述语句样本进行编码包括:
对于所述语句样本中的每个字样本,获取所述字样本的位置信息和类型信息;
通过所述字编码层的第一字编码子层对所述字样本的位置信息进行编码,得到所述字样本的第二字向量;
依字序组合所述语句样本中的多个字样本的第二字向量,得到所述语句样本第二字向量序列;
通过所述字编码层的第二字编码子层对所述字样本的类型信息进行编码,得到所述字样本的第三字向量;
依字序组合所述语句样本中的多个字样本的第三字向量,得到所述语句样本第三字向量序列。
所述字样本的位置信息是所述字样本在所述语句样本中的顺序序号,或所述字样本在所述语句样本中的逆序序号。
确定所述字样本所属的目标词样本,将所述目标词语样本的成分类型确定为所述字样本的类型信息,通过所述第二字编码子层将所述字样本的类型信息编码为所述字样本的第三字向量。例如,成分类型为实体、属性、属性值、描述、关系的字样本的第三字向量分别为“001”、“010”、“011”、“100”、“101”。
计算模块205,用于通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量。
在一具体实施例中,所述通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量包括:
对于所述多个词语样本中的每个词语样本,确定组成所述词语样本的多个目标字样本;
对于每个目标字样本,根据所述目标字样本的第一字向量、第二字向量、第三字向量生成所述目标字样本的特征向量;
根据所述多个目标字样本的特征向量计算所述词语样本的词向量。
在一具体实施例中,所述根据所述目标字样本的第一字向量、第二字向量、第三字向量生成所述目标字样本的特征向量包括:
连接所述目标字样本的第一字向量、第二字向量、第三字向量,得到所述目标字样本的特征向量;或
计算所述目标字样本的第一字向量、第二字向量和第三字向量的第一均值向量,将所述第一均值向量确定为所述目标字样本的特征向量。
在一具体实施例中,所述根据所述多个目标字样本的特征向量计算所述词语样本的词向量包括:
计算所述多个目标字样本的特征向量的第二均值向量,将所述第二均值向量确定为所述目标字样本的特征向量。
确定模块206,用于通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量。
所述感知层包括两个不同的感知器,核心词感知器和依存词感知器。
对于每个词语样本,通过所述核心词感知器对所述词语样本的词向量进行编码,得到所述词语样本的核心词向量;
通过所述依存词感知器对所述词语样本的词向量进行编码,得到所述词语样本的依存词向量。
当所述词语样本对应依存关系中的核心项时,所述词语样本的核心词向量是所述词语样本的向量表示;当所述词语样本对应依存关系中的依存项时,所述词语样本的依存词向量是所述词语样本的向量表示。所述依存关系由所述核心项指向所述依存项。
第一分类模块207,用于通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类。
对于所述多个词语样本中的第u个词语样本和第v个词语样本,当所述第u个词语样本对应依存关系中的核心项,所述第v个词语样本对应依存关系中的依存项时,将所述第u个词语样本的核心词向量和所述第v个词语样本的依存词向量输入所述仿射分类层;通过所述仿射分类层对所述第u个词语样本的核心词向量和所述第v个词语样本的依存词向量进行计算,输出第一得分向量;将所述第一得分向量中得分最高的维度对应的依存关系类型确定为由所述第u个词语样本指向所述第v个词语样本的目标依存关系类型。
当所述第u个词语样本对应依存关系中的依存项,所述第v个词语样本对应依存关系中的核心项时,将所述第u个词语样本的依存词向量和所述第 v个词语样本的核心词向量输入所述仿射分类层;通过所述仿射分类层对所述第u个词语样本的依存词向量和所述第v个词语样本的核心词向量进行计算,输出第二得分向量;将所述第二得分向量中得分最高的维度对应的依存关系类型确定为由所述第v个词语样本指向所述第u个词语样本的目标依存关系类型。
需要强调的是,为进一步保证上述分类结果的私密和安全性,上述分类结果还可以存储于一区块链的节点中。
训练模块208,用于根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型。
在一具体实施例中,所述根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练包括:
根据所述语句样本中的依存关系标签确定多个标签权重;
基于交叉熵损失算法根据所述任意两个词语样本的依存关系分类结果,所述任意两个词语样本在所述语句样本中的依存关系标签和所述多个标签权重计算损失值;
基于反向传播算法根据所述损失值对所述分类模型中的参数进行优化。
在一具体实施例中,所述根据所述语句样本中的依存关系标签确定多个标签权重包括:
获取依存关系标签的标签类型,所述依存关系标签的标签类型包括表示不存在依存关系的第一标签类型和表示存在依存关系的第二标签类型;
获取第一标签权重和第二标签权重,所述第一标签权重小于所述第二标签权重;
将所述第一标签权重确定为第一标签类型的依存关系标签的标签权重,将所述第二标签权重确定为第二标签类型的依存关系标签的标签权重。
例如,第一标签类型包括“UNK”,第二标签类型包括“root”、“subj”、“obj”、“pred”、“adv”等。确定第一标签权重为0.1,确定第二标签权重为1。或者,确定第一标签权重为0.2,确定第二标签权重为0.9。第一标签类型表示所述任意两个词语样本之间不存在依存关系(即不存在核心项对应的词语样本指向依存项指向的词语样本的依存弧)。
将任意两个词语样本记为一组词语对,得到n组词语对。n组词语对中的第i组的词语对的依存关系分类结果为yi,第i组的词语对的依存关系标签为y′i,第i组的词语对的标签权重为wi。损失值为ce, 其中,yi和y′i为onehot向量,当第i组的词语对的标签类型为第一标签类型时,wi值取0.1;当第i组的词语对的标签类型为第二标签类型时,wi值取1。
在另一实施例中,所述依存关系分类装置还包括停止模块,用于通过 Macro-F1模型评估所述分类模型的分类能力;
当所述分类模型的分类能力大于预设能力值时,停止训练所述分类模型,得到训练后的分类模型。
第二分类模块209,用于通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
通过所述训练后的分类模型对所述目标语句进行词语依存关系分类,可以得到所述目标语句中的任意两个词语的双向依存关系类型。对于所述目标语句中的第j个词语和第k个词语,当所述第j个词语对应依存关系中的核心项,所述第k个词语对应依存关系中的依存项时,用所训练后的分类模型输出第三得分向量;将所述第三得分向量中得分最高的维度对应的依存关系类型确定为由所述第j个词语指向所述第k个词语的目标依存关系类型。
当所述第k个词语对应依存关系中的核心项,所述第j个词语对应依存关系中的依存项时,用所训练后的分类模型输出第四得分向量;将所述第四得分向量中得分最高的维度对应的依存关系类型确定为由所述第k个词语指向所述第j个词语的目标依存关系类型。
实施例二的依存关系分类装置20通过BERT层、字编码层对语句样本进行编码,提升了训练所述分类模型的效率。通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类,增加了场景适应性,使所述分类模型可以对目标语句中的任意两个词语进行依存关系分类。根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;通过所述训练后的分类模型对所述目标语句进行词语依存关系分类,提升了分类的准确性。
实施例三
本实施例提供一种计算机可读存储介质,该计算机可读存储介质上存储有计算机可读指令,该计算机可读指令被处理器执行时实现上述依存关系分类方法实施例中的步骤,例如图1所示的步骤101-109:
101,获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层;
102,通过所述BERT层生成所述语句样本的第一字向量序列;
103,通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本;
104,通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列;
105,通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量;
106,通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量;
107,通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类;
108,根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;
109,通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
或者,该计算机可读指令被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-209:
获取模块201,用于获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层;
生成模块202,用于通过所述BERT层生成所述语句样本的第一字向量序列;
分词模块203,用于通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本;
编码模块204,用于通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列;
计算模块205,用于通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量;
确定模块206,用于通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量;
第一分类模块207,用于通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类;
训练模块208,用于根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;
第二分类模块209,用于通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
实施例四
图3为本发明实施例三提供的计算机设备的示意图。所述计算机设备30 包括存储器301、处理器302以及存储在所述存储器301中并可在所述处理器302上运行的计算机可读指令303,例如依存关系分类程序。所述处理器 302执行所述计算机可读指令303时实现上述依存关系分类方法实施例中的步骤,例如图1所示的101-109:
101,获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层;
102,通过所述BERT层生成所述语句样本的第一字向量序列;
103,通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本;
104,通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列;
105,通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量;
106,通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量;
107,通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类;
108,根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;
109,通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
或者,该计算机可读指令被处理器执行时实现上述装置实施例中各模块的功能,例如图2中的模块201-209:
获取模块201,用于获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层;
生成模块202,用于通过所述BERT层生成所述语句样本的第一字向量序列;
分词模块203,用于通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本;
编码模块204,用于通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列;
计算模块205,用于通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量;
确定模块206,用于通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量;
第一分类模块207,用于通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类;
训练模块208,用于根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;
第二分类模块209,用于通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
示例性的,所述计算机可读指令303可以被分割成一个或多个模块,所述一个或者多个模块被存储在所述存储器301中,并由所述处理器302执行,以完成本方法。所述一个或多个模块可以是能够完成特定功能的一系列计算机可读指令段,该指令段用于描述所述计算机可读指令303在所述计算机设备30中的执行过程。例如,所述计算机可读指令303可以被分割成图2中的获取模块201、生成模块202、分词模块203、编码模块204、计算模块205、确定模块206、第一分类模块207、训练模块208、第二分类模块209,各模块具体功能参见实施例二。
本领域技术人员可以理解,所述示意图3仅仅是计算机设备30的示例,并不构成对计算机设备30的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述计算机设备30还可以包括输入输出设备、网络接入设备、总线等。
所称处理器302可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器302也可以是任何常规的处理器等,所述处理器302是所述计算机设备30的控制中心,利用各种接口和线路连接整个计算机设备30的各个部分。
所述存储器301可用于存储所述计算机可读指令303,所述处理器302 通过运行或执行存储在所述存储器301内的计算机可读指令或模块,以及调用存储在存储器301内的数据,实现所述计算机设备30的各种功能。所述存储器301可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据计算机设备30的使用所创建的数据等。此外,存储器301可以包括硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)或其他非易失性/易失性存储器件。
所述计算机设备30集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机可读指令来指令相关的硬件来完成,所述的计算机可读指令可存储于一计算机可读存储介质中,该计算机可读指令在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机可读指令包括计算机可读指令代码,所述计算机可读指令代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机可读指令代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM)、随机存取存储器(RAM)等。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
上述以软件功能模块的形式实现的集成的模块,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等) 或处理器(processor)执行本发明各个实施例所述依存关系分类方法的部分步骤。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。此外,显然“包括”一词不排除其他模块或步骤,单数不排除复数。系统权利要求中陈述的多个模块或装置也可以由一个模块或装置通过软件或者硬件来实现。第一,第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种依存关系分类方法,其特征在于,所述依存关系分类方法包括:
获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层;
通过所述BERT层生成所述语句样本的第一字向量序列;
通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本;
通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列;
通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量;
通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量;
通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类;
根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;
通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
2.如权利要求1所述的依存关系分类方法,其特征在于,所述通过所述字编码层对所述语句样本进行编码包括:
对于所述语句样本中的每个字样本,获取所述字样本的位置信息和类型信息;
通过所述字编码层的第一字编码子层对所述字样本的位置信息进行编码,得到所述字样本的第二字向量;
依字序组合所述语句样本中的多个字样本的第二字向量,得到所述语句样本第二字向量序列;
通过所述字编码层的第二字编码子层对所述字样本的类型信息进行编码,得到所述字样本的第三字向量;
依字序组合所述语句样本中的多个字样本的第三字向量,得到所述语句样本第三字向量序列。
3.如权利要求1所述的依存关系分类方法,其特征在于,所述通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量包括:
对于所述多个词语样本中的每个词语样本,确定组成所述词语样本的多个目标字样本;
对于每个目标字样本,根据所述目标字样本的第一字向量、第二字向量、第三字向量生成所述目标字样本的特征向量;
根据所述多个目标字样本的特征向量计算所述词语样本的词向量。
4.如权利要求3所述的依存关系分类方法,其特征在于,所述根据所述目标字样本的第一字向量、第二字向量、第三字向量生成所述目标字样本的特征向量包括:
连接所述目标字样本的第一字向量、第二字向量、第三字向量,得到所述目标字样本的特征向量;或
计算所述目标字样本的第一字向量、第二字向量和第三字向量的第一均值向量,将所述第一均值向量确定为所述目标字样本的特征向量。
5.如权利要求3所述的依存关系分类方法,其特征在于,所述根据所述多个目标字样本的特征向量计算所述词语样本的词向量包括:
计算所述多个目标字样本的特征向量的第二均值向量,将所述第二均值向量确定为所述目标字样本的特征向量。
6.如权利要求1所述的依存关系分类方法,其特征在于,所述根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练包括:
根据所述语句样本中的依存关系标签确定多个标签权重;
基于交叉熵损失算法根据所述任意两个词语样本的依存关系分类结果,所述任意两个词语样本在所述语句样本中的依存关系标签和所述多个标签权重计算损失值;
基于反向传播算法根据所述损失值对所述分类模型中的参数进行优化。
7.如权利要求6所述的依存关系分类方法,其特征在于,所述根据所述语句样本中的依存关系标签确定多个标签权重包括:
获取依存关系标签的标签类型,所述依存关系标签的标签类型包括表示不存在依存关系的第一标签类型和表示存在依存关系的第二标签类型;
获取第一标签权重和第二标签权重,所述第一标签权重小于所述第二标签权重;
将所述第一标签权重确定为第一标签类型的依存关系标签的标签权重,将所述第二标签权重确定为第二标签类型的依存关系标签的标签权重。
8.一种依存关系分类装置,其特征在于,所述依存关系分类装置包括:
获取模块,用于获取语句样本、目标语句和分类模型,所述分类模型包括BERT层、字编码层、分词层、词编码层、感知层和仿射分类层;
生成模块,用于通过所述BERT层生成所述语句样本的第一字向量序列;
分词模块,用于通过所述分词层对所述语句样本进行分词,得到所述语句样本的多个词语样本;
编码模块,用于通过所述字编码层对所述语句样本进行编码,得到所述语句样本的第二字向量序列和第三字向量序列;
计算模块,用于通过所述词编码层根据所述语句样本的第一字向量序列、第二字向量序列、第三字向量序列计算所述多个词语样本的词向量;
确定模块,用于通过所述感知层根据所述多个词语样本的词向量确定所述多个词语样本的核心词向量和依存词向量;
第一分类模块,用于通过所述仿射分类层根据任意两个词语样本的核心词向量和依存词向量对所述任意两个词语样本的依存关系进行分类;
训练模块,用于根据所述任意两个词语样本的依存关系分类结果和所述任意两个词语样本在所述语句样本中的依存关系标签对所述分类模型进行训练,得到训练后的分类模型;
第二分类模块,用于通过所述训练后的分类模型对所述目标语句进行词语依存关系分类。
9.一种计算机设备,其特征在于,所述计算机设备包括处理器,所述处理器用于执行存储器中存储的计算机可读指令以实现如权利要求1至7中任一项所述依存关系分类方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,其特征在于,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述依存关系分类方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010753501.2A CN112036439B (zh) | 2020-07-30 | 2020-07-30 | 依存关系分类方法及相关设备 |
PCT/CN2020/122917 WO2021147404A1 (zh) | 2020-07-30 | 2020-10-22 | 依存关系分类方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010753501.2A CN112036439B (zh) | 2020-07-30 | 2020-07-30 | 依存关系分类方法及相关设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112036439A true CN112036439A (zh) | 2020-12-04 |
CN112036439B CN112036439B (zh) | 2023-09-01 |
Family
ID=73583628
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010753501.2A Active CN112036439B (zh) | 2020-07-30 | 2020-07-30 | 依存关系分类方法及相关设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112036439B (zh) |
WO (1) | WO2021147404A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613311A (zh) * | 2021-01-07 | 2021-04-06 | 北京捷通华声科技股份有限公司 | 一种信息处理方法及装置 |
CN113705216A (zh) * | 2021-08-31 | 2021-11-26 | 新华三大数据技术有限公司 | 依赖关系的检测方法、装置及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109815333A (zh) * | 2019-01-14 | 2019-05-28 | 金蝶软件(中国)有限公司 | 信息获取方法、装置、计算机设备和存储介质 |
WO2019205318A1 (zh) * | 2018-04-25 | 2019-10-31 | 平安科技(深圳)有限公司 | 舆情信息分类方法、装置、计算机设备和存储介质 |
CN111274790A (zh) * | 2020-02-13 | 2020-06-12 | 东南大学 | 基于句法依存图的篇章级事件嵌入方法及装置 |
CN111460812A (zh) * | 2020-03-02 | 2020-07-28 | 平安科技(深圳)有限公司 | 语句情感分类方法及相关设备 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8914279B1 (en) * | 2011-09-23 | 2014-12-16 | Google Inc. | Efficient parsing with structured prediction cascades |
CN105335348B (zh) * | 2014-08-07 | 2018-10-02 | 阿里巴巴集团控股有限公司 | 基于目标语句的依存句法分析方法、装置及服务器 |
CN106250367B (zh) * | 2016-07-27 | 2019-04-09 | 昆明理工大学 | 基于改进的Nivre算法构建越南语依存树库的方法 |
CN110705253A (zh) * | 2019-08-29 | 2020-01-17 | 昆明理工大学 | 基于迁移学习的缅甸语依存句法分析方法及装置 |
CN111221976A (zh) * | 2019-11-14 | 2020-06-02 | 北京京航计算通讯研究所 | 基于bert算法模型的知识图谱构建方法 |
CN111414749B (zh) * | 2020-03-18 | 2022-06-21 | 哈尔滨理工大学 | 基于深度神经网络的社交文本依存句法分析系统 |
-
2020
- 2020-07-30 CN CN202010753501.2A patent/CN112036439B/zh active Active
- 2020-10-22 WO PCT/CN2020/122917 patent/WO2021147404A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019205318A1 (zh) * | 2018-04-25 | 2019-10-31 | 平安科技(深圳)有限公司 | 舆情信息分类方法、装置、计算机设备和存储介质 |
CN109815333A (zh) * | 2019-01-14 | 2019-05-28 | 金蝶软件(中国)有限公司 | 信息获取方法、装置、计算机设备和存储介质 |
CN111274790A (zh) * | 2020-02-13 | 2020-06-12 | 东南大学 | 基于句法依存图的篇章级事件嵌入方法及装置 |
CN111460812A (zh) * | 2020-03-02 | 2020-07-28 | 平安科技(深圳)有限公司 | 语句情感分类方法及相关设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112613311A (zh) * | 2021-01-07 | 2021-04-06 | 北京捷通华声科技股份有限公司 | 一种信息处理方法及装置 |
CN113705216A (zh) * | 2021-08-31 | 2021-11-26 | 新华三大数据技术有限公司 | 依赖关系的检测方法、装置及设备 |
CN113705216B (zh) * | 2021-08-31 | 2024-04-19 | 新华三大数据技术有限公司 | 依赖关系的检测方法、装置及设备 |
Also Published As
Publication number | Publication date |
---|---|
WO2021147404A1 (zh) | 2021-07-29 |
CN112036439B (zh) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111695033B (zh) | 企业舆情分析方法、装置、电子设备及介质 | |
CN112084381A (zh) | 一种事件抽取方法、系统、存储介质以及设备 | |
CN111461168A (zh) | 训练样本扩充方法、装置、电子设备及存储介质 | |
CN112417096A (zh) | 问答对匹配方法、装置、电子设备及存储介质 | |
Xiao et al. | Multi-sensor data fusion for sign language recognition based on dynamic Bayesian network and convolutional neural network | |
CN111639500A (zh) | 语义角色标注方法、装置、计算机设备及存储介质 | |
CN113342977B (zh) | 发票图像分类方法、装置、设备及存储介质 | |
CN114090794A (zh) | 基于人工智能的事理图谱构建方法及相关设备 | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
CN114462412B (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN111666766A (zh) | 数据处理方法、装置和设备 | |
CN113590945B (zh) | 一种基于用户借阅行为-兴趣预测的图书推荐方法和装置 | |
CN114037545A (zh) | 客户推荐方法、装置、设备及存储介质 | |
CN112036439B (zh) | 依存关系分类方法及相关设备 | |
CN113704393A (zh) | 关键词提取方法、装置、设备及介质 | |
CN115222443A (zh) | 客户群体划分方法、装置、设备及存储介质 | |
CN115510188A (zh) | 文本关键词关联方法、装置、设备及存储介质 | |
CN113591881B (zh) | 基于模型融合的意图识别方法、装置、电子设备及介质 | |
CN111552865A (zh) | 用户兴趣画像方法及相关设备 | |
CN111767720B (zh) | 一种标题生成方法、计算机及可读存储介质 | |
CN117172235A (zh) | 基于相似度度量的类案判别方法及系统 | |
CN116468043A (zh) | 嵌套实体识别方法、装置、设备及存储介质 | |
CN116629423A (zh) | 用户行为预测方法、装置、设备及存储介质 | |
CN114581177B (zh) | 产品推荐方法、装置、设备及存储介质 | |
CN113343700B (zh) | 数据处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |