CN112949312A - 一种产品知识融合方法和系统 - Google Patents
一种产品知识融合方法和系统 Download PDFInfo
- Publication number
- CN112949312A CN112949312A CN202110327074.6A CN202110327074A CN112949312A CN 112949312 A CN112949312 A CN 112949312A CN 202110327074 A CN202110327074 A CN 202110327074A CN 112949312 A CN112949312 A CN 112949312A
- Authority
- CN
- China
- Prior art keywords
- text
- product
- entity
- text data
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 22
- 238000000034 method Methods 0.000 claims abstract description 30
- 230000004927 fusion Effects 0.000 claims abstract description 11
- 239000013598 vector Substances 0.000 claims description 40
- 239000011159 matrix material Substances 0.000 claims description 34
- 230000003993 interaction Effects 0.000 claims description 26
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 238000011176 pooling Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 7
- 230000002452 interceptive effect Effects 0.000 claims description 6
- 239000002245 particle Substances 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000015654 memory Effects 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007787 long-term memory Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0201—Market modelling; Market analysis; Collecting market data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/367—Ontology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Business, Economics & Management (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Strategic Management (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Animal Behavior & Ethology (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开一种产品知识融合方法和系统,所述方法包括如下步骤:获取产品原始数据;对所述产品原始数据进行知识抽取,获取产品相关的实体、属性和语义关系;根据所述产品相关的实体、属性和语义关系构建实体信息知识库;将所述语义关系和属性融合所述实体,并采用文本匹配模型进行实体匹配,获取相匹配的实体信息对应的产品原始数据;根据匹配后的实体信息建立产品的知识图谱。所述方法和系统采用知识融合的方式,将多源异构数据进行规范化处理,从而可以有效减少因为数据结构、来源不同导致的知识一词多义,指代不清等问题。
Description
技术领域
本发明涉及深度学习领域,特别涉及一种产品知识融合方法和系统。
背景技术
为了辅助产品设计师进行产品调研,充分发挥大数据的优势,通过构建产品设计知识图谱,直观、高效地展示产品的关联关系。在构建知识图谱时,知识往往来源于多个不同的数据源,由于数据源之间存在结构、内容上的差异,因此在对获取到的知识进行整合时也会存在一词多义、指代不明的问题。因此,需要进行知识融合处理,消除实体、属性在指代上的歧义,将多源异构数据进行规范化处理。
文本匹配是自然语言处理中一个重要的基础问题,可以应用于大量的NLP任务中,如信息检索、问答系统、复述问题、对话系统、机器翻译等,这些NLP任务在很大程度上可以抽象为文本匹配问题。传统的文本匹配技术有BoW、VSM、TF-IDF、BM25、Jaccord、SimHash等算法,主要解决词汇层面的匹配问题,或者说词汇层面的相似度问题。而实际上,基于词汇重合度的匹配算法有很大的局限性,原因包括:词义局限、结构局限、知识局限。这表明,对于文本匹配任务,不能只停留在字面匹配层面,要深入到语义层面的匹配。
发明内容
本发明其中一个发明目的在于提供一种产品知识融合方法和系统,所述方法和系统采用语义文本进行文本匹配,从而可以克服字词层面匹配的不足,可提高匹配的准确性。
本发明另一个发明目的在于提供一种产品知识融合方法和系统,所述方法和系统采用知识融合的方式,将多源异构数据进行规范化处理,从而可以有效减少因为数据结构、来源不同导致的知识一词多义,指代不清等问题。
本发明另一个发明目的在于提供一种产品知识融合方法和系统,所述方法和系统在词条向量中加入包括但不仅限于命名实体、词性、词法和句法等信息进行融合,从而使得词条向量包含更丰富的语义信息,提高知识识别的准确率。
本发明另一个发明目的在于提供一种产品知识融合方法和系统,所述方法和系统还提取实体的上下文的进行特征提取,获取上下文的语义信息,并将上下的语义信息作为实体自身的语境进行语义识别,可提高实体在文章中含义识别的准确率。
为了实现至少一个上述发明目的,本发明进一步提供一种产品知识融合方法,所述方法包括如下步骤:
获取产品原始数据;
对所述产品原始数据进行知识抽取,获取产品相关的实体、属性和语义关系;
根据所述产品相关的实体、属性和语义关系构建实体信息知识库;
将所述语义关系和属性融合所述实体,并采用文本匹配模型进行实体匹配,获取相匹配的实体信息对应的产品原始数据;
根据匹配后的实体信息建立产品的知识图谱。
根据本发明其中一个较佳实施例,获取产品原始数据中的文本数据,并对文本数据进行分词,获取文本数据的关键词。
根据本发明另一个较佳实施例,将分词后的关键词转化为词向量,获取关键词对应的命名实体、词法、词性和关键词所在句的句法信息转化为特征向量后输入到所述词向量中进行融合,获取融合后的实体信息。
根据本发明另一个较佳实施例,获取实体信息的上下文,并对所述上下文进行特征提取,将所述实体信息和对应的上下文进行K-Max池化操作,并将池化后的特征向量进行拼接,具体为:
其中分别表示语句P中第i个命名实体、实体之前的文本片段、实体之后的文本片段,KMax{}为K-Max池化操作,分别表示通过卷积神经网络和K-Max池化获得的实体、实体上文、实体下文的向量,采用双线性插值法计算不同产品文本数据中语句的匹配的实体信息矩阵。
根据本发明另一个较佳实施例,采用Bilinear相似性度量函数计算两个语句不同位置的交互信息,计算方法如下:
根据上述两个位置信息的特征向量输出交互矩阵:
进一步计算不同文本数据的颗粒角度的注意力交互:
其中eij为产品文本数据P中第i个单词和产品文本数据H中第j个单词之间的点乘相似度,exp(eik)表示对eik归正处理,k为对应文本实体单词,m为文本P中的单词个数,n为文本H中单词个数,exp(eik)表示文本数据H中所有单词对文本数据P中的第i个关键词进行归正计算,ekj表示文本数据P中所有单词对文本数据H中的第j个关键词进行归正计算,PT为P矩阵的转置矩阵,其中文数据P和H的注意力表示分别为αp,βh;其中是对文本H中的每个词进行加权求和得到的,表示文本P中的第i个单词与文本H中的每个单词的匹配信息;βh是对文本P中的每个词进行加权求和得到的,表示文本H中的第j个单词与文本P中的每个单词的匹配信息。
根据本发明另一个较佳实施例,采用卷积神经网络对两个文本数据的词嵌入Ep和Eh分别提取局部结构信息,分别获取两个文本的局部语义矩阵:
Cp=Wide_CNN(Ep);
Ch=Wide_CNN(Eh);
其中Cp∈Rm×1×ck,Ch∈Rn×1×ck,m,n分别为文本数据P和文本数据H中词的个数,ck为卷积核的数目,Cp为词嵌入Ep经过宽卷积神经网络结构后得到的结果;Ch为词嵌入Eh经过宽卷积神经网络结构后得到的结果。
根据本发明另一个较佳实施例,将输出结果Ch,Cp进行注意力交互计算,分别得到文本数据P和文本数据H的局部语义注意力矩阵:cnnp,cnnh。
根据本发明另一个较佳实施例,分别计算文本内部的自注意力交互,其中文本数据P的自注意力交互的计算公式为:
其中文本数据H的子注意力的计算公式和文本数据P相同,αij表示文本P中单词i和单词j的注意力,并计算以获取两个文本的自注意力交互结果。
根据本发明另一个较佳实施例,将相互匹配两个文本数据P和H的上下文交互矩阵、颗粒角度注意力交互矩阵、局部语义注意力交互矩阵和自注意力交互矩阵分别进行拼接,拼接后分别形成新语义矩阵:
将新语义矩阵分别输入到BiLSTM网络中提取文本语义特征,用于获取最终的匹配结果,根据最终的匹配结果进行知识图谱构建。
为了实现至少一个上述发明目的,本发明进一步提供一种产品知识融合系统,所述产品知识融合系统应用上述一种产品知识融合方法。
为了实现至少一个上述发明目的,本发明进一步提供一种计算机可读存储介质,所述计算机可读存储介质保存并应用上述一种产品知识融合系统。
附图说明
图1显示的是本发明一种产品知识融合方法的流程图;
图2显示的是本发明中卷积模型示意图;
图3显示的是本发明中文本匹配模型结构示意图。
具体实施方式
以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。
本领域技术人员应理解的是,在本发明的揭露中,术语“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系是基于附图所示的方位或位置关系,其仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此上述术语不能理解为对本发明的限制。
请结合图1-3,本发明公开了一种产品知识融合方法和系统,所述方法充分引入产品实体的语义特征进行匹配,语义特征包括文本数据的颗粒度、局部特征、全局特征的角度,并融合文本数据中实体上下文特征采用深度学习算法进行匹配,从而可以精准匹配出相似的文本数据,可用于产品相似度判断和产品知识图谱的构建。
具体的,所述产品知识融合方法需要首先获取产品原始文本数据,其中所述产品原始文本数据可采用包括但不仅限于爬虫技术获取,获取文本数据后对每一文本数据进行分词,由于本发明是通过两两数据对比的方式实现,因此本发明举例文本数据P和文本数据H作为两个需要进行匹配的文本数据,两个文本数据分别来自于不同的产品。
本发明可采用现有的jieba分词库对采集的文本数据P和文本数据H进行分词,分别获取两个文本数据对应的关键词,需要说明的是,jieba分词库可以采用高精确性模式,可以将长的词进行再次切分,从而获取高精确度关键词。
采用分词库对两个文本数据进行分词后,将分词后的关键词转化为向量,本发明优选Woed2Vect算法将关键词转换为对应的词向量。若关键词未出现在词表中,则将该关键词随机进行初始化表示。其中文本数据P和文本数据H的词向量分别为:
其中,Ep∈Rm×d,Eh∈Rn×d,m,n分别表示产品设计文本P,H中词的个数,d表示词向量的维度。EP和Eh分别表示文本数据P和文本数据H的词向量。
进一步的,获取每一关键词的词性、词法和关键词所在句的句法。并将词性、词法和关键词所在句的句法转换为特征向量,其中词性可以包括但不仅限于副词、助词、连词和名词等分类,所述词法包括但不仅限于名词用作动词、名词作状语,名词用作副词、形容词用作名词、形容词用作动词、动词用作名词、数词用作动词、动词使动用法、形容词使动用法、名词使动用法等。所述句法包括但不仅限于陈述句、疑问句、祈使句和感叹句等。
采用现有的自然语言处理模型,比如NLTK、StanfordNLP模型识别两个文本的命名实体,将所述命名实体转换为特征向量,将文上述的命名实体、词性、词法和关键词所在句的句法对应的特征向量融合到所述特征向量中,其中采用上述现有模型识别命名实体后获取文本数据P和文本数据H的实体集合:和
由于实体的含义和文本的上下文语境相关,因此本发明为了更好地获取实体所代表的语义信息,本发明进一步提取实体的上下文特征,具体方法包括如下步骤:
采用不同的一维卷积神经网络Conventity和Convcontext络分别对命名实体和命名实体的上下文的文本片段分别进行特征提取,获取命名实体的特征向量和实体上文特征向量和实体下文特征向量,并且分别对命名实体特征向量和上下文特征向量输入到K-Max层进行池化操作,池化操作的公式如下:
其中Conventity表示对命名实体进行特征提取的一维卷积神经网络,Convcontext表示对命名实体所处上下文进行特征提取的一维卷积神经网络, 分别表示语句P中第i个命名实体、实体之前的文本片段、实体之后的文本片段。KMax{}为K-Max池化操作,分别表示通过卷积神经网络和K-Max池化获得的实体、实体上文、实体下文的向量表征。针对文本数据P中的k个实体上下文特征向量和文本H中的一个实体上下文特征向量采用Bilinear算法(双线性差值算法)计算文本数据P和文本数据H之间的实体匹配矩阵。将实体在文本数据P中的文本位置pi和在文本数据H中的文本位置hi分别转化为向量表示:和进一步采用Bilinear算法建立基于文本位置的交互信息:
其中eij∈Rm×n,Rm×n表示对应维度的矩阵,维度分别和文本数据P和文本数据的词个数m,n相关,表示文本数据P在i单词处的矩阵,并对P矩阵进行转置,Ej h表示文本数据H在j单词处的矩阵,进一步获得文本数据P和文本数据H的上下文注意力矩阵αp,βh:
分母部分exp(eik)表示对eik作归正处理,使结果集中到相同区间,分母是将文本H中所有词对文本P中第i个词做点乘并进行数值归正求和运算,exp(eik)表示对eik归正处理,k为对应文本实体单词,m为文本P中的单词个数,n为文本H中单词个数,exp(eik)表示文本数据H中所有单词对文本数据P中的第i个关键词进行归正计算,ekj表示文本数据P中所有单词对文本数据H中的第j个关键词进行归正计算,上述文本数据P和文本数据H的注意力αp,βh分别是基于颗粒角度的文本注意力,本发明进一步计算基于局部特征的注意力,其中需要获取文本的局部特征,并将局部特征转化为特征向量,并采用上述方法计算方法计算文本局部的注意力交互。需要说明的是,基于局部角度的注意力计算方法和基于颗粒角度的计算方法相同,本发明对此不再详细描述。
为了有效地利用文本中的语义信息,本发明进一步采用宽卷积神经网络对词嵌入向量Ep,Eh分别提取局部结构特征,形成文本语义矩阵:
Cp=Wide_CNN(Ep);
Ch=Wide_CNN(Eh);
其中,Cp∈Rm×1×ck,Ch∈Rn×1×ck,m,n分别为文本数据P,H中词的个数,l是维度参数,ck为卷积核的数目,Cp为词嵌入向量Ep经过宽卷积神经网络结构后得到的结果,Ch是词嵌入向量Eh经过宽卷积神经网络结构后得到的结果。对经过所述宽卷积神经网络的文本局部结构特征在编码层输出数据进行注意力交互计算,分别得到文本数据P和文本数据H的最终的局部语义注意力矩阵:cnnp,cnnh。
为了捕获文本的长距离依赖,考虑文本的语序和上下文信息,得到深层次语义信息,需要在文本内部做交互,寻找文本序列内部的联系。以文本P为例,计算P的自注意力表示SAp:
本发明进一步将上述多种交互信息进行融合,融合方法包括如下步骤:
通过多角度的交互矩阵拼接计算可以获得:将上下文交互矩阵、颗粒角度注意力交互矩阵、局部语义注意力交互矩阵和自注意力交互矩阵分别进行拼接,拼接后分别形成新语义矩阵:
将新语义矩阵分别输入到BiLSTM网络中提取文本语义特征,N_Sp表示文本数据P的新语义矩阵,N_Sh表示文本数据H的新语义矩阵。
值得一提的是,在LSTM网络中包含三个门控单元分别为输入门、遗忘门、输出门和两个记忆单元分别为长期记忆和短期记忆。t时刻,LSTM的三个门单元和两个记忆单元的计算方法如下:
输入门:It=σ(Wi·[ht-1,xt]+bi);
遗忘门:Ft=σ(Wf·[ht-1,xt]+bf);
输出门:Ot=σ(Wo·[ht-1,xt]+bo);
长期记忆:Ct=Ft*Ct-1+It*[tanh(Wc·[ht-1,xt]+bc)];
短期记忆:ht=Ot*tanh(Ct);
其中ht-1为t-1时刻隐藏层的输出,xt为当前时刻即t时刻的输入,Wi,Wc,Wf,Wo表示不同的权重矩阵,bi,bf,bc,bo表示不同的偏置矩阵,σ表示sigmiod函数,ht表示t时刻LSTM单元的输出。
最终的文本语义表示为:
Pavg=Avg_Pooling(N_Sp);
Havg=Avg_Pooling(F_Sh);
V=Concat[Pavg;Havg];
将拼接后的语义向量V传入带有relu激活函数的多层感知机的分类器中进行分类,使用softmax交叉熵损失函数,整个网络采用反向传播进行端到端的训练,获取最终匹配的实体信息。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理单元(CPU)执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线段、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线段的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线段、电线段、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
可以理解的是,术语“一”应理解为“至少一”或“一个或多个”,即在一个实施例中,一个元件的数量可以为一个,而在另外的实施例中,该元件的数量可以为多个,术语“一”不能理解为对数量的限制。
本领域的技术人员应理解,上述描述及附图中所示的本发明的实施例只作为举例而并不限制本发明,本发明的目的已经完整并有效地实现,本发明的功能及结构原理已在实施例中展示和说明,在没有背离所述原理下,本发明的实施方式可以有任何变形或修改。
Claims (10)
1.一种产品知识融合方法,其特征在于,所述方法包括如下步骤:
获取产品原始数据;
对所述产品原始数据进行知识抽取,获取产品相关的实体、属性和语义关系;
根据所述产品相关的实体、属性和语义关系构建实体信息知识库;
将所述语义关系和属性融合所述实体,并采用文本匹配模型进行实体匹配,获取相匹配的实体信息对应的产品原始数据;
根据匹配后的实体信息建立产品的知识图谱。
2.根据权利要求1所述的一种产品知识融合方法,其特征在于,获取产品原始数据中的文本数据,并对文本数据进行分词,获取文本数据的关键词。
3.根据权利要求1所述的一种产品知识融合方法,其特征在于,将分词后的关键词转化为词向量,获取关键词对应的命名实体、词法、词性和关键词所在句的句法信息转化为特征向量后输入到所述词向量中进行融合,获取融合后的实体信息。
5.根据权利要求4所述的一种产品知识融合方法,其特征在于,采用Bilinear相似性度量函数计算两个语句不同位置的交互信息,计算方法如下:
根据上述两个位置信息的特征向量输出交互矩阵:
进一步计算不同文本数据的颗粒角度的注意力交互:
其中eij为产品文本数据P中第i个单词和产品文本数据H中第j个单词之间的点乘相似度,exp(eik)表示对eik归正处理,k为对应文本实体单词,m为文本H中的单词个数,n为文本P中单词个数,exp(eik)表示文本数据H中所有单词对文本数据P中的第i个关键词进行归正计算,ekj表示文本数据P中所有单词对文本数据H中的第j个关键词进行归正计算,PT为P矩阵的转置矩阵,其中文数据P和H的注意力表示分别为αp,βh;其中是对文本H中的每个词进行加权求和得到的,表示文本P中的第i个单词与文本H中的每个单词的匹配信息;βh是对文本P中的每个词进行加权求和得到的,表示文本H中的第j个单词与文本P中的每个单词的匹配信息。
6.根据权利要求5所述的一种产品知识融合方法,其特征在于,采用卷积神经网络对两个文本数据的词嵌入Ep和Eh分别提取局部结构信息,分别获取两个文本的局部语义矩阵:
Cp=WideCNN(Ep);
Ch=WideCNN(Eh);
其中Cp∈Rm×1×ck,Ch∈Rn×1×ck,m,n分别为文本数据P和文本数据H中词的个数,ck为卷积核的数目,Cp为词嵌入Ep经过宽卷积神经网络结构后得到的结果;Ch为词嵌入Eh经过宽卷积神经网络结构后得到的结果。
9.一种产品知识融合系统,其特征在于,所述产品知识融合系统应用上述权利要求1-8中任意一项所述的一种产品知识融合方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质保存并应用上述权利要求9所述的一种产品知识融合系统。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110327074.6A CN112949312A (zh) | 2021-03-26 | 2021-03-26 | 一种产品知识融合方法和系统 |
US17/652,205 US20220309248A1 (en) | 2021-03-26 | 2022-02-23 | Method and system for product knowledge fusion |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110327074.6A CN112949312A (zh) | 2021-03-26 | 2021-03-26 | 一种产品知识融合方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112949312A true CN112949312A (zh) | 2021-06-11 |
Family
ID=76226852
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110327074.6A Pending CN112949312A (zh) | 2021-03-26 | 2021-03-26 | 一种产品知识融合方法和系统 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220309248A1 (zh) |
CN (1) | CN112949312A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113377957A (zh) * | 2021-07-01 | 2021-09-10 | 浙江工业大学 | 基于知识图谱的国民经济行业分类方法和系统 |
CN113836940A (zh) * | 2021-09-26 | 2021-12-24 | 中国南方电网有限责任公司 | 电力计量领域的知识融合方法、装置和计算机设备 |
CN115456176A (zh) * | 2022-10-10 | 2022-12-09 | 延边大学 | 一种基于知识增强的文本匹配方法及系统 |
CN116108206A (zh) * | 2023-04-13 | 2023-05-12 | 中南大学 | 一种金融数据实体关系的联合抽取方法及相关设备 |
CN116955639A (zh) * | 2023-04-24 | 2023-10-27 | 浙商期货有限公司 | 期货产业链知识图谱构建方法、装置及计算机设备 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11604789B1 (en) * | 2021-04-30 | 2023-03-14 | Splunk Inc. | Bi-directional query updates in a user interface |
US11899670B1 (en) | 2022-01-06 | 2024-02-13 | Splunk Inc. | Generation of queries for execution at a separate system |
CN115374296B (zh) * | 2022-10-25 | 2023-04-04 | 科大讯飞(苏州)科技有限公司 | 基于时序知识图谱的问答方法、实体表示方法及相关装置 |
CN116304065B (zh) * | 2023-05-23 | 2023-09-29 | 美云智数科技有限公司 | 舆情文本分类方法、装置、电子设备及存储介质 |
CN116467403A (zh) * | 2023-06-05 | 2023-07-21 | 北京华宇信息技术有限公司 | 企业身份信息数据融合方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170200066A1 (en) * | 2016-01-13 | 2017-07-13 | Adobe Systems Incorporated | Semantic Natural Language Vector Space |
CN110781249A (zh) * | 2019-10-16 | 2020-02-11 | 华电国际电力股份有限公司技术服务分公司 | 基于知识图谱的火电厂多源数据融合方法与装置 |
CN111177399A (zh) * | 2019-12-04 | 2020-05-19 | 华瑞新智科技(北京)有限公司 | 一种知识图谱构建方法和装置 |
CN111475655A (zh) * | 2020-03-05 | 2020-07-31 | 国网浙江省电力有限公司 | 一种基于配电网知识图谱的电力调度文本实体链接方法 |
US20210012179A1 (en) * | 2019-07-12 | 2021-01-14 | International Business Machines Corporation | Extraction of named entities from document data to support automation applications |
CN112507039A (zh) * | 2020-12-15 | 2021-03-16 | 苏州元启创人工智能科技有限公司 | 基于外部知识嵌入的文本理解方法 |
-
2021
- 2021-03-26 CN CN202110327074.6A patent/CN112949312A/zh active Pending
-
2022
- 2022-02-23 US US17/652,205 patent/US20220309248A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170200066A1 (en) * | 2016-01-13 | 2017-07-13 | Adobe Systems Incorporated | Semantic Natural Language Vector Space |
US20210012179A1 (en) * | 2019-07-12 | 2021-01-14 | International Business Machines Corporation | Extraction of named entities from document data to support automation applications |
CN110781249A (zh) * | 2019-10-16 | 2020-02-11 | 华电国际电力股份有限公司技术服务分公司 | 基于知识图谱的火电厂多源数据融合方法与装置 |
CN111177399A (zh) * | 2019-12-04 | 2020-05-19 | 华瑞新智科技(北京)有限公司 | 一种知识图谱构建方法和装置 |
CN111475655A (zh) * | 2020-03-05 | 2020-07-31 | 国网浙江省电力有限公司 | 一种基于配电网知识图谱的电力调度文本实体链接方法 |
CN112507039A (zh) * | 2020-12-15 | 2021-03-16 | 苏州元启创人工智能科技有限公司 | 基于外部知识嵌入的文本理解方法 |
Non-Patent Citations (1)
Title |
---|
孙晨;付英男;程文亮;钱卫宁;: "面向企业知识图谱构建的中文实体关系抽取", 华东师范大学学报(自然科学版), no. 03, pages 55 - 66 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113377957A (zh) * | 2021-07-01 | 2021-09-10 | 浙江工业大学 | 基于知识图谱的国民经济行业分类方法和系统 |
CN113836940A (zh) * | 2021-09-26 | 2021-12-24 | 中国南方电网有限责任公司 | 电力计量领域的知识融合方法、装置和计算机设备 |
CN113836940B (zh) * | 2021-09-26 | 2024-04-12 | 南方电网数字电网研究院股份有限公司 | 电力计量领域的知识融合方法、装置和计算机设备 |
CN115456176A (zh) * | 2022-10-10 | 2022-12-09 | 延边大学 | 一种基于知识增强的文本匹配方法及系统 |
CN116108206A (zh) * | 2023-04-13 | 2023-05-12 | 中南大学 | 一种金融数据实体关系的联合抽取方法及相关设备 |
CN116955639A (zh) * | 2023-04-24 | 2023-10-27 | 浙商期货有限公司 | 期货产业链知识图谱构建方法、装置及计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
US20220309248A1 (en) | 2022-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949312A (zh) | 一种产品知识融合方法和系统 | |
CN112528672B (zh) | 一种基于图卷积神经网络的方面级情感分析方法及装置 | |
Shao et al. | Self-attention-based conditional random fields latent variables model for sequence labeling | |
CN109214006B (zh) | 图像增强的层次化语义表示的自然语言推理方法 | |
CN113704546A (zh) | 基于空间时序特征的视频自然语言文本检索方法 | |
CN114676234A (zh) | 一种模型训练方法及相关设备 | |
Zhang et al. | A multi-feature fusion model for Chinese relation extraction with entity sense | |
Mahalakshmi et al. | Summarization of text and image captioning in information retrieval using deep learning techniques | |
CN110309282A (zh) | 一种答案确定方法及装置 | |
Yu et al. | Make it directly: event extraction based on tree-LSTM and Bi-GRU | |
CN116578688A (zh) | 基于多轮问答的文本处理方法、装置、设备及存储介质 | |
CN110348007A (zh) | 一种文本相似度确定方法及装置 | |
CN114881042A (zh) | 基于图卷积网络融合句法依存与词性的中文情感分析方法 | |
CN114519356A (zh) | 目标词语的检测方法、装置、电子设备及存储介质 | |
CN116975199A (zh) | 一种文本预测方法、装置、设备和存储介质 | |
Gou et al. | Integrating BERT embeddings and BiLSTM for emotion analysis of dialogue | |
CN111767720B (zh) | 一种标题生成方法、计算机及可读存储介质 | |
CN112307179A (zh) | 文本匹配方法、装置、设备及存储介质 | |
US20240086643A1 (en) | Visual Dialogue Method and System | |
Bhargava et al. | Deep paraphrase detection in indian languages | |
Nazarizadeh et al. | Using Group Deep Learning and Data Augmentation in Persian Sentiment Analysis | |
CN115827865A (zh) | 一种融合多特征图注意力机制的不良文本分类方法及系统 | |
Du et al. | Sentiment classification via recurrent convolutional neural networks | |
CN113591493B (zh) | 翻译模型的训练方法及翻译模型的装置 | |
JP2019133563A (ja) | 情報処理装置および情報処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |