CN116881409A - 一种基于电商知识图谱的商品信息自动问答方法 - Google Patents

一种基于电商知识图谱的商品信息自动问答方法 Download PDF

Info

Publication number
CN116881409A
CN116881409A CN202310571076.9A CN202310571076A CN116881409A CN 116881409 A CN116881409 A CN 116881409A CN 202310571076 A CN202310571076 A CN 202310571076A CN 116881409 A CN116881409 A CN 116881409A
Authority
CN
China
Prior art keywords
knowledge graph
score
entity
commerce
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310571076.9A
Other languages
English (en)
Inventor
杨旭华
张宇迪
项贤通
徐振华
徐新黎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202310571076.9A priority Critical patent/CN116881409A/zh
Publication of CN116881409A publication Critical patent/CN116881409A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Optimization (AREA)
  • Molecular Biology (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Animal Behavior & Ethology (AREA)
  • Algebra (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

基于电商知识图谱的商品信息自动问答方法,用于电商领域的知识图谱问答任务,包括:首先统计电商知识图谱中的实体与关系种数并分别赋予初始分数,其次将用户提出的自然语言问题分词后提取主题实体,从电商知识图谱中对应的实体节点出发,利用三元组的头实体分数与关系分数计算尾实体的分数并更新实体分数集合,得到一种可解释的知识图谱问答核心路径推理模型。本发明通过提取自然语言问题特征向量来在电商知识图谱中计算推理路径,从而提高商品信息自动问答的准确性和可解释性。

Description

一种基于电商知识图谱的商品信息自动问答方法
技术领域
本发明涉及一种基于电商知识图谱的商品信息自动问答方法,属于自然语言处理技术领域。
背景技术
随着经济水平的稳步提升、科学技术的快速发展以及互联网技术的广泛普及,我国的经济和商业模式跨入了“互联网+”的时代,足不出户便能购买各种各样的商品。商品信息是指能被用户接收并满足用户需求的、与商品相关的消息或数据,能够满足人们日常在线购物时的需求。
商品信息自动问答是指根据用户提出的自然语言问题搜索知识库,将其中储存的用户感兴趣的信息反馈给用户。基于电商知识图谱的商务信息自动问答是基于知识图谱的结构特性,从用户提出的问题出发,对其进行语义理解与需求解析,利用问题中对商品的诉求信息,从问题中提及的商品实体出发在电商知识图谱上预测用户所需商品信息的推理路径,将路径中最后一个节点的内容作为答案。由于电商产品数量与信息复杂且庞大,使得预测精度与效率达到满意程度的高效问答方法就显得十分必要。
发明内容
为了克服现有电商产品信息问答的方法准确度较低的不足之处,提升问答方法的效率,本发明提出了一种基于电商知识图谱的商品信息自动问答方法。该方法首先提取问题的特征向量,根据特征向量计算电商知识图谱中每个关系的分数以及每一跳的分数,据此计算并更新电商知识图谱中每个实体的分数来训练模型。这样提出的路径推理模型能够更加准确地理解问题语义,推理出合理的通往答案的知识图谱路径,并且该路径具有一定的可解释性。
本发明公开了一种新的基于电商知识图谱的商品信息自动问答方法,主要用于电商领域的知识图谱问答任务。本方案首先统计电商知识图谱中的实体与关系种数并分别赋予初始分数,其次将用户提出的自然语言问题分词后提取主题实体,从电商知识图谱中对应的实体节点出发,利用三元组的头实体分数与关系分数计算尾实体的分数并更新实体分数集合,得到一种可解释的知识图谱问答核心路径推理模型。该方案通过提取自然语言问题特征向量来在电商知识图谱中计算推理路径,从而提高商品信息自动问答的准确性和可解释性。
为了实现上述目的,本发明的技术方案如下:一种基于电商知识图谱的商品信息自动问答方法,具体步骤如下:
步骤1)分析电商知识图谱并理解其每个部分的含义;
步骤2)为电商知识图谱中每个实体和关系分配对应的索引,据此构造索引矩阵;
步骤3)使用BERT预训练模型编码用户问题得到问题向量与词向量矩阵,将问题分词并构造屏蔽向量;
步骤4)初始化实体分数集合;
步骤5)通过步骤3)中的问题向量计算问题的过渡向量;
步骤6)通过步骤5)中的过渡向量与前一时刻步骤8)中的特征向量计算问题的整合向量;
步骤7)通过步骤3)中的词向量矩阵与屏蔽向量计算问题中每个词的权重分布;
步骤8)通过步骤7)中的权重分布与步骤3)中的词向量矩阵计算问题的特征向量;
步骤9)通过步骤8)中的特征向量计算电商知识图谱中的关系分数矩阵与跳数分数矩阵;
步骤10)通过步骤2)中的索引矩阵提取电商知识图谱每个三元组头实体、关系与尾实体的索引向量,通过步骤9)中的关系分数矩阵计算每个头实体的分数与每个关系的分数;
步骤11)通过步骤10)中头实体的分数与每个关系的分数计算电商知识图谱的尾实体分数并更新实体分数集合;
步骤12)通过步骤9)中的跳数分数矩阵与步骤11)中的实体分数集合计算电商知识图谱中每个实体的最终分数;
步骤13)通过步骤12)中每个实体的最终分数计算模型损失函数;
步骤14)重复执行步骤6)~步骤13),当损失小于指定最小损失值后结束计算,最终分数最高的实体就是答案。
其中,步骤1)中将具有K个实体和L种关系的电商知识图谱表示为G=(E,R,TR),其中E={e1,…,eK}表示电商商品名称、产地、类型和价格等组成的电商知识图谱中实体的集合,R={r1,…,rL}表示电商知识图谱中实体之间关系的集合;TR表示电商知识图谱中所有三元组(h,r,t)的集合,其中h,t∈E,分别表示头实体与尾实体,r∈R,表示h与t之间的关系;
步骤2)中为电商知识图谱中每个实体和关系分配对应的索引,接着将电商知识图谱中所有的三元组的头实体、尾实体与关系替换为对应的索引,得到三元组索引矩阵TM;
步骤3)中使用BERT预训练模型对电商用户提出的自然语言问题编码得到d维的问题向量QV与词向量矩阵WVM,利用分词器将用户提出的自然语言问题分词使该问题转化为一个长度为n的单词序列{w1,…,wn},找出其中的主题实体并生成用于屏蔽填充标记的屏蔽向量MV,接着从电商知识图谱中找到主题实体;
步骤4)中创建一个长度为实体种类数量的集合SE,主题实体索引指向的位置填入初始分数1,其余位置填入初始分数0,初始化的SE表示为
其中表示实体ei的分数,初始化时T=0;
步骤5)中计算电商用户提出的自然语言问题的过渡向量
Vq=Maxpool(ReLU(Conv(QV))) (2)
其中Vq∈Rd,Conv代表卷积操作;ReLU为激活函数;Maxpool代表最大池化操作;
步骤6)中计算当前时刻T电商用户提出的自然语言问题的整合向量
其中Tanh是激活函数,符号|代表向量的拼接,T为从1开始的正整数,代表T-1时刻的问题特征向量,/>MLP(x,y)代表将向量x输入多层感知机并输出y维的向量;
步骤7)中任选自然语言问题中第i个词,计算当前T时刻问题中第i个词的权重分布
其中
其中表示T时刻自然语言问题中的第i个词与问题的相似度,符号×代表点乘运算,符号[x]i表示获取向量x的第i个元素,MV∈Rl代表屏蔽向量;遍历自然语言问题中所有的词,计算所有词的权重分布;
步骤8)中计算当前T时刻问题的特征向量
其中符号/>表示将WDT中的每个元素与WVM中对应行的全部元素相乘,函数sumcol(x)的作用是将矩阵x每列元素相加;
步骤9)中首先计算电商知识图谱关系分数矩阵
其中的每个元素代表对应关系的分数;之后计算跳数分数矩阵
其中每个元素代表对应推理跳跃的分数。
步骤10)中从TM中批量提取电商知识图谱每个三元组头实体、关系与尾实体的索引向量Sub、Rel和Obj,
Sub,Rel,Obj=TM(0),TM(1),TM(2) (9)
其中TM(x)表示提取TM矩阵第x列;计算电商知识图谱每个头实体的分数与每个关系的分数
其中SubS,RelS分别表示头实体与关系的分数集合;D(x,y)函数表示从x中提取以y值作为索引的分数;
步骤11)中计算当前T时刻的电商知识图谱的尾实体分数集合
ObjS=(∑(SubS×RelS)SO)OI (11)
其中∑(x)SO代表将x中指向相同尾实体的分数相加,(x)OI代表根据尾实体的索引使用x中的分数更新ObjS集合中对应元素的分数;
步骤12)中计算电商知识图谱中每个实体的最终分数
步骤13)中计算损失函数
其中|E|表示所有电商实体的数量,
W=Answer×PW+1 (17)
其中PW是可调参数;Answer代表仅答案实体的值为1的One-Hot向量;
步骤14)中反向传播更新网络参数,重复执行步骤6~步骤13,每执行一次T=T+1,当Loss小于指定最小损失值后结束计算,最终分数最高的实体就是答案。
相对于现有技术,本发明的优点如下:
1)本发明提出一种特征信息增强方法,相比于传统方法,该方法将前一时刻的特征向量与问题向量融合作为带有历史信息的问题向量,使得模型能够准确判断问题的解析进度,进而使模型能够更好地理解与回答多跳问题。
2)本发明提出一种自然语言问题的特征提取方法,相比于传统方法,该方法使用BERT预训练模型编码问题并计算问题中每个词对问题的语义贡献程度,据此从问题的词向量矩阵中提取语义信息更为丰富的特征向量,有利于模型更加准确地理解问题语义;
3)本发明提出一种跳数注意力机制,模型为每次跳跃计算注意力分数,在最计算电商知识图谱中实体的最终分数时,将每次跳跃后的实体分数与对应的注意力分数结合计算最终结果,这种方法使得模型能够在问题得到解决时及时地停止推理,从而提高了模型的运行效率。
4)本发明提出一种电商知识图谱中关系分数与跳数分数的批量计算方法,该方法将问题的特征向量输入多层感知机,根据计算目标调整多层感知机的输出维度,从而批量获得每种关系与每一跳的分数,该方法操作简单且计算速度较快,使得模型的训练速度得到了提升。
5)本发明提出一种可导的分数截断机制,首先获取每个训练批次中的分数最高值并计算平均值,将其作为阈值并将高于阈值的分数替换为阈值,低于阈值的分数不变,该机制使得模型能够避免陷入局部最优值,提高了模型的鲁棒性。
附图说明
图1为商品信息自动问答方法学习与回答问题流程图。
具体实施方式
以下结合实施例和说明书附图,详细说明本发明的实施过程。
实施例1:参见图1,本发明是一种基于电商知识图谱的商品信息自动问答方法,包括以下几个步骤:
步骤1)将具有K个实体和L种关系的电商知识图谱表示为G=(E,R,TR),其中E={e1,…,eK}表示电商商品名称、产地、类型和价格等组成的电商知识图谱中实体的集合,R={r1,…,rL}表示电商知识图谱中实体之间关系的集合;TR表示电商知识图谱中所有三元组(h,r,t)的集合,其中h,t∈E,分别表示头实体与尾实体,r∈R,表示h与t之间的关系;
步骤2)为电商知识图谱中每个实体和关系分配对应的索引,接着将电商知识图谱中所有的三元组的头实体、尾实体与关系替换为对应的索引,得到三元组索引矩阵TM;
步骤3)使用BERT预训练模型对电商用户提出的自然语言问题编码得到d维的问题向量QV与词向量矩阵WVM,利用分词器将用户提出的自然语言问题分词使该问题转化为一个长度为n的单词序列{w1,…,wn},找出其中的主题实体并生成用于屏蔽填充标记的屏蔽向量MV,接着从电商知识图谱中找到主题实体;
步骤4)创建一个长度为实体种类数量的集合SE,主题实体索引指向的位置填入初始分数1,其余位置填入初始分数0,初始化的SE表示为
其中表示实体ei的分数,初始化时T=0;
步骤5)计算电商用户提出的自然语言问题的过渡向量
Vq=Maxpool(ReLU(Conv(QV))) (2)
其中Vq∈Rd,Conv代表卷积操作;ReLU为激活函数;Maxpool代表最大池化操作;
步骤6)计算当前时刻T电商用户提出的自然语言问题的整合向量
其中Tanh是激活函数,符号|代表向量的拼接,T为从1开始的正整数,代表T-1时刻的问题特征向量,/>MLP(x,y)代表将向量x输入多层感知机并输出y维的向量;
步骤7)任选自然语言问题中第i个词,计算当前T时刻问题中第i个词的权重分布
其中
其中表示T时刻自然语言问题中的第i个词与问题的相似度,符号×代表点乘运算,符号[x]i表示获取向量x的第i个元素,MV∈Rl代表屏蔽向量;遍历自然语言问题中所有的词,计算所有词的权重分布;
步骤8)中计算当前T时刻问题的特征向量
其中符号/>表示将WDT中的每个元素与WVM中对应行的全部元素相乘,函数sumcol(x)的作用是将矩阵x每列元素相加;
步骤9)首先计算电商知识图谱关系分数矩阵
其中的每个元素代表对应关系的分数;之后计算跳数分数矩阵
其中每个元素代表对应推理跳跃的分数。
步骤10)从TM中批量提取电商知识图谱每个三元组头实体、关系与尾实体的索引向量Sub、Rel和Obj,
Sub,Rel,Obj=TM(0),TM(1),TM(2) (9)
其中TM(x)表示提取TM矩阵第x列;计算电商知识图谱每个头实体的分数与每个关系的分数
其中SubS,RelS分别表示头实体与关系的分数集合;D(x,y)函数表示从x中提取以y值作为索引的分数;
步骤11)计算当前T时刻的电商知识图谱的尾实体分数集合
ObjS=(∑(SubS×RelS)SO)OI (11)
其中∑(x)SO代表将x中指向相同尾实体的分数相加,(x)OI代表根据尾实体的索引使用x中的分数更新ObjS集合中对应元素的分数;
步骤12)计算电商知识图谱中每个实体的最终分数
步骤13)计算损失函数
其中|E|表示所有电商实体的数量,
W=Answer×PW+1 (17)
其中PW是可调参数;Answer代表仅答案实体的值为1的One-Hot向量;
步骤14)反向传播更新网络参数,重复执行步骤6~步骤13,每执行一次T=T+1,当Loss小于指定最小损失值后结束计算,最终分数最高的实体就是答案。

Claims (10)

1.一种基于电商知识图谱的商品信息自动问答方法,具体步骤如下:
步骤1)分析电商知识图谱并理解其每个部分的含义;
步骤2)为电商知识图谱中每个实体和关系分配对应的索引,据此构造索引矩阵;
步骤3)使用BERT预训练模型编码用户问题得到问题向量与词向量矩阵,将问题分词并构造屏蔽向量;
步骤4)初始化实体分数集合;
步骤5)通过步骤3)中的问题向量计算问题的过渡向量;
步骤6)通过步骤5)中的过渡向量与前一时刻步骤8)中的特征向量计算问题的整合向量;
步骤7)通过步骤3)中的词向量矩阵与屏蔽向量计算问题中每个词的权重分布;
步骤8)通过步骤7)中的权重分布与步骤3)中的词向量矩阵计算问题的特征向量;
步骤9)通过步骤8)中的特征向量计算电商知识图谱中的关系分数矩阵与跳数分数矩阵;
步骤10)通过步骤2)中的索引矩阵提取电商知识图谱每个三元组头实体、关系与尾实体的索引向量,通过步骤9)中的关系分数矩阵计算每个头实体的分数与每个关系的分数;
步骤11)通过步骤10)中头实体的分数与每个关系的分数计算电商知识图谱的尾实体分数并更新实体分数集合;
步骤12)通过步骤9)中的跳数分数矩阵与步骤11)中的实体分数集合计算电商知识图谱中每个实体的最终分数;
步骤13)通过步骤12)中每个实体的最终分数计算模型损失函数;
步骤14)重复执行步骤6)~步骤13),当损失小于指定最小损失值后结束计算,最终分数最高的实体就是答案。
2.如权利要求1所述的一种基于电商知识图谱的商品信息自动问答方法,其特征在于:
步骤1)具体包括:将具有K个实体和L种关系的电商知识图谱表示为G=(E,R,TR),其中E={e1,…,eK}表示电商商品名称、产地、类型和价格等组成的电商知识图谱中实体的集合,R={r1,…,rL}表示电商知识图谱中实体之间关系的集合;TR表示电商知识图谱中所有三元组(h,r,t)的集合,其中h,t∈E,分别表示头实体与尾实体,r∈R,表示h与t之间的关系;
步骤2)具体包括:为电商知识图谱中每个实体和关系分配对应的索引,接着将电商知识图谱中所有的三元组的头实体、尾实体与关系替换为对应的索引,得到三元组索引矩阵TM;
步骤3)具体包括:使用BERT预训练模型对电商用户提出的自然语言问题编码得到d维的问题向量QV与词向量矩阵WVM,利用分词器将用户提出的自然语言问题分词使该问题转化为一个长度为n的单词序列{w1,…,wn},找出其中的主题实体并生成用于屏蔽填充标记的屏蔽向量MV,接着从电商知识图谱中找到主题实体。
3.如权利要求1所述的一种基于电商知识图谱的商品信息自动问答方法,其特征在于:
步骤4)具体包括:创建一个长度为实体种类数量的集合SE,主题实体索引指向的位置填入初始分数1,其余位置填入初始分数0,初始化的SE表示为:
其中表示实体ei的分数,初始化时T=0;
步骤5)具体包括:计算电商用户提出的自然语言问题的过渡向量:
Vq=Maxpool(ReLU(Conv(QV))) (2)
其中Vq∈Rd,Conv代表卷积操作;ReLU为激活函数;Maxpool代表最大池化操作。
4.如权利要求1所述的一种基于电商知识图谱的商品信息自动问答方法,其特征在于:
步骤6)具体包括:计算当前时刻T电商用户提出的自然语言问题的整合向量:
其中Tanh是激活函数,符号|代表向量的拼接,T为从1开始的正整数,代表T-1时刻的问题特征向量,/>MLP(x,y)代表将向量x输入多层感知机并输出y维的向量;
步骤7)具体包括:任选自然语言问题中第i个词,计算当前T时刻问题中第i个词的权重分布
其中
其中表示T时刻自然语言问题中的第i个词与问题的相似度,符号×代表点乘运算,符号[x]i表示获取向量x的第i个元素,MV∈Rl代表屏蔽向量;遍历自然语言问题中所有的词,计算所有词的权重分布。
5.如权利要求1所述的一种基于电商知识图谱的商品信息自动问答方法,其特征在于:
步骤8)具体包括:计算当前T时刻问题的特征向量:
其中符号/>表示将WDT中的每个元素与WVM中对应行的全部元素相乘,函数sumcol(x)的作用是将矩阵x每列元素相加;
步骤9)具体包括:首先计算电商知识图谱关系分数矩阵:
其中的每个元素代表对应关系的分数;之后计算跳数分数矩阵
其中每个元素代表对应推理跳跃的分数。
6.如权利要求1所述的一种基于电商知识图谱的商品信息自动问答方法,其特征在于:步骤10)具体包括:从TM中批量提取电商知识图谱每个三元组头实体、关系与尾实体的索引向量Sub、Rel和Obj,
Sub,Rel,Obj=TM(0),TM(1),TM(2) (9)
其中TM(x)表示提取TM矩阵第x列;计算电商知识图谱每个头实体的分数与每个关系的分数
其中SubS,RelS分别表示头实体与关系的分数集合;D(x,y)函数表示从x中提取以y值作为索引的分数。
7.如权利要求1所述的一种基于电商知识图谱的商品信息自动问答方法,其特征在于:步骤11)具体包括:计算当前T时刻的电商知识图谱的尾实体分数集合:
ObjS=(∑(SubS×RelS)SO)OI (11)
其中∑(x)SO代表将x中指向相同尾实体的分数相加,(x)OI代表根据尾实体的索引使用x中的分数更新ObjS集合中对应元素的分数。
8.如权利要求1所述的一种基于电商知识图谱的商品信息自动问答方法,其特征在于:步骤12)具体包括:计算电商知识图谱中每个实体的最终分数:
9.如权利要求1所述的一种基于电商知识图谱的商品信息自动问答方法,其特征在于:步骤13)中计算损失函数:
其中|E|表示所有电商实体的数量,
W=Answer×PW+1 (17)
其中PW是可调参数;Answer代表仅答案实体的值为1的One-Hot向量。
10.如权利要求1所述的一种基于电商知识图谱的商品信息自动问答方法,其特征在于:步骤14)具体包括:反向传播更新网络参数,重复执行步骤6~步骤13,每执行一次T=T+1,当Loss小于指定最小损失值后结束计算,最终分数最高的实体就是答案。
CN202310571076.9A 2023-05-17 2023-05-17 一种基于电商知识图谱的商品信息自动问答方法 Pending CN116881409A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310571076.9A CN116881409A (zh) 2023-05-17 2023-05-17 一种基于电商知识图谱的商品信息自动问答方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310571076.9A CN116881409A (zh) 2023-05-17 2023-05-17 一种基于电商知识图谱的商品信息自动问答方法

Publications (1)

Publication Number Publication Date
CN116881409A true CN116881409A (zh) 2023-10-13

Family

ID=88265003

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310571076.9A Pending CN116881409A (zh) 2023-05-17 2023-05-17 一种基于电商知识图谱的商品信息自动问答方法

Country Status (1)

Country Link
CN (1) CN116881409A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117972041A (zh) * 2023-12-28 2024-05-03 慈兴权 准确理解语义的电商平台智能客服问答系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117972041A (zh) * 2023-12-28 2024-05-03 慈兴权 准确理解语义的电商平台智能客服问答系统

Similar Documents

Publication Publication Date Title
CN109241255B (zh) 一种基于深度学习的意图识别方法
CN110298037B (zh) 基于增强注意力机制的卷积神经网络匹配的文本识别方法
CN110795543B (zh) 基于深度学习的非结构化数据抽取方法、装置及存储介质
CN108304911B (zh) 基于记忆神经网络的知识抽取方法以及系统和设备
CN111488931B (zh) 文章质量评估方法、文章推荐方法及其对应的装置
CN110413785A (zh) 一种基于bert和特征融合的文本自动分类方法
CN110457514A (zh) 一种基于深度哈希的多标签图像检索方法
CN111666427A (zh) 一种实体关系联合抽取方法、装置、设备及介质
CN112733866A (zh) 一种提高可控图像文本描述正确性的网络构建方法
CN113946677B (zh) 基于双向循环神经网络和注意力机制的事件识别分类方法
CN111369535B (zh) 一种细胞检测方法
CN111062220A (zh) 一种基于记忆遗忘装置的端到端意图识别系统和方法
CN114419642A (zh) 一种文档图像中键值对信息的抽取方法、装置及系统
CN115131698B (zh) 视频属性确定方法、装置、设备及存储介质
CN116881409A (zh) 一种基于电商知识图谱的商品信息自动问答方法
CN113408287A (zh) 实体识别方法、装置、电子设备及存储介质
CN117390497A (zh) 基于大语言模型的类目预测方法、装置和设备
CN111666374A (zh) 一种在深度语言模型中融入额外知识信息的方法
CN117807232A (zh) 商品分类方法、商品分类模型构建方法及装置
CN114049501A (zh) 融合集束搜索的图像描述生成方法、系统、介质及设备
CN117635238A (zh) 一种商品推荐方法、装置、设备及存储介质
CN110969005A (zh) 一种确定实体语料之间的相似性的方法及装置
CN116910190A (zh) 多任务感知模型获取方法、装置、设备及可读存储介质
CN116957128A (zh) 业务指标预测方法、装置、设备和存储介质
CN115359486A (zh) 一种文档图像中自定义信息的确定方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination