CN114547347A - 基于卷积神经网络的时序知识图谱补全方法、装置及设备 - Google Patents

基于卷积神经网络的时序知识图谱补全方法、装置及设备 Download PDF

Info

Publication number
CN114547347A
CN114547347A CN202210448185.7A CN202210448185A CN114547347A CN 114547347 A CN114547347 A CN 114547347A CN 202210448185 A CN202210448185 A CN 202210448185A CN 114547347 A CN114547347 A CN 114547347A
Authority
CN
China
Prior art keywords
neural network
dimensional
convolutional neural
entity
knowledge graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210448185.7A
Other languages
English (en)
Inventor
邓劲生
宋省身
赵涛
乔凤才
郑龙
陈怡�
严少洁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202210448185.7A priority Critical patent/CN114547347A/zh
Publication of CN114547347A publication Critical patent/CN114547347A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Animal Behavior & Ethology (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请涉及一种基于卷积神经网络的时序知识图谱补全方法、装置及设备,该方法属于时序知识图谱技术领域。所述方法将卷积神经网络应用于时序知识图谱中。一方面,利用卷积神经网络的表征学习能力,从输入信息中提取高阶特征;另一方面,卷积运算利用卷积核的参数共享机制和加权平均机制实现稀疏相乘和参数共享,有效减少权重参数的数量,使得网络能进行快速学习,同时也有效减少计算内存开销;有利于模型在大型数据集上获得较好的性能;同时,本方法中采用二维卷积增加实体/关系/时间嵌入表示之间的交互点,提高了模型的特征提取能力。

Description

基于卷积神经网络的时序知识图谱补全方法、装置及设备
技术领域
本申请涉及时序知识图谱技术领域,特别是涉及一种基于卷积神经网络的时序知识图谱补全方法、装置及设备。
背景技术
近年来,深度学习在很多机器学习领域都有着非常出色的表现,例如,深度卷积神经网络(Deep Neural Network,DNN)在图像识别(image dentification)、语音识别(Voicerecognition)、自然语言处理(Natural Language Processing, NLP) 等领域有着广泛应用。卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。
GCN首次提出将卷积方法用于知识图谱,随后出现了一系列相关模型,如GraphSAGE,GCN (Relational-GCN),CompGCN等,但这些模型的研究对象都是静态知识图谱。时序知识图谱领域的研究工作,例如,TTransE,HyTE,TA-DistMult,DE-SimplE,TuckERT,ATiSE,TeRo,TNTComplEx等都属于浅层模型,可能导致知识图谱特征提取不足。
发明内容
基于此,有必要针对上述技术问题,提供一种基于卷积神经网络的时序知识图谱补全方法、装置及设备。
一种基于卷积神经网络的时序知识图谱补全方法,所述方法包括:
获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示。
对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示。
将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本。
将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵;所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块。
将所述特征映射矩阵进行向量重塑,得到重塑后的特征向量。
将所述重塑后的特征向量输入到全连接网络中,并激活得到预测结果。
根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
一种基于卷积神经网络的时序知识图谱补全装置,所述装置包括:
卷积神经网络训练样本确定模块:用于获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示;对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示;将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本。
卷积神经网络训练模块:用于将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵;所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;将所述特征映射矩阵进行向量重塑,得到重塑后的特征向量;将所述重塑后的特征向量输入到全连接网络中,并激活得到预测结果。
时序知识图谱的得分确定模块,用于根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
一种设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
上述基于卷积神经网络的时序知识图谱补全方法、装置及设备,所述方法将卷积神经网络应用于时序知识图谱中。一方面,利用卷积神经网络的表征学习能力,从输入信息中提取高阶特征。另一方面,卷积运算利用卷积核的参数共享机制和加权平均机制实现稀疏相乘和参数共享,有效减少权重参数的数量,使得网络能进行快速学习,同时也有效减少计算内存开销;有利于模型在大型数据集上获得较好的性能。同时,本方法中采用二维卷积增加实体/ 关系/ 时间嵌入表示之间的交互点,以提高模型的特征提取能力。
附图说明
图1为一个实施例中基于卷积神经网络的时序知识图谱补全方法的整体框架;
图2为一个实施例中基于卷积神经网络的时序知识图谱补全方法的流程示意;
图3为一个实施例中基于卷积神经网络的时序知识图谱补全装置的结构框图;
图4为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
时序知识图谱的推理任务中,时间条件通常是已知的,目标是当ht丢失的时候,推断一个四元组
Figure 556865DEST_PATH_IMAGE001
是否有效,即给定
Figure 827310DEST_PATH_IMAGE002
推导h或者给定
Figure 734086DEST_PATH_IMAGE003
推导t。其中,ht分别为四元组的头实体和尾实体,r为四元组头实体h和尾实体t之间的关系,
Figure 748178DEST_PATH_IMAGE004
为四元组的时间戳。
本发明的任务是:给定
Figure 486327DEST_PATH_IMAGE005
推导h或者给定
Figure 68618DEST_PATH_IMAGE006
推导t,使用已有的实体和关系来推理知识图谱中缺失的事实,而不需要创建新的实体或关系。对于这两种情形,本发明并没有单独为每一种情况训练一个模型,而是训练了同一个模型,用于这两种情况的评估。对于每个测试四元组,本发明用知识图谱中存在的所有实体替换每个头实体,构造n−1个被损坏的四元组,然后对每一个这样的四元组评分。接着,将这些分数按升序排序,并得到正确的四元组的排列。本发明也可以用同样的方法替换四元组的尾实体。
本发明中的基于卷积神经网络的时序知识图谱补全方法应用于传染性疾病密接人群数据挖掘方面,利用网络人物关系图谱进行某种传染性疾病的密接人群判断。
本方法的核心思想是:通过二维卷积和全连接层来建模输入的实体、关系以及时间嵌入表示之间的交互,模型整体架构如图1所示。基于卷积神经网络的时序知识图谱补全方法由两个主要部分组成,左边部分是获得时序知识图谱中实体、关系、时间戳初始嵌入的过程,右边部分的输入是头实体、关系、时间戳的初始嵌入经过拼接后得到的张量,经过卷积、池化和全连接层提取特征,输出为事实的得分。
在一个实施例中,如图2所示,提供了一种基于卷积神经网络的时序知识图谱补全方法,该方法包括以下步骤:
步骤200:获取时序知识图谱中的头实体、关系、尾实体、时间戳的初始嵌入表示。
具体的,时序知识图谱包括多个由头实体、关系、尾实体以及时间戳组成的四元组。时序知识图谱中的四元组是从某轮新冠疫情传播人物关系图谱描述的多条事实中提取的,例如,某轮新冠疫情传播人物关系图谱的描述中有一个感染轨迹,如:张某和李某于2020年10月25日在合肥被确诊为新冠病毒感染者,张某和李某在2020年10月11日在营口一起参加了摄影基地的培训活动,张某是从北京坐火车2020年10月10抵达营口的,李某是2020年10月10日从兰州乘坐MF8288次航班抵达大连,当日乘坐G8043次高铁抵达营口;参加完培训活动后张某于2020年10月15日乘坐火车返回北京,一直在公司上班,2020年10月23日张某乘坐K10271次列车从北京到合肥,张某于2020年10月25日在合肥被确诊为新冠病毒感染者;李某于2020年10月15日乘坐G8042次高铁从营口达到大连,当天转乘HU7746次航班从大连到合肥,当天乘坐大巴车来到六安市,在一个影楼开展培训活动,李某于2020年10月20日乘坐D3086次动车从六安到合肥,在六安培训期间影楼的范某、刘某参加了培训,范某、刘某长期居住于六安市,刘某和范某分别于2020年10月25日、2020年10月26日被确诊为新冠病毒感染者。上述感染轨迹包括多个事实,这些事实可用四元组描述为:(张某,乘火车,北京—营口,2020年10月11日),(李某,乘MF8288次航班,兰州—大连,2020年10月10日),(李某,乘坐G8043次高铁,大连—营口,2020年10月10日),(张某,接触,李某,2020年10月11日-15日),(张某,乘火车,营口—北京,2020年10月15日),(张某,居住于,营口,2020年10月15日-23日),(张某,乘坐K10271次列车,北京-合肥,2020年10月23日),(李某,乘坐G8042次高铁,营口-大连,2020年10月15),(李某,乘坐乘HU7746次航班,大连-合肥,2020年10月15),(李某,乘坐大巴,合肥-六安市,2020年10月15),(刘某和范某,接触,李某,2020年10月15),(刘某和范某,居住于,六安市,长期),(李某,乘坐D3086次动车,六安市-合肥,2020年10月20),(李某,居住于,合肥,2020年10月20日-25日)。将这些四元组用节点和边连接起来形成时序知识图谱,其中节点表示四元组中的头实体或者尾实体,边表示四元组中的关系和时间对。
关系是头实体和尾实体之间的关系。
步骤202:对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示。
具体的,对头实体、关系和时间戳的初始嵌入表示进行2D重塑,即将一维向量转换成二维张量;得到重塑后的头实体、关系、时间戳的表示:
Figure 587324DEST_PATH_IMAGE007
Figure 14894DEST_PATH_IMAGE008
Figure 669867DEST_PATH_IMAGE009
。如果
Figure 423059DEST_PATH_IMAGE010
Figure 101165DEST_PATH_IMAGE011
Figure 457060DEST_PATH_IMAGE012
,则
Figure 107484DEST_PATH_IMAGE013
Figure 562736DEST_PATH_IMAGE014
Figure 56035DEST_PATH_IMAGE015
,这里的
Figure 825408DEST_PATH_IMAGE016
值得说明的是,在本方法的步骤阐述中是根据已知头实体、关系和时间戳,来推导尾实体,本方法同样适用于已知尾实体、关系和时间戳的情况,即将2D重塑的对象替换为:尾实体、关系和时间戳,同样也可以推导出头实体。
步骤204:将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本。
具体的,将头实体、关系和时间戳的重塑嵌入表示用串接的方式拼接起来,即:该模型将
Figure 723481DEST_PATH_IMAGE017
Figure 349634DEST_PATH_IMAGE018
Figure 205595DEST_PATH_IMAGE019
拼接起来,并将其作为带有卷积核
Figure 903292DEST_PATH_IMAGE020
的2维卷积神经网络的输入。
步骤206:将训练样本输入到2维卷积神经网络中,得到特征映射矩阵。
2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块。
具体的,2维卷积神经网络对输入的训练样本进行二维卷积操作,该2维卷积神经网络的最后一个二维卷积模块返回一个特征映射矩阵
Figure 262730DEST_PATH_IMAGE021
,其中
Figure 325364DEST_PATH_IMAGE022
是维度为
Figure 262096DEST_PATH_IMAGE023
Figure 904429DEST_PATH_IMAGE024
的二维特征映射的个数。
使用二维卷积增加嵌入表示之间的交互点,使得时序知识图谱的四元组中的各个元素充分交互,糅合,以更好地提取时序知识图谱的特征,让模型自学习四元组的表示;二维卷积能够通过增加嵌入表示之间的交互点提取更多的嵌入之间的特征交互,从而提高模型的表现力。
步骤208:将特征映射矩阵进行向量重塑,得到重塑后的特征向量。
具体的,对特征映射矩阵
Figure 180690DEST_PATH_IMAGE025
,使用函数
Figure 742121DEST_PATH_IMAGE026
重塑成一个特征向量
Figure 41516DEST_PATH_IMAGE027
步骤210:将重塑后的特征向量输入到全连接网络中,并激活得到预测结果。
具体的,全连接的本质上是矩阵乘法,相当于通过一个特征空间变换来提取有用的信息并将它整合。
对重塑后的特征向量
Figure 346595DEST_PATH_IMAGE028
,用矩阵
Figure 680624DEST_PATH_IMAGE029
参数化的线性变换将其投影到k维空间,并通过内积与目标尾实体的嵌入
Figure 85061DEST_PATH_IMAGE030
匹配。
Figure 996385DEST_PATH_IMAGE031
代表一个线性变换矩阵,用于计算四元组的最终得分。卷积核和矩阵
Figure 714942DEST_PATH_IMAGE032
的参数与实体/关系/时间戳的参数是相互独立的。
步骤212:根据预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
上述基于卷积神经网络的时序知识图谱补全方法中,所述方法将卷积神经网络应用于时序知识图谱中。一方面,利用卷积神经网络的表征学习能力,从输入信息中提取高阶特征。另一方面,卷积运算利用卷积核的参数共享机制和加权平均机制实现稀疏相乘和参数共享,有效减少权重参数的数量,使得网络能进行快速学习,同时也有效减少计算内存开销;有利于模型在大型数据集上获得较好的性能。同时,本方法中采用二维卷积增加实体/关系/ 时间嵌入表示之间的交互点,以提高模型的特征提取能力。
在其中一个实施例中,步骤200包括:对时序知识图谱中的头实体、关系、尾实体、时间戳进行随机初始化,得到头实体、关系、尾实体、时间戳的初始嵌入表示;将头实体和尾实体归为实体,生成一个实体的初始嵌入矩阵,记为
Figure 965795DEST_PATH_IMAGE033
,生成一个关系的初始嵌入矩阵,记为
Figure 869029DEST_PATH_IMAGE034
,生成一个时间戳的初始嵌入矩阵,记为
Figure 143016DEST_PATH_IMAGE035
,其中k为三个初始嵌入矩阵的维数,
Figure 789898DEST_PATH_IMAGE036
Figure 895257DEST_PATH_IMAGE037
Figure 579179DEST_PATH_IMAGE038
分别为实体、关系和时间戳的个数。
在前向传递过程中,该方法对三个嵌入矩阵进行行向量查找,一个是实体初始嵌入矩阵,记为
Figure 462166DEST_PATH_IMAGE039
,一个是关系初始嵌入矩阵,记为
Figure 788105DEST_PATH_IMAGE040
,一个是时间戳的初始嵌入矩阵,记为
Figure 747971DEST_PATH_IMAGE041
,其中k 为初始嵌入维数,这里我们假设三个初始嵌入的维度是相同的;
Figure 993007DEST_PATH_IMAGE042
Figure 241586DEST_PATH_IMAGE043
Figure 230271DEST_PATH_IMAGE044
分别为实体、关系和时间戳的个数。然后,该模型将
Figure 44643DEST_PATH_IMAGE045
拼接起来,将拼接结果作为基于卷积神经网络的时序知识图谱补全网络模型的输入。
该网络模型的预设的卷积神经网络的最后一个二维卷积模块返回一个特征映射矩阵
Figure 335947DEST_PATH_IMAGE046
,其中c是维度为mn的二维特征映射的个数。特征映射矩阵G随后被函数vec(·)重塑成一个特征向量
Figure 196456DEST_PATH_IMAGE047
,然后用矩阵
Figure 864197DEST_PATH_IMAGE048
参数化的线性变换将其投影到k 维空间,并通过内积与目标尾实体的嵌入
Figure 533076DEST_PATH_IMAGE049
匹配。
Figure 385494DEST_PATH_IMAGE050
代表一个线性变换矩阵,用于计算四元组的最终得分。
在其中一个实施例中,2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;步骤206包括:当2维卷积神经网络包括1个2维卷积模块时:将训练样本输入到2维卷积神经网络的2维卷积模块中,进行卷积、池化、激活后,得到特征映射矩阵;当2维卷积神经网络包括2个或2个以上的2维卷积模块时:将训练样本输入到2维卷积神经网络的第一个2维卷积模块中,进行卷积、池化、激活后,得到第一特征映射矩阵;将第一个2维卷积模块的输出作为第二个2维卷积模块的输入,得到第三特征映射矩阵,依此类推,将最后一个2维卷积模块的输出作为特征映射矩阵。
在其中一个实施例中,步骤208包括:将特征映射矩阵采用函数
Figure 343086DEST_PATH_IMAGE051
进行重塑,得到重塑后的特征向量。
在其中一个实施例中,步骤212中的预设的打分函数表达式为:
Figure 345677DEST_PATH_IMAGE052
(1)
其中,
Figure 462538DEST_PATH_IMAGE053
Figure 95644DEST_PATH_IMAGE054
Figure 665166DEST_PATH_IMAGE055
Figure 674710DEST_PATH_IMAGE056
分别为头实体、关系、尾实体和时间戳的初始嵌入表示,
Figure 583760DEST_PATH_IMAGE057
Figure 246823DEST_PATH_IMAGE058
Figure 241324DEST_PATH_IMAGE059
分别为头实体、关系、时间戳的重塑嵌入表示,
Figure 788980DEST_PATH_IMAGE060
为一个线性变换矩阵,
Figure 883362DEST_PATH_IMAGE061
为将特征矩阵转换为特征向量的操作,||为特征向量的拼接,
Figure 592692DEST_PATH_IMAGE062
为二维卷积层的卷积核,
Figure 74489DEST_PATH_IMAGE063
Figure 550470DEST_PATH_IMAGE064
分别为Logistic Sigmoid函数和 ReLU函数。
在其中一个实施例中,步骤212之前还包括:根据预测结果、训练样本以及预设损失函数,对由2维卷积神经网络和预设的全连接网络组成的基于卷积神经网络的时序知识图谱补全网络模型进行反向训练,得到训练好的基于卷积神经网络的时序知识图谱补全网络模型;将预设损失函数最小化,预设损失函数采用二值交叉熵损失函数,其的表达式为:
Figure 106216DEST_PATH_IMAGE065
(2)
其中,
Figure 642240DEST_PATH_IMAGE066
为预设损失函数,
Figure 345753DEST_PATH_IMAGE067
为样本i 的label,正类为1,负类为0,i为样本的序号
Figure 235212DEST_PATH_IMAGE068
,N为样本的数量;
Figure 301257DEST_PATH_IMAGE069
为样本i预测为正类的概率。
在一个实施例中,基于卷积神经网络的时序知识图谱补全网络模型的训大于等于练包括两个节点,前向传播阶段和向后传播阶段;具体步骤包括:
第一阶段,向前传播阶段:
(1)从训练集中取一个样本,输入基于卷积神经网络的时序知识图谱补全网络模型;
(2)计算相应的实际输出;在此阶段,信息从输入层经过逐级的变换,传送到输出层。这个过程也是网络在完成训练后正常执行时执行的过程。
第二阶段,向后传播阶段:
(1)计算实际输出与相应的理想输出的差;
(2)按极小化误差的方法调整权矩阵。
这两个阶段的工作一般应受到精度要求的控制。
网络的训练过程如下:
(1)选定训练集,对整个数据集进行随机划分,作为优选,训练集,验证集,测试集的中样本的数量比例为8:1:1。
(2)将各权值、阈值,置成小的接近于0的随机值,并初始化精度控制参数和学习率;
(3)从训练集中取一个输入模式加到网络,并给出它的目标输出向量;
(4)计算出中间层输出向量,计算出网络的实际输出向量;
(5)将输出向量中的元素与目标向量中的元素进行比较,计算出输出误差;对于中间层的隐单元也需要计算出误差;
(6)依次计算出各权值的调整量和阈值的调整量;
(7)调整权值和调整阈值;
(8)当经历M后,判断指标是否满足精度要求,如果不满足,则返回(3),继续迭代;如果满足就进入下一步;
(9)训练结束,将权值和阈值保存在文件中。这时可以认为各个权值已经达到稳定,分类器已经形成。再一次进行训练,直接从文件导出权值和阈值进行训练,不需要进行初始化。
应该理解的是,虽然图2的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图3所示,提供了一种基于卷积神经网络的时序知识图谱补全装置,包括:卷积神经网络训练样本确定模块、卷积神经网络训练模块和时序知识图谱的事实得分确定模块,其中:
卷积神经网络训练样本确定模块,用于获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示;对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示;将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本。
卷积神经网络训练模块,用于将训练样本输入到2维卷积神经网络中,得到特征映射矩阵;2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;将特征映射矩阵进行向量重塑,得到重塑后的特征向量;将重塑后的特征向量输入到全连接网络中,并激活得到预测结果。
时序知识图谱的事实得分确定模块,用于根据预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
在其中一个实施例中,卷积神经网络训练样本确定模块,还用于对时序知识图谱中的头实体、关系、尾实体、时间戳进行随机初始化,得到头实体、关系、尾实体、时间戳的初始嵌入表示;将头实体和尾实体归为实体,生成一个实体的初始嵌入矩阵,记为
Figure 352390DEST_PATH_IMAGE070
,生成一个关系的初始嵌入矩阵,记为
Figure 871096DEST_PATH_IMAGE071
,生成一个时间戳的初始嵌入矩阵,记为
Figure 360983DEST_PATH_IMAGE072
,其中k为三个初始嵌入矩阵的维数,
Figure 156901DEST_PATH_IMAGE073
Figure 769148DEST_PATH_IMAGE074
Figure 650516DEST_PATH_IMAGE075
分别为实体、关系和时间戳的个数。
在其中一个实施例中,2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;卷积神经网络训练模块,还用于当2维卷积神经网络包括1个2维卷积模块时:将训练样本输入到2维卷积神经网络的2维卷积模块中,进行卷积、池化、激活后,得到特征映射矩阵;当2维卷积神经网络包括2个或2个以上的2维卷积模块时:将训练样本输入到2维卷积神经网络的第一个2维卷积模块中,进行卷积、池化、激活后,得到第一特征映射矩阵;将第一个2维卷积模块的输出作为第二个2维卷积模块的输入,得到第三特征映射矩阵,依此类推,将最后一个2维卷积模块的输出作为特征映射矩阵。
在其中一个实施例中,步骤108包括:将特征映射矩阵采用函数
Figure 678515DEST_PATH_IMAGE076
进行重塑,得到重塑后的特征向量。
在其中一个实施例中,时序知识图谱的事实得分确定模块中的预设的打分函数表达式如式(1)所示。
在其中一个实施例中,时序知识图谱的事实得分确定模块之前还包括网络反向训练模块,用于根据预测结果、训练样本以及预设损失函数,对由2维卷积神经网络和预设的全连接网络组成的基于卷积神经网络的时序知识图谱补全网络模型进行反向训练,得到训练好的基于卷积神经网络的时序知识图谱补全网络模型;预设损失函数的表达式如式(2)所示。
关于基于卷积神经网络的时序知识图谱补全装置的具体限定可以参见上文中对于基于卷积神经网络的时序知识图谱补全方法的限定,在此不再赘述。上述基于卷积神经网络的时序知识图谱补全装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图4所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于卷积神经网络的时序知识图谱补全方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图4中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述方法实施例中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink) DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
在一个验证性实施例中,实验数据集选用:ICEWS14,ICEWS05-15,GDELT 这三个数据集。本实施例中用到的实验数据集统计结果如表1所示。
表1 实验数据集的统计
Figure 453573DEST_PATH_IMAGE077
参数设置:在Pytorch 中运行模型,只使用了一个GPU。为了给HTMR 搜索和找到合适的超参数,本实施例在以下超参数范围使用贪婪搜索:学习率(learning rate,lr) 的搜索范围是{0.001, 0.01, 0.05, 0.1, 0.2},dropout rate的搜索范围是{0.001, 0.01,0.1, 0.2},嵌入维度的搜索范围是{50, 100, 200, 400}。所有的模型都是用Adagrad优化的,学习率lr=0.1,dropout rate=0.1,batch_size=1000;对于这三个数据集,我们选择的初始嵌入维度都设置为200。
评价标准:本实施例的推理任务类似于链接预测,它的目标是在特定时间设置下,用一个缺失的实体补全某个事实。负例的构造方法为:对于测试集中的每一个有效四元组
Figure 112087DEST_PATH_IMAGE078
,将四元组中的h(或t) 替换为实体集E 中除h(或t) 之外的其它实体,得到“损坏四元组”。假设知识图谱中存在m 个实体,则可以构造m - 1 个“损坏四元组”,并将这m-1 个“损坏四元组”与知识图谱中现有的四元组进行比较;如果它们已经存在于知识图谱中,则删除该实例。然后检查模型是否给正确的四元组赋一个较高的分数,给“损坏四元组”赋一个较低的分数。将有效的测试四元组和“损坏四元组”按分数升序排列。本实施例的实验结果是基于以下评价标准:平均倒数排序(Mean Reciprocal Rank, MRR) 和N 个正确排序所占的比例(Hits@N)(其中N 取1,3 和10)作为评估指标。所有的评价标准都是值越高越好。对于所有的实验,本实施例报告了5 次运行的平均结果,忽略了通常很低的方差。
基线模型:本实施例比较了两类基线,静态知识图谱嵌入和时序知识图谱嵌入方法。对于静态知识图谱嵌入的基线,使用翻译嵌入模型(或平移嵌入模型)(TranslatingEmbedding,简称:TransE),多关系表示学习模型(Multi-relational representationlearning,简称DistMult),基于复数的嵌入模型(complex embeddings,简称:ComplEx),旋转嵌入模型(rotate embedding,简称:RotatE),知识图谱嵌入的四元数表示模型(Quaternion Representations for Knowledge Graph Embeddings,简称:QuatE)。对于时序知识图谱嵌入的基线,使用时序感知的翻译嵌入模型(Temporal TranslatingEmbedding,简称:TTransE),基于超平面的时间感知知识图谱嵌入模型(Hyperplane-basedTemporallyaware Knowledge Graph Embedding,简称:HyTE),时间感知的TransE模型(Time-Aware TransE,简称:TA-TransE),时间感知的DistMult模型(Time-AwareDistMult,简称:TA-DistMult),时序知识图谱历时嵌入模型(Diachronic Embedding,简称:DE-Simple),加性时间序列分解模型(Additive Time Series decomposition,简称:ATiSE),时序旋转模型(TemporalRotation,简称:TeRo),时序张量分解嵌入模型(temporalcomponent embedding,简称:TNTComplEx)。嵌套GRU的时序知识图谱表示模型(NestedGated Recurrent Unit,简称:NGRU),基于Householder 变换的时序知识图谱推理(Householder Transformation based Multi-relational Reasoning,简称:HTMR)
主要实验结果:表2和表3展示了基于卷积神经网络的时序知识图谱补全网络模型(Tem_Conv)在ICEWS14,ICEWS05-15,GDELT 这三个数据集的测试集上的结果。其中,MRR 值与Hits@N 都是越大越好;Hits@N 值以百分比表示。
表2 Tem_Conv 在ICEWS14,ICEWS05-15 测试集的实验结果
Figure 605385DEST_PATH_IMAGE079
表3 Tem_Conv 在GDELT 测试集的实验结果
Figure 437075DEST_PATH_IMAGE080
备注:表2和表3中:MRR代表平均倒数排序,Hits@10代表10个正确排序所占的比例,Hits@3代表3个正确排序所占的比例,Hits@1代表1个正确排序所占的比例。
表2给出的是Tem_Conv 在ICEWS14,ICEWS05-15两个数据集的结果。从整体上来看,在时序数据集上,考虑时间的模型性能要优于相应的静态模型;例如,TTransE和HyTE要比TransE 性能好;TNTComplEx 性能要明显优于ComplEx,TeRo 要明显优于RotatE。模型在ICEWS14和ICEWS05-15的所有指标都显著优于基线模型;Tem_Conv 在ICEWS14 上的实验结果全部优于HTMR 和NGRU,在ICEWS05-15 与HTMR 不相上下。
表3给出了Tem_Conv 在GDELT 数据集上的实验结果。实验结果显示,Tem_Conv 在所有指标上优于NGRU,同时也在所有指标上显著优于所有基线模型。与TNTComplEx相比,MRR,Hits@1,Hits@3,Hits@10 分别提高3.5,3.6,3.8,3 个百分点。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于卷积神经网络的时序知识图谱补全方法,其特征在于,所述方法包括:
获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示;
对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示;
将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本;
将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵;所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;
将所述特征映射矩阵进行向量重塑,得到重塑后的特征向量;
将所述重塑后的特征向量输入到全连接网络中,并激活得到预测结果;
根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
2.根据权利要求1所述的方法,其特征在于,获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示,包括:
对时序知识图谱中的头实体、关系、尾实体、时间戳进行随机初始化,得到头实体、关系、尾实体、时间戳的初始嵌入表示;
将头实体和尾实体归为实体,生成一个实体的初始嵌入矩阵,记为
Figure 223278DEST_PATH_IMAGE001
,生成一个关系的初始嵌入矩阵,记为
Figure 609260DEST_PATH_IMAGE002
,生成一个时间戳的初始嵌入矩阵,记为
Figure 654577DEST_PATH_IMAGE003
,其中k为三个初始嵌入矩阵的维数,
Figure 643261DEST_PATH_IMAGE004
Figure 660896DEST_PATH_IMAGE005
Figure 76834DEST_PATH_IMAGE006
分别为实体、关系和时间戳的个数。
3.根据权利要求1所述的方法,其特征在于,所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;
将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵,包括:
当2维卷积神经网络包括1个2维卷积模块时:
将所述训练样本输入到2维卷积神经网络的2维卷积模块中,进行卷积、池化、激活后,得到特征映射矩阵;
当2维卷积神经网络包括2个或2个以上的2维卷积模块时:
将所述训练样本输入到2维卷积神经网络的第一个2维卷积模块中,进行卷积、池化、激活后,得到第一特征映射矩阵;
将第一个2维卷积模块的输出作为第二个2维卷积模块的输入,得到第三特征映射矩阵,依此类推,将最后一个2维卷积模块的输出作为特征映射矩阵。
4.根据权利要求1所述的方法,其特征在于,将所述特征映射矩阵进行向量重塑,得到重塑后的特征向量,包括:
将特征映射矩阵采用函数
Figure 609446DEST_PATH_IMAGE007
进行重塑,得到重塑后的特征向量。
5.根据权利要求1所述的方法,其特征在于,根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分,步骤中的预设的打分函数表达式为:
Figure 11609DEST_PATH_IMAGE008
其中,
Figure 273963DEST_PATH_IMAGE009
Figure 736168DEST_PATH_IMAGE011
Figure 756077DEST_PATH_IMAGE013
Figure 919572DEST_PATH_IMAGE014
分别为头实体、关系、尾实体和时间戳的初始嵌入表示,
Figure 911798DEST_PATH_IMAGE016
Figure 669539DEST_PATH_IMAGE018
Figure 380006DEST_PATH_IMAGE020
分别为头实体、关系、时间戳的重塑嵌入表示,
Figure 920709DEST_PATH_IMAGE021
为一个线性变换矩阵,
Figure 157655DEST_PATH_IMAGE022
为将特征矩阵转换为特征向量的操作,||为特征向量的拼接,
Figure 696084DEST_PATH_IMAGE023
为2维卷积层的卷积核,
Figure 18481DEST_PATH_IMAGE024
Figure 362874DEST_PATH_IMAGE025
分别为Logistic Sigmoid函数和ReLU函数。
6.根据权利要求1所述的方法,其特征在于,根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分,步骤前还包括:
根据预测结果、训练样本以及预设损失函数,对由2维卷积神经网络和预设的全连接网络组成的基于卷积神经网络的时序知识图谱补全网络模型进行反向训练,得到训练好的基于卷积神经网络的时序知识图谱补全网络模型;所述预设损失函数的表达式为:
Figure 64114DEST_PATH_IMAGE026
其中,
Figure 429236DEST_PATH_IMAGE027
为预设损失函数,
Figure 645454DEST_PATH_IMAGE029
为样本i 的label,正类为1,负类为0,i为样本的序号
Figure 996801DEST_PATH_IMAGE030
,N为样本的数量;
Figure DEST_PATH_IMAGE032
为样本i预测为正类的概率。
7.一种基于卷积神经网络的时序知识图谱补全装置,其特征在于,所述装置包括:
卷积神经网络训练样本确定模块:用于获取时序知识图谱中的四元组的头实体、关系、尾实体、时间戳的初始嵌入表示;对头实体、关系和时间戳的初始嵌入表示进行2D重塑,得到头实体、关系、时间戳的重塑嵌入表示;将头实体、关系、时间戳的重塑嵌入表示采用串接的方式拼接起来,得到训练样本;
卷积神经网络训练模块:用于将所述训练样本输入到2维卷积神经网络中,得到特征映射矩阵;所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;将所述特征映射矩阵进行向量重塑,得到重塑后的特征向量;将所述重塑后的特征向量输入到全连接网络中,并激活得到预测结果;
时序知识图谱的得分确定模块,用于根据所述预测结果、目标尾实体的初始嵌入表示以及预设的打分函数,得到每一个事实的得分。
8.根据权利要求7所述的装置,其特征在于,卷积神经网络训练样本确定模块,还用于对时序知识图谱中的头实体、关系、尾实体、时间戳进行随机初始化,得到头实体、关系、尾实体、时间戳的初始嵌入表示;将头实体和尾实体归为实体,生成一个实体的初始嵌入矩阵,记为
Figure DEST_PATH_IMAGE033
,生成一个关系的初始嵌入矩阵,记为
Figure DEST_PATH_IMAGE035
,生成一个时间戳的初始嵌入矩阵,记为
Figure DEST_PATH_IMAGE037
,其中k为三个初始嵌入矩阵的维数,
Figure DEST_PATH_IMAGE039
Figure DEST_PATH_IMAGE040
Figure DEST_PATH_IMAGE041
分别为实体、关系和时间戳的个数。
9.根据权利要求7所述的装置,其特征在于,所述2维卷积神经网络包括至少1个由2维卷积层、池化层以及第一卷积函数组成的2维卷积模块;
卷积神经网络训练模块,还用于当2维卷积神经网络包括1个2维卷积模块时:将所述训练样本输入到2维卷积神经网络的2维卷积模块中,进行卷积、池化、激活后,得到特征映射矩阵;当2维卷积神经网络包括2个或2个以上的2维卷积模块时:将所述训练样本输入到2维卷积神经网络的第一个2维卷积模块中,进行卷积、池化、激活后,得到第一特征映射矩阵;将第一个2维卷积模块的输出作为第二个2维卷积模块的输入,得到第三特征映射矩阵,依此类推,将最后一个2维卷积模块的输出作为特征映射矩阵。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-6任一项所述方法的步骤。
CN202210448185.7A 2022-04-27 2022-04-27 基于卷积神经网络的时序知识图谱补全方法、装置及设备 Pending CN114547347A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210448185.7A CN114547347A (zh) 2022-04-27 2022-04-27 基于卷积神经网络的时序知识图谱补全方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210448185.7A CN114547347A (zh) 2022-04-27 2022-04-27 基于卷积神经网络的时序知识图谱补全方法、装置及设备

Publications (1)

Publication Number Publication Date
CN114547347A true CN114547347A (zh) 2022-05-27

Family

ID=81666633

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210448185.7A Pending CN114547347A (zh) 2022-04-27 2022-04-27 基于卷积神经网络的时序知识图谱补全方法、装置及设备

Country Status (1)

Country Link
CN (1) CN114547347A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112148891A (zh) * 2020-09-25 2020-12-29 天津大学 一种基于图感知张量分解的知识图谱补全方法
CN115422369A (zh) * 2022-08-30 2022-12-02 中国人民解放军国防科技大学 基于改进TextRank的知识图谱补全方法和装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112148891A (zh) * 2020-09-25 2020-12-29 天津大学 一种基于图感知张量分解的知识图谱补全方法
CN115422369A (zh) * 2022-08-30 2022-12-02 中国人民解放军国防科技大学 基于改进TextRank的知识图谱补全方法和装置
CN115422369B (zh) * 2022-08-30 2023-11-03 中国人民解放军国防科技大学 基于改进TextRank的知识图谱补全方法和装置

Similar Documents

Publication Publication Date Title
CN111667884B (zh) 基于注意力机制使用蛋白质一级序列预测蛋白质相互作用的卷积神经网络模型
US11537898B2 (en) Generative structure-property inverse computational co-design of materials
Peng et al. Refuel: Exploring sparse features in deep reinforcement learning for fast disease diagnosis
US20180341862A1 (en) Integrating a memory layer in a neural network for one-shot learning
CN108986908A (zh) 问诊数据处理方法、装置、计算机设备和存储介质
CN114547347A (zh) 基于卷积神经网络的时序知识图谱补全方法、装置及设备
Le et al. Knowledge graph embedding by relational rotation and complex convolution for link prediction
JP7299317B2 (ja) 言語処理のためのリカレントニューラルネットワークにおける隠れ状態の生成方法及び装置
CN113378938B (zh) 一种基于边Transformer图神经网络的小样本图像分类方法及系统
CN111241244A (zh) 基于大数据的答案位置获取方法、装置、设备及介质
Sarkar et al. An algorithm for DNA read alignment on quantum accelerators
Liu et al. EACP: An effective automatic channel pruning for neural networks
CN108805260A (zh) 一种图说生成方法及装置
Jiang et al. An intelligent recommendation approach for online advertising based on hybrid deep neural network and parallel computing
CN114742210A (zh) 混合神经网络训练方法、交通流预测方法、设备和介质
US20230097940A1 (en) System and method for extracting and using groups of features for interpretability analysis
CN116797850A (zh) 基于知识蒸馏和一致性正则化的类增量图像分类方法
CN110766465A (zh) 金融产品评估方法及其验证方法、装置
CN114420221B (zh) 一种基于知识图谱辅助的多任务药物筛选方法和系统
CN114155388B (zh) 一种图像识别方法、装置、计算机设备和存储介质
Stypułkowski et al. Representing point clouds with generative conditional invertible flow networks
CN115422369A (zh) 基于改进TextRank的知识图谱补全方法和装置
CN115204171A (zh) 基于超图神经网络的文档级事件抽取方法及系统
Fong et al. Optimized swarm search-based feature selection for text mining in sentiment analysis
CN114332469A (zh) 模型训练方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20220527