CN117391150B - 一种基于分层池化图哈希的图数据检索模型训练方法 - Google Patents
一种基于分层池化图哈希的图数据检索模型训练方法 Download PDFInfo
- Publication number
- CN117391150B CN117391150B CN202311673951.0A CN202311673951A CN117391150B CN 117391150 B CN117391150 B CN 117391150B CN 202311673951 A CN202311673951 A CN 202311673951A CN 117391150 B CN117391150 B CN 117391150B
- Authority
- CN
- China
- Prior art keywords
- graph
- layer
- graph data
- data
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 65
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000011176 pooling Methods 0.000 title claims abstract description 13
- 239000011159 matrix material Substances 0.000 claims abstract description 253
- 238000009826 distribution Methods 0.000 claims abstract description 29
- 239000003814 drug Substances 0.000 claims description 91
- 229940079593 drug Drugs 0.000 claims description 66
- 150000001875 compounds Chemical class 0.000 claims description 59
- 238000003860 storage Methods 0.000 claims description 18
- 230000003993 interaction Effects 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 16
- 238000012216 screening Methods 0.000 claims description 15
- 239000000470 constituent Substances 0.000 claims description 9
- 230000005540 biological transmission Effects 0.000 claims description 7
- 230000002776 aggregation Effects 0.000 abstract description 12
- 238000004220 aggregation Methods 0.000 abstract description 12
- 230000008569 process Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 19
- 239000002547 new drug Substances 0.000 description 12
- 238000001914 filtration Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 230000006872 improvement Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 229930003935 flavonoid Natural products 0.000 description 4
- 150000002215 flavonoids Chemical class 0.000 description 4
- 235000017173 flavonoids Nutrition 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000004931 aggregating effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 229910052799 carbon Inorganic materials 0.000 description 2
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- UFHFLCQGNIYNRP-UHFFFAOYSA-N Hydrogen Chemical compound [H][H] UFHFLCQGNIYNRP-UHFFFAOYSA-N 0.000 description 1
- 108091005804 Peptidases Proteins 0.000 description 1
- 239000004365 Protease Substances 0.000 description 1
- 102100037486 Reverse transcriptase/ribonuclease H Human genes 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 125000003277 amino group Chemical group 0.000 description 1
- 230000003078 antioxidant effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 125000003178 carboxy group Chemical group [H]OC(*)=O 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 229910052729 chemical element Inorganic materials 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 125000000524 functional group Chemical group 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 229910052760 oxygen Inorganic materials 0.000 description 1
- 239000001301 oxygen Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000035755 proliferation Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/901—Indexing; Data structures therefor; Storage structures
- G06F16/9024—Graphs; Linked lists
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/30—Prediction of properties of chemical compounds, compositions or mixtures
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16C—COMPUTATIONAL CHEMISTRY; CHEMOINFORMATICS; COMPUTATIONAL MATERIALS SCIENCE
- G16C20/00—Chemoinformatics, i.e. ICT specially adapted for the handling of physicochemical or structural data of chemical particles, elements, compounds or mixtures
- G16C20/70—Machine learning, data mining or chemometrics
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Chemical & Material Sciences (AREA)
- Crystallography & Structural Chemistry (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本说明书公开了一种基于分层池化图哈希的图数据检索模型训练方法,待训练的检索模型包含编码子模型和预测子模型,所述编码子模型包含卷积层和编码层,所述卷积层包含嵌入子层、分配子层以及输出子层。在编码子模型的各层卷积过程中,实现了对上一层卷积层特征矩阵表示的节点特征的聚合,以及对上一层卷积层邻接矩阵表示的节点个数的聚合,使得每个卷积层得到的特征矩阵都保留了图数据的结构信息。根据特征矩阵得到图特征,再根据图特征得到图数据的图哈希码,因为特征矩阵保留了图数据的结果信息,所以得到的图哈希码更加准确,在根据图哈希码进行图数据检索时,得到的检索结果也更加准确。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种基于分层池化图哈希的图数据检索模型训练方法。
背景技术
图数据能够直接地反映事物与事物之间的联系,被广泛应用于生物化学、计算机视觉、模式识别等领域。可通过预先构建由多个图数据组成的图数据集,进行图数据的检索,例如,给定一个化合物的图数据,在药物数据集中检索与该化合物结构相似的药物,则该图数据的各节点与药物对应化合物的构成元素对应,所述样本图数据的边由各元素之间的连接关系确定。
现有技术中,通常采用训练好的神经网络模型进行图数据的检索。例如,基于图神经网络的图哈希方法(a GNN-based graphhashing approach,GHashing)训练的模型。通过将两个图数据输入该模型训练,得到该模型训练输出的两个图数据的图哈希编码和预测编辑距离,根据图哈希编码的相似度和预测编辑距离,确定图数据的检索结果。
但是,现有神经网络模型在对图数据确定图哈希码时,忽略了图数据的结构信息,使得图数据检索结果不够准确。可见,如何提高图数据检索的准确度是一个亟待解决的问题。
发明内容
本说明书提供一种基于分层池化图哈希的图数据检索模型训练方法、装置、存储介质及电子设备,以至少部分地解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种基于分层池化图哈希的图数据检索模型训练方法,待训练的检索模型包含编码子模型和预测子模型,所述编码子模型包含卷积层和编码层,所述卷积层包含嵌入子层、分配子层以及输出子层,所述方法包括:
获取药物化合物的图数据对,并确定所述图数据对包含的两个图数据之间的真实图编辑距离,其中,所述两个图数据为样本图数据以及所述样本图数据的增强图数据,所述样本图数据的各节点与所述药物化合物的构成元素对应,所述样本图数据的边由各元素之间的连接关系确定;
将所述两个图数据,分别输入所述待训练的检索模型的编码子模型,通过所述编码子模型的首层卷积层,确定输入所述首层卷积层的图数据对应的特征矩阵以及邻接矩阵,所述首层卷积层的图数据对应的特征矩阵为对所述药物化合物的分子结构的初步的特征编码,所述首层卷积层得到的邻接矩阵体现所述首层卷积层得到的特征矩阵表征的各元素的连接关系;
将所述特征矩阵输入所述首层卷积层的输出子层,得到所述首层卷积层输出的图特征,以及将所述邻接矩阵和所述特征矩阵作为输入数据,分别输入所述首层卷积层的嵌入子层以及分配子层,得到所述首层卷积层的嵌入矩阵和分配矩阵;
根据所述首层卷积层的嵌入矩阵、所述首层卷积层的分配矩阵以及所述首层卷积层的邻接矩阵,确定下一层卷积层的特征矩阵以及下一层卷积层的邻接矩阵,继续在所述编码子模型的卷积层进行计算;
针对每个图数据,根据所述各卷积层输出的该图数据对应的各图特征,确定该图数据对应的编码特征,并通过所述编码层,对该图数据的编码特征进行哈希编码,得到该图数据的图哈希码;
将所述两个图数据对应的编码特征输入所述预测子模型,得到所述两个图数据之间的预测图编辑距离;
根据所述两个图数据的图哈希码距离与所述真实图编辑距离的差异,以及所述预测图编辑距离与所述真实图编辑距离的差异,确定损失,并以损失最小训练所述检索模型;
其中,所述检索模型用于响应携带药物化合物的相似性检索请求,确定所述药物化合物对应的查询图数据,根据所述查询图数据的图哈希码,对待召回图数据进行筛选,再通过筛选后的所述待召回图数据与所述查询图数据的预测图编辑距离,确定检索结果,根据所述检索结果中的图数据对应的已知药物的性质,对所述药物化合物的性质进行预测。
可选地,通过所述编码子模型的首层卷积层,确定输入所述首层卷积层的图数据对应的特征矩阵以及邻接矩阵,具体包括:
针对每个图数据,根据该图数据的节点特征,确定输入所述首层卷积层的特征矩阵;
根据该图数据的各节点连接关系,确定输入所述首层卷积层的邻接矩阵。
可选地,根据所述首层卷积层的嵌入矩阵、所述首层卷积层的分配矩阵以及所述首层卷积层的邻接矩阵,确定下一层卷积层的特征矩阵以及下一层卷积层的邻接矩阵,具体包括:
根据所述首层卷积层的嵌入矩阵和所述首层卷积层的分配矩阵的转置矩阵的乘积,确定所述下一层卷积层的特征矩阵;
根据所述首层卷积层的邻接矩阵、所述首层卷积层的分配矩阵和所述首层卷积层的分配矩阵的转置矩阵的乘积,确定所述下一层卷积层的邻接矩阵。
可选地,所述预测子模型包含交互层和预测层;
将所述两个图数据对应的编码特征输入所述预测子模型,得到所述两个图数据之间的预测图编辑距离,具体包括:
分别确定所述两个图数据在各卷积层得到的特征矩阵,将所述两个图数据在相同层卷积层得到的特征矩阵作为矩阵对;
针对每个卷积层,将该卷积层的矩阵对包含的特征矩阵的相似度,作为该卷积层的分层相似特征;
根据各卷积层的分层相似特征,确定局部相似特征;
将所述两个图数据对应的编码特征输入所述交互层,通过所述交互层确定所述两个图数据对应的编码特征之间的相似度,作为全局相似特征;
将所述局部相似特征和所述全局相似特征进行拼接,得到合成特征,将所述合成特征输入所述预测层,得到所述两个图数据之间的预测图编辑距离。
可选地,根据各卷积层的分层相似特征,确定局部相似特征,具体包括:
分别对各卷积层的分层相似特征进行直方图特征提取,确定各卷积层的直方图特征;
将各卷积层的直方图特征进行拼接,得到所述局部相似特征。
可选地,根据所述两个图数据的图哈希码距离与所述真实图编辑距离的差异,以及所述预测图编辑距离与所述真实图编辑距离的差异,确定损失,具体包括:
将所述两个图数据的图哈希码距离与所述真实图编辑距离之差,作为第一损失,将所述预测图编辑距离与所述真实图编辑距离之差,作为第二损失;
确定在哈希空间中预设的各聚类中心,并根据所述样本图数据的图哈希码与各聚类中心的距离,确定所述样本图数据的图哈希码对应于各聚类中心的第一匹配概率,根据所述增强图数据的图哈希码与各聚类中心的距离,确定所述增强图数据的图哈希码对应于各聚类中心的第二匹配概率;
根据所述第一匹配概率和所述第二匹配概率的差异,确定第三损失;
根据所述第一损失、所述第二损失和所述第三损失,确定所述损失。
可选地,根据所述查询图数据的图哈希码,对各待召回图数据进行筛选,再通过筛选后的所述待召回图数据与所述查询图数据的预测图编辑距离,确定检索结果,具体包括:
将所述查询图数据,输入训练完成的检索模型的编码子模型,确定查询图数据的图哈希码;
确定所述查询图数据的图哈希码与各待召回图数据的图哈希码距离,将不大于第一预设值的所述图哈希码距离对应的待召回图数据,作为候选图数据;
针对每个候选图数据,将该候选图数据与所述查询图数据,分别输入所述训练完成的检索模型,通过所述训练完成的检索模型的预测子模型确定该候选图数据与所述查询图数据的预测图编辑距离;
从各候选图数据中,筛选出与所述查询图数据的预测图编辑距离不大于第二预设值的候选图数据,作为检索结果。
本说明书提供了一种基于分层池化图哈希的图数据检索模型训练装置,待训练的检索模型包含编码子模型和预测子模型,所述编码子模型包含卷积层和编码层,所述卷积层包含嵌入子层、分配子层以及输出子层,所述装置包括:
获取模块,获取药物化合物的图数据对,并确定所述图数据对包含的两个图数据之间的真实图编辑距离,其中,所述两个图数据为样本图数据以及所述样本图数据的增强图数据,所述样本图数据的各节点与所述药物化合物的构成元素对应,所述样本图数据的边由各元素之间的连接关系确定;
初始卷积模块,将所述两个图数据,分别输入所述待训练的检索模型的编码子模型,通过所述编码子模型的首层卷积层,确定输入所述首层卷积层的图数据对应的特征矩阵以及邻接矩阵,所述首层卷积层的图数据对应的特征矩阵为对所述药物化合物的分子结构的初步的特征编码,所述首层卷积层得到的邻接矩阵体现所述首层卷积层得到的特征矩阵表征的各元素的连接关系;
卷积模块,将所述特征矩阵输入所述首层卷积层的输出子层,得到所述首层卷积层输出的图特征,以及将所述邻接矩阵和所述特征矩阵作为输入数据,分别输入所述首层卷积层的嵌入子层以及分配子层,得到所述首层卷积层的嵌入矩阵和分配矩阵;
卷积传输模块,根据所述首层卷积层的嵌入矩阵、所述首层卷积层的分配矩阵以及所述首层卷积层的邻接矩阵,确定下一层卷积层的特征矩阵以及下一层卷积层的邻接矩阵,继续在所述编码子模型的卷积层进行计算;
图哈希码确定模块,针对每个图数据,根据所述各卷积层输出的该图数据对应的各图特征,确定该图数据对应的编码特征,并通过所述编码层,对该图数据对应的编码特征进行哈希编码,得到该图数据的图哈希码;
预测模块,将所述两个图数据对应的编码特征输入所述预测子模型,得到所述两个图数据之间的预测图编辑距离;
损失确定模块,根据所述两个图数据的图哈希码距离与所述真实图编辑距离之差,以及所述预测图编辑距离与所述真实图编辑距离之差,确定损失,并以损失最小训练所述检索模型,其中,所述检索模型用于响应携带药物化合物的相似性检索请求,确定所述药物化合物对应的查询图数据,根据所述查询图数据的图哈希码,对待召回图数据进行筛选,再通过筛选后的所述待召回图数据与所述查询图数据的预测图编辑距离,确定检索结果,根据所述检索结果中的图数据对应的已知药物的性质,对所述药物化合物的性质进行预测。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于分层池化图哈希的图数据检索模型训练方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述基于分层池化图哈希的图数据检索模型训练方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的基于分层池化图哈希的图数据检索模型训练方法中,待训练的检索模型包含编码子模型和预测子模型,所述编码子模型包含卷积层和编码层,所述卷积层包含嵌入子层、分配子层以及输出子层。通过待训练的检索模型的编码子模型各卷积层的嵌入子层以及分配子层,得到各卷积层的嵌入矩阵和分配矩阵,每一层卷积层的嵌入矩阵对上一层卷积层特征矩阵表示的节点特征进行聚合,分配矩阵对上一层卷积层邻接矩阵表示的节点个数进行聚合,各卷积层的特征矩阵是对节点特征和节点个数共同聚合的结果。
每个卷积层的邻接矩阵代表着该卷积层提取到的药物化合物图数据的节点个数和各节点所表征的元素的连接关系,节点的连接关系就代表着图数据的结构信息,而图数据的结构信息就体现着图数据上每个节点间的语义,通过对节点个数的聚合实现了对药物化合物图数据表征的各元素连接关系体现的结构信息的提取,使得每个卷积层得到的特征矩阵都保留了图数据的结构信息。根据特征矩阵得到图特征,再根据图特征得到图数据的图哈希码,因为特征矩阵保留了图数据的结构信息,所以得到的图哈希码更加准确,在根据图哈希码进行已知药物化合物的图数据检索时,可以得到更加准确的检索结果,即检索结果包含的图数据对应的已知药物化合物的分子结构与查询的药物化合物的相似性较高,可以根据检索结果对应的已知药物化合物的性质对查询的药物化合物的性质进行准确的预测。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中一种基于分层池化图哈希的图数据检索模型训练方法的流程示意图;
图2为本说明书实施例中提供的一种待训练的检索模型的结构示意图;
图3为本说明书实施例中提供的一种编码子模型的卷积层的结构示意图;
图4为本说明书实施例中提供的一种待训练的检索模型的结构示意图;
图5为本说明书实施例中提供的一种待训练的检索模型的结构示意图;
图6为本说明书提供的一种基于分层池化图哈希的图数据检索模型训练装置的示意图;
图7为本说明书提供的对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
因为结构相似的化合物往往具有相似的性质,在药物的研发过程中,通常要通过与新药物化合物的分子结构相似的药物,来确定新药物性质,如效用、作用部位与副作用等。所以,药物数据集中的图数据反映了药物对应化合物的结构信息,图数据检索对于药物研发深远意义,将新药作为查询化合物,根据该查询化合物对应的查询图数据,在药物数据集中检索相似的图数据,根据检索结果确定分子结构相似的药物。检索结果越准确,对于新药物的性质预测也会更加准确。
如,通过图数据的检索发现新药物化合物的分子结构与已有的某黄酮类药物的分子结构相似,已有的黄酮类药物因其抗氧化特性,可作用于某蛋白酶抑制癌细胞的增值,则可预测新药物很可能与该黄酮类药物具有相同的作用部位与效用,研发人员可针对性的对该新药物对该癌细胞的作用展开实验,进一步确定该新药物的性质。
图数据检索,指对于给定的查询图数据,在图数据集中检索符合指定的相似性度量指标的图数据的过程。图编辑距离是衡量两个图数据之间差异的一种常用度量指标,如,图数据p和图数据q的图编辑距离,表示了将图p逐步修改为图q所需的最小图编辑操作次数。图编辑操作可以精确反映两个图数据之间结构和内容的差异,其中,图编辑操作包括顶点的插入、边的插入、顶点的删除、边的删除、顶点的重新标记以及边的重新标记。本说明书中采用图编辑距离作为两个图数据之间的相似性度量指标。
由于计算精确图编辑距离的时间代价会随着图数据包含的节点数的增加而指数级增长,所以在图数据检索中,通常采用“过滤-验证”思想。在过滤阶段,先估计两个图数据之间的预测图编辑距离,根据预设的图编辑距离阈值,过滤掉在图数据集中与查询图数据的预测图编辑距离高于图编辑距离阈值的图数据,得到候选集。在验证阶段,计算候选集中的每个图数据与查询图数据的真实图编辑距离,若真实图编辑距离不超过图编辑距离阈值,则将该真实编辑距离对应的候选集中的图数据,作为检索结果。
但是,仅根据预测编辑距离进行过滤得到的候选集,规模通常很大,包含的图数据数量较多,这就导致了在验证阶段计算真实图编辑距离花费的计算时间还是较长。
为了缩小候选集规模,可采用“两级过滤”策略进行图数据检索。例如,在基于GHashing的图数据检索方法中,在过滤阶段,先计算查询图数据的图哈希码,通过查询图数据的图哈希码与图数据集中的各图数据的图哈希码之间的距离,进行一级过滤,得到第一候选集。再分别估计第一候选集中的各图数据与查询图数据之间的预测图编辑距离,通过预测图编辑距离进行二级过滤,得到满足预设的图编辑距离阈值的第二候选集。在验证阶段,计算第二候选集中的各图数据与查询图数据之间的真实图编辑距离,确定最终的检索结果。
虽然通过“两级过滤”策略使得需要计算图编辑距离的图数据数量大大减少,相比于只进行一次过滤的图数据检索方法效率得到了提升,但在得到查询图数据的图哈希码时,是基于连续的卷积对图数据进行全局的特征提取获得的特征矩阵进行的哈希编码,忽略了查询图数据的结构信息。使得根据查询图数据的图哈希码进行过滤得到的第一候选集不准确,而在第一候选集不准的情况下,最终得到的检索结果也不够准确。
为了至少部分解决上述问题,本说明书提供了一种基于分层池化图哈希的图数据检索模型训练方法,在该检索模型的训练过程中,编码子模型利用分层池化策略,在每个卷积层得到的特征矩阵,保留了图数据的结构信息,使得编码子模型得到的图哈希码更加准确。在应用训练好的检索模型进行图数据检索时,通过查询图数据的图哈希码对图数据集中的图数据进行过滤,由于查询图数据的哈希编码是基于保留了查询图数据结构信息的特征矩阵得到的,所以可以得到更加准确的候选集,从而使查询图数据对应的检索结果更加准确。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中一种基于分层池化图哈希的图数据检索模型训练方法的流程示意图,具体包括以下步骤:
S100:获取药物化合物的图数据对,并确定所述图数据对包含的两个图数据之间的真实图编辑距离,其中,所述两个图数据为样本图数据以及所述样本图数据的增强图数据,所述样本图数据的各节点与所述药物化合物的构成元素对应,所述样本图数据的边由各元素之间的连接关系确定。
本说明书所提供的基于分层池化图哈希的图数据检索模型训练方法中的所有步骤均可由任何具有计算功能的电子设备实现,例如终端、服务器等设备。为了便于描述,下面仅以服务器为执行主体,对本说明书提供的基于分层池化图哈希的图数据检索模型训练方法进行说明。
在本说明书一个或多个实施例中,要进行检索模型的训练,首先需要确定训练数据,以及训练数据的标注。其中,一个训练数据是由两个图数据组成的图数据对,其标注是两个图数据之间的真实图编辑距离。而计算图数据对包含的两个图数据之间的真实图编辑距离需要昂贵的时间代价,因此该服务器在确定训练数据时,可以按照预设的数据增强方法,对现有的图数据集中的各图数据进行数据增强,获取用于训练的图数据对。例如,当该图数据集为药物数据集时,服务器对该药物数据集中的各图数据进行数据增强,得到各图数据的增强图数据,一个药物的图数据与该药物的增强图数据组成图数据对,该药物的增强图数据所表征的药物为与该药物分子结构相似的药物。
具体的,服务器从现有的数据集中获取若干个图数据,作为样本图数据。针对每个样本图数据,服务器根据预设的最大编辑阈值,在该最大编辑阈值的范围内随机生成一个整数,作为该样本图数据与该样本图数据的增强数据之间的图编辑距离,服务器根据该图编辑距离对该样本图数据进行该图编辑距离对应次数的图编辑操作,得到该样本图数据的增强图数据。其中,每一次的图编辑操作均为服务器在各种图编辑操作中随机选定。这样得到的增强图数据的同时也获得了该增强图数据与样本图数据之间的真实图编辑距离,通过样本图数据以及该样本图数据的增强图数据组成的图数据对来对检索模型进行训练,无需再进行额外的计算获取用于训练的各图数据对之间的真实图编辑距离,减少了获取用于训练的带标注的图数据对的时间。
本说明书中用于检索模型训练的图数据集,可以为药物数据集,该数据集中的每个图数据都表征了一个药物的分子结构,针对每个图数据,该图数据的各节点与药物对应化合物的构成元素对应,所述样本图数据的边由各元素之间的连接关系确定。
S102:将所述两个图数据,分别输入所述待训练的检索模型的编码子模型,通过所述编码子模型的首层卷积层,确定输入所述首层卷积层的图数据对应的特征矩阵以及邻接矩阵,所述首层卷积层的图数据对应的特征矩阵为对所述药物化合物的分子结构的初步的特征编码,所述首层卷积层得到的邻接矩阵体现所述首层卷积层得到的特征矩阵表征的各元素的连接关系。
图2为本说明书实施例中提供的一种待训练的检索模型的结构示意图,如图2所示,待训练的检索模型包含编码子模型和预测子模型。其中,编码子模型为孪生网络结构,包含两个参数与结构均完全相同的子网络,每个子网络包含多个卷积层和一个编码层。待训练的检索模型以包含样本图数据和增强图数据的一对图数据对作为输入,通过编码子模型,分别得到样本图数据和增强图数据的图哈希码,并通过预测子模型,得到样本图数据和增强图数据之间的预测图编辑距离。
在该检索模型的训练过程中,为减少在计算损失时的计算量,提高模型的训练效率,采用分批训练的方式,一批训练数据包含多个图数据对,下面仅针对一批训练数据中的一个图数据对,对该检索模型的训练过程进行说明。
该服务器在训练该检索模型时,可将该图数据对包含的两个图数据分别输入两个子网络,针对每个图数据,通过该图数据输入的子网络的首层卷积层,确定首层卷积层该图数据对应的特征矩阵以及邻接矩阵。
具体的,该服务器针对该图数据对中的每个图数据,根据该图数据的节点特征,确定需要输入首层卷积层的特征矩阵,以及根据该图数据的各节点连接关系,确定需要输入首层卷积层的邻接矩阵。
确定了首层卷积层的输入后,就可以开始进行连续的卷积操作,获取该图数据在各卷积层的特征矩阵及图特征。首层卷积层得到的特征矩阵是对该图数据表征药物的分子结构进行的初步的特征编码,在首层卷积层得到的特征矩阵中,分子结构相似的部分可能具有类似的特征编码,既具有相似的语义,通过后续的卷积操作,将相似部分的一步步的聚合,扩大相似范围,最终确定相似的分子结构。如,在首层卷积层得到的特征矩阵只能表征相似的单个化学元素,如碳元素、氢元素等,在之后的各层卷积得到的特征矩阵中,能够表征相似的官能团,如氨基、羧基等。
S104:将所述特征矩阵输入所述首层卷积层的输出子层,得到所述首层卷积层输出的图特征,以及将所述邻接矩阵和所述特征矩阵作为输入数据,分别输入所述首层卷积层的嵌入子层以及分配子层,得到所述首层卷积层的嵌入矩阵和分配矩阵。
图3为本说明书实施例中提供的一种编码子模型的卷积层的结构示意图,表示矩阵相乘。如图3所示,编码子模型包含K层卷积层,每层卷积层包含嵌入子层、分配子层以及输出子层,其中,嵌入子层和分配子层为两个结构相同但参数不同的神经网络。
首先,服务器将首层卷积层输入的特征矩阵,通过首层卷积层的输出子层,得到首层卷积层输出的图特征。然后,将输入首层卷积层的邻接矩阵和特征矩阵作为输入数据,输入首层卷积层的嵌入子层,得到首层卷积层的嵌入矩阵,以及将该输入数据输入首层卷积层的分配子层,得到首层卷积层的分配矩阵。
嵌入子层对上一层卷积层的特征矩阵的特征维度进行学习,通过嵌入矩阵对上一层卷积层特征矩阵进行降维,实现对上一层卷积层特征矩阵表示的节点特征的聚合。分配子层对上一层卷积层的节点个数进行学习,通过分配矩阵对上一层卷积层邻接矩阵进行降维,实现对上一层卷积层邻接矩阵表示的节点个数的聚合。通过嵌入子层和分配子层两个神经网络层,在每层卷积层,实现了对图数据的节点特征的维度和节点个数的共同学习,节点个数每聚合一次,都代表对上一层卷积层提取到的节点个数按照语义进行了一次划分,在当前卷积层中,根据邻接矩阵判断出连接关系相近的节点,并将连接关系相近的节点认为是代表同一语义的节点,将上一层卷积层中表示相同语义的节点聚合为一个节点。分配矩阵实现了在各个卷积层中按照语义对节点个数的聚合,根据输入图数据的语义层次结构对特征矩阵进行降维,即根据输入图数据的语义层次结构对图数据进行分层池化,从而使得各卷积层根据嵌入矩阵和分配矩阵得到的特征矩阵保留了图数据的结构信息。
S106:根据所述首层卷积层的嵌入矩阵、所述首层卷积层的分配矩阵以及所述首层卷积层的邻接矩阵,确定下一层卷积层的特征矩阵以及下一层卷积层的邻接矩阵,继续在所述编码子模型的卷积层进行计算。
如图3所示,服务器根据首层卷积层的嵌入矩阵和首层卷积层的分配矩阵的转置矩阵的乘积,确定下一层卷积层的特征矩阵。根据首层卷积层的邻接矩阵、首层卷积层的分配矩阵和首层卷积层的分配矩阵的转置矩阵的乘积,确定下一层卷积层的邻接矩阵。
服务器在下一层卷积层继续卷积操作,直至到达最后一层卷积层。针对每个卷积层,该卷积层的分配矩阵,用于对该卷积层的嵌入矩阵进行聚合,得到下一层卷积层的特征矩阵,实现各卷积层间数据的传输。
通过输出层,各卷积层得到的表征图数据节点特征的特征矩阵被转化为一维的图特征,以便根据各卷积层的图特征得到以一维向量表示的图数据的图哈希码。
图数据在各卷积层的卷积操作可根据如下公式确定:
其中,表示输出子层,/>表示嵌入子层,/>表示分配子层,/>表示第/>层的特征矩阵,/>表示第/>层的邻接矩阵,/>表示第/>层的图特征,/>表示第/>层的嵌入矩阵,/>表示第/>层的分配矩阵,/>表示矩阵维数为a行b列。
需要说明,由于最后一层卷积层不需要再进行数据的传输,最后一层卷积层不包含嵌入子层与分配子层,通过最后一层卷积层的上一层卷积层可以得到输入到最后一层卷积层的特征矩阵,在最后一层卷积层,只需将最后一层卷积层的特征矩阵通过最后一层卷积层的输出子层得到最后一层的图特征,卷积操作即可结束。
图数据不仅包含特征信息,还包含结构信息,特征信息由各节点的节点特征体现,结构信息由各节点间的连接关系体现。每个卷积层的特征矩阵都是通过上一层卷积层的嵌入矩阵和分配矩阵得到的,即,每个卷积层的特征矩阵不仅是对上一层卷积层的节点特征的聚合,同时也是对上一层卷积层的节点个数的聚合。根据图数据的特征信息,可以提取到各节点自身的语义,而根据图数据的结构信息,可以提取到各节点自身的语义之间的语义层次。嵌入矩阵在各卷积层对图数据的节点特征进行聚合,通过逐层的卷积得到表征节点自身的语义范围越来越宽泛嵌入矩阵。分配矩阵在各卷积层对图数据的节点个数进行聚合,将邻接矩阵表现出的连接关系相近的节点进行聚合,即按照各节点自身的语义之间的语义层次对节点个数进行聚合。每层卷积层通过嵌入矩阵和分配矩阵确定的特征矩阵,不仅保留了图数据的特征信息,还保留了图数据的结构信息,使基于各特征矩阵确定的编码特征更加准确,从而得到的图数据的图哈希码也更加准确。
每一层卷积层的分配矩阵的维度,用于控制下一层卷积层提取到的特征矩阵和邻接矩阵代表的图数据的节点个数。例如,输入的药物图数据有100个节点,即该药物对应的化合物由100个元素构成,则输入首层卷积层的邻接矩阵的维度为100×100,可以通过设置分配矩阵维度为100×10,通过分配矩阵对首层卷积层的邻接矩阵进行降维,使得首层卷积层输出的特征矩阵和邻接矩阵代表的图数据的节点个数变为10个,即根据各元素的语义,将该药物的100个构成元素进行分类,得到10个元素集,每个元素集代表更大范围的语义,如将100个独立的元素,在进行聚合的时候,将有碳元素-氧元素连接的聚合为一类,将有碳元素-氢元素连接的聚合为一类,则可得到包含更大范围语义的10个类别。在本说明书提供的检索模型的训练方法,不仅可以学习不同程度的语义范围,使得到的特征矩阵保留了分子结构的元素特征信息,还通过学习到各程度语义范围聚合的类别个数,保留了分子结构中表征各元素连接关系的结构信息。
S108:针对每个图数据,根据所述各卷积层输出的该图数据对应的各图特征,确定该图数据对应的编码特征,并通过所述编码层,对该图数据的编码特征进行哈希编码,得到该图数据的图哈希码。
针对每个图数据,服务器将各卷积层输出的图特征进行拼接,得到该图数据的编码特征,将该编码特征输入编码层,得到该图数据的编码特征进行哈希编码,得到该图数据的图哈希码。
上述的拼接操作,可以对各图特征直接进行相加,也可以设置注意力层,确定各图特征的拼接权重,以拼接权重对各图特征进行加权,具体拼接操作的方式本说明书不做限制。
图哈希码为对图数据表征的药物的分子结构的编码标识,相似分子结构的图数据将具有相似的图哈希码,该图哈希吗可用于筛选相似分子结构的药物图数据。
S110:将所述两个图数据对应的编码特征输入所述预测子模型,得到所述两个图数据之间的预测图编辑距离。
待训练的预测子模型包含预测层,服务器将两个图数据对应的编码特征,输入预测层,得到两个图数据之间的预测编辑距离。
由于采用分层池化策略后,通过编码子模型得到的图数据的编码特征更加准确,所以基于编码特征得到的预测编辑距离也更加准确。
图4为本说明书实施例中提供的一种待训练的检索模型的结构示意图,表示拼接操作。如图4所示,该检索模型以包含样本图数据和增强图数据的一对图数据对作为输入,通过对预测子模型各卷积层的图特征进行拼接,分别得到样本图数据和增强图数据的编码特征,再分别对样本图数据和增强图数据的编码特征进行哈希编码,分别得到样本图数据和增强图数据的图哈希码,并将样本图数据和增强图数据的编码特征输入预测子模型,得到样本图数据和增强图数据的预测编辑距离。
在本说明书一个或多个实施例中,编码子模型仅由一支子网络构成。针对样本图数据,首先,服务器将该样本图数据输入编码子模型的卷积层,得到各卷积层的特征矩阵及图特征。将各卷积层的特征矩阵进行拼接,得到该样本图数据的编码特征,以及根据编码特征得到该样本图数据的图哈希码。并将该样本图数据对应的各卷积层的特征矩阵、该样本图数据的编码特征和该样本图数据的图哈希码,进行保存。
类似地,服务器得到该样本图数据的增强图数据对应的各卷积层的特征矩阵、该样本图数据的增强图数据的编码特征和该样本图数据的增强图数据的图哈希码,并进行保存。
然后,服务器将该样本图数据对应的各卷积层的特征矩阵、该样本图数据的增强图数据对应的各卷积层的特征矩阵、该样本图数据的编码特征和该样本图数据的增强图数据的编码特征,输入预测子模型,进行后续运算。
增强图数据所表征的药物与样本图数据所表征的药物的分子结构相似的药物,样本图数据与增强图数据的图哈希码能够反映两种药物的分子结构差异,将样本图数据与增强图数据的图哈希码输入预测子模型,即可得到样本图数据与增强图数据之间的预测图编辑距离,该预测图编辑距离即为两种药物分子结构差异的一种度量标准。
S112:根据所述两个图数据的图哈希码距离与所述真实图编辑距离的差异,以及所述预测图编辑距离与所述真实图编辑距离的差异,确定损失,并以损失最小训练所述检索模型,其中,所述检索模型用于响应携带药物化合物的相似性检索请求,确定所述药物化合物对应的查询图数据,根据所述查询图数据的图哈希码,对待召回图数据进行筛选,再通过筛选后的所述待召回图数据与所述查询图数据的预测图编辑距离,确定检索结果,根据所述检索结果中的图数据对应的已知药物的性质,对所述药物化合物的性质进行预测。
在该检索模型采用分批训练的方式,一批训练数据训练结束后,确定一次损失,以损失最小为目标对该检索模型进行优化,该检索模型的损失由编码子模型的损失和预测子模型的损失共同确定。
首先,针对一批训练数据中的每个图数据对,服务器确定该图数据对包含的两个图数据的图哈希码距离与真实图编辑距离的差异,确定第一损失。具体的,服务器将一批训练数据中各图数据对的之间的图哈希码距离与真实图编辑距离的均方差损失,作为第一损失,第一损失可根据如下公式确定:
其中,表示一批训练数据包含的图数据对的数量,/>表示一批训练数据中的第个图数据对,/>表示第/>个图数据对中的样本图数据,/>表示第/>个图数据对中的增强图数据,/>表示第/>个图数据对中的样本图数据与增强图数据的图哈希码距离,/>表示第/>个图数据对中样本图数据与增强图数据的真实图编辑距离。
其次,服务器根据该图数据对包含的两个图数据的预测图编辑距离与真实图编辑距离的差异,确定第二损失。具体的,服务器将一批训练数据中各图数据对的之间的预测编辑距离与真实图编辑距离的均方差损失,作为第二损失,第二损失可根据如下公式确定:
其中,表示第/>个图数据对中样本图数据与增强图数据的预测编辑距离。
最后,服务器将第一损失与第二损失相加,确定损失,具体的,损失可根据如下公式确定:
第一损失为该检索模型编码子模型的损失,代表了编码子模型生成的图数据的图哈希码的准确度。第二损失为该检索模型预测子模型的损失,代表了预测子模型输出的预测编辑距离的准确度。服务器以损失最小训练该检索模型,直至达到最大迭代次数,停止模型的训练,得到训练完成的检索模型。
本说明书提供的基于分层池化图哈希的图数据检索模型训练方法,采用离线训练的方式,检索模型训练完成后,可用于对查询图数据的在线检索。检索模型用于响应携带查询图数据的检索请求,确定所述查询图数据的图哈希码,对待召回图数据进行筛选,再通过筛选后的所述待召回图数据与所述查询图数据的预测图编辑距离,确定检索结果。
具体的,在本说明书实施例中,该服务器预先通过该训练完成的检索模型,得到图数据集中各图数据对应的图哈希码,并以图数据为键图数据对应的图哈希码为值,将各图数据的图哈希码存储为哈希表。
在应用训练完成的检索模型进行图数据的检索时,该检索模型响应于携带查询图数据的检索请求,确定查询化合物对应的查询图数据,服务器将查询图数据输入该训练完成的检索模型的编码子模型,得到该查询图数据的图哈希码,该图哈希码为该查询化合物分子结构的编码标识。
然后,服务器根据第一预设值,依据哈希表,对图数据集中的各待召回图数据进行筛选,哈希表存储了图数据集中已有药物图数据的图哈希码,通过确定各待召回图数据的图哈希码与该查询图数据的图哈希码之间的图哈希码距离,将不大于第一预设值的图哈希码距离对应的待召回图数据,作为候选图数据,候选图数据所对应的药物即为分子结构与查询化合物的分子结构相似药物的初步筛选结果。其中,第一预设值代表各待召回图数据的图哈希码与该查询图数据的图哈希码之间的图哈希码距离阈值,该图哈希码距离阈值用于初步筛选结果的精确程度。
之后,针对每个候选图数据,服务器将该候选图数据与该查询图数据,组成图数据对,分别输入该训练完成的检索模型,通过该训练完成的检索模型的预测子模型,得到该候选图数据与该查询图数据之间的预测图编辑距离。
最后,服务器根据第二预设值,判断各图数据对中的候选图数据与查询图数据之间的预测图编辑距离与第二预设值进行比较。针对每个图数据对,若该图数据对的预测图编辑距离不大于第二预设值,将该图数据对包含的候选图数据加入结果集。若该图数据对的预测图编辑距离大于第二预设值,则该图数据对包含的候选图数据,不作为结果集包含的候选图数据。服务器将结果集包含的图数据,作为检索结果返回,结果集所对应的药物即为分子结构与查询化合物的分子结构相似药物的二次筛选结果。其中,第二预设值代表各候选图数据与该查询图数据的图编辑距离阈值,该图编辑距离阈值用于控制二次筛选结果的精确程度。
由于检索结果可能包含的图数据数量较多,但在实际应用中只有检索到与查询图数据的相似性高的结果,根据检索结果中的图数据对应的药物的已知性质来精确推断新药物的性质,所以,为减少没有意义的检索结果,服务器可以根据预设的返回数量,对检索结果中返回的图数据的数量进行限制。具体的,服务器确定预测编辑距离不大于第二预设值的各图数据对,按预测编辑距离从小到大的方向对结果集包含的各图数据进行排序,选取排在前面的返回数量个数的图数据作为结果集。服务器将结果集包含的图数据,作为检索结果返回,此时的检索结果包含的图数据所表征的药物的分子结构即为分子结构与查询化合物分子结构相似度高的结果,可根据此检索结果确定与新药物结果相似的已知药物,根据已知药物的性质推断新药物的性质,对新药物进行准确的性质判断。
当然,若是候选集中预测编辑距离不大于第二预设值的图数据对的数量小于预设的返回数量,则直接按照各候选图数据对应的预测图编辑距离对候选集包含的各候选图数据进行重新排序,得到结果集。
另外,为增强检索结果的可读性,服务器可以确定结果集包含的各图数据对应的预测编辑距离,将结果集包含的各图数据以及各图数据对应的预测编辑距离作为检索结果。
本说明书中的结果集是根据图哈希码对图数据集的各待召回图数据进行一次筛选得到的,在得到图哈希码的过程中,运用多个卷积层对输入的图数据进行分层池化,实现了对图数据节点特征的分层聚合,保留了图数据的结构信息,使得到的图数据的图哈希码更加准确,更能表征两个图数据之间的异同,从而基于结果集确定的检索结果也更加准确。
同时,在候选集已经比较准确的情况下,在确定最终检索结果时,不需再计算候选集中各图数据与查询图数据之间的真实图编辑距离,可直接通过各候选图数据与查询图数据之间的预测图编辑距离确定检索结果,提高了图数据检索的效率。
在本说明书提供的基于分层池化图哈希的图数据检索模型训练方法中,待训练的检索模型包含编码子模型和预测子模型,所述编码子模型包含卷积层和编码层,所述卷积层包含嵌入子层、分配子层以及输出子层。通过待训练的检索模型的编码子模型各卷积层的嵌入子层以及分配子层,得到各卷积层的嵌入矩阵和分配矩阵,每一层卷积层的嵌入矩阵对上一层卷积层特征矩阵表示的节点特征进行聚合,分配矩阵对上一层卷积层邻接矩阵表示的节点个数的聚合,实现了对节点特征和节点个数的聚合。
特征矩阵体现着各卷积层提取到的图数据的节点数量和各节点连接关系,各节点的连接关系体现了图数据的语义,各卷积层的特征矩阵由嵌入矩阵和分配矩阵确定,各卷积层的特征矩阵不仅是对节点特征的逐层聚合,也是按照语义层次对特征矩阵的分层池化,各卷积层的特征矩阵保留了图数据的结构信息。应用此方法训练得到的检索模型对查询图数据进行检索时,得到图数据检索结果更加准确。
在本说明书中的编码子模型得到的图数据的图哈希码是对编码特征进行编码得到的,而预测编辑距离也是根据编码特征进行的预测,所以第一预设值与第二预设值对图数据的限定条件相互独立,根据图哈希码得到候选集后,并不影响对候选集中各图数据与查询图数据预测图编辑距离的计算,以预测图编辑距离作为候选集中各图数据是否与查询图数据相似的度量指标,得到检索结果。
上述步骤S110中,为使预测子模型得到的预测编辑距离更加准确,进一步提升检索结果的准确度,可以通过两个图数据之间的相似度的计算,进一步精确预测子模型的输出结果。
图5为本说明书实施例中提供的一种待训练的检索模型的结构示意图,如图5所示,图5中的编码子模型与图4类似,不再赘述,而该预测子模型还包含交互层,该预测子模型以编码子模型两个分支网络各卷积层得到的特征矩阵以及两个分支网络得到的编码特征作为输入,通过两个分支网络中相同卷积层的特征矩阵的相似度以及两个分支网络得到的编码特征的相似度,确定预测图编辑距离。
首先,服务器分别确定两个图数据在各卷积层得到的特征矩阵,将两个图数据在相同层卷积层得到的特征矩阵作为矩阵对。针对每个卷积层,将该卷积层的矩阵对包含的特征矩阵的相似度,作为该卷积层的分层相似特征。
其次,服务器根据各卷积层的分层相似特征,确定局部相似特征。具体的,服务器将各分层相似特征进行拼接,得到局部相似特征。该分层相似特征表征了该卷积层对应的矩阵对包含的两个特征矩阵的相似度,因为特征矩阵代表着图数据在该卷积层的节点特征,所以分层相似特征就是两个图数据在该卷积层的节点级的交互信息。
然后,服务器将两个图数据对应的编码特征输入交互层,通过所述交互层确定两个图数据对应的编码特征之间的相似度,作为全局相似特征。编码特征是拼接了各卷积层输出的图特征得到的结果,所以根据编码特征计算得到的全局相似特征表整了两个图数据之间整体的相似度,即全局相似特征就是两个图数据图级的交互信息。
其中,交互层可以为神经张量网络(Neural Tensor Network,NTN)结构,利用NTN对两个图数据对应的编码特征的相似度进行提取,得到全局相似特征。
最后,服务器将局部相似特征和全局相似特征进行拼接,得到合成特征,将该合成特征输入预测层,得到两个图数据之间的预测图编辑距离。
这样得到的预测图编辑距离,是基于局部相似特征和全局相似特征的得到的,综合了两个图数据的节点级的交互信息和图级的交互信息,得到的预测编辑距离更加准确。
另外,由于输入首层卷积层的特征矩阵是根据图数据的节点特征得到的,而在特征矩阵中对节点的表示是无序的,即,同一个图数据来说,该图数据的节点特征可能会以不同的特征矩阵表示,而输入首层卷积层的特征矩阵的不同可能会影响模型的输出结果。为了避免节点特征表示的无序性对模型输出结果的影响,服务器可以利用直方图的平移不变性对各卷积层的分层相似特征进行直方图特征提取,确定各卷积层的直方图特征,然后,对各直方图特征进行拼接,得到局部相似特征。这样,对于相同的图数据来说,即使是输入首层卷积层的特征矩阵不同,也会得到相同的直方图特征,直方图特征能够更好的体现两个图数据之间相似度。
上述步骤S112中,在确定编码子模型的损失时,只是根据两个图数据的图哈希码距离与真实图编辑距离的差异,这样一来,根据第一损失训练得到的两个图数据的图哈希码,在哈希空间中,只要两个图数据的图哈希码距离近,就会聚合在一起,而哈希码距离相近的两个图哈希码并不一定相似。图哈希码在哈希空间中的分布没有语义结构,忽略了图哈希码在哈希空间中的语义。而两个相似的图数据,不但这两个图数据的哈希编码距离应当相近,也应该被编码成相似的图哈希码,在哈希空间中有相似的语义。
为了使图数据的图哈希码在哈希空间中保留语义,首先,服务器在哈希空间中预设指定数量的聚类中心,每个聚类中心用哈希原型来表示,哈希原型即哈希空间中的语义。
具体的,服务器可以从哈达玛矩阵中采样得到的列向量作为哈希原型。其中,哈达玛矩阵为
,
当时,/>。
其次,服务器根据样本图数据的图哈希码与各聚类中心的距离,确定样本图数据的图哈希码对应于各聚类中心的第一匹配概率,并根据增强图数据的图哈希码与各聚类中心的距离,确定增强图数据的图哈希码对应于各聚类中心的第二匹配概率。
具体的,样本图数据对应于各聚类中心的第一匹配概率可根据如下公式确定:
其中,表示第/>个图数据对中的样本图数据的图哈希码,/>为聚类中心的数量,/>表示第/>个哈希原型,/>表示第/>个图数据对中的样本图数据的图哈希码对应于第/>个哈希原型的第一匹配概率,/>为温度参数。
类似的,增强图数据对应于各聚类中心的第二匹配概率可根据如下公式确定:
其中,表示第/>个图数据对中的增强图数据的图哈希码,/>表示第个图数据对中的增强图数据的图哈希码对应于第/>个哈希原型的第二匹配概率。
然后,服务器以第二匹配概率作为基准,确定第一匹配概率对应于第二匹配概率的交叉熵损失。具体的,第一匹配概率对应于第二匹配概率的交叉熵损失可根据如下公式确定:
之后,服务器以第一匹配概率作为基准,确定第二匹配概率对应于第一匹配概率的交叉熵损失。具体的,第二匹配概率对应于第一匹配概率的交叉熵损失可根据如下公式确定:
再之后,服务器将第一匹配概率对应于第二匹配概率的交叉熵损失和第二匹配概率对应于第一匹配概率的交叉熵损失的均值,作为第三损失。具体的,第三损失可根据如下公式确定:
最后,服务器根据第一损失、第二损失和第三损失,确定该检索模型的损失,并以损失最小为目标训练该检索模型。具体的,损失可根据如下公式确定:
第三损失表征了两个图数据在哈希空间中与各哈希原型的匹配关系,考虑了第三损失训练得到的编码子模型,对于相似的两个图数据生成的图哈希码,将在哈希空间中聚拢于同一个哈希原型,这种聚拢体现了两个相似的图数据在哈希空间中相似的语义。在模型的损失中,加入第三损失后,以损失最小为目标训练得到的检索模型,对图数据进行编码得到的图哈希码体现了在哈希空间中的语义,通过图哈希码就能够很好的体现两个图数据之间的相似性。这样在应用训练完成的检索模型进行图数据的检索时,根据图哈希码距离得到的候选集将会更加准确,进一步提升了该检索模型的准确度。
以上是本说明书提供的基于分层池化图哈希的图数据检索模型训练方法,基于同样的思路,本说明书还提供了相应的基于分层池化图哈希的图数据检索模型训练装置,如图6所示。
图6为本说明书提供的一种基于分层池化图哈希的图数据检索模型训练装置示意图,待训练的检索模型包含编码子模型和预测子模型,所述编码子模型包含卷积层和编码层,所述卷积层包含嵌入子层、分配子层以及输出子层,具体包括:
获取模块200,获取药物化合物的图数据对,并确定所述图数据对包含的两个图数据之间的真实图编辑距离,其中,所述两个图数据为样本图数据以及所述样本图数据的增强图数据,所述样本图数据的各节点与所述药物化合物的构成元素对应,所述样本图数据的边由各元素之间的连接关系确定;
初始卷积模块202,将所述两个图数据,分别输入所述待训练的检索模型的编码子模型,通过所述编码子模型的首层卷积层,确定输入所述首层卷积层的图数据对应的特征矩阵以及邻接矩阵,所述首层卷积层的图数据对应的特征矩阵为对所述药物化合物的分子结构的初步的特征编码,所述首层卷积层得到的邻接矩阵体现所述首层卷积层得到的特征矩阵表征的各元素的连接关系;
卷积模块204,将所述特征矩阵输入所述首层卷积层的输出子层,得到所述首层卷积层输出的图特征,以及将所述邻接矩阵和所述特征矩阵作为输入数据,分别输入所述首层卷积层的嵌入子层以及分配子层,得到所述首层卷积层的嵌入矩阵和分配矩阵;
卷积传输模块206,根据所述首层卷积层的嵌入矩阵、所述首层卷积层的分配矩阵以及所述首层卷积层的邻接矩阵,确定下一层卷积层的特征矩阵以及下一层卷积层的邻接矩阵,继续在所述编码子模型的卷积层进行计算;
图哈希码确定模块208,针对每个图数据,根据所述各卷积层输出的该图数据对应的各图特征,确定该图数据对应的编码特征,并通过所述编码层,对该图数据对应的编码特征进行哈希编码,得到该图数据的图哈希码;
预测模块210,将所述两个图数据对应的编码特征输入所述预测子模型,得到所述两个图数据之间的预测图编辑距离;
损失确定模块212,根据所述两个图数据的图哈希码距离与所述真实图编辑距离之差,以及所述预测图编辑距离与所述真实图编辑距离之差,确定损失,并以损失最小训练所述检索模型,其中,所述检索模型用于响应携带药物化合物的相似性检索请求,确定所述药物化合物对应的查询图数据,根据所述查询图数据的图哈希码,对待召回图数据进行筛选,再通过筛选后的所述待召回图数据与所述查询图数据的预测图编辑距离,确定检索结果,根据所述检索结果中的图数据对应的已知药物的性质,对所述药物化合物的性质进行预测。
可选地,所述初始卷积模块202,具体用于针对每个图数据,根据该图数据的节点特征,确定输入所述首层卷积层的特征矩阵,根据该图数据的各节点连接关系,确定输入所述首层卷积层的邻接矩阵。
可选地,所述卷积传输模块206,具体用于根据所述首层卷积层的嵌入矩阵和所述首层卷积层的分配矩阵的转置矩阵的乘积,确定所述下一层卷积层的特征矩阵,根据所述首层卷积层的邻接矩阵、所述首层卷积层的分配矩阵和所述首层卷积层的分配矩阵的转置矩阵的乘积,确定所述下一层卷积层的邻接矩阵。
可选地,所述预测子模型包含交互层和预测层,所述预测模块210,具体用于分别确定所述两个图数据在各卷积层得到的特征矩阵,将所述两个图数据在相同层卷积层得到的特征矩阵作为矩阵对,针对每个卷积层,将该卷积层的矩阵对包含的特征矩阵的相似度,作为该卷积层的分层相似特征;根据各卷积层的分层相似特征,确定局部相似特征,将所述两个图数据对应的编码特征输入所述交互层,通过所述交互层确定所述两个图数据对应的编码特征之间的相似度,作为全局相似特征,将所述局部相似特征和所述全局相似特征进行拼接,得到合成特征,将所述合成特征输入所述预测层,得到所述两个图数据之间的预测图编辑距离。
可选地,所述预测模块210,具体用于分别对各卷积层的分层相似特征进行直方图特征提取,确定各卷积层的直方图特征,将各卷积层的直方图特征进行拼接,得到所述局部相似特征。
可选地,所述损失确定模块212,具体用于将所述两个图数据的图哈希码距离与所述真实图编辑距离之差,作为第一损失,将所述预测图编辑距离与所述真实图编辑距离之差,作为第二损失,确定在哈希空间中预设的各聚类中心,并根据所述样本图数据的图哈希码与各聚类中心的距离,确定所述样本图数据的图哈希码对应于各聚类中心的第一匹配概率,根据所述增强图数据的图哈希码与各聚类中心的距离,确定所述增强图数据的图哈希码对应于各聚类中心的第二匹配概率,根据所述第一匹配概率和所述第二匹配概率的差异,确定第三损失;根据所述第一损失、所述第二损失和所述第三损失,确定所述损失。
可选地,所述装置还包括检索模块214,所述检索模块214具体用于将所述查询图数据,输入训练完成的检索模型的编码子模型,确定查询图数据的图哈希码,确定所述查询图数据的图哈希码与各待召回图数据的图哈希码距离,将不大于第一预设值的所述图哈希码距离对应的待召回图数据,作为候选图数据,针对每个候选图数据,将该候选图数据与所述查询图数据,分别输入所述训练完成的检索模型,通过所述训练完成的检索模型的预测子模型确定该候选图数据与所述查询图数据的预测图编辑距离,从各候选图数据中,筛选出与所述查询图数据的预测图编辑距离不大于第二预设值的候选图数据,作为检索结果。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的基于分层池化图哈希的图数据检索模型训练方法。
本说明书还提供了图7所示的电子设备的示意结构图。如图7所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的基于分层池化图哈希的图数据检索模型训练方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(ProgrammableLogic Device, PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(HardwareDescription Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(AdvancedBoolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(JavaHardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby HardwareDescription Language)等,目前最普遍使用的是VHDL(Very-High-Speed IntegratedCircuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (9)
1.一种基于分层池化图哈希的图数据检索模型训练方法,其特征在于,待训练的检索模型包含编码子模型和预测子模型,所述编码子模型包含卷积层和编码层,所述卷积层包含嵌入子层、分配子层以及输出子层,所述方法包括:
获取药物化合物的图数据对,并确定所述图数据对包含的两个图数据之间的真实图编辑距离,其中,所述两个图数据为样本图数据以及所述样本图数据的增强图数据,所述样本图数据的各节点与所述药物化合物的构成元素对应,所述样本图数据的边由各元素之间的连接关系确定;
将所述两个图数据,分别输入所述待训练的检索模型的编码子模型,通过所述编码子模型的首层卷积层,确定输入所述首层卷积层的图数据对应的特征矩阵以及邻接矩阵,所述首层卷积层的图数据对应的特征矩阵为对所述药物化合物的分子结构的初步的特征编码,所述首层卷积层得到的邻接矩阵体现所述首层卷积层得到的特征矩阵表征的各元素的连接关系;
将所述特征矩阵输入所述首层卷积层的输出子层,得到所述首层卷积层输出的图特征,以及将所述邻接矩阵和所述特征矩阵作为输入数据,分别输入所述首层卷积层的嵌入子层以及分配子层,得到所述首层卷积层的嵌入矩阵和分配矩阵;
根据所述首层卷积层的嵌入矩阵和所述首层卷积层的分配矩阵的转置矩阵的乘积,确定下一层卷积层的特征矩阵;
根据所述首层卷积层的邻接矩阵、所述首层卷积层的分配矩阵和所述首层卷积层的分配矩阵的转置矩阵的乘积,确定所述下一层卷积层的邻接矩阵,继续在所述编码子模型的卷积层进行计算;
针对每个图数据,根据所述各卷积层输出的该图数据对应的各图特征,确定该图数据对应的编码特征,并通过所述编码层,对该图数据的编码特征进行哈希编码,得到该图数据的图哈希码;
将所述两个图数据对应的编码特征输入所述预测子模型,得到所述两个图数据之间的预测图编辑距离;
根据所述两个图数据的图哈希码距离与所述真实图编辑距离的差异,以及所述预测图编辑距离与所述真实图编辑距离的差异,确定损失,并以损失最小训练所述检索模型;
其中,所述检索模型用于响应携带药物化合物的相似性检索请求,确定所述药物化合物对应的查询图数据,根据所述查询图数据的图哈希码,对待召回图数据进行筛选,再通过筛选后的所述待召回图数据与所述查询图数据的预测图编辑距离,确定检索结果,根据所述检索结果中的图数据对应的已知药物的性质,对所述药物化合物的性质进行预测。
2.如权利要求1所述的方法,其特征在于,通过所述编码子模型的首层卷积层,确定输入所述首层卷积层的图数据对应的特征矩阵以及邻接矩阵,具体包括:
针对每个图数据,根据该图数据的节点特征,确定输入所述首层卷积层的特征矩阵;
根据该图数据的各节点连接关系,确定输入所述首层卷积层的邻接矩阵。
3.如权利要求1所述的方法,其特征在于,所述预测子模型包含交互层和预测层;
将所述两个图数据对应的编码特征输入所述预测子模型,得到所述两个图数据之间的预测图编辑距离,具体包括:
分别确定所述两个图数据在各卷积层得到的特征矩阵,将所述两个图数据在相同层卷积层得到的特征矩阵作为矩阵对;
针对每个卷积层,将该卷积层的矩阵对包含的特征矩阵的相似度,作为该卷积层的分层相似特征;
根据各卷积层的分层相似特征,确定局部相似特征;
将所述两个图数据对应的编码特征输入所述交互层,通过所述交互层确定所述两个图数据对应的编码特征之间的相似度,作为全局相似特征;
将所述局部相似特征和所述全局相似特征进行拼接,得到合成特征,将所述合成特征输入所述预测层,得到所述两个图数据之间的预测图编辑距离。
4.如权利要求3所述的方法,其特征在于,根据各卷积层的分层相似特征,确定局部相似特征,具体包括:
分别对各卷积层的分层相似特征进行直方图特征提取,确定各卷积层的直方图特征;
将各卷积层的直方图特征进行拼接,得到所述局部相似特征。
5.如权利要求1所述的方法,其特征在于,根据所述两个图数据的图哈希码距离与所述真实图编辑距离的差异,以及所述预测图编辑距离与所述真实图编辑距离的差异,确定损失,具体包括:
将所述两个图数据的图哈希码距离与所述真实图编辑距离之差,作为第一损失,将所述预测图编辑距离与所述真实图编辑距离之差,作为第二损失;
确定在哈希空间中预设的各聚类中心,并根据所述样本图数据的图哈希码与各聚类中心的距离,确定所述样本图数据的图哈希码对应于各聚类中心的第一匹配概率,根据所述增强图数据的图哈希码与各聚类中心的距离,确定所述增强图数据的图哈希码对应于各聚类中心的第二匹配概率;
根据所述第一匹配概率和所述第二匹配概率的差异,确定第三损失;
根据所述第一损失、所述第二损失和所述第三损失,确定所述损失。
6.如权利要求1所述的方法,其特征在于,根据所述查询图数据的图哈希码,对各待召回图数据进行筛选,再通过筛选后的所述待召回图数据与所述查询图数据的预测图编辑距离,确定检索结果,具体包括:
将所述查询图数据,输入训练完成的检索模型的编码子模型,确定查询图数据的图哈希码;
确定所述查询图数据的图哈希码与各待召回图数据的图哈希码距离,将不大于第一预设值的所述图哈希码距离对应的待召回图数据,作为候选图数据;
针对每个候选图数据,将该候选图数据与所述查询图数据,输入所述训练完成的检索模型,通过所述训练完成的检索模型的预测子模型,确定该候选图数据与所述查询图数据的预测图编辑距离;
从各候选图数据中,筛选出与所述查询图数据的预测图编辑距离不大于第二预设值的候选图数据,作为检索结果。
7.一种基于分层池化图哈希的图数据检索模型训练装置,其特征在于,待训练的检索模型包含编码子模型和预测子模型,所述编码子模型包含卷积层和编码层,所述卷积层包含嵌入子层、分配子层以及输出子层,所述装置包括:
获取模块,获取药物化合物的图数据对,并确定所述图数据对包含的两个图数据之间的真实图编辑距离,其中,所述两个图数据为样本图数据以及所述样本图数据的增强图数据,所述样本图数据的各节点与所述药物化合物的构成元素对应,所述样本图数据的边由各元素之间的连接关系确定;
初始卷积模块,将所述两个图数据,分别输入所述待训练的检索模型的编码子模型,通过所述编码子模型的首层卷积层,确定输入所述首层卷积层的图数据对应的特征矩阵以及邻接矩阵,所述首层卷积层的图数据对应的特征矩阵为对所述药物化合物的分子结构的初步的特征编码,所述首层卷积层得到的邻接矩阵体现所述首层卷积层得到的特征矩阵表征的各元素的连接关系;
卷积模块,将所述特征矩阵输入所述首层卷积层的输出子层,得到所述首层卷积层输出的图特征,以及将所述邻接矩阵和所述特征矩阵作为输入数据,分别输入所述首层卷积层的嵌入子层以及分配子层,得到所述首层卷积层的嵌入矩阵和分配矩阵;
卷积传输模块,根据所述首层卷积层的嵌入矩阵和所述首层卷积层的分配矩阵的转置矩阵的乘积,确定下一层卷积层的特征矩阵,根据所述首层卷积层的邻接矩阵、所述首层卷积层的分配矩阵和所述首层卷积层的分配矩阵的转置矩阵的乘积,确定所述下一层卷积层的邻接矩阵,继续在所述编码子模型的卷积层进行计算;
图哈希码确定模块,针对每个图数据,根据所述各卷积层输出的该图数据对应的各图特征,确定该图数据对应的编码特征,并通过所述编码层,对该图数据对应的编码特征进行哈希编码,得到该图数据的图哈希码;
预测模块,将所述两个图数据对应的编码特征输入所述预测子模型,得到所述两个图数据之间的预测图编辑距离;
损失确定模块,根据所述两个图数据的图哈希码距离与所述真实图编辑距离之差,以及所述预测图编辑距离与所述真实图编辑距离之差,确定损失,并以损失最小训练所述检索模型,其中,所述检索模型用于响应携带药物化合物的相似性检索请求,确定所述药物化合物对应的查询图数据,根据所述查询图数据的图哈希码,对待召回图数据进行筛选,再通过筛选后的所述待召回图数据与所述查询图数据的预测图编辑距离,确定检索结果,根据所述检索结果中的图数据对应的已知药物的性质,对所述药物化合物的性质进行预测。
8.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~6任一项所述的方法。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~6任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311673951.0A CN117391150B (zh) | 2023-12-07 | 2023-12-07 | 一种基于分层池化图哈希的图数据检索模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311673951.0A CN117391150B (zh) | 2023-12-07 | 2023-12-07 | 一种基于分层池化图哈希的图数据检索模型训练方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117391150A CN117391150A (zh) | 2024-01-12 |
CN117391150B true CN117391150B (zh) | 2024-03-12 |
Family
ID=89466906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311673951.0A Active CN117391150B (zh) | 2023-12-07 | 2023-12-07 | 一种基于分层池化图哈希的图数据检索模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117391150B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110688502A (zh) * | 2019-09-09 | 2020-01-14 | 重庆邮电大学 | 一种基于深度哈希和量化的图像检索方法及存储介质 |
CN111400555A (zh) * | 2020-03-05 | 2020-07-10 | 湖南大学 | 图数据查询任务处理方法、装置、计算机设备和存储介质 |
WO2020147857A1 (zh) * | 2019-01-18 | 2020-07-23 | 上海极链网络科技有限公司 | 海量视频特征提取以及存储和检索方法及系统 |
CN113449802A (zh) * | 2021-07-09 | 2021-09-28 | 中国人民解放军国防科技大学 | 基于多粒度互信息最大化的图分类方法及装置 |
CN113886607A (zh) * | 2021-10-14 | 2022-01-04 | 哈尔滨工业大学(深圳) | 基于图神经网络的哈希检索方法、装置、终端及存储介质 |
CN114417986A (zh) * | 2022-01-11 | 2022-04-29 | 平安科技(深圳)有限公司 | 基于人工智能的药物特征信息确定方法及装置 |
CN114492567A (zh) * | 2021-12-21 | 2022-05-13 | 成都量子矩阵科技有限公司 | 一种基于Sim-GNN的法律领域图编辑距离的估算方法 |
CN114511708A (zh) * | 2022-01-18 | 2022-05-17 | 北京工业大学 | 基于节点级嵌入特征三维关系重建的图数据相似度方法 |
CN115457638A (zh) * | 2022-09-29 | 2022-12-09 | 中国农业银行股份有限公司 | 模型训练方法、数据检索方法、装置、设备及存储介质 |
WO2023000574A1 (zh) * | 2021-07-21 | 2023-01-26 | 浪潮(北京)电子信息产业有限公司 | 一种模型训练方法、装置、设备及可读存储介质 |
CN116894979A (zh) * | 2023-08-01 | 2023-10-17 | 太原理工大学 | 基于有监督自适应软聚类分层池化算子的图分类方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230128876A1 (en) * | 2022-08-03 | 2023-04-27 | Infrrd Inc | System for optimizing training dataset |
-
2023
- 2023-12-07 CN CN202311673951.0A patent/CN117391150B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020147857A1 (zh) * | 2019-01-18 | 2020-07-23 | 上海极链网络科技有限公司 | 海量视频特征提取以及存储和检索方法及系统 |
CN110688502A (zh) * | 2019-09-09 | 2020-01-14 | 重庆邮电大学 | 一种基于深度哈希和量化的图像检索方法及存储介质 |
CN111400555A (zh) * | 2020-03-05 | 2020-07-10 | 湖南大学 | 图数据查询任务处理方法、装置、计算机设备和存储介质 |
CN113449802A (zh) * | 2021-07-09 | 2021-09-28 | 中国人民解放军国防科技大学 | 基于多粒度互信息最大化的图分类方法及装置 |
WO2023000574A1 (zh) * | 2021-07-21 | 2023-01-26 | 浪潮(北京)电子信息产业有限公司 | 一种模型训练方法、装置、设备及可读存储介质 |
CN113886607A (zh) * | 2021-10-14 | 2022-01-04 | 哈尔滨工业大学(深圳) | 基于图神经网络的哈希检索方法、装置、终端及存储介质 |
CN114492567A (zh) * | 2021-12-21 | 2022-05-13 | 成都量子矩阵科技有限公司 | 一种基于Sim-GNN的法律领域图编辑距离的估算方法 |
CN114417986A (zh) * | 2022-01-11 | 2022-04-29 | 平安科技(深圳)有限公司 | 基于人工智能的药物特征信息确定方法及装置 |
WO2023134061A1 (zh) * | 2022-01-11 | 2023-07-20 | 平安科技(深圳)有限公司 | 基于人工智能的药物特征信息确定方法及装置 |
CN114511708A (zh) * | 2022-01-18 | 2022-05-17 | 北京工业大学 | 基于节点级嵌入特征三维关系重建的图数据相似度方法 |
CN115457638A (zh) * | 2022-09-29 | 2022-12-09 | 中国农业银行股份有限公司 | 模型训练方法、数据检索方法、装置、设备及存储介质 |
CN116894979A (zh) * | 2023-08-01 | 2023-10-17 | 太原理工大学 | 基于有监督自适应软聚类分层池化算子的图分类方法 |
Non-Patent Citations (5)
Title |
---|
Qin, Zongyue等.GHashing: Semantic Graph Hashing for Approximate Similarity Search in Graph Databases. KDD '20: PROCEEDINGS OF THE 26TH ACM SIGKDD INTERNATIONAL CONFERENCE ON KNOWLEDGE DISCOVERY & DATA MINING.2020,全文. * |
一种有效深度哈希图像拷贝检测算法;刘琴;袁家政;刘宏哲;李兵;王佳颖;叶子;;计算机应用与软件;20200312(第03期);全文 * |
图卷积算法的研究进展;郑睿刚;陈伟福;冯国灿;;中山大学学报(自然科学版);20200315(第02期);全文 * |
图数据库中的相似性搜索问题研究;李昱杭;中国优秀硕士学位论文全文数据库 基础科学辑;20210915;全文 * |
基于图模型的图像检索方法研究;方远强;中国优秀硕士学位论文全文数据库 信息科技辑;20210115;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117391150A (zh) | 2024-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109508879B (zh) | 一种风险的识别方法、装置及设备 | |
CN112598128B (zh) | 一种模型训练以及联机分析处理方法及装置 | |
CN116703531B (zh) | 物品数据处理方法、装置、计算机设备和存储介质 | |
KR20220070482A (ko) | 이미지 증분 클러스터링 방법, 장치, 전자 기기, 저장 매체 및 프로그램 제품 | |
CN111723227B (zh) | 基于人工智能和互联网的数据分析方法及云计算服务平台 | |
CN115357609B (zh) | 物联网数据的处理方法、装置、设备和介质 | |
Gao et al. | Key-frame selection for automatic summarization of surveillance videos: a method of multiple change-point detection | |
CN115828162A (zh) | 一种分类模型训练的方法、装置、存储介质及电子设备 | |
CN117252183B (zh) | 一种基于语义的多源表格自动匹配方法、装置及存储介质 | |
CN116757278B (zh) | 一种预测模型的训练方法、装置、存储介质及电子设备 | |
CN112613072B (zh) | 基于档案大数据的信息管理方法、管理系统及管理云平台 | |
CN116186330B (zh) | 一种基于多模态学习的视频去重方法及装置 | |
CN116303625B (zh) | 一种数据查询的方法、装置、存储介质及电子设备 | |
CN117409466A (zh) | 一种基于多标签控制的三维动态表情生成方法及装置 | |
CN117391150B (zh) | 一种基于分层池化图哈希的图数据检索模型训练方法 | |
CN114792256B (zh) | 基于模型选择的人群扩量方法及装置 | |
CN116363418A (zh) | 一种训练分类模型的方法、装置、存储介质及电子设备 | |
CN115374298A (zh) | 基于索引的虚拟形象数据处理方法及装置 | |
CN111242195B (zh) | 模型、保险风控模型训练方法、装置及电子设备 | |
CN110880005B (zh) | 向量索引建立方法及装置和向量检索方法及装置 | |
CN116340469B (zh) | 一种同义词挖掘方法、装置、存储介质及电子设备 | |
CN113204664B (zh) | 一种图像聚类方法及装置 | |
CN116186035A (zh) | 一种数据查询方法、装置、存储介质及电子设备 | |
CN116910372A (zh) | 信息推送模型处理方法和装置、信息推送方法和装置 | |
CN116597348A (zh) | 视频分类模型的训练方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |