CN111414802A - 蛋白质数据特征提取方法 - Google Patents

蛋白质数据特征提取方法 Download PDF

Info

Publication number
CN111414802A
CN111414802A CN202010106311.1A CN202010106311A CN111414802A CN 111414802 A CN111414802 A CN 111414802A CN 202010106311 A CN202010106311 A CN 202010106311A CN 111414802 A CN111414802 A CN 111414802A
Authority
CN
China
Prior art keywords
dimensional
protein
matrix
model
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010106311.1A
Other languages
English (en)
Other versions
CN111414802B (zh
Inventor
魏志强
聂婕
刘安安
聂为之
苏育挺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao National Laboratory for Marine Science and Technology Development Center
Original Assignee
Qingdao National Laboratory for Marine Science and Technology Development Center
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao National Laboratory for Marine Science and Technology Development Center filed Critical Qingdao National Laboratory for Marine Science and Technology Development Center
Priority to CN202010106311.1A priority Critical patent/CN111414802B/zh
Publication of CN111414802A publication Critical patent/CN111414802A/zh
Application granted granted Critical
Publication of CN111414802B publication Critical patent/CN111414802B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/10Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种蛋白质数据特征提取方法,包括以下步骤:(1)、对蛋白质的原始三维模型进行预处理,得到预处理三维模型;(2)、获取预处理三维模型的多个二维视图,提取各所述二维视图的图像特征矩阵,将所有的图像特征矩阵进行融合,得到蛋白质的二维特征矩阵;(3)、获取蛋白质的三维特征矩阵;(4)、将蛋白质的二维特征矩阵和三维特征矩阵进行融合计算,得到蛋白质数据特征矩阵。本发明的方法通过提取蛋白质的二维视图特征信息和三维模型空间结构信息,使得对蛋白质的外形特征描述更加全面。通避免了仅采用二维提取特征信息不完整,能够保证计算蛋白质模型相似度的科学性和准确性。

Description

蛋白质数据特征提取方法
技术领域
本发明属于数据处理技术领域,具体地说,涉及一种蛋白质数据特征提取方法。
背景技术
蛋白质分子的数据库迅速增加,由于蛋白质在溶液中显示出多种可能的构象,因此形状相似性和同一性的检测在药物发现过程和疾病的分子特性中具有生物学相关性。因此学习如何表示和突出蛋白质三维模型的特征对医疗领域和生物领域都具有重要意义。
目前蛋白质特征的提取方法主要分为两种,一种是基于三维立体模型的蛋白质特征提取方法,一种是基于多视图的蛋白质特征提取方法。
在基于三维立体模型的蛋白质特征提取方法中,蛋白质被描述为基于模型的特征,例如体积描述符、表面分布和表面几何特征。基于模型的方法的一个优点是它们可以保存蛋白质的全局空间信息。虽然基于模型的方法是有效的,但它们明确需要蛋白质立体模型信息,且特征提取采用三维卷积计算量大。
在基于多视图的蛋白质特征提取方法中,蛋白质模型特征被表示成一组不同方向上的二维图像特征的组合。基于视图的方法受益于现有的图像处理和匹配技术。这些方法使得立体对象检索更灵活,因为它们不需要立体模型信息。与基于模型的方法相比,基于视图的方法的一个缺点是很难描述不同视图之间的空间关系,而蛋白质微小的空间差异就会导致蛋白质性质很大的差别。
发明内容
本发明针对现有技术中蛋白质特征提取方式单采用三维立体模型提取存在计算量大、采用二维特征提取时精度不高,容易丢失空间信息的技术问题,提出了一种蛋白质数据特征提取方法,可以解决上述问题。
为实现上述发明目的,本发明采用下述技术方案予以实现:
一种蛋白质数据特征提取方法,包括以下步骤:
(1)、对蛋白质的原始三维模型进行预处理,包括数据类型转换和数据大小标准化,得到预处理三维模型;
(2)、获取预处理三维模型的多个二维视图,提取各所述二维视图的图像特征矩阵,将所有的图像特征矩阵进行融合,得到蛋白质的二维特征矩阵;
(3)、对预处理三维模型进行特征提取,获取蛋白质的三维特征矩阵;
(4)、将蛋白质的二维特征矩阵和三维特征矩阵进行融合计算,得到蛋白质数据特征矩阵。
进一步的,步骤(1)中对蛋白质的原始三维模型进行预处理方法包括:将原始三维模型转换为可视化读取文件,以及将原始三维模型的数据大小进行缩小或者放大,转换为设定的标准值。
进一步的,步骤(2)中所获取的二维视图至少覆盖所述预处理三维模型的全部外表面,各二维视图的大小相等。
进一步的,步骤(2)中提取各所述二维视图的图像特征矩阵的方法为:利用卷积神经网络分别提取所述二维视图的图像特征矩阵。
进一步的,步骤(2)中将所有的图像特征矩阵进行融合的方法为:将所有图像特征矩阵中同一位置的值进行比较,找出最大值作为该位置的值,得到一个二维矩阵即为蛋白质的二维特征矩阵。
进一步的,步骤(3)中蛋白质的三维特征矩阵的获取方法为:
(31)、将预处理三维模型映射到离散的体素坐标中,构建蛋白质的体素占用网格模型;
(32)、对所述体素占用网格模型进行特征提取,得到蛋白质的三维特征矩阵。
进一步的,步骤(31)中构建蛋白质的体素占用网格模型包括二进制占用网格、密度占用网格以及击中占用网格三种,步骤(32)中分别对三种占用网格进行特征提取,得到各占用网格所对应的立体特征矩阵,将所有的立体特征矩阵进行融合计算,得到蛋白质的三维特征矩阵。
进一步的,步骤(32)中对占用网格采用具有三维卷积核的卷积神经网络进行特征提取。
进一步的,步骤(32)中将所有的立体特征矩阵进行融合计算的方法为:将所有立体特征矩阵中同一位置的值进行比较,找出最大值作为该位置的值,得到一个三维矩阵即为蛋白质的三维特征矩阵。
进一步的,步骤(4)中将蛋白质的二维特征矩阵和三维特征矩阵进行融合计算包括:
分别对所述二维特征矩阵和三维特征矩阵进行卷积计算,得到两组向量,将所述两组向量拼接,得到蛋白质数据特征矩阵。
与现有技术相比,本发明的优点和积极效果是:
1、本发明的方法通过提取蛋白质的二维视图特征信息和三维模型空间结构信息,使得对蛋白质的外形特征描述更加全面。
2、本发明的方法通避免了仅采用二维提取特征信息不完整,能够保证计算蛋白质模型相似度的科学性和准确性;同时避免了仅采用三维提取特征信息导致计算量大以及对蛋白质三维模型依赖性高的问题。将二维视图特征信息和三维模型空间结构特征结合来更加全面的表征蛋白质,提高了对蛋白质模型分类和检索的准确性。
结合附图阅读本发明的具体实施方式后,本发明的其他特点和优点将变得更加清楚。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1 是本发明提出的蛋白质数据特征提取方法的一种实施例流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下将结合附图和实施例,对本发明作进一步详细说明。
实施例一
如图1所示,本实施例的蛋白质数据特征提取方法包括以下步骤:
S1、对蛋白质的原始三维模型进行预处理,包括数据类型转换和数据大小标准化,得到预处理三维模型;
蛋白质的原始三维模型在构建时尺寸不统一以及所选取的比例大小不一致,且描述每个原子的三维位置多采用pdb格式文件和描述蛋白质分子表面多采用off格式文件,这些文件不利于特征提取。因此,本步骤通过原始文件转换为方便处理的数据类型文件,以及通过将数据大小标准化处理,便于统一处理。
S2、获取预处理三维模型的多个二维视图,提取各所述二维视图的图像特征矩阵,将所有的图像特征矩阵进行融合,得到蛋白质的二维特征矩阵;
二维视图具有计算量小,图像特征的提取和匹配更加灵活的优点,因此,本方法中通过获取蛋白质的二维特征,以获取描述蛋白质的单个紧凑特征描述。
S3、对预处理三维模型进行特征提取,获取蛋白质的三维特征矩阵;
三维模型可以描述不同视图之间的空间关系,而蛋白质微小的空间差异就会导致蛋白质性质很大的差别。例如两个蛋白质分子结构相似,仅仅是键角和键长的微小差异,仅仅一种特征表示是不够全面的,所以将三维特征表示加上二维特征表示,更加全面和精准。
S4、将蛋白质的二维特征矩阵和三维特征矩阵进行融合计算,得到蛋白质数据特征矩阵。
步骤S1中对蛋白质的原始三维模型进行预处理方法包括:将原始三维模型转换为可视化读取文件,以及将原始三维模型的数据大小进行缩小或者放大,转换为设定的标准值。本实施例中,将以pdb格式文件和off格式文件的蛋白质数据集通过meshlab批量转化为.obj格式文件,以利于后面对蛋白质模型的操作和特征提取。
步骤S2中所获取的二维视图至少覆盖预处理三维模型的全部外表面,各二维视图的大小相等。
处理过程中,从渲染引擎生成蛋白质的的多个二维视图,相当于采用虚拟相机对预处理三维模型进行旋转拍照,根据拍照视角,例如可每间隔30°提取一张视图,共拍得12个二维视图。假设输入形状沿着一致的轴(例如,z轴)竖直定向。现代在线存储库中的大多数模型(例如3D模型库)满足此要求,并且一些先前的识别方法也遵循相同的假设。在这种情况下,通过每隔30度在网格周围放置12个虚拟摄像机来创建12个渲染视图。摄像机从地平面抬高30度,指向网格的质心。质心计算为网格面中心的加权平均值,其中权重是面部区域。
三维模型存储为多边形网格,使用以Phong映射模型为核心的渲染引擎将多边形网格生成蛋白质的渲染视图。为了创建多视图的特征描述符,需要设置视点(虚拟摄像机)来生成渲染视图。
步骤S2中提取各二维视图的图像特征矩阵的方法为:利用卷积神经网络分别提取二维视图的图像特征矩阵。在提取原始三维模型的多个二维视图后,利用卷积神经网络(CNN)分别提取上述12个二维视图的特征。
通过提取每个二维视图的图像特征,使用包含视图池层的统一CNN(卷积神经网络)架构来组合来自多个二维视图的信息,以产生描述蛋白质的单个紧凑特征描述符。
在提取三维模型的多视图后,利用卷积神经网络(CNN)分别提取上述12个二维视图的特征。卷积神经网络在大型数据集上训练后,已被证明能够学习常见的图像描述符,用于许多视觉检测任务,如物体检测、场景识别、纹理识别和细化等。实验表明,这些深度结构可以提取图像的各种特征,包括三维物体的投影图、线条图和手绘草图等。对于卷积神经网络的选取,本实施例采用VGG-M卷积神经网络。VGG-M是一种深度卷积神经网络。该卷积神经网络主要由5个卷积层(Conv1,2,3,4,5)、3个全连接层(Fc6、7、8)和一个SoftMax分类层组成。整个神经网络使用相同大小的卷积核3×3和最大池化2×2。该神经网络结构简单,泛化能力强,可用于提取图像特征。
为了从三维模型中融合多视角特征信息,本方法中引入了视图合并层,也即将所有的图像特征矩阵进行融合,视图合并层可以将三维模型的多个二维视图中的信息组合成紧凑的对象特征。
步骤S2中将所有的图像特征矩阵进行融合的方法为:将所有图像特征矩阵中同一位置的值进行比较,找出最大值作为该位置的值,得到一个二维矩阵即为蛋白质的二维特征矩阵。
步骤S3中蛋白质的三维特征矩阵的获取方法为:
S31、将预处理三维模型映射到离散的体素坐标中,构建蛋白质的体素占用网格模型;
S32、对所述体素占用网格模型进行特征提取,得到蛋白质的三维特征矩阵。
步骤S3通过将蛋白质预处理三维模型转化为对空间占用率的估计的体素网格,实现基于三维立体结构的特征提取。
步骤S31中构建蛋白质的体素占用网格模型包括二进制占用网格、密度占用网格以及击中占用网格三种,步骤S32中分别对三种占用网格进行特征提取,得到各占用网格所对应的立体特征矩阵,将所有的立体特征矩阵进行融合计算,得到蛋白质的三维特征矩阵。
构建直接从体素占用网格模型提取特征的三维卷积核的卷积神经网络,将通过蛋白质的不同体素占用模型生成的网格所提取的特征进行融合以表示蛋白质的立体模型特征,具体为:
在三维模型表示中,构成蛋白质的每个点
Figure RE-DEST_PATH_IMAGE001
被映射到离散的体素坐标。映射是均匀离散化,但取决于空间中体素网格的原点,方向和分辨率。体素化蛋白质的外观在很大程度上取决于这些参数。
对于体素坐标轴的原点,可以作为输入给出,例如通过分割算法获得或由滑动框给出。
对于体素坐标轴的方向,假设网格框架的z轴大致与重力方向对齐。
对于体素坐标轴的分辨率,使用固定的空间分辨率,在本实施例中,使用大小为
Figure RE-RE-DEST_PATH_IMAGE002
体素的固定占用网格。
确定好原点、方向、分辨率这些初始参数后,构建蛋白质体素化占用网格模型。
步骤S32中对占用网格采用具有三维卷积核的卷积神经网络进行特征提取。
步骤S32中将所有的立体特征矩阵进行融合计算的方法为:将所有立体特征矩阵中同一位置的值进行比较,找出最大值作为该位置的值,得到一个三维矩阵即为蛋白质的三维特征矩阵。
其中,在二进制占用网格模型中,假设每个体素具有二进制状态,占用或未占用。对于每个体素的占用率的概率估计是用数值稳定性的对数几率计算的。
在密度占用网格模型中假设每一个体素有一个持续的密度,与体素阻挡传感器光束的概率相对应。
击中占用网格模型只考虑击中,并忽略未知空间和自由空间之间的差异。尽管这个模型丢弃了一些具有潜在价值的信息,但在我们的实验中它的性能特别的好。此外,它不需要光线跟踪,这在计算受限的情况下非常有用。
过有以下类型层构成的卷积神经网络,对上述占用网格模型提取的体素网格进行特征提取,最后融合三个模型的特征作为蛋白质的立体模型特征。
输入层,这个层接受固定大小为
Figure RE-DEST_PATH_IMAGE003
体素的网格。在实验中,我们使用
Figure RE-RE-DEST_PATH_IMAGE004
。由于取决于占用率模型,每个网格点的每一个值要分别通过等式1,等式2或者等式3进行更新。在三个模型中,我们减去0.5再乘以2,使输入在 (-1,1) 范围中。
卷积层
Figure RE-DEST_PATH_IMAGE005
,这些层接受四维输入量,其中三个维度表示空间,第四个维度包含特征映射。这层通过将输入与结构为的学习滤波器得到
Figure RE-RE-DEST_PATH_IMAGE006
特性映射。其中
Figure RE-DEST_PATH_IMAGE007
表示空间维度,是输入特征映射的数目。卷积也可以应用于空间步幅
Figure RE-RE-DEST_PATH_IMAGE008
池化层,这些层通过将每个不重叠的体素块替换为其最大值,沿空间尺寸将输入体积缩小m倍。
全连接层,全连接层有n个输出神经元。每个神经元的输出是前一层所有输出的学习线性组合,通过非线性传递。其中输出的数量对应于类标签的数量,并且使用SoftMax非线性变换来提供概率输出。
步骤S4中将蛋白质的二维特征矩阵和三维特征矩阵进行融合计算包括:
分别对所述二维特征矩阵和三维特征矩阵进行卷积计算,得到两组向量,将所述两组向量拼接,得到蛋白质数据特征矩阵。
最后将提取的蛋白质的视图特征和立体模型特征结合来更加全面的表征蛋白质。
以上实施例仅用以说明本发明的技术方案,而非对其进行限制;尽管参照前述实施例对本发明进行了详细的说明,对于本领域的普通技术人员来说,依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本发明所要求保护的技术方案的精神和范围。

Claims (10)

1.一种蛋白质数据特征提取方法,其特征在于,包括以下步骤:
(1)、对蛋白质的原始三维模型进行预处理,包括数据类型转换和数据大小标准化,得到预处理三维模型;
(2)、获取预处理三维模型的多个二维视图,提取各所述二维视图的图像特征矩阵,将所有的图像特征矩阵进行融合,得到蛋白质的二维特征矩阵;
(3)、对预处理三维模型进行特征提取,获取蛋白质的三维特征矩阵;
(4)、将蛋白质的二维特征矩阵和三维特征矩阵进行融合计算,得到蛋白质数据特征矩阵。
2.根据权利要求1所述的蛋白质数据特征提取方法,其特征在于,步骤(1)中对蛋白质的原始三维模型进行预处理方法包括:将原始三维模型转换为可视化读取文件,以及将原始三维模型的数据大小进行缩小或者放大,转换为设定的标准值。
3.根据权利要求1所述的蛋白质数据特征提取方法,其特征在于,步骤(2)中所获取的二维视图至少覆盖所述预处理三维模型的全部外表面,各二维视图的大小相等。
4.根据权利要求1所述的蛋白质数据特征提取方法,其特征在于,步骤(2)中提取各所述二维视图的图像特征矩阵的方法为:利用卷积神经网络分别提取所述二维视图的图像特征矩阵。
5.根据权利要求1所述的蛋白质数据特征提取方法,其特征在于,步骤(2)中将所有的图像特征矩阵进行融合的方法为:将所有图像特征矩阵中同一位置的值进行比较,找出最大值作为该位置的值,得到一个二维矩阵即为蛋白质的二维特征矩阵。
6.根据权利要求1所述的蛋白质数据特征提取方法,其特征在于,步骤(3)中蛋白质的三维特征矩阵的获取方法为:
(31)、将预处理三维模型映射到离散的体素坐标中,构建蛋白质的体素占用网格模型;
(32)、对所述体素占用网格模型进行特征提取,得到蛋白质的三维特征矩阵。
7.根据权利要求6所述的蛋白质数据特征提取方法,其特征在于,步骤(31)中构建蛋白质的体素占用网格模型包括二进制占用网格、密度占用网格以及击中占用网格三种,步骤(32)中分别对三种占用网格进行特征提取,得到各占用网格所对应的立体特征矩阵,将所有的立体特征矩阵进行融合计算,得到蛋白质的三维特征矩阵。
8.根据权利要求7所述的蛋白质数据特征提取方法,其特征在于,步骤(32)中对占用网格采用具有三维卷积核的卷积神经网络进行特征提取。
9.根据权利要求7所述的蛋白质数据特征提取方法,其特征在于,步骤(32)中将所有的立体特征矩阵进行融合计算的方法为:将所有立体特征矩阵中同一位置的值进行比较,找出最大值作为该位置的值,得到一个三维矩阵即为蛋白质的三维特征矩阵。
10.根据权利要求1-9任一项所述的蛋白质数据特征提取方法,其特征在于,步骤(4)中将蛋白质的二维特征矩阵和三维特征矩阵进行融合计算包括:
分别对所述二维特征矩阵和三维特征矩阵进行卷积计算,得到两组向量,将所述两组向量拼接,得到蛋白质数据特征矩阵。
CN202010106311.1A 2020-02-21 2020-02-21 蛋白质数据特征提取方法 Active CN111414802B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010106311.1A CN111414802B (zh) 2020-02-21 2020-02-21 蛋白质数据特征提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010106311.1A CN111414802B (zh) 2020-02-21 2020-02-21 蛋白质数据特征提取方法

Publications (2)

Publication Number Publication Date
CN111414802A true CN111414802A (zh) 2020-07-14
CN111414802B CN111414802B (zh) 2023-06-27

Family

ID=71490885

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010106311.1A Active CN111414802B (zh) 2020-02-21 2020-02-21 蛋白质数据特征提取方法

Country Status (1)

Country Link
CN (1) CN111414802B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537409A (zh) * 2021-09-13 2021-10-22 烟台双塔食品股份有限公司 一种豌豆蛋白数据特征提取方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104134188A (zh) * 2014-07-29 2014-11-05 湖南大学 一种基于二维和三维摄像机融合的三维视觉信息获取方法
CN107633486A (zh) * 2017-08-14 2018-01-26 成都大学 基于三维全卷积神经网络的结构磁共振图像去噪方法
CN109118564A (zh) * 2018-08-01 2019-01-01 湖南拓视觉信息技术有限公司 一种基于融合体素的三维点云标记方法和装置
WO2019077494A1 (en) * 2017-10-16 2019-04-25 King Abdullah University Of Science And Technology SYSTEM, APPARATUS AND METHOD FOR PREDICTING EC NUMBER OF ENZYME BASED ON DEEP LEARNING SEQUENCE
CN110019914A (zh) * 2018-07-18 2019-07-16 王斌 一种支持三维场景交互的三维模型数据库检索方法
CN110458957A (zh) * 2019-07-31 2019-11-15 浙江工业大学 一种基于神经网络的图像三维模型构建方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104134188A (zh) * 2014-07-29 2014-11-05 湖南大学 一种基于二维和三维摄像机融合的三维视觉信息获取方法
CN107633486A (zh) * 2017-08-14 2018-01-26 成都大学 基于三维全卷积神经网络的结构磁共振图像去噪方法
WO2019077494A1 (en) * 2017-10-16 2019-04-25 King Abdullah University Of Science And Technology SYSTEM, APPARATUS AND METHOD FOR PREDICTING EC NUMBER OF ENZYME BASED ON DEEP LEARNING SEQUENCE
CN110019914A (zh) * 2018-07-18 2019-07-16 王斌 一种支持三维场景交互的三维模型数据库检索方法
CN109118564A (zh) * 2018-08-01 2019-01-01 湖南拓视觉信息技术有限公司 一种基于融合体素的三维点云标记方法和装置
CN110458957A (zh) * 2019-07-31 2019-11-15 浙江工业大学 一种基于神经网络的图像三维模型构建方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MINGJIAN JIANG: "FRSite: Protein drug binding site prediction based on faster ReCNN" *
田晓彬: "融合深度和浅层特征的多视角癫痫检测算法" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537409A (zh) * 2021-09-13 2021-10-22 烟台双塔食品股份有限公司 一种豌豆蛋白数据特征提取方法
CN113537409B (zh) * 2021-09-13 2022-01-25 烟台双塔食品股份有限公司 一种豌豆蛋白数据特征提取方法

Also Published As

Publication number Publication date
CN111414802B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
CN108509848B (zh) 三维物体的实时检测方法及系统
Xie et al. Point clouds learning with attention-based graph convolution networks
Li et al. Multi-scale neighborhood feature extraction and aggregation for point cloud segmentation
CN111627065A (zh) 一种视觉定位方法及装置、存储介质
CN112990010B (zh) 点云数据处理方法、装置、计算机设备和存储介质
Wang et al. A novel GCN-based point cloud classification model robust to pose variances
CN113159232A (zh) 一种三维目标分类、分割方法
CN111179433A (zh) 目标物体的三维建模方法及装置、电子设备、存储介质
Zou et al. A novel 3D model retrieval approach using combined shape distribution
WO2024060395A1 (zh) 一种基于深度学习的高精度点云补全方法及装置
Sveier et al. Object detection in point clouds using conformal geometric algebra
Wang et al. Multi-view dual attention network for 3D object recognition
CN113628329B (zh) 一种零样本草图三维点云检索方法
Lai et al. 2D3D-MVPNet: Learning cross-domain feature descriptors for 2D-3D matching based on multi-view projections of point clouds
Ma et al. 3D convolutional auto-encoder based multi-scale feature extraction for point cloud registration
Wang et al. Multi-view attention-convolution pooling network for 3D point cloud classification
CN114638866A (zh) 一种基于局部特征学习的点云配准方法及系统
CN111414802B (zh) 蛋白质数据特征提取方法
Gonzalez-Aguilera et al. From point cloud to CAD models: Laser and optics geotechnology for the design of electrical substations
Liu et al. Deep learning of directional truncated signed distance function for robust 3D object recognition
Wu et al. MSGCN: a multiscale spatio graph convolution network for 3D point clouds
CN111597367A (zh) 基于视图和哈希算法的三维模型检索方法
Cao et al. Stable image matching for 3D reconstruction in outdoor
Hu et al. V2PNet: Voxel-to-point feature propagation and fusion that improves feature representation for point cloud registration
Afolabi et al. Extending deepsdf for automatic 3d shape retrieval and similarity transform estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: 266000 No.1 weiwenhai Road, Aoshan, Jimo, Qingdao, Shandong Province

Applicant after: Qingdao Marine Science and Technology Center

Address before: 266000 No.1 weiwenhai Road, Aoshan, Jimo, Qingdao, Shandong Province

Applicant before: QINGDAO NATIONAL LABORATORY FOR MARINE SCIENCE AND TECHNOLOGY DEVELOPMENT CENTER

GR01 Patent grant
GR01 Patent grant