CN111209879A - 基于深度圈视图的无监督3d物体识别与检索方法 - Google Patents

基于深度圈视图的无监督3d物体识别与检索方法 Download PDF

Info

Publication number
CN111209879A
CN111209879A CN202010029065.4A CN202010029065A CN111209879A CN 111209879 A CN111209879 A CN 111209879A CN 202010029065 A CN202010029065 A CN 202010029065A CN 111209879 A CN111209879 A CN 111209879A
Authority
CN
China
Prior art keywords
circle
view
data
depth
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010029065.4A
Other languages
English (en)
Other versions
CN111209879B (zh
Inventor
匡振中
杨结
俞俊
郭志强
张鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202010029065.4A priority Critical patent/CN111209879B/zh
Publication of CN111209879A publication Critical patent/CN111209879A/zh
Application granted granted Critical
Publication of CN111209879B publication Critical patent/CN111209879B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种基于深度圈视图的无监督3D物体识别与检索方法。本发明包括如下步骤:步骤1、多圈数据采样;步骤2、训练基于圈数据的多视图深度网络模型;步骤3、相似性匹配与检索;利用训练好的多视图深度网络模型提取各圈视图的特征,并对所有圈视图进行相似性距离计算;通过采用最大池化、均值池化、注意力池化以及最优匹配的方式优化多视图深度网络模型;基于相似性距离,进行排序检索;步骤4、采取圈特征过滤和圈注意力策略滤除重要性低于指定阈值的圈特征,从而在保证识别精度的同时有效减少计算量。本发明提出了新的二维视图采集渲染方式并用其进行无监督训练,在不采用任何人工标注的情况下依然获得了可观的检索精度。

Description

基于深度圈视图的无监督3D物体识别与检索方法
技术领域
本发明涉及一种基于无监督的3D物体识别与检索技术,通过全新的3D数据渲染方式采集出深度圈视图数据,并创造性的进行无监督训练。涉及随机混合,最优匹配,圈特征过滤等相关优化检索性能的技术。
背景技术
随着3D数据采集的方式和设备不断的升级,越来越多的3D数据出现在我们的生活之中,在诸多应用中都需要处理3D数据,如无人驾驶,VR虚拟现实。因此关于3D数据的识别与检索成为了当下的研究热点。回顾一些经典的3D数据识别与检索的办法,可以分为两种,一是基于点云的系列方法,二是基于多视图的方法。
基于点云的方法。点云数据是一种无网格的非结构化数据,它是分布在空间中的一系列xyz点。这些点在空间上分布不规则,彼此之间没有联系。因此将点云用于深度学习具有很大的挑战性。在点云上应用深度学习的直接方法是将数据转换为体积表示,例如体素网格。这样我们就可以用3D滤波器来训练一个CNN。(网格提供了结构,网格的转换解决了排列问题,体素的数量也是不变的)。但是,这有一些不利因素,因体积数据变得非常大,导致处理训练的时间过长。而当采用较低的分辨率去处理时又将带来很大的量化误差。PointNet,创造性的在每个点上训练了一个MLP(在各点之间分享权重)。每个点被“投影”到一个1024维空间。然后,他们用点对称函数解决了点云顺序问题。在PointNet之后不久,引入了Pointnet++,它本质上是PointNet的分层版本。每个图层都有三个子阶段:采样,分组和PointNet层。在第一阶段,选择质心,在第二阶段,把他们周围的邻近点(在给定的半径内)创建多个子点云。然后他们将它们给到一个PointNet网络,并获得这些子点云的更高维表示。然后,他们重复这个过程(样本质心,找到他们的邻居和Pointnet的更高阶的表示,以获得更高维表示)。PointNet++这种分层设计能够更高效,稳健地处理点集,获得更佳的效果。
基于多视图的方法,通过在不同角度,视点放置摄像机,采集出同一模型的不同视点下的多张视图来表征原3D模型。这其中,最典型的便是MVCNN,MVCNN将渲染出的多张视图输入共享权重的cnn模型中,最后以一个Max-Pooling将得到的特征进行融合。之后,人们又提出了GVCNN,通过神经网络自动学习多张视图之间的关系并对它们进行打分然后分组融合,这种分组融合的方法有效的解决了多张视图之间的顺序问题,减少了Max-pooling融合的片面性。SeqViews2SeqLabels则提出一种新奇的视图融合方式,它创造性的采用了递归循环神经网络去融合多视图,并引入了seq2seq模型的self attention去衡量各视图的重要性。这种方法不光保留了各视图的语义信息,同时也保留了各视图之间的空间信息。
以上方法虽然已经取得了很好的分类与检索效果,但是无论是在数据采集方面还是进行人工标注方面,都需要耗费巨大的人力和财力。首先,3D数据一般以off文件格式存储,并不能直接展示其具体内容,所以在打标签时需要专业人员将其转化为多视图格式或者点云格式,转化为点云还需要再额外处理点云数据将其可视化。可见3D数据在人工标注上耗时耗力。为了解决以上问题,我们首次在3D领域提出无监督训练的方法,避免了大量的人工标注并取得了不错的分类检索效果。
发明内容
本发明的目的在于针对现有技术的不足,提出一种基于深度圈视图的无监督3D物体识别与检索方法。
本发明解决实现无监督训练所采用的技术方案包括以下步骤:
步骤1、多圈数据采样;
1-1.给定一个分配有唯一标签的3D模型,围绕其过圆心的截面旋转一圈并等间隔采样得到一圈序列化多视图数据;如此等间隔均匀旋转多圈,即可得到分配有唯一标签的多圈视图数据;
1-2.以每个3D模型为基本单位,获取多个分配有唯一标签的多圈视图数据,记为数据集S,表示为S={S1,S2,...,Si,...,Sn},其中n表示为模型的个数;
步骤2、训练基于圈数据的多视图深度网络模型;
将获取的分配有唯一标签的多圈视图数据按对取出,随机混合输入多视图深度网络模型(例如MVCNN和GVCNN)进行训练;
步骤3、相似性匹配与检索;
利用训练好的多视图深度网络模型提取各圈视图的特征,并对所有圈视图进行相似性距离计算;通过采用最大池化、均值池化、注意力池化以及最优匹配的方式优化多视图深度网络模型;基于相似性距离,进行排序检索;
步骤4、圈特征过滤与融合;
采取圈特征过滤和圈注意力策略滤除重要性低于指定阈值的圈特征,从而在保证识别精度的同时有效减少计算量。
本发明有益效果如下:
本发明公开了基于圈视图的无监督的3D物体识别与检索技术。该方法的优点在于提出了新的二维视图采集渲染方式并用其进行无监督训练,在不采用任何人工标注的情况下依然获得了可观的检索精度。极大的节省了人工标注成本。
本发明采取圈特征过滤和圈注意力策略滤除重要性较低的圈特征,可以在保证识别精度的同时有效减少计算量。
附图说明
图1为本发明流程图;
图2为本发明深度圈特征评分网络图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1和2所示,基于深度圈视图的无监督3D物体识别与检索方法,具体实现过程如下:
步骤1、多圈数据采样。
1-3.给定一个分配有唯一标签的3D模型,围绕其过圆心的截面旋转一圈并等间隔采样得到一圈序列化多视图数据;如此等间隔均匀旋转多圈,即可得到分配有唯一标签的多圈视图数据;
1-4.以每个3D模型为基本单位,获取多个分配有唯一标签的多圈视图数据,记为数据集S,表示为S={S1,S2,...,Si,...,Sn},其中n表示为模型的个数;
步骤2、训练基于圈数据的多视图深度网络模型。
将获取的分配有唯一标签的多圈视图数据按对取出,随机混合输入多视图深度网络模型(例如MVCNN和GVCNN)进行训练。
步骤3、相似性匹配与检索。
利用训练好的多视图深度网络模型提取各圈视图的特征,并对所有圈视图进行相似性距离计算;通过采用最大池化、均值池化、注意力池化以及最优匹配的方式优化多视图深度网络模型。基于相似性距离,进行排序检索。
步骤4、圈特征过滤与融合。
采取圈特征过滤和圈注意力策略滤除重要性低于指定阈值的圈特征,从而在保证识别精度的同时有效减少计算量。
以下结合附图对本发明作进一步详细描述。
步骤1中对多圈视图数据分配唯一的标签,具体实现如下:
将每个模型看作一类并分配唯一的标签。将Modelnet10数据集的4899个模型看作是4899个类别,进行4899路分类,即可以以无监督的方式随机为每个模型分配1个唯一的标签。同样地,在Modelnet40数据集可以上进行12311路分类。
步骤2中将数据随机混合方法,具体如下:
2-1.从数据集S={S1,S2,...,Sn}中任意两个模型中随机取出一个圈视图,组成一对圈视图数据vi和uj,其中vi和uj属于不同的模型,分别具有唯一标记符号yi和yj。其中i表示模型中的第i个圈视图数据;j表示模型中的第j个圈视图数据;
2-2.根据给出的圈视图数据vi和uj,按以下公式将二者进行数据和标签混合:
v=vi·α+uj·(1-α); (1)
y=yi·α+yj·(1-α); (2)
其中,v、y分别表示混合后的圈视图数据和标签;α∈[0,1]为随机生成的混合比率。
然后,将混合后的圈视图数据和标签作为多视图深度网络模型的输入,采用KL散度损失函数学习网络参数:
Figure BDA0002363609910000051
其中,p(x)表示样本的真实分布,q(x)表示我们的方法预测出来的概率分布。
利用训练好的多视图深度网络模型提取各圈视图的特征,并对所有圈视图进行相似性距离计算;通过采用最大池化、均值池化、注意力池化以及最优匹配的方式优化多视图深度网络模型。基于相似性距离,进行排序检索。
步骤3中所述的最优匹配和池化方法,具体如下:
3-1.3D模型相似性匹配度量:
3-1-1.计算一对圈视图数据vi和uj对应的特征
Figure BDA0002363609910000054
Figure BDA0002363609910000055
之间的距离d1,其中特征为多视图深度网络模型最后一层输出;
3-1-2.选取数据集S中任意一个圈视图vk和单个3D模型s′之间的距离d2,其中将在每个3D模型上采样多个圈视图序列;
3-1-2.定义两个3D模型s1和s2之间的最优匹配距离d3
Figure BDA0002363609910000052
Figure BDA0002363609910000053
Figure BDA0002363609910000061
其中,n1指代数据集S中某一个3D模型中圈视图的圈数。
3-2.通过最大池化、平均池化和注意力池化分别将提取出的多圈视图数据的特征进行融合,获取融合特征Ⅰ、融合特征Ⅱ和融合特征Ⅲ;再将融合特征Ⅰ、融合特征Ⅱ和融合特征Ⅲ通过欧式距离计算,从而度量两个模型之间的相似性。
所述的圈视数据特征为多视图深度网络模型最后一层输出。
步骤4中的圈视数据特征的过滤和圈注意力融合的方法,具体如下:
4-1.设计一种能够给各圈特征评分的深度圈特征评分网络,其流程如附图文件图2所示,具体深度圈特征评分网络如下:
4-1.深度圈特征评分网络:
4-1-1.使用多视图深度网络模型的最后一层提取出来的特征作为深度圈特征评分网络的输入,为1536维的圈视图特征向量;
4-1-2.通过一层全连接层(FC1),使大小为2048维向量;
4-1-3.通过一层全连接层(FC2),使大小为2048维向量;
4-1-4.将4-1-3层出来的特征连接起来,并输入1x1卷积层、全连接层(FC4)、标准化层(norm)得出每一圈视图特征的分值;
4-1-5.将各圈视图特征与分值对应相乘并求和的结果输入到Softmax分类器进行分类训练。
通过深度圈特征评分网络得到每个圈视图数据特征的重要性评分并对评分进行排序,其中分值越小则越重要。
4-2.依据评分过滤出前
Figure BDA0002363609910000062
个关键的圈视图数据特征,计算基于最优匹配的相似性距离,实现精度保持的加速计算。
所述的评分公式如下,其中θ是FC4层的输出:
α=Sigmoid(log(|θ|))
所述的圈视图数据特征的过滤有两种方式:一是通过评分去过滤FC3层输出的深度圈视图数据特征;另一种是过滤FC1层输出的深度圈视图数据特征;
4-3.过滤后将选出m个圈视图数据特征,其中m<n,n是指原有圈视图特征总数,接着进行欧氏距离相似性计算,过滤使得计算量从n×n下降到m×m,节省了大量的计算时间。
4-4.圈注意力融合是通过深度圈特征评分网络打分,将多个圈视图数据特征依据分值进行加权求和融合,然后进行欧式距离计算。加权融合的公式如下:
Figure BDA0002363609910000071
其中,θ指代3D模型融合后的最终特征;θk指圈视图数据特征,αk指每个圈视图数据特征的重要性分值。

Claims (5)

1.基于深度圈视图的无监督3D物体识别与检索方法,其特征在于包括如下步骤:
步骤1、多圈数据采样;
1-1.给定一个分配有唯一标签的3D模型,围绕其过圆心的截面旋转一圈并等间隔采样得到一圈序列化多视图数据;如此等间隔均匀旋转多圈,即可得到分配有唯一标签的多圈视图数据;
1-2.以每个3D模型为基本单位,获取多个分配有唯一标签的多圈视图数据,记为数据集S,表示为S={S1,S2,...,Si,...,Sn},其中n表示为模型的个数;
步骤2、训练基于圈数据的多视图深度网络模型;
将获取的分配有唯一标签的多圈视图数据按对取出,随机混合输入多视图深度网络模型(例如MVCNN和GVCNN)进行训练;
步骤3、相似性匹配与检索;
利用训练好的多视图深度网络模型提取各圈视图的特征,并对所有圈视图进行相似性距离计算;通过采用最大池化、均值池化、注意力池化以及最优匹配的方式优化多视图深度网络模型;基于相似性距离,进行排序检索;
步骤4、圈特征过滤与融合;
采取圈特征过滤和圈注意力策略滤除重要性低于指定阈值的圈特征,从而在保证识别精度的同时有效减少计算量。
2.根据权利要求1所述的基于深度圈视图的无监督3D物体识别与检索方法,其特征在于步骤1中对多圈视图数据分配唯一的标签,具体实现如下:
将每个模型看作一类并分配唯一的标签;将Modelnet10数据集的4899个模型看作是4899个类别,进行4899路分类,即以无监督的方式随机为每个模型分配1个唯一的标签;同样地,在Modelnet40数据集上进行12311路分类。
3.根据权利要求2所述的基于深度圈视图的无监督3D物体识别与检索方法,其特征在于步骤2中将数据随机混合方法,具体如下:
2-1.从数据集S={S1,S2,...,Sn}中任意两个模型中随机取出一个圈视图,组成一对圈视图数据vi和uj,其中vi和uj属于不同的模型,分别具有唯一标记符号yi和yj;其中i表示模型中的第i个圈视图数据;j表示模型中的第j个圈视图数据;
2-2.根据给出的圈视图数据vi和uj,按以下公式将二者进行数据和标签混合:
v=vi·α+uj·(1-α); (1)
y=yi·α+yj·(1-α); (2)
其中,v、y分别表示混合后的圈视图数据和标签;α∈[0,1]为随机生成的混合比率;
然后,将混合后的圈视图数据和标签作为多视图深度网络模型的输入,采用KL散度损失函数学习网络参数:
Figure FDA0002363609900000021
其中,p(x)表示样本的真实分布,q(x)表示我们的方法预测出来的概率分布;
利用训练好的多视图深度网络模型提取各圈视图的特征,并对所有圈视图进行相似性距离计算;通过采用最大池化、均值池化、注意力池化以及最优匹配的方式优化多视图深度网络模型;基于相似性距离,进行排序检索。
4.根据权利要求3所述的基于深度圈视图的无监督3D物体识别与检索方法,其特征在于步骤3中所述的最优匹配和池化方法,具体如下:
3-1.3D模型相似性匹配度量:
3-1-1.计算一对圈视数据vi和uj对应的特征
Figure FDA0002363609900000022
Figure FDA0002363609900000023
之间的距离d1,其中特征为多视图深度网络模型最后一层输出;
3-1-2.选取数据集S中任意一个圈视图vk和单个3D模型s′之间的距离d2,其中将在每个3D模型上采样多个圈视图序列;
3-1-2.定义两个3D模型s1和s2之间的最优匹配距离d3
Figure FDA0002363609900000031
Figure FDA0002363609900000032
Figure FDA0002363609900000033
其中,n1指代数据集S中某一个3D模型中圈视图的圈数;
3-2.通过最大池化、平均池化和注意力池化分别将提取出的多圈视图数据的特征进行融合,获取融合特征Ⅰ、融合特征Ⅱ和融合特征Ⅲ;再将融合特征Ⅰ、融合特征Ⅱ和融合特征Ⅲ通过欧式距离计算,从而度量两个模型之间的相似性;
所述的圈视数据特征为多视图深度网络模型最后一层输出。
5.根据权利要求4所述的基于深度圈视图的无监督3D物体识别与检索方法,其特征在于步骤4中的圈视数据特征的过滤和圈注意力融合的方法,具体如下:
4-1.设计一种能够给各圈特征评分的深度圈特征评分网络,其流程如附图文件图2所示,具体深度圈特征评分网络如下:
4-1.深度圈特征评分网络:
4-1-1.使用多视图深度网络模型的最后一层提取出来的特征作为深度圈特征评分网络的输入,为1536维的圈视图特征向量;
4-1-2.通过一层全连接层(FC1),使大小为2048维向量;
4-1-3.通过一层全连接层(FC2),使大小为2048维向量;
4-1-4.将4-1-3层出来的特征连接起来,并输入1x1卷积层、全连接层(FC4)、标准化层(norm)得出每一圈视图特征的分值;
4-1-5.将各圈视图特征与分值对应相乘并求和的结果输入到Softmax分类器进行分类训练;
通过深度圈特征评分网络得到每个圈视图数据特征的重要性评分并对评分进行排序,其中分值越小则越重要;
4-2.依据评分过滤出前
Figure FDA0002363609900000034
个关键的圈视图数据特征,计算基于最优匹配的相似性距离,实现精度保持的加速计算;
所述的评分公式如下,其中θ是FC4层的输出:
α=Sigmoid(log(|θ|))
所述的圈视图数据特征的过滤有两种方式:一是通过评分去过滤FC3层输出的深度圈视图数据特征;另一种是过滤FC1层输出的深度圈视图数据特征;
4-3.过滤后将选出m个圈视图数据特征,其中m<n,n是指原有圈视图特征总数,接着进行欧氏距离相似性计算,过滤使得计算量从n×n下降到m×m,节省了大量的计算时间;
4-4.圈注意力融合是通过深度圈特征评分网络打分,将多个圈视图数据特征依据分值进行加权求和融合,然后进行欧式距离计算;加权融合的公式如下:
Figure FDA0002363609900000041
其中,θ指代3D模型融合后的最终特征;θk指圈视图数据特征,αk指每个圈视图数据特征的重要性分值。
CN202010029065.4A 2020-01-12 2020-01-12 基于深度圈视图的无监督3d物体识别与检索方法 Active CN111209879B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010029065.4A CN111209879B (zh) 2020-01-12 2020-01-12 基于深度圈视图的无监督3d物体识别与检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010029065.4A CN111209879B (zh) 2020-01-12 2020-01-12 基于深度圈视图的无监督3d物体识别与检索方法

Publications (2)

Publication Number Publication Date
CN111209879A true CN111209879A (zh) 2020-05-29
CN111209879B CN111209879B (zh) 2023-09-19

Family

ID=70790065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010029065.4A Active CN111209879B (zh) 2020-01-12 2020-01-12 基于深度圈视图的无监督3d物体识别与检索方法

Country Status (1)

Country Link
CN (1) CN111209879B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113077434A (zh) * 2021-03-30 2021-07-06 零氪智慧医疗科技(天津)有限公司 基于多模态信息的肺癌识别方法、装置及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4965725A (en) * 1988-04-08 1990-10-23 Nueromedical Systems, Inc. Neural network based automated cytological specimen classification system and method
CN107066559A (zh) * 2017-03-30 2017-08-18 天津大学 一种基于深度学习的三维模型检索方法
US20180247107A1 (en) * 2015-09-30 2018-08-30 Siemens Healthcare Gmbh Method and system for classification of endoscopic images using deep decision networks
US20180276528A1 (en) * 2015-12-03 2018-09-27 Sun Yat-Sen University Image Retrieval Method Based on Variable-Length Deep Hash Learning
CN110263697A (zh) * 2019-06-17 2019-09-20 哈尔滨工业大学(深圳) 基于无监督学习的行人重识别方法、装置及介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4965725A (en) * 1988-04-08 1990-10-23 Nueromedical Systems, Inc. Neural network based automated cytological specimen classification system and method
US4965725B1 (en) * 1988-04-08 1996-05-07 Neuromedical Systems Inc Neural network based automated cytological specimen classification system and method
US20180247107A1 (en) * 2015-09-30 2018-08-30 Siemens Healthcare Gmbh Method and system for classification of endoscopic images using deep decision networks
US20180276528A1 (en) * 2015-12-03 2018-09-27 Sun Yat-Sen University Image Retrieval Method Based on Variable-Length Deep Hash Learning
CN107066559A (zh) * 2017-03-30 2017-08-18 天津大学 一种基于深度学习的三维模型检索方法
CN110263697A (zh) * 2019-06-17 2019-09-20 哈尔滨工业大学(深圳) 基于无监督学习的行人重识别方法、装置及介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113077434A (zh) * 2021-03-30 2021-07-06 零氪智慧医疗科技(天津)有限公司 基于多模态信息的肺癌识别方法、装置及存储介质

Also Published As

Publication number Publication date
CN111209879B (zh) 2023-09-19

Similar Documents

Publication Publication Date Title
CN108491880B (zh) 基于神经网络的物体分类和位姿估计方法
CN112308158B (zh) 一种基于部分特征对齐的多源领域自适应模型及方法
CN110321910B (zh) 面向点云的特征提取方法、装置及设备
Li et al. SHREC’14 track: Extended large scale sketch-based 3D shape retrieval
CN109671102B (zh) 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN106126585B (zh) 基于质量分级与感知哈希特征组合的无人机图像检索方法
CN103366180A (zh) 一种基于自动特征学习的细胞图像分割方法
CN111488917A (zh) 一种基于增量学习的垃圾图像细粒度分类方法
CN105046272B (zh) 一种基于简洁非监督式卷积网络的图像分类方法
CN114092697B (zh) 注意力融合全局和局部深度特征的建筑立面语义分割方法
CN112633382A (zh) 一种基于互近邻的少样本图像分类方法及系统
CN105868706A (zh) 一种基于稀疏自编码的三维模型识别方法
CN113870160B (zh) 一种基于变换器神经网络的点云数据处理方法
CN111401156A (zh) 基于Gabor卷积神经网络的图像识别方法
Özyurt et al. UC-Merced image classification with CNN feature reduction using wavelet entropy optimized with genetic algorithm
CN104598898B (zh) 一种基于多任务拓扑学习的航拍图像快速识别系统及其快速识别方法
CN113052254A (zh) 多重注意力幽灵残差融合分类模型及其分类方法
CN107451617B (zh) 一种图转导半监督分类方法
CN111125396B (zh) 一种单模型多分支结构的图像检索方法
CN114510594A (zh) 一种基于自注意力机制的传统纹样子图检索方法
CN106355210A (zh) 基于深度神经元响应模式的绝缘子红外图像特征表达方法
CN109508640A (zh) 一种人群情感分析方法、装置和存储介质
CN114743133A (zh) 一种轻量化的小样本视频分类识别方法及系统
CN113989291A (zh) 一种基于PointNet与RANSAC算法的建筑物屋顶平面分割方法
CN111209879B (zh) 基于深度圈视图的无监督3d物体识别与检索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant