CN105488785B - 一种基于视觉词典的深度图生成方法 - Google Patents
一种基于视觉词典的深度图生成方法 Download PDFInfo
- Publication number
- CN105488785B CN105488785B CN201510820941.4A CN201510820941A CN105488785B CN 105488785 B CN105488785 B CN 105488785B CN 201510820941 A CN201510820941 A CN 201510820941A CN 105488785 B CN105488785 B CN 105488785B
- Authority
- CN
- China
- Prior art keywords
- depth
- depth map
- image
- class
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视觉词典的深度图生成方法。该方法首先训练视觉词典,然后以视觉词典为工具,生成2D图像的深度图。视觉词典训练包括:1、采用图像‑深度图对作为目标图像库;2、对目标图像库的深度图进行随机块采样,得到深度图块样本集;3、对样本集进行k均值聚类;4、对每一类,通过交叉验证训练,得到具有相似的深度图结构视觉单词;5、视觉词典由各个视觉单词组成。深度图生成步骤包括:1、生成初始深度图;2、基于视觉词典对2D图像进行检测,更新初始深度图;3、深度图平滑。本发明所得的深度图,可用于2D到3D的转换等,对比已有的深度图生成方法,本发明具有适用场景广阔,转换效果较符合人们观景感受等优点。
Description
技术领域
本发明涉及数字图像处理和计算机视觉领域,特别涉及一个基于视觉词典的深度图生成方法。
背景技术
随着3D电影、电视的兴起和普及,人们对于3D影视作品的需求日益增加。然而,现有的3D电影制作过程复杂且成本较高,需要大量的人力物力,所生产的3D影视数量远远无法满足人们的需求。因此,利用2D转3D技术,把现有的2D影视资源转化为3D,成为解决3D片源不足的一个重要手段。
2D转3D技术涉及的主要问题是如何从单幅图像中提取深度图。现有的深度图生成算法主要分为三类:手动,半自动,全自动。人工生成深度图的方法虽然可以获得非常符合人眼观感的深度图,但需要大量的人工成本;半自动的方法虽然可以减少人工的参与,但是对比起海量的2D资源来说,过于耗费时间和人力。因此,全自动的深度图生成方法无疑是最节省时间与人力成本的方式,受到研究人员的关注,成为近年来的研究热点。
现阶段的全自动深度图生成方法通常可以分为两个类型:基于深度线索的方法和基于机器学习的方法。其中,基于深度线索的深度图生成方法通常利用例如线性透视、聚焦散焦等特性进行深度恢复,并产生具有一定效果的3D图,运用在了一些实际的产品当中。但是,这些线索与深度没有必然的联系(如在高清相机下的图片聚焦散焦不明显),或者对场景有较严格的要求(如线性透视要求目标图像存在明显的直线线索),所以这些方法的通用性十分不理想,发展潜力有限。也有一些方法融合了几种深度线索,产生更好的3D效果,但无法消除这些固有限制。另一全自动方法是基于机器学习的深度图生成方法,通常首先建立机器学习模型,然后让模型利用一些已有的深度图库(包含图像-深度对)进行学习,学习生成的模型可以用于2D转3D算法中。基于机器学习的深度图生成方法的通用性较高,对目标场景没有太多限制,是开发通用深度图生成算法的一个重要思路。现阶段的基于机器学习的深度图生成方法也存在转换时间较长的缺点,准确性也有待提高。本发明针对现有技术的不足和限制,利用深度图像库和机器学习技术,训练出视觉词典,视觉词典生成后,即可作为工具用于生成具有较高质量的深度图,对比已有的深度图生成方法,具有适用场景广阔,用于2D到3D的转换,转换效果较符合人们观景感受等优点。
发明内容
本发明针对现有深度图生成技术中存在的效果不理想,算法通用性不足等缺点,提供一种基于视觉词典的深度图生成方案,该方法利用现有的深度图库,通过机器学习算法,学习到视觉单词词典,使用词典对目标图像进行深度图恢复,所得深度图可用于3D转换。
本发明通过以下技术方案实现。
一种基于视觉词典的深度图生成方法,包括视觉词典训练阶段和深度图生成阶段,
所述视觉词典训练阶段包括如下步骤:
(1)获得训练数据集,包括目标场景的图像集即目标图像集D,和负样本图像集N;目标图像集D由图像-深度图对组成,负样本图像集N由不属于目标场景的图像组成;
(2)初始化步骤:
(2.1)把目标图像集D分为相等数量的两部分D1和D2,把负样本图像集N分为相等数量的两部分N1和N2;
(2.2)对D1中的深度图进行随机块采样,采样方法如下:对D1中每一幅深度图,分别建立高斯金字塔,然后在金字塔的每一层进行随机采样,采样数与该层的尺度成正比;所得的样本集合表示为S;
(2.3)对(2.2)中得到的样本集合S进行数据整理,剔除高度重合的深度图块及不包含结构信息的平坦深度图块,得到最终的样本集合S;
(3)对最终的样本集合S进行k均值(k-means)聚类,聚类的类数目设置为S中的数量的1/2,去掉类内深度图块数目少于3的类后,所得类集合表示为K1,K1的下标1表示该类集合来自于D1中的深度图块;
(4)交叉训练阶段,对于K1中的每一个类K1i,其中K1i的下标i表示类序号,采用交叉验证的方式,分别执行如下训练步骤:
(4.1)训练分类器,用N1作为负样本集合,类K1i内的深度图块作为正样本,为类K1i训练SVM线性分类器C1i;
(4.2)交叉验证,对D2中每一幅深度图,用C1i进行多尺度目标检测;得到正响应样本集合K2i,其中下标2表示为该类是D2中深度块组成的,i为类序号;若K2i内深度图块个数小于2,则该类不是一个视觉单词,结束迭代;否则,继续步骤(4.3);
(4.3)训练分类器,用N2作为负样本集合,类K2i内的图像块为正样本,为K2i训练SVM线性分类器C2i;
(4.4)交叉验证,对D1中每一幅深度图,用C2i进行多尺度目标检测;得到正响应样本集合K1i,若K1i内深度图块个数小于2,则该类不是一个视觉单词,结束迭代;否则,继续步骤(4.5);
(4.5)判断是否满足收敛条件:当满足收敛条件或迭代次数大于等于预设值,则结束迭代,到步骤(4.6);否则,返回(4.1),继续迭代过程;
(4.6)合并K1i和K2i,得到具有相似结构的深度图块类Ki;
(4.7)获得视觉单词:在目标图像集D中,截取Ki中的每一个深度图块所对应的图像块,构成Ki对应的图像块类Gi即RGB图像块类,Gi即为一个视觉单词,其对应的深度由Ki的加权平均得到,加权值为SVM分类权重;
(4.8)用N作为负样本集合,分别为Gi训练SVM线性分类器Ci,Ci能用于对视觉单词Gi的检测;
(5)获得视觉词典,经过(4)的迭代训练后,得到由多个视觉单词Gi组成的词典G,G中的每一个视觉单词包含了对应的深度图和分类器,应用视觉词典对2D图像进行视觉单词检测,进而恢复深度图;
所述深度图生成阶段包括如下步骤:
对于给定的2D图像,使用以下步骤生成深度图:
(a)生成初始深度图De,De的分辨率与2D图像相同,坐标(i, j)处的深度值De由以下公式给出:
式中,rows为De的行数,d表示深度图量化比特数;
(b)生成深度图,基于视觉词典,采用SVM检测器对2D图像进行检测,若检测出视觉单词,则用该视觉单词的深度块取代De中的对应区域;
(c)深度图平滑,对(b)中得到的深度图进行双边滤波,得到最终的深度图。
上述基于视觉词典的深度图生成方法中,步骤(a)所述深度图量化比特数d典型值为8,即深度值的范围为0~255。
上述基于视觉词典的深度图生成方法中,视觉词典中的视觉单词,定义为具有相似深度结构的图像块集合。在步骤(2.2)中,通过对深度图建立图像金字塔,然后在图像金字塔中以相应比例进行采样,即图像金字塔的底层的尺度越大,则采样越大数目的深度图块;相应地,越往顶层,采样的数目就越少。
上述基于视觉词典的深度图生成方法中,正、负样本集都分为相等数量的两部分,并使用交叉迭代的训练方法,训练得到包含对应深度的视觉单词,组成视觉词典。采样过程和交叉验证训练都在深度图内进行,保证了视觉单词是具有相似深度的图像块。每个视觉单词的对应深度图块,是在训练阶段对类内深度图块通过SVM权值加权平均所得的。
本发明与现有技术比较,具有如下优点和有益效果:
1、本发明利用现有的图像-深度图对库,训练出具有对应深度块的视觉单词,可用于2D转3D中,所得深度图和3D图较符合人眼观感。
2、本发明的深度图生成算法适用场景较广,对2D图像的属性没有特殊要求,只要有足够的图像-深度图对训练数据,就可以训练出词汇量丰富的视觉词典,转换效果随词汇量的丰富而提高。
3、本发明的视觉词典训练方法,也可根据相应的2D图像场景类型,选用训练数据集,训练出具有特定作用的视觉词典,完成不同的任务。
4、本发明的算法并行度较好,可以采用相应并行技术,加速词典训练过程。
5、本发明的视觉词典训练和2D转3D过程都无需人工参与,可以节省人力成本。
附图说明
图1是本发明的视觉词典训练过程的流程图;
图2是本发明用视觉单词词典进行2D转3D的流程图。
具体实施方法
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式和保护不限于此,需指出的是,以下若有未特别详细说明之过程或术语,均是本领域技术人员可参照现有技术理解或实现的。
如图1与图2,一种基于视觉词典的深度图生成方法详述如下。
视觉词典训练阶段:
(1)获得训练数据集,正样本图像集D由1449幅室内图像-深度图对组成,负样本图像集N由3000幅室外图像组成;
(2)初始化步骤:
(2.1)将正样本集D分为相等数量两部分D1、D2,把负样本集分为相等数量的两部分N1,N2,如在本例中,D1包含724幅图像,D2包含725幅图像;而N1和N2则各包含1500幅室外图像;
(2.2)采样,首先对D1中每一幅深度图建立高斯金字塔,高斯方差σ=1.6,由两层组成,层内深度图大小相同;第二层深度图为第一层深度图大小的1/2;然后,分别在金字塔的每一层进行随机块采样,总采样为300个深度图块,每层的样本比例为1:0.5,得到的所有深度图块集合表示为S;
(2.3)整理样本集合,采用像素余弦距离,阈值设为,剔除S中高度重合的深度图块;采用图像块方差,阈值设为,剔除S中平坦的深度图块;整理后的S约包含10万个深度图块;
(3)聚类,对S进行k均值(k-means)聚类,聚类的类数目设置为S的数量的1/2,去掉类内图像块数目少于3的类后,所得类集合表示为K1,(下标1表示该类集合来自D1中的图像块);
(4)交叉训练阶段,对于K1中的每一个类K1i(下标i表示类序号),使用交叉验证的方式,分别执行如下训练步骤:
(4.1)为K1i训练SVM线性分类器C1i:在N1随机采样6000个图像块,作为负样本,K1i中包含的深度图块作为正样本,训练SVM线性分类器,得到C1i(下标1表示由D1中的样本训练所得,i表示分类器编号);
(4.2)交叉验证,对D2中每一幅深度图,分别用C1i进行多尺度目标检测,得到正响应样本集合K2i(下标2表示为该类由D2中图像块组成的,i为类序号),若K2i中深度图块个数小于2,则该类不是一个视觉单词,结束迭代;否则,继续步骤(4.3);
(4.3)为K2i训练SVM线性分类器C2i:在N2随机采样6000个图像块,作为负样本集合,K2i中包含的深度图块作为正样本,训练SVM线性分类器,得到C2i;
(4.4)交叉验证,对D1中每一幅深度图,用C2i进行多尺度目标检测,得到正响应样本集合K1i,若K1i中深度图块个数小于2,则该类不是一个视觉单词,结束迭代;否则,继续步骤(4.5);
(4.5)判断是否满足收敛条件:当满足收敛条件或迭代次数大于等于预设值时,结束迭代,转到步骤(4.6);否则,返回(4-1),继续迭代过程;
(4.6)合并K1i和K2i,得到具有相似结构的深度图块类Ki;
(4.7)获得图像块类Gi:截取Ki中的每一个深度图块所对应的图像块,可获得Ki对应的图像块类Gi,Gi即为一个视觉单词,其对应的深度由Ki的加权平均得到,加权值为SVM分类权重;
(4.8)用N作为负样本集合,分别为Gi训练SVM线性分类器Ci,Ci可用于对视觉单词Gi的检测;
(5)经过(4)的迭代训练步骤后,得到由多个视觉单词组成的词典G,G中的每一个视觉单词分别包含了对应的深度图和检测器(分类器),用G可以对给定的2D图像进行视觉单词检测的深度恢复。
深度图生成阶段:
对于给定的2D图像,使用以下步骤生成深度图:
(1)生成初始深度图De,De的分辨率与2D图像相同,坐标(i, j)处的深度值由以下公式给出:
式中,rows为De的行数,d表示深度图量化比特数(典型值为8,即深度值的范围为0~255);
(2)生成深度图,基于视觉词典,采用其中的SVM检测器对2D图像进行检测,若检测出视觉单词,则用该视觉单词的深度块取代De中的对应区域;
(3)深度图平滑,对(2)中得到的深度图进行双边滤波,得到最终的深度图。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (4)
1.一种基于视觉词典的深度图生成方法,其特征在于包括视觉词典训练阶段和深度图生成阶段,
所述视觉词典训练阶段包括如下步骤:
(1)获得训练数据集,包括目标场景的图像集即目标图像集D,和负样本图像集N;目标图像集D由图像-深度图对组成,负样本图像集N由不属于目标场景的图像组成;
(2)初始化步骤:
(2.1)把目标图像集D分为相等数量的两部分D1和D2,把负样本图像集N分为相等数量的两部分N1和N2;
(2.2)对D1中的深度图进行随机块采样,采样方法如下:对D1中每一幅深度图,分别建立高斯金字塔,然后在金字塔的每一层进行随机采样,采样数与该层的尺度成正比;所得的样本集合表示为s;
(2.3)对(2.2)中得到的样本集合s进行数据整理,剔除高度重合的深度图块及不包含结构信息的平坦深度图块,得到最终的样本集合S;
(3)对最终的样本集合S进行k均值聚类,聚类的类数目设置为S中的数量的1/2,去掉类内深度图块数目少于3的类后,所得类集合表示为K1,K1的下标1表示该类集合来自于D1中的深度图块;
(4)交叉训练阶段,对于K1中的每一个类K1i,其中K1i的下标i表示类序号,采用交叉验证的方式,分别执行如下训练步骤:
(4.1)训练分类器,用N1作为负样本集合,类K1i内的深度图块作为正样本,为类K1i训练SVM线性分类器C1i;
(4.2)交叉验证,对D2中每一幅深度图,用C1i进行多尺度目标检测;得到正响应样本集合K2i,其中下标2表示为该类是D2中深度块组成的,i为类序号;若K2i内深度图块个数小于2,则该类不是一个视觉单词,结束迭代;否则,继续步骤(4.3);
(4.3)训练分类器,用N2作为负样本集合,类K2i内的图像块为正样本,为K2i训练SVM线性分类器C2i;
(4.4)交叉验证,对D1中每一幅深度图,用C2i进行多尺度目标检测;得到正响应样本集合K’1i,若K’1i内深度图块个数小于2,则该类不是一个视觉单词,结束迭代;否则,继续步骤(4.5);
(4.5)判断是否满足收敛条件:当满足收敛条件或迭代次数大于等于预设值,则结束迭代,到步骤(4.6);否则,返回(4.1),继续迭代过程;
(4.6)合并K’1i和K2i,得到具有相似结构的深度图块类Ki;
(4.7)获得视觉单词:在目标图像集D中,截取Ki中的每一个深度图块所对应的图像块,构成Ki对应的图像块类Gi即RGB图像块类,Gi即为一个视觉单词,其对应的深度由Ki的加权平均得到,加权值为SVM分类权重;
(4.8)用N作为负样本集合,分别为Gi训练SVM线性分类器Ci,Ci能用于对视觉单词Gi的检测;
(5)获得视觉词典,经过(4)的迭代训练后,得到由多个视觉单词Gi组成的词典G,G中的每一个视觉单词包含了对应的深度图和分类器,应用视觉词典对2D图像进行视觉单词检测,进而恢复深度图;
所述深度图生成阶段包括如下步骤:
对于给定的2D图像,使用以下步骤生成深度图:
(a)生成初始深度图De,De的分辨率与2D图像相同,坐标(i,j)处的深度值De由以下公式给出:
式中,rows为De的行数,d表示深度图量化比特数;
(b)生成深度图,基于视觉词典,采用其中的SVM分类器对2D图像进行检测,若检测出视觉单词,则用该视觉单词的深度块取代De中的对应区域;
(c)深度图平滑,对(b)中得到的深度图进行双边滤波,得到最终的深度图。
2.根据权利要求1所述的基于视觉词典的深度图生成方法,其特征为:步骤(a)所述深度图量化比特数d为8,即深度值的范围为0~255。
3.根据权利要求1所述的基于视觉词典的深度图生成方法,其特征为:视觉词典中的视觉单词,定义为具有相似深度结构的图像块集合。
4.根据权利要求1中所述的基于视觉词典的深度图生成方法,其特征为:在步骤(2.2)中,通过对深度图建立图像金字塔,然后在图像金字塔中以相应比例进行采样,即图像金字塔的底层的尺度越大,则采样越大数目的深度图块;相应地,越往顶层,采样的数目就越少。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510820941.4A CN105488785B (zh) | 2015-11-23 | 2015-11-23 | 一种基于视觉词典的深度图生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510820941.4A CN105488785B (zh) | 2015-11-23 | 2015-11-23 | 一种基于视觉词典的深度图生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105488785A CN105488785A (zh) | 2016-04-13 |
CN105488785B true CN105488785B (zh) | 2019-01-15 |
Family
ID=55675750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510820941.4A Expired - Fee Related CN105488785B (zh) | 2015-11-23 | 2015-11-23 | 一种基于视觉词典的深度图生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105488785B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6987508B2 (ja) * | 2017-02-20 | 2022-01-05 | オムロン株式会社 | 形状推定装置及び方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103246895A (zh) * | 2013-05-15 | 2013-08-14 | 中国科学院自动化研究所 | 基于深度信息的图像分类方法 |
CN104298971A (zh) * | 2014-09-28 | 2015-01-21 | 北京理工大学 | 一种3d点云数据中的目标识别方法 |
CN104778475A (zh) * | 2015-03-30 | 2015-07-15 | 南京邮电大学 | 一种基于环形区域最大频繁视觉单词的图像分类方法 |
-
2015
- 2015-11-23 CN CN201510820941.4A patent/CN105488785B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103246895A (zh) * | 2013-05-15 | 2013-08-14 | 中国科学院自动化研究所 | 基于深度信息的图像分类方法 |
CN104298971A (zh) * | 2014-09-28 | 2015-01-21 | 北京理工大学 | 一种3d点云数据中的目标识别方法 |
CN104778475A (zh) * | 2015-03-30 | 2015-07-15 | 南京邮电大学 | 一种基于环形区域最大频繁视觉单词的图像分类方法 |
Non-Patent Citations (1)
Title |
---|
Unsupervised Discovery of Mid-level Discriminateve Patches;Saurabh Singh et al.;《Proceedings of the 12th European conference on Computer Vision》;20120818;第3卷;第73-86页 |
Also Published As
Publication number | Publication date |
---|---|
CN105488785A (zh) | 2016-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109345556B (zh) | 用于混合现实的神经网络前景分离 | |
CN107204010B (zh) | 一种单目图像深度估计方法与系统 | |
CN110598610B (zh) | 一种基于神经选择注意的目标显著性检测方法 | |
CN105472434B (zh) | 植入内容到视频演示中的方法和系统 | |
CN112884881B (zh) | 三维人脸模型重建方法、装置、电子设备及存储介质 | |
CN107798725B (zh) | 基于Android的二维住房户型识别和三维呈现方法 | |
CN104134234A (zh) | 一种全自动的基于单幅图像的三维场景构建方法 | |
CN109492596B (zh) | 一种基于K-means聚类和区域推荐网络的行人检测方法及系统 | |
KR20090084563A (ko) | 비디오 영상의 깊이 지도 생성 방법 및 장치 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN110517270B (zh) | 一种基于超像素深度网络的室内场景语义分割方法 | |
CN102982524B (zh) | 玉米果穗有序图像的拼接方法 | |
CN104157011A (zh) | 一种三维地形建模方法 | |
CN112819944A (zh) | 三维人体模型重建方法、装置、电子设备及存储介质 | |
CN110689000A (zh) | 一种基于生成复杂环境下车牌样本的车辆车牌识别方法 | |
CN108605119A (zh) | 2d到3d视频帧转换 | |
CN111310821A (zh) | 多视图特征融合方法、系统、计算机设备及存储介质 | |
CN108961385A (zh) | 一种slam构图方法及装置 | |
CN115331012A (zh) | 基于零样本学习的联合生成式图像实例分割方法及系统 | |
Choi et al. | K-face: A large-scale kist face database in consideration with unconstrained environments | |
CN109558801B (zh) | 道路网络提取方法、介质、计算机设备及系统 | |
CN113052110B (zh) | 一种基于多视图投影和深度学习的三维兴趣点提取方法 | |
CN105631849B (zh) | 多边形目标的变化检测方法及装置 | |
CN105488785B (zh) | 一种基于视觉词典的深度图生成方法 | |
CN117094895A (zh) | 图像全景拼接方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20190115 Termination date: 20211123 |
|
CF01 | Termination of patent right due to non-payment of annual fee |