CN103268635A - 一种几何网格场景模型的分割及语义标注方法 - Google Patents
一种几何网格场景模型的分割及语义标注方法 Download PDFInfo
- Publication number
- CN103268635A CN103268635A CN201310178606XA CN201310178606A CN103268635A CN 103268635 A CN103268635 A CN 103268635A CN 201310178606X A CN201310178606X A CN 201310178606XA CN 201310178606 A CN201310178606 A CN 201310178606A CN 103268635 A CN103268635 A CN 103268635A
- Authority
- CN
- China
- Prior art keywords
- model
- place
- training set
- scene model
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及计算机图形学技术领域,特别是涉及一种几何网格场景模型的分割和语义标注方法,包含以下步骤:三维模型训练集建立,要求训练集中的每个三维模型均为单个物体;场景模型自动分割,借助训练集基于层次化聚类算法将场景模型分割为多个物体;分割结果的分类,对分割得到的每个物体提取形状特征,根据分类算法决策出该物体的类别标签;场景模型的语义汇总,汇总每个物体的类别标签,得到场景模型的语义标签集合;相对于现有技术而言,本发明具有以下优点:场景模型自动分割方法在分割过程中将训练集中的已有形状知识用以辅助决策,从而解决了场景分割中难以处理接触物体的难点问题,场景模型的语义标注更符合人类对场景的视觉认知。
Description
技术领域
本发明涉及计算机图形学技术领域,特别是涉及一种几何网格场景模型的分割和语义标注方法。
背景技术
三维扫描技术日益成熟,通过扫描设备能得到的三维场景的点云数据,再通过三维重建即可得到几何网格表示,用于图形渲染,但由此获得的三维场景模型缺乏语义信息,计算机难以理解场景模型中的内容,导致难以实现对三维场景模型的基于内容的检索与有效管理。三维场景模型的分割与语义标注旨在以场景分割为基础,即将场景分割为多个单个物体,进而回答场景中有什么的问题,对三维场景的内容理解与重用具有积极意义。
场景分割是一个复杂且困难的任务,特别是当物体之间距离过近或存在接触关系时,如何自动判断它们到底是一个整体还是多个物体仍是一个未解决的问题。点云和几何网格是三维场景的两种主要的表现形式。2007年,Merchán和Adán提出分割三维点云场景的方法[P.Merchán and A.Adán.Exploration trees on highly complexscenes:A new approach for3D segmentation.Pattern Recognition40,1879–1898,2007],通过对三维场景从不同视线方向投影得到一组投影图像,从中选择合适的投影图像进行分割,然后通过投影变换的逆变换将图像分割结果对应到三维场景的点云分割,对于分割后的子场景继续迭代地进行同样的处理:从点云到投影图像,再由投影图像的分割结果到点云分割结果,直到满足指定的分割数目。但几何网格模型更为普遍,由于其更适合于渲染而具有更广泛的应用范围,大型模型库(如Google3D Warehouse)中的三维模型均是这一形式。而目前对几何网格模型分割的多数研究仍集中在将单个物体的模型分割为若干个有意义的子部件,对场景模型分割的研究较少。Li等[Li XT,Woon TW,Tan TS,Huang ZY.Decomposing polygonmeshes for interactive applications.Proceedings of the2001ACMSymposium on Interactive3D Graphics,New York,USA:ACM Press,2001:35-42]提出基于边折叠算法得到骨架,进而沿着骨架方向对网格模型进行空间扫掠的过程中,分析模型的几何和拓扑性质,从而确定关键点,实现几何网格模型的自动分割。Katz等[Katz Sagi,TalAyellet.Hierarchical mesh decomposition using fuzzy clustering andcuts.ACM Transactions on Graphics,2003,22(3):954-961]提出基于模糊聚类的层次化分割方法,使得交界区域具有模糊性,最后采用Minimum Cut算法得到确切的边界。但这些算法仅适用于单个物体的分割,无法应用于场景模型的分割。Knopp等[J.Knopp,M.Prasad,L.V.Gool.Scene cut:Class-specific object detection and segmentationin3D scenes.Proceedings of International Conference on3D Imaging,Modeling,Processing,Visualization and Transmission(3DIMPVT),2011,180–187]提出在场景中检测和分割出指定类别物体的方法,但该方法不适用于同时分割多种物体。Fisher等[Fisher M,Hanrahan P.Context-Based Search for3D Models.ACM Transactions on Graphics,2010,29(6),Article182]借助场景图来分析场景中的物体,用图来表示场景中物体的关系,借助图的相似性来比较场景的相似性。
由以上分析可知,对几何网格场景模型的分割存在以下不足:1)多数几何网格模型分割的研究针对的是单个物体,将其分割若干个有意义的子部件,而对场景模型分割的研究较少;2)已有的从场景中检测分割特定类别物体的方法无法推广到场景中多种物体的分割;3)利用场景图来确定场景中物体的方法不具有普遍性,很多场景模型并不具有场景图,或者场景图不准确。
发明内容
本发明的目的在于提供了一种几何网格场景模型进行分割和语义标注的方法,该方法将场景模型自动地分割为多个物体,并进而对每个物体进行分类,用类别标签的集合来标注场景模型。该方法可用于场景模型的内容理解,实现对已有的场景模型数据资源的有效组织和管理,有助于场景模型的重用。
本发明解决其技术问题所采用的技术方案是,包含以下步骤:
步骤1)三维模型训练集建立
要求训练集中的每个三维模型均为单个物体,每个模型均包含形状信息、类别标签和形状特征,其中,形状信息以模型表面三角网格的形式体现;
步骤2)场景模型自动分割
借助训练集基于层次化聚类算法将场景模型分割为多个物体,连通集为初始聚类,在层次化聚类的过程中借助训练集来决策两个视觉上相交、接触或接近的连通集是否应合并,直到满足聚类合并终止条件,最终得到的每个物体是连通集的集合;
步骤3)分割结果的分类
对分割得到的每个物体提取形状特征,基于相似性匹配在训练集中寻找它的K个近邻模型,得到模糊化分类结果,根据上述分类算法决策出该物体的类别标签;
步骤4)场景模型的语义汇总
汇总每个物体的类别标签,剔除重复,得到场景模型的语义标签集合。
所述步骤1)进一步包含:
步骤1.1)收集等数量的不同语义类的三角网格模型,记录它们的类别标签;
步骤1.2)提取等数量的不同语义类的三角网格模型的形状特征,采用一种复合特征向量DESIRE来描述。
所述步骤2)进一步包含:
步骤2.1)生成三角网格模型的连通集,根据设定的距离阈值得到每个连通集的在三维空间中与之相邻的连通集的集合;
步骤2.2)将连通集作为初始聚类;
步骤2.3)迭代地进行自底向上的层次化聚类,借助训练集中的已有形状知识来判断两个聚类是否能合并,如果需要合并,则消除两个已有的聚类,产生一个新的聚类,同时需要更新相关聚类的近邻;
步骤2.4)经检测,确认所有相邻的聚类都无需再合并,终止合并过程,得到场景模型的分割结果,每个物体都是一个连通集的集合。
所述步骤3)进一步包含:
步骤3.1)对于分割后得到的每个物体,提取形状特征,采用一种复合特征向量DESIRE来描述;
步骤3.2)借助训练集,采用Fuzzy-KNN(模糊K近邻)方法对该物体进行监督分类,计算它属于每个语义类的概率;
步骤3.3)根据设定的阈值,来决策该物体的类别标签。
相对于现有技术而言,本发明具有以下优点:
1)场景模型自动分割方法能将几何网格表示的场景模型分割为多个物体,特别是在分割过程中将训练集中的已有形状知识用以辅助决策,从而解决了场景分割中难以处理接触物体的难点问题,有助于后续的语义标注,而已有的三维模型分割方法只能将三角网格表示的单个物体模型分割为多个部件,或者将点云表示的场景模型分割为多个物体;
2)场景模型的语义标注以场景模型的分割为前提,更符合人类对场景的视觉认知;
3)对场景模型中的每个物体进行监督分类时,采用了Fuzzy-KNN方法来模糊化分类结果,通过阈值设定来控制类别标签的置信度,更具灵活性。
附图说明
图1为本发明的方法流程图;
图2为本发明的场景模型分割方法流程图;
图3为本发明的借助训练集的由底向上的层次化聚类过程的主要流程。
具体实施方式
当结合附图考虑时,通过参照下面的详细描述,能够更完整更好地理解本发明以及容易得知其中许多伴随的优点,但此处所说明的附图用来提供对本发明的进一步理解,构成本发明的一部分。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例:如图1所示,步骤1)建立三维模型训练集,训练集中均为单个物体,所述训练库中包含三维模型的名称、以三角网格的形式体现的表面形状信息、类别标签信息和特征信息。
所述步骤1)包括如下子步骤:
步骤1.1)收集等数量的不同语义类的三维模型,记录它们的类别标签,要求这些三维模型均为单个物体,表现形式均为三角网格;
步骤1.2)提取三角网格模型的形状特征。在本发明实施例中,采用文献Dejan V.Vranic,“DESIRE:a composite3D-shapedescriptor.”IEEE International Conference on Multimedia and Expo,ICME2005,p962-965.介绍的方法,提取这些三角网格模型的DESIRE形状特征。DESIRE特征向量是一个由三种特征组合而成的特征向量,包括模型的深度投影特征、轮廓投影特征和基于射线的特征。由于单一特征仅描述了形状某一方面的属性,特征组合方法能够更好地描述三维模型的形状特征。DESIRE特征向量可以替换为其它的三维模型特征向量,本方法的整体流程不受影响。
步骤2)基于层次化聚类进行场景模型的自动分割,将其分割为多个物体。这一步骤中要解决的难点问题是,当两个形状接触时,如何判断这两个形状是属于一个物体,还是两个不同的物体。本发明中将训练集中的已有形状作为知识来辅助聚类合并。
如图2所示,所述步骤2)包括如下子步骤:
步骤2.1)为几何网格模型生成连通集,计算每个连通集的表面积,确定与之相邻的连通集;
首先,将几何网格模型处理为三角网格模型,即三角面片的集合。当两个三角面片共顶点时,认为它们是邻接的,当两个三角面片之间存在一条由邻接三角面片组成的路径,认为它们是连通的。每个连通集均为一个最大连通子集,由三角面片组成。同一连通集内,任意两个三角面片都是连通的;不同的连通集之间,任意两个三角面片都是不连通的。
然后,对于每个连通集,将三角面片的面积累加起来,得到连通集的表面积,并同时计算出该模型的表面积。连通集的表面积是后续处理优先顺序的依据,即优先处理面积较大的连通集。
接下来,计算任意两个连通集之间的距离。判断两个连通集是否相交,如果相交,则这两个连通集的距离为0;如果不相交,则以分别属于这两个连通集的顶点之间的最近距离作为连通集的距离。在本发明实施例中,采用文献S.Gottschalk and M.C.Lin and D.Manocha,“OBBTree:a hierarchical structure for rapid interferencedetection.”The23rd Annual Conference on Computer Graphics andinteractive Techniques,SIGGRAPH1996,171-180.介绍的碰撞检测算法判断两个连通集是否相交。OBBTree算法可替换为其他碰撞检测算法,本方法的整体流程不受影响。
最后,对于每个连通集,将所有与之距离小于τ的连通集确定为它的相邻的连通集。在本发明实施例中,设定τ=r/20,其中r为三角网格模型最小包围球的半径。
步骤2.2)将连通集作为初始聚类;
步骤2.3)借助训练集,迭代地进行自底向上的层次化聚类。结合图3,详细说明此步骤的流程;
(1)将所有聚类标记为未检测聚类;
(2)确定未检测聚类的集合,如果所有聚类都已检测,则子步骤1023处理完毕;
(3)将所有未检测聚类按照面积由大到小排序,从中选取面积最大的聚类C作为待检测对象x,;
(4)从聚类C的未检测邻居中,选取距离最近的邻居作为待检测对象y;
(5)借助训练集检测x和y是否合并,对于合并条件的详细说明如下:
a)检测x和y的表面积是否为过小,设s(x)、s(y)分别为x和y的表面积,S为模型的表面积,当s(x)<λ·S或s(y)<λ·S时,认为x和y需要合并,不再执行后续步骤。这是因为过小的曲面片通常是一个物体的部件。在本发明实施例中,设定λ=0.002;
b)尝试合并x和y,得到C’,分别提取x、y和C’的DESIRE形状特征f(x)、f(y)和f(C');
c)根据x的形状特征f(x),在训练集T中搜索它的最佳匹配,即最佳匹配为训练集中使得形状相异距离‖f(x)-f(m)‖1达到最小值的三维模型,表示为m1。类似地,在训练集T中搜索出y和C’的最佳匹配m2和m3;
d)当‖f(m3)-f(C')‖1<(‖f(m1)-f(x)‖1+‖f(m2)-f(y)‖1)/2时,表示这次合并将使得形状相异距离的均值减小,说明合并后的物体与一个完整的物体在形状上更相似,则认为x和y需要合并。
(4)如果x和y需要合并,则消除聚类x和y,产生一个新的聚类,将它标记为未检测聚类,计算它的表面积,同时由于聚类发生变化,所以要更新所有相关聚类的邻居,然后转到步骤(2)执行;如果如果x和y不需要合并,则标记此邻居y为聚类x的已检测邻居,转到步骤(4)执行,继续检测下一个邻居。
步骤2.4)合并终止后,得到场景模型的分割结果,每个物体都是一个连通集的集合。
步骤3)对于分割得到的每一个物体,借助训练集进行监督分类。
步骤3.1)对于分割得到的每一个物体,将它作为待标注对象,提取DESIRE形状特征;
步骤3.2)将训练集的模型按照形状相异距离从小到大的顺序排序,找到K个与待标注对象x在形状上最相近的模型,表示为xi,i=1,2,...,K,获得它们的类别标签。在本发明实施例中,所述K的取值范围为大于1且小于训练集里的每个语义类的模型数;
步骤3.4)如果待标注对象x属于某一类别的概率大于设定的阈值θ,则认为可用语义类Cj的类别名称来标注x。在本发明实施例中,θ=0.5。
步骤4)场景模型的语义汇总步骤,将每个物体的语义标签汇集起来,剔除重复,即得到场景模型的语义标签集合。
我们的几何网格场景模型的分割与语义标注系统是采用VS2010设计的,最终的系统界面上包括:场景模型的索引图像与基本信息显示、场景模型的分割结果、对每个分割部分的分类决策结果、推断出的场景所包含的语义标签。
以上对本发明所提供的一种几何网格场景模型的分割与语义标注方法进行详细介绍,本文中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (4)
1.一种几何网格场景模型的分割及语义标注方法,其特征在于包含以下步骤:
步骤1)三维模型训练集建立
要求训练集中的每个三维模型均为单个物体,每个模型均包含形状信息、类别标签和形状特征,其中,形状信息以模型表面三角网格的形式体现;
步骤2)场景模型自动分割
借助训练集基于层次化聚类算法将场景模型分割为多个物体,连通集为初始聚类,在层次化聚类的过程中借助训练集来决策两个视觉上相交、接触或接近的连通集是否应合并,直到满足聚类合并终止条件,最终得到的每个物体是连通集的集合;
步骤3)分割结果的分类
对分割得到的每个物体提取形状特征,基于相似性匹配在训练集中寻找它的K个近邻模型,得到模糊化分类结果,根据上述分类算法决策出该物体的类别标签;
步骤4)场景模型的语义汇总
汇总每个物体的类别标签,剔除重复,得到场景模型的语义标签集合。
2.根据权利要求1所述的一种几何网格场景模型的分割及语义标注方法,其特征在于,所述步骤1)进一步包含:
步骤1.1)收集等数量的不同语义类的三角网格模型,记录它们的类别标签;
步骤1.2)提取等数量的不同语义类的三角网格模型的形状特征,采用一种复合特征向量DESIRE来描述。
3.根据权利要求1所述的一种几何网格场景模型的分割及语义标注方法,其特征在于,所述步骤2)进一步包含:
步骤2.1)生成三角网格模型的连通集,根据设定的距离阈值得到每个连通集的在三维空间中与之相邻的连通集的集合;
步骤2.2)将连通集作为初始聚类;
步骤2.3)迭代地进行自底向上的层次化聚类,借助训练集中的已有形状知识来判断两个聚类是否能合并,如果需要合并,则消除两个已有的聚类,产生一个新的聚类,同时需要更新相关聚类的近邻;
步骤2.4)经检测,确认所有相邻的聚类都无需再合并,终止合并过程,得到场景模型的分割结果,每个物体都是一个连通集的集合。
4.根据权利要求1所述的一种几何网格场景模型的分割及语义标注方法,其特征在于,所述步骤3)进一步包含:
步骤3.1)对于分割后得到的每个物体,提取形状特征,采用一种复合特征向量DESIRE来描述;
步骤3.2)借助训练集,采用Fuzzy-KNN方法对该物体进行监督分类,计算它属于每个语义类的概率;
步骤3.3)根据设定的阈值,来决策该物体的类别标签。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310178606.XA CN103268635B (zh) | 2013-05-15 | 2013-05-15 | 一种几何网格场景模型的分割及语义标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310178606.XA CN103268635B (zh) | 2013-05-15 | 2013-05-15 | 一种几何网格场景模型的分割及语义标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103268635A true CN103268635A (zh) | 2013-08-28 |
CN103268635B CN103268635B (zh) | 2016-08-10 |
Family
ID=49012262
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310178606.XA Expired - Fee Related CN103268635B (zh) | 2013-05-15 | 2013-05-15 | 一种几何网格场景模型的分割及语义标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103268635B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971415A (zh) * | 2014-05-23 | 2014-08-06 | 南京大学 | 一种三维模型构件的在线标注方法 |
WO2015042891A1 (zh) * | 2013-09-27 | 2015-04-02 | 华为技术有限公司 | 图像语义分割的方法和装置 |
CN105574876A (zh) * | 2015-12-18 | 2016-05-11 | 电子科技大学 | 一种基于标签语义推理的自然图像分割方法 |
CN106295706A (zh) * | 2016-08-17 | 2017-01-04 | 山东大学 | 一种基于形状视觉知识库的图像自动分割和语义注释方法 |
CN106529569A (zh) * | 2016-10-11 | 2017-03-22 | 北京航空航天大学 | 基于深度学习的三维模型三角面特征学习分类方法及装置 |
CN106910252A (zh) * | 2017-01-20 | 2017-06-30 | 东北石油大学 | 一种基于语义空间投影变换的三维模型在线标注方法与系统 |
CN107424161A (zh) * | 2017-04-25 | 2017-12-01 | 南京邮电大学 | 一种由粗至精的室内场景图像布局估计方法 |
CN108921952A (zh) * | 2018-06-15 | 2018-11-30 | 深圳大学 | 物体功能性预测方法、装置、计算机设备和存储介质 |
WO2019021088A1 (en) * | 2017-07-24 | 2019-01-31 | International Business Machines Corporation | NAVIGATION BETWEEN VIDEO SCENES OF COGNITIVE KNOWLEDGE ASSISTANCE |
WO2019019019A1 (zh) * | 2017-07-25 | 2019-01-31 | 深圳前海达闼云端智能科技有限公司 | 训练数据生成方法、生成装置及其图像语义分割方法 |
CN110136124A (zh) * | 2019-05-17 | 2019-08-16 | 江门市中心医院 | 一种基于鲁棒速度函数的胸膜接触性肺结节分割方法 |
CN110167756A (zh) * | 2017-04-10 | 2019-08-23 | 西门子产品生命周期管理软件公司 | 用于通过增材制造构造实体物体的基于构建方向的划分 |
CN111862328A (zh) * | 2020-06-30 | 2020-10-30 | 首都师范大学 | 一种基于小样本的三维网格分割结果标签化的方法 |
CN111968240A (zh) * | 2020-09-04 | 2020-11-20 | 中国科学院自动化研究所 | 基于主动学习的摄影测量网格的三维语义标注方法 |
CN114218888A (zh) * | 2022-02-22 | 2022-03-22 | 北京智芯仿真科技有限公司 | 一种集成电路版图电流密度超标区域标定方法及系统 |
CN114529707A (zh) * | 2022-04-22 | 2022-05-24 | 深圳市其域创新科技有限公司 | 三维模型分割方法、装置、计算设备及可读存储介质 |
CN116993752A (zh) * | 2023-09-27 | 2023-11-03 | 中国人民解放军国防科技大学 | 实景三维Mesh模型语义分割方法、介质和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101877128A (zh) * | 2009-12-23 | 2010-11-03 | 中国科学院自动化研究所 | 一种三维场景中不同物体的分割方法 |
US20100310159A1 (en) * | 2009-06-04 | 2010-12-09 | Honda Motor Co., Ltd. | Semantic scene segmentation using random multinomial logit (rml) |
CN101963995A (zh) * | 2010-10-25 | 2011-02-02 | 哈尔滨工程大学 | 基于特征场景的图像标注方法 |
US20110044492A1 (en) * | 2009-08-18 | 2011-02-24 | Wesley Kenneth Cobb | Adaptive voting experts for incremental segmentation of sequences with prediction in a video surveillance system |
CN102254192A (zh) * | 2011-07-13 | 2011-11-23 | 北京交通大学 | 基于模糊k近邻的三维模型半自动标注方法及系统 |
-
2013
- 2013-05-15 CN CN201310178606.XA patent/CN103268635B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100310159A1 (en) * | 2009-06-04 | 2010-12-09 | Honda Motor Co., Ltd. | Semantic scene segmentation using random multinomial logit (rml) |
US20110044492A1 (en) * | 2009-08-18 | 2011-02-24 | Wesley Kenneth Cobb | Adaptive voting experts for incremental segmentation of sequences with prediction in a video surveillance system |
CN101877128A (zh) * | 2009-12-23 | 2010-11-03 | 中国科学院自动化研究所 | 一种三维场景中不同物体的分割方法 |
CN101963995A (zh) * | 2010-10-25 | 2011-02-02 | 哈尔滨工程大学 | 基于特征场景的图像标注方法 |
CN102254192A (zh) * | 2011-07-13 | 2011-11-23 | 北京交通大学 | 基于模糊k近邻的三维模型半自动标注方法及系统 |
Non-Patent Citations (1)
Title |
---|
张俊青: "三维模型采集与自动标注算法研究", 《万方学位论文数据库》 * |
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015042891A1 (zh) * | 2013-09-27 | 2015-04-02 | 华为技术有限公司 | 图像语义分割的方法和装置 |
CN103971415B (zh) * | 2014-05-23 | 2016-06-15 | 南京大学 | 一种三维模型构件的在线标注方法 |
CN103971415A (zh) * | 2014-05-23 | 2014-08-06 | 南京大学 | 一种三维模型构件的在线标注方法 |
CN105574876A (zh) * | 2015-12-18 | 2016-05-11 | 电子科技大学 | 一种基于标签语义推理的自然图像分割方法 |
CN105574876B (zh) * | 2015-12-18 | 2018-02-09 | 电子科技大学 | 一种基于标签语义推理的自然图像分割方法 |
CN106295706B (zh) * | 2016-08-17 | 2019-04-19 | 山东大学 | 一种基于形状视觉知识库的图像自动分割和语义注释方法 |
CN106295706A (zh) * | 2016-08-17 | 2017-01-04 | 山东大学 | 一种基于形状视觉知识库的图像自动分割和语义注释方法 |
CN106529569A (zh) * | 2016-10-11 | 2017-03-22 | 北京航空航天大学 | 基于深度学习的三维模型三角面特征学习分类方法及装置 |
CN106910252A (zh) * | 2017-01-20 | 2017-06-30 | 东北石油大学 | 一种基于语义空间投影变换的三维模型在线标注方法与系统 |
CN110167756B (zh) * | 2017-04-10 | 2022-05-06 | 西门子工业软件有限公司 | 用于通过增材制造构造实体物体的基于构建方向的划分 |
CN110167756A (zh) * | 2017-04-10 | 2019-08-23 | 西门子产品生命周期管理软件公司 | 用于通过增材制造构造实体物体的基于构建方向的划分 |
US11599089B2 (en) | 2017-04-10 | 2023-03-07 | Siemens Industry Software Inc. | Build direction-based partitioning for construction of a physical object through additive manufacturing |
CN107424161A (zh) * | 2017-04-25 | 2017-12-01 | 南京邮电大学 | 一种由粗至精的室内场景图像布局估计方法 |
US10970334B2 (en) | 2017-07-24 | 2021-04-06 | International Business Machines Corporation | Navigating video scenes using cognitive insights |
WO2019021088A1 (en) * | 2017-07-24 | 2019-01-31 | International Business Machines Corporation | NAVIGATION BETWEEN VIDEO SCENES OF COGNITIVE KNOWLEDGE ASSISTANCE |
WO2019019019A1 (zh) * | 2017-07-25 | 2019-01-31 | 深圳前海达闼云端智能科技有限公司 | 训练数据生成方法、生成装置及其图像语义分割方法 |
US11281943B2 (en) | 2017-07-25 | 2022-03-22 | Cloudminds Robotics Co., Ltd. | Method for generating training data, image semantic segmentation method and electronic device |
CN108921952A (zh) * | 2018-06-15 | 2018-11-30 | 深圳大学 | 物体功能性预测方法、装置、计算机设备和存储介质 |
CN110136124A (zh) * | 2019-05-17 | 2019-08-16 | 江门市中心医院 | 一种基于鲁棒速度函数的胸膜接触性肺结节分割方法 |
CN111862328A (zh) * | 2020-06-30 | 2020-10-30 | 首都师范大学 | 一种基于小样本的三维网格分割结果标签化的方法 |
CN111862328B (zh) * | 2020-06-30 | 2022-07-01 | 首都师范大学 | 一种基于小样本的三维网格分割结果标签化的方法 |
CN111968240B (zh) * | 2020-09-04 | 2022-02-25 | 中国科学院自动化研究所 | 基于主动学习的摄影测量网格的三维语义标注方法 |
CN111968240A (zh) * | 2020-09-04 | 2020-11-20 | 中国科学院自动化研究所 | 基于主动学习的摄影测量网格的三维语义标注方法 |
CN114218888B (zh) * | 2022-02-22 | 2022-05-10 | 北京智芯仿真科技有限公司 | 一种集成电路版图电流密度超标区域标定方法及系统 |
CN114218888A (zh) * | 2022-02-22 | 2022-03-22 | 北京智芯仿真科技有限公司 | 一种集成电路版图电流密度超标区域标定方法及系统 |
CN114529707A (zh) * | 2022-04-22 | 2022-05-24 | 深圳市其域创新科技有限公司 | 三维模型分割方法、装置、计算设备及可读存储介质 |
WO2023202381A1 (zh) * | 2022-04-22 | 2023-10-26 | 深圳市其域创新科技有限公司 | 三维模型分割方法、装置、计算设备及可读存储介质 |
CN116993752A (zh) * | 2023-09-27 | 2023-11-03 | 中国人民解放军国防科技大学 | 实景三维Mesh模型语义分割方法、介质和系统 |
CN116993752B (zh) * | 2023-09-27 | 2024-01-09 | 中国人民解放军国防科技大学 | 实景三维Mesh模型语义分割方法、介质和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103268635B (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103268635A (zh) | 一种几何网格场景模型的分割及语义标注方法 | |
Bazazian et al. | Fast and robust edge extraction in unorganized point clouds | |
CN102508923B (zh) | 基于自动分类和关键字标注的自动视频注释方法 | |
Luo et al. | Individual tree extraction from urban mobile laser scanning point clouds using deep pointwise direction embedding | |
CN103810303B (zh) | 一种基于焦点对象识别和主题语义的图像搜索方法及系统 | |
Wen et al. | CF-SIS: Semantic-instance segmentation of 3D point clouds by context fusion with self-attention | |
CN101944183B (zh) | 一种利用sift树进行物体识别的方法 | |
CN103136540B (zh) | 一种基于隐结构推理的行为识别方法 | |
Li et al. | Transmission line detection in aerial images: An instance segmentation approach based on multitask neural networks | |
CN102622753A (zh) | 基于密度可达测度的半监督谱聚类sar图像分割方法 | |
CN113936210A (zh) | 塔吊防撞方法 | |
CN110737788B (zh) | 快速的三维模型索引建立及检索方法 | |
KR20200052420A (ko) | 딥러닝 기반 3차원 원형 예측 장치 | |
Lan et al. | Foodsam: Any food segmentation | |
Lavoué et al. | SHREC'12 Track: 3D mesh segmentation | |
CN112990202B (zh) | 基于稀疏表示的场景图生成方法及系统 | |
CN105956604A (zh) | 一种基于两层时空邻域特征的动作识别方法 | |
Kurmanji et al. | A comparison of 2D and 3D convolutional neural networks for hand gesture recognition from RGB-D data | |
CN104504692A (zh) | 基于区域对比度的图像中显著对象的提取方法 | |
Srivastava et al. | Large scale novel object discovery in 3d | |
CN115393751A (zh) | 数据处理方法、存储介质及电子设备 | |
Dey et al. | An unsupervised outlier detection method for 3D point cloud data | |
Lian et al. | Detecting and inferring repetitive elements with accurate locations and shapes from façades | |
Lu et al. | Detection of key components of existing bridge in point cloud datasets | |
Narayanan et al. | Bottom-up perceptual organization of images into object part hypotheses |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160810 Termination date: 20190515 |