CN104318613A - 一种3d空间精准取点方法 - Google Patents
一种3d空间精准取点方法 Download PDFInfo
- Publication number
- CN104318613A CN104318613A CN201410583191.9A CN201410583191A CN104318613A CN 104318613 A CN104318613 A CN 104318613A CN 201410583191 A CN201410583191 A CN 201410583191A CN 104318613 A CN104318613 A CN 104318613A
- Authority
- CN
- China
- Prior art keywords
- point
- space
- user
- post
- rayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种3D空间精准取点方法,该方法通过圈定3D透视柱范围,并将透视柱进行旋转,得到用户可以非常直观的观察的透视柱,用户根据在可见透视柱上拉动截取空间区域的界定平面来改变截取空间区域的长短,从而选定合适的空间点,该方法通过给予方便的视觉追踪辅助工具,即可视化透视柱以及前后拉动的界定平面,使得不同行业的用户可以根据行业或者自身需要进行选点,这样不仅使操作更加简单,提高了操作者的可控性,而且也减少了追踪过程中点云数据的丢失,进一步提高了选点的准确性,同时也使得用户在选点过程中更加快捷方便,达到了用户精确选点的目的。
Description
技术领域
本发明属于3D空间建模技术领域,特别是涉及一种在3D空间建模过程中的3D空间精准取点方法。
背景技术
3D空间建模技术是指将客观世界中的物体通过三维建模的方式得到虚拟的重建,是计算机视觉,计算机图形学领域的重要研究内容之一,在医用设备、数字娱乐、电子商务等领域都有着广泛的应用价值。在模型重建过程中,我们需要对获得的点云信息进行处理,但是三维点云物体形状空间分布极不均匀且无序,常常会造成空间点相互干扰的情况,例如,在每个点上都有不同深度上各层景物的重叠,或是所要选取的点位于选取点与其他点之间的空隙,这些都会使得用户在选取空间特定位置的点时变的相当困难,如何排除三维点云中的干扰点而进行精准选点,是目前三维物体模型建模中的关键技术之一。
目前,为了排除选点过程中的干扰,用户在3D空间位置或点的选取过程中往往会通过操作者手工控制旋转三维点云来选取所要选取的点,但是由于操作比较复杂,完全依赖操作者手工控制,并缺乏相应的视觉追踪辅助工具,便使得人的视觉追踪就比较困难,也常会造成追踪过程中的数据丢失,从而影响了3D空间点的精确定位。因此,如何解决选点过程中视觉追踪效率低、操作可控性差以及点云数据容易丢失的问题,已成为亟待解决的问题。
发明内容
本发明针对上述技术问题,提出了一种3D空间精准取点方法,该方法通过加入视觉追踪辅助工具,使得不同行业的用户可以根据行业或者自身需要进行选点,这样不仅使操作更加简单,提高了操作者的可控性,而且也减少了追踪过程中点云数据的丢失,进一步提高了选点的准确性,同时也使得用户在选点过程中更加快捷方便,大大提高了用户的工作效率。
本发明的技术方案为:
和现有技术相比,本发明提供了一种3D空间精准取点方法,所述方法包括:
步骤A1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0),其中,X0是指在水平X轴上的用户所处位置的数值,Y0是指在垂直方向上的用户所处位置的数值;
步骤A2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤A3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点,为了便于观察透视柱,将透视柱可视化,在3D透视柱圈定用户观察到的3D透视柱范围,Z轴上的可见范围之中距离用户最近的Z值记为Znearest,距离用户最远的Z值记为Zfarest;
步骤A4:运用判定方法初步选定空间点,对初步选定的空间点在Z轴上进行初始定位;
步骤A5:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤A6:用户根据步骤A4初步选定的空间点在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback;
步骤A7:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤A8:选取Zfront和Zback之间的空间区域的均值Zmean作为3D空间选取点的Z值;
步骤A9:最终确定用户选取的3D空间点S,S坐标记录为(X0,Y0,Zmean)。
基于上述方案,本发明还进行如下改进:
所述3D透视柱旋转的角度范围为5°-15°,将透视柱旋转可以得到用户非常直观的观察的透视柱,便于用户根据需要在透视柱上选取所需要的空间区域。
所述扩散的形状为圆形或方形,用户可以遵循简单、方便的原则自行选择。
本发明还提供了一种3D空间精准取点方法,所述方法包括:
步骤B1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0);
步骤B2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤B3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点;
步骤B4:对3D透视柱上的候选点进行分群;
步骤B5:判定符合用户选取意图的最优群;
步骤B6:选取最优群的成员点平均深度值Zmean0作为3D空间选取点的Z值;
步骤B7:初步确定用户选取的3D空间点S′,S′坐标记录为(X0,Y0,Zmean0);
步骤B8:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤B9:用户根据初步选定的空间点S′在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback;
步骤B10:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤B11:选取Zfront和Zback之间的空间区域的均值Zmean作为3D空间选取点的Z值;
步骤B12:最终确定用户选取的3D空间点S,S坐标记录为(X0,Y0,Zmean)。
所述的分群方法采用相邻间距阈值判定方法或K-means分群方法。
所述的相邻间距阈值判定方法包括以下步骤:
步骤C1:设定一深度间隔距离的阈值,根据具体情况确定阈值大小;
步骤C2:根据设定的阈值对候选点按照其深度Z值采用升序或降序排序;
步骤C3:对相邻点间距进行判定,若相邻点Z间距大于阈值,则判定为不同群,若相邻点Z间距小于阈值,则判定为同一群。
所述用户选取意图的判定条件至少为离观察者前方较近处的点群、离透视柱中心轴较近的点群和所属点群密度较大的点群中的一种。
若所述用户选取意图的判定条件为一种以上,则采用线性加权综合判定或非线性加权为代表的综合判定方法。
本发明可采取多种判定方法来初步选取空间点,通过用户的认知意图从3D空间中选点,用户的认知意图主要可以归结为两点:(1)选取离观察者距离较近的点;(2)选取靠近观察者的某一可见点群,从点群中选取出用户所要选取的点。相比较而言,采用分群方法初步选定空间点能够使得选点更加准确。
本发明的技术效果为:
本发明针对用户选取点的意图,提供了一种3D空间精准取点的方法,该方法通过圈定3D透视柱范围,并将透视柱进行旋转,得到用户可以非常直观的观察的透视柱,在可视范围内取点,实现了选点的可视化,用户根据在可见透视柱上拉动截取空间区域的界定平面来进行空间点的选定,进一步提高了选点的准确性,而且该方法通过给予方便的视觉追踪辅助工具,即可视化透视柱以及前后拉动的界定平面,使得不同行业的用户可以根据行业或者自身需要进行选点,这样不仅使操作更加简单,提高了操作者的可控性,而且也减少了追踪过程中点云数据的丢失,进一步提高了选点的准确性,同时也使得用户在选点过程中更加快捷方便,达到了用户精确选点的目的。
附图说明
图1为本发明的3D空间精准取点方法的流程图。
图2为本发明按照Z轴方向形成3D透视柱的示意图。
图3为本发明旋转后的3D透视柱的示意图。
图4为本发明初步选取空间点方法的流程图。
图5为本发明按照Z轴方向分群的示意图。
具体实施方式
下面结合附图说明本发明的具体实施方式:
实施例1:
由图1-3所示,本发明提供了一种3D空间精准取点方法,所述方法包括:
步骤A1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0),其中,X0是指在水平X轴上的用户所处位置的数值,Y0是指在垂直方向上的用户所处位置的数值;
步骤A2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤A3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点,所述扩散的形状为圆形或方形,用户可以遵循简单、方便的原则自行选择扩撒形状,为了便于观察透视柱,将透视柱可视化,在3D透视柱圈定用户观察到的3D透视柱范围,Z轴上的可见范围之中距离用户最近的Z值记为Znearest,距离用户最远的Z值记为Zfarest;
步骤A4:运用判定方法初步选定空间点,对初步选定的空间点在Z轴上进行初始定位;
步骤A5:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;所述3D透视柱旋转的角度范围为5°-15°,将透视柱旋转可以得到用户非常直观的观察的透视柱,便于用户根据需要在透视柱上选取所需要的空间区域。
步骤A6:用户根据步骤A4初步选定的空间点在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback;
步骤A7:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤A8:选取Zfront和Zback之间的空间区域的均值Zmean作为3D空间选取点的Z值;
步骤A9:最终确定用户选取的3D空间点S,S坐标记录为(X0,Y0,Zmean)。
实施例2:
由图1-5所示,本发明还提供了一种3D空间精准取点方法,所述方法包括:
步骤B1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0);
步骤B2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤B3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点;
步骤B4:对3D透视柱上的候选点进行分群;
划分群的方法可采用相邻间距阈值判定法或K-means分群方法;
所述的相邻间距阈值判定方法包括以下步骤:
设定一深度间隔距离的阈值,根据具体情况确定阈值大小;
根据设定的阈值对候选点按照其深度Z值采用升序或降序排序;
对相邻点间距进行判定,若相邻点Z间距大于阈值,则判定为不同群,若相邻点Z间距小于阈值,则判定为同一群;
所述K-means分群方法是将大量高维的资料点聚类分群的一种通行方法,其分割成的每一个子群可选出一个中心点或代表点;本发明应用K-means方法,针对透视柱内所有候选点的一维向量Z值或三维向量XYZ值进行分群;其中X、Y、Z值分别为在三维空间中三个轴向上的偏移量,其中,水平方向-X轴,垂直方向-Y轴,深度方向-Z轴;
步骤B5:判定符合用户选取意图的最优群;
所述用户选取意图的判定条件至少为离观察者前方较近处的点群、离透视柱中心轴较近的点群或所属点群密度较大的点群中的一种;其中,离观察者前方较近处的点群,即深度Z值最贴近观察者的群,根据求出点群里所有点与观察者间的距离的平均值,其中为所选点群里面所有点到观察者距离的平均值,Zi为点群里任一点在Z轴上的Z值,Zeye为观察者所在位置的Z值,求出所有的点群的Z值平均值,选取其中最小者为符合的点群;
若所述用户选取意图的判定条件为一种以上,则采用线性加权综合判定或非线性加权为代表的综合判定方法;其中,线性加权综合判定,假设处在空间中的任意一点i其坐标为(Xi,Yi,Zi),与用户所选点(X0,Y0,Z0)距离的平均值,可以表示为 对三项进行加权求其平均值进行划分,选取最优群,其中Xi、Yi、Zi分别为空间任一点的X值、Y值、Z值,Xeye、Yeye、Zeye分别为观察者所在位置的X值、Y值、Z值;
步骤B6:选取最优群的成员点平均深度值Zmean0作为3D空间选取点的Z值;
步骤B7:初步确定用户选取的3D空间点S′,S′坐标记录为(X0,Y0,Zmean0);
步骤B8:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤B9:用户根据初步选定的空间点S′在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback;
步骤B10:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤B11:选取Zfront和Zback之间的空间区域的均值Zmean作为3D空间选取点的Z值;
步骤B12:最终确定用户选取的3D空间点S,S坐标记录为(X0,Y0,Zmean)。
Claims (8)
1.一种3D空间精准取点方法,其特征在于,所述方法包括:
步骤A1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0);
步骤A2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤A3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点;
步骤A4:运用判定方法初步选定空间点,对初步选定的空间点在Z轴上进行初始定位;
步骤A5:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤A6:用户根据步骤A4初步选定的空间点在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback;
步骤A7:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤A8:选取Zfront和Zback之间的空间区域的均值Zmean作为3D空间选取点的Z值;
步骤A9:最终确定用户选取的3D空间点S,S坐标记录为(X0,Y0,Zmean)。
2.如权利要求1所述的3D空间精准取点方法,其特征在于:所述3D透视柱旋转的角度范围为5°-15°。
3.如权利要求1所述的3D空间精准取点方法,其特征在于:所述扩散的形状为圆形或方形。
4.一种3D空间精准取点方法,其特征在于,所述方法包括:
步骤B1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0);
步骤B2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤B3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点;
步骤B4:对3D透视柱上的候选点进行分群;
步骤B5:判定符合用户选取意图的最优群;
步骤B6:选取最优群的成员点平均深度值Zmean0作为3D空间选取点的Z值;
步骤B7:初步确定用户选取的3D空间点S′,S′坐标记录为(X0,Y0,Zmean0);
步骤B8:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤B9:用户根据初步选定的空间点S′在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback;
步骤B10:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤B11:选取Zfront和Zback之间的空间区域的均值Zmean作为3D空间选取点的Z值;
步骤B12:最终确定用户选取的3D空间点S,S坐标记录为(X0,Y0,Zmean)。
5.如权利要求4所述的3D空间精准取点方法,其特征在于:所述的分群方法采用相邻间距阈值判定方法或K-means分群方法。
6.如权利要求5所述的3D空间精准取点方法,其特征在于:所述的相邻间距阈值判定方法包括以下步骤:
步骤C1:设定一深度间隔距离的阈值,根据具体情况确定阈值大小;
步骤C2:根据设定的阈值对候选点按照其深度Z值采用升序或降序排序;
步骤C3:对相邻点间距进行判定,若相邻点Z间距大于阈值,则判定为不同群,若相邻点Z间距小于阈值,则判定为同一群。
7.如权利要求4所述的3D空间精准取点方法,其特征在于:所述用户选取意图的判定条件至少为离观察者前方较近处的点群、离透视柱中心轴较近的点群和所属点群密度较大的点群中的一种。
8.如权利要求7所述的3D空间精准取点方法,其特征在于:若所述用户选取意图的判定条件为一种以上,则采用线性加权综合判定或非线性加权为代表的综合判定方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410583191.9A CN104318613B (zh) | 2014-10-27 | 2014-10-27 | 一种3d空间精准取点方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410583191.9A CN104318613B (zh) | 2014-10-27 | 2014-10-27 | 一种3d空间精准取点方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104318613A true CN104318613A (zh) | 2015-01-28 |
CN104318613B CN104318613B (zh) | 2017-10-24 |
Family
ID=52373839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410583191.9A Active CN104318613B (zh) | 2014-10-27 | 2014-10-27 | 一种3d空间精准取点方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104318613B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968133A (zh) * | 2020-07-31 | 2020-11-20 | 上海交通大学 | 自动驾驶场景下的三维点云数据实例分割方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310489A (zh) * | 2013-06-24 | 2013-09-18 | 中南大学 | 一种基于动态深度层次结构的三维模型交互方法 |
CN103489224A (zh) * | 2013-10-12 | 2014-01-01 | 厦门大学 | 一种交互式三维点云颜色编辑方法 |
CN103870845A (zh) * | 2014-04-08 | 2014-06-18 | 重庆理工大学 | 点云聚类去噪过程中新的k值优化方法 |
-
2014
- 2014-10-27 CN CN201410583191.9A patent/CN104318613B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310489A (zh) * | 2013-06-24 | 2013-09-18 | 中南大学 | 一种基于动态深度层次结构的三维模型交互方法 |
CN103489224A (zh) * | 2013-10-12 | 2014-01-01 | 厦门大学 | 一种交互式三维点云颜色编辑方法 |
CN103870845A (zh) * | 2014-04-08 | 2014-06-18 | 重庆理工大学 | 点云聚类去噪过程中新的k值优化方法 |
Non-Patent Citations (2)
Title |
---|
孙红岩 等: "基于K-means聚类方法的三维点云模型分割", 《计算机工程与应用》 * |
雷敏 等: "一种三维点云聚类算法的研究", 《科学工程与技术》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111968133A (zh) * | 2020-07-31 | 2020-11-20 | 上海交通大学 | 自动驾驶场景下的三维点云数据实例分割方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104318613B (zh) | 2017-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109191521B (zh) | 一种隧道点云数据分析方法及系统 | |
CN104200507B (zh) | 一种三维点云点法向量估计方法 | |
CN106598988A (zh) | 一种数据处理方法和设备 | |
CN100485662C (zh) | 基于数据动态存取模型的产品点云型面特征分析方法 | |
CN103065353B (zh) | 三维模型特征提取方法和系统、三维模型检索方法和系统 | |
CN106156138B (zh) | 兴趣点的空间索引的建立、周边搜索方法和装置 | |
CN102722885A (zh) | 一种加快三维图形显示的方法 | |
CN105719249A (zh) | 一种基于三维格网的机载激光雷达点云去噪方法 | |
CN103489224A (zh) | 一种交互式三维点云颜色编辑方法 | |
CN104361625A (zh) | 一种基于射线原理的带边界保留的云数据精简算法 | |
CN103914871B (zh) | 基于点云数据的交互式选取物体表面坐标点的方法 | |
CN104318613A (zh) | 一种3d空间精准取点方法 | |
CN107203267B (zh) | 基于视野判断的虚拟世界探索方法及装置 | |
CN104318587A (zh) | 一种基于新型视觉追踪技术的目标追踪方法 | |
CN105719261A (zh) | 点云数据合并系统及方法 | |
CN103593835A (zh) | 一种三维图像重建体的精确测量方法 | |
Yan et al. | Research and application of the test data visualization | |
CN104794747A (zh) | 一种基于射线原理的三维点云数据精简算法 | |
Andrienko et al. | A visual analytics approach to exploration of large amounts of movement data | |
CN103679794A (zh) | 模拟三维素描铅笔画的绘制方法 | |
CN101655712B (zh) | 移动机器人群集控制方法 | |
CN104462764A (zh) | 一种虚拟现实仿真中物体表面间最小距离的快速计算方法 | |
CN104318612A (zh) | 一种3d空间取点方法 | |
CN104462440A (zh) | 基于数据立方体的可视化数据的二维显示方法和装置 | |
CN103279451A (zh) | 一种新颖的人工势场函数的计算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |