CN104318587A - 一种基于新型视觉追踪技术的目标追踪方法 - Google Patents

一种基于新型视觉追踪技术的目标追踪方法 Download PDF

Info

Publication number
CN104318587A
CN104318587A CN201410583687.6A CN201410583687A CN104318587A CN 104318587 A CN104318587 A CN 104318587A CN 201410583687 A CN201410583687 A CN 201410583687A CN 104318587 A CN104318587 A CN 104318587A
Authority
CN
China
Prior art keywords
user
axis
point
space
post
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410583687.6A
Other languages
English (en)
Other versions
CN104318587B (zh
Inventor
祁海江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201410583687.6A priority Critical patent/CN104318587B/zh
Publication of CN104318587A publication Critical patent/CN104318587A/zh
Application granted granted Critical
Publication of CN104318587B publication Critical patent/CN104318587B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • G06T3/604Rotation of whole images or parts thereof using coordinate rotation digital computer [CORDIC] devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20108Interactive selection of 2D slice in a 3D data set

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供了一种基于新型视觉追踪技术的目标追踪方法,该方法通过将三维空间区域分格,并标记颜色或数字,通过移动网格来得到所要选取的子格,再将选取的子格逐级放大来进行视觉辅助,重复进行网格划分与选取,直到达到设定的空间精度标准,最终确定用户所要选取的目标;该方法能够使不同行业的用户可以根据行业或者自身需要进行更直观、更形象的追踪目标,实现了目标追踪的可视化,而且也使得目标追踪的操作动作与状态紧密结合,使得操作更加简单方便、错误机率大大减小,从而进一步提高了目标追踪的准确性。

Description

一种基于新型视觉追踪技术的目标追踪方法
技术领域
本发明涉及计算机视觉和计算机图形学领域,特别是涉及一种在3D空间内进行目标追踪的基于新型视觉追踪技术的目标追踪方法。
背景技术
目前,3D空间选取特定位置的目标时,常常通过辅助工具来辅助用户进行视觉追踪以便选取合适的目标,但是,现有的辅助工具都存在一定缺陷,从而导致用户无法进行快捷、精确的选取所需目标,主要有以下几种原因:
(1)空间圆球辅助追踪:当用户使用球坐标进行目标选取时,由于缺乏一个清晰的标尺,所以操作者通常需要不断的旋转或放大三维空间物体才能找到所要选取的目标,使得操作比较复杂,用户的追踪也比较困难;
(2)在屏幕上设置标尺,由于设置的标尺离所要选取的内容比较远,便会导致用户视觉分离,从而使用户选取时容易错格,增加了选取的错误率。
由于现有技术中的三维视觉追踪工具比较少,用户在3D空间目标选取过程中往往会通过操作者手工控制,但是由于操作比较繁杂,使得人的视觉追踪就比较困难,从而使得目标的选取不够直观、形象,在屏幕上设置标尺后,标尺与内容相隔较远,又会产生视觉分离,选取的错误几率相应也会增大,从而影响了3D空间目标的精确定位。因此,如何在3D空间中方便快捷且精确的选取空间特定位置的目标,已成为亟待解决的问题。
发明内容
本发明针对上述技术问题,提出了一种基于新型视觉追踪技术的目标追踪方法,通过将三维空间区域分格,并将网格逐级放大来进行视觉辅助,能使得不同行业的用户可以根据行业或者自身需要进行目标追踪,这样不仅使用户在目标选取过程中更直观、更形象,而且使得操作动作及状态紧密结合,从而使得目标选取更加准确、快捷和方便,大大提高了用户的工作效率。
本发明的技术方案为:
和现有技术相比,本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述方法包括:
步骤A1:初步选定3D空间内合适的子空间区域;选取的子空间区域可以是在3D空间透视柱上初步选定的子空间区域;或是通过用户根据所要选取的目标在三维空间内直接选定的子空间区域;
步骤A2:将选定的子空间区域进行网格划分,按照等分或是不等分方法划分;
步骤A3:利用颜色或数字来标记划分完的网格,颜色标记采取渐变的形式;
步骤A4:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;用户根据选取的设备选取屏幕上的点击键,设备为按键、鼠标或触屏等,使子空间区域上利用颜色或数字等做标记的X轴、Y轴、Z轴交汇的格子可以在整个3D空间内进行上下左右前后的移动,通过移动得到用户想要选取的目标所在的子格位置,除了通过按键,用户还可以通过移动鼠标或手触方式进行上下左右前后移动来选取所要得到的子格;
步骤A5:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤A6,若否,则将选中的子格空间区域进行显示放大,放大到用户觉得可以自行进行划分后,并返回步骤A2;
步骤A6:选出合适的追踪目标。
所述步骤A2中的网格划分采用等分划分或不等分划分,例如5×5×5或5×4×6。
所述步骤A3中的颜色标记采取渐变的形式,网格与选定的子空间区域的两个平面相交的部分颜色标记较深,除相交之外的部分颜色标记较浅,其中X轴标记颜色的网格与选定的子空间区域的两个平面相交的部分为暗红色,除相交之外的部分为浅红色,Y轴标记颜色的网格与选定的子空间区域的两个平面相交的部分为暗绿色,除相交之外的部分为浅绿色,Z轴标记颜色的网格与选定的子空间区域的两个平面相交的部分为暗蓝色,除相交之外的部分为浅蓝色,当X轴、Y轴、Z轴标记颜色的网格相交时,X轴、Y轴、Z轴标记颜色的网格颜色利用色彩学叠加原理叠加后会呈现一种明显识别的发亮颜色,这样有助于用户在选择的时候容易区分出X轴、Y轴、Z轴交汇的格子;
所述步骤A4中的X轴、Y轴、Z轴交汇的格子采用按键、移动鼠标或手触方式进行上下左右前后的移动;用户根据选取的设备选取屏幕上的点击键,设备为鼠标或触屏等,使子空间区域上利用颜色或数字等做标记的X轴、Y轴、Z轴交汇的格子可以在整个3D空间内进行上下左右前后的移动,通过移动得到用户想要的目标所在的格子位置,除了通过按键,用户还可以通过移动鼠标或手触方式进行上下左右前后移动来选取所要得到的子格。
本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述方法包括:
步骤B1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0);
步骤B2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤B3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点;
步骤B4:运用判定方法初步选定空间点,对初步选定的空间点在Z轴上进行初始定位;
步骤B5:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤B6:用户根据初步选定的空间点在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback
步骤B7:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤B8:将选定的子空间区域进行网格划分;
步骤B9:利用颜色或数字来标记划分完的网格;
步骤B10:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
步骤B11:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤B12,若否,则将选中的子格空间区域进行显示放大,并返回步骤B8;
步骤B12:选出合适的追踪目标。
所述3D透视柱旋转的角度范围为5°-15°。
所述扩散的形状为圆形或方形。
本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述方法包括:
步骤C1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0);
步骤C2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤C3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点;
步骤C4:对3D透视柱上的候选点进行分群;
步骤C5:判定符合用户选取意图的最优群;
步骤C6:选取最优群的成员点平均深度值Zmean0作为3D空间选取点的Z值;
步骤C7:初步确定用户选取的3D空间点S′,S′坐标记录为(X0,Y0,Zmean0)。
步骤C8:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤C9:用户根据初步选定的空间点S′在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback
步骤C10:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤C11:将选定的子空间区域进行网格划分;
步骤C12:利用颜色或数字来标记划分完的网格;
步骤C13:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
步骤C14:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤C15,若否,则将选中的子格空间区域进行显示放大,并返回步骤C11;
步骤C15:选出合适的追踪目标。
所述的分群方法采用相邻间距阈值判定方法或K-means分群方法。
所述的相邻间距阈值判定方法包括以下步骤:
步骤D1:设定一深度间隔距离的阈值,根据具体情况确定阈值大小;
步骤D2:根据设定的阈值对候选点按照其深度Z值采用升序或降序排序;
步骤D3:对相邻点间距进行判定,若相邻点Z间距大于阈值,则判定为不同群,若相邻点Z间距小于阈值,则判定为同一群。
所述用户选取意图的判定条件至少为离观察者前方较近处的点群、离透视柱中心轴较近的点群和所属点群密度较大的点群中的一种。
若所述用户选取意图的判定条件为一种以上,则采用线性加权综合判定或非线性加权为代表的综合判定方法。
本发明可采取多种方法来初步选定子空间区域,例如:通过用户的可视范围来初步确定子空间区域或是通过用户初步选定的空间点来确定子空间区域;用户初步选取空间点的判定方法主要是通过用户的认知意图从3D空间中选点,用户的认知意图可以归结为两点:(1)选取离观察者距离较近的点;(2)选取靠近观察者的某一可见点群,从点群中选取出用户所要选取的点。通过比较可以得知,采用初步选定的空间点所确定的子空间区域比用户的可视范围所确定的子空间区域更加准确,进一步的通过分群方法初步选定空间点所确定的子空间区域更加接近用户所要追踪的目标,从而使得用户的追踪目标更加准确。
本发明的技术效果为:
本发明针对用户目标选取的意图,提供了一种基于新型视觉追踪技术的目标追踪方法,该方法通过将三维空间区域分格,并标记颜色或数字,通过移动网格来得到所要选取的子格,再将选取的子格逐级放大来进行视觉辅助,重复进行网格划分与选取,直到达到设定的空间精度标准,最终确定用户所要选取的目标,该方法能够使不同行业的用户可以根据行业或者自身需要进行更直观、更形象的追踪目标,实现了目标追踪的可视化,而且也使得目标追踪的操作动作与状态紧密结合,使得操作更加简单方便、错误机率大大减小,从而进一步提高了目标追踪的准确性。
附图说明
图1为本发明的目标追踪方法的流程图。
图2为本发明子空间区域划分网格示意图。
图3为本发明按照Z轴方向形成3D透视柱的示意图。
图4为旋转后的3D透视柱的示意图。
图5为本发明初步选取空间点方法的流程图。
图6为本发明按照Z轴方向分群的示意图。
具体实施方式
下面结合附图说明本发明的具体实施方式:
实施例1:
由图1-2所示,本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述方法包括:
步骤A1:初步选定3D空间内合适的子空间区域,选取的子空间区域是通过用户根据所要选取的目标在三维空间内直接选定的子空间区域;
步骤A2:将选定的子空间区域进行网格划分,按照等分或是不等分方法划分,例如5×5×5或5×4×6;
步骤A3:利用颜色或数字来标记划分完的网格,颜色标记采取渐变的形式,网格与选定的子空间区域的两个平面相交的部分颜色标记较深,除相交之外的部分颜色标记较浅,其中X轴标记颜色的网格与选定的子空间区域的两个平面相交的部分为暗红色,除相交之外的部分为浅红色,Y轴标记颜色的网格与选定的子空间区域的两个平面相交的部分为暗绿色,除相交之外的部分为浅绿色,Z轴标记颜色的网格与选定的子空间区域的两个平面相交的部分为暗蓝色,除相交之外的部分为浅蓝色,当X轴、Y轴、Z轴标记颜色的网格相交时,X轴、Y轴、Z轴标记颜色的网格颜色利用色彩学叠加原理叠加后会呈现一种明显识别的发亮颜色,这样有助于用户在选择的时候容易区分出X轴、Y轴、Z轴交汇的格子;
步骤A4:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;用户根据选取的设备选取屏幕上的点击键,设备为按键、鼠标或触屏等,使子空间区域上利用颜色或数字等做标记的X轴、Y轴、Z轴交汇的格子可以在整个3D空间内进行上下左右前后的移动,通过移动得到用户想要的目标所在的子格位置,除了通过按键,用户还可以通过移动鼠标或手触方式进行上下左右前后移动来选取所要得到的子格。
步骤A5:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤A6,若否,则将选中的子格空间区域进行显示放大,放大到用户觉得可以自行进行划分后,并返回步骤A2;
步骤A6:选出合适的追踪目标。
实施例2:
由图1-4所示,本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述方法包括:
步骤B1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0),其中,X0是指在水平X轴上的用户所处位置的数值,Y0是指在垂直方向上的用户所处位置的数值;
步骤B2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤B3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点,所述扩散的形状为圆形或方形,用户可以遵循简单、方便的原则自行选择扩撒形状,为了便于观察透视柱,将透视柱可视化,在3D透视柱圈定用户观察到的3D透视柱范围,Z轴上的可见范围之中距离用户最近的Z值记为Znearest,距离用户最远的Z值记为Zfarest
步骤B4:运用判定方法初步选定空间点,对初步选定的空间点在Z轴上进行初始定位;
步骤B5:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;所述3D透视柱旋转的角度范围为5°-15°,将透视柱旋转可以得到用户非常直观的观察的透视柱,便于用户根据需要在透视柱上选取所需要的空间区域;
步骤B6:用户根据选定的空间点在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback
步骤B7:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤B8:将选定的子空间区域进行网格划分;
步骤B9:利用颜色或数字来标记划分完的网格;
步骤B10:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
步骤B11:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤B12,若否,则将选中的子格空间区域进行显示放大,并返回步骤B8;
步骤B12:选出合适的追踪目标。
实施例3:
由图1-6所示,本发明提供了一种基于新型视觉追踪技术的目标追踪方法,所述方法包括:
步骤C1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0);
步骤C2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤C3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点;
步骤C4:对3D透视柱上的候选点进行分群;
划分群的方法可采用相邻间距阈值判定法或K-means分群方法;
所述的相邻间距阈值判定方法包括以下步骤:
设定一深度间隔距离的阈值,根据具体情况确定阈值大小;
根据设定的阈值对候选点按照其深度Z值采用升序或降序排序;
对相邻点间距进行判定,若相邻点Z间距大于阈值,则判定为不同群,若相邻点Z间距小于阈值,则判定为同一群;
所述K-means分群方法是将大量高维的资料点聚类分群的一种通行方法,其分割成的每一个子群可选出一个中心点或代表点;本发明应用K-means方法,针对透视柱内所有候选点的一维向量Z值或三维向量XYZ值进行分群;其中X、Y、Z值分别为在三维空间中三个轴向上的偏移量,其中,水平方向-X轴,垂直方向-Y轴,深度方向-Z轴;
步骤C5:判定符合用户选取意图的最优群;
所述用户选取意图的判定条件至少为离观察者前方较近处的点群、离透视柱中心轴较近的点群或所属点群密度较大的点群中的一种;其中,离观察者前方较近处的点群,即深度Z值最贴近观察者的群,根据求出点群里所有点与观察者间的距离的平均值,其中为所选点群里面所有点到观察者距离的平均值,Zi为点群里任一点在Z轴上的Z值,Zeye为观察者所在位置的Z值,求出所有的点群的Z值平均值,选取其中最小者为符合的点群;
若所述用户选取意图的判定条件为一种以上,则采用线性加权综合判定或非线性加权为代表的综合判定方法;其中,线性加权综合判定,假设处在空间中的任意一点i其坐标为(Xi,Yi,Zi),与用户所选点(X0,Y0,Z0)距离的平均值,可以表示为 对三项进行加权求其平均值进行划分,选取最优群,其中Xi、Yi、Zi分别为空间任一点的X值、Y值、Z值,Xeye、Yeye、Zeye分别为观察者所在位置的X值、Y值、Z值;
步骤C6:选取最优群的成员点平均深度值Zmean0作为3D空间选取点的Z值;
步骤C7:初步确定用户选取的3D空间点S′,S′坐标记录为(X0,Y0,Zmean0)。
步骤C8:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤C9:用户根据初步选定的空间点S′在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback
步骤C10:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤C11:将选定的子空间区域进行网格划分;
步骤C12:利用颜色或数字来标记划分完的网格;
步骤C13:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
步骤C14:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤C15,若否,则将选中的子格空间区域进行显示放大,并返回步骤C11;
步骤C15:选出合适的追踪目标。

Claims (12)

1.一种基于新型视觉追踪技术的目标追踪方法,其特征在于,所述方法包括:
步骤A1:初步选定3D空间内合适的子空间区域;
步骤A2:将选定的子空间区域进行网格划分;
步骤A3:利用颜色或数字来标记划分完的网格;
步骤A4:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
步骤A5:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤A6,若否,则将选中的子格空间区域进行显示放大,并返回步骤A2;
步骤A6:选出合适的追踪目标。
2.如权利要求1所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述步骤A2中的网格划分采用等分划分或不等分划分。
3.如权利要求1所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述步骤A3中的颜色标记采取渐变的形式。
4.如权利要求1所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述步骤A4中的X轴、Y轴、Z轴交汇的格子采用按键、移动鼠标或手触方式进行上下左右前后的移动。
5.一种基于新型视觉追踪技术的目标追踪方法,其特征在于,所述方法包括:
步骤B1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0);
步骤B2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤B3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点;
步骤B4:运用判定方法初步选定空间点,对初步选定的空间点在Z轴上进行初始定位;
步骤B5:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤B6:用户根据步骤B4初步选定的空间点在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback
步骤B7:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤B8:将选定的子空间区域进行网格划分;
步骤B9:利用颜色或数字来标记划分完的网格;
步骤B10:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
步骤B11:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤B12,若否,则将选中的子格空间区域进行显示放大,并返回步骤B8;
步骤B12:选出合适的追踪目标。
6.如权利要求5所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述3D透视柱旋转的角度范围为5°-15°。
7.如权利要求5所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述扩散的形状为圆形或方形。
8.一种基于新型视觉追踪技术的目标追踪方法,其特征在于,所述方法包括:
步骤C1:在2D平面内,用户选取一个位置点S0,记录点击点平面坐标(X0,Y0);
步骤C2:以选取的位置点S0为中心圈定2D范围的前端可视平面;
步骤C3:将2D范围的前端可视平面按照透视关系沿Z轴方向进行扩散,形成3D透视柱,并去除透视柱之外的点;
步骤C4:对3D透视柱上的候选点进行分群;
步骤C5:判定符合用户选取意图的最优群;
步骤C6:选取最优群的成员点平均深度值Zmean0作为3D空间选取点的Z值;
步骤C7:初步确定用户选取的3D空间点S′,S′坐标记录为(X0,Y0,Zmean0)。
步骤C8:将形成的3D透视柱按照X轴和Y轴进行旋转,得到用户直观观察的3D透视柱;
步骤C9:用户根据初步选定的空间点S′在3D透视柱上的位置来截取空间区域,从而得到与透视柱中心轴垂直的两个平面,其中,离用户最近的平面记为Zfront,离用户最远的平面记为Zback
步骤C10:用户按照Z轴方向拉动所截取空间区域的Zfront和Zback平面来改变所截取空间区域的长短,从而选取合适的空间区域,即Zfront和Zback平面之间的空间区域;
步骤C11:将选定的子空间区域进行网格划分;
步骤C12:利用颜色或数字来标记划分完的网格;
步骤C13:将X轴、Y轴、Z轴交汇的格子移动至用户所要选取的目标所在的子格;
步骤C14:判定选中的子格是否达到设定的空间精度标准;若是,则进入步骤C15,若否,则将选中的子格空间区域进行显示放大,并返回步骤C11;
步骤C15:选出合适的追踪目标。
9.如权利要求8所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述的分群方法采用相邻间距阈值判定方法或K-means分群方法。
10.如权利要求9所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述的相邻间距阈值判定方法包括以下步骤:
步骤D1:设定一深度间隔距离的阈值,根据具体情况确定阈值大小;
步骤D2:根据设定的阈值对候选点按照其深度Z值采用升序或降序排序;
步骤D3:对相邻点间距进行判定,若相邻点Z间距大于阈值,则判定为不同群,若相邻点Z间距小于阈值,则判定为同一群。
11.如权利要求8所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:所述用户选取意图的判定条件至少为离观察者前方较近处的点群、离透视柱中心轴较近的点群和所属点群密度较大的点群中的一种。
12.如权利要求11所述的基于新型视觉追踪技术的目标追踪方法,其特征在于:若所述用户选取意图的判定条件为一种以上,则采用线性加权综合判定或非线性加权为代表的综合判定方法。
CN201410583687.6A 2014-10-27 2014-10-27 一种基于视觉追踪技术的目标追踪方法 Expired - Fee Related CN104318587B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410583687.6A CN104318587B (zh) 2014-10-27 2014-10-27 一种基于视觉追踪技术的目标追踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410583687.6A CN104318587B (zh) 2014-10-27 2014-10-27 一种基于视觉追踪技术的目标追踪方法

Publications (2)

Publication Number Publication Date
CN104318587A true CN104318587A (zh) 2015-01-28
CN104318587B CN104318587B (zh) 2017-08-25

Family

ID=52373813

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410583687.6A Expired - Fee Related CN104318587B (zh) 2014-10-27 2014-10-27 一种基于视觉追踪技术的目标追踪方法

Country Status (1)

Country Link
CN (1) CN104318587B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678753A (zh) * 2015-12-31 2016-06-15 百度在线网络技术(北京)有限公司 一种物体分割方法及装置
CN106482665A (zh) * 2016-09-21 2017-03-08 大连理工大学 一种组合点群高精度三维信息视觉测量方法
CN109901105A (zh) * 2019-03-25 2019-06-18 四川超影科技有限公司 一种基于空间数值迭代的室内定位方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110218661A1 (en) * 2008-06-26 2011-09-08 Dirk Van Well Method for individual tracking of metallic hollow bodies
CN102638863A (zh) * 2012-03-20 2012-08-15 东南大学 一种无线传感器网络中的移动目标跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110218661A1 (en) * 2008-06-26 2011-09-08 Dirk Van Well Method for individual tracking of metallic hollow bodies
CN102638863A (zh) * 2012-03-20 2012-08-15 东南大学 一种无线传感器网络中的移动目标跟踪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
任玉鑫: "三维无线传感网络高精度定位算法研究", 《万方学位论文数据库》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105678753A (zh) * 2015-12-31 2016-06-15 百度在线网络技术(北京)有限公司 一种物体分割方法及装置
CN106482665A (zh) * 2016-09-21 2017-03-08 大连理工大学 一种组合点群高精度三维信息视觉测量方法
CN106482665B (zh) * 2016-09-21 2018-05-08 大连理工大学 一种组合点群高精度三维信息视觉测量方法
CN109901105A (zh) * 2019-03-25 2019-06-18 四川超影科技有限公司 一种基于空间数值迭代的室内定位方法

Also Published As

Publication number Publication date
CN104318587B (zh) 2017-08-25

Similar Documents

Publication Publication Date Title
US10679337B2 (en) System and method for tool mapping
CN105203034B (zh) 一种基于单目摄像头三维测距模型的测高测面积方法
CN105893384B (zh) 一种在三维空间中建立电子围栏的方法
KR20190053119A (ko) 증강 현실 플랫폼들의 물리적 환경에 가상 콘텐츠를 공간적으로 등록하기 위한 시스템들, 방법들 및 툴들
US10237493B2 (en) Camera configuration method and apparatus
CN103049912A (zh) 一种基于任意三面体的雷达-相机系统外部参数标定方法
CN110322564B (zh) 一种适用于vr/ar的变电站运行环境的三维模型构建方法
CN103181157A (zh) 基于平面特性的无标记增强现实系统及其操作方法
CN102800083A (zh) 基于双目视觉网格划分匹配算法的农作物喷雾定位方法
CN101715581A (zh) 体积识别方法和系统
EP2705417A1 (de) Verfahren zur bestimmung der relativen lage eines objekts im raum sowie optisches eingabesystem
CN104318587A (zh) 一种基于新型视觉追踪技术的目标追踪方法
KR101700648B1 (ko) 지역계획모델에 대한 탄소 배출량 표출 시스템
CN109471533A (zh) 一种vr/ar教室内的学生端系统及其使用方法
Zhang et al. Incorporating depth information into few-shot semantic segmentation
CN104657985B (zh) 基于深度图像遮挡信息的静态视觉目标遮挡规避方法
CN110189283A (zh) 基于语义分割图的遥感图像dsm融合方法
CN108399630B (zh) 一种复杂场景下感兴趣区域内目标快速测距方法
CN109559337A (zh) 三维场景下的定位轨迹获取方法
CN106289196B (zh) 基于三维激光扫描技术的崩滑体地质灾害体监测方法
CN103049584B (zh) 一种对应坐标系的数据场可视化方法
CN104821135A (zh) 一种实现纸质地图与电子地图结合显示的方法及装置
CN109061560A (zh) 一种定位方法及装置
CN104077603A (zh) 类地重力场环境下室外场景单目视觉空间识别方法
CN103593835A (zh) 一种三维图像重建体的精确测量方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170825

CF01 Termination of patent right due to non-payment of annual fee