CN107730592B - 一种虚拟环境下视野外目标的可视化方法 - Google Patents
一种虚拟环境下视野外目标的可视化方法 Download PDFInfo
- Publication number
- CN107730592B CN107730592B CN201711005248.7A CN201711005248A CN107730592B CN 107730592 B CN107730592 B CN 107730592B CN 201711005248 A CN201711005248 A CN 201711005248A CN 107730592 B CN107730592 B CN 107730592B
- Authority
- CN
- China
- Prior art keywords
- 3dwedge
- target
- distance
- field
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
一种虚拟环境下视野外目标的可视化方法,包括使用四棱锥可视化视野外目标,其高度和底面正方形大小均可表示目标与观测点之间的距离,同时可根据底面中心之间的距离判断目标与目标之间的距离。高度随距离按比例缩放,底面面积随目标秩序变化而变化。本四棱锥将指示信息透明化处理,减少视觉障碍。为了在高密度场景中加强效果,进一步提出增强版四棱锥。添加刻度线,可精确比较视野外大量目标的方向和距离;添加球形指针,四棱锥底面中心的圆球可以更精确地对准目标。对比实验结果表明,在3D虚拟环境中的快速对比推理和分析中,本发明可以更容易获取视野外目标的方向和距离信息,速度更快、精确度更高,当视野外目标较多时,增强版效果尤其明显。
Description
技术领域
本发明涉及三维可视化领域,具体涉及一种虚拟环境下视野外目标的可视化方法。
背景技术
在一个3D虚拟环境中,观察者经常需要搜寻和定位临近目标物体,然而许多目标物体在视野之外,对于观察者来说这些目标是不可见的。当重要的定位和方向信息不可见时,空间导航任务就变得困难许多。
目前对于这种问题最常用的解决方案包括2D地图可视化技术和3D箭头。然而,2D地图无法区分不同高度的目标,都是将2D的地图直接套用在3D的环境中,例如被许多游戏类应用所采用的平面小地图,无法直观判断高度。还有一些应用对2D目标定位技术进行改进,制作了3D箭头来指示方向和距离。但是如果在同一方向有多个目标,那箭头的重叠会影响到用户的判断。并且在目标数量较大且多个目标与观察者距离相近时,如果不依靠文本注释,3D箭头难以区分不同目标的距离远近,该方法对目标比较多的任务实用性较差。Schinke提出在AR应用中缩小3D箭头提示,根据观察者和目标之间的距离缩放箭头长度。但是箭头的质心放在圆的边界上,导致信息模糊,不容易比较距离信息。
除此之外,Aroundplot技术将3D球形坐标映射为2D鱼眼图像,该技术必须通过文本注释显示距离信息,而且,观察者必须不断地转身以获取每个目标的方向信息。另一个可视化技术是SidebARs,它允许观察者快速获取距离和方向信息,然而它不能寻找位于使用者上方的目标。Halo3D能够显示屏幕外物体的3D方向和距离,但是由于映射问题这种技术会造成视觉干扰。
现有的3D环境目标可视化技术,大多不能清晰地传递目标的方向和距离信息,需要文本注释造成信息迷糊,有的还会造成视觉障碍等。没有一个技术,可以在3D虚拟环境中的快速对比推理和分析中,不仅能够清晰地显示方向还能显示距离,在不借助文本注释的情况下,可以帮助观察者快速获取视野外目标的方向和距离信息。
发明内容
本发明的针对现有技术中的不足,提供一种虚拟环境下视野外目标的可视化方法。
为实现上述目的,本发明采用以下技术方案:
一种虚拟环境下视野外目标的可视化方法,其特征在于,包括以下步骤:
建立3DWedge模型:使用四棱锥可视化视野外目标,其高度和底面正方形大小均可表示目标与观测点之间的距离,同时可根据底面中心之间的距离判断目标与目标之间的距离,其高度随距离按比例缩放,底面面积随物体的秩序变化而变化;
建立3DWedge+模型:在3DWedge模型的基础上增加刻度线,可以精确比较视野外多个目标物体的方向和距离信息,并添加球形指针,四棱锥底面中心的圆球用于对准目标,从而形成3DWedge+模型;
目标判断:通过虚拟现实显示设备观察目标场景,选择可视化模式,比较视野外不同目标与观测点之间的距离,判断视野外目标的方向,判断视野外目标之间的距离。
为优化上述技术方案,采取的具体措施还包括:
一个3DWedge模型指向一个视野外目标,多个目标形成由多个3DWedge模型组成的3DWedge簇,簇的原点是所有3DWedge模型的顶点。
每个四棱锥的高和底面边长采用以下方法设置:
高度缩放:3DWedge模型的高度缩放根据定位目标与观测点的距离远近按照比例尺缩放;
底面缩放:底面边长的计算公式如下:
其中,f(x)是底面边长,n是最小底面,m是最大底面,p是场景中视野外目标数量,i代表距离观测点由近及远排序的第i个视野外目标。
为了让3DWedge模型能够正确指向物体,根据观测点和3DWedge模型所在的角度进行整个3DWedge簇的转置,转置角度A’等于观测点到3DWedge簇原点方向向量a与观测点水平视角的方向向量b的锐角夹角A。
对3DWedge模型整体进行透明化处理。
3DWedge+模型的刻度确定方法如下:先确定单位刻度对应的实际距离值k,每个3DWedge+模型的单位刻度数目q根据实际目标与观测点的距离d来确定,即q=d/k。
如果虚拟场景中目标数p≤5,则使用3DWedge模式;如果目标数p>5,则切换至3DWedge+模式。
在3DWedge模式中,通过比较四棱锥底面正方形中心之间的距离来比较目标之间的距离;在3DWedge+模式中,通过比较指向不同目标的单位刻度数来比较目标之间的距离。
在3DWedge模式中,将3DWedge模型的底面笔直对准前方,视野中心即目标所在方向;在3DWedge+模式中,将3DWedge+模型的球形箭头笔直对准前方,视野中心即目标所在方向。
在3DWedge模式中,通过3DWedge模型的高度h或底面正方形面积s比较目标与观测点之间的距离;在3DWedge+模式中,通过比较底面正方形中箭头尖端之间的距离比较目标与观测点之间的距离。
本发明的有益效果是:3DWedge使用了四棱锥指示目标方向,并使用可缩放的矩形底面来表示物体的距离,3DWedge+添加了球形指针和刻度线,这两种模型可以避免在同一方向有多个目标时的重叠现象并且能够精确区分目标物体距离用户的距离。根据实验数据分析,3DWedge和3DWedge+在寻找最近的目标,寻找相互距离最近的两个目标,给目标距离排序和指出目标方向等四个测试中表现优于其他的技术,尤其在目标密度较大数量较多时,3DWedge+相较其他技术有着明显优势。
附图说明
图1是本发明的方法流程图。
图2是本发明的3DWedge和3DWedge+的模型说明图。
图3是本发明的场景应用示例图
具体实施方式
现在结合附图对本发明作进一步详细的说明。
如图1所示的虚拟环境下视野外目标的可视化方法,具体步骤如下。
一、模式设定
1.3DWedge:由四棱锥构成(底面为正方形),使用四棱锥可视化视野外目标,其高度和底面正方形大小表示目标与观察者之间的距离,可随距离按比例缩放。一个3DWedge模型指向一个视野外目标,当有多个目标时,则形成由多个3DWedge组成的3DWedge簇,簇的原点是所有3DWedge的顶点,如图2a所示,一个3DWedge簇包括一个顶点,始于顶点的一个或多个3DWedge来显示目标的方向和距离。具体设定方法如下:
1)通过3DWedge表示视野外不同目标与观察者之间的距离远近,具体通过3DWedge的高度h或者底面正方形面积大小s来区分,h越小或者s越大代表目标离观察者越近;h越大或者s越小代表目标离观察者越远。
为了更精确地辨别距离(甚至是当两个目标之间的距离近到使用3DWedge的高度难以分辨时),使用以下方法设置每个四棱锥的高和底边长度:
高度缩放:是根据定位目标与观察者的距离远近按照比例尺缩放,缩放比例可以根据需要进行调整。
底面缩放:底面边长的计算公式如下:
其中,f(x)是底面边长,n是最小底面,m是最大底面,p是场景中视野外目标数量,i代表距离观察者由近及远排序的第i个视野外目标。
首先,根据预定的比例尺确定四棱锥的高度h。
其次,设底面最小最大的界限分别为n、m,并计算场景中的目标数量p。
最后,可以很容易地判别目标的远近顺序。
2)为了帮助观察者推断虚拟环境中视野外目标的方向,调整了3DWedge的方向。当观察者是指向目标时,对观察者来说能很直观很简单地判断3DWedge的方向是否直接指向目标。为了最小化技术障碍,将3DWedge放在使用者的观察中心下方。根据观察者视角,会导致3DWedge的偏离角度θ,如图2b所示。为了避免这个问题,将整个3DWedge簇旋转θ角度,这样,观察者就可以通过3DWedge感知到目标的方向。
2.3DWedge+:为了应对高密度环境,进一步提出3DWedge+技术。如图2c所示,3DWedge+模型是一个整合了3DWedge、刻度线和球形指针的混合模型,刻度线可以增强虚拟推理和距离对比。
为了更好地显示3DWedge指向的方向,在球形指针上添加刻度线可以更容易判断距离。设定刻度最小间隔w,即单位刻度,刻度线最终由3DWedge+的长度决定。
先确定最小的刻度对应的实际距离值k。然后每个3DWedge+的单位刻度数目q根据实际目标与观察者的距离d来确定,数目q=d/k。
二、目标判断
1.通过虚拟现实显示设备观察目标场景。
2.选择可视化模式。如果虚拟场景中目标较少,如p≤5,则使用3DWedge模式;如果目标较多,如p>5,则切换至3DWedge+模式;
3.3DWedge模式:
1)比较视野外不同目标与观察者之间的距离。
假设该场景中视野外有两个目标,则有两个3DWedge(四棱锥)分别指向不同的目标。通过3DWedge的高度h或者通过底面正方形面积s来判断。
若h1>h2,则目标1距离观察者较远,反之较近;
若s1>s2,则目标1距离观察者较近,反之较远;
2)判断视野外目标的方向。
通过3DWedge判断物体所在的方向,虚拟场景中3DWedge的方向与视野外目标方向一致。将3DWedge的底面笔直对准前方,视野中心即目标所在的方向。
3)判断视野外目标之间的距离。
观察者可以比较两个底面正方形中心之间的距离来判断。两个底面中心距离越近,两个实际视野外目标之间的距离越近。
如场景中有3个视野外目标a、b、c,若Lab>Lac>Lbc,则说明目标b和目标c距离最近。
4.3DWedge+模式:
1)比较视野外不同目标与观察者之间的距离。
假设该场景中视野外有6个目标,则有6个四棱锥分别指向不同的目标。可以通过四棱锥的高度h或者通过底面正方形面积s来判断,也可以通过判断刻度线的长度更精确地确定距离信息。一般情况下比较指向不同目标的刻度线包含几个单位刻度,如:
a=5w,b=7w,则目标a距离观察者较近,其中w指单位刻度。
2)判断视野外目标的方向。
在该模式下,使用球形箭头来判断信息。将3DWedge+的球形箭头笔直对准前方,视野中心即目标所在的方向。相比于3DWedge模式,使用球形箭头比直接估计底面中心更精确、更便捷。
3)判断视野外目标之间的距离。
在该模式下,使用球形箭头来判断信息。比较两个箭头尖端之间的距离,箭头距离越近,两个实际目标之间的距离越近。相比于3DWedge模式,使用球形箭头比直接估计底面中心更精确、更便捷。
3DWedge和3DWedge+都能与其他VR应用整合起来去提供距离和方向信息,最小化其他物体造成的视觉障碍,更精确、更快速地判断视野外目标的距离和方向信息。
以上仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,应视为本发明的保护范围。
Claims (9)
1.一种虚拟环境下视野外目标的可视化方法,其特征在于,包括以下步骤:
建立3DWedge模型:使用四棱锥可视化视野外目标,其高度和底面正方形大小均可表示目标与观测点之间的距离,同时可根据底面中心之间的距离判断目标与目标之间的距离,其高度随距离按比例缩放,底面面积随物体的秩序变化而变化;
建立3DWedge+模型:在3DWedge模型的基础上增加刻度线,可以精确比较视野外多个目标物体的方向和距离信息,并添加球形指针,四棱锥底面中心的圆球用于对准目标,从而形成3DWedge+模型;
目标判断:通过虚拟现实显示设备观察目标场景,选择可视化模式,如果虚拟场景中目标数p≤5,则使用3DWedge模式;如果目标数p>5,则切换至3DWedge+模式,比较视野外不同目标与观测点之间的距离,判断视野外目标的方向,判断视野外目标之间的距离。
2.如权利要求1所述的一种虚拟环境下视野外目标的可视化方法,其特征在于:一个3DWedge模型指向一个视野外目标,多个目标形成由多个3DWedge模型组成的3DWedge簇,簇的原点是所有3DWedge模型的顶点。
4.如权利要求2所述的一种虚拟环境下视野外目标的可视化方法,其特征在于:为了让3DWedge模型能够正确指向物体,根据观测点和3DWedge模型所在的角度进行整个3DWedge簇的转置,转置角度A’等于观测点到3DWedge簇原点方向向量a与观测点水平视角的方向向量b的锐角夹角A。
5.如权利要求1所述的一种虚拟环境下视野外目标的可视化方法,其特征在于:对3DWedge模型整体进行透明化处理。
6.如权利要求1所述的一种虚拟环境下视野外目标的可视化方法,其特征在于:3DWedge+模型的刻度确定方法如下:先确定单位刻度对应的实际距离值k,每个3DWedge+模型的单位刻度数目q根据实际目标与观测点的距离d来确定,即q=d/k。
7.如权利要求1所述的一种虚拟环境下视野外目标的可视化方法,其特征在于:在3DWedge模式中,通过比较四棱锥底面正方形中心之间的距离来比较目标之间的距离;在3DWedge+模式中,通过比较指向不同目标的单位刻度数来比较目标之间的距离。
8.如权利要求1所述的一种虚拟环境下视野外目标的可视化方法,其特征在于:在3DWedge模式中,将3DWedge模型的底面笔直对准前方,视野中心即目标所在方向;在3DWedge+模式中,将3DWedge+模型的球形箭头笔直对准前方,视野中心即目标所在方向。
9.如权利要求1所述的一种虚拟环境下视野外目标的可视化方法,其特征在于:在3DWedge模式中,通过3DWedge模型的高度h或底面正方形面积s比较目标与观测点之间的距离;在3DWedge+模式中,通过比较底面正方形中箭头尖端之间的距离比较目标与观测点之间的距离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711005248.7A CN107730592B (zh) | 2017-10-25 | 2017-10-25 | 一种虚拟环境下视野外目标的可视化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711005248.7A CN107730592B (zh) | 2017-10-25 | 2017-10-25 | 一种虚拟环境下视野外目标的可视化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107730592A CN107730592A (zh) | 2018-02-23 |
CN107730592B true CN107730592B (zh) | 2021-06-15 |
Family
ID=61212520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711005248.7A Active CN107730592B (zh) | 2017-10-25 | 2017-10-25 | 一种虚拟环境下视野外目标的可视化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107730592B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108765260A (zh) * | 2018-04-03 | 2018-11-06 | 北京易讯理想科技有限公司 | 一种指示屏幕外目标对象方向的方法 |
CN109408011B (zh) * | 2018-09-14 | 2021-08-24 | 歌尔光学科技有限公司 | 头戴显示设备的显示方法、装置及设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101154313A (zh) * | 2006-09-28 | 2008-04-02 | 长江航道规划设计研究院 | 三维仿真数字信息航道系统及实现方法 |
CN102261908A (zh) * | 2011-04-25 | 2011-11-30 | 天津大学 | 基于几何约束的物体三维姿态测量方法 |
CN102830960A (zh) * | 2011-06-17 | 2012-12-19 | 上海日浦信息技术有限公司 | 航道三维仿真电子图 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7692649B2 (en) * | 2005-10-04 | 2010-04-06 | Rdv Systems Ltd. | Method and apparatus for virtual reality presentation of civil engineering, land planning and infrastructure |
CN102509355B (zh) * | 2011-09-30 | 2013-12-25 | 北京航空航天大学 | 一种面向书法汉字的计算机虚拟雕刻方法 |
CN102810161B (zh) * | 2012-06-07 | 2015-05-20 | 江苏物联网研究发展中心 | 一种用于拥挤场景下的多个行人检测方法 |
-
2017
- 2017-10-25 CN CN201711005248.7A patent/CN107730592B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101154313A (zh) * | 2006-09-28 | 2008-04-02 | 长江航道规划设计研究院 | 三维仿真数字信息航道系统及实现方法 |
CN102261908A (zh) * | 2011-04-25 | 2011-11-30 | 天津大学 | 基于几何约束的物体三维姿态测量方法 |
CN102830960A (zh) * | 2011-06-17 | 2012-12-19 | 上海日浦信息技术有限公司 | 航道三维仿真电子图 |
Also Published As
Publication number | Publication date |
---|---|
CN107730592A (zh) | 2018-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11315308B2 (en) | Method for representing virtual information in a real environment | |
CN104995665B (zh) | 用于在真实环境中表示虚拟信息的方法 | |
US9330504B2 (en) | 3D building model construction tools | |
US8422825B1 (en) | Method and system for geometry extraction, 3D visualization and analysis using arbitrary oblique imagery | |
JP6688088B2 (ja) | 情報処理装置およびその制御方法 | |
US20080036758A1 (en) | Systems and methods for determining a global or local position of a point of interest within a scene using a three-dimensional model of the scene | |
US20120115598A1 (en) | System and method for mixing a scene with a virtual scenario | |
Wu et al. | Location estimation for indoor autonomous vehicle navigation by omni-directional vision using circular landmarks on ceilings | |
CN107730592B (zh) | 一种虚拟环境下视野外目标的可视化方法 | |
CN105095314A (zh) | 一种兴趣点的标注方法、终端、导航服务器及导航系统 | |
CN111311659B (zh) | 一种基于斜交平面镜三维成像的校准方法 | |
Wang et al. | Accurate detection and localization of curved checkerboard-like marker based on quadratic form | |
Schreiber et al. | Navigational checking using 3D maps: The influence of elevation angle, azimuth, and foreshortening | |
JPWO2016157802A1 (ja) | 情報処理装置、情報処理システム、情報処理方法、及び、プログラム | |
JP2015118101A (ja) | 情報処理装置および方法、プログラム | |
Gao et al. | Distance measurement method based on two-dimensional image recognition and inverse perspective transformation | |
Steinbis et al. | 3D fiducials for scalable AR visual tracking | |
Aoki et al. | Self-position estimation based on road sign using augmented reality technology | |
CN108491401B (zh) | 一种2.5维地图的坐标纠偏方法 | |
WO2021111613A1 (ja) | 3次元地図作成装置、3次元地図作成方法、及び3次元地図作成プログラム | |
Chung et al. | Improving Smartphone Position and Attitude for Geospatial Augmented Reality Applications | |
Toriya et al. | A mobile camera localization method using aerial-view images | |
WO2024095744A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Liu et al. | Planar metric rectification from perspective image via vertical vanishing point | |
CN113597535A (zh) | 基于图像的测距方法、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |