CN101727182A - 头盔式虚拟现实环境中参与者实际手的可视化方法和系统 - Google Patents
头盔式虚拟现实环境中参与者实际手的可视化方法和系统 Download PDFInfo
- Publication number
- CN101727182A CN101727182A CN201010102510A CN201010102510A CN101727182A CN 101727182 A CN101727182 A CN 101727182A CN 201010102510 A CN201010102510 A CN 201010102510A CN 201010102510 A CN201010102510 A CN 201010102510A CN 101727182 A CN101727182 A CN 101727182A
- Authority
- CN
- China
- Prior art keywords
- real
- image
- hand
- helmet
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明公布了一种头盔式虚拟现实环境中参与者实际手的可视化方法和系统,本发明方法包括初始化,实现虚实配准:标定真实摄像机,得到真实摄像机参数包括真实摄像机空间位置、水平视场角、垂直视场角,将虚拟环境中视点处的虚拟摄像机的参数保持与真实摄像机参数一致;手图像分割:视频采集设备采集真实摄像机拍摄的视频图像,计算机对采集到每帧视频图像进行肤色检测,实现手图像与背景的分离;虚实融合:将分离出的手图像通过动态纹理映射方法实时融入虚拟环境实现虚拟对象的无缝融合。本发明系统包括计算机、头盔显示器、摄像机和视频采集设备。本发明高效而稳定、能获得逼真的立体视觉图像。
Description
技术领域
本发明涉及一种头盔式虚拟现实系统中的参与者实际手可视化方法和系统,该方法通过在头盔显示器中加装摄像机,综合运用视频图像处理技术,虚拟现实图形技术,实现实时分割手图像并融入到虚拟环境中,可为用户提供具有逼真的、立体的虚拟手可视化图像,满足人机交互要求。
背景技术
基于头盔显示器的封闭式虚拟现实系统中,虚拟手的可视化是保证用户沉浸感的重要因素。国外实验表明,在虚拟环境中新手用户最关注的问题是:“我的手在哪?”[1]。可视化效果的好坏也将直接影响到用户的视觉真实感。现有的虚拟手可视化方法均采用基于三维几何模型建模和绘制(Graphics-Based Modeling and Rendering——GBMR)的方式,这种方式对硬件的计算能力和图形加速性能以及建模人员都有很高的要求,其建模方式造成所构建的虚拟手可视化图像还存在以下问题:
1.真实手外形复杂,难以实现精确的几何建模,随着模型的逼真度的提高,多边形数量也将提高,系统负担加重,实时性也将降低。
2.难以实现与真手一致的纹理特性,视觉效果不佳。
3.未考虑人手差异性,通用的三维手模型表示不同人的手,视觉效果不佳。
4.由于数据手套等虚拟外设的误差以及硬件延时,真实手与虚拟手的运动不可能完全匹配,而且硬件成本也非常高。
5.数据手套等虚拟现实外设存在异物感和束缚感等。
为克服基于三维几何模型建模和绘制存在的问题,近年来基于图象的建模和绘制(Image-Based Modeling and Rendering——IBMR)的建模技术得到广泛发展[2],比如基于全景图的三维漫游系统。而增强虚境技术是在基于GBMR框架下利用基于图像的建模与绘制方法描述复杂对象,通过虚实融合图像用以解决虚拟现实研究中逼真绘制与实时显示间的矛盾。比如国外的虚拟视频会议系统,虚拟商场系统等采用了此项技术,将视频或者图像对象融入虚拟环境提升了虚拟现实系统中的视觉真实感,但其融入的对象为未经实时处理的原始视频或者图像素材[3]。
基于多个固定摄像机的增强现实飞行模拟器(申请号:200710303603.9)中头盔显示器显示的也是虚实融合后图像,但其系统中是通过多个固定在头部上方的摄像机用于拍摄真实场景,而且拍摄的图像直接融入虚拟环境,因此与本发明摄像机的布置方案和技术方案均不相同。
本发明中采用一种特殊虚实融合方式,也就是将虚拟现实系统参与者的真实手作为虚拟环境中虚拟手的代理实现可视化。首先在头盔显示器眼点附近位置布置两个摄像机,然后对摄像机视频图像进行手图像的实时分割,最后分割后的手图像融入虚拟环境后在头盔显示器中显示给用户,实现参与者实际手在头盔式虚拟现实系统中的可视化。
[1]Andrei Sherstyuk,Dale Vincent,Caroline Jay.Poster:Sliding Viewport for Head MountedDisplays in Interactive Environments[C].Piscataway,IEEE Symposium on 3D User Interfaces2008,3DUI.NJ,USA
[2]李自力.虚拟现实中基于图形与图象的混合建模技术[J].中国图象图形学报,2004,6(1):96-101.
[3]郝爱民,何兵,赵沁平.虚拟现实中的增强虚镜技术[J].北京航空航天大学学报,2003,29(10):909-913.
发明内容
技术问题:本发明的目的是克服现有基于三维建模与绘制的虚拟手可视化存在的缺点,为用户提供一种视觉效果更加逼真的虚拟手系统。本发明中将摄像机采集的视频进行手图像分割和提取并融入虚拟环境,给用户提供手的可视化图像。因此用户所见虚拟手就是用户真实手,手的运动特性和视觉特性(比如柔体变形等)与真实手完全一致,并且双摄像机设置可为用户提供虚拟手的立体图像,与传统基于数据手套等虚拟外设驱动的三维手模型可视化图像相比用户沉浸感和视觉逼真度都明显增强。
技术方案:本发明为实现上述目的,采用如下技术方案:
本发明所述参与者手可视化方法,包括如下步骤:
第一步,初始化,实现虚拟配准:标定真实摄像机,得到真实摄像机参数包括真实摄像机空间位置、水平视场角、垂直视场角,将虚拟环境中视点处的虚拟摄像机的参数保持与真实摄像机参数一致;
第二部,手图像分割:视频采集设备采集真实摄像机拍摄的视频图像,计算机对采集到每帧视频图像进行肤色检测,实现手图像与背景的分离;
第三部,虚实融合:将分离出的手图像通过动态纹理映射方法实时融入虚拟环境实现虚拟对象的无缝融合。
头盔式虚拟现实环境中参与者实际手的可视化系统,包括计算机、头盔显示器、摄像机和视频采集设备,其中摄像机设置于头盔显示器上,摄像机的输出端串接视频采集设备后接计算机的输入端,计算机的输出端接头盔显示器的输入端。
有益效果:本发明在虚拟现实系统中通过加装摄像机并综合采用图像图形处理技术实现了虚拟手的可视化。从发明内容可知,此方法既不需要对手进行复杂的三维建模,也无需采用虚拟外设,比如数据手套等对虚拟手进行驱动,就可实现虚拟手的运动特性和视觉特性与真实手完全一致,为用户提供高逼真度视觉效果的虚拟手图像。由于本发明只需对手部图像进行分割,因此可以基于肤色获得高效而稳定的图像分割算法。由于本发明在眼点前附近安装双摄像机,因此能获得逼真的立体视觉图像。
附图说明
图1头盔式虚拟现实环境中参与者实际手的可视化系统的组成。
图2头盔显示器上摄像机布置方案
图3半虚拟现实座舱系统原理图。
具体实施方式
下面结合附图对发明的技术方案进行详细说明:
如图1所示,头盔式虚拟现实环境中参与者实际手的可视化系统,包括计算机、头盔显示器、摄像机和视频采集设备,其中摄像机设置于头盔显示器上,如图2所示,摄像机的输出端串接视频采集设备后接计算机的输入端,计算机的输出端接头盔显示器的输入端。
以半虚拟现实座舱系统为例,本发明构建了一个虚拟手可视化实例。半虚拟现实座舱系统由头盔显示器、半实物座舱、计算机和视频采集设备组成,系统组成和原理如图3所示。半虚拟现实座舱系统按照“眼见为虚,手模为实”的原则构建。所述半虚拟现实座舱系统中的所有用户可触摸操作部分采用实物构建,而原座舱的所有显示设备空缺,实物构建的可触摸操作部分称为半实物座舱,即手摸为实。半实物座舱与虚拟座舱中相对应的部分保持1∶1的比例和相同几何外形,用户在头盔显示器中的可视部分,也就是整个虚拟座舱(包括座舱、仪表板、各种开关按钮等所有舱内物体)采用三维建模方法由计算机生成,即眼见为虚。两台摄像机分别安装在头盔显示器眼点附近,拍摄的图像由计算机实时处理进行手图像的分割。头盔显示器为用户提供由计算机进行虚实融合后的图像,也就是用户手图像与虚拟座舱融合后的图像,从而实现“实手虚化”。
按本发明所述方法,具体实施方案如下所示。
1.初始化,标定摄像机,实现虚实配准。
保证虚拟环境中虚拟摄像机的参数(焦距、成象视角,空间位置)与真实摄像机参数一致就可保证虚拟配准。但由于图形引擎是采用视锥而不是内参描述摄像机参数的,首先必须将摄像机参数转换为虚拟环境中的视锥参数,其包括水平视场角α,垂直视场角β,远裁剪面距离far,近裁剪面距离near。假设标定出摄像机参数为: 其中fx、fy为分别为摄像机x,y方向上焦距,u0,v0为分别为光心投影到摄像机成像平面上的x,y坐标值;
视频图像的高度和宽度分别为height和width,从几何关系可推导出视锥参数和摄像机内参转换公式:
α=arctan(u0/fx)+arctan((width-u0)/fx) (1)
β=arctan(v0/fy)+arctan((v0-height)/fy) (2)
远裁剪面距离far,近裁剪面距离near可根据需要自行指定。
2.手图像的分割。
手图像分割中采用肤色检测原理,首先将原始图像从RGB空间转换到YCbCr空间,并计算像素点的Cr、Cb值与肤色平均值之差,如果小于一个预先设定的门限值,则判定该点为肤色。初步处理后的图像再通过Freeman链码方法对这些离散像素点进行轮廓搜寻,对搜寻到的轮廓只保留面积大于一定阈值的轮廓,其他轮廓视为干扰源,去除干扰点。链码方法提取的轮廓边缘不可避免会存在锯齿,因此可进一步对手图像边缘进行分段三次样条曲线拟合使之更加平滑,增强融合后的视觉真实感。
3.虚实融合
融合过程中通过设置像素透明度方法只保留手图像像素点,对其他背景像素点进行去除。处理完毕的纯手图像通过动态纹理映射技术映射到虚拟摄像机的近裁剪面生成虚实融合环境,为用户提供虚实融合后的可视化图像。
虚拟现实图形引擎中的透明或者半透明效果是通过混色原理(Blending)实现的。混色的定义是将某个像素的颜色和已绘制在屏幕上与其对应的像素颜色相互结合。如何结合这两个颜色则依赖于颜色的alpha通道的分量值,每个像素点的RGB值按照如公式3进行混色。
RGB为混色后像素点值,RsGsBs为原始像素点值,RbGbBb为与原始像素点进行混色的像素点值,α为透明通道值。
因此只需将手图像背景像素点的alpha值设为0,其余像素点也就是手图像部分像素点alpha值为1,就可实现手图像背景透明的效果,使之融入虚拟环境
通过以上几个步骤处理,可以将用户手图像无缝实时融合到虚拟环境,为用户提供视觉上完全与真实手一致的虚拟手图像。在此封闭半虚拟现实座舱环境中,用户能看到完整的虚拟座舱和虚拟手(也就是用户真实手)图像,并能触摸到实物座舱,完成各种操作,比如点击按钮,推动油门,能实现“眼见为虚,手摸为实,虚实一致”效果,为用户提供一个完整的沉浸式交互虚拟环境。
Claims (6)
1.一种头盔式虚拟现实环境中参与者实际手的可视化方法,其特征在于包括如下步骤:
第一步,初始化,实现虚实配准:标定真实摄像机,得到真实摄像机参数包括真实摄像机空间位置、水平视场角、垂直视场角,将虚拟环境中视点处的虚拟摄像机的参数保持与真实摄像机参数一致;
第二部,手图像分割:视频采集设备采集真实摄像机拍摄的视频图像,计算机对采集到每帧视频图像进行肤色检测,实现手图像与背景的分离;
第三部,虚实融合:将分离出的手图像通过动态纹理映射方法实时融入虚拟环境实现虚拟对象的无缝融合。
3.根据权利要求1所述的头盔式虚拟现实环境中参与者实际手的可视化方法,其特征在于第二步所述的基于肤色检测的手图像分割方法如下:
首先将原始图像即采集到每帧视频图像从RGB空间转换到YCbCr空间,并计算像素点的Cr、Cb值与肤色平均值之差,如果差值小于一个预先设定的门限值,则判定该点为肤色;将处理后的图像再通过Freeman链码方法对这些离散像素点进行轮廓搜寻,对搜寻到的轮廓只保留面积大于一定阈值的轮廓,其他轮廓视为干扰源,去除干扰点。
4.根据权利要求3所述的头盔式虚拟现实环境中参与者实际手的可视化方法,其特征在于对所述Freeman链码方法提取的轮廓边缘进行分段三次样条曲线拟合使之平滑。
5.根据权利要求1所述的头盔式虚拟现实环境中参与者实际手的可视化方法,其特征在于第三步所述虚实融合过程中通过设置像素透明度方法只保留手图像像素点,对其他背景像素点进行去除。
6.一种头盔式虚拟现实环境中参与者实际手的可视化系统,其特征在于包括计算机、头盔显示器、摄像机和视频采集设备,其中摄像机设置于头盔显示器上,摄像机的输出端串接视频采集设备后接计算机的输入端,计算机的输出端接头盔显示器的输入端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101025101A CN101727182B (zh) | 2010-01-28 | 2010-01-28 | 头盔式虚拟现实环境中参与者实际手的可视化方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2010101025101A CN101727182B (zh) | 2010-01-28 | 2010-01-28 | 头盔式虚拟现实环境中参与者实际手的可视化方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101727182A true CN101727182A (zh) | 2010-06-09 |
CN101727182B CN101727182B (zh) | 2011-08-10 |
Family
ID=42448159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010101025101A Active CN101727182B (zh) | 2010-01-28 | 2010-01-28 | 头盔式虚拟现实环境中参与者实际手的可视化方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101727182B (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102157011A (zh) * | 2010-12-10 | 2011-08-17 | 北京大学 | 利用移动拍摄设备进行动态纹理采集及虚实融合的方法 |
CN102368810A (zh) * | 2011-09-19 | 2012-03-07 | 长安大学 | 一种半自动化对齐的视频融合系统和方法 |
CN103176923A (zh) * | 2011-11-11 | 2013-06-26 | 国际商业机器公司 | 配对物理设备和虚拟设备配以产生沉浸式环境的方法和设备 |
CN103493106A (zh) * | 2011-03-29 | 2014-01-01 | 高通股份有限公司 | 使用骨骼跟踪来选择性地将手遮蔽在物理表面上的虚拟投影之上 |
CN105787941A (zh) * | 2016-03-01 | 2016-07-20 | 天津天堰科技股份有限公司 | 一种混合现实仿真系统的快速配准方法 |
CN105807601A (zh) * | 2016-03-10 | 2016-07-27 | 北京小鸟看看科技有限公司 | 一种测试虚拟现实设备延时的方法和系统 |
CN106056663A (zh) * | 2016-05-19 | 2016-10-26 | 京东方科技集团股份有限公司 | 增强现实场景中的渲染方法、处理模块和增强现实眼镜 |
CN106232192A (zh) * | 2014-03-14 | 2016-12-14 | 索尼互动娱乐股份有限公司 | 具有可旋转放置的摄像机的玩游戏装置 |
CN106249893A (zh) * | 2016-08-03 | 2016-12-21 | 上海机电工程研究所 | 刚柔混合系统虚拟装配系统及其虚拟装配方法 |
CN107396084A (zh) * | 2017-07-20 | 2017-11-24 | 广州励丰文化科技股份有限公司 | 一种基于双摄像头的mr实现方法及设备 |
CN109085931A (zh) * | 2018-07-25 | 2018-12-25 | 南京禹步信息科技有限公司 | 一种虚实结合的交互式输入方法、装置和存储介质 |
CN109478094A (zh) * | 2016-07-12 | 2019-03-15 | 奥迪股份公司 | 用于运行机动车的显示装置的方法 |
JP2019149202A (ja) * | 2013-01-03 | 2019-09-05 | メタ ビュー,インコーポレイテッド | エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン |
CN110764620A (zh) * | 2019-10-30 | 2020-02-07 | 中仿智能科技(上海)股份有限公司 | 一种增强半虚拟现实飞机座舱系统 |
CN111123743A (zh) * | 2020-01-03 | 2020-05-08 | 中仿智能科技(上海)股份有限公司 | 一种模拟飞行器人机交互系统 |
CN112862819A (zh) * | 2021-03-17 | 2021-05-28 | 苏州灵目电子科技有限公司 | 一种在虚拟现实中增加体验者自我元素的装置和方法 |
-
2010
- 2010-01-28 CN CN2010101025101A patent/CN101727182B/zh active Active
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102157011A (zh) * | 2010-12-10 | 2011-08-17 | 北京大学 | 利用移动拍摄设备进行动态纹理采集及虚实融合的方法 |
CN103493106A (zh) * | 2011-03-29 | 2014-01-01 | 高通股份有限公司 | 使用骨骼跟踪来选择性地将手遮蔽在物理表面上的虚拟投影之上 |
US9384594B2 (en) | 2011-03-29 | 2016-07-05 | Qualcomm Incorporated | Anchoring virtual images to real world surfaces in augmented reality systems |
CN103493106B (zh) * | 2011-03-29 | 2017-11-07 | 高通股份有限公司 | 使用骨骼跟踪来选择性地将手遮蔽在物理表面上的虚拟投影之上的方法和装置 |
CN102368810A (zh) * | 2011-09-19 | 2012-03-07 | 长安大学 | 一种半自动化对齐的视频融合系统和方法 |
CN102368810B (zh) * | 2011-09-19 | 2013-07-17 | 长安大学 | 一种半自动化对齐的视频融合系统和方法 |
CN103176923A (zh) * | 2011-11-11 | 2013-06-26 | 国际商业机器公司 | 配对物理设备和虚拟设备配以产生沉浸式环境的方法和设备 |
US9218212B2 (en) | 2011-11-11 | 2015-12-22 | International Business Machines Corporation | Pairing physical devices to virtual devices to create an immersive environment |
CN103176923B (zh) * | 2011-11-11 | 2016-06-08 | 国际商业机器公司 | 配对物理设备和虚拟设备配以产生沉浸式环境的方法和设备 |
US11073916B2 (en) | 2013-01-03 | 2021-07-27 | Meta View, Inc. | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
US11334171B2 (en) | 2013-01-03 | 2022-05-17 | Campfire 3D, Inc. | Extramissive spatial imaging digital eye glass apparatuses, methods and systems for virtual or augmediated vision, manipulation, creation, or interaction with objects, materials, or other entities |
JP2019149202A (ja) * | 2013-01-03 | 2019-09-05 | メタ ビュー,インコーポレイテッド | エクストラミッシブ空間撮像デジタル眼鏡装置または拡張介在ビジョン |
CN106232192A (zh) * | 2014-03-14 | 2016-12-14 | 索尼互动娱乐股份有限公司 | 具有可旋转放置的摄像机的玩游戏装置 |
CN106232192B (zh) * | 2014-03-14 | 2019-12-03 | 索尼互动娱乐股份有限公司 | 具有可旋转放置的摄像机的玩游戏装置 |
CN105787941A (zh) * | 2016-03-01 | 2016-07-20 | 天津天堰科技股份有限公司 | 一种混合现实仿真系统的快速配准方法 |
CN105807601A (zh) * | 2016-03-10 | 2016-07-27 | 北京小鸟看看科技有限公司 | 一种测试虚拟现实设备延时的方法和系统 |
CN106056663A (zh) * | 2016-05-19 | 2016-10-26 | 京东方科技集团股份有限公司 | 增强现实场景中的渲染方法、处理模块和增强现实眼镜 |
CN106056663B (zh) * | 2016-05-19 | 2019-05-24 | 京东方科技集团股份有限公司 | 增强现实场景中的渲染方法、处理模块和增强现实眼镜 |
US10573075B2 (en) | 2016-05-19 | 2020-02-25 | Boe Technology Group Co., Ltd. | Rendering method in AR scene, processor and AR glasses |
CN109478094A (zh) * | 2016-07-12 | 2019-03-15 | 奥迪股份公司 | 用于运行机动车的显示装置的方法 |
CN106249893A (zh) * | 2016-08-03 | 2016-12-21 | 上海机电工程研究所 | 刚柔混合系统虚拟装配系统及其虚拟装配方法 |
CN106249893B (zh) * | 2016-08-03 | 2019-06-04 | 上海机电工程研究所 | 刚柔混合系统虚拟装配系统及其虚拟装配方法 |
CN107396084A (zh) * | 2017-07-20 | 2017-11-24 | 广州励丰文化科技股份有限公司 | 一种基于双摄像头的mr实现方法及设备 |
CN109085931A (zh) * | 2018-07-25 | 2018-12-25 | 南京禹步信息科技有限公司 | 一种虚实结合的交互式输入方法、装置和存储介质 |
CN110764620A (zh) * | 2019-10-30 | 2020-02-07 | 中仿智能科技(上海)股份有限公司 | 一种增强半虚拟现实飞机座舱系统 |
CN111123743A (zh) * | 2020-01-03 | 2020-05-08 | 中仿智能科技(上海)股份有限公司 | 一种模拟飞行器人机交互系统 |
CN112862819A (zh) * | 2021-03-17 | 2021-05-28 | 苏州灵目电子科技有限公司 | 一种在虚拟现实中增加体验者自我元素的装置和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101727182B (zh) | 2011-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101727182B (zh) | 头盔式虚拟现实环境中参与者实际手的可视化方法和系统 | |
US11580697B2 (en) | Systems and methods for reconstruction and rendering of viewpoint-adaptive three-dimensional (3D) personas | |
CN103226830B (zh) | 三维虚实融合环境中视频纹理投影的自动匹配校正方法 | |
US8538144B2 (en) | Methods and systems for color correction of 3D images | |
CN102592275B (zh) | 虚拟视点绘制方法 | |
US9208615B2 (en) | Image processing apparatus, image processing method, and program for facilitating an input operation by a user in response to information displayed in a superimposed manner on a visual field of the user | |
CN104376596B (zh) | 一种基于单幅图像的三维场景结构建模与注册方法 | |
CN106157359A (zh) | 一种虚拟场景体验系统的设计方法 | |
Wu et al. | Efficient VR and AR navigation through multiperspective occlusion management | |
CN102262783B (zh) | 一种三维手势运动重建方法和系统 | |
CN108805979A (zh) | 一种动态模型三维重建方法、装置、设备和存储介质 | |
CN104820981A (zh) | 一种基于视差分层分割的图像立体表示方法及系统 | |
CN101334900B (zh) | 一种基于图像的绘制方法 | |
JP6898264B2 (ja) | 合成装置、方法及びプログラム | |
US20230245396A1 (en) | System and method for three-dimensional scene reconstruction and understanding in extended reality (xr) applications | |
KR20130003992A (ko) | 3차원 영상 데이터 생성 방법 및 이를 위한 장치 | |
KR101428577B1 (ko) | 적외선 동작 인식 카메라를 사용하여 화면상에 네추럴 유저 인터페이스 기반 입체 지구본을 제공하는 방법 | |
Wang et al. | Facial image composition based on active appearance model | |
CN103995586B (zh) | 基于虚拟触摸屏的非穿戴指势人机交互方法 | |
Shi et al. | Error elimination method in moving target tracking in real-time augmented reality | |
Haoming et al. | Overview of the development of video see through technology in mixed reality technology and simulation application | |
US20230010947A1 (en) | Electronic apparatus, and method for displaying image on display device | |
JP7261121B2 (ja) | 情報端末装置及びプログラム | |
CN105975263A (zh) | 一种在3d空间中的控件实现方法及其装置 | |
Kunita et al. | Layered probability maps: basic framework and prototype system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20200513 Address after: 201315 No.8, Kangqiao East Road, Pudong New Area, Shanghai Patentee after: Shanghai huamo Technology Co., Ltd Address before: Yudaojie Baixia District of Nanjing City, Jiangsu Province, No. 29 210016 Patentee before: Nanjing University of Aeronautics and Astronautics |
|
TR01 | Transfer of patent right |