CN110389650A - 虚拟画面的操控系统及操控方法 - Google Patents
虚拟画面的操控系统及操控方法 Download PDFInfo
- Publication number
- CN110389650A CN110389650A CN201810383780.0A CN201810383780A CN110389650A CN 110389650 A CN110389650 A CN 110389650A CN 201810383780 A CN201810383780 A CN 201810383780A CN 110389650 A CN110389650 A CN 110389650A
- Authority
- CN
- China
- Prior art keywords
- axial
- display
- space
- virtual screen
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 21
- 238000003708 edge detection Methods 0.000 claims description 3
- 239000011800 void material Substances 0.000 claims 3
- 238000011017 operating method Methods 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 10
- 230000003993 interaction Effects 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
Abstract
一种虚拟画面的操控系统及操作方法。虚拟画面的操控系统包括视线追踪单元、空间生成单元、手部信息捕获单元、转换单元及操控单元。该视线追踪单元用以追踪操控者的视线。该空间生成单元用以依据该视线生成虚拟显示空间。该手部信息捕获单元用以辨识手部于真实操作空间的手部位置。该转换单元用以转换该手部位置为该虚拟显示空间的光标位置。该操控单元用以依据该光标位置进行该虚拟画面的操作。
Description
技术领域
本发明是有关于一种虚拟画面的操控系统及操控方法。
背景技术
随着互动科技的发展,发展出虚拟现实(Virtual Reality,VR)、扩增实境(Augmented Reality,AR)、替代实境(Substitutional Reality,SR)及混合实境(MixedReality,MR)等各种互动显示技术。这些互动显示技术在一些专业领域已经有一些应用,例如游戏产业、虚拟店面、虚拟办公室、虚拟导览等。这些互动显示技术也可以用于教育,提供更深刻活泼的学习体验。
在传统的互动显示技术中,通常是通过用户接口(user interface,UI)操作,然而手部经常会影响到对象辨识。此外,传统的互动显示技术中,用户接口都是需要实际触碰来进行操作,而无法操控远距离的对象,造成操控者体验较差。
此外,在互动显示技术中,虚拟显示画面应该是无穷大的,但目前却没有一个有效的光标操控方法来同时操作远/近对象。
发明内容
本发明是有关于一种虚拟画面的操控系统及操控方法,其利用视线追踪及空间转换的技术,以光标来操控无限延伸的虚拟画面中的各个对象。
根据本发明的一方面,提出一种虚拟画面的操控系统。虚拟画面的操控系统包括视线追踪单元、空间生成单元、手部信息捕获单元、转换单元及操控单元。该视线追踪单元用以追踪操控者的视线。该空间生成单元用以依据该视线生成虚拟显示空间。该手部信息捕获单元用以辨识手部于真实操作空间的手部位置。该转换单元用以转换该手部位置为该虚拟显示空间的光标位置。该操控单元用以依据该光标位置进行该虚拟画面的操作。
根据本发明的再一方面,提出一种虚拟画面的操控方法。虚拟画面的操控方法包括以下步骤。追踪操控者的视线。依据该视线生成虚拟显示空间。辨识手部于真实操作空间的手部位置。转换该手部位置为该虚拟显示空间的光标位置。依据该光标位置进行该虚拟画面的操作。
为了对本发明的上述及其他方面有更佳的了解,下文特举实施例,并配合所附图式详细说明如下:
附图说明
图1图示根据实施例的虚拟画面的操控系统的示意图
图2图示操控系统的方块图。
图3图示根据实施例的虚拟画面的操控方法的流程图。
图4A~4C说明步骤S110的动作。
图5说明步骤S140的动作。
图6说明步骤S150的动作。
具体实施方式
请参照图1,其图示根据实施例的虚拟画面的操控系统100的示意图。操控系统100例如是头戴式显示器、智能手机、或智慧眼镜。操控系统100可以让操控者在真实操作空间S0进行操作。当操控者的视线VS1对应于对象O1时,操控者在真实操作空间S0所进行的操作会对应到远方的虚拟显示空间S1;当操控者的视线VS2对应于对象O2时,操控者在真实操作空间S0所进行的操作会对应到远方的虚拟显示空间S2。
更详细来说,操控者的手部于真实操作空间S0的手部位置L0会对应到虚拟显示空间S1(或虚拟显示空间S2)的光标位置L1(或光标位置L2),以依据光标位置L1(或光标位置L2)进行虚拟画面的操作。
请参照图2,其图示操控系统100的方块图。操控系统100包括视线追踪单元110、对象检测单元120、空间生成单元130、手部信息捕获单元140、转换单元150及操控单元160。视线追踪单元110用以进行视线VS1、VS2的追踪。视线追踪单元110例如是由红外线影像捕获器111、瞳孔位置检测器112及视线定位器113所组成。
对象检测单元120用以进行对象O1、O2的检测,空间生成单元130用以生成虚拟显示空间S1、S2。手部信息捕获单元140用以捕获手部位置L0。手部信息捕获单元140例如是由深度影像捕获器141及手部辨识器142所组成。
转换单元150用以转换手部位置L0为光标位置L1、L2。转换单元150例如是由比例计算器151及对应器152所组成。操控单元160用以进行虚拟画面的操作。
视线追踪单元110、对象检测单元120、空间生成单元130、手部信息捕获单元140、转换单元150及操控单元160例如是芯片、电路、固件、电路板、电子装置或储存数组程序代码的记录装置。以下更通过一流程图详细说明各项组件的运作方式。
请参照图3,其图示根据一实施例的虚拟画面的操控方法的流程图。首先,在步骤S110中,视线追踪单元110追踪操控者的视线VS1(或视线VS2)。请参照图4A~4C,其说明步骤S110的动作。如图4A所示,红外线影像捕获器111可以设置于头戴式显示器900内。当操控者戴上头戴式显示器900时,红外线影像捕获器111即对准眼睛800(图示于图4B)拍摄。如图4B所示,瞳孔位置检测器112依据红外线影像捕获器111所拍到的红外线影像IM1~IM4,检测瞳孔810的位置。图4B的眼睛800分别为注视图4C的最右方的点A1、注视最上方的点A2、注视最左方的点A3及注视最下方的点A4。视线定位器113可以依据瞳孔810的位置识别出操控者的视线。
接着,在步骤S120中,对象检测单元120依据视线VS1(或视线VS2)提供操控者所注视的对象O1(或对象O2)。在一实施例中,对象检测单元120以边缘检测算法检测背景画面的至少一轮廓线,并连接该至少一轮廓线以组成对象O1(或对象O2)。或者,对象检测单元120可以搜寻数据库,数据库以根据视线VS1(或视线VS2)搜寻出对应于视线VS1(或视线VS2)的对象O1(或对象O2)。
然后,在步骤S130中,空间生成单元130依据视线VS1(或视线VS2)所对应的对象O1(或对象O2)生成虚拟显示空间S1(或虚拟显示空间S2)。虚拟显示空间S1、S2的大小随着对象O1、O2变化,而与距离无关。举例来说,对象O1较大,故虚拟显示空间S1较大;对象O2较小,故虚拟显示空间S2较小。此外,真实操作空间S0的大小可以相同于或不同于虚拟显示空间S1(或虚拟显示空间S2)的大小。
再者,虚拟显示空间S1、S2的长/宽/高比例并不固定,端视对象O1、O2而定。在一实施例中,步骤S120是可省略的,而直接依据视线VS1(或视线VS2)生成虚拟显示空间S1(或虚拟显示空间S2)。
接着,在步骤S140中,手部信息捕获单元140辨识操控者的手部700(图示于图5)于真实操作空间S0的手部位置L0。请参照图5,其说明步骤S140的动作。在步骤S140中,深度影像摄影捕获器141对着操控者拍摄深度影像DM1。手部辨识器142从深度影像DM1中辨识出手部700(图示于图5),并定位出手部位置L0。
然后,在步骤S150中,转换单元150转换手部位置L0为虚拟显示空间S1(或虚拟显示空间S2)的光标位置L1(或光标位置L2)。请参照图6,其说明步骤S150的动作。图6以光标位置L1为例。如图6所示,真实操作空间S0具有第一操作轴向第二操作轴向及第三操作轴向第一操作轴向为点R1及点R2所构成的向量,第二操作轴向为点R1及点R3所构成的向量,第三操作轴向为点R1及点R4所构成的向量,手部位置向量则为点R1及手部位置L0所构成的向量。
虚拟显示空间S1具有第一显示轴向第二显示轴向及第三显示轴向第一显示轴向为点V1及点V2所构成的向量,第二显示轴向为点V1及点V3所构成的向量,第三显示轴向为点V1及点V4所构成的向量,光标位置向量则为点V1及光标位置L1所构成的向量。
第一操作轴向第二操作轴向及第三操作轴向的角度关系可以不同于或相同于第一显示轴向第二显示轴向及第三显示轴向的角度关系。举例来说,真实操作空间S0可以是直角坐标系统,而虚拟显示空间S1可以是非直角坐标系统(即轴与轴的间的夹角并非全为直角)。
在步骤S150中,比例计算器151可以依据下式(1)~(3)计算手部位置L0于第一操作轴向的第一相对比例Xrate,于第二操作轴向的第二相对比例Yrate、及于第三操作轴向的第三相对比例Zrate。第一手部投影向量为手部位置向量于第一操作轴向的投影向量,第二手部投影向量为手部位置向量于第二操作轴向的投影向量,第三手部投影向量为手部位置向量于第三操作轴向的投影向量。
对应器152再以下式(4)依据第一相对比例Xrate计算手部位置L0对应于第一显示轴向的第一显示坐标XL1、依据第二相对比例Yrate计算手部位置L0对应于第二显示轴向的第二显示坐标YL1、并依据第三相对比例Zrate计算手部位置L0于第三显示标轴的第三显示坐标ZL1。其中点V1具有第一显示坐标XV1、第二显示坐标YV1、第三显示坐标ZV1。
如此一来,转换单元150可以顺利转换手部位置L0为虚拟显示空间S1的光标位置L1。
接着,在步骤S160中,操控单元160用以依据光标位置L1(或光标位置L2)进行虚拟画面的操作。在进行虚拟画面的操作时,光标的移动也是按照第一相对比例Xrate、第二相对比例Yrate及第三相对比例Zrate来调整。因此,不论对象O1、O2的远近,只要在真实操作空间S0进行相同比例的操作,都能达到相同的效果。举例来说,如图1所示,操控者可以让手部700在真实操作空间S0滑动“一半长度”来对较近的对象O2翻转90度。同样的,操控者也可以让手部700在真实操作空间S0滑动“一半长度”来对较远的对象O1翻转90度。两者的操作效果相同,而不会因对象O1、O2的远近而有所不同。
同样的,在进行虚拟画面的操作时,光标的移动是按照第一相对比例Xrate、第二相对比例Yrate及第三相对比例Zrate来调整。因此,不论对象O1、O2的大小,只要在真实操作空间S0进行相同比例的操作,都能达到相同的效果。举例来说,如图1所示,操控者可以让手部700在真实操作空间S0“划一半圆形”来对较小的对象O2进行上下倒置。同样的,操控者也可以让手部700在真实操作空间S0“划一半圆形”来对较大的对象O1进行上下倒置。两者的操作效果相同,而不会因对象O1、O2的大小而有所不同。
通过上述步骤,操控者可以在互动显示技术中通过视线及空间转换的技术,以光标来操控无限延伸的虚拟画面中的各个对象。
综上所述,虽然本发明已以实施例揭露如上,然其并非用以限定本发明。本发明所属技术领域中具有通常知识者,在不脱离本发明的精神和范围内,当可作各种的更动与润饰。因此,本发明的保护范围当视后附的权利要求所界定者为准。
【符号说明】
100:操控系统
110:视线追踪单元
111:红外线影像捕获器
112:瞳孔位置检测器
113:视线定位器
120:对象检测单元
130:空间生成单元
140:手部信息捕获单元
141:深度影像捕获器
142:手部辨识器
150:转换单元
151:比例计算器
152:对应器
160:操控单元
700:手部
800:眼睛
810:瞳孔
900:头戴式显示器
A1、A2、A3、A4:点
DM1:深度影像
IM1、IM2、IM3、IM4:红外线影像
L0:手部位置
L1、L2:光标位置
O1、O2:对象
R1、R2、R3、R4:点
S0:真实操作空间
S1、S2:虚拟显示空间
S110、S120、S130、S140、S150、S160:步骤
V1、V2、V3、V4:点
VS1、VS2:视线
Xrate:第一相对比例
XL1、XV1:第一显示坐标
Yrate:第二相对比例
YL1、YV1:第二显示坐标
Zrate:第三相对比例
ZL1、ZV1:第三显示坐标第一操作轴向
第二操作轴向
第三操作轴向
第一显示轴向
第二显示轴向
第三显示轴向
投影向量
投影向量
投影向量
Claims (21)
1.一种虚拟画面的操控系统,包括:
视线追踪单元,用以追踪操控者的视线;
空间生成单元,用以依据该视线生成虚拟显示空间;
手部信息捕获单元,用以辨识手部于真实操作空间的手部位置;
转换单元,用以转换该手部位置为该虚拟显示空间的光标位置;以及
操控单元,用以依据该光标位置进行该虚拟画面的操作。
2.如权利要求1所述的虚拟画面的操控系统,其中该真实操作空间为三维空间,且该虚拟显示空间为三维空间。
3.如权利要求2所述的虚拟画面的操控系统,其中该真实操作空间具有第一操作轴向、第二操作轴向及第三操作轴向,该虚拟显示空间具有第一显示轴向、第二显示轴向及第三显示轴向,该转换单元包括:
比例计算器,用以计算该手部位置于该第一操作轴向的第一相对比例、于该第二操作轴向的第二相对比例、及于该第三操作轴向的第三相对比例;以及
对应器,用以依据该第一相对比例计算该手部位置于该第一显示轴向的第一显示坐标、依据该第二相对比例计算该手部位置于该第二显示轴向的第二显示坐标、并依据该第三相对比例计算该手部位置于该第三显示标轴的第三显示坐标。
4.如权利要求3所述的虚拟画面的操控系统,其中该第一显示轴向、该第二显示轴向与该第三显示轴向的角度关系不同于该第一操作轴向、该第二操作轴向与该第三操作轴向的角度关系。
5.如权利要求3所述的虚拟画面的操控系统,其中该第一显示轴向、该第二显示轴向与该第三显示轴向的角度关系相同于该第一操作轴向、该第二操作轴向与该第三操作轴向的角度关系。
6.如权利要求1所述的虚拟画面的操控系统,其中该真实操作空间的大小不同于该虚拟显示空间的大小。
7.如权利要求1所述的虚拟画面的操控系统,其中该真实操作空间的大小相同于该虚拟显示空间的大小。
8.如权利要求1所述的虚拟画面的操控系统,还包括:
对象检测单元,用以依据该视线提供该操控者所注视的对象。
9.如权利要求8所述的虚拟画面的操控系统,其中该空间生成单元依据该对象生成该虚拟显示空间。
10.如权利要求8所述的虚拟画面的操控系统,其中该对象检测单元以边缘检测算法检测至少一轮廓线,并连接该至少一轮廓线以组成该对象。
11.如权利要求8所述的虚拟画面的操控系统,其中该对象检测单元搜寻数据库,以搜寻出对应于该视线的该对象。
12.一种虚拟画面的操控方法,包括:
追踪操控者的视线;
依据该视线生成虚拟显示空间;
辨识手部于真实操作空间的手部位置;
转换该手部位置为该虚拟显示空间的光标位置;以及
依据该光标位置进行该虚拟画面的操作。
13.如权利要求12所述的虚拟画面的操控方法,其中该真实操作空间为三维空间,且该虚拟显示空间为三维空间。
14.如权利要求13所述的虚拟画面的操控方法,其中该真实操作空间具有第一操作轴向、第二操作轴向及第三操作轴向,该虚拟显示空间具有第一显示轴向、第二显示轴向及第三显示轴向,转换该手部位置为该虚拟显示空间的该光标位置的步骤包括:
计算该手部位置于该第一操作轴向的第一相对比例、于该第二操作轴向的第二相对比例、及于该第三操作轴向的第三相对比例;以及
依据该第一相对比例计算该手部位置于该第一显示轴向的第一显示坐标、依据该第二相对比例计算该手部位置于该第二显示轴向的第二显示坐标、并依据该第三相对比例计算该手部位置于该第三显示标轴的第三显示坐标。
15.如权利要求14所述的虚拟画面的操控方法,其中该第一显示轴向、该第二显示轴向与该第三显示轴向的角度关系不同于该第一操作轴向、该第二操作轴向与该第三操作轴向的角度关系。
16.如权利要求14所述的虚拟画面的操控方法,其中该第一显示轴向、该第二显示轴向与该第三显示轴向的角度关相同于该第一操作轴向、该第二操作轴向与该第三操作轴向的角度关系。
17.如权利要求12所述的虚拟画面的操控方法,其中该真实操作空间的大小不同于该虚拟显示空间的大小。
18.如权利要求12所述的虚拟画面的操控方法,其中该真实操作空间的大小相同于该虚拟显示空间的大小。
19.如权利要求12所述的虚拟画面的操控方法,更包括:
依据该视线提供该操控者所注视的对象。
20.如权利要求19所述的虚拟画面的操控方法,其中该视线提供该操控者所注视的该对象的步骤包括:
以一边缘检测算法检测至少一轮廓线;以及
连接该至少一轮廓线以组成该对象。
21.如权利要求19所述的虚拟画面的操控方法,其中该视线提供该操控者所注视的该对象的步骤包括:
搜供数据库;以及
搜寻该数据库,以搜寻出对应于该视线的该对象。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW107113719A TWI702548B (zh) | 2018-04-23 | 2018-04-23 | 虛擬畫面之操控系統及操控方法 |
TW107113719 | 2018-04-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110389650A true CN110389650A (zh) | 2019-10-29 |
Family
ID=68284710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810383780.0A Pending CN110389650A (zh) | 2018-04-23 | 2018-04-26 | 虚拟画面的操控系统及操控方法 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110389650A (zh) |
TW (1) | TWI702548B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101067716A (zh) * | 2007-05-29 | 2007-11-07 | 南京航空航天大学 | 具有视线跟踪功能的增强现实自然交互式头盔 |
CN102789313A (zh) * | 2012-03-19 | 2012-11-21 | 乾行讯科(北京)科技有限公司 | 一种用户交互系统和方法 |
CN103309466A (zh) * | 2012-03-09 | 2013-09-18 | 由田新技股份有限公司 | 指向性影像操控装置及其方法 |
JP2013218423A (ja) * | 2012-04-05 | 2013-10-24 | Utechzone Co Ltd | 指向性映像コントロール装置及びその方法 |
CN103412680A (zh) * | 2013-04-22 | 2013-11-27 | 深圳市富兴科技有限公司 | 一种智能3d投影虚拟触控显示技术 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130000401A (ko) * | 2010-02-28 | 2013-01-02 | 오스터하우트 그룹 인코포레이티드 | 대화형 머리장착식 아이피스 상의 지역 광고 컨텐츠 |
US9874749B2 (en) * | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
CN103955267B (zh) * | 2013-11-13 | 2017-03-15 | 上海大学 | 光透视增强现实系统中双手人机交互方法 |
TWM537702U (zh) * | 2016-11-19 | 2017-03-01 | Ping-Yuan Tsai | 擴增實境學習引用系統及其架構 |
-
2018
- 2018-04-23 TW TW107113719A patent/TWI702548B/zh active
- 2018-04-26 CN CN201810383780.0A patent/CN110389650A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101067716A (zh) * | 2007-05-29 | 2007-11-07 | 南京航空航天大学 | 具有视线跟踪功能的增强现实自然交互式头盔 |
CN103309466A (zh) * | 2012-03-09 | 2013-09-18 | 由田新技股份有限公司 | 指向性影像操控装置及其方法 |
CN102789313A (zh) * | 2012-03-19 | 2012-11-21 | 乾行讯科(北京)科技有限公司 | 一种用户交互系统和方法 |
JP2013218423A (ja) * | 2012-04-05 | 2013-10-24 | Utechzone Co Ltd | 指向性映像コントロール装置及びその方法 |
CN103412680A (zh) * | 2013-04-22 | 2013-11-27 | 深圳市富兴科技有限公司 | 一种智能3d投影虚拟触控显示技术 |
Also Published As
Publication number | Publication date |
---|---|
TWI702548B (zh) | 2020-08-21 |
TW201944293A (zh) | 2019-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Klein | Visual tracking for augmented reality | |
Mohr et al. | Mixed reality light fields for interactive remote assistance | |
CN108604379A (zh) | 用于确定图像中的区域的系统及方法 | |
CN104081307A (zh) | 图像处理装置、图像处理方法和程序 | |
CN110363061B (zh) | 计算机可读介质、训练对象检测算法的方法及显示装置 | |
CN104322052A (zh) | 用于实时混合或复合计算机生成的三维对象和电影摄影机馈送视频的系统 | |
CN103248810A (zh) | 图像处理装置、图像处理方法和程序 | |
CN105701790A (zh) | 用于确定摄像机相对于真实环境的至少一个对象的姿态的方法和系统 | |
KR101343748B1 (ko) | 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치 | |
US20140111433A1 (en) | Motion compensation in an interactive display system | |
KR20130119233A (ko) | 포인터가 불필요한 3차원 가상 객체 정보 획득 장치 | |
US20170054959A1 (en) | Information processing device, information processing method, and program | |
Wang et al. | Transitioning360: Content-aware nfov virtual camera paths for 360 video playback | |
Lee | Real-time camera tracking using a particle filter combined with unscented Kalman filters | |
Ye et al. | 3D curve creation on and around physical objects with mobile AR | |
Gauglitz et al. | Model estimation and selection towardsunconstrained real-time tracking and mapping | |
CN112270242B (zh) | 轨迹的显示方法、装置、可读介质和电子设备 | |
Kim et al. | Oddeyecam: A sensing technique for body-centric peephole interaction using wfov rgb and nfov depth cameras | |
KR20100006736A (ko) | 이미지 및 문자를 인식하는 심플 프레임 마커를 구비하는 증강현실 시스템과 그 장치, 및 상기 시스템 또는 상기 장치를 이용한 증강현실 구현방법 | |
US20130201157A1 (en) | User interface device and method of providing user interface | |
JP6304815B2 (ja) | 画像処理装置ならびにその画像特徴検出方法、プログラムおよび装置 | |
CN110389650A (zh) | 虚拟画面的操控系统及操控方法 | |
Malik | Robust registration of virtual objects for real-time augmented reality | |
JP2013238987A (ja) | 情報表示装置、情報入力装置、情報表示プログラム及び情報入力プログラム | |
Barandiaran et al. | A New Evaluation Framework and Image Dataset for Keypoint Extraction and Feature Descriptor Matching. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |