CN103513771A - 智能眼镜与交互笔配合使用的系统及方法 - Google Patents
智能眼镜与交互笔配合使用的系统及方法 Download PDFInfo
- Publication number
- CN103513771A CN103513771A CN201310468404.9A CN201310468404A CN103513771A CN 103513771 A CN103513771 A CN 103513771A CN 201310468404 A CN201310468404 A CN 201310468404A CN 103513771 A CN103513771 A CN 103513771A
- Authority
- CN
- China
- Prior art keywords
- intelligent glasses
- interaction pen
- plane
- pen
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及一种智能眼镜与交互笔配合使用的方法,该方法包括如下步骤:智能眼镜接收交互笔发出的红外线,识别出第一红外线发射点及第二红外线发射点的位置,进而获得所述交互笔笔尖的位置;建立以所述智能眼镜镜框中心为坐标原点的坐标系;当交互笔在平面上使用时,计算获得该交互笔与所述平面的交点的坐标;当所述交互笔在三维空间使用时,计算获得所述交互笔笔尖的坐标。本发明还涉及一种智能眼镜与交互笔配合使用的系统。本发明为智能眼镜提供一种新的人机交互方式,简单高效地完成智能眼镜在特定领域的应用。
Description
技术领域
本发明涉及一种智能眼镜与交互笔配合使用的系统及方法。
背景技术
目前,智能眼镜已经渐渐进入人们的视野,对于可透视型智能眼镜来说,当人戴上这种眼镜后,周围可见光能够透过眼镜镜片,人的双眼能够正常看到四周的环境,同时智能眼镜能够将一些图像信息叠加在人的真实视野上。由于拥有这样的特性,可透视型智能眼镜将在众多行业和领域发挥巨大作用。
为了更好的利用智能眼镜的显示特性,智能眼镜的佩戴者需要与智能眼镜投射出的图像画面进行互动,实现一些人机交互的功能。比如,如果智能眼镜将图像画面投射在一个平面上,而投射的图像画面为一篇文稿,此时就需要使用交互笔的方式与智能眼镜投射的文稿进行交互;再比如,如果智能眼镜投射出一个绘图画面,此时智能眼镜佩戴者就需要利用一根画笔实现绘图工作等等。在这些特殊的应用场合中,迫切需要一根能够与智能眼镜进行互动的交互笔去完成人机交互操作。
但是,目前与智能眼镜进行交互的手段仅仅限于语音、触控。在一些专利中,出现了利用手势直接与智能眼镜进行交互的技术方案。目前已有的一些交互笔仅仅用于互动投影的场合,并没有针对智能眼镜使用的交互笔。在目前的技术方案中,语音以及触控等交互手段不能满足智能眼镜特定场合下使用的交互需求,同时利用手势与智能眼镜投射的图像进行交互存在着一个巨大的问题,即人体的手指不具有精细描述的能力,对于图像上细小的文字而言,人体的手指显得过于庞大。而现有的交互笔并不是为智能眼镜设计的,因此不能满足智能眼镜真正的需要。
发明内容
有鉴于此,有必要提供一种智能眼镜与交互笔配合使用的系统及方法。
本发明提供一种智能眼镜与交互笔配合使用的系统,该交互笔包括相互电性连接的电源模块及发射模块,其中:所述电源模块用于为交互笔提供电力供应;所述发射模块用于通过发射点发出智能眼镜能够识别的光线;该智能眼镜包括相互电性连接的笔尖位置获取模块、坐标系建立模块、平面模型计算模块、空间模型计算模块,其中:所述笔尖位置获取模块,用于根据上述发出的光线识别所述发射点的位置获得所述交互笔笔尖的位置;所述坐标系建立模块,用于建立以所述智能眼镜镜框中心为坐标原点的坐标系;所述平面模型计算模块,用于当所述交互笔在平面上使用时计算获得该交互笔与所述平面的交点的坐标;所述空间模型计算模块,用于当所述交互笔在三维空间使用时计算获得所述交互笔笔尖的坐标。
优选的,所述的交互笔还包括:用于实现与智能眼镜通讯的通讯模块;用于接收用户命令的接收模块;及用于控制所述交互笔的整体工作的处理模块。
优选的,所述的通讯模块为蓝牙装置。
优选的,所述的接收模块为按键。
优选的,所述的交互笔从一端到另一端依次为:笔尖、靠近笔尖的第一红外线发射点、笔身、按键及位于笔尾的第二红外发射点。
优选的,所述的笔尖为金属笔尖。
优选的,所述的坐标系以智能眼镜镜框中心为坐标原点O,以平行智能眼镜投射出的图像画面并经过坐标原点O的平面为OYZ平面建立右手坐标系OXYZ。
优选的,所述交互笔与所述平面的交点P0的坐标P0(x0,y0,z0):
其中,所述平面的法向量n(n0,n1,n2),平面任一点R(xr,yr,zr)。
优选的,所述交互笔笔尖P0(x0,y0,z0)的坐标为:
其中,(l,m,n)为直线P1P2的方向向量。
本发明提供一种智能眼镜与交互笔配合使用的方法,该方法包括如下步骤:智能眼镜接收交互笔发出的红外线,识别出第一红外线发射点及第二红外线发射点的位置,进而获得所述交互笔笔尖的位置;建立以所述智能眼镜镜框中心为坐标原点的坐标系;当交互笔在平面上使用时,计算获得该交互笔与所述平面的交点的坐标;当所述交互笔在三维空间使用时,计算获得所述交互笔笔尖的坐标。
优选的,所述的坐标系以智能眼镜镜框中心为坐标原点O,以平行智能眼镜投射出的图像画面并经过坐标原点O的平面为OYZ平面建立右手坐标系OXYZ。
优选的,所述交互笔与所述平面的交点P0的坐标P0(x0,y0,z0):
其中,所述平面的法向量n(n0,n1,n2),平面任一点R(xr,yr,zr)。
优选的,所述交互笔笔尖P0(x0,y0,z0)的坐标为:
其中,(l,m,n)为直线P1P2的方向向量。
本发明所提供的智能眼镜与交互笔配合使用的系统及方法,可以使交互笔被智能眼镜识别,所述交互笔在智能眼镜的视野中能够像一只真正的笔一样使用,为智能眼镜提供一种新的人机交互方式,简单高效地完成智能眼镜在特定领域的应用。
附图说明
图1为与本发明智能眼镜的外观示意图;
图2为与本发明智能眼镜的正面图;
图3为本发明交互笔的正面图;
图4为本发明交互笔的硬件架构示意图;
图5为本发明智能眼镜的硬件架构示意图;
图6为双目立体视觉算法的基本原理图;
图7为智能眼镜坐标系示意图;
图8为本发明交互笔在平面上使用的示意图;
图9为本发明交互笔在三维空间使用的模型图;
图10为本发明智能眼镜与交互笔配合使用的方法流程图。
具体实施方式
下面结合附图及具体实施例对本发明作进一步详细的说明。
本发明智能眼镜(请参照图1),为可透视型智能眼镜,即戴上该智能眼镜后,周围可见光能够透过眼镜镜片,人的双眼能够正常看到四周的环境,并且该智能眼镜能够将一些图像信息叠加在人的真实视野上,当人戴上该智能眼镜后,除了看到四周的环境外,也能看到由该智能眼镜显示出来的图像信息,相当于离人眼一定距离的空间中观看一定尺寸的屏幕。
所述智能眼镜具有两个摄像头(请参照图2),所述两个摄像头对称安装于该智能眼镜的左右两端,分别为左摄像头001和右摄像头002。所述两个摄像头用于接收外界传入的红外线。所述智能眼镜具有使投射出的图像固定于某一平面或者使投射出的图像静止的能力。
参阅图3所示,是本发明交互笔的正面图。对所述交互笔从左向右进行说明:所述交互笔最左端为一个金属笔尖,往右的黑色部分为第一红外线发射点,再往右为笔身,所述笔身上设置有用于接收用户控制命令的按键,所述交互笔的最右端为第二红外线发射点。
参阅图4所示,是本发明交互笔的硬件架构示意图。该交互笔包括电源模块101、通讯模块102、接收模块103、发射模块104及处理模块105。其中,上述第一红外线发射点及第二红外线发射点皆属于所述发射模块104,所述按键属于所述接收模块103。所述电源模块101、通讯模块102及处理模块105均位于所述交互笔内。具体而言:
所述电源模块101用于为交互笔提供电力供应。
所述通讯模块102用于实现交互笔与智能眼镜之间的通讯。在本实施例中,所述通讯模块102采用的是蓝牙装置。
所述接收模块103用于接收用户的命令。在本实施例中,所述接收模块103为按键。
所述发射模块104用于发出上述左右摄像头能够识别的光线。在本实施例中,所述发射模块104向外界发出红外线。
所述处理模块105用于控制所述交互笔的整体工作。
参阅图5所示,为与本发明智能眼镜的硬件架构示意图。所述智能眼镜包括相互电性连接的笔尖位置获取模块003、坐标系建立模块004、平面模型计算模块005、空间模型计算模块006。具体如下:
所述左摄像头001和右摄像头002,用于接收交互笔的发射模块104发出的可识别光线。在本实施例中,所述左摄像头001和右摄像头002接收发射模块104发出的红外线。
所述笔尖位置获取模块003通过左摄像头001和右摄像头002接收的红外线,识别出上述第一红外线发射点及第二红外线发射点的位置,进而获得所述交互笔笔尖的位置。虽然采用一个红外线发射点也可以获得交互笔的运动轨迹,但是采用一个红外线发射点的方式并不精确,因为红外线发射点很难以非常小的体积制作于笔尖,只能置于笔尖上方某个位置,这样识别的红外线发射点的坐标位置并不能代表笔尖的坐标位置。而本发明采用两个红外线发射点,运用解析几何的关系计算出笔尖真正的坐标,这样大大提高了交互笔的精度。同时由于本发明并不需要将红外线发射点置于笔尖处,因此本发明提供的交互笔的笔尖可以用普通使用的笔尖代替,这样就会大大提供用户的使用舒适度,就好像用户在使用一根普通的笔一样。
所述笔尖位置获取模块003依据双目立体视觉原理识别上述第一红外线发射点、第二红外线发射点的坐标。在图6中,l1、l2分别为左摄像头001和右摄像头002,B为l1、l2两个摄像头光心之间的距离,f为l1、l2摄像头的焦距。P(x,y,z)为空间中的待求点,(x,y,z)为其三维坐标,P1(x1,y1)、P2(x2,y2)分别为P点在两个摄像头平面上的坐标,其中,P点的视差为:d=x1-x2,通过几何关系可以计算得到P点的深度为:
可见,所述笔尖位置获取模块003通过双目立体视觉的原理可以计算出P点在智能眼镜坐标系中的Z坐标。由于P点的X坐标、Y坐标可以直接从摄像机坐标系中读取,因而可求得某一个空间点在摄像机三维坐标系中的坐标。
所述坐标系建立模块004建立如图7所示的坐标系OXYZ。所述坐标系以智能眼镜镜框中心为坐标原点O,以平行智能眼镜投射出的图像画面并经过坐标原点O的平面为OYZ平面建立右手坐标系OXYZ。
当所述交互笔在平面上使用时,参阅图8,智能眼镜向平面ABCD投射图像,且投射到平面ABCD上的图像会固定在平面上,不会随着智能眼镜佩戴者头部运动而发生相应变化。结合图9所示,由于在智能眼镜的摄像头中呈现的是所述交互笔的第一红外线发射点及第二红外线发射点,因此以P1点和P2点分别代表上述第一红外线发射点及第二红外线发射点,这样直线P1P2就可以直接代表交互笔。
所述平面模型计算模块005根据智能眼镜相对于平面ABCD的距离和角度,计算得到平面ABCD的方程。在智能眼镜坐标系OXYZ中,已知平面ABCD的法向量n(n0,n1,n2)以及平面上的一点R(xr,yr,zr),则平面ABCD的平面方程为:
n0(x-xr)+n1(y-yr)+n2(z-zr)=0
同时,采用双目立体视觉的原理,所述平面模型计算模块005求得上述第一红外线发射点及第二红外线发射点在智能眼镜坐标系中的坐标分别为P1(x1,y1,z1)、P2(x2,y2,z2),则代表交互笔的直线P1P2的方程为:
其中,(l,m,n)为直线P1P2的方向向量:
因为平面ABCD和直线P1P2的交点P0既在平面ABCD中,也在直线P1P2上,因此所述平面模型计算模块005只需联立平面方程和直线方程,将可求出P0的坐标P0(x0,y0,z0):
P0为所述交互笔与平面ABCD的交点,因此在得到P0的坐标后,就可以根据P0点的轨迹路径绘制出相应轨迹,从而实现所述交互笔与智能眼镜的互动。
当所述交互笔在三维空间使用时,即当智能眼镜投射的图像画面位于空间中而不是在一个平面上时,所述空间模型计算模块006实现三维空间与图像画面的交互。所述交互笔在三维空间中的使用与在平面上的使用类似,所述空间模型计算模块006求出所述交互笔笔尖的坐标。参照图9,假设P0(x0,y0,z0)点为交互笔的笔尖,P0P1、P1P2之间的距离分别为l1和l2,则所述空间模型计算模块006可得到直线P1P2的直线方程为:
其中,(l,m,n)为直线P1P2的方向向量:
所述空间模型计算模块006通过空间解析几何关系即可求出P0(x0,y0,z0)点的坐标:
在得到P0的坐标后,就可以根据P0点的轨迹路径绘制出相应轨迹,从而实现所述交互笔与智能眼镜的互动。
参阅图10所示,是本发明智能眼镜与交互笔配合使用的方法流程图。
步骤S401,笔尖位置获取模块003通过左摄像头001和右摄像头002接收的红外线,识别出第一红外线发射点及第二红外线发射点的位置,进而获得所述交互笔笔尖的位置。
步骤S402,坐标系建立模块004建立以所述智能眼镜镜框中心为坐标原点的坐标系。所述坐标系以智能眼镜镜框中心为坐标原点O,以平行智能眼镜投射出的图像画面并经过坐标原点O的平面为OYZ平面建立右手坐标系OXYZ。
步骤S403,当交互笔在平面上使用时,平面模型计算模块005计算获得该交互笔与所述平面的交点的坐标。具体而言,所述平面模型计算模块005根据智能眼镜相对于平面ABCD的距离和角度,计算得到平面ABCD的方程。在智能眼镜坐标系OXYZ中,已知平面ABCD的法向量n(n0,n1,n2)以及平面上的一点R(xr,yr,zr),则平面ABCD的平面方程为:
n0(x-xr)+n1(y-yr)+n2(z-zr)=0
。
同时,采用双目立体视觉的原理,所述平面模型计算模块005求得上述第一红外线发射点及第二红外线发射点在智能眼镜坐标系中的坐标分别为P1(x1,y1,z1)、P2(x2,y2,z2),则代表交互笔的直线P1P2的方程为:
其中,(l,m,n)为直线P1P2的方向向量:
因为平面ABCD和直线P1P2的交点P0既在平面ABCD中,也在直线P1P2上,因此所述平面模型计算模块005只需联立平面方程和直线方程,将可求出P0的坐标P0(x0,y0,z0):
步骤S404,当所述交互笔在三维空间使用时,所述空间模型计算模块006计算获得所述交互笔笔尖的坐标。具体而言,假设P0(x0,y0,z0)点为交互笔的笔尖,P0P1、P1P2之间的距离分别为l1和l2,则所述空间模型计算模块006可得到直线P1P2的直线方程为:
其中,(l,m,n)为直线P1P2的方向向量:
所述空间模型计算模块006通过空间解析几何关系即可求出P0(x0,y0,z0)点的坐标:
在得到P0的坐标后,就可以根据P0点的轨迹路径绘制出相应轨迹,从而实现所述交互笔与智能眼镜的互动。
虽然本发明参照当前的较佳实施方式进行了描述,但本领域的技术人员应能理解,上述较佳实施方式仅用来说明本发明,并非用来限定本发明的保护范围,任何在本发明的精神和原则范围之内,所做的任何修饰、等效替换、改进等,均应包含在本发明的权利保护范围之内。
Claims (13)
1.一种智能眼镜与交互笔配合使用的系统,其特征在于,
该交互笔包括相互电性连接的电源模块及发射模块,其中:
所述电源模块用于为交互笔提供电力供应;
所述发射模块用于通过发射点发出智能眼镜能够识别的光线;
该智能眼镜包括相互电性连接的笔尖位置获取模块、坐标系建立模块、平面模型计算模块、空间模型计算模块,其中:
所述笔尖位置获取模块,用于根据上述发出的光线识别所述发射点的位置获得所述交互笔笔尖的位置;
所述坐标系建立模块,用于建立以所述智能眼镜镜框中心为坐标原点的坐标系;
所述平面模型计算模块,用于当所述交互笔在平面上使用时计算获得该交互笔与所述平面的交点的坐标;
所述空间模型计算模块,用于当所述交互笔在三维空间使用时计算获得所述交互笔笔尖的坐标。
2.如权利要求1所述的系统,其特征在于,所述的交互笔还包括:
用于实现与智能眼镜通讯的通讯模块;
用于接收用户命令的接收模块;及
用于控制所述交互笔的整体工作的处理模块。
3.如权利要求2所述的系统,其特征在于,所述的通讯模块为蓝牙装置。
4.如权利要求3所述的系统,其特征在于,所述的接收模块为按键。
5.如权利要求4所述的系统,其特征在于,所述的交互笔从一端到另一端依次为:笔尖、靠近笔尖的第一红外线发射点、笔身、按键及位于笔尾的第二红外发射点。
6.如权利要求5所述的系统,其特征在于,所述的笔尖为金属笔尖。
7.如权利要求5所述的系统,其特征在于,所述的坐标系以智能眼镜镜框中心为坐标原点O,以平行智能眼镜投射出的图像画面并经过坐标原点O的平面为OYZ平面建立右手坐标系OXYZ。
8.如权利要求7所述的系统,其特征在于,所述交互笔与所述平面的交点P0的坐标P0(x0,y0,z0):
其中,所述平面的法向量n(n0,n1,n2),平面任一点R(xr,yr,zr)。
9.如权利要求7所述的系统,其特征在于,所述交互笔笔尖P0(x0,y0,z0)的坐标为:
其中,(l,m,n)为直线P1P2的方向向量。
10.一种智能眼镜与交互笔配合使用的方法,其特征在于,该方法包括如下步骤:
智能眼镜接收交互笔发出的红外线,识别出第一红外线发射点及第二红外线发射点的位置,进而获得所述交互笔笔尖的位置;
建立以所述智能眼镜镜框中心为坐标原点的坐标系;
当交互笔在平面上使用时,计算获得该交互笔与所述平面的交点的坐标;
当所述交互笔在三维空间使用时,计算获得所述交互笔笔尖的坐标。
11.如权利要求10所述的方法,其特征在于,所述的坐标系以智能眼镜镜框中心为坐标原点O,以平行智能眼镜投射出的图像画面并经过坐标原点O的平面为OYZ平面建立右手坐标系OXYZ。
12.如权利要求11所述的方法,其特征在于,所述交互笔与所述平面的交点P0的坐标P0(x0,y0,z0):
其中,所述平面的法向量n(n0,n1,n2),平面任一点R(xr,yr,zr)。
13.如权利要求11所述的方法,其特征在于,所述交互笔笔尖P0(x0,y0,z0)的坐标为:
其中,(l,m,n)为直线P1P2的方向向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310468404.9A CN103513771B (zh) | 2013-10-09 | 2013-10-09 | 智能眼镜与交互笔配合使用的系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310468404.9A CN103513771B (zh) | 2013-10-09 | 2013-10-09 | 智能眼镜与交互笔配合使用的系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103513771A true CN103513771A (zh) | 2014-01-15 |
CN103513771B CN103513771B (zh) | 2017-02-08 |
Family
ID=49896634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310468404.9A Active CN103513771B (zh) | 2013-10-09 | 2013-10-09 | 智能眼镜与交互笔配合使用的系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103513771B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108874139A (zh) * | 2018-06-20 | 2018-11-23 | 浙江工业大学 | 视觉焦点和手部运动跟踪协同驱动的目标交互方法和系统 |
CN109116305A (zh) * | 2018-09-30 | 2019-01-01 | 成都精位科技有限公司 | 定位方法、定位装置及定位系统 |
CN109239662A (zh) * | 2018-09-30 | 2019-01-18 | 成都精位科技有限公司 | 定位方法、定位装置及定位系统 |
CN110488996A (zh) * | 2018-05-15 | 2019-11-22 | 名硕电脑(苏州)有限公司 | 绘图笔及具有其的互动系统 |
CN112835457A (zh) * | 2021-02-06 | 2021-05-25 | 上海萃钛智能科技有限公司 | 一种3d魔术笔及基于该3d魔术笔的显示系统及其使用方法 |
US11539490B2 (en) | 2017-08-09 | 2022-12-27 | Huawei Technologies Co., Ltd. | Signal transmission method and related device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070097100A1 (en) * | 2005-11-01 | 2007-05-03 | James Marggraff | Method and system for invoking computer functionality by interaction with dynamically generated interface regions of a writing surface |
CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
-
2013
- 2013-10-09 CN CN201310468404.9A patent/CN103513771B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070097100A1 (en) * | 2005-11-01 | 2007-05-03 | James Marggraff | Method and system for invoking computer functionality by interaction with dynamically generated interface regions of a writing surface |
CN103336575A (zh) * | 2013-06-27 | 2013-10-02 | 深圳先进技术研究院 | 一种人机交互的智能眼镜系统及交互方法 |
Non-Patent Citations (1)
Title |
---|
程序贤: "虚拟融合的三维人机交互技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11539490B2 (en) | 2017-08-09 | 2022-12-27 | Huawei Technologies Co., Ltd. | Signal transmission method and related device |
CN110488996A (zh) * | 2018-05-15 | 2019-11-22 | 名硕电脑(苏州)有限公司 | 绘图笔及具有其的互动系统 |
CN108874139A (zh) * | 2018-06-20 | 2018-11-23 | 浙江工业大学 | 视觉焦点和手部运动跟踪协同驱动的目标交互方法和系统 |
CN108874139B (zh) * | 2018-06-20 | 2021-02-02 | 浙江工业大学 | 视觉焦点和手部运动跟踪协同驱动的目标交互方法和系统 |
CN109116305A (zh) * | 2018-09-30 | 2019-01-01 | 成都精位科技有限公司 | 定位方法、定位装置及定位系统 |
CN109239662A (zh) * | 2018-09-30 | 2019-01-18 | 成都精位科技有限公司 | 定位方法、定位装置及定位系统 |
CN112835457A (zh) * | 2021-02-06 | 2021-05-25 | 上海萃钛智能科技有限公司 | 一种3d魔术笔及基于该3d魔术笔的显示系统及其使用方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103513771B (zh) | 2017-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103513771B (zh) | 智能眼镜与交互笔配合使用的系统及方法 | |
CN103336575A (zh) | 一种人机交互的智能眼镜系统及交互方法 | |
US10078377B2 (en) | Six DOF mixed reality input by fusing inertial handheld controller with hand tracking | |
US10295826B2 (en) | Shape recognition device, shape recognition program, and shape recognition method | |
US11287905B2 (en) | Trackability enhancement of a passive stylus | |
US9979946B2 (en) | I/O device, I/O program, and I/O method | |
US9933853B2 (en) | Display control device, display control program, and display control method | |
Caggianese et al. | Natural interaction and wearable augmented reality for the enjoyment of the cultural heritage in outdoor conditions | |
CN116027894A (zh) | 纤细形状因子的无源光学和惯性跟踪 | |
US9906778B2 (en) | Calibration device, calibration program, and calibration method | |
CN205318022U (zh) | 可穿戴智能视觉增强设备 | |
WO2015200406A1 (en) | Digital action in response to object interaction | |
CN104238739A (zh) | 基于眼睛跟踪的可见度提高方法和电子装置 | |
KR101697286B1 (ko) | 사용자 스타일링을 위한 증강현실 제공 장치 및 방법 | |
US10983661B2 (en) | Interface for positioning an object in three-dimensional graphical space | |
KR20130034125A (ko) | 증강현실 기능을 구비한 안경형 모니터 | |
CN104637080B (zh) | 一种基于人机交互的三维绘图系统及方法 | |
CN102779000A (zh) | 一种用户交互系统和方法 | |
US20220397963A1 (en) | Head-mounted display | |
CN103176605A (zh) | 一种手势识别控制装置及控制方法 | |
US10706280B2 (en) | Virtual reality device with iris acquisition function | |
CN105116544A (zh) | 头操作的电子眼镜 | |
CN104298340A (zh) | 控制方法和电子设备 | |
US10171800B2 (en) | Input/output device, input/output program, and input/output method that provide visual recognition of object to add a sense of distance | |
CN104036270A (zh) | 一种即时自动翻译装置及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |