CN104345455A - 信息呈现装置和信息处理系统 - Google Patents
信息呈现装置和信息处理系统 Download PDFInfo
- Publication number
- CN104345455A CN104345455A CN201410350719.8A CN201410350719A CN104345455A CN 104345455 A CN104345455 A CN 104345455A CN 201410350719 A CN201410350719 A CN 201410350719A CN 104345455 A CN104345455 A CN 104345455A
- Authority
- CN
- China
- Prior art keywords
- user
- action
- detecting unit
- vibrating elements
- axis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title 1
- 238000001514 detection method Methods 0.000 claims abstract description 67
- 230000009471 action Effects 0.000 claims description 151
- 210000003128 head Anatomy 0.000 description 67
- 101100347655 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) NAB3 gene Proteins 0.000 description 42
- 238000010586 diagram Methods 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 12
- 230000010355 oscillation Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 6
- 238000001839 endoscopy Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 238000005538 encapsulation Methods 0.000 description 3
- 210000000103 occipital bone Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000007654 immersion Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000003534 oscillatory effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 206010016275 Fear Diseases 0.000 description 1
- 244000287680 Garcinia dulcis Species 0.000 description 1
- 206010023118 Jamais vu Diseases 0.000 description 1
- 239000004677 Nylon Substances 0.000 description 1
- 239000004743 Polypropylene Substances 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000001764 infiltration Methods 0.000 description 1
- 230000008595 infiltration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 229920001778 nylon Polymers 0.000 description 1
- -1 polypropylene Polymers 0.000 description 1
- 229920001155 polypropylene Polymers 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229920002379 silicone rubber Polymers 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Abstract
本发明公开了信息呈现装置和信息处理系统。该信息呈现装置包括:主体、检测单元、和呈现单元。主体安装在使用者的头部。检测单元设置在与配戴主体的使用者的正中面相交的位置上,并且被配置为检测使用者头部的动作。呈现单元设置在主体上,并且能够向使用者呈现基于来自检测单元的输出切换的信息。
Description
相关专利申请的交叉引用
本专利申请要求于2013年7月29日提交的日本在先专利申请JP2013-156435的利益,该专利申请的全部内容以引用方式并入本文。
技术领域
本技术涉及头戴式信息呈现装置和信息处理系统。
背景技术
已知头戴式信息呈现装置,例如头戴式显示器(HMD)(参见日本专利申请公开号2011-145488和http://www.sony.jp/hmd/products/HMZ-T1/)。此类信息呈现装置具有卓越的便携性,并且无论什么场所,都能够向使用者呈现信息,并根据使用者输入操作的需要切换所呈现的信息。另外,HMD能够显示深度增加的现实感3D图像,并且,例如,用于在进行内窥镜手术时提供内窥镜图像。
另一方面,在HMD中,当用手或类似物执行输入操作时,在一些情况下出现问题。例如,当安装在头部的主体设有输入单元时,难以在操作的同时确认输入按钮和类似物。因此,人们担心可以导致操作错误。另外,当在执行内窥镜手术的情况下,出于卫生原因,单手操作难以被执行。鉴于此,一种由配戴HMD的使用者的动作来执行输入操作的结构正在被研究。
发明内容
然而,当试图通过使用者的动作执行对图像、声音等的切换操作时,需要正确地判断预定的动作是否被执行。因此,使用者的动作需要被高精确度的检测。但是,通过使用动作传感器例如角速度传感器,难以正确地抓取头部的动作。
鉴于上述情况,期望提供一种能够通过使用者的动作以较高的精确度执行输入操作的信息呈现装置和信息处理系统。
根据本公开的实施方式,提供一种包括主体、检测单元、和呈现单元的信息呈现装置。
主体安装在使用者的头部。
检测单元设置在与配戴主体的使用者的正中面相交的位置上,并且被配置为检测使用者的头部的动作。
呈现单元设置在主体上并且能够向使用者呈现基于来自检测单元的输出切换的信息。
检测单元被设置在左右对称的位置上,并且沿着与头部的重心相同的轨道移动。另外,较少受到与枢轴动作相关联的颈部扭转的影响等。因此,可以根据来自检测单元的检测信号以高精确度检测头部的动作。因此,根据基于使用者意图的头部动作,由呈现单元呈现的信息可以被切换成期望的信息。
例如,检测单元被设置成在垂直于眉间部分的方向伤与配戴主体的使用者的眉间部分相对。
因此,可将检测单元设置在更接近头部的重心的位置上,并且以较高的精确度检测头部的动作。
呈现单元可包括能够将基于来自检测单元的输出切换的图像显示在使用者的眼前的显示单元。
因此,例如,可以将信息呈现装置形成为头戴式显示器,并且向使用者呈现基于使用者的意图的图像。
或者,呈现单元可包括能够向使用者输出基于来自检测单元的输出切换的声音的扬声器。
因此,可以向使用者呈现基于使用者的意图的声音。
检测单元可包括角速度传感器单元,其检测使用者的头部的动作。
因此,可以基于由使用者的头部的动作所产生的角速度,检测使用者的头部的动作。
角速度传感器单元可包括:第一振动元件,其基于使用者的第一动作检测围绕第一轴线的角速度;以及第二振动元件,其基于使用者的第二动作检测围绕第二轴线的角速度,第二轴线与第一轴线不同。
因此,可以通过使用振动类型的陀螺仪传感器来检测使用者的多个动作。
另外,第一轴线的方向是横向方向和竖直方向之一。
因此,可以选择用户能够容易地执行但不是无意识地执行的动作,例如类似点头的上下摇头动作、脸向右转和向左转的动作。
第一轴线的方向和第二轴线的方向可相互垂直。
因此,可以抑制第一振动元件和第二振动元件之间的串扰,还减少检测信号的噪声。
另外,第一振动元件和第二振动元件各自可具有能够振动的第一端部和与第一端部相对的第二端部,并且分别沿着第一轴线和第二轴线的方向延长,并且在角速度传感器单元中,从第一直线与第二直线相交的点到第一振动元件的第二端部的距离等于从该点到第二振动元件的第二端部的距离,第一直线从第一振动元件沿着第一轴线的方向延长,第二直线从第二振动元件沿着第二轴线的方向延长。
因此,可以抑制第一振动元件和第二振动元件的检测灵敏度之间的偏差,并且提高头部动作的检测精确度。
另外,角速度传感器单元可包括检测体,其能够检测围绕三个彼此不同的轴线的角速度。
因此,可以使角速度传感器单元的结构是紧凑的,并且将该单元设置在小空间中。因此,可将检测单元容易地设置在与使用者的正中面相交的期望位置上。
基于本公开的另一个实施方式,提供一种信息处理系统,其包括主体、呈现单元、检测单元、和控制单元。
主体安装在使用者的头部。
呈现单元设置在主体上,并且能够向使用者呈现预定的信息。
检测单元设置在与配戴主体的使用者的正中面相交的位置上,并且被配置为检测使用者的头部。
控制单元被配置为基于来自检测单元的输出切换由呈现单元呈现的信息。
如上所述,根据本技术,可以提供能够基于使用者的动作以较高的精确度执行输入操作的信息呈现装置和信息处理系统。
根据下文如附图所示的本公开的最佳模式实施方式的详细说明,本公开的这些和其他目的、特征及优势将变得更加显而易见。
附图说明
图1是示出根据本技术的第一实施方式的信息处理系统的结构的示意图;
图2是示出信息处理系统的结构的框图;
图3是示出当从X轴方向观察时设置在使用者上的图1所示头戴式显示器(HMD)的形式的截面图;
图4是当从面向HMD显示面的方向观察时的HMD的透视图;
图5是示出图2所示的呈现单元(显示单元)的结构的框图;
图6A和图6B是用于说明图1所示的检测单元的配置的平面图(正面图),其中图6A示出使用者的头部,而图6B示出HMD上的检测单元的配置;
图7是示出检测单元的结构的示意图;
图8是用于说明图2所示控制器(控制单元)的操作例的流程图;
图9是示出当检测单元设置在图12中的点A处时的检测信号的具体实例的图,其中横轴代表时间,而纵轴代表电压值;
图10是示出当检测单元设置在图12中的点B处时的检测信号的具体实例的图,其中横轴代表时间,而纵轴代表电压值;
图11是示出当检测单元设置在图12中的点C处时的检测信号的具体实例的图,其中横轴代表时间,而纵轴代表电压值;
图12是示出对应于图9至图11的检测单元的配置的HMD的示意性透视图;
图13A和图13B是用于说明使用者的第二动作和检测单元的配置之间的关系的示意图,其中图13A示出检测单元设置在图12中的点A处的情况,而图13B示出检测单元设置在图12中的点C处的情况;
图14是示出从颈部分别到点A、点B、和点C的距离r1、r2、和r3的示意图,颈部被认为是头部的旋转中心;
图15是示出根据本技术的第二实施方式的信息处理系统的结构的框图;以及
图16是示出根据本技术的第三实施方式的信息处理系统的结构的框图。
具体实施方式
在下文中,将参照附图对本公开的实施方式进行描述。
<第一实施方式>
图1和图2是用于说明根据本技术的实施方式的信息处理系统的示图。图1是示出信息处理系统的结构的示意图,而图2是示出信息处理系统的结构的框图。
根据该实施方式的信息处理系统100包括:主体10、检测单元4、呈现单元2、和控制器(控制单元)3。在该实施方式中,主体10、检测单元4、和呈现单元2被设置为头戴式显示器(HMD)。HMD1充当根据该实施方式的“信息呈现装置”。
根据该实施方式的信息处理系统100能够通过配戴HMD1的使用者的动作来切换HMD1所呈现的图像。例如,该信息处理系统100可被用作内窥镜手术中的手术辅助系统。在这种情况下,执行手术操作的医疗专业人员(使用者)配戴HMD1,并且可以进行手术操作。可替代地,信息处理系统100可用于各种用途,例如通过HMD1提供游戏和提供电影。
例如,HMD1通过电缆15与控制器3连接。预定的图像数据被输入到控制器3,并且从HMD1呈现的图像可基于使用者的动作进行切换。
HMD1包括:安装在使用者的头部的主体10、能够呈现预定的信息给使用者的呈现单元2、和检测单元4。由HMD1呈现的图像数据没有特别的限制。例如,当信息处理系统100在内窥镜手术中使用时,可以适用于内窥镜图像、超声波图像等。可替代地,根据信息处理系统100的实用形式,可以适用于游戏图像、电影、或各种不同的图像数据。在下文中,将对HMD1的结构进行描述。
(HMD)
图3和图4是示出根据该实施方式的HMD的结构的示意图。图3是HMD的截面图,示出当在X轴方向观察时其被安装在使用者上的状态。图4是当在面向显示面的方向观察HMD时的透视图。应当注意,在图3中,H代表使用者。
应当注意,图中的X轴方向、Y轴方向、和Z轴方向代表使用者所属的XYZ坐标系中相互正交的三轴方向。X轴方向和Z轴方向指示水平方向,并且Y轴方向指示垂直方向(上下方向)。另外,在基本的姿势中,X轴方向被设置为HMD1和使用者的左右方向,Y轴方向被设置为HMD1和使用者的垂直方向,并且Z轴方向被设置为HMD1和使用者的前后(前面到后面)方向。应当注意,“基本姿势”指的是使用者在无头部的动作(随后将描述)的情况下以静止直立的姿势配戴HMD1的状态。
例如,根据该实施方式的HMD1被形成为眼罩形(goggle-shaped)HMD、非透过型HMD作为整体形式。另外,如上所述,HMD1包括:主体10、呈现单元2、和检测单元4。在下文中,将对HMD1的元件进行描述。
(主体)
主体10安装在使用者的头部,并且设置有壳体11和用于左眼及右眼的显示面13。在该实施方式中,主体10被形成为左右对称。另外,根据该实施方式的显示面13针对左眼和右眼具有相同的结构,并且因此由相同的参考标号表示。
壳体11可设置在使用者眼睛的前方,并与使用者的脸部适配。例如,壳体11包括上表面111和下表面112,并且整体上具有在Z轴方向膨胀出的半圆盘形状。在上表面111上,可设置衬垫部114,该衬垫部114在安装时与使用者的前额接触并且被配置为固定壳体11的安装位置。另外,随后将要描述的安装部12连接于壳体11的左侧和右侧表面,并且耳机16可以被分别提供到那里。
另外,壳体11在Z轴方向以预定间隔与使用者的脸部(包括右眼和左眼)相对,并且包括大致垂直于Z轴方向的目镜面113。目镜面113在与其下端的下表面112连续地连接。另外,在目镜面113的中央部分处,例如,形成切口(cutout)115,以适配使用者的鼻子的形状。另外,例如,可以对切口115设置可拆卸附接的鼻支托116。应当注意,图3示出鼻支托116未附接的状态。
显示面13由壳体11支撑,并且呈现图像给使用者。也就是说,显示面13可以为左眼和右眼呈现图像,其中图像是经过控制器3分别相对使用者的左眼和右眼进行处理的。
在该实施方式中,在壳体11中,检测单元4被设置成在与Z轴方向垂直的方向面向使用者的眉间部分G。随后将对检测单元4进行详细地描述。
主体10还包括能够将壳体11安装在合适的相对位置的安装部12。安装部12的结构没有特定限制,但是,例如,安装部12包括上环带(upperband)121和下环带(lower band)122,它们适配于使用者的枕骨部分并且连接于壳体11。上环带121和下环带122根据需要可由柔性材料(例如尼龙或聚丙烯)、具有伸缩性的材料(例如,硅橡胶和弹性体或类似物)制成。另外,上环带121和下环带122可以一体形成或者可以具有可变的长度。
(呈现单元)
呈现单元2设置在主体10的壳体11中,并且能够呈现基于来自检测单元4的输出进行切换的信息给使用者。在该实施方式中,呈现单元2包括能够将基于来自检测单元4的输出切换的图像显示在使用者的眼前的显示单元20。在下文中,将对显示单元20进行描述。
图5是示出呈现单元2(显示单元20)的结构的框图。显示单元20包括:显示端口输入端子21、图像生成单元22、和显示元件23。例如,显示端口输入端子21通过电缆15与控制器3连接,并且获取图像控制信号作为图像数据。图像生成单元22基于图像控制信号生成将被输出至各个右和左显示元件23的图像信号。然后,显示单元23发射与这些图像信号分别对应的图像光至显示面13,从而将图像显示给使用者。应当注意,与显示面13的情况类似,用于左眼和右眼的显示元件23具有相同的结构,并且因此由相同的参考编号表示。
具体地,图像生成单元22可对图像控制信号执行预定偏移处理等(predetermined shifting process),从而生成适于HMD1的用于左眼和右眼的图像信号。因此,可将3D图像呈现给使用者。偏移处理中的偏移量根据HMD1的显示元件23与眼睛之间的距离、双眼间的距离、随后将要描述的虚拟图像位置等计算得出。
基于从图像生成单元22输入的图像信号,左和右显示元件23向左和右显示面13发射图像光。在该实施方式中,显示元件23由有机EL(电致发光)元件形成。通过使用有机EL元件作为显示元件23,可实现小型化、高对比度、快速响应性、等等。
显示元件23具有这样的结构,例如,其中红色有机EL元件、绿色有机EL元件、蓝色有机EL元件等以矩阵模式排列。这些元件通过有源矩阵驱动电路、无源矩阵驱动电路等驱动,因此分别在预定定时、亮度、等执行自发光。另外,驱动电路是根据图像生成单元22所生成的图像信号进行控制的,结果是预定的图像作为一个整体被显示到显示元件23上。
应当注意,显示元件23的结构不限于上述结构。例如,可以使用液晶显示元件(LCD)等。
例如,在显示元件23和显示面13之间,作为光学系统,可以设置多个目镜(未示出)。通过使目镜与使用者的眼睛以预定的距离相对,可使使用者观察到似乎被显示在预定位置(虚拟图像位置)上的虚拟图像。虚拟图像位置和虚拟图像的尺寸由显示元件23和光学系统的结构等来设置。例如,虚拟图像的尺寸是750英寸的电影院大小,并且虚拟图像位置被设置成与使用者相距大约20m。另外,为了使虚拟图像被观察到,壳体11以这样的方式设置在相对于使用者的合适位置上:从显示元件23发射的图像光(Z轴方向作为光轴方向)通过目镜等聚焦在左眼和右眼的视网膜上。
(检测单元)
图6是用于说明检测单元的配置的平面图(正视图)。图6A示出使用者的头部,而图6B示出检测单元在HMD(主体)上的配置。图7是示出检测单元4的结构的示意图。
检测单元4设置在与配戴主体10的使用者H的正中面M相交的位置上,以便能够检测使用者H的头部的动作。在这里,“正中面”指的是在使用者的左右对称的头部形成中心的平面。具体地,正中面指使用者的头部在垂直方向的横截面,垂直方向即沿着连接使用者的鼻子、眉间部分、头顶部分、和枕骨部分的中心部分的线。另外,“与正中面相交”的意思包括只有至少一部分检测单元4需要与正中面所属的平面相交的意思。
在该实施方式中,检测单元4被设置成在与配戴主体10的使用者H的眉间部分G垂直的方向上与眉间部分G相对。另外,检测单元4可以设置在壳体11中的目镜面113附近(参见图3和图4)。在这种情况下,“眉间部分”指的是夹在使用者脸上的左右眉毛之间的大致平坦的区域。另外,当眉间部分被假设为平坦的表面时,“在垂直于眉间部分的方向相对”意味着在大致垂直于平坦表面的方向上相对。在该实施方式中,眉间部分G假设是与XY平面平行的平面,并且事实是在Z轴方向与眉间部分G相对(参见图3)。
因此,可将检测单元4设置成相对地接近头部的重心,并且更准确地抓取使用者头部的动作。另外,可将检测单元4设置在壳体11中,并且利用维持HMD1的设计的自由度抑制在安装时的陌生感。
检测单元4包括检测使用者头部的动作的角速度传感器单元40。也就是说,在该实施方式中,角速度传感器单元40被形成为角速度传感器模块,其检测围绕相互正交的三个轴线的角速度。
角速度传感器单元40包括:第一振动元件41、第二振动元件42、和第三振动元件43。第一振动元件41基于使用者的第一动作检测围绕x轴(第一轴线)的角速度。第二振动元件42基于使用者的第二动作检测围绕y轴(第二轴线)的角速度。第三振动元件43基于使用者的第三动作检测围绕z轴(第三轴线)的角速度。
在该实施方式中,角速度传感器单元40设置在主体10上,使得在使用者的基本姿势中,x轴方向与X轴方向一致,y轴方向与Y轴方向一致,并且z轴方向与Z轴方向一致。此时,x轴方向被设置为左右方向,y轴方向被设置为垂直方向,并且z轴方向被设置为前后方向。另外,x轴方向、y轴方向、和z轴方向是相互正交的三轴方向。因此,可以以高精确度检测到围绕x轴、y轴、和z轴的动作分量,并且可以抑制轴线之间的串扰(轴线干扰)。
另外,第一动作至第三动作没有特定限制,但是对应于使用者的直觉的动作可以对其进行施加。例如,作为第一动作,可以采用围绕X轴旋转头部的动作。例如,可以设置类似点头的上下摇头的动作。另外,作为第二动作,可采用围绕Y轴旋转头部的动作。例如,可以设置脸向右转和向左转的动作。另外,作为第三动作,可采用围绕Z轴旋转头部的动作。例如,可以设置向右侧和左侧倾斜头部的动作,类似将头部向侧面竖起。
在该实施方式中,第一振动元件41、第二振动元件42、和第三振动元件43被形成为振动类型的陀螺仪传感器。第一振动元件41、第二振动元件42、和第三振动元件43可被设置在相同或不同的封装(package)中。另外,第一振动元件41、第二振动元件42、和第三振动元件43之中的两个振动元件可被设置在相同的封装中,并且其他振动元件可被设置在不同的封装中。
第一振动元件41、第二振动元件42、和第三振动元件43可具有能够振动的第一端部411、422、和433以及分别在第一端部411、422、和433的相对侧的第二端部412、422、和432,并且分别在x轴方向、y轴方向和z轴方向上延长。
在该实施方式中,例如,第一振动元件41、第二振动元件42、和第三振动元件43可被形成为音叉振动元件,并且各自具有在垂直于检测轴的方向上彼此相对的两臂。应当注意,第一振动元件41、第二振动元件42、和第三振动元件43不限于音叉型,例如,但可以是悬臂型。应当注意,在下面的描述中,“检测轴”指的是每个振动元件可利用该轴检测角速度的轴。例如,第一振动元件41的检测轴是x轴,第二振动元件42的检测轴是y轴,并且第三振动元件43的检测轴是z轴。
第一端部411、422、和433被形成为振动元件41、42、和43的臂的端部,可以振动。第一端部411、422、和433通过第一振动元件41、第二振动元件42、和第三振动元件43围绕检测轴的旋转接收大小与在垂直于固有振动方向的方向上的角速度成比例的科里奥利力(Coriolis force)。角速度传感器单元40通过科里奥利力检测振动,其结果是可以检测到角速度的度数。
第二端部412、422、和432被形成为臂的基部,并且设置在控制基板(未示出)或类似物上。另外,角速度传感器单元40还包括,例如,能够引起第一端部411、422、和433的固有振动的驱动电极(未示出)和通过科里奥利力检测振动的检测电极(未示出)。
在该实施方式中,第一振动元件41、第二振动元件42、和第三振动元件43被设置成使得在延长方向(检测轴方向)延长的第一直线、第二支线、和第三支线L2、L2、和L3相交于一点(点P)。另外,角速度传感器单元40从点P到第二端部421、到第二端部422、和到第二端部423的距离相同。借助于该结构,可以抑制振动元件的检测灵敏度中的振动,并且以较高的精确度检测头部的动作。
另外,在该实施方式中,第二端部412、422、和432被设置在比第一端部411、422、和433更接近点P的位置上。因此,即便对于角速度传感器单元40被形成为紧凑型的情况,可以抑制由于机械振动、电连接、等导致的振动元件41、42、和43之间的干扰。
检测单元4向控制器3输出与通过每个振动检测元件41、42、和43获得的角速度对应的电信号,作为检测信号。例如,电信号可以是电压值。另外,在角速度被检测到的情况下,例如,检测信号被输出作为具有对应于动作的周期和振幅的电振动。
应当注意,检测单元4可包括与角速度传感器单元40设置在相同电路基板上并处理检测信号的集成电路(IC)(未示出)等。IC对从角速度传感器单元40输出的信号执行预定的处理,例如A/D(模拟/数字)转换和放大。因此,提供由控制器3容易处理的检测信号。另外,IC可以和检测单元4单独设置。在这种情况下,例如,IC可被设置在检测单元4附近或控制器3设置在相同的壳体中(根据需要)。
(控制器)
控制器3可以基于来自检测单元4的输出切换呈现单元2(显示单元20)所呈现的信息。在该实施方式中,控制器3包括:图像控制单元30、图像获取单元31、和存储单元32。例如,控制器3的部件被容纳在一个壳体中。在下文中,将参照图2给出描述。
图像获取单元31可获取预定的图像数据,以呈现给使用者。在该实施方式中,图像获取单元31具有供应图像数据的输入端子(未示出)和针对所供应的图像数据的标准执行转换灯的图像转换电路(未示出)。应当注意,已经通过图像获取单元31进行图像转换或类似处理的图像数据也称作“图像数据”。
输入端子可以直接连接于其中生成图像数据的外部装置,例如内窥镜装置、超声波装置、和游戏机。或者,输入端子可以与存储提前获取的图像数据的外部存储器等连接。另外,可以提供具有适用于与那些装置连接的标准的多个输入端子。
图像转换电路可将获取的图像数据转换成将要从HMD1显示的图像数据。例如,图像转换电路可具有向上转换器,用于将图像数据转换成具有适用于HMD1的标准的图像数据。或者,图像转换电路可以能够重构所获取的图像数据,例如,可以能够从2D图像数据构造3D图像数据。
图像控制单元30可根据从检测单元4输出的检测信号来切换图像数据。具体地,图像控制单元30根据来自检测单元4的输出,确定使用者是否实施预定的动作,并将被输出的图像数据切换成对应于动作的图像数据。
具体地,图像控制单元30根据从检测单元4的每个振动元件41、42、和43输出的检测信号确定使用者的动作。即,图像控制单元30确定所获取的检测信号是否满足作为对应于预定动作的检测信号的条件,从而确定使用者的动作。作为具体的确定方法,例如,可以根据所输出的检测信号的电振动的振幅是否在预定的阈值以上、电振动的频率是否落入对应于预期动作的范围之内、或类似条件来执行确定。
在检测到预定动作的情况下,图像控制单元30输出与该动作对应的图像数据。例如,当显示第一图像时,如果检测到第一动作,则图像被切换成第二图像。如果检测到第二动作,则图像被切换成第三图像。
另外,控制器3可包括连接于HMD1的HMD图像转换单元33。例如,HMD图像转换单元33可以将通过图像控制单元30等生成的图像数据转换成适用于HMD1的标准。
通常,例如,存储单元32由RAM(随机存取存储器)、ROM(只读存储器)、或其他半导体存储器形成。存储单元32存储用于控制器3执行的各种计算的程序、对应于图像控制操作的控制参数等。应当注意,存储单元32可连接于图像获取单元31。在这种情况下,存储单元32可以能够存储所获取的图像数据等,并且供应图像数据至图像控制单元30。
从控制器3输出的图像数据通过电缆15被输出至HMD1的呈现单元2(显示单元20),并且对应于该图像数据的图像从HMD1的显示面13显示。
随后将对上述构造的控制器的操作进行描述。
(控制器的操作)
图8是用于说明控制器3的操作的流程图。在这里,将对当第一图像在HMD1上显示时根据使用者的动作控制第一图像的情况下的操作实例给出描述。
首先,控制器3输出由图像获取单元31获取的第一图像数据至HMD1,并且使第一图像被显示(ST101)。
另一方面,控制器3的图像控制单元30监控由检测单元4的振动元件41、42、和43检测的检测信号,并且确定预定的动作是否被执行。在该实施方式中,预定的动作包括:第一动作,用于将从图像控制单元30输出的图像数据从第一图像数据或第三图像数据切换成第二图像数据;第二动作,用于将数据从第二或第三图像数据切换成第一图像数据;以及第三动作,用于将数据从第一或第二图像数据切换成第三图像数据。
首先,根据来自检测单元4的输出,图像控制单元30确定第一动作是否被执行(ST102)。当确定执行了第一动作时(ST102为是),图像控制单元30输出从第一图像数据切换的第二图像数据,并且使第二图像在HMD1上显示(ST103)。首先,例如,第一动作可以被设置成类似于点头的上下摇头动作。
第一动作可以被抓取为围绕X轴(x轴)转动头部的动作。鉴于此,当来自检测围绕x轴的角速度的振动元件41的检测信号的振幅等于或大于预定的阈值时,并且当其频率等于或大于预定值时,图像控制单元30可以确定第一动作被执行。
当第二图像显示在HMD1上之后,图像控制单元30确定第二动作是否被执行(ST104)。例如,第二动作可以被设置为脸向右或向左转的动作,但不是特别地限制于此。第二动作可以被抓取为围绕Y轴(y轴)转动头部的动作。鉴于此,当来自检测围绕y轴的角速度的振动元件42的检测信号的振幅等于或大于预定的阈值时,并且当其频率等于或大于预定值时,图像控制单元30可以确定第二动作被执行。
当图像控制单元30确定执行了第二动作时(ST104为是),图像控制单元30输出从第二图像数据切换的第一图像,并且使第一图像再次显示在HMD1上(ST101)。
另一方面,当图像控制单元30确定第二动作没有被执行时(ST104为否),图像控制单元30确定第三动作是否被执行(ST105)。第三动作可以被设置为例如,向右侧或左侧倾斜头部的动作,类似于将头部向侧面竖立,但不限于此。第三动作可以被抓取为围绕Z轴(z轴)转动头部的动作。鉴于此,当来自检测围绕z轴的角速度的振动元件43的检测信号的振幅等于或大于预定的阈值时,并且当其频率等于或大于预定值时,图像控制单元30可以确定第三动作被执行。
当图像控制单元30确定第三动作被执行时(ST105为是),图像控制单元30输出从第二图像数据切换的第三图像数据,并且使第三图像在HMD1上显示(ST106)。然后,过程继续到ST109,在此确定第二动作。
另外,当确定第三动作没有被执行时(ST105为否),图像控制单元30继续输出第二图像数据(ST103)。
另一方面,当确定第一动作没有被执行时(ST102为否),图像控制单元30确定第三动作是否被执行(ST107)。当确定第三动作被执行时(ST107为是),图像控制单元30输出从第一图像数据切换的第三图像数据,并且使第三图像数据在HMD1上显示(ST108)。当确定第三动作没有被执行时(ST107为否),图像控制单元30继续输出第一图像数据(ST101)。
在第三图像显示在HMD1上之后,图像控制单元30确定第二动作是否被执行(ST109)。当确定第二动作被执行时(ST109为是),图像控制单元30输出从第三图像数据切换的第一图像数据,并且使第一图像数据显示在HMD1(ST101)上。
另一方面,图像控制单元30确定第二动作没有被执行(ST109为否),图像控制单元30确定第一动作是否被执行(ST110)。当确定第一动作被执行时(ST110为是),图像控制单元30输出从第三图像数据切换来的第二图像数据,并且使第二图像再次显示在HMD1上(ST103)。另一方面,当确定第一动作没有被执行时(ST110为否),图像控制单元30继续数据第三图像数据(ST108)。
如上所述,根据该实施方式,可以通过使用者头部的动作切换图像,并且在使用者不使用手或脚的情况下实现顺利的输入操作。在这里,对于根据头部的动作通过控制器3执行图像切换的情况,有必要清楚地执行与预定的动作是否被执行相关的开/关确定。也就是说,需要一种允许确定的高质量的检测信号。
鉴于此,根据该实施方式,通过提供检测单元4使其穿过配戴主体10的使用者的正中面,该需求可以被满足。在下文中,将对HMD1(信息处理系统100)的操作和效果进行描述。
(HMD(信息处理系统)的操作和效果)
图9至图11是示出当检测单元设置在主体10的不同位置上时的检测信号的具体实例的曲线图,其中横轴代表时间,而纵轴代表电压值。在图9至图11示出的曲线图中,从检测围绕x轴的角速度的第一振动元件输出的检测信号由实线表示,并且从检测围绕y轴的角速度的第二振动元件输出的检测信号由虚线表示。另外,在图中,T1代表第一动作(例如,上下、上和下摇头的动作)被执行的时间段,而图中的T2代表第二动作(例如,脸向左、向右、向左、或向右转的动作)被执行的时间段。应当注意,在图9至图11示出的实验中,作为检测单元,可以使用具有第一振动元件和第二振动元件的两轴角速度传感器模块。
另外,图12是示出对应于图9至图11的检测单元的位置的HMD1的示意性透视图。点A指示当获取图9所示的结果时检测单元的位置。点B指示当获取图10所示的结果时检测单元的位置。点C指示当获取图11所示的结果时检测单元的位置。另外,点A被设置成穿过配戴主体10的使用者的正中面,并且与使用者的眉间部分相对。另一方面,点B和点C没有被设置成穿过使用者的正中面。点B位于使用者的眼角附近,并且点C位于使用者的太阳穴附近。应当注意,在图12的点A、点B、和点C的附近示出的x轴、y轴、和z轴指示设置在该点的检测单元的xyz坐标系。
首先,参照图9,当执行第一动作时(T1),从检测围绕x轴的角速度的第一振动元件检测到具有与第一动作相对应的频率和相对大的振幅的电振动。在这里,电压值和角速度大致具有成比例的关系,因此,具有大振幅的电振动指示重复检测到以较高的速度围绕x轴转动的动作。相反,根据检测围绕y轴的角速度的第二振动元件的输出,从参考电压值确认几乎没有振动。也就是说,根据图9所示的T1中的结果,检测到围绕x轴转动的两个重复动作,并且没有检测到围绕y轴转动的动作。
另一方面,当执行第二动作时(T2),从第二振动元件检测到具有与第二动作相对应的周期和大振幅的电振动。相反,根据第一振动元件的输出,从参考电压值确认几乎没有振动。也就是说,根据图9所示的T2中的结果,检测到围绕y轴转动的四个往复动作,并且没有检测到围绕x轴转动的动作。
根据图9所示的结果,在检测单元被设置在点A处的情况下,确认可以以高的精确度检测第一动作和第二动作。另外,难以确定在围绕一个轴转动时,检测的围绕其他轴的角速度的所谓的轴干扰,并且噪声也难以生成。
接着,参照图10,在第一动作期间(T1),从第一振动元件检测到具有对应于第一动作的频率和较大振幅的电振动。同样地,根据来自第二振动元件的输出,从参考电压值确认有小变化。另一方面,同样地,在第二动作的期间(T2),从第二振动元件检测到与第二动作对应的频率和相对大的振幅的电振动。同样地,根据来自第二振动元件的输出,从参考电压值确认到小变化。
根据图10所示的结果,在检测单元设置在点B处的情况下,确认引起小的轴干扰并且生成噪声。
然后,参照图11,在第一动作进行时(T1),从第一振动元件检测到具有对应于第一动作的频率的电振动。同样地,从第二振动元件检测到具有相同的周期的电振动。另外,来自第一振动元件的电振动的振幅小于图9所示的振幅。也就是说,根据图11所示的T1中的结果,不仅仅检测到围绕x轴转动的两个往复的动作,并且还检测到围绕y轴转动的动作。
另外,同样地,在第二动作进行时(T2),从第二振动元件和第一振动元件都检测到具有与第二动作对应的频率和大致相同的振幅的电振动。在这种情况下,来自第一振动元件的输出被检测为大于第二振动元件的输出。也就是说,根据图11所示的T2中的结果,检测到四个围绕y轴转动的往复动作和围绕x轴的转动动作。
根据图11所示的结果,在检测单元设置在点C处的情况下,确认引起轴干扰,并且生成非常大的噪声。因此,未获取反映头部的实际动作的结果。
根据上述结果可以确认,通过将检测单元4设置为穿过配戴主体10的使用者的正中面,获得正确反映头部动作的具有较少噪声的检测信号。应当注意,尽管未在上述结果中示出,在检测单元包括能够检测围绕z轴的角速度的第三振动元件的情况下,并且在使用者执行围绕z轴转动的第三动作的情况下,获得相同的结果。
另外,由于生成较少的检测信号的噪声,因此可以通过控制器3执行动作确定。例如,对于第二动作的确定,来自第二振动元件的检测信号的振幅等于或大于预定的阈值并且来自第一振动元件的检测信号的振幅小于预定的阈值的这一事实可用作参考。这样,在生成大的噪声的情况下,如图11所示,难以通过使用上述参考确定第二动作。另一方面,在几乎没有噪声的情况下,如图9所示,可以根据参考可靠地确定第二动作。
如上所述,根据该实施方式,确认可以获得高质量的检测信号,其允许清晰地执行是否执行头部动作的确定。在下文中,将对上述结果进行研究。
图13A和图13B是用于说明使用者的第二动作和检测单元之间的关系的示意图。图13A示出检测单元4a(4)设置在点A处的情况,而图13B示出检测单元4c设置在点C处的情况。
如图13A所述,使用者的头部通过第二动作以左右对称的方式围绕颈部转动。此时,头部在转动的同时扭转颈部,但是点A未受到扭转的影响并且沿着大致左右对称的轨道偏移,类似于头部的重心。因此,使得在头部的动作进行时,检测单元4a被认为能够维持检测轴与使用者所属的X轴、Y轴、和Z轴一致的姿势,并且抑制噪声的生成。
另一方面,如图13B所示,点C通过第二动作沿着左右非对称的轨道偏移,与头部的重心完全不同。连同上述情况,认为颈部扭转显著地影响点C。因此,检测单元4c不可能维持检测轴与X轴、Y轴、和Z轴一致的姿势,并且认为产生轴间串扰,并生成大的噪声。
另外,作为枢转动作的中心的颈部不在头部的中心部分上,而在更接近头部后面的位置上。因此,在第二动作进行时,从作为枢转动作的中心的颈部到点A的距离的变化是小的,并且该变化具有对称性。相反,点C不对称地偏移,因此从颈部到点C的距离产生显著变化。这还可以影响点C处的噪声生成。
另外,图14是用于从另一个视角说明上述结果的图。附图示意性地示出从作为枢转动作的中心的颈部分别到点A、点B、和点C的距离r1、r2、和r3。参照图14,距离r1、r2、和r3可具有下面的关系。
r1>r2>r3
对于点A,距离是最长的,因此在XYZ坐标系上的速度(圆周速度)与距枢转动作的中心的距离成比例地增加。因此认为当角速度相等情况下距离更长时,圆周速度变大,并且可以获取更高的检测精确度。
如上所述,根据该实施方式,可以正确地确定使用者头部的动作。因此,使用者可以在不使用手、脚、或类似物的情况下执行图像等的切换操作。因此,不同于为HMD主体设置输入操作单元的情况,可以阻止由于摸索来执行操作而造成的操作错误。另外,可以消除为了防止操作错误而拆卸HMD来执行操作的繁琐任务。另外,当通过壳体11和使用者脸部之间的间隙等观察下部(外面)时,不需要执行输入操作,因此可以为观察图像的使用者提供沉浸感(sense of immersion)。
另外,在内窥镜手术或类似情况中,由于卫生原因,手和手指难以被使用。因此,在现有技术中,当安装HMD时,图像切换操作是困难的。根据该实施方式,即便在用手或类似物进行输入操作的情况下,可以执行期望的图像切换操作。
如上所述,根据该实施方式,可以顺利地切换图像等,并且在不给用户带来压力的情况下,正确地与使用者的意图保持一致。
<第二实施方式>
图15是示出根据本技术的第二实施方式的信息处理系统的结构的框图。根据该实施方式的信息处理系统100A与根据第一实施方式的信息处理系统100主要不同的是,信息处理系统100A包括多个HMD1a、1b、1c,并且检测单元4设置在HMD1a上。
HMD1a与根据第一实施方式的HMD1具有基本上相同的结构。即HMD1a包括安装在使用者头部的主体10、检测使用者头部的动作的检测单元4、和能够呈现预定的信息给使用者的呈现单元2。另外,根据该实施方式,HMD1b和1c各自包括主体10和呈现单元2,但不包括检测单元4。例如,HMD1a、1b和1c除了检测单元4是否被设置之外具有相同的结构,并且通过电缆(未示出)连接于控制器3A。应当注意,HMD1a、1b和1c的结构与根据第一实施方式的HMD1的结构相同,因此它们的详细描述将被省略。
与根据第一实施方式的控制器3类似,根据来自设置在HMD1a上的检测单元4的输出,控制器3A可以切换由呈现单元2呈现的信息。在该实施方式中,控制器3A包括:图像控制单元30、图像获取单元31、存储单元32、分配单元34A和HMD图像转换单元33a、33b、和33c。在该实施方式中,图像控制单元30、图像获取单元31、和存储单元32与第一实施方式中的上述单元具有相同的结构,因此将对分配单元34A和HMD图像转换单元33a、33b、和33c进行描述。
分配单元34A分配从图像控制单元30输出的处于大致相同的水平(the same level)的图像数据,并且将数据输出至HMD1a、1b和1c。因此,控制器3A可以将相同的图像显示在各HMD1a、1b和1c上。
例如,与根据第一实施方式的HMD图像转换单元33类似,HMD图像转换单元33a、33b、和33c可以将图像控制单元30灯生成的图像数据转换成符合HMD1a、1b和1c的标准。
如上所述,在该实施方式中,除了与第一实施方式相同的操作和效果,可以根据配戴HMD1a(上面设置检测单元4)的使用者的头部的动作,切换呈献给配戴HMD1a、1b和1c的所有使用者的图像。因此,可允许配戴HMD1a、1b和1c的使用者顺利地执行任务,即便在所有使用者必须共享信息的情况下。
<第三实施方式>
图16是示出根据本技术的第三实施方式的信息处理系统的结构的框图。根据该实施方式的信息处理系统100B分别与根据第一和第二实施方式的信息处理系统100和100A主要不同的是,信息处理系统100B包括HMD1a、1b和1c和多个检测单元4a、4b、和4c,并且检测单元4a、4b、和4c分别设置在HMD1a、1b和1c上。
HMD1a、1b和1c与根据第一实施方式的HMD1具有基本上相同的结构。即HMD1a、1b和1c各自包括安装在使用者头部的主体10、能够呈现预定的信息给使用者的呈现单元2、和检测使用者头部的动作的检测单元4a、4b、和4c。例如,根据该实施方式的HMD1a、1b和1c通过电缆(未示出)连接于控制器3B。应当注意,根据该实施方式的HMD1a、1b和1c与根据第一实施方式的HMD1具有相同的结构,因此将省略对它们的详细描述。
与根据第一实施方式的检测单元4类似,检测单元4a、4b、和4c设置在与配戴主体10的使用者的正中面相交的位置上,并且能够检测使用者头部的动作。检测单元4a、4b、和4c各自包括角速度传感器单元40。从角速度传感器单元40输出的检测信号被输出至控制器3B的图像控制单元30B。应当注意,被包括在检测单元4a、4b、和4c中的角速度传感器单元40具有与根据第一实施方式的角速度传感器单元40相同的结构,因此未在图16中示出。
与根据第一实施方式的控制器3类似,分别根据来自设置在HMD1a、1b和1c上的检测单元4a、4b、和4c的输出,控制器30B可以切换由呈现单元2呈现的信息。在该实施方式中,控制器3B包括图像控制单元30B、图像获取单元31、存储单元32、和HMD图像转换单元33a、33b、和33c。在该实施方式中,图像获取单元31、存储单元32、和HMD图像转换单元33a、33b、和33c具有与第一和第二实施方式中的上述单元相同的结构,因此将对图像控制单元30B进行描述。
根据来自检测单元4a、4b、和4c的输出,图像控制单元30B检测配戴HMD1a、1b和1c的使用者的动作。另外,根据来自检测单元4a、4b、和4c的输出,图像控制单元30B切换在每个HMD1a、1b和1c上显示的图像数据,并且将图像数据输出至HMD图像转换单元33a、33b、和33c。因此,通过配戴HMD1a的使用者的动作切换的图像被显示在HMD1a上,通过配戴HMD1b的使用者的动作切换的图像被显示在HMD1b上,并且通过配戴HMD1c的使用者的动作切换的图像被显示在HMD1c上,
根据该实施方式,除了与第一实施方式相同的操作和效果之外,配戴HMD1a、1b和1c的使用者可以根据使用者的动作切换在HMD1a、1b和1c上显示的图像。因此,例如,即便任务可以在内窥镜手术或类似情况中共享的情况下,可以实现任务的效率。或者,例如,可以处理这样的情况,使用者在竞争型游戏等情况中执行不同的输入操作。
上面描述了本技术的实施方式,但本技术不限于那些实施方式,并且可以根据本技术的技术思想做出各种修改。
例如,在上面的实施方式中,呈现单元具有显示单元,但是可具有其他单元。例如,呈现单元可具有能够向使用者输出声音的扬声器,其中声音根据从检测单元的输出进行切换。具体地,例如,扬声器单元可以是耳机16,如图4所示。借助于该结构,根据使用者的动作,可以以高精确度切换被输出给使用者的声音。
另外,呈现单元可包括:显示单元和扬声器单元,并且可以能够向使用者呈现图像和声音,其中图像和声音是根据从检测单元的输出切换的。借助于该结构,可以在不限于仅图像或声音的切换的情况下,也可以对图像和声音进行切换。
另外,信息呈现装置不限于HMD。例如,在呈现单元具有扬声器单元的情况下,信息呈现装置自身可以是耳机装置。另外,信息呈现单元的结构没有特定限制,并且可具有对称的配置。
另外,在上面的实施方式中,检测单元被设置在HMD的主体上,但是,例如,也可以通过使用与信息呈现装置不同的其他安装工具将检测单元设置在使用者的头部。
另外,在上面的实施方式中,检测单元被设置成与使用者的眉间部分相对,但是其位置不限于此,只要检测单元设置在与配戴主体的使用者的正中面相交的位置上。例如,检测单元可以设置在使用者的头顶部分或使用者的枕骨部分。借助于该结构,也可以抑制从检测单元输出的检测信号的噪声,并且以高精确度检测使用者头部的动作。
另外,如上所述,检测单元的角速度传感器单元包括振动类型的陀螺仪传感器,但不限于此。作为角速度传感器单元,可以适当地选择抽陀螺陀螺仪传感器、环形激光陀螺仪传感器、气体速率陀螺仪传感器等。另外,在振动型的陀螺仪传感器中,振动元件的数量可以是一个或两个,并且布置定向不限于垂直方向。当然,振动元件的结构不限于音叉型。
例如,检测单元的角速度传感器单元可包括检测体,其能够检测围绕三个彼此不同的轴线的角速度。通常,在该检测体中,检测体的主体设有多个在不同方向振动的振动器单元。检测体检测作用在那些振动器单元上的科里奥利力。通过采用该角速度传感器单元,可以将检测单元设置在更小的空间内。因此,易于将检测单元设置在期望的位置上,例如,在与眉间部分相对的位置上。应当注意,检测体(the detection body)的结构没有特定限制,只要这种结构可以检测围绕三个轴线的角速度。
另外,检测单元的结构不限于包括角速度传感器单元的结构。可以检测使用者头部的动作的结构都可以被采用。例如,检测单元可包括加速度传感器单元。借助于该结构,检测单元可根据头部动作检测加速度,并且以高精确度检测使用者头部的动作。在这种情况下,加速度传感器单元可具有这种结构:检测一个或两个轴线或三个轴线。作为加速度传感器,可以使用例如,压阻式、压电式、电容式等加速度传感器,尽管传感器没有特别限制。
另外,检测单元可包括角速度传感器和加速度传感器单元。借助于该结构,例如,可以形成六轴动作传感器,其结果是可以以高精确度检测更复杂的头部动作。
另外,在上述描述中,第一轴方向(x轴方向)是横向方向,但不限于此。例如,第一轴方向可以是垂直方向。另外,第一、第二、和第三轴方向不限于相互垂直的方向,也可以是相互相交的方向。
应当注意,本公开可采用下面的配置。
(1)一种信息呈现装置,其包括:
主体,被安装在使用者的头部;
检测单元,被设置在与配戴所述主体的使用者的正中面相交的位置上,并且被配置为检测使用者的头部的动作;以及
呈现单元,被设置在所述主体上,并且能够向使用者呈现基于从所述检测单元的输出切换的信息。
(2)根据第(1)项所述的信息呈现装置,其中
所述检测单元被设置成在与配戴所述主体的使用者的眉间部分垂直的方向与所述眉间部分相对。
(3)根据第(1)或(2)项所述的信息呈现装置,其中
所述呈现单元包括能够将基于来自检测单元的输出切换的图像显示在使用者的眼前的显示单元。
(4)根据第(1)或(2)项所述的信息呈现装置,其中
所述呈现单元包括能够向使用者输出基于来自检测单元的输出切换的声音的扬声器。
(5)根据第(1)至(4)项所述的信息呈现装置,其中
所述检测单元包括检测使用者的头部的所述动作的角速度传感器单元。
(6)根据第(5)项所述的信息呈现装置,其中
所述角速度传感器单元包括:
第一振动元件,基于使用者的第一动作检测围绕第一轴线的角速度,以及
第二振动元件,基于使用者的第二动作检测围绕第二轴线的角速度,所述第二轴线与所述第一轴线不同。
(7)根据第(6)项所述的信息呈现装置,其中
所述第一轴线的方向是横向方向和竖直方向之一。
(8)根据第(6)或(7)项所述的信息呈现装置,其中
所述第一轴线的方向和所述第二轴线的方向相互垂直。
(9)根据第(8)项所述的信息呈现装置,其中
所述第一振动元件和所述第二振动元件各自具有能够振动的第一端部和与所述第一端部相对的第二端部,并且分别沿着所述第一轴线和所述第二轴线的方向延长,并且
在角速度传感器单元中,从第一直线与第二直线相交的点到所述第一振动元件的所述第二端部的距离等于从所述点到所述第二振动元件的所述第二端部的距离,所述第一直线从所述第一振动元件沿着所述第一轴线的方向延长,所述第二直线从所述第二振动元件沿着所述第二轴线的方向延长。
(10)根据第(5)项所述的信息呈现装置,其中
所述角速度传感器单元包括能够检测围绕三个彼此不同的轴线的角速度的检测体。
(11)一种信息处理系统,包括:
主体,被安装在使用者的头部;
呈现单元,被设置在所述主体上,并且能够向使用者呈现预定的信息;
检测单元,被设置在与配戴所述主体的使用者的正中面相交的位置上,并且被配置为检测使用者的头部的动作;以及
控制单元,被配置为基于来自检测单元的输出切换由呈现单元所述呈现的信息。
本领域的技术人员应当理解,在它们处于所附权利要求或其等同的范围内的情况下,可能存在根据设计要求和其他因素的各种变形、组合、子组合和修改。
Claims (12)
1.一种信息呈现装置,包括:
主体,被安装在使用者的头部;
检测单元,被设置在与配戴所述主体的所述使用者的正中面相交的位置,并且被配置为检测所述使用者的头部的动作;以及
呈现单元,被设置在所述主体上,并且能够向所述使用者呈现基于来自所述检测单元的输出而切换的信息。
2.根据权利要求1所述的信息呈现装置,其中
所述检测单元被设置成在与配戴所述主体的所述使用者的眉间部分垂直的方向与所述眉间部分相对。
3.根据权利要求1所述的信息呈现装置,其中
所述呈现单元包括:能够将基于来自所述检测单元的所述输出而切换的图像显示在所述使用者的眼前的显示单元。
4.根据权利要求2所述的信息呈现装置,其中
所述呈现单元包括:能够向所述使用者输出基于来自所述检测单元的所述输出而切换的声音的扬声器单元。
5.根据权利要求1所述的信息呈现装置,其中
所述检测单元包括检测所述使用者的头部的动作的角速度传感器单元。
6.根据权利要求5所述的信息呈现装置,其中
所述角速度传感器单元包括:
第一振动元件,基于所述使用者的第一动作检测围绕第一轴线的角速度,以及
第二振动元件,基于所述使用者的第二动作检测围绕第二轴线的角速度,所述第二轴线与所述第一轴线不同。
7.根据权利要求6所述的信息呈现装置,其中
所述第一轴线的方向是横向方向和竖直方向之中的一个方向。
8.根据权利要求6所述的信息呈现装置,其中
所述第一轴线的方向和所述第二轴线的方向相互垂直。
9.根据权利要求8所述的信息呈现装置,其中
所述第一振动元件和所述第二振动元件各自具有能够振动的第一端部和与所述第一端部相对的第二端部,并且分别沿着所述第一轴线的方向和所述第二轴线的方向延长,并且
在所述角速度传感器单元中,从第一直线与第二直线相交的点到所述第一振动元件的所述第二端部的距离等于从所述点到所述第二振动元件的所述第二端部的距离,所述第一直线从所述第一振动元件沿着所述第一轴线的方向延长,所述第二直线从所述第二振动元件沿着所述第二轴线的方向延长。
10.根据权利要求5所述的信息呈现装置,其中
所述角速度传感器单元包括:能够检测围绕彼此不同的三个轴线的角速度的检测体。
11.一种信息处理系统,包括:
主体,被安装在使用者的头部;
呈现单元,被设置在所述主体上,并且能够向所述使用者呈现预定信息;
检测单元,被设置在与配戴所述主体的所述使用者的正中面相交的位置,并且被配置为检测所述使用者的头部的动作;以及
控制单元,基于来自所述检测单元的输出而切换由所述呈现单元呈现的所述信息。
12.根据权利要求11所述的信息处理系统,其中
所述检测单元被设置成在与配戴所述主体的所述使用者的眉间部分垂直的方向与所述眉间部分相对。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-156435 | 2013-07-29 | ||
JP2013156435A JP2015027015A (ja) | 2013-07-29 | 2013-07-29 | 情報提示装置及び情報処理システム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104345455A true CN104345455A (zh) | 2015-02-11 |
Family
ID=52390052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410350719.8A Pending CN104345455A (zh) | 2013-07-29 | 2014-07-22 | 信息呈现装置和信息处理系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150029091A1 (zh) |
JP (1) | JP2015027015A (zh) |
CN (1) | CN104345455A (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9501152B2 (en) | 2013-01-15 | 2016-11-22 | Leap Motion, Inc. | Free-space user interface and control using virtual constructs |
US11493998B2 (en) | 2012-01-17 | 2022-11-08 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9679215B2 (en) | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
US8693731B2 (en) | 2012-01-17 | 2014-04-08 | Leap Motion, Inc. | Enhanced contrast for object detection and characterization by optical imaging |
US8638989B2 (en) | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US10691219B2 (en) | 2012-01-17 | 2020-06-23 | Ultrahaptics IP Two Limited | Systems and methods for machine control |
US9285893B2 (en) | 2012-11-08 | 2016-03-15 | Leap Motion, Inc. | Object detection and tracking with variable-field illumination devices |
US10609285B2 (en) | 2013-01-07 | 2020-03-31 | Ultrahaptics IP Two Limited | Power consumption in motion-capture systems |
US9465461B2 (en) | 2013-01-08 | 2016-10-11 | Leap Motion, Inc. | Object detection and tracking with audio and optical signals |
US9459697B2 (en) | 2013-01-15 | 2016-10-04 | Leap Motion, Inc. | Dynamic, free-space user interactions for machine control |
US9702977B2 (en) | 2013-03-15 | 2017-07-11 | Leap Motion, Inc. | Determining positional information of an object in space |
US9916009B2 (en) | 2013-04-26 | 2018-03-13 | Leap Motion, Inc. | Non-tactile interface systems and methods |
US10281987B1 (en) | 2013-08-09 | 2019-05-07 | Leap Motion, Inc. | Systems and methods of free-space gestural interaction |
US9721383B1 (en) | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9632572B2 (en) | 2013-10-03 | 2017-04-25 | Leap Motion, Inc. | Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation |
US9996638B1 (en) | 2013-10-31 | 2018-06-12 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US9613262B2 (en) | 2014-01-15 | 2017-04-04 | Leap Motion, Inc. | Object detection and tracking for providing a virtual device experience |
US20150312558A1 (en) * | 2014-04-29 | 2015-10-29 | Quentin Simon Charles Miller | Stereoscopic rendering to eye positions |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
JP6334601B2 (ja) * | 2016-05-17 | 2018-05-30 | レノボ・シンガポール・プライベート・リミテッド | 携帯情報端末、装着腕判定方法、装着向き判定方法、及びプログラム |
RU2677566C1 (ru) * | 2016-08-30 | 2019-01-17 | Бейдзин Сяоми Мобайл Софтвэр Ко., Лтд. | Способ, устройство и электронное оборудование для управления виртуальной реальностью |
US10231053B1 (en) * | 2016-12-13 | 2019-03-12 | Facebook Technologies, Llc | Bone-conduction headset with crosstalk cancelation function |
JP6941715B2 (ja) * | 2017-09-22 | 2021-09-29 | Kddi株式会社 | 表示装置、表示プログラム、表示方法及び表示システム |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5991085A (en) * | 1995-04-21 | 1999-11-23 | I-O Display Systems Llc | Head-mounted personal visual display apparatus with image generator and holder |
GB2376397A (en) * | 2001-06-04 | 2002-12-11 | Hewlett Packard Co | Virtual or augmented reality |
CN1145014C (zh) * | 1998-12-17 | 2004-04-07 | Nec东金株式会社 | 朝向角检测器 |
CN1707308A (zh) * | 2004-05-06 | 2005-12-14 | 奥林巴斯株式会社 | 头戴式显示装置 |
CN101285935A (zh) * | 2007-04-05 | 2008-10-15 | 张光荣 | 用于图像显示器的防晕装置 |
CN101784004A (zh) * | 2008-12-16 | 2010-07-21 | 索尼株式会社 | 信息处理系统和信息处理方法 |
CN102033628A (zh) * | 2009-09-30 | 2011-04-27 | 三星电子株式会社 | 感测运动的设备和方法 |
CN102346544A (zh) * | 2010-07-30 | 2012-02-08 | 鸿富锦精密工业(深圳)有限公司 | 具有互动功能的头戴式显示系统及显示方法 |
CN202837678U (zh) * | 2012-05-28 | 2013-03-27 | 江增世 | 体感视频眼镜 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1996036271A1 (de) * | 1995-05-15 | 1996-11-21 | Leica Ag | Verfahren und vorrichtung zum parallelen erfassen von sehinformation |
US6729726B2 (en) * | 2001-10-06 | 2004-05-04 | Stryker Corporation | Eyewear for hands-free communication |
US20090046146A1 (en) * | 2007-08-13 | 2009-02-19 | Jonathan Hoyt | Surgical communication and control system |
JP2011205358A (ja) * | 2010-03-25 | 2011-10-13 | Fujifilm Corp | ヘッドマウントディスプレイ装置 |
JP5810540B2 (ja) * | 2011-02-04 | 2015-11-11 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
US9217867B2 (en) * | 2011-03-24 | 2015-12-22 | Seiko Epson Corporation | Head-mounted display device and control method for the head-mounted display device |
WO2012154938A1 (en) * | 2011-05-10 | 2012-11-15 | Kopin Corporation | Headset computer that uses motion and voice commands to control information display and remote devices |
JP6060512B2 (ja) * | 2012-04-02 | 2017-01-18 | セイコーエプソン株式会社 | 頭部装着型表示装置 |
JP5709317B2 (ja) * | 2012-06-07 | 2015-04-30 | 富士フイルム株式会社 | 超音波内視鏡 |
US20140168264A1 (en) * | 2012-12-19 | 2014-06-19 | Lockheed Martin Corporation | System, method and computer program product for real-time alignment of an augmented reality device |
US9335547B2 (en) * | 2013-03-25 | 2016-05-10 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
-
2013
- 2013-07-29 JP JP2013156435A patent/JP2015027015A/ja active Pending
-
2014
- 2014-07-22 CN CN201410350719.8A patent/CN104345455A/zh active Pending
- 2014-07-22 US US14/337,298 patent/US20150029091A1/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5991085A (en) * | 1995-04-21 | 1999-11-23 | I-O Display Systems Llc | Head-mounted personal visual display apparatus with image generator and holder |
CN1145014C (zh) * | 1998-12-17 | 2004-04-07 | Nec东金株式会社 | 朝向角检测器 |
GB2376397A (en) * | 2001-06-04 | 2002-12-11 | Hewlett Packard Co | Virtual or augmented reality |
CN1707308A (zh) * | 2004-05-06 | 2005-12-14 | 奥林巴斯株式会社 | 头戴式显示装置 |
CN101285935A (zh) * | 2007-04-05 | 2008-10-15 | 张光荣 | 用于图像显示器的防晕装置 |
CN101784004A (zh) * | 2008-12-16 | 2010-07-21 | 索尼株式会社 | 信息处理系统和信息处理方法 |
CN102033628A (zh) * | 2009-09-30 | 2011-04-27 | 三星电子株式会社 | 感测运动的设备和方法 |
CN102346544A (zh) * | 2010-07-30 | 2012-02-08 | 鸿富锦精密工业(深圳)有限公司 | 具有互动功能的头戴式显示系统及显示方法 |
CN202837678U (zh) * | 2012-05-28 | 2013-03-27 | 江增世 | 体感视频眼镜 |
Also Published As
Publication number | Publication date |
---|---|
JP2015027015A (ja) | 2015-02-05 |
US20150029091A1 (en) | 2015-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104345455A (zh) | 信息呈现装置和信息处理系统 | |
CN103793049B (zh) | 虚拟现实显示系统 | |
CN104756482B (zh) | 眼镜型可佩戴装置以及眼镜型可佩戴装置的前方部 | |
JP6711445B2 (ja) | 携帯型デバイス、およびシステム | |
JP6565465B2 (ja) | 画像表示装置、コンピュータープログラム、および画像表示システム | |
US10996769B2 (en) | Contact lens-based eye tracking | |
CN103363980A (zh) | 陀螺传感器及使用了该陀螺传感器的电子设备 | |
JP2017090979A (ja) | 情報処理装置、情報処理システム、および情報処理方法 | |
JP2008180511A (ja) | 角速度センサ | |
JP7092229B2 (ja) | 慣性計測装置、移動体測位装置、システム、及び移動体 | |
CN103017747A (zh) | 传感器元件及其制造方法、传感器装置以及电子设备 | |
EP3340854A1 (en) | Wearable point of regard zoom camera | |
JP7459334B2 (ja) | 画像表示システム、画像表示プログラム、表示制御装置、および画像表示方法 | |
JP2010056712A (ja) | 遠隔作業用画像表示システム | |
US20200166341A1 (en) | Three-axis mems gyroscope | |
JP2018036720A (ja) | 仮想空間観察システム、方法及びプログラム | |
CN104596492A (zh) | 振动元件、振子、电子设备以及移动体 | |
CN108572723B (zh) | 一种防晕车方法及设备 | |
JP6623634B2 (ja) | 物理量センサー、電子機器および移動体 | |
CN108844529A (zh) | 确定姿态的方法、装置及智能设备 | |
JP6786985B2 (ja) | ナビゲーションベルト、ナビゲーションシステム、及びプログラム | |
JP2019109141A (ja) | 物理量センサー、複合センサー、慣性計測ユニット、携帯型電子機器、電子機器、移動体、および物理量センサーの製造方法 | |
JP2016176835A (ja) | 慣性センサー、電子機器、および移動体 | |
WO2019127139A1 (zh) | 磁力计的校准方法及相关设备 | |
CN103363979A (zh) | 陀螺传感器和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150211 |