CN104335574B - 头戴式显示器 - Google Patents
头戴式显示器 Download PDFInfo
- Publication number
- CN104335574B CN104335574B CN201380027736.1A CN201380027736A CN104335574B CN 104335574 B CN104335574 B CN 104335574B CN 201380027736 A CN201380027736 A CN 201380027736A CN 104335574 B CN104335574 B CN 104335574B
- Authority
- CN
- China
- Prior art keywords
- user
- sensor
- unit
- image
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 78
- 230000009471 action Effects 0.000 claims abstract description 32
- 238000012360 testing method Methods 0.000 claims abstract description 25
- 230000008859 change Effects 0.000 claims abstract description 23
- 210000001508 eye Anatomy 0.000 claims description 27
- 230000003287 optical effect Effects 0.000 claims description 18
- 230000005540 biological transmission Effects 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 8
- 210000003128 head Anatomy 0.000 claims description 7
- 230000010365 information processing Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 239000004576 sand Substances 0.000 description 10
- 235000021384 green leafy vegetables Nutrition 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000000034 method Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 210000001061 forehead Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000009738 saturating Methods 0.000 description 1
- 238000012559 user support system Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0118—Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0123—Head-up displays characterised by optical features comprising devices increasing the field of view
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
Abstract
本头戴式显示器设置有安置单元、显示单元、传感器单元以及控制单元。安置单元被设计为可安置到用户的头部。显示单元设置在安置单元上并且能够为用户提供真实空间的视场。传感器单元具有能够检测根据用户的动作而接近或接触其的传感器并且设置在显示单元的周边上。传感器单元产生对应于来自传感器的检测结果的输出。控制单元在上述视场中显示图像并且基于来自传感器单元的输出的改变而改变所述图像的显示状态。由于该配置,该头戴式显示器允许经由用户的自然动作的直观输入。
Description
技术领域
本发明涉及改善头戴式显示器的可操作性的配置。
背景技术
近几年,能够在不阻碍真实空间中的用户的视场的情况下为用户提供图像信息的头戴式显示器引起了关注。专利文献1公开了一种透视型头戴式显示器。这种头戴式显示器能够在用户的视场中显示具有高对比度的图像。
专利文献1:日本专利申请公开第2013-005201号
发明内容
本发明要解决的问题
当前,头戴式显示器被期望使用在各种应用中。因此,为了使用户能够容易地在各种环境中执行操作,需要头戴式显示器具有较好的可操作性。
鉴于上述情况,本发明的一个目的是改善头戴式显示器的可操作性。
用于解决问题的方法
为了达成上述目的,根据本技术的实施方式的头戴式显示器包括安置单元、显示单元、传感器单元以及控制单元。
安置单元被配置为可安置到用户的头部。
显示单元被设置在安置单元中并且能够为用户提供真实空间的视场。
传感器单元设置在显示单元的周边处,包括能够检测由于用户的动作而接近或者与传感器接触的用户的手的传感器,并且基于传感器的检测结果执行输出。
控制单元在视场中显示图像并且基于传感器单元的输出的改变而改变图像的显示状态。
利用这种结构,用户可利用在对应于眼睛的位置的显示单元的周边处的手的动作来执行改变由用户观看的图像的显示状态的操作。即,在这种结构中,用户可操作接近观看图像的眼睛的图像的显示状态,并且由此可使用用户的自然动作执行直观的操作。
控制单元可基于传感器单元的检测结果强调图像。
具体地,控制单元可基于传感器单元的检测结果放大图像。
此外,控制单元可基于传感器单元的检测结果增加视场中的图像的对比度。
另外,控制单元可通过改变图像的颜色增加视场中的图像的对比度。
利用这些配置,用户能够在其中使用头戴式显示器的某些环境下而难以观看图像的情况下容易地观看图像。
控制单元可以能够在视场中显示被添加了优先级的多个图像,并且基于传感器单元的检测结果与具有低优先级的图像相比强调具有高优先级的图像。
利用这些配置,用户能够容易地观看更加清晰的图像。
控制单元可基于传感器单元的检测结果增加在视场中显示的图像的信息量。
具体地,控制单元可减小每个图像的尺寸并且增加在视场中显示的图像的信息量。
利用这些配置,在需要更多信息的情况下,用户可增加获得的信息量。
显示单元可包括具有可变可见光透射率的滤光器。
控制单元可基于传感器单元的检测结果降低滤光器的可见光透射率。
利用这种配置,通过限制可见光而不是显示的图像,用户能够容易地观看图像。
控制单元可基于传感器单元的检测结果使滤光器截止可见光。
利用这种配置,仅有图像显示在视场中,并且由此用户可仅专注于图像。
传感器单元可包括多个传感器并且基于多个传感器中的用户的手的检测状态执行输出。
控制单元可基于传感器单元的输出从基准模式的改变来改变多个传感器的任何一个均不检测用户的手的基准模式中的图像的显示状态。
利用这种配置,传感器单元可根据上述检测状态执行多种输出。因此,在这种配置中,用户可执行与图像的显示状态有关的各种操作。
传感器单元可在检测状态为预定模型的强调模式中与基准模式相比强调图像。
利用这种配置,用户能够容易地观看更加清晰的图像。
多个传感器可包括设置在佩戴安置单元的用户的两眼外侧的一对传感器。
利用这种配置,传感器单元包括在彼此远离的两个位置处的传感器,并且由此可减少用户的错误操作。
控制单元可使图像强调的程度按照第一状态、第二状态以及第三状态的次序增高,其中,在第一状态中,一对传感器都不检测用户的手,在第二状态中,一对传感器的其中一个检测用户的手,以及在第三状态中,一对传感器都检测用户的手。
利用这种配置,通过用户使用手遮盖眼睛来强调图像,并且用户使用手遮盖两只眼睛来进一步强调图像。即,在这种配置中,例如,在用户由于外界光而感到耀眼的情况下所执行的使用手来遮盖眼睛的用户的自然动作,使用户能够以渐增的方式容易地观看图像。
控制单元可在检测状态为预定模型的详细模式中与基准模式相比增加在视场中显示的图像的信息量。
利用这种配置,用户可在需要更多信息的情况下增加获得的信息量。
传感器可被配置为触发传感器。
当触发传感器检测到用户的手时,控制单元可改变图像的显示状态。
利用这种配置,通过操作触发传感器,用户可改变图像的显示状态。
当触发传感器检测到用户的手时,控制单元可在基准模式、与基准模式相比图像被强调的强调模式、以及与基准模式相比在视场中显示的图像的信息量被增加的详细模式中之间改变显示状态。
利用这种配置,通过操作触发传感器,用户可在预先确定的三个模式之间自由地改变图像的显示状态。
触发传感器可位于佩戴安置单元的用户的两个眼睛之间的位置处。
利用这种配置,触发传感器是普通眼镜的镜梁(bridge)部分,并且由此用户可通过与在用户纠正眼镜的倾斜的情况下所执行的动作相似的自然动作来操作图像的显示状态。
本发明的效果
如上所述,根据本技术,可以提供一种可根据由用户执行的更自然的动作来操作的头戴式显示器。
附图说明
[图1]示意性地示出根据本技术的第一实施方式的头戴式显示器系统的一般视图。
[图2]示意性地示出在图1中所示的头戴式显示器系统的方框图。
[图3]以放大状态示出在图1中所示的头戴式显示器的安置单元的立体图。
[图4]示出在图3中所示的显示单元的示意性配置的视图。
[图5A]示出其中图3中所示的安置单元被用户佩戴的状态的前视图。
[图5B]示出在图5A中所示的状态中的用户的视场的视图。
[图6A]示出在第一实施方式中的用户操作的实例的前视图。
[图6B]示出在第一实施方式中的用户操作的实例的前视图。
[图7A]示出在强调模式中的用户的视场的视图。
[图7B]示出在强调模式中的用户的视场的视图。
[图7C]示出在强调模式中的用户的视场的视图。
[图7D]示出在强调模式中的用户的视场的视图。
[图8A]示出在第一实施方式中的用户操作的实例的前视图。
[图8B]示出在第一实施方式中的用户操作的实例的前视图。
[图9A]示出在详细模式中的用户的视场的视图。
[图9B]示出在详细模式中的用户的视场的视图。
[图9C]示出在详细模式中的用户的视场的视图。
[图10]示出在另一图像显示模式中的用户的视场的视图。
[图11]示出在图2中所示的控制单元的功能的流程图。
[图12]示出在第一实施方式中的用户操作的实例的前视图。
[图13]示出在第一实施方式中的用户操作的实例的前视图。
[图14A]示出其中根据本技术的第二实施方式的头戴式显示器的安置单元被用户佩戴的状态的前视图。
[图14B]示出在图 14A 中所示的状态中的用户的视场的视图。
[图15A]示出在第二实施方式中的用户操作的实例的前视图。
[图15B]示出在图14A中所示的状态中的用户的视场的视图。
具体实施方式
在下文中,将参考附图描述根据本技术的实施方式。
<第一实施方式>
[头戴式显示器系统的配置]
图1是示出根据本技术的第一实施方式的整个头戴式显示器系统的示意性视图。图2是示出头戴式显示器系统的示意性配置的方框图。
根据该实施方式的头戴式显示器系统由头戴式显示器100(在下文中称作“HMD”)和信息处理设备200组成。HMD 100是由安置单元110和控制单元120组成。
(HMD 100)
(1)安置单元110
图3以放大状态示出了安置单元110的立体图。安置单元110被配置为如同普通眼镜一样可从用户的头部分离。具体地,安置单元110包括由用户的耳朵支撑并且从两侧将头部的鬓角区域夹在中间的镜腿12R和 12L,以及由镜腿12R和12L与用户的鼻子支撑并且与用户的脸部相对的镜框部分11R、11L以及11C。镜腿12R和12L以及镜框部分11R、11L 以及11C构成安置单元110的框架部分。
镜框部分由对应用户的右眼位置的右镜框11R、对应用户的左眼位置的左镜框11L、以及链接在右镜框11R和左镜框11L之间的镜梁11C组成。
此外,如图2所示,安置单元110包括显示单元111和传感器单元112。显示单元111由图3中所示的右显示单元111R和左显示单元111L组成。传感器单元112包括能够检测用户的手的传感器21R、22R、23R、21L、 22L、23L以及24。此外,为了检测佩戴安置单元110的用户的头部的运动,传感器单元112可包括陀螺仪传感器、磁场传感器、角速度传感器、加速度传感器等。
显示单元111的右显示单元111R和左显示单元111L分别布置在与用户的左眼和右眼相对的位置处。显示单元111的右显示单元111R和左显示单元111L由环绕它们的右镜框11R和左镜框11L支撑。
传感器单元112的传感器21R、22R以及23R被设置在右镜框11R中,并且传感器21L、22L和23L被设置在左镜框11L中。传感器24设置在镜梁11C中。传感器21R和21L构成一对传感器并且设置在镜腿12R和 12L附近的位置中。传感器22R和22L分别布置在镜框11R和11L之上。传感器23R和23L分别布置在镜框11R和11L之下。
采用检测接近其或者与其接触的检测目标的接近度传感器或者触摸式传感器作为传感器21R、22R、23R、21L、22L、23L和24的每一个。接近度传感器的实例包括亮度传感器和电容传感器。触摸式传感器的实例包括电阻膜传感器和表面声波传感器。另外,也可采用按钮式开关。在该实施方式中,传感器21R、22R、23R、21L、22L和23L被配置为亮度传感器,并且分别向控制单元120输出由于用户的手的靠近而造成的亮度减少。此外,传感器24被配置为电阻膜传感器,并且例如向控制单元120 输出由于用户的手的接触而造成的电压改变。
图4是示出安置单元110的显示单元111的配置的示意图。显示单元 111允许可见光在其厚度方向上从其穿过,并且具有所谓的透视型配置。显示单元111R和111L分别由显示面板25R和25L以及滤光器26R和26L 组成。
显示面板25R和显示面板25L可分别由显示元件和导光构件组成,该显示元件根据来自CPU 121的输入信号形成图像光,并且该导光构件将由显示元件形成的图像光引导到用户的右眼和左眼。利用此,显示面板25R 和25L可向用户呈现图像。
在该实施方式中,显示面板25R和25L的每一个的显示元件由液晶显示器(LCD)元件组成。每个显示元件是由以矩阵形式布置的多个像素以及由发光二极管(LED)等形成的光源组成。显示元件根据来自CPU 121 的输入信号通过修改像素来将由光源产生的光转换成图像光。例如,对于显示元件,可使用发射对应R(红色)、G(绿色)、B(蓝色)的颜色的图像光束的三板方法,或者也可使用同时发射对应全部颜色的图像光束的单板方法。
显示面板25R和25L的每一个的导光构件被配置为使由显示元件形成的图像光通过其传播并发射到用户的眼睛。具体地,导光构件由其中光可被全反射的透明构件、以及能够有效地折射特定波长带的光的全息衍射光栅等组成。
图4示意性地示出了其中显示面板25R和显示面板25L分别发射图像光到用户的右眼和左眼以由此向用户呈现字符图像“ABC”的实例。此外,在图4中,用户的两个眼睛的视线S(R)和S(L)通过双点划线表示。
在图4所示的实例中,由于双眼视差,用户识别入射到右眼和左眼上的图像光束,就如单个字符图像“ABC”显示在视线S(R)和S(L)彼此交叉的位置处。即,用户识别他们,就如字符图像“ABC”显示在真实空间中与用户间隔预定距离的位置处。由于显示面板25R和25L,HMD 100 能够在用户视场的三维空间中在任意位置处显示具有任意尺寸的图像。
滤光器26R和26L被配置为各自具有可变的可见光透射率的可变滤光器。对于滤光器26R和26L,可使用其中可见光透射率可连续地从0%到 100%变化的配置。也可使用其中可见光透射率可在预定值(例如,0%、 50%和100%)之间改变的配置。
另外,液晶快门同样可用作滤光器26R和26L。在这种情况下,滤光器26R和26L被配置为可在可见光透射率是100%的透射状态与可见光透射率是0%的截止状态之间切换。当滤光器26R和26L的可见光透射率是 0%时,仅有通过显示面板25R和25L显示的图像在用户的视场内。
(2)控制单元120
如图1所示,控制单元120连接至安置单元110并且能够与安置单元 110通信。控制单元120和安置单元110可利用配线或者无线地连接至彼此。具体地,控制单元120和安置单元的110基于各种通信标准(诸如通用串行总线(USB)、蓝牙(注册商标)和Wi-Fi(注册商标))可通信地连接至彼此。
如图2所示,控制单元120可由中央处理器(CPU)121、通信装置 122、输入单元123、音频输出装置124和存储器125组成。
CPU 121执行与HMD 100有关各种类型的算术运算处理并且负责操作HMD 100。因此,CPU 121向/从控制单元120内的部件发送和接收信号,并且还向/从安置单元110发送和接收信号。例如,基于传感器单元 112的输出,当亮度传感器21R至23L的亮度的减少超过预设阈值时,CPU 121能够确定检测到用户的手,并相应地控制显示单元111。
通信装置122被设置为执行HMD 100与信息处理设备200之间的通信。HMD 100和信息处理设备200可利用配线或者可无线地连接至彼此。具体地,通信装置122被连接为使得HMD 100和信息处理设备200可基于各种类型的通信标准,诸如USB、蓝牙(注册商标)以及Wi-Fi(注册商标)来通信。
如图1所示,输入单元123由设置有接收由用户的手指执行的输入操作的各种按钮的操作部分123a、关于用户的声音等的音频信息被输入至其的音频输入部分(麦克风)123b组成。输入单元123基于输入信息输出信号到CPU 121。
音频输出单元124被配置为耳机、头戴式耳机、扬声器等。音频输出单元输出从CPU121输入的信号作为音频。
存储器125被配置为存储单元,其存储CPU 121的算术运算处理结果以及从信息处理设备200获取的信息并且适当地输出这些内容到CPU。
(信息处理设备200)
如图2所示,信息处理设备200可由CPU 201、通信装置202、输入单元203、音频输出单元204、存储器205、显示单元206以及传感器单元 207组成。信息处理装置300被配置为便携式信息终端(诸如,智能手机和蜂窝电话)。此外,信息处理设备200也可被配置为各种信息处理装置 (诸如,平板电脑和膝上型计算机)。
CPU 201执行与信息处理设备200有关的各种类型的算术运算处理并且负责操作信息处理设备200。通信装置202对应于在HMD 100的控制单元120中的通信装置122,并且被配置为执行HMD 100和信息处理设备200之间的通信。例如,输入单元203被配置为触摸面板显示器或者麦克风,并且音频输出装置204被配置为扬声器。存储器205被配置为存储 CPU201的算术运算处理结果等的存储单元。例如,显示单元206被配置为触摸面板显示器。
传感器单元207包括全球定位系统(GPS)。此外,传感器单元207 可包括陀螺仪传感器、磁场传感器、角速度传感器、加速度传感器等。另外,传感器单元207可包括温度传感器、湿度传感器等。
传感器单元207基于每个传感器的检测结果输出信号到CPU 201。 CPU 201将对应于传感器单元207输出的信息输出到显示单元206或者 HMD 100。利用此,信息处理设备200能够获取有关位置、方位、天气等等的各种类型的信息。
此外,信息处理设备200还能够通过诸如因特网的通信手段获取用户需要的信息。另外,信息处理设备200还能够根据HMD 100的请求获取信息。因此,HMD 100也能够从信息处理设备200获取对应通过上述传感器单元112的陀螺仪传感器、磁场传感器、角速度传感器、加速度传感器等检测的用户的头部的运动的信息。
[头戴式显示器系统的功能]
(功能的概要)
利用HMD 100,佩戴安置单元110的用户可同时经由显示单元111 观看眼前的风景以及由显示单元111的显示面板25R和25L形成的图像。
例如,显示面板25R和25L基于由信息处理设备200获取的信息形成图像。因此,HMD100能够为用户提供基于有关位置、方位、天气、站点摘要(RSS)等的信息的图像。此外,显示面板25R和25L还能够为用户提供显示存储在信息处理设备200中的应用的屏幕。
另外,HMD 100还能够经由信息处理设备200获取对应用户的位置或者用户指向的方位的信息,并且向用户提供基于该信息的图像。这使 HMD 100能够经由显示单元111为用户提供眼前的风景和相关信息。
例如,在用户在购物中心中散步的情况下,HMD 100能够为用户提供有关购物中心中商店等的信息。此外,如果用户迷路了,HMD 100还能够通过利用箭头图像等引导用户。另外,当用户在高尔夫球场上散步的情况下,可为用户提供有关球洞数量、球洞参考杆数(标准)、果岭(green) 距离等的信息。
(图像显示模式)
根据该实施方式的HMD 100可被配置为具有其中在用户视场中的图像的显示状态是不同的多个图像显示模式。具体地,例如,HMD 100可被配置为具有以下图像显示模式。
(1)基准模式
图5A是示出其中用户佩戴HMD 100的安置单元110的状态的前视图。在图5A所示的状态中,作为检测目标的用户的手没有接近传感器21R、 22R、23R、21L、22L、23L和24。这时,在传感器21R、22R、23R、21L、 22L、23L和24中的亮度的减少等于或者小于预设阈值。因此,任何传感器未检测到用户的手。在这种情况下,在HMD 100中的图像显示模式采取基准模式。
图5B是示出在基准模式中的用户的视场V的视图。为了说明起见,图5B仅示出了通过虚线包围的一部分作为用户的视场V。在视场V中,用户可识别通过显示单元111观看的风景以及由显示面板25R和25L形成的字符影像。在该实例中,HMD 100为用户提供基于气象信息的字符图像。
(2)强调模式
图6A和图6B是示出用户的手在HMD 100上的操作的视图。图6A 示出了其中用户执行从模仿望远镜的手中观察的动作的状态。图6B示出了其中用户执行将手掌放置到前额以进行遥望的动作的状态。在图6A和图6B中的用户的动作都是当用户希望仔细地观看难以看见的物体时所直观执行的自然动作。
在图6A所示的状态中,用户的手接近传感器21R、22R以及23R。因此,传感器21R、22R以及23R检测到用户的手。另一方面,用户的手未接近传感器21L、22L以及23L。因此,传感器21L、22L以及23L未检测到用户的手。此外,在图6B所示的状态中,传感器22R检测到用户的手,而传感器21R、23R、21L、22L和23L未检测到用户的手。在这些情况中,在HMD 100中的图像显示模式转换为强调模式。
图7A至图7D示出了在强调模式中的用户的视场的视图。在强调模式中,在用户的视场中的图像与在图5B中所示的基准模式中相比被强调。例如,图像如在图7A至图7D中所示的被强调。
在图7A所示的强调模式中,与在图5B中所示的基准模式相比图像被放大。在这种情况下,图像占用的用户的视场V的区域的百分比增加,并且由此图像被强调。图像的尺寸不受限制。如果如图7A中所示的字符图像大于视场V的宽度,通过从右到左反复滚动地显示字符图像,用户可识别全部的字符图像信息。
在7B所示的强调模式中,与在图5B中所示的基准模式相比,图像变为相对背景具有更高的对比度。具体地,图像在亮度和颜色上改变。图像的颜色不必是单个颜色。图像可以是相对于图像的每个部分的背景颜色具有高对比度的颜色。另外,图像可被移动至其中图像的彩色对比度较高的背景颜色的位置处。
在图7C所示的强调模式中,与在图5B中所示的基准模式相比,图像被放大并且图像的颜色被改变使得相对于背景颜色的对比度增加。即,在图7C中显示的图像结合了上述在图7A和图7B中的图像强调方法。因此,使用图7C中的方法可更清晰地强调图像。
在图7D所示的强调模式中,背景颜色被改变为使得图像颜色的对比度比图5B中所示的基准模式中的高。改变整个图像中的图像的背景颜色是不必要的。仅改变一部分图像的背景颜色。可替换地,可通过相对于图像颜色具有高对比度的颜色来与图像形状一致地加边框。
如上所述,通过当用户希望仔细地观看图像时所直观执行的自然动作来将HMD100转换为强调模式。图像被强调,由此用户更容易地观看到图像。因此,利用HMD 100,用户能够通过直观动作容易地观看到图像。
应注意,尽管已在上面描述了用户利用右手执行动作的情形,在HMD 100中,用户利用左手执行动作的情形与利用右手执行动作的情形相同。即,当传感器21L、22L和23L检测到用户的手并且传感器21R、22R、以及23R未检测到用户的手时,以及当传感器22L检测到用户的手并且传感器21R、22R、23R、21L和23L未检测到用户的手时,在HMD 100中的图像显示模式被转换为强调模式。
此外,尽管用户将图像显示模式改变为强调模式的动作不限于在图 6A和图6B中所示的动作,但是仍希望当用户希望仔细的观看图像时采用直观执行的动作。此外,在强调模式中的图像的显示状态不限于图7A至图7D中所示的实例。例如,HMD 100可被配置为通过使用上述在强调模式中的双眼视差使用户能够识别仿佛图像靠近他或者她。
(3)详细模式
图8A和图8B是示出通过用户的手执行的HMD 100的操作的视图。图8A示出了其中用户执行遮盖眼睛的动作的状态。图8B示出了其中用户执行遮盖两只眼睛的动作的状态。在图8A和图8B中的用户的动作都是当用户希望专注于图像并获得更多信息时由用户直观执行的自然动作。更具体地,在图8B中所示的动作是当用户希望获得与在图8A中所示的动作相比更多的信息时由用户执行的动作。
在图8A中示出的,传感器21L和22L检测到用户的手并且传感器 21R、22R、23R和23L未检测到用户的手。此外,在图8B所示的状态中,所有的传感器22R、21R、23R、21L、22L和23L都检测到了用户的手。在这些情况中,在HMD 100中的图像显示模式被转换为详细模式。
图9A至图9C是示出在详细模式中的用户的视场V的视图。在详细模式中,与基准模式比,在用户视场中的图像信息量(由图像向用户呈现的信息量)增加。例如,如在图9A至图9C中示出的,图像的信息量增加。
图9A示出了在对应于图8A中所示的动作的详细模式中的用户视场 V。在图9A所示的详细模式中,在用户视场V中显示的图像信息量与在图5B所示的基准模式中的相比增加了。具体地,与在图5B中所示的用户视场V相比,在图9A所示的用户的视场V中提供了更多的气象信息。在图9A所示的状态中,显示单元111拓宽其中显示图像的区域并增加显示的字符图像量,以由此增加图像的信息量。另外,显示单元111还可减小每个图像(每个字符)的尺寸,以由此增加显示的字符图像量。
如上所述,通过当用户希望获得更多的信息时所直观执行的自然动作将HMD 100转换为详细模式。图像的信息量增加,并且由此用户可获得更多的信息。以这种方式,利用HMD 100,用户可通过直观的动作获得更多的信息。应注意,尽管在图9A所示的用户的视场V中提供了气象信息,但是在图5A所示的基准模式中显示RSS的情况下,在详细模式中用户的视场V可被提供有RSS主体的详细信息。
此外,在图9A所示的详细模式中,在图4中所示的滤光器26R和26L 的可见光透射率被设定为50%。因此,在图9A所示的详细模式中,在用户视场V中透过显示单元111观看的风景变暗。利用此,在用户的视场V 中除了图像之外的信息量减少,并且由此用户可以更集中的方式观看图像。
图9B示出了在对应于图8B所示的动作的详细模式中的用户的视场 V。在9B所示的详细模式中,如在图9A所示的详细模式中,在用户视场 V中显示的图像信息量增加。另外,在图9B所示的详细模式中,在图4 中所示的滤光器26R和26L的可见光透射率被设定为0%。即,在图9B 所示的详细模式中,在用户的视场中仅提供图像。利用此,用户能够以比在图9A所示的详细模式中更加集中的方式观看图像。
在图9A所示的详细模式和在图9B所示的详细模式之间,在滤光器 26R和26L中的可见光透射率不同。用户可使用它们作为不同的图像显示模式。在HMD 100中,为了达到图9B中所示的详细模式,用户需要利用手覆盖所有的传感器,包括位于两个眼睛外侧的传感器21R和21L。即,除非用户同时覆盖传感器21R以及位于距离传感器21R最远位置处的传感器21L,否则不能实现在图9B中所示的详细模式。因此,防止了在HMD 100中的错误操作。
图9C示出了图9B的变形例。在图9C所示的详细模式中,滤光器26R 和26L中的可见光透射率是100%。例如,在其中透过显示单元111观看的风景不会阻碍图像的显示的环境中使用HMD 100的情况下,不必使用滤光器26R和26L限制可见光的透射率。在这种情况下,可采用不具有滤光器26R和26L的配置来用于HMD 100。
应注意,尽管已在上面描述了用户利用左手执行操作的情形,在HMD 100中,用户利用右手执行操作的情形与利用左手执行操作的情形相同。即,同样在传感器21R和22R检测到用户的手并且传感器23R、21L、22L 和23L未检测到用户的手时,在HMD 100中的图像显示模式转换为如图 9A所示的强调模式中。
(4)其它图像显示模式
除上述基准模式、强调模式以及详细模式以外,HMD 100可被配置为具有规定在用户的视场V中的图像的显示状态的任意的图像显示模式。其他图像显示模式的实例包括与强调模式相反图像的亮度被减少以减少眼睛疲劳的模式以及与详细模式相反减少图像信息量以使其更容易观看风景的模式。
图10示出了其他图像显示模式的实例。在图10所示的图像显示模式中,尽管图像的显示与基准模式相同,但是滤光器26R和26L的可见光透射率是0%。即,在图10所示的图像显示模式中,在用户的视场中仅提供图像。例如,当用户的视场V特别明亮以至于难以观看图像时,该图像显示模式较为有效。
(图像显示模式的转换)
在HMD 100中,每个图像显示模式与传感器单元112的检测状态的模型有关(在下文中,仅被称作“模型(pattern,模式)”)。在该实施方式中,在传感器21R、22R、23R、21L、22L、23L和24之中,采用检测到用户手的传感器和未检测到用户手的传感器的组合作为传感器单元112的检测状态。即,当传感器单元112基于这种组合的模型执行输出时,HMD 100的控制单元120被配置为根据传感器单元112的输出确定显示单元111 的图像显示模式。
图11是示出在HMD 100的控制单元120中改变图像显示模式的操作的实例的流程图。在图11中,HMD 100具有“模式(mode)0”、“模式1”以及“模式2”三种图像显示模式。传感器单元112的模型A与“模式1”有关,并且传感器单元112的模型B与“模式2”有关。
如图11所示,控制单元120首先确定传感器单元112的模型是否为模型A。如果传感器单元112的模型是模型A,则控制单元120将图像显示模式设定为模式1。如果传感器单元112的模型不是模型A,则控制单元120进一步确定传感器单元112的模型是否为模型B。如果传感器单元 112的模型是模型B,则制单元120将图像显示模式设定为模式2,并且如果传感器单元112的模型不是模型B,则将图像显示模式设定为模式0。
为了说明,将图11应用到上述实例,“模式0”对应“基准模式”,“模式1”对应“强调模式”,以及“模式2”对应“详细模式”。那么,例如,传感器单元112的模型A是其中检测到用户的手的传感器是传感器21R、 22R和23R并且未检测到用户的手的传感器是传感器21L、22L和23L的模型。例如,传感器单元112的模型B是其中传感器21R、22R、23R、 21L、22L和23L检测到用户的手的模型。
图12是示出通过用户的手执行的HMD 100的操作的视图。图12示出了其中用户利用手指执行触摸安置单元110的镜腿11C的动作的状态。在图12中通过用户执行的操作是当纠正眼镜的倾斜并再次检查视场时直观执行的自然动作。这时,用户的手指保持与传感器24接触。
HMD 100的传感器24被配置为触摸式触发传感器。用户可在每次用户触摸触发传感器24时在预先定义的图像显示模式之间改变图像的显示状态。例如,在图像显示模式是“基准模式”的情况下,一旦当用户触摸触发传感器24时,控制单元120将图像显示模式改变为“强调模式”,并且当用户再次触摸触发传感器24时,将图像显示模式改变为“详细模式”。
图13是示意性地示出在接收通过触发传感器24执行的操作的情况下的控制单元120的操作的视图。在图13中的“暂停(pause)模式”示出了其中由用户通过触发传感器24执行的操作是无效的状态。“操作模式”示出了其中由用户通过触发传感器24执行的操作是有效的状态。
例如,如果用户触摸触发传感器24持续三秒钟,则在HMD 100中的“暂停模式”改变为“操作模式”。如果用户再次触摸触发传感器24持续三秒钟,则“操作模式”改变为“暂停模式”。HMD 100中的“暂停模式”和“操作模式”之间的改变方法不限于此。
当HMD 100转变为“操作模式”时,图像显示模式首先变成“模式 0”。那么,在“操作模式”中,每次用户触摸触发传感器24时,图像显示模式按照“模式0”、“模式1”、“模式2”、“模式0”的次序等切换。因此,用户可通过操作触发传感器24自由地选择图像显示模式。
如上所述,在HMD 100中,使用触发传感器24,用户可通过当用户希望再次检查视场时所直观执行的自然动作来改变图像显示模式。因此,利用HMD 100,用户可通过直观动作来选择图像显示模式。
如上所述,在根据该实施方式的HMD 100中,无需使用复杂的配置 (例如,检测用户动作的照相机),可利用简单的配置使用用户的直观动作来执行操作。因此,利用HMD100,实现了重量的减小并实现了成本的减低。
<第二实施方式>
根据本技术的第二实施方式的头戴式显示器系统与根据第一实施方式的头戴式显示器系统的差异仅在于图像的显示模式。因此,在下文中,将假定根据第一实施方式的头戴式显示器系统的部件并且部件的参考符号将与第一实施方式中的相同。
图14A是示出其中由用户佩戴根据该实施方式的HMD的安置单元 110的状态的前视图。在图14A所示的状态中,作为检测目标的用户的手未接近传感器21R、22R、23R、21L、22L、23L和24。因此,任何传感器未检测到用户的手。在这种情况下,在HMD中的图像显示模式被转换为如在根据第一实施方式的图5A中示出的基准模式。
图14B示出了在基准模式中的用户的视场V的视图。为了说明起见,图14B仅示出了由虚线包围一部分作为用户的视场V。图14B示出了用户在打高尔夫球时的状态。因此,透过显示单元111观看的风景是高尔夫球场。在视场V中用户可识别包括果岭和沙坑(bunker)的风景。
在该实施方式中,HMD经由信息处理设备200获取高尔夫球场的信息。在图14B中,在用户视场V中的邻近于果岭的位置处显示表示至果岭的距离的字符图像,并且在用户视场V中的邻近于沙坑的位置处显示表示至沙坑的距离的字符图像。另外,可在用户的视场V中显示基于有关球洞数量的信息、球洞的参考杆数(标准)等的字符图像。
以这种方式,在用户的视场V中显示多个图像的情况下,根据该实施方式,每个图像在HMD中被设置有优先级。每个图像的优先级可由HMD 的控制单元120设置,或者可由信息处理终端200预先设置。
图15A是示出根据该实施方式的通过用户的手执行的HMD的操作的视图。图15A示出了其中用户执行将手掌放到前额以进行遥望的动作的状态。在15A中的用户的动作是当用户考虑在下一杆必须以什么方向击打高尔夫球时所直观执行的自然动作。
在图15A所示的状态中,传感器22R检测到用户的手,并且传感器 21R、23R、21L、22L和23L未检测到用户的手。在这种情况下,如在图 6B中所示的状态,实现了强调模式。
图15B是示出在强调模式中用户视场V的视图。在强调模式中,在用户的视场V中具有高优先级的图像与具有低优先级的图像相比被强调。具体地,在图15B所示的状态中,离果岭的距离依然较远,并且由此用户更关注沙坑的位置。即,表示“至沙坑的距离”的图像优先级高于表示“至果岭的距离”的图像优先级。因此,在图15B中,与表示“至果岭的距离”的图像相比,以放大和强调的状态显示表示“至沙坑的距离”的图像。
另外,利用根据该实施方式的HMD,具有高优先级的图像的信息量在强调模式中被增加。具体地,图15B示出了表示至沙坑的最近部分的距离和至沙坑的最远部分的距离的字符图像。这使用户能够基于这种信息考虑在下一杆中是瞄准沙坑前方的位置击打高尔夫球还是瞄准越过沙坑的位置击打高尔夫球。
当然,尽管已经在上面描述了本发明的实施方式,但是本发明不限于上述实施方式,并且在不偏离本发明的要点的情况下,可作出各种变形。
例如,尽管在以上实施方式中描述的HMD包括对应于用户的两只眼睛设置的显示单元,但是本发明也可适用于包括仅对应于用户的一只眼睛设置的显示单元的HMD。即,即使具有单个显示单元,通过设置保持具有传感器的显示单元的镜框部分,用户可通过如在上述实施方式中的直观动作执行改变图像显示状态的操作。
此外,尽管已经在上述实施方式中描述了透视型HMD,本技术同样可适用于视频通透型HMD。在这种情况下,尽管HMD设置有捕捉外界的摄影机,但是HMD可以与其他透视型HMD相同的方式来配置。
另外,尽管根据该实施方式的HMD具有其中安置单元和控制单元彼此分离的配置,但是也可采用安置单元和控制单元彼此相互集成的配置。在这种情况下,控制单元的功能被增加到安置单元。这使用户能够对HMD 执行免提(hands-free)操作。另外,头戴式显示器系统可具有其中除了控制单元的功能之外信息处理装置的功能也被增加到安置单元的配置。
应注意,本技术还可采用以下配置。
(1)一种头戴式显示器,包括:
安置单元,被配置为可安置到用户的头部;
显示单元,被设置在安置单元中并且能够为用户提供真实空间视场;
传感器单元,设置在显示单元的周边处,传感器单元包括传感器并且基于传感器的检测结果执行输出,其中,传感器能够检测由于用户的动作而接近其或者与其接触的用户的手;以及
控制单元,在视场中显示图像并且基于传感器单元的输出的改变来改变图像的显示状态。
(2)根据(1)所述的头戴式显示器,其中,
控制单元基于传感器单元的检测结果强调图像。
(3)根据(2)所述的头戴式显示器,其中,
控制单元基于传感器单元的检测结果放大图像。
(4)根据(2)或者(3)所述的头戴式显示器,其中,
控制单元基于传感器单元的检测结果增加视场中的图像的对比度。
(5)根据(4)的所述头戴式显示器,其中,
控制单元通过改变图像的颜色增加视场中的图像的对比度。
(6)根据(2)至(5)中任一项所述的头戴式显示器,其中,
控制单元能够在视场中显示被添加优先级的多个图像,并且基于传感器单元的检测结果与具有低优先级的图像相比强调具有高优先级的图像。
(7)根据(1)至(6)中任一项所述的头戴式显示器,其中,
控制单元基于传感器单元的检测结果增加在视场中显示的图像的信息量。
(8)根据(7)所述的头戴式显示器,其中,
控制单元减小每个图像的尺寸并且增加在视场中显示的图像的信息量。
(9)根据(1)至(8)中任一项所述的头戴式显示器,其中,
显示单元包括具有可变的可见光透射率的滤光器,并且
控制单元基于传感器单元的检测结果降低滤光器的可见光透射率。
(10)根据(9)所述的头戴式显示器,其中,
控制单元基于传感器单元的检测结果控制滤光器截止可见光。
(11)根据(1)至(10)中任一项所述的头戴式显示器,其中,
传感器单元包括多个传感器并且基于多个传感器中的用户的手的检测状态执行输出,并且
控制单元基于传感器单元的输出从基准模式的改变来改变其中多个传感器未检测到用户的手的基准模式中的图像的显示状态。
(12)根据(11)所述的头戴式显示器,其中,
传感器单元在其中检测状态是预定模型的强调模式中与基准模式相比强调图像。
(13)根据(11)或者(12)所述的头戴式显示器,其中,
多个传感器包括设置在佩戴安置单元的用户的两眼外侧的一对传感器。
(14)根据(13)所述的头戴式显示器,其中,
控制单元使图像强调的程度按照第一状态、第二状态和第三状态的次序增高,其中,在第一状态中,一对传感器未检测到用户的手,在第二状态中,一对传感器之一检测到用户的手,并且在第三状态中,一对传感器都检测到用户的手。
(15)根据(11)至(14)所述的头戴式显示器,其中,
控制单元在其中检测状态是预定模型的详细模式中与基准模式相比增加在视场中显示的图像的信息量。
(16)根据(1)至(15)所述的头戴式显示器,其中,
传感器被配置为触发传感器,并且
当触发传感器检测到用户的手时,控制单元改变图像的显示状态。
(17)根据(16)所述的头戴式显示器,其中,
当触发传感器检测到用户的手时,控制单元在基准模式、与基准模式相比图像被强调的强调模式以及与基准模式相比在视场中显示的图像的信息量被增加的详细模式之间改变显示状态。
(18)根据(16)或者(17)所述的头戴式显示器,其中,
触发传感器位于佩戴安置单元的用户的两个眼睛之间的位置处。
符号说明
100 头戴式显示器(HMD)
110 安置单元
111 显示单元
112 传感器单元
120 控制单元
21R、22R、23R、21L、22L、23L、24 传感器
Claims (18)
1.一种头戴式显示器,包括:
安置单元,被配置为可安置到用户的头部;
显示单元,被设置在所述安置单元中并且能够为所述用户提供真实空间的视场;
传感器单元,设置在所述显示单元的周边,所述传感器单元包括传感器并且基于所述传感器的检测结果执行输出,其中,所述传感器能够检测由于所述用户的动作而接近所述传感器或者与所述传感器接触的所述用户的手;以及
控制单元,在所述视场中显示图像,并基于所述传感器单元的输出的变化来改变所述图像的显示状态,
其中,
所述传感器单元包括多个传感器并且基于所述多个传感器中的所述用户的手的检测状态执行输出,并且
所述控制单元基于所述传感器单元的输出从其中所述多个传感器中任何一个都未检测到所述用户的手的基准模式的改变来改变所述基准模式中的所述图像的显示状态。
2.根据权利要求1所述的头戴式显示器,其中,
所述控制单元基于所述传感器单元的所述检测结果强调所述图像。
3.根据权利要求2所述的头戴式显示器,其中,
所述控制单元基于所述传感器单元的所述检测结果放大所述图像。
4.根据权利要求2所述的头戴式显示器,其中,
所述控制单元基于所述传感器单元的所述检测结果增加所述视场中的所述图像的对比度。
5.根据权利要求4所述的头戴式显示器,其中,
所述控制单元通过改变所述图像的颜色来增加所述视场中的所述图像的对比度。
6.根据权利要求2所述的头戴式显示器,其中,
所述控制单元能够在所述视场中显示被添加优先级的多个图像,并且基于所述传感器单元的所述检测结果与具有低优先级的所述图像相比强调具有高优先级的所述图像。
7.根据权利要求1所述的头戴式显示器,其中,
所述控制单元基于所述传感器单元的所述检测结果增加在所述视场中显示的图像的信息量。
8.根据权利要求6所述的头戴式显示器,其中,
所述控制单元减小每个图像的尺寸并且增加在所述视场中显示的图像的信息量。
9.根据权利要求1所述的头戴式显示器,其中,
所述显示单元包括具有可变的可见光透射率的滤光器,并且
所述控制单元基于所述传感器单元的所述检测结果降低所述滤光器的可见光透射率。
10.根据权利要求9所述的头戴式显示器,其中,
所述控制单元基于所述传感器单元的所述检测结果使所述滤光器截止可见光。
11.根据权利要求1所述的头戴式显示器,其中,
所述传感器单元在所述检测状态是预定模型的强调模式中与所述基准模式相比强调所述图像。
12.根据权利要求11所述的头戴式显示器,其中,
所述多个传感器包括设置在佩戴所述安置单元的所述用户的两眼外侧的一对传感器。
13.根据权利要求12所述的头戴式显示器,其中,
所述控制单元使所述图像的强调程度按照第一状态、第二状态以及第三状态的次序增高,其中,在所述第一状态中,所述一对传感器未检测到所述用户的手,在所述第二状态中,所述一对传感器之一检测到所述用户的手,并且在第三状态中,所述一对传感器都检测到所述用户的手。
14.根据权利要求1所述的头戴式显示器,其中,
所述控制单元在所述检测状态是预定模型的详细模式中与所述基准模式相比增加在所述视场中显示的图像的信息量。
15.根据权利要求1所述的头戴式显示器,其中,
所述传感器被配置为触发传感器,并且
当所述触发传感器检测到所述用户的手时,所述控制单元改变所述图像的显示状态。
16.根据权利要求15所述的头戴式显示器,其中,
当所述触发传感器检测到所述用户的手时,所述控制单元在所述基准模式、与所述基准模式相比所述图像被强调的强调模式以及与所述基准模式相比在所述视场中显示的图像的信息量被增加的详细模式之间改变所述显示状态。
17.根据权利要求15所述的头戴式显示器,其中,
所述触发传感器位于佩戴所述安置单元的所述用户的两个眼睛之间的位置处。
18.根据权利要求1所述的头戴式显示器,其中,
所述显示单元包括分别布置在与所述用户的右眼和左眼相对的位置处的右显示单元和左显示单元。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-033075 | 2013-02-22 | ||
JP2013033075 | 2013-02-22 | ||
PCT/JP2013/007157 WO2014128809A1 (ja) | 2013-02-22 | 2013-12-05 | ヘッドマウントディスプレイ |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104335574A CN104335574A (zh) | 2015-02-04 |
CN104335574B true CN104335574B (zh) | 2018-07-17 |
Family
ID=51390649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380027736.1A Active CN104335574B (zh) | 2013-02-22 | 2013-12-05 | 头戴式显示器 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9864198B2 (zh) |
JP (1) | JP6380374B2 (zh) |
CN (1) | CN104335574B (zh) |
WO (1) | WO2014128809A1 (zh) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9741169B1 (en) | 2014-05-20 | 2017-08-22 | Leap Motion, Inc. | Wearable augmented reality devices with object detection and tracking |
CN204480228U (zh) | 2014-08-08 | 2015-07-15 | 厉动公司 | 运动感测和成像设备 |
JP6540004B2 (ja) * | 2014-12-08 | 2019-07-10 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
US10656720B1 (en) * | 2015-01-16 | 2020-05-19 | Ultrahaptics IP Two Limited | Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments |
USD767509S1 (en) * | 2015-01-20 | 2016-09-27 | My Core Control Development, Llc | Controller device for heating kit |
USD772821S1 (en) * | 2015-06-11 | 2016-11-29 | Oculus Vr, Llc | Remote control unit |
US9801295B2 (en) | 2015-11-05 | 2017-10-24 | Oculus Vr, Llc | Remote control unit with lanyard attachment mechanism |
US9763348B2 (en) | 2015-11-06 | 2017-09-12 | Oculus Vr, Llc | Remote control unit with battery retention mechanism |
US9722235B2 (en) | 2015-12-11 | 2017-08-01 | Oculus Vr, Llc | Remote control unit with battery isolation tab |
JP6331154B2 (ja) | 2016-02-29 | 2018-05-30 | 本田技研工業株式会社 | 車両、および車両の制御方法 |
JP6883394B2 (ja) * | 2016-08-03 | 2021-06-09 | 株式会社コロプラ | プログラム、コンピュータ及び方法 |
TWI597093B (zh) * | 2016-09-10 | 2017-09-01 | 頭戴式高爾夫擴增實境裝置 | |
JP6958018B2 (ja) * | 2017-03-16 | 2021-11-02 | 株式会社デンソーウェーブ | 情報表示システム |
US10810773B2 (en) * | 2017-06-14 | 2020-10-20 | Dell Products, L.P. | Headset display control based upon a user's pupil state |
US10643548B2 (en) * | 2018-08-20 | 2020-05-05 | Dell Products, L.P. | Selective dimming of ambient lighting in virtual, augmented, and mixed reality (xR) applications |
CN109068126B (zh) * | 2018-08-30 | 2021-03-02 | Oppo广东移动通信有限公司 | 视频播放方法、装置、存储介质及穿戴式设备 |
JP7029376B2 (ja) * | 2018-09-28 | 2022-03-03 | 株式会社Nttドコモ | 携帯端末 |
JP2022152962A (ja) * | 2021-03-29 | 2022-10-12 | 京セラドキュメントソリューションズ株式会社 | 表示装置及び画像形成装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101444087A (zh) * | 2006-05-09 | 2009-05-27 | 株式会社尼康 | 头戴式显示器 |
WO2012011893A1 (en) * | 2010-07-20 | 2012-01-26 | Empire Technology Development Llc | Augmented reality proximity sensing |
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001272628A (ja) * | 2000-03-24 | 2001-10-05 | Olympus Optical Co Ltd | 眼鏡型映像表示装置 |
US8708484B2 (en) | 2006-08-31 | 2014-04-29 | Nike, Inc. | Adjustable spectral transmittance eyewear |
CN103119512A (zh) * | 2008-11-02 | 2013-05-22 | 大卫·乔姆 | 近眼式显示系统和装置 |
US20140063055A1 (en) * | 2010-02-28 | 2014-03-06 | Osterhout Group, Inc. | Ar glasses specific user interface and control interface based on a connected external device type |
JP5790187B2 (ja) | 2011-06-16 | 2015-10-07 | ソニー株式会社 | 表示装置 |
US9317971B2 (en) * | 2012-06-29 | 2016-04-19 | Microsoft Technology Licensing, Llc | Mechanism to give holographic objects saliency in multiple spaces |
-
2013
- 2013-12-05 CN CN201380027736.1A patent/CN104335574B/zh active Active
- 2013-12-05 US US14/402,555 patent/US9864198B2/en active Active
- 2013-12-05 JP JP2015501096A patent/JP6380374B2/ja not_active Expired - Fee Related
- 2013-12-05 WO PCT/JP2013/007157 patent/WO2014128809A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101444087A (zh) * | 2006-05-09 | 2009-05-27 | 株式会社尼康 | 头戴式显示器 |
CN102906623A (zh) * | 2010-02-28 | 2013-01-30 | 奥斯特豪特集团有限公司 | 交互式头戴目镜上的本地广告内容 |
WO2012011893A1 (en) * | 2010-07-20 | 2012-01-26 | Empire Technology Development Llc | Augmented reality proximity sensing |
CN102893236A (zh) * | 2010-07-20 | 2013-01-23 | 英派尔科技开发有限公司 | 增强现实临近检测 |
Also Published As
Publication number | Publication date |
---|---|
US9864198B2 (en) | 2018-01-09 |
US20150138070A1 (en) | 2015-05-21 |
JPWO2014128809A1 (ja) | 2017-02-02 |
JP6380374B2 (ja) | 2018-08-29 |
CN104335574A (zh) | 2015-02-04 |
WO2014128809A1 (ja) | 2014-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104335574B (zh) | 头戴式显示器 | |
US20210082198A1 (en) | Augmented reality lighting effects | |
US11940629B2 (en) | Optical configurations for head-worn see-through displays | |
US10795183B1 (en) | Enhanced optical and perceptual digital eyewear | |
KR101258413B1 (ko) | 디스플레이 기기 및 장치 | |
CN113267895B (zh) | 用于头戴式计算的电源管理 | |
US20170124396A1 (en) | Dynamically created and updated indoor positioning map | |
US8957916B1 (en) | Display method | |
US20170277259A1 (en) | Eye tracking via transparent near eye lens | |
EP2609731B1 (en) | Tracking head position and orientation | |
US9599825B1 (en) | Visual indicator for transparent display alignment | |
US20140191942A1 (en) | Display device and control method thereof | |
US11520401B2 (en) | Focus-based debugging and inspection for a display system | |
CN104932675A (zh) | 显示装置、图像显示系统以及信息处理方法 | |
US9086568B2 (en) | Method and apparatus for view recovery | |
CN111968607B (zh) | 显示装置、电子设备及电子设备的控制方法 | |
CN111968602A (zh) | 显示装置、电子设备及电子设备的控制方法 | |
US11189059B2 (en) | Object tracking for head-mounted devices | |
CN106199959B (zh) | 头戴式显示器 | |
US11768376B1 (en) | Head-mounted display system with display and adjustable optical components | |
KR20210121933A (ko) | 디스플레이를 포함하는 전자 장치 및 그 디스플레이의 시야각을 제어하는 방법 | |
JP2017032870A (ja) | 画像投影装置及び画像表示システム | |
US20180239487A1 (en) | Information processing device, information processing method, and program | |
US20220214744A1 (en) | Wearable electronic device and input structure using motion sensor in the same | |
US11435583B1 (en) | Electronic device with back-to-back displays |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |