CN105745566B - 头戴式显示器以及用于控制头戴式显示器的方法 - Google Patents

头戴式显示器以及用于控制头戴式显示器的方法 Download PDF

Info

Publication number
CN105745566B
CN105745566B CN201380078511.9A CN201380078511A CN105745566B CN 105745566 B CN105745566 B CN 105745566B CN 201380078511 A CN201380078511 A CN 201380078511A CN 105745566 B CN105745566 B CN 105745566B
Authority
CN
China
Prior art keywords
area
information
control
control input
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201380078511.9A
Other languages
English (en)
Other versions
CN105745566A (zh
Inventor
J·金
D·李
S·春
E·丘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Technology Licensing LLC filed Critical Microsoft Technology Licensing LLC
Publication of CN105745566A publication Critical patent/CN105745566A/zh
Application granted granted Critical
Publication of CN105745566B publication Critical patent/CN105745566B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

根据本说明书的一个实施例的一种控制头戴式显示器(HMD)的方法,包括以下步骤:经由显示单元输出视觉信息,经由音频输出单元输出听觉信息,检测触摸HMD的镜腿的第一区域或第二区域的控制输入,如果控制输入在第一区域中被检测到,则将视觉信息设置为控制目标信息,如果控制输入在第二区域中被检测到,则将听觉信息设置为控制目标信息,根据控制输入的移动属性来控制所设置的控制目标信息的输出,该控制输入在维持与HMD镜腿的接触的同时在第一区域和第二区域中移动,以及如果控制输入与HMD镜腿之间的接触被释放,则终止对所设置的控制目标信息的输出的控制,其中第一区域对应于镜腿中毗邻显示单元的区域,并且其中第二区域对应于镜腿中毗邻音频输出单元的区域。

Description

头戴式显示器以及用于控制头戴式显示器的方法
技术领域
本说明书涉及头戴式显示器,尤其涉及用于根据控制输入被输入的位置来控制视觉信息和听觉信息的输出的头戴式显示器。
背景技术
随着头戴式显示器被轻量化,用户能够如眼镜那样穿戴头戴式显示器。用户能够使用头戴式显示器来接收数字信息。数字信息可包括视觉信息和听觉信息。在使用头戴式显示器接收视觉信息和听觉信息时,用户能够根据情景来控制视觉信息和听觉信息。
发明公开
技术问题
由于对于头戴式显示器而言在头戴式显示器的表面上配备有各种按钮是困难的,因此头戴式显示器可能由于设备的属性而具有较低的可操作性。因此,在使用头戴式显示器观看数字信息的情形中,需要一种经由简单操作来控制视觉信息和听觉信息的方法。具体地,由于轻量化和小型化,对于头戴式显示器而言提供充足的触敏空间来控制每一信息是困难的。因此,头戴式显示器首先选择控制目标信息,并且接着应当提供一种控制所选控制目标信息的方法。
问题解决方案
相应地,本说明书涉及一种基本上消除由于相关领域的限制和缺点所导致的一个或多个问题的装置及其方法。
本说明书的一个目标在于提供一种头戴式显示器以及控制该头戴式显示器的方法,该头戴式显示器用于根据穿戴模式来激活或解除激活音频输入/输出单元或显示单元。具体地,根据本说明书,对于头戴式显示器而言提供一种根据控制输入在其中被检测到的区域来确定在视觉信息和听觉信息之中将哪些信息设置/控制为控制目标信息的方法是有必要的。
本发明的其它优点、目的和特征将在以下的说明中部分地阐述,且在本领域技术人员分析以下内容后将部分地变得显然易见,或者可从本发明的实施中获知。本发明的目的和其它优点可由书面说明书及其权利要求书和附图中具体指出的结构来实现并获得。
为了达成这些目标和其他优点并且根据本发明的目的,如本文所实施和宽泛描述的,根据一个实施例,一种头戴式显示器(HMD)包括:显示单元,被配置成输出视觉信息,音频输出单元,被配置成输出听觉信息,传感器单元,被配置成检测位于HMD的镜腿处的方式的控制输入,以及如果控制输入在传感器单元的第一区域中被检测到,则控制器被配置成控制视觉信息的输出,如果控制输入在传感器单元的第二区域中被检测到,则控制器被配置成控制听觉信息的输出,控制器被配置成根据控制输入在第一区域或第二区域之中被检测到的区域来设置控制目标信息,控制器被配置成根据控制输入的移动属性来控制所设置的控制目标信息的输出,该控制输入在维持与传感器单元的接触的同时在第一区域和第二区域中移动,如果控制输入与传感器单元之间的接触被释放,则控制器被配置成终止对所设置的控制目标信息的输出的控制,其中第一区域对应于镜腿中毗邻显示单元的区域,并且其中第二区域对应于镜腿中毗邻音频输出单元的区域。
为了进一步达成这些目标和其他优点并且根据本发明的目的,如本文所实施和宽泛描述的,根据本说明书的一个实施例的一种控制头戴式显示器(HMD)的方法包括以下步骤:经由显示单元输出视觉信息,经由音频输出单元输出听觉信息,检测触摸HMD的镜腿的第一区域或第二区域的控制输入,如果控制输入在第一区域中被检测到,则将视觉信息设置为控制目标信息,如果控制输入在第二区域中被检测到,则将听觉信息设置为控制目标信息,根据控制输入的移动属性来控制所设置的控制目标信息的输出,该控制输入在维持与HMD镜腿的接触的同时在第一区域和第二区域中移动,以及如果控制输入与HMD镜腿之间的接触被释放,则终止对所设置的控制目标信息的输出的控制,其中第一区域对应于镜腿中毗邻显示单元的区域,并且其中第二区域对应于镜腿中毗邻音频输出单元的区域。发明的有利效果
根据本说明书,一种头戴式显示器能够根据控制输入在传感器单元上被检测到的位置来选择/控制控制目标信息。
根据本说明书,一种头戴式显示器能够将传感器单元的检测区域划分为视觉信息控制区域和听觉信息控制区域。
根据本说明书,如果控制输入在视觉信息控制区域中被检测到,一种头戴式显示器能够在维持控制输入的接触的同时将听觉信息控制区域切换为视觉信息控制区域。
根据本说明书,如果控制输入在听觉信息控制区域中被检测到,一种头戴式显示器能够在维持控制输入的接触的同时将视觉信息控制区域切换为听觉信息控制区域。
根据本说明书,如果控制目标信息被确定,一种头戴式显示器能够提供对应于控制目标信息的控制界面作为触觉反馈。
根据本说明书,如果输出的信息仅包括听觉信息,一种头戴式显示器能够将视觉信息控制区域切换为听觉信息控制区域。
根据本说明书,如果输出的信息仅包括视觉信息,一种头戴式显示器能够将听觉信息控制区域切换为视觉信息控制区域。
应理解,本说明书的前述一般描述和以下详细描述两者均是示例性和说明性的,并旨在提供对所要求保护的发明的进一步解释。
附图简述
被包括以提供对本发明的进一步理解并被纳入以构成本申请的一部分的附图例示了本发明的若干实施例,并与说明书一起用于解释本发明的原理。在附图中:
图1是根据本说明书的一个实施例的头戴式显示器(HMD)的图示;
图2是根据本说明书的一个实施例的一种控制HMD的视觉信息的方法的图示;
图3是根据本说明书的一个实施例的用于HMD的视觉信息的控制界面的图示;
图4是根据本说明书的一个实施例的一种控制HMD的听觉信息的方法的图示;
图5是根据本说明书的一个实施例的用于HMD的听觉信息的控制界面的图示;
图6是根据本说明书的一个实施例的一种响应于HMD的输出信息来配置控制目标信息的方法的图示;
图7是根据本说明书的一个实施例的一种确定HMD的控制目标信息的方法的图示;
图8是根据本说明书的一个实施例的HMD的框图;
图9是根据本说明书的一个实施例的HMD的操作流程图。
实现本发明的最佳模式
尽管各实施例参考所附附图以及在附图上描述的内容具体地描述,但权利要求书的范围可以不限于各实施例。
尽管本说明书中使用的术语从就功能考量而言当前且广泛地使用的一般术语中进行选择,但它们可以根据涉及新技术的对应领域、定制、出现等的技术人员的意图而改变。有时候,一些术语可以由申请人任意地选择。在此情形中,任意选择的术语的意义应当在说明书的详细描述的对应部分中进行描述。因此,本说明书中使用的术语需要基于本说明书中公开的对应术语和全部事项的实质意义来解释,而非被解释为简单的术语名称。
在本说明书中,一种头戴式显示器可包括可穿戴设备,该可穿戴设备能够以被穿戴在用户身上的方式来显示视觉信息。
图1是根据本说明书的一个实施例的头戴式显示器(HMD)的图示。参考图1,一种头戴式显示器(在下文中被简称为HMD)可以被划分为多个部件。在图1中,HMD可包括显示部件11、耳朵部分部件12以及镜腿部件13。显示部件11可包括显示单元,显示数字图像,以及可以向用户提供视觉信息。如图1所描绘的,显示部件11可具有诸如眼镜轮圈之类的形式。显示部件11可包括被配置成投影或显示视觉信息的显示单元。根据一不同的实施例,HMD可包括显示单元以及支撑显示单元的框架而非轮圈。
耳朵部分部件12可以将HMD容适到用户耳朵。耳朵部分部件12可包括音频输出单元,并且音频输出单元可输出听觉信息。音频输出单元可包括扬声器或骨导扬声器。
镜腿部件13可以将HMD容适到用户头部。镜腿部件13可包括在镜腿部件的外表面上的触摸传感器单元。包括在镜腿部件中的触摸传感器单元可以被划分为多个区域。触摸传感器单元的多个区域可以被划分为分别用于控制HMD中显示的视觉信息的区域以及用于控制从HMD输出的听觉信息的区域。关于此,将详细在图2中进行描述。
图2是根据本说明书的一个实施例的一种控制HMD的视觉信息的方法的图示。参考图2的顶部,HMD可包括显示部件11、耳朵部分部件12以及镜腿部件13。HDM的镜腿部件13可包括传感器单元,并且传感器单元可包括触敏区域。HMD可包括被划分为镜腿部件13中的多个区域的触敏区域。HMD可将触敏区域划分为第一区域21和第二区域22。在此情形中,第一区域21和第二区域22可以彼此毗邻。
HMD可以基于第一区域21中检测到的控制输入来控制视觉信息的输出。HDM可以将镜腿部件13之中毗邻显示部件11的区域设置为第一区域21。并且,HMD可以基于第二区域22中检测到的控制输入来控制听觉信息的输出。HDM可以将镜腿部件13之中毗邻耳朵部分部件12的区域设置为第二区域22。
如图2顶部所描绘的,HMD可以在被划分为第一区域21和第二区域22的镜腿部件13的表面上生成触觉反馈。HDM在第一区域21中生成第一触觉反馈并且可以在第二区域22中生成第二触觉反馈。可以向触摸HMD的镜腿部件13的用户提供来自HMD的第一触觉反馈或第二触觉反馈。因此,当用户触摸一区域时,用户可以按照接收第一触觉反馈还是第二触觉反馈的方式来区分第一区域21和第二区域22。具体地,HMD可以用将区域进行划分的方式向用户通知该用户控制视觉信息还是听觉信息,其中第一触觉反馈和第二触觉反馈分别被生成到第一区域和第二区域中。
为了控制HMD的视觉信息的输出,用户可以向第一区域21输入控制输入23。在此情形中,控制输入可包括触摸输入。HMD可以检测第一区域21中的控制输入23。例如,HMD可以检测与触敏区域接触的控制输入23。如果控制输入23在第一区域21中被检测到,则HMD将视觉信息配置为控制目标信息。HMD可以响应于控制输入23来控制被设置为控制目标信息的视觉信息。并且,HMD可以响应于控制输入23在第一区域21中生成第一触觉反馈。
已经在第一区域21中检测到控制输入,HMD可以将镜腿部件的触敏区域设置为第一区域21,如图2底部所描绘的。与如图2顶部所描绘的已经将镜腿部件13的触敏区域划分为第一区域21和第二区域22的HMD不同,如果控制输入23在第一区域21中被检测到,则HMD可以将镜腿部件13的触敏区域设置为第一区域21。由于镜腿部件13的触敏区域具有有限空间,因此用户选择的第一区域21可以扩展到镜腿部件13的触敏区域的整个区域以增强用户的可操作性。在本说明书中,扩展到触敏区域的整个区域的第一区域可以被定义为‘经扩展的第一区域’24。
如图2底部所描绘的,HMD可以检测在经扩展的第一区域24内移动的控制输入23。在维持控制输入23与经扩展的第一区域24之间的第一接触的同时,HMD可以将视觉信息维持为控制目标信息。因此,HMD可以在维持第一接触的同时根据在经扩展的第一区域24内移动的控制输入23来控制视觉信息。
并且,在维持控制输入23与经扩展的第一区域24之间的第一接触的同时,HMD可以维持经扩展的第一区域24。如果第一接触被释放,则HMD可以将经扩展的第一区域24重置为第一区域21和第二区域22。
如图2底部所描绘的,HMD可以在镜腿13中被设置为经扩展的第一区域24的表面上生成第一触觉反馈。具体地,HMD可以在第一区域21和第二区域22两者中生成第一触觉反馈,其中第一触觉反馈和第二触觉反馈分别被用于在图2的左上方生成。在维持控制输入23与经扩展的第一区域24之间的第一接触的同时,HMD可以维持经扩展的第一区域24中的第一触觉反馈。
可以向通过触摸HMD的镜腿部件13的触敏区域来控制视觉信息的用户提供第一触觉反馈,无论该用户触摸触敏区域中的什么位置。用户识别第一触觉反馈,并且接着可以能够确认用户所控制的控制目标信息是视觉信息。
图3是根据本说明书的一个实施例的用于HMD的视觉信息的控制界面的图示。参考图3顶部,HMD可以使用显示部件11中包括的显示单元来显示视觉信息。由HMD显示的视觉信息30可包括视频、图片、通知、应用执行屏幕、或视频呼叫图像。HMD可将镜腿部件13的触敏区域划分为第一区域21和第二区域22。HMD可以检测触摸第一区域21的控制输入31。HMD可以响应于在第一区域21中检测到的控制输入31来将视觉信息设置为控制目标信息。
如图3底部描绘的,已经将视觉信息设置为控制目标信息,HMD可以将镜腿部件的触敏区域设置为经扩展的第一区域24。HMD可以响应于在经扩展的第一区域24中检测到的控制输入31来控制视觉信息。
并且,已经将视觉信息设置为控制目标信息,除了显示单元中显示的视觉信息30,HMD可以显示用于视觉信息的控制界面32。例如,HMD可以显示被配置成控制视频的回放菜单。用于视觉信息的控制界面32可包括被配置成控制视觉信息的菜单、移动、大小、位置以及回放的界面。HMD可以使用该界面来控制所显示的视觉信息的菜单、移动、大小、位置以及回放中的至少一项。
HMD可以生成用于所显示的视觉信息的控制界面32的触觉反馈。HMD可以向触敏区域提供对应于所显示的视觉信息或控制界面32的触觉界面33。HMD检测到触觉界面33上的控制输入并且可以执行对应于触觉界面33的功能。例如,HMD可以提供回放菜单作为触觉界面。如果用户触摸触觉界面,则HMD可以控制视觉信息的回放。
HMD可以响应于所显示的视觉信息的属性来向镜腿部件13的触敏区域提供触觉界面。HMD可以响应于视觉信息的属性来生成触觉反馈。在此情形中,视觉信息的属性可包括视觉信息的形状、位置、大小以及纹理中的至少一项。
图4是根据本说明书的一个实施例的一种控制HMD的听觉信息的方法的图示。参考图4的顶部,HMD可包括显示部件11、耳朵部分部件12以及镜腿部件13。HDM的镜腿部件13可包括传感器单元,并且传感器单元可包括触敏区域。HMD可包括被划分为镜腿部件13中的多个区域的触敏区域。
HMD可将触敏区域划分为第一区域21和第二区域22。HMD可以基于第一区域21上检测到的控制输入来控制视觉信息的输出。HDM可以将镜腿部件13之中毗邻显示部件11的区域设置为第一区域21。并且,HMD可以基于第二区域22中检测到的控制输入来控制听觉信息的输出。HDM可以将镜腿部件13之中毗邻耳朵部分部件12的区域设置为第二区域22。
如图4左上方所描绘的,HMD可以在被划分为第一区域21和第二区域22的镜腿部件13的表面上生成触觉反馈。HDM在第一区域21中生成第一触觉反馈并且可以在第二区域22中生成第二触觉反馈。可以向触摸HMD的镜腿部件13的用户提供来自HMD的第一触觉反馈或第二触觉反馈。因此,当用户触摸一区域时,用户可以按照接收第一触觉反馈还是第二触觉反馈的方式来区分第一区域21和第二区域22。具体地,HMD可以用将区域进行划分的方式向用户通知该用户控制视觉信息还是听觉信息,其中第一触觉反馈和第二触觉反馈分别被生成到第一区域和第二区域中。
为了控制HMD的听觉信息的输出,用户可以向第二区域22输入控制输入41。在此情形中,控制输入可包括触摸输入。HMD可以检测第二区域22中的控制输入41。例如,HMD可以检测与触敏区域接触的控制输入41。如果控制输入41在第二区域22中被检测到,则HMD可将听觉信息设置为控制目标信息。HMD可以响应于控制输入41来控制被设置为控制目标信息的听觉信息。并且,HMD可以响应于控制输入41在第二区域22中生成第二触觉反馈。
已经在第二区域22中检测到控制输入,HMD可以将镜腿部件的触敏区域设置为第二区域22,如图4底部所描绘的。与如图4顶部所描绘的已经将镜腿部件13的触敏区域划分为第一区域21和第二区域22的HMD不同,如果控制输入41在第二区域22中被检测到,则HMD可以将镜腿部件13的触敏区域设置为第二区域22。由于镜腿部件13的触敏区域具有有限空间,因此用户选择的第二区域22可以扩展到镜腿部件13的触敏区域的整个区域以增强用户的可操作性。在本说明书中,扩展到触敏区域的整个区域的第二区域可以被定义为‘经扩展的第二区域’42。
如图4底部所描绘的,HMD可以检测在经扩展的第二区域42内移动的控制输入41。在维持控制输入41与经扩展的第二区域42之间的第二接触的同时,HMD可以将听觉信息维持为控制目标信息。因此,HMD可以在维持第二接触的同时根据在经扩展的第二区域42内移动的控制输入41来控制听觉信息。
并且,在维持控制输入41与经扩展的第二区域42之间的第二接触的同时,HMD可以维持经扩展的第二区域42。如果第二接触被释放,则HMD可以将经扩展的第二区域42重设为第一区域21和第二区域22。
如图4底部所描绘的,HMD可以在镜腿13中被设置为第二区域42的表面上生成第二触觉反馈。具体地,HMD可以在第一区域21和第二区域22两者中生成第二触觉反馈,其中第一触觉反馈和第二触觉反馈分别被用于在图4的左上方生成。在维持控制输入41与经扩展的第二区域42之间的第二接触的同时,HMD可以维持经扩展的第二区域42中的第二触觉反馈。
可以向通过触摸HMD的镜腿部件13的触敏区域来控制听觉信息的用户提供第二触觉反馈,无论该用户触摸触敏区域中的什么位置。用户识别第二触觉反馈,并且接着可以能够确认用户所控制的控制目标信息是听觉信息。
图5是根据本说明书的一个实施例的用于HMD的听觉信息的控制界面的图示。参考图5顶部,HMD可以使用耳朵部分部件12中包括的音频输出单元来输出听觉信息。HMD输出的听觉信息可包括音乐、警报、在有语音呼叫的情形中另一方的语音、通知声音。HMD可将镜腿部件13的触敏区域划分为第一区域21和第二区域22。HMD可以检测触摸第二区域22的控制输入51。HMD可以响应于在第二区域22中检测到的控制输入51来将听觉信息设置为控制目标信息。
如图4底部描绘的,已经将听觉信息设置为控制目标信息,HMD可以将镜腿部件的触敏区域设置为经扩展的第二区域42。HMD可以响应于在经扩展的第二区域42中检测到的控制输入51来控制听觉信息。
并且,已经将听觉信息设置为控制目标信息,除了显示单元中显示的视觉信息50,HMD可以显示用于听觉信息的控制界面52。例如,HMD可以显示被配置成控制听觉信息的音量的音量控制菜单。用于听觉信息的控制界面52可包括被配置成控制听觉信息的音量、平衡、以及回放的界面。HMD可以使用该界面来控制所显示的听觉信息的音量、平衡以及回放中的至少一项。
HMD可以生成用于所输出的听觉信息的控制界面52的触觉反馈。HMD可以向触敏区域提供对应于所输出的听觉信息或控制界面52的触觉界面53。HMD检测到触觉界面53上的控制输入并且可以执行对应于触觉界面53的功能。例如,HMD可以提供音量控制菜单作为触觉界面。如果用户触摸触觉界面,则HMD可以控制听觉信息的音量。
HMD可以响应于所输出的听觉信息的属性来向镜腿部件13的触敏区域提供触觉界面。HMD可以响应于听觉信息的属性来生成触觉反馈。在此情形中,视觉信息的属性可包括听觉信息的步调和音量中的至少一项。
图6是根据本说明书的一个实施例的一种响应于HMD的输出信息来配置控制目标信息的方法的图示。HMD可以根据从HMD输出的信息来设置控制目标信息。HMD可以根据在镜腿部件13的触敏区域中检测到的控制输入来设置控制目标信息。如果输出的信息仅包括视觉信息,则HMD可以将视觉信息设置为控制目标信息。HMD可以根据触敏区域中检测到的控制输入来控制视觉信息。具体地,HMD将镜腿的触敏区域设置为经扩展的第一区域24,并且可以使用经扩展的第一区域24中检测到的控制输入来控制视觉信息。与此不同的是,如果输出的信息仅包括听觉信息,则HMD可以将听觉信息设置为控制目标信息。HMD可以根据触敏区域中检测到的控制输入来控制听觉信息。具体地,HMD将镜腿的触敏区域设置为经扩展的第二区域42,并且可以使用经扩展的第二区域42中检测到的控制输入来控制听觉信息。
参考图6顶部,HMD可以仅输出视觉信息。例如,HMD可以显示电子邮件或图片。在此情形中,由于HMD不输出要被控制的听觉信息,因此HMD可以将视觉信息设置为控制目标信息。并且,HDM可以将镜腿部件13的触敏区域设置为经扩展的第一区域24以检测用于控制视觉信息的输出的控制输入。具体地,HMD可以检测镜腿部件13的触敏区域的整个区域中被配置成控制视觉信息的输出的控制输入。
上述可包括这样的情形,其中HMD与视觉信息一起输出一次性听觉信息。例如,在HMD连同一次性声音来显示导航菜单或通知的情形中,HMD可以如以上描述中所提及的那样操作。
参考图6底部,HMD可以仅输出听觉信息。例如,HMD可以播放音乐或者在执行语音呼叫的情形中输出另一方的语音。在此情形中,由于HMD不显示要被控制的视觉信息,因此HMD可以将听觉信息设置为控制目标信息。并且,HDM可以将镜腿部件13的触敏区域设置为经扩展的第二区域42以检测用于控制听觉信息的输出的控制输入。具体地,HMD可以检测镜腿部件13的触敏区域的整个区域中被配置成控制听觉信息的输出的控制输入。
上述可包括这样的情形,其中HMD与听觉信息一起输出一次性视觉信息。例如,在HMD在播放音乐专辑的同时显示对应专辑的图像的情形中或者在HMD在执行语音呼叫的同时显示关于另一方的信息的情形中,HMD可以如以上描述中所提及的那样操作。
图7是根据本说明书的一个实施例的一种确定HMD的控制目标信息的方法的图示。HMD可将触敏区域划分为第一区域21、第二区域22和第三区域71。HMD可包括第一区域21与第二区域22之间的第三区域71。HMD可以基于第一区域21中检测到的控制输入来控制视觉信息的输出。HDM可以将镜腿部件13之中毗邻显示部件11的区域设置为第一区域21。并且,HMD可以基于第二区域22中检测到的控制输入来控制听觉信息的输出。HDM可以将镜腿部件13之中毗邻耳朵部分部件12的区域设置为第二区域22。并且,如果控制输入在第三区域71中被检测到,则HMD可以基于控制输入的移动方向来设置控制目标信息。如果控制输入在第三区域71中被检测到,则HMD可以根据是否显示了被配置成设置控制目标信息的用户界面来不同地操作。
如果控制输入72在第三区域中被检测到,则HMD可以显示被配置成将视觉信息或听觉信息选择为控制目标信息的用户界面。例如,如果控制输入72移动到显示部件11所被定位的第一方向,则HMD可以显示视觉信息的输出被控制。如果控制输入72移动到耳朵部分部件12所被定位的第二方向,则HMD可以显示听觉信息的输出被控制。如果在维持与触敏区域的接触的同时控制输入移动到第一区域所被定位的第一方向,则HMD可以将视觉信息设置为控制目标信息。具体地,HMD可以响应于接触第三区域71并且移动到第一方向的控制输入来将镜腿部件13的触敏区域设置为经扩展的第一区域24。因此,在控制输入与镜腿之间的接触被释放之前,HMD可以将经扩展的第一区域24提供给用户。换言之,在维持控制输入与触敏区域之间的接触的同时,HMD可以响应于在第一区域、第二区域、以及第三区域中移动的控制输入72来控制视觉信息(它是控制目标信息)的输出。
如果在维持与触敏区域的接触的同时控制输入移动到第二区域22所被定位的第二方向,则HMD可以将听觉信息设置为控制目标信息。具体地,HMD可以响应于接触第三区域71并且移动到第二方向的控制输入来将镜腿部件13的触敏区域设置为经扩展的第二区域42。因此,在控制输入与镜腿之间的接触被释放之前,HMD可以将经扩展的第二区域42提供给用户。换言之,在维持控制输入与触敏区域之间的接触的同时,HMD可以响应于在第一区域、第二区域、以及第三区域中移动的控制输入72来控制听觉信息(它是控制目标信息)的输出。
尽管控制输入72在第三区域中被检测到,HMD可以不显示被配置成将视觉信息或听觉信息选择为控制目标信息的用户界面。在此情形中,HMD可以按照与图7中所描述的不同的方式来操作。如果在维持与触敏区域的接触的同时控制输入移动到第一区域21所被定位的第一方向,则HMD可以将听觉信息设置为控制目标信息。具体地,HMD可以响应于接触第三区域71并且移动到第一方向的控制输入来将镜腿部件13的触敏区域设置为经扩展的第二区域。因此,在控制输入与镜腿之间的接触被释放之前,HMD可以将经扩展的第二区域提供给用户。换言之,在维持控制输入与触敏区域之间的接触的同时,HMD可以响应于在第一区域、第二区域、以及第三区域中移动的控制输入72来控制听觉信息(它是控制目标信息)的输出。
如果在维持与触敏区域的接触的同时控制输入移动到第二区域22所被定位的第二方向,则HMD可以将视觉信息设置为控制目标信息。具体地,HMD可以响应于接触第三区域71并且移动到第二方向的控制输入来将镜腿部件13的触敏区域设置为经扩展的第一区域。因此,在控制输入与镜腿之间的接触被释放之前,HMD可以将经扩展的第一区域提供给用户。换言之,在维持控制输入与触敏区域之间的接触的同时,HMD可以响应于在第一区域、第二区域、以及第三区域中移动的控制输入72来控制视觉信息(它是控制目标信息)的输出。
图8是根据本说明书的一个实施例的HMD的框图。HMD可包括显示单元101、音频输出单元102、传感器单元103、以及控制器105。根据一实施例,在一可任选配置中,HMD可进一步包括触觉反馈单元104。
显示单元101可显示视觉信息。显示单元101可以在执行视频呼叫的情形中显示另一方的图像。并且,显示单元101可以显示图片或数字内容。显示单元可包括分别对应于用户的左眼和右眼的第一显示单元和第二显示单元。显示单元可进一步包括投影仪。
根据一实施例,显示单元101可包括从由以下各项构成的组中选择的至少一项:有机发光二极管(OLED)、液晶显示器(LCD)、电子墨水、投影仪、以及柔性显示器。
HMD可包括音频输出单元102。音频输出单元可以将电信号转换成音频信号并且可以输出该音频信号。例如,如果HMD执行视频呼叫或语音呼叫,则音频输出单元输出呼叫的另一方的语音,并且接着可以能够将该语音递送到用户。并且,HMD可以播放音乐并且可以播放通知声音或警告声音。HMD可在耳朵部分部件或镜腿部件中包括音频输出单元。
传感器单元103可以位于镜腿部件处并且可包括触敏区域。传感器单元103可包括向其输入控制视觉信息的输出的第一控制输入的第一区域,以及向其输入控制听觉信息的输出的第二控制输入的第二区域。根据一实施例,传感器单元103可进一步包括位于第一区域与第二区域之间的第三区域。传感器单元103可以检测接触各个区域中的每一个区域的控制输入,并且检测检测到的控制输入与触敏区域之间的接触是否被维持。传感器单元103可以将关于在每一个区域中检测到的控制输入的信息递送到控制器。
触觉反馈单元104可以响应于控制输入来生成触觉反馈。触觉反馈单元104可以响应于被设置为控制目标信息的信息类型来生成触觉反馈。触觉反馈单元104在被配置成在触敏区域之中检测用于视觉信息的控制输入的第一区域中生成第一触觉反馈,并且可以在被配置成检测用于听觉信息的控制输入的第二区域中生成第二触觉反馈。如果在维持与触敏区域的接触的同时在第一区域中检测到的控制输入移动到第二区域,则触觉反馈单元104可以维持用于第一区域和第二区域的第一触觉反馈。并且,如果在维持与传感器单元的接触的同时在第二区域中检测到的控制输入移动到第一区域,则触觉反馈单元104可以维持用于第一区域和第二区域的第二触觉反馈。并且,触觉反馈单元104可以响应于所显示的视觉信息的属性来生成第一触觉反馈。具体地,HMD可以响应于视觉信息的形状、位置、大小以及纹理中的至少一项来生成第一触觉反馈。并且,触觉反馈单元104可以响应于所输出的听觉信息的属性来生成第二触觉反馈。具体地,HMD可以响应于听觉信息的步调、音量、以及节奏中的至少一项来生成第二触觉反馈。
在以下描述中描述了一种生成触觉反馈的方法,该触觉反馈由触觉反馈单元104向用户生成。触觉反馈单元104可以使用微振动致动器或超声振动致动器将触觉反馈递送到用户手指。触觉反馈单元104可以控制振动频率和振动大小。因此,触觉反馈单元可以控制递送到用户手指的触觉反馈的强度。
根据一不同的实施例,触觉反馈单元104可以通过生成微电流将触觉反馈递送到用户。触觉反馈单元104可以控制电流的强度以及电流的生成周期。因此,用户能够感觉到不同的触觉。
并且,触觉反馈单元104可以使用超声共振来生成触觉反馈。触觉反馈单元104生成多个超声波,并且接着使用户手指与多个超声波共振以生成触觉反馈。触觉反馈单元104可以按照控制共振频率的大小以及共振生成周期的方式来生成彼此不同的触觉反馈。根据一实施例,上述显示单元101和触觉反馈单元可以按照被集成到触觉显示单元的方式被设计。
控制器105可以使用从传感器单元103递送的信息来控制显示单元101、音频输出单元102、传感器单元103、以及触觉反馈单元104。控制器105可以接收关于来自传感器单元103的控制输入的接触的信息。
如先前在图2到图5中所提及的,控制器105可以根据控制输入在镜腿部件的触敏区域中被检测到的位置来设置控制目标信息。并且,控制器105可以控制根据检测到的控制输入设置的控制目标信息的输出。控制器105可以将位于镜腿部件处的触敏区域划分为第一区域和第二区域。控制器105可以基于第一区域中检测到的控制输入来控制视觉信息的输出。控制器105可以将镜腿部件之中毗邻显示部件的区域设置为第一区域。并且,控制器105可以基于第二区域中检测到的控制输入来控制听觉信息的输出。控制器105可以将镜腿部件之中毗邻耳朵部分部件的区域设置为第二区域。
如先前在图6中所提及的,控制器105可以根据输出的信息来设置控制目标信息。控制器105可以根据在镜腿部件的触敏区域中检测到的控制输入来设置控制目标信息。如果输出的信息仅包括视觉信息,则控制器105可以将视觉信息设置为控制目标信息。控制器105可以根据触敏区域中检测到的控制输入来控制视觉信息。与此不同的是,如果输出的信息仅包括听觉信息,则控制器105可以将听觉信息设置为控制目标信息。控制器105可以根据触敏区域中检测到的控制输入来控制听觉信息。
如先前在图7中提及的,控制器105可以将触敏区域划分为第一区域、第二区域以及第三区域。控制器105可以将第三区域设置在第一区域和第二区域之间。如果控制输入在第三区域中被检测到,则控制器105可以基于控制输入的移动方向来设置控制目标信息。如果控制输入在第三区域中被检测到,则控制器105可以根据是否显示了被配置成设置控制目标信息的用户界面来不同地操作。
图8是根据本说明书的一个实施例的HMD的框图。被表示为分开的各个框按照在逻辑上区分的方式被描绘成HMD的元素。因而,根据HMD的设计,HMD的上述元素可以装备有单个芯片或多个芯片。
图9是根据本说明书的一个实施例的HMD的操作流程图。HMD可以经由显示单元[S10]输出视觉信息。如先前在图1和图3中提及的,HMD可以使用显示部件中包括的显示单元来显示视觉信息。HMD可以显示视频、数字信息、应用执行屏幕等。用户可以通过眼睛检查所显示的视觉信息。
HMD可以经由音频输出单元[S20]输出听觉信息。如先前在图1和图5中提及的,HMD可以使用耳朵部分部件中包括的音频输出单元来输出听觉信息。HMD可以输出音乐、警告、在执行语音呼叫的情形中另一方的语音、或通知声音。用户可以通过用户耳朵检查输出的听觉信息。
HMD可以检测触摸HMD的镜腿的第一区域或第二区域的控制输入[S30]。如先前在图2到图5中提及的,HMD可以将镜腿部件的触敏区域划分为第一区域和第二区域。HDM可以将镜腿部件之中毗邻显示部件的区域设置为第一区域。并且,HMD可以将镜腿部件之中毗邻耳朵部分部件的区域设置为第二区域。HMD可以使用传感器单元来检测第一区域或第二区域中的控制输入。HMD可以使用电容式或电阻式触摸传感器来检测用户的触摸输入。
如果控制输入在第一区域中被检测到,则HMD可以将视觉信息设置为控制目标信息[S40]。如果控制输入在第一区域中被检测到,则HMD可以将显示单元所显示的视觉信息或者能够被显示单元显示的视觉信息设置为控制目标信息。HMD可以维持所设置的控制目标信息,直到控制输入与镜腿部件的触敏区域之间的接触被释放。具体地,HMD可以将视觉信息维持为控制目标信息,直到在第一区域中检测到的控制输入的接触被终止。尽管在维持接触的同时在第一区域中检测到的控制输入移动到第二区域,HMD可以将视觉信息维持为控制目标信息。如果控制输入与触敏区域之间的接触被释放,则当输入下一控制输入时HMD可以重置控制目标信息。具体地,在接触被释放之后检测到第一控制输入的情形中,如果第一控制输入在第一区域中被检测到,则HMD将视觉信息重置为控制目标信息。如果第一控制输入在第二区域中被检测到,则HMD可以将听觉信息重置为控制目标信息。
并且,HMD可以在当前步骤中生成针对检测到的控制输入的触觉反馈。HMD在第一区域中生成第一触觉反馈,并且接着可以能够向用户通知该用户控制视觉信息。
如果控制输入在第二区域中被检测到,则HMD可以将听觉信息设置为控制目标信息[S50]。如果控制输入在第二区域中被检测到,则HMD可以将音频输出单元所输出的听觉信息或者能够被音频输出单元输出的听觉信息设置为控制目标信息。HMD可以维持所设置的控制目标信息,直到控制输入与镜腿部件的触敏区域之间的接触被释放。具体地,HMD可以将听觉信息维持为控制目标信息,直到在第二区域中检测到的控制输入的接触被终止。尽管在维持接触的同时在第一区域中检测到的控制输入移动到第二区域,HMD可以将视觉信息维持为控制目标信息。如果控制输入与触敏区域之间的接触被释放,则当输入下一控制输入时HMD可以重置控制目标信息。HMD在第二区域中生成第二触觉反馈,并且接着可以能够向用户通知该用户控制视觉信息。
HDM可以根据控制输入的移动属性来控制所设置的控制目标信息的输出,该控制输入在维持与HMD镜腿的接触的同时在第一区域和第二区域中移动[S60]。HMD控制根据控制输入的移动属性配置的所设置的控制目标信息的输出。在此情形中,控制输入的移动属性可包括控制输入的移动方向、速度、以及路径中的至少一项。例如,如果控制目标信息对应于电视节目(它是视觉信息),HMD可以响应于控制输入的移动方向来切换电视节目的频道。并且,如果控制目标信息对应于音乐(它是听觉信息),则HMD可以响应于控制输入的速度来不同地应用音量控制的改变速度或改变步骤。
并且,HMD可以在当前步骤中生成针对检测到的控制输入的触觉反馈。HMD可以响应于所设置的控制目标信息来生成触觉反馈。换言之,如果所设置的控制目标信息对应于视觉信息,则HMD可以响应于视觉信息的形状、位置、大小以及纹理中的至少一项来生成第一触觉反馈。并且,如果所设置的控制目标信息对应于听觉信息,则HMD可以响应于听觉信息的步调、音量、以及节奏中的至少一项来生成第二触觉反馈。
如果控制输入与HMD镜腿之间的接触被释放,则HMD可以终止对所设置的控制目标信息的输出的控制[S70]。HMD可以检测控制输入与镜腿部件的触敏区域之间的接触被终止。如果接触被终止,则HMD可以终止对所设置的控制目标信息的输出的控制。并且,如果接触被终止,则HMD释放对控制目标信息的配置设置。当下一控制输入被输入时,HMD可以重置控制目标信息。
如以上描述中提及的,根据本说明书的HMD根据检测到的控制输入的位置来确定控制目标信息,并且接着可以能够根据所确定的控制目标信息来重置触敏区域。通过这么做,HMD可以使用包括有限空间的触敏区域来控制偏好的信息。
对本领域的技术人员而言,显然可对本说明书作出各种修改或变化,而不背离本发明的精神或范围。因此,假设本说明书的这些修改或变化落入所附权利要求书及其等同体的范围内的情况下,本发明旨在覆盖这些修改和变化。
本发明的模式
各种实施例已按照实现本发明的最佳模式来被描述。
对本领域的技术人员而言,显然可对本发明作出各种修改或变化,而不背离本发明的精神或范围。因此,假设本发明的这些修改或变化落入所附权利要求书及其等同体的范围内的情况下,本发明旨在覆盖这些修改和变化。
工业实用性
如上所述,本发明可完全地或部分地适用于各电子设备。

Claims (18)

1.一种头戴式显示器HMD,包括:
显示单元,被配置成输出视觉信息;
音频输出单元,被配置成输出听觉信息;
传感器单元,被配置成通过被定位在HMD的镜腿处来检测控制输入;以及
控制器,被配置成根据控制输入在第一区域或第二区域之中被检测到的区域来控制控制目标信息的输出,
其中所述控制器被进一步配置成:
如果所述控制输入在所述传感器单元的第一区域中被检测到,则将视觉信息设置为控制目标信息,以及
如果所述控制输入在所述传感器单元的第二区域中被检测到,则将听觉信息设置为控制目标信息,
根据所述控制输入的移动属性来控制所设置的控制目标信息的输出,所述控制输入在维持与所述传感器单元的接触的同时在第一区域和第二区域中移动,以及
如果所述控制输入与所述传感器单元之间的接触被释放,则终止对所设置的控制目标信息的输出的控制,以及
其中第一区域对应于镜腿中毗邻显示单元的区域,并且其中第二区域对应于镜腿中毗邻音频输出单元的区域;
其中所述传感器单元被配置成包括在第一区域与第二区域之间的第三区域,
其中如果所述控制输入在第三区域中被检测到,则所述控制器被配置成显示用于选择视觉信息或听觉信息的用户界面,
其中如果在维持与所述传感器单元的接触的同时所述控制输入移动到第一区域被定位的第一方向,则所述控制器被配置成将视觉信息设置为控制目标信息,以及
其中如果在维持与所述传感器单元的接触的同时所述控制输入移动到第二区域被定位的第二方向,则所述控制器被配置成将听觉信息设置为控制目标信息。
2.如权利要求1所述的头戴式显示器,其特征在于,在所述控制输入与所述传感器单元之间的接触被维持的同时,所述控制器被配置成响应于所述控制输入来控制所设置的控制目标信息的输出,所述控制输入在第一区域、第二区域、以及第三区域中移动。
3.如权利要求1所述的头戴式显示器,其特征在于,当所述控制输入在第三区域中被检测到时,如果在维持与所述传感器单元的接触的同时所述控制输入移动到第一区域被定位的第一方向,则所述控制器被配置成将听觉信息设置为控制目标信息,以及
如果在维持与所述传感器单元的接触的同时所述控制输入移动到第二区域被定位的第二方向,则所述控制器被配置成将视觉信息设置为控制目标信息。
4.如权利要求1所述的头戴式显示器,其特征在于,如果视觉信息被显示并且听觉信息未被输出,则所述控制器被配置成根据在第一区域或第二区域中检测到的控制输入来控制视觉信息的输出。
5.如权利要求1所述的头戴式显示器,其特征在于,如果听觉信息被输出并且视觉信息未被显示,则所述控制器被配置成根据在第一区域或第二区域中检测到的控制输入来控制听觉信息的输出。
6.如权利要求1所述的头戴式显示器,其特征在于,如果在所述控制输入与所述传感器单元之间的接触被释放之后第一控制输入在第一区域或第二区域中被检测到,则所述控制器被配置成根据第一控制输入被检测到的区域来重置控制目标信息。
7.如权利要求1所述的头戴式显示器,其特征在于,如果控制输入在第一区域中被检测到,则所述控制器被配置成将视觉信息设置成控制目标信息,并且被配置成根据控制输入的移动属性来控制视觉信息的菜单、移动、大小、位置、以及回放中的至少一项。
8.如权利要求1所述的头戴式显示器,其特征在于,如果控制输入在第二区域中被检测到,则所述控制器被配置成将听觉信息设置成控制目标信息,并且被配置成根据控制输入的移动属性来控制听觉信息的音量、平衡、以及回放中的至少一项。
9.如权利要求1所述的头戴式显示器,其特征在于,控制输入的移动属性包括控制输入的移动方向、速度、以及路径中的至少一项。
10.如权利要求1所述的头戴式显示器,其特征在于,第一区域和第二区域位于所述镜腿的表面处,并且其中第一区域和第二区域彼此毗邻。
11.如权利要求1所述的头戴式显示器,其特征在于,进一步包括被配置成生成触觉反馈的触觉反馈单元,其中所述控制器被配置成在第一区域中生成第一触觉反馈并且被配置成在第二区域中生成第二触觉反馈。
12.如权利要求11所述的头戴式显示器,其特征在于,如果在维持与所述传感器单元的接触的同时在第一区域中检测到的控制输入移动到第二区域,则所述控制器被配置成在第一区域和第二区域中生成第一触觉反馈,以及
如果在维持与所述传感器单元的接触的同时在第二区域中检测到的控制输入移动到第一区域,则所述控制器被配置成在第一区域和第二区域中生成第二触觉反馈。
13.如权利要求11所述的头戴式显示器,其特征在于,所述控制器被配置成响应于视觉信息的属性来生成第一触觉反馈。
14.如权利要求13所述的头戴式显示器,其特征在于,视觉信息的属性包括视觉信息的形状、位置、大小以及纹理中的至少一项。
15.如权利要求11所述的头戴式显示器,其特征在于,所述控制器被配置成响应于听觉信息的属性来生成第二触觉反馈。
16.如权利要求15所述的头戴式显示器,其特征在于,听觉信息的属性包括听觉信息的步调、音量、以及节奏中的至少一项。
17.如权利要求1所述的头戴式显示器,其特征在于,所述音频输出单元包括骨导扬声器。
18.一种控制头戴式显示器HMD的方法,所述方法包括以下步骤:
经由显示单元输出视觉信息;
经由音频输出单元输出听觉信息;
检测触摸HMD镜腿的第一区域或第二区域的控制输入;
如果控制输入在第一区域中被检测到,则将视觉信息设置为控制目标信息;
如果控制输入在第二区域中被检测到,则将听觉信息设置为控制目标信息;
根据控制输入的移动属性来控制所设置的控制目标信息的输出,所述控制输入在维持与HMD镜腿的接触的同时在第一区域和第二区域中移动;以及
如果所述控制输入与HMD镜腿之间的接触被释放,则终止对所设置的控制目标信息的输出的控制,
其中第一区域对应于镜腿中毗邻显示单元的区域,并且其中第二区域对应于镜腿中毗邻音频输出单元的区域;
其中如果所述控制输入在第一区域与第二区域之间的第三区域中被检测到,则显示用于选择视觉信息或听觉信息的用户界面,
其中如果在维持与所述HMD镜腿的接触的同时所述控制输入移动到第一区域被定位的第一方向,则将视觉信息设置为控制目标信息,以及
其中如果在维持与所述HMD镜腿的接触的同时所述控制输入移动到第二区域被定位的第二方向,则将听觉信息设置为控制目标信息。
CN201380078511.9A 2013-07-26 2013-12-23 头戴式显示器以及用于控制头戴式显示器的方法 Active CN105745566B (zh)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201361858623P 2013-07-26 2013-07-26
US61/858,623 2013-07-26
KR1020130114491A KR102028761B1 (ko) 2013-07-26 2013-09-26 헤드 마운티드 디스플레이 및 그 제어 방법
KR10-2013-0114491 2013-09-26
US14/094,489 US8823603B1 (en) 2013-07-26 2013-12-02 Head mounted display and method of controlling therefor
US14/094,489 2013-12-02
PCT/KR2013/012015 WO2015012458A1 (en) 2013-07-26 2013-12-23 Head mounted display and method of controlling therefor

Publications (2)

Publication Number Publication Date
CN105745566A CN105745566A (zh) 2016-07-06
CN105745566B true CN105745566B (zh) 2018-05-29

Family

ID=52488901

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380078511.9A Active CN105745566B (zh) 2013-07-26 2013-12-23 头戴式显示器以及用于控制头戴式显示器的方法

Country Status (5)

Country Link
US (1) US8823603B1 (zh)
EP (1) EP3025185B1 (zh)
KR (1) KR102028761B1 (zh)
CN (1) CN105745566B (zh)
WO (1) WO2015012458A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101839441B1 (ko) * 2014-09-17 2018-03-16 (주)에프엑스기어 두드림에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램
US9596536B2 (en) * 2015-07-22 2017-03-14 Google Inc. Microphone arranged in cavity for enhanced voice isolation
US10082953B2 (en) * 2015-08-21 2018-09-25 Autodesk, Inc. Techniques for interacting with wearable devices
CN106267552B (zh) 2016-07-25 2020-03-10 京东方科技集团股份有限公司 一种穿戴设备、虚拟现实方法和终端系统
KR102591807B1 (ko) * 2016-11-21 2023-10-23 한국전자통신연구원 촉감자극을 생성하는 방법 및 장치
KR20190100714A (ko) * 2018-02-21 2019-08-29 삼성전자주식회사 정보 표시 방법 및 이를 위한 전자 장치
WO2024053768A1 (ko) * 2022-09-08 2024-03-14 엘지전자 주식회사 안면 디스플레이 장치
WO2024071903A1 (ko) * 2022-09-26 2024-04-04 삼성전자 주식회사 헤드 마운트 디스플레이 장치 및 그의 착용 상태 감지 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1637975A1 (en) * 2004-09-20 2006-03-22 Samsung Electronics Co., Ltd. Apparatus and method for inputting keys using biological signals in head mounted display information terminal
CN102893236A (zh) * 2010-07-20 2013-01-23 英派尔科技开发有限公司 增强现实临近检测

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1175140A (ja) 1997-08-27 1999-03-16 Olympus Optical Co Ltd 頭部装着型映像表示装置および映像表示制御装置
WO1999023524A1 (en) * 1997-10-30 1999-05-14 The Microoptical Corporation Eyeglass interface system
US20120105740A1 (en) 2000-06-02 2012-05-03 Oakley, Inc. Eyewear with detachable adjustable electronics module
US20070136064A1 (en) * 2003-04-16 2007-06-14 Carroll David W Mobile personal computer with movement sensor
JP2005070308A (ja) 2003-08-22 2005-03-17 Matsushita Electric Ind Co Ltd 頭部装着型表示装置
US20060052146A1 (en) 2004-09-09 2006-03-09 Shu-Fong Ou Heated mounted display device with mobile phone functions
KR100713849B1 (ko) * 2005-06-14 2007-05-04 삼성전자주식회사 디스플레이장치 및 그 제어방법
US20070052672A1 (en) * 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
US20070222767A1 (en) * 2006-03-22 2007-09-27 David Wang Glide touch sensor based interface for navigation infotainment systems
US20070236468A1 (en) * 2006-03-30 2007-10-11 Apaar Tuli Gesture based device activation
KR100774927B1 (ko) * 2006-09-27 2007-11-09 엘지전자 주식회사 이동통신 단말기, 메뉴 및 아이템 선택방법
US20080130910A1 (en) * 2006-11-30 2008-06-05 Motorola, Inc. Gestural user interface devices and methods for an accessory to a wireless communication device
JP5217585B2 (ja) 2008-04-09 2013-06-19 セイコーエプソン株式会社 頭部装着型画像表示装置
CN101645197A (zh) * 2008-08-06 2010-02-10 鸿富锦精密工业(深圳)有限公司 触摸式多功能遥控装置及方法
CN103119512A (zh) 2008-11-02 2013-05-22 大卫·乔姆 近眼式显示系统和装置
WO2011097564A1 (en) * 2010-02-05 2011-08-11 Kopin Corporation Touch sensor for controlling eyewear
US8203502B1 (en) 2011-05-25 2012-06-19 Google Inc. Wearable heads-up display with integrated finger-tracking input sensor
US8217856B1 (en) * 2011-07-27 2012-07-10 Google Inc. Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view
US20130176626A1 (en) * 2012-01-05 2013-07-11 Google Inc. Wearable device assembly with input and output structures
US20130307790A1 (en) * 2012-05-17 2013-11-21 Nokia Corporation Methods And Apparatus For Device Control

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1637975A1 (en) * 2004-09-20 2006-03-22 Samsung Electronics Co., Ltd. Apparatus and method for inputting keys using biological signals in head mounted display information terminal
CN102893236A (zh) * 2010-07-20 2013-01-23 英派尔科技开发有限公司 增强现实临近检测

Also Published As

Publication number Publication date
US8823603B1 (en) 2014-09-02
CN105745566A (zh) 2016-07-06
EP3025185B1 (en) 2018-02-07
KR20150012972A (ko) 2015-02-04
EP3025185A4 (en) 2016-08-03
EP3025185A1 (en) 2016-06-01
KR102028761B1 (ko) 2019-10-04
WO2015012458A1 (en) 2015-01-29

Similar Documents

Publication Publication Date Title
CN105745566B (zh) 头戴式显示器以及用于控制头戴式显示器的方法
US11520376B2 (en) Wearable electronic device and display method of wearable electronic device according to sensor data
JP6703044B2 (ja) 視線に応じた触覚効果を提供するシステム、方法及び電子装置
US10620699B2 (en) Head mounted display, mobile information terminal, image processing apparatus, display control program, display control method, and display system
US20140240245A1 (en) Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
KR20140128306A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
CN112136096B (zh) 将物理输入设备显示为虚拟对象
JP2015176186A (ja) 情報処理装置、情報処理方法、及び情報処理システム
EP3086216A1 (en) Mobile terminal and controlling method thereof
JP6099948B2 (ja) 電子機器及び制御プログラム並びに表示制御方法
KR20200051937A (ko) 가상현실 환경에서 사용자의 동작에 따른 gui 객체의 자동 표시방법 및 이를 이용한 vr 시스템
WO2016052510A1 (ja) 電子機器
US9507419B2 (en) Display device generating tactile feedback and method for controlling the same
JP2018022426A (ja) 表示装置、頭部装着型表示装置、及び、表示装置の制御方法
CN109145849A (zh) 一种用于终端设备的指纹成像方法及装置
US20170316117A1 (en) Controlling the output of information using a computing device
JP2013168093A (ja) 画像表示装置
KR101370547B1 (ko) 진동 패턴 생성 방법 및 장치
JP5292244B2 (ja) 入力装置
JP2014160968A (ja) 携帯情報端末
KR20160029525A (ko) 사용자 인터페이스를 제어하는 방법 및 이를 제공하는 전자 장치
US20240036711A1 (en) Controlling an Interface Using Gaze Input
US20230315202A1 (en) Object Engagement Based on Finger Manipulation Data and Untethered Inputs
US20230376110A1 (en) Mapping a Computer-Generated Trackpad to a Content Manipulation Region
CN117940964A (zh) 手工制作的增强现实体验

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant