CN105745568A - 用于在可头戴式设备上执行多触摸操作的系统和方法 - Google Patents
用于在可头戴式设备上执行多触摸操作的系统和方法 Download PDFInfo
- Publication number
- CN105745568A CN105745568A CN201480063236.8A CN201480063236A CN105745568A CN 105745568 A CN105745568 A CN 105745568A CN 201480063236 A CN201480063236 A CN 201480063236A CN 105745568 A CN105745568 A CN 105745568A
- Authority
- CN
- China
- Prior art keywords
- input interface
- input
- camera
- housing
- disposed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 49
- 230000009471 action Effects 0.000 claims abstract description 121
- 230000004044 response Effects 0.000 claims abstract description 43
- 230000006870 function Effects 0.000 claims description 18
- 230000001105 regulatory effect Effects 0.000 claims description 10
- 238000003860 storage Methods 0.000 claims description 2
- 230000001052 transient effect Effects 0.000 claims 5
- 210000003811 finger Anatomy 0.000 description 100
- 230000000875 corresponding effect Effects 0.000 description 37
- 210000003813 thumb Anatomy 0.000 description 17
- 210000005224 forefinger Anatomy 0.000 description 13
- 210000003128 head Anatomy 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000000007 visual effect Effects 0.000 description 7
- 210000000988 bone and bone Anatomy 0.000 description 6
- 239000011521 glass Substances 0.000 description 6
- 210000004247 hand Anatomy 0.000 description 5
- 239000000463 material Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 239000011248 coating agent Substances 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000000162 simple eye Anatomy 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 208000010201 Exanthema Diseases 0.000 description 1
- 241000013582 Pitohui Species 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000000959 ear middle Anatomy 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 201000005884 exanthem Diseases 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000001404 mediated effect Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 206010037844 rash Diseases 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000012536 storage buffer Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000002463 transducing effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0176—Head mounted characterised by mechanical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03547—Touch pads, in which fingers can move on a surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0149—Head-up displays characterised by mechanical features
- G02B2027/0161—Head-up displays characterised by mechanical features characterised by the relative positioning of the constitutive elements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
这里所描述的实施例可以提供被用于执行多触摸操作的输入接口的配置。示例设备可以涉及:(a)壳体,被布置在可头戴式设备上,(b)第一输入接口,被布置在壳体的上表面或下表面上,(c)第二输入接口,被布置在与第一输入接口相对的、壳体的表面上,以及(d)控制系统,被配置为:(i)从第一输入接口接收第一输入数据,其中,第一输入数据与第一输入动作相对应,并且作为响应,使得相机根据第一输入动作来执行第一操作,以及(2)从第二输入接口接收第二输入数据,其中,第二输入数据与第二输入接口上的(一个或多个)第二输入动作相对应,以及作为响应,使得相机执行第二操作。
Description
技术领域
除非本文另外指出,否则本部分中描述的材料并不是本申请中的权利要求的现有技术,并且并不因为被包括在本部分中就被承认为是现有技术。
背景技术
在现代生活的许多方面中,诸如个人计算机、膝上型计算机、平板式计算机、蜂窝式电话以及无数类型的能够进行因特网连接的设备的计算设备越来越流行。随着时间的推移,这些设备向用户提供信息的方式正在变得更加智能、更加有效、更加直观和/或更不冒失。
对于计算硬件、外围设备的小型化以及传感器、检测器、和图像和音频处理器以及其他技术的小型化的趋势帮助打开了有时被称为“可穿戴计算”的领域。具体地,在图像和可视化处理和制作领域中,已经可以考虑以下可穿戴显示器:该可穿戴显示器将图形显示器放置为足够接近穿戴者的(或用户的)(一只或两只)眼睛,使得所显示的图像呈现为正常大小的图像,诸如可能被显示在传统图像显示器设备上的。相关技术可以被称为“近眼显示器”。
具有近眼显示器的可穿戴计算设备还可以被称为“可头戴式显示器”(HMD)、“头戴式显示器”、“头戴式设备”或“可头戴式设备”。可头戴式显示器将一个或多个图形显示器放置为接近穿戴者的一只眼睛或两只眼睛。为了在显示器上生成图像,计算机处理系统可以被使用。这样的显示器可以占据穿戴者的整个视场,或仅占据穿戴者的部分视场。此外,头戴式显示器可以在尺寸方面发生变化,例如,采取诸如眼镜样式显示器的更小的形式或者诸如头盔的更大的形式。
可穿戴显示器的新兴的和预期的使用包括在其中用户与增强现实或虚拟现实实时地交互的应用。这样的应用可能是任务关键的或安全关键的,诸如在公共安全和航空设定中。应用还可以是娱乐性的,诸如交互游戏。很多其他应用也是可以的。
发明内容
示例实施例可以帮助提供计算设备中的输入接口的人体工程学配置,诸如可头戴式显示器(HMD)。具体地,第一输入接口可以被布置在附接到HMD或为HMD的一部分的壳体的顶部表面、底部表面或侧表面上。第二输入接口可以被布置在与第一输入接口相对的壳体的表面上。控制系统可以与第一输入接口和第二输入接口通信,并且可以从接口中的一个或两个接收与在接口处的输入相对应的数据。然后,控制系统可以响应于所接收到的数据使得HMD的相机执行一个或更多个操作。
在一个方面中,设备可以包括:(a)可头戴式框架,包括被布置在至少一个侧臂上的壳体,(b)第一输入接口,被布置在壳体的上表面或下表面上,(c)第二输入接口,被布置在与第一输入接口相对的、壳体的表面上,以及(d)控制系统,被配置为:(1)从第一输入接口接收第一输入数据,其中,第一输入数据与第一输入动作相对应;以及响应于第一输入数据的接收,使得设备的相机根据第一输入动作来执行第一相机操作,以及(2)从第二输入接口接收第二输入数据,其中,第二输入数据与第二输入接口上的一个或更多个第二输入动作相对应;以及响应于第二输入数据的接收,使得相机执行与第一相机操作不同的第二相机操作。
在另一个方面中,方法可以涉及:(a)从第一输入接口接收与第一输入动作相对应的第一输入数据,其中,第一输入接口被布置在壳体的上表面或下表面上,以及其中,壳体被布置在设备的可头戴式框架的至少一个侧臂上,(b)响应于第一输入数据的接收,使得设备的相机根据第一输入动作来执行第一相机操作,(c)从第二输入接口接收与第二输入动作相对应的第二输入数据,其中,第二输入接口被布置在与第一输入接口相对的、壳体的表面上,以及(d)响应于第二输入数据的接收,使得相机执行与第一相机操作不同的第二相机操作。
在另一个方面中,一种具有存储在其中的指令的非暂态计算机可读介质,该指令通过计算设备可执行以使得计算设备执行以下功能,功能包括:(a)从第一输入接口接收与第一输入动作相对应的第一输入数据,其中,第一输入接口被布置在壳体的上表面或下表面上,以及其中,壳体被布置在设备的可头戴式框架的至少一个侧臂上,(b)响应于第一输入数据的接收,使得设备的相机根据第一输入动作来执行第一相机操作,(c)从第二输入接口接收与第二输入动作相对应的第二输入数据,其中,第二输入接口被布置在与第一输入接口相对的、壳体的表面上,以及(d)响应于第二输入数据的接收,使得相机执行与第一相机操作不同的第二相机操作。
在又一个方面中,系统可以包括:(a)用于从第一输入接口接收与第一输入动作相对应的第一输入数据的装置,其中,第一输入接口被布置在壳体的上表面或下表面上,以及其中,壳体被布置在设备的可头戴式框架的至少一个侧臂上,(b)用于响应于第一输入数据的接收,使得设备的相机根据第一输入动作来执行第一相机操作的装置,(c)用于从第二输入接口接收与第二输入动作相对应的第二输入数据的装置,其中,第二输入接口被布置在与第一输入接口相对的、壳体的表面上,以及(d)响应于第二输入数据的接收,使得相机执行与第一相机操作不同的第二相机操作的装置。
本领域普通技术人员通过阅读以下详细描述并在适当时参考附图,将清楚这些以及其他方面、优点和替换方案。
附图说明
图1A示出了根据示例实施例的可穿戴计算系统。
图1B示出了图1A中所示出的可穿戴计算设备的替选视图。
图1C示出了根据示例实施例的另一个可穿戴计算系统。
图1D示出了根据示例实施例的另一个可穿戴计算系统。
图1E至图1G是由穿戴者所穿戴的、在图1D中所示出的可穿戴计算系统的简化示意图。
图2是根据示例实施例的计算设备的简化框图。
图3A示出了根据示例实施例的示例壳体配置。
图3B示出了根据示例实施例的另一个示例壳体配置。
图4是示出了根据示例实施例的方法的流程图。
图5A示出了根据示例实施例的示例壳体的第一示例使用。
图5B示出了根据示例实施例的示例壳体的第二示例使用。
图5C示出了根据示例实施例的示例壳体的第三示例使用。
图6A示出了根据示例实施例的、与图5A中所示的示例壳体的使用相对应的第一示例相机预览。
图6B示出了根据示例实施例的、与图5B中所示的示例壳体的使用相对应的第二示例相机预览。
图6C示出了根据示例实施例的、与图5C中所示的示例壳体的使用相对应的第三示例相机预览。
具体实施方式
这里描述了示例方法和系统。应当理解,词语“示例”和“示例性的”在这里被用于意指“用作示例、实例或示意”。在这里被描述为“示例”和“示例性的”任何实施例或特征不必被解释为相较于其他实施例或特征是优选的或有利的。在下面的详细的描述中,参考形成了该描述的一部分的附图。在附图中,相似的符号通常标识相似的组件,除非在上下文中指示并非如此。可以利用其他实施例,可以进行其他改变,而不脱离这里所提出的主题的精神和范围。
这里所描述的示例实施例不意欲为限制性的。将容易理解如在这里通常所描述的并且在附图中所示出的本公开的各方面可以以各种不同的配置被布置、替换、组合、分离和设计,所有这些都在这里设想到了。
I.概述
在包括HMD(可头戴式设备)的各种计算设备上可以找到一个或更多个输入接口。通常,输入接口可以被配置为部分地基于输入接口被布置在计算设备上的哪里来检测输入的有限集合。在一些应用中,以人体工程学的方式来布置多个输入接口可能是有用的,以允许用户执行以不同的布置则否则可能难以执行的操作。
示例实施例可以提供被布置在壳体上的多个输入接口,该壳体被布置在HMD上。可以以能够帮助用户便利地操作HMD的多个人体工程学配置来布置多个输入接口。在一些实施例中,第一输入接口可以被布置在壳体的第一表面上,并且第二输入接口可以被布置在与第一表面相对的、壳体的第二表面上。第一表面可以是顶部表面、底部表面或第一侧表面,并且第二表面可以是底部表面、顶部表面或第二侧表面以及其他可能性。
输入接口可以是诸如手指可操作触摸传感器的若干类型的输入接口中的一个或组合。输入接口可以检测输入动作,并且响应于所检测到的输入动作来向HMD的控制系统传送数据。然后,控制系统可以响应于所接收到的数据来执行许多操作。
在示例实施例中,输入接口可以接收一系列输入动作,并且相应地,向控制系统传送一系列数据。进而,控制系统可以使得设备的相机根据输入动作中的至少一个来执行第一相机操作(例如,对相机进行变焦、对相机进行对焦、调节相机设定等),并且然后使得相机响应于另一个输入动作来执行与第一相机操作不同的第二相机操作。
这样,输入接口的配置可以为用户提供用于执行相机操作以及其他示例操作的人体工程学益处。在第一输入接口被布置在底部表面上并且第二输入接口被布置在顶部表面上的一些实施例中,当用户将用户的拇指定位在第一输入接口上以用于一个控制时,用户的中指和食指可能自然地支撑在布置有第二输入接口的顶部表面上。当用户同时使用第一输入接口和第二输入接口两者时,用户可以感觉仿佛用户自然地挤压(squeeze)壳体,使得拇指与食指/中指相对。相应地,这可以为用户提供HMD的更大的控制和/或更精细调谐的控制。
这里所描述的示例实施例的其他应用是可以的。例如,输入接口的人体工程学配置可以被用于发起和调节扬声器的音量控制。在其他实例中,输入接口的人体工程学配置可以被用于控制音频播放器(例如,选择、播放、暂停或跳过歌曲)。其他应用也是可以的。
应当理解,这里所描述的以上实施例和其他被提供为示意的目的,并且不旨在为限制性的。关于以上实施例和其他实施例的变化是可能的,而不脱离通过权利要求所陈述的本发明的范围。
II.示例可穿戴计算设备
现在将更详细地描述在其中可以实施示例实施例的系统和设备。通常,示例系统可以被实施为可穿戴计算机(还被称为可穿戴计算设备)的形式或可以采取可穿戴计算机的形式。在示例实施例中,可穿戴计算机采取可头戴式设备(HMD)的形式,或包括可头戴式设备(HMD)。
示例系统还可以被实施为诸如移动电话的其他设备的形式或还可以采取诸如移动电话的其他设备的形式,以及其他可能性。此外,示例系统可以采取非暂态计算机可读介质的形式,该非暂态计算机可读介质在其上存储有程序指令,该程序指令可通过处理器执行以提供这里所描述的功能。示例系统还可以采取诸如可穿戴计算机或移动电话的设备或者这样的设备的子系统的形式,其包括其上存储有这样的程序指令的这样的非暂态计算机可读介质。
HMD通常可以是能够被穿戴在头部上并且将显示器放置在穿戴者的一只眼睛或两只眼睛之前的任何显示器设备。HMD可以采取诸如头盔或眼镜的各种形式。这样,对“眼镜”或“眼镜样式”HMD的指代应当被理解指代具有像眼镜的框架使得其可以被穿戴在头部上的HMD。此外,示例实施例可以由具有单个显示器或具有两个显示器的HMD实施或可以与具有单个显示器或具有两个显示器的HMD相关联,该HMD可以被分别地称为“单眼”HMD或“双眼”HMD。
图1A示出了根据示例实施例的可穿戴计算系统。在图1A中,可穿戴计算系统采取可头戴式设备(HMD)102(其还可以被称为头戴式显示器)的形式。然而,应当理解,示例系统和设备可以采取其他类型的设备的形式,可以被实施在其他类型的设备内,或与其他类型的设备相关联,而不脱离本发明的范围。如在图1A中所示,HMD102包括包含透镜框架104、106和中央框架支撑108的框架元件、透镜元件110、112以及延伸侧臂114、116。中央框架支撑108和延伸侧臂114、116被配置为分别经由用户的鼻子和耳朵将HMD102固定到用户的脸部。
框架元件104、106和108以及延伸侧臂114、116中的每个可由塑料和/或金属的实心结构形成,或者可由类似材料的中空结构形成以允许配线和组件互连在内部按一定路线经过HMD102。其他材料可能也是可以的。
透镜元件110、112中的每个中的一个或更多个可以由能够适当地显示投影的图像或图形的任何材料形成。透镜元件110、112中的每个可以可充分地透明以允许用户透过透镜元件看见。结合透镜元件的这两个特征可以促进增强现实或抬头显示,其中,投影的图像或图形被叠加在用户透过透镜元件感知到的真实世界视图上。
延伸侧臂114、116可以各自是分别从透镜框架104、106延伸开的突起物,并且可以被定位在用户的耳后以将HMD102固定到用户。延伸侧臂114、116还可以通过绕着用户的头部的后部延伸来将HMD102固定到用户。额外地或替换地,例如,HMD102可以连接到头戴式头盔结构或附于头戴式头盔结构内。用于HMD的其他配置也是可以的。
HMD102还可以包括机载计算系统118、图像捕获设备120、传感器122以及手指可操作触摸板124。机载计算系统118被示为定位在HMD102的延伸侧臂114上;然而,机载计算系统118可以被提供在HMD102的其他部分上或者可以被定位成远离HMD102(例如,机载计算系统118可以有线或无线地连接到HMD102)。机载计算系统118例如可以包括处理器和存储器。机载计算系统118可以被配置为接收和分析来自图像捕获设备120和手指可操作触摸板124(以及可能来自其他传感设备、用户接口或者这两者)的数据,并且生成用于由透镜元件110和112输出的图像。
图像捕获设备120可以是例如被配置为捕获静态图像和/或捕获视频的相机。在所示的配置中,图像捕获设备120被定位在HMD102的延伸侧臂114上;然而,图像捕获设备120可以被提供在HMD102的其他部分上。图像捕获设备120可以被配置为以各种分辨率或者以不同的帧率捕获图像。具有小外形参数的图像捕获设备——诸如移动电话或网络摄像头中使用的相机——例如可以被包含到HMD102的示例实施例中。
此外,虽然图1A示出了一个图像捕获设备120,但是可以使用更多个图像捕获设备,并且每个可被配置为捕获相同的视图,或者捕获不同的视图。例如,图像捕获设备120可以向着前方以捕获用户感知到的真实世界视图的至少一部分。由图像捕获设备120捕获到的这个前向图像随后可以被用于生成增强现实,其中,计算机生成的图像看起来与用户感知到的真实世界视图交互或叠加。
传感器122被示为在HMD102的延伸侧臂116上;然而,传感器122可以被定位在HMD102的其他部分上。为了示意的目的,仅一个传感器122被示出。然而,在示例实施例中,HMD102可以包括多个传感器。例如,HMD102可以包括诸如一个或更多个陀螺仪、一个或更多个加速度计、一个或更多个磁力计、一个或更多个光传感器、一个或更多个红外传感器、和/或一个或更多个麦克风的传感器122。除了这里具体地标识的传感器或对于这里具体地标识的传感器替选地,可以包括其他感测设备。
手指可操作触摸板124被示为在HMD102的延伸侧臂114上。然而,手指可操作触摸板124可以被定位在HMD102的其他部分上。另外,在HMD102上可以存在多于一个手指可操作触摸板。手指可操作触摸板124可以被用户用来输入命令。手指可操作触摸板124可以经由电容感测、电阻感测或表面声波过程以及其他可能方式来感测一个或更多个手指的压力、位置和/或移动中的至少一个。手指可操作触摸板124除了能够感测在与板表面平行或在同一平面内的方向上、在与板表面垂直的方向上或者在这两个方向上的移动,还可能能够同时地感测一个或更多个手指的移动,并且还可能能够感测施加到触摸板表面的压力的水平。在一些实施例中,手指可操作触摸板124可以由一个或多个半透明或透明绝缘层和一个或多个半透明或透明导电层形成。手指可操作触摸板124的边缘可以形成为具有凸起的、凹陷的或粗糙的表面,以在用户的手指到达手指可操作触摸板124的边缘或其他区域时向用户提供触觉反馈。如果存在多于一个手指可操作触摸板,则每个手指可操作触摸板可以被独立操作,并且可提供不同的功能。
在另外的方面中,除了经由手指可操作触摸板124所接收的用户输入或对于经由手指可操作触摸124所接收的用户输入替选地,HMD102可以被配置为以各种方式接收用户输入。例如,机载计算系统118可以实施语音到文本处理,并且利用将特定的说出的命令映射到特定的动作的语法。另外,HMD102可以包括一个或更多个麦克风,经由该麦克风可以捕获用户的语音。这样地配置的HMD102可以可操作为检测所说出的命令,并且执行与所说出的命令相对应的各种计算功能。
作为另一个示例,HMD102可以将特定的头部移动解释为用户输入。例如,当HMD102被穿戴时,HMD102可以使用一个或更多个陀螺仪和/或一个或更多个加速度计来检测头部移动。HMD102然后可以将特定的头部移动解释为用户输入,诸如点头、向上看、向下看、向左看或向右看。HMD102还可以根据移动对显示器中的图形进行平移或滚动。其他类型的动作也可以被映射到头部移动。
作为又一个示例,HMD102可以将特定的手势(例如,通过穿戴者的一只手或两只手进行的手势)解释为用户输入。例如,HMD102可以通过分析来自图像捕获设备120的图像数据来捕获手部移动,并且发起被定义为与特定的手部移动相对应的动作。
作为另一个示例,HMD102可以将眼睛移动解释为用户输入。具体地,HMD102可以包括一个或更多个向着内部的图像捕获设备和/或一个或更多个其他的向着内部的传感器(未示出),其可以被用于感测用户的眼睛的移动和/或定位。这样,特定的眼睛移动可以被映射到特定的动作。例如,特定的动作可以被定义为与特定方向上眼睛的移动、眨眼和/或使眼色以及其他可能性相对应。
HMD102还包括用于生成音频输出的扬声器125。在一个示例中,扬声器可以是骨传导扬声器的形式,其也可以被称为骨传导变换器(BCT)。扬声器125例如可以是振动变换器或响应于电音频信号输入来产生声音的电声变换器。HMD102的框架可以被设计为使得当用户穿戴HMD102时,扬声器125与穿戴者接触。可替换地,扬声器125可以被嵌入在HMD102的框架内并且被定位成使得当HMD102被穿戴时,扬声器125可以使接触穿戴者的框架的一部分振动。在任一情况中,HMD102可以被配置为向扬声器125发送音频信号,使得扬声器的振动可以直接地或间接地被传输到穿戴者的骨结构。当振动通过骨结构行进达到穿戴者的中耳中的骨头时,穿戴者可以将由BCT125所提供的振动解释为声音。
依赖于具体的实施方式,各种类型的骨传导变换器(BCT)可以被实施。通常,被布置为使HMD102振动的任何组件可以作为振动变换器而被包含。又进一步地,应当理解,HMD102可以包括单个扬声器125或多个扬声器。另外,HMD上的(一个或多个)扬声器的(一个或多个)位置可以依赖于实施方式而变化。例如,扬声器可以位于接近穿戴者的太阳穴(如所示)、在穿戴者的耳后、接近穿戴者的鼻子和/或在扬声器125可以使穿戴者的骨结构振动的任何位置处。
图1B示出了图1A中所示出的可穿戴计算设备的替选视图。如图1B所示,透镜元件110、112可以充当显示元件。HMD102可以包括第一投影仪128,该第一投影仪128耦接到延伸侧臂116的内表面并且被配置为将显示130投影到透镜元件112的内表面上。额外地或可替换地,第二投影仪132可以耦接到延伸侧臂114的内表面并被配置为将显示134投影到透镜元件110的内表面上。
透镜元件110、112可以充当光投影系统中的组合器并且可以包括涂层,该涂层反射从投影仪128、132投影到其上的光。在一些实施例中,可以不使用反射涂层(例如,当投影仪128、132是扫描激光设备时)。
在替选实施例中,也可以使用其他类型的显示元件。例如,透镜元件110、112自身可以包括:诸如电致发光显示器或液晶显示器的透明或半透明的矩阵显示器、用于将图像输送到用户的眼睛的一个或多个波导、或者能够将焦点对准的近眼图像输送到用户的其他光学元件。相对应的显示驱动器可以被部署在框架元件104、106内用于驱动这样的矩阵显示器。可替换地或额外地,可以使用激光或LED源和扫描系统来将光栅显示直接绘制到用户的一只或两只眼睛的视网膜上。其他可能性也是存在的。
图1C示出了根据示例实施例的另一个可穿戴计算系统,其采取HMD152的形式。HMD152可以包括诸如关于图1A和图1B所描述的这些的框架元件和侧臂。HMD152可以额外地包括机载计算系统154和图像捕获设备156,诸如关于图1A和图1B所描述的这些。图像捕获设备156被示为被安装在HMD152的框架上。然而,图像捕获设备156也可以被安装在其他位置。
如图1C所示,HMD152可以包括可以耦接到设备的单个显示器158。显示器158可以被形成在诸如关于图1A和图1B所描述的透镜元件的HMD152的透镜元件中的一个上,并且可以被配置为将计算机生成的图形叠加在物理世界的用户视图中。显示器158被示为被提供在HMD152的透镜的中央,然而,显示器158可以被提供在其他位置中,例如,诸如朝向穿戴者的视场的上部部分或下部部分。显示器158经由计算系统154可控制,计算系统154经由光波导160耦接到显示器158。
图1D示出了根据示例实施例的另一个可穿戴计算系统,其采取单眼HMD172的形式。HMD172可以包括侧臂173、中央框架支撑174以及具有鼻托的鼻架部175。在图1D中所示的示例中,中央框架支撑174连接侧臂173。HMD172不包括包含透镜元件的透镜框架。HMD172可以额外地包括组件壳体176,其可以包含机载计算系统(未示出)、图像捕获设备178以及用于操作图像捕获设备178(和/或用于其他目的)的按钮179。组件壳体176还可以包括其他电组件和/或可以电连接到在HMD内的其他位置处或在HMD上的电组件。HMD172还包括BCT186。
HMD172可以包括单个显示器180,其可以经由组件壳体176耦接到侧臂173中的一个。在示例实施例中,显示器180可以是透视显示器,其由玻璃和/或另外的透明或半透明的材料制成,使得穿戴者可以穿过显示器180看见他们的环境。此外,组件壳体176可以包括用于显示器180的光源(未示出)和/或将光从光源引导到显示器180的光学元件(未示出)。这样,显示器180可以包括当HMD172被穿戴时将由这样的光源所生成的光引导朝向穿戴者的眼睛的光学特征。
在另外的方面中,HMD172可以包括滑动特征184,其可以被用于调节侧臂173的长度。因此,滑动特征184可以被用于调节HMD172的合身。此外,HMD可以包括允许可穿戴者调节HMD的合身的其他特征,而不脱离本发明的范围。
图1E至图1G是由穿戴者190所穿戴的、在图1D中所示出的HMD172的简化示意图。如图1F所示,当HMD172被穿戴时,BCT186被布置为使得当HMD172被穿戴时,BCT186位于穿戴者的耳后。这样,从图1E所示的视角看去BCT186不可见。
在所示的示例中,显示器180可以被布置成使得当HMD172被穿戴时,显示器180被定位在当HMD172被穿戴时用户的眼睛之前或接近用户的眼睛。例如,显示器180可以被定位在中央框架支撑之下并且在穿戴者的眼睛的中央之上,如图1E所示。另外,在所示的配置中,显示器180可以与穿戴者的眼睛的中央偏离(例如,使得从穿戴者的视角看去,显示器180的中央被定位到穿戴者的眼睛的中央的右侧和上侧)。
如图1E至图1G所示地配置的显示器180,当HMD172被穿戴时可以位于穿戴者190的视场的周围。因此,如图1F所示,当穿戴者190向前看时,穿戴者190可以采用他们的周边视觉来观看显示器180。作为结果,如对于许多日常活动是平常的那样,当穿戴者的眼睛向前时,显示器180可以在穿戴者的视场的中央部分之外。这样的定位可以促进与其他人的无遮挡的眼对眼交谈,以及通常在穿戴者的视场的中央部分内提供了世界的无遮挡视图和感知。此外,当显示器180如所示地定位时,穿戴者190例如仅通过采用他们的眼睛向上看(可能地不必移动他们的头部)可以观看显示器180。如图1G所示地示出了这点,其中,穿戴者移动他们的眼睛向上看,并且将他们的视线与显示器180对准。穿戴者还可以通过向下倾斜他们的头部并且将他们的眼睛与显示器180对准来使用显示器。
图2是根据示例实施例的计算设备210的简化框图。在示例实施例中,设备210使用通信链路220(例如有线或无线连接)与远程设备230通信。设备210可以是任何类型的能够接收数据并且显示与该数据相对应或相关联的信息的设备。例如,设备210可以是抬头显示系统,诸如参考图1A至图1G所描述的头戴式设备102、152或172。
因此,设备210可以包括显示系统212,该显示系统212包括处理器214和显示器216。显示器216例如可以是光学透视显示器、光学环顾显示器或视频透视显示器。处理器214可以从远程设备230接收数据,并且配置该数据以用于显示器216上的显示。例如,处理器214可以是任何类型的处理器,诸如微处理器或数字信号处理器。
设备210还可以包括机载数据存储装置,诸如与处理器214耦接的存储器218。存储器218例如可以存储可以被处理器214访问和执行的软件。
远程设备230可以是被配置为向设备210传送数据的任何类型的计算设备或传送器,包括膝上型计算机、移动电话或者平板式计算设备等。远程设备230和设备210可以包含使能诸如处理器、传送器、接收器、天线等的通信链路220的硬件。
此外,远程设备230可以采取以下计算系统的形式或被实施在以下计算系统中:该计算系统与诸如计算设备210的客户端设备通信并且被配置为代表诸如计算设备210的客户端设备来执行功能。这样的远程设备230可以从另外的计算设备210(例如,HMD102、152或172或者移动电话)接收数据,代表设备210来执行特定的处理功能,以及然后将生成的数据发送回到设备210。该功能可以被称为“云”计算。
在图2中,通信链路220被示为无线连接;然而,也可使用有线连接。例如,通信链路220可以是诸如通用串行总线的有线串行总线或者并行总线。有线连接也可以是专有连接。通信链路220也可以是使用例如无线电技术、IEEE802.11(包括任何IEEE802.11版本)中描述的通信协议、蜂窝技术(诸如GSM、CDMA、UMTS、EV-DO、WiMAX或LTE)或技术等等的无线连接。远程设备230可以经由因特网来访问并且可以包括与特定的web服务(例如,社交网络、照片共享、地址簿等)相关联的计算集群。
II.示例硬件配置
诸如可头戴式设备102、152或172的HMD可以包括提供一个或更多个输入接口的壳体(例如,组件壳体176)。壳体可以被附接到头戴式设备的侧臂,或者壳体可以是侧臂自身的一部分,例如,壳体可以形成侧臂的部分或另外地被布置在侧臂上。在其他示例中,壳体可以被布置在可头戴式设备的可头戴式框架的任何合适部分上,例如,被布置在图1D的HMD172的任何合适的部分上以及其他可能性。
一个或更多个输入接口可以被配置为接收用户输入,并且响应于接收用户输入将数据发送到连接到一个或更多个输入接口的可头戴式设备的控制系统。控制系统(例如,机载计算系统118)可以被配置为接收数据,并且响应于数据使得执行操作。
输入接口可以是可以被物理地按下的按钮(例如,图1D中的按钮179)、触摸传感器、摇杆、拨盘、滑条、开关或滚轮以及其他输入接口。在一些实例中,输入接口可以包括多个按钮、触摸传感器、摇杆、拨盘、滑条或滚轮,或者输入接口可以包括上述的任何组合。触摸传感器可以是手指可操作触摸板(例如,手指可操作触摸板124)、单点触摸传感器、或被配置为检测“悬浮触摸”的触摸传感器。手指可操作触摸板可以被配置为接收手指手势(以下描述示例手指手势)。在其他实例中,触摸传感器可以是多态触摸传感器。例如,触摸传感器可以三态传感器,其状态包括正常状态、悬停状态以及点击状态。正常状态可以指示触摸传感器当前未被触摸,悬停状态可以指示手指悬停(或“悬浮”)在触摸传感器之上但是未对触摸传感器进行触摸,以及点击状态可以指示触摸传感器当前被触摸。其他示例多态传感器也是可以的。
一个或更多个输入接口可以以多种不同的配置被布置在壳体上。图3A和图3B示出了根据示例实施例的包含多个输入接口的壳体配置的简化示例。图3A和图3B示出了由上表面310、下表面312、前表面314、后表面316以及两个侧表面的联合体所形成的壳体。壳体可以被附接到HMD或者另外地可以为HMD的一部分,使得前表面314面向HMD的前面(例如,前表面314可以面向HMD的穿戴者的视线的方向),并且后表面316面向HMD的后面(例如,后表面316可以面向HMD的穿戴者的头部的后部)。壳体可以包括第一输入接口330和第二输入接口320。第一输入接口330可以包括前端334和后端336。
在示例配置300中,如图3A所示,第二输入接口320可以被布置在上表面310上,并且第一输入接口330可以被布置在下表面312上。在示例配置350中,如图3B所示,第二输入接口320可以被布置在下表面312上,并且第一输入接口330可以被布置在上表面310上。可注意地,如图3A和图3B所示,第一输入接口和第二输入接口可以被布置为彼此相对,以允许用户对HMD便利地执行以另外的方式是麻烦的操作。即,第一用户接口和第二用户接口可以以人体工程学方式被布置,使得用户可以在下表面312处执行拇指手势,而同时用户在上表面310处采用剩余的手指执行另外的手势。其他的配置也是可以的。例如,第一输入接口330可以被布置在第一侧表面上,并且第二输入接口320可以被布置在与第一侧表面相对的第二侧表面上。
在示例实施例中,输入接口中的至少一个可以被配置为检测手指手势,并且将指示手指手势的数据传送到控制系统。控制系统可以被配置为基于手指手势来执行操作。例如,控制系统可以被配置为响应于手指手势来执行相机操作、音量操作、或音频播放器操作以及其他操作。
通常,相机操作可以涉及一个或更多个相机参数的调节、修改或选择。例如,相机操作可以涉及对相机进行变焦、调节曝光等级、调节对焦深度、调节白平衡设定、在滤镜之间进行切换(例如,黑白滤镜、低保真滤镜、晨鸟(earlybird)滤镜、玩具相机滤镜等)、在稳定模式之间进行切换、选择相机功能、或通常地对相机设定进行导航以及其他相机操作。应当理解,相机操作可以涉及在相机捕获视频的同时执行以上讨论的操作中的一个。
手指手势可以包括手指滚动、手指摩擦或者手指滑扫(swipe)以及其他手指手势。将参考第一输入接口330并且在对相机进行变焦的相机操作的上下文中来解释手指手势。应当理解,这仅出于示例并且说明性的目的,以及所描述的手指手势可以在任何其他合适的输入接口处执行并且可以使得以上提及的相机操作中的任何一个发生。
手指滚动可以涉及在第一输入接口330上向后和向前摇摆手指(例如,与摇摆椅子类似的运动)。例如,手指可以在后端336处开始并且朝向前端334向前滚动。控制系统可以被配置为响应于这样的手势使得相机对物体进行放大(zoomin)(或使得扬声器的音量等级增加)。手指滚动可以在前端334处开始并且朝向后端336向后滚动。控制系统可以被配置为使得相机进行缩小(zoomout)(或使得扬声器等级降低)。
类似地,手指摩擦可以涉及在第一输入接口330上向前或向后摩擦(或另外地滑动)手指。控制系统可以被配置为响应于向前手指摩擦(朝向前端334)使得相机进行放大。同时控制系统可以被配置为响应于向后手指摩擦(朝向后端336)使得相机进行缩小。
此外,手指滑扫可以涉及在第一输入接口330上向前或向后的手指的短暂的滑扫,例如,与手指摩擦相比手指滑扫可以是更快速的手指运动。控制系统可以被配置为响应于向前的手指滑扫(朝向前端334)使得相机进行缩小,并且响应于向后的手指滑动(朝向后端336)使得相机进行放大。
应当理解,向前手指手势不需要在后端336处开始,或向后手指手势不需要在前端334处开始。通常向前手指手势是在朝向前端334的方向上的手指移动,而向后手指手势是在朝向前端334的方向上的手指移动,而与起始点无关。
其他手指手势也是可以的。例如,第一输入接口330可以被配置为检测手指捏展(pinch),例如,向内捏合或向外展扩。在另一个示例中,第一输入接口330可以被配置为检测长时间的触摸,并且如果长时间的触摸被检测为超过预先定义的时间量,则控制系统可以被配置为使得相机进行放大或缩小。
III.示例方法
图4是示出了根据示例实施例的方法400的流程图。诸如方法400的示意方法可以整体地或部分地由诸如图1A至图1G中所示的可头戴式设备的HMD执行。方法400可以由诸如控制系统的HMD的组件执行。这样的控制系统可以包括,例如,处理器和在非暂态计算机可读介质上所存储的程序指令。然而,HMD的控制系统可以额外地或可替换地包括其他组件。此外,示例方法或其部分可以由除了控制系统之外的HMD的组件来执行。又进一步地,示例方法或其部分可以由与HMD通信的计算设备来执行。示例方法还可以由其他类型的计算设备和/或计算设备的组合来执行,而不脱离本发明的范围。这样的计算设备的其他示例包括但是不限于其他类型的可穿戴计算设备、移动电话以及平板式计算机。
出于示例和解释的目的,将参考图5A至图5C和图6A至图6C来描述方法400。图5A至图5C示出了在时间上各点处HMD的示例壳体的示例使用。图6A至图6C示出了与图5A至图5C中所示的示例使用相对应的示例相机预览。应当理解,仅出于示例和解释的目的参考图5A至图5C和图6A至图6C描述了方法400,并且其不应被解释为限制性的。
在示例实施例中,方法400可以在方框402处开始,其中,控制系统从第一输入接口或第二输入接口接收初始(preliminary)数据。在方框404处,控制系统响应于初始数据的接收来启动相机。在方块406处,控制系统从第一输入接口接收与第一输入动作相对应的第一输入数据。在方框408处,控制系统响应于第一输入数据的接收,使得相机根据第一输入动作来执行第一相机操作。在方框410处,控制系统从第二输入接口接收与第二输入动作相对应的第二输入数据。在方框412处,控制系统响应于第二输入数据的接收,使得相机执行与第一相机操作不同的第二相机操作。在其他实施例中,方法400可以在方框406处开始。即,控制系统可能已经处于“相机模式”中,并且因此,方框402和404可能不是必要的(如在图4中的虚线所指示)。以下进一步讨论关于图4所示的方框中的每个。
a.接收与初始输入动作相对应的输入数据
示例方法400在方框402处开始,其中,从第一输入接口和第二输入接口中的一个接收与初始输入动作相对应的初始数据。第一输入接口可以是如参考图3A和图3B所描述的第一输入接口330,其中,第一输入接口330可以被布置在壳体的上表面310或下表面312上。第二输入接口可以是第二输入接口320,其中,第二输入接口320被布置在与第一输入接口330相对的壳体的表面上。出于示例和解释的目的,将参考图3A的壳体配置300来描述方法400。如上所述,壳体可以被布置在HMD的可头戴式框架的至少一个侧臂上。
初始输入动作可以采取在第一输入接口或第二输入接口处的任何合适的动作的形式,其可能依赖于输入接口类型。例如,初始输入动作可以涉及按钮的点击或按下、触摸传感器的触摸、手指悬停在触摸传感器之上、摇杆的摇摆、拨盘的转动、滑条的滑动、开关的翻转或者滚轮的旋转。在输入接口是触摸传感器的其他实例中,初始输入动作可以涉及用户将手指按压到触摸传感器并且保持手指达到预先定义的时间段,或初始输入动作可以涉及如上所述的手指手势中的一个。其他初始输入动作也是可能的。响应于接收到初始输入动作,第一输入接口和第二输入接口可以被配置为将初始数据传送到控制系统。
在一个示例中,初始输入动作可以是在第一输入接口处的触摸输入。参考示出了在第一时间点的壳体配置300的示例使用的图5A,这样的触摸输入可以通过用户的手500的拇指510来执行。如在图5A中所示,第一输入接口330可以接收来自拇指510的触摸输入515。触摸输入515可以是在第一输入接口330处长时间的触摸(例如,达两秒或更多秒)或短暂的触摸以及其他触摸输入示例。第一输入接口330可以被配置为响应于检测到触摸输入515来生成数据,并且将数据传送到HMD的控制系统。
在其他实施例中,初始输入动作可以涉及在第二输入接口处的输入动作。例如,初始输入动作可以涉及用户按压例如可能是按钮的第二输入接口。在一些实施例中,初始数据可以响应于HMD接收到来自用户的语音命令。例如,HMD的麦克风可以检测用户说出“相机”或“让我们来照相”,并且生成初始数据。其他示例也是可以的。
b.启动相机
如通过方框404所示,方法400可以涉及响应于初始数据的接收来启动HMD的相机(例如,图像捕获设备178)。如果用户实际上确实从事于进一步的图像捕获步骤(以下描述),则启动相机可以涉及发起使得相机准备好捕获图像或视频的图像捕获预备处理。
在另外的示例实施例中,图像捕获准备处理可以涉及各种功能或功能的组合。作为示例,图像捕获准备处理可能涉及:(a)对相机传感器上电,(b)对相机芯片集上电,(c)对运行相机驱动软件的HMD的内核上电,(d)为相机功能预先分配存储器缓冲区,(e)创建主用户空间核心(诸如HMD的操作系统的空间核心)与相机控制器核心之间的连接(例如,OMX连接),和/或(f)设定用于相机的默认成像参数。
在其他实施例中,现在参考图6A,启动相机可能涉及发起相机预览处理,以从相机获取图像帧的流。例如,如所示地,图像帧610的流可以描绘由HMD的穿戴者所观看的场景。在一些实例中,图像帧然后可以被用于执行自动曝光处理,自动对焦处理和/或自动白平衡处理以及其他可能性。此外,这样的图像帧可能被用于在HMD的取景器和/或显示器——例如,单个显示器180——中对场景进行预览。
在一些实施例中,响应于初始数据的接收,方法400可以进一步涉及使得控制系统在相机模式中进行操作。即,在接收到初始数据之前,控制系统可以在第一模式中进行操作。响应于接收到初始数据,控制系统可以在第二模式(例如,相机模式)中进行操作,使得控制系统可以响应于从第一输入接口和第二输入接口接收到特定的数据来执行不同的操作。例如,当在相机模式中进行操作时,控制系统可以从第一输入接口或第二输入接口接收对应于与初始输入动作相同或相似的输入动作的数据,但是控制系统可以执行与启动相机不同的操作。
c.接收与第一输入动作相对应的输入数据
在方框406处,方法400可以涉及从第一输入接口接收与第一输入动作相对应的第一输入数据。在一些实施例中,如上所述,方法400可以在方框406处开始。
在任一情况中,第一输入动作可以采取在第一输入接口处的任何合适动作的形式,其可能依赖于第一输入接口的类型。在第一输入接口是滑条的一个示例中,第一输入动作可以涉及朝向前表面314滑动滑条或朝向后表面316滑动滑条。在第一输入接口是摇杆的另一个示例中,第一输入动作可以涉及朝向前表面314摇摆摇杆或朝向后表面316摇摆摇杆。其他示例也是可以的。响应于第一输入动作,第一输入接口可以被配置为将第一输入数据传送到控制系统。
在示例实施例中,第一输入动作可以是在第一输入接口处的手指手势(例如,以上所讨论的手指手势中的任何一个)。参考示出了在第二时间点的壳体配置300的示例使用的图5B,这样的手指手势可以通过用户的手500的拇指510(或其他手指)来执行。如邻近拇指510的运动箭头所指示地,拇指510可以通过沿着第一输入接口330滑动来执行手指手势。具体地,如所示地,第一输入接口330可以通过首先检测到触摸输入516并且然后检测到拇指510向前滑动——如通过邻近手指输入516的运动箭头所指示地——来接收手指手势(在这里,为向前手指摩擦)。第一输入接口330可以被配置为响应于检测到手指手势来生成数据,并且将数据传送到HMD的控制系统。
在其他实施例中,第一输入动作可以是在第一输入接口处的长时间的触摸。例如,第一输入动作可以是在第一输入接口330处保持达到预先定义的时间量——例如,两秒或更多秒——的触摸输入516。第一输入接口330可以检测长时间的触摸,并且相应地将第一输入数据传送到控制系统。
在其他实施例中,控制系统可以处于相机模式中。当处于相机模式中时,除了以上示例第一输入动作,第一输入动作还可以与如参考方框400所描述的初始输入动作相同或相似。
d.执行第一相机操作
如通过方框408所示,方法400可以涉及响应于第一输入数据的接收来使得设备的相机根据第一输入动作来执行第一相机操作。在一些实施例中,第一相机操作可以涉及对相机进行变焦,调节曝光等级,调节对焦深度,调节白平衡设定,在滤镜之间进行切换,在稳定模式之间进行切换或对相机设定进行导航以及其他相机操作。
在一些实施例中,相机例如可以依赖于第一输入动作而进行放大或缩小。例如,控制系统可以接收指示向前手指滚动、向前手指摩擦、向后手指滑扫、长时间的手指触摸或手指捏合以及其他示例的第一输入数据,并且使得相机进行放大。此外,控制系统可以接收指示向后手指滚动、向后手指摩擦、向前手指滑扫或向外手指展扩以及其他示例的第一输入数据,并且使得相机进行缩小。可替换地,控制系统可以被配置为响应于所描述的第一输入动作来执行相反的变焦操作。其他示例也是可以的。
在其他实施例中,相机可以根据第一输入动作来增加或降低曝光等级、对焦深度或白平衡设定。例如,向前手指手势可以使得增加,而向后手指手势可以使得降低,以及其他示例。在一些实施例中,相机可以根据第一输入动作来使滤镜、稳定模式或相机设定模式循环。例如,向前手指手势可以使得相机在一个方向上循环,而向后手指手势可以使得相机在不同的方向上循环。第一相机操作的其他示例也是可以的。
在一些实施例中,使得相机执行第一相机操作可以涉及调节相机预览使得所获取的图像帧的流被修改。例如,现在参考图6B,根据第一输入动作(向前手指摩擦),图像帧620的流可以是在图像帧610的流中所描绘的场景的放大的版本。此外,这样的修改的图像帧可以被用于在HMD的取景器和/或显示器中对放大的场景进行预览。
在其他实施例中,使得相机执行第一相机操作可以进一步响应于控制系统从第二输入接口接收到数据。即,为了使用第一输入接口330来执行第一相机操作,用户可能还需要在第二输入接口320处提供输入。
e.接收与第二输入动作相对应的输入数据
在方框410处,方法400可以涉及从第二输入接口接收与第二输入动作相对应的第二输入数据。第二输入动作可以采取在第二输入接口处的任何合适的动作的形式,其可能依赖于第二输入接口的类型。
例如,第二输入动作可以涉及按钮的点击或按下、触摸传感器的触摸、手指悬停在触摸传感器之上、摇杆的摇摆、拨盘的转动、滑条的滑动、开关的翻转或者滚轮的旋转。在第二输入接口是触摸传感器的其他实例中,第二输入动作可以涉及用户将手指按压到触摸传感器并且保持手指达到预先定义的时间段,或第二输入动作可以涉及如上所述的手指手势中的一个。其他示例第二输入动作也是可以的。在一些实施例中,第二输入动作可以与初始输入动作相同或相似。响应于第二输入动作,第二输入接口可以被配置为将第二输入数据传送到控制系统。
在一个示例中,第二输入动作可以是在第二输入接口处的触摸输入。参考示出了在第三点时间的壳体配置300的示例使用的图5C,这样的触摸输入可以通过用户的手500的食指520(或任何其他手指)来执行。如通过邻近食指520的运动箭头所指示地,食指520可以通过触摸第二输入接口320来执行触摸输入525。触摸输入525可以是在第二输入接口320处长时间的触摸(例如,两秒或更多秒)或短暂的触摸。第二输入接口320可以被配置为响应于检测到触摸输入525来生成第二输入数据,并且将第二输入数据传送到HMD的控制系统。
在一些实施例中,第二输入数据可以与第一输入动作和第二输入动作的组合相对应。例如,如图5C中所示,第一输入接口330可以传送与触摸输入517相对应的数据(其可以是向前手指摩擦在哪里停止),并且第二输入接口320可以传送与触摸输入525相对应的数据。控制系统可以将数据的此组合解释为第二输入数据。其他示例也是可以的。
因此,如在图5A至图5C中所示,壳体配置300可以为用户提供输入接口的人体工程学配置,该输入接口的人体工程学配置帮助提供自然并且直观的方式以采用HMD来执行多触摸相机操作。如所示地,人体工程学配置可以允许用户采用拇指510在第一输入接口330处来执行第一相机操作,而同时将其他手指保留为一旦拇指510满意地执行第一相机操作,则可用于采用第二输入接口320来执行第二相机操作(例如,拍摄图片或记录视频)。
在另一个实施例中,图3B的壳体配置350还提供了用于采用HMD执行多触摸相机操作的自然的方式。用户可以采用食指520在位于上表面310的第一输入接口330处来执行第一相机操作,并且当期望时,用户可以便利地使用拇指510在位于下表面312上的第二输入接口320处来执行第二相机操作,例如,捕获图像或记录视频。所描述的壳体配置可以在操作相机的同时为用户提供挤压壳体的自然的感觉,这可以为用户提供HMD的更大的控制和/或更精细调谐的控制。
f.执行第二相机操作
如通过方框412所示,方法400可以涉及响应于第二输入数据的接收来使得相机执行与第一相机操作不同的第二相机操作。在一些实施例中,第二相机操作可以涉及根据第一输入动作来捕获图像数据。例如,相机可以捕获放大/缩小的图像,低/高等级曝光的图像,低/高深度对焦的图像,或具有特定的滤镜的图像以及其他示例。参考图6C,相机可以捕获与在放大的图像帧620中所描绘的场景相对应的图像数据630。在示例实施例中,第二相机操作可以涉及捕获视频数据。
在其他实施例中,第二相机操作可以涉及根据第一输入操作来选择相机功能。例如,作为第一输入动作的结果,相机可以循环到相机的期望的功能,并且第二相机操作可以涉及选择期望的功能和/或如由期望的功能所指示的启动图像捕获准备处理的一个方面。其示例也是可能的。
在一些实施例中,第二相机操作或第二相机操作的结果可以经由HMD的取景器和/或显示器被显示给用户。例如,在第二相机操作涉及捕获图像数据的情况下,所捕获的图像数据可以被显示给HMD的用户。
应当注意,在第一输入接口和第二输入接口处的输入的任何组合可以导致相机执行多触摸操作。此外,输入可以是输入类型的任何组合。应当进一步理解,方法400的方框可以按照不同的顺序被执行,并且最终导致相机执行第一相机操作和第二相机操作。
在其他实施例中,第二相机操作可以涉及捕获视频数据。在这样的实施例中,当记录视频时,控制系统可以被配置为响应于与第一输入动作相同或相似的另一输入来对视频记录设定(例如在记录期间的变焦)进行修改。其他示例也是可能的。
在示例方法的另外的方面(未示出)中,用户可以在第二输入接口320处提供初始输入动作,其进而可以启动相机。例如,用户可以采用用户的食指520来触摸第二输入接口320,并且保持食指520在第二输入接口320上。接下来,用户可以在第一输入接口处提供第一输入动作,其可以使得相机执行第一相机操作,例如,缩小。例如,用户可以采用用户的拇指510在第一输入接口330上执行向后手指滚动。然后,用户可以从第一输入接口330移除拇指510。作为具体的示例,一旦相机进行缩小使得用户满意,则用户可以移除用户的拇指510。最后,用户可以从第二输入接口320移除食指520,从而使得相机执行第二相机操作,例如,根据向后手指滚动来捕获缩小的图像数据。其他示例当然也是可能的。
应当进一步理解,除了以上相机示例之外,在第一输入接口和第二输入接口处的输入还可以导致控制系统执行其他多步骤操作。例如,方法400或方法400的部分可以被利用来执行控制音频源或调节HMD的扬声器的音量(例如,扬声器125或BCT186)。
在一个这样的实施例中,控制系统可以从第一输入接口或第二输入接口接收与初始输入动作相对应的初始数据。例如,用户可以采用用户的食指520来触摸第二输入接口320,并且将食指520保持在第二输入接口320上。
响应于初始数据的接收,控制系统可以发起音量控制。例如,控制系统可以检测HMD的扬声器的当前音量等级和/或控制系统可以将音量控制指示符输出到HMD的显示器。
然后,控制系统可以接收与在第一输入接口处的第一输入动作和在第二输入接口处的第二输入动作的组合相对应的第一输入动作数据。第一输入动作可以是手指手势或以上所述的输入动作中的任何一个。相似地,第二输入动作可以是以上所描述的输入动作中的任何一个,或可以与初始输入动作相同。例如,当用户仍然采用由用户的食指520触摸第二输入接口320时,用户可以在第一输入接口330处采用拇指510提供手指手势。
响应于第一输入数据的接收,控制系统可以根据第一输入动作来执行音量操作。例如,控制系统可以增加或降低音量等级。此外,控制系统还可以在所显示的音量控制指示符处显示音量等级的改变。
然后,控制系统可以在第一输入接口处或第二输入接口处接收与第三输入动作相对应的第三输入动作数据。在一些实施例中,第三输入动作数据可以与在第一输入接口处和第二输入接口处的输入动作的组合相对应。第三输入动作可以是以上所描述的输入动作中的任何一个。在一个示例中,第三输入动作可以是用户从第一输入接口330移除拇指510,以及其他输入动作。响应于第三输入动作数据的接收,控制系统可以执行与第一音量操作不同的第二音量操作,例如,根据第一输入动作来在扬声器处输出音频。
此外,控制系统可以在第一输入接口处或第二输入接口处接收与第四输入动作相对应的第四输入动作数据。在一些实施例中,第四输入动作数据可以与在第一输入接口处和第二输入接口处的输入动作的组合相对应。在一些实施例中,第四输入动作可以与第三输入动作相同或相似。在一个示例中,第四输入动作可以是用户从第二输入接口320移除食指520,以及其他输入动作。响应于第四输入动作数据的接收,控制系统可以执行与第一音量操作和第二音量操作不同的第三音量操作,例如,不再显示音量控制指示符。可以利用这里所描述的第一输入接口和第二输入接口的人体工程学配置而执行其他示例多步骤操作。
IV.结论
应当理解,参考HMD所描述的示例不限于HMD。设想到参考HMD所描述的示例方法和系统可以被实施在其他类型的计算设备上,例如,诸如其他类型的可穿戴设备、移动电话、平板式计算机和/或膝上型计算机。
更通常地,虽然这里公开了各种方面和实施例,但是其他方面和实施例对于本领域技术人员将是明显的。这里所公开的各种方面和实施例出于示意的目的而不意欲为限制性的,真实的范围或精神由下面的权利要求所指示。
Claims (20)
1.一种设备,包括:
可头戴式框架,包括被布置在至少一个侧臂上的壳体;
第一输入接口,被布置在壳体的上表面或下表面上;
第二输入接口,被布置在与第一输入接口相对的、壳体的表面上;
控制系统,被配置为:
从第一输入接口接收第一输入数据,其中,第一输入数据与第一输入动作相对应,以及响应于第一输入数据的接收,使得设备的相机根据第一输入动作来执行第一相机操作;以及
从第二输入接口接收第二输入数据,其中,第二输入数据与第二输入接口上的一个或更多个第二输入动作相对应,以及响应于第二输入数据的接收,使得相机执行与第一相机操作不同的第二相机操作。
2.根据权利要求1所述的设备,其中,第一输入接口被布置在壳体的上表面上,以及其中,第二输入接口被布置在壳体的下表面上。
3.根据权利要求1所述的设备,其中,第一输入接口被布置在壳体的下表面上,以及其中,第二输入接口被布置在壳体的上表面上。
4.根据权利要求1所述的设备,其中,第一输入接口是按钮、触摸传感器、摇杆、拨盘、滑条以及多态传感器中的一个。
5.根据权利要求1所述的设备,其中,第二输入接口是按钮、触摸传感器、摇杆、拨盘、滑条以及多态传感器中的一个。
6.根据权利要求1所述的设备,其中,第一输入动作是第一输入接口上的手指手势。
7.根据权利要求1所述的设备,其中,所述控制系统进一步被配置为:
在第一模式中进行操作;以及
接收与初始输入动作相对应的初始数据,并且响应于初始数据的接收,使得控制系统在第二模式中进行操作。
8.根据权利要求1所述的设备,其中,第一相机操作包括以下中的一个:(i)对相机进行变焦;(ii)调节曝光等级;(iii)调节对焦深度;(iv)调节白平衡设定;(v)在滤镜之间进行切换;(vi)在稳定模式之间进行切换;以及(vii)对相机设定进行导航。
9.根据权利要求1所述的设备,其中,第二相机操作包括捕获图像数据和视频数据中的一个。
10.一种方法,包括:
从第一输入接口接收与第一输入动作相对应的第一输入数据,其中,第一输入接口被布置在壳体的上表面或下表面上,以及其中,所述壳体被布置在设备的可头戴式框架的至少一个侧臂上;
响应于第一输入数据的接收,使得设备的相机根据第一输入动作来执行第一相机操作,
从第二输入接口接收与第二输入动作相对应的第二输入数据,其中,第二输入接口被布置在与第一输入接口相对的、壳体的表面上;以及
响应于第二输入数据的接收,使得相机执行与第一相机操作不同的第二相机操作。
11.根据权利要求10所述的方法,其中,第一输入接口被布置在壳体的下表面上,以及其中,第二输入接口被布置在壳体的上表面上。
12.根据权利要求10所述的方法,其中,第一输入接口被布置在壳体的上表面上,以及其中,第二输入接口被布置在壳体的下表面上。
13.根据权利要求10所述的方法,其中,第一输入动作是第一输入接口上的手指手势。
14.根据权利要求10所述的方法,其中,第一相机操作包括以下中的一个:(i)对相机进行变焦;(ii)调节曝光等级;(iii)调节对焦深度;(iv)调节白平衡设定;(v)在滤镜之间进行切换;(vi)在稳定模式之间进行切换;以及(vii)对相机设定进行导航。
15.根据权利要求10所述的方法,其中,第二相机操作包括捕获图像数据和视频数据中的一个。
16.一种其中存储有指令的非暂态计算机可读存储器,所述指令可通过计算设备执行以使得计算设备执行以下功能,所述功能包括:
从第一输入接口接收与第一输入动作相对应的第一输入数据,其中,第一输入接口被布置在壳体的上表面或下表面上,以及其中,所述壳体被布置在设备的可头戴式框架的至少一个侧臂上;
响应于第一输入数据的接收,使得设备的相机根据第一输入动作来执行第一相机操作;
从第二输入接口接收与第二输入动作相对应的第二输入数据,其中,第二输入接口被布置在与第一输入接口相对的、壳体的表面上;以及
响应于第二输入数据的接收,使得相机执行与第一相机操作不同的第二相机操作。
17.根据权利要求16所述的非暂态计算机可读存储器,其中,第一输入接口被布置在壳体的下表面上,以及其中,第二输入接口被布置在壳体的上表面上。
18.根据权利要求16所述的非暂态计算机可读存储器,其中,第一输入接口被布置在壳体的上表面上,以及其中,第二输入接口被布置在壳体的下表面上。
19.根据权利要求16所述的非暂态计算机可读存储器,其中,第一相机操作包括以下中的一个:(i)对相机进行变焦;(ii)调节曝光等级;(iii)调节对焦深度;(iv)调节白平衡设定;(v)在滤镜之间进行切换;(vi)在稳定模式之间进行切换;以及(vii)对相机设定进行导航。
20.根据权利要求16所述的非暂态计算机可读存储器,其中,第二相机操作包括捕获图像数据和视频数据中的一个。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/084,674 US9261700B2 (en) | 2013-11-20 | 2013-11-20 | Systems and methods for performing multi-touch operations on a head-mountable device |
US14/084,674 | 2013-11-20 | ||
PCT/US2014/063123 WO2015077004A1 (en) | 2013-11-20 | 2014-10-30 | Systems and methods for performing multi-touch operations on a head-mountable device |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105745568A true CN105745568A (zh) | 2016-07-06 |
CN105745568B CN105745568B (zh) | 2019-10-01 |
Family
ID=53172772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480063236.8A Active CN105745568B (zh) | 2013-11-20 | 2014-10-30 | 用于在可头戴式设备上执行多触摸操作的系统和方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9261700B2 (zh) |
EP (1) | EP3072010B1 (zh) |
CN (1) | CN105745568B (zh) |
WO (1) | WO2015077004A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109814263A (zh) * | 2019-01-29 | 2019-05-28 | 苏州车萝卜汽车电子科技有限公司 | 抬头显示系统以及焦距调节方法 |
CN110090458A (zh) * | 2018-01-30 | 2019-08-06 | 双叶电子工业株式会社 | 无线电控制发信器 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US20180048750A1 (en) * | 2012-06-15 | 2018-02-15 | Muzik, Llc | Audio/video wearable computer system with integrated projector |
US9081542B2 (en) | 2012-08-28 | 2015-07-14 | Google Technology Holdings LLC | Systems and methods for a wearable touch-sensitive device |
US9261700B2 (en) * | 2013-11-20 | 2016-02-16 | Google Inc. | Systems and methods for performing multi-touch operations on a head-mountable device |
JP6318596B2 (ja) | 2013-12-13 | 2018-05-09 | セイコーエプソン株式会社 | 情報処理装置および情報処理装置の制御方法 |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
JP2016057814A (ja) * | 2014-09-09 | 2016-04-21 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム |
US10334154B2 (en) * | 2015-08-31 | 2019-06-25 | Snap Inc. | Automated adjustment of digital image capture parameters |
US9826299B1 (en) | 2016-08-22 | 2017-11-21 | Osterhout Group, Inc. | Speaker systems for head-worn computer systems |
US9880441B1 (en) | 2016-09-08 | 2018-01-30 | Osterhout Group, Inc. | Electrochromic systems for head-worn computer systems |
GB201607455D0 (en) * | 2016-04-29 | 2016-06-15 | Nokia Technologies Oy | An apparatus, electronic device, system, method and computer program for capturing audio signals |
US10609290B2 (en) * | 2017-02-06 | 2020-03-31 | Dallen Wendt | Video communication network with augmented reality eyewear |
US10146501B1 (en) | 2017-06-01 | 2018-12-04 | Qualcomm Incorporated | Sound control by various hand gestures |
US10578869B2 (en) | 2017-07-24 | 2020-03-03 | Mentor Acquisition One, Llc | See-through computer display systems with adjustable zoom cameras |
US10338766B2 (en) * | 2017-09-06 | 2019-07-02 | Realwear, Incorporated | Audible and visual operational modes for a head-mounted display device |
CN112905088B (zh) * | 2021-02-07 | 2022-11-04 | 北京蜂巢世纪科技有限公司 | 视频拍摄的控制方法及装置 |
US20220357766A1 (en) * | 2021-05-10 | 2022-11-10 | Anjuma KARKERA | Mobile individual secure communications environment |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1652575A (zh) * | 2004-02-06 | 2005-08-10 | 奥林巴斯株式会社 | 头戴型照相机 |
US20050195277A1 (en) * | 2004-03-04 | 2005-09-08 | Olympus Corporation | Image capturing apparatus |
JP2008124795A (ja) * | 2006-11-13 | 2008-05-29 | Konica Minolta Holdings Inc | 遠隔作業支援システム、及びその表示方法 |
JP2009080242A (ja) * | 2007-09-26 | 2009-04-16 | Panasonic Corp | 電子眼鏡 |
CN101632033A (zh) * | 2007-01-12 | 2010-01-20 | 寇平公司 | 头戴式单眼显示装置 |
JP2012053366A (ja) * | 2010-09-03 | 2012-03-15 | Casio Comput Co Ltd | 撮像装置およびプログラム |
US20120299870A1 (en) * | 2011-05-25 | 2012-11-29 | Google Inc. | Wearable Heads-up Display With Integrated Finger-tracking Input Sensor |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1509777A (en) | 1975-09-20 | 1978-05-04 | Deventer Kg | Sliding seal |
US5128671A (en) | 1990-04-12 | 1992-07-07 | Ltv Aerospace And Defense Company | Control device having multiple degrees of freedom |
US5543588A (en) | 1992-06-08 | 1996-08-06 | Synaptics, Incorporated | Touch pad driven handheld computing device |
AU6496594A (en) | 1993-03-26 | 1994-10-24 | Khalil S. Zaidan | Hinge assembly for electronic devices |
US5795300A (en) | 1994-06-01 | 1998-08-18 | Advanced Body Metrics Corporation | Heart pulse monitor |
US5623280A (en) | 1994-06-17 | 1997-04-22 | Motorola, Inc. | Flexible liquid crystal display with touch sensitive screens |
JPH0822343A (ja) | 1994-07-07 | 1996-01-23 | Olympus Optical Co Ltd | 情報処理装置 |
US5610971A (en) | 1994-12-19 | 1997-03-11 | Delco Electronics Corporaiton | Dual keypad telephone handset for mobile communications |
US5832296A (en) | 1995-04-26 | 1998-11-03 | Interval Research Corp. | Wearable context sensitive user interface for interacting with plurality of electronic devices of interest to the user |
US5959260A (en) | 1995-07-20 | 1999-09-28 | Motorola, Inc. | Method for entering handwritten information in cellular telephones |
US5729219A (en) | 1996-08-02 | 1998-03-17 | Motorola, Inc. | Selective call radio with contraposed touchpad |
JP3387326B2 (ja) * | 1996-08-30 | 2003-03-17 | ミノルタ株式会社 | 映像観察システム |
US5896575A (en) | 1997-02-28 | 1999-04-20 | Motorola, Inc. | Electronic device with display viewable from two opposite ends |
GB9910938D0 (en) * | 1999-05-11 | 1999-07-14 | Murphy Graham F | Diagnostic apparatus |
US7806525B2 (en) | 2003-10-09 | 2010-10-05 | Ipventure, Inc. | Eyeglasses having a camera |
KR20100072198A (ko) | 2007-08-19 | 2010-06-30 | 링보우 리미티드 | 반지형 장치와 그 사용방법 |
US8677285B2 (en) | 2008-02-01 | 2014-03-18 | Wimm Labs, Inc. | User interface of a small touch sensitive display for an electronic data and communication device |
US20100149073A1 (en) | 2008-11-02 | 2010-06-17 | David Chaum | Near to Eye Display System and Appliance |
KR20100006219A (ko) * | 2008-07-09 | 2010-01-19 | 삼성전자주식회사 | 사용자 인터페이스 방법 및 장치 |
KR200450989Y1 (ko) | 2008-07-25 | 2010-11-16 | 이노디지털 주식회사 | 양면 터치스크린을 구비한 플랫 패널 형상의 모바일 장치 |
US8957835B2 (en) | 2008-09-30 | 2015-02-17 | Apple Inc. | Head-mounted display apparatus for retaining a portable electronic device with display |
CN103119512A (zh) | 2008-11-02 | 2013-05-22 | 大卫·乔姆 | 近眼式显示系统和装置 |
US20100177599A1 (en) | 2009-01-11 | 2010-07-15 | Yang Pan | Determining location and survivability of a trapped person under a disaster situation by use of a wirst wearable device |
JP2010211177A (ja) * | 2009-02-12 | 2010-09-24 | Kenichi Kawagoe | 液晶シャッタ眼鏡 |
EP2401865B1 (en) * | 2009-02-27 | 2020-07-15 | Foundation Productions, Llc | Headset-based telecommunications platform |
CN101924816B (zh) | 2009-06-12 | 2013-03-20 | 清华大学 | 柔性手机 |
US8717254B1 (en) * | 2009-07-07 | 2014-05-06 | Thomas J. Nave | Portable motion sensor and video glasses system for displaying a real time video display to a user while exercising |
WO2011097564A1 (en) | 2010-02-05 | 2011-08-11 | Kopin Corporation | Touch sensor for controlling eyewear |
WO2012040386A1 (en) | 2010-09-21 | 2012-03-29 | 4Iiii Innovations Inc. | Head-mounted peripheral vision display systems and methods |
US8873147B1 (en) * | 2011-07-20 | 2014-10-28 | Google Inc. | Chord authentication via a multi-touch interface |
US8553910B1 (en) | 2011-11-17 | 2013-10-08 | Jianchun Dong | Wearable computing device with behind-ear bone-conduction speaker |
US9529197B2 (en) * | 2012-03-21 | 2016-12-27 | Google Inc. | Wearable device with input and output structures |
US9075249B2 (en) * | 2012-03-07 | 2015-07-07 | Google Inc. | Eyeglass frame with input and output functionality |
US9291823B2 (en) * | 2012-03-30 | 2016-03-22 | Google Inc. | Wearable device with input and output structures |
US9081542B2 (en) | 2012-08-28 | 2015-07-14 | Google Technology Holdings LLC | Systems and methods for a wearable touch-sensitive device |
US9811216B2 (en) * | 2012-09-14 | 2017-11-07 | Sharp Kabushiki Kaisha | Display device, portable terminal, monitor, television, and method for controlling display device |
US9219647B2 (en) * | 2013-03-15 | 2015-12-22 | Eyecam, LLC | Modular device and data management system and gateway for a communications network |
USD716759S1 (en) * | 2013-04-24 | 2014-11-04 | Lg Electronics Inc. | Bluetooth headset |
US9261700B2 (en) * | 2013-11-20 | 2016-02-16 | Google Inc. | Systems and methods for performing multi-touch operations on a head-mountable device |
-
2013
- 2013-11-20 US US14/084,674 patent/US9261700B2/en active Active
-
2014
- 2014-10-30 CN CN201480063236.8A patent/CN105745568B/zh active Active
- 2014-10-30 EP EP14864260.6A patent/EP3072010B1/en active Active
- 2014-10-30 WO PCT/US2014/063123 patent/WO2015077004A1/en active Application Filing
-
2016
- 2016-02-01 US US15/012,426 patent/US9804682B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1652575A (zh) * | 2004-02-06 | 2005-08-10 | 奥林巴斯株式会社 | 头戴型照相机 |
US20050195277A1 (en) * | 2004-03-04 | 2005-09-08 | Olympus Corporation | Image capturing apparatus |
JP2008124795A (ja) * | 2006-11-13 | 2008-05-29 | Konica Minolta Holdings Inc | 遠隔作業支援システム、及びその表示方法 |
CN101632033A (zh) * | 2007-01-12 | 2010-01-20 | 寇平公司 | 头戴式单眼显示装置 |
JP2009080242A (ja) * | 2007-09-26 | 2009-04-16 | Panasonic Corp | 電子眼鏡 |
JP2012053366A (ja) * | 2010-09-03 | 2012-03-15 | Casio Comput Co Ltd | 撮像装置およびプログラム |
US20120299870A1 (en) * | 2011-05-25 | 2012-11-29 | Google Inc. | Wearable Heads-up Display With Integrated Finger-tracking Input Sensor |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110090458A (zh) * | 2018-01-30 | 2019-08-06 | 双叶电子工业株式会社 | 无线电控制发信器 |
CN110090458B (zh) * | 2018-01-30 | 2020-09-11 | 双叶电子工业株式会社 | 无线电控制发信器 |
CN109814263A (zh) * | 2019-01-29 | 2019-05-28 | 苏州车萝卜汽车电子科技有限公司 | 抬头显示系统以及焦距调节方法 |
Also Published As
Publication number | Publication date |
---|---|
US9804682B2 (en) | 2017-10-31 |
WO2015077004A1 (en) | 2015-05-28 |
US9261700B2 (en) | 2016-02-16 |
EP3072010A1 (en) | 2016-09-28 |
US20150138064A1 (en) | 2015-05-21 |
US20160147309A1 (en) | 2016-05-26 |
CN105745568B (zh) | 2019-10-01 |
EP3072010A4 (en) | 2017-07-12 |
EP3072010B1 (en) | 2022-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105745568B (zh) | 用于在可头戴式设备上执行多触摸操作的系统和方法 | |
KR102227087B1 (ko) | 글래스 타입 단말기 및 그것의 제어방법 | |
KR102400900B1 (ko) | 시스템 | |
US9143693B1 (en) | Systems and methods for push-button slow motion | |
US9377869B2 (en) | Unlocking a head mountable device | |
KR102316327B1 (ko) | 가상 공간의 캡쳐 방법 및 그 전자장치 | |
CN103294180B (zh) | 一种人机交互控制方法及电子终端 | |
US11320655B2 (en) | Graphic interface for real-time vision enhancement | |
KR102031142B1 (ko) | 영상 디스플레이를 제어하는 전자 장치 및 방법 | |
US9274599B1 (en) | Input detection | |
US20180136466A1 (en) | Glass type terminal and control method therefor | |
WO2018150831A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
US10630887B2 (en) | Wearable device for changing focal point of camera and method thereof | |
KR102240639B1 (ko) | 글래스 타입 단말기 및 그것의 제어 방법 | |
US20170115736A1 (en) | Photo-Based Unlock Patterns | |
KR102223728B1 (ko) | 이동단말기 및 그 제어방법 | |
US20170163866A1 (en) | Input System | |
US20170139567A1 (en) | Entering Unlock Sequences Using Head Movements | |
WO2020223140A1 (en) | Capturing objects in an unstructured video stream | |
CN114648623A (zh) | 信息处理装置、信息处理方法以及计算机可读介质 | |
JP6303274B2 (ja) | 頭部装着型表示装置および頭部装着型表示装置の制御方法 | |
CN106257394B (zh) | 用于头戴显示器的三维用户界面 | |
EP3436888B1 (en) | Head-mounted display apparatus | |
WO2020258555A1 (zh) | 可穿戴式控制设备、虚拟/增强现实系统及控制方法 | |
US9535519B1 (en) | Smart housing for extending trackpad sensing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: Google limited liability company Address before: American California Applicant before: Google Inc. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |