JP5974008B2 - Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display - Google Patents
Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display Download PDFInfo
- Publication number
- JP5974008B2 JP5974008B2 JP2013529323A JP2013529323A JP5974008B2 JP 5974008 B2 JP5974008 B2 JP 5974008B2 JP 2013529323 A JP2013529323 A JP 2013529323A JP 2013529323 A JP2013529323 A JP 2013529323A JP 5974008 B2 JP5974008 B2 JP 5974008B2
- Authority
- JP
- Japan
- Prior art keywords
- processor
- user
- command
- state
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/42203—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/3287—Power saving characterised by the action undertaken by switching off individual functional units in the computer system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/4104—Peripherals receiving signals from specially adapted client devices
- H04N21/4122—Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/443—OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
- H04N21/4436—Power management, e.g. shutting down unused components of the receiver
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Description
関連出願の相互参照
本願は、2010年9月20日に出願された米国仮特許出願第61/384,419号および2010年9月20日に出願された米国仮特許出願第61/384,543号の利益を主張する。上記出願の全教示は、参照により本明細書に組み込まれる。
This application is related to US Provisional Patent Application No. 61 / 384,419 filed on September 20, 2010 and US Provisional Patent Application No. 61 / 384,543 filed on September 20, 2010. Insist on the benefits of the issue. The entire teachings of the above application are incorporated herein by reference.
本開示は、他のシステムコンポーネントの起動を制御するワイヤレスフロントエンドを有するヘッドマウントディスプレイ(HMD)システムまたは他の眼鏡型映像表示装置に関する。 The present disclosure relates to a head mounted display (HMD) system or other spectacle-type video display device having a wireless front end that controls activation of other system components.
最近開発されたマイクロディスプレイは、大きいフォーマット、高解像度カラー写真およびストリーミング映像を極小フォームファクタで提供することができる。そのようなディスプレイの一使用例は、眼鏡またはヘッドホンと同様にユーザの顔または頭に着用するヘッドマウントディスプレイ(HMD)装置におけるものである。そのようなデバイスに組み入れられる電子機器は、極めて高度なものとなり、現在では統合データプロセッサ、ワイヤレスインターフェースおよび他の入力デバイス、例えば、頭部追跡用加速度計、カメラ、音声認識回路およびソフトウェアならびに他のコンポーネントなどを含むことができる。 Recently developed microdisplays can provide large formats, high resolution color photos and streaming video in a minimal form factor. One use of such a display is in a head mounted display (HMD) device worn on the user's face or head as well as glasses or headphones. Electronic devices incorporated into such devices have become extremely sophisticated and are now integrated data processors, wireless interfaces and other input devices such as head tracking accelerometers, cameras, voice recognition circuits and software and other Components can be included.
好ましい環境では、ヘッドマウントディスプレイ(HMD)システムは、高解像度マイクロディスプレイと、マイクロホンと、スピーカと、ワイヤレスインターフェース、ワイヤレスネットワークインターフェース、カメラ(可視光、赤外線など)、音声デバイス、キーパッド、ゲームコントローラデバイスおよび他の周辺機器などの補助インターフェースとを含む。 In a preferred environment, the head mounted display (HMD) system includes a high resolution micro display, microphone, speaker, wireless interface, wireless network interface, camera (visible light, infrared, etc.), audio device, keypad, game controller device. And auxiliary interfaces such as other peripheral devices.
ブルートゥース(登録商標)、WiFi、セルラなどのワイヤレスインターフェースは、他のシステムコンポーネントを起動する際のシステムおよびコントロールのフロントエンドとなる。HMDシステムのスイッチを最初に入れると、ブルートゥース(登録商標)ヘッドセットと同様に、最小限の機能性で作動し、スピーカおよびマイクロホン機能のみを提供することができる。ブルートゥース(登録商標)対応の携帯電話(すなわち、Apple iPhoneまたはGoogle Androidスマートフォン)などの対をなすデバイスを使用して、ハンドフリーモードで音声会話を伝送し合うことができる。このモードでは、HMDシステムの他の機能は、他のシステムコンポーネントおよび機能性を起動させる言葉によるコマンドがヘッドセットによって認識されるまで、ハイバネーションモードのまま維持される。 Wireless interfaces such as Bluetooth®, WiFi, cellular, etc. are the front end of the system and controls when starting other system components. When the HMD system is first switched on, it can operate with minimal functionality and provide only speaker and microphone functions, similar to a Bluetooth® headset. A paired device such as a Bluetooth® compatible mobile phone (ie, Apple iPhone or Google Android smartphone) can be used to transmit voice conversations in a hands-free mode. In this mode, other functions of the HMD system remain in hibernation mode until verbal commands that activate other system components and functionality are recognized by the headset.
例えば、ブルートゥース(登録商標)のフロントエンドが、ある音声コンポーネントを有する受信データストリームを検出すると、音声コンポーネントは、回路またはソフトウェアとして具現化される音声認識機能に渡される。音声コンポーネントは映像出力を必要とするシステムへの言葉によるコマンドであると音声認識機能が判断すると、フロントエンドは、組み込みデータプロセッサに映像ディスプレイなどの他の任意の周辺デバイスをオンにさせる。映像ディスプレイがもはや必要とされなくなると、プロセッサおよび映像ドライバ回路は、スリープモードに戻る。 For example, when a Bluetooth front end detects a received data stream having an audio component, the audio component is passed to a speech recognition function embodied as a circuit or software. When the voice recognition function determines that the audio component is a verbal command to a system that requires video output, the front end causes the embedded data processor to turn on any other peripheral device such as a video display. When the video display is no longer needed, the processor and video driver circuit return to sleep mode.
別の例では、ユーザは、搭載プロセッサのより高度な機能性が必要とされるコマンドを話すことができる。例えば、ユーザは、今日の「やるべき」タスクのリストを読むように要求することができる。リストは、ホストコンピュータ上で実行しているMicrosoft Outlookなどのアプリケーションプログラムによって生成することができる。このコマンドの実行には、組み込みプロセッサを起動し、ローカルの大容量記憶装置にアクセスして、やるべきことのリスト情報をフェッチするばかりでなく、話し言葉に対応する音声信号を生成するテキスト音声変換回路も必要とされる。 In another example, the user can speak a command that requires a higher functionality of the onboard processor. For example, the user can request to read a list of today's “to do” tasks. The list can be generated by an application program such as Microsoft Outlook running on the host computer. To execute this command, a text-to-speech conversion circuit that activates an embedded processor, accesses a local mass storage device, fetches list information to do, and generates a speech signal corresponding to spoken language Is also needed.
別の例では、ユーザは、Microsoft Word文書としてウェブメールメッセージに添付された議題文書を表示するように要求することができる。これには、組み込みプロセッサを起動し、ローカルのマイクロディスプレイを起動し、ブルートゥース(登録商標)、ワイヤレスローカルエリアネットワーク(WLAN)回路および/またはセルラモデム回路などを通じて外部のネットワークと接続することが必要とされるかもしれない。それらの回路は、したがって、その時点でのみ通電することになる。次いで、組み込みプロセッサは、パーソナルコンピュータなどのホストマシンと連絡し、ウェブ情報を回収して表示する。 In another example, a user may request to display an agenda document attached to a webmail message as a Microsoft Word document. This requires starting an embedded processor, starting a local microdisplay, and connecting to an external network, such as via Bluetooth®, wireless local area network (WLAN) circuitry and / or cellular modem circuitry. It may be. Those circuits are therefore only energized at that time. The embedded processor then contacts a host machine such as a personal computer to retrieve and display web information.
この機能性をサポートするため、ワイヤレスフロントエンドには、音声テキスト変換機能の実行またはジェスチャからテキストへの変換ばかりでなく、その後、これらの音声またはジェスチャコマンドの解釈や、口頭でのまたはジェスチャコマンドの実行のために通電が必要とされるコンポーネントのリストの参照も可能にするテーブルまたは他の論理がその中に含められている。 To support this functionality, the wireless front-end not only performs speech-to-speech functions or converts gestures to text, but then interprets these speech or gesture commands, or verbal or gesture command A table or other logic is included therein that also allows a reference to the list of components that need to be energized for execution.
前述は、異なる図面を通して同様の参照符号は同じ部分を示す添付の図面に示されるとおり、本発明の例示的な実施形態の以下のより具体的な説明から明らかになるであろう。図面は必ずしも原寸に比例するとは限らず、その代わり、本発明の実施形態の例示に重点を置く。 The foregoing will become apparent from the following more specific description of exemplary embodiments of the invention, as illustrated in the accompanying drawings in which like reference numerals refer to like parts throughout the different views. The drawings are not necessarily drawn to scale, but instead focus on exemplifying embodiments of the invention.
例示的な実施形態の説明を以下に示す。 A description of exemplary embodiments follows.
図1は、一般に、フレーム1000、ストラップ1002、後部1004、スピーカ1006、カンチレバまたはアーム1008およびマイクロディスプレイサブアセンブリ1010を含むヘッドマウントディスプレイ(HMD)システム100を示す。
FIG. 1 generally illustrates a head mounted display (HMD)
HMD 100は、マサチューセッツ州タウントン(Taunton)に所在するKopin Corporationから入手可能なGolden−i(商標)ハンドフリー通信および制御デバイスに基づいてもよい。デバイスの片側、具体的には、マイクロディスプレイサブアセンブリ1010の反対側は、「ホットシュー」周辺ポート1020を含んでもよく、以下でさらに説明されるように、「ホットシュー」周辺ポート1020は、対応する接続をアクセサリに提供することができ、その結果、ユーザは、HMD 100に取り付けられたさまざまなコンポーネントを取り外すことができる。
The HMD 100 may be based on a Golden-i ™ hands-free communication and control device available from Kopin Corporation, located in Taunton, Massachusetts. One side of the device, specifically the opposite side of the
図2は、ユーザの頭に着用されたHMD 100の図であり、カメラアクセサリ1060がポート1020に設置されている。カメラ1060は、音声および映像の検知および記録機能の両方を含むことができ、例えば、「弾丸カム」と同様の小フォームファクタでもよい。以下でさらに説明されるように、頭部運動または音声コマンドでもよいユーザコマンドはユーザによって提供され、それにより、ディスプレイ1010、カメラ1060の設定が制御され、他の機能が実行される。
FIG. 2 is an illustration of the HMD 100 worn on the user's head, with a
HMDシステムは、スタンドアロンパーソナルコンピュータもしくは「スマートフォン」デバイスのいずれかとして、および/または、ホストパーソナルコンピュータのリモートコントロール、または、他のデバイスとして主に機能してもよい。このために、ハウジングにはさまざまな電子回路が含まれ、理解されるように、マイクロコンピュータ、1つまたは複数のワイヤレスインターフェース、関連メモリまたは他の記憶装置、位置、運動および/またはジェスチャセンサが含まれる。カメラ位置、運動および/またはジェスチャセンサは、ユーザの頭または手の位置、運動および/またはジェスチャの追跡に使用され、マイクロホンは、音声入力コマンドを受信する。 The HMD system may function primarily as either a stand-alone personal computer or a “smartphone” device and / or as a remote control of the host personal computer or other device. For this purpose, the housing contains various electronic circuits and, as will be understood, includes a microcomputer, one or more wireless interfaces, associated memory or other storage, position, motion and / or gesture sensors. It is. Camera position, motion and / or gesture sensors are used to track the user's head or hand position, motion and / or gesture, and the microphone receives voice input commands.
ワイヤレスインターフェースは、スマートフォン自体として、または、ホストコンピューティングデバイス200(図3)用のリモートコントロールとしてのHMDシステム100の使用を可能にする。例えば、ホスト200は、リモートコントロールHMDシステム100自体と同様のまたはそれ以上の演算複雑性、および、同様のまたはそれ以上のネットワーク接続性を有するラップトップ、携帯電話、RIM(登録商標)Blackberry(登録商標)、Apple(登録商標)iPhone(登録商標)、Google(登録商標)Android(登録商標)または他のスマートフォンデバイスであってもよい。ホスト200は、インターネットへのワイドエリアネットワーク(WAN)接続210を通じてなど、他のネットワークにさらに接続することができる。HMDシステム100とホスト200は、ブルートゥース(登録商標)リンクまたはワイヤレスローカルエリアネットワーク(WLAN)150によって提供されるような適切なワイヤレス接続を通じて互いに接続される。
The wireless interface enables use of the
図3に示されるように、HMDシステム100は、マイクロホンを介しての音声入力、カメラもしくは他の光センサを介しての手の動作、および/または、加速度計もしくは他の頭部運動追跡回路を介しての頭部動作入力など、ユーザから入力を受信する。これらは、システム100内のソフトウェアによって(および/またはホスト200内のソフトウェアと協働して)、デバイス100および/またはホスト200システムが認識可能なコマンドに変換される。これらがHMDシステム100用のコマンドであれば、HMDシステム100がこれらのコマンドを保持し、それらがホスト200用のコマンドであれば、それらのコマンドはブルートゥース(登録商標)および/またはWiFiインターフェース150上でホスト200に送信される。次いで、ホスト200は、それ自体のオペレーティングシステム/アプリケーションソフトウェアに従って、これら変換されたコマンドを解釈し、さまざまな機能を実行する。
As shown in FIG. 3, the
これらのコマンドの中には、文書をフェッチして表示するコマンドがあってもよい。
これらのコマンドの中には、通話に応答するコマンドがあってもよい。
他のコマンドの中には、Eメールまたはウェブページなど、インターネットからの情報を取得してそれを表示するコマンドがあってもよい。
Among these commands, there may be a command for fetching and displaying a document.
Among these commands, there may be a command for answering a call.
Among other commands, there may be commands that obtain information from the Internet and display it, such as email or web pages.
他のコマンドの中には、仮想ディスプレイ内で視野を選択し、次いで、その選択画面をリモートデバイスへ返信するコマンドがあってもよい。また、極大フォーマットである仮想ディスプレイエリアは、ホスト200上で実行しているオペレーティングシステム上または同オペレーティングシステム内で実行しているアプリケーションソフトウェアに関連付けられてもよく、視野内の、その大きな仮想ディスプレイエリアの一部のみが、HMD 100上のディスプレイ1010に供給されたさまざまな音声コマンドおよび/または頭部動作によって選択されることも理解されたい。
Among other commands, there may be a command that selects a field of view within the virtual display and then returns the selection screen to the remote device. A virtual display area that is a maximal format may also be associated with application software running on or within an operating system running on the
音声入力、運動および/またはジェスチャの検出に応じて、HMD 100によって実行することができる機能に関するさらなる情報については、2010年5月5日に出願された「Remote Control of Host Application Using Motion and Voice Commands」と称する同時係属中の米国特許出願第12/774,179号(代理人整理番号0717.2098−001)および2011年2月1日に出願された「Wireless Hands−Free Computing Headset with Detachable Accessories Controlled by Motion,Body Gesture,or Vocal Commands」と称する米国特許出願第13/018,999号(代理人整理番号0717.2102−001)に説明されており、それぞれの全内容は、参照により本明細書に組み込まれる。 For more information on the functions that can be performed by the HMD 100 in response to voice input, movement and / or gesture detection, see “Remote Control of Host Application Motion and Voice Commands” filed May 5, 2010. No. 12 / 774,179 (Attorney Docket No. 0717.2098-001) and “Wireless Hands-Free Computing Headset Width Controls Controls” filed on Feb. 1, 2011. "By Motion, Body Gesture, or Vocal Commands" Country Patent Application No. 13 / 018,999 are described in (Attorney Docket No. 0717.2102-001), the entire contents of each are incorporated herein by reference.
HMDシステム100は、追加のスピーカ、追加のカメラ、光源、および、ホットシュー1020に嵌め込むことも、バッテリ内蔵式の他の任意の電子コンポーネントなどのカメラに勝る他のアクセサリに対する他の機能を提供することもできる。
The
図4は、HMDシステム100の非限定的で例示的な実施形態の簡略化された高レベルのブロック図である。図1に示されたように、これらのコンポーネントは、HMDハウジングのさまざまな場所に統合される。HMDシステム100は、アイポッド(登録商標)アセンブリ4000を含んでもよく、アイポッド(登録商標)アセンブリ4000は、前述のマイクロディスプレイ4010と、1つまたは複数のマイクロホン4020とを含む。1つまたは複数のスピーカ4030は、ユーザの耳の近くのハウジングイヤホン内に配置される(図1のアイテム1006を参照)。システムの電子機器は、フレーム上またはフレーム内の適切な位置(後部1004など)に設置することができ、Open Media Application Platform(OMAP)プロセッサ4100、出力/音声コンパニオンチップ4102、ディスプレイドライバ4104、頭部追跡回路基板4106およびワイヤレスLAN/ブルートゥース(登録商標)インターフェース4108を含む。また、ハウジング内には、リチウムイオン電池4200などの電源も位置する。
FIG. 4 is a simplified high-level block diagram of a non-limiting exemplary embodiment of
頭部追跡回路4106は、ホール効果センサ、MIMダイオード、加速度計、ジャイロおよび/またはトランスデューサを使用して、X、YおよびZ軸に沿った横方向の動作およびX、YおよびZ軸の周りの回転ジェスチャなどの頭部動作およびジェスチャを検出する回路を含んでもよい。
The
また、HMDシステム100は、ブルートゥース(登録商標)インターフェース4108を通じて無線接続できるワイヤレスマウス、トラックボールまたはキーボードなどの外部の入力デバイスからの入力を受信することができる。WLAN/BTフロントエンド4108、OMAP 4100および/またはホスト内のソフトウェアを使用して、カメラによって検出された手のジェスチャを解釈することができる。カメラ基板4060が付随的に映像入力を提供してもよい。
In addition, the
OMAPプロセッサは、中央演算処理装置と、不揮発性メモリを含むことができるランダムアクセスメモリ(RAM)および/または読み取り専用メモリ(ROM)などのオンチップメモリとを含んでもよい。OMAPは、Texas InstrumentsモデルのOMAP3530プロセッサまたはTexas Instruments,Inc.が販売するマルチメディアプロセッサを使用したより新しいバージョンであってもよい。一般に、OMAPは、WLAN/BTインターフェース4108より強力で、より多くの電力を消費するプロセッサである。
The OMAP processor may include a central processing unit and on-chip memory such as random access memory (RAM) and / or read only memory (ROM), which may include non-volatile memory. OMAP is a Texas Instruments model OMAP 3530 processor or Texas Instruments, Inc. It may be a newer version using a multimedia processor sold by. In general, OMAP is a processor that is more powerful and consumes more power than the WLAN /
この例では、TPS65950出力/音声コンパニオンチップもまた、Texas Instrumentsから入手可能であり、音声、USB、キーパッド制御およびバッテリ充電機能をシステムに提供する。 In this example, a TPS65950 output / voice companion chip is also available from Texas Instruments, providing voice, USB, keypad control and battery charging functions to the system.
WLAN/BTインターフェース4108は、モデルLBEE 1W8 NECインターフェース回路、または、同様のもしくはそれ以上の能力を有するより新しい無線モジュールであってもよい。
The WLAN /
ディスプレイドライバは、マサチューセッツ州ウエストボロー(Westborough)に所在するKopin Corporationから入手可能なモデルKCD−A910ディスプレイドライバであってもよい。 The display driver may be a model KCD-A910 display driver available from Kopin Corporation located in Westborough, Massachusetts.
マイクロディスプレイ4010もまた、Kopinから入手可能であり、モデル113LV、152LV、230LV、WQVGA、または、他の製造業者が容認可能なマイクロディスプレイを含んでもよい。
NCSモジュール4400は、受信したマイクロホン信号を処理して音声認識機能を提供し、音声コンパニオンチップ4102に音声信号を生成する。
The
図5は、図4のさまざまなコンポーネント間の接続性を示すより詳細なブロック図である。 FIG. 5 is a more detailed block diagram illustrating the connectivity between the various components of FIG.
この図面からより容易に理解できるように、WLAN/BTフロントエンド4108は、UARTインターフェースを使用することができる。このWLAN/BTフロントエンド4108は、OMAPプロセッサ4100およびそれに応じて音声および出力コンパニオンチップ4102の電源オンまたは電源オフ状態、ならびに、カメラ、ディスプレイ、WLANモデムなどの他の周辺機能に印加される電力を制御するようにプログラムされる。
As can be more easily understood from this figure, the WLAN / BT
図6は、いくつかの例示的な機能を示すフローチャートである。ここで、WLAN/ブルートゥース(登録商標)フロントエンド4108は、他のシステムコンポーネントへの電力の印加を制御することができる。図7は、いつさまざまなデバイスの電源をオン/電源をオフにするかを判断するためにフロントエンド4108によって維持することができる例示的なテーブルであり、以下の図6の論考で参照されたい。
FIG. 6 is a flowchart illustrating some exemplary functions. Here, the WLAN / Bluetooth
第1の例では、状態6000において、システムコンポーネントは、最初はハイバネーションモード(休止状態)にあってもよく、ブルートゥース(登録商標)ヘッドセット機能(例えば、マイクロホン4020およびスピーカ4030)のみが有効である。この状態6000には、HMDシステム100のスイッチを最初に入れた際に入ることができる。したがって、例えば、状態6100では、通話が着信される場合、音声入出力機能は、状態6110においてアクティブ状態のまま維持される(例えば、マイクロホン4020はオン状態のまま維持され、スピーカ4030機能が有効となる)。しかし、状態6120では、OMAP 4100、ディスプレイ4010、カメラ4060および他のコンポーネントは、ハイバネーションモードのまま維持される。通話が終了すると、処理は状態6000に戻る。
In the first example, in
別の例では、ハイバネーション状態6000から、音声回路は、「やるべきことのリストを読む」などの特定のユーザ音声コマンドを検出することができる。この状態6200から、状態6210では、OMAPの機能が有効となる。次いで、状態6220では、OMAPは、SDRAMメモリなどのローカルストレージエリアにアクセスし、ユーザのローカルタスクリストに関連するファイルにアクセスし、今日のやるべきタスクの項目別リストを入手することができる。状態6240では、やるべきことのリストデータは、OMAP 4100から音声インターフェースに返信され、やるべきことのリストテキストは、音声に変換され、次いで、ヘッドセット100のスピーカ上で聞かれる。この機能が完了した時点で、状態6500に入り、次いで、システムはハイバネーション状態6000に戻り、次いで、システムは再びブルートゥース(登録商標)ヘッドセットとしてのみ機能し、別のユーザコマンドを待つことになる。
In another example, from
さらなる例では、状態6300において、ユーザは、www.NYTimes.comでNew York Timesのホームページの閲覧を希望することを示すコマンドを話す。このコマンドを受信すると、状態6310において、OMAPの機能が有効となる。図3に関連して説明されたように、WLANインターフェースが起動され、OMAPによるホストプロセッサへのコマンドの発行が可能になり、New York TimesのホームページのHTMLコンテンツを入手することができる。状態6330に入った時点で、マイクロディスプレイ1010の機能も有効となり、それにより、ユーザがウェブページの表示を希望することを予想する。New York Times.comのHTMLウェブページは、例えば、ヘッドセット自体が、搭載ブルートゥース(登録商標)、WLAN回路(Wi Fi)を通じて、または、補助セルラモデムを通じて、インターネットにアクセスする能力を有する場合など、別の方法でもフェッチすることができる。とにかく、コンテンツを入手した時点で、状態6350においてそのコンテンツはフォーマット化され、マイクロディスプレイ上に表示される。ある時点では、ユーザは、ディスプレイ機能を無効にする別のコマンドを発行することができ(またはコマンドがタイムアウトとなり得る)、その時点では、再びハイバネーション機能6000に入る。
In a further example, in state 6300, the user is www. NYTimes. com with a command indicating that he wants to browse the New York Times homepage. When this command is received, the OMAP function is enabled in
したがって、ブルートゥース(登録商標)および/またはWiFiフロントエンドがユーザ音声コマンドで着信音声ストリームを検出すると、ブルートゥース(登録商標)および/またはWiFi回路は、OMAPおよび他の周辺デバイスを自動的に起動するが、コマンドの実行に実際に必要とされるもののみを起動する。ブルートゥース(登録商標)および/またはWiFiフロントエンドは、こうして、テーブルまたはデータベースエントリの形でなど、多くの異なるユーザコマンドのそれぞれの実行にどの周辺デバイスおよび/またはOMAPを通電させる必要があるか(もしあれば)を示す情報を保持する。 Thus, when the Bluetooth® and / or WiFi front end detects an incoming voice stream with a user voice command, the Bluetooth® and / or WiFi circuitry will automatically activate OMAP and other peripheral devices. Start only what is actually needed to run the command. The Bluetooth (R) and / or WiFi front end thus determines which peripheral devices and / or OMAP need to be energized for each execution of many different user commands, such as in the form of a table or database entry. Information indicating (if any) is retained.
さらに別の例では(図7を参照)、ユーザの手のジェスチャをカメラで検出し、入力を提供して、システム100の特定のコンポーネントへの電力の印加を制御することができる。この状態では、音声コンポーネント機能が最初に有効となるが、口頭でのコマンドを検出し、少なくともカメラ4060およびOMAP 4100を起動することによって手のジェスチャを読み取り解釈する。
In yet another example (see FIG. 7), a user's hand gesture can be detected with a camera and an input can be provided to control the application of power to certain components of the
別の例では、ユーザは、入力として頭部動作を使用することができる。このモードでは、例えば、ユーザが頭部動作を使用して、大きいフォーマットの仮想ディスプレイエリアをパン(移動)、ズームまたは別の方法でナビゲートする場合など、頭部運動追跡部4106およびディスプレイのみが、有効にすることができる関連コンポーネントであってもよい。
In another example, the user can use head movements as input. In this mode, only the head
このように、HMDシステムの機能は、適切な口頭でのコマンド、ジェスチャコマンドまたはホストコンピュータからのコマンドを介して制御され、ブルートゥース(登録商標)および/またはWiFiインターフェースによって解釈され、サブシステム電子機器のその部分のみを必要に応じて起動する。アクティビティが終了すると、別の口頭でのコマンドまたはタイムアウトは、HMDシステムをスリープモードに戻すことができる。この時点で、ブルートゥース(登録商標)および/またはWiFi回路は、ハイバネーション状態に戻り、通話、別の音声コマンドまたはWLANを介したコンピュータインターフェースコマンドなどの外部の接点信号を待つことになる。 In this way, the functions of the HMD system are controlled via appropriate verbal commands, gesture commands or commands from the host computer, interpreted by the Bluetooth® and / or WiFi interface, and the subsystem electronics Activate only that part as needed. When the activity ends, another verbal command or timeout can return the HMD system to sleep mode. At this point, the Bluetooth® and / or WiFi circuitry will return to the hibernation state and wait for an external contact signal such as a call, another voice command, or a computer interface command over the WLAN.
すべての特許、公開出願および本明細書で引用される参考文献の教示は、それらの全体が参照により組み込まれる。 The teachings of all patents, published applications and references cited herein are incorporated by reference in their entirety.
本発明を、その例示的な実施形態を参照して、具体的に示し、説明してきたが、当業者であれば、添付の特許請求の範囲によって包含される本発明の範囲から逸脱することなく、その中で形態および詳細のさまざまな変更を行えることが理解されよう。
なお、本発明は、実施の態様として以下の内容を含む。
〔態様1〕
マイクロディスプレイ、ユーザ入力デバイス、第1のプロセッサおよび2つ以上の他の周辺回路を含むヘッドマウントディスプレイ(HMD)システムを制御する方法であって、
第1の状態では、前記第1のプロセッサおよびユーザ入力デバイスのみを作動させる工程と、
ユーザ入力を検出する工程と、
前記プロセッサを使用して、口頭でのコマンドまたはジェスチャコマンドとして前記ユーザ入力を解釈する工程と、
第2の状態に入る工程であって、前記口頭でのコマンドまたはジェスチャコマンドに応じて、前記2つ以上の他の周辺機器のうちの選択された周辺機器は作動され、選択されていない周辺機器は作動されないようにする、工程と
を含む方法。
〔態様2〕
前記2つ以上の他の周辺機器は、第2のプロセッサを含む、態様1に記載の方法。
〔態様3〕
前記第2のプロセッサは、前記第1のプロセッサよりも多くの電力を消費する、態様2に記載の方法。
〔態様4〕
前記2つ以上の他の周辺機器は、ワイドエリアネットワークインターフェース、第2のプロセッサ、ディスプレイ、カメラおよび頭部運動追跡器からなる一群から選択される、態様1に記載の方法。
〔態様5〕
前記ユーザ入力は、文書にアクセスするための口頭でのコマンドであり、前記第2の状態では、前記第2のプロセッサおよびマイクロディスプレイに電力が印加され、次いで、前記文書が表示される、態様2に記載の方法。
〔態様6〕
前記ユーザ入力は、ウェブページにアクセスするための口頭でのコマンドであり、前記第2の状態は、さらに、ワイヤレスインターフェースをネットワークに接続して、前記ウェブページをフェッチすることを可能にする、態様5に記載の方法。
〔態様7〕
前記周辺機器は、カメラ、および前記第1の状態で作動された第2のプロセッサを含み、前記ユーザ入力は手のジェスチャであり、前記第2のプロセッサは、前記第2の状態に入る前に前記手のジェスチャを解釈する、態様2に記載の方法。
〔態様8〕
前記周辺機器は、ワイヤレスインターフェースを含み、前記第2の状態は、前記ワイヤレスインターフェースで前記ユーザコマンドをホストに送信する、態様2に記載の方法。
〔態様9〕
前記ユーザコマンドは、前記ディスプレイのアスペクトを操作するための要求であり、前記第2の状態は、前記ディスプレイ上の情報表示を変更する、態様7に記載の方法。
〔態様10〕
視覚情報を表示するマイクロディスプレイと、
センサ入力を示す1つまたは複数の周辺機器入力信号、または、ユーザの動きおよび/もしくは音声入力の少なくとも1つを示す1つまたは複数の周辺機器入力信号を提供する、2つ以上の周辺デバイスと、
前記周辺機器入力信号を1つまたは複数の検出コマンドに変換する第1のプロセッサと、
前記1つまたは複数の検出コマンドに応じて、前記マイクロディスプレイおよび前記1つまたは複数の周辺機器を選択的に作動させるプロセッサコントローラと
を備えたヘッドセット携帯装置。
〔態様11〕
前記1つまたは複数の周辺デバイスが、
前記ユーザから音声信号を受信する1つまたは複数のマイクロホンを備え、
前記第1のプロセッサは、さらに、
音声コマンドを検出するように音声信号を処理する音声認識装置を備える、態様10に記載の装置。
〔態様12〕
前記1つまたは複数の周辺デバイスは、動き検出器であり、前記動き検出器は、2つ以上の軸に沿ったユーザの動きを示す、2つ以上の動き入力を提供する、態様10に記載の装置。
〔態様13〕
前記動き検出器は、前記ユーザの手および/または身体のジェスチャ動作を検出するカメラである、態様12に記載の装置。
〔態様14〕
前記動き検出器は、前記ユーザの頭部動作を検出する頭部動作追跡デバイスである、態様12に記載の装置。
〔態様15〕
前記周辺機器は、当該ヘッドセット携帯装置と別のデータ処理デバイスとの間で、1つまたは複数のワイヤレスリンクを提供する通信インターフェースをさらに備える、態様10に記載の装置。
〔態様16〕
前記ユーザコマンドは、前記第1のプロセッサによって処理されて、前記マイクロディスプレイ上の視覚情報表示のアスペクトが制御される、態様10に記載の装置。
〔態様17〕
前記ユーザコマンドは、視野を制御する、態様16に記載の装置。
〔態様18〕
前記ユーザコマンドは、ズーム、パンまたはスケールファクタを制御する、態様17に記載の装置。
〔態様19〕
前記ユーザコマンドは、ウェブページ表示のハイパーリンクアイテムを選択する、態様16に記載の装置。
While the invention has been particularly shown and described with reference to exemplary embodiments thereof, those skilled in the art will perceive without departing from the scope of the invention encompassed by the appended claims. It will be understood that various changes in form and detail may be made therein.
In addition, this invention contains the following content as an aspect.
[Aspect 1]
A method of controlling a head mounted display (HMD) system including a microdisplay, a user input device, a first processor and two or more other peripheral circuits, comprising:
Activating only the first processor and user input device in a first state;
Detecting user input; and
Interpreting the user input as a verbal command or a gesture command using the processor;
A step of entering a second state, wherein a selected peripheral device of the two or more other peripheral devices is activated and not selected in response to the verbal command or gesture command Is not activated, the process and
Including methods.
[Aspect 2]
The method of aspect 1, wherein the two or more other peripheral devices include a second processor.
[Aspect 3]
The method of aspect 2, wherein the second processor consumes more power than the first processor.
[Aspect 4]
The method of aspect 1, wherein the two or more other peripheral devices are selected from the group consisting of a wide area network interface, a second processor, a display, a camera, and a head motion tracker.
[Aspect 5]
Aspect 2 wherein the user input is a verbal command to access a document, and in the second state, power is applied to the second processor and microdisplay and then the document is displayed. The method described in 1.
[Aspect 6]
The user input is a verbal command to access a web page, and the second state further enables a wireless interface to connect to a network to fetch the web page. 5. The method according to 5.
[Aspect 7]
The peripheral device includes a camera and a second processor activated in the first state, the user input is a hand gesture, and the second processor is prior to entering the second state. A method according to aspect 2, wherein the hand gesture is interpreted.
[Aspect 8]
The method of aspect 2, wherein the peripheral device includes a wireless interface and the second state transmits the user command to a host over the wireless interface.
[Aspect 9]
8. The method of aspect 7, wherein the user command is a request to manipulate an aspect of the display, and the second state changes information display on the display.
[Aspect 10]
A micro-display that displays visual information;
Two or more peripheral devices that provide one or more peripheral input signals indicative of sensor input or one or more peripheral input signals indicative of at least one of user movement and / or voice input; ,
A first processor that converts the peripheral input signal into one or more detection commands;
A processor controller that selectively activates the microdisplay and the one or more peripherals in response to the one or more detection commands;
Headset mobile device with
[Aspect 11]
The one or more peripheral devices are:
Comprising one or more microphones for receiving audio signals from the user;
The first processor further includes:
The apparatus of aspect 10, comprising a voice recognition device that processes a voice signal to detect a voice command.
[Aspect 12]
The aspect 10, wherein the one or more peripheral devices are motion detectors, and the motion detector provides two or more motion inputs that indicate a user's motion along two or more axes. Equipment.
[Aspect 13]
The apparatus according to aspect 12, wherein the motion detector is a camera that detects gesture motion of the user's hand and / or body.
[Aspect 14]
The apparatus according to aspect 12, wherein the motion detector is a head motion tracking device that detects head motion of the user.
[Aspect 15]
The apparatus of aspect 10, wherein the peripheral device further comprises a communication interface that provides one or more wireless links between the headset portable device and another data processing device.
[Aspect 16]
The apparatus of aspect 10, wherein the user command is processed by the first processor to control an aspect of visual information display on the microdisplay.
[Aspect 17]
The apparatus according to aspect 16, wherein the user command controls a field of view.
[Aspect 18]
The apparatus of aspect 17, wherein the user command controls a zoom, pan or scale factor.
[Aspect 19]
The apparatus according to aspect 16, wherein the user command selects a hyperlink item for web page display.
Claims (17)
前記第1のプロセッサおよびユーザ入力デバイスのみを作動させることにより、第1の状態に入る工程と、
ユーザ入力を検出する工程と、
前記第1のプロセッサを使用して、口頭でのコマンドまたはジェスチャコマンドとして前記ユーザ入力を解釈する工程と、
第2の状態に入る工程であって、前記口頭でのコマンドまたはジェスチャコマンドに基づいて、前記2つ以上の他の周辺機器のうちの選択された周辺機器を作動するコマンドを前記第1のプロセッサが発行することによって、かつ、選択されていない周辺機器を作動しないようにするコマンドを前記第1のプロセッサが発行することによって、前記第2の状態に入る工程と
を含み、
前記2つ以上の他の周辺機器は第2のプロセッサを含み、前記第2のプロセッサは、前記第1のプロセッサよりも多くの電力を消費する、方法。 A method of controlling a head mounted display (HMD) system including a microdisplay, a user input device, a first processor and two or more other peripheral circuits, comprising:
By operating only the front Symbol first processor and a user input device, a step of entering the first state,
Detecting user input; and
Interpreting the user input as a verbal or gesture command using the first processor;
A step of entering the second state, on the basis of the command or gesture commands verbally, the two or more other of said first processor a command for operating the selected peripheral device of the peripheral device by but issuing, and by issuing a command to not operate the peripheral device is not selected the first processor, look including the step of entering said second state,
The method wherein the two or more other peripheral devices include a second processor, the second processor consuming more power than the first processor .
ユーザ入力を提供するユーザ入力デバイスと、
センサ入力を示す1つまたは複数の周辺機器入力信号、または、ユーザからのユーザの動きおよび/もしくはユーザからの音声入力の少なくとも1つを示す1つまたは複数の周辺機器入力信号を提供する、2つ以上の周辺デバイスであって、第1の状態において作動しないようにされる2つ以上の周辺デバイスと、
前記ユーザ入力を1つまたは複数の検出コマンドに変換する第1のプロセッサであって、前記第1の状態においては当該第1のプロセッサおよび前記ユーザ入力デバイスのみが作動されている、第1のプロセッサと、
前記1つまたは複数の検出コマンドに基づいて、前記マイクロディスプレイおよび前記1つまたは複数の周辺機器を、選択的に作動および非作動にさせるか、または選択的に作動させるかもしくは選択的に非作動にさせるプロセッサコントローラと
を備え、
前記2つ以上の周辺機器は第2のプロセッサを含み、前記第2のプロセッサは、前記第1のプロセッサよりも多くの電力を消費する、ヘッドセット携帯装置。 A micro-display that displays visual information;
A user input device that provides user input;
Providing one or more peripheral input signals indicative of sensor input or one or more peripheral input signals indicative of at least one of user movement from the user and / or voice input from the user ; Two or more peripheral devices that are disabled in the first state ; and
A first processor that converts the user input into one or more detection commands , wherein only the first processor and the user input device are activated in the first state; When,
Based on said one or more detection command, the micro-display and the one or more peripheral devices, selectively activated and whether to deactivated, or selectively to or selectively deactivated actuate and a processor controller for a,
The headset portable device , wherein the two or more peripheral devices include a second processor, wherein the second processor consumes more power than the first processor .
前記ユーザから音声信号を受信する1つまたは複数のマイクロホンを備え、
前記第1のプロセッサは、さらに、
音声コマンドを検出するように音声信号を処理する音声認識装置を備える、請求項8に記載の装置。 The one or more peripheral devices are:
Comprising one or more microphones for receiving audio signals from the user;
The first processor further includes:
9. The apparatus of claim 8 , comprising a voice recognition device that processes a voice signal to detect a voice command.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US38454310P | 2010-09-20 | 2010-09-20 | |
US38441910P | 2010-09-20 | 2010-09-20 | |
US61/384,543 | 2010-09-20 | ||
US61/384,419 | 2010-09-20 | ||
PCT/US2011/051760 WO2012040030A2 (en) | 2010-09-20 | 2011-09-15 | Bluetooth or other wireless interface with power management for head mounted display |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014503085A JP2014503085A (en) | 2014-02-06 |
JP2014503085A5 JP2014503085A5 (en) | 2014-11-06 |
JP5974008B2 true JP5974008B2 (en) | 2016-08-23 |
Family
ID=45874290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013529323A Active JP5974008B2 (en) | 2010-09-20 | 2011-09-15 | Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP2617202A4 (en) |
JP (1) | JP5974008B2 (en) |
CN (1) | CN103890836B (en) |
WO (1) | WO2012040030A2 (en) |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US9851787B2 (en) | 2012-11-29 | 2017-12-26 | Microsoft Technology Licensing, Llc | Display resource management |
US20140282273A1 (en) * | 2013-03-15 | 2014-09-18 | Glen J. Anderson | System and method for assigning voice and gesture command areas |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US9299194B2 (en) | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9811152B2 (en) | 2014-01-21 | 2017-11-07 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US9651788B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US9532714B2 (en) | 2014-01-21 | 2017-01-03 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US20150206173A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
WO2015179877A2 (en) * | 2014-05-19 | 2015-11-26 | Osterhout Group, Inc. | External user interface for head worn computing |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
JP6516464B2 (en) * | 2014-12-15 | 2019-05-22 | Kddi株式会社 | Wearable search system |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
CN104615243A (en) * | 2015-01-15 | 2015-05-13 | 深圳市掌网立体时代视讯技术有限公司 | Head-wearable type multi-channel interaction system and multi-channel interaction method |
US9933995B2 (en) * | 2015-01-25 | 2018-04-03 | Harman International Industries, Incorporated | Headphones with integral image display |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
EP3104252B1 (en) * | 2015-06-09 | 2020-11-11 | Nokia Technologies Oy | Transition of a head mounted display from operation in a first power mode to operation in a second power mode |
US9298283B1 (en) | 2015-09-10 | 2016-03-29 | Connectivity Labs Inc. | Sedentary virtual reality method and systems |
CN105797366A (en) * | 2016-03-25 | 2016-07-27 | 中国传媒大学 | Head-wearing type interactive audio game terminal based on sound source location |
DE102016207009A1 (en) * | 2016-04-26 | 2017-10-26 | Krones Aktiengesellschaft | Operating system for a machine of the food industry, in particular the beverage industry |
TWI599966B (en) * | 2016-05-10 | 2017-09-21 | H P B Optoelectronic Co Ltd | Gesture control modular system |
USD864959S1 (en) | 2017-01-04 | 2019-10-29 | Mentor Acquisition One, Llc | Computer glasses |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10312631A (en) * | 1997-05-14 | 1998-11-24 | Nec Niigata Ltd | Sound reproducing device and information processing device |
US6408257B1 (en) * | 1999-08-31 | 2002-06-18 | Xerox Corporation | Augmented-reality display method and system |
DE60045473D1 (en) * | 1999-11-09 | 2011-02-17 | Nuance Comm Austria Gmbh | LANGUAGE RECOGNITION METHOD FOR ACTIVATING INTERNET HYPERLINKS |
US7987491B2 (en) | 2002-05-10 | 2011-07-26 | Richard Reisman | Method and apparatus for browsing using alternative linkbases |
JP3988632B2 (en) | 2002-11-28 | 2007-10-10 | 日本電気株式会社 | Control method of glasses-type display |
JP2004349915A (en) * | 2003-05-21 | 2004-12-09 | Matsushita Electric Ind Co Ltd | Remote control unit |
KR100594117B1 (en) * | 2004-09-20 | 2006-06-28 | 삼성전자주식회사 | Apparatus and method for inputting key using biosignal in HMD information terminal |
JP4364861B2 (en) * | 2005-11-01 | 2009-11-18 | 株式会社ソニー・コンピュータエンタテインメント | Information display device |
JP2008054085A (en) * | 2006-08-25 | 2008-03-06 | Hitachi Ltd | Broadcast receiving apparatus and starting method thereof |
JP5228305B2 (en) * | 2006-09-08 | 2013-07-03 | ソニー株式会社 | Display device and display method |
US8386259B2 (en) * | 2006-12-28 | 2013-02-26 | Intel Corporation | Voice interface to NFC applications |
GB2459220B (en) * | 2007-01-12 | 2012-09-05 | Kopin Corp | Head mounted computing device |
CA2685947A1 (en) * | 2007-05-14 | 2008-11-27 | Kopin Corporation | Mobile wireless display for accessing data from a host and method for controlling |
WO2008144638A2 (en) * | 2007-05-17 | 2008-11-27 | Redstart Systems Inc. | Systems and methods of a structured grammar for a speech recognition command system |
IL183637A (en) * | 2007-06-04 | 2013-06-27 | Zvi Lapidot | Distributed head-mounted display |
WO2009054619A2 (en) * | 2007-10-22 | 2009-04-30 | Moon Key Lee | Augmented reality computer device |
JP5217386B2 (en) * | 2007-11-21 | 2013-06-19 | 株式会社ニコン | Control device, head mounted display device, program, and control method |
US8416152B2 (en) | 2008-06-11 | 2013-04-09 | Honeywell International Inc. | Method and system for operating a near-to-eye display |
US8957835B2 (en) * | 2008-09-30 | 2015-02-17 | Apple Inc. | Head-mounted display apparatus for retaining a portable electronic device with display |
-
2011
- 2011-09-15 JP JP2013529323A patent/JP5974008B2/en active Active
- 2011-09-15 EP EP11827249.1A patent/EP2617202A4/en not_active Withdrawn
- 2011-09-15 CN CN201180050791.3A patent/CN103890836B/en active Active
- 2011-09-15 WO PCT/US2011/051760 patent/WO2012040030A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
EP2617202A4 (en) | 2015-01-21 |
JP2014503085A (en) | 2014-02-06 |
WO2012040030A3 (en) | 2014-03-27 |
WO2012040030A2 (en) | 2012-03-29 |
EP2617202A2 (en) | 2013-07-24 |
CN103890836A (en) | 2014-06-25 |
CN103890836B (en) | 2017-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5974008B2 (en) | Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display | |
US9152378B2 (en) | Bluetooth or other wireless interface with power management for head mounted display | |
JP6419262B2 (en) | Headset computer (HSC) as an auxiliary display with ASR and HT inputs | |
EP3179474B1 (en) | User focus activated voice recognition | |
EP2778865B1 (en) | Input control method and electronic device supporting the same | |
US8862186B2 (en) | Lapel microphone micro-display system incorporating mobile information access system | |
US8855719B2 (en) | Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands | |
EP2616907B1 (en) | Control of applications on a head-mounted display using gesture and motion commands | |
GB2534274A (en) | Gaze triggered voice recognition | |
US20170011706A1 (en) | Head-mounted display apparatus | |
US20110001699A1 (en) | Remote control of host application using motion and voice commands | |
KR102492560B1 (en) | Electronic device and method for controlling input thereof | |
JP2014503085A5 (en) | ||
WO2013180964A1 (en) | Headset computer with docking station | |
JP2017508193A (en) | User configurable speech commands | |
WO2014107186A1 (en) | Controlled headset computer displays | |
KR20180121254A (en) | Electronic device for ouputting graphical indication | |
KR20180116725A (en) | Method for displaying operation screen of speech recognition service and electronic device supporting the same | |
CN211089903U (en) | Wireless earphone and electronic equipment | |
WO2017108139A1 (en) | Changing information output modalities | |
KR20150014254A (en) | Mobile terminal and operation method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140912 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140912 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160715 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5974008 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |