JP5974008B2 - Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display - Google Patents

Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display Download PDF

Info

Publication number
JP5974008B2
JP5974008B2 JP2013529323A JP2013529323A JP5974008B2 JP 5974008 B2 JP5974008 B2 JP 5974008B2 JP 2013529323 A JP2013529323 A JP 2013529323A JP 2013529323 A JP2013529323 A JP 2013529323A JP 5974008 B2 JP5974008 B2 JP 5974008B2
Authority
JP
Japan
Prior art keywords
processor
user
command
state
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013529323A
Other languages
Japanese (ja)
Other versions
JP2014503085A (en
JP2014503085A5 (en
Inventor
ジェイコブセン・ジェフリー・ジェイ
パーキンソン・クリストファー
ポンボ・スチーブン・エー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kopin Corp
Original Assignee
Kopin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kopin Corp filed Critical Kopin Corp
Publication of JP2014503085A publication Critical patent/JP2014503085A/en
Publication of JP2014503085A5 publication Critical patent/JP2014503085A5/ja
Application granted granted Critical
Publication of JP5974008B2 publication Critical patent/JP5974008B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4436Power management, e.g. shutting down unused components of the receiver
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Description

関連出願の相互参照
本願は、2010年9月20日に出願された米国仮特許出願第61/384,419号および2010年9月20日に出願された米国仮特許出願第61/384,543号の利益を主張する。上記出願の全教示は、参照により本明細書に組み込まれる。
This application is related to US Provisional Patent Application No. 61 / 384,419 filed on September 20, 2010 and US Provisional Patent Application No. 61 / 384,543 filed on September 20, 2010. Insist on the benefits of the issue. The entire teachings of the above application are incorporated herein by reference.

本開示は、他のシステムコンポーネントの起動を制御するワイヤレスフロントエンドを有するヘッドマウントディスプレイ(HMD)システムまたは他の眼鏡型映像表示装置に関する。   The present disclosure relates to a head mounted display (HMD) system or other spectacle-type video display device having a wireless front end that controls activation of other system components.

最近開発されたマイクロディスプレイは、大きいフォーマット、高解像度カラー写真およびストリーミング映像を極小フォームファクタで提供することができる。そのようなディスプレイの一使用例は、眼鏡またはヘッドホンと同様にユーザの顔または頭に着用するヘッドマウントディスプレイ(HMD)装置におけるものである。そのようなデバイスに組み入れられる電子機器は、極めて高度なものとなり、現在では統合データプロセッサ、ワイヤレスインターフェースおよび他の入力デバイス、例えば、頭部追跡用加速度計、カメラ、音声認識回路およびソフトウェアならびに他のコンポーネントなどを含むことができる。   Recently developed microdisplays can provide large formats, high resolution color photos and streaming video in a minimal form factor. One use of such a display is in a head mounted display (HMD) device worn on the user's face or head as well as glasses or headphones. Electronic devices incorporated into such devices have become extremely sophisticated and are now integrated data processors, wireless interfaces and other input devices such as head tracking accelerometers, cameras, voice recognition circuits and software and other Components can be included.

好ましい環境では、ヘッドマウントディスプレイ(HMD)システムは、高解像度マイクロディスプレイと、マイクロホンと、スピーカと、ワイヤレスインターフェース、ワイヤレスネットワークインターフェース、カメラ(可視光、赤外線など)、音声デバイス、キーパッド、ゲームコントローラデバイスおよび他の周辺機器などの補助インターフェースとを含む。   In a preferred environment, the head mounted display (HMD) system includes a high resolution micro display, microphone, speaker, wireless interface, wireless network interface, camera (visible light, infrared, etc.), audio device, keypad, game controller device. And auxiliary interfaces such as other peripheral devices.

ブルートゥース(登録商標)、WiFi、セルラなどのワイヤレスインターフェースは、他のシステムコンポーネントを起動する際のシステムおよびコントロールのフロントエンドとなる。HMDシステムのスイッチを最初に入れると、ブルートゥース(登録商標)ヘッドセットと同様に、最小限の機能性で作動し、スピーカおよびマイクロホン機能のみを提供することができる。ブルートゥース(登録商標)対応の携帯電話(すなわち、Apple iPhoneまたはGoogle Androidスマートフォン)などの対をなすデバイスを使用して、ハンドフリーモードで音声会話を伝送し合うことができる。このモードでは、HMDシステムの他の機能は、他のシステムコンポーネントおよび機能性を起動させる言葉によるコマンドがヘッドセットによって認識されるまで、ハイバネーションモードのまま維持される。   Wireless interfaces such as Bluetooth®, WiFi, cellular, etc. are the front end of the system and controls when starting other system components. When the HMD system is first switched on, it can operate with minimal functionality and provide only speaker and microphone functions, similar to a Bluetooth® headset. A paired device such as a Bluetooth® compatible mobile phone (ie, Apple iPhone or Google Android smartphone) can be used to transmit voice conversations in a hands-free mode. In this mode, other functions of the HMD system remain in hibernation mode until verbal commands that activate other system components and functionality are recognized by the headset.

例えば、ブルートゥース(登録商標)のフロントエンドが、ある音声コンポーネントを有する受信データストリームを検出すると、音声コンポーネントは、回路またはソフトウェアとして具現化される音声認識機能に渡される。音声コンポーネントは映像出力を必要とするシステムへの言葉によるコマンドであると音声認識機能が判断すると、フロントエンドは、組み込みデータプロセッサに映像ディスプレイなどの他の任意の周辺デバイスをオンにさせる。映像ディスプレイがもはや必要とされなくなると、プロセッサおよび映像ドライバ回路は、スリープモードに戻る。   For example, when a Bluetooth front end detects a received data stream having an audio component, the audio component is passed to a speech recognition function embodied as a circuit or software. When the voice recognition function determines that the audio component is a verbal command to a system that requires video output, the front end causes the embedded data processor to turn on any other peripheral device such as a video display. When the video display is no longer needed, the processor and video driver circuit return to sleep mode.

別の例では、ユーザは、搭載プロセッサのより高度な機能性が必要とされるコマンドを話すことができる。例えば、ユーザは、今日の「やるべき」タスクのリストを読むように要求することができる。リストは、ホストコンピュータ上で実行しているMicrosoft Outlookなどのアプリケーションプログラムによって生成することができる。このコマンドの実行には、組み込みプロセッサを起動し、ローカルの大容量記憶装置にアクセスして、やるべきことのリスト情報をフェッチするばかりでなく、話し言葉に対応する音声信号を生成するテキスト音声変換回路も必要とされる。   In another example, the user can speak a command that requires a higher functionality of the onboard processor. For example, the user can request to read a list of today's “to do” tasks. The list can be generated by an application program such as Microsoft Outlook running on the host computer. To execute this command, a text-to-speech conversion circuit that activates an embedded processor, accesses a local mass storage device, fetches list information to do, and generates a speech signal corresponding to spoken language Is also needed.

別の例では、ユーザは、Microsoft Word文書としてウェブメールメッセージに添付された議題文書を表示するように要求することができる。これには、組み込みプロセッサを起動し、ローカルのマイクロディスプレイを起動し、ブルートゥース(登録商標)、ワイヤレスローカルエリアネットワーク(WLAN)回路および/またはセルラモデム回路などを通じて外部のネットワークと接続することが必要とされるかもしれない。それらの回路は、したがって、その時点でのみ通電することになる。次いで、組み込みプロセッサは、パーソナルコンピュータなどのホストマシンと連絡し、ウェブ情報を回収して表示する。   In another example, a user may request to display an agenda document attached to a webmail message as a Microsoft Word document. This requires starting an embedded processor, starting a local microdisplay, and connecting to an external network, such as via Bluetooth®, wireless local area network (WLAN) circuitry and / or cellular modem circuitry. It may be. Those circuits are therefore only energized at that time. The embedded processor then contacts a host machine such as a personal computer to retrieve and display web information.

この機能性をサポートするため、ワイヤレスフロントエンドには、音声テキスト変換機能の実行またはジェスチャからテキストへの変換ばかりでなく、その後、これらの音声またはジェスチャコマンドの解釈や、口頭でのまたはジェスチャコマンドの実行のために通電が必要とされるコンポーネントのリストの参照も可能にするテーブルまたは他の論理がその中に含められている。   To support this functionality, the wireless front-end not only performs speech-to-speech functions or converts gestures to text, but then interprets these speech or gesture commands, or verbal or gesture command A table or other logic is included therein that also allows a reference to the list of components that need to be energized for execution.

前述は、異なる図面を通して同様の参照符号は同じ部分を示す添付の図面に示されるとおり、本発明の例示的な実施形態の以下のより具体的な説明から明らかになるであろう。図面は必ずしも原寸に比例するとは限らず、その代わり、本発明の実施形態の例示に重点を置く。   The foregoing will become apparent from the following more specific description of exemplary embodiments of the invention, as illustrated in the accompanying drawings in which like reference numerals refer to like parts throughout the different views. The drawings are not necessarily drawn to scale, but instead focus on exemplifying embodiments of the invention.

マイクロディスプレイおよび他の周辺インターフェースを含むヘッドマウントディスプレイ(HMD)システムの図である。1 is a head mounted display (HMD) system including a micro display and other peripheral interfaces. FIG. ユーザの頭に着用された、カメラ周辺機器が設置されたHMDシステムを示す別の斜視図である。It is another perspective view which shows the HMD system with which the camera peripheral device was mounted | worn with the user's head. HMDと、パーソナルコンピュータなどのホストプロセッサ用のコントローラとしてのその使用とを示す高レベルの機能図である。FIG. 2 is a high-level functional diagram showing the HMD and its use as a controller for a host processor such as a personal computer. HMDアセンブリの内部のコンポーネントの高レベルのブロック図である。FIG. 2 is a high level block diagram of components within an HMD assembly. 特定の一実施形態で使用される電子コンポーネントを示す、より詳細な図である。FIG. 2 is a more detailed diagram illustrating electronic components used in one particular embodiment. さまざまな他のHMDシステムコンポーネントがアクティブ状態となった際に、どのようにブルートゥース(登録商標)フロントエンドがシステムコントローラとして作動して制御するかについての一例を示す高レベルのフローチャートである。6 is a high-level flowchart illustrating an example of how the Bluetooth front end operates and controls as a system controller when various other HMD system components become active. 口頭でのコマンド、ジェスチャコマンドまたは頭部運動コマンドと、サブシステムのそれらの起動部分のリストである。A list of verbal commands, gesture commands or head movement commands and their activation parts of the subsystem.

例示的な実施形態の説明を以下に示す。   A description of exemplary embodiments follows.

図1は、一般に、フレーム1000、ストラップ1002、後部1004、スピーカ1006、カンチレバまたはアーム1008およびマイクロディスプレイサブアセンブリ1010を含むヘッドマウントディスプレイ(HMD)システム100を示す。   FIG. 1 generally illustrates a head mounted display (HMD) system 100 that includes a frame 1000, a strap 1002, a rear portion 1004, a speaker 1006, a cantilever or arm 1008 and a microdisplay subassembly 1010.

HMD 100は、マサチューセッツ州タウントン(Taunton)に所在するKopin Corporationから入手可能なGolden−i(商標)ハンドフリー通信および制御デバイスに基づいてもよい。デバイスの片側、具体的には、マイクロディスプレイサブアセンブリ1010の反対側は、「ホットシュー」周辺ポート1020を含んでもよく、以下でさらに説明されるように、「ホットシュー」周辺ポート1020は、対応する接続をアクセサリに提供することができ、その結果、ユーザは、HMD 100に取り付けられたさまざまなコンポーネントを取り外すことができる。   The HMD 100 may be based on a Golden-i ™ hands-free communication and control device available from Kopin Corporation, located in Taunton, Massachusetts. One side of the device, specifically the opposite side of the microdisplay subassembly 1010, may include a “hot shoe” peripheral port 1020, as described further below, the “hot shoe” peripheral port 1020 corresponds to Connections can be provided to the accessory so that the user can remove various components attached to the HMD 100.

図2は、ユーザの頭に着用されたHMD 100の図であり、カメラアクセサリ1060がポート1020に設置されている。カメラ1060は、音声および映像の検知および記録機能の両方を含むことができ、例えば、「弾丸カム」と同様の小フォームファクタでもよい。以下でさらに説明されるように、頭部運動または音声コマンドでもよいユーザコマンドはユーザによって提供され、それにより、ディスプレイ1010、カメラ1060の設定が制御され、他の機能が実行される。   FIG. 2 is an illustration of the HMD 100 worn on the user's head, with a camera accessory 1060 installed in the port 1020. The camera 1060 can include both audio and video detection and recording functions, and may be, for example, a small form factor similar to a “bullet cam”. As will be described further below, user commands, which may be head movements or voice commands, are provided by the user, thereby controlling display 1010, camera 1060 settings and performing other functions.

HMDシステムは、スタンドアロンパーソナルコンピュータもしくは「スマートフォン」デバイスのいずれかとして、および/または、ホストパーソナルコンピュータのリモートコントロール、または、他のデバイスとして主に機能してもよい。このために、ハウジングにはさまざまな電子回路が含まれ、理解されるように、マイクロコンピュータ、1つまたは複数のワイヤレスインターフェース、関連メモリまたは他の記憶装置、位置、運動および/またはジェスチャセンサが含まれる。カメラ位置、運動および/またはジェスチャセンサは、ユーザの頭または手の位置、運動および/またはジェスチャの追跡に使用され、マイクロホンは、音声入力コマンドを受信する。   The HMD system may function primarily as either a stand-alone personal computer or a “smartphone” device and / or as a remote control of the host personal computer or other device. For this purpose, the housing contains various electronic circuits and, as will be understood, includes a microcomputer, one or more wireless interfaces, associated memory or other storage, position, motion and / or gesture sensors. It is. Camera position, motion and / or gesture sensors are used to track the user's head or hand position, motion and / or gesture, and the microphone receives voice input commands.

ワイヤレスインターフェースは、スマートフォン自体として、または、ホストコンピューティングデバイス200(図3)用のリモートコントロールとしてのHMDシステム100の使用を可能にする。例えば、ホスト200は、リモートコントロールHMDシステム100自体と同様のまたはそれ以上の演算複雑性、および、同様のまたはそれ以上のネットワーク接続性を有するラップトップ、携帯電話、RIM(登録商標)Blackberry(登録商標)、Apple(登録商標)iPhone(登録商標)、Google(登録商標)Android(登録商標)または他のスマートフォンデバイスであってもよい。ホスト200は、インターネットへのワイドエリアネットワーク(WAN)接続210を通じてなど、他のネットワークにさらに接続することができる。HMDシステム100とホスト200は、ブルートゥース(登録商標)リンクまたはワイヤレスローカルエリアネットワーク(WLAN)150によって提供されるような適切なワイヤレス接続を通じて互いに接続される。   The wireless interface enables use of the HMD system 100 as a smartphone itself or as a remote control for the host computing device 200 (FIG. 3). For example, the host 200 may be a laptop, mobile phone, RIM® Blackberry (registered) with similar or greater computational complexity and similar or greater network connectivity than the remote control HMD system 100 itself. Trademark), Apple (R) iPhone (R), Google (R) Android (R) or other smartphone devices. The host 200 can further connect to other networks, such as through a wide area network (WAN) connection 210 to the Internet. The HMD system 100 and the host 200 are connected to each other through a suitable wireless connection, such as provided by a Bluetooth link or a wireless local area network (WLAN) 150.

図3に示されるように、HMDシステム100は、マイクロホンを介しての音声入力、カメラもしくは他の光センサを介しての手の動作、および/または、加速度計もしくは他の頭部運動追跡回路を介しての頭部動作入力など、ユーザから入力を受信する。これらは、システム100内のソフトウェアによって(および/またはホスト200内のソフトウェアと協働して)、デバイス100および/またはホスト200システムが認識可能なコマンドに変換される。これらがHMDシステム100用のコマンドであれば、HMDシステム100がこれらのコマンドを保持し、それらがホスト200用のコマンドであれば、それらのコマンドはブルートゥース(登録商標)および/またはWiFiインターフェース150上でホスト200に送信される。次いで、ホスト200は、それ自体のオペレーティングシステム/アプリケーションソフトウェアに従って、これら変換されたコマンドを解釈し、さまざまな機能を実行する。   As shown in FIG. 3, the HMD system 100 includes voice input via a microphone, hand movement via a camera or other optical sensor, and / or an accelerometer or other head movement tracking circuit. Input from the user, such as head movement input via These are converted by the software in the system 100 (and / or in cooperation with the software in the host 200) into commands that the device 100 and / or the host 200 system can recognize. If these are commands for the HMD system 100, the HMD system 100 holds these commands, and if they are commands for the host 200, these commands are on the Bluetooth (registered trademark) and / or WiFi interface 150. Is transmitted to the host 200. The host 200 then interprets these translated commands and performs various functions according to its own operating system / application software.

これらのコマンドの中には、文書をフェッチして表示するコマンドがあってもよい。
これらのコマンドの中には、通話に応答するコマンドがあってもよい。
他のコマンドの中には、Eメールまたはウェブページなど、インターネットからの情報を取得してそれを表示するコマンドがあってもよい。
Among these commands, there may be a command for fetching and displaying a document.
Among these commands, there may be a command for answering a call.
Among other commands, there may be commands that obtain information from the Internet and display it, such as email or web pages.

他のコマンドの中には、仮想ディスプレイ内で視野を選択し、次いで、その選択画面をリモートデバイスへ返信するコマンドがあってもよい。また、極大フォーマットである仮想ディスプレイエリアは、ホスト200上で実行しているオペレーティングシステム上または同オペレーティングシステム内で実行しているアプリケーションソフトウェアに関連付けられてもよく、視野内の、その大きな仮想ディスプレイエリアの一部のみが、HMD 100上のディスプレイ1010に供給されたさまざまな音声コマンドおよび/または頭部動作によって選択されることも理解されたい。   Among other commands, there may be a command that selects a field of view within the virtual display and then returns the selection screen to the remote device. A virtual display area that is a maximal format may also be associated with application software running on or within an operating system running on the host 200, and the larger virtual display area within the field of view. It should also be understood that only a portion of is selected by various voice commands and / or head movements supplied to display 1010 on HMD 100.

音声入力、運動および/またはジェスチャの検出に応じて、HMD 100によって実行することができる機能に関するさらなる情報については、2010年5月5日に出願された「Remote Control of Host Application Using Motion and Voice Commands」と称する同時係属中の米国特許出願第12/774,179号(代理人整理番号0717.2098−001)および2011年2月1日に出願された「Wireless Hands−Free Computing Headset with Detachable Accessories Controlled by Motion,Body Gesture,or Vocal Commands」と称する米国特許出願第13/018,999号(代理人整理番号0717.2102−001)に説明されており、それぞれの全内容は、参照により本明細書に組み込まれる。   For more information on the functions that can be performed by the HMD 100 in response to voice input, movement and / or gesture detection, see “Remote Control of Host Application Motion and Voice Commands” filed May 5, 2010. No. 12 / 774,179 (Attorney Docket No. 0717.2098-001) and “Wireless Hands-Free Computing Headset Width Controls Controls” filed on Feb. 1, 2011. "By Motion, Body Gesture, or Vocal Commands" Country Patent Application No. 13 / 018,999 are described in (Attorney Docket No. 0717.2102-001), the entire contents of each are incorporated herein by reference.

HMDシステム100は、追加のスピーカ、追加のカメラ、光源、および、ホットシュー1020に嵌め込むことも、バッテリ内蔵式の他の任意の電子コンポーネントなどのカメラに勝る他のアクセサリに対する他の機能を提供することもできる。   The HMD system 100 provides additional functionality to other accessories that outperform the camera, such as additional speakers, additional cameras, light sources, and any other electronic components with a built-in battery or hot shoe 1020. You can also

図4は、HMDシステム100の非限定的で例示的な実施形態の簡略化された高レベルのブロック図である。図1に示されたように、これらのコンポーネントは、HMDハウジングのさまざまな場所に統合される。HMDシステム100は、アイポッド(登録商標)アセンブリ4000を含んでもよく、アイポッド(登録商標)アセンブリ4000は、前述のマイクロディスプレイ4010と、1つまたは複数のマイクロホン4020とを含む。1つまたは複数のスピーカ4030は、ユーザの耳の近くのハウジングイヤホン内に配置される(図1のアイテム1006を参照)。システムの電子機器は、フレーム上またはフレーム内の適切な位置(後部1004など)に設置することができ、Open Media Application Platform(OMAP)プロセッサ4100、出力/音声コンパニオンチップ4102、ディスプレイドライバ4104、頭部追跡回路基板4106およびワイヤレスLAN/ブルートゥース(登録商標)インターフェース4108を含む。また、ハウジング内には、リチウムイオン電池4200などの電源も位置する。   FIG. 4 is a simplified high-level block diagram of a non-limiting exemplary embodiment of HMD system 100. As shown in FIG. 1, these components are integrated at various locations in the HMD housing. The HMD system 100 may include an ipod® assembly 4000, which includes the aforementioned microdisplay 4010 and one or more microphones 4020. One or more speakers 4030 are placed in a housing earphone near the user's ear (see item 1006 in FIG. 1). The system electronics can be placed on or within the frame at an appropriate location (such as the back 1004), with an Open Media Application Platform (OMAP) processor 4100, an output / audio companion chip 4102, a display driver 4104, a head A tracking circuit board 4106 and a wireless LAN / Bluetooth interface 4108 are included. A power source such as a lithium ion battery 4200 is also located in the housing.

頭部追跡回路4106は、ホール効果センサ、MIMダイオード、加速度計、ジャイロおよび/またはトランスデューサを使用して、X、YおよびZ軸に沿った横方向の動作およびX、YおよびZ軸の周りの回転ジェスチャなどの頭部動作およびジェスチャを検出する回路を含んでもよい。   The head tracking circuit 4106 uses Hall effect sensors, MIM diodes, accelerometers, gyros and / or transducers to move laterally along and around the X, Y and Z axes. A circuit for detecting head movements and gestures such as a rotation gesture may be included.

また、HMDシステム100は、ブルートゥース(登録商標)インターフェース4108を通じて無線接続できるワイヤレスマウス、トラックボールまたはキーボードなどの外部の入力デバイスからの入力を受信することができる。WLAN/BTフロントエンド4108、OMAP 4100および/またはホスト内のソフトウェアを使用して、カメラによって検出された手のジェスチャを解釈することができる。カメラ基板4060が付随的に映像入力を提供してもよい。   In addition, the HMD system 100 can receive input from an external input device such as a wireless mouse, a trackball, or a keyboard that can be wirelessly connected through the Bluetooth (registered trademark) interface 4108. WLAN / BT front end 4108, OMAP 4100 and / or software in the host can be used to interpret hand gestures detected by the camera. A camera board 4060 may additionally provide video input.

OMAPプロセッサは、中央演算処理装置と、不揮発性メモリを含むことができるランダムアクセスメモリ(RAM)および/または読み取り専用メモリ(ROM)などのオンチップメモリとを含んでもよい。OMAPは、Texas InstrumentsモデルのOMAP3530プロセッサまたはTexas Instruments,Inc.が販売するマルチメディアプロセッサを使用したより新しいバージョンであってもよい。一般に、OMAPは、WLAN/BTインターフェース4108より強力で、より多くの電力を消費するプロセッサである。   The OMAP processor may include a central processing unit and on-chip memory such as random access memory (RAM) and / or read only memory (ROM), which may include non-volatile memory. OMAP is a Texas Instruments model OMAP 3530 processor or Texas Instruments, Inc. It may be a newer version using a multimedia processor sold by. In general, OMAP is a processor that is more powerful and consumes more power than the WLAN / BT interface 4108.

この例では、TPS65950出力/音声コンパニオンチップもまた、Texas Instrumentsから入手可能であり、音声、USB、キーパッド制御およびバッテリ充電機能をシステムに提供する。   In this example, a TPS65950 output / voice companion chip is also available from Texas Instruments, providing voice, USB, keypad control and battery charging functions to the system.

WLAN/BTインターフェース4108は、モデルLBEE 1W8 NECインターフェース回路、または、同様のもしくはそれ以上の能力を有するより新しい無線モジュールであってもよい。   The WLAN / BT interface 4108 may be a model LBEE 1W8 NEC interface circuit, or a newer wireless module with similar or greater capabilities.

ディスプレイドライバは、マサチューセッツ州ウエストボロー(Westborough)に所在するKopin Corporationから入手可能なモデルKCD−A910ディスプレイドライバであってもよい。   The display driver may be a model KCD-A910 display driver available from Kopin Corporation located in Westborough, Massachusetts.

マイクロディスプレイ4010もまた、Kopinから入手可能であり、モデル113LV、152LV、230LV、WQVGA、または、他の製造業者が容認可能なマイクロディスプレイを含んでもよい。   Microdisplay 4010 is also available from Kopin and may include model 113LV, 152LV, 230LV, WQVGA, or other manufacturer acceptable microdisplays.

NCSモジュール4400は、受信したマイクロホン信号を処理して音声認識機能を提供し、音声コンパニオンチップ4102に音声信号を生成する。   The NCS module 4400 processes the received microphone signal to provide a voice recognition function, and generates a voice signal in the voice companion chip 4102.

図5は、図4のさまざまなコンポーネント間の接続性を示すより詳細なブロック図である。   FIG. 5 is a more detailed block diagram illustrating the connectivity between the various components of FIG.

この図面からより容易に理解できるように、WLAN/BTフロントエンド4108は、UARTインターフェースを使用することができる。このWLAN/BTフロントエンド4108は、OMAPプロセッサ4100およびそれに応じて音声および出力コンパニオンチップ4102の電源オンまたは電源オフ状態、ならびに、カメラ、ディスプレイ、WLANモデムなどの他の周辺機能に印加される電力を制御するようにプログラムされる。   As can be more easily understood from this figure, the WLAN / BT front end 4108 can use a UART interface. This WLAN / BT front end 4108 provides power to the OMAP processor 4100 and correspondingly audio and output companion chip 4102 power on or power off states and other peripheral functions such as cameras, displays, WLAN modems, etc. Programmed to control.

図6は、いくつかの例示的な機能を示すフローチャートである。ここで、WLAN/ブルートゥース(登録商標)フロントエンド4108は、他のシステムコンポーネントへの電力の印加を制御することができる。図7は、いつさまざまなデバイスの電源をオン/電源をオフにするかを判断するためにフロントエンド4108によって維持することができる例示的なテーブルであり、以下の図6の論考で参照されたい。   FIG. 6 is a flowchart illustrating some exemplary functions. Here, the WLAN / Bluetooth front end 4108 can control the application of power to other system components. FIG. 7 is an exemplary table that can be maintained by the front end 4108 to determine when various devices are powered on / off, see the discussion of FIG. 6 below. .

第1の例では、状態6000において、システムコンポーネントは、最初はハイバネーションモード(休止状態)にあってもよく、ブルートゥース(登録商標)ヘッドセット機能(例えば、マイクロホン4020およびスピーカ4030)のみが有効である。この状態6000には、HMDシステム100のスイッチを最初に入れた際に入ることができる。したがって、例えば、状態6100では、通話が着信される場合、音声入出力機能は、状態6110においてアクティブ状態のまま維持される(例えば、マイクロホン4020はオン状態のまま維持され、スピーカ4030機能が有効となる)。しかし、状態6120では、OMAP 4100、ディスプレイ4010、カメラ4060および他のコンポーネントは、ハイバネーションモードのまま維持される。通話が終了すると、処理は状態6000に戻る。   In the first example, in state 6000, the system component may initially be in hibernation mode (hibernation), and only the Bluetooth headset function (eg, microphone 4020 and speaker 4030) is enabled. . This state 6000 can be entered when the HMD system 100 is first switched on. Thus, for example, in state 6100, if a call is received, the voice input / output function remains active in state 6110 (eg, microphone 4020 remains on and speaker 4030 function is enabled). Become). However, in state 6120, OMAP 4100, display 4010, camera 4060 and other components remain in hibernation mode. When the call ends, processing returns to state 6000.

別の例では、ハイバネーション状態6000から、音声回路は、「やるべきことのリストを読む」などの特定のユーザ音声コマンドを検出することができる。この状態6200から、状態6210では、OMAPの機能が有効となる。次いで、状態6220では、OMAPは、SDRAMメモリなどのローカルストレージエリアにアクセスし、ユーザのローカルタスクリストに関連するファイルにアクセスし、今日のやるべきタスクの項目別リストを入手することができる。状態6240では、やるべきことのリストデータは、OMAP 4100から音声インターフェースに返信され、やるべきことのリストテキストは、音声に変換され、次いで、ヘッドセット100のスピーカ上で聞かれる。この機能が完了した時点で、状態6500に入り、次いで、システムはハイバネーション状態6000に戻り、次いで、システムは再びブルートゥース(登録商標)ヘッドセットとしてのみ機能し、別のユーザコマンドを待つことになる。   In another example, from hibernation state 6000, the voice circuit may detect a specific user voice command such as “read a list of things to do”. From state 6200 to state 6210, the OMAP function is enabled. Then, in state 6220, OMAP can access a local storage area, such as SDRAM memory, access files associated with the user's local task list, and obtain an itemized list of tasks to do today. In state 6240, what to do list data is returned from OMAP 4100 to the voice interface, and what to do list text is converted to voice and then listened on the speaker of headset 100. When this function is complete, state 6500 is entered, then the system returns to hibernation state 6000, and the system will then only function as a Bluetooth headset again and wait for another user command.

さらなる例では、状態6300において、ユーザは、www.NYTimes.comでNew York Timesのホームページの閲覧を希望することを示すコマンドを話す。このコマンドを受信すると、状態6310において、OMAPの機能が有効となる。図3に関連して説明されたように、WLANインターフェースが起動され、OMAPによるホストプロセッサへのコマンドの発行が可能になり、New York TimesのホームページのHTMLコンテンツを入手することができる。状態6330に入った時点で、マイクロディスプレイ1010の機能も有効となり、それにより、ユーザがウェブページの表示を希望することを予想する。New York Times.comのHTMLウェブページは、例えば、ヘッドセット自体が、搭載ブルートゥース(登録商標)、WLAN回路(Wi Fi)を通じて、または、補助セルラモデムを通じて、インターネットにアクセスする能力を有する場合など、別の方法でもフェッチすることができる。とにかく、コンテンツを入手した時点で、状態6350においてそのコンテンツはフォーマット化され、マイクロディスプレイ上に表示される。ある時点では、ユーザは、ディスプレイ機能を無効にする別のコマンドを発行することができ(またはコマンドがタイムアウトとなり得る)、その時点では、再びハイバネーション機能6000に入る。   In a further example, in state 6300, the user is www. NYTimes. com with a command indicating that he wants to browse the New York Times homepage. When this command is received, the OMAP function is enabled in state 6310. As described with reference to FIG. 3, the WLAN interface is activated, the OMAP can issue commands to the host processor, and the HTML content of the New York Times home page can be obtained. Upon entering state 6330, the function of the microdisplay 1010 is also enabled, thereby predicting that the user wishes to display a web page. New York Times. com's HTML web page is also fetched in other ways, for example, if the headset itself has the ability to access the Internet through on-board Bluetooth, WLAN circuitry (Wi-Fi), or through an auxiliary cellular modem can do. In any event, once the content is obtained, it is formatted in state 6350 and displayed on the microdisplay. At some point, the user can issue another command that disables the display function (or the command may time out), at which point the hibernation function 6000 is entered again.

したがって、ブルートゥース(登録商標)および/またはWiFiフロントエンドがユーザ音声コマンドで着信音声ストリームを検出すると、ブルートゥース(登録商標)および/またはWiFi回路は、OMAPおよび他の周辺デバイスを自動的に起動するが、コマンドの実行に実際に必要とされるもののみを起動する。ブルートゥース(登録商標)および/またはWiFiフロントエンドは、こうして、テーブルまたはデータベースエントリの形でなど、多くの異なるユーザコマンドのそれぞれの実行にどの周辺デバイスおよび/またはOMAPを通電させる必要があるか(もしあれば)を示す情報を保持する。   Thus, when the Bluetooth® and / or WiFi front end detects an incoming voice stream with a user voice command, the Bluetooth® and / or WiFi circuitry will automatically activate OMAP and other peripheral devices. Start only what is actually needed to run the command. The Bluetooth (R) and / or WiFi front end thus determines which peripheral devices and / or OMAP need to be energized for each execution of many different user commands, such as in the form of a table or database entry. Information indicating (if any) is retained.

さらに別の例では(図7を参照)、ユーザの手のジェスチャをカメラで検出し、入力を提供して、システム100の特定のコンポーネントへの電力の印加を制御することができる。この状態では、音声コンポーネント機能が最初に有効となるが、口頭でのコマンドを検出し、少なくともカメラ4060およびOMAP 4100を起動することによって手のジェスチャを読み取り解釈する。   In yet another example (see FIG. 7), a user's hand gesture can be detected with a camera and an input can be provided to control the application of power to certain components of the system 100. In this state, the voice component function is initially enabled, but it detects verbal commands and reads and interprets hand gestures by activating at least the camera 4060 and OMAP 4100.

別の例では、ユーザは、入力として頭部動作を使用することができる。このモードでは、例えば、ユーザが頭部動作を使用して、大きいフォーマットの仮想ディスプレイエリアをパン(移動)、ズームまたは別の方法でナビゲートする場合など、頭部運動追跡部4106およびディスプレイのみが、有効にすることができる関連コンポーネントであってもよい。   In another example, the user can use head movements as input. In this mode, only the head movement tracking unit 4106 and the display are used, for example, when the user uses head movement to pan (move), zoom or otherwise navigate a large format virtual display area. It may be a related component that can be enabled.

このように、HMDシステムの機能は、適切な口頭でのコマンド、ジェスチャコマンドまたはホストコンピュータからのコマンドを介して制御され、ブルートゥース(登録商標)および/またはWiFiインターフェースによって解釈され、サブシステム電子機器のその部分のみを必要に応じて起動する。アクティビティが終了すると、別の口頭でのコマンドまたはタイムアウトは、HMDシステムをスリープモードに戻すことができる。この時点で、ブルートゥース(登録商標)および/またはWiFi回路は、ハイバネーション状態に戻り、通話、別の音声コマンドまたはWLANを介したコンピュータインターフェースコマンドなどの外部の接点信号を待つことになる。   In this way, the functions of the HMD system are controlled via appropriate verbal commands, gesture commands or commands from the host computer, interpreted by the Bluetooth® and / or WiFi interface, and the subsystem electronics Activate only that part as needed. When the activity ends, another verbal command or timeout can return the HMD system to sleep mode. At this point, the Bluetooth® and / or WiFi circuitry will return to the hibernation state and wait for an external contact signal such as a call, another voice command, or a computer interface command over the WLAN.

すべての特許、公開出願および本明細書で引用される参考文献の教示は、それらの全体が参照により組み込まれる。   The teachings of all patents, published applications and references cited herein are incorporated by reference in their entirety.

本発明を、その例示的な実施形態を参照して、具体的に示し、説明してきたが、当業者であれば、添付の特許請求の範囲によって包含される本発明の範囲から逸脱することなく、その中で形態および詳細のさまざまな変更を行えることが理解されよう。
なお、本発明は、実施の態様として以下の内容を含む。
〔態様1〕
マイクロディスプレイ、ユーザ入力デバイス、第1のプロセッサおよび2つ以上の他の周辺回路を含むヘッドマウントディスプレイ(HMD)システムを制御する方法であって、
第1の状態では、前記第1のプロセッサおよびユーザ入力デバイスのみを作動させる工程と、
ユーザ入力を検出する工程と、
前記プロセッサを使用して、口頭でのコマンドまたはジェスチャコマンドとして前記ユーザ入力を解釈する工程と、
第2の状態に入る工程であって、前記口頭でのコマンドまたはジェスチャコマンドに応じて、前記2つ以上の他の周辺機器のうちの選択された周辺機器は作動され、選択されていない周辺機器は作動されないようにする、工程と
を含む方法。
〔態様2〕
前記2つ以上の他の周辺機器は、第2のプロセッサを含む、態様1に記載の方法。
〔態様3〕
前記第2のプロセッサは、前記第1のプロセッサよりも多くの電力を消費する、態様2に記載の方法。
〔態様4〕
前記2つ以上の他の周辺機器は、ワイドエリアネットワークインターフェース、第2のプロセッサ、ディスプレイ、カメラおよび頭部運動追跡器からなる一群から選択される、態様1に記載の方法。
〔態様5〕
前記ユーザ入力は、文書にアクセスするための口頭でのコマンドであり、前記第2の状態では、前記第2のプロセッサおよびマイクロディスプレイに電力が印加され、次いで、前記文書が表示される、態様2に記載の方法。
〔態様6〕
前記ユーザ入力は、ウェブページにアクセスするための口頭でのコマンドであり、前記第2の状態は、さらに、ワイヤレスインターフェースをネットワークに接続して、前記ウェブページをフェッチすることを可能にする、態様5に記載の方法。
〔態様7〕
前記周辺機器は、カメラ、および前記第1の状態で作動された第2のプロセッサを含み、前記ユーザ入力は手のジェスチャであり、前記第2のプロセッサは、前記第2の状態に入る前に前記手のジェスチャを解釈する、態様2に記載の方法。
〔態様8〕
前記周辺機器は、ワイヤレスインターフェースを含み、前記第2の状態は、前記ワイヤレスインターフェースで前記ユーザコマンドをホストに送信する、態様2に記載の方法。
〔態様9〕
前記ユーザコマンドは、前記ディスプレイのアスペクトを操作するための要求であり、前記第2の状態は、前記ディスプレイ上の情報表示を変更する、態様7に記載の方法。
〔態様10〕
視覚情報を表示するマイクロディスプレイと、
センサ入力を示す1つまたは複数の周辺機器入力信号、または、ユーザの動きおよび/もしくは音声入力の少なくとも1つを示す1つまたは複数の周辺機器入力信号を提供する、2つ以上の周辺デバイスと、
前記周辺機器入力信号を1つまたは複数の検出コマンドに変換する第1のプロセッサと、
前記1つまたは複数の検出コマンドに応じて、前記マイクロディスプレイおよび前記1つまたは複数の周辺機器を選択的に作動させるプロセッサコントローラと
を備えたヘッドセット携帯装置。
〔態様11〕
前記1つまたは複数の周辺デバイスが、
前記ユーザから音声信号を受信する1つまたは複数のマイクロホンを備え、
前記第1のプロセッサは、さらに、
音声コマンドを検出するように音声信号を処理する音声認識装置を備える、態様10に記載の装置。
〔態様12〕
前記1つまたは複数の周辺デバイスは、動き検出器であり、前記動き検出器は、2つ以上の軸に沿ったユーザの動きを示す、2つ以上の動き入力を提供する、態様10に記載の装置。
〔態様13〕
前記動き検出器は、前記ユーザの手および/または身体のジェスチャ動作を検出するカメラである、態様12に記載の装置。
〔態様14〕
前記動き検出器は、前記ユーザの頭部動作を検出する頭部動作追跡デバイスである、態様12に記載の装置。
〔態様15〕
前記周辺機器は、当該ヘッドセット携帯装置と別のデータ処理デバイスとの間で、1つまたは複数のワイヤレスリンクを提供する通信インターフェースをさらに備える、態様10に記載の装置。
〔態様16〕
前記ユーザコマンドは、前記第1のプロセッサによって処理されて、前記マイクロディスプレイ上の視覚情報表示のアスペクトが制御される、態様10に記載の装置。
〔態様17〕
前記ユーザコマンドは、視野を制御する、態様16に記載の装置。
〔態様18〕
前記ユーザコマンドは、ズーム、パンまたはスケールファクタを制御する、態様17に記載の装置。
〔態様19〕
前記ユーザコマンドは、ウェブページ表示のハイパーリンクアイテムを選択する、態様16に記載の装置。
While the invention has been particularly shown and described with reference to exemplary embodiments thereof, those skilled in the art will perceive without departing from the scope of the invention encompassed by the appended claims. It will be understood that various changes in form and detail may be made therein.
In addition, this invention contains the following content as an aspect.
[Aspect 1]
A method of controlling a head mounted display (HMD) system including a microdisplay, a user input device, a first processor and two or more other peripheral circuits, comprising:
Activating only the first processor and user input device in a first state;
Detecting user input; and
Interpreting the user input as a verbal command or a gesture command using the processor;
A step of entering a second state, wherein a selected peripheral device of the two or more other peripheral devices is activated and not selected in response to the verbal command or gesture command Is not activated, the process and
Including methods.
[Aspect 2]
The method of aspect 1, wherein the two or more other peripheral devices include a second processor.
[Aspect 3]
The method of aspect 2, wherein the second processor consumes more power than the first processor.
[Aspect 4]
The method of aspect 1, wherein the two or more other peripheral devices are selected from the group consisting of a wide area network interface, a second processor, a display, a camera, and a head motion tracker.
[Aspect 5]
Aspect 2 wherein the user input is a verbal command to access a document, and in the second state, power is applied to the second processor and microdisplay and then the document is displayed. The method described in 1.
[Aspect 6]
The user input is a verbal command to access a web page, and the second state further enables a wireless interface to connect to a network to fetch the web page. 5. The method according to 5.
[Aspect 7]
The peripheral device includes a camera and a second processor activated in the first state, the user input is a hand gesture, and the second processor is prior to entering the second state. A method according to aspect 2, wherein the hand gesture is interpreted.
[Aspect 8]
The method of aspect 2, wherein the peripheral device includes a wireless interface and the second state transmits the user command to a host over the wireless interface.
[Aspect 9]
8. The method of aspect 7, wherein the user command is a request to manipulate an aspect of the display, and the second state changes information display on the display.
[Aspect 10]
A micro-display that displays visual information;
Two or more peripheral devices that provide one or more peripheral input signals indicative of sensor input or one or more peripheral input signals indicative of at least one of user movement and / or voice input; ,
A first processor that converts the peripheral input signal into one or more detection commands;
A processor controller that selectively activates the microdisplay and the one or more peripherals in response to the one or more detection commands;
Headset mobile device with
[Aspect 11]
The one or more peripheral devices are:
Comprising one or more microphones for receiving audio signals from the user;
The first processor further includes:
The apparatus of aspect 10, comprising a voice recognition device that processes a voice signal to detect a voice command.
[Aspect 12]
The aspect 10, wherein the one or more peripheral devices are motion detectors, and the motion detector provides two or more motion inputs that indicate a user's motion along two or more axes. Equipment.
[Aspect 13]
The apparatus according to aspect 12, wherein the motion detector is a camera that detects gesture motion of the user's hand and / or body.
[Aspect 14]
The apparatus according to aspect 12, wherein the motion detector is a head motion tracking device that detects head motion of the user.
[Aspect 15]
The apparatus of aspect 10, wherein the peripheral device further comprises a communication interface that provides one or more wireless links between the headset portable device and another data processing device.
[Aspect 16]
The apparatus of aspect 10, wherein the user command is processed by the first processor to control an aspect of visual information display on the microdisplay.
[Aspect 17]
The apparatus according to aspect 16, wherein the user command controls a field of view.
[Aspect 18]
The apparatus of aspect 17, wherein the user command controls a zoom, pan or scale factor.
[Aspect 19]
The apparatus according to aspect 16, wherein the user command selects a hyperlink item for web page display.

Claims (17)

マイクロディスプレイ、ユーザ入力デバイス、第1のプロセッサおよび2つ以上の他の周辺回路を含むヘッドマウントディスプレイ(HMD)システムを制御する方法であって、
記第1のプロセッサおよびユーザ入力デバイスのみを作動させることにより、第1の状態に入る工程と、
ユーザ入力を検出する工程と、
前記第1のプロセッサを使用して、口頭でのコマンドまたはジェスチャコマンドとして前記ユーザ入力を解釈する工程と、
第2の状態に入る工程であって、前記口頭でのコマンドまたはジェスチャコマンドに基づいて、前記2つ以上の他の周辺機器のうちの選択された周辺機器作動するコマンドを前記第1のプロセッサが発行することによって、かつ、選択されていない周辺機器作動ないようにするコマンドを前記第1のプロセッサが発行することによって、前記第2の状態に入る工程と
を含み、
前記2つ以上の他の周辺機器は第2のプロセッサを含み、前記第2のプロセッサは、前記第1のプロセッサよりも多くの電力を消費する、方法。
A method of controlling a head mounted display (HMD) system including a microdisplay, a user input device, a first processor and two or more other peripheral circuits, comprising:
By operating only the front Symbol first processor and a user input device, a step of entering the first state,
Detecting user input; and
Interpreting the user input as a verbal or gesture command using the first processor;
A step of entering the second state, on the basis of the command or gesture commands verbally, the two or more other of said first processor a command for operating the selected peripheral device of the peripheral device by but issuing, and by issuing a command to not operate the peripheral device is not selected the first processor, look including the step of entering said second state,
The method wherein the two or more other peripheral devices include a second processor, the second processor consuming more power than the first processor .
前記2つ以上の他の周辺機器は、ワイドエリアネットワークインターフェース、前記第2のプロセッサ、ディスプレイ、カメラおよび頭部運動追跡器からなる一群から選択される、請求項1に記載の方法。 Wherein the two or more other peripherals, a wide area network interface, the second processor, the display, is selected from the group consisting of a camera and a head movement tracker The method of claim 1. 前記ユーザ入力は前記口頭でのコマンドであり、この口頭のコマンドは、文書にアクセスするためのものであり、前記第2の状態では、前記第2のプロセッサおよびマイクロディスプレイに電力が印加され、次いで、前記文書が表示される、請求項に記載の方法。 The user's input is a command in the verbal commands of the verbal is for accessing documents, and in the second state, power is applied to said second processor and microdisplay, then the document is displayed, the method according to claim 1. 前記ユーザ入力は前記口頭でのコマンドであり、この口頭のコマンドは、ウェブページにアクセスするためのものであり、前記第2の状態は、さらに、ワイヤレスインターフェースをネットワークに接続して、前記ウェブページをフェッチすることを可能にする、請求項に記載の方法。 Wherein the user input is a command in the verbal commands of the verbal is for accessing the web page, the second state is further connected to a wireless interface to a network, the web page The method of claim 3 , wherein the method can be fetched. 前記周辺機器はカメラを含み前記第2のプロセッサは前記第1の状態でさらに作動され、前記ユーザ入力は手のジェスチャであり、前記第2のプロセッサは、前記第2の状態に入る前に前記手のジェスチャを解釈する、請求項に記載の方法。 The peripheral device comprises a camera, the second processor is further operated in the first state, the user input is a gesture of the hand, the second processor enters the second state It said interpreting gestures hands before a method according to claim 1. 前記周辺機器は、ワイヤレスインターフェースを含み、前記第2の状態は、前記ワイヤレスインターフェースで前記ユーザ入力をホストに送信する、請求項に記載の方法。 The method of claim 1 , wherein the peripheral device includes a wireless interface, and wherein the second state transmits the user input to a host over the wireless interface. 前記ユーザ入力は、前記ディスプレイのアスペクトを操作するための要求であり、前記第2の状態は、前記ディスプレイ上の情報表示を変更する、請求項に記載の方法。 6. The method of claim 5 , wherein the user input is a request to manipulate an aspect of the display and the second state changes information display on the display. 視覚情報を表示するマイクロディスプレイと、
ユーザ入力を提供するユーザ入力デバイスと、
センサ入力を示す1つまたは複数の周辺機器入力信号、または、ユーザからのユーザの動きおよび/もしくはユーザからの音声入力の少なくとも1つを示す1つまたは複数の周辺機器入力信号を提供する、2つ以上の周辺デバイスであって、第1の状態において作動しないようにされる2つ以上の周辺デバイスと、
前記ユーザ入力を1つまたは複数の検出コマンドに変換する第1のプロセッサであって、前記第1の状態においては当該第1のプロセッサおよび前記ユーザ入力デバイスのみが作動されている、第1のプロセッサと、
前記1つまたは複数の検出コマンドに基づいて、前記マイクロディスプレイおよび前記1つまたは複数の周辺機器を選択的に作動および非作動にさせるか、または選択的に作動させるかもしくは選択的に非作動にさせるプロセッサコントローラと
を備え
前記2つ以上の周辺機器は第2のプロセッサを含み、前記第2のプロセッサは、前記第1のプロセッサよりも多くの電力を消費する、ヘッドセット携帯装置。
A micro-display that displays visual information;
A user input device that provides user input;
Providing one or more peripheral input signals indicative of sensor input or one or more peripheral input signals indicative of at least one of user movement from the user and / or voice input from the user ; Two or more peripheral devices that are disabled in the first state ; and
A first processor that converts the user input into one or more detection commands , wherein only the first processor and the user input device are activated in the first state; When,
Based on said one or more detection command, the micro-display and the one or more peripheral devices, selectively activated and whether to deactivated, or selectively to or selectively deactivated actuate and a processor controller for a,
The headset portable device , wherein the two or more peripheral devices include a second processor, wherein the second processor consumes more power than the first processor .
前記1つまたは複数の周辺デバイスが、
前記ユーザから音声信号を受信する1つまたは複数のマイクロホンを備え、
前記第1のプロセッサは、さらに、
音声コマンドを検出するように音声信号を処理する音声認識装置を備える、請求項に記載の装置。
The one or more peripheral devices are:
Comprising one or more microphones for receiving audio signals from the user;
The first processor further includes:
9. The apparatus of claim 8 , comprising a voice recognition device that processes a voice signal to detect a voice command.
前記1つまたは複数の周辺デバイスは、動き検出器であり、前記動き検出器は、前記ユーザの動きを示す2つ以上の動き入力を提供し、当該ユーザの動きは2つ以上の軸に沿っている、請求項に記載の装置。 Said one or more peripheral devices is a motion detector, the motion detector, the motion of the user provides shown to two or more motion input, the motion of the user in more than one axis that in line, apparatus according to claim 8. 前記動き検出器は、前記ユーザの手および/または身体のジェスチャ動作を検出するカメラである、請求項10に記載の装置。 The apparatus of claim 10 , wherein the motion detector is a camera that detects gesture motions of the user's hand and / or body. 前記動き検出器は、前記ユーザの頭部動作を検出する頭部動作追跡デバイスである、請求項10に記載の装置。 The apparatus according to claim 10 , wherein the motion detector is a head movement tracking device that detects a head movement of the user. 前記周辺機器は、当該ヘッドセット携帯装置と別のデータ処理デバイスとの間で、1つまたは複数のワイヤレスリンクを提供する通信インターフェースをさらに備える、請求項に記載の装置。 The peripheral device is between the headset mobile device and another data processing device further comprises a communication interface that provides one or more wireless links, according to claim 8. 記第1のプロセッサは、前記検出コマンドを処理して、前記マイクロディスプレイ上の視覚情報表示のアスペクト制御る、請求項に記載の装置。 Before SL first processor processes the detection command, that controls the visual information display aspect of on the microdisplay apparatus of claim 8. 前記検出コマンドは、視野を制御する、請求項14に記載の装置。 The apparatus of claim 14 , wherein the detection command controls a field of view. 前記検出コマンドは、ズーム、パンまたはスケールファクタを制御する、請求項15に記載の装置。 The apparatus of claim 15 , wherein the detection command controls a zoom, pan or scale factor. 前記検出コマンドは、ウェブページ表示のハイパーリンクアイテムを選択する、請求項14に記載の装置。 The apparatus of claim 14 , wherein the detection command selects a hyperlink item for web page display.
JP2013529323A 2010-09-20 2011-09-15 Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display Active JP5974008B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US38454310P 2010-09-20 2010-09-20
US38441910P 2010-09-20 2010-09-20
US61/384,543 2010-09-20
US61/384,419 2010-09-20
PCT/US2011/051760 WO2012040030A2 (en) 2010-09-20 2011-09-15 Bluetooth or other wireless interface with power management for head mounted display

Publications (3)

Publication Number Publication Date
JP2014503085A JP2014503085A (en) 2014-02-06
JP2014503085A5 JP2014503085A5 (en) 2014-11-06
JP5974008B2 true JP5974008B2 (en) 2016-08-23

Family

ID=45874290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013529323A Active JP5974008B2 (en) 2010-09-20 2011-09-15 Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display

Country Status (4)

Country Link
EP (1) EP2617202A4 (en)
JP (1) JP5974008B2 (en)
CN (1) CN103890836B (en)
WO (1) WO2012040030A2 (en)

Families Citing this family (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US20150205111A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Optical configurations for head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9851787B2 (en) 2012-11-29 2017-12-26 Microsoft Technology Licensing, Llc Display resource management
US20140282273A1 (en) * 2013-03-15 2014-09-18 Glen J. Anderson System and method for assigning voice and gesture command areas
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9448409B2 (en) 2014-11-26 2016-09-20 Osterhout Group, Inc. See-through computer display systems
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US20150277118A1 (en) 2014-03-28 2015-10-01 Osterhout Group, Inc. Sensor dependent content position in head worn computing
US9671613B2 (en) 2014-09-26 2017-06-06 Osterhout Group, Inc. See-through computer display systems
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9651788B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9532714B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US20150206173A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. Eye imaging in head worn computing
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
WO2015179877A2 (en) * 2014-05-19 2015-11-26 Osterhout Group, Inc. External user interface for head worn computing
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
JP6516464B2 (en) * 2014-12-15 2019-05-22 Kddi株式会社 Wearable search system
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
CN104615243A (en) * 2015-01-15 2015-05-13 深圳市掌网立体时代视讯技术有限公司 Head-wearable type multi-channel interaction system and multi-channel interaction method
US9933995B2 (en) * 2015-01-25 2018-04-03 Harman International Industries, Incorporated Headphones with integral image display
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
EP3104252B1 (en) * 2015-06-09 2020-11-11 Nokia Technologies Oy Transition of a head mounted display from operation in a first power mode to operation in a second power mode
US9298283B1 (en) 2015-09-10 2016-03-29 Connectivity Labs Inc. Sedentary virtual reality method and systems
CN105797366A (en) * 2016-03-25 2016-07-27 中国传媒大学 Head-wearing type interactive audio game terminal based on sound source location
DE102016207009A1 (en) * 2016-04-26 2017-10-26 Krones Aktiengesellschaft Operating system for a machine of the food industry, in particular the beverage industry
TWI599966B (en) * 2016-05-10 2017-09-21 H P B Optoelectronic Co Ltd Gesture control modular system
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10312631A (en) * 1997-05-14 1998-11-24 Nec Niigata Ltd Sound reproducing device and information processing device
US6408257B1 (en) * 1999-08-31 2002-06-18 Xerox Corporation Augmented-reality display method and system
DE60045473D1 (en) * 1999-11-09 2011-02-17 Nuance Comm Austria Gmbh LANGUAGE RECOGNITION METHOD FOR ACTIVATING INTERNET HYPERLINKS
US7987491B2 (en) 2002-05-10 2011-07-26 Richard Reisman Method and apparatus for browsing using alternative linkbases
JP3988632B2 (en) 2002-11-28 2007-10-10 日本電気株式会社 Control method of glasses-type display
JP2004349915A (en) * 2003-05-21 2004-12-09 Matsushita Electric Ind Co Ltd Remote control unit
KR100594117B1 (en) * 2004-09-20 2006-06-28 삼성전자주식회사 Apparatus and method for inputting key using biosignal in HMD information terminal
JP4364861B2 (en) * 2005-11-01 2009-11-18 株式会社ソニー・コンピュータエンタテインメント Information display device
JP2008054085A (en) * 2006-08-25 2008-03-06 Hitachi Ltd Broadcast receiving apparatus and starting method thereof
JP5228305B2 (en) * 2006-09-08 2013-07-03 ソニー株式会社 Display device and display method
US8386259B2 (en) * 2006-12-28 2013-02-26 Intel Corporation Voice interface to NFC applications
GB2459220B (en) * 2007-01-12 2012-09-05 Kopin Corp Head mounted computing device
CA2685947A1 (en) * 2007-05-14 2008-11-27 Kopin Corporation Mobile wireless display for accessing data from a host and method for controlling
WO2008144638A2 (en) * 2007-05-17 2008-11-27 Redstart Systems Inc. Systems and methods of a structured grammar for a speech recognition command system
IL183637A (en) * 2007-06-04 2013-06-27 Zvi Lapidot Distributed head-mounted display
WO2009054619A2 (en) * 2007-10-22 2009-04-30 Moon Key Lee Augmented reality computer device
JP5217386B2 (en) * 2007-11-21 2013-06-19 株式会社ニコン Control device, head mounted display device, program, and control method
US8416152B2 (en) 2008-06-11 2013-04-09 Honeywell International Inc. Method and system for operating a near-to-eye display
US8957835B2 (en) * 2008-09-30 2015-02-17 Apple Inc. Head-mounted display apparatus for retaining a portable electronic device with display

Also Published As

Publication number Publication date
EP2617202A4 (en) 2015-01-21
JP2014503085A (en) 2014-02-06
WO2012040030A3 (en) 2014-03-27
WO2012040030A2 (en) 2012-03-29
EP2617202A2 (en) 2013-07-24
CN103890836A (en) 2014-06-25
CN103890836B (en) 2017-03-15

Similar Documents

Publication Publication Date Title
JP5974008B2 (en) Wireless interface such as Bluetooth (registered trademark) with power management function for head mounted display
US9152378B2 (en) Bluetooth or other wireless interface with power management for head mounted display
JP6419262B2 (en) Headset computer (HSC) as an auxiliary display with ASR and HT inputs
EP3179474B1 (en) User focus activated voice recognition
EP2778865B1 (en) Input control method and electronic device supporting the same
US8862186B2 (en) Lapel microphone micro-display system incorporating mobile information access system
US8855719B2 (en) Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
EP2616907B1 (en) Control of applications on a head-mounted display using gesture and motion commands
GB2534274A (en) Gaze triggered voice recognition
US20170011706A1 (en) Head-mounted display apparatus
US20110001699A1 (en) Remote control of host application using motion and voice commands
KR102492560B1 (en) Electronic device and method for controlling input thereof
JP2014503085A5 (en)
WO2013180964A1 (en) Headset computer with docking station
JP2017508193A (en) User configurable speech commands
WO2014107186A1 (en) Controlled headset computer displays
KR20180121254A (en) Electronic device for ouputting graphical indication
KR20180116725A (en) Method for displaying operation screen of speech recognition service and electronic device supporting the same
CN211089903U (en) Wireless earphone and electronic equipment
WO2017108139A1 (en) Changing information output modalities
KR20150014254A (en) Mobile terminal and operation method thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160715

R150 Certificate of patent or registration of utility model

Ref document number: 5974008

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250