JP6177883B2 - Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc) - Google Patents

Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc) Download PDF

Info

Publication number
JP6177883B2
JP6177883B2 JP2015509009A JP2015509009A JP6177883B2 JP 6177883 B2 JP6177883 B2 JP 6177883B2 JP 2015509009 A JP2015509009 A JP 2015509009A JP 2015509009 A JP2015509009 A JP 2015509009A JP 6177883 B2 JP6177883 B2 JP 6177883B2
Authority
JP
Japan
Prior art keywords
smartphone
headset
application
display
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015509009A
Other languages
English (en)
Other versions
JP2015515701A (ja
JP2015515701A5 (ja
Inventor
ジェイコブセン・ジェフリー・ジェイ
パーキンソン・クリストファー
ポンボ・スチーブン・エー
ウッダル・ジェイムズ
ホリック・デイビッド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kopin Corp
Original Assignee
Kopin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kopin Corp filed Critical Kopin Corp
Publication of JP2015515701A publication Critical patent/JP2015515701A/ja
Publication of JP2015515701A5 publication Critical patent/JP2015515701A5/ja
Application granted granted Critical
Publication of JP6177883B2 publication Critical patent/JP6177883B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/724094Interfacing with a device worn on the user's body to provide access to telephonic functionalities, e.g. accepting a call, reading or composing a message
    • H04M1/724097Worn on the head
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces

Description

関連出願
本出願は、2012年4月25日に出願されたJacobsenらによる米国仮特許出願第61/638,419号(代理人整理番号0717.2161−000)、発明の名称「Improved Headset Computer」;2012年5月31日に出願されたJacobsenらによる米国仮特許出願第61/653,474号(代理人整理番号0717.2163−000)、発明の名称「Headset Computer (HSC) As Auxiliary Display With ASR And HT Input」;2013年1月2日に出願されたParkinsonらによる米国仮特許出願第61/748,444号(代理人整理番号0717.2204−000)、発明の名称「Smartphone API For Processing VGH Input」;および2013年1月4日に出願されたParkinsonらによる米国仮特許出願第61/749,155(代理人整理番号0717.2203−000)、発明の名称「Smartphone Application Programming Interface (API) For Controlling HC Differently From Smartphone Display」の利益を請求する、2013年3月13日に出願された米国継続特許出願第13/799,570号の優先権を主張する出願である。
本出願は、2009年5月8日に出願された米国仮特許出願第61/176,662号、発明の名称「Remote Control of Host Application Using Tracking and Voice Commands」(代理人整理番号0717.2096−000);および2009年8月28日に出願された米国仮特許出願第61/237,884号、発明の名称「Remote Control of Host Application Using Motion and Voice Commands」(代理人整理番号0717.2098−000)の利益を請求する、2010年5月5日に出願されたJacobsenらによる米国特許出願第12/774,179号(代理人整理番号0717.2098−001)、発明の名称「Remote Control Of Host Application Using Motion And Voice Commands」に関する。
上記出願の全ての内容は、参照により本願明細書に組み込まれる。
本出願は、ヒューマン/コンピュータインターフェースに関し、より具体的には、ボイスコマンドを受け入れ、頭部動作を追跡して、リモートホストコンピューティングデバイス上で実行されるソフトウェアアプリケーションにコマンド入力を提供し、該ソフトウェアアプリケーションから表示情報を受信する、ヘッドセットコンピューティングディスプレイデバイスに関する。
ノートパソコン(PC)、スマートフォン、タブレットコンピューティングデバイスなどのモバイルコンピューティングデバイスは、現在、ビジネスと私生活の両方において、データを生成、分析、伝達および消費するために用いられる一般的なツールとなっている。高速ワイヤレス通信技術のユビキタス化とともに、デジタル情報へのアクセスの容易さが増すにつれて、消費者は、モバイルデジタルライフスタイルを受け入れ(lembrace)続けている。モバイルコンピューティングデバイスの一般的な用途は、多くの場合ワイヤレスでデバイスにストリーム配信される大量の高解像度のコンピュータグラフィックス情報および(動画)映像コンテンツの表示を含む。これらのデバイスは、典型的には、表示画面を含むが、そのようなデバイスの物理的な大きさが、可動性の向上のために制限されるため、高解像度の大きいフォーマット表示の好ましい視覚体験はそのようなモバイルデバイスでは容易に再現され得ない。上述のデバイスのタイプの別の欠点は、ユーザインターフェースが、手に依存するものであり、典型的には、ユーザが、キーボード(物理的もしくは仮想)またはタッチスクリーンディスプレイを用いてデータ入力や選択を行う必要があることである。結果として、消費者は、現在、手に依存するモバイルデバイスを拡張するまたはこれに取って代わる、ハンズフリーの高品質で携帯可能なカラー表示のソリューションを求めている。
最近開発されたマイクロディスプレイは、非常に小さなフォームファクタで、大きいフォーマットの高解像度カラーピクチャおよびストリーミング映像を提供できる。そのようなディスプレイの1つの適用例は、眼鏡、オーディオヘッドセット、またはビデオアイウェアと同様のフォーマットの、ユーザの視野内に置かれたディスプレイを有する、ユーザの頭部に着用されたワイヤレスヘッドセットコンピュータに統合できる。「ワイヤレスコンピューティングヘッドセット」デバイスは、(静止)画像を拡大する1つ以上の小型高解像度マイクロディスプレイおよびオプティクスを含む。WVGAマイクロディスプレイは、super video graphics array(SVGA)(800×600)解像度またはextended graphic arrays(XGA)(1024×768)またはさらに高い解像度を提供できる。ワイヤレスコンピューティングヘッドセットは、データおよびストリーミング映像能力を可能にする1つ以上のワイヤレスコンピューティングおよび通信インターフェースを含み、手に依存するデバイスより高い利便性および可動性を提供する。
そのようなデバイスに関するさらなる情報については、2009年1月5日出願されたParkinsonらによる同時係属中の米国特許出願第12/348,646号、発明の名称「Mobile Wireless Display Software Platform for Controlling Other Systems and Devices」;2009年3月27日に出願されたJacobsenらによるPCT国際出願第PCT/US09/38601号、発明の名称「Handheld Wireless Display Devices Having High Resolution Display Suitable For Use as a Mobile Internet Device」;および2012年4月25日に出願されたJacobsenらによる米国特許出願第61/638,419号、発明の名称「Improved Headset Computer」を参照されたい。これら全てはその全体が参照により本明細書に組み込まれる。
本発明の例示的な実施形態は、スマートフォンまたはPCにネイティブであるアプリケーションをスマートフォンまたはPC上で実行することを含む、スマートフォンまたはPCアプリケーションを操作する方法およびこれに対応するシステムを含む。本発明の方法およびシステムは、スマートフォンまたはPC画面およびヘッドセットコンピューティングディスプレイデバイスを介して同時に表示するための、ネイティブアプリケーションの出力を生成する。一実施形態では、ヘッドセットコンピューティングデバイスのための表示出力は、マークアップ言語で行われる。ヘッドセットコンピューティングデバイスは、スマートフォンまたはPCによって生成された表示出力を要求し受信することに応じて、受信された表示出力をヘッドセットディスプレイを介して描画するために翻訳する。音声認識および頭部追跡ユーザインターフェースモードで動作しているヘッドセットコンピューティングデバイスは、ヘッドセットコンピューティングデバイスを装着しているエンドユーザからの認識されたユーザ音声(ボイスコマンド)および頭部追跡コマンド(頭部動作)をモニタする。受信された音声認識および頭部追跡コマンド−エンドユーザ入力−に応じて、ヘッドセットコンピューティングデバイスは、受信された音声認識および頭部追跡コマンドを等価のスマートフォンコマンドまたはPCコマンド(例えば、タッチスクリーン、キーボード、および/またはマウスコマンド)に翻訳して、当該等価のコマンドをスマートフォンまたはPCに送信してネイティブアプリケーションを制御する。
本発明のさらなる例示的な実施形態は、スマートフォン上でネイティブ画像および/または映像視聴用アプリケーションを実行することを含む、スマートフォン(またはPC)を操作する方法およびこれに対応するシステムを含む。本実施形態は、音声認識および頭部追跡ユーザインターフェースモードでヘッドセットコンピューティングデバイスを動作させ、ヘッドセットコンピューティングデバイスにおいてエンドユーザからのユーザ音声認識および頭部追跡コマンドをモニタする。本実施形態は、受信された音声認識および頭部追跡コマンドに応じて、ヘッドセットコンピューティングデバイスにおいて該受信された音声認識および頭部追跡コマンドを等価のスマートフォンコマンドに翻訳する。等価のスマートフォンコマンドは、ヘッドセットコンピューティングデバイスのディスプレイ上の画像または映像を取り込むことと、等価のスマートフォンコマンドをスマートフォンに送信してネイティブ画像および映像視聴用アプリケーションを制御することと、取り込まれた画像および/または映像をヘッドセットコンピューティングディスプレイデバイスを介しておよびスマートフォンディスプレイを介して同時に表示することとを含む。
例示的な実施形態は、生成された表示出力に含まれるハイパーテキストマークアップ言語5(HTML5)などのマークアップ言語の使用をさらに含んでよい。例示的な実施形態は、音声認識および頭部追跡コマンドにより、可聴的および視覚的プロンプトなどのメニュー選択肢およびプロンプトをエンドユーザに提示してもよい。ホストスマートフォンまたはPCとヘッドセットコンピューティングデバイスとの間のワイヤレス通信リンクは、Bluetooth(登録商標)またはWi−Fiワイヤレス規格などのワイヤレス通信リンクを使用してよい。
さらなる例示的な実施形態は、スマートフォンまたはPC上で実行されるネイティブアプリケーションの制御、音声認識およびハンズフリーユーザインターフェースをさらに効果的に可能にしてよい。
スマートフォンアプリケーションからの出力をヘッドセットコンピュータ上に表示するさらなる例示的な方法、およびこれに対応するデバイスについて述べる。実施形態は、スマートフォン上でアプリケーションを実行し、ヘッドセットコンピュータを介して表示するための実行されたアプリケーションの出力を生成する。スマートフォンは、実行されたアプリケーションの出力をヘッドセットコンピュータが表示するためのアクションを示す記述言語による指示を構成し送信する。実施形態では、構成された指示をヘッドセットコンピュータにおいて低帯域幅で受信し、これに応じて、ヘッドセットコンピュータが、行うべき前記示されたアクションに基づいて上記生成された出力の表示を形成する。アクションは、オンスクリーン通知、メッセージ、グラフィック要素、および、複数の予め定義された音声シーケンスのうちの1つを再生しヘッドセットコンピュータの構成要素を制御する要求、のうちのいずれかを含む。
それぞれの要素タイプのアクションは、そして、各要素タイプについて、指示はヘッドセットコンピュータに関して予め定義された複数のスタイルのうちの1つを示してよい。記述言語は、HTML5または他のマークアップ言語であってよい。ヘッドセットにおいてヘッドセットドメインで描画される形成された表示は、音声認識/頭部追跡ユーザインターフェースによって提示されるメニュー選択肢およびプロンプトを含んでよい。メニュー選択肢および出力は、可聴的におよび視覚的にユーザに提示されてよい。ヘッドセットコンピュータによる受信、およびスマートフォンによる送信は、ワイヤレス通信リンクを介して行われ得る。ワイヤレス通信リンクは、Bluetooth(登録商標)、Wi−Fi、または他のプロトコルのいずれであってもよい。
例示的な方法は、ヘッドセットコンピュータにおいて音声認識/頭部追跡ユーザインターフェースからの入力をモニタすることをさらに含むことができる。受信された音声認識/頭部追跡コマンド入力に応じて、ヘッドセットコンピュータは、受信された音声認識/頭部追跡コマンドを等価のスマートフォンコマンドに翻訳し、等価のスマートフォンコマンドをスマートフォンに送信して実行されたアプリケーションを制御する。ヘッドセットコンピュータによる表示は、スマートフォンとの音声およびハンズフリーユーザインタラクションを効果的に可能にすることができる。
上記は、以下の本発明の例示的な実施形態のさらに具体的な説明からさらに明らかになるであろう。添付図面において、異なる図全体にわたり、同じ部分は同じ参照符号で示す。図面は必ずしも原寸に比例しておらず、本発明の実施形態の説明に重点が置かれている。
本発明の原理による、ホストコンピューティングデバイス(例えば、スマートフォン、PCなど)と通信中のヘッドセットコンピューティングデバイスの例示的な実施形態を示す図である。 ヘッドセットコンピュータの例示的な実施形態の斜視図である。 本発明の原理による図1Aおよび1Bの例示的な実施形態のデータおよび制御通信を示すブロック図である。 本発明の原理による、ヘッドセットコンピューティングデバイスを使用してホストコンピューティングデバイス(スマートフォンまたはPC)上でネイティブアプリケーションを実行する例を示す図である。 本発明の原理による、ヘッドセットコンピューティングデバイスを使用してホストコンピューティングデバイス(スマートフォンまたはPC)上でネイティブアプリケーションを実行する例を示す図である。 本発明の原理による、ヘッドセットコンピューティングデバイスを使用してホストコンピューティングデバイス(スマートフォンまたはPC)上でネイティブアプリケーションを実行するさらなる例を示す図である。 本発明の原理による、ヘッドセットコンピューティングデバイスを使用してホストコンピューティングデバイス(スマートフォンまたはPC)上でネイティブアプリケーションを実行するさらなる例を示す図である。 本発明の原理による、ヘッドセットコンピュータを使用してホストアプリケーションを操作する例示的な方法を示すフローチャートである。 音声認識および頭部追跡ユーザインターフェースを使用してヘッドセットコンピューティングデバイスがどのようにホストコンピューティングデバイス上で実行されるアプリケーションを制御するために使用され得るかを示す例示的な実施形態の高レベルソフトウェアダイアグラムである。 本発明の実施形態のフローチャートである。
以下に、本発明の例示的な実施形態を説明する。
少なくとも補助ディスプレイおよびエンドユーザ入力デバイスとして使用されるのに十分な計算能力および演算能力を有するヘッドセットコンピュータ(HSC)が、「ホスト」(あるいは「メイン」または「コントローラ」)コンピューティングデバイスに動作可能に接続され、ホスト上で実行される従来のソフトウェアアプリケーションを、ホストおよびHSCを介して同時に表示させると共に、HSCで受信されたエンドユーザ入力を使用して制御されることが可能になる。ホストコンピューティングデバイスは、スマートフォン、タブレット、またはパーソナルコンピュータ(PC)を含んでよい。HSCおよびホストは、有線でまたは好ましくは無線で動作可能に結合され得る。
本発明の例示的な方法によれば、スマートフォンまたはPCは一次(またはメイン)コンピューティングデバイスであってよく、HSCは、スマートフォンまたはPCコンピューティングデバイスに対する補助ディスプレイおよびユーザインターフェースであってよい。スマートフォンまたはPCは、従来の通例の様式で自己のディスプレイを使用して、自己のネイティブソフトウェアを実行することができる。HSCだけでは、タッチスクリーン、キーボード、および/またはマウスなどの従来のユーザインターフェースハードウェアがないため、そのようなソフトウェアアプリケーションを実行できない。したがって、ハンズフリーコンピューティングを行うために、スマートフォンまたはPCは、セカンドクラスのアプリケーションを実行できる。このセカンドクラスのアプリケーションは、スマートフォンまたはPC上で直接動作しつつ、ネイティブアプリケーションのための表示出力としてHSCを使用し、かつHSCユーザ入力デバイスに機能的に内蔵された自動音声認識装置(ASR)および頭部追跡装置(HT)を使用するように、特別に設計されている。
本発明の例示的な実施形態では、HSCは、以下を行うために少なくとも十分な計算および演算能力を含む:(i)フルスクリーン(screen-full)の情報を表示する;(ii)頭部ジェスチャ追跡をモニタし、頭部動作情報をメインコンピュータ(例えばスマートフォンまたはPC)にフィードバックする;および(iii)音声をモニタおよび処理し、音声認識結果をメインコンピュータにフィードバックする。HSCとメインコンピュータ(スマートフォンまたはPC)をペアリングすることで、メインコンピュータは、メインコンピュータ上で主に動作するがHSCのディスプレイおよびHSCからの拡張入力を使用する、特別に作成されたハンズフリーアプリケーションを効果的に維持できる。
一実施形態では、HSCは、2011年2月1日に出願された、Jacobsenらによる同時係属中の米国特許出願第13/018,999号、発明の名称「Wireless Hands-Free Computing Headset With Detachable Accessories Controllable By Motion, Body Gesture And/Or Vocal Commands」(これは全体が参照により本願明細書に組み込まれる)に記載されるHSCの形態をとってもよい。
図1Aおよび図1Bは、高解像度(VGA以上)マイクロディスプレイ要素1010と以下に述べる他の特徴とを組み込んだ、ワイヤレスコンピューティングヘッドセットデバイス100(本明細書においてヘッドセットコンピュータ(HSC)ともいう)の例示的な実施形態を示す。HSC100は、以下を含むオーディオ入力および/または出力デバイスを含んでよい:ヘッドセットに組み込まれおよび/もしくは統合され、ならびに/もしくは1つ以上の周辺機器ポート(図1Bでは詳細に図示せず)を介してデバイスに取り付けられた、1つ以上のマイク、スピーカ、地理測位センサ(GPS)、3軸〜9軸自由度方位センサ、大気センサ、健康状態センサ、デジタルコンパス、圧力センサ、環境センサ、エネルギーセンサ、加速度センサ、位置、姿勢、運動、速度用センサおよび/もしくは光センサ、カメラ(可視光、赤外線など)、複数のワイヤレス無線、補助照明、距離計など、ならびに/またはセンサのアレイ。ヘッドセットコンピューティングデバイス100の筐体内に典型的に配置されているのは、マイクロコンピュータ(シングルまたはマルチコアプロセッサ)を含む様々な電子回路、1つ以上の有線および/またはワイヤレス通信インターフェース、メモリまたは記憶装置、様々なセンサ、ならびに「ホットシュー」などの周辺機器マウントである。
HSC100の例示的な実施形態は、ボイスコマンドの認識、頭部動作110、111、112の検知、およびハンドジェスチャ113、またはこれらの組み合わせを通して、ユーザ入力を受信できる。HSC100に動作可能に結合または好ましくは統合されたマイク(複数可)を使用して音声(ボイス)コマンドをとらえることができ、次いで、この音声コマンドは、自動音声認識(ASR)技術を使用してデジタル化および処理される。ジャイロスコープ、加速度計、および他のマイクロ電気機械的システムセンサを、HSC100に統合し、ユーザの頭部動作の追跡に使用して、ユーザ入力コマンドを提供できる。カメラまたは他の動作追跡センサを使用して、ユーザ入力コマンドのためのユーザのハンドジェスチャをモニタできる。ボイスコマンドの自動認識や頭部動作追跡機能(features)など、そのようなユーザインターフェースは、他のモバイルデバイスの手に依存するフォーマットに打ち勝つ。
ヘッドセットコンピューティングデバイス100は、リモートホストコンピューティングデバイス200(図1Aに示す)から受信したストリーミング映像信号用のリモート補助ディスプレイとして使用できる。ホスト200は、例えば、HSC100と通信し、ネイティブアプリケーションを実行し、出力表示フィードを生成送信しHSC100からユーザ入力コマンドを受信するのに十分な計算能力を有する、ノートブックPC、スマートフォン、タブレットデバイス、または他のコンピューティングデバイスであってよい。ホストは、さらに、インターネットなどの他のネットワーク210に接続可能であってもよい。HSC100およびホスト200は、Bluetooth(登録商標)、Wi−Fi、WiMAX、または他のワイヤレス無線リンク150などの1つ以上のワイヤレスプロトコルを介してワイヤレス通信可能である。(Bluetooth(登録商標)は、98033ワシントン州カークランドレイクワシントンブールバード5209のBluetooth Sig, Inc.の登録商標である。)
図1Bは、ヘッドセットコンピュータ100の例示的な実施形態を幾分詳細に示した斜視図である。例示的な実施形態のHSC100は、概して、フレーム1000と、ストラップ1002と、後部筐体1004と、スピーカ1006と、内蔵マイク(複数可)を有するカンチレバー(あるいはアームまたはブームともいう)1008と、マイクロディスプレイサブアセンブリ1010と、周辺機器ポート1020とを含む。
頭部装着フレーム1000およびストラップ1002は、概して、ユーザが自己の頭部にヘッドセットコンピュータデバイス100を装着できるように構成されている。筐体1004は、一般に、ロープロファイルユニットであり、例えばマイクロプロセッサ、メモリもしくは他の記憶装置、低電力ワイヤレス通信デバイス(複数可)などのエレクトロニクスを、他の関連する回路と共に収容する。スピーカ1006は、例えばマルチメディア提示のオーディオ部分、またはユーザコマンドの認識を知らせるオーディオプロンプト、アラート、もしくはフィードバックなどの情報がユーザに聞こえるように、オーディオ出力をユーザに提供する。
マイクロディスプレイサブアセンブリ1010は、ユーザに対して画像や映像などの視覚情報を描画するために使用される。マイクロディスプレイ1010は、アーム1008に結合されている。アーム1008は、一般に、ユーザの視野内、好ましくはユーザの目の前、または好ましくは目の少し下もしくは少し上の周辺視野内にマイクロディスプレイサブアセンブリが位置づけられるように、物理的支持を提供する。アーム1008はまた、マイクロディスプレイサブアセンブリ1010と筐体ユニット1004内に収容された制御回路との間の電気接続または光接続を提供する。
以下にさらに詳細に説明する局面によれば、マイクロディスプレイ1010を有するHSCディスプレイデバイス100によって、エンドユーザは、仮想ディスプレイ400で定義される非常に大きい領域内の視野300(図1A)を選択できる。ユーザは、典型的には、位置、程度(X−Yもしくは3Dレンジなど)および/または視野300の倍率を制御できる。
図1A、図1Bに示すHSC100の例示的な実施形態は、カンチレバーブームでユーザの顔の前の視野内に支持される単一の固定表示要素を提供する単眼マイクロディスプレイであるが、補助ディスプレイデバイスHSC100のための他の機械的構成も可能であることを理解されたい。
図2は、HSCデバイス100、ホスト200、およびその間を行き来するデータをより詳細に示すブロック図である。双方向通信リンク150を、HSC100とホストコンピューティングデバイス200との間に確立することができる(そのような通信リンクのさらなる詳細については、2013年1月15日発行の米国特許第8,355,671号、発明の名称「Method And Apparatus For Transporting Video Signal Over Bluetooth Wireless Interface」(この全体が参照により本明細書に組み込まれる)を参照のこと)。
本発明の例示的な実施形態では、外部の「スマート」デバイス200(本明細書において「ホスト」デバイスまたは「コントローラ」ともいう)をHSC100と結合して、情報およびハンズフリー制御をユーザに提供する。例示的な実施形態では、ホスト200とHSC100との間の少量のデータの送信を使用し、したがって、リアルタイム制御のためのより信頼性の高いデータ転送方法および制御方法を提供する。
好ましい実施形態は、2つのデバイスを協働させることを含み、そのうちの一方がHSC100である。他方のデバイス(コントローラまたはホスト)はスマートデバイス200であり、スマートデバイス200は、アプリケーションを実行し、データを処理し、ユーザに機能性を提供するデバイスである。例示的なコントローラは、スマートフォン、タブレット、ラップトップを含むが、これらに限定されない。
コントローラ200とHSC100は、適切なトランスポート、典型的にはBluetooth(登録商標)などのワイヤレス双方向通信リンクを介して、ペアリングすることができる。そのような適切なプロトコルによって転送されるデータ量は少ないので、転送において、より高帯域幅を必要とする他のアクティビティとシェアできる。
コントローラ200は、セカンドクラスのアプリケーションなどのソフトウェアを実行することができる。このソフトウェアは、ソフトウェアスタックの最上位層で動作し、コントローラ200がHSC100に指示を送れるようにするものである。HSC100上での全画面コンテンツをアウトラインするデータを送らなければならないことを避けるために、コントローラ200は、その代わりに、HSC100がHSC100上で機能するソフトウェアを使用して解釈できる指示を、送ることができる。コントローラ200から送られた指示は、オンスクリーン通知、メッセージ、および他のグラフィック要素を含む、行うべきアクションを記述できる。そのような指示は、予め設定された(予め定義された)音声シーケンスのセットのうちの1つを再生するまたはHSC100の他の構成要素を制御する要求を、含むこともできる。
上記指示はさらに、予め設定された「スタイル付けされた要素」を含むことができる。スタイル付けされた要素は、表示画面のレイアウトの仕方、どのテキストを表示するか、テキストフォント、フォントサイズ、ならびに、例えば矢印の描画、矢印スタイルおよびサイズ、背景および前景カラー、含むべき画像または除外すべき画像などの他のスタイル要素情報に関する、ショートハンド指示またはコードを含むことができる。したがって、各要素タイプ(通知、メッセージ、テキストボックス、ピクチャボックスなど)について、複数の表示スタイルがある。スタイル付けされた要素により、コントローラ200は、HSC100上での情報の表示の仕方において、高度の柔軟性を有することができる。このように、所与の情報について、HSC100に表示される視覚要素は、コントローラ200のディスプレイに表示された視覚要素とは異なり得る。
双方向通信プロトコルが表示指示を転送している間に、より高帯域幅のアクティビティを要求することができる。より高帯域幅のトラフィックは、本発明の低帯域幅のトラフィックと分けることができる。例えば、HSC100を映像呼出しのために利用することができ、それによって要求を送り、ディスプレイ、カメラ、ならびにオーディオ通信周辺機器(マイクおよびスピーカ)に対するアクセスおよび制御を得ることができ、そしてHSC100上でライブ映像を表示しライブオーディオを再生することができる。そのような要求は、補助プロトコル(例えば、HSC100のための低帯域幅指示)の一部であってよいが、高帯域幅の映像呼出しトラフィックは、その外側にあってよい。
スタイル付けされた要素の送信では、接続150を介して送信されるデータ量は、画面のレイアウトの仕方、どのテキストを表示するか、ならびに、例えば矢印の描画、背景カラー、含むべき画像などの他のスタイル情報に関する、小さな単純な指示の量である。コントローラ200によって要求された場合、映像ストリームなどの追加のデータは、同じリンク150または他の接続を介してストリームでき、画面1010に表示できる。
他の実施形態では、双方向通信リンクが確立された後、ホストコンピューティングデバイスにネイティブであるソフトウェアアプリケーションが、ホスト200プロセッサによって実行され得る。ネイティブアプリケーションは、表示用の出力画像のフィードを生成できる。出力画像がマルチスクリーン表示用に使用され得るように、セカンドクラスのアプリケーションがホストによって実行されて、ハイパーテキストマークアップ言語5(HTML5)などのマークアップ言語を出力画像に追加することができる。ホストは、ホストデバイス200およびHSC100の両方のディスプレイを介して、しかしそれぞれのフォーマット、レイアウト、ユーザインターフェースで、アプリケーション出力を同時に表示するために、マークアップされた表示データをHSC100に送信できる。HSC100は、マークアップされた表示データを処理して、利用可能なメニュー選択肢およびプロンプトをHSC100のエンドユーザに提示してもよい。それによって、エンドユーザは、ホスト200上で動作中のアプリケーションと、HSC100を介してハンズフリーでインターフェースをとることができるようになる。例えば、視覚プロンプトは、認識された言語コマンドを示す1つ以上のテキストボックス、および/もしくは頭部追跡(ならびに/または手の動作)コマンドを示す矢印もしくは他の動作インジケータを含んでよい。オーディオプロンプトは、例えば、認識された言語コマンドのテキストから音声への機械朗読を含んでよい。
HSCデバイス100は、マイクを介してユーザから音声入力を、位置および方位センサ、カメラまたは光センサ(複数可)を介して手の動作またはボディジェスチャを、3軸〜9軸自由度方位検知などの頭部追跡回路を介して頭部動作入力を、受信できる。これらのコマンド入力は、HSCデバイス100内のソフトウェアによって等価のホストデバイス200用コマンド(例えば、タッチジェスチャ、キーボードおよび/またはマウスコマンド)に翻訳され、そしてこれらのコマンドは、Bluetooth(登録商標)または他のワイヤレスインターフェース150を介してホスト200へ送られ得る。そして、ホスト200は、ホストオペレーティングシステムおよび実行されたネイティブアプリケーションソフトウェアに従って、翻訳された等価のコマンドを解釈し、様々な機能を実施することができる。
等価のコマンドの中には、仮想ディスプレイ400内の視野300(図1A)を選択し、選択された画面データをHSCデバイス100に返すコマンドが含まれ得る。したがって、非常に大きなフォーマットの仮想ディスプレイ領域が、ホスト200上で動作中のアプリケーションソフトウェアまたはオペレーティングシステムと関連づけられ得ることを理解されたい。しかし、視野300内における大きな仮想ディスプレイ領域400の一部分だけをHSCデバイス100のマイクロディスプレイ1010に返し、HSCデバイス100のマイクロディスプレイ1010によって実際に表示してもよい。
図3Aおよび図3Bは、本発明の原理による、ヘッドセットコンピューティングデバイス100を使用してホストコンピューティングデバイス200(スマートフォンまたはPC)上で地理測位システム(GPS)地図ベースのネイティブアプリケーションを実行する例を示す。
例示的な本実施形態では、少なくとも説明の目的で、HSCは、表示データを処理し、ユーザ音声および動作入力をモニタし、そのような入力を等価のコマンドに翻訳するだけのために十分な処理装備および能力を備えることができる。図3Aおよび図3Bに示した例示的な実施形態において、HSC100は、GPSレシーバモジュールを備えず、直接のインターネット接続を有さない。
ホストコンピューティングデバイス200(例えば、スマートフォン、またはGPSレシーバを備える他の一次(primary)コンピューティングデバイス)は、自己の現在の座標に基づいて地図画面画像を生成できる。典型的には、スマートフォン200は、スマートフォン200が自己の現在の位置を提供できるように、GPSレシーバおよび関連づけられた処理ソフトウェアを備える。さらに、スマートフォン200は、通常、関連する地図グラフィックをダウンロードできるようにインターネット接続を備える。地図グラフィックは、スマートフォン上で動作中のセカンドクラスのアプリケーションによって後処理されることができ、それによって、後処理されたマークアップ済グラフィックデータが、視野300を介してユーザに対して描画および表示されるためにHSC100に送られる。後処理されたデータは、図3Aに示すように、「衛星」、「パン」、「ズームイン」、および「終了」などの、テキスト形式でHSC100に送られた認識されるべき音声コマンド3030の組を含むことができる。HSC100は、マークアップされたデータを受信して処理した後、ユーザがコマンド3030のうちの1つを選択してそれを話す/発音することで聞くことを開始できる。
地図が視野300を介してHSC100上に表示されている間に、頭部ジェスチャ動作が、HSC100によってモニタされ、等価のタッチスクリーンまたはキーボード(物理的もしくは仮想)コマンドに翻訳され、GPS地図ベースのアプリケーションに従って処理するために双方向通信リンク150を介してスマートフォン200へ直接フィードバックされ得る。例えば、ユーザの頭部が左に動くと、スマートフォン200は地図を左にパンし、更新されたグラフィックをHSCディスプレイ1010に送ってもよい。このように、スマートフォン200はそうした処理ワークを行うことができ、その一方でHSC100は補助ディスプレイおよびユーザインターフェースを提供できる。
同時に、ユーザは、「衛星」などの認識される有効なコマンド3030を話してよい。ユーザは、「衛星」が有効なコマンドであることを、HSC100を介して視覚的にまたは可聴的にプロンプトされることによって気づかされてもよい。これは、HSC100がスマートフォンアプリケーションから生成されたマークアップされたデータを処理し、HSC100によって処理された時に該データが、有効なコマンド3030を聞くようにHSC100に指示することによって、行われる。コマンドワード「衛星」を認識する際、HSC100は、話し言葉を等価のデジタルコマンドに置き換え、デジタルコマンドをスマートフォン200に送り返すことができる。そして、スマートフォン200は、新しい地図ビューを生成し、この新しい生成されたビューを、図3Bに示すようにマイクロディスプレイ1010の視野300を介して表示するためにHSC100に送ることにより、受信した等価のデジタルコマンドに応答できる。したがって、スマートフォン200はボイス認識能力を有する必要がない。この機能はHSC100によって行われる。
HSC100のエンドユーザが、ハンズフリー操作のためにスマートフォン200のメモリまたは他の記憶装置に記憶されているネイティブアプリケーションのアレイから選択を行えることも、さらに想定される。HSC100ユーザは、オンスクリーン(HSC画面300)メニューおよび関連づけられたボイスコマンドを介して、操作すべきアプリケーションを選択できるであろう。そのようなメニューはセカンドクラスのアプリケーションによって生成され得、上述のようにしてスマートフォン200からHSCへ送られ得る。セカンドクラスのアプリケーションは、一旦実行されると、どのネイティブアプリケーションが互換性を有しHSC100でアクセス可能であるかを判断できる。
HSC100の全ての動作中、ホストコンピューティングデバイス200(スマートフォンまたはPC)の通常の機能性は継続できる。このような手法により、HSC100は、エンドユーザが認識するようないかなる機能性も諦めることなく、既知の(HSCの)実施形態におけるよりもさらに単純なデバイスとすることができる。計算知能は主にホスト200によって提供される。しかし、頭部追跡および音声コマンドなどと組み合わせて頭部追跡および入力コマンドを使用してハンズフリー操作およびナビゲーションを提供するような、HSC100の進歩した点の全てが、依然として利用可能であることを理解されたい。
図4Aおよび図4Bは、本発明の原理による、ヘッドセットコンピューティングデバイス100を使用してホストコンピューティングデバイス(スマートフォンまたはPC)200上で例えばeメールアプリケーションなどのネイティブアプリケーションを実行する、他の例を示す。
図4Aおよび図4Bの例では、少なくとも説明の目的で、HSC100は、主に、表示データを処理し、ユーザ音声および動作入力をモニタし、そのような入力を等価のコマンドに翻訳するのに十分な処理装備および能力を備える。HSC100はインターネット接続を備えない。
ここではiPhone(登録商標)として描かれているホストコンピューティングデバイス200は、自己のネイティブeメールアプリケーションに基づき画面画像を生成する。(iPhoneはカリフォルニア州クパチーノのApple Inc.の登録商標である)。典型的には、iPhone(またはスマートフォン)200は、iPhone200がインターネット接続を介してeメールサーバーにアクセスできるように、eメールアプリケーションおよび関連づけられた処理および通信能力を備える。eメールアプリケーション表示出力2010aのグラフィックフィードは、スマートフォン200上で動作中のセカンドクラスのアプリケーションによって後処理され、それによって、後処理されたマークアップ済グラフィックデータは、視野300を介してユーザに対して描画および表示されるためにHSC100へ送られる。後処理されたデータは、図4Bに示すように、「返信」、「全員に返信」、「破棄」、「次へ」、「受信箱」、および「終了」など、HSC100へテキスト形式で送られた認識される音声コマンド3030の組を含むことができる。HSC100は、マークアップされたデータを受信して処理すると、ユーザが(1つ以上の)コマンド3030を話す(発音する)のを聞き始めることができる。
eメールアプリケーションが視野300を介してHSC100上に表示されている間、頭部ジェスチャ動作が、HSC100によってモニタされ、等価のタッチスクリーンまたはキーボード(物理的もしくは仮想)コマンドに翻訳され、eメールアプリケーションに従って処理するためにスマートフォン200に直接フィードバックされる。例えば、矢印3031でプロンプト表示されているようにユーザの頭部が左に動くと、HSC100は、対応するスマートフォン200の互換性コマンドを生成し送信する。これに応じて、スマートフォン200は「受信箱」に戻り、更新されたグラフィックをディスプレイ1010で提示するためにHSC100に送る。このように、スマートフォン200はそうした処理ワークを実行でき、その一方で、HSC100は補助ディスプレイおよびユーザインターフェースを提供できる。
同時に、ユーザは、前述したように「返信」などの有効な認識されるコマンド3030を話してもよい。HSC100は、「返信」などのコマンドワードを認識すると、この話し言葉を等価のデジタルコマンドに変換し、生成したコマンドをスマートフォン200に送り返すことができる。そして、スマートフォン200は、返信メッセージを表す更新グラフィックを生成することにより、受信した等価のコマンドに応答し、(HSC100ドメイン用に修正した)返信メッセージ画面ビュー2010bをマイクロディスプレイ1010の視野300を介して表示するためにHSC100へ送ることができる。
図5は、本発明の原理に従った、ホストコンピューティングデバイス200のアプリケーションを操作する方法500の高レベルのフローチャートである。最初のステップにおいて、本方法が開始する(ステップ501)。その後、ホストデバイス200は、ネイティブアプリケーションを実行できる(ステップ511)。そして、ネイティブアプリケーションは、表示出力ともいう出力画像のフィードを生成できる(ステップ513)。生成された出力画像のフィードは、適切なフォーマットでホスト表示画面を介して表示され得る(ステップ519)。次に、ユーザ指示(例えば、制御コマンド)がネイティブアプリケーションによって実行され得るように、デバイス200におけるユーザ入力がモニタされ得る(ステップ521)。タッチスクリーン入力またはタイプ入力などのユーザコマンドが検出されると、そのようなコマンドは、ネイティブアプリケーションに従って実行され得る(ステップ511)。そうでない場合は、ホスト200処理が完了しているか否かが判断される(ステップ523)。該処理が完了していない場合、ネイティブアプリケーションに従い、実行を継続できる(ステップ511)。処理が完了している場合、本方法は終了できる(ステップ530)。
ステップ511および513と並行して(または続けて順番に、前後して)、双方向通信リンクがホストデバイス200とHSC100との間で確立され得る(ステップ505)。また、ステップ511、513、および505と並行して(または続けて順番に、前後して)、HSC100は、自動音声認識(ASR)および頭部追跡(HT)動作モードで動作され得て、その間、エンドユーザ入力(例えば、話し言葉コマンドおよび/または頭部動作)がユーザコマンドとしてモニタされ認識される(ステップ512)。ASR/HTモードで動作開始(ステップ512)後、HSC100は、ホスト200上で実行中のネイティブアプリケーションの、ホスト200からの表示出力を要求できる(ステップ514)。
セカンドクラスのアプリケーションであるHSC補助アプリケーションは、HSC100からの入力要求と、実行されたネイティブアプリケーションによって生成された表示出力とを受信し、次いで、表示出力データにマークアップ指示を追加できる(ステップ515)。そして、追加されたマークアップ済表示データは、確立された通信リンク(図2の150)を介してHSC100に送信され得る(ステップ517)。HSC100は、次いで、(ホスト200によって修正/マークアップされた)表示出力が受信されたか否かを判断できる(ステップ518)。該出力が受信されていない場合、再度、要求することができる(ステップ514)。該出力が受信されている場合、受信された表示出力データは、マイクロディスプレイ1010を介して描画するために翻訳され得る(ステップ520)。
次に、翻訳されたデータは、HSCディスプレイ(例えば、マイクロディスプレイ1010)を介して描画および表示される(ステップ522)。ホストディスプレイ(ステップ519)およびHSCディスプレイ(ステップ522)を介した、ネイティブアプリケーションによって生成された上記出力の表示は、略同時に、しかしそれぞれのドメイン/フォーマットで行われ得る。ネイティブアプリケーションによって生成された上記出力をHSCディスプレイ(ステップ522)を介して表示した後、HSC100は、HSCにおけるユーザ入力(ASR/HT)が認識されているか否かを判断する(ステップ524)。HSC100におけるエンドユーザ入力(ASR/HT)が(ステップ524において)検出されていると、そのような入力は、等価のホストデバイス200のコマンドに翻訳されて、ユーザ入力としてホストデバイスに送信され得る(ステップ526)。HSC100におけるエンドユーザ入力がないと判断された場合、HSC100は、HSC100の処理が完了したか否かを判断する(ステップ528)。HSC100における処理が完了していない場合、処理は、ASR/HTモードに従って動作し続けることができる(ステップ512)。HSC100処理が完了している場合、本方法は終了できる(ステップ530)。
図6は、音声認識および頭部追跡ユーザインターフェースを使用するHSC100が、ホストコンピューティングデバイス200上で実行されるアプリケーションを制御するためにどのように使用され得るかを示す、高レベルのソフトウェアダイアグラムである。HSCソフトウェアスタック6100は、リナックス(登録商標)カーネル(Linux (登録商標)kernel)6101などのオペレーティングシステム(OS)のカーネル(kernel)と;ライブラリ/ランタイムスタック6102におけるような、アプリケーションの実行時にプログラミング言語に埋め込まれてその機能を実装するためのライブラリおよびランタイムライブラリと;アプリケーションフレームワーク6103などのアプリケーションの標準構造を実装するためのアプリケーションフレームワークと;OSカーネル、ライブラリ、およびフレームワークの上位で動作できる、HSCディスプレイアプリケーション6104などのアプリケーションとを含み得る。HSCディスプレイアプリケーション6104は、エンドユーザが、補助ディスプレイおよびハンズフリーユーザインターフェースとしてHSC100を使用できるようにし、アイコンおよびメニューインターフェースを含み得る。
HSCディスプレイアプリケーション6104のコンテキスト内で動作するアプリケーションは、音声認識入力6121と、頭部追跡入力6122と、(ホスト200からの)マークアップされた表示出力を翻訳するための、および(HSC100における)ASR/HT入力を等価のホスト200のコマンドに翻訳するための翻訳モジュール6123と、HSC100とホストデバイス200との間の双方向通信リンクを確立可能とする仮想ネットワーク接続6124とを含み得る。
ホストソフトウェアスタック6200は、リナックス(登録商標)カーネル6201などのオペレーティングシステム(OS)のカーネルと;ライブラリ/ランタイムスタック6202におけるような、アプリケーション実行時にプログラミング言語に内蔵されてその機能を実装するためのライブラリおよびランタイムライブラリと;アプリケーションフレームワーク6203などのアプリケーションの標準構造を実装するためのアプリケーションフレームワークと;OSカーネル、ライブラリ、およびフレームワークの上位で動作できる、ネイティブアプリケーション6204などのアプリケーションと;スタックおよびネイティブアプリケーション6204の上位で動作するHSC補助ディスプレイインターフェースアプリケーション6205などのセカンドクラスのアプリケーションとを含み得る。上記で詳述したように、HSC補助ディスプレイインターフェースアプリケーション6205は、エンドユーザが、補助ディスプレイおよびハンズフリーユーザインターフェースとしてHSC100を使用できるようして、ホスト200を実行するネイティブアプリケーション6204を制御できるようにする。HSC補助ディスプレイインターフェースアプリケーション6205のコンテキスト内で動作するアプリケーションは、ホストデバイス200とHSC100との間の双方向通信リンクを確立可能とする、仮想ネットワーク接続6124を含み得る。ホストソフトウェアスタック6200は、HSCソフトウェアスタック6100よりも広範囲かつ複雑であり得る。
図7は、本発明の例示的な実施形態の高レベルのフローチャートを示す。図7は、スマートフォンアプリケーションからの出力をヘッドセットコンピュータ上に表示する代替方法700のステップを示す高レベルのフローチャートである。スマートフォンアプリケーション700からの出力をヘッドセットコンピュータ上に表示する方法700は、スマートフォン上でアプリケーションを実行することと(ステップ710);ヘッドセットコンピュータを介して表示するための実行されたアプリケーションの出力を生成し、該生成は、上記実行されたアプリケーションの出力をヘッドセットコンピュータが表示するためのアクションを示す記述言語による指示を、スマートフォンが構成し送信することを含むことと(ステップ720);構成された指示をヘッドセットコンピュータにおいて低帯域幅通信リンクを介して受信し、受信された構成されるべき指示に応じて、ヘッドセットコンピュータが、示された行うべきアクション(該指示)に基づいて上記生成された出力の表示を形成および描画し、該アクションは、オンスクリーン通知、メッセージ、グラフィック要素、および、複数の予め定義された音声シーケンスのうちの1つを再生しヘッドセットコンピュータの構成要素を制御する要求、のうちのいずれかを含むことと(ステップ730)、を含み得る。
アクションはそれぞれの要素タイプであってよく、各要素タイプについて、指示は、ヘッドセットコンピュータに関して予め定義された複数のスタイルのうちの1つを示してよい。スタイルは、スタイル要素であってよい。ヘッドセットドメインにおいて描画され形成された表示は、音声認識/頭部追跡ユーザインターフェースによって提示されたメニュー選択肢およびプロンプトを含んでよい。そのようなメニュー選択肢および出力は、視覚的におよび可聴的にユーザに提示されてよい。スマートフォンとヘッドセットコンピュータとの間の通信リンクは、例えばBluetooth(登録商標)、Wi−Fi、または他の通信プロトコルなどのワイヤレス通信リンクであってよい。
図7に示す代替例の処理は、ヘッドセットコンピュータにおいて音声認識/頭部追跡ユーザインターフェースからの入力をモニタすることと;音声認識/頭部追跡コマンド入力を受信することに応じて、ヘッドセットコンピュータにおいて該受信した音声認識/頭部追跡コマンドを等価のスマートフォンコマンドに翻訳することと;該等価のスマートフォンコマンドをスマートフォンに送信して、実行されたアプリケーションを制御することと、をさらに含んでよい。そのような方法により、実行されたアプリケーションの音声(ボイスコマンド)およびハンズフリー(頭部動作追跡)によるユーザ制御が効果的に可能になる。
本発明のさらに例示的な実施形態が、コンピュータプログラム製品を用いて構成されてもよい。例えば、制御が、本発明の例示的な実施形態を実施するためのソフトウェアにプログラム化されてもよい。本発明のさらに例示的な実施形態が、プロセッサによって実行され得て、かつ、実行される際、当該プロセッサに本明細書中に記載の方法を完了させる命令を含む非一時的でコンピュータ読み取り可能な媒体を含んでもよい。本明細書中に記載したブロック図およびフローチャートの要素は、ソフトウェア、ハードウェア、ファームウェア、または将来決定される他の類似する実装形式で実装されてもよいことが理解されるべきである。また、本明細書中に記載したブロック図およびフローチャートの要素は、ソフトウェア、ハードウェアまたはファームウェアにおいて、任意の方法で組み合わされてよくまたは分割されてもよい。ソフトウェアで実施される場合、当該ソフトウェアは、本明細書中に記載した例示的な実施形態をサポートし得る任意の言語で記述されてもよい。ソフトウェアは、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、コンパクトディスクリードオンリーメモリ(CD−ROM)などの任意の形態のコンピュータ読み取り可能な媒体に記憶されていてもよい。作動中、汎用またはアプリケーションに特化したプロセッサが、当該技術分野でよく理解された方法で、ソフトウェアをロードして実行する。ブロック図およびフローチャートが、より多いまたはより少ない要素を含み、配置または向きが異なり、または表現が異なっていてもよいことがさらに理解されるべきである。本発明の実施形態の実行を説明するブロック図、フローチャート、および/もしくはネットワーク図、ならびにブロック図ならびにフローチャートの数を、実装の際に規定されてもよいことが理解されるべきである。
本明細書で引用した全ての特許、公開された出願、および参考文献の教示は、その全体が参照により本明細書に組み込まれる。
本発明をその例示的な実施形態を参照して詳細に示して説明してきたが、添付の特許請求の範囲に包含される本発明の範囲を逸脱することなく、さまざまな形の変更および詳細化がなされ得ることが当業者によって理解されるであろう。
なお、本発明は、実施の態様として以下の内容を含む。
[態様1]
スマートフォンアプリケーションを操作する方法であって、
ネイティブアプリケーションをスマートフォン上で実行することと、
前記スマートフォンを介しておよびヘッドセットコンピュータを介して同時に表示するための、前記ネイティブアプリケーションの出力を生成することと、
前記ヘッドセットコンピュータにおいて前記生成された出力を受信することに応じて、ヘッドセットドメインにおいて描画するために前記受信された出力を翻訳することと、
音声認識および頭部追跡ユーザインターフェースモードで前記ヘッドセットコンピュータを動作させることと、
前記ヘッドセットコンピュータにおいてエンドユーザからのユーザ音声認識および頭部追跡コマンドをモニタすることと、
受信された音声認識および頭部追跡コマンドに応じて、前記ヘッドセットコンピュータにおいて前記受信された音声認識および頭部追跡コマンドを等価のスマートフォンコマンドに翻訳し、前記等価のスマートフォンコマンドを前記スマートフォンに送信して前記ネイティブアプリケーションを制御することと
を含む方法。
[態様2]
態様1に記載の方法において、前記ヘッドセットコンピュータを介して表示するための前記生成された出力は、マークアップ言語ファイルを含む方法。
[態様3]
態様2に記載の方法において、前記マークアップ言語はハイパーテキストマークアップ言語5(HTML5)である方法。
[態様4]
態様1に記載の方法において、前記ヘッドセットドメインにおいて描画するための前記受信された出力を前記翻訳することにより、結果的に、前記音声認識および頭部追跡ユーザインターフェースコマンドによるメニュー選択肢およびプロンプトが前記エンドユーザに提示される方法。
[態様5]
態様4に記載の方法において、前記メニュー選択肢およびプロンプトは可聴的におよび視覚的に前記エンドユーザに提示される方法。
[態様6]
態様1に記載の方法において、前記ヘッドセットコンピュータによる前記受信、および前記ヘッドセットコンピュータによる前記送信は、ワイヤレスで行われる方法。
[態様7]
態様6に記載の方法において、前記ヘッドセットコンピュータによる前記受信、および前記ヘッドセットコンピュータによる前記送信は、BluetoothまたはWi−Fi規格を使用してワイヤレスで行われる方法。
[態様8]
態様1に記載の方法において、前記ヘッドセットコンピュータによる前記翻訳は、前記実行されたネイティブスマートフォンアプリケーションとの音声認識およびハンズフリーユーザインターフェースを効果的に可能にする方法。
[態様9]
態様1に記載の方法において、
前記実行されたネイティブスマートフォンアプリケーションは、タッチタイプユーザインターフェースコマンドを採用し、
前記ヘッドセットが等価のスマートフォンコマンドに翻訳することは、音声認識および頭部追跡されたコマンドをタッチタイプコマンドに翻訳することを含む方法。
[態様10]
態様1に記載の方法において、前記実行されたネイティブスマートフォンアプリケーションは、画像および/または映像視聴用アプリケーションであり、前記ヘッドセットコンピュータによって送信される前記等価のスマートフォンコマンドは、前記スマートフォンを介して画像および/または映像を表示するためのコマンドを含む方法。
[態様11]
態様1に記載の方法において、前記ネイティブスマートフォンアプリケーションは、前記ヘッドセットコンピュータから駆動されるマルチメディアコンテンツを受信するように構成される方法。
[態様12]
スマートフォンディスプレイを操作する方法であって、
スマートフォン上でネイティブ画像および映像視聴用アプリケーションを実行することと、
音声認識および頭部追跡ユーザインターフェースモードでヘッドセットコンピュータを動作させることと、
前記ヘッドセットコンピュータにおいてエンドユーザからのユーザ音声認識および頭部追跡コマンドをモニタすることと、
受信された音声認識および頭部追跡コマンドに応じて、前記ヘッドセットコンピュータにおいて前記受信された音声認識および頭部追跡コマンドを等価のスマートフォンコマンドに翻訳し、前記等価のスマートフォンコマンドは、前記ヘッドセットコンピュータのマイクロディスプレイ上で表示される画像または映像を取り込むことを含むことと、
前記等価のスマートフォンコマンドを前記スマートフォンに送信して前記ネイティブ画像および映像視聴用アプリケーションを制御することと、
前記ヘッドセットコンピュータを介しておよび前記スマートフォンを介して前記取り込まれた画像または映像を表示することと
を含む方法。
[態様13]
デュアルディスプレイシステムであって、
ネイティブディスプレイとスマートフォン通信モジュールとを含むスマートフォンと、
前記スマートフォンによって実行されるネイティブアプリケーションであって、前記スマートフォンネイティブディスプレイを介して、およびヘッドセットコンピューティングデバイスを介して、同時に表示するための、前記スマートフォン通信モジュールによってヘッドセットコンピューティングデバイスへ送信される表示出力を生成する、ネイティブアプリケーションと、
マイクロディスプレイとヘッドセット通信モジュールとを含む前記ヘッドセットコンピューティングデバイスと、
エンドユーザコマンドを受信するために前記ヘッドセットコンピューティングデバイスによって使用される音声認識および頭部追跡ユーザインターフェースと、
前記ヘッドセット通信モジュールへ通信された前記表示出力を受信することに応じて前記ヘッドセットコンピューティングデバイスによって実行される翻訳モジュールであって、前記表示出力を前記マイクロディスプレイを介して描画するために翻訳し、前記受信されたエンドユーザコマンドを等価のスマートフォンコマンドに翻訳する、翻訳モジュールと
を含み、
前記ヘッドセット通信モジュールは、前記等価のスマートフォンコマンドを前記スマートフォン通信モジュールに通信して前記ネイティブアプリケーションを制御する
デュアルディスプレイシステム。
[態様14]
態様13に記載のデュアルディスプレイシステムにおいて、前記表示出力はマークアップ言語ファイルを含むデュアルディスプレイシステム。
[態様15]
態様14に記載のデュアルディスプレイシステムにおいて、前記マークアップ言語はハイパーテキストマークアップ言語5(HTML5)であるデュアルディスプレイシステム。
[態様16]
態様13に記載のデュアルディスプレイシステムにおいて、前記マイクロディスプレイを介して描画するための前記表示出力は、前記エンドユーザに対する音声認識および頭部追跡ユーザインターフェースによるメニュー選択肢およびプロンプトを含むデュアルディスプレイシステム。
[態様17]
態様16に記載のデュアルディスプレイシステムにおいて、前記メニュー選択肢およびプロンプトは、前記エンドユーザに対して可聴的におよび視覚的に提示されるデュアルディスプレイシステム。
[態様18]
態様13に記載のデュアルディスプレイシステムにおいて、前記スマートフォン通信モジュールおよび前記ヘッドセット通信モジュールはワイヤレス通信モジュールであるデュアルディスプレイシステム。
[態様19]
態様18に記載のデュアルディスプレイシステムにおいて、前記ワイヤレス通信モジュールはBluetoothまたはWi−Fiモジュールであるデュアルディスプレイシステム。
[態様20]
態様13に記載のデュアルディスプレイシステムにおいて、前記ヘッドセットコンピューティングデバイスは、前記ネイティブアプリケーションを制御するために前記音声認識および頭部追跡ユーザインターフェースを効果的に可能にするデュアルディスプレイシステム。
[態様21]
態様13に記載のデュアルディスプレイシステムにおいて、前記ネイティブアプリケーションは、タッチタイプユーザインターフェースコマンドを使用し、前記翻訳モジュールは、前記受信された音声認識および頭部追跡ユーザインターフェースエンドユーザコマンドを前記タッチタイプユーザインターフェースコマンドに翻訳するデュアルディスプレイシステム。
[態様22]
態様13に記載のデュアルディスプレイシステムにおいて、前記ネイティブスマートフォンアプリケーションは、画像および/または映像視聴用アプリケーションであり、前記等価のスマートフォンコマンドは、前記スマートフォンの前記ネイティブディスプレイを介して画像および/または映像を表示するためのコマンドを含むデュアルディスプレイシステム。
[態様23]
態様13に記載のデュアルディスプレイシステムにおいて、前記ネイティブスマートフォンアプリケーションは、前記ヘッドセットコンピューティングデバイスからマルチメディアコンテンツを受信するよう構成されるデュアルディスプレイシステム。
[態様24]
スマートフォンアプリケーションからの出力をヘッドセットコンピュータ上に表示する方法であって、
前記スマートフォン上でアプリケーションを実行することと、
ヘッドセットコンピュータを介して表示するための前記実行されたアプリケーションの出力を生成し、該生成は、前記実行されたアプリケーションの前記出力を前記ヘッドセットコンピュータが表示するためのアクションを示す記述言語による指示を、前記スマートフォンが構成し送信することを含むことと、
前記構成された指示を前記ヘッドセットコンピュータにおいて低帯域幅で受信し、これに応じて、前記ヘッドセットコンピュータが、行うべき前記示されたアクションに基づいて前記生成された出力の表示を形成し、前記アクションは、オンスクリーン通知、メッセージ、グラフィック要素、および、複数の予め定義された音声シーケンスのうちの1つを再生し前記ヘッドセットコンピュータの構成要素を制御する要求、のうちのいずれかを含むことと
を含む方法。
[態様25]
態様24に記載の方法において、前記アクションはそれぞれの要素タイプであり、各要素タイプについて、前記指示は、前記ヘッドセットコンピュータに関して予め定義された複数のスタイルのうちの1つを示す方法。
[態様26]
態様24に記載の方法において、前記記述言語はHTML5または他のマークアップ言語である方法。
[態様27]
態様24に記載の方法において、ヘッドセットドメインにおいて描画される前記形成された表示は、音声認識/頭部追跡ユーザインターフェースによって提示されるメニュー選択肢およびプロンプトを含む方法。
[態様28]
態様27に記載の方法において、前記メニュー選択肢および出力は、可聴的におよび視覚的にユーザに提示される方法。
[態様29]
態様24に記載の方法において、前記ヘッドセットコンピュータによる前記受信、および前記スマートフォンによる前記送信は、ワイヤレス通信リンクを介して行われる方法。
[態様30]
態様29に記載の方法において、前記ワイヤレス通信リンクはBluetooth、Wi−Fi、または他のプロトコルのいずれかである方法。
[態様31]
態様24に記載の方法において、
前記ヘッドセットコンピュータにおいて音声認識/頭部追跡ユーザインターフェースからの入力をモニタすることと、
前記音声認識/頭部追跡コマンド入力を受信することに応じて、前記ヘッドセットコンピュータにおいて前記受信された音声認識/頭部追跡コマンドを等価のスマートフォンコマンドに翻訳することと、
前記等価のスマートフォンコマンドを前記スマートフォンに送信して前記実行されたアプリケーションを制御することと
をさらに含む方法。
[態様32]
態様31に記載の方法において、前記ヘッドセットコンピュータによる前記送信は、前記実行されたアプリケーションの音声およびハンズフリーユーザ制御を効果的に可能にする方法。

Claims (29)

  1. スマートフォンアプリケーションを操作する方法であって、
    ネイティブアプリケーションをスマートフォン上で実行することと、
    前記スマートフォンを介しておよびヘッドセットコンピュータを介して同時に表示するための、前記ネイティブアプリケーションの出力を生成することと、
    前記ヘッドセットコンピュータにおいて前記生成された出力を受信することに応じて、ヘッドセットドメインにおいて描画するために前記受信された出力を翻訳することと、
    音声認識および頭部追跡ユーザインターフェースモードで前記ヘッドセットコンピュータを動作させることと、
    前記ヘッドセットコンピュータにおいてエンドユーザからのユーザ音声認識および頭部追跡コマンドをモニタすることと、
    受信された音声認識および頭部追跡コマンドに応じて、前記ヘッドセットコンピュータにおいて前記受信された音声認識および頭部追跡コマンドを等価のスマートフォンコマンドに翻訳し、前記等価のスマートフォンコマンドを前記スマートフォンに送信して前記ネイティブアプリケーションを制御することと
    を含み、
    前記ネイティブアプリケーションの前記生成された出力は、マークアップ言語ファイルを含む方法。
  2. 請求項に記載の方法において、前記マークアップ言語はハイパーテキストマークアップ言語5(HTML5)である方法。
  3. 請求項1に記載の方法において、前記ヘッドセットドメインにおいて描画するための前記受信された出力を前記翻訳することにより、結果的に、前記音声認識および頭部追跡ユーザインターフェースコマンドによるメニュー選択肢およびプロンプトが前記エンドユーザに提示される方法。
  4. 請求項に記載の方法において、前記メニュー選択肢およびプロンプトは可聴的におよび視覚的に前記エンドユーザに提示される方法。
  5. 請求項1に記載の方法において、前記ヘッドセットコンピュータによる前記受信、および前記ヘッドセットコンピュータによる前記送信は、ワイヤレスで行われる方法。
  6. 請求項に記載の方法において、前記ヘッドセットコンピュータによる前記受信、および前記ヘッドセットコンピュータによる前記送信は、BluetoothまたはWi−Fi規格を使用してワイヤレスで行われる方法。
  7. 請求項1に記載の方法において、前記ヘッドセットコンピュータによる前記翻訳は、前記実行されたネイティブスマートフォンアプリケーションとの音声認識およびハンズフリーユーザインターフェースを可能にする方法。
  8. 請求項1に記載の方法において、
    前記実行されたネイティブスマートフォンアプリケーションは、タッチタイプユーザインターフェースコマンドを採用し、
    前記ヘッドセットが等価のスマートフォンコマンドに翻訳することは、音声認識および頭部追跡されたコマンドをタッチタイプコマンドに翻訳することを含む方法。
  9. 請求項1に記載の方法において、前記実行されたネイティブスマートフォンアプリケーションは、画像および/または映像視聴用アプリケーションであり、前記ヘッドセットコンピュータによって送信される前記等価のスマートフォンコマンドは、前記スマートフォンを介して画像および/または映像を表示するためのコマンドを含む方法。
  10. 請求項1に記載の方法において、前記ネイティブスマートフォンアプリケーションは、前記ヘッドセットコンピュータで取り込まれたコンテンツを表示するように構成される方法。
  11. デュアルディスプレイシステムであって、
    ネイティブディスプレイとスマートフォン通信モジュールとを含むスマートフォンと、
    前記スマートフォンによって実行されるネイティブアプリケーションであって、前記スマートフォンネイティブディスプレイを介して、およびヘッドセットコンピューティングデバイスを介して、同時に表示するための、前記スマートフォン通信モジュールによってヘッドセットコンピューティングデバイスへ送信される表示出力を生成する、ネイティブアプリケーションと、
    マイクロディスプレイとヘッドセット通信モジュールとを含む前記ヘッドセットコンピューティングデバイスと、
    エンドユーザコマンドを受信するために前記ヘッドセットコンピューティングデバイスによって使用される音声認識および頭部追跡ユーザインターフェースと、
    前記ヘッドセット通信モジュールへ通信された前記表示出力を受信することに応じて前記ヘッドセットコンピューティングデバイスによって実行される翻訳モジュールであって、前記表示出力を前記マイクロディスプレイを介して描画するために翻訳し、前記受信されたエンドユーザコマンドを等価のスマートフォンコマンドに翻訳する、翻訳モジュールと
    を含み、
    前記ヘッドセット通信モジュールは、前記等価のスマートフォンコマンドを前記スマートフォン通信モジュールに通信して前記ネイティブアプリケーションを制御し、
    前記ヘッドセットコンピューティングデバイスへ送信される前記表示出力はマークアップ言語ファイルを含む
    デュアルディスプレイシステム。
  12. 請求項11に記載のデュアルディスプレイシステムにおいて、前記マークアップ言語はハイパーテキストマークアップ言語5(HTML5)であるデュアルディスプレイシステム。
  13. 請求項11に記載のデュアルディスプレイシステムにおいて、前記マイクロディスプレイを介して描画するための前記表示出力は、前記エンドユーザに対する音声認識および頭部追跡ユーザインターフェースによるメニュー選択肢およびプロンプトを含むデュアルディスプレイシステム。
  14. 請求項13に記載のデュアルディスプレイシステムにおいて、前記メニュー選択肢およびプロンプトは、前記エンドユーザに対して可聴的におよび視覚的に提示されるデュアルディスプレイシステム。
  15. 請求項11に記載のデュアルディスプレイシステムにおいて、前記スマートフォン通信モジュールおよび前記ヘッドセット通信モジュールはワイヤレス通信モジュールであるデュアルディスプレイシステム。
  16. 請求項15に記載のデュアルディスプレイシステムにおいて、前記ワイヤレス通信モジュールはBluetoothまたはWi−Fiモジュールであるデュアルディスプレイシステム。
  17. 請求項11に記載のデュアルディスプレイシステムにおいて、前記ヘッドセットコンピューティングデバイスは、前記ネイティブアプリケーションを制御するために前記音声認識および頭部追跡ユーザインターフェースを可能にするデュアルディスプレイシステム。
  18. 請求項11に記載のデュアルディスプレイシステムにおいて、前記ネイティブアプリケーションは、タッチタイプユーザインターフェースコマンドを使用し、前記翻訳モジュールは、前記受信された音声認識および頭部追跡ユーザインターフェースエンドユーザコマンドを前記タッチタイプユーザインターフェースコマンドに翻訳するデュアルディスプレイシステム。
  19. 請求項11に記載のデュアルディスプレイシステムにおいて、前記ネイティブスマートフォンアプリケーションは、画像および/または映像視聴用アプリケーションであり、前記等価のスマートフォンコマンドは、前記スマートフォンの前記ネイティブディスプレイを介して画像および/または映像を表示するためのコマンドを含むデュアルディスプレイシステム。
  20. 請求項11に記載のデュアルディスプレイシステムにおいて、前記ネイティブスマートフォンアプリケーションは、前記ヘッドセットコンピューティングデバイスで取り込まれたコンテンツを表示するよう構成されるデュアルディスプレイシステム。
  21. スマートフォンアプリケーションからの出力をヘッドセットコンピュータ上に表示する方法であって、
    前記スマートフォン上でアプリケーションを実行することと、
    ヘッドセットコンピュータを介して表示するための前記実行されたアプリケーションの出力を生成し、該生成は、前記実行されたアプリケーションの前記出力を前記ヘッドセットコンピュータが表示するためのアクションを示す記述言語による指示を、前記スマートフォンが構成し送信することを含むことと、
    前記構成された指示を前記ヘッドセットコンピュータにおいて低帯域幅で受信し、これに応じて、前記ヘッドセットコンピュータが、行うべき前記示されたアクションに基づいて前記生成された出力の表示を形成し、前記アクションは、オンスクリーン通知、メッセージ、グラフィック要素、および、複数の予め定義された音声シーケンスのうちの1つを再生し前記ヘッドセットコンピュータの構成要素を制御する要求、のうちのいずれかを含むことと
    を含む方法。
  22. 請求項21に記載の方法において、前記アクションはそれぞれの要素タイプであり、各要素タイプについて、前記指示は、前記ヘッドセットコンピュータに関して予め定義された複数のスタイルのうちの1つを示す方法。
  23. 請求項21に記載の方法において、前記記述言語はHTML5または他のマークアップ言語である方法。
  24. 請求項21に記載の方法において、ヘッドセットドメインにおいて描画される前記形成された表示は、音声認識/頭部追跡ユーザインターフェースによって提示されるメニュー選択肢およびプロンプトを含む方法。
  25. 請求項24に記載の方法において、前記メニュー選択肢および出力は、可聴的におよび視覚的にユーザに提示される方法。
  26. 請求項21に記載の方法において、前記ヘッドセットコンピュータによる前記受信、および前記スマートフォンによる前記送信は、ワイヤレス通信リンクを介して行われる方法。
  27. 請求項26に記載の方法において、前記ワイヤレス通信リンクはBluetooth、Wi−Fi、または他のプロトコルのいずれかである方法。
  28. 請求項21に記載の方法において、
    前記ヘッドセットコンピュータにおいて音声認識/頭部追跡ユーザインターフェースからの入力をモニタすることと、
    前記音声認識/頭部追跡コマンド入力を受信することに応じて、前記ヘッドセットコンピュータにおいて前記受信された音声認識/頭部追跡コマンドを等価のスマートフォンコマンドに翻訳することと、
    前記等価のスマートフォンコマンドを前記スマートフォンに送信して前記実行されたアプリケーションを制御することと
    をさらに含む方法。
  29. 請求項28に記載の方法において、前記ヘッドセットコンピュータによる前記送信は、前記実行されたアプリケーションの音声およびハンズフリーユーザ制御を可能にする方法。
JP2015509009A 2012-04-25 2013-04-11 Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc) Active JP6177883B2 (ja)

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
US201261638419P 2012-04-25 2012-04-25
US61/638,419 2012-04-25
US201261653474P 2012-05-31 2012-05-31
US61/653,474 2012-05-31
US201361748444P 2013-01-02 2013-01-02
US61/748,444 2013-01-02
US201361749155P 2013-01-04 2013-01-04
US61/749,155 2013-01-04
US13/799,570 2013-03-13
US13/799,570 US8929954B2 (en) 2012-04-25 2013-03-13 Headset computer (HSC) as auxiliary display with ASR and HT input
PCT/US2013/036221 WO2013162908A2 (en) 2012-04-25 2013-04-11 Headset computer (hsc) as auxiliary display with asr and ht input

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017136059A Division JP6419262B2 (ja) 2012-04-25 2017-07-12 Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc)

Publications (3)

Publication Number Publication Date
JP2015515701A JP2015515701A (ja) 2015-05-28
JP2015515701A5 JP2015515701A5 (ja) 2016-06-02
JP6177883B2 true JP6177883B2 (ja) 2017-08-09

Family

ID=49477759

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015509009A Active JP6177883B2 (ja) 2012-04-25 2013-04-11 Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc)
JP2017136059A Active JP6419262B2 (ja) 2012-04-25 2017-07-12 Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc)

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017136059A Active JP6419262B2 (ja) 2012-04-25 2017-07-12 Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc)

Country Status (6)

Country Link
US (2) US8929954B2 (ja)
EP (1) EP2845075B1 (ja)
JP (2) JP6177883B2 (ja)
KR (1) KR20150023293A (ja)
CN (2) CN104520787B (ja)
WO (1) WO2013162908A2 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101755299A (zh) 2007-05-14 2010-06-23 寇平公司 用于从主机存取数据的移动无线显示器以及控制方法
CN102016975A (zh) 2008-03-28 2011-04-13 寇平公司 适合用作移动式互联网装置的具有高分辨率显示器的手持式无线显示装置
EP2427812A4 (en) * 2009-05-08 2016-06-08 Kopin Corp REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US9122307B2 (en) 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
CN103620527B (zh) 2011-05-10 2018-08-17 寇平公司 使用动作和语音命令来控制信息显示和远程设备的头戴式计算机
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
KR20130116107A (ko) * 2012-04-13 2013-10-23 삼성전자주식회사 단말의 원격 제어 방법 및 장치
JP6289448B2 (ja) 2012-04-25 2018-03-07 コピン コーポレーション 即時翻訳システム
US8929954B2 (en) * 2012-04-25 2015-01-06 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
US9442290B2 (en) 2012-05-10 2016-09-13 Kopin Corporation Headset computer operation using vehicle sensor feedback for remote control vehicle
US20130339859A1 (en) 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
US9791921B2 (en) * 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US9301085B2 (en) 2013-02-20 2016-03-29 Kopin Corporation Computer headset with detachable 4G radio
US9383816B2 (en) 2013-11-15 2016-07-05 Kopin Corporation Text selection using HMD head-tracker and voice-command
US9904360B2 (en) * 2013-11-15 2018-02-27 Kopin Corporation Head tracking based gesture control techniques for head mounted displays
US9500867B2 (en) 2013-11-15 2016-11-22 Kopin Corporation Head-tracking based selection technique for head mounted displays (HMD)
US10209955B2 (en) * 2013-11-15 2019-02-19 Kopin Corporation Automatic speech recognition (ASR) feedback for head mounted displays (HMD)
US9466296B2 (en) * 2013-12-16 2016-10-11 Intel Corporation Initiation of action upon recognition of a partial voice command
CN105940759B (zh) * 2013-12-28 2021-01-22 英特尔公司 基于用户上下文检测的装置动作和配置的系统和方法
US9811991B2 (en) * 2014-06-27 2017-11-07 Harman International Industries, Incorporated Do-not-disturb system and apparatus
US9876985B2 (en) 2014-09-03 2018-01-23 Harman International Industies, Incorporated Providing a log of events to an isolated user
CN104836904A (zh) * 2015-04-08 2015-08-12 惠州Tcl移动通信有限公司 基于智能穿戴设备对移动终端提示信息的处理方法及系统
US11340698B2 (en) 2015-10-30 2022-05-24 University Of Massachusetts System and methods for evaluating images and other subjects
US10095473B2 (en) 2015-11-03 2018-10-09 Honeywell International Inc. Intent managing system
CN106454194B (zh) * 2016-09-14 2020-10-27 惠州Tcl移动通信有限公司 一种基于vr设备的视频方法及系统
KR20180055189A (ko) 2016-11-16 2018-05-25 삼성전자주식회사 자연어 처리 방법 및 장치와 자연어 처리 모델을 학습하는 방법 및 장치
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US10692489B1 (en) * 2016-12-23 2020-06-23 Amazon Technologies, Inc. Non-speech input to speech processing system
US11099716B2 (en) 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US10620910B2 (en) * 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
CN106959752A (zh) * 2017-03-16 2017-07-18 王昇洋 利用立体声引导和评估头部运动的头戴装置
CN108958457A (zh) * 2017-05-19 2018-12-07 宏碁股份有限公司 模拟携带式装置的感测信号的虚拟实境系统及其控制方法
JP6538107B2 (ja) * 2017-05-22 2019-07-03 株式会社コロプラ 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置
JP2019036914A (ja) * 2017-08-21 2019-03-07 ウエストユニティス株式会社 連携表示システム
EP3486753B1 (en) * 2017-11-21 2022-05-04 Bellevue Investments GmbH & Co. KGaA Method for realtime 360 degree video perspective view path determination
JP7395513B2 (ja) 2018-06-13 2023-12-11 リアルウェア,インコーポレーテッド バイナリアプリケーションのユーザインターフェースのカスタマイズ
EP3663904A1 (en) * 2018-12-07 2020-06-10 Iristick nv Portable mobile mode for headset
JP6994005B2 (ja) * 2019-06-05 2022-01-14 株式会社コロプラ 情報処理方法、情報処理プログラム、情報処理システムおよび情報処理装置
CN112073777B (zh) * 2019-06-10 2022-06-28 海信视像科技股份有限公司 一种语音交互方法及显示设备
CN112073776B (zh) * 2019-06-10 2022-06-24 海信视像科技股份有限公司 语音控制方法及显示设备
CN113805653B (zh) * 2021-08-27 2024-04-23 瑞欧威尔(上海)智能科技有限公司 一种ai头戴式计算机
US11922096B1 (en) * 2022-08-30 2024-03-05 Snap Inc. Voice controlled UIs for AR wearable devices

Family Cites Families (174)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5005213A (en) 1986-07-10 1991-04-02 Varo, Inc. Head mounted video display and remote camera system
US5491651A (en) 1992-05-15 1996-02-13 Key, Idea Development Flexible wearable computer
US6010216A (en) 1993-01-19 2000-01-04 Jesiek; Daniel Stephen "Hear speak" two-way voice radio communications eyeglasses
US6853293B2 (en) 1993-05-28 2005-02-08 Symbol Technologies, Inc. Wearable communication system
CA2158271A1 (en) 1994-03-04 1995-09-08 John Wayne Mckown Information display apparatus
US5642129A (en) 1994-03-23 1997-06-24 Kopin Corporation Color sequential display panels
US9513744B2 (en) 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US5990793A (en) 1994-09-02 1999-11-23 Safety Tech Industries, Inc. Firefighters integrated communication and safety system
US6198462B1 (en) 1994-10-14 2001-03-06 Hughes Electronics Corporation Virtual display screen system
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
US6369952B1 (en) 1995-07-14 2002-04-09 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
US6127990A (en) 1995-11-28 2000-10-03 Vega Vista, Inc. Wearable display and methods for controlling same
US6184847B1 (en) 1998-09-22 2001-02-06 Vega Vista, Inc. Intuitive control of portable data displays
US6204974B1 (en) 1996-10-08 2001-03-20 The Microoptical Corporation Compact image display system for eyeglasses or other head-borne frames
JP3771989B2 (ja) 1997-03-24 2006-05-10 オリンパス株式会社 画像音声通信システムおよびテレビ電話送受信方法
US5929748A (en) * 1997-06-12 1999-07-27 Microsoft Corporation Automated home control using existing electrical lines as a communications medium
JP2001506389A (ja) 1997-07-03 2001-05-15 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ウインドウ化システムの仮想ワークスペースを創出し且つ制御するための装置及び方法
US6270414B2 (en) 1997-12-31 2001-08-07 U.S. Philips Corporation Exoskeletal platform for controlling multi-directional avatar kinetics in a virtual environment
US7860725B2 (en) 1998-05-26 2010-12-28 Ineedmd.Com, Inc. Method for remote medical consultation and care
US7035897B1 (en) 1999-01-15 2006-04-25 California Institute Of Technology Wireless augmented reality communication system
US20060061551A1 (en) 1999-02-12 2006-03-23 Vega Vista, Inc. Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection
CA2375519A1 (en) 1999-06-21 2000-12-28 The Microoptical Corporation Eyeglass display lens system employing off-axis optical design
US7158096B1 (en) 1999-06-21 2007-01-02 The Microoptical Corporation Compact, head-mountable display device with suspended eyepiece assembly
JP2001100878A (ja) 1999-09-29 2001-04-13 Toshiba Corp マルチモーダル入出力装置
US6538676B1 (en) 1999-10-04 2003-03-25 Intel Corporation Video token tracking system for overlay of metadata upon video data
US6621508B1 (en) * 2000-01-18 2003-09-16 Seiko Epson Corporation Information processing system
JP2001216069A (ja) 2000-02-01 2001-08-10 Toshiba Corp 操作入力装置および方向検出方法
US6981229B1 (en) 2000-04-28 2005-12-27 Alias Systems Corp. System for dynamically mapping input device movement as a user's viewpoint changes
US7461936B2 (en) 2000-06-02 2008-12-09 Oakley, Inc. Eyeglasses with detachable adjustable electronics module
US8482488B2 (en) 2004-12-22 2013-07-09 Oakley, Inc. Data input management system for wearable electronically enabled interface
US7150526B2 (en) 2000-06-02 2006-12-19 Oakley, Inc. Wireless interactive headset
US6325507B1 (en) 2000-06-02 2001-12-04 Oakley, Inc. Eyewear retention system extending across the top of a wearer's head
US7278734B2 (en) 2000-06-02 2007-10-09 Oakley, Inc. Wireless interactive headset
US20120105740A1 (en) 2000-06-02 2012-05-03 Oakley, Inc. Eyewear with detachable adjustable electronics module
US7487112B2 (en) 2000-06-29 2009-02-03 Barnes Jr Melvin L System, method, and computer program product for providing location based services and mobile e-commerce
JP2002032212A (ja) 2000-07-14 2002-01-31 Toshiba Corp コンピュータシステムおよびヘッドセット型表示装置
US6956614B1 (en) 2000-11-22 2005-10-18 Bath Iron Works Apparatus and method for using a wearable computer in collaborative applications
GB2369742A (en) 2000-11-30 2002-06-05 Nokia Mobile Phones Ltd Neck strap accessory for audio device having wired earpiece
US6798391B2 (en) 2001-01-02 2004-09-28 Xybernaut Corporation Wearable computer system
US6900777B1 (en) 2001-01-03 2005-05-31 Stryker Corporation Infrared audio/video interface for head-mounted display
US20020094845A1 (en) 2001-01-16 2002-07-18 Rei Inasaka Body worn display system
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
JP4649050B2 (ja) 2001-03-13 2011-03-09 キヤノン株式会社 画像処理装置、画像処理方法、及び制御プログラム
US7082393B2 (en) 2001-03-27 2006-07-25 Rast Associates, Llc Head-worn, trimodal device to increase transcription accuracy in a voice recognition system and to process unvocalized speech
US6769767B2 (en) 2001-04-30 2004-08-03 Qr Spex, Inc. Eyewear with exchangeable temples housing a transceiver forming ad hoc networks with other devices
GB2376283B (en) 2001-06-04 2005-03-16 Hewlett Packard Co Foot activated user input
US7013009B2 (en) 2001-06-21 2006-03-14 Oakley, Inc. Eyeglasses with wireless communication features
US6961912B2 (en) 2001-07-18 2005-11-01 Xerox Corporation Feedback mechanism for use with visual selection methods
CN1335702A (zh) * 2001-08-06 2002-02-13 北京邮电通信设备厂 配装有头戴式显示装置插接口的移动电话机
US6778906B1 (en) 2001-08-14 2004-08-17 The United States Of America As Represented By The Secretary Of The Navy Apparatus and method for ensuring retention of situational awareness by employing an active network guidance and emergency logic (angel) system
US6583808B2 (en) 2001-10-04 2003-06-24 National Research Council Of Canada Method and system for stereo videoconferencing
US7313246B2 (en) 2001-10-06 2007-12-25 Stryker Corporation Information system using eyewear for communication
JP4114859B2 (ja) 2002-01-09 2008-07-09 松下電器産業株式会社 動きベクトル符号化方法および動きベクトル復号化方法
US7035091B2 (en) 2002-02-28 2006-04-25 Accenture Global Services Gmbh Wearable computer system and modes of operating the system
US7110799B1 (en) 2002-06-14 2006-09-19 Symbol Technologies, Inc. Mobile terminal for interoperating with a standard or push-button enabled headset
BR0312909A (pt) 2002-07-26 2005-07-12 Oakley Inc Interfaces áudio sem fios, portáveis, sistemas de interfaces áudio, óculos, armações oculares e dispositivos áudio interativos e métodos de recebimento de chamadas telefônicas, de manipulação de sinal numa rede sem fios e de navegação em menus
US7330740B2 (en) 2002-10-22 2008-02-12 Broadcom Corporation Cell phone wireless speaker-microphone sleep modes
US7774075B2 (en) 2002-11-06 2010-08-10 Lin Julius J Y Audio-visual three-dimensional input/output
US7620433B2 (en) 2003-01-15 2009-11-17 Gn Netcom, Inc. Display headset
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7760898B2 (en) 2003-10-09 2010-07-20 Ip Venture, Inc. Eyeglasses with hearing enhanced and other audio signal-generating capabilities
US7806525B2 (en) 2003-10-09 2010-10-05 Ipventure, Inc. Eyeglasses having a camera
US20040267527A1 (en) 2003-06-25 2004-12-30 International Business Machines Corporation Voice-to-text reduction for real time IM/chat/SMS
EP2148504B1 (en) 2003-12-03 2012-01-25 Nikon Corporation Information Display Device
KR20050102803A (ko) 2004-04-23 2005-10-27 삼성전자주식회사 가상입력장치, 시스템 및 방법
CN1993948A (zh) 2004-06-04 2007-07-04 高通股份有限公司 高数据速率接口设备和方法
IL162572A (en) 2004-06-17 2013-02-28 Lumus Ltd High brightness optical device
US7284192B2 (en) 2004-06-24 2007-10-16 Avaya Technology Corp. Architecture for ink annotations on web documents
EP1782228A1 (en) 2004-08-03 2007-05-09 Silverbrook Research Pty. Ltd Walk-up printing
KR100725385B1 (ko) * 2004-08-14 2007-06-07 삼성전자주식회사 메시지 통신을 이용한 컨텐츠 디스플레이 시스템 및 방법
US7501995B2 (en) 2004-11-24 2009-03-10 General Electric Company System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation
US7976480B2 (en) 2004-12-09 2011-07-12 Motorola Solutions, Inc. Wearable auscultation system and method
CN100399247C (zh) 2004-12-22 2008-07-02 联想(北京)有限公司 一种显示设备的光标的控制系统及方法
US7877115B2 (en) 2005-01-24 2011-01-25 Broadcom Corporation Battery management in a modular earpiece microphone combination
CN1815437A (zh) * 2005-02-04 2006-08-09 乐金电子(中国)研究开发中心有限公司 一种外置头戴式手机显示装置及方法
US8083569B2 (en) 2005-02-04 2011-12-27 Nicholas Sotereanos Remotely controlled vehicle
US8140197B2 (en) 2005-02-17 2012-03-20 Lumus Ltd. Personal navigation system
US7249846B2 (en) 2005-05-03 2007-07-31 Grand Joseph B Eyewear with an image projected off of an unassisted eyewear lens to the user
US8606333B2 (en) 2005-06-10 2013-12-10 At&T Mobility Ii Llc Push to lower hearing assisted device
TWI284481B (en) 2005-09-02 2007-07-21 Kye Systems Corp Wireless earphone device
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US20070093279A1 (en) 2005-10-12 2007-04-26 Craig Janik Wireless headset system for the automobile
US20080144854A1 (en) 2006-12-13 2008-06-19 Marcio Marc Abreu Biologically fit wearable electronics apparatus and methods
US20070265495A1 (en) 2005-12-15 2007-11-15 Medivision, Inc. Method and apparatus for field of view tracking
US7732694B2 (en) 2006-02-03 2010-06-08 Outland Research, Llc Portable music player with synchronized transmissive visual overlays
JP5007510B2 (ja) * 2006-02-13 2012-08-22 コニカミノルタビジネステクノロジーズ株式会社 文書処理装置および文書処理システム
US20070220108A1 (en) 2006-03-15 2007-09-20 Whitaker Jerry M Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web
US20070238475A1 (en) 2006-03-30 2007-10-11 Goedken Terrance J Wireless communications device with priority list
CN101444087B (zh) * 2006-05-09 2011-06-08 株式会社尼康 头戴式显示器
US8947531B2 (en) 2006-06-19 2015-02-03 Oshkosh Corporation Vehicle diagnostics based on information communicated between vehicles
JP4267648B2 (ja) 2006-08-25 2009-05-27 株式会社東芝 インターフェース装置及びその方法
US20080055194A1 (en) 2006-08-31 2008-03-06 Motorola, Inc. Method and system for context based user interface information presentation and positioning
US8212859B2 (en) 2006-10-13 2012-07-03 Apple Inc. Peripheral treatment for head-mounted displays
EP2095178B1 (en) 2006-12-14 2015-08-12 Oakley, Inc. Wearable high resolution audio visual interface
US7798638B2 (en) 2007-01-02 2010-09-21 Hind-Sight Industries, Inc. Eyeglasses with integrated video display
US7484847B2 (en) 2007-01-02 2009-02-03 Hind-Sight Industries, Inc. Eyeglasses having integrated telescoping video camera and video display
US7547101B2 (en) 2007-01-02 2009-06-16 Hind-Sight Industries, Inc. Eyeglasses with integrated telescoping video display
JP4395792B2 (ja) 2007-01-29 2010-01-13 セイコーエプソン株式会社 プロジェクタ
US20080239080A1 (en) 2007-03-26 2008-10-02 Moscato Jonathan D Head-mounted rear vision system
US20100020229A1 (en) 2007-04-30 2010-01-28 General Electric Company Wearable personal video/audio device method and system
CN101755299A (zh) * 2007-05-14 2010-06-23 寇平公司 用于从主机存取数据的移动无线显示器以及控制方法
US8909296B2 (en) 2007-05-14 2014-12-09 Kopin Corporation Mobile wireless display software platform for controlling other systems and devices
US8855719B2 (en) 2009-05-08 2014-10-07 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
IL183637A (en) 2007-06-04 2013-06-27 Zvi Lapidot Head display system
CN101796450A (zh) 2007-06-07 2010-08-04 帕那吉奥蒂斯·巴甫洛甫罗斯 包括至少一个显示器装置的眼镜
KR20080114391A (ko) 2007-06-27 2008-12-31 삼성전기주식회사 레이저 광원을 이용한 디스플레이 장치, 디스플레이 방법및 디스플레이 방법을 구현하기 위한 프로그램이 기록된기록매체
CN101809651B (zh) * 2007-07-31 2012-11-07 寇平公司 提供语音到语音翻译和模拟人类属性的化身的移动无线显示器
US8825468B2 (en) 2007-07-31 2014-09-02 Kopin Corporation Mobile wireless display providing speech to speech translation and avatar simulating human attributes
US7458682B1 (en) 2007-09-06 2008-12-02 Double Hero Corporation Eyeglass with multimedia functions of music playing and remote communication
DE102007045835B4 (de) 2007-09-25 2012-12-20 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
JP5116424B2 (ja) 2007-10-09 2013-01-09 任天堂株式会社 ゲームプログラムおよびゲーム装置
US7969657B2 (en) 2007-10-25 2011-06-28 University Of Central Florida Research Foundation, Inc. Imaging systems for eyeglass-based display devices
US8072393B2 (en) 2007-11-15 2011-12-06 Symbol Technologies, Inc. User interface for a head mounted display
US8520860B2 (en) 2007-12-13 2013-08-27 Symbol Technologies, Inc. Modular mobile computing headset
US8108143B1 (en) 2007-12-20 2012-01-31 U-Blox Ag Navigation system enabled wireless headset
US8355671B2 (en) 2008-01-04 2013-01-15 Kopin Corporation Method and apparatus for transporting video signal over Bluetooth wireless interface
US8099289B2 (en) 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
CN102016975A (zh) 2008-03-28 2011-04-13 寇平公司 适合用作移动式互联网装置的具有高分辨率显示器的手持式无线显示装置
JP2009294728A (ja) 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置
US7959084B2 (en) 2008-07-01 2011-06-14 Symbol Technologies, Inc. Multi-functional mobile computing device utilizing a removable processor module
US20100033830A1 (en) 2008-08-11 2010-02-11 Man Fat Yung Wearable image display device
US20100053069A1 (en) 2008-08-26 2010-03-04 Symbol Technologies, Inc. Mobile computing system facilitating adaptive display of content among a plurality of display components including at least one virtual image display component
AT10520U3 (de) 2008-09-05 2013-10-15 Knapp Systemintegration Gmbh Vorrichtung und verfahren zur visuellen unterstützung von kommissioniervorgängen
JP5154363B2 (ja) * 2008-10-24 2013-02-27 クラリオン株式会社 車室内音声対話装置
US8249243B2 (en) 2008-11-13 2012-08-21 Aspect Software, Inc. Method of remotely operating contact center systems
US8547342B2 (en) 2008-12-22 2013-10-01 Verizon Patent And Licensing Inc. Gesture-based delivery from mobile device
US7997723B2 (en) 2008-12-31 2011-08-16 Nokia Corporation Display apparatus and device
US20100171696A1 (en) 2009-01-06 2010-07-08 Chi Kong Wu Motion actuation system and related motion database
FR2941786B1 (fr) 2009-02-03 2011-04-29 Laster Dispositif portable d'affichage tete haute et de realite augmentee
US20100250231A1 (en) 2009-03-07 2010-09-30 Voice Muffler Corporation Mouthpiece with sound reducer to enhance language translation
US20100238184A1 (en) 2009-03-19 2010-09-23 Michael Janicki Method and apparatus for three-dimensional visualization in mobile devices
JP5389493B2 (ja) 2009-03-25 2014-01-15 オリンパス株式会社 眼鏡装着型画像表示装置
JP5245981B2 (ja) 2009-03-30 2013-07-24 ブラザー工業株式会社 ヘッドマウントディスプレイ
CN201393284Y (zh) * 2009-04-03 2010-01-27 周业如 穿戴式无线音视频交互系统
US8170262B1 (en) 2009-04-15 2012-05-01 Frank Kung Fu Liu Wireless air tube headset
US8212855B2 (en) 2009-04-29 2012-07-03 Embarq Holdings Company, Llc Video conferencing eyewear
EP2427812A4 (en) 2009-05-08 2016-06-08 Kopin Corp REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS
JP2009179062A (ja) 2009-05-14 2009-08-13 Seiko Epson Corp 露光装置および画像形成装置
US9529437B2 (en) 2009-05-26 2016-12-27 Dp Technologies, Inc. Method and apparatus for a motion state aware device
US8581856B2 (en) 2009-05-27 2013-11-12 Microsoft Corporation Touch sensitive display apparatus using sensor input
US9503555B2 (en) 2009-10-21 2016-11-22 Symbol Technologies, Llc Mounting device couplable to a human head
US20110090135A1 (en) 2009-10-21 2011-04-21 Symbol Technologies, Inc. Interchangeable display device for a head-mounted display system
WO2011051660A1 (en) 2009-10-27 2011-05-05 Milan Momcilo Popovich Compact holographic edge illuminated eyeglass display
US8279861B2 (en) 2009-12-08 2012-10-02 International Business Machines Corporation Real-time VoIP communications using n-Way selective language processing
WO2011097226A1 (en) 2010-02-02 2011-08-11 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
US20110214082A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20120056846A1 (en) 2010-03-01 2012-03-08 Lester F. Ludwig Touch-based user interfaces employing artificial neural networks for hdtp parameter and symbol derivation
JP5564300B2 (ja) * 2010-03-19 2014-07-30 富士フイルム株式会社 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
US8545013B2 (en) 2010-04-27 2013-10-01 Kopin Corporation Wearable electronic display
JP2012002568A (ja) * 2010-06-15 2012-01-05 Brother Ind Ltd ナビゲーションシステム、携帯機器及び携帯機器用プログラム
JP5630141B2 (ja) * 2010-08-18 2014-11-26 ブラザー工業株式会社 画像表示システム、画像表示システムに含まれる携帯型情報処理装置のためのコンピュータプログラム、画像表示システムに含まれるヘッドマウントディスプレイ、及び画像表示方法
EP2437163A1 (en) * 2010-09-09 2012-04-04 Harman Becker Automotive Systems GmbH User interface for a vehicle system
US8706170B2 (en) 2010-09-20 2014-04-22 Kopin Corporation Miniature communications gateway for head mounted display
US9122307B2 (en) 2010-09-20 2015-09-01 Kopin Corporation Advanced remote control of host application using motion and voice commands
US8862186B2 (en) 2010-09-21 2014-10-14 Kopin Corporation Lapel microphone micro-display system incorporating mobile information access system
WO2012040386A1 (en) 2010-09-21 2012-03-29 4Iiii Innovations Inc. Head-mounted peripheral vision display systems and methods
US8994610B2 (en) 2010-11-08 2015-03-31 Symbol Technologies, Inc. User configurable headset
US8184983B1 (en) 2010-11-12 2012-05-22 Google Inc. Wireless directional identification and subsequent communication between wearable electronic devices
WO2012087900A2 (en) 2010-12-20 2012-06-28 Bio-Nexus Ltd. System and method for mobile workflow processing
US20120188245A1 (en) 2011-01-20 2012-07-26 Apple Inc. Display resolution increase with mechanical actuation
CN103620527B (zh) 2011-05-10 2018-08-17 寇平公司 使用动作和语音命令来控制信息显示和远程设备的头戴式计算机
US20120302288A1 (en) 2011-05-23 2012-11-29 Joe Born Cellular Telephone Docking Interface
US9131296B2 (en) 2011-09-19 2015-09-08 Apple Inc. Auto-configuring audio output for audio performance and fault detection
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
US8577427B2 (en) 2012-03-08 2013-11-05 Lee Serota Headset with adjustable display and integrated computing system
US8929954B2 (en) 2012-04-25 2015-01-06 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
JP6289448B2 (ja) 2012-04-25 2018-03-07 コピン コーポレーション 即時翻訳システム
US9436220B2 (en) 2012-05-04 2016-09-06 Jpmorgan Chase Bank, N.A. System and method for mobile device docking station
US9442290B2 (en) 2012-05-10 2016-09-13 Kopin Corporation Headset computer operation using vehicle sensor feedback for remote control vehicle
US9100757B2 (en) 2012-07-02 2015-08-04 Apple Inc. Headset impedance detection
US9099967B2 (en) 2012-09-28 2015-08-04 Apple Inc. Increasing ground noise rejection in audio systems
US9301085B2 (en) 2013-02-20 2016-03-29 Kopin Corporation Computer headset with detachable 4G radio
US9548047B2 (en) 2013-07-31 2017-01-17 Google Technology Holdings LLC Method and apparatus for evaluating trigger phrase enrollment

Also Published As

Publication number Publication date
CN109240507A (zh) 2019-01-18
EP2845075A2 (en) 2015-03-11
CN104520787A (zh) 2015-04-15
US8929954B2 (en) 2015-01-06
JP2015515701A (ja) 2015-05-28
JP2017188156A (ja) 2017-10-12
US20130288753A1 (en) 2013-10-31
JP6419262B2 (ja) 2018-11-07
US20150072672A1 (en) 2015-03-12
KR20150023293A (ko) 2015-03-05
WO2013162908A3 (en) 2014-01-30
CN104520787B (zh) 2018-10-16
WO2013162908A2 (en) 2013-10-31
EP2845075B1 (en) 2019-10-23
US9294607B2 (en) 2016-03-22

Similar Documents

Publication Publication Date Title
JP6419262B2 (ja) Asrおよびht入力を有する補助ディスプレイとしてのヘッドセットコンピュータ(hsc)
JP6082695B2 (ja) 動きおよび音声コマンドを用いたホストアプリケーションの高度なリモートコントロール
US10013976B2 (en) Context sensitive overlays in voice controlled headset computer displays
US9301085B2 (en) Computer headset with detachable 4G radio
US9235262B2 (en) Remote control of host application using motion and voice commands
US20150220142A1 (en) Head-Tracking Based Technique for Moving On-Screen Objects on Head Mounted Displays (HMD)
US9442290B2 (en) Headset computer operation using vehicle sensor feedback for remote control vehicle
US8862186B2 (en) Lapel microphone micro-display system incorporating mobile information access system
US11790612B2 (en) Information display method and device, terminal, and storage medium
US9383816B2 (en) Text selection using HMD head-tracker and voice-command
JP6545174B2 (ja) ユーザ設定可能な発話コマンド
JP2018032440A (ja) 制御可能なヘッドセットコンピュータディスプレイ
US20190279636A1 (en) Context Sensitive Overlays in Voice Controlled Headset Computer Displays
WO2022199597A1 (zh) Vr/ar设备截取图像的方法、装置及系统
US20150220506A1 (en) Remote Document Annotation
US20190369400A1 (en) Head-Mounted Display System
WO2023200657A1 (en) Intelligent actuated temple attachments

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170712

R150 Certificate of patent or registration of utility model

Ref document number: 6177883

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250