JP2020502719A - タッチ式操作システムのハンズフリーナビゲーション - Google Patents

タッチ式操作システムのハンズフリーナビゲーション Download PDF

Info

Publication number
JP2020502719A
JP2020502719A JP2019555417A JP2019555417A JP2020502719A JP 2020502719 A JP2020502719 A JP 2020502719A JP 2019555417 A JP2019555417 A JP 2019555417A JP 2019555417 A JP2019555417 A JP 2019555417A JP 2020502719 A JP2020502719 A JP 2020502719A
Authority
JP
Japan
Prior art keywords
touch
hands
computing device
user interface
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019555417A
Other languages
English (en)
Other versions
JP7334120B2 (ja
JP2020502719A5 (ja
Inventor
パーキンソン,クリストファー・イアン
Original Assignee
リアルウェア,インコーポレーテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リアルウェア,インコーポレーテッド filed Critical リアルウェア,インコーポレーテッド
Publication of JP2020502719A publication Critical patent/JP2020502719A/ja
Publication of JP2020502719A5 publication Critical patent/JP2020502719A5/ja
Application granted granted Critical
Publication of JP7334120B2 publication Critical patent/JP7334120B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/325Power saving in peripheral device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3234Power saving characterised by the action undertaken
    • G06F1/3287Power saving characterised by the action undertaken by switching off individual functional units in the computer system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本発明の態様は、タッチ式オペレーティングシステムのハンズフリーナビゲーションを可能にする。システムは、タッチ式オペレーティングシステムと自動的に相互作用し、タッチ式コマンドに関連付けられたハンズフリーコマンドを生成できる。実施形態は、モーションおよび/または音声入力を利用して、タッチ式オペレーティングシステムとのハンズフリー対話を促進することができる。【選択図】図1

Description

スマートフォン、タブレット、ラップトップなどのタッチ式デバイスは、日常生活のいたるところにある側面となっている。たとえば、スマートフォンやタブレット上のアプリケーションを使用して、人が社会的交流を組織して指揮することが一般的になっている。さらに、企業は、従業員とのコミュニケーション、仕事の監視、およびプロジェクトデータのレビューなど、他のさまざまな用途の中でも、タッチ式デバイスにしばしば頼っている。タッチ式デバイスは典型的に、タッチ式オペレーティングシステム(Andoroid(登録商標)又はiOS(登録商標)など)を実行する。これは本質的に、タッチ式入力に依存してオペレーティングシステムとの対話を制御する。これらのデバイスは便利で価値があるが、すべて同じ制限がある。つまり、根本的に、ユーザは、デバイスと直接手動で対話する必要がある。
たとえば、タッチ式オペレーティングシステムは現在、テキスト入力を受け付けるために仮想キーボードに主に依存している。仮想キーボードは、単語を一度に1文字ずつ入力しなければならない比較的小さなボタンを持つことが多く、中程度の長さでさえメッセージを入力するには時間がかかり、実用的ではないことがある。いくつかのタッチ式オペレーティングシステムは、テキストを単語に翻訳するための音声認識を提供するが、そうした音声認識はしばしばインターネット接続を必要とし、それは常に利用可能であるとは限らない。さらに、たとえ音声認識が利用可能であっても、それは一般にテキスト入力に限定され、タッチ式オペレーティングシステムは、アプリケーション内のユーザインターフェースをナビゲートして複数のアプリケーション間をナビゲートするためのメカニズムをほとんど提供しない。例えば、タッチ式オペレーティングシステムにおいて複数ページの文書をナビゲートするには、一般に、水平にナビゲートするためにスクロールバーでスクリーンに触れること、またはスクロールするためにスクリーンを「スワイプ」することをユーザに要求する。
しかしながら、ユーザは、手動でのタッチ式の対話ができない、困難、または不可能である期間中にこれらの装置を使用することを望む(または必要とする)かもしれない。例えば、多くの個人は、そうすることを必要とする又は望んだとしても、タッチ式デバイスと物理的に対話する能力を持っていないかもしれない。さらに、ユーザがタッチ式デバイスと物理的に対話できる場合でも、環境上の制限により、安全または快適な方法でデバイスとの手動の対話が制限される場合がある。さらに、ユーザが自分の手を必要とするタスクに従事している間に、タッチ式デバイスの機能にアクセスすることが望ましい場合がある。
これらの問題を解決するためのこれまでの試みは、煩雑で柔軟性のないユーザ経験を提供する、高度に特殊化された専用デバイスまたはプロセスにしばしば依存していた。さらに、以前の解決策は、アプリケーションがハンズフリー入力源と調和するように、タッチ式オペレーティングシステム用に設計された既存のアプリケーションからのソースコードの修正を必要とした。また、タッチフリーの解決策を利用にするために、すべてのタッチ式アプリケーションを変更することは現実的ではない。したがって、既存の解決策は、いくつかの選択されたタッチ式アプリケーションとしか協調できなかった。さらに、従来の解決策は、タッチ式オペレーティングシステム自体との対話を可能にしておらず、代わりにオペレーティングシステムに頼っていた。結果として、従来の解決策は、一般に、既存のおよび広く採用されているタッチ式オペレーティングシステムとの対話を可能にするのではなく、まったく新しいオペレーティング環境を学習しなければならないことをユーザに要求していた。
この概要は、本開示の詳細な説明の節で以下にさらに説明される概念の抜粋を簡略化された形で紹介することを意図している。この概要は、特許請求の範囲に記載された主題の重要なまたは本質的な特徴を特定することを意図しておらず、特許請求の範囲に記載の主題の範囲を判断する際の補助として使用することも意図していない。
これらの問題に対処するために、本発明は概して、タッチ式オペレーティングシステムのハンズフリーナビゲーションを提供するシステムおよび方法を対象とする。さらに、本明細書で説明する態様は、ソースコードの変更を必要とせずに、タッチ式オペレーティングシステムおよびアプリケーションとのハンズフリー対話を促進する。つまり、本明細書で説明するシステムおよび/または方法の実装とは別に、ユーザは、ハンズフリー対話の利点を享受するために、異なるアプリケーションに変更したり、使い慣れたタッチ式オペレーティングシステムを放棄したりする必要がない。さらに、必須ではないが、実施形態では、ユーザは、ハンズフリーナビゲーションをカスタマイズして、ユーザのニーズおよび要望に基づいて調整された機能を提供することができる。
したがって、本明細書で説明する技術の態様は、タッチ式オペレーティングシステムのハンズフリーナビゲーションを促進するシステムおよび方法を提供する。一態様では、ハンズフリーナビゲーションシステムは、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースを分析して、タッチ式スクロール機能を識別し、スクロール機能をハンズフリーコマンドに関連付け、ユーザへのディスプレイにタッチ式ユーザインターフェースを提示する。次に、システムが3D空間で回転、変換、または移動すると、システムはそれらの移動を検出し、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースでタッチ式コマンドに変換する。言い換えれば、システムは、タッチ式スクロール機能をモーション式コマンドに変換し、モーションを検出し、モーションをスクロールコマンドに変換する。このように、タッチ式オペレーティングシステムは、モーション式ユーザコマンドを利用できるハンズフリーオペレーティングシステムに変換できる。
別の態様では、ハンズフリーシステムは、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースを分析して、制御ダイアログ(コマンドに関連付けられたアイコンなど)を識別し、制御ダイアログをキーワードキューに関連付けて、ユーザへのディスプレイにタッチ式ユーザインターフェースを表示する。次いで、システムは、音声入力を処理し、音声入力内のキーワードキューを識別し、キーワードキューを関連するタッチ式オペレーティングシステムのタッチ式ユーザインターフェースにおけるタッチ式コマンドに変換し得る。言い換えれば、システムはタッチ式コマンドをキーワードキューに変換し、ユーザが発話すると、タッチ式環境で目的のコマンドの実行がなされる。このように、タッチ式オペレーティングシステムは、音声式ユーザコマンドを利用できるハンズフリーオペレーティングシステムに変換できる。ユーザとの対話を促進するために、別の態様では、システムはタッチ式ユーザインターフェースに重ねられたキーワードキューオーバーレイを表示してもよい。これらのオーバーレイは、ユーザが希望する制御ダイアログの選択を促進するためのキーワードキューを発行するのに役立つ視覚的なプロンプトを提供する。
一態様では、本明細書で開示される様々なハンズフリー入力タイプは、同時にまたは互いに組み合わせて使用され得る。例えば、システムは、モーション式ユーザコマンドと音声式ユーザコマンドとの両方に同時に応答し得る。さらに、モーション式ユーザコマンド、音声式ユーザコマンド、およびモーションプラス音声式ユーザコマンドを使用したハンズフリーナビゲーションを促進する方法が提供される。
本開示は、添付の図面を参照して以下に詳細に説明される。
図1は、本開示の実施形態を実施する際に使用するのに適した例示的なコンピューティング環境を示す図である。 図2は、本開示の形態による例示的なハンズフリーナビゲーションシステムを示す図である。 図3は、本開示の更なる形態による、図2に示す例示的なハンズフリーナビゲーションシステムを示す図である。 図4Aは、本開示の形態による例示的なモーション式ハンズフリー対話方法を示す図である。 図4Bは、本開示の形態による例示的な音声式ハンズフリー対話方法を示す図である。 図4Cは、本開示の形態による例示的なモーション式および音声式ハンズフリー対話方法を示す図である。 図5は、本開示の形態による、多軸モーション式対話を判定するための例示的な方法を示す図である。 図6Aは、本開示の形態による例示的なユーザ対話を示す図である。 図6Bは、本開示の形態による例示的なユーザ対話を示す図である。 図7Aは、本開示の形態による音声式入力を判定するための例示的な方法を示す図である。 図7Bは、図7Aの方法の拡大部分を示す図であり、本開示の形態による、音声式入力を判定するための例示的な方法を示す。 図8Aは、本開示の形態による、例示的なタッチ式ユーザインターフェースにおける制御ダイアログの例示的な識別方法を示す図である。 図8Bは、本開示の形態による、例示的なタッチ式ユーザインターフェースにおけるタッチ式制御ダイアログに関連する例示的なキーワードキューオーバーレイを示す図である。 図9は、本開示の形態による、例示的な基準フレームを有する例示的なヘッドマウントコンピューティングデバイスを示す図である。 図10は、本開示の形態による、例示的なコンピューティングデバイスを示す図である。
本開示の主題は、法定要件を満たすために本明細書中に詳細に記載されている。しかしながら、本説明自体は、特許の範囲を限定することを意図していない。むしろ、本発明者らは、他の現在または将来の技術と共に、本明細書に記載されたものと同様の異なるステップまたはステップの組み合わせを含めて、特許請求の範囲に記載された主題は、他の方法で具体化され得ると考えている。さらに、「ステップ」および/または「ブロック」という用語は、使用される方法の異なる要素を示すために本明細書で使用されることがあるが、個々のステップの順序が明白に記載されている場合を除き、本明細書に記載の様々なステップの間、またはその内における何らかの特定の順序を示すものとして解釈されるべきではない。本明細書に記載の各方法は、ハードウェア、ファームウェア、および/またはソフトウェアの任意の組み合わせを使用して実行され得るコンピューティングプロセスを含み得る。例えば、メモリに格納された指令を実行するプロセッサによって様々な機能が実行され得る。方法はまた、コンピュータ記憶媒体に記憶されたコンピュータ使用可能指令として実施することもできる。方法は、いくつか例を挙げると、スタンドアロンアプリケーション、サービスもしくはホスト型サービス(スタンドアロン型、または他のホスト型サービスと組み合わせて)、または別の製品へのプラグインによって提供されてもよい。
概して、本明細書の形態は、タッチ式オペレーティングシステムとのハンズフリー対話を可能にするメカニズムに関する。理解されるように、タッチ式オペレーティングシステム(Andoroid(登録商標)、iOS(登録商標)など)は、タッチ式オペレーティングシステムを実行しているモバイルデバイスのタッチスクリーンを介して受信した入力に依存することが多い。しかしながら、タッチスクリーンとの対話は、ユーザの能力およびモバイル機器が使用される状況に応じて、不可能または望ましくない場合がある。例えば、ユーザが別のタスクを実行するために自分の手を使用しているとき、そのタスクを中止してタッチ式オペレーティングシステムと対話することは、しばしば不便で時間がかかる。したがって、本形態は、タッチ式オペレーティングシステムとのハンズフリー対話を促進するデバイス、方法、およびシステムに関する。
本明細書の一形態は、タッチ式オペレーティングシステムとのハンズフリー対話のための方法を実装するヘッドマウントコンピューティングデバイス(ヘッドセットなど)に関する。非限定的な例では、ヘッドセットは、ディスプレイ(ヘッドアップディスプレイ、接眼ディスプレイなど)、センサ(とりわけカメラ、マイクロフォン、加速度計、ジャイロスコープ、磁力計など)、1つ又は複数のプロセッサ、及びメモリを含むことができる。ヘッドセットは、タッチ式オペレーティングシステムを実行しているモバイルデバイスと通信可能に結合されてもよい。また、ヘッドセットは、例えばヘッドセットの接眼ディスプレイ上に、タッチ式オペレーティングシステムのユーザインターフェースのインスタンスを表示するように構成され得る。さらに、ヘッドセットは、センサを介して受信したハンズフリー入力を使用して、タッチ式オペレーティングシステムのユーザインターフェースとの対話を促進するハンズフリー対話モードを提供することができる。例えば、例示的な一形態は、ヘッドセットによって検出された移動を使用して、タッチ式オペレーティングシステムの動作を実行するためにナビゲートするための指令またはコマンドを判定する。
別の例示的な態様は、ヘッドセットによって検出された音声コマンドを使用して、タッチ式オペレーティングシステムの動作を実行するための命令またはコマンドを判定する。したがって、ヘッドセットはまた、含まれるセンサ(とりわけ、マイクなど)を監視し、センサによって受信された入力を分析し、入力に関連するタッチ式オペレーティングシステムの指令またはコマンドを判定し、タッチ式オペレーティングシステムのユーザインターフェース内でナビゲートするための指令またはコマンドを実行するように、構成され得る。さらに、ヘッドセットは、ヘッドセットコンポーネントまたはソフトウェアモジュールを使用して、タッチ式オペレーティングシステムのユーザインターフェースおよびタッチ式オペレーティングシステムに関連するコードをリアルタイムで分析して、ハンズフリー対話モードを促進するように構成され得る。
別の例示的な態様は、タッチ式オペレーティングシステムのユーザインターフェースをナビゲートし、タッチ式オペレーティングシステムの動作を実行するための指令またはコマンドを判定するために、ヘッドセットによって検出された音声コマンドおよび移動の両方を使用する。さらに、ヘッドセットは、ハンズフリー対話モードの使い勝手を向上させるために、環境固有のデータ(ユーザ固有の設定、ハンズフリーインターフェース固有の設定、キーワードキューライブラリ、タッチ式インターフェース固有の設定、場所固有の設定など)を含むカスタマイズされたデータベースを含むか、または当該データベースと通信してもよい。ヘッドセットは、ハンズフリー対話モードの使い勝手を向上させるために無線通信システム(Bluetooth(登録商標)、NFC、RFID、WIFI(登録商標)など)を含むことができる。例として、無線通信システムは、カスタマイズされたデータベースに格納されている環境固有データと相関し得る位置情報をヘッドセットに提供することによって、ハンズフリー対話モードの使い勝手を高め得る。ヘッドセットは、ハンズフリー対話モードの使い勝手を向上させるために、無線通信システムを備えた携帯機器と通信可能に結合されてもよい。さらに、ヘッドセットは、環境固有のデータを含むネットワーク式のカスタマイズされたデータベースを利用するように構成されてもよい。
次に図1を参照すると、本開示のいくつかの実施形態で採用され得る例示的な動作環境100を示すブロック図が提供されている。本明細書に記載されたこの構成および他の構成は例としてのみ記載されていることを理解されたい。示されたものに加えて、または代えて、他の配置および要素(例えば、機械、インターフェース、機能、順序、および機能のグループ化など)が使用されてもよく、いくつかの要素は明確さのために完全に省略されてもよい。さらに、本明細書で説明されている要素の多くは、個別のコンポーネントまたは分散されたコンポーネントとして、または他のコンポーネントと一緒に、ならびに任意の適切な組合せおよび場所で実装され得る機能存在である。本明細書で1つ又は複数の存在によって実行されるものとして説明されている様々な機能は、ハードウェア、ファームウェア、および/またはソフトウェアによって実行することができる。例えば、いくつかの機能は、メモリに格納された指令を実行するプロセッサによって実行され得る。
他のコンポーネントは示していないが、例示的動作環境100は、ユーザデバイス102a−102nなどのいくつかのユーザデバイス、データソース104a、および104bから104nなどのいくつかのデータソース、サーバ106、センサ103a〜103n、及びネットワーク110を含む。図1に示される環境100は、適切な動作環境の一例であることを理解されたい。図1に示した各コンポーネントは、例えば、図10に関連して説明されるコンピューティングデバイス1000などの任意のタイプのコンピューティングデバイスを介して実装され得る。これらのコンポーネントは、限定はしないが、1つまたは複数のローカルエリアネットワーク(LAN)および/またはワイドエリアネットワーク(WAN)を含み得るネットワーク110を介して互いに通信することができる。例示的な実施態様では、ネットワーク110は、インターネットおよび/またはセルラーネットワークを含み、その中には、さまざまな可能な公衆および/または私設ネットワークが含まれる。
本開示の範囲内で、任意の数のユーザデバイス、サーバ、およびデータソースを動作環境100内で採用することができることを理解されたい。各々は、単一の装置または分散環境において協働する複数の装置を含み得る。例えば、サーバ106は、本明細書に記載の機能を集合的に提供する分散環境に配置された複数の装置を介して提供されてもよい。さらに、図示されていない他のコンポーネントも分散環境内に含まれてもよい。
ユーザデバイス102a〜102nは、ユーザが使用することができる任意の種類のコンピューティングデバイスを備え得る。例えば、一実施形態では、ユーザデバイス102a〜102nは、本明細書の図10に関して説明される種類のコンピューティングデバイスであり得る。限定ではなく例として、ユーザデバイスは、パーソナルコンピュータ(PC)、ラップトップコンピュータ、モバイルもしくはモバイルデバイス、スマートフォン、タブレットコンピュータ、スマートウォッチ、ウェアラブルコンピュータ、パーソナルデジタルアシスタント(PDA)、MP3プレーヤー、全地球測位システム(GPS)またはデバイス、ビデオプレーヤー、ハンドヘルド通信デバイス、ゲーミングデバイスまたはシステム、エンターテインメントシステム、車載コンピュータシステム、組み込みシステムコントローラ、カメラ、リモコン、バーコードスキャナ、コンピュータ化された測定装置、機器、家庭用電化製品、ワークステーション、ヘッドマウントコンピューティングデバイス、またはこれらの描写された装置の任意の組み合わせ、または任意の他の適切な装置であり得る。
ユーザデバイス102a〜102nは、動作環境100のクライアント側のクライアント装置とすることができ、一方、サーバ106は、動作環境100のサーバ側とすることができる。サーバ106は、本開示で説明される特徴および機能の任意の組み合わせを実装するために、ユーザデバイス102a〜102nのクライアント側ソフトウェアと共に動作するように設計されたサーバ側ソフトウェアを備えてもよい。動作環境100のこの区分は適切な環境の一例を示すために提供されており、サーバ106とユーザデバイス102a−102nとの任意の組み合わせが別個の要素とされることは各実施態様について要件ではない。
データソース104aおよび104bから104nは、データを動作環境100の様々なコンポーネントのいずれか、または図2に関連して説明されるハンズフリー対話システム200に利用可能にするように構成されたデータソースおよび/またはデータシステムを備え得る。例えば、一実施形態では、1つまたは複数のデータソース104aから104nが、図2のストレージ270に提供される(またはアクセス可能にする)。データソース104aおよび104bから104nは、ユーザデバイス102a〜102nおよびサーバ106とは別個であってもよいし、またはそれらに組み込まれるおよび/またはそれらと統合されてもよい。一実施形態では、データソース104aから104nのうちの1つまたは複数は、ユーザデバイス102a〜102nまたはサーバ106のうちの1つまたは複数に統合され得るかまたはそれらに関連付けられ得る1つまたは複数のセンサを備える。動作環境100は、図2および図3で説明される、モーション処理、サウンド処理、ならびにキーワードカスタムライブラリ、ユーザデータ、環境固有データなどのデータストレージ用のコンポーネントを含む、ハンズフリー対話システム200のコンポーネントのうちの1つまたは複数を実装するために利用することができる。
次に図2を参照すると、本開示のいくつかの実施形態で採用することができるハンズフリー対話システム200の例示的な実施形態を示すブロック図が提供されている。ハンズフリー対話システム200は、概して、タッチ式オペレーティングシステム202のアプリケーションおよび機能とのハンズフリー対話を促進するように動作する。図2に示されるハンズフリー対話システムは、本開示の実施形態で採用することができる1つのシステムの例であることを理解されたい。図示される各コンポーネントは、図1を参照して説明された動作環境100と同様の1つまたは複数のコンピューティングデバイスを含み得る。ハンズフリー対話システム200は、図示されている任意の単一のモジュール/コンポーネントまたはモジュール/コンポーネントの組み合わせに関連した依存または要件を有すると解釈されるべきではない。例えば、ハンズフリー対話システム200は、本明細書に記載の機能を集合的に提供する分散環境において構成された複数の装置を含み得る。ハンズフリー対話システム200および/またはその様々なコンポーネントは、本開示の様々な実施形態に従って任意の場所に配置し得ることを理解されたい。
ヘッドマウントコンピューティングデバイス220(図9を参照してより詳細に説明される)は、概して、タッチ式オペレーティングシステム202のタッチ式ユーザインターフェース206とのハンズフリー対話を促進する。ヘッドマウントコンピューティングデバイス220は、とりわけモーションセンサ、音声センサ、ディスプレイ、及び入力コントロールなど、さまざまなヘッドセットデバイスの入出力コンポーネントを備え得る。さらに、ヘッドマウントコンピューティングデバイス220は、ストレージ270などのコンピュータ記憶媒体に格納されたコンピュータ使用可能指令を含み得る。したがって、ヘッドマウントコンピューティングデバイス220は、ハードウェア、ファームウェア、および/またはソフトウェアの任意の組み合わせを使用して実行できるコンピューティングプロセスを実行するように構成できる。例えば、メモリに格納された指令を実行するプロセッサ(例えば、ヘッドセットプロセッサ280)によって様々な機能が実行され得る。こうした方法は、いくつか例を挙げると、スタンドアロンアプリケーション、サービスもしくはホスト型サービス(スタンドアロン型、または他のホスト型サービスと組み合わせて)、又は他の製品へのプラグインによって提供されてもよい。
ハンズフリー対話システム200によって実行される機能およびプロセスは、アプリケーション、サービス、またはルーチン(ヘッドセットアプリケーション276など)に関連付けられてもよい。特に、そのようなアプリケーション、サービス、またはルーチンは、ヘッドマウントコンピューティングデバイス220上で動作してもよく、または複数のデバイスにわたって分散されてもよい。例えば、本明細書に記載されている機能およびプロセスは、タッチ式ユーザデバイス(ユーザデバイス102aなど)、サーバ(サーバ106など)上で実行されてもよいし、またはクラウド内に実装されてもよい。さらに、いくつかの実施形態では、ハンズフリー対話システム200のコンポーネントは、ネットワーク110にわたって分散され得る。加えて、これらのコンポーネント、これらのコンポーネントによって実行される機能、またはこれらのコンポーネントによって実行されるサービスは、コンピューティングシステムのオペレーティングシステム層、アプリケーション層、ハードウェア層など、適切な抽象化層で実装され得る。コンピューティングシステムの)。あるいは、または加えて、本明細書に記載のこれらのコンポーネントの機能および/または本発明の実施形態は、少なくとも部分的には、1つまたは複数のハードウェア論理コンポーネントによって実行することができる。例えば、限定ではなく、使用可能な例示的な種類のハードウェア論理コンポーネントには、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、チップシステム上システム(SOCs)、複雑なプログラマブルロジックデバイス(CPLD)、が含まれる。さらに、本明細書では、例示的なハンズフリー対話システム200に示されている特定のコンポーネントに関して機能性を説明しているが、いくつかの実施形態では、これらのコンポーネントは他のコンポーネントと共有されるまたは分散されることが想定される。
したがって、ヘッドマウントコンピューティングデバイス220は、ハンドフリー対話モードを提供するための指令(ヘッドセットアプリケーション276によって記憶され得る)を実行する1つまたは複数のヘッドセットプロセッサ280を含み得る。ハンズフリー対話モードは、ヘッドマウントコンピューティングデバイス220を介したタッチ式オペレーティングシステム202のプログラム、アプリケーション、および機能との対話を促進することができる。一形態では、ヘッドセットアプリケーション276は、タッチ式オペレーティングシステム202で動作する既存のバイナリアプリケーションとのハンズフリー対話を促進するための指令を含む。例えば、ハンズフリー対話システム200は、発行元、またはPlaystore、Appstore、及びタッチ式アプリケーションの他の供給源から利用可能なアプリケーションのような既存のバイナリを通じて、任意の数のアプリケーションと共に使用できるように構成され得る。さらに、ヘッドセットエンジン210は、タッチ式オペレーティングシステム202上で実行されているアプリケーション208に問い合わせて、とりわけタッチ式ユーザインターフェースに含まれる入力制御、フォーム要素、およびナビゲーションコマンドなどの画面コンポーネント/機能を判定し得る。例えば、ヘッドセットエンジン210は、タッチ式オペレーティングシステム202のユーザインターフェース層を分析して、様々な画面コンポーネント/機能が表示のためにいつ提供されているかを判断することができる。このようにして、タッチ式アプリケーションが実行されているときに、アプリケーションの様々な表示されたUIコンポーネントを判定することができる。下記で説明するように、画面コンポーネント/特徴を抽出または識別し、処理のためにハンズフリー対話システム200の他のコンポーネントに提供することができる。結果として、タッチ式オペレーティングシステム202で動作可能な実質的にあらゆるアプリケーションは、実行時に、ハンズフリー対話のために有効にすることができる。さらに、ハンズフリー対話システム200は、標準のハンズフリー対話モードの指令と互換性がないアプリケーション用のXMLファイルを含んでもよい。XMLファイルは、標準のハンズフリー対話モードの指示を無効にし、カスタマイズされた指示を提供し得る。加えて、XMLファイルは、既存のバイナリが修正されなくてもよいように、実行時にアプリケーション208の既存のバイナリと混合されてもよい。
さらに、ヘッドマウントコンピューティングデバイス220は、様々なヘッドセットデバイスI/O222、例えば、ヘッドマウントコンピューティングデバイス220を介して受信されたハンズフリー入力を感知または検出することができるコンポーネントを含んでもよい。受信された入力は、例えばハンズフリー入力判定部240によって、1つまたは複数のハンズフリーコマンドを生成するために処理される。さらに、ハンズフリー対話システム200は、受信したハンズフリー入力に関連するコマンドを判定および/または生成するように構成され得る。生成されたハンズフリーコマンドは、(例えば、通信コンポーネント232によって)実行のためにタッチ式オペレーティングシステム202に通信され得る。判定されたコマンドは、あたかも対応するタッチ式入力を実行しているかのように、コマンドを実行するようにタッチ式オペレーティングシステム202にプログラム的に指示することができる。
ヘッドセットエンジン210は、概して、タッチ式オペレーティングシステム202、タッチ式ユーザインターフェース206、モーション処理システム242、サウンド処理システム250、インターフェース分析部212、ストレージ270、ヘッドセットデバイス入出力部(I/O)222、及び他のそれぞれのサブコンポーネント間の通信を促進することを担当する。いくつかの形態では、ヘッドセットエンジン210は、ヘッドセットデバイスI/O222から信号を受信したことに応じて、ハンズフリー対話モードを開始する。例えば、(ボタン、スイッチなどの)物理的入力制御部238は、ハンズフリー対話モードを開始する入力を受けることができる。いくつかの形態では、ヘッドセットエンジン210は、判定されたタッチ式スクロール機能およびタッチ式制御ダイアログなど、タッチ式ユーザインターフェース206および/またはタッチ式オペレーティングシステム202の分析を開始する。いくつかの形態では、ヘッドセットエンジン210は、(たとえば、センサ226a〜226nから)モーションデータを受信し、情報をハンズフリー入力判定部240へ送信する。いくつかの形態では、ヘッドセットエンジン210は、ヘッドセットデバイスI/O222から音声入力部224を受信し、情報をハンズフリー入力判定部240へ送信する。
タッチ式ユーザインターフェース206は、概して、ハンズフリー対話システム200におけるタッチ式オペレーティングシステム202とのユーザ対話を促進する。いくつかの形態では、タッチ式ユーザインターフェース206は、タッチ式スクロール機能(「スワイプ」機能、水平スクロールバー、垂直スクロールバーなど)を含み得る。いくつかの形態では、タッチ式ユーザインターフェース206は、(たとえば、テキストボックスまたはフィールド、チェックボックス、アプリケーションアイコン、文書ツール、ラジオボタンなどの)タッチ式制御ダイアログを含む。
いくつかの形態では、ストレージ270は、キーワードカスタムライブラリ272を含み得る。キーワードカスタムライブラリ272は、タッチ式制御ダイアログの関連付けに対するキーワードキューを含むデータベースを含み得る。一形態では、ストレージ270は、ユーザ固有の設定、好み、閾値、許可、または個人もしくは個人のグループに関連する任意のデータも含み得る。一形態では、ストレージ270は、ヘッドセットアプリケーション276であり得る。ストレージ270は、ハンズフリー対話システム200の任意のコンポーネントおよびサブコンポーネントと通信可能に結合され得る。
音声入力部224は、概して、マイクロフォンなど(例えば指向性および全方向性マイクロフォン)のような、音声を取り込むためのコンポーネントを指す。実施形態では、音声入力部224は、周囲雑音を捕捉して最終的にユーザ音声入力の処理および分析を助けるために使用されるように構成されたヘッドマウントコンピューティングデバイス220の様々な地点に配置された複数のマイクロフォンを含み得る。音声入力部224は、本開示の範囲から逸脱することなく、音声入力を感知して音声入力を音声フィードに変換することができる任意のセンサまたはセンサのシステムとすることができることが理解されよう。音声出力部230は、概して、ユーザへのサウンド出力を促進する。本開示の範囲から逸脱することなく、電気的入力に応じてサウンドを生成することが可能な任意の音声出力コンポーネント(スピーカなど)を実施形態で使用することができることが理解されよう。実施形態では、音声出力部230は、少なくともヘッドセットデバイスI/O222と通信するように構成され得る。通信コンポーネント232は、概して、任意の適切な通信プロトコルを介してヘッドマウントコンピューティングデバイス220と他の装置との間の通信を促進する。実施形態では、通信コンポーネントは、図10を参照して上記または下記で説明された無線通信システムを備えることができる。
ディスプレイ234は、概して、ユーザへのデータの視覚的提示を促進する。本開示の範囲から逸脱することなく、任意のディスプレイが様々な実施形態において使用され得ることが理解されるであろう。センサ226a〜226nは、とりわけ、カメラ、マイクロフォン、GPS、RFIDセンサ、赤外線センサ、光センサ、磁力計、ジャイロスコープ、容量トランスデューサ、ポテンショメータ、抵抗トランスデューサ、シンクロ、加速度計、およびマイクロジャイロスコープを含み得る。
次に図3を参照すると、ハンズフリー対話システム200のさらなる態様を示すブロック図が提供されており、例示的なヘッドマウントコンピューティングデバイス220は、本開示のいくつかの実施形態を採用することができる。ヘッドマウントコンピューティングデバイス220は、本開示の実施形態を採用することができる、モーションキャプチャ、モーション分析、音声入力、音声分析、音声出力、画像キャプチャ、位置検出、方向判定、環境判定、インターフェース表示、位置検出、およびネットワーク接続のためのシステムと、ヘッドマウントコンピューティングデバイス220と通信可能に結合することができ、ネットワーク110と通信可能に結合することができるユーザデバイス102a〜102nと、図1に関連して説明されているネットワーク110と、サーバ106と、データソース104aと、を含み得る。ハンズフリー対話システム200のコンポーネントは、例えば、1組のコンパイルされたコンピュータ指令または機能、プログラムモジュール、コンピュータソフトウェアサービス、または、図10に関連して説明されるコンピューティングデバイスのように、1つまたは複数のコンピュータシステム上で実行されるプロセス構成として実施することができる。
一実施形態では、ハンズフリー対話システム200のコンポーネントによって実行される機能は、変位をタッチ式指令、コマンド、またはタッチ式オペレーティングシステム内の入力に変換することに関連する。実施形態では、ハンズフリー対話システム200は、ヘッドマウントコンピューティングデバイスのヘッドセット入出力(I/O)222と、ヘッドセットエンジン210と、ハンズフリー対話システム内のシステムまたはサブシステムを、検出すること、処理すること、分散すること、監視すること、および/または作動すること、を担当することができるハンズフリー入力判定部240と、を含む。例えば、起動コマンドの受信に応じて、ヘッドセットエンジン210は、ヘッドマウントコンピューティングデバイス上でハンズフリー対話モードを開始し、ハンズフリー対話モードは、タッチ式オペレーティングシステム(OS)のユーザインターフェースとの対話を可能にしてもよい。ハンズフリー対話モードの開始の一部として、ヘッドセットエンジン210は、インターフェース分析部212、モーション処理システム242、サウンド処理システム250、および環境分析部214を起動することができる。
モーション処理システム242は、概して、ヘッドセットデバイスI/O222によって検出されたモーション式入力データの処理を促進する。モーション処理システム242は、ヘッドマウントコンピューティングデバイス220、ユーザデバイス102a〜102n、サーバ106、又は例えばネットワーク110を介してハンズフリー対話システム200と通信可能に接続され得る任意の場所に存在してもよい。実施形態では、モーション処理システム242は、ヘッドセットエンジンのサブシステムであり得る。実施形態では、モーション処理システム242は、通信コンポーネント232を介してヘッドマウントコンピューティングデバイス220と通信可能に結合された1つまたは複数のユーザデバイス102a〜102nのサブシステムとすることができる。他の実施形態では、モーション処理システム242は、通信コンポーネント232を介してヘッドマウントコンピューティングデバイス220と通信可能に結合された1つまたは複数のネットワークデバイスのサブシステムとすることができる。
このように、センサ226a〜226nからのデータは、分析のためにモーション処理システム242に送信され得る。いくつかの実施形態では、モーション処理システム242は、モーション検出コンポーネント244、較正制御コンポーネント246、およびモーション変換コンポーネント248(以下でさらに詳細に説明される)を含むサブコンポーネントを含み得る。形態では、モーション処理システム242は、通信コンポーネント232を介してハンズフリー対話システム200と通信可能に接続され得る。ヘッドセットの横方向移動、並進移動、および回転移動は、センサ226a〜226nによって検出され、モーション処理システム242によって処理されて、ニュートラル位置および向きを判定する。例えば、センサデータは、モーション処理システム242によって処理されて3つの軸に対して9自由度でヘッドセットの位置および向きを検出してもよい。実施形態では、モーション処理システム242は、ハンズフリー対話モードの開始時にヘッドセットの向きを検出することによって、ハンズフリー対話モードの開始中にニュートラル位置を較正することができる。
形態では、閾値変位は、任意の軸において、ニュートラルから+/−10度だけヘッドセットを回転させるなど、ニュートラル位置からの所定の変位値であり得る。加えて、閾値変位は、ヘッドマウントコンピューティングデバイス220の角度変化、並進移動、回転、または任意の他の移動であり得る。理解され得るように、本説明では概して単数形を示しているが、任意の数の閾値変位を判定することができる。閾値変位は、タッチ式オペレーティングシステム202と対話するための任意の数のタッチ式入力に対応し得る。例えば、スクロールアップタッチ式入力は、ヘッドマウントコンピューティングデバイス220の上方への回転とする対応するハンズフリー入力を有し得る。したがって、ハンズフリー回転入力は、ニュートラル位置から上方に所定の度数の対応する閾値を有し得る。その結果、不注意によるハンズフリー入力を減少または排除することができる。
他の形態では、閾値変位は、例えばモーション処理システム242および/またはヘッドセットエンジン210によって自動的かつ反復的に調整され得る。限定ではなく例として、ハンズフリー対話システム200は、以前のヘッドセットモーションデータに基づいて閾値変位を調整するためのハンズフリー入力(ユーザデータ274に格納されてもよい)を監視するコンピュータ学習または機械学習指令を含むことができる。他の形態では、閾値変位は、ヘッドマウントコンピューティングデバイス220に関連する(例えば、位置判定部216によって判定され得る)任意の数の場所に関連する使用データに基づいて自動的に調整され得る。他の形態では、変位閾値は、カスタマイズされた値であり得、これはユーザによって判定され得る。例えば、ユーザは、ハンズフリー対話アプリケーションのユーザインターフェースを介して閾値変位設定を調整することができ、これは、ハンズフリー対話システム200内に記憶され、本明細書に記載の任意の装置によって実行され得る。したがって、モーション処理システム242は、以下により詳細に説明されるように、検出された変位、またはヘッドセットの並進を、閾値変位と比較してもよい。
モーション検出コンポーネント244は、ヘッドマウントコンピューティングデバイス220の変位を検出するためにモーション処理システム242を監視してもよい。例えば、モーション検出コンポーネント244は、較正制御コンポーネント246によって記憶された初期参照画像と、ヘッドマウントコンピューティングデバイス220の変位を検出するためのモーション処理システム242によって捕捉されるヘッドマウントコンピューティングデバイス220の初期位置に対する後続する画像と、を比較し得る。初期参照画像と後続する画像とを比較することによってヘッドマウントコンピューティングデバイス220の初期位置に対するヘッドマウントディスプレイの変位を検出するために任意の数の画像解析アルゴリズムを使用できることが理解されよう。さらに、閾値および/または検出された変位は、変位の期間を判定することを含み得る。例えば、閾値変位は、ハンズフリー入力として認識されるために、変位が5秒間持続されることを必要とし得る。さらに、モーション検出センサ(本明細書で説明されるように、加速度計、ジャイロスコープなどを含み得るセンサ226a〜226nなど)からの任意の種類のデータを使用して変位を測定または検出することができることを理解されたい。
モーション検出コンポーネント244が閾値変位を超えるヘッドマウントコンピューティングデバイス220の変位を検出すると、モーション変換コンポーネント248は、角度変位を1つまたは複数のタッチ式入力に対応する命令に変換することができる。モーション変換コンポーネント248は、変位の種類に基づいて適切な命令を判定することができる。実施形態では、モーション変換コンポーネント248は修飾部を用いて指令を補強することができる。例えば、ページスクロール指令は、10ページスクロールのように、複数のページの修正部で補強されてもよい。修正部は、検出された変位の持続時間など、検出されたハンズフリー入力に関連する特徴に基づいてもよい。
サウンド処理システム250は、概して、ヘッドセットデバイスI/O222によって検出された音声入力データの処理を促進する。したがって、センサ226a〜226nからのデータは分析のためにサウンド処理システム250に送信されてもよい。いくつかの形態では、音声入力部224からのデータは分析のためにサウンド処理システム250に送信されてもよい。いくつかの実施形態では、サウンド処理システム215、250は、インターフェース分析部212、252、音声処理コンポーネント254、および音声変換コンポーネント256を含む音声検出コンポーネントを含むサブコンポーネントを含むことができる。いくつかの形態では、サウンド処理システム250は、タッチ式制御ダイアログに関連するキーワードキューを検出された音声入力と比較することができる。いくつかの形態では、サウンド処理システム250は、通信コンポーネント232を介してハンズフリー対話システム200と通信可能に接続され得る。したがって、サウンド処理システム250は、ユーザデバイス、ネットワーク、サーバ、またはハンズフリー対話システム200と通信可能に接続されている任意の場所に配置され得る。
実施形態では、タッチ式オペレーティングシステムは、サウンド処理システムの1つのアプリケーションのみへの音声入力を可能にするように構成されているので、音声共有コンポーネント(図示せず)をさらに含んでもよい。音声共有コンポーネントは、複数のプロセス、アプリケーション、コンポーネントなどが音声入力を同時に受信することを可能にし得る。言い換えれば、音声共有コンポーネントは、さらなる処理または分析なしで音声フィードがタッチ式オペレーティングシステムに継続し、音声検出コンポーネント252に継続することを可能にすることができる。他の方法で言うと、音声共有コンポーネントは、音声共有コンポーネントは、サウンド処理システムの機能を損なうことなく、タッチ式アプリケーションへの音声フィードの提供を促進する。
例えば、ユーザは、ハンズフリーナビゲーションシステム内のタッチ式オペレーティングシステムと遠隔会議アプリケーションとを同時に実行することができ、音声共有コンポーネントは、音声フィードが遠隔会議アプリケーションに継続することを可能にすることができる。さらに、音声共有コンポーネントは、音声検出コンポーネント252に音声フィードを提供することができる。したがって、実施形態では、音声共有コンポーネントは音声フィードを複製することができる。
音声検出コンポーネント252は、概して、音声フィードを検出するために音声入力部224および/またはセンサ226a〜226nを監視することを促進する。例えば、音声検出コンポーネント252は、信号がマイクロフォンによって受信されていることを検出するために、ヘッドマウントコンピューティングデバイス220のマイクロフォンを聴取してもよい。この例を続けると、音声検出コンポーネント252は、マイクロフォンによって受信された信号が所定の音量より上であると判定することを担当してもよく、それは、信号がハンズフリー可聴入力を判定するためにさらに処理されるべきことを示し得る。実施形態では、音声検出コンポーネント252は、検出した音声フィードを音声処理コンポーネント254に提供する。
音声処理コンポーネント254は、概して、ユーザの発話を識別、分離、および分析するために音声フィードの処理を促進する。実施形態では、音声処理コンポーネント254は、音声フィードを処理するために、音声認識アルゴリズム、ノイズ低減アルゴリズム、音声−文章アルゴリズム、機械学習アルゴリズムなどを使用することができる。いくつかの形態では、音声処理コンポーネント254は、音声検出コンポーネント252から複数の音声フィードを受信することができる。これらの実施形態では、音声処理コンポーネント254は複数の音声フィードを処理して、ユーザの音声を背景雑音から少なくとも部分的に分離することができる。ユーザの音声を背景から少なくとも部分的に分離するために、任意の雑音低減アルゴリズム、音声分離アルゴリズム、または任意の適切なアルゴリズムもしくは技法を使用することができることが理解されよう。実施形態では、音声処理コンポーネント254は、音声検出コンポーネント252から音声フィードを受信し、インターフェース分析部212によってタッチ式制御ダイアログに関連付けられた第1の可聴入力を識別することができる。実施形態では、音声処理コンポーネント254は、音声フィードを分析し、音声フィードをキーワードキューと比較して、処理された音声フィードがキーワードキューと一致するかどうかを判断する。
音声変換コンポーネント256は、概して、音声フィード−キーワードキュー一致の関連する制御ダイアログへの変換を促進する。したがって、音声変換コンポーネント256は、音声処理コンポーネント254から一致するキーワードキューを受け取り、そのキーワードキューに関連付けられている制御ダイアログを判定することができる。
インターフェース分析部212は、概して、タッチ式ユーザインターフェース206、タッチ式オペレーティングシステム202、タッチ式ユーザインターフェース206内のアプリケーション208、およびタッチ式ユーザインターフェース206内の文書204内のタッチ式ユーザ対話機能の検出を促進する。本明細書で使用するとき、タッチ式ユーザ対話機能は、タッチ式スクロール機能(「スワイプ」機能、水平スクロールバー、垂直スクロールバーなど)、タッチ式制御ダイアログ(テキストボックスまたはフィールド、チェックボックス、アプリケーションアイコン、文書ツール、放射状ボタンなど)、並びに、タッチ式ユーザインターフェース、オペレーティングシステム、アプリケーション、および/または文書内でのユーザ操作を促進する、より一般的な任意の要素、機能、アイコン、コマンド、コード、拡張子、マクロなどを含む。形態では、インターフェース分析部212は、タッチ式ユーザインターフェース206、タッチ式オペレーティングシステム202、および/またはタッチ式ユーザインターフェース206内のアプリケーション208のソースコードをスキャンすることによって、タッチ式ユーザ対話機能を検出および/または識別し得る。形態では、インターフェース分析部212は、環境固有の機能を促進するためにキーワードカスタムライブラリ272および/またはユーザデータ274を参照してもよい。
いくつかの実施形態では、環境分析部214は、概してハンズフリー対話システム200の環境データおよび環境固有の特徴の分析を促進する。環境データは、ヘッドセットエンジン210またはそのサブコンポーネントの動作に関連する任意のデータであり得る。非限定的な例として、環境データは、(ユーザデータ274などの)ユーザデータ、(アプリケーション208に関連付けられたなどの)アプリケーションデータ、または通信コンポーネント232もしくは位置判定部216から受信したデータであり得る。実施形態では、環境分析部214はさらに、インターフェース分析部212を監視し、カスタマイズされたデータがタッチ式ユーザインターフェースの現在のインスタンスに関連しているかどうかを判定する。実施形態では、環境分析部は、分析に応じて、ハンズフリー入力判定部240、ヘッドセットエンジン210、またはそれらのそれぞれのサブコンポーネントの機能を変更することができる。例えば、インターフェース分析部212がタッチ式ユーザインターフェースの特定のインスタンスを分析することに応じて、環境分析部214は、タッチ式ユーザインターフェースの特定のインスタンスに関連するカスタムキーワードキューライブラリ(カスタムキーワードライブラリ272など)を配置することができる。そして、環境分析部214は、カスタムキーワードキューライブラリをサウンド処理システム250に通信し得る
実施形態では、環境分析部214は、ハンズフリー入力判定部240の機能を変更するために位置情報を使用し得る。例えば、環境分析部214は、特定のカスタムキーワードライブラリに関連する位置データ(位置判定部216によって検出されるBluetoothビーコン情報など)を分析することができる。実施形態では、環境分析部214は、特定のモーション式閾値が環境データの結果として示されることを判定し得る。
実施形態では、インターフェース分析部212は、互換性のあるタッチ式ユーザインターフェース、例えば、Googole AndroidまたはAppleのiOSを検出し、タッチ式OSを分析して、ユーザインターフェースの第1のインスタンスに関連するタッチ式コマンドを検出する。インターフェース分析部は、例えば、ユーザインターフェースの第1のインスタンスがタッチ式スクロール機能を備えることを検出することができる。例えば、タッチ式スクロール機能は、タッチ式オペレーティングシステムの異なるメニュー画面に案内するための、タッチ式オペレーティングシステムに関連するタッチ式スクロール機能、アプリケーションの異なるメニュー画面に案内するための、アプリケーションに関連付けられたタッチ式スクロール機能、および/または文書の異なる部分に案内するための、文書に関連付けられたタッチ式スクロール機能を備え得る。
実施形態では、インターフェース分析部212がタッチ式スクロール機能を検出すると、ヘッドセットエンジン210は、モーションキャプチャシステムを較正し、変位を監視し、変位を関連するタッチ式スクロール機能に変換するモーション処理システム242を起動する。起動されると、モーション処理システム242は、較正制御コンポーネント246を作動させることができる。較正制御コンポーネント246は、ヘッドマウントコンピューティングデバイス220の初期位置を検出する。この初期位置は、1つ又は複数の軸に対するヘッドマウントコンピューティングデバイス220の配向を含む。実施形態では、較正制御コンポーネント246は、カメラ(例えば、センサ226a〜226nのうちの1つ)を使用してモーション検出コンポーネント244を作動させることによって、ヘッドマウントコンピューティングデバイスの初期位置を判定することができる。較正制御コンポーネント246は、ヘッドマウントコンピューティングデバイス220の相対移動を測定するために、後続の画像と比較するための初期参照画像として少なくとも一時的に画像を記憶し得る。
さらに、実施形態では、インターフェース分析部212は、検出されたタッチ式スクロール機能を対応する方向のヘッドマウントコンピューティングデバイス220の変位と関連付ける。例えば、インターフェース分析部212が、ユーザインターフェースの第1のインスタンス内で左から右への「スワイプ」に対応するタッチ式OSに関連するタッチ式スクロール機能を検出した場合。インターフェース分析部212は、ヘッドマウントコンピューティングデバイス220の初期位置に対する右への変位を、左から右へのタッチ式スワイプと関連付けることができる。別の例では、インターフェース分析部212がユーザインターフェースの第1のインスタンス内で垂直スクロールバーを検出した場合、インターフェース分析部212は、ヘッドマウントコンピューティングデバイス220の初期位置に対する角度変位「上」を、垂直スクロールバーを所定数のスクロール単位だけ上に移動させることへ、関連付けることができる。インターフェース分析部212がユーザインターフェースの第1のインスタンス内で水平スクロールバーを検出した場合。インターフェース分析部212は、ヘッドマウントコンピューティングデバイス220の初期位置に対する右への角度変位を、水平スクロールバーを所定数のスクロール単位だけ右に移動させることへ、関連付けることができる。
さらに、ヘッドセットエンジン210は、ディスプレイコンポーネント234を起動して、タッチ式オペレーティングシステムのユーザインターフェースの第1のインスタンスを、ヘッドマウントコンピューティングデバイス220のディスプレイに表示することができる(図2を参照してより詳細に説明され、参照番号234によって示される)。実施形態では、次いで、ヘッドセットエンジン210は、ヘッドマウントコンピューティングデバイスの第1の角変位を検出するモーション検出コンポーネント244を起動することができる。第1の角変位は第1の閾値角変位を上回るものであり、第1の閾値角変位は、初期位置に対する角変位である。
さらに、インターフェース分析部212が、左から右へのスワイプに対応すると共にヘッドマウントコンピューティングデバイスの初期位置に対する右への角変位を左から右へのタッチ式スワイプに関連付けられたタッチ式スクロール機能を検出し、モーション検出コンポーネント244が、初期位置から閾値を上回る右へのヘッドマウントコンピューティングデバイスの角変位を検出し、モーション変換コンポーネント248は、左から右へスワイプする指令が求められていると判定することができる。次に、モーション変換コンポーネント248は、角変位を左から右へのスワイプに対応する命令に変換し、その命令をコマンド生成部213に渡すことができる。コマンド生成部213は、モーション変換コンポーネント248によって示される指令に対応するタッチ式入力を生成し、タッチ式ユーザインターフェース内で指令を実行する。任意の変位がシステムによって検出され、分析され、変換されてもよく、前述の例は例として意図されており、限定として意図されていないことが理解されよう。
実施形態では、インターフェース分析部212は、互換性のあるタッチ式オペレーティングシステムを検出し、タッチ式ユーザインターフェースを分析して、ユーザインターフェースの第1のインスタンスに関連する少なくとも1つのタッチ式制御ダイアログを検出する。例えば、タッチ式制御ダイアログは、音声出力を可能にするため、または音声出力ボリュームを変更するための、タッチ式オペレーティングシステムに関連するタッチ式コマンド、および/または、例えば、アプリケーションを起動するための、またはアプリケーション要素、テキストフィールドもしくは「送信」要素を選択するための、アプリケーションに関連するタッチ式制御ダイアログを備えてもよい。前述の例は、潜在的なタッチ式制御ダイアログのほんの一部にすぎず、限定を意図するものではないことが理解されよう。
実施形態では、インターフェース分析部212がタッチ式制御ダイアログを検出すると、ヘッドセットエンジン210は、音声入力を監視および処理し、音声入力を分析し、音声入力を関連するタッチ式制御ダイアログに変換するサウンド処理システム250を起動することができる。起動されると、サウンド処理システム250は、制御ダイアログオプションを検出し、識別し、そしてキーワードキューを関連付けるインターフェース分析部212を起動する。実施形態では、インターフェース分析部212は、実行時にユーザインターフェースの第1のインスタンスに関連付けられたソースコードをスキャンして特徴を抽出することによって、タッチ式制御ダイアログを検出する。例えば、インターフェース分析部212がユーザインターフェースの第1のインスタンスに埋め込まれた「ボタン」を検出した場合、インターフェース分析部212はボタンテキストをキーワードキューに関連付ける。実施形態では、インターフェース分析部212は、(ストレージ270などの)ハンズフリーコンピューティングデバイスのメモリに格納されているユーザインターフェースの第1のインスタンスに関連するカスタマイズされたキーワードキューライブラリを検出することができる。実施形態では、インターフェース分析部212は、通信的に結合されたユーザデバイス(ユーザデバイス102aなど)に格納されているカスタマイズされたキーワードキューライブラリを検出することができる。実施形態では、インターフェース分析部212は、(データソース104aなどの)通信可能に結合されたデータソースに格納されているカスタマイズされたキーワードキューライブラリを検出することができる。
ヘッドセットエンジン210は、ディスプレイコンポーネント234を起動して、タッチ式オペレーティングシステムのユーザインターフェースの第1のインスタンスをヘッドマウントコンピュータデバイスのディスプレイに表示する。実施形態では、ヘッドセットエンジン210は、次いで、音声検出コンポーネント252を起動して、例えば、センサ226a−226nまたは音声入力部224を介して受信された音声を検出し、音声入力を音声処理コンポーネント254に渡す。本明細書で使用される際に、音声フィードは、音声入力装置によって取り込まれた音響信号、または音声入力要素によって生成された電気信号のいずれかを指し得る。
コマンド生成部213がタッチ式ユーザインターフェース内で指令を実行することに応じて、ヘッドセットエンジン210は次に、ディスプレイコンポーネント234に指示して、タッチ式オペレーティングシステムのユーザインターフェースの第2のインスタンスをヘッドマウントコンピューティングデバイスのディスプレイに表示させる。
次に図4を参照すると、図3を参照して説明したヘッドセットによって少なくとも部分的に実施することができる例示的なモーション式ハンズフリー対話モード400を示すブロック図が提供されている。実施形態では、ヘッドセットエンジンは、モーション処理システム242に関連付けられたハンズフリー対話モード402を開始する。ハンズフリー対話モード402は、インターフェース分析部を起動して、ユーザインターフェースの第1のインスタンス内のタッチ式スクロール機能を検出し、タッチ式スクロール機能を第1の角変位と関連付けることを含み得る。ブロック404において、ハンズフリーコンピューティングデバイスの初期位置が検出され、初期基準配向が判定される。実施形態では、これは、図3を参照して説明したように、較正制御コンポーネント246によって行われてもよい。実施形態では、較正制御コンポーネント246は、基準配向をリセットするために任意の時点でユーザによって再起動されてもよい。例えば、ユーザは、最初の基準配向が判定された時点で、ハンズフリーナビゲーション中にその位置を維持することは望ましくないであろう奇妙なまたは不快な位置に頭をおくことがあるので、ユーザは、基準配向が再判定され得るように、較正制御コンポーネント246を再起動し得る。実施形態では、ヘッドマウントコンピューティングデバイス220は、較正制御コンポーネント246を再起動することに関連するボタン(物理的入力要素238など)を有することができる。さらに、又は代替的に、一実施形態では、所定の音声コマンドが、較正制御コンポーネントを再起動することに関連付けられる。
ブロック406で、ディスプレイはユーザインターフェースの第1のインスタンスを示す。実施形態では、これは、図3を参照して説明したようにヘッドセットエンジン210によって行われる。ブロック408で、図3を参照して説明したように、ヘッドマウントコンピューティングデバイスの移動がモーション検出コンポーネント244によって検出される。ブロック410で、検出された移動は、図3を参照して説明したように、モーション検出コンポーネント244によってタッチ式スクロール機能に関連する角度閾値を超えたと判定される。ブロック412で、検出された変位は、モーション変換コンポーネント248によって、タッチ式スクロール機能に関連するタッチ式スクロール指令に変換される。さらに、コマンドが、タッチ式インターフェースの第1のインスタンス内で生成され実行される。ブロック414で、タッチ式スクロールコマンドの実行に応じて、ユーザインターフェースの第2のインスタンスが表示される。方法400は、必要に応じて何度でも繰り返し方式で実行することができることが理解されよう。
実施形態では、モーション式ハンズフリー対話モードのいくつかのプロセスは、図3を参照して説明したようにヘッドマウントコンピューティングデバイス302、220と通信可能に接続されたユーザデバイス(ユーザデバイス102aなど)によって少なくとも部分的に完了してもよい。
次に図4bを参照すると、図3に示されるヘッドセットによって少なくとも部分的に実施され得る例示的な音声式ハンズフリー対話モード416を示すブロック図が提供される。実施形態では、ヘッドセットエンジンは、サウンド処理システム250に関連するハンズフリー対話モード418を開始する。ハンズフリー対話モード418を開始することは、インターフェース分析部を起動して、ユーザインターフェースの第1のインスタンス内で、少なくとも1つのタッチ式制御ダイアログを検出することを含み得る。ブロック420で、少なくとも1つのタッチ式制御ダイアログが識別され、キーワードキューと関連付けられる。実施形態では、インターフェース分析部は、タッチ式ユーザインターフェース内で実行されているアプリケーションのソースコードを分析し、アプリケーションソースコード内のタッチ式制御ダイアログに関連付けられている名前を識別することができる。次いで、インターフェース分析部は、アプリケーションソースコードからの名前と実質的に同様のキーワードキューを生成し、生成されたキーワードキューをタッチ式制御ダイアログと関連付けることができる。たとえば、タッチ式ユーザインターフェースがアプリケーションの構造図を表示していて、アプリケーション内にズーム機能を開くタッチ式コントロールダイアログがある場合、インターフェース分析部はリアルタイムで、アプリケーションのソースコードにアクセスし、ズーム機能をエンコードしているコードの部分を識別し、その機能が「ズーム」と命名されていることを検出し、キーワードキュー「ズーム」を生成し、生成されたキーワードキュー「ズーム」を、ズーム機能を開くタッチ式制御ダイアログと関連付ける。実施形態では、インターフェース分析部は、図7Bを参照して詳細に説明するように、タッチ式制御ダイアログをキーワードキューと関連付けるときに、予め決められた又はカスタムキーワードキューライブラリを参照してもよい。
ブロック422で、ディスプレイはユーザインターフェースの最初のインスタンスを表示する。実施形態では、ヘッドセットエンジン210は、図3を参照して説明したようにユーザインターフェースの表示を調整する。実施形態では、ブロック424で、第1のユーザインターフェースでインターフェース分析部に識別されたキーワードキューの少なくとも1つの視覚的指標を含むグラフィカルオーバーレイを第1のユーザインターフェース上に同時に表示することができる。さらなる実施形態では、視覚的指標は、図
を参照して図示および説明したように、タッチ式制御ダイアログの位置に実質的に近接して配置され得る。
ブロック426で、可聴入力がヘッドセットによって検出される。実施形態では、可聴入力、例えばユーザによって話されたフレーズ「ズーム」によって、音声入力部224によって最初に検出されてもよい。次いで、音声入力部224は、話されたフレーズ「ズーム」を音声フィードに変換し、音声フィードを音声検出コンポーネント252に渡すことができる。音声検出コンポーネント252は、次に音声処理コンポーネント254を起動することができる。
ブロック428で、音声入力が処理され分析されて、可聴入力がキーワードキュー、したがってタッチ式制御ダイアログと一致するかどうかが判定される。実施形態では、音声処理コンポーネント254は、音声フィードを処理するために、音声認識アルゴリズム、ノイズ低減アルゴリズム、スピーチからテキストへのアルゴリズム、機械学習アルゴリズムなどを使用することができる。例えば、音声フィードは、周囲の雑音、付随的な雑音、または背景雑音からユーザによって話されたフレーズ「ズーム」を分離するために処理され得る。次いで、音声処理コンポーネント254は、処理された音声フィードを分析し、処理された音声フィードをキーワードキューと比較して、処理された音声フィードがキーワードキューと一致するかどうかを判定することができる。
ブロック430で、検出されたキーワードキューに関連するタッチ式制御ダイアログに対応するタッチ式コマンドが生成され、コマンドはタッチ式ユーザインターフェースの第1のインスタンス内で実行される。言い換えれば、音声フィードがキーワードキューと一致すると音声処理コンポーネントが判断した場合、音声変換コンポーネントは、一致したキーワードキューを関連する制御ダイアログに変換する。次に、音声変換コンポーネントは、タッチ式制御ダイアログと同等のコマンドを生成コマンド生成部に制御ダイアログを渡す。生成されたコマンドは、その後、タッチ式ユーザインターフェース内のヘッドセットエンジンによって実行される。例えば、音声処理コンポーネントがフレーズ「ズーム」をキーワードキュー「ズーム」に一致させると、音声変換コンポーネントは、キーワードキュー「ズーム」を、ズーム制御ダイアログを選択することと等価な指令に変換する。その後、指令はコマンド生成部に渡され、コマンド生成部は、ズームタッチ式制御ダイアログのタッチ式ユーザ選択と等価なコマンドを生成する。次に、コマンドがタッチ式ユーザインターフェース内のヘッドセットエンジンによって実行され、ズーム機能が有効になる。方法416は、必要に応じて何度でも反復的に実行することができることが理解されよう。
ここで図4cを参照すると、図3に示すヘッドセットによって少なくとも部分的に実施することができる例示的なモーション式および音声式のハンズフリー対話モードを示すブロック図が提供されている。ブロック440において、ハンズフリー対話モードが開始される。図3に参照して説明したように、ユーザインターフェースの第1のインスタンスに関連する少なくとも1つのタッチ式コマンドを検出するためにタッチ式OSを分析する。例えば、インターフェース分析部は、例えばタッチ式オペレーティングシステムの異なるメニュー画面にナビゲートするためのユーザインターフェースの第1のインスタンスがタッチ式スクロール機能を備えることを検出してもよく、インターフェース分析部212は、ユーザインターフェースの第1のインスタンスが、例えば、タッチ式オペレーティングシステムにインストールされているアプリケーションを開くためのタッチ式制御ダイアログを備えることを検出してもよい。
次に、ヘッドセットエンジン210は、ハンズフリー移動プロトコル436を起動し、ハンズフリー音声プロトコル438を起動させることができる。実施形態では、ハンズフリー移動プロトコル436は、モーション式ハンズフリー対話モード400のプロセスの一部、または全部を備え得る。例えば、ヘッドセットエンジン210は、較正制御コンポーネント246を起動して、1つ又は複数の軸に対するヘッドマウントコンピューティングデバイスの向きを含むヘッドマウントコンピューティングデバイスの初期位置を判定することができる。実施形態では、ハンズフリー音声プロトコル438は、音声式ハンズフリー対話モード416の一部、全部、または代替的なプロセスを備え得る。例えば、ヘッドセットエンジンは、音声式ハンズフリーナビゲーションを可能にするために制御ダイアログ検出モジュールを起動することができる。ヘッドセットエンジンは、ハンズフリー移動プロトコル436およびハンズフリー音声プロトコル438を任意の順序でまたは同時に開始させることができることが理解されよう。
ヘッドセットの初期基準方位が判定され、タッチ式制御ダイアログがキーワードキューに関連付けられると、ブロック440に示すように、タッチ式ユーザインターフェースの第1のインスタンスが表示される。ブロック442で、モーション検出コンポーネントおよび音声検出コンポーネントは、図4Aおよび図4Bを参照して説明したように、ヘッドセットI/Oシステムからの入力データを監視、検出、および分析する。
ブロック444で、移動が検出されると、モーション検出コンポーネントは、ブロック410を参照して説明したように、移動が関連閾値を超えているかどうかを判定する。関連閾値を超えた場合、ブロック412及び414で説明したように、ブロック446で表示が調整される。関連する閾値を超えていない場合、システムはブロック442に戻る。
ブロック448で、音声入力が検出されると、音声処理コンポーネントは、ブロック428を参照して説明したように、音声入力がキーワードキューと一致するかどうかを判定する。音声入力がキーワードキューと一致する場合、ブロック430を参照して説明したように、関連する制御ダイアログに等価なタッチ式コマンドがブロック450で実行される。方法432は、必要に応じて何度でも反復的に実行することができることが理解されよう。
ここで図5を参照すると、タッチ式オペレーティングシステムとのハンズフリー対話を促進する例示的な多軸モーション式の方法500を示すブロック図が提供されている。言い換えれば、方法500は、互換性のあるヘッドセットと共に利用されるときに、タッチ式オペレーティングシステムとの単純で複雑なモーション式ハンズフリー対話を促進する。例示的な例として、ブロック510において、互換性のあるヘッドセットを装着しているユーザがハンズフリーナビゲーションインタフェースを開始させる。前述のように、ヘッドセットの初期基準方位は、中立位置で前方を向くことと等価であると判定される。ブロック512で、ヘッドセットは移動を検出する。例えば、ユーザは、頭を中立から右へ、そして同時に上に向ける。ブロック514で、システムは、移動が第1の軸内にあるかどうかを判定する。例えば、第1の軸における移動は、初期基準位置からx軸に向かって(ユーザの右に)z軸を中心にした回転であり得る。言い換えれば、システムは、ユーザが自分の頭を正面から右に向けた(回転)したことを検出することができる。また、ブロック516で、システムは、移動が第2の軸で発生したかどうかを判定する。例えば、第2の軸における移動は、初期基準位置からz軸に向かって(着用者の視点から見て上向きに)x軸を中心にした回転であり得る。言い換えれば、システムは、ユーザが自分の頭をy軸に実質的に平行な位置からz軸に向けた(回転)したことを検出することができる。
ブロック518において、システムは、第1の軸における移動が第1の軸閾値を超えたかどうかを判定する。第1軸閾値は、例えば、初期基準位置から±10度であるように予め判定され得る。システムが最初の軸で±10度を超える変位を検出した場合、システムは閾値を超えたと判断する。システムが最初の軸で±10度以下の変位を検出した場合、システムは閾値を超えていないと判断する。例えば、ユーザが自分の頭を20度右に向けた場合、システムは第1軸閾値を超えたと判断するであろう。
ブロック520において、システムは、第2の軸における移動が第2の軸閾値を超えたかどうかを判定する。第2軸閾値は、例えば、初期基準位置から±10度になるように予め定められ得る。システムが第2の軸において±10度を超える変位を検出した場合、システムは閾値を超えたと判断する。システムが±10度以下の第2の軸の変位を検出した場合、システムは閾値を超えていないと判断する。例えば、ユーザが頭を20度上に向けた場合、システムは第2の軸閾値を超えたと判断するであろう。
ブロック522で、システムは多軸入力に関連するタッチ式スクロール機能を実行し、タッチ式ユーザインターフェースの第2のインスタンスを表示する。実施形態では、多軸入力は、2つの独立したタッチ式スクロール機能を表してもよい。前の例を続けると、多軸入力(右および上)は、水平スクロールバーを右に所定の数のスクロール単位だけ動かすこと、および垂直スクロールバーを所定の数のスクロール単位だけ上に動かすことに対応し得る。実施形態では、多軸入力は単一のタッチ式スクロール機能を表してもよい。例えば、多軸入力(右上)は、垂直スクロールバーを表示されている文書の全ページに相当する数のスクロール単位だけ移動させることに対応し得る。
ブロック516に戻って、移動が第1の軸においてのみ検出される場合、システムは、ブロック524において、移動が第1の軸閾値を超えたかどうかを判定する。移動が第1の軸閾値を超えなかった場合、システムはブロック512に戻る。移動が第1の軸閾値を超えた場合、ブロック526において、システムは、第1の軸入力に関連付けられたタッチ式スクロール機能を実行し、タッチ式ユーザインターフェースの第2のインスタンスを表示する。
ブロック518に戻って、検出された移動が第1の軸の閾値を超えない場合、システムはブロック528に進む。ブロック528で、システムは移動が第2の軸閾値を超えたかどうかを判定する。移動が第2の軸閾値を超えなかった場合、システムはブロック512に戻る。移動が第2の軸閾値を超えた場合、ブロック530において、システムは、第2の軸入力に関連するタッチ式スクロール機能を実行し、タッチ式ユーザインターフェースの第2のインスタンスを表示する。
例示的な方法500に関して提供された例は、本開示の範囲内の可能な多軸入力および関連するタッチ式スクロールコマンドのサブセットのみを表し、これらの実施例は単なる例示であって限定として解釈されることを意図するものではないことが理解されよう。
ここで図6Aを参照すると、開示された発明の実施形態と一致する可能なユースケースを示す例示的な図が提供されている。図6Aは、図の明瞭さを確保するために実施形態のシステムおよびコンポーネントのサブセットのみを含む。ハンズフリーナビゲーションインターフェースを開始した後、互換性のあるヘッドセットを装着しているユーザに、ディスプレイを介して、ユーザが構築している建物に関連するブループリント602の第1の部分が提示される。ブループリント602の第1の部分に関連する建物600の領域を検査した後、ユーザは自分の頭を左に向けることができる。604において、システムは、第1の軸、この場合はx軸における移動を検出し、第1の軸における移動が第1の軸閾値を超えたと判定する。次にシステムは、その移動を、左へのスクロールと等価のタッチ式スクロール機能に関連するコマンドに変換する。その後、システムはタッチ式ユーザインターフェース内でコマンドを実行する。次にシステムは、タッチ式ユーザインターフェースの第2のインスタンスを表示する。ここで、コマンドは、表示されたブループリント内を所定の距離だけ左にスクロールすることをもたらし、ディスプレイはブループリント606の第2の部分を示す。
ここで図6Bを参照すると、開示された発明の実施形態と一致する他の可能なユースケースを示す例示的な図が提供されている。図6Bは、図の明確さを確保するために実施形態のシステムおよびコンポーネントのサブセットのみを含む。ハンズフリーナビゲーションインターフェースを開始し、スクロールバー位置616aで垂直スクロールバーとスクロールバー位置614aで水平スクロールバーとを検出した後、互換性のあるヘッドセットを装着しているユーザに、ディスプレイを通してユーザが構築している建物に関連する経費報告書612の最初のページが表示される。経費報告書612の最初のページを検討した後、ユーザは自分の頭を下に回転させることができる。618において、ヘッドセットは、x軸周りの角変位を検出し、そして第1の軸におけるモーションが第1の軸閾値を超えると判定し得る。次にシステムは、その移動を、スクロールバー位置616aからスクロールバー位置616bまで所定の距離だけ下方に移動させることに関連するコマンドに変換する。その後、システムはタッチ式ユーザインターフェース内でコマンドを実行する。次にシステムは、タッチ式ユーザインターフェースの第2のインスタンスを表示する。ここで、ディスプレイは、経費報告書620の第2ページを表示する。
ここで図7Aを参照すると、タッチ式オペレーティングシステムのタッチ式ユーザインターフェース内で実行されるコマンドへの音声入力の正確な変換を概して促進する方法700を示すフローダイアグラムが提供される。まず、ブロック701に示されるように、方法は、ヘッドセットセンサから入力データを受信することを含む。さらに、ブロック702で、方法は、受信した入力データが音声フィードであるかどうかを判定することを含み得る。例えば、タッチ式制御ダイアログに関連付けられた音声入力が検出され得る。いくつかの態様では、ブロック704で、方法は音声入力を分析することを含む。実施形態において、音声フィードは、コンピュータベースの音声認識技術を使用して処理され、音声入力を識別する。ブロック706で、方法は、分析された音声入力がキーワードキューと一致するかどうかを判定し得る。実施形態では、分析された音声入力は、制御ダイアログ検出部によるタッチ式制御ダイアログに関連付けられた生成されたキーワードキューと比較される。音声入力がキーワードキューに一致するかどうかを判断するために、1つまたは複数の音声―テキスト一致アルゴリズムを使用できることを理解されたい。実施形態では、タッチ式制御ダイアログは、タッチ式オペレーティングシステムで実行されるモバイルアプリケーションに関連付けられてもよい。実施形態では、ブロック708で、方法は、音声入力と一致するキーワードキューがハンズフリー対話モードを一時停止する命令に対応するかどうかを判定することを含む。例えば、方法は、キーワードキューが音声入力コンポーネントをパッシブモードに設定する命令に対応するかどうかを判定してもよい。これに関連して、パッシブモードとは、ハンズフリー対話モード内でヘッドセットセンサや音声入力システムの分析を(少なくとも一時的に)一時停止することを指す。しかし、実施形態では、ヘッドセットセンサおよび/または音声入力システムは、他のプロセスで使用するためにアクティブのままとされる。つまり、ヘッドセットセンサおよび/または音声入力システムは、タッチ式オペレーティングシステム内で実行されているアプリケーションにデータを送信し続ける可能性がある。たとえば、ハンズフリー対話モードを使用してビデオチャットアプリケーションからのビデオチャットリクエストに応答した後、ユーザはパッシブモードに関連付けられたキーワードキューを話すことで、ハンズフリー対話モードをパッシブモードにすることができるが、ビデオチャットアプリケーション内でヘッドセットのマイクとカメラを使用することは続けられる。
本方法の実施形態では、ブロック710で、キーワードキューが音声入力をパッシブモードに設定するに指令に関連付けられていると判定されることに応じて、音声入力はパッシブモードに設定される。いくつかの実施形態では、ブロック712で、パッシブモードを解除するコマンドが受信され、方法はブロック702に戻る。実施形態では、パッシブモードを解除するコマンドは、ヘッドセットに配置された物理入力要素(ボタンなど)に関連付けられ得る。ブロック708に戻ると、実施形態では、キーワードキューがパッシブモード指令以外のものである場合、タッチ式制御ダイアログコマンドが生成され、タッチ式ユーザインターフェース内で実行される。
ここで図7Bを参照すると、音声入力をキーワードキューと比較するための例示的な方法716を示す図7Aに示されるフローダイアグラムの一部が提供される。例示的な方法716は、概して、音声入力を、生成されたキーワードキュー、カスタムキーワードキュー、および補助キーワードキューと比較することを促進する。図7Aを参照して説明したように、ブロック704で、方法は、音声入力を分析することを含む。ブロック718で、分析された音声入力は、インターフェース分析部によって生成されたキーワードキューと比較され得る。前述のように、キーワードキューは、ユーザインターフェースの第1のインスタンスに関連付けられたソースコードを分析することにより、インターフェース分析部によって識別および生成され得る。
いくつかの実施形態では、ブロック720で、分析された音声入力をカスタムキーワードキューライブラリ722と比較することができる。したがって、ユーザはカスタマイズされたキーワードキューを作成し、カスタマイズされたキーワードキューをタッチ式制御ダイアログに関連付けることができる。実施形態では、このカスタムキーワードライブラリは、少なくとも部分的に、インターフェース分析部によって生成されたキーワードキューに取って代わることができる。実施形態において、キーワードキューは、ユーザインターフェースの特定の第1のインスタンスに関連付けられたカスタマイズされたまたは所定のキーワードキュー制御ダイアログの組み合わせであり得る。
実施形態において、ブロック724において、分析された音声入力は、補助キーワードキューライブラリ728と比較され得る。実施形態において、補助キーワードキューライブラリは、タッチ式制御ダイアログに関連する複数のキーワードキューを含むテーブルを含み得る。たとえば、インターフェース分析部が発音できないタッチ式コントロールダイアログを識別する場合、インターフェース分析部は、発音できないコントロールダイアログに関連付けられている補助キーワードキューライブラリから少なくとも1つの補助キーワードキューを自動的に置き換え得る。加えて、および/または代替として、タッチ式ユーザインターフェースの第1のインスタンスが、実質的に同様の生成されたキーワードキューをもたらす複数のタッチ式制御ダイアログを含む場合、補助キーワードキューライブラリは、同じように代替キーワードキューを提供し得る。
ここで図8Aを参照すると、検出された制御ダイアログの例示的なインスタンスを示す例示的なタッチ式ユーザインターフェースが提供されている。つまり、1〜28は、タッチ式コントロールダイアログとして識別されるインターフェース機能を示す。実施形態では、インターフェース分析部212は、ユーザインターフェースに関連付けられたソースコードを解析することにより、インターフェース機能1〜28を検出し得る。図示の例では、インターフェース分析部212は、タッチ式ユーザインターフェースによって現在提示されているタッチ式オペレーティングシステム内で実行されているアプリケーションに関連するソースコードを分析することができる。しかしながら、インターフェース分析部212は、タッチ式オペレーティングシステム自体に関連するソースコードまたは存在する他のコードも分析してもよい。
実施形態において、インターフェース機能(インターフェース機能1〜28など)がインターフェース分析部212によってタッチ式制御ダイアログとして識別されると、インターフェース分析部212は制御ダイアログを分析し、キーワードキューを生成し、キーワードキューを制御ダイアログに関連付けることができる。実施形態では、インターフェース分析部212は、関連するソースコードを再分析することができる。実施形態では、インターフェース分析部212は、関連するソースコードの少なくとも部分的な分析をインターフェース分析部212に提供してもよい。
ここで図8bを参照すると、キーワードキューオーバーレイを有する例示的なタッチ式ユーザインターフェースが示されている。言い換えれば、30〜38は、本開示の実施形態による音声式ハンズフリーナビゲーションの使用を支援するためにユーザに提示され得るディスプレイオーバーレイを示す。実施形態において、オーバーレイは、インターフェース分析部212によるタッチ式ユーザインターフェースの分析に基づいて、ヘッドセットエンジン210によって自動的に表示され得る。実施形態において、オーバーレイは、ヘッドセットエンジン210の複数のサブコンポーネントによって自動的に生成され得る。例えば、インターフェース分析部212は、インターフェース機能(図8Aのインターフェース機能1〜28など)を検出し、インターフェース機能を制御ダイアログとして識別し、音声検出コンポーネント252を開始させることができる。音声検出コンポーネント252は、制御ダイアログを分析し、キーワードキューを生成し、キーワードキューを制御ダイアログに関連付け、ヘッドセットエンジン210が関連付けを検出し、キーワードキューを含むオーバーレイを生成し、オーバーレイをタッチ式ユーザインターフェースのディスプレイ(オーバーレイ30〜38など)上に重ねさせ得る。上記は、本開示と一致するオーバーレイを作成するための例示的な方法として使用されているに過ぎず、限定を意味するものではないことを理解されたい。
ただし、オーバーレイの自動作成により、タッチ式ユーザインターフェースの特定のインスタンスでオーバーレイに表示される必要、有用、または望ましいものよりも多くの制御ダイアログが表示される場合がある。言い換えると、キーワードキューオーバーレイの純粋な自動生成は、タッチ式ユーザインターフェースのハンズフリーナビゲーションを不注意に妨げる可能性がある。したがって、実施形態において、オーバーレイは、カスタマイズされた好みに基づいてヘッドセットエンジン210によって自動的に表示されてもよい。こうした実施形態では、ヘッドセットエンジン210は、カスタムライブラリ内のタッチ式ユーザインターフェースのインスタンスに関連付けられた所定のオーバーレイテンプレートを識別することができる。
実施形態において、制御ダイアログの機能は、ヘッドセットエンジン210および/またはそのサブコンポーネントによって判定されてもよく、オーバーレイは、ユーザに関連すると判定された関連キーワードキューについてのみ生成されてもよい。実施形態では、この判定は、環境データに基づいて環境分析部214によって行われ得る。実施形態では、この判定は、少なくとも部分的に、ユーザ選好(例えば、ユーザデータ274に格納されたユーザ選好)に基づいて行われ得る。
ここで図9を参照すると、本開示のいくつかの実施形態と一致する例示的なヘッドマウントコンピューティングデバイス900が示されている。ヘッドマウントコンピューティングデバイス900は、概して、タッチ式オペレーティングシステムのタッチ式ユーザインターフェースとのハンズフリー対話を促進する。例示的なヘッドマウントコンピューティングデバイス900が様々なセンサとともに示されているが、センサの位置および数は、本開示の範囲から逸脱することなく実施形態において異なり得ることが理解されるであろう。実施形態では、ヘッドマウントコンピューティングデバイス900は、モーションおよび音声を感知するための複数のセンサと、タッチ式ユーザインターフェースをユーザに表示するためのコンポーネントとを備えてもよい。例えば、典型的なディスプレイ902は概して、タッチ式ユーザインターフェースをユーザに表示することを促進する。実施形態では、ディスプレイ902は、ディスプレイ902がタッチ式ユーザインターフェースを表示するために存在するように、ヘッドマウントコンピューティングデバイス900で構成されてもよい。実施形態では、ディスプレイ902は、上述のように、キーワードキューオーバーレイを表示するようにさらに構成され得る。実施形態において、ディスプレイ902は、少なくとも部分的に半透明であり、ユーザがディスプレイ902を見て、表示されたタッチ式ユーザインターフェースと環境との両方を知覚できるようにすることができる。実施形態では、ディスプレイ902は単眼ディスプレイであってもよい。実施形態では、ディスプレイ902は両眼ディスプレイであってもよい。しかし、本開示の範囲から逸脱することなく、開示された発明の実施形態において任意のディスプレイを使用できることが理解されるであろう。実施形態では、ディスプレイ902は、少なくともヘッドセットデバイスI/O222と通信するように構成され得る。
例示的なセンサ904は、概して、音声入力のキャプチャを促進する。実施形態では、センサ904は指向性マイクロフォンであり得る。実施形態では、センサ904は、無指向性マイクロフォンであり得る。図示されていない実施形態では、センサ904は、周囲雑音をキャプチャし、最終的に使用してユーザ音声入力の処理および分析を支援するように構成された複数のマイクロフォンであって、ヘッドマウントコンピューティングデバイス900のさまざまなポイントに配置された複数のマイクロフォンをさらに備えてもよい。センサ904は、本開示の範囲から逸脱することなく、音声入力を知覚し、音声入力を音声フィードに変換することができる任意のセンサまたはセンサのシステムであり得ることが理解されよう。実施形態において、例示的なセンサ904は、ハンズフリー入力判定部240およびそのサブシステムと通信するように構成され得る。
例示的な物理的入力センサ906は、概して、様々なハンズフリーナビゲーション機能の再起動を促進する入力コンポーネントを提供する。実施形態において、物理的入力センサ906は、図7Aに関して説明したように、パッシブコマンドが発令された後に、ハンズフリー入力判定部240に信号を送って音声式コマンドを再起動するように構成され得る。実施形態では、物理的入力部906は、上述のようにヘッドセットの基準配向を再較正するためにハンズフリー入力判定部240に信号を送るように構成され得る。実施形態では、物理的入力センサ906は、複数の物理入力センサを備えてもよく、第1センサがハンズフリー入力判定部240に信号を送って音声式コマンドを再起動するように構成され、第2センサがハンズフリー入力判定部240に信号を送って基準配向を再較正するように構成されてもよい。物理的入力センサ906は、本開示の範囲から逸脱することなく物理的相互作用を検出することができる任意のセンサであり得ることが理解されるであろう。
例示的な音声出力部908は、概して、ヘッドマウントコンピューティングデバイス900からの音声出力をユーザに提供する。本開示の範囲から逸脱することなく、実施形態では、電気入力に応じてサウンドを生成することができる任意の音声出力コンポーネント(スピーカーなど)を使用できることを理解されたい。実施形態では、音声出力部902は、少なくともヘッドセットデバイスI/O222と通信するように構成され得る。
例示的なモーションセンサ910は、概して、上述のモーション処理システムのモーション検出を促進する。本明細書で使用されるように、モーションセンサは、少なくとも1つの加速度計、多軸加速度計、磁力計、ジャイロスコープ、容量性トランスデューサ、ポテンショメータ、抵抗性トランスデューサ、シンクロ、または少なくとも1つの軸におけるモーションを検出できる任意の同様のセンサを備えることができる。実施形態では、モーションセンサ910は、少なくとも1つのモーションセンサを備えてもよい。実施形態では、モーションセンサ910は、複数のモーションセンサを備えてもよい。実施形態では、モーションセンサ910は、ハンズフリー入力判定部240およびそのサブシステムと通信するように構成されてもよい。
実施形態では、例示的なセンサ912は概してモーションの判定を行う。実施形態では、センサ912は、定期的に(60フレーム/秒または任意の所定のレートなどで)画像をキャプチャするように構成された光に敏感なデジタルセンサであってもよい。実施形態では、画像キャプチャコンポーネント912は、画像を連続的にキャプチャするように構成された光に敏感なデジタルセンサであってもよい。実施形態では、センサ912は、ハンズフリー入力判定部240およびそのサブシステムと通信するように構成されてもよい。例示的なセンサ912は、本開示の範囲から逸脱することなく実施形態で使用され得るデジタル画像(カメラ、ビデオカメラなど)をキャプチャすることができる任意のセンサを含み得ることが理解されるであろう。
本明細書で言及されるように、変位は、3つの軸に対する9つの自由度におけるヘッドセット(ヘッドマウントコンピューティングデバイス900など)の位置の任意の変化を指し得る。これには、3つの軸のいずれかでの平行移動または回転が含まれるが、これらに限定されない。3次元空間での変位に関連して使用される用語は、分野(航空、生体力学、コンピュータサイエンスなど)によって大きく異なり、一般的な使用法では大きく異なる場合があることに注意されたい。そのため、移動、変位、回転、および/または角変位を説明する記載部分を明確にし、簡素化するためのあらゆる試みが行われている。ただし、明示的に反対の記述がない限り、各例は状況を提供するものであり、本開示を限定するものではない。
たとえば、x軸の平行移動は、右に移動または左に移動すると言うことができる。ただし、これは、横軸での原点からの移動(正(右)または負(左))と同等と考えることもできることを理解されたい。x軸を中心とした回転(角度変位)は、上または下に回転すると言うことができる。ただし、これはピッチアップまたはピッチダウンと同等と考えることもできることを理解されたい。したがって、たとえば、上に回転しながら右に移動すると、ピッチアップしながら原点から横軸の正の値に向かって移動すると理解され得る。
y軸の平行移動は、前方または後方に移動すると言うことができる。ただし、これは、縦軸での原点からの移動(正(前方)または負(後方))と同等と考えることもできることを理解されたい。y軸を中心とした回転(角度変位)は、左または右に傾けると言うことができる。ただし、これは左(反時計回り)または右(時計回り)に回転するのと同等と考えることもできることを理解されたい。したがって、たとえば、左に傾けながら前方に移動すると、左に回転しながら原点から縦軸の正の値に向かって移動すると理解され得る。
z軸の平行移動は、上下に移動すると言うことができる。ただし、これは、垂直軸の原点からの移動(正(上)または負(下))と同等と考えることもできることを理解されたい。z軸を中心とした回転(角度変位)は、左または右への回転と言うことができる。ただし、これは左または右に振ることと同等と考えることもできることを理解されたい。したがって、たとえば、左に回転しながら上に移動すると、左に振りながら原点から垂直軸の正の値に向かって移動すると理解され得る。
本開示の様々な実施形態を説明してきたが、本開示の実施形態を実装するのに適した例示的なコンピューティング環境について説明する。図10を参照して、例示的なコンピューティングデバイスが提供され、概してコンピューティングデバイス1000と呼称している。コンピューティングデバイス1000は、適切なコンピューティング環境の一例にすぎず、本開示の使用または機能の範囲に関する制限を示唆することを意図したものではない。また、コンピューティングデバイス1000は、図示されたコンポーネントのいずれかまたは組み合わせに関する依存性または要件を有すると解釈されるべきではない。
本開示の実施形態は、パーソナルデータアシスタント、スマートフォン、タブレットPC、または他の形態デバイスなどのコンピュータまたは他の機械によって実行されるプログラムモジュールなどのコンピュータ使用可能またはコンピュータ実行可能指令を含むコンピュータコードまたは機械使用可能指令の一般的な状況で説明することができる。一般に、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含むプログラムモジュールは、特定のタスクを実行したり、特定の抽象データ型を実装したりするコードを参照する。本開示の実施形態は、ハンドヘルドデバイス、家庭用電化製品、汎用コンピュータ、より専門的なコンピューティングデバイスなどを含む様々なシステム構成で実施することができる。本開示の実施形態は、通信ネットワークを介してリンクされているリモート処理デバイスによってタスクが実行される分散コンピューティング環境で実施することもできる。分散コンピューティング環境では、プログラムモジュールは、メモリストレージデバイスを含むローカルおよびリモートのコンピューターストレージメディアの両方に配置され得る。
図10を参照し、コンピューティングデバイス1000は、以下のデバイスを直接的または間接的に結合するバス1010を含む。つまり、バス1010は、メモリ1012、1つまたは複数のプロセッサ1014、1つまたは複数の表示コンポーネント1016、1つまたは複数の入出力(I/O)ポート1018、1つまたは複数のI/Oコンポーネント1020、および例示的な電源1022を結合する。バス1010は、1つまたは複数のバス(アドレスバス、データバス、またはそれらの組み合わせなど)であり得るものを表す。図10の様々なブロックは、明確にするために線で示されているが、実際には、これらのブロックは論理的な、必ずしも実際のコンポーネントではない。たとえば、ディスプレイデバイスなどの表示コンポーネントをI/Oコンポーネントと見なすこともできる。また、プロセッサはメモリを備えているため、メモリ1012および1つまたは複数のプロセッサ1014は、別個のコンポーネントまたは分散したコンポーネントを含んでもよいし含まなくてもよい。本発明の発明者は、それが当技術分野の性質であることを認識し、図10のダイアグラムが、1つまたは複数の実施形態に関連して使用できる例示的なコンピューティングデバイスの単なる例示であることを繰り返し述べている。「ワークステーション」、「サーバ」、「ラップトップ」、「ハンドヘルドデバイス」などのカテゴリ間で区別はされず、すべて図10の範囲内および「コンピューティングデバイス」を参照して考えられる。
コンピューティングデバイス1000は、典型的に、さまざまなコンピュータ可読媒体を含む。コンピュータ可読媒体は、コンピューティングデバイス1000がアクセスできる任意の利用可能な媒体とすることができ、揮発性および不揮発性媒体、取り外し可能および取り外し不能媒体の両方を含む。例として、限定ではなく、コンピュータ可読媒体は、コンピュータ記憶媒体および通信媒体を含み得る。コンピュータ記憶媒体には、コンピュータ可読命令、データ構造、プログラムモジュール、またはその他のデータなどの情報を保存するための任意の方法または技術で実装される揮発性および不揮発性、取り外し可能および取り外し不能な媒体の両方が含まれる。コンピュータ記憶媒体には、RAM、ROMEEPROM、フラッシュメモリもしくはその他のメモリテクノロジ、CD−ROM、デジタル多用途ディスク(DVD)もしくはその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ、磁気記憶装置、または所望の情報を記録するために使用できてコンピューティングデバイス1000がアクセス可能な他の任意の記録媒体が含まれるが、これらに限定されない。コンピュータ記憶媒体はそれ自体信号を含まない。通信媒体は、典型的に、コンピュータ読み取り可能命令、データ構造、プログラムモジュール、または他のデータを、搬送波やその他のトランスポートメカニズムなどの変調データ信号に組み込んでおり、任意の情報配信メディアを含む。「変調データ信号」という用語は、信号内の情報をエンコードするように設定または変更された特性の1つまたは複数を持つ信号を意味する。一例として、限定ではなく、通信媒体には、有線ネットワークまたは直接有線接続などの有線媒体、および音波、RF、赤外線、およびその他の無線媒体などの無線媒体が含まれる。上記のいずれかの組み合わせも、コンピュータ読み取り可能媒体の範囲内に含まれる。
メモリ1012は、揮発性および/または不揮発性メモリの形態のコンピュータ記憶媒体を含む。メモリは、取り外し可能、取り外し不能、またはそれらの組み合わせであり得る。例示的なハードウェアデバイスには、ソリッドステートメモリ、ハードドライブ、光ディスクドライブなどが含まれる。コンピューティングデバイス1000は、メモリ1012またはI/Oコンポーネント1020などの様々な実在物からデータを読み取る1つまたは複数のプロセッサ1014を含む。表示コンポーネント1016は、データ表示をユーザまたは他のデバイスに提示する。例示的な表示コンポーネントには、ディスプレイデバイス、スピーカ、印刷コンポーネント、振動コンポーネントなどが含まれる。
I/Oポート1018により、コンピューティングデバイス1000は、I/Oコンポーネント1020を含む他のデバイスに論理的に結合されることが可能になり、その一部が組み込まれ得る。例示的なコンポーネントには、マイクロフォン、ジョイスティック、ゲームパッド、衛星放送受信アンテナ、スキャナ、プリンタ、無線デバイスなどが含まれる。I/Oコンポーネント1020は、空気ジェスチャ、音声、またはユーザによって生成された他の生理学的入力を処理する自然なユーザインターフェース(NUI)を提供し得る。場合によっては、入力は適切なネットワーク要素に送信され、さらに処理される。NUIは、音声認識、タッチおよびスタイラス認識、顔認識、生体認証、画面上、並びに画面に隣接した空気ジェスチャ、頭、および目の追跡によるジェスチャ認識、およびコンピューティングデバイス1000のディスプレイに関連付けられたタッチ認識の任意の組み合わせを実装し得る。コンピューティングデバイス1000は、ジェスチャ検出および認識のために、立体視カメラシステム、赤外線カメラシステム、RGBカメラシステム、およびこれらの組み合わせなどの深度(Depth)カメラを備え得る。加えて、コンピューティングデバイス600は、モーションの検出を可能にする加速度計またはジャイロスコープを備えてもよい。加速度計またはジャイロスコープの出力は、没入型拡張現実または仮想現実を描写するために、コンピューティングデバイス1000のディスプレイに提供されてもよい。
コンピューティングデバイス1000のいくつかの実施形態は、1つまたは複数の無線機1024(または同様の無線通信コンポーネント)を含み得る。無線機1024は、無線電信または無線通信を送受信する。コンピューティングデバイス1000は、様々なワイヤレスネットワークを介して通信およびメディアを受信するように適合されたワイヤレス端末であり得る。コンピューティングデバイス1000は、コード分割多重アクセス(「CDMA」)、モバイル用グローバルシステム(「GSM(登録商標)」)、または時分割多重アクセス(「TDMA」)などの他の装置と通信するための無線プロトコルを介して通信することができる。無線通信は、短距離接続、長距離接続、または短距離無線通信接続と長距離無線通信接続の両方の組み合わせであり得る。「短」タイプと「長」タイプの接続を言う場合、2つのデバイス間の空間的な関係を指すわけではない。代わりに、概して、短距離と長距離を異なるカテゴリまたはタイプの接続(つまり、プライマリ接続とセカンダリ接続)と言う。短距離接続には、限定ではなく例として、802.11プロトコルを使用したWLAN接続などの無線通信ネットワークへのアクセスを提供するデバイス(モバイルホットスポットなど)へのWi−Fi(登録商標)接続が含まれる。別のコンピューティングデバイスへのBluetooth(登録商標)接続は、短距離接続または近距離通信接続の2番目の例である。長距離接続は、限定ではなく例として、CDMA、GPRS、GSM、TDMA、および802.16プロトコルの1つまたは複数を使用する接続を含み得る。
特許請求の範囲から逸脱することなく、図示されていないコンポーネントと同様に、図示されている様々なコンポーネントの多くの異なる配置が可能である。本開示の実施形態は、限定的ではなく例示的であることを意図して説明されている。代替実施形態は、本明細書を読んだ後、および読むことによって、本開示の読者に明らかになるであろう。前述した内容を実施する代替手段は、特許請求の範囲から逸脱することなく想定され得る。特定の機能およびサブコンビネーションは有用であり、他の機能およびサブコンビネーションを参照せずに使用することができ、特許請求の範囲内で想定されている。

Claims (20)

  1. ヘッドマウントコンピューティングデバイスのハンズフリーナビゲーションのためのコンピュータ実装方法であって、前記ヘッドマウントコンピューティングデバイス上で、タッチ式オペレーティングシステムのユーザインターフェースとの対話が可能になるハンズフリー対話モードを開始するステップと、1つまたは複数の軸に対する前記ヘッドマウントコンピューティングデバイスの位置を含む前記ヘッドマウントコンピューティングデバイスの初期位置を検出するステップと、前記ヘッドマウントコンピューティングデバイスのディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第1のインスタンスを表示するステップと、前記ヘッドマウントコンピューティングデバイスの第1の変位を検出するステップであって、前記第1の変位は、前記初期位置に対する変位である第1の閾値変位を超える変位であるステップと、前記第1の変位に基づいて、1つまたは複数のタッチ式入力に対応する第1の指令を判定するステップと、前記タッチ式オペレーティングシステムに前記第1の指令を伝えるステップと、を含む方法。
  2. 前記タッチ式オペレーティングシステムの前記ユーザインターフェースに関連付けられた第1の可聴入力を受け付けるステップと、前記第1の可聴入力に基づいて第2の指令を判定するステップと、をさらに含む請求項1に記載のコンピュータ実装方法。
  3. 前記ユーザインターフェースが、前記タッチ式オペレーティングシステムにおける電子文書に関連付けられる、請求項1に記載のコンピュータ実装方法。
  4. 前記第1の指令が、固定数のスクロールユニットを有するスクロール指令を備える、請求項2に記載のコンピュータ実装方法。
  5. 前記第1の閾値変位は、前記1つまたは複数の軸に対する前記ヘッドマウントコンピューティングデバイスの最小角変位に対応する、請求項1に記載のコンピュータ実装方法。
  6. 前記第1の変位は、前記ヘッドマウントコンピューティングデバイスの1つまたは複数のセンサによって検出される、請求項1に記載のコンピュータ実装方法。
  7. 前記第1の変位を検出するステップは、前記第1の変位の持続時間を判定することを含む、請求項1に記載のコンピュータ実装方法。
  8. 前記ヘッドマウントコンピューティングデバイスのディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第2のインスタンスを表示するステップをさらに含む、請求項1に記載のコンピュータ実装方法。
  9. 前記ヘッドマウントコンピューティングデバイスの第2の変位を検出するステップであって、前記第2の変位は、第2の閾値変位を超える変位であるステップと、前記第2の変位に基づいて、1つまたは複数のタッチ式入力に対応する第2の指令を判定し、前記ヘッドマウントコンピューティングデバイスの前記ディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第3のインスタンスを表示するステップと、をさらに含む、請求項8に記載のコンピュータ実装方法。
  10. 1つまたは複数のコンピューティングデバイスによって使用されることにより、前記1つまたは複数のコンピューティングデバイスに、前記ヘッドマウントコンピューティングデバイス上で、タッチ式オペレーティングシステムのユーザインターフェースとの対話が可能になるハンズフリー対話モードを開始するステップと、前記タッチ式オペレーティングシステムの前記ユーザインターフェースにおける少なくとも1つのタッチ式制御ダイアログを識別するステップと、前記ヘッドマウントコンピューティングデバイスのディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第1のインスタンスを表示するステップと、前記少なくとも1つのタッチ式制御ダイアログに関連付けられた第1の可聴入力を受け付けるステップと、前記第1の可聴入力に応じて前記ヘッドマウントコンピューティングデバイスに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第2のインスタンスを表示するステップと、を含む動作を実行させる、コンピュータ使用可能命令を記憶する非一時的なコンピュータ記憶媒体デバイス。
  11. 前記ヘッドマウントコンピューティングデバイスのディスプレイに、前記ユーザインターフェースの前記第1のインスタンスに重ねて少なくとも1つのグラフィカルオーバーレイコントロールを表示するステップをさらに含む、請求項10に記載のコンピュータ記憶媒体。
  12. 前記少なくとも1つのグラフィカルオーバーレイコントロールは、前記少なくとも1つのタッチ式制御ダイアログに対応する可聴入力を表す視覚的指標を含む、請求項11に記載のコンピュータ記憶媒体。
  13. 前記少なくとも1つのタッチ式制御ダイアログに関連する複数の所定のグラフィカルオーバーレイコントロールのうちのグラフィカルオーバーレイコントロールの識別に基づいて、前記少なくとも1つのグラフィカルオーバーレイコントロールを選択するステップをさらに含む、請求項10に記載のコンピュータ記憶媒体。
  14. 前記ハンズフリー対話モードを一時停止する指令に対応する第2の可聴入力を受けつけるステップをさらに含む、請求項10に記載のコンピュータ記憶媒体。
  15. 前記第1の可聴入力からテキストを認識するために音声認識を実行するステップをさらに含む、請求項10に記載のコンピュータ記憶媒体。
  16. 前記ユーザインターフェースは、前記タッチ式オペレーティングシステムで実行されるモバイルアプリケーションに関連付けられている、請求項10に記載のコンピュータ記憶媒体。
  17. ヘッドマウントコンピューティングデバイスのハンズフリーナビゲーションのためのシステムであって、1つまたは複数のプロセッサと、1つまたは複数のコンピュータ記録媒体と、を備え、前記1つまたは複数のコンピュータ記録媒体は、前記1つまたは複数のプロセッサによって実行されることにより、前記ヘッドマウントコンピューティングデバイス上で、タッチ式オペレーティングシステムのユーザインターフェースとの対話が可能になるハンズフリー対話モードを開始するステップと、前記ヘッドマウントコンピューティングデバイスのディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第1のインスタンスを表示するステップと、前記ヘッドマウントコンピューティングデバイスの閾値変位を超える第1の変位と、前記ユーザインターフェースの前記第1のインスタンスに含まれるタッチ式制御ダイアログに関連付けられた第1の可聴入力と、のうち1つまたは複数を備える第1のハンズフリー入力を検出するステップと、前記ハンズフリー入力に基づいて、1つまたは複数のタッチ式入力に対応する第1指令を判定するステップと、前記ヘッドマウントコンピューティングデバイスの前記ディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第2のインスタンスを表示するステップと、を含む方法を指令するコンピュータ使用可能命令を記憶する、システム。
  18. 前記第1のハンズフリー入力は、前記第1の変位および前記第1の可聴入力を含む、請求項17に記載のシステム。
  19. 前記実装された方法は、第2のハンズフリー入力を検出するステップと、前記第2のハンズフリー入力に基づいて、1つまたは複数のタッチ式入力に対応する第2の指令を判定するステップと、前記ヘッドマウントコンピューティングデバイスの前記ディスプレイに前記タッチ式オペレーティングシステムの前記ユーザインターフェースの第3のインスタンスを表示するステップと、をさらに含む、請求項17に記載のシステム。
  20. 前記実装された方法は、ハンズフリー開始入力を検出するステップと、前記ヘッドマウントコンピューティングデバイス上で前記ハンズフリー対話モードを開始する指令を生成するステップと、をさらに含む、請求項17に記載のシステム。
JP2019555417A 2016-12-23 2017-12-06 タッチ式操作システムのハンズフリーナビゲーション Active JP7334120B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/390,191 US10620910B2 (en) 2016-12-23 2016-12-23 Hands-free navigation of touch-based operating systems
US15/390,191 2016-12-23
PCT/US2017/064905 WO2018118435A1 (en) 2016-12-23 2017-12-06 Hands-free navigation of touch-based operating systems

Publications (3)

Publication Number Publication Date
JP2020502719A true JP2020502719A (ja) 2020-01-23
JP2020502719A5 JP2020502719A5 (ja) 2021-01-21
JP7334120B2 JP7334120B2 (ja) 2023-08-28

Family

ID=62627148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019555417A Active JP7334120B2 (ja) 2016-12-23 2017-12-06 タッチ式操作システムのハンズフリーナビゲーション

Country Status (5)

Country Link
US (2) US10620910B2 (ja)
EP (1) EP3559935B1 (ja)
JP (1) JP7334120B2 (ja)
CN (1) CN110291576B (ja)
WO (1) WO2018118435A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US20130339859A1 (en) 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
US10199051B2 (en) 2013-02-07 2019-02-05 Apple Inc. Voice trigger for a digital assistant
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
CN113093917A (zh) 2015-09-28 2021-07-09 微软技术许可有限责任公司 统一的虚拟现实平台
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US11086593B2 (en) * 2016-08-26 2021-08-10 Bragi GmbH Voice assistant for wireless earpieces
US10437343B2 (en) * 2017-01-06 2019-10-08 Samsung Electronics Co., Ltd. Augmented reality control of internet of things devices
DK201770428A1 (en) * 2017-05-12 2019-02-18 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US11029834B2 (en) * 2017-12-20 2021-06-08 International Business Machines Corporation Utilizing biometric feedback to allow users to scroll content into a viewable display area
US10928918B2 (en) 2018-05-07 2021-02-23 Apple Inc. Raise to speak
US11462215B2 (en) 2018-09-28 2022-10-04 Apple Inc. Multi-modal inputs for voice commands
US10643592B1 (en) * 2018-10-30 2020-05-05 Perspective VR Virtual / augmented reality display and control of digital audio workstation parameters
US11227599B2 (en) 2019-06-01 2022-01-18 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11317156B2 (en) 2019-09-27 2022-04-26 Honeywell International Inc. Video analytics for modifying training videos for use with head-mounted displays
US11875823B2 (en) 2020-04-06 2024-01-16 Honeywell International Inc. Hypermedia enabled procedures for industrial workflows on a voice driven platform
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination
US11438683B2 (en) 2020-07-21 2022-09-06 Apple Inc. User identification using headphones
US11984124B2 (en) 2020-11-13 2024-05-14 Apple Inc. Speculative task flow execution
US11669294B2 (en) * 2021-05-28 2023-06-06 Microsoft Technology Licensing, Llc Computing device headset input
US11792364B2 (en) 2021-05-28 2023-10-17 Microsoft Technology Licensing, Llc Headset virtual presence
KR102521821B1 (ko) * 2022-08-26 2023-04-13 백남칠 시각장애인용 무인단말기 제어장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122476A (ja) * 2007-11-16 2009-06-04 Nikon Corp 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法
JP2013093705A (ja) * 2011-10-25 2013-05-16 Olympus Corp 頭部装着型表示装置、プログラム及び画像処理システム
JP2013541092A (ja) * 2010-09-20 2013-11-07 コピン コーポレーション 動きおよび音声コマンドを用いたホストアプリケーションの高度なリモートコントロール

Family Cites Families (312)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE465014C (sv) 1987-09-02 1996-08-04 Kompositprodukter Sk Fm Ab Hörselskydd
US5046192A (en) 1989-09-26 1991-09-10 Ryder International Corporation Headset sun visor
US5185807A (en) 1991-05-08 1993-02-09 David Clark Company Incorporated Headset with multi-position stirrup assemblies
JP3163701B2 (ja) 1991-12-27 2001-05-08 ソニー株式会社 眼鏡型映像表示装置
EP1326122B1 (en) * 1993-08-12 2006-09-06 Seiko Epson Corporation Head-mounted image display device and data processing apparatus including the same
US6061064A (en) * 1993-08-31 2000-05-09 Sun Microsystems, Inc. System and method for providing and using a computer user interface with a view space having discrete portions
US5815126A (en) 1993-10-22 1998-09-29 Kopin Corporation Monocular portable communication and display system
US5806079A (en) 1993-11-19 1998-09-08 Smartpatents, Inc. System, method, and computer program product for using intelligent notes to organize, link, and manipulate disparate data objects
US6587700B1 (en) 1994-06-23 2003-07-01 At&T Wireless Services, Inc. Personal communicator with flip element display
US6198462B1 (en) * 1994-10-14 2001-03-06 Hughes Electronics Corporation Virtual display screen system
US5694562A (en) 1995-01-17 1997-12-02 Fisher; Thomas A. Closely integrated key icons in a graphical interface
US5767820A (en) 1995-05-09 1998-06-16 Virtual Research Systems Head-mounted visual display apparatus
US7453451B1 (en) * 1999-03-16 2008-11-18 Maguire Francis J Jr Moveable headrest for viewing images from different directions
JPH09130705A (ja) 1995-10-31 1997-05-16 Olympus Optical Co Ltd 頭部装着式映像表示装置
US5796374A (en) 1996-03-08 1998-08-18 Virtual Vision, Inc. Support for a head mounted display system
DE19625351C1 (de) 1996-06-25 1997-11-20 Lemfoerder Metallwaren Ag Verfahren zur Herstellung eines reibungsarmen Kugelgelenkes, sowie reibungsarmes Kugelgelenk
US5850211A (en) * 1996-06-26 1998-12-15 Sun Microsystems, Inc. Eyetrack-driven scrolling
US5796404A (en) 1996-07-01 1998-08-18 Sun Microsystems, Inc. Computer system having alphanumeric keyboard access to objects in graphical user interface
US6222583B1 (en) 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
US6754361B1 (en) 1997-04-17 2004-06-22 3M Innovative Properties Company Ergonomic headset assembly
US6600480B2 (en) 1998-12-31 2003-07-29 Anthony James Francis Natoli Virtual reality keyboard system and method
US6388657B1 (en) 1997-12-31 2002-05-14 Anthony James Francis Natoli Virtual reality keyboard system and method
US6114978A (en) 1998-01-14 2000-09-05 Lucent Technologies Inc. Method and apparatus for assignment of shortcut key combinations in a computer software application
US6911969B1 (en) 1998-05-01 2005-06-28 Honeywell International Inc. Handheld computer apparatus
US7121946B2 (en) * 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
DE19839461C1 (de) 1998-08-29 1999-11-04 Flm Gmbh Foto Licht Und Mestec Stativkopf
US6867752B1 (en) * 1998-08-31 2005-03-15 Semiconductor Energy Laboratory Co., Ltd. Portable information processing system
US6489976B1 (en) 1998-12-15 2002-12-03 International Business Machines Corporation System and method for displaying pop-up symbols for indicating accelerator keys for implementing computer software options
US7107539B2 (en) 1998-12-18 2006-09-12 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6434250B1 (en) 1999-03-05 2002-08-13 Parker I. Tsuhako Stereo headset with angled speakers
US7124425B1 (en) 1999-03-08 2006-10-17 Immersion Entertainment, L.L.C. Audio/video system and method utilizing a head mounted apparatus with noise attenuation
WO2000055673A1 (en) 1999-03-17 2000-09-21 Colorado Microdisplay, Inc. Headset boom for image display module
US6496842B1 (en) 1999-05-28 2002-12-17 Survol Interactive Technologies Navigating heirarchically organized information
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6456262B1 (en) * 2000-05-09 2002-09-24 Intel Corporation Microdisplay with eye gaze detection
GB2380918C3 (en) 2000-05-11 2016-03-30 Nes Stewart Irvine Zeroclick
JP4693329B2 (ja) * 2000-05-16 2011-06-01 スイスコム・アクチエンゲゼルシヤフト 命令を入力する方法と端末装置
JP2002032212A (ja) 2000-07-14 2002-01-31 Toshiba Corp コンピュータシステムおよびヘッドセット型表示装置
US6747611B1 (en) 2000-07-27 2004-06-08 International Business Machines Corporation Compact optical system and packaging for head mounted display
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US6774869B2 (en) 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US8065620B2 (en) 2001-01-31 2011-11-22 Computer Associates Think, Inc. System and method for defining and presenting a composite web page
FI20010958A0 (fi) * 2001-05-08 2001-05-08 Nokia Corp Menetelmä ja järjestely laajennetun käyttöliittymän muodostamiseksi
GB2377147A (en) * 2001-06-27 2002-12-31 Nokia Corp A virtual reality user interface
US6882974B2 (en) * 2002-02-15 2005-04-19 Sap Aktiengesellschaft Voice-control for a user interface
US7246063B2 (en) * 2002-02-15 2007-07-17 Sap Aktiengesellschaft Adapting a user interface for voice control
AR035939A1 (es) 2002-03-04 2004-07-28 Rolla Jose Maria Mejoras en auriculares plegables
KR100833229B1 (ko) 2002-03-16 2008-05-28 삼성전자주식회사 다층구조 포커싱 방법 및 그 장치
US6941521B2 (en) 2002-03-29 2005-09-06 Intel Corporation Method for dynamically generating a user interface from XML-based documents
US7353464B1 (en) 2002-04-01 2008-04-01 Microsoft Corporation Hierarchical data navigation tool populated by a web service
TW594658B (en) 2002-07-01 2004-06-21 Leadtek Research Inc Helmet-mounted display
AU2003264044A1 (en) 2002-08-09 2004-02-25 Recare, Inc. Method and system for context-sensitive recognition of human input
US7243309B2 (en) 2002-12-03 2007-07-10 Intel Corporation Interface accelerator
JP3843951B2 (ja) 2003-02-13 2006-11-08 株式会社ニコン 画像表示装置
US6637883B1 (en) * 2003-01-23 2003-10-28 Vishwas V. Tengshe Gaze tracking system and method
ITMI20030121A1 (it) 2003-01-27 2004-07-28 Giuseppe Donato Sistema modulare di sorveglianza per il monitoraggio di ambienti critici.
US7290220B2 (en) 2003-04-03 2007-10-30 International Business Machines Corporation Method and apparatus for non-sequential access of form fields
US6708339B1 (en) 2003-04-22 2004-03-23 James Smith, Jr. Sport helmet face guard
ES2331880T3 (es) 2003-05-02 2010-01-19 Jose Maria Rolla Protector de oidos para casco y casco que incluye dicho protector.
US8046705B2 (en) 2003-05-08 2011-10-25 Hillcrest Laboratories, Inc. Systems and methods for resolution consistent semantic zooming
JP2004363718A (ja) 2003-06-02 2004-12-24 Sanyo Electric Co Ltd アンテナ装置
US20050015730A1 (en) 2003-07-14 2005-01-20 Srimanth Gunturi Systems, methods and computer program products for identifying tab order sequence of graphically represented elements
US7389236B2 (en) * 2003-09-29 2008-06-17 Sap Aktiengesellschaft Navigation and data entry for open interaction elements
US7389235B2 (en) 2003-09-30 2008-06-17 Motorola, Inc. Method and system for unified speech and graphic user interfaces
EP1688014A4 (en) 2003-11-13 2009-07-22 Logitech Europ Sa PERSONAL AUDIO DEVICE APPLIED BEHIND THE HEAD
US7315988B2 (en) 2004-02-02 2008-01-01 International Business Machines Corporation System and method for using short captions to map user interfaces
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
EP1744271A4 (en) * 2004-04-08 2008-06-25 Justsystems Corp DOCUMENT PROCESSING DEVICE
KR100800859B1 (ko) * 2004-08-27 2008-02-04 삼성전자주식회사 Hmd 정보 단말기에서 키를 입력하는 장치 및 방법
US20060074980A1 (en) 2004-09-29 2006-04-06 Sarkar Pte. Ltd. System for semantically disambiguating text information
US7519923B2 (en) 2004-10-20 2009-04-14 International Business Machines Corporation Method for generating a tree view of elements in a graphical user interface (GUI)
US8788271B2 (en) 2004-12-22 2014-07-22 Sap Aktiengesellschaft Controlling user interfaces with contextual voice commands
US7134094B2 (en) 2005-01-14 2006-11-07 Microsoft Corporation Automatic assigning of shortcut keys
CN101156104A (zh) 2005-02-11 2008-04-02 奥克利有限公司 具有可拆卸的可调电子模块的眼镜
US7409344B2 (en) * 2005-03-08 2008-08-05 Sap Aktiengesellschaft XML based architecture for controlling user interfaces with contextual voice commands
JP4572737B2 (ja) 2005-05-10 2010-11-04 株式会社島津製作所 ヘッドマウントディスプレイ
US20060256090A1 (en) * 2005-05-12 2006-11-16 Apple Computer, Inc. Mechanical overlay
CN1293446C (zh) * 2005-06-02 2007-01-03 北京中星微电子有限公司 一种非接触式目控操作系统和方法
US7661074B2 (en) 2005-07-01 2010-02-09 Microsoft Corporation Keyboard accelerator
JP4828181B2 (ja) 2005-08-29 2011-11-30 三菱電機株式会社 頭部搭載型画像表示装置
US20070052672A1 (en) * 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
US7933900B2 (en) 2005-10-23 2011-04-26 Google Inc. Search over structured data
US20070130547A1 (en) * 2005-12-01 2007-06-07 Navisense, Llc Method and system for touchless user interface control
JP4957177B2 (ja) 2006-01-20 2012-06-20 株式会社デンソー 表示装置
US7773767B2 (en) 2006-02-06 2010-08-10 Vocollect, Inc. Headset terminal with rear stability strap
US8793620B2 (en) * 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
US8334841B2 (en) * 2006-03-13 2012-12-18 Navisense Virtual user interface method and system thereof
US20070220108A1 (en) * 2006-03-15 2007-09-20 Whitaker Jerry M Mobile global virtual browser with heads-up display for browsing and interacting with the World Wide Web
US7928926B2 (en) * 2006-06-27 2011-04-19 Panasonic Corporation Display apparatus and method for hands free operation that selects a function when window is within field of view
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US7613292B2 (en) 2006-09-29 2009-11-03 Sony Ericsson Mobile Communications Ab Adjustable earpiece
US9471333B2 (en) * 2006-11-03 2016-10-18 Conceptual Speech, Llc Contextual speech-recognition user-interface driven system and method
US20170017464A1 (en) * 2006-11-03 2017-01-19 Philippe Roy Layered contextual configuration management system and method and minimized input speech recognition user interface interactions experience
US8051105B1 (en) 2007-01-10 2011-11-01 The Mathworks, Inc. Directing searches on tree data structures
US8378924B2 (en) 2007-01-12 2013-02-19 Kopin Corporation Monocular display device
US7849397B1 (en) 2007-04-12 2010-12-07 Intuit Inc. System and method for providing electronic data entry forms with trainable data field sequencing
US8832557B2 (en) 2007-05-04 2014-09-09 Apple Inc. Adjusting media display in a personal display system based on perspective
US8855719B2 (en) 2009-05-08 2014-10-07 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
US8620652B2 (en) * 2007-05-17 2013-12-31 Microsoft Corporation Speech recognition macro runtime
US7722358B2 (en) 2007-06-15 2010-05-25 Microsoft Corporation Electrical connection between devices
US7962344B2 (en) 2007-06-29 2011-06-14 Microsoft Corporation Depicting a speech user interface via graphical elements
JP2009033308A (ja) 2007-07-25 2009-02-12 Nikon Corp ヘッドマウントディスプレイ
US8825468B2 (en) 2007-07-31 2014-09-02 Kopin Corporation Mobile wireless display providing speech to speech translation and avatar simulating human attributes
FR2921991B1 (fr) 2007-10-09 2011-05-06 Skf Aerospace France Rotule legere d'articulation et procede de fabrication d'une telle rotule
US20090100732A1 (en) 2007-10-19 2009-04-23 Concept Workshop Worldwide, Llc Magnetic display device
US8072393B2 (en) * 2007-11-15 2011-12-06 Symbol Technologies, Inc. User interface for a head mounted display
US20100259471A1 (en) * 2007-11-16 2010-10-14 Nikon Corporation Control device, head-mount display device, program, and control method
US9268580B2 (en) 2007-12-12 2016-02-23 International Business Machines Corporation Overlaying help, training, documentation, or translation over an existing application
US20090182562A1 (en) * 2008-01-14 2009-07-16 Garmin Ltd. Dynamic user interface for automated speech recognition
IL189251A0 (en) * 2008-02-05 2008-11-03 Ehud Gal A manned mobile platforms interactive virtual window vision system
US8726164B2 (en) 2008-05-30 2014-05-13 Microsoft Corporation Mark-up extensions for semantically more relevant thumbnails of content
US8645831B2 (en) 2008-07-03 2014-02-04 Cyberlink Corp. Translating user input in a user interface
US8321226B2 (en) 2008-08-08 2012-11-27 Hewlett-Packard Development Company, L.P. Generating speech-enabled user interfaces
EP2356631B1 (en) 2008-10-03 2019-05-01 3M Innovative Properties Company Systems and methods for evaluating robustness
US8442328B2 (en) * 2008-10-03 2013-05-14 3M Innovative Properties Company Systems and methods for evaluating robustness of saliency predictions of regions in a scene
US8706685B1 (en) 2008-10-29 2014-04-22 Amazon Technologies, Inc. Organizing collaborative annotations
US8432400B1 (en) 2008-12-02 2013-04-30 Adobe Systems Incorporated Transitional animation for generating tree maps
US8594467B2 (en) * 2008-12-19 2013-11-26 Microsoft Corporation Interactive virtual display system for ubiquitous devices
EP2427812A4 (en) * 2009-05-08 2016-06-08 Kopin Corp REMOTE CONTROL OF A HOST APPLICATION THROUGH MOTION AND LANGUAGE COMMANDS
US20100315329A1 (en) * 2009-06-12 2010-12-16 Southwest Research Institute Wearable workspace
US20130169514A1 (en) * 2009-06-25 2013-07-04 The Boeing Company Method and apparatus for a virtual mission control station
US8773330B2 (en) * 2009-06-25 2014-07-08 The Boeing Company Method and apparatus for a virtual mission control station
JP5263049B2 (ja) * 2009-07-21 2013-08-14 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
US20120272484A1 (en) 2009-10-02 2012-11-01 Willborn Inventstments Incorporated Multiposition visor adaptor system
US9292084B2 (en) * 2009-10-13 2016-03-22 Intel Corporation Control systems and methods for head-mounted information systems
CN101673161B (zh) * 2009-10-15 2011-12-07 复旦大学 一种可视可操作无实体的触摸屏系统
US20110090135A1 (en) 2009-10-21 2011-04-21 Symbol Technologies, Inc. Interchangeable display device for a head-mounted display system
US20110096036A1 (en) * 2009-10-23 2011-04-28 Mcintosh Jason Method and device for an acoustic sensor switch
WO2011097226A1 (en) 2010-02-02 2011-08-11 Kopin Corporation Wireless hands-free computing headset with detachable accessories controllable by motion, body gesture and/or vocal commands
JP2011169449A (ja) 2010-02-22 2011-09-01 Jtekt Corp ボールジョイント
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US20150309316A1 (en) * 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US8908043B2 (en) 2010-04-12 2014-12-09 Symbol Technologies, Inc. System and method for location-based operation of a head mounted display
US20120002046A1 (en) 2010-06-30 2012-01-05 Raytheon Company Flip-Up Hands-Free Display Mount
US8531355B2 (en) * 2010-07-23 2013-09-10 Gregory A. Maltz Unitized, vision-controlled, wireless eyeglass transceiver
US9977496B2 (en) * 2010-07-23 2018-05-22 Telepatheye Inc. Eye-wearable device user interface and augmented reality method
US9916006B2 (en) * 2010-07-23 2018-03-13 Telepatheye Inc. Eye-wearable device user interface and method
US8593375B2 (en) * 2010-07-23 2013-11-26 Gregory A Maltz Eye gaze user interface and method
US8667421B2 (en) 2010-08-03 2014-03-04 Aaron Grunberger Method and system for revisiting prior navigated pages and prior edits
US9111498B2 (en) * 2010-08-25 2015-08-18 Eastman Kodak Company Head-mounted display with environmental state detection
US8619005B2 (en) * 2010-09-09 2013-12-31 Eastman Kodak Company Switchable head-mounted display transition
US9377862B2 (en) 2010-09-20 2016-06-28 Kopin Corporation Searchlight navigation using headtracker to reveal hidden or extra document data
US8736516B2 (en) * 2010-09-20 2014-05-27 Kopin Corporation Bluetooth or other wireless interface with power management for head mounted display
US9316827B2 (en) * 2010-09-20 2016-04-19 Kopin Corporation LifeBoard—series of home pages for head mounted displays (HMD) that respond to head tracking
US8706170B2 (en) 2010-09-20 2014-04-22 Kopin Corporation Miniature communications gateway for head mounted display
US10013976B2 (en) 2010-09-20 2018-07-03 Kopin Corporation Context sensitive overlays in voice controlled headset computer displays
US10036891B2 (en) 2010-10-12 2018-07-31 DISH Technologies L.L.C. Variable transparency heads up displays
JP5801545B2 (ja) 2010-10-15 2015-10-28 キヤノン株式会社 情報処理装置、その情報処理方法及びプログラム
US8994610B2 (en) 2010-11-08 2015-03-31 Symbol Technologies, Inc. User configurable headset
KR20120063982A (ko) 2010-12-08 2012-06-18 한국전자통신연구원 시각장애 사용자를 위한 인터페이스 장치 및 방법
US10365819B2 (en) 2011-01-24 2019-07-30 Apple Inc. Device, method, and graphical user interface for displaying a character input user interface
US9081550B2 (en) 2011-02-18 2015-07-14 Nuance Communications, Inc. Adding speech capabilities to existing computer applications with complex graphical user interfaces
EP2712432A4 (en) * 2011-05-10 2014-10-29 Kopin Corp HEADSET COMPUTER WITH MOTION AND LANGUAGE COMMANDS TO CONTROL AN INFORMATION DISPLAY AND REMOTE DEVICES
US20130007672A1 (en) * 2011-06-28 2013-01-03 Google Inc. Methods and Systems for Correlating Head Movement with Items Displayed on a User Interface
US8631371B2 (en) 2011-06-29 2014-01-14 International Business Machines Corporation Method, system and program storage device for modeling the capacitance associated with a diffusion region of a silicon-on-insulator device
US9727132B2 (en) * 2011-07-01 2017-08-08 Microsoft Technology Licensing, Llc Multi-visor: managing applications in augmented reality environments
US20130018659A1 (en) * 2011-07-12 2013-01-17 Google Inc. Systems and Methods for Speech Command Processing
US20130021269A1 (en) * 2011-07-20 2013-01-24 Google Inc. Dynamic Control of an Active Input Region of a User Interface
WO2013014709A1 (ja) * 2011-07-27 2013-01-31 三菱電機株式会社 ユーザインタフェース装置、車載用情報装置、情報処理方法および情報処理プログラム
US8996510B2 (en) 2011-08-23 2015-03-31 Buckyball Mobile, Inc. Identifying digital content using bioresponse data
US9168176B2 (en) 2011-08-24 2015-10-27 Donald Scott Peebles Combination ear and eye protection system and related method
WO2013093906A1 (en) 2011-09-19 2013-06-27 Eyesight Mobile Technologies Ltd. Touch free interface for augmented reality systems
US8941560B2 (en) 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US9377852B1 (en) * 2013-08-29 2016-06-28 Rockwell Collins, Inc. Eye tracking as a method to improve the user interface
US20130117111A1 (en) 2011-09-30 2013-05-09 Matthew G. Dyor Commercialization opportunities for informational searching in a gesture-based user interface
US20130117105A1 (en) * 2011-09-30 2013-05-09 Matthew G. Dyor Analyzing and distributing browsing futures in a gesture based user interface
US9135914B1 (en) 2011-09-30 2015-09-15 Google Inc. Layered mobile application user interfaces
US8990682B1 (en) * 2011-10-05 2015-03-24 Google Inc. Methods and devices for rendering interactions between virtual and physical objects on a substantially transparent display
US8977205B2 (en) 2011-10-06 2015-03-10 Symbol Technologies, Inc. Head-mounted computer with peripheral expansion port
US8848940B2 (en) 2011-10-06 2014-09-30 Symbol Technologies, Inc. Modular headset computer
US8929589B2 (en) * 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8866852B2 (en) * 2011-11-28 2014-10-21 Google Inc. Method and system for input detection
WO2013101438A1 (en) 2011-12-29 2013-07-04 Kopin Corporation Wireless hands-free computing head mounted video eyewear for local/remote diagnosis and repair
US10025381B2 (en) * 2012-01-04 2018-07-17 Tobii Ab System for gaze interaction
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
US9024844B2 (en) * 2012-01-25 2015-05-05 Microsoft Technology Licensing, Llc Recognition of image on external display
US9705605B2 (en) 2012-02-09 2017-07-11 N2 Imaging Systems, LLC Intrapersonal data communication system
JP5880115B2 (ja) * 2012-02-17 2016-03-08 ソニー株式会社 ヘッドマウントディスプレイ、ヘッドマウントディスプレイ制御プログラム及びヘッドマウントディスプレイの制御方法
US9075249B2 (en) * 2012-03-07 2015-07-07 Google Inc. Eyeglass frame with input and output functionality
US8643951B1 (en) * 2012-03-15 2014-02-04 Google Inc. Graphical menu and interaction therewith through a viewing window
US20130246967A1 (en) * 2012-03-15 2013-09-19 Google Inc. Head-Tracked User Interaction with Graphical Interface
US20130241805A1 (en) * 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US8922481B1 (en) 2012-03-16 2014-12-30 Google Inc. Content annotation
US20130246920A1 (en) 2012-03-19 2013-09-19 Research In Motion Limited Method of enabling voice input for a visually based interface
US10229222B2 (en) 2012-03-26 2019-03-12 Greyheller, Llc Dynamically optimized content display
US9417660B2 (en) 2012-04-25 2016-08-16 Kopin Corporation Collapsible head set computer
US8929954B2 (en) * 2012-04-25 2015-01-06 Kopin Corporation Headset computer (HSC) as auxiliary display with ASR and HT input
WO2013168173A1 (en) * 2012-05-11 2013-11-14 Umoove Services Ltd. Gaze-based automatic scrolling
US9823742B2 (en) * 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
JP5942586B2 (ja) * 2012-05-18 2016-06-29 富士通株式会社 タブレット端末および操作受付プログラム
US9378028B2 (en) 2012-05-31 2016-06-28 Kopin Corporation Headset computer (HSC) with docking station and dual personality
US9583032B2 (en) 2012-06-05 2017-02-28 Microsoft Technology Licensing, Llc Navigating content using a physical object
US10139985B2 (en) 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
US20140002357A1 (en) 2012-06-28 2014-01-02 Kopin Corporation Enabling and Disabling Features of a Headset Computer Based on Real-Time Image Analysis
US8917238B2 (en) * 2012-06-28 2014-12-23 Microsoft Corporation Eye-typing term recognition
JP5358725B1 (ja) 2012-07-02 2013-12-04 株式会社アライヘルメット マイクロフォンの保持装置及びオープンフェースヘルメット
TWI498771B (zh) * 2012-07-06 2015-09-01 Pixart Imaging Inc 可辨識手勢動作的眼鏡
US9602760B2 (en) 2012-07-25 2017-03-21 Dell Products, Lp Modular display monitor
US20140035819A1 (en) 2012-08-03 2014-02-06 Research In Motion Limited Method and Apparatus Pertaining to an Augmented-Reality Keyboard
KR101321157B1 (ko) 2012-08-07 2013-10-23 한양대학교 산학협력단 슬라이딩 구조를 가지는 착용형 디스플레이 장치
WO2014024009A1 (en) * 2012-08-10 2014-02-13 Nokia Corporation Spatial audio user interface apparatus
US8868426B2 (en) 2012-08-23 2014-10-21 Freedom Scientific, Inc. Screen reader with focus-based speech verbosity
US20140092018A1 (en) * 2012-09-28 2014-04-03 Ralf Wolfgang Geithner Non-mouse cursor control including modified keyboard input
US9111383B2 (en) 2012-10-05 2015-08-18 Elwha Llc Systems and methods for obtaining and using augmentation data and for sharing usage data
KR20140052294A (ko) 2012-10-24 2014-05-07 삼성전자주식회사 헤드-마운티드 디스플레이 장치에서 가상 이미지를 사용자에게 제공하는 방법, 기계로 읽을 수 있는 저장 매체 및 헤드-마운티드 디스플레이 장치
US10146316B2 (en) 2012-10-31 2018-12-04 Nokia Technologies Oy Method and apparatus for disambiguating a plurality of targets
US9671874B2 (en) * 2012-11-08 2017-06-06 Cuesta Technology Holdings, Llc Systems and methods for extensions to alternative control of touch-based devices
US9658695B2 (en) * 2012-11-08 2017-05-23 Cuesta Technology Holdings, Llc Systems and methods for alternative control of touch-based devices
US9298970B2 (en) 2012-11-27 2016-03-29 Nokia Technologies Oy Method and apparatus for facilitating interaction with an object viewable via a display
US9134793B2 (en) * 2013-01-04 2015-09-15 Kopin Corporation Headset computer with head tracking input used for inertial control
JP6420769B2 (ja) 2013-01-04 2018-11-07 コピン コーポレーション 二分岐音声認識
US9164588B1 (en) * 2013-02-05 2015-10-20 Google Inc. Wearable computing device with gesture recognition
CN203233453U (zh) * 2013-02-06 2013-10-09 周永业 头戴式无线免提音频、显示设备及基于云端的通信系统
US9791921B2 (en) 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US9301085B2 (en) * 2013-02-20 2016-03-29 Kopin Corporation Computer headset with detachable 4G radio
US9395816B2 (en) * 2013-02-28 2016-07-19 Lg Electronics Inc. Display device for selectively outputting tactile feedback and visual feedback and method for controlling the same
US9864498B2 (en) * 2013-03-13 2018-01-09 Tobii Ab Automatic scrolling based on gaze detection
US20140253605A1 (en) 2013-03-05 2014-09-11 John N. Border Controlling brightness of a displayed image
CN104969148B (zh) * 2013-03-14 2018-05-29 英特尔公司 基于深度的用户界面手势控制
US20140282118A1 (en) 2013-03-15 2014-09-18 Konica Minolta Laboratory U.S.A., Inc. Graphical user interface displaying multi-branched browsing history tree for web navigation
US9779517B2 (en) 2013-03-15 2017-10-03 Upskill, Inc. Method and system for representing and interacting with augmented reality content
US9239661B2 (en) 2013-03-15 2016-01-19 Qualcomm Incorporated Methods and apparatus for displaying images on a head mounted display
US20140289641A1 (en) 2013-03-20 2014-09-25 Jerome Eymard Whitcroft Adaptive User Interface
KR102081930B1 (ko) * 2013-03-21 2020-02-26 엘지전자 주식회사 시선 위치를 디텍트하는 디스플레이 디바이스 및 제어 방법
JP5900393B2 (ja) 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
CN105074625B (zh) 2013-04-02 2018-09-21 索尼公司 信息处理设备、信息处理方法及计算机可读记录介质
US9530410B1 (en) * 2013-04-09 2016-12-27 Google Inc. Multi-mode guard for voice commands
US9615067B1 (en) 2013-04-24 2017-04-04 Rockwell Collins, Inc. Head mounted digital viewing system
WO2014201213A1 (en) 2013-06-12 2014-12-18 Oakley, Inc. Modular heads-up display system
US10025378B2 (en) * 2013-06-25 2018-07-17 Microsoft Technology Licensing, Llc Selecting user interface elements via position signal
US8988344B2 (en) 2013-06-25 2015-03-24 Microsoft Technology Licensing, Llc User interface navigation
US9563331B2 (en) 2013-06-28 2017-02-07 Microsoft Technology Licensing, Llc Web-like hierarchical menu display configuration for a near-eye display
KR20150020918A (ko) 2013-08-19 2015-02-27 엘지전자 주식회사 디스플레이 장치 및 그것의 제어 방법
CN103605208B (zh) * 2013-08-30 2016-09-28 北京智谷睿拓技术服务有限公司 内容投射系统及方法
WO2015030099A1 (ja) 2013-08-30 2015-03-05 ブラザー工業株式会社 画像表示装置及びヘッドマウントディスプレイ
KR102083596B1 (ko) 2013-09-05 2020-03-02 엘지전자 주식회사 디스플레이장치 및 디스플레이장치의 동작방법
JP6209906B2 (ja) * 2013-09-05 2017-10-11 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置を制御する方法、画像表示システム
US9158115B1 (en) * 2013-09-16 2015-10-13 Amazon Technologies, Inc. Touch control for immersion in a tablet goggles accessory
WO2015065478A1 (en) * 2013-11-01 2015-05-07 Intel Corporation Gaze-assisted touchscreen inputs
US10209955B2 (en) 2013-11-15 2019-02-19 Kopin Corporation Automatic speech recognition (ASR) feedback for head mounted displays (HMD)
US20150138089A1 (en) 2013-11-15 2015-05-21 TabiTop, LLC Input devices and methods
US9500867B2 (en) * 2013-11-15 2016-11-22 Kopin Corporation Head-tracking based selection technique for head mounted displays (HMD)
US9690854B2 (en) 2013-11-27 2017-06-27 Nuance Communications, Inc. Voice-enabled dialog interaction with web pages
US10558325B2 (en) * 2013-12-01 2020-02-11 Upskill, Inc. Systems and methods for controlling operation of an on-board component
US9285872B1 (en) * 2013-12-12 2016-03-15 Google Inc. Using head gesture and eye position to wake a head mounted device
US9690763B1 (en) 2013-12-17 2017-06-27 Bryant Christopher Lee Display of webpage elements on a connected computer
JP6260255B2 (ja) * 2013-12-18 2018-01-17 株式会社デンソー 表示制御装置およびプログラム
EP3094199B1 (en) 2014-01-14 2019-07-24 Gentex Corporation Pivot-arm assembly for a helmet mounted headset
US9311718B2 (en) 2014-01-23 2016-04-12 Microsoft Technology Licensing, Llc Automated content scrolling
US9437159B2 (en) * 2014-01-25 2016-09-06 Sony Interactive Entertainment America Llc Environmental interrupt in a head-mounted display and utilization of non field of view real estate
US9442631B1 (en) * 2014-01-27 2016-09-13 Google Inc. Methods and systems for hands-free browsing in a wearable computing device
WO2015116972A1 (en) * 2014-01-31 2015-08-06 Kopin Corporation Head-tracking based technique for moving on-screen objects on head mounted displays (hmd)
US9913302B2 (en) * 2014-02-03 2018-03-06 Kopin Corporation Smart Bluetooth headset for speech command
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US9836192B2 (en) * 2014-02-25 2017-12-05 Evan Glenn Katsuranis Identifying and displaying overlay markers for voice command user interface
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9477888B1 (en) 2014-03-27 2016-10-25 Amazon Technologies, Inc. Providing computer-based instructions without displays
US10755217B2 (en) 2014-04-05 2020-08-25 Wearable Intelligence, Inc. Systems and methods for digital workflow and communication
US10332314B2 (en) 2014-05-07 2019-06-25 Commscope Technologies Llc Hands-free asset identification, location and management system
KR102209511B1 (ko) 2014-05-12 2021-01-29 엘지전자 주식회사 안경형 단말기와 그 안경형 단말기의 제어 방법
KR102209512B1 (ko) 2014-06-30 2021-01-29 엘지전자 주식회사 글래스 타입 단말기
CN107209552B (zh) * 2014-09-02 2020-10-27 托比股份公司 基于凝视的文本输入系统和方法
JP6281456B2 (ja) 2014-09-12 2018-02-21 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP6206366B2 (ja) 2014-09-12 2017-10-04 ブラザー工業株式会社 ヘッドマウントディスプレイ
EP3193498A4 (en) 2014-09-12 2018-10-03 Brother Kogyo Kabushiki Kaisha Head-mounted display, image display unit, and mounting fixture
US9547365B2 (en) * 2014-09-15 2017-01-17 Google Inc. Managing information display
US10691299B2 (en) * 2014-09-25 2020-06-23 Oracle International Corporation Display of hierarchical datasets using high-water mark scrolling
US9984505B2 (en) 2014-09-30 2018-05-29 Sony Interactive Entertainment Inc. Display of text information on a head-mounted display
US9746913B2 (en) 2014-10-31 2017-08-29 The United States Of America As Represented By The Secretary Of The Navy Secured mobile maintenance and operator system including wearable augmented reality interface, voice command interface, and visual recognition systems and related methods
WO2016073185A1 (en) 2014-11-07 2016-05-12 Pcms Holdings, Inc. System and method for augmented reality annotations
US10248192B2 (en) 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
US10255101B2 (en) * 2014-12-11 2019-04-09 Sap Se Device emulator
JP5767386B1 (ja) * 2014-12-15 2015-08-19 株式会社コロプラ ヘッドマウントディスプレイシステム、ヘッドマウントディスプレイへ表示するための方法、及びプログラム
US20160179855A1 (en) 2014-12-23 2016-06-23 Yahoo! Inc. Ubiquitous content access and management
JP6380091B2 (ja) 2014-12-26 2018-08-29 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US9674178B2 (en) * 2015-02-05 2017-06-06 Ca, Inc. Secure user input mode using randomized mapping between ordered sets of symbols
US9697296B2 (en) 2015-03-03 2017-07-04 Apollo Education Group, Inc. System generated context-based tagging of content items
US9715111B2 (en) 2015-03-27 2017-07-25 Ca, Inc. Secure user input mode for electronic devices using randomized locations of selection indicia
JP6115585B2 (ja) 2015-03-31 2017-04-19 ブラザー工業株式会社 ヘッドマウントディスプレイ及び画像表示装置
JP6439935B2 (ja) * 2015-05-07 2018-12-19 パナソニックIpマネジメント株式会社 表示制御方法、ヘッドマウントディスプレイ、およびプログラム
US9442575B1 (en) * 2015-05-15 2016-09-13 Atheer, Inc. Method and apparatus for applying free space input for surface constrained control
WO2016187348A1 (en) 2015-05-18 2016-11-24 Brian Mullins Biometric authentication in a head mounted device
US9977493B2 (en) 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
US10416835B2 (en) 2015-06-22 2019-09-17 Samsung Electronics Co., Ltd. Three-dimensional user interface for head-mountable display
US9240069B1 (en) * 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system
US9588593B2 (en) * 2015-06-30 2017-03-07 Ariadne's Thread (Usa), Inc. Virtual reality system with control command gestures
US10101803B2 (en) * 2015-08-26 2018-10-16 Google Llc Dynamic switching and merging of head, gesture and touch input in virtual reality
US20170092002A1 (en) * 2015-09-30 2017-03-30 Daqri, Llc User interface for augmented reality system
US9679497B2 (en) * 2015-10-09 2017-06-13 Microsoft Technology Licensing, Llc Proxies for speech generating devices
KR102400900B1 (ko) * 2015-10-26 2022-05-23 엘지전자 주식회사 시스템
WO2017082457A1 (ko) * 2015-11-11 2017-05-18 엘지전자 주식회사 Hmd 및 그 hmd의 제어 방법
KR20170067058A (ko) * 2015-12-07 2017-06-15 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20170067260A (ko) * 2015-12-08 2017-06-16 삼성전자주식회사 웹 페이지 운용 방법 및 이를 지원하는 전자 장치
KR102524641B1 (ko) * 2016-01-22 2023-04-21 삼성전자주식회사 Hmd 디바이스 및 그 제어 방법
US10275023B2 (en) * 2016-05-05 2019-04-30 Google Llc Combining gaze input and touch surface input for user interfaces in augmented and/or virtual reality
KR20170129509A (ko) * 2016-05-17 2017-11-27 엘지전자 주식회사 헤드 마운티드 디스플레이 장치 및 그것의 제어방법
US11599709B2 (en) 2016-05-19 2023-03-07 Palo Alto Research Center Incorporated Natural language web browser
US20170351778A1 (en) 2016-06-02 2017-12-07 vFLYER INC. Methods and systems for managing bookmarks
US10089000B2 (en) * 2016-06-03 2018-10-02 Microsoft Technology Licensing, Llc Auto targeting assistance for input devices
CN105848040A (zh) 2016-06-08 2016-08-10 安徽理工大学 一种智能头戴式防噪音耳机
US10489978B2 (en) 2016-07-26 2019-11-26 Rouslan Lyubomirov DIMITROV System and method for displaying computer-based content in a virtual or augmented environment
US9922254B1 (en) 2016-09-13 2018-03-20 Chi Fai Ho Apparatus and method to determine a distance of a visual object using a label
US10725720B2 (en) 2016-09-26 2020-07-28 Microsoft Technology Licensing, Llc Navigation in augmented reality via a transient user interface control
US10089159B2 (en) 2016-11-03 2018-10-02 Microsoft Technology Licensing, Llc Processing non-spatial input by multiple program elements of a computer program executed on a computer
US10735691B2 (en) 2016-11-08 2020-08-04 Rockwell Automation Technologies, Inc. Virtual reality and augmented reality for industrial automation
US20180150204A1 (en) * 2016-11-30 2018-05-31 Google Inc. Switching of active objects in an augmented and/or virtual reality environment
US10540064B1 (en) 2016-12-21 2020-01-21 Juniper Networks, Inc. Framework for creating hierarchical navigation trees using user interface plugins
US10140773B2 (en) 2017-02-01 2018-11-27 Accenture Global Solutions Limited Rendering virtual objects in 3D environments
CN108509824B (zh) 2017-02-24 2020-08-18 亮风台(上海)信息科技有限公司 基于ar设备的物品特征标识方法以及检查物品的系统
US10621271B2 (en) 2017-05-25 2020-04-14 Microsoft Technology Licensing, Llc Reordering a multi-level layout using a hierarchical tree
US20180373325A1 (en) * 2017-06-22 2018-12-27 Immersion Corporation Haptic dimensions in a variable gaze orientation virtual environment
WO2019226691A1 (en) 2018-05-22 2019-11-28 Magic Leap, Inc. Transmodal input fusion for a wearable system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009122476A (ja) * 2007-11-16 2009-06-04 Nikon Corp 制御装置、ヘッドマウントディスプレイ装置、プログラム及び制御方法
JP2013541092A (ja) * 2010-09-20 2013-11-07 コピン コーポレーション 動きおよび音声コマンドを用いたホストアプリケーションの高度なリモートコントロール
JP2013093705A (ja) * 2011-10-25 2013-05-16 Olympus Corp 頭部装着型表示装置、プログラム及び画像処理システム

Also Published As

Publication number Publication date
US20180181370A1 (en) 2018-06-28
JP7334120B2 (ja) 2023-08-28
EP3559935A1 (en) 2019-10-30
WO2018118435A1 (en) 2018-06-28
US11409497B2 (en) 2022-08-09
EP3559935A4 (en) 2020-08-05
CN110291576B (zh) 2022-11-29
US10620910B2 (en) 2020-04-14
EP3559935B1 (en) 2023-05-24
US20200225910A1 (en) 2020-07-16
CN110291576A (zh) 2019-09-27

Similar Documents

Publication Publication Date Title
JP7334120B2 (ja) タッチ式操作システムのハンズフリーナビゲーション
US11947752B2 (en) Customizing user interfaces of binary applications
EP3612878B1 (en) Multimodal task execution and text editing for a wearable system
EP3120344B1 (en) Visual indication of a recognized voice-initiated action
DK179343B1 (en) Intelligent task discovery
US10777193B2 (en) System and device for selecting speech recognition model
US20190013025A1 (en) Providing an ambient assist mode for computing devices
US9601113B2 (en) System, device and method for processing interlaced multimodal user input
US9122307B2 (en) Advanced remote control of host application using motion and voice commands
US10353495B2 (en) Personalized operation of a mobile device using sensor signatures
US11494472B2 (en) Voice activated authentication
EP3540565A1 (en) Control method for translation device, translation device, and program
US9772815B1 (en) Personalized operation of a mobile device using acoustic and non-acoustic information
KR20190134975A (ko) 인공지능 시스템의 앱들 또는 스킬들의 리스트를 표시하는 증강 현실 장치 및 동작 방법
US20140288916A1 (en) Method and apparatus for function control based on speech recognition
CN115605948A (zh) 在多个潜在响应的电子装置之间的仲裁
US20220051675A1 (en) Multimodal responses
US20120254736A1 (en) Ascertaining presentation format based on device primary control determination
JP7395513B2 (ja) バイナリアプリケーションのユーザインターフェースのカスタマイズ
US11308266B1 (en) Augmented reality assisted physical form completion
US11164576B2 (en) Multimodal responses
KR101944632B1 (ko) 점자 생성 시스템 및 이의 제어 방법
US20240134505A1 (en) System and method for multi modal input and editing on a human machine interface
US20230315193A1 (en) Direction of user input to virtual objects based on command metadata

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220615

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230816

R150 Certificate of patent or registration of utility model

Ref document number: 7334120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150