JP2014175002A - ジェスチャ認識システムの操作性の検証 - Google Patents

ジェスチャ認識システムの操作性の検証 Download PDF

Info

Publication number
JP2014175002A
JP2014175002A JP2014043784A JP2014043784A JP2014175002A JP 2014175002 A JP2014175002 A JP 2014175002A JP 2014043784 A JP2014043784 A JP 2014043784A JP 2014043784 A JP2014043784 A JP 2014043784A JP 2014175002 A JP2014175002 A JP 2014175002A
Authority
JP
Japan
Prior art keywords
gesture recognition
test
stimulus
processor
recognition system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2014043784A
Other languages
English (en)
Inventor
Joseph Nutaro
ジョセフ・ヌタロ
Maner Randy
ランディー・マナー
Grothe Steve
スティーヴ・グローセ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2014175002A publication Critical patent/JP2014175002A/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

【課題】ジェスチャ認識システムの操作性の検証を提供する。
【解決手段】ジェスチャ認識システム及び方法は、ジェスチャ認識システムによって認識可能である試験刺激を生成するように構成された試験対象を提供することによって、ジェスチャシステムの操作性を検証する。試験対象からの試験刺激は、試験応答を生成するためにジェスチャ認識システムにおいて受け取られて処理される。プロセッサは、試験応答が試験刺激に対応することを検証する。
【選択図】図1

Description

[0001]本発明は、一般に、ジェスチャ認識システムに関し、より具体的には、ジェスチャ認識システムの操作性を検証するためのシステム及び方法に関する。
[0002]計算装置のユーザインターフェースを実施するために使用される技術は、多様であり、継続的に進歩している。これらの技術は、あらゆる範囲にわたり、ほんの数例を挙げると、専用のハードウェアインターフェース(例えば、キーボード、マウスなど)、タッチスクリーンインターフェース、及びより最近ではジェスチャ認識システムを含む。一般に知られているように、ジェスチャ認識システムは、一般に、人体の一部(例えば、手)などの物体の動きを検出し、そのような動きを特定の刺激(例えば、ジェスチャ)として識別し、その刺激を計算装置への入力として分類するように構成される。
[0003]近年、航空機制御システム(例えば、アビオニクスシステム)は、ますます電子的になり、オンボードコンピュータと統合されてきている。ジェスチャ認識ソフトウェア及びハードウェアの最近の進歩と組み合わせることで、今では、様々なアビオニクスシステム機能を制御するためにジェスチャコマンドを使用することへの関心がある。しかし、これらの最近の進歩にもかかわらず、現在知られているジェスチャ認識システムは、ハードウェア及びソフトウェアの臨界の様々なレベルや、エラーのない操作性の非常に高い可能性を保証するように設計される規制当局によって現在実施される運航乗務員手順(flight crew procedures)を満たすことができない場合がある。ジェスチャ認識システムが正常に動作していることを保証することは、フライトの特定の段階の間に、又はシステムが操作可能であるという以前の保証が非常に望ましい特定の状況でのみ、ジェスチャ認識システムやあるジェスチャ感度(例えば動きの小さな深さ)が使用できる特殊な状況では特に重要である。
[0004]したがって、操作の確実性を提供し、運航乗務員が現在のフライトデッキ手順と一致した方法でインタラクトすることを可能にし、規制当局の操作性の保証要件を満たすことができる、ジェスチャコマンド機能を有するアビオニクスシステムを操作する方法及びシステムを提供することが望ましい。本発明は、少なくともこのようなニーズに対処するものである。
[0005]一実施例では、ジェスチャ認識システムの操作性を検証するための方法は、ジェスチャ認識システムによって認識可能である試験(検査)刺激(test stimulus)を生成するように構成される試験対象を提供することを含む。試験対象からの試験刺激は、試験応答を生成するためにジェスチャ認識システムにおいて受け取られて処理される。プロセッサは、試験応答が試験刺激に対応することを検証する。
[0006]別の実施例では、ジェスチャ認識システムは、ジェスチャ認識装置、試験対象、及びプロセッサを含む。ジェスチャ認識装置は、感度のフィールド(field of sensitivity)を有しており、感度のフィールド内の物体の動きを検出するように構成される。試験対象は、ジェスチャ認識装置の感度のフィールド内に配置され、ジェスチャ認識装置によって検出可能な試験刺激を生成するように構成される。プロセッサは、ジェスチャ認識装置と動作可能に通信し、感度のフィールド内の物体によって生成された物体刺激を検出し、検出された物体刺激に基づいてシステム出力コマンドを選択的に生成するように構成される。プロセッサはさらに、ジェスチャ認識装置によって検出された試験刺激を受けとり、試験刺激に基づいて試験応答を生成し、試験応答が試験刺激に対応することを検証するように構成される。
[0007]さらに、ジェスチャ認識システム及び方法の他の望ましい特徴及び特性は、添付の図面及び前述の背景と併せて考慮して、以下の詳細な説明及び添付の特許請求の範囲から明らかになるであろう。
[0008]本発明は、以下において、同様の番号が同様の要素を示す以下の図面に関連して説明される。
[0009]ジェスチャ認識システムの一実施例の機能ブロック図を示す。
[0010]以下の詳細な説明は、本質的に単なる例示であり、本発明又は本発明の用途及び使用を限定することを意図するものではない。本明細書で使用する場合、「例示的」という語は「例、事例、又は実例として役立つ」ことを意味する。従って、「例示的」であるとして本明細書に記載されるいかなる実施例も、他の実施例よりも好ましく又は有利であると必ずしも解釈されるべきではない。本明細書で説明する実施例の全ては、特許請求の範囲によって定義される本発明の範囲を限定するためではなく、当業者が本発明を行い又は使用することを可能にするために提供される例示的な実施例である。更に、前述の技術分野、背景、概要、又は以下の詳細な説明において提示されるいかなる明示又は暗黙の理論によって束縛される意図はない。
[0011]図1を参照すると、ジェスチャ認識システム100の実施例の機能ブロック図が示され、ジェスチャ認識装置102、プロセッサ104、及び試験対象106を備えている。ジェスチャ認識装置102は、様々に構成し実施することができるが、図示される実施例では、ジェスチャ認識装置102は、複数のカメラ112 (例えば、112−1、112−2、112−3、...、112−N)及び複数の光(例えば、赤外光)源114(114−1、114−2、114−3、...、114−N)を備える。しかしながら、ジェスチャ認識装置102が1つのカメラ112と1つの光源114のみを有するように、又は1つ又は複数のカメラ112を有し光源114を有しないように実施されてもよいことが理解されるであろう。後者の場合には、理解され得るように、システム100は、十分な照明を提供するために周囲光に依存してもよい。さらに、1つ又は複数の光源114は様々に構成し実施することができるので、1つ又は複数のカメラ112は様々に構成し実施することができる。その特定の実施態様を問わず、イメージキャプチャデバイス102は、感度のフィールド108(例えば、視野)を有し、視野108内の物体110のイメージをキャプチャするように構成される。視野内の物体は、人体、人体の一部、人体によって保持されたデバイス、又はイメージキャプチャデバイスによって検出することができる多くの無生物のうちの任意のものであってもよい。
[0012]プロセッサ104は、イメージキャプチャデバイス102と動作可能に通信し、視野108内の物体によって生成された物体刺激を検出するように構成される。本明細書で使用される場合、「物体刺激(object stimuli)」という語は、1つ又は複数の物体の動き(例えば、ジェスチャ)、物体からの反射や投影イメージ、又は光源を指す。プロセッサ104はさらに、検出された物体刺激に基づいて、システム出力コマンドを選択的に生成するように構成される。プロセッサ104が生成するシステム出力コマンドは、システム100が実施される最終使用(end-use)環境に応じて変化し得る。例えば、最終使用環境が航空機のアビオニクスシステムである場合、出力コマンドは、航空機及び/又はコックピットのシステム及び又はコンポーネントに関連するコマンドであってもよい。例えば、出力コマンドは、幾つか例を挙げると、着陸装置を上げ下げするため、飛行制御面(flight control surface)を移動するため、燃料を投棄するため、特定のライトをオンオフするため、通信無線機の音量を制御するため、コックピットのディスプレイに表示されているページを切り替えるためのコマンドであってもよい。生成される特定のコマンドは、多種多様であり、当然のことながら物体刺激(例えば、ジェスチャ)に基づいている。
[0013]イメージキャプチャデバイス102及びプロセッサ104、並びに明細書に記載の一般的な動作機能は、新しいものではなく、両方ともに、現在知られているか将来開発されるかにかかわらず、多くの既知のジェスチャ認識システム構成のうちの任意のものを用いて実施することができる。そのようなものとして、これらのコンポーネント及びそれによって実施される一般的なジェスチャ認識機能の詳細な説明は必要ではなく、これ以上提供されない。しかしながら、既に述べたように、航空機などの特定の最終使用環境のコンテキストにおいて、現在知られているジェスチャ認識システムは、規制当局の操作性保証要件を満たすための機能を実施していない。したがって、この機能を提供するためにシステム100によって実施されるコンポーネント及び機能についてここで説明する。
[0014]ジェスチャ認識システム100の操作性保証機能は、試験対象106及びプロセッサ104によって実施される追加の機能を介して提供される。試験対象106はイメージキャプチャデバイス102の視野108内に配置され、イメージキャプチャデバイス102によって検出可能である試験刺激115を生成するように構成される。プロセッサ104は、追加の機能を実施する際に、さらに、イメージキャプチャデバイス102によって検出された試験刺激を受け取り、試験刺激に基づいて試験応答を生成し、試験応答が試験刺激に対応することを検証するように構成される。
[0015]試験対象106は様々に構成して実施することができ、試験対象106によって生成される試験刺激もまた様々に構成されて実施され得ることが理解されよう。例えば、試験対象106は、1つ又は複数の動かない(例えば、固定の)装置を用いて実施することができるか、又は1つもしくは複数の移動する装置を用いて実施されてもよい。さらに、試験対象106は、試験刺激を生成する唯一の機能を有する専用の装置又はコンポーネントであってもよいし、試験刺激の生成に加えて他の機能を実施する装置又はコンポーネントであってもよい。移動しない装置又はコンポーネントのいくつかの限定的でない例は、パルス光源、又は光を反射する反射物体もしくは反射面を含む。移動する装置又はコンポーネントのいくつかの限定的でない例は、例えば、回転ホイール、振動振子、並進機構(translating mechanism)、例えば航空機のコックピット内の航空機制御面アクチュエータ(例えば、操縦桿又は操縦桿のハンドル)などのオペレータ制御される装置を含む。理解されるように、回転ホイール、振動振子、及び並進機構などのいくつかの移動する装置又はコンポーネントは、設定された周期で移動することができ、他方、オペレータ制御される装置などの他のものは、非周期的に(例えば、その移動がオペレータによって開始されたときにのみ)移動することができる。
[0016]試験対象106の構成及び実施の多様性に加えて、試験刺激に応答してプロセッサ104が生成する試験応答もまた変化し得ることが理解されるであろう。例えば、幾つかの実施例では、試験応答は、単に、相対距離、深さ及び様々な他の特性を含む試験対象106をシステム100が認識する内部検証であってもよい。この試験応答は、その後、試験応答が試験刺激に対応することを検証するために、予期されるシステム応答と比較されてもよい。
[0017]試験対象106がオペレータ制御される装置として(又はこれを使用して)実施される場合など、他の実施例では、試験応答は、オペレータ制御される装置によって制御される装置又はコンポーネントの検出された応答であってもよい。そのため、例えば、オペレータ制御される装置が航空機の操縦桿である場合、予期されるシステム応答は、操縦桿の移動により指示される航空機の飛行制御面の移動となるであろう。プロセッサ104が、例えば、フィードバックセンサを介して、航空機の飛行制御面の指示された移動を検出した場合、応答は試験刺激に対応すると検証される。あるいは、予期されるシステム応答は、操縦桿の動きによって指示されるような航空機の検出された動きとすることができる。さらに、ジェスチャ認識システム100によって検知されるような制御操縦桿の位置はまた、少なくともフライバイワイヤシステムについて操縦桿の動きを直接的に感知する、位置センサと比較することができる。これは、飛行制御面や航空機の動きに対する結果として生じるコマンドよりもより直接的な比較方法である。理解されるように、オペレータ制御された装置及びオペレータ制御される装置が制御している装置又はコンポーネントに依存して、多くの変更が可能である。
[0018]試験対象106がどのように実施され構成されていても、試験応答がどのように生成されても、少なくともいくつかの実施例では、プロセッサ104は、さらに、ジェスチャ認識システム100を非アクティブモードに選択的に切り替えるように構成される。特に、試験応答が試験刺激に対応していないとプロセッサ104が判断した場合、ジェスチャ認識システム100を非アクティブモードに切り替える。非アクティブモードにおいて、ジェスチャ認識システム100は、検出された物体刺激に基づいてシステム出力コマンドを選択的に生成するためにはもはや使用されない。プロセッサ104はまた、いくつかの実施例では、ジェスチャ認識システムが非アクティブモードに切り替えられたときにアラートを生成するように構成されてもよい。アラートは、可聴警報、視覚警報、触覚警報、又はそれらの様々な組み合わせであってもよい。
[0019]プロセッサ104はまた、所定の周期で試験応答を自動的に生成するように、又はユーザからのプロンプトに応答してそれを行うように構成することができる。後者の場合、図1においてさらに示すように、プロセッサ104は、テスト開始信号116を受信するように結合され、その受信の際に試験応答を生成するように構成される。しかしながら、通常、周期的な自動化された試験応答は、ユーザが必要とするときにシステム100が正常に動作することを比較的高い信頼度で保証するのに十分である。所定の周期は変化し得るが、使用することができる1つの例示的な周期は1分間に1回である。いくつかの例では、ユーザ自身がさらなる信頼性のためにシステム100を呼び起こすことができる。例えば、航空機のコンテキストにおいて、ユーザは、離陸の直前に、着陸装置がジェスチャコントロールを介して持ち上げられる場合に、システムを呼び起こしてもよい
[0020]上述のジェスチャ認識システム100は、1つの特定の実施例及び構成の例示に過ぎず、他の様々な構成が実施されてもよいことが理解されるであろう。例えば、ジェスチャ認識システム100は、上述した光学ベースのシステムに限定されるものではない。むしろ、ジェスチャ認識システム100は、いくつか例を挙げると、音響ベースのシステムや電界ベースのシステムとして構成し実施することができる。これらの代替の構成及び実施例によって、ジェスチャ認識装置102が、いくつか例を挙げると、音響ベースの装置として又は電界ベースの装置として構成されて実施されてもよいことが理解されるであろう。しかしながら、それぞれの場合において、ジェスチャ認識装置102は、例えば、各々が感度のフィールド108を有する、1つ又は複数のセンサ112(例えば、112−1、112−2、112−3、...、112−N)を含んでもよい。ジェスチャ認識装置102はまた、適切な刺激(例えば、音響、電界など)を生成するように構成された1つ又は複数のエミッタ114(114−1、114−2、114−3、...114−N)を含んでもよい。1つ又は複数のセンサ112は、各々が感度のフィールド108内の1つ又は複数の物体の動きを検出するように構成される。また、理解されるように、試験対象106及びそれによって生成される試験刺激115は、用いられるジェスチャ認識装置102のタイプに応じて変化する。例えば、音響ベースのシステムが実施される場合には、(必要な場合)検査対象106は音響試験刺激115を生成してもよい。同様に、電界ベースのシステムが実施される場合には、(必要な場合)試験対象106は電界試験刺激115を生成してもよい。
[0021]本明細書に記載されるシステム及び方法は、適切なシステム動作の保証をもたらすことができるジェスチャ認識システム、及び規制当局の操作性保証要件を満たす能力を提供する。プロセッサ104は、単一の装置として、又は、1つ又は複数の試験対象106を監視して各々が同じ刺激を受けていることを確認するために比較をする2つのデバイスなどの周知の手段を介して、高インテグリティ基準を満たすように構成された装置及び回路の集合として実施されてもよいことに留意すべきである。
[0022]当業者であれば、本明細書に開示された実施例に関連して説明される様々な例示的な論理ブロック、モジュール、回路、及びアルゴリズムステップが、電子ハードウェア、コンピュータソフトウェア、又は両方の組み合わせとして実施できることを理解するであろう。実施例及び実施のいくつかは、機能的及び/又は論理ブロックコンポーネント(又はモジュール)並びに様々な処理ステップに関して上述されている。しかしながら、そのようなブロックコンポーネント(又はモジュール)は、指定された機能を実行するように構成された任意の数のハードウェア、ソフトウェア、及び/又はファームウェアコンポーネントによって実現することができることが理解されるべきである。ハードウェアとソフトウェアのこの互換性を明確に説明するために、様々な例示的なコンポーネント、ブロック、モジュール、回路、及びステップがそれらの機能の観点から一般的に上述されている。そのような機能がハードウェア又はソフトウェアとして実施されるかどうかは、特定のアプリケーション及びシステム全体に課された設計の制約に依存する。当業者は、説明した機能を各特定の用途について様々な方法で実施することができるが、そのような実施の決定は本発明の範囲からの逸脱を引き起こすと解釈されるべきではない。例えば、システム又はコンポーネントの実施例は、1つ又は複数のマイクロプロセッサ又は他の制御デバイスの制御下で様々な機能を実行することができる、例えば、メモリ素子、デジタル信号処理素子、論理素子、ルックアップテーブルなどの様々な集積回路コンポーネントを採用することができる。さらに、当業者であれば、本明細書に記載される実施例が例示的な実施例にすぎないことを理解するであろう。
[0023]本明細書に開示された実施例に関連して説明された様々な例示的な論理ブロック、モジュール、及び回路は、汎用プロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)又は他のプログラマブル論理デバイス、別々のゲート又はトランジスタロジック、別々のハードウェアコンポーネント、又は本明細書に記載の機能を実行するように設計されたそれらの任意の組み合わせを用いて実施又は実行することができる。汎用プロセッサはマイクロプロセッサであってもよいが、代わりに、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、又は状態マシンであってもよい。プロセッサはまた、例えば、DSPとマイクロプロセッサの組み合わせ、複数のマイクロプロセッサ、DSPコアと連係した1つ又は複数のマイクロプロセッサ、又は任意の他のそのような構成などの、コンピューティング装置の組み合わせとして実施することができる。
[0024]本明細書に開示された実施例に関連して説明された方法又はアルゴリズムのステップは、ハードウェアで、プロセッサによって実行されるソフトウェアモジュールで、又はこの2つの組み合わせで、直接的に具現化することができる。ソフトウェアモジュールは、RAMメモリ、フラッシュメモリ、ROMメモリ、EPROMメモリ、EEPROMメモリ、レジスタ、ハードディスク、取り外し可能なディスク、CD−ROM、又は当技術分野で知られている任意の他の形式の記憶媒体に存在してもよい。例示的な記憶媒体は、プロセッサが記憶媒体から情報を読み取り、記憶媒体に情報を書き込むことができるように、プロセッサに結合される。代替例として、記憶媒体はプロセッサと統合されてもよい。プロセッサ及び記憶媒体はASIC内に存在してもよい。ASICはユーザ端末内に存在してもよい。代替例として、プロセッサ及び記憶媒体はユーザ端末内に別々のコンポーネントとして存在してもよい。
[0025]この明細書では、第1及び第2などの関係を示す語は、必ずしもエンティティやアクション間のいかなる実際の関係や順序を必要としたり暗示したりすることなく、1つのエンティティ又はアクションを別のエンティティ又はアクションと区別するために単に使用することができる。「第1」、「第2」、「第3」などの数字で表した序数は、複数のうちの異なる1つを示すにすぎず、特許請求の範囲の文言によって具体的に定義されない限り、いかなる順序やシーケンスを意味するものでもない。いずれの請求項における一連の文言も、請求項の文言によって具体的に定義されていない限り、プロセスのステップがこのようなシーケンスに従って時間的又は論理的な順序で実行されなければならないことを意味するものではない。プロセスのステップは、入れ替えが請求項の文言と矛盾せず、論理的に無意味でない限り、本発明の範囲から逸脱することなく、任意の順序で入れ替えてもよい。
[0026]さらに、文脈に応じて、異なる要素間の関係を説明する際に使用される「接続」や「結合される」などの語は、直接的な物理的接続がこれらの要素の間でなされなければならないことを意味するものではない。例えば、2つの要素は、1つ又は複数のさらなる要素を介して、物理的に、電子的に、論理的に、又は他の任意の方法で互いに接続することができる。
[0027]少なくとも1つの例示的な実施例が上記の本発明の詳細な説明で提示されたが、多数の変形が存在することを理解されたい。例示的な実施例は単なる例であり、いかなるようにも本発明の範囲、適用性、又は構成を限定するように意図されるものではないことが理解されるべきである。むしろ、前述の詳細な説明は、本発明の例示的な実施例を実施するための便利なロードマップを当業者に提供する。様々な変更が、添付の特許請求の範囲に記載された発明の範囲から逸脱することなく、例示的な実施例で説明した要素の機能及び構成においてなされ得ることが理解される。

Claims (3)

  1. 感度のフィールドを有するジェスチャ認識装置であって、前記感度のフィールド内の物体の動きを検知するように構成される、ジェスチャ認識装置と、
    前記ジェスチャ認識装置の前記感度のフィールド内に配置され、前記ジェスチャ認識装置によって検出可能な試験刺激を生成するように構成される、試験対象と、
    前記ジェスチャ認識装置と動作可能に通信するプロセッサであって、前記感度のフィールド内の物体によって生成される物体刺激を検出し、検出された物体刺激に基づいてシステム出力コマンドを選択的に生成するように構成される、プロセッサと
    を備え、前記プロセッサは、
    前記ジェスチャ認識装置によって検出された前記試験刺激を受け取り、
    前記試験刺激に基づいて試験応答を生成し、
    前記試験応答が前記試験刺激に対応することを検証する
    ようにさらに構成される、ジェスチャ認識システム。
  2. 前記プロセッサは、
    前記試験応答が前記試験刺激に対応しない場合に、前記システムを非アクティブモードに切り替え、
    前記ジェスチャ認識システムが非アクティブモードに切り替えられる場合にアラートを生成する
    ようにさらに構成される請求項1に記載のシステム。
  3. ジェスチャ認識システムの操作性を検証するための方法であって、
    ジェスチャ認識システムによって認識可能である試験刺激を生成するように構成される試験対象を提供するステップと、
    前記ジェスチャ認識システムにおいて、前記試験対象から試験刺激を受け取るステップと、
    前記ジェスチャ認識システムにおいて、前記試験刺激を処理して試験応答を生成するステップと、
    プロセッサにおいて、前記試験応答が前記試験刺激に対応することを検証するステップと
    を含む方法。
JP2014043784A 2013-03-11 2014-03-06 ジェスチャ認識システムの操作性の検証 Ceased JP2014175002A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/794,335 2013-03-11
US13/794,335 US9372541B2 (en) 2013-03-11 2013-03-11 Gesture recognition system operability verification

Publications (1)

Publication Number Publication Date
JP2014175002A true JP2014175002A (ja) 2014-09-22

Family

ID=50184833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014043784A Ceased JP2014175002A (ja) 2013-03-11 2014-03-06 ジェスチャ認識システムの操作性の検証

Country Status (6)

Country Link
US (1) US9372541B2 (ja)
EP (1) EP2778844A1 (ja)
JP (1) JP2014175002A (ja)
KR (1) KR20140111598A (ja)
CN (1) CN104050442A (ja)
TW (1) TWI622897B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3070645A1 (en) * 2015-03-20 2016-09-21 Delphi Technologies, Inc. Apparatus and method for automatically testing a gesture recognition device
CN106292686A (zh) * 2015-05-22 2017-01-04 上海俏动智能化科技有限公司 通过触摸屏操作无人机的方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10108840A (ja) * 1996-10-09 1998-04-28 Canon Inc 視線検出装置
US20100277411A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation User tracking feedback
JP2011095799A (ja) * 2009-10-27 2011-05-12 Nohmi Bosai Ltd 火源探査システム
JP2011210188A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置、画像表示方法、画像表示プログラム、および画像表示プログラムを記録した記録媒体
JP2012194964A (ja) * 2011-03-01 2012-10-11 Canon Inc 情報処理装置及びその制御方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8228305B2 (en) * 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
US8180114B2 (en) 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US7701439B2 (en) 2006-07-13 2010-04-20 Northrop Grumman Corporation Gesture recognition simulation system and method
US8139110B2 (en) 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US8539550B1 (en) * 2008-05-29 2013-09-17 Intuit Inc. Multi-pattern authentication gestures
US8270670B2 (en) * 2008-12-25 2012-09-18 Topseed Technology Corp. Method for recognizing and tracing gesture
KR101554220B1 (ko) * 2009-06-03 2015-09-21 삼성전자주식회사 휴대단말기의 근접 센서를 이용한 데이터 출력 방법 및 장치
CN101661556A (zh) * 2009-09-25 2010-03-03 哈尔滨工业大学深圳研究生院 基于视觉的静态手势识别方法
US8873841B2 (en) * 2011-04-21 2014-10-28 Nokia Corporation Methods and apparatuses for facilitating gesture recognition
DE102012025564A1 (de) 2012-05-23 2013-11-28 Elmos Semiconductor Ag Vorrichtung und Verfahren zur Kalibration einer kalibrierbaren Gestenerkennungsvorrichtung zur Übermittlung von Kommandos und Informationen an eine Mensch-Maschineschnittstelle

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10108840A (ja) * 1996-10-09 1998-04-28 Canon Inc 視線検出装置
US20100277411A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation User tracking feedback
JP2011095799A (ja) * 2009-10-27 2011-05-12 Nohmi Bosai Ltd 火源探査システム
JP2011210188A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置、画像表示方法、画像表示プログラム、および画像表示プログラムを記録した記録媒体
JP2012194964A (ja) * 2011-03-01 2012-10-11 Canon Inc 情報処理装置及びその制御方法

Also Published As

Publication number Publication date
KR20140111598A (ko) 2014-09-19
US9372541B2 (en) 2016-06-21
TWI622897B (zh) 2018-05-01
TW201447644A (zh) 2014-12-16
CN104050442A (zh) 2014-09-17
US20140253428A1 (en) 2014-09-11
EP2778844A1 (en) 2014-09-17

Similar Documents

Publication Publication Date Title
US10052147B2 (en) Touch free operation of ablator workstation by use of depth sensors
AU2013200054B2 (en) Touch free operation of devices by use of depth sensors
US9075462B2 (en) Finger-specific input on touchscreen devices
WO2017041433A1 (zh) 可穿戴设备的触控响应方法、装置及可穿戴设备
WO2017172006A1 (en) System to provide tactile feedback during non-contact interaction
US20120068956A1 (en) Finger-pointing, gesture based human-machine interface for vehicles
US9891711B1 (en) Human machine interface with haptic response based on phased array LIDAR
BR102017000969A2 (pt) Method implemented by computer, system to control an operation and aircraft
CN103929603A (zh) 图像投影设备、图像投影系统及控制方法
US10035539B2 (en) Steering wheel control system
JP5966080B2 (ja) タッチパネル式操作盤及びその制御方法
EP3465392B1 (en) Time-correlated touch and speech command input
JP2016062183A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
BR102017012163A2 (pt) método implantado por computador para corrigir um erro de entrada, sistema para corrigir um erro de entrada e aeronave
CN105302302A (zh) 一种应用控制的方法及装置
CN111142655A (zh) 交互方法、终端及计算机可读存储介质
US9588611B2 (en) System and method for guarding emergency and critical touch targets
US10365736B2 (en) Morphing pad, system and method for implementing a morphing pad
JP2014175002A (ja) ジェスチャ認識システムの操作性の検証
US11052918B2 (en) System and method for controlling operation of an autonomous vehicle
CN106814909A (zh) 使用包括语音识别单元的用于飞行器的人机界面装置的方法
US9594610B2 (en) Method and system for processing multimodal input signals
US9875019B2 (en) Indicating a transition from gesture based inputs to touch surfaces
US20190384289A1 (en) System and method for controlling operation of an autonomous vehicle
KR20040033011A (ko) 컴퓨터 인터페이스 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180515

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20180921