JP4771951B2 - 非接触ヒューマンコンピュータインターフェイス - Google Patents

非接触ヒューマンコンピュータインターフェイス Download PDF

Info

Publication number
JP4771951B2
JP4771951B2 JP2006530485A JP2006530485A JP4771951B2 JP 4771951 B2 JP4771951 B2 JP 4771951B2 JP 2006530485 A JP2006530485 A JP 2006530485A JP 2006530485 A JP2006530485 A JP 2006530485A JP 4771951 B2 JP4771951 B2 JP 4771951B2
Authority
JP
Japan
Prior art keywords
signal
control system
electronic control
transducers
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006530485A
Other languages
English (en)
Other versions
JP2007503653A (ja
Inventor
スタンレー,モーリス
スケターグツド,デイビツド・チヤールズ
Original Assignee
エフ・ポスザツト・ヒユー・エル・エル・シー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エフ・ポスザツト・ヒユー・エル・エル・シー filed Critical エフ・ポスザツト・ヒユー・エル・エル・シー
Publication of JP2007503653A publication Critical patent/JP2007503653A/ja
Application granted granted Critical
Publication of JP4771951B2 publication Critical patent/JP4771951B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

本発明は、非接触ヒューマンコンピュータインターフェイスに関する。より詳細には、本発明は、ユーザによって行われたジェスチャが検出され、何らかの手段によって解釈され、ジェスチャを使用して、コンピュータまたはコンピュータ制御機器の操作に影響を与えるタイプのインターフェイスに関する。
マウスは、コンピュータシステムの操作を制御する手段として、現代のコンピュータシステムで一般に使用されている装置である。こうした装置は一般に、コンピュータキーボードの横にあり、これによってユーザは、例えば表示システムに表示されたオプションを選択することができる。こうした装置のユーザは、コンピュータで稼働しているソフトウェアによる要求に応じて所望のアクションを実行するために、それに手を伸ばし、クリックしたり、ドラッグしたりする必要がある。通常、マウスの位置に対応するディスプレイ上のポインタの位置を知る必要がある。しかし、これは、一部のソフトウェアアプリケーションでは不要であり、ユーザに求められる入力は、例えば1組のスライドを介して進めるまたは戻すため、あるいはディスプレイに表示される動画を開始するまたは停止するための、左クリックまたは右クリックである。ユーザがプレゼンテーションを提供している場合、または特にディスプレイに表示されるものに一生懸命集中している場合、マウスを探して適切なボタンを押す不便さは、望ましくない場合があり、そのため、ある種のジェスチャ認識システムが有用である。
米国特許第6222465号明細書は、ユーザによって行われるジェスチャが、ビデオカメラおよび画像処理ソフトウェアによって検出される、GestureBased ComputerInterfaceを開示している。しかし、ビデオシステムおよび関連する処理は、実施が複雑で高価であり、照明状態およびユーザの意図しない動きに反応しやすい。また、こうした一部のシステムには、処理要件が高いために、ユーザの動きと、クライアントプログラムによって作用される動きとの間に待ち時間がある。
ジェスチャの検出のより簡単なシステムは、米国特許第5990865号明細書によって提供されており、この明細書では、コンデンサのプレート間のスペースが、空間(volume)を画定し、例えばオペレータの両手の動きを、静電容量の変化によって検出できる容量性システムを開示している。しかしこれは、動きは検出できるが、その動きが何であるかがわからないという、非常に劣った分解能を有するという問題を被る。例えば、大きい指の動きとわずかな腕の動きとを区別するのに苦労する。さらに、空間が大きい場合、静電容量は非常に小さく、続いて測定が難しく、それによって雑音および感度の問題につながる。
本発明によれば、少なくとも1つの信号送信器および少なくとも2つの検出器を含む複数のトランスデューサを備える、ユーザによって行われるジェスチャを検出するヒューマンコンピュータインターフェイス装置が提供され、検出器が、少なくとも2つの信号送信器によって送信され、かつトランスデューサの近くの検出空間内のオブジェクトから反射される信号を検出し、検出された信号に関する情報を電子制御システムに渡すように構成され、信号に関する情報が、検出空間内のオブジェクトの動きに関するパターンを検出するために処理されるように構成され、電子制御システムが、検出されたパターンによって規定された方法で、ホストコンピュータシステムと通信するように構成されることを特徴とする。
トランスデューサは、オペレータの手など、検出空間内のオブジェクトから反射し得る信号を送受信することができる任意の適したトランスデューサとすることができる。トランスデューサは、赤外線または超音波のトランスデューサであることが好ましいが、可視のトランスデューサを使用してもよい。こうしたトランスデューサは、非常に安価であるため、こうしたトランスデューサのアレイを、非専用アプリケーションに適した低コストインターフェイスに組み込むことができる。だいたい2個、5個、10個、20個、40個、またはそれ以上の信号送信器および検出器が、アレイに存在している場合もある。背景放射および雑音を抑えるために、検出器には光学または電子フィルタ手段が備えられてもよい。
トランスデューサは、ハウジング内に配置されることができ、ハウジングは、信号送信器の駆動、検出器からの信号の受信、および受信された信号の処理に関連付けられた電子機器をさらに含む。トランスデューサは、このハウジング内に、直線パターン、二次元パターン、三次元パターン、または他の任意の適した構成で配置されることができる。ハウジングは、コンピュータモニタや家具類など、他の何らかの機器の一部を形成したり、壁、天井、ドアフレームなど、建物の構造の一部を形成することもできる。トランスデューサのレイアウトパターンは、トランスデューサを取り付ける状況によって左右され得る。
検出空間内から検出器によって受信された信号を、復号して、その信号が発せられた信号送信器を識別することができるように、トランスデューサを、その関連する電子機器によって制御することができる。この制御は、発せられた信号の変調の形態、または信号送信器によって生成された信号の周波数を、信号送信器ごとに異なるように構成する変調の形態をとることができる。変調は、パルス変調、パルス符号変調、周波数変調、振幅変調の形態、または他の任意の適した変調の形態をとることができる。
制御電子機器は、ユーザによって行われたジェスチャを示す特定のリターンを探すために、検出器によって受信された信号を解釈するように構成されることができる。ジェスチャは、ユーザが、例えばユーザの手などのオブジェクトを所与の方向または方法で検出空間内に配置し、または検出空間内で動かすことから成ることができる。例えば、ユーザが、手をトランスデューサの上方で左から右に、または右から左に動かす場合がある。また、ジェスチャは、足や頭の動きなど、他の動きから成る場合もある。制御電子機器は、検出器から受信した信号を、それぞれコンピュータマウスまたはジョイスティックを右に動かす(またはマウスを右クリックする)のに相当する、またはコンピュータマウスまたはジョイスティックを左に動かす(またはマウスを左クリックする)のに相当すると解釈するようにプログラムされ、次いでマウスの動きまたはマウスボタンのクリックによって生成されるのと同様に、コンピュータシステムにデータを入力するように構成されることができる。このように、本発明のジェスチャインターフェイスは、マウスのボタンの代わりに、コンピュータシステムで使用することができる。システムの使用を容易にするために、可視または音響のフィードバックを提供することができる。
当然、検出器によって受信された信号を処理する電子制御システムは、異なるジェスチャを分析することができるというという条件で、これより複雑なジェスチャを、本発明のインターフェイスによって解釈することができる。電子制御システムは、わずかなジェスチャを認識する基本的なシステムとすることができ、または多数のジェスチャを認識すべき場合、またはジェスチャが互いに微妙に異なっている場合、複雑なシステムとすることができる。検出器から受信された信号に関連する情報は、インターフェイスに入力されるジェスチャを区別するようにプログラムされたニューラルネットワークシステムへの入力を提供することができる。
トランスデューサは、検出空間内のオブジェクトの範囲または位置を測定するように構成されることができ、したがってより複雑なジェスチャを分析することができる。これは、受信された信号から復号された任意の変調の位相比較、または送信された信号自体の相対強度などの標準技術を使用して行うことができる。超音波トランスデューサが使用される場合、飛行時間の測定を範囲の測定に使用することができる。また、トランスデューサは、トランスデューサレイの平面に平行な平面上の検出空間内のオブジェクトの位置を測定するように構成されることもできる。これによって、オブジェクトの位置は、ジェスチャ情報の一部を形成することができる。オブジェクトが位置間を移動するのにかかる時間、すなわち速度も、ジェスチャ情報の一部を形成することができる。
インターフェイス装置は、ユーザから入力されたジェスチャを学習するように構成されることができ、さらに、特定のコマンドをジェスチャに関連付けるように構成されることができ、したがって所与のジェスチャに関連付けられているコマンドを、ユーザによって望まれるようにプログラムし直すことができる。
上述の実装の代替として、トランスデューサ構成は、少なくとも2つの信号送信器および少なくとも1つの検出器を含むことができる。検出空間内のオブジェクトは、オブジェクトの所与の瞬間の位置および速度に従って、信号送信器のうちの1つまたは複数から少なくとも1つの検出器に1つまたは複数の信号を反射することができる。オブジェクトによって行われたジェスチャを検出するために、受信された1つまたは複数の信号を、上述のように解釈することができる。
本発明の第2の態様によれば、ホストコンピュータシステムの入力信号を生成する方法が提供され、この方法は、
少なくとも1つの信号送信器を使用して少なくとも1つの信号を検出空間内に送信し、かつ少なくとも1つの検出器を使用して少なくとも1つの信号を検出空間から受信するステップと、
受信された任意の信号を電子制御システムに渡すステップと、
電子制御システムで動きのパターンを検出するステップと、
検出されたパターンに応じる方法で、ホストコンピュータシステムと通信するステップとを含む。
次に、一例にすぎないが下記の図面を参照して、本発明をより詳しく説明する。
図1は、USBケーブル4を介して、コンピュータシステム3に接続されるハウジング2に取り付けられたトランスデューサ1のアレイを含む、本発明の第1の実施形態を示している。また、コンピュータシステム3には、標準マウス5およびキーボード6も接続される。トランスデューサ1は、「T」型に構成されており、それぞれハウジング2内に含まれる制御電子機器(図示せず)と通信する。各信号送信器トランスデューサは、それ自体の検出器トランスデューサと結合され、トランスデューサの対を形成している。信号送信器は、適切に通電されると、実質的にコリメートされたビームのIR放射を生成し、検出器は、こうした放射に反応する。検出器は、信号送信器によって送信された波長以外の波長の強度が低減されて、背景雑音を抑えるように、光学フィルタを備えている。制御電子機器(図示せず)は、信号送信器を駆動し、検出器によって受信された信号を処理し、ジェスチャがシステムに入力されているかどうかを検出し、入力されている場合はそのジェスチャが何であるかを検出するために信号を分析するように構成されている。
Bluetoothや赤外線などの無線インターフェイスを使用して、センサユニットをコンピュータシステムにリンクしたり、他の任意の適切な手段を使用して、この接続を実施することができる。
ジェスチャが識別されると、ジェスチャに関連付けられているコマンドは、USBケーブル4を介してコンピュータシステム3に伝えられ、コンピュータシステム3で稼働しているソフトウェアは、当然コマンドは異なっていてもよいが、コマンドが、マウス5またはキーボード6などの標準データ入力装置によって送信された場合と同じように、コマンドに適したように動作する。
図2は、本発明の第1の実施形態の操作を示すブロック図である。信号送信器側のトランスデューサに関連付けられている回路は、点線エリア7内に示されており、一方、検出器、ジェスチャ認識装置、およびコンピュータインターフェイスに関連付けられている回路は、図の残りの部分10に示されている。
信号送信器8は、IRエネルギーを検出空間9まで送信するように構成される赤外線(IR)LEDを含む。IRLED自体は、信号送信器ドライバ回路11によって標準の方法で駆動される。
検出器のアレイは、検出空間の近くからIR放射を受信するように構成されている。これらの検出器13は、受信された信号をアナログ信号処理回路14に提供し、次いでアナログデジタル変換器(ADC)14に提供する。アナログデジタル変換器(ADC)14は、次いで、ジェスチャ認識エンジン16に接続される。エンジン16は、訓練段階中に、インターフェイスに入力されたジェスチャに関連する信号を格納するジェスチャライブラリ17からも入力を取得する。コマンド生成器18は、エンジン16から出力を取得し、コンピュータインターフェイス19に接続される。
インターフェイスの操作は、次の通りである。IRエネルギーは、信号送信器8によって、トランスデューサレイの真上に配置される検出空間9に送信される。検出空間に存在するオブジェクトは、信号をトランスデューサに反射し返す傾向にあり、信号が検出器13によって検出される。受信された信号の相対強度は、どのトランスデューサにオブジェクトが最も近いかの粗いインジケータとして使用することができ、これにより、オブジェクトの位置の粗い指示が提供される。検出された任意の信号は、アナログ信号処理およびADC14に渡され、増幅され、その後の処理を容易にするために、デジタル形式に変換される。そこから、デジタル信号は、ジェスチャ認識エンジン16に入力される。このエンジン16は、受信された信号を、訓練プロセス中に生成された格納されている信号と比較する。現在の入力の組と格納されている入力の組との間に、十分近い一致があった場合、現在の入力信号に最も近い格納されている信号に対応するジェスチャが、行われたジェスチャであると想定される。次いでこのジェスチャに関連する詳細は、コマンド生成器に送信される。コマンド生成器は、格納されているジェスチャを、ホストコンピュータ(図1のアイテム3)によって認識可能な所与のコマンドに関連付けるルックアップテーブルである。このコマンドは、次いで、コンピュータインターフェイス19によってコンピュータ3に送信される。
この実施形態に関連付けられている訓練プロセスは、次のように動作する。ホストコンピュータ3で稼働し、ジェスチャ学習コマンド関連ユニット20の制御下にあるソフトウェアを介して訓練モードを入力すると、ジェスチャのサンプルは、検出空間内において作成され、例えば「RIGHTMOVEMENT」など、ユーザによって適切に注釈が付けられる。これらのサンプルによって生成されたデジタル信号は、次いでジェスチャライブラリに格納される。次いで、ホストコンピュータに提示されるコマンドの選択から選択することによって、ジェスチャに関連付けられるコマンドが、コンピュータに入力される。このプロセスは、様々なジェスチャについて繰り返され、データは同様に格納され、したがって、ジェスチャおよび関連のコマンドのテーブルが構築される。
第1の実施形態は、Kreysig, E, Advanced Engineering Mathematics,8th Ed,Wileyで言及されているものなど、知られている方法を使用して、現在の入力データを、ジェスチャライブラリに格納されているジェスチャデータと相関させ、相関距離が最も低いジェスチャが、ユーザによって行われたと最も考えられるジェスチャとして選択されるジェスチャ認識エンジンを使用する。また、最低相関距離がこの閾値より大きい場合、ジェスチャは選択されないような、最大相関距離閾値もある。このように、ジェスチャの誤った認識が低減され、システムの信頼性が向上する。
第2の実施形態は、上述の形式のジェスチャライブラリが不要である、より複雑なジェスチャ認識システムを使用する。このシステムは、ニューラルネットワークを使用して、検出器から入力されたデータを分析し、ジェスチャのライブラリから最も考えられるジェスチャを予測し、コマンドをそのジェスチャに関連付けられているホストコンピュータに出力する。したがってこの第2の実施形態は、さらに多くのジェスチャを、第1の実施形態に使用するメモリスペースと同等のメモリスペースに格納することができる。本発明を実施するのに適したニューラルネットワーク技術の詳細は、Kohonen,T、“Self Organisation& AssociativeMemory”,3rd Edition,Berlin Germany,1989, SpringerVerlagに見出されることができる。
図3に、上述の実施形態で使用されるような信号送信器および検出器の対の構成が、示されている。ここでは、明瞭にするために、4つの信号送信器と検出器の対100のみが示されているが、当然、実際にはそれより多くてもよい。各対100の信号送信器101は、システムの他のすべての信号送信器の中でその信号送信器に一意のPCMコードで変調される、実質的にコリメートされたIRビーム103を出力する。次いで、システムが、異なる信号送信器からの信号を区別することができるように、検出器によって受信された信号を、復調することができる。これは、検出空間内のオブジェクトの位置をより正確に識別するのに有用である。IRビームのコリメーションによって、1つの信号送信器からの信号が、その信号送信器に関連付けられていない検出器によって捕捉される機会が低減するため、復調プロセスがより簡単になる。
本発明の第4の実施形態は、上述の実施形態に記載されている方法より簡単な方法で、検出器から受信された信号を処理する。この実施形態は、検出器から受信された信号をデジタル化し、それらを復調して、発せられた信号に適用される変調を取り除いた上で、このデータをホストコンピュータシステムに渡す。次いでホストコンピュータは、データの簡単な分析を行って基本的なパターンを抽出する。例えば、この実施形態が、図3のハードウェアシステムで実施される場合、検出空間を通る人の手の左から右への動きは、トランスデューサ100からの応答、次いでトランスデューサ100aからの応答、トランスデューサ100bからの応答、トランスデューサ100cからの応答を提供する。これは、各トランスデューサの出力の時間の比較によって容易に識別できる方法で、デジタル化された信号に反映される。同様に、右から左への動きは、対応するが、トランスデューサからの時間的に逆の応答を提供する。
図4aおよび図4bは、本発明とともに使用することができる2つのジェスチャを示している。図4aは、本発明による、ユーザがインターフェイス上方で手を右から左に移動させる平面図を示している。このジェスチャがホストコンピュータで稼働しているコンピュータプログラムで行うこのアクションは、上述のようにプログラム可能であるが、例えば、マウスの右クリックに対応させることができる。図4bは、ユーザが、手をインターフェイスから離して垂直方向に上向きに上げる、第2のジェスチャを示している。この場合もまた、このジェスチャは、プログラム可能であるが、一般には、例えばグラフィカル表示プログラムのズーム率を制御するために使用することができる。
他のジェスチャを、上述のジェスチャとの組み合わせで使用したり、またはインターフェイスによって認識可能な他の任意のジェスチャとの組み合わせで使用することができる。例えば、ユーザのジェスチャの終わりの一時停止、またはそのジェスチャに続く第2の手の動きは、マウスボタンのクリックとして、またはコンピュータキーボード上の「Enter」ボタンを押すのと同等として解釈されるようにプログラムすることができる。あるいは、このインターフェイスは、追加の機能要素、例えば電子ボタンまたは音声入力などと組み合わせて、コンピュータのマウスボタンの機能を達成することができる。
有利には、コンピュータシステムは、ジェスチャが認識されていることを示す、あるいは、ジェスチャが認識されておらず、そのため繰り返す必要があることを示すために、可視または可聴のフィードバックを提供するように構成されることができる。例えば、緑色光を使用して、動きが、現在解釈の過程であることを示すことができる。例えば、動きの一時停止によって示されるジェスチャの終了のたびに、ジェスチャが認識されたか、反復が必要であるかを示すために、光は、色を変更するよう構成されることができる。
当業者であれば、本発明の範囲内の他の実施形態を思い付くことができ、したがって本発明は、本明細書に記載したような実施形態に限定されるものではない。例えば、本発明は、汎用コンピュータシステムで使用されるものとして示されているが、ゲームコンソール、コンピュータ支援設計システム、屋内電気器具、公的な情報システム、アクセス制御機構、および他のセキュリティシステム、ユーザ識別または他の任意の適したシステムなどの専用コンピュータ機器で使用することもできる。
コンピュータシステムに接続されている本発明の第1の実施形態を示す図である。 第1の実施形態およびコンピュータシステムへのその接続を示すブロック図である。 本発明の第3の実施形態におけるトランスデューサ構成を示す図である。 本発明とともに使用することができる一般のジェスチャを示す図である。 本発明とともに使用することができる一般のジェスチャを示す図である。

Claims (26)

  1. 複数のトランスデューサと、
    電子制御システムとを備える、インターフェイス装置であって、
    前記複数のトランスデューサは、平面内で互いに直交する2つの直線上に配置され、前記複数のトランスデューサの各々が、少なくとも1つの信号送信器及びこの信号送信器に隣接して配置された少なくとも1つの信号検出器を含み、前記少なくとも1つの信号送信器は、前記平面上に位置する三次元検出空間内に信号を送信し、前記少なくとも1つの信号検出器は、前記三次元検出空間内のオブジェクトから反射された前記信号を検出、前記信号は、前記平面上にある前記オブジェクトの、前記平面に対する垂直距離を表し
    前記電子制御システムは、前記信号に関する情報を処理して、前記三次元検出空間内の前記オブジェクトの動きに関するパターンを検出、前記パターンは、前記信号を検出した前記信号検出器の位置によって部分的に決定され、前記電子制御システムは、ルックアップテーブルを用いて、前記インターフェイス装置の第1コマンドを前記パターンに関連付け、さらに、前記インターフェイス装置の第2コマンドを、前記パターン、及び前記オブジェクトの前記垂直距離の変化に関連する前記オブジェクトの速度に共に関連付けることを特徴とするインターフェイス装置。
  2. 前記電子制御システムが、ホストコンピュータ内に実装される、請求項1に記載のインターフェイス装置。
  3. 前記複数のトランスデューサの各々が、単一の信号検出器および2つ以上の信号送信器を含む、請求項1に記載のインターフェイス装置。
  4. 前記2つの直線の各々の上に、3つ以上のトランスデューサ配置されている、請求項1に記載のインターフェイス装置。
  5. 前記パターンが、前記信号を送信した前記信号送信器位置によって部分的に決定される、請求項4に記載のインターフェイス装置。
  6. 前記複数のトランスデューサが、前記平面に直交する第3の直線上に配置されたトランスデューサを含む、請求項1に記載のインターフェイス装置。
  7. 前記複数のトランスデューサのそれぞれが、異なる種類の信号を送信、前記異なる種類の信号の各々が、前記複数のトランスデューサのうち前記信号に関連するトランスデューサを識別する一意的な特徴を有する、請求項1に記載のインターフェイス装置。
  8. 複数のトランスデューサを用いてオブジェクトの動きに関するパターンを検出する方法であって、前記複数のトランスデューサは、平面内で互いに直交する2つの直線上に配置され、前記複数のトランスデューサの各々が、少なくとも1つの信号送信器及びこの信号送信器に隣接して配置された少なくとも1つの信号検出器を含む方法において、
    前記信号送信器を使用して、前記平面上に位置する三次元検出空間内に信号を送信するステップと、
    前記信号検出器を使用して、前記三次元検出空間内のオブジェクトによって反射された複数の前記信号を受信するステップであって、前記複数の信号の少なくとも1つが、前記平面上にある前記オブジェクトの、前記平面に対する垂直距離を表すステップと、
    電子制御システムを使用して、前記送信された信号の一意的な特徴に、部分的に基づいて、前記信号送信器を識別するステップと、
    前記電子制御システムを使用して、前記オブジェクトの前記垂直距離の変化に関連する第1速度を計算するステップであって、前記第1速度は、部分的に、前記送信された信号及び前記受信した複数の信号に共に関連する情報の時間的比較から計算するステップと、
    前記電子制御システムを使用して、前記検出空間内の前記オブジェクトの動きに関するパターンを、前記信号送信器の識別に部分的に基づいて検出するステップと、
    前記電子制御システムを使用して、前記検出したパターン及び前記オブジェクトの前記第1速度に共に対応する、前記インターフェイス装置の第1コマンドをルックアップテーブルから選択するステップと、
    前記電子制御システムを使用して、前記検出空間内の前記オブジェクトの前記垂直距離の第2の変化に関連する第2速度を計算するステップであって、前記第2速度は、前記第1速度より大きいステップと、
    前記電子制御システムを使用して、前記検出したパターン及び前記オブジェクトの前記第2速度に共に対応する、前記インターフェイス装置の第2コマンドを前記ルックアップテーブルから選択するステップであって、前記第2コマンドは前記第1コマンドと異なるステップと
    を含む方法。
  9. 前記一意的な特徴が、前記信号の波長を含む、請求項8に記載の方法。
  10. さらに、前記電子制御システムを使用して、前記識別した信号送信器からの信号以外の前記複数の信号に関連する波長の強度を低減して、前記検出空間内の背景雑音を抑えるステップを含む、請求項9に記載の方法。
  11. さらに、
    前記電子制御システムを使用して、前記検出したパターンを、ジェスチャ・ライブラリ中に記憶されたジェスチャデータと比較するステップと、
    前記電子制御システムを使用して、前記比較における最低相関距離に応じて、前記第1コマンドを、前記検出したパターンに関連付けるステップと
    を含む、請求項8に記載の方法。
  12. さらに、前記電子制御システムを使用して、最大相関閾値距離を識別するステップであって、前記最低相関距離が前記最大相関閾値距離より小さい場合に、前記第1コマンドを選択するステップを含む、請求項8に記載の方法。
  13. さらに、
    前記信号送信器を使用して、前記信号を一意的な変調コードで変調するステップと、
    前記信号検出器を使用して、前記変調した信号を復調して、前記複数の信号から前記信号を特定するステップと
    を含む、請求項8に記載の方法。
  14. さらに、
    前記電子制御システムを使用して、前記オブジェクトの前記垂直距離の変化を、ズーム操作に関連付けるステップと
    を含む、請求項8に記載の方法。
  15. さらに、前記電子制御システムを使用して、前記検出したパターンが認識されていることを示す可聴のフィードバックを提供するステップを含む、請求項8に記載の方法。
  16. 前記オブジェクトが、ユーザの手、ユーザの頭、またはユーザの脚である、請求項8に記載の方法。
  17. さらに、
    前記電子制御システムを使用して、音声入力を受信するステップと、
    前記電子制御システムを使用して、前記検出したパターン及び前記音声入力に共に対応する第3コマンドを選択するステップと
    を含む、請求項8に記載の方法。
  18. 前記音声入力をユーザから受信する、請求項17に記載の方法。
  19. 前記最低相関距離が前記最大相関閾値距離より大きい場合に、コマンドを選択しない、請求項12に記載の方法。
  20. 前記オブジェクトの前記垂直距離の変化を、前記信号の送信と前記信号の受信との間の時間長により識別する、請求項1に記載のインターフェイス装置。
  21. 前記オブジェクトの前記垂直距離の変化を、前記オブジェクトから反射されて検出された前記信号により識別する、請求項1に記載のインターフェイス装置。
  22. 前記第2コマンドがズーム機能のコマンドを含む、請求項1に記載のインターフェイス装置。
  23. 前記オブジェクトの前記垂直距離の変化が、前記平面にほぼ直交する方向の変化である、請求項1に記載のインターフェイス装置。
  24. 複数のトランスデューサを用いてオブジェクトの動きに関するパターンを検出する方法であって、前記複数のトランスデューサは、平面内で互いに直交する2つの直線上に配置され、前記複数のトランスデューサの各々が、少なくとも1つの信号送信器及びこの信号送信器に隣接して配置された少なくとも1つの信号検出器を含む方法において、
    前記信号送信器を使用して、信号を検出空間内に送信するステップと、
    前記信号検出器を使用して、前記検出空間内のオブジェクトによって反射された複数の前記信号を受信するステップであって、前記複数の信号の少なくとも1つが、前記平面上にある前記オブジェクトの、前記平面に対する垂直距離を表すステップと、
    電子制御システムを使用して、前記送信された信号の一意的な特徴に、部分的に基づいて、前記信号送信器を識別するステップと、
    前記電子制御システムを使用して、前記検出空間内の前記オブジェクトの動きに関するパターンを、前記信号送信器の識別に部分的に基づいて検出するステップと、
    前記電子制御システムを使用して、前記オブジェクトの垂直距離の変化に関連する速度を検出するステップであって、前記垂直距離の変化は、前記平面に直交する方向の変化であるステップと、
    前記検出したパターン、及び前記オブジェクトの前記垂直距離の変化に関連する速度に共に対応する、前記インターフェイス装置のコマンドをルックアップテーブルから選択するステップと、
    を含む方法。
  25. 前記コマンドがズーム機能のコマンドを含む、請求項24に記載の方法。
  26. 前記第1速度が、前記オブジェクトの動きの一時停止を識別する、請求項8に記載の方法。
JP2006530485A 2003-05-15 2004-05-12 非接触ヒューマンコンピュータインターフェイス Expired - Fee Related JP4771951B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB0311177.0A GB0311177D0 (en) 2003-05-15 2003-05-15 Non contact human-computer interface
GB0311177.0 2003-05-15
PCT/GB2004/002022 WO2004102301A2 (en) 2003-05-15 2004-05-12 Non contact human-computer interface

Publications (2)

Publication Number Publication Date
JP2007503653A JP2007503653A (ja) 2007-02-22
JP4771951B2 true JP4771951B2 (ja) 2011-09-14

Family

ID=9958135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006530485A Expired - Fee Related JP4771951B2 (ja) 2003-05-15 2004-05-12 非接触ヒューマンコンピュータインターフェイス

Country Status (6)

Country Link
US (1) US20060238490A1 (ja)
EP (1) EP1623296A2 (ja)
JP (1) JP4771951B2 (ja)
CN (1) CN100409159C (ja)
GB (1) GB0311177D0 (ja)
WO (1) WO2004102301A2 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4572615B2 (ja) * 2004-07-27 2010-11-04 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
US7847787B1 (en) * 2005-11-12 2010-12-07 Navisense Method and system for directing a control action
JP2009517728A (ja) * 2005-11-25 2009-04-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像の非接触操作方法
US8578282B2 (en) * 2006-03-15 2013-11-05 Navisense Visual toolkit for a virtual user interface
TW200828077A (en) * 2006-12-22 2008-07-01 Asustek Comp Inc Video/audio playing system
WO2008132546A1 (en) * 2007-04-30 2008-11-06 Sony Ericsson Mobile Communications Ab Method and algorithm for detecting movement of an object
US7980141B2 (en) 2007-07-27 2011-07-19 Robert Connor Wearable position or motion sensing systems or methods
JP5628144B2 (ja) * 2008-03-18 2014-11-19 エリプティック・ラボラトリーズ・アクシェルスカブElliptic Laboratories As 目的物及び動作検出
EP2120129A1 (en) * 2008-05-16 2009-11-18 Everspring Industry Co. Ltd. Method for controlling an electronic device through infrared detection
US20090298419A1 (en) * 2008-05-28 2009-12-03 Motorola, Inc. User exchange of content via wireless transmission
GB0810179D0 (en) * 2008-06-04 2008-07-09 Elliptic Laboratories As Object location
US20100013763A1 (en) * 2008-07-15 2010-01-21 Sony Ericsson Mobile Communications Ab Method and apparatus for touchless input to an interactive user device
KR20100048090A (ko) * 2008-10-30 2010-05-11 삼성전자주식회사 터치와 모션을 통해 제어 명령을 생성하는 인터페이스 장치, 인터페이스 시스템 및 이를 이용한 인터페이스 방법
US8448094B2 (en) * 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US9400559B2 (en) * 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US9383823B2 (en) * 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
EP3470963B1 (en) * 2009-07-07 2021-03-10 Elliptic Laboratories AS Control using movements
US9367178B2 (en) * 2009-10-23 2016-06-14 Elliptic Laboratories As Touchless interfaces
EP2550579A4 (en) * 2010-03-24 2015-04-22 Hewlett Packard Development Co GESTURE ALLOCATION FOR ONE DISPLAY DEVICE
WO2011123833A1 (en) * 2010-04-01 2011-10-06 Yanntek, Inc. Immersive multimedia terminal
FR2960076B1 (fr) * 2010-05-12 2012-06-15 Pi Corporate Procede et systeme d'acquisition sans contact des mouvements d'un objet.
US8907929B2 (en) * 2010-06-29 2014-12-09 Qualcomm Incorporated Touchless sensing and gesture recognition using continuous wave ultrasound signals
US8710968B2 (en) 2010-10-07 2014-04-29 Motorola Mobility Llc System and method for outputting virtual textures in electronic devices
US20120095575A1 (en) * 2010-10-14 2012-04-19 Cedes Safety & Automation Ag Time of flight (tof) human machine interface (hmi)
US10917431B2 (en) 2010-11-29 2021-02-09 Biocatch Ltd. System, method, and device of authenticating a user based on selfie image or selfie video
US10949514B2 (en) 2010-11-29 2021-03-16 Biocatch Ltd. Device, system, and method of differentiating among users based on detection of hardware components
US10897482B2 (en) * 2010-11-29 2021-01-19 Biocatch Ltd. Method, device, and system of back-coloring, forward-coloring, and fraud detection
US10069837B2 (en) 2015-07-09 2018-09-04 Biocatch Ltd. Detection of proxy server
US20190158535A1 (en) * 2017-11-21 2019-05-23 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US11223619B2 (en) 2010-11-29 2022-01-11 Biocatch Ltd. Device, system, and method of user authentication based on user-specific characteristics of task performance
US10834590B2 (en) 2010-11-29 2020-11-10 Biocatch Ltd. Method, device, and system of differentiating between a cyber-attacker and a legitimate user
US10621585B2 (en) 2010-11-29 2020-04-14 Biocatch Ltd. Contextual mapping of web-pages, and generation of fraud-relatedness score-values
US20240080339A1 (en) * 2010-11-29 2024-03-07 Biocatch Ltd. Device, System, and Method of Detecting Vishing Attacks
US10728761B2 (en) * 2010-11-29 2020-07-28 Biocatch Ltd. Method, device, and system of detecting a lie of a user who inputs data
US11210674B2 (en) 2010-11-29 2021-12-28 Biocatch Ltd. Method, device, and system of detecting mule accounts and accounts used for money laundering
EP2581814A1 (en) 2011-10-14 2013-04-17 Elo Touch Solutions, Inc. Method for detecting a touch-and-hold touch event and corresponding device
CN202920568U (zh) * 2011-11-20 2013-05-08 宁波蓝野医疗器械有限公司 牙椅操作系统
US9563278B2 (en) * 2011-12-19 2017-02-07 Qualcomm Incorporated Gesture controlled audio user interface
WO2013175484A2 (en) * 2012-03-26 2013-11-28 Tata Consultancy Services Limited A multimodal system and method facilitating gesture creation through scalar and vector data
US9588582B2 (en) 2013-09-17 2017-03-07 Medibotics Llc Motion recognition clothing (TM) with two different sets of tubes spanning a body joint
AU2013204058A1 (en) * 2012-06-28 2014-01-16 Apolon IVANKOVIC An interface system for a computing device and a method of interfacing with a computing device
DE102012110460A1 (de) 2012-10-31 2014-04-30 Audi Ag Verfahren zum Eingeben eines Steuerbefehls für eine Komponente eines Kraftwagens
US9459696B2 (en) 2013-07-08 2016-10-04 Google Technology Holdings LLC Gesture-sensitive display
US10037542B2 (en) 2013-11-14 2018-07-31 Wells Fargo Bank, N.A. Automated teller machine (ATM) interface
US9864972B2 (en) 2013-11-14 2018-01-09 Wells Fargo Bank, N.A. Vehicle interface
US10021247B2 (en) 2013-11-14 2018-07-10 Wells Fargo Bank, N.A. Call center interface
EP3230832A4 (en) * 2014-12-08 2018-06-20 Rohit Seth Wearable wireless hmi device
GB2539705B (en) 2015-06-25 2017-10-25 Aimbrain Solutions Ltd Conditional behavioural biometrics
CN104959984A (zh) * 2015-07-15 2015-10-07 深圳市优必选科技有限公司 一种智能机器人的控制系统
GB2552032B (en) 2016-07-08 2019-05-22 Aimbrain Solutions Ltd Step-up authentication
WO2018231977A1 (en) * 2017-06-13 2018-12-20 Spectrum Brands, Inc. Electronic faucet with smart features
GB2587395B (en) * 2019-09-26 2023-05-24 Kano Computing Ltd Control input device
US11952087B2 (en) 2020-12-11 2024-04-09 Alessandra E. Myslinski Smart apparel and backpack system
US11606353B2 (en) 2021-07-22 2023-03-14 Biocatch Ltd. System, device, and method of generating and utilizing one-time passwords
WO2023175162A1 (fr) * 2022-03-18 2023-09-21 Embodme Dispositif et procede de detection d'un objet au-dessus d'une surface de detection
FR3133688A1 (fr) * 2022-03-18 2023-09-22 Embodme Dispositif et procede de generation d’un nuage de points d’un objet au-dessus d’une surface de detection

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5513445A (en) * 1978-07-14 1980-01-30 Agency Of Ind Science & Technol Cubic pattern reading/display unit
JPH07230352A (ja) * 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
JPH0991079A (ja) * 1995-09-28 1997-04-04 Toshiba Corp 情報入力装置および画像処理方法
JPH11237949A (ja) * 1998-02-24 1999-08-31 Fujitsu General Ltd 3次元超音波ディジタイザシステム
JPH11265241A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 情報入力装置および情報入力方法および記録媒体
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP2002351605A (ja) * 2001-05-28 2002-12-06 Canon Inc 座標入力装置
JP2003067108A (ja) * 2001-08-23 2003-03-07 Hitachi Ltd 情報表示装置とその操作認識方法
JP2003511799A (ja) * 1999-10-08 2003-03-25 シナプティクス インコーポレイテッド 電子デバイスのためのフレキシブルで透明な接触検出システム

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3621268A (en) * 1967-12-19 1971-11-16 Int Standard Electric Corp Reflection type contactless touch switch having housing with light entrance and exit apertures opposite and facing
US4459476A (en) * 1982-01-19 1984-07-10 Zenith Radio Corporation Co-ordinate detection system
US4578674A (en) * 1983-04-20 1986-03-25 International Business Machines Corporation Method and apparatus for wireless cursor position control
US4654648A (en) * 1984-12-17 1987-03-31 Herrington Richard A Wireless cursor control system
US5059959A (en) * 1985-06-03 1991-10-22 Seven Oaks Corporation Cursor positioning method and apparatus
JPH02199526A (ja) * 1988-10-14 1990-08-07 David G Capper 制御インターフェース装置
US5050134A (en) * 1990-01-19 1991-09-17 Science Accessories Corp. Position determining apparatus
US5367315A (en) * 1990-11-15 1994-11-22 Eyetech Corporation Method and apparatus for controlling cursor movement
DE4040225C2 (de) * 1990-12-15 1994-01-05 Leuze Electronic Gmbh & Co Reflexions-Lichttaster
US5347275A (en) * 1991-10-03 1994-09-13 Lau Clifford B Optical pointer input device
US5397890A (en) * 1991-12-20 1995-03-14 Schueler; Robert A. Non-contact switch for detecting the presence of operator on power machinery
ES2093393T3 (es) * 1993-04-02 1996-12-16 Flowtec Ag Teclado optoelectronico.
US5844415A (en) * 1994-02-03 1998-12-01 Massachusetts Institute Of Technology Method for three-dimensional positions, orientation and mass distribution
EP0745240B1 (en) * 1994-02-15 1999-05-12 MONAMED MEDIZINTECHNIK GmbH A computer pointing device
JPH0863326A (ja) * 1994-08-22 1996-03-08 Hitachi Ltd 画像処理装置及び方法
EP0941600B1 (de) * 1996-05-29 2003-12-03 Deutsche Telekom AG Einrichtung zur eingabe von informationen
JP2960013B2 (ja) * 1996-07-29 1999-10-06 慧 清野 移動物体の検出用目盛及びこれを用いた移動物体の検出装置
US5990865A (en) * 1997-01-06 1999-11-23 Gard; Matthew Davis Computer interface device
DE19708240C2 (de) * 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
US6747632B2 (en) * 1997-03-06 2004-06-08 Harmonic Research, Inc. Wireless control device
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6130663A (en) * 1997-07-31 2000-10-10 Null; Nathan D. Touchless input method and apparatus
US5998727A (en) * 1997-12-11 1999-12-07 Roland Kabushiki Kaisha Musical apparatus using multiple light beams to control musical tone signals
US6057540A (en) * 1998-04-30 2000-05-02 Hewlett-Packard Co Mouseless optical and position translation type screen pointer control for a computer system
JP4016526B2 (ja) * 1998-09-08 2007-12-05 富士ゼロックス株式会社 3次元物体識別装置
US6256022B1 (en) * 1998-11-06 2001-07-03 Stmicroelectronics S.R.L. Low-cost semiconductor user input device
US6222465B1 (en) * 1998-12-09 2001-04-24 Lucent Technologies Inc. Gesture-based computer interface
US6313825B1 (en) * 1998-12-28 2001-11-06 Gateway, Inc. Virtual input device
JP4332649B2 (ja) * 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US6552713B1 (en) * 1999-12-16 2003-04-22 Hewlett-Packard Company Optical pointing device
DE10001955A1 (de) * 2000-01-18 2001-07-19 Gerd Reime Opto-elektronischer Schalter
US6955603B2 (en) * 2001-01-31 2005-10-18 Jeffway Jr Robert W Interactive gaming device capable of perceiving user movement
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US7184026B2 (en) * 2001-03-19 2007-02-27 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Impedance sensing screen pointing device
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
DE10133823A1 (de) * 2001-07-16 2003-02-27 Gerd Reime Optoelektronische Vorrichtung zur Positions- und Bewegungserfassung sowie zugehöriges Verfahren
US6927384B2 (en) * 2001-08-13 2005-08-09 Nokia Mobile Phones Ltd. Method and device for detecting touch pad unit
DE10146996A1 (de) * 2001-09-25 2003-04-30 Gerd Reime Schaltung mit einer optoeleketronischen Anzeigeeinhalt
US7340077B2 (en) * 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
US7098896B2 (en) * 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5513445A (en) * 1978-07-14 1980-01-30 Agency Of Ind Science & Technol Cubic pattern reading/display unit
JPH07230352A (ja) * 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
JPH0991079A (ja) * 1995-09-28 1997-04-04 Toshiba Corp 情報入力装置および画像処理方法
JPH11237949A (ja) * 1998-02-24 1999-08-31 Fujitsu General Ltd 3次元超音波ディジタイザシステム
JPH11265241A (ja) * 1998-03-17 1999-09-28 Toshiba Corp 情報入力装置および情報入力方法および記録媒体
JP2003511799A (ja) * 1999-10-08 2003-03-25 シナプティクス インコーポレイテッド 電子デバイスのためのフレキシブルで透明な接触検出システム
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP2002351605A (ja) * 2001-05-28 2002-12-06 Canon Inc 座標入力装置
JP2003067108A (ja) * 2001-08-23 2003-03-07 Hitachi Ltd 情報表示装置とその操作認識方法

Also Published As

Publication number Publication date
CN1973258A (zh) 2007-05-30
EP1623296A2 (en) 2006-02-08
WO2004102301A3 (en) 2006-06-08
WO2004102301A2 (en) 2004-11-25
CN100409159C (zh) 2008-08-06
JP2007503653A (ja) 2007-02-22
GB0311177D0 (en) 2003-06-18
US20060238490A1 (en) 2006-10-26

Similar Documents

Publication Publication Date Title
JP4771951B2 (ja) 非接触ヒューマンコンピュータインターフェイス
US20210365124A1 (en) Radar-Enabled Sensor Fusion
US11561519B2 (en) Systems and methods of gestural interaction in a pervasive computing environment
US11914792B2 (en) Systems and methods of tracking moving hands and recognizing gestural interactions
US6597443B2 (en) Spatial tracking system
US8169404B1 (en) Method and device for planary sensory detection
US5686942A (en) Remote computer input system which detects point source on operator
US8226237B2 (en) Apparatus and method for monitoring the position of a subject's hand
US7834847B2 (en) Method and system for activating a touchless control
RU2546063C2 (ru) Электронное устройство с узлом восприятия и способ интерпретации смещенных жестов
US20140078318A1 (en) Electronic Device with Sensing Assembly and Method for Interpreting Consecutive Gestures
JP2012515966A (ja) 物体の挙動を監視するためのデバイスおよび方法
JP5186263B2 (ja) 超音波システム
EP1417675A2 (en) Computer input device
US20200379551A1 (en) Backscatter hover detection
CN107850969A (zh) 用于在触摸板上检测手势的装置和方法
US20240201794A1 (en) Systems and methods of tracking moving hands and recognizing gestural interactions
KR101904223B1 (ko) 적외선 조명과 재귀반사시트를 이용한 리모트 컨트롤러 제어 방법 및 그 장치
KR20100040025A (ko) 지문인식을 통한 컨트롤 키 제어 장치
EP2120129A1 (en) Method for controlling an electronic device through infrared detection
US20090289188A1 (en) Method for controlling an electronic device through infrared detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070509

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20090703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100216

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100422

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100430

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20101029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4771951

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees