JP2011517584A - 目的物及び動作検出 - Google Patents
目的物及び動作検出 Download PDFInfo
- Publication number
- JP2011517584A JP2011517584A JP2011500289A JP2011500289A JP2011517584A JP 2011517584 A JP2011517584 A JP 2011517584A JP 2011500289 A JP2011500289 A JP 2011500289A JP 2011500289 A JP2011500289 A JP 2011500289A JP 2011517584 A JP2011517584 A JP 2011517584A
- Authority
- JP
- Japan
- Prior art keywords
- matrix
- signal
- filter
- impulse responses
- impulse response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/50—Systems of measurement, based on relative movement of the target
- G01S15/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
- G01S15/62—Sense-of-movement determination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/043—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using propagating acoustic waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S15/00—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
- G01S15/02—Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
- G01S15/04—Systems determining presence of a target
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04106—Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L25/00—Baseband systems
- H04L25/02—Details ; arrangements for supplying electrical power along data transmission lines
- H04L25/0202—Channel estimation
- H04L25/0204—Channel estimation of multiple channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L25/00—Baseband systems
- H04L25/02—Details ; arrangements for supplying electrical power along data transmission lines
- H04L25/0202—Channel estimation
- H04L25/024—Channel estimation channel estimation algorithms
- H04L25/0242—Channel estimation channel estimation algorithms using matrix methods
Abstract
Description
夫々の時間フレームで複数の送信信号を送信するステップと、
複数の受信信号を受信するステップであって、上記受信信号のうち少なくとも一部は上記手から反射されたものである、ステップと、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定するステップと、
近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定するステップと、
上記手の動きに対応するパターンに対する上記マトリクスを分析するステップと
を含む方法である。
夫々の時間フレームで複数の送信信号を送信するように構成された送信手段と、
上記手から反射された上記受信信号のうち少なくとも一部にて、複数の受信信号を受信するように構成された受信手段と、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記手の動きに対応するパターンに対する上記マトリクスを分析するように、構成された処理手段と
を含む装置にまで、及ぶ。
ソフトウエアが、
夫々の時間フレーム内の複数の送信信号と、複数の受信信号とに対するインプットを有し、
更に、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記手の動きに対応するパターンに対する上記マトリクスを分析するように、構成されたロジックを含む、
コンピュータソフトウエアプロダクト、及びそれを坦持するキャリアにまで、及ぶ。
夫々の時間フレームで複数の送信信号を送信するステップと、
複数の受信信号を受信するステップと、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定するステップと、
近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定するステップと、
上記一つ若しくはそれ以上の目的物に対応するパターンに対する上記マトリクスを分析するステップと
を含む方法である。
夫々の時間フレームで複数の送信信号を送信するように構成された送信手段と、
複数の受信信号を受信するように構成された受信手段と、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記一つ若しくはそれ以上の目的物に対応するパターンに対する上記マトリクスを分析するように、構成された処理手段と
を含む装置に、及ぶ。
ソフトウエアが、
夫々の時間フレームの複数の送信信号と、複数の受信信号とに対するインプットを有し、
更に、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記一つ若しくはそれ以上の目的物に対応するパターンに対する上記マトリクスを分析するように、構成されたロジックを含む、
コンピュータソフトウエアプロダクト、及びそれを坦持するキャリアにまで、及ぶ。
エネルギを上記画像フィールド内に送信するステップと、
上記画像フィールドから反射されたエネルギを受信するステップと、
連続する時間間隔で一連のインパルス応答を計算するステップと、
連続動作に対応する上記インパルス応答のサブセットを選択するステップと
を含む方法を与える。本発明は、その方法を実行するように構成された装置にまで及び、上記計算するステップと上記選択するステップとを実行するように構成されたコンピュータソフトウエアプロダクトにまで及ぶ。
連続の若しくは非連続の送信信号を送信するステップと、
複数の受信信号を受信するステップと、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判別するステップと、
夫々の時間間隔に対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定するステップと、
上記目的物の一つの動作に対応するパターンを上記マトリクスから分離するステップと
を含む方法を、提供する。
連続の若しくは非連続の送信信号を送信するように構成された送信手段と、
複数の受信信号を受信するように構成された受信手段と、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判別し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記目的物の一つの動作に対応するパターンを上記マトリクスから分離するように、構成された処理手段と
を含む装置にまで、及ぶ。
ソフトウエアは、
連続の若しくは非連続の送信信号と複数の受信信号とに対するインプットを有し、
更に、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判別し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記目的物の一つの動作に対応するパターンを上記マトリクスから分離するように、構成されたロジックを含む、
コンピュータソフトウエア、及びそれを坦持するキャリアにまで、及ぶ。
送信信号を送信するステップと、
第1の時間間隔の間に第1の受信信号を受信するステップと、
上記第1の受信信号の第1の周波数構成を判別するステップと、
第2の時間間隔の間に第2の受信信号を受信するステップと、
上記第2の受信信号の第2の周波数構成を判別するステップと、
上記第1の周波数構成と上記第2の周波数構成の間に所定の差異が存在するかどうか判別するステップと
を含む方法を、提供する。
送信信号を送信するように構成された送信手段と、
第1の時間間隔の間に第1の受信信号を受信し、第2の時間間隔の間に第2の受信信号を受信するように構成された受信手段と、
上記第1の受信信号の第1の周波数構成を判別し、上記第2の受信信号の第2の周波数構成を判別し、更に、上記第1の周波数構成と上記第2の周波数構成の間に所定の差異が存在するかどうか判別するように、構成された処理手段と
を含む装置にまで、及ぶ。
ソフトウエアは、
第1の時間間隔の間の第1の受信信号と、第2の時間間隔の間の第2の受信信号とに対するインプットを有し、
更に、
上記第1の受信信号の第1の周波数構成を判別し、上記第2の受信信号の第2の周波数構成を判別し、更に、上記第1の周波数構成と上記第2の周波数構成の間に所定の差異が存在するかどうか判別するように、構成されたロジックを含む
コンピュータソフトウエアプロダクト、及びそれを坦持するキャリアにまで、及ぶ。
送信信号を送信するステップと、
第1の時間間隔の間に第1の受信信号を受信し、第2の時間間隔の間に第2の受信信号を受信するステップと、
上記第1の受信信号を所定の領域に変換するステップと、
上記第2の受信信号を上記所定の領域に変換するステップと、
上記領域の範囲内で上記第1の信号と上記第2の信号の間に所定の差異が存在するかどうか判別するステップと
を含む方法を、提供する。
継続的に若しくは連続的に送信信号を送信するステップと、
複数の時間間隔にて、センサで上記目的物から反射された信号を受信するステップと、
上記複数の時間間隔からの受信信号に基づいて画像を構築するステップと、
上記目的物の所定の動作に対応する一つ若しくはそれ以上のパターンに対する上記画像を分析するステップと
を含む方法を、提供する。
継続的に若しくは連続的に送信信号を送信する手段と、
複数の時間間隔にて、センサで上記目的物から反射された信号を受信する手段と、
上記複数の時間間隔からの受信信号に基づいて画像を構築し、上記目的物の所定の動作に対応する一つ若しくはそれ以上のパターンに対する上記画像を分析するように構成された処理手段と
を含む装置にまで、及ぶ。
ソフトウエアは、
複数の時間間隔にて、センサで上記目的物から反射された信号に対するインプットを有し、
更に、
上記複数の時間間隔からの受信信号に基づいて画像を構築し、上記目的物の所定の動作に対応する一つ若しくはそれ以上のパターンに対する上記画像を分析するように構成されたロジックを含む
コンピュータソフトウエアプロダクト、及びそれを坦持するキャリアにまでも及ぶ。
x(t)は送信信号、y(t)は受信信号、h(t)はチャネルのインパルス応答、n(t)は環境ノイズ項、*は畳み込み演算子である。
x(t+1)=x(t)+Δx(t)
ここで、局所的な線形移動を仮定している。x(t)及びx(t+1)の両方は、個々の送信器/受信器のペアに対して、即ち、個々のチャネルkに対して、飛行時間{dk(t)}及び{dk(t+1)}を生じる。特定のチャネルkに対して、dk(t)からdk(t+1)への時間遅延の変化は、インパルス応答画像内のラインと協調(一致)するのであり、以下の角を有する。
αk=tan−1{dk(t+1)−dk(t)}
従って、x(t)に位置する反射体が方向Δx(t)に実際に動いているかどうかをテストする方法は、インパルス応答画像Z1、Z2・・・Zkをチェックすることであり、個々の画像Zkは、勾配角αkのラインを有するラインフィルタでフィルタされており、時間インデクスtに対するコラム内の高エネルギを反射体が有するかどうかを見る。
上式が、画像Zkのフィルタリングについて、αkに等しい勾配の角度を有するラインフィルタを示すものであるとすると、画像W1、W2・・・Wkが、時間インデクスtに対応するコラムの高エネルギを有するかどうかが、チェックされなければならない。正確に言うと、Wk(t,d)は、t番目の時間フレーム、並びに、送信器、可能な反射ポイント及び受信器の間の(サンプルの)移動時間dにより対応する、フィルタされた画像Wkの値を示す。次に、テストのためのテストオブザーバは以下のようになる。
4・・・超音波送信器、
6・・・目的物、
8・・・超音波受信器、
10・・・プロセッサ、
12・・・ディスプレイ、
14・・・カーソル。
Claims (101)
- 人間の手の動きを認識する方法において、
夫々の時間フレームで複数の送信信号を送信するステップと、
複数の受信信号を受信するステップであって、上記受信信号のうち少なくとも一部は上記手から反射されたものである、ステップと、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定するステップと、
近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定するステップと、
上記手の動きに対応するパターンに対する上記マトリクスを分析するステップと
を含む方法。 - 画像フィールド内の一つ若しくはそれ以上の目的物の状態を判定する方法において、
夫々の時間フレームで複数の送信信号を送信するステップと、
複数の受信信号を受信するステップと、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定するステップと、
近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定するステップと、
上記一つ若しくはそれ以上の目的物に対応するパターンに対する上記マトリクスを分析するステップと
を含む方法。 - 個々の送信信号が、一連のパルスである、請求項1又は2に記載の方法。
- 個々の送信信号が、一つ若しくはそれ以上のチャープを含む、請求項1又は2に記載の方法。
- 計算装置の格納媒体内のデータとして上記マトリクスを記録するステップを含む、請求項1乃至4のうちのいずれか一に記載の方法。
- 夫々の時間フレームに対するインパルス応答は、静止の目的物に対応するパターンが水平ラインであるように、調整されている、請求項1乃至5のうちのいずれか一に記載の方法。
- インパルス応答マトリクスから、目的物の複数の反射ポイント若しくは部分のための動作情報を判別するステップを更に含む、請求項1乃至6のうちのいずれか一に記載の方法。
- パターンが強度輪郭を含む、請求項1乃至7のうちのいずれか一に記載の方法。
- 更に、直線ライン若しくは曲線ラインにより上記輪郭を概算するステップを含む、請求項8に記載の方法。
- 上記ラインの一つが複数のラインセグメントにより概算される、請求項9に記載の方法。
- 上記一つ若しくはそれ以上の目的物の動作を判別するために、上記ラインを分析する、請求項9又は10に記載の方法。
- 連続性があるライン、勾配しきい値より低い勾配を有するライン、及び、曲率しきい値より低い曲率を有するラインからなるグループから選択された、上記ラインの一つの特性を識別するステップを、更に含む請求項9乃至11のうちのいずれか一に記載の方法。
- 上記マトリクスを分析することにより複数の目的物の動作を追跡するステップを、更に含む請求項1乃至12のうちのいずれか一に記載の方法。
- しきい値以上の、チャネルインパルス応答、若しくはそのうちの所定の部位における、集合的変化を検出することにより、目的物の動作を判別するステップを、更に含む請求項1乃至13のうちのいずれか一に記載の方法。
- 上記一つ若しくはそれ以上の目的物のサイズ、形状若しくは反射率を判別するステップを、更に含む請求項1乃至14のうちのいずれか一に記載の方法。
- 曲線フィルタ、ラインフィルタ、直線フィルタ、正弦曲線フィルタ、エッジフィルタ、アップサンプリングフィルタ、ダウンサンプリングフィルタ、リサンプリングフィルタ、ハフ変換、ウエーブレット変換、ランダム変換、ピタウ(pi−tau)変換、フーリエ変換、非整数次フーリエ変換、コラム−シフト、コラムの移動平均、ローリング平均、無限インパルス応答フィルタ、及びサブバンドコーディングに基づくフィルタからなるグループから選択された一つ若しくはそれ以上の関数を、上記マトリクス若しくは上記マトリクスの一部に適用するステップを、含む請求項1乃至15のうちのいずれか一に記載の方法。
- 非水平平均フィルタを、上記マトリクス若しくは上記マトリクスの一部に適用するステップを、含む請求項1乃至16のうちのいずれか一に記載の方法。
- 複数のフィルタを上記マトリクスに適用するステップと、
上記マトリクスの所与の領域の全体において、若しくは上記マトリクスの所与の領域の範囲内で、最も強い結果を与えるフィルタを判別するために、上記複数のフィルタのアウトプットを比較するステップと
を含む請求項1乃至17のうちのいずれか一に記載の方法。 - 上記マトリクスに適用されたフィルタのアウトプットがしきい値をこうるかどうかを判別するステップを含む、請求項1乃至18のうちのいずれか一に記載の方法。
- 上記ラインのエッジにおいて、ロールオフを有するラインフィルタを上記マトリクスに適用するステップを含む、請求項1乃至19のうちのいずれか一に記載の方法。
- しきい値確率を超えるノイズの確率を有するコラム、ロー若しくはエントリを除去する適応異常値フィルタを上記マトリクスに適用するステップを含む、請求項1乃至20のうちのいずれか一に記載の方法。
- 上記マトリクスのサブブロックを基本ブロックのセットに適合する、若しくは、上記マトリクスのサブブロックを基本ブロックのセットにスライドするステップを、含む請求項1乃至21のうちのいずれか一に記載の方法。
- フィルタマスクを、送信信号の帯域幅を表すシンク信号により畳み込むステップと、上記畳み込まれたフィルタマスク上記マトリクスに適用するステップを、含む請求項1乃至22のうちのいずれか一に記載の方法。
- 目的物の動作の位相、方向及び振幅を捕らえる複素フィルタを上記マトリクスに適用するステップを含む請求項1乃至23のうちのいずれか一に記載の方法。
- 上記マトリクスの複数のラインを組み合わせてより少ない数のラインとするフィルタマスクを上記マトリクスに適用するステップを含む、請求項1乃至24のうちのいずれか一に記載の方法。
- 上記マトリクスを、フーリエ変換領域、非整数次フーリエ変換領域、若しくは時間領域に変換するステップと、上記変換されたマトリクスにフィルタを適用するステップを、含む 請求項1乃至25のうちのいずれか一に記載の方法。
- フィルタを一つ若しくはそれ以上の受信信号に適用するステップと、上記フィルタされた受信信号を用いてインパルス応答のマトリクスを定義するステップを、含む請求項1乃至26のうちのいずれか一に記載の方法。
- パターンに対する上記マトリクスを分析する上記のステップは、上記マトリクスの夫々の部位に整合されたフィルタのシーケンスを記録するステップと、上記マトリクス内の特徴パターンを特定するために上記シーケンスを一つ若しくはそれ以上の所与のシーケンスと比較するステップを、含む請求項1乃至27のうちのいずれか一に記載の方法。
- 上記特徴パターンは、特定のジェスチャに対応する、請求項28に記載の方法。
- 上記特定のジェスチャは、人間の指若しくは手による、リズミカルな振り若しくは招きジェスチャである、請求項29に記載の方法。
- 上記所定のシーケンスが、フィルタのセットのシーケンスを含み、的確な上記セットからのどのフィルタもシーケンスを満足し得る、請求項28乃至30のうちのいずれか一に記載の方法。
- フィルタの上記シーケンスが、所定の角度におけるラインフィルタのシーケンスから成る、請求項28乃至31のうちのいずれか一に記載の方法。
- 上記マトリクスの特定領域を抑えるために、フィルタをマトリクスに適用するステップを含む、請求項1乃至32のうちのいずれか一に記載の方法。
- 複数の受信手段の各々において、複数の受信信号を受信するステップと、個々の受信手段に対するインパルス応答のマトリクスを規定するステップを、含む請求項1乃至33のうちのいずれか一に記載の方法。
- フィルタを上記マトリクスの各々に適用するステップを含み、ここで個々のマトリクスに適用されるフィルタは、上記一つ若しくはそれ以上の目的物に対する共通速度推測から適合される、請求項1乃至34のうちのいずれか一に記載の方法。
- 複数の受信手段の各々において、複数の受信信号を受信するステップと、夫々の人為的遅延を受信手段の少なくとも一部のインパルス応答に加え、これにより、受信手段の位置と夫々の遅延により規定される対応するビームの範囲内から発するエコーにのみ、上記分析が、感度を有することとなる、ステップを、含む請求項1乃至35のうちのいずれか一に記載の方法。
- 上記人為的遅延のパターンを順応的に変更するステップを含む、請求項36に記載の方法。
- 上記人為的遅延のパターンに重み付けを適用する、請求項36又は37に記載の方法。
- 目的物を追跡するステップと、追跡される目的物の予測された動作を判別するステップと、上記予測された動作に基づいて上記対応するビームの方向を調整するステップと、を含む請求項36乃至38のうちのいずれか一に記載の方法。
- 夫々の異なる遅延の後、複数の送信手段の各々から複数の送信し信号ン号を送信するステップを含む、請求項1乃至39のうちのいずれか一に記載の方法。
- 上記複数の送信信号は、非送信の期間が散在する離散インパルスを含む、請求項1乃至40のうちのいずれか一に記載の方法。
- 上記複数の送信信号は、連続送信を構成する、請求項1乃至40のうちのいずれか一に記載の方法
- 。
上記連続送信は、時間スロットの期間に基づいて、若しくは、時間スロットの多数の期間に基づいて、定期的に繰り返す、請求項42に記載の方法。 - 請求項1乃至44のうちのいずれか一に記載の方法を用いるステップを含む、電子装置の少なくとも一つの操作を制御する方法。
- 人間の手の動作を認識するための装置において、
夫々の時間フレームで複数の送信信号を送信するように構成された送信手段と、
上記手から反射された上記受信信号のうち少なくとも一部にて、複数の受信信号を受信するように構成された受信手段と、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記手の動きに対応するパターンに対する上記マトリクスを分析するように、構成された処理手段と
を含む装置。 - 画像フィールド内の一つ若しくはそれ以上の目的物の状態を判定する装置において、
夫々の時間フレームで複数の送信信号を送信するように構成された送信手段と、
複数の受信信号を受信するように構成された受信手段と、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記一つ若しくはそれ以上の目的物に対応するパターンに対する上記マトリクスを分析するように、構成された処理手段と
を含む装置。 - 複数の送信器及び受信器のペアを含む、請求項45又は46に記載の装置。
- コンピュータ上で稼動する際、画像フィールド内の一つ若しくはそれ以上の目的物の状態を判定するように構成されたコンピュータソフトウエアプロダクトにおいて、
ソフトウエアは、
夫々の時間フレームの複数の送信信号と、複数の受信信号とに対するインプットを有し、
更に、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記一つ若しくはそれ以上の目的物に対応するパターンに対する上記マトリクスを分析するように、構成されたロジックを含む、
コンピュータソフトウエアプロダクト。 - 一つ若しくはそれ以上の他の目的物が存在する画像フィールド内の目的物を追跡する方法において、
エネルギを上記画像フィールド内に送信するステップと、
上記画像フィールドから反射されたエネルギを受信するステップと、
連続する時間間隔で一連のインパルス応答を計算するステップと、
連続動作に対応する上記インパルス応答のサブセットを選択するステップと
を含む方法。 - 上記送信されたエネルギが間欠的である、請求項49に記載の方法。
- 一つ若しくはそれ以上の他の目的物が存在する画像フィールド内の目的物を追跡する装置において、
エネルギを上記画像フィールド内に送信するように構成された送信手段と、
上記画像フィールドから反射されたエネルギを受信するように構成された受信手段と、
連続する時間間隔で一連のインパルス応答を計算し、連続動作に対応する上記インパルス応答のサブセットを選択するように構成された、処理手段と
を含む装置。 - コンピュータ上で稼動する際、一つ若しくはそれ以上の他の目的物が存在する画像フィールド内の目的物を追跡するように構成されたコンピュータソフトウエアプロダクトにおいて、
ソフトウエアは、
エネルギの送信と反射されたエネルギの受信とに対するインプットを有し、
更に、
連続する時間間隔で一連のインパルス応答を計算し、連続動作に対応する上記インパルス応答のサブセットを選択するように、構成されたロジックを含む、
コンピュータソフトウエアプロダクト。 - 画像フィールド内の一つ若しくはそれ以上の目的物の動作を判別する方法において、
連続の若しくは非連続の送信信号を送信するステップと、
複数の受信信号を受信するステップと、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判別するステップと、
夫々の時間間隔に対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定するステップと、
上記目的物の一つの動作に対応するパターンを上記マトリクスから分離するステップと
を含む方法。 - 周波数領域で上記インパルス応答を分析するステップを含む、請求項1乃至44、49、50、53のうちのいずれか一に記載の方法。
- 周波数領域で上記インパルス応答の振幅スペクトラムを分析するステップを含む、請求項1乃至44、49、50、53、54のうちのいずれか一に記載の方法。
- 上記インパルス応答の周波数スペクトラムにおける経時的な変化を判別するステップを含む、請求項1乃至44、49、50、53のうちのいずれか一に記載の方法。
- 周波数領域で上記インパルス応答を分析するステップと、そこから目的物がその形状を変化させていること若しくは変化させていたことを判別するステップを含む、請求項1乃至44、49、50、53乃至56のうちのいずれか一に記載の方法。
- 一つ若しくはそれ以上の目的物が、人間の手若しくはその一部を含む、請求項1乃至44、49、50、53乃至57のうちのいずれか一に記載の方法。
- 目的物を追跡するステップと、上記追跡するステップに応答して電子装置を制御するステップを、含む請求項1乃至44、49、50、53乃至58のうちのいずれか一に記載の方法。
- ユーザの指の動作を追跡するステップと、上記追跡するステップに応答してグラフィックユーザインタフェースにより装置上のカーソルを制御するステップを、含む請求項1乃至44、49、50、53乃至59のうちのいずれか一に記載の方法。
- 一緒に若しくは離れて動作する2本のユーザの指を検出するステップを含む、請求項1乃至44、49、50、53乃至60のうちのいずれか一に記載の方法。
- 上記の一緒に若しくは離れて動作することが、上記マトリクスの夫々の半分若しくは一部で、異なる方向の動作から識別される、請求項61に記載の方法。
- 時間領域で目的物の形状の変化を検出するステップを含む、請求項1乃至44、49、50、53乃至62のうちのいずれか一に記載の方法。
- 形状の変化を検出する上記ステップは、インパルス応答内の所定の変形をモニタするステップを含む、請求項63に記載の方法。
- 画像フィールド内で一つ若しくはそれ以上の目的物の動作を判別する装置において、
連続の若しくは非連続の送信信号を送信するように構成された送信手段と、
複数の受信信号を受信するように構成された受信手段と、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判別し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記目的物の一つの動作に対応するパターンを上記マトリクスから分離するように、構成された処理手段と
を含む装置。 - コンピュータ上で稼動する際、画像フィールド内で一つ若しくはそれ以上の目的物の動作を判別するように構成されたコンピュータソフトウエアプロダクトにおいて、
ソフトウエアは、
連続の若しくは非連続の送信信号と複数の受信信号とに対するインプットを有し、
更に、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判別し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記目的物の一つの動作に対応するパターンを上記マトリクスから分離するように、構成されたロジックを含む、
コンピュータソフトウエア。 - 目的物の所定の動作を識別する方法において、
送信信号を送信するステップと、
第1の時間間隔の間に第1の受信信号を受信するステップと、
上記第1の受信信号の第1の周波数構成を判別するステップと、
第2の時間間隔の間に第2の受信信号を受信するステップと、
上記第2の受信信号の第2の周波数構成を判別するステップと、
上記第1の周波数構成と上記第2の周波数構成の間に所定の差異が存在するかどうか判別するステップと
を含む方法。 - 夫々の時間フレームで複数の送信信号を送信するステップと、
複数の受信信号を受信するステップと、
受信信号の夫々の周波数構成を判別するステップと、
近接する時間フレームに対する周波数構成を相互に近接させて、周波数構成のマトリクスを規定するステップと、
上記マトリクスを分析するステップと
を含む請求項67に記載の方法。 - 上記所定の動作が、人間の手若しくはその一部のジェスチャである、請求項67又は68に記載の方法。
- ユーザのテーブルトップの構成を識別するステップと、上記構成から動作若しくはジェスチャが所定の動作として識別可能であるかどうか判別するステップと、を含む請求項67乃至69のうちのいずれか一に記載の方法。
- 目的物の所定の動作を識別する装置において、
送信信号を送信するように構成された送信手段と、
第1の時間間隔の間に第1の受信信号を受信し、第2の時間間隔の間に第2の受信信号を受信するように構成された受信手段と、
上記第1の受信信号の第1の周波数構成を判別し、上記第2の受信信号の第2の周波数構成を判別し、更に、上記第1の周波数構成と上記第2の周波数構成の間に所定の差異が存在するかどうか判別するように、構成された処理手段と
を含む装置。 - コンピュータ上で稼動する際、目的物の所定の動作を識別するように構成されたコンピュータソフトウエアプロダクトにおいて、
ソフトウエアは、
第1の時間間隔の間の第1の受信信号と、第2の時間間隔の間の第2の受信信号とに対するインプットを有し、
更に、
上記第1の受信信号の第1の周波数構成を判別し、上記第2の受信信号の第2の周波数構成を判別し、更に、上記第1の周波数構成と上記第2の周波数構成の間に所定の差異が存在するかどうか判別するように、構成されたロジックを含む
コンピュータソフトウエアプロダクト。 - 目的物の所定の動作を識別する方法において、
送信信号を送信するステップと、
第1の時間間隔の間に第1の受信信号を受信し、第2の時間間隔の間に第2の受信信号を受信するステップと、
上記第1の受信信号を所定の領域に変換するステップと、
上記第2の受信信号を上記所定の領域に変換するステップと、
上記領域の範囲内で上記第1の信号と上記第2の信号の間に所定の差異が存在するかどうか判別するステップと
を含む方法。 - 上記所定の領域が非整数次フーリエ領域若しくはウエーブレット領域である、請求項73に記載の方法。
- 目的物の所定の動作を識別する装置において、
送信信号を送信するように構成された送信手段と、
第1の時間間隔の間に第1の受信信号を受信し、第2の時間間隔の間に第2の受信信号を受信するように構成された受信手段と、
上記第1の受信信号を所定の領域に変換し、上記第2の受信信号を上記所定の領域に変換し、更に、上記領域の範囲内で上記第1の信号と上記第2の信号の間に所定の差異が存在するかどうか判別するように構成された処理手段と
を含む装置。 - コンピュータ上で稼動する際、目的物の所定の動作を識別するように構成されたコンピュータソフトウエアプロダクトにおいて、
ソフトウエアは、
第1の時間間隔の間の第1の受信信号と、第2の時間間隔の間と第2の受信信号とに対するインプットを有し、
更に、
上記第1の受信信号を所定の領域に変換し、上記第2の受信信号を上記所定の領域に変換し、更に、上記領域の範囲内で上記第1の信号と上記第2の信号の間に所定の差異が存在するかどうか判別するように構成されたロジックを含む
コンピュータソフトウエアプロダクト。 - 第1の構成の手の動作に応答するが、第2の構成にあるときテーブルトップの動作を無視するように、構成されているタッチレスコントロールシステム。
- 手の回転を検出するように構成されている請求項77に記載のシステム。
- 親指の動作を検出するように構成されている請求項77又は78に記載のシステム。
- 上記の親指の動作を検出すると、コンピュータマウスボタンのクリックをエミュレートするように構成された請求項79に記載のシステム。
- デバイスを制御する装置において、
上記デバイスの第1の作用を制御するための第1の指の動作を検出する手段と、上記デバイスの第2の作用を制御するための、上記第1の指に対する第2の指の動作を検出する手段と
を含む装置。 - 上記第1の作用が、複数の選択位置の間でセレクタを動かすことを含む、請求項81に記載の装置。
- 上記第2の作用が、上記セレクタの位置に対応する作用を含む、請求項82に記載の装置。
- 第1の指が人差し指である、請求項81乃至83のうちのいずれか一に記載の装置。
- 第2の指が親指である、請求項81乃至84のうちのいずれか一に記載の装置。
- 第1の指が静止しているときのみ、上記第2の作用が実行される、請求項81乃至85のうちのいずれか一に記載の装置。
- 目的物を識別する若しくは追跡する方法において、
継続的に若しくは連続的に送信信号を送信するステップと、
複数の時間間隔にて、センサで上記目的物から反射された信号を受信するステップと、
上記複数の時間間隔からの受信信号に基づいて画像を構築するステップと、
上記目的物の所定の動作に対応する一つ若しくはそれ以上のパターンに対する上記画像を分析するステップと
を含む方法。 - ラインフィルタを上記画像に適用するステップを含む請求項87に記載の方法。
- 上記分析するステップが、時間間隔の回転ウインドウを用いる、請求項87又は88に記載の方法。
- 目的物を識別する若しくは追跡する装置において、
継続的に若しくは連続的に送信信号を送信する手段と、
複数の時間間隔にて、センサで上記目的物から反射された信号を受信する手段と、
上記複数の時間間隔からの受信信号に基づいて画像を構築し、上記目的物の所定の動作に対応する一つ若しくはそれ以上のパターンに対する上記画像を分析するように構成された処理手段と
を含む装置。 - コンピュータ上で稼動する際、人間の手の動作を認識するように構成されたコンピュータソフトウエアプロダクトにおいて、
ソフトウエアは、
夫々の時間フレーム内の複数の送信信号と、複数の受信信号とに対するインプットを有し、
更に、
上記送信信号と上記受信信号を利用して、複数のチャネルインパルス応答を判定し、近接する時間フレームに対するインパルス応答を相互に近接させて、インパルス応答のマトリクスを規定し、更に、上記手の動きに対応するパターンに対する上記マトリクスを分析するように、構成されたロジックを含む、
コンピュータソフトウエアプロダクト。 - コンピュータ上で稼動する際、目的物を識別する若しくは追跡するように構成されたコンピュータソフトウエアプロダクトにおいて、
ソフトウエアは、
複数の時間間隔にて、センサで上記目的物から反射された信号に対するインプットを有し、
更に、
上記複数の時間間隔からの受信信号に基づいて画像を構築し、上記目的物の所定の動作に対応する一つ若しくはそれ以上のパターンに対する上記画像を分析するように構成されたロジックを含む
コンピュータソフトウエアプロダクト。 - 上記信号が超音波信号である、請求項1乃至44、49、50、53乃至64、67乃至70、73、74、87乃至89のうちのいずれか一に記載の方法。
- 上記信号が超音波信号である、請求項45乃至47、51、65、71、75、81乃至86、90のうちのいずれか一に記載の装置。
- 請求項1乃至44、49、50、53乃至64、67乃至70、73、74、87乃至89、90のうちのいずれか一に記載の方法を用いて、電子装置の少なくとも一つの操作を制御する方法。
- 更に、メモリ内に結果を格納するステップを含む、請求項1乃至44、49、50、53乃至64、67乃至70、73、74、87乃至89、93、95のうちのいずれか一に記載の方法。
- 更に、ディスプレイ装置のためのディスプレイ信号を与えるステップを含む、請求項1乃至44、49、50、53乃至64、67乃至70、73、74、87乃至89、93、95、96のうちのいずれか一に記載の方法。
- 更に、外部装置のための制御信号を与えるステップを含む、請求項1乃至44、49、50、53乃至64、67乃至70、73、74、87乃至89、93、95乃至97のうちのいずれか一に記載の方法。
- 請求項45乃至47、51、65、71、75、81乃至86、90、94のうちのいずれか一に記載の装置を含む、少なくとも一つのその装置の動作を制御するための電子デバイス。
- 超音波送信器及び分離/統合超音波受信器を含むモバイルデバイスであって、
請求項1乃至44、49、50、53乃至64、67乃至70、73、74、87乃至89、93、95乃至97のうちのいずれか一に記載の方法に従って、ユーザのテーブルトップの動作を判別することによって、少なくとも一つの操作が制御されるように構成されている、
モバイルデバイス。 - 請求項48、52、66、72、76、91、92のうちのいずれか一に記載のコンピュータソフトウエアプロダクトを坦持するキャリア。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0805053.6 | 2008-03-18 | ||
GB0805053A GB0805053D0 (en) | 2008-03-18 | 2008-03-18 | Object and movement detection |
GB0805145A GB0805145D0 (en) | 2008-03-19 | 2008-03-19 | Object and movement detection |
GB0805145.0 | 2008-03-19 | ||
PCT/GB2009/000725 WO2009115799A1 (en) | 2008-03-18 | 2009-03-18 | Object and movement detection |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011517584A true JP2011517584A (ja) | 2011-06-16 |
JP2011517584A5 JP2011517584A5 (ja) | 2012-05-10 |
JP5628144B2 JP5628144B2 (ja) | 2014-11-19 |
Family
ID=40847854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011500289A Active JP5628144B2 (ja) | 2008-03-18 | 2009-03-18 | 目的物及び動作検出 |
Country Status (7)
Country | Link |
---|---|
US (3) | US8625846B2 (ja) |
EP (2) | EP2281231B1 (ja) |
JP (1) | JP5628144B2 (ja) |
CN (1) | CN102027440A (ja) |
AU (1) | AU2009227717B2 (ja) |
CA (1) | CA2718680C (ja) |
WO (1) | WO2009115799A1 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011522271A (ja) * | 2008-06-04 | 2011-07-28 | エリプティック・ラボラトリーズ・アクシェルスカブ | 物体の位置決定 |
JP2011211334A (ja) * | 2010-03-29 | 2011-10-20 | Yamaha Corp | 音響処理装置 |
JP2015506035A (ja) * | 2011-12-19 | 2015-02-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ジェスチャ制御音声ユーザインタフェース |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1956554B1 (en) * | 2007-02-09 | 2009-10-07 | Agfa-Gevaert | Visual enhancement of interval changes using a temporal subtraction technique |
WO2009115799A1 (en) * | 2008-03-18 | 2009-09-24 | Elliptic Laboratories As | Object and movement detection |
GB0806196D0 (en) * | 2008-04-04 | 2008-05-14 | Elliptic Laboratories As | Multi-range object location estimation |
EP2486474B1 (en) | 2009-10-07 | 2020-03-04 | Elliptic Laboratories AS | User interfaces |
US9367178B2 (en) | 2009-10-23 | 2016-06-14 | Elliptic Laboratories As | Touchless interfaces |
EP2526872A4 (en) * | 2010-01-20 | 2014-04-30 | Panasonic Corp | OFFSET METHOD AND DISPLACEMENT METER |
KR101678549B1 (ko) * | 2010-02-02 | 2016-11-23 | 삼성전자주식회사 | 표면 음향 신호를 이용한 유저 인터페이스 제공 장치 및 방법, 유저 인터페이스를 구비한 디바이스 |
GB201010953D0 (en) | 2010-06-29 | 2010-08-11 | Elliptic Laboratories As | User control of electronic devices |
US8907929B2 (en) | 2010-06-29 | 2014-12-09 | Qualcomm Incorporated | Touchless sensing and gesture recognition using continuous wave ultrasound signals |
GB201013117D0 (en) | 2010-08-04 | 2010-09-22 | Elliptic Laboratories As | Control of electronic devices |
WO2012022979A1 (en) | 2010-08-19 | 2012-02-23 | Elliptic Laboratories As | Interaction with portable devices |
WO2012028884A1 (en) * | 2010-09-02 | 2012-03-08 | Elliptic Laboratories As | Motion feedback |
US8223589B2 (en) * | 2010-10-28 | 2012-07-17 | Hon Hai Precision Industry Co., Ltd. | Gesture recognition apparatus and method |
GB201021477D0 (en) | 2010-12-17 | 2011-02-02 | Elliptic Laboratories As | Signal processing |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US8776173B2 (en) | 2011-03-24 | 2014-07-08 | AYAH, Inc. | Method for generating a human likeness score |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
US10459579B2 (en) | 2011-06-13 | 2019-10-29 | Elliptic Laboratories As | Touchless interaction |
GB201116734D0 (en) | 2011-09-28 | 2011-11-09 | Elliptic Laboratories As | Improvements in touchless object motion estimation |
DE102012221260A1 (de) * | 2011-11-21 | 2013-05-23 | Continental Teves Ag & Co. Ohg | Verfahren und Vorrichtung zur kommunikationssignalbasierten Positionsermittlung von Objekten im Straßenverkehr sowie Verwendung der Vorrichtung |
CN104023644B (zh) * | 2011-12-30 | 2017-10-13 | 皇家飞利浦有限公司 | 用于在超声成像中的针可视化增强的方法和装置 |
US9383436B2 (en) | 2012-01-18 | 2016-07-05 | Tdc Acquisition Holdings, Inc. | One way time of flight distance measurement |
US9639959B2 (en) * | 2012-01-26 | 2017-05-02 | Qualcomm Incorporated | Mobile device configured to compute 3D models based on motion sensor data |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
WO2013128972A1 (ja) | 2012-03-02 | 2013-09-06 | 日本電気株式会社 | 動作判定装置、動作判定システムおよび動作判定方法 |
GB201203832D0 (en) | 2012-03-05 | 2012-04-18 | Elliptic Laboratories As | User input system |
GB201203830D0 (en) | 2012-03-05 | 2012-04-18 | Elliptic Laboratories As | Touchless user interfaces |
WO2013140130A1 (en) | 2012-03-21 | 2013-09-26 | Elliptic Laboratories As | Signal processing for acoustic user input |
US10448161B2 (en) | 2012-04-02 | 2019-10-15 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for gestural manipulation of a sound field |
CN103377647B (zh) * | 2012-04-24 | 2015-10-07 | 中国科学院声学研究所 | 一种基于音视频信息的自动音乐记谱方法及系统 |
WO2012126426A2 (zh) * | 2012-05-21 | 2012-09-27 | 华为技术有限公司 | 一种非接触式手势控制方法及装置 |
CN103473543B (zh) * | 2012-06-07 | 2016-10-05 | 富士通株式会社 | 用于提取图像中对象边界的装置、方法以及电子设备 |
US8934675B2 (en) | 2012-06-25 | 2015-01-13 | Aquifi, Inc. | Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints |
US9111135B2 (en) | 2012-06-25 | 2015-08-18 | Aquifi, Inc. | Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera |
GB201212685D0 (en) | 2012-07-17 | 2012-08-29 | Elliptic Laboratories As | Control of electronic devices |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
US9091628B2 (en) | 2012-12-21 | 2015-07-28 | L-3 Communications Security And Detection Systems, Inc. | 3D mapping with two orthogonal imaging views |
US9092665B2 (en) | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
EP2956840B1 (en) | 2013-02-15 | 2023-05-10 | Elliptic Laboratories ASA | Touchless user interfaces |
JP5862587B2 (ja) * | 2013-03-25 | 2016-02-16 | コニカミノルタ株式会社 | ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
GB201306475D0 (en) * | 2013-04-10 | 2013-05-22 | Elliptic Laboratories As | Touchless interaction devices |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
CN111258378A (zh) | 2013-08-07 | 2020-06-09 | 耐克创新有限合伙公司 | 具有姿态识别和功率管理的腕戴式运动装置 |
WO2015022498A1 (en) | 2013-08-15 | 2015-02-19 | Elliptic Laboratories As | Touchless user interfaces |
WO2015035270A1 (en) * | 2013-09-06 | 2015-03-12 | Tdc Acquisition Holdings, Inc. | One way time of flight distance measurement |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
EP3116616B1 (en) * | 2014-03-14 | 2019-01-30 | Sony Interactive Entertainment Inc. | Gaming device with volumetric sensing |
GB201412268D0 (en) | 2014-07-10 | 2014-08-27 | Elliptic Laboratories As | Gesture control |
CN105373215B (zh) * | 2014-08-25 | 2018-01-30 | 中国人民解放军理工大学 | 基于手势编码与译码的动态无线手势识别方法 |
GB201421427D0 (en) | 2014-12-02 | 2015-01-14 | Elliptic Laboratories As | Ultrasonic proximity and movement detection |
US10859675B2 (en) * | 2015-04-20 | 2020-12-08 | Resmed Sensor Technologies Limited | Gesture recognition with sensors |
US11592913B2 (en) * | 2015-07-17 | 2023-02-28 | Origin Wireless, Inc. | Method, apparatus, and system for wireless writing tracking |
CN105260024B (zh) * | 2015-10-15 | 2018-01-26 | 广东欧珀移动通信有限公司 | 一种在屏幕上模拟手势运动轨迹的方法及装置 |
CN105335025A (zh) * | 2015-10-15 | 2016-02-17 | 广东欧珀移动通信有限公司 | 一种移动终端的截屏方法和装置 |
US10184797B2 (en) * | 2015-12-18 | 2019-01-22 | Invensense, Inc. | Apparatus and methods for ultrasonic sensor navigation |
GB201602319D0 (en) | 2016-02-09 | 2016-03-23 | Elliptic Laboratories As | Proximity detection |
FR3054325B1 (fr) * | 2016-07-21 | 2019-08-16 | Centre National De La Recherche Scientifique - Cnrs - | Procede et dispositif acoustique pour mesurer des mouvements de surface. |
US10528147B2 (en) * | 2017-03-06 | 2020-01-07 | Microsoft Technology Licensing, Llc | Ultrasonic based gesture recognition |
US10102452B2 (en) * | 2017-03-14 | 2018-10-16 | Clarius Mobile Health Corp. | Systems and methods for identifying an imaged needle in an ultrasound image |
US10984315B2 (en) | 2017-04-28 | 2021-04-20 | Microsoft Technology Licensing, Llc | Learning-based noise reduction in data produced by a network of sensors, such as one incorporated into loose-fitting clothing worn by a person |
US11144153B2 (en) | 2017-12-07 | 2021-10-12 | Elliptic Laboratories As | User interface with acoustic proximity and position sensing arrangements |
CN108089702B (zh) * | 2017-12-07 | 2020-01-17 | 深圳大学 | 一种基于超声波的人机体感交互方法及系统 |
EP3518002A1 (de) * | 2018-01-25 | 2019-07-31 | Ibeo Automotive Systems GmbH | Verfahren und vorrichtung zur optischen distanzmessung |
CN108961308B (zh) * | 2018-06-01 | 2021-07-02 | 南京信息工程大学 | 一种漂移检测的残差深度特征目标跟踪方法 |
US11287526B2 (en) * | 2018-11-21 | 2022-03-29 | Microsoft Technology Licensing, Llc | Locating spatialized sounds nodes for echolocation using unsupervised machine learning |
CN109871122B (zh) * | 2019-01-18 | 2023-01-10 | 深圳大学 | 一种智能电子设备的水下操控系统及其操控方法 |
CN110163886A (zh) * | 2019-05-16 | 2019-08-23 | 东莞职业技术学院 | 一种基于透明运动的多图像运动估计及匹配算法 |
CN110223323B (zh) * | 2019-06-02 | 2022-03-04 | 西安电子科技大学 | 基于深度特征自适应相关滤波的目标跟踪方法 |
CN112258132B (zh) * | 2020-11-18 | 2023-06-16 | 中国联合网络通信集团有限公司 | 仓储管理方法、系统、计算机设备及存储介质 |
CN114943242A (zh) * | 2021-02-08 | 2022-08-26 | 北京小米移动软件有限公司 | 事件检测方法及装置、电子设备、存储介质 |
US11606152B2 (en) * | 2021-06-08 | 2023-03-14 | Cisco Technology, Inc. | Channel predictive behavior and fault analysis |
NO347534B1 (en) | 2021-11-05 | 2023-12-11 | Elliptic Laboratories Asa | Person or object detection |
NO347670B1 (en) | 2021-11-05 | 2024-02-19 | Elliptic Laboratories Asa | Proximity and distance detection |
NO20211335A1 (en) | 2021-11-05 | 2023-05-08 | Elliptic Laboratories As | Presence detecting device |
WO2023239205A1 (en) * | 2022-06-10 | 2023-12-14 | Samsung Electronics Co., Ltd. | Method and device for inference in ultra-wide band system (uwb) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185456A (ja) * | 1995-04-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
JP2003131785A (ja) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | インタフェース装置および操作制御方法およびプログラム製品 |
WO2006067436A1 (en) * | 2004-12-21 | 2006-06-29 | Universitetet I Oslo | Channel impulse response estimation |
JP2007503653A (ja) * | 2003-05-15 | 2007-02-22 | キネテイツク・リミテツド | 非接触ヒューマンコンピュータインターフェイス |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5645077A (en) * | 1994-06-16 | 1997-07-08 | Massachusetts Institute Of Technology | Inertial orientation tracker apparatus having automatic drift compensation for tracking human head and other similarly sized body |
US5875257A (en) * | 1997-03-07 | 1999-02-23 | Massachusetts Institute Of Technology | Apparatus for controlling continuous behavior through hand and arm gestures |
US6313825B1 (en) * | 1998-12-28 | 2001-11-06 | Gateway, Inc. | Virtual input device |
EP1041485A1 (en) * | 1999-03-31 | 2000-10-04 | Sony Service Center (Europe) N.V. | Object with polymorphism |
US6990639B2 (en) * | 2002-02-07 | 2006-01-24 | Microsoft Corporation | System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration |
US7340077B2 (en) * | 2002-02-15 | 2008-03-04 | Canesta, Inc. | Gesture recognition system using depth perceptive sensors |
US7627139B2 (en) * | 2002-07-27 | 2009-12-01 | Sony Computer Entertainment Inc. | Computer image and audio processing of intensity and input devices for interfacing with a computer program |
US7308286B2 (en) * | 2003-11-20 | 2007-12-11 | Telefonaktiebolaget Lm Ericsson (Publ) | Multi-dimensional joint searcher and channel estimators |
KR100588042B1 (ko) * | 2004-01-14 | 2006-06-09 | 한국과학기술연구원 | 인터액티브 프레젠테이션 시스템 |
US7653883B2 (en) * | 2004-07-30 | 2010-01-26 | Apple Inc. | Proximity detector in handheld device |
KR100754385B1 (ko) * | 2004-09-30 | 2007-08-31 | 삼성전자주식회사 | 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법 |
JP2009508450A (ja) * | 2005-09-13 | 2009-02-26 | ヴェリフィコン コーポレーション | 物体のトラッキングおよび活動分析のためのシステムおよび方法 |
US7834850B2 (en) * | 2005-11-29 | 2010-11-16 | Navisense | Method and system for object control |
US7414705B2 (en) | 2005-11-29 | 2008-08-19 | Navisense | Method and system for range measurement |
US8055073B1 (en) * | 2006-12-19 | 2011-11-08 | Playvision Technologies, Inc. | System and method for enabling meaningful interaction with video based characters and objects |
US7412077B2 (en) * | 2006-12-29 | 2008-08-12 | Motorola, Inc. | Apparatus and methods for head pose estimation and head gesture detection |
WO2009045861A1 (en) * | 2007-10-05 | 2009-04-09 | Sensory, Incorporated | Systems and methods of performing speech recognition using gestures |
US8555207B2 (en) * | 2008-02-27 | 2013-10-08 | Qualcomm Incorporated | Enhanced input using recognized gestures |
WO2009115799A1 (en) * | 2008-03-18 | 2009-09-24 | Elliptic Laboratories As | Object and movement detection |
US20100295782A1 (en) * | 2009-05-21 | 2010-11-25 | Yehuda Binder | System and method for control based on face ore hand gesture detection |
-
2009
- 2009-03-18 WO PCT/GB2009/000725 patent/WO2009115799A1/en active Application Filing
- 2009-03-18 CA CA2718680A patent/CA2718680C/en active Active
- 2009-03-18 EP EP09723592.3A patent/EP2281231B1/en active Active
- 2009-03-18 CN CN2009801173541A patent/CN102027440A/zh active Pending
- 2009-03-18 JP JP2011500289A patent/JP5628144B2/ja active Active
- 2009-03-18 AU AU2009227717A patent/AU2009227717B2/en active Active
- 2009-03-18 US US12/933,393 patent/US8625846B2/en active Active
- 2009-03-18 EP EP13189288.7A patent/EP2701042B1/en active Active
-
2013
- 2013-12-18 US US14/133,391 patent/US9098116B2/en active Active
-
2015
- 2015-06-29 US US14/753,468 patent/US20150301611A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09185456A (ja) * | 1995-04-28 | 1997-07-15 | Matsushita Electric Ind Co Ltd | インターフェイス装置 |
JP2003131785A (ja) * | 2001-10-22 | 2003-05-09 | Toshiba Corp | インタフェース装置および操作制御方法およびプログラム製品 |
JP2007503653A (ja) * | 2003-05-15 | 2007-02-22 | キネテイツク・リミテツド | 非接触ヒューマンコンピュータインターフェイス |
WO2006067436A1 (en) * | 2004-12-21 | 2006-06-29 | Universitetet I Oslo | Channel impulse response estimation |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011522271A (ja) * | 2008-06-04 | 2011-07-28 | エリプティック・ラボラトリーズ・アクシェルスカブ | 物体の位置決定 |
JP2011211334A (ja) * | 2010-03-29 | 2011-10-20 | Yamaha Corp | 音響処理装置 |
JP2015506035A (ja) * | 2011-12-19 | 2015-02-26 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | ジェスチャ制御音声ユーザインタフェース |
Also Published As
Publication number | Publication date |
---|---|
EP2701042A1 (en) | 2014-02-26 |
EP2701042B1 (en) | 2015-01-28 |
US9098116B2 (en) | 2015-08-04 |
CA2718680C (en) | 2016-12-06 |
US20110096954A1 (en) | 2011-04-28 |
US8625846B2 (en) | 2014-01-07 |
EP2281231B1 (en) | 2013-10-30 |
JP5628144B2 (ja) | 2014-11-19 |
AU2009227717A1 (en) | 2009-09-24 |
US20140320390A1 (en) | 2014-10-30 |
US20150301611A1 (en) | 2015-10-22 |
EP2281231A1 (en) | 2011-02-09 |
CA2718680A1 (en) | 2009-09-24 |
CN102027440A (zh) | 2011-04-20 |
AU2009227717B2 (en) | 2015-02-05 |
WO2009115799A1 (en) | 2009-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5628144B2 (ja) | 目的物及び動作検出 | |
EP2470981B1 (en) | Acoustic motion determination | |
JP5624976B2 (ja) | 様々な範囲にある物体の位置推定 | |
JP5615270B2 (ja) | 物体の位置決定 | |
US9465461B2 (en) | Object detection and tracking with audio and optical signals | |
EP3470963B1 (en) | Control using movements | |
EP2486474B1 (en) | User interfaces | |
US8913039B2 (en) | Method and device for locating at least one touch on a touch-sensitive surface of an object | |
US20170347990A1 (en) | Ultrasound diagnostic device and ultrasound signal processing method | |
JP2019074478A (ja) | 識別装置、識別方法およびプログラム | |
Fertl et al. | Comparison of Approaches for Gesture Recognition with MEMS Ultrasonic Transducers | |
CN110995376B (zh) | 一种基于WiFi信道状态信息的空中手写输入方法 | |
CN116700496A (zh) | 一种多模态融合的凌空轨迹输入系统和方法 | |
Khan et al. | Algorithm for fingers counting gestures using IR-UWB radar sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120316 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120316 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130627 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130806 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20131105 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20131112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140902 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141001 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5628144 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |