JP5160235B2 - 画像中の物体の検出及び追跡 - Google Patents

画像中の物体の検出及び追跡 Download PDF

Info

Publication number
JP5160235B2
JP5160235B2 JP2007550455A JP2007550455A JP5160235B2 JP 5160235 B2 JP5160235 B2 JP 5160235B2 JP 2007550455 A JP2007550455 A JP 2007550455A JP 2007550455 A JP2007550455 A JP 2007550455A JP 5160235 B2 JP5160235 B2 JP 5160235B2
Authority
JP
Japan
Prior art keywords
image
eigenspace
multidimensional
learning
geometric model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007550455A
Other languages
English (en)
Other versions
JP2008527541A (ja
JP2008527541A5 (ja
Inventor
シャマイ,アティドゥ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2008527541A publication Critical patent/JP2008527541A/ja
Publication of JP2008527541A5 publication Critical patent/JP2008527541A5/ja
Application granted granted Critical
Publication of JP5160235B2 publication Critical patent/JP5160235B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本開示は画像処理に関し、より詳細には画像中の物体を検出することに関する。
画像中の物体を検出し認識するためには、画像フィルタリングおよびパターン認識法を使用するのが一般的である。数百または数千のピクセルを含む画像中の物体を検出して認識するためには、多大な処理能力が必要となることがあり、時間が掛かることがある。よって、画像中の物体を検出して認識するために画像を処理する前に画像の次元数を減らすことが有益であることがある。データの次元を減らすための公知の技法の一つとして、主成分分析(PCA)がある。PCAは、例えば非特許文献1で説明されている。
PCAでは、データセットの重要な特徴を表すものとしてデータセットの共分散行列の固有値および固有ベクトルを使用し、これによってデータセットの次元数を減少させる。
ところで、人間がコンピュータと対話するのを可能にする方法および機構が数多く存在する。コンピュータビジョン技術によって、カメラによって捕捉された画像の中の物体をコンピュータが検出することできる場合がある。画像の中の物体を検出し認識できるコンピュータの場合、ユーザーが手振りを使ってそのコンピュータと対話することが可能である。
コンピュータ・ユーザー・インタフェースが表面または画面に表示されることがある。一つ以上のカメラが表面または画面の周辺における活動を監視し、画面周辺の活動の画像を捕捉してよい。そしてそのコンピュータはこれらの画像を処理し、画像中の一つ以上の物体を検出し、ユーザーが表面または画面に表示されたコンピュータ・ユーザー・インタフェースと対話するために手振りを使用していることを感知してよい。
ユーザーが表面または画面に表示されたコンピュータ・ユーザー・インタフェースと対話するために手振りを使用していることを感知するシステムが存在する。これらのうち幾つかのシステムは単に、画像の中の最も明るい物体を感知して、その物体を手または指として分類する。その結果これらのシステムは、手でも指でもない物体を手または指として感知してしまうことがある。
ジョリフ アイ.ティ.(Joliffe I.T.)著、「主成分分析(Principal Component Analysis)」、スプリンガー−ヴァーラグ(Springer-Verlag)、ニューヨーク、1986年
画像の中の手または指をより正確に識別し、これによってコンピュータと人間との対話の効果と効率性とを向上させるために、本開示のいくつかのシステムは、(1)表面または画面に触れているかまたは近辺で動いている物体を手または指として認識し、(2)手または指のいずれとも認識されない物体を除外する。
表面または画面に触れているかまたは近辺で動いている指を検出して認識するための方法および装置を提供する。指の存在を検出するために、および検出された指の位置を追跡するために画像を処理する。コンピュータは、例えばコンピュータのマウスポインタを制御するために指の位置を使用してもよい。提供する方法は、従来のマウスおよび/またはキーボードの使用よりも自然な方法で人間がコンピュータと対話できるようにするために有益となり得る。
一つの実施形態では、一つ以上の方向を向いた一本以上の指のモデルを作成する。より詳細には、一本以上の指の学習用画像セットをカメラによって捕捉する。PCA法を適用して学習用画像セットのモデルを作成する。学習用画像セットの共分散行列を算定して、その共分散行列から特定の個数の固有ベクトルを選択して、学習用画像セットの固有空間を定義する。学習用画像セットの画像それぞれを、共分散行列の選択された固有ベクトルによって定義された固有空間に投影する。固有空間では、各学習用画像は一つの学習点によって表される。よって、固有空間に学習用画像それぞれを投影することによって、固有空間に学習点群が作成される。そしてその学習点群は固有空間において幾何学モデル(例えば、曲面または線など)によって近似される。
そしてそのモデルを利用して、画像内の指を検出し認識し追跡する。一つのシステムでは、カメラと赤外線(IR)照射装置を表面または画面の背後に配置する。表面または画面に触れているかまたは近辺で動いている指が、IR照射装置によって投射されたIR放射の一部を反射する。反射されたIR放射の一部がカメラによって画像内に捕捉される。そして下記に説明するように、画像の中の指の存在および位置を検出し認識するためにその画像を処理する。
この処理は、画像から指である可能性がある一つ以上の物体を抽出することを含む。抽出された各物体を、学習用画像セットに対して定義された固有空間に投影する。固有空間では、抽出された物体の投影点は一つの画像点によって表される。この一つの画像点の座標値を学習点群のモデルと比較して、その一つの画像点がそのモデルと一致、またはほぼ一致するか否かを判定する。その一つの画像点がそのモデルと一致、またはほぼ一致する場合、その物体を指であると判定する。その物体を指であると判定した場合、表面または画面に対する指の位置(例えば、(x,y)座標)を算出して、例えばコンピュータおよび/またはソフトウェアアプリケーションに入力する。
概略の態様に従うと、特定の物体を表す画像点の多次元空間における座標値を算定する。一つ以上の他の物体の学習用画像セットの特性を示す前記多次元空間内のモデルを表す式を提供する。前記画像点と前記モデルとの間の距離を算定するために前記式に前記座標値を適用する。前記算定された距離に基づいて前記特定の物体が前記一つ以上の他の物体と一致するか否かを判定する。
前記概略の態様の実施形態は以下の特徴の一つ以上を含んでいてもよい。例えば、前記特定の物体の画像を受け取ってもよい。前記画像が多数のデータ要素を有していてもよく、前記多次元空間が前記データ要素の数よりも少ない次元数を有していてもよい。前記画像点の前記座標値を算定することに、前記多次元空間に前記画像を投影して前記多次元空間に前記画像点の前記座標値を生じさせることが含まれていてもよい。
前記モデルが、前記多次元空間における学習点のセットの近似モデルであり、前記セットの前記各学習点は一連の学習用画像のうちの一つ以上の画像に対応していてもよい。
前記特定の物体の前記画像は受け取られる前に正規化されてもよい。前記特定の物体の前記画像を正規化することによって、明るさの変化に対処してもよい。前記物体の前記画像を正規化することは、前記特定の物体の前記画像にヒストグラム等化法を適用することを含んでもよい。
前記式が、双曲面、円錐、線、または円錐と線との組み合わせを表してもよい。前記特定の物体は、指と、ペンと、略円筒形の物体とのうちの一つの物体であってもよい。
前記式を提供することは、第1の学習用画像セットの特性を示す第1のモデルを表す第1式と、第2の学習用画像セットの特性を示す第2のモデルを表す第2式とから前記式を選択することを含んでもよい。
別の概略の態様に従うと、特定の物体の画像であって、複数のデータ点を有する画像を受け取る。前記データ点の数よりも少ない次元数を有する多次元空間に前記画像を投影して、前記特定の物体を表す画像点の座標値を前記多次元空間において生じさせる。前記多次元空間における学習点セットのモデルを表す式を提供する。前記セットの各学習点は、一つ以上の他の物体の学習用画像セットのうちの一つ以上の画像に対応している。前記画像点と前記モデルとの間の距離を算定するために前記式に前記座標値を適用し、前記算定された距離に基づいて前記特定の物体が前記他の物体と一致するか否かを判定する。
前記の概略の態様の実施形態は、以下の特徴の一つ以上を含んでいてもよい。例えば、前記式を提供することは、第1の学習用画像セットの特性を示す第1のモデルを表す第1式と、第2の学習用画像セットの特性を示す第2のモデルを表す第2式とから前記式を選択することを含んでもよい。
別の概略の態様に従うと、システムが、カメラと、前記カメラに結合された処理装置とを有していてもよい。前記処理装置は、特定の物体を表す画像点の多次元空間における座標値を算定するように構成されている。前記処理装置はまた、一つ以上の他の物体の学習用画像のセットの特性を示す前記多次元空間内のモデルを表す式を提供するように構成されている。前記処理装置はさらに、前記画像点と前記モデルとの間の距離を算定するために前記式に前記座標値を適用し、前記算定された距離に基づいて前記特定の物体が前記一つ以上の他の物体と一致するか否かを判定するように構成されている。
前記概略の態様の実施形態は、以下の特徴の一つ以上を含んでいてもよい。例えば、前記カメラは赤外線カメラであってもよい。前記システムは、赤外線源を有していてもよい。前記システムは、前記カメラの前に配置された画面を有していてもよい。前記画面の前記カメラと反対側に配置された物体によって反射された光が前記画面を通過して前記カメラによって受け取られるように、前記画面が少なくとも半透明であってもよい。
別の概略の態様に従うと、特定の物体を表す特定の画像点の多次元空間における座標値を算定するためにツールが提供される。前記ツールはまた、一つ以上の他の物体の学習用画像のセットの特性を示す前記多次元空間内のモデルを表す式を提供する。前記ツールはまた、前記特定の画像点と前記モデルとの間の距離を算定し、前記算定された距離に基づいて前記特定の物体が前記一つ以上の他の物体と一致するか否かを判定するために、前記式に前記座標値を適用するためにも提供される。
前記概略の態様の実施形態は、以下の特徴の一つ以上を含んでいてもよい。例えば、前記学習用画像セット受け取ってもよく、前記セットの画像のそれぞれが複数のデータ要素を有していてもよい。前記学習用画像セットに基づいて前記多次元空間を決定してもよく、前記多次元空間は前記データ要素の数よりも少ない次元数を有していてもよい。学習点セットを、前記多次元空間に前記学習用画像セットの各画像を投影し前記多次元空間における対応する学習点の座標値を生じさせることによって生成してもよい。前記学習用点セットの各学習点が、前記学習用画像セット内の少なくとも一つの画像に対応していてもよい。前記学習用画像セットの特性を示す前記多次元空間内のモデルを表す前記式を決定してもよい。
前記学習用画像セットの各画像は、受け取られる前に正規化されてもよい。前記学習用画像セットの各画像を正規化することによって、明るさの変化に対処してもよい。前記学習用画像セットの各画像を正規化することは、前記学習用画像セットの各画像にヒストグラム等化法を適用することを含んでもよい。
各種態様、実施形態、特徴は、例えば方法、装置、方法を実行するための装置またはツールまたは処理装置、プログラムまたは他の命令セット、プログラムまたは命令セットを含む装置、コンピュータ読み取り可能な媒体などのうちの一つ以上を使用して実施してもよい。コンピュータ読み取り可能な媒体は、例えば、命令群、ソフトウェア、画像、他のデータなどを含んでいてもよい。
一つ以上の実施形態の詳細を、添付の図面と以下の記述の中で説明する。他の特徴は、以下の記述と図面と請求項から明らかとなるだろう。
表面に触れるまたは表面の近辺で動く指を検出して認識するためのシステムおよび方法を開示する。また、これらのシステムおよび方法を、表面に触れるまたは表面の近辺で動く他の対象物を検出して認識するために使用してもよい。さらに、これらのシステムおよび方法を、表面のない視野内で対象物を検出して認識するために使用してもよい。より一般的には、これらのシステムおよび方法を、画像中の物体を検出して認識するために使用してもよい。
図1は、一本以上の指を認識し追跡するための例示的なシステム100を図示している。表面104の後方に配置されている赤外線(IR)照射装置102は、表面104の後ろおよび前の両方に延在する領域106を照射する。IRフィルタ110を備えるカメラ108が表面104の後方に配置されて、例えば表面104およびその周辺の画像を捕捉する。カメラ108によって捕捉された画像は、データ要素(例えばピクセル)によってデジタル値で表現されてよい。表面104の後方に配置されたプロジェクタ112は、表面104の上にコンピュータ・ユーザー・インタフェースを投射する。表面104に投射されたコンピュータ・ユーザー・インタフェースは、従来のコンピュータディスプレイであってもよい。プロジェクタ112は、可視光に加えてIRを投射してもよい。よって、一つの選択肢として、プロジェクタ112には、プロジェクタ112によって投射されるIRを減らすかまたは取り除くためのIRフィルタ120が備えられてもよい。
本開示の技法および装置によって、ユーザーが、手振りを使用してコンピュータ・ユーザー・インタフェースと対話できるようになる。
例えば、ユーザーの指114の位置を追跡することによって、ユーザーが表面104を自分の指で触るか、または表面104の近辺で自分の指を動かすことによってコンピュータ・ユーザー・インタフェース上のマウスポインタの位置を制御できるようにしてもよい。例えばマウスポインタの所望の位置を示すために、ユーザーの指114の位置を使用することがある。ある実施形態では、ユーザーの指114の位置を正確に認識するために、ユーザーの指114をユーザーの手の平118と区別することが望ましいことがある。
図1に例示するシステム100は一つの実施形態の一例にすぎず、他の構成も可能である。カメラ108によって捕捉された画像は、物体によって反射された光を捕捉することによって生成されてよい。光は、IR、可視光、紫外線、または任意の他の電磁放射を含んでよい。よって、IR照射装置102が必要ない場合がある。他の光源をIR照射装置の代わりに使用することがある。別の実施形態では、光源が必要ないこともある。その代わりとしてシステム100は、反射された周囲光のみを使用することがある。さらに、カメラ108が表面104の後方に配置される必要はない。例えば、カメラ108を、システム100の中の好適だと思われる任意の場所に配置してよい。さらに、システム100を、必ずしも人間−コンピュータ間の対話を容易するために使用する必要はない。その代わりに、一つの実施形態では、カメラ108によって捕捉された画像の中の物体を検出するためにシステム100を使用してもよい。このような実施形態では、表面104は必要ないことがある。
一般的には、画像中の対象物を指として検出し認識する際には、多くの処理手順が関わる場合がある。例えば、最初にシステム100に、ある対象物を指として認識するように学習させることがある。この学習段階は、一つ以上の方向を向いた一本以上の指の学習用画像のセットを捕捉し、この学習用画像のセットのモデルを構築することを含んでいることがある。認識段階では、システム100が画像を捕捉し、捕捉された画像から物体を抽出し、抽出された物体が指か否かを判定するために抽出された物体を学習段階で作成された学習用画像セットのモデルと比較することがある。指として画像中の物体を検出して認識する際に関わる可能性のある処理は、後で詳細に説明される。
画像の注目領域(ROI)116を、表面104を含む画像の一部として定義することがある。一本以上の指114を検出して認識するために、画像のROI116を調べることがある。カメラ108によって捕捉された画像には、IR照射装置102によって生成され、ROI116内の一本以上の指によって反射されたIRの反射が含まれていることがある。または、IRは、ROI116内の一つ以上の他の物体によって反射されることがある。例えば、表面104がIRを反射することがある。
表面104によってまたはROI116内の他の物体によって恒常的に反射されたIRを表現するために、表面104によってまたはROI116内の他の物体によって恒常的に反射されたIRの背景モデル(BGM)を作成して、カメラ108によって捕捉された各画像から引算してよい。カメラ108によって捕捉された各画像からこのBGMを引算することによって、捕捉された画像から背景の物体によって反射されたIRを効果的に除外、または少なくとも低減できる。結果として、各画像からBGMを引算することによって、ROI116内の注目する物体と、表面104および/またはROI116内に恒常的に存在する他の物体との間のコントラストを強める場合がある。
注目する物体が存在しない状態でROI116の複数の画像を捕捉して、そして、捕捉された画像群をピクセル単位で平均化して新しい平均画像すなわちBGMを作成することによって、該BGMを作成してもよい。そしてカメラ108によって捕捉された各画像からBGMを引算してもよい。この処理は次の式で表現することができる:
Figure 0005160235
ここで、Iは画像であり、BはBGMであり、εは調節可能なしきい値(例えば調節可能な定数)であり、Jは結果の画像である。BGMを、例えばランダムに、または定期的に、または引き金となるイベントの発生時に更新することがある。
図2(a)、図2(b)、図3を参照すると、画像中の物体の存在を検出してその物体が注目する物体であるか否かについての最初の判定を行うための処理の例が示されている。
詳細には、図2(a)には、サンプル画像200(a)内の2つの物体202(a)と204(a)が示されている。図2(a)に示すように、物体202(a)と204(a)は、背景206(a)よりも暗く示されている。しかし、2つの物体202(a)と204(a)によって反射された光によって形成された画像200(a)では、2つの物体202(a)、204(a)は背景206(a)よりも明るいと予想される。従って、図2(a)の画像200(a)は、画像200(a)中の2つの物体202(a)、204(a)の単なる一例であり、この画像200(a)は、画像中の物体はその画像の背景よりも暗いことを示唆するものではないことを理解されたい。
画像200(a)から物体202(a)、204(a)を抽出するために、Grassfireアルゴリズムなどのブロッブ分析アルゴリズムを使用することがある。Grassfireアルゴリズムは、例えばNew YorkのPrentice-Hall 社発刊のPitas I.著の「Digital Image Processing Algorithms」(1993)に記載されている。画像中の物体の存在を検出してその画像からその物体を抽出するためのほかのアルゴリズムを使用してもよい。
Grassfireアルゴリズムは、画像内で物体を探し、検出した各物体のピクセル群を1つの共通ラベルで識別する。具体的には、物体によって反射された光によって形成され、その物体が背景よりも明るい画像では、Grassfireアルゴリズムは画像中の最も明るいピクセルを特定する。例えば、画像は、各ピクセルに256個の可能な値があるグレイスケール画像であってもよい。この場合、各ピクセルが0〜255のうちの一つの値を割り当てられ、ゼロは最も暗いピクセル(例えば真黒)を、255は最も明るいピクセル(例えば真白)を表す。画像の中で最も明るいピクセルが220の値を持つとする。Grassfireアルゴリズムでは、ピクセルが物体に関連するものか否かを判定するために、画像中の最も明るいピクセルから調整可能なしきい値定数を引いたものと画像中の各ピクセルを比較する。例えば、調節可能なしきい値は50であってもよい。この場合、Grassfireアルゴリズムは、最も明るいピクセルから50シェード以内に入るいずれのピクセルも物体を表していると見なすことがある。つまり、許容範囲170〜220内の値を持ついずれのピクセルも物体を表していると見なすことがある。そして、Grassfireアルゴリズムは、この許容範囲に入る隣接するピクセル群のセットが物体を構成していると見なすことがある。
Grassfireアルゴリズムは、元の画像と同じサイズであるシャドーマトリックスと呼ばれるマトリックスを生成することがある。元の画像で物体を表すとして識別されたピクセルに対応するシャドーマトリックスの要素は、共通ラベルによって識別されてもよい。図2(b)は、図2(a)で示されているサンプル画像200(a)に対応するシャドーマトリックス200(b)の一例を示している。サンプル画像200(a)の物体202(a)は、シャドーマトリックス200(b)において物体202(b)によって表されており、物体202(b)の各要素は共通ラベル「1」で識別される。同様に、サンプル画像200(a)の物体204(a)は、シャドーマトリックス200(b)において物体204(b)によって表されており、物体204(b)の各要素は共通ラベル「2」で識別される。図2(b)に示すように、Grassfireアルゴリズムは、サンプル画像200(a)から物体202(a)と204(a)とを効果的に抽出することができる。
再び図1を参照すると、観念的には、指114が表面104に触れているか、または表面104近辺で動いている場合、指114は画像中で最も明るい物体となる。しかし、表面104を触っているかまたは表面104近辺で動いている指114が常に画像中の最も明るい物体であるとは限らない。例えば、ユーザーが自分の指114で表面104に触れると、ユーザーの手の平118が、画像中で明るい物体として見えるのに十分なIR放射を反射することがある。また、長袖などの他の物体が、画像の中で明るい物体として見えるのに十分なIR放射を反射することもある。ユーザーの指114よりも多くのIR放射を反射する物体があり、結果として画像の中でユーザーの指114よりも明るい物体として見えることがある。
従って、一つの実施形態では、画像中の最も明るい物体だけではなく、いくつかの物体をその画像から抽出することがある。しかし、認識のために画像中の多くの物体を処理することは、多大な処理能力が必要とし時間が掛かることがある。従って、認識のために処理される抽出物体の数を減らすための技法を適用することがある。抽出された物体は、それが指ではありそうもないような特徴を示し、そのために除外されることがある。抽出された物体を分類するために使用可能な基準の一つは大きさであることがある。例えば、抽出された物体は指としては大きすぎることがある。同様に、抽出された物体は指としては小さすぎることがある。
図3は、画像から抽出された物体300が指としては大きすぎるか否かを判定するための処理の一例を示すために使用する図301である。抽出された物体300の中心302を取り囲む4つのサンプリング領域304、306、308、310内の一つ以上のピクセルをサンプリングしてよい。抽出された物体300の中心302とサンプリング領域304、306、308、310との間の距離は、例えば調節可能な定数である。図3に示すように、抽出された物体300の中心302を取り囲む2つのサンプリング領域304、308は、抽出された物体300の中心302を通る垂直線312上に位置していてよい。同様に、抽出された物体300の中心302を取り囲む2つのサンプリング領域306、310は、抽出された物体300の中心302を通る水平線314上に位置していてよい。
指114の画像はテール(例えば図5を参照)を含む場合があるため、サンプリング領域304、306、308、310を対にして考察することがある。例えば、抽出された物体300の中心302を通る水平線314上に位置する2つのサンプリング領域306、310を第1ペアと見なし、同様に、抽出された物体300の中心302を通る垂直線312上に位置する2つのサンプリング領域304、308を第2ペアと見なしてよい。
第1ペアのサンプリング領域306、310内のピクセル値の合計が許容できるしきい値レベルを超えている場合、サンプリング領域306、310は抽出された物体300の一部であると判定してよい。第1ペアのサンプリング領域306、310内のピクセル値の合計が該許容できるしきい値レベルを超えている場合、第2ペアのサンプリング領域304、308内のピクセル値の合計を該許容できるしきい値レベルと比較してよい。
第2ペアのサンプリング領域304、308内のピクセル値の合計が該許容できるしきい値レベルを超えていれば、サンプリング領域304、308は抽出された物体300の一部であると判定してよい。第1ペアのサンプリング領域306、310内のピクセル値合計が該許容できるしきい値レベルを超えかつ、第2ペアのサンプリング領域304、308内のピクセル値合計が該許容できるしきい値レベルを超えていれば、その物体は指としては大きすぎると判定して、結果的にその物体を除外することがある。
同様に、画像から抽出された物体が指としては小さすぎることもある。抽出された各物体を表すピクセルの数を数えてよい。物体を表すピクセルの数がしきい値定数よりも小さければ、その物体をノイズまたは何か他の物体であると判定して、結果的にその物体を除外することがある。
画像の中の物体を指として認識することに、学習段階と認識段階とが含まれていることがある。学習段階では、認識すべき物体の多数の学習用画像のセットをシステム100に与え、その物体を認識するようシステム100に学習させることがある。その学習用画像セットは、様々な異なる向きに置かれた識別対象物体の画像を含んでよい。認識段階において、システム100は画像の中の物体を検出してその物体を該学習用画像セットと、または該学習用画像セットのモデルと比較して、その物体が識別対象物体か否かを判定することがある。
一つの実施形態では、学習段階では、様々な異なる方向を向いた一本以上の指の多数の画像を捕捉する。該学習用画像セットの共分散行列を決定して、その共分散行列の固有ベクトル群の選択されたセットを使用して固有空間を定義する。固有空間を定義するために、任意の数の固有ベクトルを選択してよい。固有空間の次元数は、その固有空間を定義するために選択された固有ベクトルの数によって決まる。例えば、3次元の固有空間は、3つの固有ベクトル、例えば3つの最も大きい固有値に対応する固有ベクトルを選択することによって定義される。該学習用画像セットの各学習用画像を3次元固有空間に投影して、その固有空間に3次元点の集合を作成する。固有空間内の三次元点の集合を、多項式によって分析的に表現できる三次元幾何学モデル(例えば二次曲面または二次曲線など)によって近似する。例えば、学習用画像セットの投影は双曲面または円錐状曲面を形成することがある。さらに、またはその代わりに、学習用画像セットの投影は固有空間に線状の幾何学形状を形成することがある。三次元空間では、双曲面、円錐、および曲線は多項式によって分析的に表現できる。よって、固有空間において学習用画像セットを近似する幾何学形状(幾何学的モデルとも呼ぶ)を使用することがある。
この実施形態の認識段階において、画像から抽出された物体を、学習段階において定義された固有空間に投影する。固有空間において投影された物体からモデルまでの距離を算定するために、該固有空間における投影された画像に対応する三次元点を特定する三つの座標値を、該固有空間内の該学習用画像セットのモデルを定義する多項式に適用する。投影された物体がモデルから例えば所定の距離内にある場合に、その投影された物体は指であると判定してもよい。
図5〜図20を参照して、学習段階と認識段階の具体的な実施例を詳細に説明する。
図4(a)は、画像の中の物体を指として認識するようにシステム100に学習させるための例示的な処理400を示すフローチャートである。処理400ではまず、表面104またはROI116に恒常的に存在する他の物体によって反射されたIRのBGMを作成する(工程402)。そして、様々な異なる方向を向いた指114の多数の入力画像をカメラ108によって捕捉する(工程404)。次に、BGMを入力画像のそれぞれから引算する(工程406)。そして、各画像から指114を表す部分を抽出して、基準n×n画像サイズに変換する(工程408)。各画像の指114を表す部分を、Grassfireアルゴリズムなどのブロッブ分析アルゴリズムを使用して抽出してもよい。または、各画像の指114を表す部分を画像の見た目に基づいて手動で抽出してもよい。指を表す画像の抽出部分には、多数のピクセルが含まれていることがある。指を表す画像の部分を処理するのに必要な計算負荷を減らすために、指を表すために使用されているピクセルの数を減らすことが望ましいことがある。従って、指を表す画像の抽出部分の解像度を下げることがある。例えば、元の画像中の指を表す部分が、64×64ピクセルであるとする。指を表す64×64の部分を画像から抽出した後、抽出された指の解像度を、16×16画像によってその指を表すよう下げることがある。
図5は、指502の例示的なn×n画像500を示す図である。
そして、n×n学習用画像のセットの固有空間を定義する(工程410)。図4(b)に工程410が詳細に例示されている。まず、学習用画像セットの共分散行列Cを決定する(工程410(a))。整形されたn×n画像I(n×n)をベクトルV(m)(ただし、m=n)によって表した場合、t個の学習用画像のセット{I、I、・・・I}の共分散行列Cは次のように定義できる:
C=GG (2)
ここでGは、要素Gi,j=(Vi,j−μ)を持つt×m行列である。要素Gi,j=(Vi,j−μ)において、Vi,jは、学習用セットの整形された画像IのベクトルであるVのj番目の要素であり、μはベクトルVの平均値である。よって、共分散行列Cはm×m行列となる。そして共分散行列の固有値と固有ベクトルを決定する(工程410(b))。共分散行列の固有値と固有ベクトルは、次の式を解いて算出できる:
Δ=ΦCΦ (3)
ここでΔは共分散行列Cの固有値のセットであり、Φは共分散行列Cの固有ベクトルのセットである。この処理は、米国特許第5,710,833号明細書に記載されている。m×m共分散行列はm個の固有値とm個の固有ベクトルを有し、各固有ベクトルは一つの固有値に対応する。よって、16×16学習用画像セットに対する256×256共分散行列は、256個の固有値と256個の対応する固有ベクトルを有することになる。さらに、各固有ベクトルは長さ256の列ベクトルである。
共分散行列Cの固有ベクトルの全てが互いに垂直である。従って、共分散行列Cの固有ベクトルのセットを選択し、選択された各固有ベクトルを空間内の一方向(つまり次元)を定義するために使用することによって、学習用画像セットの固有空間を定義することができる(工程410(c))。共分散行列Cの最大の固有値に対応する固有ベクトルが、該学習用画像セットが最も大きな変化をする方向を示す。従って、該学習用画像セットの中に含まれているデータの大きな部分を、共分散行列Cのいくつかの最も大きな固有値に対応する固有ベクトルのセットを選択することによって表現することができる。一つの実施形態では、共分散行列Cの3つの最も大きな固有値に対応する固有ベクトルを、三次元の固有空間を定義するために選択する。
固有空間を定義した後、該学習用画像セットの各学習用画像を固有空間に投影する(工程410(d))。各n×n画像I(n×n)をベクトルV(m)(ただし、m=n)に変換する。例えば、画像I(n×n)が16×16画像であれば、ベクトルV(m)は長さ256(m=n=16×16=256)の行ベクトルとなる。固有空間を定義するために選択された固有ベクトルの数をqとし、行列のq個の列のそれぞれが、該固有ベクトルの一つを表すm×q行列によって該固有空間を定義することがある。そして、ベクトルV(m)に該固有空間を定義するm×q行列を掛けると1×q行列、すなわち行ベクトルが得られる。この行ベクトルの各要素は該固有空間の対応する1つの座標を表す。例えば、16×16画像I(16×16)を256×1の列ベクトルV(256×1)で表すとする。学習用画像セットの固有空間を3つの固有ベクトルで定義する場合、該画像ベクトルV256×1の転置行列に該固有空間を定義する256×3行列を掛けると、三次元固有空間において投影された画像の3つの座標値を特定する1×3行ベクトルが得られる。
従って、固有空間への画像の投影によって、画像の次元数を効果的に減らすことができる。固有空間に画像を投影すると、固有空間の次元数と同じ数の座標を持つ一つの点が得られる。例えば、三次元固有空間に画像を投影すると、三次元点が得られる(つまり、その点は3つの座標で特定される)。よって、n×n画像が三次元固有空間に投影されると、n個のピクセルによって定義されていたその画像は3つの座標によって特定される単一の点によって定義されるよう変換される。
図6は、様々な方向を向いた一本以上の指の学習用画像セットの三次元固有空間600の一例を示している。学習用画像セットの各画像の投影点は、固有空間600における三次元点によって表される。従って、図6に示すように、固有空間600に学習用画像セットを投影することによって、固有空間600に学習点群602が作成される。学習点群602は、認識可能な幾何学形状を示すことがある。例えば、図6の学習点群602は、双曲面状または円錐状の形を示しているように見える。
学習点群602の形状が、指の特定の特徴の関数になり得る。
指114が表面104に対して垂直であるとき、指114はカメラ108によって捕捉された画像では略円形の物体として現れることがある。ユーザーが手を回転させても、指114は、表面104に対して垂直である限りは、カメラ108によって捕捉された画像では略円形の物体として現れ続ける。言い換えると、指114が表面104に対して垂直のままである場合、カメラ108によって捕捉された一連の画像における指114の形は、たとえ手が回転しても僅かの変化しか示さないことがある。このように僅かの変化しか示さない状態は、指114がカメラ108に対して表面104上のどこを指しているかに関係なく発生することがある。
しかし、ユーザーの指114が表面104に対して垂直ではない場合、指114は、カメラ108によって捕捉された画像内でテールを持つ明るい点として現れることがある。このテールは、指114の本体によって反射されたIRである可能性がある。結果として、手が回転するとテールの角度も回転する。
図7(a)および図7(b)を参照して説明する。図7(a)は、テール702(a)を有する指114のn×n画像700(a)である。図7(a)では、テール702(a)は画像700(a)の左上の角の方を向いている。図7(b)は、テール702(b)を有する同じ指114のn×n画像700(b)である。図7(b)では、テール702(b)は画像700(b)の右上の角の方を向いている。テール702(a)と702(b)の方向が異なっているのは、指114が、2つの画像700(a)、700(b)においてカメラ108に対して異なる方向を向いているからであると説明できる。画像700(a)の指114と画像700(b)の指114とは、表面104に対して垂直ではない同じ大きさの角度を形成している。しかし、画像700(a)の指114と画像700(b)の指114とが表面104に垂直な平面(図示せず)に対して異なる角度を形成するように、画像700(b)の指114は、画像700(a)の指114の位置から回転している。
2つの画像700(a)、700(b)は異なるものなので、固有空間600内の学習点群602内の異なる点によって表される。しかし、固有空間600に画像を投影する処理は線形処理であるため、ほぼ同じ長さのテールを有しているが回転角度が異なる指114の画像のセットを投影すると、固有空間600において略円形パターン状(図示せず)に整列した点セットが得られることがある。従って、2つの画像700(a)、700(b)は固有空間600において学習点群602内の異なる点によって表されるが、これらの点は、固有空間600の中で略円形パターン状に整列することがある。
また、画像内の指のテールの長さは、固有空間600内の画像投影位置に影響を与えることがある。図7(a)、図7(b)に関連して上述したように、テールの長さがほぼ同じであるが回転角度は異なる指の画像群の投影点群は、固有空間600内で略円形パターン状に整列することがある。同じ短いテールを有しているが回転角度が異なる指114の画像群の投影点群は、同じ長いテールを有しているが回転角度が異なる指114の画像群の投影点群よりも短い半径の略円形パターン状に整列することがある。
図6、図8(a)、図8(b)、図9(a)、図9(b)を参照して説明する。図6の学習点群602の頂点604を形成する学習点群は、テールが小さいか又はない略円形として指114が見える学習用画像に関連していることがある。対照的に、図6の学習点群602の底部606を形成する学習点群は、指114に長いテールが付いている学習用画像に関連していることがある。
図8(a)は、指114と表面104との間の比較的小さい角度によって生じた比較的長いテール802(a)を有する指114の学習用画像800(a)を例示している。図8(b)は、指114と表面104との間の比較的大きい角度によって生じた比較的短いテール802(b)を有する指114の学習用画像800(b)を例示している。
図9(a)および図9(b)は、三次元固有空間600における2つの画像800(a)、800(b)の投影点800(a)’、800(b)’を例示している。図9(a)に示すように、長いテール802(a)を有する指114の画像800(a)は、比較的長いテール802(a)を有するので、学習点群602の底部近くの点800(a)’上に投影される。対照的に、短いテール802(b)を有する指114の画像800(b)は、比較的短いテール802(b)を有するので、学習点群602の頂点604近くの点800(b)’上に投影される。
図9(b)は、三次元固有空間600内の2つの画像800(a)、800(b)の投影点800(a)’、800(b)’を、学習点群602から分離して示している。図9(b)に示すように、投影点800(a)’は、比較的長い同じテールを示すが回転角度が異なる指画像群の投影点群と一緒に略円形パターン902状に整列している。同様に、投影点800(b)’は、比較的短い同じテールを示すが回転角度が異なる指画像群の投影点群と一緒に略円形パターン904状に整列している。
学習点群602は認識可能な幾何学形状を示し、よって学習群点602は、多項式によって分析的に表現できる幾何学モデルによって近似されるように修正できる場合がある。幾何学モデルを学習点群602に合わせるのを容易にするために、Transfer-to-Centre(TTC)法として既知の技法を学習点のそれぞれに適用してもよい(工程412)。TTC法は、例えば、Shamaie A.らの「International Journal of Scientia Iranica」6(1)、(1999)に記載されている。TTC法では、データセットを固有空間の中心に移動する。すなわち、データセットの重心を固有空間の原点に移動する。
TTC法を学習点のセットに適用した後、モデルを学習点群602に合わせる(工程414)。三次元二次曲面の一般的な式は次の通りである:
F(x, y, z) = ax2 + by2 + cz2 + dxy + exz + fyz + gx + hy + iz + 1 (4)
点群602が完全な二次平面を形成する場合、次の式が群602の各点について成立つ:
F(x,y,z)=0 (5)
ここでx、y、zは、点群602の各点の座標である。式4の未知のパラメータはΨ=(a,b,c,d,e,f,g,h,i)である。二次曲面を学習点群602に合わせるために、学習点群602の全ての点のセットについての誤差関数が最小となるように式4の未知のパラメータの値を決定する。この誤差関数は次の式によって定義される:
Figure 0005160235
ここでTSは投影された学習点のセットである。誤差関数は次のように展開できる:
Figure 0005160235
誤差関数を、擬似ニュートン法を使用して最小化することがある。しかし、擬似ニュートン法のような線形最適化法は、誤差関数が二次式であるため、極小値におちいることがある。しかし、誤差関数を最小化する前に学習点のセットにTTC法を適用することによって、擬似ニュートン最小化法が極小値におちいる危険性が低減される。よって、誤差関数を最小化するために擬似ニュートン法を使用する前に学習点のセットにTTC法を適用した場合、誤差関数はより速く収束する可能性がある。誤差関数を最小化することによって、未知のパラメータのセットΨの値が得られる。誤差関数を最小化することによって決定されたΨの値を式4に代入して学習点群602のモデルを決定する。
図10(a)は、学習点群602の例示的なモデル(白丸)に重なっている学習点群602(黒丸)を例示している。図10(b)は図10(a)に色を付けたものである。モデル1000は、誤差関数を最小化することによって決定されたパラメータセットΨの値を式4に代入することによって定義できる。図10(a)および10(b)に示すとおり、このモデルは第1の曲面1002と第2の曲面1004を有している。第1の曲面1002は頂点1002aを、第2の曲面1004は頂点1004aを持つ双曲面状の形状として現れており、互いに向かい合い、共通の軸(図示せず)上に位置している。一つの実施形態では、第1の曲面1002のみを使用して学習点群602を近似する。図10(a)〜(b)に示すとおり、学習点群602は第1の曲面1002を完全には覆っておらず、また、第2の曲面1004を全く覆っていない。
図11(a)は、固有空間600において学習点群602を近似するためのモデル1000の第1の曲面1002を例示する図である。第2の曲面1004は図11(a)〜(c)には含まれていない。図11(b)は、モデル1000(白丸)の第1の曲面1002に重なっている学習点群602(黒丸)を例示している。図11(c)は図11(b)に色を付けたものである。
図12は、処理400によって学習したシステムを使用して、画像内の物体を指として認識するための例示的な処理1200を示すフローチャートである。処理1200ではまず、表面104、またはROI116内の他の物体によって恒常的に反射されたIRのBGMを作成する(工程1202)。その後、表面104とその周辺の入力画像をカメラ108によって捕捉して(工程1204)、BGMを入力画像から引算する(工程1206)。
図2(a)および図2(b)に関連して詳細に前述したとおり、Grassfireに類似のブロッブ分析アルゴリズムを使用して、入力画像から物体を抽出する(工程1208)。図3に関連して詳細に前述したとおり、入力画像から抽出された各物体は、指としては小さすぎるかまたは大きすぎる物体を識別して除外するために処理される(工程1210)。残った物体は全体の面積の昇順にリストに並べられる(工程1212)。
次に、リストの中の一番目の物体をn×n画像に変換し、このサイズ変更されたn×n画像を学習用データセットの固有空間600へ投影して画像点を得る(工程1214)。学習段階400で学習点群602内の点にTTC法を適用したのと同じように、TTC法を該画像点に適用する(工程1216)。工程412で使用したのと同じTTC移動値を工程1216で使用してもよい。
該画像点の座標を使用して、学習点群602のモデル1000を定義する二次多項式を評価する(工程1218)。該画像点がモデル1000上にあれば、該画像点の座標値を多項式に適用することによって値ゼロが得られる。対照的に、画像点がモデル1000上になければ、画像点の座標値を多項式に適用することによってゼロではない実数が得られる。画像点の座標値を多項式に適用することによって得られた値が、該画像点とモデル1000との間の距離を表す。
固有空間600においてモデル1000に近接している画像点に対応する画像は、前記学習用画像セットを構成する画像と類似の特性を示すことがある。従って、画像点の位置がモデル1000に近ければ近いほど、その画像点に対応する画像が指である可能性が高くなることがある。よって、モデル1000上に位置する画像点に、またはモデル1000から最大しきい値距離内にある画像点に対応する画像を指であると判定することができる。
よって、画像点の座標値を二次多項式に適用して得られた値を評価して、所定のしきい値距離より小さいか否か判定する(工程1220)。画像点の座標値を二次多項式に適用して得られた値がしきい値距離より小さい場合、その画像点に対応する物体は指であると見なす(工程1222)。画像点の座標を二次多項式に適用して得られた値が最大しきい値距離より大きい場合、その画像点に対応する画像を除外し、工程1214に進んでリストにある次の物体を処理する(工程1224)。
固有空間に物体を投影することによって画像に捕捉された物体の次元数を減らすことによって、その物体を学習物体の画像のモデルと比較することが、捕捉された物体の各ピクセルをモデルの各ピクセルと比較する必要なく可能となる。結果として、処理能力とリソースを節約でき、および/または比較処理が速くなる。
図13〜図19を参照して、学習段階と認識段階の別の実施形態を説明する。
図13は、指として物体を認識するように指認識・追跡システム100に学習させるための処理1300の一例を示すフローチャートである。処理1300は、各学習用画像にヒストグラム等化法を適用する工程を含む。
処理1300はまず、表面104またはROI116内の他の物体によって恒常的に反射されたIRのBGMを作成する(工程1302)。様々な異なる方向を向いた一本以上の指の多数の入力画像がカメラ108によって捕捉され(工程1304)、入力画像のそれぞれからBGMを引算する(工程1306)。各画像から指を表す部分が抽出され、基準n×n画像サイズに変換される(工程1308)。各n×n画像にヒストグラム等化法が適用される(工程1310)。
照明状態の変化に対処するためにヒストグラム等化法をn×n画像に適用する。ヒストグラム等化法をn×n画像に適用することは、n×n画像内のピクセルの輝度のヒストグラムを作成することと、n×n画像の該ヒストグラムを正規化することと、正規化された画像ヒストグラムに基づいて該n×n画像内のピクセルの値を再割り当てすることとを含む。その結果、個々のピクセルの明るさの順位は維持される(例えば、他のピクセルよりも明るいまたは暗い状態が維持される)。
指のn×n学習用画像のセットに対応する固有空間を作成し、各学習用画像を固有空間へ投影する(工程1312)。
図14に示すとおり、投影された学習用画像群は、固有空間1400内に学習点群1402を形成する。学習点群1402の重心を固有空間1400の原点へ移動するためにTTC法を学習点群1402に適用する(工程1314)。図14に示す学習点群1402の形状は、図6に示す学習点群602の形状とは異なった様相を呈している。特に、図14の学習点群1402は、円錐形1404の頂点1408にテール1406を有している。二つの学習点群1402、602の形状の差異は、ヒストグラム等化法が照明状態の変化による学習用画像群における変化を低減するので、学習用画像セットにヒストグラム等化法を適用したことに起因している可能性がある(工程1310)。その結果、学習用画像を固有空間1400に投影すると、より一様な形状が得られる。図6の学習点群602の形状は、学習用画像のセット内の指の形状および方向の変化だけでなく照明状態の変化も反映している。一方、図14の学習点群1402の形状は、主に学習用画像のセット内の指の形状および方向の変化を反映している。
処理1300は、移動された学習点群1402に一つ以上のモデルを合わせること(工程1316)を含む。学習点群1402のモデルを作成するために、円錐形1404を形成する学習点サブセットと、テール1406を形成する学習点サブセットを分けて考える。図15は、テール1406が除かれた円錐形1404を形成する学習点サブセットを示している。図16は、円錐形1404が除かれたテール1406を形成する学習点サブセットを示している。
円錐形1404を形成する学習点サブセットのモデルを作成することがある。また、テール1406を形成する学習点サブセットの第2モデルを作成することがある。前述したとおり、式4が三次元二次曲面の一般式である。よって、円錐形1404を形成する学習点サブセットの点セットに関して式7の誤差関数を最小にするような式4の未知のパラメータΨを最初に特定することによって、円錐形1404を形成する学習点セットのモデルを決定することができる。誤差関数を最小にすることによって特定されたΨの値を式4に代入して学習点群1402のモデルを決定する。
または、円錐形1404を形成する学習用画像サブセットを近似するために、垂直な円錐を使用することがある。図15に示すとおり、円錐状の学習点群1404は、固有空間1400の第1主成分を表す垂直軸1500に沿って最も大きな変化を示している。つまり、円錐状の群1404の高さの次元は、固有空間1400の第1主成分と平行である。円錐状の学習点群1404が、固有空間1400の第1主成分に沿って最大の変化を示しているという観察結果は、第1主成分に対応する共分散行列の固有ベクトルが該学習用画像のセットが最大の変化を示す方向を表していることと合致する。よって、円錐形1404を形成する学習点サブセットを近似するために垂直円錐を使用することが可能であることがある。一般的な垂直円錐は次の式で表される:
H(x,y,z)=(x−a)2/d2+(y−b)2/e2−(z−c)2/f2 (8)
ここでxおよびyは固有空間1400の水平軸1502、1504を、zは垂直軸1500を表している。式8の未知のパラメータは、Ω=(a,b,c,d,e,f)である。円錐形1404を形成する学習用画像サブセットに垂直円錐を合わせるために、円錐形1404を形成する学習点サブセットの点セットに関して式8を最小化する未知のパラメータΩの値を決定する。式8に対する誤差関数は次の式によって定義できる:
Figure 0005160235
式9の誤差関数を最小化するために擬似ニュートン法を使用することがある。式9の誤差関数を最小化することによって、未知のパラメータセットΩの値が得られる。これらの値を式8に代入して、円錐形1404を形成する学習点サブセットの垂直円錐モデルを決定する。
図17(a)は、円錐形1404の学習点群の例示的な垂直円錐モデル(白丸)1700に重なっている円錐形の学習点群(黒い菱形)1404を示している。図17(c)は、図17(a)に色を付けたものである。図17(a)および図17(c)に示すとおり、垂直円錐モデル1700は下部曲面1702と上部曲面1704とを有している。各曲面1702、1704は円錐形を形成し、その2つの円錐形は共通の頂点1706で接合している。二つの円錐形は共通の軸(図示せず)上に存在している。円錐形1404を形成する学習点群は曲面1702を完全に覆ってはおらず、曲面1704は全く覆っていない。一つの実施形態では、円錐形の学習点群1404を近似するために、円錐1700の下部曲面1702のみを使用する。図17(b)は、円錐形の学習点群1404の例示的な垂直円錐モデル(白丸)1700の下部曲面1702に重なっている円錐形の学習点群(黒い菱形)1404を示している。図17(d)は図17(b)に色を付けたものである。
テール1406に対する一つのモデルは垂直線である。テール1406の垂直線モデルは、水平軸1602、1604に沿ってテール1406の学習点の平均を算出することによって決定される。図18(a)は、テール1406を形成する学習点群の例示的な垂直線モデル(黒線)1800に重なっているテールの学習点群(黒丸)1406を示している。テール1406を形成する学習点群は線1800の下部1810の辺りに密集しており、線1800の上部1820に近づくにつれて徐々にほぼ線形になっている。図18(b)は図18(a)に色を付けたものである。別の実施形態では、線1800は垂直でなくてもよい。代わりに線1800は、テール1406を形成する学習点のセットに最もよく適合するような方向を向いていてよい。
図19は、画像の指を認識するための処理1900の一例を示すフローチャートである。処理1900では、処理1300によって学習したシステムが使用される。
処理1900はまず、表面104またはROI116内の他の物体によって恒常的に反射されたIRのBGMを作成する(工程1902)。表面104とその周辺の入力画像をカメラ108によって捕捉し(工程1904)、入力画像からBGMを引算する(工程1906)。図2(a)および図2(b)に関連して詳細に前述したとおり、Grassfireに類似のブロッブ分析アルゴリズムを使用して、入力画像から物体を抽出する(工程1908)。図3に関連して前述したとおり、指として小さすぎるまたは大きすぎる物体を識別して除外するために、入力画像から抽出された各物体を処理する(工程1910)。残った物体を、全体面積の昇順にリストに並べる(工程1912)。そして、リストの最初の物体をn×n画像に変換して(工程1914)、処理1300で適用されたのと同じヒストグラム等化法を、そのサイズ変更された画像に適用する(工程1916)。ヒストグラム等化法を画像に適用した後、その画像を学習用画像セットの固有空間に投影する。そして、学習段階1300で学習点群1402内の点にTTC法を適用したのと同じように、TTC法を画像点に適用する(工程1918)。
前述したとおり、学習点群1402を近似するために、垂直円錐1700の下部曲面1702と垂直線1800の二つのモデルを使用する。従って、画像点の垂直座標値が、垂直円錐モデル1700の下部曲面1702の頂点1706より上にあるか下にあるかを判定する(工程1920)。
画像点の垂直座標値が垂直円錐モデル1700の頂点1706よりも下であれば、工程1920から「N」の分岐を辿る。画像点の座標値を使用して、円錐状の学習点群1404の垂直円錐モデル1700を定義する式8を評価する(工程1922)。垂直円錐モデル1700の曲面上に投影点がある場合、投影点の座標値を式8に適用することによって値ゼロが得られる。対照的に、垂直円錐モデル1700の曲面上に画像点がない場合、その画像点の座標値を式8に適用することによって、ゼロではない実数が得られる。式8に画像点の座標値を適用することによって得られた値は、その画像点と垂直円錐モデル1700との間の距離を表す。
固有空間1400において垂直円錐モデル1700の下部曲面1702に近接した画像点に対応する画像は、前記学習用画像セットを構成する画像のいくつかと類似の特性を示すことがある。従って、画像が垂直円錐モデル1700の下部曲面1702に近ければ近いほど、その画像点に対応する画像が指である可能性が高いことがある。垂直円錐モデル1700の下部曲面1702上に位置する画像点に、または垂直円錐モデル1700の下部曲面1702から最大しきい値距離内にある画像点に対応する画像を指であると判定することができる。
よって、式8に画像点の座標値を適用することによって得られた値を評価して、所定のしきい値距離より小さいか否か判定する(工程1924)。画像点の座標値を式8に適用して得られた値がしきい値距離より小さい場合(工程1924からの「Y」分岐)、その画像点に対応する画像を指であると見なす(工程1926)。画像点の座標値を式8に適用して得られた値がしきい値距離より大きければ(工程1924からの「N」分岐)、その画像点に対応する画像は除外され、工程1914へ進むことによってリストにある次の物体が処理される(工程1928)。
画像点の垂直座標が垂直円錐モデル1700の頂点1706よりも上にある場合、工程1920から「Y」分岐へ進む。画像点の座標値を使用して、垂直線モデル1800を定義する式を評価する(工程1930)。画像点が線1800上にある場合、この線を定義する式に画像点の座標値を適用することによって値ゼロが得られる。対照的に、画像点が線1800上にない場合、線1800を定義する式に画像点の座標値を適用することによって、ゼロではない実数が得られる。線1800を定義する式に画像点の座標値を適用して得られた値は、その画像点と線1800の間の距離を表す。
固有空間1400で垂直線モデル1800に近接した画像点に対応する画像は、学習用画像セットを構成する画像のいくつかと類似の特性を示すことがある。従って、画像の位置が垂直線モデル1800に近ければ近いほど、その画像点に対応する画像が指である可能性が高いことがある。垂直線モデル1800上にある画像点に、または垂直線モデル1800から最大しきい値距離内にある画像点に対応する画像は、指であると判定してよい。
よって、この線を定義する式に画像点の座標値を適用することによって得られた値を、しきい値距離より小さいか否か判定するために評価する(工程1932)。この線を定義する式に画像点の座標値を適用することによって得られた値がしきい値距離より小さければ(工程1932からの「Y」分岐)、その画像点に対応する画像は指であると見なす(工程1926)。この線を定義する式に画像点の座標値を適用することによって得られた値がしきい値距離より大きければ(工程1932からの「N」分岐)、その画像点に対応する画像は除外され、工程1914に進むことによってリストにある次の物体を処理する(工程1928)。
しきい値距離を調整するために様々な技法が存在する。例えば、しきい値距離を調整するための一つの技法は、学習点群の座標値をそれら学習点のモデルに適用することを含む。一つの実施形態では、学習点群の90%を含むしきい値距離が、しきい値距離として妥当な選択であると考える。無論、他のしきい値距離またはパーセンテージを選択してもよい。
図20は、画像内の物体を認識するための処理2000の一例を示すフローチャートである。この処理はまず、多次元空間における物体の画像点の座標値を算定する(工程2002)。一つの実施形態では、特定の物体の画像がカメラによって捕捉され、コンピュータまたはソフトウェアアプリケーションによって入力として受け取られる。画像点は、画像内の捕捉されたその特定の物体を表す。
学習用画像群の特性を示す多次元空間における幾何学モデルを表す式が提供される(工程2004)。幾何学モデルを表す式に画像点の座標値を適用して、その画像点と幾何学モデルとの間の距離を算定する(工程2006)。
画像点と幾何学モデルとの間の特定された距離に基づいて、その画像点によって表された物体が学習用画像と一致するか否かを判定する(工程2008)。より具体的には、その物体が学習用画像によって捕捉された任意の種類の物体と一致するか否かを判定する。
一つの実施形態では、画像点の座標値を算定することは、異なる多次元空間にその画像を投影することを含む。多次元空間は、例えば固有空間であってもよい。そのような実施形態では、学習用画像の特性を示す幾何学モデルもその多次元空間内にある。
いくつかの実施形態を説明したが、様々な変更が可能であることを理解されたい。例えば、コンパクトディスク(CD)、処理装置、または他のコンピュータ読み込み可能な媒体に、開示した方法のいずれかを実行するためのプログラム、命令群、またはコードセグメントを格納してもよい。さらに、開示した方法のいずれかを実行するためのツールが提供されてもよい。このツールは、例えば、コンピュータ読み込み可能な媒体、処理装置、カメラ、プロジェクタ、またはこれらとおそらく他の部品の組み合わせを含んでもよい。処理装置は、例えば、プロセッサ、コンピュータ、プログラム可能な論理装置、または集積回路などを有していてもよい。
実施形態および特徴は、様々な装置において少なくとも部分的に実現されてよい。装置の例は、ポータブルコンピュータまたは他の処理装置を含む前述したコンピュータである。さらに、装置の例は、携帯電話、個人用デジタル補助装置、ポケットベルやポータブル電子メール装置(例えばBlackberry(登録商標))などのメッセージ装置、例えばiPod(登録商標)などの携帯音楽プレイヤー、またはその他の電子携帯メッセージ、娯楽、編集、ゲーム装置を含む。
さらに、開示したシステムおよび方法は概ね、画像の中の物体を指として認識することに関連して説明したが、画像の中の他の物体を認識する能力も考慮されている。開示したシステムおよび方法は、例えば固有空間などの空間内の幾何学モデルによって近似可能な任意の物体を認識するために使用してよい。例えば、開示したシステムおよび方法は画像の中の物体をペンまたは缶として認識するために使用されてもよい。さらに、異なる実施形態の各要素を組み合わせたり、追加したり、変更したり、又は取り除いて別の実施形態を実現してもよい。
開示した方法は複数の工程を含むものとして説明したが、さらなる工程を開示した方法に追加してもよい。さらに、必ずしも各工程を実行する必要はなく、幾つかの工程は省略してもよい。さらに、開示した工程を、必ずしも説明した順番に実行しなくてもよい。
最後に、各種の技術を使用したり、組み合わせたり、変更したりして実施形態を実現してもよい。このような技術には、例えば様々なハードウェア、ソフトウェア、ファームウェア、一体化されたコンポーネント、個別のコンポーネント、処理装置、メモリまたは記憶装置、通信装置、レンズ、フィルタ、表示装置、投射装置などが含まれる。従って、他の実施形態も添付の請求項の範囲内である。
この特許または出願ファイルには少なくとも一枚以上のカラー図面が含まれている。カラー図面付の特許公報または公開公報のコピーは、要求し必要な料金を支払えば特許庁によって提供される。
指を認識して追跡する一つのシステムを例示している。 画像の中の二つの物体を例示するサンプル画像である。 図2(a)のサンプル画像から抽出された二つの物体を示すサンプルシャドーマトリックスである。 画像から抽出された物体が目的の物体としては大きすぎるか否かを判定するための図である。 指認識および追跡システムに学習させるための第1の処理を例示するフローチャートである。 図4(a)の工程410を実行するための処理を例示するフローチャートである。 指のサンプル画像である。 三次元固有空間における学習点群を例示している。 指の別のサンプル画像である。 図7(a)のと同じ指のサンプル画像であるが、指の方向が異なっている。 指のさらに別のサンプル画像である。 図8(a)のと同じ指のサンプル画像であるが、指の方向が異なっている。 三次元固有空間における学習点群を例示している。 図9(a)の三次元固有空間における図8(a)および図8(b)のサンプル画像の投影点を例示している。 図9(a)の学習点群と、この学習点群に対応する三次元モデルとを例示している。 図10(a)をカラーで示したものである。 図9(a)の学習点群に対応する切り取られたモデルを例示している。 図11(a)の切り取られたモデルと、そのモデルに対応する学習点群とを例示している。 図11(b)をカラーで示したものである。 図4(a)の処理によって学習したシステムを使用して画像中の指を認識するための処理を例示するフローチャートである。 指認識および追跡システムに学習させるための第2の処理を例示するフローチャートである。 三次元固有空間における別の学習点群を例示している。 図14の学習点群の、円錐形を形成している第1のサブセットを例示している。 図14の学習点群の、線状の形状を形成している第2のサブセットを例示している。 図15の学習点の第1のサブセットと、学習点の第1のサブセットに対応する垂直円錐モデルとを例示している。 図15の学習点の第1のサブセットと、学習点の第1のサブセットに対応する切り取られた垂直円錐モデルとを例示している。 図17(a)をカラーで示したものである。 図17(b)をカラーで示したものである。 図16の学習点の第2のサブセットと、学習点の第2のサブセットに対応する線モデルとを例示している。 図18(a)をカラーで示したものである。 図13の処理によって学習したシステムを使用して画像中の指を認識するための処理を例示するフローチャートである。 画像中の物体を認識するための別の処理を例示するフローチャートである。

Claims (15)

  1. 多次元固有空間における画像点の座標値を算定することであって、前記多次元固有空間内の前記画像点が一つの物体の画像を表し、前記多次元固有空間が一本以上の指の学習用画像セットに基づいて定義されている、多次元固有空間における画像点の座標値を算定することと、
    前記多次元固有空間内の幾何学モデルを表す式を呼び出すことであって、前記幾何学モデルが前記一本以上の指の前記学習用画像セットを表し、前記幾何学モデルを表す前記式が前記多次元固有空間内の円錐を表す式を含んでおり、前記円錐上の各点は指の各向きに対応する、前記多次元固有空間内の幾何学モデルを表す式を呼び出すことと、
    前記多次元固有空間内の前記画像点のために算定された前記座標値を前記多次元固有空間内の前記幾何学モデルを表す前記式に適用して、前記画像点と前記多次元固有空間内の前記幾何学モデルとの間の距離を算定することと、
    前記画像点と前記多次元固有空間内の前記幾何学モデルとの間の前記算定された距離をしきい値と比較することにより、前記画像内の前記物体が指を含むか否かを判定することと、を含む方法。
  2. 前記物体の前記画像を受け取ることであって、前記画像が複数のデータ点を有し、前記多次元固有空間が前記データ点の数より少ない次元数を有している、前記物体の前記画像を受け取ることをさらに含み、
    前記多次元固有空間における前記画像点の座標値を算定することは、前記多次元固有空間に前記画像を投影して、前記多次元固有空間における前記画像点の前記座標値を生じさせることを含む請求項1に記載の方法。
  3. 前記多次元固有空間内の幾何学モデルを表す式を呼び出すことが、前記多次元固有空間における学習点のセットの幾何学モデルを表す式を呼び出すことを含み、
    前記セットの前記各学習点は、前記学習用画像セットのうちの一つ以上の画像に対応している請求項2に記載の方法。
  4. 前記物体の前記画像は、受け取られる前に正規化される請求項2に記載の方法。
  5. 前記多次元固有空間内の幾何学モデルを表す式を呼び出すことは、前記多次元固有空間内の幾何学モデルを表し、かつ、前記多次元固有空間内の円錐を表す式と前記多次元固有空間内の線を表す式との両方を含む、式を呼び出すことを含む請求項1に記載の方法。
  6. 複数のデータ点を有する一つの物体の画像を受け取ることと、
    多次元固有空間内の画像点の複数の座標値を生じさせるためにデータ点の数よりも少ない次元数を有する前記多次元固有空間に前記画像を投影することであって、前記多次元固有空間内の前記画像点が前記物体の前記画像を表し、前記多次元固有空間が一本以上の指の学習用画像セットに基づいて定義されている、多次元固有空間に前記画像を投影することと、
    前記多次元固有空間内の幾何学モデルを表す式を呼び出すことであって、前記幾何学モデルが前記多次元固有空間内の学習点のセットのモデルであり、前記セットの各前記学習点が前記一本以上の指の前記学習用画像セットのうちの一つ以上の画像に対応し、前記幾何学モデルを表す前記式が前記多次元固有空間内の円錐を表す式を含んでおり、前記円錐上の各点は指の各向きに対応する、前記多次元固有空間内の幾何学モデルを表す式を呼び出すことと、
    前記多次元固有空間内の前記学習用画像セットの前記幾何学モデルを表す前記式に前記画像点の前記座標値を適用して、前記画像点と前記多次元固有空間内の前記モデルとの間の距離を算定することと、
    前記画像点と前記多次元固有空間内に前記幾何学モデルとの間の前記算定された距離をしきい値と比較することにより、前記画像内の前記物体が指を含むか否かを判定することと
    を含む方法。
  7. 前記画像点の前記座標値を前記多次元固有空間内の前記学習点のセットの前記幾何学モデルを表す前記式に適用することは、
    前記多次元固有空間内の円錐を表す前記式と、異なる幾何学形を表す異なる式とから一つの式を選択することと、
    選択された式に前記画像点の前記座標値を適用することと、
    を含む請求項6に記載の方法。
  8. カメラと、
    前記カメラに結合された処理装置であって、
    多次元固有空間における画像点の座標値を算定することであって、前記多次元固有空間内の前記画像点が一つの物体の画像を表し、前記多次元固有空間が一本以上の指の学習用画像セットに基づいて定義されている、多次元固有空間における画像点の座標値を算定することと、
    前記多次元固有空間内の幾何学モデルを表す式を呼び出すことであって、前記幾何学モデルが前記一本以上の指の前記学習用画像セットを表し、前記幾何学モデルを表す前記式が前記多次元固有空間内の円錐を表す式を含んでおり、前記円錐上の各点は指の各向きに対応する、前記多次元固有空間内の幾何学モデルを表す式を呼び出すことと、
    前記多次元固有空間内の前記画像点のために算定された前記座標値を、前記多次元固有空間内の前記幾何学モデルを表す前記式に適用して、前記画像点と前記多次元固有空間内の前記幾何学前記モデルとの間の距離を算定することと、
    前記画像点と前記多次元固有空間内に前記幾何学モデルとの間の前記算定された距離をしきい値と比較することにより、前記画像内の前記物体が指を含むか否かを判定することと
    を実行するように構成された処理装置と
    を備えるシステム。
  9. 前記カメラが赤外線カメラを備えている請求項8に記載のシステム。
  10. 前記カメラの前に配置された画面を更に備えている請求項8に記載のシステム。
  11. 前記多次元固有空間における画像点の座標値を算定することであって、前記多次元固有空間内の前記画像点が一つの物体の画像を表し、前記多次元固有空間が一本以上の指の学習用画像セットに基づいて定義されている、多次元固有空間における画像点の座標値を算定するステップと
    前記多次元固有空間内の幾何学モデルを表す式を呼び出すことであって、前記幾何学モデルが前記一本以上の指の前記学習用画像セットを表し、前記幾何学モデルを表す前記式が前記多次元固有空間内の円錐を表す式を含んでおり、前記円錐上の各点は指の各向きに対応する、前記多次元固有空間内の幾何学モデルを表す式を呼び出すステップと
    前記多次元固有空間内の前記画像点につき算定された前記座標値を、前記多次元固有空間内の前記幾何学モデルを表す前記式に適用して、前記画像点と前記多次元固有空間内の前記幾何学モデルとの間の距離を算定するステップと
    前記画像点と前記多次元固有空間内に前記幾何学モデルとの間の前記算定された距離をしきい値と比較することにより、前記画像内の前記物体が指を含むか否か判定するステップと
    を有するステップを、実行時にコンピュータに実行させるためのプログラム。
  12. 前記一本以上の指の前記学習用画像のセットを受け取ることであって、前記セットの各前記画像が複数のデータ点を有している、前記一本以上の指の前記学習用画像のセットを受け取るステップと、
    前記学習用画像セットに基づいて、多次元固有空間が前記データ点の数よりも少ない次元数を有するように前記多次元固有空間を定義するステップと、
    前記多次元固有空間内の対応する学習点の座標値を生じさせるために、前記多次元固有空間に前記学習用画像セットの各画像を投影することによって学習点のセットを生成することであって、前記学習点のセットの各学習点が前記学習用画像セット内の少なくとも一つの画像に対応する、学習点のセットを生成するステップと、
    前記多次元固有空間内に前記生成された学習用点のセットに基づいて、前記学習用画像セットの特性を示す、前記多次元固有空間内の前記幾何学モデルを表す前記式を決定するステップ
    を有するステップをコンピュータにさらに実行させるための請求項11に記載のプログラム。
  13. 前記多次元固有空間内の前記幾何学モデルを表し、前記多次元固有空間内の円錐を表す式を含む式を利用することが
    Figure 0005160235
    但し、a,b,c,d,e,fは定数を表す
    という形を取る式を利用することを含む請求項1に記載の方法。
  14. 前記処理装置が前記物体の前記画像のデータ点の数よりも少ない次元数を有する多次元固有空間における画像点の座標値を算定するように構成されている請求項9に記載のシステム。
  15. 多次元固有空間における画像点の座標値を算定することであって、前記多次元固有空間内の前記画像点が一つの物体の画像を表し、前記多次元固有空間が一本以上の指の学習用画像セットに基づいて定義されている、多次元固有空間における画像点の座標値を算定することと、
    前記多次元固有空間内の幾何学モデルを表す式を呼び出すことであって、前記幾何学モデルが前記一本以上の指の前記学習用画像セットを表し、前記幾何学モデルを表す前記式が前記多次元固有空間内の双曲面の少なくとも一部を表す式を含んでおり、前記双曲面上の各点は指の各向きに対応する、前記多次元固有空間内の幾何学モデルを表す式を呼び出すことと、
    前記多次元固有空間内の前記画像点のために算定された前記座標値を前記多次元固有空間内の前記幾何学モデルを表す前記式に適用して、前記画像点と前記多次元固有空間内の前記幾何学モデルとの間の距離を算定することと、
    前記画像点と前記多次元固有空間内の前記幾何学モデルとの間の前記算定された距離に基づいて、前記画像内の前記物体が指を含むか否かを判定することと、を含むコンピュータで実行される方法。
JP2007550455A 2005-01-07 2006-01-06 画像中の物体の検出及び追跡 Active JP5160235B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US64173405P 2005-01-07 2005-01-07
US60/641,734 2005-01-07
PCT/US2006/000294 WO2006074289A2 (en) 2005-01-07 2006-01-06 Detecting and tracking objects in images

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012179249A Division JP5777582B2 (ja) 2005-01-07 2012-08-13 画像中の物体の検出及び追跡

Publications (3)

Publication Number Publication Date
JP2008527541A JP2008527541A (ja) 2008-07-24
JP2008527541A5 JP2008527541A5 (ja) 2009-03-05
JP5160235B2 true JP5160235B2 (ja) 2013-03-13

Family

ID=36648170

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007550455A Active JP5160235B2 (ja) 2005-01-07 2006-01-06 画像中の物体の検出及び追跡
JP2012179249A Active JP5777582B2 (ja) 2005-01-07 2012-08-13 画像中の物体の検出及び追跡

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2012179249A Active JP5777582B2 (ja) 2005-01-07 2012-08-13 画像中の物体の検出及び追跡

Country Status (7)

Country Link
US (4) US7853041B2 (ja)
EP (3) EP3693889A3 (ja)
JP (2) JP5160235B2 (ja)
CN (2) CN101622630B (ja)
ES (1) ES2791718T3 (ja)
HU (1) HUE049974T2 (ja)
WO (1) WO2006074289A2 (ja)

Families Citing this family (348)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
KR100960577B1 (ko) * 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8407725B2 (en) 2007-04-24 2013-03-26 Oblong Industries, Inc. Proteins, pools, and slawx in processing environments
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US7415385B2 (en) * 2006-11-29 2008-08-19 Mitsubishi Electric Research Laboratories, Inc. System and method for measuring performances of surveillance systems
US7855718B2 (en) 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US8130203B2 (en) * 2007-01-03 2012-03-06 Apple Inc. Multi-touch input discrimination
US8269727B2 (en) 2007-01-03 2012-09-18 Apple Inc. Irregular input identification
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
JP4787782B2 (ja) * 2007-03-30 2011-10-05 富士通コンポーネント株式会社 機器操作システム、制御装置
JP5005413B2 (ja) * 2007-04-09 2012-08-22 株式会社東海理化電機製作所 車載機器制御装置
US8577126B2 (en) * 2007-04-11 2013-11-05 Irobot Corporation System and method for cooperative remote vehicle behavior
CN101689244B (zh) * 2007-05-04 2015-07-22 高通股份有限公司 用于紧凑设备的基于相机的用户输入
JP4769983B2 (ja) * 2007-05-17 2011-09-07 独立行政法人産業技術総合研究所 異常検出装置および異常検出方法
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
US8629976B2 (en) 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US20110102570A1 (en) * 2008-04-14 2011-05-05 Saar Wilf Vision based pointing device emulation
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9753948B2 (en) * 2008-05-27 2017-09-05 Match.Com, L.L.C. Face search in personals
CN102112945B (zh) * 2008-06-18 2016-08-10 奥布隆工业有限公司 用于交通工具接口的基于姿态的控制系统
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US9030564B2 (en) * 2008-10-10 2015-05-12 Qualcomm Incorporated Single camera tracker
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
KR101577953B1 (ko) * 2008-12-16 2015-12-17 삼성디스플레이 주식회사 접촉 감지 기능이 있는 표시 장치 및 접촉 판단 방법
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US8517834B2 (en) * 2009-02-17 2013-08-27 Softkinetic Studios Sa Computer videogame system with body position detector that requires user to assume various body positions
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
GB0906461D0 (en) * 2009-04-15 2009-05-20 Siemens Medical Solutions Partial volume correction via smoothing at viewer
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
KR101640077B1 (ko) 2009-06-05 2016-07-15 삼성전자주식회사 인체 동작 및 얼굴 표정 모델링 및 인식을 위한 비디오 센서 기반의 장치 및 방법
US8860693B2 (en) * 2009-07-08 2014-10-14 Apple Inc. Image processing for camera based motion tracking
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
GB2474536B (en) 2009-10-13 2011-11-02 Pointgrab Ltd Computer vision gesture based control of a device
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8723987B2 (en) * 2009-10-30 2014-05-13 Honeywell International Inc. Uncertainty estimation of planar features
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
GB0920111D0 (en) 2009-11-18 2009-12-30 Bae Systems Plc Image processing
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
JP5740844B2 (ja) * 2009-11-24 2015-07-01 株式会社リコー 撮像装置、画像処理方法、及び、コンピュータプログラム
US8325136B2 (en) 2009-12-01 2012-12-04 Raytheon Company Computer display pointer device for a display
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US8842096B2 (en) * 2010-01-08 2014-09-23 Crayola Llc Interactive projection system
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9019201B2 (en) 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
US20110187678A1 (en) * 2010-01-29 2011-08-04 Tyco Electronics Corporation Touch system using optical components to image multiple fields of view on an image sensor
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
KR101184460B1 (ko) * 2010-02-05 2012-09-19 연세대학교 산학협력단 마우스 포인터 제어 장치 및 방법
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US9098905B2 (en) * 2010-03-12 2015-08-04 Google Inc. System and method for determining position of a device
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US8818027B2 (en) * 2010-04-01 2014-08-26 Qualcomm Incorporated Computing device interface
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US9491055B1 (en) * 2010-04-21 2016-11-08 Sprint Communications Company L.P. Determining user communities in communication networks
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
EP2583159B1 (en) * 2010-06-21 2017-05-31 Microsoft Technology Licensing, LLC System and method for finger resolution in touch screens
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
TW201201079A (en) * 2010-06-23 2012-01-01 Pixart Imaging Inc Optical touch monitor
US8976929B2 (en) * 2010-07-16 2015-03-10 Duke University Automatic generation of patient-specific radiation therapy planning parameters
US8660365B2 (en) 2010-07-29 2014-02-25 Honeywell International Inc. Systems and methods for processing extracted plane features
WO2012020410A2 (en) * 2010-08-10 2012-02-16 Pointgrab Ltd. System and method for user interaction with projected content
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
US8467599B2 (en) 2010-09-02 2013-06-18 Edge 3 Technologies, Inc. Method and apparatus for confusion learning
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
CN102012740B (zh) * 2010-11-15 2015-10-21 中国科学院深圳先进技术研究院 人机交互方法及系统
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8760538B2 (en) * 2011-01-21 2014-06-24 Exelis, Inc. Adaptive gain control image processing system and method
KR101200009B1 (ko) * 2011-01-25 2012-11-12 연세대학교 산학협력단 사용자의 손 동작을 이용하여 제어 기능을 제공하기 위한 프리젠테이션 시스템 및 그 방법
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8724887B2 (en) 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
GB201110156D0 (en) * 2011-06-16 2011-07-27 Light Blue Optics Ltd Touch-sensitive display devices
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
US8521418B2 (en) 2011-09-26 2013-08-27 Honeywell International Inc. Generic surface feature extraction from a set of range data
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
CN102591492B (zh) * 2011-12-31 2014-10-15 苏州佳世达电通有限公司 坐标感测系统及坐标感测方法
US20130176270A1 (en) * 2012-01-09 2013-07-11 Broadcom Corporation Object classification for touch panels
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
JP5567606B2 (ja) * 2012-01-31 2014-08-06 東芝テック株式会社 情報処理装置及びプログラム
JP6251963B2 (ja) 2012-03-01 2017-12-27 日産自動車株式会社 カメラ装置及び画像処理方法
JP6251962B2 (ja) * 2012-03-01 2017-12-27 日産自動車株式会社 カメラ装置及び画像処理方法
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
US8938124B2 (en) 2012-05-10 2015-01-20 Pointgrab Ltd. Computer vision based tracking of a hand
US9152226B2 (en) 2012-06-15 2015-10-06 Qualcomm Incorporated Input method designed for augmented reality goggles
EP2864961A4 (en) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
KR20140013142A (ko) * 2012-07-18 2014-02-05 삼성전자주식회사 이미지에서 목표를 검출하는 목표 검출 방법 및 이미지 처리 장치
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
EP2733657A1 (de) * 2012-11-19 2014-05-21 CSS electronic AG Vorrichtung zur Eingabe von Daten und/oder Steuerbefehlen
TWI496114B (zh) * 2012-11-23 2015-08-11 Univ Nat Taiwan 影像追蹤裝置及其影像追蹤方法
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
TWI499879B (zh) 2012-12-21 2015-09-11 Ind Tech Res Inst 工序分析監控系統及其方法
US9377510B2 (en) 2012-12-28 2016-06-28 Nvidia Corporation System for reducing peak power during scan shift at the global level for scan based tests
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9222981B2 (en) * 2012-12-28 2015-12-29 Nvidia Corporation Global low power capture scheme for cores
US9395414B2 (en) 2012-12-28 2016-07-19 Nvidia Corporation System for reducing peak power during scan shift at the local level for scan based tests
US9153067B2 (en) 2013-01-21 2015-10-06 Honeywell International Inc. Systems and methods for 3D data based navigation using descriptor vectors
US9123165B2 (en) 2013-01-21 2015-09-01 Honeywell International Inc. Systems and methods for 3D data based navigation using a watershed method
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9158381B2 (en) 2013-02-25 2015-10-13 Honda Motor Co., Ltd. Multi-resolution gesture recognition
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
US9069415B2 (en) * 2013-04-22 2015-06-30 Fuji Xerox Co., Ltd. Systems and methods for finger pose estimation on touchscreen devices
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9829984B2 (en) * 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
CN105358217A (zh) 2013-06-18 2016-02-24 杜克大学 在特定治疗标准及特定治疗参数下用于特定患者放射治疗计划的系统和方法
KR101438636B1 (ko) * 2013-07-25 2014-09-05 현대자동차 주식회사 터치스크린의 터치점 인식방법 및 이를 수행하는 시스템
US9973722B2 (en) 2013-08-27 2018-05-15 Qualcomm Incorporated Systems, devices and methods for displaying pictures in a picture
CN103442218B (zh) * 2013-08-27 2016-12-28 宁波海视智能系统有限公司 一种多模式行为识别与描述的视频信号预处理方法
US9454827B2 (en) 2013-08-27 2016-09-27 Qualcomm Incorporated Systems, devices and methods for tracking objects on a display
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
JP6398248B2 (ja) 2014-01-21 2018-10-03 セイコーエプソン株式会社 位置検出システム、及び、位置検出システムの制御方法
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
US9684831B2 (en) 2015-02-18 2017-06-20 Qualcomm Incorporated Adaptive edge-like feature selection during object detection
EP3076337B1 (en) * 2015-03-31 2020-01-08 ChannelSight Limited Method and system for product recognition
US9703175B2 (en) 2015-07-02 2017-07-11 Qualcomm Incorporated Systems and methods for autofocus trigger
US10025492B2 (en) * 2016-02-08 2018-07-17 Microsoft Technology Licensing, Llc Pointing detection
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
CN107895191B (zh) 2017-10-30 2022-02-22 上海寒武纪信息科技有限公司 一种信息处理方法及相关产品
US10713563B2 (en) * 2017-11-27 2020-07-14 Technische Universiteit Eindhoven Object recognition using a convolutional neural network trained by principal component analysis and repeated spectral clustering
EP3671681A4 (en) * 2017-11-30 2020-08-26 SZ DJI Technology Co., Ltd. MAXIMUM TEMPERATURE POINT MONITORING PROCESS, DEVICE AND DRONE
US11315231B2 (en) * 2018-06-08 2022-04-26 Industrial Technology Research Institute Industrial image inspection method and system and computer readable recording medium
CN108875669B (zh) * 2018-06-28 2020-09-15 深圳市哈哈零兽科技有限公司 一种基于可见光与红外图像融合的商品识别技术
CN108960126A (zh) * 2018-06-29 2018-12-07 北京百度网讯科技有限公司 手语翻译的方法、装置、设备及系统
US20210133854A1 (en) 2018-09-13 2021-05-06 Shanghai Cambricon Information Technology Co., Ltd. Information processing method and terminal device
IT201900007040A1 (it) 2019-05-21 2020-11-21 Centro Di Ricerca Sviluppo E Studi Superiori In Sardegna Crs4 Srl Uninominale Sistema per rilevamento delle interazioni con una superficie
CN112699337B (zh) * 2019-10-22 2022-07-29 北京易真学思教育科技有限公司 方程批改方法、电子设备及计算机存储介质
US11348373B2 (en) 2020-02-21 2022-05-31 Microsoft Technology Licensing, Llc Extended reality gesture recognition proximate tracked object
US11200458B1 (en) 2020-06-15 2021-12-14 Bank Of America Corporation System for integration of a hexagonal image processing framework within a technical environment

Family Cites Families (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4746770A (en) 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5483261A (en) 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
USRE38420E1 (en) 1992-08-12 2004-02-10 British Broadcasting Corporation Derivation of studio camera position and motion from the camera image
US7084859B1 (en) 1992-09-18 2006-08-01 Pryor Timothy R Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US6008800A (en) 1992-09-18 1999-12-28 Pryor; Timothy R. Man machine interfaces for entering data into a computer
US5982352A (en) 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US5435554A (en) 1993-03-08 1995-07-25 Atari Games Corporation Baseball simulation system
US5454043A (en) * 1993-07-30 1995-09-26 Mitsubishi Electric Research Laboratories, Inc. Dynamic and static hand gesture recognition through low-level image analysis
DE4415167A1 (de) 1994-04-29 1995-11-02 Siemens Ag Telekommunikationsanordnung zum Übertragen von Bildern
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
JPH08179888A (ja) 1994-12-21 1996-07-12 Hitachi Ltd 大画面ディスプレイ用入力装置
KR0174453B1 (ko) * 1995-02-28 1999-03-20 배순훈 디지털 영상 복호화 방법
US5900863A (en) * 1995-03-16 1999-05-04 Kabushiki Kaisha Toshiba Method and apparatus for controlling computer without touching input device
US5710833A (en) 1995-04-20 1998-01-20 Massachusetts Institute Of Technology Detection, recognition and coding of complex objects using probabilistic eigenspace analysis
US5629778A (en) * 1995-05-15 1997-05-13 Polaroid Corporation Method and apparatus for reduction of image data compression noise
US5659397A (en) * 1995-06-08 1997-08-19 Az Technology Method and apparatus for measuring total specular and diffuse optical properties from the surface of an object
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6526156B1 (en) * 1997-01-10 2003-02-25 Xerox Corporation Apparatus and method for identifying and tracking objects with view-based representations
JP3876942B2 (ja) 1997-06-13 2007-02-07 株式会社ワコム 光デジタイザ
JPH1115945A (ja) * 1997-06-19 1999-01-22 N T T Data:Kk 画像処理装置及び方法、及び、危険物検出システム及び方法
JP3968477B2 (ja) * 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
US6720949B1 (en) 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
EP0905644A3 (en) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
JP3795647B2 (ja) * 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
US6856698B1 (en) * 1997-11-26 2005-02-15 Cognex Corporation Fast high-accuracy multi-dimensional pattern localization
JP4033582B2 (ja) 1998-06-09 2008-01-16 株式会社リコー 座標入力/検出装置および電子黒板システム
JP3657786B2 (ja) * 1998-09-10 2005-06-08 松下電器産業株式会社 電子救急箱
US6204852B1 (en) * 1998-12-09 2001-03-20 Lucent Technologies Inc. Video hand image three-dimensional computer interface
US6147678A (en) * 1998-12-09 2000-11-14 Lucent Technologies Inc. Video hand image-three-dimensional computer interface with multiple degrees of freedom
US7046229B1 (en) * 1999-04-20 2006-05-16 Microsoft Corporation Computer input device providing absolute and relative positional information
US6545670B1 (en) * 1999-05-11 2003-04-08 Timothy R. Pryor Methods and apparatus for man machine interfaces and related activity
US6791531B1 (en) 1999-06-07 2004-09-14 Dot On, Inc. Device and method for cursor motion control calibration and object selection
JP4332649B2 (ja) 1999-06-08 2009-09-16 独立行政法人情報通信研究機構 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
US6275214B1 (en) 1999-07-06 2001-08-14 Karl C. Hansen Computer presentation system and method with optical tracking of wireless pointer
US6535114B1 (en) 2000-03-22 2003-03-18 Toyota Jidosha Kabushiki Kaisha Method and apparatus for environment recognition
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP4059620B2 (ja) 2000-09-20 2008-03-12 株式会社リコー 座標検出方法、座標入力/検出装置及び記憶媒体
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
US6774889B1 (en) * 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
JP2002140706A (ja) * 2000-11-01 2002-05-17 Mitsubishi Heavy Ind Ltd 画像識別装置および画像データ処理装置
US20020153188A1 (en) 2000-12-08 2002-10-24 Brandt Kenneth A. Selectable control parameters on a power machine with four-wheel steering
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US6594616B2 (en) * 2001-06-18 2003-07-15 Microsoft Corporation System and method for providing a mobile input device
US20030098841A1 (en) 2001-11-26 2003-05-29 Jessica Broussard Powered, remotely controllable computer display device
KR100415313B1 (ko) 2001-12-24 2004-01-16 한국전자통신연구원 동영상에서 상관 정합과 시스템 모델을 이용한 광류와카메라 움직임 산출 장치
US6977643B2 (en) * 2002-01-10 2005-12-20 International Business Machines Corporation System and method implementing non-physical pointers for computer devices
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
JP4486596B2 (ja) 2002-11-07 2010-06-23 本田技研工業株式会社 変化する照明条件下での物体の外観のクラスタリング
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
JP2004220138A (ja) * 2003-01-10 2004-08-05 Mitsubishi Heavy Ind Ltd 画像認識装置、及び、画像学習装置
US7333133B2 (en) 2003-03-31 2008-02-19 Spatial Integrated Systems, Inc. Recursive least squares approach to calculate motion parameters for a moving camera
CN1902930B (zh) 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7432917B2 (en) * 2004-06-16 2008-10-07 Microsoft Corporation Calibration of an interactive display system
US7454039B2 (en) * 2004-07-12 2008-11-18 The Board Of Trustees Of The University Of Illinois Method of performing shape localization
US20060044282A1 (en) 2004-08-27 2006-03-02 International Business Machines Corporation User input apparatus, system, method and computer program for use with a screen having a translucent surface
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images

Also Published As

Publication number Publication date
US20090295756A1 (en) 2009-12-03
EP1856470B1 (en) 2013-02-27
US20060188849A1 (en) 2006-08-24
ES2791718T3 (es) 2020-11-05
JP2013050949A (ja) 2013-03-14
CN101622630B (zh) 2012-07-04
JP5777582B2 (ja) 2015-09-09
EP3693889A2 (en) 2020-08-12
JP2008527541A (ja) 2008-07-24
US7574020B2 (en) 2009-08-11
US8483437B2 (en) 2013-07-09
CN102831387B (zh) 2016-12-14
US8170281B2 (en) 2012-05-01
EP1856470A4 (en) 2010-01-20
EP2487624B1 (en) 2020-02-19
WO2006074289A2 (en) 2006-07-13
EP1856470A2 (en) 2007-11-21
US20120176344A1 (en) 2012-07-12
HUE049974T2 (hu) 2020-11-30
EP3693889A3 (en) 2020-10-28
CN101622630A (zh) 2010-01-06
US7853041B2 (en) 2010-12-14
EP2487624A1 (en) 2012-08-15
CN102831387A (zh) 2012-12-19
WO2006074289A3 (en) 2009-04-23
US20080187178A1 (en) 2008-08-07

Similar Documents

Publication Publication Date Title
JP5160235B2 (ja) 画像中の物体の検出及び追跡
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
AU2015253554B2 (en) Handling glare in eye tracking
CN107466411B (zh) 二维红外深度感测
US8934673B2 (en) Image processing method and apparatus for detecting target
US9275277B2 (en) Using a combination of 2D and 3D image data to determine hand features information
CN106575357B (zh) 瞳孔检测
US20180211104A1 (en) Method and device for target tracking
US10325184B2 (en) Depth-value classification using forests
US20130279756A1 (en) Computer vision based hand identification
JP2021522591A (ja) 三次元実物体を実物体の二次元のスプーフと区別するための方法
WO2010135617A1 (en) Gesture recognition systems and related methods
JP2016014954A (ja) 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。
JP2016071547A (ja) 情報処理装置とその制御方法、プログラム、記憶媒体
Xu et al. A novel method for hand posture recognition based on depth information descriptor
KR101350387B1 (ko) 깊이 정보를 이용한 손 검출 방법 및 그 장치
Abdallah et al. An overview of gesture recognition
CN108255298B (zh) 一种投影交互系统中的红外手势识别方法及设备
Gallo et al. View-independent hand posture recognition from single depth images using PCA and Flusser moments
KR20130081126A (ko) 손 제스처 인식 방법 및 그 장치
Asgarov Check for updates 3D-CNNs-Based Touchless Human-Machine Interface
Manjunath CONTROLLING MOUSE CURSOR USING EYEBALL MOVEMENT
Hadfield Computer Vision for the Games Industry
Pranjali Comparison of PCA and Image Moments for Hand Gesture Recognition
Bobade et al. ASL Based Hand Gesture Recognition System

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090106

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110510

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110809

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110816

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20110909

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20110916

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20111007

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20111017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20120206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121212

R150 Certificate of patent or registration of utility model

Ref document number: 5160235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250