JP2007257489A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2007257489A
JP2007257489A JP2006083295A JP2006083295A JP2007257489A JP 2007257489 A JP2007257489 A JP 2007257489A JP 2006083295 A JP2006083295 A JP 2006083295A JP 2006083295 A JP2006083295 A JP 2006083295A JP 2007257489 A JP2007257489 A JP 2007257489A
Authority
JP
Japan
Prior art keywords
candidate
point
movement
points
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006083295A
Other languages
English (en)
Inventor
Masamichi Osugi
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2006083295A priority Critical patent/JP2007257489A/ja
Priority to PCT/IB2007/000732 priority patent/WO2007110731A1/en
Publication of JP2007257489A publication Critical patent/JP2007257489A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Abstract

【課題】 画像上に映し出される物体の領域が物体の移動に伴い変化するような場合であっても、物体の移動を精度よく追跡することを可能とした画像処理装置および方法を提供する。
【解決手段】 入力された画像(ステップS1)から候補点・特徴点を検出し(ステップS2)、フレーム間の対応づけを行う(ステップS3)。対象物上にあることが既知の特徴点についてフレーム間の運動推定を行い(ステップS4)、候補点についても運動推定を行い(ステップS6)、その結果を比較して(ステップS7)、運動が類似している候補点を新たに特徴点に追加する(ステップS8)。これを繰り返すことで、新たに画面内に映り込んだ対象物上の点についても特徴点に追加することができる。
【選択図】 図2

Description

本発明は入力された画像に映し出された物体を追跡し、その姿勢等を推定するための画像処理装置および画像処理方法に関する。
運動する物体の画像を取得し、取得した画像から物体の姿勢変化・運動を推定する技術の開発が進められている。特許文献1に開示されている技術は、こうした技術の一つであり、ステレオカメラを利用して顔向き、視線方向の追従をリアルタイムで行うことを目的としている。そして、顔向き、視線方向を追跡する手法として、画像内の顔領域から特徴点を検出し、その位置を追跡することで、追跡した特徴点位置から顔向きを検出しようとするものである。
特開2003−15816号公報
ところで、物体と他の物体との位置関係や、物体の回転運動等によってカメラから見えている物体の領域が変化することがある。このような場合、追跡していた特徴点が隠れてしまい、追跡が不能になってしまう可能性がある。そのため、特許文献1の技術は、カメラから見えている領域の変化の少ない対象物の運動追跡にしか用いることができないという欠点があった。
そこで本発明は、画像上に映し出される物体の領域が物体の移動に伴い変化するような場合であっても、物体の移動を精度よく追跡することを可能とした画像処理装置および方法を提供することを課題とする。
上記課題を解決するため、本発明にかかる画像処理装置は、(1)認識対象物の画像を複数取得する画像入力手段と、(2)各画像中で認識対象物上にあることが既知の特徴点を検出する特徴点検出手段と、(3)複数の画像からそれぞれ独立して特徴点の候補点を抽出する候補点検出手段と、(4)画像間で候補点の対応づけを行う照合手段と、(5)画像間における特徴点の対応関係と、候補点の対応関係に基づいて候補点が認識対象物上に位置しているか否かを判定し、対象物上に位置していると判定した場合には該候補点を特徴点に追加する判定手段と、を備えていることを特徴とする。
一方、本発明にかかる画像処理方法は、(1)認識対象物の画像を複数取得し、(2)各画像中で認識対象物上にあることが既知の特徴点を検出し、(3)複数の画像からそれぞれ独立して特徴点の候補点を抽出し、(4)画像間で候補点の対応づけを行い、(5)画像間における特徴点の対応関係と、候補点の対応関係に基づいて候補点が認識対象物上に位置しているか否かを判定し、(6)対象物上に位置していると判定した場合には該候補点を特徴点に追加する各工程を備えていることを特徴とする。
本発明によれば、既知の特徴点のみを追跡するのではなく、画像中から抽出した特徴点候補である候補点が物体上に位置しているか否かを、画像間における特徴点の対応関係と候補点の対応関係に基づいて判定し、当該候補点が物体上に位置していると判定した場合には、当該候補点を特徴点に追加する処理を行う。このため、画像上に映し出される物体の領域が刻々と変化して既知の特徴点が隠れていくような場合であっても、新たに画像上に映し出される領域に存在する候補点を特徴点に追加することで、物体の動き追跡を可能とする。
この判定手段あるいは判定工程は、画像間における特徴点の移動と、候補点の移動の類似度を、画像間での候補点の位置変化の、特徴点の移動を規定する幾何学的関係への適合度により評価するとよい。あるいは、画像間における特徴点位置の対応関係からその移動を表す基礎行列を算出し、移動前の候補点位置をこの基礎行列によって変換した変換後の位置と対応づけられた移動後の位置との差が所定のしきい値以下であれば、候補点は対象物上に位置していると判定してもよい。
あるいは、画像間における特徴点位置、候補点位置の対応関係からその移動を表す基礎行列をそれぞれ算出し、この基礎行列の差異が所定のしきい値以下であれば、候補点は対象物上に位置していると判定してもよい。この差異の評価は、基礎行列の要素の差の二乗和を基にして評価するとよい。
または、特徴点の3次元位置と移動状況から、候補点の移動後の3次元位置を推定し、これと対応づけられた候補点の3次元位置とのずれを基に認識対象物上に位置しているか否かの評価を行ってもよい。
これらの手法によって特徴点の移動と同様の移動を行っている候補点を判別することで、新たな候補点を見出すことができる。
本発明によれば、画面に映し出される領域の変化に応じて、画像に新たに映し出されるようになった領域の中から既知の物体上の特徴点と同様の画像間での対応関係を有する特徴点候補を物体上の特徴点と推定して追加していくので、新たに映し出されるようになった領域中にも特徴点が設定され、物体の運動の追跡を精度よく行うことができる。
この対応関係としては、特徴点の運動(移動)やその位置移動を規定する行列式等を基に行うことで、精度よく、高速での算出が可能となる。
以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。
図1は、本発明にかかる画像処理装置のブロック構成図である。この画像処理装置は、認識対象物を含む画像列を取得する画像入力手段1と、認識対象物上にあることが既知の特徴点を画像列中から検出する特徴点検出手段2と、画像中から特徴点の候補となる候補点を検出する候補点検出手段3と、複数の画像における候補点・特徴点の照合を行う照合手段4と、候補点が認識対象物上にあるか否かを判定する判定手段5とを備えている。
画像入力手段1は、例えば、テレビカメラ等の動画を撮像して画像列として取り込む装置である。そのほかに、ビデオレコーダ等に保持されている動画データ中から画像列を取り込むビデオキャプチャー装置等であってもよい。
特徴点検出手段2、候補点検出手段3、照合手段4、判定手段5は、CPU、ROM、RAM等によって構成される。これらの各手段は、独立した別々のハードウェアとして構成されていてもよいが、一部または全部のハードウェアを共有し、ソフトウェアにより個々の手段が実現されていてもよい。なお、この場合に、各手段を構成するソフトウェアは別個独立していてもよいが、ソフトウェアの一部を共有してもよく、1つのソフトウェアの内部に複数の手段が組み込まれる構成であってもよい。
続いて、本画像処理装置の動作である本発明にかかる画像処理方法の第1の実施形態について図2のフローチャートを参照しつつ、具体的に説明する。まず、画像入力手段1に画像列(動画像)が入力される(ステップS1)。ここでは、連続した2画像が取り出される。取得した画像列は、例えば、図示していない一時記憶手段に格納されるとよい。
次に各画像中から特徴点検出手段2、候補点検出手段3により特徴点・候補点を検出する。具体的には、輝度・輝度パターンが特徴的な点を検出する手法を用いればよく、例えば、harrisオペレータ(C. Harris、M. Stephens著”A Combined Corner and Edge Detector,”Proc. Alvey Vision Conf.,pp.147〜151,1988年、参照)と呼ばれる手法を用いればよい。こうして検出した特徴点・候補点とその周辺の画像および情報を一時記憶手段に格納する。格納する情報は、位置、輝度、テクスチャーの特徴量、位置の類似性に基づく距離、候補点の輝度の類似性に基づく距離、候補点の周辺輝度パターンの類似性に基づく距離およびそれら特徴量の線形・非線形変換後の値である。これらの特徴点・候補点には各画像ごとに独立した識別番号が付与される。
特徴点検出手段2と照合手段4は、このようにして検出した候補点・特徴点のフレーム(画像)間の対応づけを行う(ステップS3)。まず、特徴点検出手段2は、取り出した候補点のうちから対象物上にあることが既知の特徴点を抽出する。例えば、対象物上にあることが既知の特徴点とその周辺画像を保持しておき、これと抽出した特徴点・候補点の周辺画像とをパターンマッチングによって比較することで、追跡対象物上の点か否かを判定する。既知の特徴点についてはそれぞれを識別する番号が付与されており、マッチングした特徴点・候補点については、この識別番号を対応づけて保存する。これにより、既知の特徴点については、画像(フレーム)間における対応づけも同時に行うことができる。
照合手段4は、それ以外の候補点について、例えば、特徴量の距離を利用して対応づけを行う。画像t中のi番目の候補点をp とし、これと、画像s中のj番目の候補点をp との距離をd(p ,p )とすると、距離dは次式で表せる。
Figure 2007257489
ここで、F(a)は、候補点aのk番目の特徴量であり、wは、重み係数である。距離dが近いほど類似していることを意味するから、あるしきい値より近く、最短距離となるdを有する候補点同士を対応づける。
次に、対象物上にあることが既知の特徴点を対象にフレーム間の運動推定を行う(ステップS4)。運動推定手法としては、例えば因子分解法(C. Tomasi & T. Kanade,”Shape and motion from image streams under orthography − A factorization method,” Int. J. Comput. Vision, 9−2(1992−10)137〜154頁参照)を利用すればよい。
次に、運動類似度の判定を行う。まず、候補点iとして第1候補点を選択する(ステップS5)。ここで、運動類似度の判定を行うのは、対象物上にあるか否かが不明な点に限られる。したがって、対象物上にあることが既知の候補点だけでなく、対象物上にないことが既知の候補点も判定から除外することで、判定対象となる候補点の数が少なくてすみ、処理の高速化を図れる。
ステップS6では、ステップS4と同様の手法により、当該候補点iの運動を推定する。そして、推定した運動とステップS4で推定済みの特徴点の運動とを比較する(ステップS7)。具体的には、既知の特徴点Mと候補点iである点Mとが、以下の条件を満たす場合に、運動が類似していると判定すればよい。
Figure 2007257489

つまり、回転角度差、並進量のいずれも小さい場合に、運動が類似していると判定する。
運動が類似している場合には、当該候補点iを特徴点に追加し(ステップS8)、それ以外の場合には、特徴点に追加することなくステップS9へと移行する。ステップS9では、判定対象の全ての候補点の判定が終了したかをチェックする。全候補点の判定が終了した場合には、処理を終了し、全候補点の判定が終了していない場合には、ステップS10へと移行し、候補点iに次候補点を選択してステップS6〜S9の処理を繰り返すことで、全ての候補点について運動類似度の判定を行う。
以上のような処理を行うことで、新たに出現した点が認識対象物上にあるか否かを判定することができる。したがって、画像上に映し出されている認識対象物の領域が変化して初期に追跡していた特徴点が隠れてしまうような場合であっても、新たに出現してきた領域内に特徴点を設定して、順次追跡を行うことができるため、物体の運動追跡を精度よく行うことができる。
なお、ステップS7で類似度が低いと判定された候補点について、1回の運動類似度判定で、認識対象物上に位置しないと判定するのでなく、所定回数連続して類似度が低い場合に、認識対象物上に位置しないと判定してもよい。同様に、特徴点を認識対象物上にあると判定する場合にも、所定回数連続して類似度が高い場合に、当該対象物上に位置していると判定するとよい。
例えば、図3(a)(b)に示される画像においては、頂点を特徴点・候補点として抽出している。この場合に、左側の立体を認識対象物とした場合、図3(a)では、表示されていた点7、15は図3(b)では、隠れ、代わりに点8、14が登場する。本実施形態によれば、図3(a)(b)間に存在する画像(図示は省略する)における点8、14の運動と他の点(例えば点9〜12等)の運動を基にして新たに登場した点8、点14が当該立体上に位置していると適切に判定することができる。一方、三角錐側の頂点21〜24については、動きの差から対象物上の点でないと判定することができる。
ここでは、候補点と特徴点の運動類似度を基に候補点が特徴点と同じ認識対象物上にあるか否かの判定を行ったが、判定手法はこれに限られるものではない。図4に示されるフローチャートは、本発明にかかる画像処理方法の第2の実施形態の処理フローチャートである。ここで、ステップS11〜S13までの処理は、図2に示されるステップS1〜S3の処理と同一であるため、説明は省略する。
続くステップS14では、照合手段4は、特徴点についてフレーム間F行列を推定する。例えば、フレームAとフレームBにおいて、対応する8対の特徴点の画像上の位置が得られているとする。このとき、フレームAにおけるi番目の特徴点の画像上の2次元座標を(u ,v )とし、フレームBにおけるこの特徴点の画像上の2次元座標を(u ,v )とする。これらの各店の位置座標を用いて、以下の行列Uを作成する。
Figure 2007257489
この行列Uに対してU・Uの最小固有値に対する固有ベクトルとしてfを求める。この固有ベクトルfと行列Fの関係は次の通りである。
Figure 2007257489
これにより特徴点についてのフレーム間F行列が算出できる。
照合手段4は、次に、このフレーム間F行列を基にした運動類似度判定を行う。まず、候補点iとして第1候補点を選択する(ステップS15)。ここで、運動類似度の判定を行うのは、対象物上にあるか否かが不明な点に限る点も第1の実施形態と同様である。次に、評価式である行列値Jを算出する(ステップS16)。このJは候補点のフレームA、Bにおける画像上の座標位置をそれぞれ(u,v)(u,v)とすると、以下の式で表される。
Figure 2007257489
ここで、Jが予め設定された所定の範囲内であれば、この候補点は特徴点と類似の運動をしていると評価できる。このJは、フレームA−B間の特徴点の移動を規定した行列Fにより、候補点を移動させた場合の変換後の位置と実際の位置との距離に対応する。
そこで、ステップS17では、Jを基に類似度の評価を行い、類似していると判定した場合のみに、候補点iを特徴点に追加する処理を行う(ステップS18)。判定終了後は、全候補点の判定が終了したか否かをチェックし、終了していない場合には、ステップS20へと移行し、候補点iに次候補点を選択してステップS16〜S19の処理を繰り返すことで、全ての候補点について運動類似度の判定を行う。
このように特徴点の画素間での位置変化(移動)を規定する基礎行列Fを算出し、このFに基づいて算出した移動位置と実際位置との距離に対応するJを求めることで、候補点の運動と特徴点の運動の類似度を判定する。この実施形態においても第1の実施形態と同様に新たに登場する候補点が認識対象物上の点であるか否かを精度よく判定することができる。
さらにステップS16以降の処理は、以下のように置き換えが可能である。図5は、第3の実施形態の処理を示すフローチャートであり、そのステップS21〜S25の処理は、図4に示されるステップS11〜15の処理と同一である。
ステップS26では、照合手段4は、ステップS24におけるF行列の算出に用いた特徴点の少なくとも1点を候補点で置き換えてフレーム間行列F’を算出する。次に、求めた行列F’とステップS24で求めたFとを比較する(ステップS27)。例えば、以下の評価値Jにより判定を行えばよい。
Figure 2007257489
ここで、FとF’とはそれぞれフレーム間での移動を規定する行列であり、Jはその距離の長さに相当する(二乗和の平方根)から、Jが予め設定された所定の範囲内であれば、置き換えた候補点は特徴点と類似の運動をしていると評価できる。
そこで、ステップS27では、Jを基に類似度の評価を行い、類似していると判定した場合のみに、候補点iを特徴点に追加する処理を行う(ステップS28)。判定終了後は、全候補点の判定が終了したか否かをチェックし、終了していない場合には、ステップS30へと移行し、候補点iに次候補点を選択してステップS26〜S19の処理を繰り返すことで、全ての候補点について運動類似度の判定を行う。
ここでは、既知の特徴点8対のうち、1つのみを候補点と置き換えてフレーム間行列F’を算出する例を説明したが、複数の候補点を同時に置き換えてもよい。さらに、既知の特徴点8対と候補点8対のそれぞれのフレーム間行列を比較してもよい。ただし、認識対象物上に位置する候補点と対象物上にない候補点を混在させてフレーム間行列を求めると、運動が類似していないと判定されて、対象物上に位置する候補点を位置しないと誤判定したり、その逆の可能性も生じる。したがって、複数の候補点を対象とするフレーム間行列を求める際には、当該候補点が近接していたり、同一面と推定される面の境界を構成する点である場合等に限るとよい。この場合には、一点ずつ置き換えるより処理を高速化できるとともに、誤認識を抑制して、精度よく認識を行うことができる利点がある。
以上の例では、主として画像入力手段1が単眼カメラである場合を想定して説明してきたが、画像入力手段がステレオカメラであると、対象物、特に特徴点・候補点の空間位置を把握することができる。この場合には、空間位置を基にして特徴点のフレーム間における運動(対象物の運動)を推定し、候補点が同様の運動を行った際の移動後の空間位置と実際の後フレームにおける空間位置との距離により候補点が対象物上に位置するか否かを判定してもよい。
本発明にかかる画像処理装置のブロック構成図である。 本発明にかかる画像処理方法の第1の実施形態の処理フローチャートである。 処理対象となる画像列の例示である。 本発明にかかる画像処理方法の第2の実施形態の処理フローチャートである。 本発明にかかる画像処理方法の第3の実施形態の処理フローチャートである。
符号の説明
1…画像入力手段、2…特徴点検出手段、3…候補点検出手段、4…照合手段、5…判定手段。

Claims (12)

  1. 認識対象物の画像を複数取得する画像入力手段と、
    各画像中で認識対象物上にあることが既知の特徴点を検出する特徴点検出手段と、
    複数の画像からそれぞれ独立して特徴点の候補点を抽出する候補点検出手段と、
    画像間で候補点の対応づけを行う照合手段と、
    画像間における特徴点の対応関係と、候補点の対応関係に基づいて候補点が認識対象物上に位置しているか否かを判定し、対象物上に位置していると判定した場合には該候補点を特徴点に追加する判定手段と、
    を備えていることを特徴とする画像処理装置。
  2. 前記判定手段は、画像間における特徴点の移動と、候補点の移動の類似度を、画像間での候補点の位置変化の、特徴点の移動を規定する幾何学的関係への適合度により評価することを特徴とする請求項1記載の画像処理装置。
  3. 前記判定手段は、画像間における特徴点位置の対応関係からその移動を表す基礎行列を算出し、移動前の候補点位置を該基礎行列によって変換した変換後の位置と対応づけられた移動後の位置との差が所定のしきい値以下であれば、候補点は対象物上に位置していると判定することを特徴とする請求項1記載の画像処理装置。
  4. 前記判定手段は、画像間における特徴点位置、候補点位置の対応関係からその移動を表す基礎行列をそれぞれ算出し、該基礎行列の差異が所定のしきい値以下であれば、候補点は対象物上に位置していると判定することを特徴とする請求項1記載の画像処理装置。
  5. 前記判定手段は、基礎行列の要素の差の二乗和を基にして評価することを特徴とする請求項4記載の画像処理装置。
  6. 前記判定手段は、特徴点の3次元位置と移動状況から、候補点の移動後の3次元位置を推定し、これと対応づけられた候補点の3次元位置とのずれを基に認識対象物上に位置しているか否かの評価を行うことを特徴とする請求項1記載の画像処理装置。
  7. 認識対象物の画像を複数取得し、
    各画像中で認識対象物上にあることが既知の特徴点を検出し、
    複数の画像からそれぞれ独立して特徴点の候補点を抽出し、
    画像間で候補点の対応づけを行い、
    画像間における特徴点の対応関係と、候補点の対応関係に基づいて候補点が認識対象物上に位置しているか否かを判定し、
    対象物上に位置していると判定した場合には該候補点を特徴点に追加する各工程を備えていることを特徴とする画像処理方法。
  8. 画像間における特徴点の移動と、候補点の移動の類似度を、画像間での候補点の位置変化の、特徴点の移動を規定する幾何学的関係への適合度により候補点が認識対象物上に位置している否かを評価することを特徴とする請求項7記載の画像処理方法。
  9. 画像間における特徴点位置の対応関係からその移動を表す基礎行列を算出し、移動前の候補点位置を該基礎行列によって変換した変換後の位置と対応づけられた移動後の位置との差が所定のしきい値以下であれば、候補点は対象物上に位置していると判定することを特徴とする請求項7記載の画像処理方法。
  10. 画像間における特徴点位置、候補点位置の対応関係からその移動を表す基礎行列をそれぞれ算出し、該基礎行列の差異が所定のしきい値以下であれば、候補点は対象物上に位置していると判定することを特徴とする請求項7記載の画像処理方法。
  11. 基礎行列の要素の差の二乗和を基にして該基礎行列の差異を評価することを特徴とする請求項10記載の画像処理方法。
  12. 特徴点の3次元位置と移動状況から、候補点の移動後の3次元位置を推定し、これと対応づけられた候補点の3次元位置とのずれを基に認識対象物上に位置しているか否かの評価を行うことを特徴とする請求項7記載の画像処理方法。
JP2006083295A 2006-03-24 2006-03-24 画像処理装置および画像処理方法 Withdrawn JP2007257489A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006083295A JP2007257489A (ja) 2006-03-24 2006-03-24 画像処理装置および画像処理方法
PCT/IB2007/000732 WO2007110731A1 (en) 2006-03-24 2007-03-22 Image processing unit and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006083295A JP2007257489A (ja) 2006-03-24 2006-03-24 画像処理装置および画像処理方法

Publications (1)

Publication Number Publication Date
JP2007257489A true JP2007257489A (ja) 2007-10-04

Family

ID=38318646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006083295A Withdrawn JP2007257489A (ja) 2006-03-24 2006-03-24 画像処理装置および画像処理方法

Country Status (2)

Country Link
JP (1) JP2007257489A (ja)
WO (1) WO2007110731A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014533867A (ja) * 2011-11-29 2014-12-15 クアルコム,インコーポレイテッド 3次元物体の追跡
JP2018022390A (ja) * 2016-08-04 2018-02-08 日本電信電話株式会社 検証装置、方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8238639B2 (en) * 2008-04-09 2012-08-07 Cognex Corporation Method and system for dynamic feature detection

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08149460A (ja) * 1994-11-18 1996-06-07 Sony Corp 動画像処理装置、動画像符号化装置および動画像復号化装置
AUPS328102A0 (en) * 2002-06-28 2002-07-18 Seeing Machines Pty Ltd Tracking method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014533867A (ja) * 2011-11-29 2014-12-15 クアルコム,インコーポレイテッド 3次元物体の追跡
JP2018022390A (ja) * 2016-08-04 2018-02-08 日本電信電話株式会社 検証装置、方法、及びプログラム

Also Published As

Publication number Publication date
WO2007110731A1 (en) 2007-10-04

Similar Documents

Publication Publication Date Title
US20210191524A1 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP6430064B2 (ja) データを位置合わせする方法及びシステム
Smith et al. Real-Time Monocular SLAM with Straight Lines.
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US9165211B2 (en) Image processing apparatus and method
US9679384B2 (en) Method of detecting and describing features from an intensity image
JP4963964B2 (ja) 物体検出装置
JP4429298B2 (ja) 対象個数検出装置および対象個数検出方法
US20140002597A1 (en) Tracking Poses of 3D Camera Using Points and Planes
KR20180087947A (ko) 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치
US10607350B2 (en) Method of detecting and describing features from an intensity image
JP5262705B2 (ja) 運動推定装置及びプログラム
JP6865110B2 (ja) オブジェクト追跡方法および装置
KR101460313B1 (ko) 시각 특징과 기하 정보를 이용한 로봇의 위치 추정 장치 및 방법
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
JP6290760B2 (ja) 作業類似度算出方法、装置およびプログラム
JP4938748B2 (ja) 画像認識装置及びプログラム
JP2018195070A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6331761B2 (ja) 判定装置、判定方法及び判定プログラム
JP4935769B2 (ja) 平面領域推定装置及びプログラム
JP2007257489A (ja) 画像処理装置および画像処理方法
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6127958B2 (ja) 情報処理装置、情報処理方法、並びにプログラム
JP2011090708A (ja) 対象個数検出装置および対象個数検出方法
JP5293429B2 (ja) 移動物体検出装置、及び移動物体検出方法

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20080124