JP2013020616A - オブジェクト追跡方法及びオブジェクト追跡装置 - Google Patents

オブジェクト追跡方法及びオブジェクト追跡装置 Download PDF

Info

Publication number
JP2013020616A
JP2013020616A JP2012151608A JP2012151608A JP2013020616A JP 2013020616 A JP2013020616 A JP 2013020616A JP 2012151608 A JP2012151608 A JP 2012151608A JP 2012151608 A JP2012151608 A JP 2012151608A JP 2013020616 A JP2013020616 A JP 2013020616A
Authority
JP
Japan
Prior art keywords
tracking
communication area
depth image
image
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012151608A
Other languages
English (en)
Other versions
JP6065427B2 (ja
Inventor
Isinu Seong Hua
ション ホアイシヌ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2013020616A publication Critical patent/JP2013020616A/ja
Application granted granted Critical
Publication of JP6065427B2 publication Critical patent/JP6065427B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】オブジェクト追跡方法及び装置を提供する。
【解決手段】かかる方法は、入力された初期深度画像への3次元の連通域解析を行い、初期深度画像の連通域リストを取得する連通域取得ステップと、初期深度画像におけるオブジェクトの既知の現位置からオブジェクト所在の連通域を決定するとともに、該連通域に対応する画像部分におけるn個特徴点(nは自然数)を決定する初期オブジェクト決定ステップと、前記初期深度画像後に入力される後続の深度画像の3次元の連通域解析を行い、前記後続の深度画像の連通域リストの各候補連通域から、前記オブジェクト所在のオブジェクト連通域を識別する追跡ステップと、前記追跡ステップで識別されたオブジェクト連通域から、前記n個特徴点を追跡し、前記オブジェクトの現位置を更新するオブジェクト位置決めステップとを有する。
【選択図】図2

Description

本発明は、オブジェクト追跡方法及びオブジェクト追跡装置に関する。
オブジェクト追跡は、画像分析と機械視覚の分野における最も重要な技術の一つであり、該オブジェクト追跡においては、主に、連続した映像フレームにおけるオブジェクトの関連付けが難しく、特に、オブジェクト対象の移動がフレームレートよりも早くなる場合のオブジェクトの追跡が困難という問題があり、また、運動期間中に追跡されたオブジェクトの向きが変わったことにより一定程度の歪みが生じた場合は、該問題の複雑度がより増してしまうという難点がある。
非特許文献1である「Mathias Kolsch, Doctoral Dissertation, “Vision Based Hand Gesture Interfaces for Wearable Computing and Virtual Environments”, UNIVERSITY OF CALIFORNIA, Santa Barbara, 2004」には、2D(2次元)画像におけるフロック特徴(Flocks of Features)による手追跡方法が提案されている。該方法においては、オプティカル・フロー・ベクトル算出をもとにした、KLT追跡器による複数の特徴点の追跡を行うとともに、ルーズで全体的な制限によるオプティカル・フロー・ベクトルの群分けを行い、オブジェクト位置を予測している。該方法においては、肌色が特徴の群分けで重要な役割を果たし、肌色確率密度関数を特徴点の補充に用いている。このため、手が動き中に肌色近似領域(例えば、顔)を掠めて通ると、追跡結果が目標物から逸れてしまう問題がある。
実際に、従来の2D追跡技術においては、特徴の安定性に劣るという問題と、特徴間の不一致が生じやすいという問題がうまく解決できていない。2Dオブジェクト追跡技術に比べて、3D(3次元)カメラは、3D世界の各対象にさらに深度情報を与えることができ、該深度情報により、座標系のZ軸上の、近似色や形状を有する異なる対象の区別が可能になる。
図1A〜1Dは、3Dカメラの画像処理工程を示した図であり、ここでは、Prime Sense 3Dカメラを例に説明を行う。
図1Aは、シーンを示し、図1Bに示されたPrime Sense 3Dカメラにより、図1Aのシーンが採集され、図1Cに示された深度画像が得られる。深度画像の各画素点には、該画素点に対応する実際の対象の深度座標データ(深度値)が含まれ、例えば、図1Dに示された画素マトリクスにおいて、該マトリクス中の各要素が深度画像中の1画素点に対応し、該画素の値が、ワールド座標における該画素点に対応する対象表面からカメラまでの距離を表し、距離単位は、例えば、mmでもよい。
Prime Sense 3Dカメラの深度値の測定技術の原理としては、先ず、図1Bに示されたカメラで赤外光源から、1グループの非可視赤外線からなるパターン点を図1Aに示されたシーンの対象表面に投射するとともに、CMOSセンサーにより投射後のパターン画像を取得してから、プロセッサにより、パターン光中の点のずれから、三角測定技術による対象表面上の各点の深度値の算出を行う。深度画像は、色情報がないが、例えば、図1Cに示された白黒階調化のように、各種方法で可視化することができる。深度データストリームと画像ストリームを混合することにより、カラーの3D画像を生成することができ、3Dカメラで同期的にRGB画像ストリームとそれぞれに応じた深度値ストリームを出力することができる。
特許文献1であるUS 20100194741 A1には、深度画像におけるオプティカル・フローによるオブジェクト追跡方法が提案されている。該方法においては、孤立領域における各画素点に、それぞれの深度値に応じた白黒階調値付けが行われ、これにより、白黒階調化の方法で、「縞模様(zebra)」パターンを生成し、その後、オプティカル・フロー算法により、各領域中の各画素点の新規位置を決定している。該方法では、速度予測により追跡を安定化させているが、このような単一点の追跡結果のみに依存するボトムアップの処理方法には、エラー伝播の阻止といったポリシーに欠けていることから、該方法によると、特に、長時間の複雑運動追跡の場合は、安定的な追跡結果が得られない。
なお、前記従来技術では、オブジェクト追跡期間中のオブジェクトの結像面内の縮拡尺の判定方法が考慮されていない。イメージ尺度の判定を考慮した従来技術が存在したとしても、用いられている対象尺度予測手段は、通常、確率ブロックマッチングであり、例えば、通常、粒子フィルタ追跡においては現状態へのランダム変化(オブジェクトの尺度を含む)が生じ、変化後のブロックと変化前のブロックの関連係数により、変換後のブロックの重み算出を行い、算出後の平均状態から、その尺度が決められるが、このような尺度処理法は、信頼性が低く、最終追跡結果の正確性に影響を及ぼしてしまう。
特に、マン・マシン・インタラクションシステムの場合、その背景は、通常、任意かつ複雑なものであり、対象の動きも比較的に複雑であるため、運動方向と速度の変化のみならず、運動対象自身の形状調整も存在している。特に、長時間の連続追跡において、如何にこのような環境で、確実かつ安定な追跡結果を得られるかは、極めて重要でかつチャレンジ的なことになっている。
本発明は、従来技術における前述の問題を解決するためになされたものである。本発明によると、深度画像列からオブジェクト追跡を行い、オブジェクトの位置を取得することができ、さらに、オブジェクトの結像面内の縮拡尺を得ることができる。
解題を解決するための手段
前記問題を解決するために、本発明の実施例においては、深度画像に3DCCA(Three-Dimension Connected Component Analysis,3次元連通域解析)技術を適用し、全連通域のリストを取得するとともに、リストから追跡オブジェクトに関連するオブジェクト連通域を最終決定する。3DCCAにおいては、画素の連通性に応じて、近接の画素点への同一のマーク付けを行うことにより、画像を複数の異なる連通域に群分けすることができ、同一連通域内の任意の2画素点間には、少なくとも1本のD−連通路が存在することになる。深度画像への3DCCAにより、複雑な背景環境から異なる深度値を有する対象を識別することができ、オブジェクトのマスク画像を得ることができる。
3DCCA技術を用いると、複雑な背景からの対象の分離が効率よく行えるとともに、オブジェクトの移動履歴情報によるオブジェクトの大略位置の予測が可能になる。オブジェクト所在連通域の予測結果により、さらにオブジェクト所在連通域にオプティカル・フロー方法を用いた特徴点の追跡により、オプティカル・フロー・ベクトルを取得するとともに、複数の特徴点のオプティカル・フロー・ベクトルから、最終オブジェクト位置を抽出することができる。
さらに、3DCCAと深度情報により、オブジェクトの結像面上の縮拡尺の判定、即ち、イメージ尺度の判定が可能になる。初期状態時のオブジェクトの尺度、初期状態時の深度情報、及び現深度情報により、近似三角形理論から、現オブジェクトのイメージ尺度を予測することができる。
本発明の一態様によると、入力された初期深度画像への3次元の連通域解析を行い、初期深度画像の連通域リストを取得する連通域取得ステップと、初期深度画像におけるオブジェクトの既知の現位置から、オブジェクト所在の連通域を決定するとともに、該連通域に対応する画像部分におけるn個特徴点(nは自然数)を決定する初期オブジェクト決定ステップと、前記初期深度画像後に入力される後続の深度画像の3次元の連通域解析を行い、前記後続の深度画像の連通域リストを取得した各候補連通域から、前記オブジェクト所在のオブジェクト連通域を識別する追跡ステップと、前記追跡ステップで識別されたオブジェクト連通域から、前記n個特徴点を追跡し、前記オブジェクトの現位置を更新するオブジェクト位置決めステップと、を有する、オブジェクト追跡方法が提供される。
本発明の他の態様においては、入力された初期深度画像への3次元の連通域解析を行い、初期深度画像の連通域リストを取得する連通域取得装置と、初期深度画像におけるオブジェクトの既知の現位置から、オブジェクト所在の連通域を決定するとともに、該連通域に対応する画像部分におけるn個特徴点(nは自然数)を決定する初期オブジェクト決定装置と、前記初期深度画像後に入力される後続の深度画像の、3次元の連通域解析を行い、前記後続の深度画像の連通域リストを取得した各候補連通域から、前記オブジェクト所在のオブジェクト連通域を識別する追跡装置と、前記追跡装置で識別されたオブジェクト連通域から、前記n個特徴点を追跡し、前記オブジェクトの現位置を更新するオブジェクト位置決め装置と、を有する、オブジェクト追跡装置が提供される。
本発明の実施例においては、3DCCA(3次元連通域解析)技術により、被追跡対象所在の連通域を分割し、各特徴点のオプティカル・フロー追跡結果を、評価する参考基準とする。本発明の実施例は、各種マン・マシンインタラクション応用システムに適用することができ、例えば、マン・マシン・インタラクションゲーム、仮想現実の遠隔制御等の技術方向に適用することができる。
本発明の実施例によると、デプスカメラによるマン・マシンインタラクション応用におけるオブジェクト追跡課題を解決することができ、本発明の実施例の実行は、追跡されるオブジェクトへの特別な要求がなく、特殊なマークや手袋が不要で、外形が明らかなオブジェクトのみならず、非固定オブジェクトにも適用することができ、リアルタイム処理が可能になるとともに、安定かつ確かな追跡結果が得られる。
図1Aは、3Dカメラの画像処理工程におけるシーンを示す図である。図1Bは、図1Aのシーンを採集する3Dカメラを示す図である。図1Cは、図1Aのシーンの深度画像を示すである。図1Dは、図1Cにおける深度画像の画素マトリクスである。 本発明の実施例におけるオブジェクト追跡処理の全体フローチャートである。 深度画像を示す図である。 図3Aに示された深度画像への3DCCA実行結果である。 画像からのオブジェクト決定結果を示す図である。 追跡段階のオブジェクトの結像面上の縮拡尺算出の基本原理図である。 頭部オブジェクト追跡時の頭部オブジェクトイメージ尺度変化図である。 頭部オブジェクト追跡時の他の頭部オブジェクトイメージ尺度変化図である。 本発明の実施例におけるオブジェクト正確位置決めステップのフローチャートである。 追跡ターゲットが手の場合の追跡結果を示した図である。 追跡ターゲットが手の場合の他の追跡結果を示した図である。 本発明の実施例におけるオブジェクト追跡装置のブロック図である。
以下、図面を参照しながら、本発明の実施例を説明する。
図2は、本発明の実施例におけるオブジェクト追跡方法の全体フローチャートである。図2に示されたように、該オブジェクト追跡方法は、入力された初期深度画像への3次元の連通域解析を行い、初期深度画像の連通域リストを取得する連通域取得ステップS100と、初期深度画像におけるオブジェクトの既知の現位置から、オブジェクト所在の連通域を決定するとともに、該連通域に対応する画像部分におけるn個特徴点(nは自然数)を決定する初期オブジェクト決定ステップS200と、前記初期深度画像後に入力される後続の深度画像の3次元の連通域解析を行い、前記後続の深度画像の連通域リストを取得した各候補連通域から、前記オブジェクト所在のオブジェクト連通域を識別する追跡ステップS300と、前記追跡ステップで識別されたオブジェクト連通域から、前記n個特徴点を追跡し、前記オブジェクトの現位置を更新するオブジェクト位置決めステップS400と、を有する。
本発明の実施例で処理される深度画像は、各種公知の入力技術により入力され、例えば、各種深度画像採集装置や保存装置から読み込まれるか、ネットワークにより得られ、処理後に得られる結果は、各種公知の出力技術により出力され、例えば、直接制御情報に変換されるか、各種保存装置に保存され、ネットワーク経由で出力されるか、プリンタにより出力される。
前述の連通域取得ステップS100と初期オブジェクト決定ステップS200は、大略初期化段階と見なすことができ、初期化段階においては、深度画像列における最初の1深度画像を選択して処理を施しているが、任意の深度画像を選択して初期化段階操作を行う場合も、該初期化段階の操作対象となる深度画像を、初期深度画像と称することができる。
前述の追跡ステップS300とオブジェクト位置決めステップS400は、大略追跡段階と見なすことができ、前記初期深度画像後の後続の深度画像となる各深度画像に対し、順次或いは一定間隔で、繰り返し処理を施し、毎回処理される深度画像は、すべて現深度画像と見なすことができ、利用された前回の処理結果が、前回の結果と称され、前回の処理は、後続の深度画像を対象とすることもあり、初期深度画像を対象とすることもある(現在第1の後続の深度画像を処理する場合)。
連通域取得ステップS100は、3DCCA手段により、該深度画像中に含まれるCC(連通域)のリストを取得する。初期化段階、追跡段階に関わらず、先ず図中の全連通域情報を含むリストを取得するための深度画像への3DCCA操作が必要となる。3DCCA(即ち、3次元連通域解析)においては、入力される深度画像に対し、画像座標系のX軸、Y軸方向に近接点を検知するとともに、Z軸上の間隔が一定範囲内の近接点画素に同一の数字番号付けを行い、同一番号の画素が1つの連通域を構成することから、3DCCAの出力は、連通した形状コンポーネントの集合となる。深度画像の3DCCA操作により、3Dカメラから得られる画素レベルの深度情報が少ない数の対象集合に統合され、これらの対象集合を用いることにより、Z軸上の異なる深度の対象の決定や、他のシーンコンテンツの解析が可能になる。
本発明の実施例には、下記のような具体的な3DCCA実施法を用いることができ、該方法は、一般的に用いられる2DCCAをベースに、3D画像データを適用するための変更を加えて得られたものである。
先ず、3DCC(3次元連通域)は、以下のように定義される。
2つの3D点のXY面における投影が近接し、かつその深度変化が一定の閾値D_TH未満であると、該2つの点は、D−連通されているとし、
2つの3D点のPとQにおいて、1グループの3D点リスト(P, p1, p2, . . . pN, Q)が存在し、該リストにおける任意の2つの隣接点がD−連通されていると、該2つの点間にD−連通路が存在するとし、
1つの3D点のD−連通集合において、該集合における各点pにつき、XY面上に該集合の連通条件を満たす状態で該連通集合に加えられるpの近接点が存在しないと、該D−連通集合は、最大D−連通集合とし、即ち、D−連通域とする。
D−連通域を探す方法、即ち、最大限CCを探す3DCCA方法は、以下の通りである。
1.各点(x,y)に、所属する連通域(CC)の番号を付し、LABEL(x,y)と記する。
2.深度差の閾値D_THを定義する。
3.1行列データ構造(先入れ先出し)を定義し、QUEUEと記する。
4.全ての点LABEL(x,y)を、−1に初期化する。
5.現連通域の番号cur_labelを1に設定する。
6.次のLABELが-1となるCCの起点p-startを検索し始め、このような点が存在しないと、繰り返しを停止する。
7.LABEL(p_start)をcur_labelに設定する。
8.全ての点p_startを行列QUEUEに入れる。
9.QUEUEが空でないと、下記ステップを繰り返す。
a.行列からヘッドノードp_head(x,y)を除去する。
b.p_headのm個近接点に対し、順次、
i.LABEL(k)>0(kは、m個近接点の索引値)場合は、次の近接点に進み、
ii.kの近接点の深度とp_headの深度差がD_THであると、第k個近接点を行列に入れるとともに、LABEL(k)をcur_labelとする。
10.cur_labelを1ずつ増やし、ステップ6から繰り返し実行する。
前述の方法において、点(x,y)の近接点は、座標が以下のような点に定義される:(x-1,y-1)、(x-1,y)、(x-1,y+1)、(x,y-1)、(x,y+1)、(x+1,y-1)、(x+1,y)、(x+1,y+1)。近接点の座標位置が画像範囲を超えている(マイナス値か、画像の解像度を超えている)と、処理は行わない。
図3A、3Bは、深度画像への3DCCA実行結果であり、図3Aが深度画像を示し、図中の各画素点のそれぞれの濃淡階調値が、それぞれの深度の遠近情報を表している。図3Bは、図3Aに示された深度画像への3DCCA実行結果であり、得られたそれぞれの連通域は、それぞれの階調(色)で区分されている。これにより、手が伸ばされると、図3Bの矩形フレームQ1で示されたように、3DCCAにより、身体と環境から手を確実に分割することが可能になる。
3DCCAは、算法の最適化により、その実行効率の改善が可能であり、さらに、実際の需要に応じて、3DCCAを局所領域に適用し、より高い効率を得ることができる。
初期オブジェクト決定ステップS200においては、初期化段階であるため、外部入力により、オブジェクト位置を指定し、簡単に四角い枠でオブジェクトを囲むか、リアルタイムな検知演算子により、オブジェクトを検知識別することができる。該段階において、オブジェクトの位置が予め分かるため、オブジェクトに関連付けられたCCリストから簡単にオブジェクトの所在するCCを確定することができる。
なお、例えば、最近接最大連通域原則等の啓発式規則により、オブジェクトの所在するCCを自動確定してもよい。
図4は、画像からのオブジェクト決定結果を示す図である。図4において、矩形フレームQ2の白領域が、オブジェクトが手の場合のオブジェクトに関連付けられた連通域を表す。初期段階であるため、図4における手オブジェクトを分割する目的であれば、図4に矩形フレームQ2を引き、矩形フレームQ2の領域内で局所3DCCA操作を行えばよい。図4における矩形フレームQ2においては、3DCCA後に手CCと背景CCの2つのCC領域を有することになり、最近接でかつ大面積の手CCが追跡すべきオブジェクトの所在するCCとなる。
オブジェクト所在のCC決定後は、オブジェクトのマスク画像を得ることができる。マスク画像に対応する階調画像(このときの階調画像は、深度画像の可視化後に得られる画像を指し、該階調画像によりオプティカル・フローの追跡が可能になる)や、マスク画像に対応する深度画像と同期するRGBカラー画像から、以後のオプティカル追跡のためのn個特徴点を選択する。即ち、前記対応する画像部分が位置する深度画像或いは深度画像と同期する色画像から、前記n個特徴点を抽出する。
この時の特徴点は、階調画像(RGBカラー画像もカラー除去操作により階調画像に変換することができる)に比較的に大きな応答値を持つコーナーを指し、例えば、harrisコーナーを指している。n個特徴点の相互間隔は、一定の閾値(第1の閾値とする)以上であり、任意の2つの特徴点の空間上の間隔が近すぎないように、相互間の間隔の最小距離を制限することで、各自の追跡結果の有効性を確保することができる。換言すると、前記n個特徴点の相互間隔が第1の閾値以上であり、かつ前記n個特徴点のそれぞれが、特定の追跡演算子において隣接画素点と区別されるコーナーとなる。
オープン・ソース・アイテムOpenCV中の関数GoodFeaturesToTrackを用いて、要求を満たす特徴点を選出することができる。
次に、オブジェクト工程は、追跡段階に進む。
追跡段階において、初期深度画像後に入力される各深度画像(後続深度画像)に対し、先ず、3DCCA操作を行い、各深度画像のCCリストを取得してから、オブジェクトCCを決定する。具体的に、前記追跡ステップS300において、後続の深度画像の連通域リストの各候補連通域から、オブジェクトの前回決められた位置に、動き予測後の状態変化を加算した結果と類似度が最も高くなる候補連通域を検索し、前記オブジェクトの現在所在するオブジェクト連通域とする。
後続深度画像の配列における現在処理される深度画像に対し、初期深度画像に用いられる手段と同様の手段により3DCCA操作を施し、該現在深度画像のCCリストを取得する。しかし、オブジェクトCCの決定工程においては、初期化段階と異なり、この時はオブジェクトCCの位置が未知であり、CCリストにおける全連通域がオブジェクト候補連通域となる。追跡ステップS300におけるオブジェクト所在のCCの確定は、CCリストからの1CCの検索により行われ、該CCは、被追跡オブジェクトの前回の所在位置に動き予測後の状態変化を加算した結果と最も類似した特徴を有するべきであり、即ち、類似度が最も高くなるべきである。
前記類似度は、候補連通域の位置の、オブジェクトの前回の確定位置にx軸、y軸、z軸方向の予測動き変位を加算した後に得られる予測位置との位置差(運動速度ベクトル差と同等である)と、候補連通域の前回の確定オブジェクト連通域との面積差により、決められる。
ここで、オブジェクトCCの検索は、オブジェクトCCの識別や、オブジェクトCCの粗位置決め予測と見なすことができる。深度画像への3DCCAにより、画素レベルの深度情報がオブジェクトCCのリストに集約され、オブジェクトの画素レベルでの単独の識別よりも処理が容易となる。簡単な手段により、オブジェクト所在のCCを検索することができ、例えば、以下の距離算出式(1)により、前回のオブジェクトCCまでの位置と最も近似するCCを検索することができる。
Figure 2013020616
式中、||.||は、ユークリッドノルム演算子であり、nは、深度画像列における各フレーム深度画像の索引値であり、現在第nフレーム深度画像を処理するとした場合、iは、現在の第nフレーム深度画像から得られた候補連通域の索引値であり、V(n-1)は、前回の第(n-1)フレーム深度画像のオブジェクト追跡結果のx軸、y軸、z軸方向における速度ベクトルであり、Vi(n)は、現在第nフレーム深度画像の場合、第iの候補連通域がオブジェクト連通域時のx軸、y軸、z軸方向における運動速度ベクトルであり、A(n-1)は、前回の第(n-1)フレーム深度画像におけるオブジェクト連通域の面積であり、Ai(n)は、現在の第nフレームの第iの候補連通域の面積であり、aは、重みであり、ユーザの体験やテスト統計解析結果から決められ、Diは、現在の第iの候補CCと前回のオブジェクトCC間の類似度の度量距離である。
Diの値が小さくなるほど、該候補連通域と、前回のオブジェクト連通域との類似度が高くなると判断することができ、最小のDi値が得られた第iの候補連通域が現在のオブジェクト連通域となる。
オブジェクト連通域の検索工程において、考慮されるオブジェクト状態には、x軸、y軸、z軸方向の運動速度ベクトルとオブジェクトに関連付けられたCC面積のみならず、他のCCに対応付けられた階調や、カラー画像の色ヒストグラムのような特徴量が含まれてもよい。
なお、他の手段により、オブジェクトCCの決定を行ってもよく、例えば、マシン学習方法により実現してもよい。具体的には、分類器の訓練により、オブジェクトCCの識別を行ってもよい。分類器の訓練工程においては、速度ベクトルと連通域面積や、他の特徴量を分類器訓練時の入力としてもよい。
追跡ステップS300後は、オブジェクトCCが、対象レベルのリストから、オブジェクト位置の大略予測が得られ、前記追跡ステップで識別されたオブジェクトの初期深度画像におけるオブジェクトのイメージ尺度を決定するイメージ尺度決定ステップをさらに有してもよい。現在の追跡オブジェクトイメージ尺度の計算により、オブジェクトの現在の状態へのより正確な記述が行いやすくなる。特に、追跡オブジェクトが背景と同等深度の位置に動いた場合、オブジェクトは、大範囲CCにおける局所部分となり、周囲とはっきり区別されるような周囲との完全な孤立ができない場合、大きなCCからのオブジェクト所在の部分CCの境界定めのためのオブジェクトイメージ尺度の算出がより必要となる。
追跡段階におけるオブジェクトの結像面上の尺度変化を算出するためには、オブジェクトCCの平均深度値の算出が必要となるとともに、その初期状態における平均深度及び初期状態におけるオブジェクトのイメージ尺度の記録が必要となる。
図5は、追跡段階のオブジェクト結像面上の縮拡尺算出の基本原理図である。
図5に示されたように、オブジェクトObjをカメラCameraの左側に載置し、最初フレームの深度画像中の平均深度がd0で、後続のあるフレームにおける第nフレーム(nは、1ではない自然数)の深度画像中の平均深度がdnである。カメラCameraの右側が結像面Planであり、オブジェクトObjのカメラCameraまでの距離がd0(平均深度d0)時、結像面上のイメージ尺度がS0となり、オブジェクトObjのカメラCameraまでの距離がdn(平均深度dn)時、結像面上のイメージ尺度がSnとなる。オブジェクトObjの実際の尺度はHであり、オブジェクトObjのカメラCameraまでの距離がd0時に、オブジェクトObjのdnにおける投影尺度はLとなる(カメラ位置を点光源とした投影)。これにより、近似三角形原理により、S0/Sn=L/Hとなり、L/H=dn/d0であることから、S0/Sn=dn/d0から、オブジェクトの所在位置の結像面上のイメージ縮拡尺を算出する式(2)を導出することができる。
Figure 2013020616
前記イメージ尺度決定ステップにおいては、式(2)のSn=d0/dn*S0により、イメージ尺度を算出し、式中、dnは、前記追跡ステップで識別された前記オブジェクト所在のオブジェクト連通域の平均深度であり、d0は、初期深度画像中の決定オブジェクト所在のオブジェクト連通域の平均深度であり、S0は、初期深度画像中のオブジェクトのイメージ尺度であり、Snは、前記オブジェクトの該後続深度画像におけるイメージ尺度である。
式(2)により、図5に示された場合を算出し、図5におけるdnがd0の2倍であると、dn位置上のオブジェクトのイメージ尺度Snは、d0位置時のイメージ尺度S0の半分となる。該式(2)の算出結果が人間の直感感受と一致することは言うまでもない。
図6A、6Bは、頭部オブジェクト追跡時の頭部オブジェクトイメージ尺度変化図であり、図6A、図6Bは、それぞれ異なるフレームを表し、図6Aにおける矩形フレームQ3が、追跡ターゲットを表し、図6Bにおける矩形フレームQ4も、追跡ターゲットを表しているが、図6Aに示された追跡ターゲットは、図6Bにおいてはイメージ尺度の変化がある。
オブジェクト連通域の予測により、オブジェクトの大略位置と、結像面内のイメージ縮拡尺の予測のみならず、オブジェクトの大略の形状記述も可能になり、非固定対象の追跡が容易になる。
次に、オブジェクト位置決めステップS400において、例えばオプティカル・フロー方法により、より正確なオブジェクト位置決め点の予測を得ることができる(画像座標において、オブジェクトの尺度を省略して1位置決め点に抽象化し、該点の位置がオブジェクトの画像における位置を表すことになる)。本発明の実施例においては、オブジェクトレベル上の情報が、オブジェクト位置の正確予測に用いられ、このような情報には、オブジェクト連通域の形状のみならず、オブジェクト連通域内の複数点のオプティカル・フロー追跡と中間値特徴の抽出で共通に表されるオブジェクトレベルの情報が含まれている。
図7は、本発明の実施例におけるオブジェクト正確位置決めステップのフローチャートである。
図7に示されたように、前記オブジェクト位置決めステップS400において、前記後続の深度画像から、KLT追跡器による前記n個特徴点の追跡を行う特徴点追跡ステップS420と、オブジェクト連通域のマスク画像情報から、追跡された各特徴点の階級量子化を行い、追跡された各特徴点の重み付けを行う階級量子化ステップS440と、追跡特徴点の群分けを行うとともに、群の中心点を算出し、前記オブジェクトの現位置を更新する群分けステップS460と、を有する。
特徴点追跡ステップS420において、KLT追跡器による各特徴点の追跡を行い、各特徴点の現在処理した後続深度画像上の新規位置点を取得する。例えば、OpenCVの関数cvCalcOpticalFlowPyrLKにより、特徴点のオプティカル・フロー・ベクトルを算出し、特徴点の該後続の深度画像上の対応する新規位置を取得する。
前記特徴点追跡ステップS420後で、前記階級量子化ステップS440前に、追跡特徴点における、特徴点の追跡中の誤差が第2の所定閾値を超えた特徴点の除去を行う第1の除去ステップをさらに有する。例えば、OpenCVの関数cvCalcOpticalFlowPyrLKにより、特徴点のオプティカル・フロー・ベクトルを算出する場合、最大の誤差パラメータ(第2の閾値)の値を1150に設定することができ、誤差パラメータが該値を超える追跡結果は除去することにより、最初に、特徴点オプティカル・フロー追跡中の誤差の高い、または関連性の低い追跡特徴点を除去することができる。1150は、第2閾値の1例にすぎず、第2閾値は、例えば、1100、1200等の他の値でもよいことは言うまでもない。
階級量子化ステップS440において、オブジェクト連通域のマスク画像情報により、各追跡特徴点の階級量子化を行い、前記第1の除去ステップを行った場合は、第1の除去後の残りの各追跡特徴点の重み算出を行う。用いられる簡単な処理方法としては、追跡特徴点の新規位置がオブジェクト連通域の予測領域内にあると、重み付けを1とし、それ以外は、0とする。
前記階級量子化ステップS440後で、前記群分けステップS460前に、追跡特徴点における追跡特徴点の重心との間隔が最も大きくなる所定比例数の特徴点の除去を行う第2の除去ステップをさらに有する。
群分けステップS460において、存在する追跡特徴点(前記第2の除去ステップを行った場合は、前記第2の除去操作後の残りの追跡特徴点)により、各特徴点までも総距離は最も短くなるその群の中心点を算出し、該群の中心点を、比較的正確にオブジェクト追跡のオブジェクト位置決め点とすることができる。用いられる群分け実施方式としては、例えば、P1,P2,P3,…,Pmのように、残りのm(mは、自然数)の追跡特徴点の番号付けを行い、第iの点(iは、索引値であり、1……mである)を群の中心点とし、該第iの特徴点から他の各特徴点までの距離の総長
Figure 2013020616
を算出し、最後に、i=1……mにおいて、Dtiが最小値となる時の特徴点位置を探し、最終群分けの中心点とする。このときの最終群分けの中心点位置を前記オブジェクトの現位置とする。
各追跡サイクルにおいて、前記操作後に追跡特徴点の数が減少する場合があることから、新規特徴点を特徴点集合に補充することで、次のフレームの深度画像の追跡に必要な数の特徴点を満足することができる。
換言すると、前記群分けステップS460後に、オブジェクトの特徴点総数がnとなるように、また、前記オブジェクト内に位置し、かつ補充後のn個特徴点の相互間隔が、第1の所定閾値以上になるように、新規特徴点を補充する補充ステップをさらに有してもよい。
前述の具体的なオプティカル・フロー追跡方法には、予測したオブジェクト連通域の形状情報が十分用いられており、下層から得られた画素点のオプティカル・フロー情報が用いられるとともに、上層の対象レベルの情報が組み合わせられ、追跡結果の正確性、特に非固定オブジェクトの追跡結果の信頼性を確保することができる。
図8A、8Bは、追跡ターゲットが手の場合の追跡結果を示した図である。図8Aにおいて、矩形フレームQ5 は、追跡ターゲットの手を表し、e1を例とした複数の微小点で追跡特徴点を表し、比較的に大きな点T1でターゲット位置決め点の予測結果を表している。図8Bにおいて、矩形フレームQ6 は、追跡ターゲットの手を表し、e2を例とした複数の微小点で追跡特徴点を表し、比較的に大きな点T2でターゲット位置決め点の予測結果を表している。
本発明は、さらに、前述のオブジェクト追跡方法を実行するオブジェクト追跡装置として実施することが可能である。図9は、本発明の実施例におけるオブジェクト追跡装置のブロック図である。
図9に示されたように、本発明の実施例によるオブジェクト追跡装置は、入力された初期深度画像への3次元の連通域解析を行い、初期深度画像の連通域リストを取得する、前述の連通域取得ステップS100を実行する連通域取得装置100と、初期深度画像におけるオブジェクトの既知の現位置から、オブジェクト所在の連通域を決定するとともに、該連通域に対応する画像部分におけるn個特徴点(nは自然数)を決定する、前記初期オブジェクト決定ステップS200を実行する初期オブジェクト決定装置200と、前記初期深度画像後に入力される後続の深度画像の3次元の連通域解析を行い、前記後続の深度画像の連通域リストを取得した各候補連通域から、前記オブジェクト所在のオブジェクト連通域を識別する、前記追跡ステップS300を実行する追跡装置300と、前記追跡装置300で識別されたオブジェクト連通域から、前記n個特徴点を追跡し、前記オブジェクトの現位置を更新する、前記オブジェクト位置決めステップS400を実行するオブジェクト位置決め装置400と、を有する。
ここで、前記n個特徴点の相互間隔が、第1の所定閾値以上であり、前記n個特徴点のそれぞれが、特定の追跡演算子において、隣接画素点のコーナーと区別されるようにしてもよい。
また、前記n個特徴点が抽出された前記対応画像部分が、深度画像に位置するか、深度画像と同期する色画像に位置するようにしてもよい。
前記追跡装置300は、後続の深度画像の連通域リストの各候補連通域から、オブジェクトの前回決められた位置に、動き予測後の状態変化を加算した結果と類似度が最も高くなる候補連通域を検索し、前記オブジェクトの現在所在するオブジェクト連通域とする。
本発明の実施例におけるオブジェクト追跡装置は、さらに、前記追跡装置300で識別されたオブジェクト連通域の、初期深度画像におけるオブジェクトのイメージ尺度を決定する、前記イメージ尺度決定ステップ実行するイメージ尺度決定装置を有する。
ここで、前記イメージ尺度決定装置は、前記追跡装置300で識別された前記オブジェクト所在のオブジェクト連通域の平均深度をdnとし、初期深度画像から決められたオブジェクト所在のオブジェクト連通域の平均深度をd0とし、初期深度画像におけるオブジェクトのイメージ尺度をS0とし、前記オブジェクトの該後続の深度画像におけるイメージ尺度をSnとした時、Sn=d0/dn*S0により、イメージ尺度を計算するようにしてもよい。
ここで、前記オブジェクト位置決め装置400は、前記後続の深度画像から、KLT追跡器による前記n個特徴点の追跡を行う、前記特徴点追跡ステップS420を行う特徴点追跡装置と、オブジェクト連通域のマスク画像情報から、追跡された各特徴点の階級量子化を行い、追跡された各特徴点の重み付けを行う、前記階級量子化ステップを行う階級量子化装置と、追跡特徴点の群分けを行うとともに、群の中心点を算出し、前記オブジェクトの現位置を更新する、前記群分けステップS460を行う群分け装置と、を有してもよい。
ここで、前記特徴点追跡装置と、前記階級量子化装置との間に、追跡特徴点における、特徴点の追跡中の誤差が第2の所定閾値を超えた特徴点の除去を行う、前記第1の除去ステップを実行する第1の除去装置をさらに有し、前記階級量子化装置と、前記群分け装置の間に、追跡特徴点における追跡特徴点の重心との間隔が最も大きくなる所定比例数の特徴点の除去を行う、第2の除去ステップを実行する第2の除去装置さらに有するようにしてもよい。
本発明の実施例におけるオブジェクト追跡装置は、前記群分けステップ後に、オブジェクトの特徴点総数がnとなるように、また、前記オブジェクト内に位置し、かつ補充後のn個特徴点の相互間隔が、第1の所定閾値以上になるように、新規特徴点を補充する、前記補充ステップを実行する補充装置をさらに有するようにしてもよい。
本発明の実施例におけるオブジェクト追跡方法及びオブジェクト追跡装置においては、深度画像への3次元連通域解析を行い、全連通域リストを取得し、連通域の動き予測を行い、連通域リストから、オブジェクト所在の連通域を識別するとともに、オブジェクトの結像面におけるイメージ尺度の予測を行い、信頼性のある対象レベルの情報(オブジェクト連通域)を提供することにより、特徴群分け処理における各追跡特徴点の評価に重要な基準情報を提供することができ、複数の特徴点のオプティカル・フロー追跡における特徴点の補充を実現可能にする。連通域の分割と複数点追跡の相互補充により、誤差の伝播を効率よく防止することができ、安定した追跡結果を得ることができる。
本発明の実施例においては、非特許文献1と比べて、オブジェクトの分割が、深度図への3DCCA操作及び運動の連続性により行われるため、2D追跡における色干渉の影響を無くすことができ、より高信頼性の追跡結果を得ることができる。
本発明の実施例においては、特許文献1に比べて、オブジェクトに関連付けられた連通域の確定により、大略位置を先ず粗予測し、粗予測のもと、オプティカル・フロー方法を用いて、より正確な位置を得ている。本発明の実施例は、全体と局部の情報が組み合わせられており、アップからボトムへ、及びボトムからアップへの処理が用いられているため、特許文献1における方法よりも、安定した追跡がより容易に実現可能となる。なお、連通域から、形状エッジ情報が得られるとともに、連通域マスクに対応する画像に、相互間隔が所定値以上の複数特徴点の追跡が用いられ、追跡中のオブジェクトの形状変化が反映されているため、本発明の実施例によると、非固定対象の追跡処理がより容易に行える。
また、本発明の実施例は、深度情報と近似三角形理論により、結像面のオブジェクトのイメージ尺度を計算することにより、より正確なオブジェクト表示と特徴抽出が容易に行えるとともに、より安定した追跡が可能になる。
また、本明細書における一連の動作は、ハードウェアや、ソフトウェアや、ハードウェアとソフトウェアの組み合わせから実行することができる。ソフトウェアによる該一連の動作の実行時には、コンピュータプログラムを専用ハードウェアに内蔵されたコンピュータのメモリにインストールし、コンピュータにより該コンピュータプログラムを実行させてもよい。或いは、コンピュータプログラムを各種処理が実行可能な汎用コンピュータにインストールし、コンピュータにより該コンピュータプログラムを実行させてもよい。
例えば、コンピュータプログラムを記録媒体であるハードディスクやROMに予め保存するか、一時または永久的にコンピュータプログラムをフロッピや、CD−ROMや、MOや、DVDや、磁気ディスクや、半導体メモリ等のような移動記録媒体に記憶(記録)することができ、このような移動記録媒体をパッケージとして提供してもよい。
前述の具体的な実施例によって、本発明を詳細に説明したが、本発明の精神を逸脱しない範囲内の実施例への修正や代替が可能なことは言うまでもない。換言すると、本発明は、説明の形式で開示されており、制限的に解釈されるものではない。本発明の要旨は、添付された特許請求の範囲で判断されるべきである。

Claims (10)

  1. 入力された初期深度画像への3次元の連通域解析を行い、前記初期深度画像の連通域リストを取得する連通域取得ステップと、
    前記初期深度画像におけるオブジェクトの既知の現位置から、前記オブジェクト所在の連通域を決定するとともに、該連通域に対応する画像部分におけるn個特徴点(nは自然数)を決定する初期オブジェクト決定ステップと、
    前記初期深度画像後に入力される後続の深度画像の3次元の連通域解析を行い、前記後続の深度画像の連通域リストを取得した各候補連通域から、前記オブジェクト所在のオブジェクト連通域を識別する追跡ステップと、
    前記追跡ステップで識別された前記オブジェクト連通域から、前記n個特徴点を追跡し、前記オブジェクトの現位置を更新するオブジェクト位置決めステップと、を有する、オブジェクト追跡方法。
  2. 前記n個特徴点の相互間隔が第1の所定閾値以上であり、前記n個特徴点のそれぞれが、特定の追跡演算子において、隣接画素点のコーナーと区別される、請求項1に記載のオブジェクト追跡方法。
  3. 前記n個特徴点が抽出された前記対応画像部分が、深度画像に位置するか、深度画像と同期する色画像に位置する、請求項2に記載のオブジェクト追跡方法。
  4. 前記追跡ステップにおいて、前記後続の深度画像の連通域リストの各候補連通域から、前記オブジェクトの前回決められた位置に動き予測後の状態変化を加算した結果と類似度が最も高くなる候補連通域を検索し、前記オブジェクトの現在所在するオブジェクト連通域とする、請求項1に記載のオブジェクト追跡方法。
  5. 前記追跡ステップ後に、さらに、前記追跡ステップで識別された前記オブジェクト連通域の前記初期深度画像における前記オブジェクトのイメージ尺度を決定するイメージ尺度決定ステップを有する、請求項1に記載のオブジェクト追跡方法。
  6. 前記イメージ尺度決定ステップにおいて、
    前記追跡ステップで識別された前記オブジェクト所在のオブジェクト連通域の平均深度をdnとし、前記初期深度画像から決められた前記オブジェクト所在のオブジェクト連通域の平均深度をd0とし、前記初期深度画像における前記オブジェクトのイメージ尺度をS0とし、前記オブジェクトの前記後続の深度画像におけるイメージ尺度をSnとしたとき、Sn=d0/dn*S0により、前記イメージ尺度を計算する、請求項5に記載のオブジェクト追跡方法。
  7. 前記オブジェクト位置決めステップにおいて、
    前記後続の深度画像から、KLT追跡器による前記n個特徴点の追跡を行う特徴点追跡ステップと、
    前記オブジェクト連通域のマスク画像情報から、追跡された各特徴点の階級量子化を行い、追跡された各特徴点の重み付けを行う階級量子化ステップと、
    追跡特徴点の群分けを行うとともに、群の中心点を算出し、前記オブジェクトの現位置を更新する群分けステップと、を有する請求項1に記載のオブジェクト追跡方法。
  8. 前記特徴点追跡ステップ後で、前記階級量子化ステップ前に、追跡特徴点において特徴点の追跡中の誤差が第2の所定閾値を超えた特徴点の除去を行う第1の除去ステップをさらに有し、
    前記階級量子化ステップ後で、前記群分けステップ前に、追跡特徴点において追跡特徴点の重心との間隔が最も大きくなる所定比例数の特徴点の除去を行う第2の除去ステップをさらに有する、請求項7に記載のオブジェクト追跡方法。
  9. 前記群分けステップ後に、オブジェクトの特徴点総数がnとなるように、また、前記オブジェクト内に位置し、かつ補充後のn個特徴点の相互間隔が第1の所定閾値以上になるように、新規特徴点を補充する補充ステップをさらに有する、請求項7に記載のオブジェクト追跡方法。
  10. 入力された初期深度画像への3次元の連通域解析を行い、前記初期深度画像の連通域リストを取得する連通域取得装置と、
    前記初期深度画像におけるオブジェクトの既知の現位置から、前記オブジェクト所在の連通域を決定するとともに、該連通域に対応する画像部分におけるn個特徴点(nは自然数)を決定する初期オブジェクト決定装置と、
    前記初期深度画像後に入力される後続の深度画像の3次元の連通域解析を行い、前記後続の深度画像の連通域リストを取得した各候補連通域から、前記オブジェクト所在のオブジェクト連通域を識別する追跡装置と、
    前記追跡装置で識別された前記オブジェクト連通域から、前記n個特徴点を追跡し、前記オブジェクトの現位置を更新するオブジェクト位置決め装置と、を有する、オブジェクト追跡装置。
JP2012151608A 2011-07-07 2012-07-05 オブジェクト追跡方法及びオブジェクト追跡装置 Active JP6065427B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201110190299.8 2011-07-07
CN201110190299.8A CN102867311B (zh) 2011-07-07 2011-07-07 目标跟踪方法和目标跟踪设备

Publications (2)

Publication Number Publication Date
JP2013020616A true JP2013020616A (ja) 2013-01-31
JP6065427B2 JP6065427B2 (ja) 2017-01-25

Family

ID=47446167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012151608A Active JP6065427B2 (ja) 2011-07-07 2012-07-05 オブジェクト追跡方法及びオブジェクト追跡装置

Country Status (2)

Country Link
JP (1) JP6065427B2 (ja)
CN (1) CN102867311B (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123529A (zh) * 2013-04-25 2014-10-29 株式会社理光 人手检测方法及系统
CN105261033A (zh) * 2015-09-15 2016-01-20 山东大学 一种基于深度图像或深度视频序列的实时跟踪目标的计算方法
CN106405531A (zh) * 2016-09-05 2017-02-15 南京理工大学 基于图像处理技术的被动毫米波辐射成像系统测距方法
CN108827181A (zh) * 2018-03-14 2018-11-16 浙江大学山东工业技术研究院 一种基于视觉的板材表面检测方法
CN109325967A (zh) * 2018-09-14 2019-02-12 腾讯科技(深圳)有限公司 目标跟踪方法、装置、介质以及设备
CN110136174A (zh) * 2019-05-22 2019-08-16 北京华捷艾米科技有限公司 一种目标对象跟踪方法和装置
CN111028268A (zh) * 2019-12-26 2020-04-17 陕西理工大学 一种目标跟踪中快速目标尺度估计方法
CN113793316A (zh) * 2021-09-13 2021-12-14 合肥合滨智能机器人有限公司 一种超声扫查区域提取方法、装置、设备和存储介质
KR20220096157A (ko) * 2020-12-30 2022-07-07 서울대학교산학협력단 마커리스 기반의 3차원 영상 정합 방법 및 이를 이용한 3차원 객체 추적 방법 및 장치

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103440667B (zh) * 2013-07-19 2016-08-10 杭州师范大学 一种遮挡状态下运动目标稳定追踪的自动装置
CN103400395A (zh) * 2013-07-24 2013-11-20 佳都新太科技股份有限公司 一种基于haar特征检测的光流跟踪方法
CN104978558B (zh) * 2014-04-11 2018-05-08 北京数码视讯科技股份有限公司 目标的识别方法及装置
JP2016033759A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
CN104392208A (zh) * 2014-11-10 2015-03-04 成都信升斯科技有限公司 一种数据智能识别的加工处理方法
CN104680134B (zh) * 2015-02-04 2018-01-12 四川长虹电器股份有限公司 快速人体检测方法
CN105550692B (zh) * 2015-12-30 2018-08-31 南京邮电大学 基于标志物颜色及轮廓检测的无人机自动寻的着陆方法
CN105628951B (zh) * 2015-12-31 2019-11-19 北京迈格威科技有限公司 用于测量对象的速度的方法和装置
CN105761245B (zh) * 2016-01-29 2018-03-06 速感科技(北京)有限公司 一种基于视觉特征点的自动跟踪方法及装置
CN105678795B (zh) * 2016-03-02 2018-09-21 大连海事大学 一种现场鞋印图像检验方法
CN106067031B (zh) * 2016-05-26 2019-05-24 北京新长征天高智机科技有限公司 基于人工纠错机制与深度学习网络协作机器视觉识别系统
CN106384353A (zh) * 2016-09-12 2017-02-08 佛山市南海区广工大数控装备协同创新研究院 一种基于rgbd的目标定位方法
CN107958458B (zh) 2016-10-17 2021-01-22 京东方科技集团股份有限公司 图像分割方法、图像分割系统及包括其的设备
CN107992789B (zh) * 2016-10-27 2020-09-15 比亚迪股份有限公司 识别交通灯的方法、装置及车辆
CN106778471B (zh) * 2016-11-17 2019-11-19 京东方科技集团股份有限公司 自动跟踪购物车
CN107481260A (zh) * 2017-06-22 2017-12-15 深圳市深网视界科技有限公司 一种区域人群滞留检测方法、装置和存储介质
CN107403353A (zh) * 2017-06-22 2017-11-28 非常云智慧科技(常州)有限公司 一种基于增强现实的比价信息获取方法及装置
CN107578528B (zh) * 2017-09-05 2019-08-23 深圳怡化电脑股份有限公司 一种纸币的识别方法、装置、终端设备和存储介质
CN109544635B (zh) * 2018-10-10 2020-11-13 长安大学 一种基于枚举试探的相机自动标定方法
CN109615647A (zh) * 2018-10-24 2019-04-12 北京升哲科技有限公司 目标检测方法和装置
CN111383231B (zh) * 2018-12-28 2023-10-27 成都皓图智能科技有限责任公司 一种基于3d图像的图像分割方法、装置及系统
CN109753940B (zh) * 2019-01-11 2022-02-22 京东方科技集团股份有限公司 图像处理方法及装置
US10423840B1 (en) * 2019-01-31 2019-09-24 StradVision, Inc. Post-processing method and device for detecting lanes to plan the drive path of autonomous vehicle by using segmentation score map and clustering map
CN112015170A (zh) * 2019-05-29 2020-12-01 北京市商汤科技开发有限公司 运动物体检测及智能驾驶控制方法、装置、介质及设备
CN110188719B (zh) * 2019-06-04 2022-03-29 北京字节跳动网络技术有限公司 目标跟踪方法和装置
CN110232706B (zh) * 2019-06-12 2022-07-29 睿魔智能科技(深圳)有限公司 多人跟拍方法、装置、设备及存储介质
CN110335342B (zh) * 2019-06-12 2020-12-08 清华大学 一种用于沉浸式模拟器的手部模型实时生成方法
CN110853077B (zh) * 2019-10-17 2023-05-30 广西电网有限责任公司电力科学研究院 一种基于形态变化估计的自适应红外动态帧特征提取方法
CN112488029B (zh) * 2020-12-10 2022-07-08 重庆邮电大学 一种基于空地协同的车辆检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348180A (ja) * 1999-06-01 2000-12-15 Fujitsu Ltd 移動領域追跡方法及び装置及び記録媒体
JP2005092451A (ja) * 2003-09-16 2005-04-07 Sony Corp 頭部検出装置及び頭部検出方法、並びに頭部検出プログラム
JP2005309777A (ja) * 2004-04-21 2005-11-04 Toyota Motor Corp 画像処理方法
JP2006078261A (ja) * 2004-09-08 2006-03-23 Nissan Motor Co Ltd 物体検出装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7965866B2 (en) * 2007-07-03 2011-06-21 Shoppertrak Rct Corporation System and process for detecting, tracking and counting human objects of interest
CN102063725B (zh) * 2010-12-30 2013-05-08 Tcl集团股份有限公司 一种基于深度信息的多目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348180A (ja) * 1999-06-01 2000-12-15 Fujitsu Ltd 移動領域追跡方法及び装置及び記録媒体
JP2005092451A (ja) * 2003-09-16 2005-04-07 Sony Corp 頭部検出装置及び頭部検出方法、並びに頭部検出プログラム
JP2005309777A (ja) * 2004-04-21 2005-11-04 Toyota Motor Corp 画像処理方法
JP2006078261A (ja) * 2004-09-08 2006-03-23 Nissan Motor Co Ltd 物体検出装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123529A (zh) * 2013-04-25 2014-10-29 株式会社理光 人手检测方法及系统
CN104123529B (zh) * 2013-04-25 2018-04-10 株式会社理光 人手检测方法及系统
CN105261033A (zh) * 2015-09-15 2016-01-20 山东大学 一种基于深度图像或深度视频序列的实时跟踪目标的计算方法
CN106405531A (zh) * 2016-09-05 2017-02-15 南京理工大学 基于图像处理技术的被动毫米波辐射成像系统测距方法
CN108827181A (zh) * 2018-03-14 2018-11-16 浙江大学山东工业技术研究院 一种基于视觉的板材表面检测方法
CN109325967B (zh) * 2018-09-14 2023-04-07 腾讯科技(深圳)有限公司 目标跟踪方法、装置、介质以及设备
CN109325967A (zh) * 2018-09-14 2019-02-12 腾讯科技(深圳)有限公司 目标跟踪方法、装置、介质以及设备
US12106491B2 (en) 2018-09-14 2024-10-01 Tencent Technology (Shenzhen) Company Limited Target tracking method and apparatus, medium, and device
CN110136174A (zh) * 2019-05-22 2019-08-16 北京华捷艾米科技有限公司 一种目标对象跟踪方法和装置
CN110136174B (zh) * 2019-05-22 2021-06-22 北京华捷艾米科技有限公司 一种目标对象跟踪方法和装置
CN111028268A (zh) * 2019-12-26 2020-04-17 陕西理工大学 一种目标跟踪中快速目标尺度估计方法
CN111028268B (zh) * 2019-12-26 2023-02-24 陕西理工大学 一种目标跟踪中快速目标尺度估计方法
KR20220096157A (ko) * 2020-12-30 2022-07-07 서울대학교산학협력단 마커리스 기반의 3차원 영상 정합 방법 및 이를 이용한 3차원 객체 추적 방법 및 장치
KR102580750B1 (ko) 2020-12-30 2023-09-19 서울대학교산학협력단 마커리스 기반의 3차원 영상 정합 방법 및 이를 이용한 3차원 객체 추적 방법 및 장치
CN113793316A (zh) * 2021-09-13 2021-12-14 合肥合滨智能机器人有限公司 一种超声扫查区域提取方法、装置、设备和存储介质
CN113793316B (zh) * 2021-09-13 2023-09-12 合肥合滨智能机器人有限公司 一种超声扫查区域提取方法、装置、设备和存储介质

Also Published As

Publication number Publication date
JP6065427B2 (ja) 2017-01-25
CN102867311A (zh) 2013-01-09
CN102867311B (zh) 2015-11-25

Similar Documents

Publication Publication Date Title
JP6065427B2 (ja) オブジェクト追跡方法及びオブジェクト追跡装置
CN111402336B (zh) 基于语义slam的动态环境相机位姿估计及语义地图构建方法
US8401225B2 (en) Moving object segmentation using depth images
JP5881743B2 (ja) 奥行きマップを使用したモバイルカメラの自己位置推定
US10636190B2 (en) Methods and systems for exploiting per-pixel motion conflicts to extract primary and secondary motions in augmented reality systems
US11244506B2 (en) Tracking rigged polygon-mesh models of articulated objects
KR20150121179A (ko) 실시간 스테레오 정합
EP4158528A1 (en) Tracking multiple objects in a video stream using occlusion-aware single-object tracking
CN103608844A (zh) 全自动动态关节连接的模型校准
Riazuelo et al. Semantic visual slam in populated environments
JP7063837B2 (ja) 領域抽出装置及びプログラム
CN110349186B (zh) 基于深度匹配的大位移运动光流计算方法
WO2021098802A1 (en) Object detection device, method, and systerm
CN111178170B (zh) 一种手势识别方法和一种电子设备
JP2021060868A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2021135619A (ja) 状況識別装置、状況学習装置及びプログラム
Li et al. Video-based table tennis tracking and trajectory prediction using convolutional neural networks
CN114612393A (zh) 一种基于单目视觉的反光零件位姿估计方法
Hegde et al. SmartOverlays: A visual saliency driven label placement for intelligent human-computer interfaces
CN112926681B (zh) 一种基于深度卷积神经网络的目标检测方法及装置
KR20100041170A (ko) 영상 추적 장치의 이동표적 움직임 추적 방법
Li et al. Semantic Visual SLAM Algorithm Based on Improved DeepLabV3+ Model and LK Optical Flow
US11954943B2 (en) Method for generating synthetic data
CN114719759B (zh) 一种基于slam算法和图像实例分割技术的物体表面周长和面积测量方法
Zhang et al. Research on a Machine Vision-based Image Tracking System for Sports

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161212

R151 Written notification of patent or utility model registration

Ref document number: 6065427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250