JP6865110B2 - オブジェクト追跡方法および装置 - Google Patents

オブジェクト追跡方法および装置 Download PDF

Info

Publication number
JP6865110B2
JP6865110B2 JP2017107652A JP2017107652A JP6865110B2 JP 6865110 B2 JP6865110 B2 JP 6865110B2 JP 2017107652 A JP2017107652 A JP 2017107652A JP 2017107652 A JP2017107652 A JP 2017107652A JP 6865110 B2 JP6865110 B2 JP 6865110B2
Authority
JP
Japan
Prior art keywords
tracking
control layer
image
objects
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017107652A
Other languages
English (en)
Other versions
JP2018205870A (ja
Inventor
ホウアリ サビリン
ホウアリ サビリン
内藤 整
整 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017107652A priority Critical patent/JP6865110B2/ja
Publication of JP2018205870A publication Critical patent/JP2018205870A/ja
Application granted granted Critical
Publication of JP6865110B2 publication Critical patent/JP6865110B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、オブジェクト追跡方法および装置に係り、特に、撮影範囲の異なる複数の奥行映像間で移動するオブジェクトをオクルージョンに関わらず正確に追跡できるオブジェクト追跡方法および装置に関する。
特許文献1には、2D投影深度データ(デプス値)の位置およびサイズに関する類似度測定を行うことによって深度ベースでオブジェクトを追跡する技術が開示されている。特許文献2には、深度データおよび対応する2D投影像を分析することによって移動体を検出および追跡する方法が開示されている。
特許文献3には、検出された物体の深度情報を分析することによって、複数のカメラからの距離センサ情報を用いて移動体を検出および追跡する技術が開示されている。特許文献4には、3つの視点から得た深度データを分析することによってオブジェクトを検出および追跡する方法が開示されている。
非特許文献1,2は、深度センサ(すなわち、RGBデータ/画像なし)からの深度情報のみを利用してオブジェクトを検出および追跡する方法が開示されている。
特開2016-71534号公報 特開2016-162075号公報 特願2016-062076号 特願2016-210608号
H. Sabirin, H. Sankoh, and S. Naito, "Utilizing attributed graph representation in object detection and tracking for indoor range sensor surveillance cameras," IEICE Transactions on information and Systems, vol. 98, no. 12, pp. 2299-2307, 2015. T. Bagautdinov, F. Fleuret, and P. Fua, "Probability occupancy maps for occluded depth images," IEEE Conf. on Comp. Vision and Patt. Rec., pp. 2829-2837, 2015.
特許文献1では、2つ以上のオブジェクトが同様の位置およびサイズを有する場合に追跡精度の信頼性が低下する可能性がある。特許文献2では、オブジェクト同士のオクルージョン判定が、オクルージョン前後における各オブジェクトの形状、位置およびサイズの類似性を見出すことによって行われる。したがって、オクルージョン前後でのオブジェクトの識別が不正確であると追跡精度が低下する。
特許文献3は、オクルージョン中も信頼性の高い追跡を保証するために、オクルージョン状態の各オブジェクトは深度モデルに基づいて分離されて個別に追跡を継続される。したがって、デプス情報が不明であると追跡精度が低下する。非特許文献1,2ではオブジェクト同士のオクルージョンが考慮されていない。
本発明の目的は、上記の技術課題を解決し、撮影範囲の異なる複数の奥行映像間で移動するオブジェクトをオクルージョンに関わらず正確に追跡できるオブジェクト追跡方法および装置を提供することにある。
上記の目的を達成するために、本発明は、撮影範囲の一部が重複するような複数の映像(例えば、奥行映像)上でオブジェクトを追跡するオブジェクト追跡装置において、以下の構成を具備した点に特徴がある。
(1) 映像ごとにオブジェクトを識別して、その位置を含む特徴量を抽出する第1制御レイヤと、第1制御レイヤで識別された各オブジェクトの位置を共通の平面上へ投影し、重複領域に異なる映像から投影された同一オブジェクトの位置を統合し、フレーム間で前記各位置の追跡を実行する第2制御レイヤと、第2制御レイヤでの前記統合された位置の追跡結果を対応する映像上にそれぞれ再投影し、映像ごとにフレーム間で各オブジェクトをその位置を含む特徴量に基づいて追跡する第3制御レイヤとを具備した.
(2) 前記第2制御レイヤは、重複領域に異なる映像から投影された複数のオブジェクトの特徴量として、例えば位置情報を比較し、特徴量が類似する位置同士を統合するようにした。
(3) 前記第3制御レイヤが、平面上の各オブジェクトを対応する各映像上へ再投影する手段と、映像ごとに前記再投影された各オブジェクトをその特徴量に基づいて追跡する手段とを具備した。
(4) 前記第3制御レイヤが、フレーム間で各オブジェクトの位置特徴量の類似度を評価する手段と、フレーム間で各オブジェクトのデプス特徴量の類似度を評価する手段と、映像間で各オブジェクトの位置特徴量の類似度を評価する手段と、前記フレーム間での位置特徴量の類似度およびデプス特徴量の類似度ならびに映像間での位置特徴量の類似度に基づいて買うオブジェクトの追跡を実行する手段とを具備した。
本発明によれば、以下のような効果が達成される。
(1) オブジェクトの存在範囲が広いために撮影範囲の異なる複数台のカメラ画像上でオブジェクトを追跡する際に、オブジェクトが各撮影範囲の重複領域に位置しており、同一オブジェクトが複数のカメラ画像上で認識されている場合でも、オブジェクトの正確な追跡が可能になる。
(2) 各カメラから抽出したオブジェクトを共通(同一)の平面上へ投影し、撮影範囲の重複領域内でのオブジェクト追跡は、当該平面上で、異なるカメラから投影された同一オブジェクトに関する複数の投影像を一つに統合したうえで実行されるので、カメラ間でのオブジェクト追跡のハンドオーバーを少ない計算負荷で実現できるようになる。
(3) オブジェクト追跡の機能が複数の制御レイヤに分割されているので、所望の仕様に応じて対象の制御レイヤを置換すれば様々な仕様への対応が可能となり、汎用性の高い追跡システムを実現できるようになる。
(4) 第3制御レイヤでは、オブジェクト追跡がフレーム間での類似度評価および映像間での類似度評価の双方に基づいて行われるので、オブジェクトが同一の映像内での移動にとどまらず複数の映像を跨って移動する場合でも正確な追跡が可能になる。
本発明の一実施形態に係るオブジェクト追跡装置が設置される環境の一例を模式的に示した図である。 オブジェクト追跡システムの主要部の構成を示した機能ブロック図である。 第1制御レイヤ2Aの構成を示した機能ブロック図である。 オクルージョンの発生を判定する方法を模式的に示した図である。 第2制御レイヤ2Bの構成を示したブロック図である。 オブジェクトを2D平面上へ射影変換する方法を示した図である。 第3制御レイヤ2Cの構成を示した機能ブロック図である。 フレーム間及びセンサ間でのオブジェクト追跡を示した図である。 オブジェクトの再投影を示した図である。 オブジェクト領域のリファイン方法を模式的に示した図である。
以下、図面を参照して本発明の実施の形態について詳細に説明する。図1は、本発明の一実施形態に係るオブジェクト追跡装置が設置される環境の一例を模式的に示した図であり、本発明では撮影範囲の一部が重複するように複数の奥行カメラcamが設置されるが、ここでは2台の奥行カメラcam1,cam2を設置する場合を例にして説明する。
奥行カメラcam1は、撮影範囲Q1内のオブジェクトObjを撮影し、その奥行映像を取得する。奥行カメラcam2は、撮影範囲Q2内のオブジェクトObjを撮影し、その奥行映像を取得する。各撮影範囲Q1,Q2は矩形であり、各撮影範囲Q1,Q2の4隅には、後述する透視投影用のマーカm11〜m14,m21〜m24が予め設定されている。
撮影範囲Q1,Q2は、その一辺およびその近傍を共有するように隣接配置される。当該一辺の一端および他端の各マーカm13,m23およびm14,m24は共通であり、前記一辺はオーバラップマーカmoverとして利用される。当該オーバラップマーカmoverは、オブジェクトObjが撮影範囲Q1,Q2の一方から他方に移動した場合でもオブジェクトObjを見失うことなく追跡を継続できるように、各撮影範囲Q1,Q2を統合するために参照される。
図2は、各奥行カメラcamが撮影した奥行映像に基づいてオブジェクトを追跡するオブジェクト追跡システム1の主要部の構成を示した機能ブロック図である。本発明のオブジェクト追跡システム1は、観察範囲の異なる奥行カメラごとに3つの制御レイヤ2A,2B,2Cで構成され、観察範囲ごとにオブジェクトObjを追跡する。
このようなオブジェクト追跡システム1は、汎用のコンピュータやサーバに各制御レイヤを実現するアプリケーション(プログラム)を実装して構成しても良いし、あるいは各制御レイヤがハードウェア化またはROM化された専用機や単能機として構成しても良い。
第1制御レイヤ2Aは、観察範囲の異なる奥行映像ごとに、各フレームから各ピクセルのデプス値に基づいてオブジェクトを抽出し、各オブジェクトを包含するオブジェクト領域の特徴量として、その位置、サイズおよび各デプス値を計算する。また、フレーム間で各オブジェクトの特徴量を比較し、特徴量が類似するオブジェクトを同一オブジェクトとみなして同一IDを割り当てる追跡を実行する。さらに、オクルージョン中のオブジェクトをそのデプス値に基づいて分離、識別する。各オブジェクトの特徴量は、各観察範囲に固有のIDおよび各オブジェクトに固有のIDと共に第2制御レイヤ2Bへ提供される。
第2制御レイヤ2Bは、第1制御レイヤ2Aから観察範囲ごとに取得した各オブジェクトの特徴量のうち、特にその位置情報(足元位置)に注目し、各オブジェクト領域の位置を共通の2D平面上に投影する。さらに、観察範囲の重複領域内に各奥行映像から投影された各オブジェクトの相対距離をその足元位置に基づいて求め、相対距離が所定の閾値を下回るほど近接した位置同士を同一オブジェクトの位置とみなして統合し、同一IDを付して管理する。さらに、各位置をフレーム間で追跡し、相対距離の最も近い位置同士に同一IDを付することで追跡を実行する。
第3制御レイヤ2Cは、前記2D平面上で統合された各オブジェクトの位置を、対応する奥行映像上へ再投影し、フレーム間およびカメラ間で各オブジェクトの特徴量を比較することで追跡を実行する。
図3は、第1制御レイヤ2Aの構成を示した機能ブロック図であり、図2と同一の符号は同一部分を表している。本実施形態では、複数台の奥行カメラcamがその奥行映像上のオブジェクトをそれぞれ独立して追跡するが、第1制御レイヤ2Aにおける各追跡メカニズムはいずれのカメラでも同一なので、ここでは一つの奥行カメラに注目して説明する。
奥行映像取得部11は、対応する奥行カメラから奥行映像をフレーム単位で取得する。背景減算部12は、オブジェクトが存在しない環境下で撮影した背景映像を蓄積しておき、奥行映像から背景映像を減じて差分画像を取得する。オブジェクトマスク生成部13は、差分画像のピクセルごとに、そのデプス値を所定の閾値と比較することで、オブジェクトとそれ以外の背景とを識別するオブジェクトマスクを生成する。
オブジェクト特徴量取得部14は、各オブジェクトマスクに外接する矩形のオブジェクト領域(ROI:Region of interest)を定義し、オブジェクト領域ごとに、その位置、サイズおよびデプス値を取得する。本実施形態では、f番目のフレーム映像におけるm番目のオブジェクトのROIをOf mと定義し、その位置Pf m、サイズSf m、デプス値Df mおよびその識別ラベルlf mを次式(1)-(4)のように定義する。
Figure 0006865110
ここで、サイズSf mはオブジェクト領域の横幅wおよび高さhで定義され、位置Pf mはサイズSf mの中心座標i,jとして定義される。デプス値Df mはオブジェクト領域の各座標のデプス値を左上座標から右下座標へラスタスキャン順に配列して定義される。
第1制御レイヤ2Aにおけるオブジェクト追跡は、2つの連続するフレーム内での各オブジェクトの位置の類似性マッチングにより実行される。すなわち、f番目のフレームで検知されたm番目のオブジェクトOf mの位置Pf mが、f-1番目のフレームで検知された各オブジェクトの位置と比較され、次式(5)に示すように、f-1番目のフレームのn番目のオブジェクトOf-1 nの位置Pf-1 nとの相対距離が最短であれば、オブジェクトOf mにオブジェクトOf-1 nと同じIDが割り当てられる。
Figure 0006865110
しかしながら、オブジェクト間にオクルージョンが発生すると、オクルージョンが解消して各オブジェクトが分離するまでは位置特徴量に基づく類似性マッチングを行うことができない。そこで、本実施形態ではオクルージョン判定部15が重畳面積計算部15aを含み、後に詳述するように、ROI同士が重なる重畳範囲の面積の割合に基づいてオクルージョンの有無を判定する。
図4は、各ROIの重畳面積の割合に基づいてオクルージョンの発生を判定する方法を模式的に示した図である。本実施形態では、前回フレーム(f-1)で検知されたROIと今回フレーム(f)で検知されたROIとの重なりが判断される。その結果、同図(a)に示したように、前回フレームで検知されたオブジェクトObjaf-1,Objbf-1の各領域ROIa,ROIbと、今回フレームで検知されたオブジェクトObjcfの領域ROIcとの重畳面積の割合がいずれも50パーセント以上であれば、オブジェクトObjcfは2つのオブジェクトObjaf-1,Objbf-1のオクルージョンにより生じた統合オブジェクトであると判断される。
これに対して、同図(b)に示したように、前回フレームで検知されたオブジェクトObjaf-1,Objbf-1の各領域ROIa,ROIbと今回フレームで検知されたオブジェクトObjcfの領域ROIcとの重畳が検知されても、重畳面積の割合が50パーセント以上の組み合わせが一つのみ(ここでは、オブジェクトObjaf-1,Objdfの組み合わせのみ)であればオクルージョン状態とは判定されない。
また、同図(c)に示したように、前回フレームで検知されたオブジェクトObjaf-1の領域ROIaと今回フレームで検知されたオブジェクトObjffの領域ROIfとの重畳面積の割合が50パーセント以上であっても、それが一つのみであればオクルージョン状態とは判定されない。
ID割当実行部16は、原則として、f番目のフレームで検知されたm番目のオブジェクトOf mの位置Pf mとf-1番目のフレームで検知された各オブジェクトOf-1 nの位置Pf-1 nとを比較し、上式(5)を満足するオブジェクトOf mにオブジェクトOf-1 nと同じIDを割り当てる。前記ID割当実行部16はさらに、統合オブジェクト分割部16aおよびオブジェクト対応付け部16bを含み、オクルージョン状態にあるオブジェクトも追跡する。
前記統合オブジェクト分割部16aは、オクルージョンにより複数のオブジェクトが統合したオブジェクト(統合オブジェクト)から、オクルージョン前の各オブジェクトとデプス値の分布が類似する各重畳範囲を追跡対象のオブジェクトとして分割する。
前記オブジェクト対応付け部16bは、オクルージョンの新たな発生が検知されると、統合オブジェクトから分割した各オブジェクトを統合前の各オブジェクトと対応付ける第1機能、オクルージョン期間中に前回フレームの統合オブジェクトから分割した各オブジェクトを今回フレームの統合オブジェクトから分割した各オブジェクトと対応付ける第2機能、および前回フレームで統合オブジェクトから分割した各オブジェクトをオクルージョン解消後に各オブジェクトと対応付ける第3機能を備え、対応するオブジェクトに同一IDを割り当てる。
図5は、前記第2制御レイヤ2Bの構成を示したブロック図である。第2制御レイヤ2Bは、各奥行映像から抽出した各オブジェクトの足元位置Pを同一の2D平面上へ投影し、異なる奥行映像から重複領域に投影された各オブジェクトの位置を比較する。そして、相対位置が接近している位置を同一オブジェクトの位置とみなして統合する。すなわち、第2制御レイヤ2Bではオブジェクトのデプス情報、形状およびサイズは参照されない。
透視投影部21は、図6に示したように、前記マーカm11〜m22のカメラ座標系での位置ならびに各奥行カメラcamの内部パラメータおよび外部パラメータに基づいて、各奥行映像上で検知されたオブジェクトの足元位置Pを2D平面上へ射影変換するための変換行列Mを計算する。オブジェクトデータ統合部22は、前記射影変換行列Mを用いて各オブジェクトの足元位置Pを共通の2D平面上へ射影変換する。そして、2D平面上の重複領域内で足元位置が近接し、異なる奥行映像から投影されたオブジェクト同士を同一オブジェクトとみなして一のオブジェクトに統合する。
追跡部23において、初期識別部23aは、前記投影した各オブジェクトの足元位置を、例えば第1制御レイヤ2Aのc番目の奥行映像から投影された、第2制御レイヤ(すなわち、処理平面内)2Bの第fフレームの第mオブジェクトcOf mと定義する。オブジェクトcOf mは、その位置特徴量として足元位置cPf mを備え、ラベルclf mが割り当てられる。
位置マッチング部23bは、重複領域に投影された各オブジェクトの同一性を各オブジェクトの位置特徴量cPf mに基づいて判定する。重複領域処理部23cは、同一判定された重複領域上のオブジェクトを統合する。本実施形態では、2つのオブジェクトcOf mbOf nの位置cPf mbPf nの差分が類似性閾値δTreshを下回り、次式(6)を満たす場合に各オブジェクトにインデックスnduplが付与される。
Figure 0006865110
ここで、類似性閾値δTreshは、異なる奥行映像から検出された2つのオブジェクト間の空間尤度として次式(7)で定義される。
Figure 0006865110
また、重複領域の形態に依存して、Rはデプス画像の高さまたは幅を表すことができ、c(Pθ)f mは、処理平面内のオブジェクトの位置の水平または垂直成分とすることができる。重複領域の形状は、2D平面の左右の端部が重複領域と判定されれば「水平重なり」(horizontal overlap)と定義され、上下の端部が重複領域と判定されれば「垂直重なり」(vertical overlap)と定義される。したがって、以下(8),(9)の条件が定義される。
Figure 0006865110
オブジェクト識別部23dは、インデックスnduplを有するオブジェクトを重複と認識し、そのIDをclf mからblf nに変更する。ここでは、同一IDを有する重複するオブジェクトの中の1つのオブジェクト情報のみが第2のレイヤ上での追跡に用いられる。
図7は、第3制御レイヤ2Cの構成を示した機能ブロック図である。第3制御レイヤ2Cは、図8に示したように、連続する2つのフレームf-1,f間でのオブジェクト追跡および異なる奥行カメラcam1,cam2…間でのオブジェクト追跡を実行する。また、オプション機能としてオブジェクト形状のリファイン機能を備える。
再投影部31は、図9に示したように、第2レイヤでIDを付されたオブジェクトの足元位置をその投影元の奥行映像上へ再投影する。オブジェクト領域リファイン部32は、前記再投影の結果に基づいて各オブジェクト領域ROIをリファインする。
図10は、前記オブジェクト領域リファイン部32の機能を模式的に示した図であり、検出されたオブジェクト領域の視点を近似するために、ROIの幅102(Sw)および回転角103(θ)を、次式のROI改修パラメータ(10),(11),(12),(13)に基づいてROI'のようにリファインする。
Figure 0006865110
Figure 0006865110
ROIサイズ係数A,Bは、それぞれ垂直位置および水平位置の位置重みを決定し、次式(14),(15),(16)で計算される。
Figure 0006865110
図7へ戻り、デプスマッチング部33は、連続する2つの各フレームf-1,f内で検知された各オブジェクト間でデプス情報に基づいてROIのマッチングを行う。フレーム間位置マッチング部34は、連続する2つの各フレームf-1,f内で検知された各オブジェクト間でその位置情報に基づいてROIのマッチングを行う。センサ間位置マッチング部35は、観察範囲の重複領域内で検知された各オブジェクト間で位置情報に基づいてROIのマッチングを行う。
前記デプスマッチングでは、連続する2つのフレーム内で検知された各オブジェクト間でデプス値の類似度Δdepthが次式(17)に基づいて計算される。
Figure 0006865110
前記フレーム間位置マッチングでは、連続する2つのフレーム内で検知された各オブジェクト間で位置の類似性Δposが次式(18)に基づいて計算される。
Figure 0006865110
前記センサ間位置マッチングでは、オブジェクトが前記重複領域内に位置している場合に各オブジェクトの位置の類似性Δsensorが次式(19)に基づいて計算される。
Figure 0006865110
ただし、
Figure 0006865110
ID見直し部36は、次式(21)に基づいてオブジェクトの類似性を計算することで類似度の高いオブジェクトペアを判別し、この判別結果に基づいて各オブジェクトのIDを見直す。ここで、α,βおよびγは経験的に定められる重み要素である。
Figure 0006865110
本実施形態によれば、オブジェクトの存在範囲が広いために撮影範囲の異なる複数台のカメラ画像上でオブジェクトを追跡する際に、オブジェクトが各撮影範囲の重複領域に位置しており、同一オブジェクトが複数のカメラ画像上で認識されている場合でも、オブジェクトの正確な追跡が可能になる。
また、本実施形態によれば、各カメラから抽出したオブジェクトを同一の2D平面上へ投影し、撮影範囲の重複領域内でのオブジェクト追跡は、当該2D平面上で、異なるカメラから投影された同一オブジェクトに関する複数の投影像を一つに統合したうえで実行されるので、カメラ間でのオブジェクト追跡のハンドオーバーを少ない計算負荷で実現できるようになる。
さらに、本発明によれば、オブジェクト追跡の機能が複数の制御レイヤに分割されているので、所望の仕様に応じて対象の制御レイヤを置換すれば様々な仕様への対応が可能となり、汎用性の高い追跡システムを実現できるようになる。
さらに、第3制御レイヤでは、オブジェクト追跡がフレーム間での類似度評価および奥行映像間での類似度評価の双方に基づいて行われるので、オブジェクトが同一の奥行映像内での移動にとどまらず複数の奥行映像を跨って移動する場合でも正確な追跡が可能になる。
11…奥行映像取得部,12…背景減算部,13…オブジェクトマスク生成部,14…オブジェクト特徴量取得部,15…オクルージョン判定部,16…ID割当実行部,16a…統合オブジェクト分割部,16b…オブジェクト対応付け部,21…透視投影部,22…オブジェクトデータ統合部,23a…初期識別部,23b…位置マッチング部,23c…重複領域処理部,23d…オブジェクト識別部,31…再投影部,32…オブジェクト領域リファイン部,33…デプスマッチング部,34…フレーム間位置マッチング部,35…センサ間位置マッチング部

Claims (11)

  1. 撮影領域の一部が重複する複数の映像上でオブジェクトを追跡するオブジェクト追跡装置において、
    映像ごとにオブジェクトを識別して位置情報を含む特徴量を抽出する第1制御レイヤと、
    前記第1制御レイヤで識別された各オブジェクトの位置情報を共通の平面上へ投影し、撮影領域の重複領域に異なる映像から投影された同一オブジェクトの位置を統合し、フレーム間で前記各位置の追跡を実行する第2制御レイヤと、
    第2制御レイヤで統合された重複領域上での位置の追跡結果を対応する映像上にそれぞれ再投影し、映像ごとにフレーム間で各オブジェクトをその位置を含む特徴量に基づいて追跡する第3制御レイヤとを具備したことを特徴とするオブジェクト追跡装置。
  2. 前記第1制御レイヤが、
    複数の映像を取得する手段と、
    映像ごとに背景映像との差分に基づいてオブジェクトマスクを抽出する手段と、
    前記オブジェクトマスクに基づいてオブジェクト領域を設定する手段と、
    映像ごとに各オブジェクト領域の位置を含む特徴量を計算する手段と、
    映像ごとにフレーム間で各オブジェクトをその特徴量に基づいて追跡する手段と含むことを特徴とする請求項1に記載のオブジェクト追跡装置。
  3. 前記第1制御レイヤでは、各オブジェクト領域の特徴量として、その位置、サイズおよびデプス値が計算されることを特徴とする請求項2に記載のオブジェクト追跡装置。
  4. 前記第1制御レイヤでは、各オブジェクト領域のデプス特徴量に基づいてオクルージョンにあるオブジェクトが識別されることを特徴とする請求項3に記載のオブジェクト追跡装置。
  5. 前記第2制御レイヤは、前記重複領域に異なる映像から投影された複数のオブジェクトの特徴量を比較し、特徴量が類似する位置同士を統合することを特徴とする請求項1に記載のオブジェクト追跡装置。
  6. 前記位置同士を統合する手段は、前記重複領域に異なる映像から投影された複数のオブジェクトの位置を比較し、相対距離が所定の閾値を下回る位置同士を統合することを特徴とする請求項5に記載のオブジェクト追跡装置。
  7. 前記第3制御レイヤが、
    前記平面上の各オブジェクトを対応する各映像上へ再投影する手段と、
    映像ごとに前記再投影された各オブジェクトをその特徴量に基づいて追跡する手段とを含むことを特徴とする請求項1に記載のオブジェクト追跡装置。
  8. 前記第3制御レイヤの追跡する手段は、
    フレーム間で各オブジェクトの位置特徴量の類似度を評価する手段と、
    フレーム間で各オブジェクトのデプス特徴量の類似度を評価する手段と、
    映像間で各オブジェクトの位置特徴量の類似度を評価する手段と、
    前記フレーム間での位置特徴量の類似度およびデプス特徴量の類似度ならびに映像間での位置特徴量の類似度に基づいて各オブジェクトの追跡を実行する手段とを含むことを特徴とする請求項7に記載のオブジェクト追跡装置。
  9. 前記第3制御レイヤが、前記再投影されたオブジェクトの位置に応じてオブジェクトの形状をリファインする手段を更に具備したことを特徴とする請求項7に記載のオブジェクト追跡装置。
  10. 前記映像が奥行映像であることを特徴とする請求項1ないし9のいずれかに記載のオブジェクト追跡装置。
  11. 撮影範囲の一部が重複する複数の映像上でコンピュータがオブジェクトを追跡するオブジェクト追跡方法において、
    映像ごとにオブジェクトを識別して、その位置を含む特徴量を抽出し、
    各オブジェクトの位置を共通の平面上へ投影し、
    撮影範囲の重複領域に異なる映像から投影された同一オブジェクトの位置を統合して隣接するフレーム間で前記各位置の追跡を実行し、
    前記統合された重複領域上での位置の追跡結果を対応する映像上にそれぞれ再投影し、
    映像ごとにフレーム間で各オブジェクトを、前記再投影の位置を含む特徴量に基づいて追跡することを特徴とするオブジェクト追跡方法。
JP2017107652A 2017-05-31 2017-05-31 オブジェクト追跡方法および装置 Active JP6865110B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017107652A JP6865110B2 (ja) 2017-05-31 2017-05-31 オブジェクト追跡方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017107652A JP6865110B2 (ja) 2017-05-31 2017-05-31 オブジェクト追跡方法および装置

Publications (2)

Publication Number Publication Date
JP2018205870A JP2018205870A (ja) 2018-12-27
JP6865110B2 true JP6865110B2 (ja) 2021-04-28

Family

ID=64957743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017107652A Active JP6865110B2 (ja) 2017-05-31 2017-05-31 オブジェクト追跡方法および装置

Country Status (1)

Country Link
JP (1) JP6865110B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6831117B2 (ja) * 2018-11-29 2021-02-17 技研トラステム株式会社 移動体追跡方法及びこれに用いる画像処理装置
JP7174252B2 (ja) * 2019-04-25 2022-11-17 日本電信電話株式会社 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム
TWI759651B (zh) * 2019-11-21 2022-04-01 財團法人工業技術研究院 基於機器學習的物件辨識系統及其方法
CN111091078B (zh) * 2019-12-03 2023-10-24 北京华捷艾米科技有限公司 一种对象跟踪方法和相关设备
KR20210099780A (ko) 2020-02-05 2021-08-13 삼성전자주식회사 전자 장치 및 그 제어 방법
JP7187655B1 (ja) 2021-12-27 2022-12-12 株式会社a-LINK 物体追跡の方法、プログラム、システムおよび記録媒体

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5147760B2 (ja) * 2009-03-02 2013-02-20 セコム株式会社 画像監視装置
JP2011210238A (ja) * 2010-03-10 2011-10-20 Dainippon Printing Co Ltd 広告効果測定装置及びコンピュータプログラム
JP5754990B2 (ja) * 2011-03-09 2015-07-29 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US20140037135A1 (en) * 2012-07-31 2014-02-06 Omek Interactive, Ltd. Context-driven adjustment of camera parameters
JP6488647B2 (ja) * 2014-09-26 2019-03-27 日本電気株式会社 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
CN105654021B (zh) * 2014-11-12 2019-02-01 株式会社理光 检测人群对目标位置关注度的方法及设备
JP6397354B2 (ja) * 2015-02-24 2018-09-26 Kddi株式会社 人物領域検出装置、方法およびプログラム
JP6579816B2 (ja) * 2015-06-18 2019-09-25 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2018205870A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6865110B2 (ja) オブジェクト追跡方法および装置
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
US11170466B2 (en) Dense structure from motion
US9251598B2 (en) Vision-based multi-camera factory monitoring with dynamic integrity scoring
US9524426B2 (en) Multi-view human detection using semi-exhaustive search
JP4328692B2 (ja) 物体検出装置
US11093762B2 (en) Method for validation of obstacle candidate
US20150294143A1 (en) Vision based monitoring system for activity sequency validation
US20150294496A1 (en) Probabilistic person-tracking using multi-view fusion
US9672634B2 (en) System and a method for tracking objects
JP5136504B2 (ja) 物体識別装置
JP2016099941A (ja) オブジェクト位置推定システム、及びそのプログラム
US9778029B2 (en) Self-position calculating apparatus and self-position calculating method
JP2006054681A (ja) 移動体周辺監視装置
US10235579B2 (en) Vanishing point correction apparatus and method
Tanke et al. Iterative greedy matching for 3d human pose tracking from multiple views
KR101469099B1 (ko) 사람 객체 추적을 통한 자동 카메라 보정 방법
JP6410231B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
Mohedano et al. Robust 3d people tracking and positioning system in a semi-overlapped multi-camera environment
JP5981284B2 (ja) 対象物検出装置、及び対象物検出方法
JP6886136B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
JP4270386B2 (ja) 移動体移動量算出装置
Bensebaa et al. Direction estimation of moving pedestrian groups for intelligent vehicles
Rogez et al. View-invariant human feature extraction for video-surveillance applications
JP2007257489A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R150 Certificate of patent or registration of utility model

Ref document number: 6865110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150