JP2004355601A - 目標追跡装置及び目標追跡方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム - Google Patents

目標追跡装置及び目標追跡方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム Download PDF

Info

Publication number
JP2004355601A
JP2004355601A JP2003374747A JP2003374747A JP2004355601A JP 2004355601 A JP2004355601 A JP 2004355601A JP 2003374747 A JP2003374747 A JP 2003374747A JP 2003374747 A JP2003374747 A JP 2003374747A JP 2004355601 A JP2004355601 A JP 2004355601A
Authority
JP
Japan
Prior art keywords
color
target tracking
target
frame
color image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003374747A
Other languages
English (en)
Inventor
Masahito Kaneyoshi
雅人 金吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Space Software Co Ltd
Original Assignee
Mitsubishi Space Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Space Software Co Ltd filed Critical Mitsubishi Space Software Co Ltd
Priority to JP2003374747A priority Critical patent/JP2004355601A/ja
Publication of JP2004355601A publication Critical patent/JP2004355601A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 連続するフレームについて、カメラ画像中の移動体の目標を追跡する目標追跡装置に係り、移動体の指定を不用とし、更に、剛体以外の移動体も有効に追跡できることを課題とする。
【解決手段】 特徴量算出部32は、カラー画像中の移動体の重心と頂点を判定し、特性算出部33は、重心の色比率ヒストグラムと頭部楕円情報を算出し、目標追跡データとして記憶する。同一性検定部34は、後続フレームのカラー画像に含まれる移動体の重心の色比率ヒストグラムと頭部楕円情報を算出し、目標追跡データと比較し、同一の移動体か判定する。また、移動体が検出されないフレームに関しても、色比率ヒストグラムに基づいて移動体をサーチする。
【選択図】 図3

Description

本発明は、連続するフレームについて、カメラ画像中の移動体の目標を追跡する目標追跡装置に係り、移動体の指定を不用とし、更に、剛体以外の移動体も有効に追跡できる目標追跡装置に関する。
人間や肉食動物は、2眼が近接し、その光学軸はほぼ平行である。そして、両眼の視差により距離の推定を行うことができるが、移動物体の色や形状の認識や残像効果は、このような目の働きとして重要な役割を果たしているものと考えられる。
本発明は、移動物体の認識や残像効果を意識し、カメラからの画像を用いて移動体の検出や追跡を行う装置に関する。図19は、応用例として人型ロボットの外観例を示す図である。
従来技術として、1眼カメラによる移動物体の検出・識別には、背景差分、フレーム間差分やオプティカル・フローが使用されてきた。しかし、背景差分では静止背景画面を更新する必要があり、また、フレーム間差分では静止物体を本質的に検出しないという問題点がある。
2眼や多眼カメラによる物体検出は、従来からステレオ視として多くの研究がなされ、照明や影に影響されず、静止物体を検出し、物体3D復元が可能である点で優れている。
図20は、視差Dx算出するための位置関係を示す図である。カメラ座標をL(Xo+t/2,0,0)、R(Xo−t/2,0,0)、カメラ焦点距離をfとし、目標座標を(Xp,0,Zp)とすると、2カメラ配置での視差Dxは、3角形の相似関係から、Xr/f=(Xo+t−Xp/2)/Zp,Xl/f=(Xo−t/2−Xp)/Zpが得られる。2式からXoを消去するとDx=Xr−Xl=(tf)/Zpとなる。従って、カメラ配置とカメラ特性から、tとfは既知であるから、Dxを何らかの手段で知ることで、目標までの距離Zpが得られる。
特開平5−231822号公報で提案されている様な視差から目標距離を求める従来の方式では、Dxを得る為に2カメラ画像での目標の対応関係を知るために目標の大まかな位置に整合用の子窓枠を設定し、2カメラ画像において目標の特徴となる基準位置をスライド整合によって一致させることによって整合量を求め、Dxを得ていた。
また、特開平7−253310号公報では、クラスタリング方式で視差をゼロにする整合を行いDxを得て、目標距離Zxを得ている。
しかし、2台のカメラを搭載する物体が自由に動いている場合には、周囲の景色が変化すると共に、目標とする物体の相対距離Zpも変化するため、2台のカメラの画像をあるフレームで、目標距離Zpで整合させて2カメラ差分処理した視差は、次のフレームでは変化する。
また、整合させる画像枠の中の画像も刻々変化するため子窓枠位置設定では、目標の基準位置が子窓枠を超えることが発生し、また、目標の特徴寸法も変化する為、スライド整合では対応が難しい場面が多くなる問題がある。
また、クラスタリング方式では、対象に対する標本ベクトルが予め用意しておく必要があるが、任意の対象が撮像される場合には、それらに対応する標本ベクトルが準備されておらず、標本ベクトルとクラスターの対応付けができない。
カメラ移動がある場合は、異なる視点からの画像間の特徴点追跡法が開発され、移動体の特徴点分離も開発されてきた。例えば、特開平8−249471号公報である。
しかし、特徴点追跡法では、剛体以外の形状が柔軟に変化する移動体について、特徴点の抽出が困難であり、画像間での全体的な対応付けが難しいという問題が生じる。また、予め目標の色を指定しなければならなかった。
特開平5−231822号公報 特開平7−253310号公報 特開平8−249471号公報
検出した移動体である目標の追跡に関する従来技術では、操作者が画像上の移動体(目標)を指定することにより、色を特定することが前提だったが、本発明は、その欠点を除くためになされたものであって、その目的とするところは、自動的に移動体を特定し、その移動体の色を学習し、移動体を追跡することにより、移動体の指定を不用とすることが課題である。更に、剛体以外の移動体に対しても有効な追跡を行うことが課題である。
本発明に係る目標追跡装置は、
以下の要素を有することを特徴とする
(1)連続するフレーム毎に、カラー画像を入力するデータ処理部
(2)カラー画像中の移動体の領域を特定する情報を入力し、前記移動体の領域を特定する情報に基づいて、移動体の特徴量を判定する特徴量算出部
(3)特徴量の色特性を算出し、目標追跡データとして記憶する色特性算出部
(4)目標追跡データを記憶した以降の後続フレームについて、カラー画像の部分の色特性を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定する同一性検定部。
移動体の領域を特定する情報は、略平行な光学軸で左右に配置した2つのカメラで撮影した左右のカラー画像から得られる左右の輝度画像を、フレーム毎に差分処理して得た2カメラ整合差分画像を、二つのフレームについて差分処理して得たフレーム間差分画像と、カラー画像を分割したセルのうち移動体の領域を含む移動体セルを特定する移動体セル番号とクラスター番号とであることを特徴とする。
前記特徴量は、重心であることを特徴とする。
前記特徴量は、頭部楕円であることを特徴とする。
前記色特性は、色比率ヒストグラムであることを特徴とする。
前記カラー画像の部分は、当該後続フレームについて、移動体の領域を特定する情報に基づいて判定された移動体の特徴量であることを特徴とする。
同一性検定部は、カラー画像の複数部分について色特性を算出し、それぞれ目標追跡データと比較することにより、前記移動体と同一のものの位置をサーチすることを特徴とする。
移動体の領域を特定する情報が入力されなかったフレームに対して、前記移動体と同一のものの位置をサーチすることを特徴とする。
移動体の領域として予測される予測目標位置を算出し、予測目標位置に基づいて、目標存在推定窓枠を設定し、目標存在推定窓枠の範囲内で、前記移動体と同一のものの位置をサーチすることを特徴とする。
本発明に係る目標追跡方法は、
以下の要素を有することを特徴とする
(1)連続するフレーム毎に、カラー画像を入力する工程
(2)カラー画像中の移動体の領域を特定する情報を入力し、前記移動体の領域を特定する情報に基づいて、移動体の特徴量を判定する工程
(3)特徴量の色特性を算出し、目標追跡データとして記憶する工程
(4)目標追跡データを記憶した以降の後続フレームについて、カラー画像の部分の色特性を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定する工程。
本発明に係るプログラムを記録したコンピュータ読み取り可能な記録媒体は、
目標追跡装置となるコンピュータに、以下の処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であることを特徴とする
(1)連続するフレーム毎に、カラー画像を入力する処理
(2)カラー画像中の移動体の領域を特定する情報を入力し、前記移動体の領域を特定する情報に基づいて、移動体の特徴量を判定する処理
(3)特徴量の色特性を算出し、目標追跡データとして記憶する処理
(4)目標追跡データを記憶した以降の後続フレームについて、カラー画像の部分の色特性を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定する処理。
本発明に係るプログラムは、
目標追跡装置となるコンピュータに、以下の手順を実行させるためのプログラムであることを特徴とする
(1)連続するフレーム毎に、カラー画像を入力する手順
(2)カラー画像中の移動体の領域を特定する情報を入力し、前記移動体の領域を特定する情報に基づいて、移動体の特徴量を判定する手順
(3)特徴量の色特性を算出し、目標追跡データとして記憶する手順
(4)目標追跡データを記憶した以降の後続フレームについて、カラー画像の部分の色特性を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定する手順。
特性算出部は、更に、頭部楕円情報を目標追跡データとして記憶し、
同一性検定部は、目標追跡データを記憶した以降の後続フレームについて、更に、頭部楕円情報を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定することを特徴とする。
本発明は、自動的に移動体を特定し、その移動体の色を学習し、移動体を追跡することにより、移動体の指定を不用とすることができる。また、重心や頂点の色により、移動体の同一性を判定するので、剛体以外の移動体に対しても有効な追跡を行うことができる。
実施の形態1.
以下本発明を図面に示す実施例に基づいて説明する。図1は、左右カメラを用いた画像処理装置の概略を示す図である。
本発明に係る画像処理装置は、左右カメラ1、移動体検出装置2、目標追跡装置3、及び表示手段4を有している。左右カメラ1は、ほぼ平行な光学軸で、近接(10cm程度)位置に設置されている。移動体検出装置2は、左右のカメラカラー画像を入力し、移動体を検出するように構成されている。目標追跡装置3は、検出された移動体を目標として追跡するように構成されている。表示手段4は、例えば無線媒体によるインターフェースを介して、画像や移動体の位置を表示するように構成されている。
まず、移動体検出装置2と目標追跡装置3の構成について説明する。図2は、移動体検出装置2の構成を示す図である。移動体検出装置2は、輝度変換部21、2画像整合部22、フレーム間差分算出部23、及び移動体検出部26(差分強度分布判定部24と連続フレーム検定部25)を備えている。
2画像整合部22は、略平行な光学軸で左右に配置した2つのカメラで撮影した左右の画像を、連続するフレーム毎に差分処理して、2カメラ整合差分画像Dを得るように構成されている。フレーム間差分算出部23は、二つのフレームについての2カメラ整合差分画像Dを差分処理して、フレーム間差分画像FDを得るように構成されている。移動体検出部26は、フレーム間差分画像FDに基づいて、移動体の領域を検出するように構成されている。
図3は、目標追跡装置3の構成を示す図である。目標追跡装置3は、表示インターフェース・データ処理部31、特徴量算出部32、色特性算出部33、及び同一性検定部34を備えている。
表示インターフェース・データ処理部31は、連続するフレーム毎に、カラー画像を入力するほか、表示インタフェースを制御し、各パラメータを記憶するように構成されている。特徴量算出部32は、移動体セル番号とフレーム間差分画像FD(カラー画像中の移動体の領域を特定する情報の例)を入力し、これらに基づいて、移動体の特徴量(例えば、重心や頭部楕円)を判定するように構成されている。色特性算出部33は、特徴点の色特性(例えば、色比率ヒストグラム)を算出し、目標追跡データとして記憶するように構成されている。同一性検定部34は、目標追跡データを記憶した以降の後続フレームについて、カラー画像の部分(例えば、重心の小窓、頭部楕円中心の小窓、サーチ対象の枠内の小窓群)の色特性を算出し、目標追跡データと比較することにより、当該部分が前記移動体と同一のものの位置か否かを判定するように構成されている。
次に、移動体検出の処理(大域的検出処理)について説明する。輝度変換部21は、順次左右カメラカラー画像を入力し、左右の輝度画像に変換する。図4は、左カメラ画像の例を示す図であり、図5は、右カメラ画像の例を示す図である。便宜的に白黒で示しているが、実際は、カラー画像である。
2画像整合部22は、左右の輝度画像の中にある遠方四角形領域Aに対して、輝度画像のスライディング整合処理を行い、最小の差分強度分布になるようにする。最小視差DAの整合状態に調整し、この時のスライド量を固定値の初期設定整合値として保存する。そして、2画像整合部22は、各フレームについて、初期整合設定値(スライド量)を用いた修正により得られる2カメラ整合差分画像(差分画像D)を生成する。図6は、2カメラ整合差分画像Dの例を示す図である。
601は、遠方四角形領域Aの例である。遠方四角形領域Aは、画面内の最遠方領域に初期設定される。その結果、遠方四角形領域Aよりも近距離にある領域に関し、2カメラ画像の視差は、最小視差DAよりも大きな視差値になる。以下、この大きな視差を積極的に利用して検出処理を行う。
フレーム間差分算出部23は、各フレーム毎に生成される2カメラ整合差分画像Dに関し、その前のフレームで生成された2カメラ整合差分画像Dとの差分画像を生成する。つまり、2カメラ整合差分画像Dについてのフレーム間の差分画像を生成する。これを、フレーム間差分画像FDと呼ぶ。図7は、フレーム間差分画像FDの例を示す図である。
カメラ移動が緩やかな場合には、フレーム間差分画像FDは、視差を解消した固定幅のエッジ画像となり、差分強度分布は小さなものとなる。一方、カメラ移動が大きい場合には、画面全体にカメラ移動による視差が現れる為、フレーム間差分画像FDは、エッジが画面全体に広がった画像となる。このようなカメラが動いている時とカメラが静止している時のフレーム間差分強度分布の違いを、カメラと相対的な動きをする移動体の検出に利用する。
図6と図7は、カメラの移動が小さいときの2カメラ整合差分画像Dとフレーム間差分画像FDの例を示している。図8と図9は、カメラが大きく移動した際の2カメラ整合差分画像Dとフレーム間差分画像FDの例を示している。
図10、図11、図12は目標形状の一部である頭部楕円を検出する処理に関する図であり、図10は基準頭部楕円のエッジ画像の例、図11は基準頭部楕円の例、図12は頭部楕円の検出状況の例、を示している。
これらの図については、後に詳述する。
差分強度分布判定部24は、差分強度の分布を判定し、移動体候補のセルを抽出する処理を行う。その為に、まずフレーム間差分画面FDを大域的に分割する。具体的には、m×nの画面セルに分割する。そして、分割した画面セル内の平均強度Iを求める。
次に、予め設定されているセル内差分強度閾値Icell、セル・グループ数閾値Ncellを、表示インターフェース・データ処理部31のパラメータ記憶領域から読み込む。そして、各画面セル毎に、その平均強度Iがセル内差分強度閾値Icellを超えるか否か判定し、超えたセルをカウントし、高強度セル・グループ数Nを算出する。
更に、高強度セル・グループ数Nとセル・グループ数閾値Ncellを比較する。この比較結果を、移動体候補検出の判定条件とする。
N≧Ncellの場合には、カメラの移動が大きいと想定されるので、移動体の検出を見送る。
0<N<Ncellの場合は、一部の画面セルにのみ強度分布の変化が現れていることを意味し、カメラの移動が小さく、移動体が画面内に存在すると想定される。従って、これらの高強度の画面セルを移動体候補として登録する。具体的には、当該セル番号を、移動体候補セル番号として一時的に記憶する。
連続フレーム検定部25は、移動体の検出の連続性を検定し、連続して検出された場合に、移動体と判定する処理を行う。連続フレーム検定部25は、その為、まず予め設定されているフレーム間連続検出回数の閾値Dthを、表示インターフェース・データ処理部31のパラメータ記憶領域から読み込む。更に、各フレームの処理で、移動体候補セル番号が繰り返し検出されている回数をカウントする。このようにして得られるフレーム間での移動体候補連続検出回数Dの検定処理を行う。
D≧Dth、つまり連続検出の回数が閾値に至った場合には、移動体候補セルを移動体セルとして登録する。具体的には、当該移動体候補セル番号を、移動体セル番号として記憶する。
D<Dth、つまり連続検出の回数が閾値に至らなかった場合には、画像のゆらぎの影響等による差分強度の変化であって、移動体による差分強度の変化ではないと想定されるので、移動体候補登録を抹消する。つまり、当該移動体候補セル番号は、移動体セル番号としない。
例えば、Dth=5の場合には、5回の検出処理に対して、5回共に検出されなければ、移動体候補セルは条件を満たさないので、その移動体候補セルの登録を抹消する。移動体検出処理のフレーム毎の出力は、移動体セル番号Dtと差分強度Itである。
この移動体検出処理は、連続するフレーム数であるフレーム間連続検出回数Dthにより特定される期間を条件として判定しているが、その期間が人の目の残像時間(30msec程度)に相当するフレーム間隔で判定することが最適である。
次に、目標追跡の処理について説明する。特徴点算出部32は、移動体検出処理で生成した各フレームのフレーム間差分画像FDについて、移動体セルとその近傍のセルを含むセル枠(窓枠)を設定し、そのセル枠の中で、差分強度に関するBlob(画素)重心座標の計算を行う。これにより、移動体の重心位置を得ることができる。尚、近傍のセルも含めるのは、近傍のセルに跨って移動体が存在する場合にも、正確な重心位置を得るためである。
特徴量算出部32は、更に、重心位置を基準として、頭部楕円サーチを行い、差分輝度エッジ情報から基準となる頭部楕円情報を計算する。頭部楕円中心座標は、移動体と想定される領域の中で頭部の中心位置とする。
色特性算出部33は、Blob重心位置を基準(例えば、中心)として重心の小窓を設定して、その重心の小窓の色比率ヒストグラム計算処理を行う。また、頭部楕円中心の周りに小窓を設定して、色比率ヒストグラム計算を行う。
そして、色特性算出部33は、重心位置の座標データと色比率ヒストグラムデータ、及び頭部楕円中心の座標データと色比率ヒストグラムデータは、追跡目標を特定する目標追跡データとして記憶する。
同一性検定部34は、フレーム間の異なる移動体セル間で、セル位置近傍相関処理と色類似性相関処理、楕円円弧相関処理を行って追跡目標の同一性を検証する。セル位置近傍相関処理は、セルの位置が近い場合に、同一性を肯定し、色類似性相関処理は、色比率ヒストグラム計算処理により得られる色比率ヒストグラムデータが近似する場合に、同一性を肯定する。このとき、先のフレームにおけるセル位置と色比率ヒストグラムデータとして、記憶している目標追跡データを用いる。また、楕円円弧相関処理は登録した基準楕円の円弧とエッジ画像との整合が近似する場合に同一性を肯定する。
3つの相関処理の結果が同一性を肯定した場合に、追跡目標が一致すると判定する。
追跡目標として一致しない場合には、新規の目標追跡データとして、上記と同じ処理により初期設定値に記憶する。このように、目標追跡データが初期設定値として記憶されている状態を、目標追跡データが確立しているという。
目標追跡データが確立している追跡目標については、移動体検出処理でセル検出が無い場合でも、そのフレームに対して、予測目標位置を算出して、目標存在推定窓枠を設定し、その局所的な範囲内で、重心色類似性相関サーチ処理、頭部楕円情報相関サーチ処理、及び局所的な特徴量対応処理から目標位置を算出し、目標追跡座標データとして更新する。
つまり、移動体が静止している場合には、移動体の位置が差分強度として検出されないので、目標追跡データとして記憶している重心の色比率ヒストグラムデータに近似する色比率ヒストグラムデータを有する領域を、当該フレームから抽出し、その領域を移動体の位置として処理する。
次に、色類似性相関処理について詳述する。色類似性相関については、例えば、以下の2通りの方式が考えられる。CHI(Color Histogram Intersection)による色類似性を用いた色類似性相関処理と、BC(Bhattacharyya)係数による色類似性を用いた色類似性相関処理である。
まず、CHIによる色類似性について説明する。CHIによる2つの密度分布PuとQuの間の色類似性は、次で定義される。
Figure 2004355601
CHIによる色類似性により相関処理を行う場合に、色特性算出部33は、このCHI分布を、追跡枠内の重心を基準にした小窓内部で計算する。そして、色特性算出部33は、追跡開始時点の色ヒストグラム分布をQuとして記憶する。同一性検定部34は、以降のフレームでの小窓内部の色ヒストグラム分布をPu(y)として、QuとPuの間の色類似性を検定する。色は、比率カラー(r,g,b)とBinサイズ16を用いて計算する。頭部楕円中心の小窓に対しても同様に処理する。
次に、BCによる色類似性について説明する。色類似性の尺度は、色密度分布に基づいている。目標の基準色を表現する特性zが一つの密度関数qzを持つとし、一方、新たなフレームで位置xに中心を持つ目標候補が密度pz(x)に従って分布した特性を持つと仮定する。そのとき、色類似検索の課題は、新たなフレーム画像内で、密度pz(x)が基準目標密度qzに最も近いような座標位置xを発見することである。そのため、同一性検定部34は、B係数に従って2つの密度間の類似性分布を計算する。その一般的な形式は以下で定義される。
Figure 2004355601
上述の類似性尺度式は、任意の密度に対して正しく、目標のスケールに対して不変である。サンプルデータから上式を計算する為に、密度pとqの計算では、カラーヒストグラムから導いた簡易密度を次の様に定義する。
(a)基準目標の離散色密度Q=Qu(u=1,…,m)(正規化条件付)は、目標の追跡開始時点での重心の小窓から得られる基準m−bin比率カラーヒストグラムとする。
(b)新ビデオフレームでの目標候補の色密度P(x)=(Pu(x))(u=1,…,m)(正規化条件付き)は、追跡grouping box内で頭部座標と重心座標とから得られる小窓の中でm−bin比率カラーヒストグラムを計算して得られる。
B係数分布のサンプル値計算は、次式で得られる。
Figure 2004355601
PとQは、共にRGBの3次元データである。この式の幾何学的な意味は、m次元(色量子化のビン数)、単位ベクトル間の角度のコサインである。B係数ρは、次式でBhattacharya距離RBと関係付けられる。
ρ(x)=exp(−RB(x))
2つの分布の非類似性距離RBを最小にすることは、B計数ρを最大化することである。つまり、2つの分布の最大類似性は、B計数ρを最大化する座標位置を窓枠内でサーチして求める。頭部の小窓に対しても同様に処理する。
最後に、実験の結果について補足説明する。
まず、移動2眼カメラによる移動体検出処理の実験について説明する。前述の図4と図5のカメラ画像は、簡易型2眼Webカメラによる映像である。2つのカメラを10cmの間隔で設置し、ほぼ平行に光学軸を向け、カメラ校正無しで撮影している。
図6の2カメラ整合差分画像Dは、図4の左カメラ画像と図5の右カメラ画像に対して、事務所の絵画が掛けてある壁部分を写した画像内上方中央の四角形領域A601について、差分Gray(輝度)画像の強度和が最小になるように、ピクセル単位でマッチングをとった後の2眼差分Gray(輝度)画像である。
従って、中央四角形領域Aの視差が最小になっている。中央四角形領域Aより手前にある物体は、視差として物体エッジが広がっている。
図7は、図6の2カメラ整合差分画像Dと次フレーム画像の差分画像とのフレーム間差分画像FDである。このフレーム間で、2眼カメラはあまり動いていない。従って、静止カメラでの背景差分と同じ効果で強度がほぼ消え、2眼による物体エッジもほぼ一定の幅である。
図8は、2眼カメラが大きく動いている場合に、遠方四角形領域Aで強度マッチさせた2カメラ整合差分画像Dである。図9は、図8の差分画像Dと次フレーム画像の差分画像とのフレーム間差分画像FDである。図9の画像では、カメラ移動量に伴う物体エッジの広がりが存在する。これは、図7の物体エッジのオプティカルフローによる移動時間差拡がりと見ることもできる。
図10から図12は、頭部楕円の検出に関連した図を示している。
図10は、目標追跡開始時の輝度差分をSobelフィルター処理を行ったエッジ画像を示している。このエッジ画像点群に対して、重心を基準にして楕円整合サーチを実施し、基準頭部楕円を求める。
図11は、図10に対して求めた基準頭部楕円を、エッジ頭部画像に重ね合わせて示している。
図12の例では、目標追跡後の連続フレームにおいて、基準楕円情報による楕円円弧サーチを実施し検出した頭部楕円の検出状況を示している。
次に、動く2眼カメラによる移動体の追跡の実験結果について説明する。
移動体検出処理において検出した移動体に対して、追跡処理した右カメラの追跡画像の例を図13から図16に示す。それぞれ、図13は、No37フレーム、図14は、No45フレーム、図15は、No54フレーム、図16は、No71フレームの追跡画像である。
図13の例で、大きな枠1501は、追跡処理のBlob処理対象範囲を示し、小窓1502は、検出されたBlob重心位置を示す。この小窓に対して色比率ヒストグラムを算出する。また、重心位置を基準に楕円整合サーチを実施し頭部楕円情報を算出する。追跡確立と共に基準の色比率ヒストグラム、基準楕円情報として登録する。小さい四角形は基準楕円中心位置を示している。
図14の例で、大きな枠1601と重心の小窓1602は、図13と同じ意味であるが、この例では、重心の小窓1602の色比率ヒストグラムと基準色比率ヒストグラムとの色類似性検定に失敗した為、大きな枠1601内で色類似性サーチを実施している。その結果、色類似性検定に成功した位置を、色類似性重心位置として小窓1603に示している。小さい四角形は検出した頭部楕円中心位置を示している。
図15は、別の歩行者が右から登場してきたが、それに影響されることなく、大きな枠1701内で色類似性サーチを実施して、色類似性検定に成功した色類似性重心位置を小枠1703で示している。また、楕円円弧サーチによる頭部楕円の検出にも成功し小さい四角形で頭部楕円中心位置を示している。
図16の例は、別の歩行者に遮蔽された後、再び目標を追跡しているが、壁の背景色が目標頭部の色と同じ為、頭部輝度画像エッジが検出できなくなり、従って、頭部楕円が検出できない状況を示している。
最後に、長いフレーム期間での追跡目標の軌跡について例を示して説明する。図17は、BCによる色類似性を用いた場合の軌跡の例を示す図である。図18は、頭部楕円中心の軌跡の例を示す図である。
図中、横軸は画像フレーム番号を示し、縦軸は画像X座標(ピクセル値)を示している。フレーム番号20から、1歩行者が画面内右側から登場する。フレーム番号33から、移動体検出処理が始まり、フレーム番号37で、その歩行者の目標追跡に入り、フレーム番号72で、目標は別の歩行者に遮蔽されるが、フレーム番号77で再登場し、フレーム番号95で画面内左側へ歩き去る。
図17と図18は、カメラの動きのままフレーム番号95までその目標を追跡している状態の色重心と頭部楕円中心の軌跡を示している。
色類似性相関尺度としては、CHI方式、BC方式共にほぼ同等の識別性能であるが、いずれの方式も、類似色の局所的なピークの存在に引かれる場合があり、また、目標が遮蔽された場合の色類似相関処理の終了判定に難しい面を持っている。従って、Blob重心や頭部楕円の特徴量との併用が有効である。
以上のように、本発明は、動く2眼カメラによる移動体の追跡(追尾)に対する新しい方式を提案するものである。2台のカメラを近接設置し、光学軸をほぼ平行固定した配置で、視差を利用した大域的検出処理とBlob重心処理、色類似性尺度処理、頭部楕円相関処理とを併用し、カメラ移動がある場合にも、移動体追跡が可能となる。大域的検出は、差分強度の平均場検出と累積残像検出の2段階の検出からなる。
上述の例では、ロボットに搭載されることを想定して、移動体検出処理及び目標追跡処理について説明したが、自由に動くロボット以外の物体にも本発明を適用できるのことは、勿論である。
画像処理装置は、コンピュータにより構成可能であり、各要素はプログラムにより処理を実行することができる。また、プログラムを記憶媒体に記憶させ、記憶媒体からコンピュータに読み取られるようにすることができる。
左右カメラを用いた画像処理装置の概略を示す図である。 移動体検出装置の構成を示す図である。 目標追跡装置の構成を示す図である。 左カメラ画像の例を示す図である。 右カメラ画像の例を示す図である。 カメラの移動が小さいときの2カメラ整合差分画像Dの例を示す図である。 カメラの移動が小さいときのフレーム間差分画像FDを示す図である。 カメラの移動が大きいときの2カメラ整合差分画像Dの例を示す図である。 カメラの移動が大きいときのフレーム間差分画像FDを示す図である。 追跡開始時の目標輝度差分エッジ画像を示す図である。 追跡開始時の目標の頭部基準楕円を示す図である。 目標の追跡シーケンスの頭部楕円の検出状況の例を示す図である。 追跡画像の例(No37フレーム)を示す図である。 追跡画像の例(No55フレーム)を示す図である。 追跡画像の例(No71フレーム)を示す図である。 追跡画像の例(No85フレーム)を示す図である。 BCによる色類似性を用いた場合の色重心の軌跡の例を示す図である。 頭部楕円中心の軌跡の例を示す図である。 人型ロボットの外観例を示す図である。 視差Dx算出するための位置関係を示す図である。
符号の説明
1 左右カメラ、2 移動体検出装置、3 目標追跡装置、4 表示手段、21 輝度変換部、22 2画像整合部、23 フレーム間差分算出部、24 差分強度分布判定部、25 連続フレーム検定部、26 移動体検出部、31 表示インターフェース・データ処理部、32 特徴量算出部、33 色特性算出部、34 同一性検定部。

Claims (13)

  1. 以下の要素を有することを特徴とする目標追跡装置
    (1)連続するフレーム毎に、カラー画像を入力するデータ処理部
    (2)カラー画像中の移動体の領域を特定する情報を入力し、前記移動体の領域を特定する情報に基づいて、移動体の特徴量を判定する特徴量算出部
    (3)特徴量の色特性を算出し、目標追跡データとして記憶する特性算出部
    (4)目標追跡データを記憶した以降の後続フレームについて、カラー画像の部分の色特性を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定する同一性検定部。
  2. 移動体の領域を特定する情報は、略平行な光学軸で左右に配置した2つのカメラで撮影した左右のカラー画像から得られる左右の輝度画像を、フレーム毎に差分処理して得た2カメラ整合差分画像を、二つのフレームについて差分処理して得たフレーム間差分画像と、カラー画像を分割したセルのうち移動体の領域を含む移動体セルを特定する移動体セル番号とであることを特徴とする請求項1記載の目標追跡装置。
  3. 前記特徴量は、重心であることを特徴とする請求項1記載の目標追跡装置。
  4. 前記特徴量は、頭部楕円であることを特徴とする請求項1記載の目標追跡装置。
  5. 前記色特性は、色比率ヒストグラムであることを特徴とする請求項1記載の目標追跡装置。
  6. 前記カラー画像の部分は、当該後続フレームについて、移動体の領域を特定する情報に基づいて判定された移動体の特徴量であることを特徴とする請求項1記載の目標追跡装置。
  7. 同一性検定部は、カラー画像の複数部分について色特性を算出し、それぞれ目標追跡データと比較することにより、前記移動体と同一のものの位置をサーチすることを特徴とする請求項1記載の目標追跡装置。
  8. 移動体の領域を特定する情報が入力されなかったフレームに対して、前記移動体と同一のものの位置をサーチすることを特徴とする請求項7記載の目標追跡装置。
  9. 移動体の領域として予測される予測目標位置を算出し、予測目標位置に基づいて、目標存在推定窓枠を設定し、目標存在推定窓枠の範囲内で、前記移動体と同一のものの位置をサーチすることを特徴とする請求項8記載の目標追跡装置。
  10. 以下の要素を有することを特徴とする目標追跡方法
    (1)連続するフレーム毎に、カラー画像を入力する工程
    (2)カラー画像中の移動体の領域を特定する情報を入力し、前記移動体の領域を特定する情報に基づいて、移動体の特徴量を判定する工程
    (3)特徴量の色特性を算出し、目標追跡データとして記憶する工程
    (4)目標追跡データを記憶した以降の後続フレームについて、カラー画像の部分の色特性を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定する工程。
  11. 目標追跡装置となるコンピュータに、以下の処理を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
    (1)連続するフレーム毎に、カラー画像を入力する処理
    (2)カラー画像中の移動体の領域を特定する情報を入力し、前記移動体の領域を特定する情報に基づいて、移動体の特徴点を判定する処理
    (3)特徴量の色特性を算出し、目標追跡データとして記憶する処理
    (4)目標追跡データを記憶した以降の後続フレームについて、カラー画像の部分の色特性を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定する処理。
  12. 目標追跡装置となるコンピュータに、以下の手順を実行させるためのプログラム
    (1)連続するフレーム毎に、カラー画像を入力する手順
    (2)カラー画像中の移動体の領域を特定する情報を入力し、前記移動体の領域を特定する情報に基づいて、移動体の特徴量を判定する手順
    (3)特徴量の色特性を算出し、目標追跡データとして記憶する手順
    (4)目標追跡データを記憶した以降の後続フレームについて、カラー画像の部分の色特性を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定する手順。
  13. 特性算出部は、更に、頭部楕円情報を目標追跡データとして記憶し、
    同一性検定部は、目標追跡データを記憶した以降の後続フレームについて、更に、頭部楕円情報を算出し、目標追跡データと比較することにより、前記カラー画像の部分が前記移動体と同一のものの位置か否かを判定することを特徴とする請求項1記載の目標追跡装置。
JP2003374747A 2003-05-07 2003-11-04 目標追跡装置及び目標追跡方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム Pending JP2004355601A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003374747A JP2004355601A (ja) 2003-05-07 2003-11-04 目標追跡装置及び目標追跡方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003128629 2003-05-07
JP2003374747A JP2004355601A (ja) 2003-05-07 2003-11-04 目標追跡装置及び目標追跡方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム

Publications (1)

Publication Number Publication Date
JP2004355601A true JP2004355601A (ja) 2004-12-16

Family

ID=34066993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003374747A Pending JP2004355601A (ja) 2003-05-07 2003-11-04 目標追跡装置及び目標追跡方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム

Country Status (1)

Country Link
JP (1) JP2004355601A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209770A (ja) * 2005-01-25 2006-08-10 Samsung Electronics Co Ltd 移動体の位置の推定及び地図の生成装置とその方法、並びにその装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体
JP2006227973A (ja) * 2005-02-18 2006-08-31 Kyushu Institute Of Technology 物体追跡方法および物体追跡装置ならびにプログラム
KR101494394B1 (ko) * 2014-07-01 2015-02-17 엘아이지넥스원 주식회사 스테레오 비전을 이용한 탐색장치 및 그 방법
US11004215B2 (en) 2016-01-28 2021-05-11 Ricoh Company, Ltd. Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
CN113065392A (zh) * 2021-02-24 2021-07-02 苏州盈科电子有限公司 一种机器人的跟踪方法和装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006209770A (ja) * 2005-01-25 2006-08-10 Samsung Electronics Co Ltd 移動体の位置の推定及び地図の生成装置とその方法、並びにその装置を制御するコンピュータプログラムを保存するコンピュータで読み取り可能な記録媒体
US8831872B2 (en) 2005-01-25 2014-09-09 Samsung Electronics Co., Ltd. Apparatus and method for estimating location of mobile body and generating map of mobile body environment using upper image of mobile body environment, and computer readable recording medium storing computer program controlling the apparatus
JP2006227973A (ja) * 2005-02-18 2006-08-31 Kyushu Institute Of Technology 物体追跡方法および物体追跡装置ならびにプログラム
JP4625949B2 (ja) * 2005-02-18 2011-02-02 国立大学法人九州工業大学 物体追跡方法および物体追跡装置ならびにプログラム
KR101494394B1 (ko) * 2014-07-01 2015-02-17 엘아이지넥스원 주식회사 스테레오 비전을 이용한 탐색장치 및 그 방법
US11004215B2 (en) 2016-01-28 2021-05-11 Ricoh Company, Ltd. Image processing apparatus, imaging device, moving body device control system, image information processing method, and program product
CN113065392A (zh) * 2021-02-24 2021-07-02 苏州盈科电子有限公司 一种机器人的跟踪方法和装置

Similar Documents

Publication Publication Date Title
CN108111818B (zh) 基于多摄像机协同的运动目标主动感知方法和装置
US10417503B2 (en) Image processing apparatus and image processing method
KR101971866B1 (ko) 동화상에 있어서 물체를 검출하는 방법 및 장치, 및 그 프로그램을 기억한 기억 매체
CN106682619B (zh) 一种对象跟踪方法及装置
US8947508B2 (en) Image processing apparatus
JP5032846B2 (ja) 監視装置および監視記録装置、それらの方法
KR101035055B1 (ko) 이종 카메라를 이용한 객체 추적 시스템 및 방법
JP3729025B2 (ja) 歩行者検知装置
JP5371040B2 (ja) 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム
KR20120007850A (ko) 부분 템플릿 매칭 기반의 객체 식별 장치 및 방법
JP3577875B2 (ja) 移動物体抽出装置
JP2019124986A (ja) 障害検知システム
KR101690050B1 (ko) 지능형 영상보안 시스템 및 객체 추적 방법
Mohedano et al. Robust 3d people tracking and positioning system in a semi-overlapped multi-camera environment
KR101290517B1 (ko) 촬영장치 및 이의 대상 추적방법
JP2004355601A (ja) 目標追跡装置及び目標追跡方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム
JPH09322153A (ja) 自動監視装置
JP2001012946A (ja) 動画像処理装置及び方法
CN115412668A (zh) 跟踪拍摄方法、装置及计算机可读存储介质
JP2019075051A (ja) 画像処理装置
JP2002027480A (ja) 動画像処理方法および動画像処理装置
JP2004334462A (ja) 移動体検出装置及び移動体検出方法及びプログラムを記録したコンピュータ読み取り可能な記録媒体及びプログラム
CN114663805A (zh) 一种基于换流站阀厅消防机器人的火焰定位报警系统及方法
JP4269781B2 (ja) オプティカルフロー検出システム、検出方法および検出プログラム
JP6539720B1 (ja) 画像処理装置

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20041014