JP5154461B2 - 移動物体追跡装置 - Google Patents

移動物体追跡装置 Download PDF

Info

Publication number
JP5154461B2
JP5154461B2 JP2009015741A JP2009015741A JP5154461B2 JP 5154461 B2 JP5154461 B2 JP 5154461B2 JP 2009015741 A JP2009015741 A JP 2009015741A JP 2009015741 A JP2009015741 A JP 2009015741A JP 5154461 B2 JP5154461 B2 JP 5154461B2
Authority
JP
Japan
Prior art keywords
area
moving object
image
input image
overlapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009015741A
Other languages
English (en)
Other versions
JP2010176206A (ja
Inventor
弘 山根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009015741A priority Critical patent/JP5154461B2/ja
Publication of JP2010176206A publication Critical patent/JP2010176206A/ja
Application granted granted Critical
Publication of JP5154461B2 publication Critical patent/JP5154461B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理により移動物体を追跡する移動物体追跡装置に係り、特に追跡対象である人物が頻繁に立ち止まるような場合や、小型什器が置かれた場所を撮影する場合に適した移動物体追跡装置に関するものである。
テンプレートを用いた移動物体追跡装置が知られている。例えば、ある時点で背景差分により得られた変化領域のヒストグラムを求め、これを次時点で得られた変化領域のヒストグラムと比較し、所定の基準値を越えて類似している場合には両者を対応づける処理を行う。以後同様に変化領域が得られる都度、この処理を繰り返して移動物体を追跡していくものである。
特許文献1には、背景画像との差分処理により得られた領域と、フレーム間差分により得られた領域の組み合わせにより、静止物体と移動物体とを区別して、移動物体追跡を行う装置が開示されている。
特開平11−096376号公報
ところが、移動物体が単独で移動し続ける場合には、前述したような方法でも問題はないが、移動物体が背景物(長時間静止していて、背景画像に取り込まれている物体。例えば椅子や机、台車などの小型什器が典型)を少し動かし、その後背景物から離れて更に移動を続けると、追跡に失敗することがある。
これを図7を用いて説明する。
図7において、上段が背景画像、下段が入力画像である。背景画像には背景物である椅子が映っているが、追跡対象である人物は写っていない。時刻t1において、人物が写り、背景差分処理により符号100aとして抽出され、ヒストグラムが作成された。
時刻t2において、人物が椅子を少し動かし、手を離そうとしているとする。背景差分処理により変化領域が符号100bとして、1つのみ抽出され、ヒストグラムが作成された。ここで、符号100bの領域には、椅子と人物が含まれるが、人物が椅子に完全に隠れることはなく、また、時刻t2での変化領域は1つのみであるので、時刻t1での変化領域100aと、時刻t2での変化領域100bとはある程度類似していると判断され、両者が対応付けられる。
時刻t3は、人物が椅子から手を離して、立ち去る場合である。入力画像中において、背景差分により得られる変化領域として椅子を捉えている符号100cと、人物を捉えている100dが抽出され、それぞれヒストグラムが作成される。
ここで、変化領域100cと変化領域100dのヒストグラムのうち、どちらが時刻t2における変化領域100bのヒストグラムに類似しているかを考えると、変化領域100bの中で椅子の方が支配的な場合には、人物である変化領域100dと変化領域100bの類似の程度よりも、椅子である変化領域100cと変化領域100bの類似の程度の方が高く、時刻t3において椅子を示す変化領域100cと、時刻t2における変化領域100bとが対応付けられる。変化領域100bは、時刻t2において、変化領域100aと対応付けられているので、結果的に時刻t3において、人物の追跡に失敗することになる。
時刻t2と時刻t3においては、椅子は静止物体である一方、人物は移動物体である。ここで静止物体と移動物体を区別する方法として、前述した特許文献1に記載の発明があるが、この発明によれば、背景差分により得られた変化領域中で、移動物体と静止物体の区別をするべくフレーム間差分を組み合わせたのみであるので、人物が複雑な動きをする場合には対応しきれないという問題があった。例えば、追跡中の人物が一旦静止し、体の一部(例えば腕)のみを動かしている場合には、動かしている部分のみが追跡対象となり、誤追跡につながる。
本発明は、上記課題を解決するためのものであり、背景差分により得られた変化領域に関し、フレーム間差分のみならず背景との類似度を用いて判断することにより、追跡対象である移動物体を背景から分離してヒストグラムの更新に利用する手法を導入することにより、背景物の移動にも、体の一部を動かす静止した人物にも対応できる移動物体追跡装置を提供することを目的としている。
請求項1に記載された移動物体追跡装置は、
画像を順次取得する画像入力部と、
少なくとも、前記画像入力部において異なる時刻で取得された複数の入力画像と、移動物体ごとの移動物体情報と、予め移動物体が含まれない基準画像を記憶する記憶部と、
前記入力画像を順次画像処理して、移動物体を画像上にて追跡する追跡処理部と、
を具備する移動物体追跡装置であって、
前記追跡処理部は、
前記基準画像と前記入力画像とを差分処理して第一の変化領域を抽出する背景差分処理手段と、
異なる時刻に取得された前記入力画像どうしを差分処理して第二の変化領域を抽出するフレーム間差分処理手段と、
前記第一の変化領域と前記第二の変化領域の重複領域および前記第一の変化領域から前記重複領域を除いた非重複領域を抽出する重複領域抽出手段と、
前記入力画像と前記基準画像の前記非重複領域における類似度が所定の類似度閾値を越える場合には、前記入力画像の前記重複領域から抽出された特徴情報を用いて前記移動物体情報を更新し、前記入力画像と前記基準画像の前記非重複領域における類似度が前記所定の類似度閾値を越えない場合には、前記第一の変化領域から抽出された特徴情報を用いて前記移動物体情報を更新する移動物体情報更新手段と、
を有することを特徴としている。
請求項2に記載された移動物体追跡装置は、請求項1に記載の移動物体追跡装置において、
前記移動物体情報更新手段は、
前記入力画像と前記基準画像の前記非重複領域における類似度が前記所定の類似度閾値を越え、かつ前記重複領域の面積および前記非重複領域の面積のいずれもが所定の面積閾値を越える場合に、前記入力画像の前記重複領域から抽出された特徴情報を用いて前記移動物体情報を更新し、
前記入力画像と前記基準画像の前記非重複領域における類似度が前記所定の類似度閾値を越えない場合、または前記重複領域の面積および前記非重複領域の面積の少なくともいずれか一方が所定の面積閾値を越えない場合に、前記第一の変化領域から抽出された特徴情報を用いて前記移動物体情報を更新することを特徴としている。
本発明に依れば、背景物となり得る小型什器が多い撮影場所において、移動したり静止したりするといった複雑な動きをする人物を継続的に追跡できる。さらに、人物を継続的に追跡できるので、人物の動線から当該人物の異常性を判断する装置の実現が可能となる。例えば、本来それほど長時間留まることのない場所、例えばATMコーナーにおいて犯罪の下見を行なう滞留者を発見したり、一方通行と決められた場所で逆行して犯行を企む犯罪者の検出等が可能となる。
図1は、本発明の一実施形態である移動物体追跡装置の構成を示すブロック図である。 図2は、本発明の一実施形態である移動物体追跡装置の動作順序を示すフローチャートである。 図3は、図2のステップS500における移動物体情報抽出・更新処理の手順を示すフローチャートである。 図4は、本発明の一実施形態である移動物体追跡装置における処理対象としての各種画像と、その処理結果として得られる変化領域等を、画像を取得する所定の時間間隔ごとに模式的に表した図である。 図5は、図3のステップS550の判断でNOの条件分岐をたどり、ステップS580に進む場合についての説明図であって、本発明の一実施形態である移動物体追跡装置における処理対象としての各種画像とその処理結果の画像を、取得する所定の時間間隔ごとに模式的に表した図である。 図6は、図2のステップS500における移動物体情報抽出・更新処理の別の実施形態における手順を示すフローチャートである。 ヒストグラムを用いた従来の移動物体追跡装置における画像処理方法とその課題を示すために、同装置における背景画像と各時刻における入力画像を模式的に表した図である。
本発明の好適な実施形態として、本発明に係る移動物体追跡装置を金融機関の店舗に併設されたATMコーナーを監視する画像監視装置に適用し、当該コーナーに長時間滞留する不審人物を画像処理によって検知する例に基づき説明する。
1.移動物体追跡装置の構成
図1は、本発明の一実施形態である移動物体追跡装置10が実装された画像監視装置1の構成を示すブロック図である。図1に示すように、本発明の一実施形態に係る移動物体追跡装置10は、画像取得部110と、追跡処理部130と、記憶部140と、滞留判定部150と、人判定部160と、警報部170とを有し、撮像装置20に接続されている。
撮像装置20は、所定の監視領域を所定の時間間隔で撮影し、撮影された画像を順次追跡処理部130に送る。以下、この所定時間で刻まれる時間の単位を時刻と称する。撮像装置20としては、例えば、CCD素子又はC−MOS素子等の撮像素子、光学系部品、A/D変換器等を含んで構成され、内蔵カメラ又は外部カメラなどの公知のものを用いることができる。また、撮像装置20の解像度は、追跡対象などの具体的な用途に応じて選択することができ、例えばNTSC規格、SDTV規格またはHDTV規格を用いることができる。また、画像の撮像に用いる波長帯としては、可視光波長又は赤外線波長などを、追跡対象などの具体的な用途に応じて選択することが好ましい。
画像取得部110は、撮像装置20から順次送られる画像信号を受け取るためのインターフェースであり、撮像装置20からSCSI、USB、LAN、専用ケーブルなどの有線又は無線の通信回線を介して画像を受信する。画像取得部110は、撮像装置20から受信した画像を移動物体追跡装置10の各部へ送る。尚、本実施例では、画像から得られる特徴情報に色ヒストグラムを使用する場合について説明するので、撮像装置20及び画像取得部110としては、カラー画像を処理できるものを使用する。
記憶部140は、各種プログラム及び各種データを記憶することができ、例えばRAM又はROM、EPROMなどの半導体メモリ、ハードディスクなどの磁気記録媒体、CD−ROM、DVD−R/Wなどの光記録媒体などを用いて構成することができる。記憶部140は、画像取得部110、追跡処理部130、滞留判定部150、人判定部160及び警報部170と接続されており、各部からの要求に応じて各種プログラムや各種データなどを読み書きする。
記憶部140は、移動物体情報141と、基準画像142、過去入力画像143、不審者検知画像144を記憶する。
移動物体情報141には、例えば、移動物体の特徴情報、一時刻前の入力画像における移動物体の領域、過去の予め定めた数(例えば5時刻分)の移動量、移動物体が画面中に現れてから経過した時間(以後存在時間と呼称する)などが含まれる。特徴情報とは、移動物体の特徴を表す情報であり、本実施例では、例えば、移動物体の画像の色ヒストグラムや面積などが含まれるが、両値の平均や標準偏差、エッジ情報、テクスチャ情報、輝度ヒストグラムなどの他の特徴情報を含んでもよい。ここでは、色ヒストグラムを使用する実施例について主に説明する。
また、移動物体の領域とは、移動物体が入力画像において占める範囲であり、一般に、その形状と大きさと位置とによって表すことができる。本実施例では、領域として外接矩形を用いており、外接矩形の大きさ及び位置によって領域を特定することができるが、例えば、重心位置等を利用してもよい。
基準画像142は、変化領域を抽出するとき比較対象の基準となる画像であり、例えば、監視領域に移動物体が存在しないときに背景画像を予め撮影しておき、記憶部140に記憶しておく。
過去入力画像143は、撮像装置20にて、過去の時刻において取得された画像を記憶したものである。後述するように、現在時刻において取得された入力画像との比較のために用いられる。最低1枚(例えば1時刻前)は記憶しておく。
不審者検知画像144は、画像中の移動物体を追跡した結果、通常それほど長時間にわたって居続けるとは考えにくいATMコーナーを監視対象とした画面内に一定時間以上存在し続け、人間と判別された移動物体を検知した際、この移動物体の画像を不審者として記憶したものである。
追跡処理部130は、画像取得部110から順次受け取った画像を処理して画像中の移動物体を追跡する。追跡処理部130は、滞留判定部150、人判定部160及び警報部170と同様に、記憶部140に記憶された処理手順を記述したプログラムを読み出して、CPU、DSP、MCU等の処理装置で実行する。追跡処理部130は、画像取得部110、記憶部140、滞留判定部150に接続されるとともに、人判定部160及び警報部170とも間接的に接続されている。
図1に示すように、追跡処理部130は、変化領域抽出手段131と、特徴抽出手段132と、重複領域抽出手段133と、背景類似度算出手段134と、対応付け手段135と、更新手段136とを備える。
変化領域抽出手段131は、背景差分処理手段1311と、フレーム間差分処理手段1312を備える。
背景差分処理手段1311は、予め記憶部140に記憶しておいた移動物体が存在しない基準画像142又は後述するように後に更新した基準画像142と、撮像装置20が撮影し画像取得部110を介して受け取った画像(以下、入力画像という)を、公知の方法でそれぞれ白黒化し、両画像の間で差分を計算し、一定の閾値以上の差分がある画素を第1の変化領域として抽出する。そして、背景差分処理手段131は、ラベリングによって抽出した各変化領域にラベル付けを行う。
フレーム間差分処理手段1312は、記憶部140に記憶されている過去入力画像143と、現時刻で入力された入力画像を、公知の方法でそれぞれ白黒化し、両画像の間で差分を計算し、一定の閾値以上の差分がある画素を第2の変化領域として抽出する。
特徴抽出手段132は、変化領域抽出手段131で抽出されたそれぞれの変化領域について、変化領域における基準画像及び入力画像の色ヒストグラム、入力画像における移動物体の位置や面積などを計算して特徴情報を抽出する。
重複領域抽出手段133は、背景差分処理手段1311が抽出した変化領域と、フレーム間差分処理手段1312が抽出した変化領域との重複する領域(重複領域)と、背景差分処理手段1311が抽出した変化領域から重複領域を除いた領域(非重複領域)を抽出する手段である。また、両領域に含まれる画素数を計数する。
背景類似度算出手段134は、変化領域抽出手段131の背景差分処理手段1311が抽出した変化領域と、同じくフレーム間差分処理手段1312が抽出した変化領域を用いて、重複領域抽出手段133が抽出した非重複領域について、入力画像と基準画像142の類似度を求める。類似度の定義は、両画像の画素値の差を累積加算し、画素数で除算して正規化した値など、種々考えられるが、本実施の形態においては、変化領域に含まれる各画素から生成した色ヒストグラムどうしの類似度を用いるものとする。計算方法は後述する。
対応付け手段135は、特徴抽出手段132が抽出した各変化領域の特徴情報と記憶部140に記憶された各移動物体の移動物体情報141との対応度に基づいて、処理対象の各変化領域と当該変化領域に存在する最も可能性の高い移動物体とを対応付ける。
更新手段136は、特徴抽出手段132が抽出した特徴情報を用いて記憶部140に記憶している移動物体情報141を更新する。また、現時刻で存在する移動物体に対して、移動物体情報141の存在時間を更新する。更に、記憶部140に記憶している基準画像142も更新する。
滞留判定部150は、移動物体ごとに記憶部140に記憶されている存在時間を調べ、予め定めた時間(例えば1分間)より長く画像中に存在していれば、それが人間か否かを調べるために当該移動物体の領域の情報を人判定部160に送る。
人判定部160は、滞留判定部150から送られた予め定めた時間より長く画面内に存在している移動物体が人間であるか否かを判定し、人間であると判定した場合は警報部170にその結果を送る。また、その時の画像を不審者検知画像144として記憶部140に記憶してもよい。
警報部170は、人判定部160から結果を受け取ると、LEDなどの警報ランプや警報ブザーなどによって、不審者を検知したことを利用者に知らせる。予め記憶されたメッセージを、スピーカーなどを介して音声として流したり、ディスプレイ上に表示したりしてもよい。また、記憶部140に記憶された不審者検知画像144は、ディスプレイやプリンタなどの出力装置(図示せず)を介して出力することもできる。
2.移動物体追跡装置の動作
図2は、本発明の一実施形態である移動物体追跡装置10の動作順序を示すフローチャートである。図2を参照しながら、移動物体追跡装置10の各部の動作の詳細に関して説明する。
ステップS100において、移動物体追跡装置10は、撮像装置20の画角内に移動物体が存在しない状況で、撮像装置20によって監視領域を予め撮影して得た背景画像を基準画像142として記憶部140に記憶したり、追跡対象の移動物体に関する移動物体情報141を初期状態にしたりするなどの移動物体の追跡処理のための初期化を行う。
ステップS200において、移動物体追跡装置10は、予め規定された時間間隔で撮像装置20が撮影した画像を、画像取得部110を介して受け取り、追跡処理部130へ渡す。こうして、移動物体追跡装置10は、撮像装置20から一定時間間隔で順次入力画像が送られるごとに、追跡処理部130によるステップS200〜S1300の処理を繰り返す。
ステップS300において、追跡処理部130は、変化領域抽出手段131の背景差分処理手段1311によって、撮像装置20から新たに受け取った入力画像と記憶部140に記憶されている基準画像142とを比較し、差異のある領域を変化領域として抽出する。
背景差分処理手段1311は、まず、入力画像と基準画像142のそれぞれを公知の方法にて白黒化する。それから、例えば、入力画像と基準画像142との対応する画素の画素値について差分処理を行い、一定以上の差分値がある画素群について二値化を行い、抽出した領域についてラベリングを行う。こうして、入力画像において基準画像142と異なる変化領域、すなわち、移動物体が存在すると推定される領域が抽出される。尚、差分処理、二値化、ラベリングの方法に関しては、公知の様々な方法を用いることができるため、詳細についての説明は省略する。
ステップS400において、追跡処理部130は、対応付け手段135によって、記憶部140に記憶されている移動物体の移動物体情報141と、ステップS300において抽出された変化領域との対応付けを行う。なお、移動物体情報141は、初期化された後、最初に追跡対象となるような移動物体が検出された場合に、この移動物体についての特徴を抽出して記憶部に移動物体情報141として記憶したものである。
対応付け手段135は、記憶部140に記憶されている一時刻前の入力画像で検出された追跡対象の移動物体に関する移動物体情報141と、特徴抽出手段132が現時刻の入力画像の各変化領域から抽出した特徴情報(色ヒストグラムや面積など)とに基づいて類似度を算出し、この類似度に基づいて、一時刻前に検出された移動物体のそれぞれが現時刻の入力画像のどの変化領域に存在する可能性が最も高いかを対応付ける。この対応付け方法については、公知のものを適宜利用すれば良いので、詳細は省略する。
ステップS500において、追跡処理部130は、ステップS400において対応付けられた変化領域と移動物体情報141に基づいて、対応付けられた変化領域について現時刻の入力画像における特徴情報を各移動物体の移動物体情報とする。すなわち、追跡処理部130は、更新手段136によって、特徴抽出手段132が抽出した移動物体情報を用いて移動物体情報141を更新する。かかる処理は、背景差分処理手段1311が抽出し、ラべリングされた変化領域毎に行なう。なお、ステップS500の処理についての詳細は後述する。
以下に説明するステップ700からステップ1000の手順もラべリングされた変化領域毎に行なう。
ステップS800において、更新手段136は、追跡が成功した移動物体について、記憶部140に記憶してある移動物体情報141の追跡成功回数を1回増加させる。又は、存在時間を撮影間隔分増加させてもよい。逆に追跡に失敗して見失った場合は、追跡成功回数又は存在時間を0にリセットする。移動物体が画面外に出たと判定された場合、更新手段136は、この移動物体に関する移動物体情報141を記憶部140から消去する
ステップS900において、移動物体追跡装置10は、追跡処理部130が追跡に成功した移動物体について、滞留判定部150によって、予め定めた時間より長く画像中に存在しているか否かを判定する。
滞留判定部150は、例えば、移動物体の追跡成功回数が予め定めた回数よりも多いか否かを判定することによって、当該移動物体が予め定めた時間より長く画像中に存在し続けているか否かを判定する。また、滞留判定部150は、現時刻に取得された入力画像に存在する移動物体について存在時間を更新し、この存在時間を記憶部140に記憶しておき、移動物体が長時間存在しているか否かの判定に使用してもよい。
移動物体が予め定めた時間より長く画像中に存在している場合(ステップS900のyes)、ステップS1100において、移動物体追跡装置10は、人判定部160によってこの移動物体が人であるか否かを判定する。
人判定部160は、滞留判定部150によって予め定めた時間より長く画面内に存在すると判定された移動物体が人間であるか否かを判定し、人間であると判定した場合(ステップS1100のYes)は警報部170にその結果を出力する(S1200)。そして、その移動物体の画像を不審者検知画像144として記憶部140に記憶する。また、例えば、不審者が滞留した時間帯など他の情報も一緒に記憶部140に記憶してもよい。
人判定部160において移動物体が人間であるか否かを判定する方法には、周知の様々な方法を使用することが可能である。例えば、P.Viola 、M.Jones &D.Snow、「動作パターン及び外観パターンによる歩行者の検出(Detecting Pedestrians Using Patterns of Motion and Appearance )」、IEEE International Conference on Computer Vision,Pp、734,0ct.,2003に記載されているように、予め撮影した様々な外観の人間の画像を使用してAdaBoostによって学習したHaar-Like 特徴に基づくカスケード型識別器によって人間であるか否かの判定が実現できる。
移動物体が人間であると判定された場合(ステップS1100のYes)、ステップS1200において、移動物体追跡装置10は、警報部170によってユーザーに光や音等で警告し、記憶部140に記憶されている不審者検知画像144を外部の機器に表示する。
このように、移動物体の追跡回数のカウントや、その結果を元に行なう不審者の判定等の手順(ステップ800からステップ1200)は、前述したようにラベリングされた変化領域毎に行なう。すなわち、1入力画像中に、互いに独立しており、異なるラベルが付される変化領域が複数抽出される場合もあるので、各ラベルごとに上述した手順を実行することにより、各移動物体について何フレーム追跡できているかを把握し、それぞれについて不審者か否かの判断を行なうことができる。
図3は、図2のステップS500における追跡処理部130による移動物体情報抽出処理を示すフローチャートである。追跡処理部130は、ステップS510〜S580の処理を、ステップS300で変化領域抽出手段131の背景差分処理手段1311が抽出し、ラベリングされた変化領域毎に繰り返し実行する。
ステップS510において、フレーム間差分処理手段1312は、記憶部140に記憶されている過去入力画像143と、現時刻において取得された入力画像のそれぞれについて、公知の方法で白黒化を行い、画素毎の差分処理を行う。一定以上の差分値がある画素群について二値化を行い、抽出した領域についてラベリングを行う。これらは背景差分処理手段1311における処理と同様である。これらの処理については公知の様々な方法を用いることができるため、詳細は省略する。
ステップS520において、追跡処理部130の重複領域抽出手段133は、背景差分処理手段1311が抽出した変化領域から、「重複領域」および「非重複領域」を抽出する。重複領域は、背景差分処理手段1311が抽出した変化領域と、フレーム間差分処理手段1312が抽出した変化領域の論理積を考え、両者に共通する領域として抽出される。一方、非重複領域は、同様に、背景差分処理手段1311が抽出した変化領域と、フレーム間差分処理手段1312が抽出した変化領域の論理積を考えた場合、背景差分処理手段1311が抽出した変化領域には含まれるが、フレーム間差分処理手段1312が抽出した変化領域には含まれない領域として抽出される。
ステップS540では、背景類似度算出手段134は、非重複領域について、記憶部140に記憶されている基準画像と、現時刻の入力画像との類似度を求める。本実施形態では、類似度として色ヒストグラムの類似度を利用する。すなわち、基準画像中の非重複領域に対応する部分の色ヒストグラムと、入力画像中の非重複領域に対応する部分の色ヒストグラムが、互いにどの程度類似しているかを見る。
色ヒストグラムは、ある領域の画像における色分布を表す特徴量であり、変化領域内の各画素が所定幅で区切った色空間のどの領域に属するかを分類して頻度を累積した後、各累積値を全ピクセル数で割って正規化することによって計算される。例えば、YUV表色系であれば、Y成分、U成分、V成分を各軸にとった3次元空間のヒストグラムとなる。
背景類似度算出手段134が、非重複領域において、入力画像と基準画像からそれぞれ抽出した各色ヒストグラムを比較することで類似度を求める。入力画像の非重複領域の色ヒストグラムをh(y,u,v)、基準画像の非重複領域の色ヒストグラムをg(y,u,v)とすると、次式(1)によって算出できる。
色ヒストグラムh(y,u,v)、g(y,u,v)はビンの総和が1となるように正規化しておけば、式(1)による類似度は、色ヒストグラムが完全に一致する場合に1.0、それ以外の場合に1.0未満の正数となり、両者が似ているほど大きな値をとる。
ステップS550において、ステップS540で求めた類似度が所定の閾値を越えるか否かを調べる。越えない場合、即ちステップS550でNoの場合、ステップS580に進み、特徴抽出手段132が、背景差分処理手段1311が抽出した変化領域から、特徴情報、即ち、色情報(色ヒストグラムを含む)や面積情報、位置情報などを取得し、対応付け手段135により対応付けられた移動物体について、更新手段136が、記憶部140に記憶されている移動物体情報141を更新する。
すなわち、非重複領域における入力画像と基準画像の類似度が低い場合は、入力画像における非重複領域は、撮像装置20が背景を映している領域とはみなせないので、背景差分である第1の変化領域の全体の情報を使用して記憶部140に記憶されている移動物体情報141を更新する。
尚、重複領域又は非重複領域が抽出されない場合には式(1)では計算できないので、例外処理としてその場合にもステップS580に進むものとする。
ステップS550において、類似度が所定の閾値を越える場合、即ちステップS550でYesの場合、ステップS560に進み、特徴抽出手段132が、重複領域から、特徴情報、即ち、色情報(色ヒストグラムを含む)や面積情報、位置情報などを取得し、対応付け手段135により対応付けられた移動物体について、更新手段136が、記憶部140に記憶されている移動物体情報を更新する。
すなわち、非重複領域における入力画像と基準画像の類似度が高い場合は、入力画像における非重複領域は、撮像装置20が背景を映している領域と考えられるので、重複領域の情報を使用して記憶部140に記憶されている移動物体情報141を更新する。
次にステップS570では、更新手段136は、記憶部140に記憶されている基準画像142を更新する。ここで、ステップS550において、類似度が所定の閾値を越えない場合、即ちステップS550でNoの場合、背景差分処理手段1311により抽出された変化領域は更新せず、それ以外の画素について、現時刻での入力画像における各画素の画素値で、対応する基準画像142の画素の画素値を置き換えることで更新する。
また、ステップS550において、類似度が所定の閾値を越える場合、即ちステップS550でYesの場合、背景差分処理手段1311により抽出された変化領域は更新せず、背景差分処理手段1311により抽出された変化領域に含まれる画素及び非重複領域に含まれる画素について、現時刻での入力画像における各画素の画素値で、対応する基準画像142の画素の画素値を置き換えることで更新する。
上記のような方法で更新すると、最新の入力画像に含まれる情報が基準画像142に反映されるため、日照変動などに対応できる。
3.画像処理手順の具体例
次に、図4を参照し、以上説明した処理手順を、具体的な画像例を示しながら、時刻を追って説明する。
図4には、時刻t1を始点として、時刻t4までについて、記憶部140に記憶されている基準画像142を同図(a)〜(d)に示し、各時刻における入力画像を同図(e)〜(h)に示し、背景差分処理手段1311により抽出された、基準画像と入力画像との差分結果(第1の変化領域)を同図(i)〜(l)に示し、フレーム間差分処理手段1312により抽出された、過去入力画像143に記憶されている一時刻前の入力画像と、現時刻での入力画像との差分結果(第2の変化領域)を同図(m)〜(o)に示し、重複領域抽出手段133により抽出された重複領域と非重複領域を同図(p)〜(r)に示し、特徴情報の一つである色ヒストグラムを算出するための部分画像である特徴量算出用テンプレートを同図(s)〜(v)に示している。
但し、図4(m)は、同図(e)と同図(f)との間のフレーム間差分、同図(n)は同図(f)と同図(g)との間のフレーム間差分、同図(o)は同図(g)と同図(h)との間のフレーム間差分である。
時刻t1における基準画像は図4(a)であり、ATMコーナーに備え付けられた背景物である椅子500が単独で映っているとする。
図2のステップS200において取得された、同時刻t1における入力画像は同図(e)であり、人物510が撮像装置20の視野に入ってきた様子を示している。椅子500の位置に変化は無い。
同図(i)は、図2のステップS300において処理された、同時刻t1における背景差分処理手段1311により抽出された変化領域520を示している。椅子500は動いていないので、抽出されない。
時刻t1では、動作開始直後とするので、過去入力画像143は存在していないものとし、例外的に、図3に示したステップS510、S520、S540の処理は行わず、ステップS580の処理に進むものとし、上記背景差分結果に基づき、図4(e)に示す入力画像中を参照し、追跡に用いる特徴量算出用テンプレートを作成するものとする。図4(s)は、ステップS580にて作成された特徴量算出用テンプレート530を示している。
この特徴量算出用テンプレートに含まれる画素値から色ヒストグラムを作成し、これを対応付け手段135が、次の時刻において図2のS400で対応付けを行うための特徴情報とする。特徴量算出用テンプレート530は、人物510をそのままの形でくり抜くように作成されており、人物510の画像情報を十分含み、追跡処理に好適なものである。
時刻t2における処理の様子を説明する。
時刻t2における基準画像は図4(b)である。この基準画像は、図3の背景画像更新処理S570により、時刻t1における入力画像を基にして更新を行なって得たものであるが、時刻t1における入力画像のうち、人物510に対応する部分(図4(i)の符号520)については更新を行わず、それ以外の部分については更新を行なっている。日照変動などはわずかとして、図4では特に両者の区別をするような描画はしていない。
同図(f)は、同時刻t2での入力画像であり、人物510が移動するとともに、椅子500を手に取り移動させている最中の様子である。椅子500は、時刻t1において置かれていた、符号540に示す点線の位置から動いている。
同図(j)は、図2のステップS300における処理結果であり、同時刻t2において背景差分処理手段1311が抽出した変化領域550を示している。人物510の移動、椅子500の元の位置540、現在の位置500の3者が変化領域として抽出されている。
図3を参照すると、ステップ510においてフレーム間差分処理手段1312は、図4(e)と同図(f)とのフレーム間差分処理を行い、同図(m)に示す変化領域560及び565を抽出する。
次に、図3のステップS520において、重複領域抽出手段133は、重複領域と非重複領域の抽出を試みる。既に述べたように、重複領域は、背景差分処理により得られた第1の変化領域と、フレーム間差分処理により得られた第2の変化領域の論理積により得られる。即ち、両者に共通に含まれる領域として定義される。一方、非重複領域は、背景差分処理により得られた第1の変化領域中、上記論理積により得られなかった領域(つまり背景差分処理により得られた第1の変化領域中で、重複領域以外の部分)である。
図4の時刻t2について考えると、背景差分処理により得られた同図(j)の第1の変化領域550と、フレーム間差分処理により得られた同図(m)の変化領域560及び565とで共通するのは変化領域560のみであり、重複領域としては同図(p)の符号568が抽出されるが、変化領域560と重複領域568は等しいので、非重複領域は抽出されない。
従って、前述のように、非重複領域が抽出されない例外処理として、図3のステップS550における判断においてはNoの分岐をたどることになり、ステップS580に進むことになる。
ステップS580では、特徴抽出手段132が、背景差分処理により得られた第1の変化領域550について、図4(f)に示す入力画像から特徴量算出用テンプレート570(図4(t)に示す)を作成する。
図4(t)に示す特徴量算出用テンプレート570は、人物510の他に、現時刻t2における椅子500、椅子500の時刻t1での位置である符号540をも含んだテンプレートとなっている。本来追跡したい対象は人物510のみであるはずなので、移動物体情報が劣化しているとも解釈できるが、人物510が椅子500を手に取り、移動している最中は、両者を一体化して追跡すると考えれば、特に問題は生じない。なお、このような処理は、人物が椅子を大きくは移動させないことを前提としており、背景差分処理により得られた第1の変化領域550について、そのまま入力画像から切り取ることにより、移動物体情報を作成しようとするものである。
時刻t3における処理の様子を説明する。
時刻t3における基準画像は図4(c)であるが、図3の背景画像更新処理S570により、時刻t2における背景画像である図4(b)のうち、時刻t2における変化領域550に対応する部分は更新を行っていない。従って、図4(c)においては、椅子500が単独で映る状態には変化が生じない。
同図(g)は、時刻t3での入力画像であり、時刻t2の位置にて椅子500から手を離し、立ち去ろうとして移動した人物510が示されている。
同図(k)は、図2のステップS300において処理された結果であり、同時刻t3における背景差分処理手段1311により抽出された第1の変化領域580を示している。人物510の移動、椅子500の元の位置540、現在の位置の3者が変化領域として抽出されている。
図3を参照すると、ステップS510においてフレーム間差分処理手段1312は、図4(f)と同図(g)とのフレーム間差分処理を行い、同図(n)に示す第2の変化領域590を抽出する。
ここで、図4(f)と同図(g)を比較すると、人物510は移動しているものの、椅子500は移動していない。当然、時刻t1時点での椅子500の位置である符号540で示す点線の領域に相当するものも移動していない。よって、図4(g)の椅子500に対応する領域は、フレーム間差分処理では抽出されない。同様に、符号540の領域は、時刻t1での椅子500に対応する符号540で示した点線の領域であるから、これも抽出されない。すなわち、図4(n)に椅子500と符号540が示されていないことから理解されるように、これら椅子500と符号540はいずれもフレーム間差分としては検出されない。
このフレーム間差分による第2の変化領域590を、図4(k)に示す背景差分による第1の変化領域580と比較すると、変化領域590のうち、時刻t3での人物510に対応する領域は変化領域580にも共通して得られるものの、椅子500と符号540に相当する領域は、変化領域580には含まれるものの、フレーム間差分処理では抽出されない領域となる。すなわち、移動物体として検出したい人物は、現に移動しているため、背景差分による第1の変化領域580でも得られているし、フレーム間差分による第2の変化領域でも得られている。これに対し、人物の手を離れた椅子は移動しないので、背景差分による第1の変化領域580では検出されるが、フレーム間差分による第2の変化領域では検出されない。
即ち、本願発明で言う重複領域は図4(q)の符号595で示した領域であり、非重複領域は同図(q)の符号600と610で示す領域に相当する。図3のステップS520では、このように重複領域と非重複領域を抽出する処理を行う。
図3のステップS540では、非重複領域である符号600と610で示す領域について、図4(c)の基準画像との色ヒストグラムと、図4(g)の入力画像の色ヒストグラムとの類似度を求める。類似度の求め方は既に述べた通りである。
本発明においては、背景物である椅子500を全く異なる位置に移動させるのではなく、椅子の輪郭を考えると移動の前後で共通部分を持つようにずらす、という程度を想定している。この想定の下では、非重複領域においては、基準画像と入力画像のどちらにも椅子500が映り込んでおり、両画像の色ヒストグラムの類似度は高いものとなる。この条件が満たされる場合には、図3においてステップS560に進む(ステップS550でYesの分岐)。
ステップS560に処理が進むのは、人物510が、椅子500を移動させて、手を離して立ち去る場合であると考えられる。従ってその後、椅子500は移動することなく、人物510のみが移動を続けることになるので、特徴量算出用テンプレートは人物のみから作成するのが好適であり、それ以外の物体が混入すると、追跡失敗につながるのは容易に想像できる。
よって、図3のステップS560では変化領域580からではなく、入力画像において、重複領域595に相当する部分から特徴量算出用テンプレートを求めるものとする。図4(u)に、図3のステップS560にて作成された特徴量算出用テンプレート620を示している。足の部分が欠けているが、人物510の全体像の概略が含まれており、追跡を継続可能なことが想像できる。
続く図3のステップS570では、更新手段136が時刻t4における基準画像の更新を行う。基準画像の更新は、画面全体ではなく、図4(g)に示す入力画像中、符号600と610で示す非重複領域に含まれる各画素及び第1の変化領域580以外の各画素、即ち重複領域590以外の各画素の画素値により、図4(c)に示すt3時点での基準画像の各画素を置き換えることで更新するものとする。これにより、静止している椅子500は背景に取り込まれることになり、時刻t4で背景差分処理を行っても図4(l)に示すように抽出されないことになる。
時刻t4における処理の様子を説明する
時刻t4における基準画像は図4(d)であり、図3の背景画像更新処理S570により、人物510以外は更新するので、椅子500は人物510により移動された位置に存在するものとなっている。
図4(h)は、同時刻t4における入力画像であり、人物510は椅子500から完全に離れて移動した後を表している。
図4(l)は、図2のステップS300において処理された、同時刻t4において背景差分処理手段1311が抽出した第1の変化領域630を示している。時刻t3における基準画像の更新処理(図3のステップS570)により、基準画像と入力画像に含まれる椅子500の位置は一致しているため、椅子500に対応する変化領域は抽出されず、人物510に対応する変化領域630が抽出されている。
図4(o)は、同図(g)と同図(h)とのフレーム間差分であり、符号640と符号650に示す変化領域が抽出されている。このうち、第1の変化領域630と共通するのは符号640の領域であるので、入力画像において、変化領域630に対応する領域を特徴量算出用テンプレート(符号670として図4(v)に示す)として、時刻t4以後に用いれば良い。これは周知の方法であるので、詳細な説明は省略する。
次に、図3のステップS550のNoの条件分岐をたどり、ステップS580に進む場合について図5を参照して説明する。
図5(a)の符号700は基準画像であり、簡単のため、例えば模様のない床が一面に映っているものとする。
図5(b)の符号710は、ある時刻にて人物720が両腕を垂らした状態で映っている場合の入力画像を示している。
図5(c)の符号730は、図5(b)の次の時刻における入力画像であり、人物720は移動はしないものの、腕を動かしている様子が示されている。
これらの画像を元として行なわれる背景差分処理、フレーム間差分処理の結果を示す図は省略するが、図4を参照して説明した背景差分処理やフレーム間差分処理等を実行すると、腕の部分のみが、図5(d)の重複領域750として抽出される。一方、人物720の腕以外の部分は静止しているため、図5(d)の非重複領域740として抽出される。
ここで、入力画像730と基準画像700は背景差分が抽出される程度に異なるので、非重複領域における入力画像730と基準画像700の類似度は低くなるため、図3のステップS540〜S550の処理で類似度による判断の区別を行なわないと、腕の部分だけである重複領域750のみをもって人物720全体の特徴情報が更新されるという不都合が発生する。
そこで、本実施形態では、図3のステップS540〜S550の処理で類似度による判断の区別を行なうこととし、非重複領域における入力画像と背景画像との類似度に基づいた判断処理を行い、図5に示した例のように非重複領域における入力画像730と基準画像700の類似度が低い場合には、変化領域全体を用いて移動物体情報を更新することとしたものである。
このように、非重複領域における入力画像と背景画像の類似度に基づいた判断を行なうことにより、背景物がない場合においても人物が図5に示すような動作を行なう場合にも適切な判断及び情報の更新を行なうことができる。
4.他の実施形態
次に、本発明を実施するにあたり、より好適な例を示す。この例では第1実施形態の図2のステップS500又はその詳細を示した図3の手順において、他の条件判断処理を追加したものであり、その手順を図6に示す。
図6では、第1実施形態の図3と比べると、ステップS530の条件判断分岐が追加されている。
ステップS530において、重複領域抽出手段133は、ステップS520において抽出された重複領域、非重複領域のそれぞれについて、その面積、すなわち各領域に含まれる画素数を計数する。
これは、背景差分処理手段1311が抽出した第1の変化領域中に、重複領域と非重複領域が明確に分かれて存在するか否かを検証するためである。実際に取得されるデータには各種原因によりノイズが含まれているので、各々の領域が一定以上の画素を含む場合(すなわち各々の領域が一定以上の面積を有する場合)にのみ、本願発明に特徴的な処理を行うのが好適である。
ステップS530において、重複領域の面積、非重複領域の面積の何れかが所定面積を超えない場合には、ステップS580に進む。ステップS580の処理は前述した通りである。
ステップS530において、重複領域の面積、非重複領域の面積の両方が所定面積を超える場合には、重複領域、非重複領域の両者とも明確に分かれて抽出されている場合であり、類似度を求めるべくステップS540に進む。
他の処理は既に述べたものと同様である。
図4の画像処理の模式図について考えると、時刻t3において、重複領域抽出手段133は、変化領域595の面積と、符号600と610で示す領域を合わせた領域の面積を調べる。図4(n)に示すように、両者は、追跡対象である人物510と比較すると、ノイズとして無視できない程度の面積であるので、Yesの分岐とたどり、ステップS540に進むことになる。
このように、仮に符号600と610に示す領域を合わせた面積が所定面積よりも小さい場合にはノイズによるものであることが考えられるので、確実に非重複領域として類似度を求めることがふさわしい場合と、それ以外の場合とを識別することができ、全体の精度を向上させることができる。
10…移動物体追跡
110…画像取得部
130…追跡処理部
1311…背景差分処理手段
1312…フレーム間差分処理手段
133…重複領域抽出手段
136…更新手段(移動物体情報更新手段)
140…記憶部
141…移動物体情報
142…基準画像
143…過去の入力画像

Claims (2)

  1. 画像を順次取得する画像入力部と、
    少なくとも、前記画像入力部において異なる時刻で取得された複数の入力画像と、移動物体ごとの移動物体情報と、予め移動物体が含まれない基準画像を記憶する記憶部と、
    前記入力画像を順次画像処理して、移動物体を画像上にて追跡する追跡処理部と、
    を具備する移動物体追跡装置であって、
    前記追跡処理部は、
    前記基準画像と前記入力画像とを差分処理して第一の変化領域を抽出する背景差分処理手段と、
    異なる時刻に取得された前記入力画像どうしを差分処理して第二の変化領域を抽出するフレーム間差分処理手段と、
    前記第一の変化領域と前記第二の変化領域の重複領域および前記第一の変化領域から前記重複領域を除いた非重複領域を抽出する重複領域抽出手段と、
    前記入力画像と前記基準画像の前記非重複領域における類似度が所定の類似度閾値を越える場合には、前記入力画像の前記重複領域から抽出された特徴情報を用いて前記移動物体情報を更新し、前記入力画像と前記基準画像の前記非重複領域における類似度が前記所定の類似度閾値を越えない場合には、前記第一の変化領域から抽出された特徴情報を用いて前記移動物体情報を更新する移動物体情報更新手段と、
    を有することを特徴とした移動物体追跡装置。
  2. 前記移動物体情報更新手段は、
    前記入力画像と前記基準画像の前記非重複領域における類似度が前記所定の類似度閾値を越え、かつ前記重複領域の面積および前記非重複領域の面積のいずれもが所定の面積閾値を越える場合に、前記入力画像の前記重複領域から抽出された特徴情報を用いて前記移動物体情報を更新し、
    前記入力画像と前記基準画像の前記非重複領域における類似度が前記所定の類似度閾値を越えない場合、または前記重複領域の面積および前記非重複領域の面積の少なくともいずれか一方が所定の面積閾値を越えない場合に、前記第一の変化領域から抽出された特徴情報を用いて前記移動物体情報を更新することを特徴とした請求項1に記載の移動物体追跡装置。
JP2009015741A 2009-01-27 2009-01-27 移動物体追跡装置 Expired - Fee Related JP5154461B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009015741A JP5154461B2 (ja) 2009-01-27 2009-01-27 移動物体追跡装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009015741A JP5154461B2 (ja) 2009-01-27 2009-01-27 移動物体追跡装置

Publications (2)

Publication Number Publication Date
JP2010176206A JP2010176206A (ja) 2010-08-12
JP5154461B2 true JP5154461B2 (ja) 2013-02-27

Family

ID=42707158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009015741A Expired - Fee Related JP5154461B2 (ja) 2009-01-27 2009-01-27 移動物体追跡装置

Country Status (1)

Country Link
JP (1) JP5154461B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5626099B2 (ja) * 2011-04-25 2014-11-19 サクサ株式会社 歩行者検出装置
JP5865710B2 (ja) * 2012-01-12 2016-02-17 セコム株式会社 画像処理装置
JP5832910B2 (ja) * 2012-01-26 2015-12-16 セコム株式会社 画像監視装置
CN106104631B (zh) 2014-03-11 2019-03-01 三菱电机株式会社 人物检测装置及人物检测方法
JP6838310B2 (ja) * 2016-08-09 2021-03-03 大日本印刷株式会社 撮影画像内の個体の検出装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002150295A (ja) * 2000-11-09 2002-05-24 Oki Electric Ind Co Ltd 物体検出方法及び物体検出装置

Also Published As

Publication number Publication date
JP2010176206A (ja) 2010-08-12

Similar Documents

Publication Publication Date Title
KR100480781B1 (ko) 치아영상으로부터 치아영역 추출방법 및 치아영상을이용한 신원확인방법 및 장치
JP5567853B2 (ja) 画像認識装置および方法
JP4307496B2 (ja) 顔部位検出装置及びプログラム
JP5106356B2 (ja) 画像監視装置
JP5669082B2 (ja) 照合装置
JP5675229B2 (ja) 画像処理装置及び画像処理方法
US20160260226A1 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
EP2546780A1 (en) Method and system for image analysis
JP5106302B2 (ja) 移動物体追跡装置
JP2005227957A (ja) 最適顔画像記録装置及び最適顔画像記録方法
Sun et al. Moving foreground object detection via robust SIFT trajectories
JP5154461B2 (ja) 移動物体追跡装置
KR100824757B1 (ko) 걸음걸이를 이용한 생체 인식 방법
JP2012084012A (ja) 画像処理装置、その処理方法及びプログラム
JP2013152669A (ja) 画像監視装置
JP5618593B2 (ja) 顔画像処理装置
Edgcomb et al. Automated fall detection on privacy-enhanced video
JP4821355B2 (ja) 人物追跡装置、人物追跡方法および人物追跡プログラム
JP2007134913A (ja) 映像選択方法および映像選択装置
JP5132509B2 (ja) 移動物体追跡装置
JP2012212967A (ja) 画像監視装置
JP4641902B2 (ja) 画像センサ
JP2012033054A (ja) 顔画像サンプル採取装置、顔画像サンプル採取方法、プログラム
JP5047115B2 (ja) 移動物体追跡装置
JP2018185623A (ja) 物体検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5154461

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees