JP2004171189A - Moving object detection device, moving object detection method and moving object detection program - Google Patents
Moving object detection device, moving object detection method and moving object detection program Download PDFInfo
- Publication number
- JP2004171189A JP2004171189A JP2002334970A JP2002334970A JP2004171189A JP 2004171189 A JP2004171189 A JP 2004171189A JP 2002334970 A JP2002334970 A JP 2002334970A JP 2002334970 A JP2002334970 A JP 2002334970A JP 2004171189 A JP2004171189 A JP 2004171189A
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- target
- distance
- image
- target distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、カメラによって撮像された画像から、その画像上に存在する移動物体を検出する移動物体検出装置、移動物体検出方法及び移動物体検出プログラムに関する。
【0002】
【従来の技術】
従来、CCD等のカメラによって撮像された画像から、その画像上に存在する物体を検出する技術としては、例えば、画像内で物体の初期の曖昧な輪郭を輪郭モデルとして設定し、その輪郭モデルを所定の規則に従って収縮変形することで物体の輪郭を抽出して物体を検出する技術(動的輪郭モデル:SNAKES)が存在する。なお、この輪郭抽出に基づいた物体検出技術においては、時間的に連続した画像により、動きのある物体(移動物体)のエッジを検出し、輪郭モデルをそのエッジに連結させることで移動物体の輪郭を抽出して移動物体を検出している(例えば、特許文献1参照。)。
【0003】
また、移動カメラで撮像した画像から移動物体を検出する技術としては、時間的に連続する画像の輝度情報から移動カメラの動きを解析し、その動きを背景の動きであると仮定し、連続する画像の差分と背景の動きとに基づいて、移動物体の領域を検出し、輪郭として抽出する技術が存在する(例えば、非特許文献1参照。)。
【0004】
【特許文献1】
特開平8−329254号公報(第7頁、第9−10図)
【非特許文献1】
松岡,荒木,山澤,竹村,横矢,「移動カメラ画像からの移動物体輪郭の抽出・追跡とDSPによる実時間処理」、社団法人 電子情報通信学会、信学技報、PRMU97−235、1998
【0005】
【発明が解決しようとする課題】
しかし、前記従来の技術において、第1の例である、輪郭モデルを連続する画像から検出されるエッジに連結することで移動物体の輪郭を抽出して物体を検出する技術では、撮像した画像上で、複数の物体が隣接して存在する場合、その複数の物体を一つの物体として認識してしまうという問題がある。
【0006】
また、前記従来の技術において、第2の例である、移動カメラによって移動物体を検出する技術では、移動カメラで撮像された画像全体を輪郭抽出の対象領域として処理を行うため、計算量が多くなり、実時間で移動物体の輪郭を逐次抽出するためには高速の演算装置が必要になるという問題がある。さらに、前記第1の例と同様に、撮像した画像上で、複数の物体が隣接して存在する場合、その複数の物体を一つの物体として認識してしまうという問題がある。
【0007】
本発明は、以上のような問題点に鑑みてなされたものであり、移動カメラで撮像した画像であっても、移動物体の輪郭抽出を行う演算処理を軽減し、また、撮像した画像上に複数の物体が隣接した場合でも、個別に物体を検出することを可能にした移動物体検出装置、移動物体検出方法及び移動物体検出プログラムを提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明は、前記目的を達成するために創案されたものであり、まず、請求項1に記載の移動物体検出装置は、同期した複数の撮像手段で、撮像対象を撮像した複数の撮像画像から、前記撮像対象内に存在する移動物体を検出する移動物体検出装置であって、前記複数の撮像画像の視差に基づいて、前記撮像対象までの距離を距離情報として生成する距離情報生成手段と、前記複数の撮像手段の中の少なくとも一つの撮像手段から、時系列に入力される撮像画像の差分に基づいて、前記移動物体の動きを動き情報として生成する動き情報生成手段と、前記距離情報及び前記動き情報に基づいて、前記移動物体が存在する対象距離を設定する対象距離設定手段と、前記距離情報に基づいて、前記対象距離設定手段で設定された対象距離に対応する画素からなる対象距離画像を生成する対象距離画像生成手段と、前記対象距離画像内に、少なくとも前記対象距離に対応して、前記移動物体を検出する対象となる対象領域を設定する対象領域設定手段と、この対象領域設定手段で設定された対象領域から輪郭を抽出することで、前記移動物体を検出する輪郭抽出手段と、を備える構成とした。
【0009】
かかる構成によれば、移動物体検出装置は、距離情報生成手段によって、複数の撮像画像の視差に基づいて、撮像対象までの距離を距離情報として生成する。例えば、複数の撮像画像から視差が検出された画素において、その視差の大きさ(視差量)を、撮像対象までの視差(距離)として各画素毎に埋め込んだ距離画像(距離情報)を生成する。
【0010】
また、移動物体検出装置は、動き情報生成手段によって、複数の撮像手段の中の少なくとも一つの撮像手段から、時系列に入力される撮像画像の差分に基づいて、移動物体の動きを動き情報として生成する。例えば、時系列に入力される2枚の撮像画像の差分をとって、値が“0”でない画素値をすべて“1”にした差分画像を移動物体の動き情報として生成する。
【0011】
そして、移動物体検出装置は、対象距離設定手段によって、距離情報と動き情報とにより、最も動き量の多い視差(距離)を特定し、その視差(距離)を対象距離として設定する。
【0012】
また、移動物体検出装置は、対象距離画像生成手段によって、距離画像(距離情報)から対象距離に対応する画素を抽出して対象距離画像を生成する。例えば、対象距離にある程度の幅(例えば、数十cm等)を持たせ、その距離に対応する画素を距離画像から抽出する。さらに、対象領域設定手段によって、対象距離画像内に、少なくとも前記対象距離に対応して、移動物体を検出する対象となる対象領域を設定する。例えば、対象距離に対応する画素で生成された対象距離画像で、画素が存在する領域を対象領域とする。これによって、対象距離画像の中で移動物体が存在すると想定される領域を絞り込むことができる。そして、輪郭抽出手段によって、対象距離画像内の対象領域から移動物体の輪郭を抽出することで移動物体を検出する。
【0013】
また、請求項2に記載の移動物体検出装置は、請求項1に記載の移動物体検出装置において、前記対象距離設定手段が、距離毎に動きがあった画素の累積値を求め、その累積値に基づいて、前記移動物体が存在する対象距離を設定することを特徴とする
【0014】
かかる構成によれば、移動物体検出装置は、対象距離設定手段によって、距離情報に含まれる視差(距離)毎に、動き情報に含まれる動きのあった画素値を累計(ヒストグラム化)し、その累計値が最も多くなる視差(距離)に、最も動き量の多い移動物体が存在していると判定し、その視差(距離)を対象距離として設定する。このように、画素を累計するという簡単な動作で対象と距離を設定することができ、処理を高速化することができる。
【0015】
さらに、請求項3に記載の移動物体検出装置は、請求項1又は請求項2に記載の移動物体検出装置において、前記対象距離画像生成手段が、少なくとも前記対象距離を基準として奥行き方向の所定範囲内に存在する画素からなる対象距離画像を生成することを特徴とする。
【0016】
かかる構成によれば、移動物体検出装置は、対象距離画像生成手段によって、例えば、対象距離を基準とした奥行き方向(前後方向)で、予め定めた範囲(所定範囲)内に存在する画素のみを抽出することで対象距離画像を生成する。これによって、同一方向に複数移動物体が存在していても、その中から対象距離に存在する移動物体を特定した対象距離画像を生成することができる。
【0017】
また、請求項4に記載の移動物体検出装置は、請求項1乃至請求項3のいずれか1項に記載の移動物体検出装置において、前記対象領域設定手段が、前記対象距離画像内における垂直方向の画素量に基づいて、その画素量のピークから水平方向の所定範囲内に対象領域を設定することを特徴とする。
【0018】
かかる構成によれば、移動物体検出装置は、移動物体が存在する対象領域を設定する際に、対象領域設定手段によって、対象距離画像内における移動物体の垂直方向の画素量に基づいて、移動物体の水平方向の位置を特定する。例えば、移動物体の垂直方向の画素量が最も多い箇所(ピーク)を、水平方向における移動物体の中心として、その中心から所定範囲を移動物体の存在領域として設定する。これによって、同一距離に複数の移動物体が存在している場合でも、その中の一つを検出することができる。
【0019】
さらに、請求項5に記載の移動物体検出装置は、請求項1乃至請求項4のいずれか1項に記載の移動物体検出装置において、前記対象領域設定手段が、少なくとも前記撮像手段のチルト角及び設置面からの高さに基づいて、前記対象領域の垂直方向の範囲を設定することを特徴とする。
【0020】
かかる構成によれば、移動物体検出装置は、移動物体が存在する対象領域を設定する際に、対象領域設定手段によって、撮像手段であるカメラのチルト角や、そのカメラの基準となる設置面からの高さ等のカメラパラメータに基づいて、移動物体の垂直方向の存在領域の範囲を設定する。例えば、移動物体の高さを特定の大きさ(人間であれば2m等)に定めることで、その大きさとカメラパラメータとに基づいて、移動物体が対象距離画像内のどの範囲に位置するかを特定することができる。
【0021】
また、請求項6に記載の移動物体検出装置は、請求項1乃至請求項5のいずれか1項に記載の移動物体検出装置において、前記撮像画像の各画素の色情報又は濃淡情報に基づいて、その撮像画像のエッジを抽出したエッジ画像を生成するエッジ画像生成手段を備え、前記対象距離画像生成手段が、前記距離情報に基づいて、前記対象距離に対応する前記エッジ画像の画素を抽出して、前記対象距離画像を生成することを特徴とする。
【0022】
かかる構成によれば、移動物体検出装置は、エッジ画像生成手段によって、撮像画像の色情報又は濃淡情報から、撮像画像のエッジを抽出したエッジ画像を生成する。例えば、撮像画像の明るさ(輝度)に基づいて、その明るさが大きく変化する部分をエッジとして検出することで、エッジのみからなるエッジ画像を生成する。なお、撮像画像がカラー画像で、移動物体を人物として特定する場合は、例えば、人物の顔の色(肌色)等を色情報として検出することで、エッジを検出することも可能である。
【0023】
そして、移動物体検出装置は、対象距離画像生成手段によって、エッジ画像から対象距離の範囲内に存在する対象距離画像を生成する。これによって、輪郭抽出手段が対象距離画像から輪郭を抽出する際に、エッジを検出する動作を省くことができる。
【0024】
さらに、請求項7に記載の移動物体検出装置は、請求項1乃至請求項6のいずれか1項に記載の移動物体検出装置において、前記輪郭抽出手段で抽出された輪郭の内部領域を、前記移動物体の抽出済領域として、前記距離情報を更新する距離情報更新手段を備えたことを特徴とする。
【0025】
かかる構成によれば、移動物体検出装置は、距離情報更新手段によって、輪郭抽出手段で抽出された輪郭の内部領域を、すでに移動物体の輪郭を抽出した抽出済領域とすることで、距離情報を更新する。これにより、すでに抽出された移動物体の情報が距離情報から削除されることになるので、別の移動物体を順次検出することが可能になる。
【0026】
さらに、請求項8に記載の移動物体検出方法は、同期した複数の撮像手段で撮像された撮像画像に基づいて生成された撮像対象までの距離情報と、前記複数の撮像手段の中の少なくとも一つの撮像手段から時系列に入力される撮像画像に基づいて生成された動き情報とにより、前記撮像対象内で動きのある移動物体を検出する移動物体検出方法であって、前記距離情報及び前記動き情報に基づいて、前記移動物体が存在する対象距離を設定する対象距離設定ステップと、前記距離情報に基づいて、前記対象距離設定ステップで設定された対象距離に対応する画素からなる対象距離画像を生成する対象距離画像生成ステップと、前記対象距離画像内に、少なくとも前記対象距離に対応して、前記移動物体を検出する対象となる対象領域を設定する対象領域設定ステップと、この対象領域設定ステップで設定された対象領域から輪郭を抽出することで、前記移動物体を検出する輪郭抽出ステップと、を含んでいることを特徴とする。
【0027】
この方法によれば、移動物体検出方法は、対象距離設定ステップにおいて、同期した複数の撮像手段で撮像された撮像画像に基づいて生成された撮像対象までの距離情報と、複数の撮像手段の中の少なくとも一つの撮像手段で時系列に入力される撮像画像に基づいて生成された動き情報とにより、最も動き量の多い視差(距離)を特定し、その視差(距離)を対象距離として設定する。
【0028】
そして、対象距離画像生成ステップにおいて、距離画像(距離情報)から対象距離に対応する画素を抽出して対象距離画像を生成する。例えば、対象距離にある程度の幅(例えば、数十cm等)を持たせ、その距離に対応する画素を距離画像から抽出する。さらに、対象領域設定ステップにおいて、対象距離画像内に、少なくとも前記対象距離に対応して、移動物体を検出する対象となる対象領域を設定する。これによって、対象距離画像の中で移動物体が存在すると想定される領域を絞り込むことができる。そして、輪郭抽出ステップにおいて、対象距離画像内の対象領域から移動物体の輪郭を抽出することで移動物体を検出する。
【0029】
また、請求項9に記載の移動物体検出プログラムは、同期した複数の撮像手段で撮像された撮像画像に基づいて生成された撮像対象までの距離情報と、前記複数の撮像手段の中の少なくとも一つの撮像手段から時系列に入力される撮像画像に基づいて生成された動き情報とにより、前記撮像対象内で動きのある移動物体を検出するために、コンピュータを、以下の手段によって機能させる構成とした。
【0030】
すなわち、前記距離情報及び前記動き情報に基づいて、前記移動物体が存在する対象距離を設定する対象距離設定手段、前記距離情報に基づいて、前記対象距離設定手段で設定された対象距離に対応する画素からなる対象距離画像を生成する対象距離画像生成手段、前記対象距離画像内に、少なくとも前記対象距離に対応して、前記移動物体を検出する対象となる対象領域を設定する対象領域設定手段、この対象領域設定手段で設定された対象領域から輪郭を抽出することで、前記移動物体を検出する輪郭抽出手段、とした。
【0031】
かかる構成によれば、移動物体検出プログラムは、対象距離設定手段によって、距離情報と動き情報とにより、最も動き量の多い視差(距離)を特定し、その視差(距離)を対象距離として設定する。
【0032】
そして、対象距離画像生成手段によって、距離画像(距離情報)から対象距離に対応する画素を抽出して対象距離画像を生成し、対象領域設定手段によって、対象距離画像の中で移動物体が存在すると想定される領域を絞り込んだ対象領域を設定する。
そして、輪郭抽出手段によって、対象距離画像内の対象領域から移動物体の輪郭を抽出することで移動物体を検出する。
【0033】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
[第一の実施の形態]
(移動物体検出装置の構成)
図1は、本発明における第一の実施の形態である移動物体検出装置1の構成を示したブロック図である。図1に示すように移動物体検出装置1は、2台のカメラ(撮像手段)2で撮像されたカメラ画像(撮像画像)から、動きを伴う物体(移動物体)を検出するものである。ここでは、移動物体検出装置1を、入力されたカメラ画像を解析する入力画像解析手段10と、解析されたカメラ画像から物体を検出する物体検出手段20とで構成した。なお、2台のカメラ2は、左右に距離Bだけ離れて配置されており、それぞれを右カメラ2a及び左カメラ2bとする。
【0034】
入力画像解析手段10は、撮像対象を撮像した2台のカメラ2(撮像手段:2a、2b)から同期して入力されるカメラ画像(撮像画像)を解析して、距離情報を含んだ距離画像と動き情報を含んだ差分画像とを生成するものである。ここでは、入力画像解析手段10を、距離情報生成部11と、動き情報生成部12とで構成した。
【0035】
距離情報生成部(距離情報生成手段)11は、同時刻に右カメラ2aと左カメラ2bとで撮影された2枚のカメラ画像の視差を、カメラ2からカメラ2で撮像した撮像対象までの距離情報(より正確には、カメラ2の焦点位置からの距離)として埋め込み、距離画像として生成するものである。
【0036】
この距離情報生成部11では、右カメラ2aを基準カメラ(基準撮像手段)として、この基準カメラ(右カメラ2a)で撮像されたカメラ画像(基準撮像画像)と、左カメラ2bで撮像されたカメラ画像(同時刻撮像画像)とで、特定の大きさのブロック(例えば16×16画素)でブロックマッチングを行うことで、基準撮像画像からの視差を計測する。そして、その視差の大きさ(視差量)を基準撮像画像の各画素に対応付けた距離画像を生成する。
【0037】
なお、視差をZとしたとき、この視差Zに対応するカメラ2から物体までの距離D(図示せず)は、カメラ2の焦点距離をf(図示せず)、右カメラ2aと左カメラ2bとの距離をBとすると、(1)式で求めることができる。
【0038】
D=B×f/Z …(1)
【0039】
動き情報生成部(動き情報生成手段)12は、基準カメラ(右カメラ2a)で時系列に撮像された2枚のカメラ画像の差分に基づいて、カメラ画像内の移動物体の動きを動き情報として埋め込んだ、差分画像を生成するものである。
【0040】
この動き情報生成部12では、右カメラ2aを基準カメラ(基準撮像手段)として、この基準カメラ(右カメラ2a)で時系列(時刻t及び時刻t+1)に撮像された2枚のカメラ画像の差分をとる。そして、差のあった画素には動きのあった画素として画素値“1”を与え、差のなかった画素には動きのなかった画素として画素値“0”を与えた差分画像を生成する。なお、動き情報生成部12では、さらに差分画像に対して、メディアンフィルタ等のフィルタリング処理を行うことで、ノイズを除去しておく。
【0041】
なお、カメラ2を移動カメラとし、撮像されたカメラ画像内の背景が変化する場合は、カメラ2からカメラ画像毎のパン、チルト等のカメラ移動量を入力し、例えば、時刻t+1のカメラ画像をそのカメラ移動量分補正することで、時刻t及び時刻t+1において、動きのあった画素のみを検出する。
【0042】
ここで、図4を参照(適宜図1参照)して、距離情報生成部11で生成される距離画像、及び動き情報生成部12で生成される差分画像の内容について説明する。図4は、距離画像DE及び差分画像DIの画像内容と、各画像の画素値(距離画像画素値DEB及び差分画像画素値DIB)の一例を示したものである。ここでは、カメラ2から約1m、2m及び3m離れた位置に人物が存在しているものとする。
【0043】
図4に示したように、距離画像DEは、時刻tの右カメラ画像と左カメラ画像との視差を画素値で表現することで生成される。この視差は、その値が大きいほど人物の位置がカメラ2に近いことを表し、値が小さいほど人物の位置がカメラ2から遠いことを表している。例えば、距離画像画素値DEBに示したように、距離画像DEの画素位置(0,0)は視差が0であり、カメラ2からの距離が無限大(∞)であることを意味している。また、距離画像DEの画素位置(30,50)は視差が20であり、カメラ2からの距離が視差20に対応する距離、例えば2.2mであることを意味している。このように、距離画像DEは、視差を画素値として表現するため、例えば、カメラ2に近いほど明るく、遠いほど暗い画像となる。
【0044】
また、差分画像DIは、時刻tの右カメラ画像と時刻t+1の右カメラ画像との差分をとり、差のあった画素を画素値“1”、差のなかった画素を画素値“0”として表現することで生成される。この差のあった画素が、実際に人物が動いた領域を表している。例えば、差分画像画素値DIBに示したように、差分画像DIの画素位置(0,0)は“0”「停止」で、動きがなかったことを意味している。また、差分画像DIの画素位置(30,50)は“1”「動き」で、動きがあったことを意味している。
図1に戻って、説明を続ける。
【0045】
物体検出手段20は、入力画像解析手段10で解析された画像(距離画像及び差分画像)に基づいて、動きのある移動物体の領域を検出し、移動物体の輪郭を抽出するものである。ここでは、物体検出手段20を、対象距離設定部21と、対象距離画像生成部22と、対象領域設定部23と、輪郭抽出部24と、距離情報更新部25とで構成した。
【0046】
対象距離設定部(対象距離設定手段)21は、入力画像解析手段10の距離情報生成部11で生成された距離画像と、動き情報生成部12で生成された差分画像とに基づいて、最も動き量の多い移動物体を特定し、対象となる移動物体が存在する視差(対象距離)を設定するものである。この対象距離は、対象距離画像生成部22へ通知される。
【0047】
この対象距離設定部21では、距離画像で表された視差(距離)毎に、その視差に対応する画素と同じ位置にある差分画像の画素値を累計し、その累計が最も多くなる視差(最多視差)に、最も動き量の多い移動物体が存在していると判定する。なお、対象距離設定部21は、距離情報生成部11で生成された距離画像と、動き情報生成部12で生成された差分画像とを、図示していないメモリ等の記憶手段に記憶することとする。
【0048】
対象距離画像生成部(対象距離画像生成手段)22は、距離情報生成部11で生成された視差量を埋め込んだ距離画像から、対象距離設定部21で設定された対象距離に対応する画素を抽出した対象距離画像を生成するものである。
【0049】
なお、ここでは人物を検出することと仮定して、対象距離(最多視差)±α(数十cm)分の視差の幅(奥行き)を、最も動き量の多い移動物体が存在する視差の範囲とする。このαの値は、対象距離を基準とした奥行き方向の範囲(所定範囲)であって、検出する対象となる物体の奥行き方向の大きさによって予め定めた値である。
【0050】
例えば、最多視差におけるカメラ2から移動物体までの距離Dを前記(1)式で算出したとすると、その視差の範囲Zrは(1)式を変形することで、(2)式を得る。ただし、カメラ2の焦点距離をf、右カメラ2aと左カメラ2bとの距離をBとする。
【0051】
B×f/(D+α)<Zr<B×f/(D−α) …(2)
【0052】
この対象距離画像生成部22では、前記(2)式の範囲の視差に対応する画素を抽出した対象距離画像を生成するものとする。
なお、この対象距離画像の生成は、基準カメラ(右カメラ2a)で撮像されたカメラ画像(原画像)から、対象距離(視差の範囲)に対応する画素位置のみの画素を抽出することとしてもよい。
【0053】
ここで、図5を参照(適宜図1参照)して、対象距離設定部21及び対象距離画像生成部22で、検出対象となる移動物体が存在する距離に対応する画像(対象距離画像)を生成する手順について説明する。図5(a)は、距離画像DE及び差分画像DI(図4)に基づいて、視差(距離)と動きのある画素を累計した動き量(画素数)との関係を示したグラフである。図5(b)は、距離画像DE(図4)から対象距離の画像のみを抽出した対象距離画像TDEを示している。
【0054】
図5(a)に示したように、距離画像DE(図4)の視差(距離)と動き量(画素数)との関係をグラフ化すると、視差(距離)が1m、2.2m、3mの位置で動き量がピークとなる。そこで、対象距離設定部21は、動き量が最大となる視差(2.2m)に移動物体が存在するものとして、2.2mを対象距離に設定する。なお、移動物体を人物と仮定すると、カメラ2から2.2±αm(α=0.5m)の範囲に人物が存在すると判定することができる。
【0055】
そこで、対象距離画像生成部22は、図5(b)に示したように、距離情報生成部11で生成された距離画像から、対象距離設定部21で設定された対象距離±αm(2.2±0.5m)に存在する画素を抽出した対象距離画像TDEを生成する。これによって、カメラ2から1m、3m離れた位置に存在している人物の画像を削除し、2.2±0.5m離れた位置に存在している人物のみを抽出した対象距離画像TDEを生成することができる。
図1に戻って、説明を続ける。
【0056】
対象領域設定部(対象領域設定手段)23は、対象距離画像生成部22で生成された対象距離画像の垂直方向の画素数を累計し、その垂直方向の画素数の累計が最も多くなる位置(ピーク)を移動物体の中心の水平位置であると特定して、その移動物体を含んだ領域(対象領域)を設定するものである。
【0057】
より詳しくは、この対象領域設定部23では、対象距離画像生成部22で生成された対象距離画像の垂直方向の画素数をカウントすることでヒストグラム化し、そのヒストグラムが最大(ピーク)となる位置を移動物体の中心の水平位置であると特定する。ここでは人物を検出することと仮定して、ヒストグラムが最大となる水平位置を中心に、左右に特定の大きさ(例えば0.5〜0.6(m))の範囲を対象領域の水平方向の存在領域(範囲)として設定する。また、縦方向は特定の大きさ(例えば2(m))を対象領域の高さとする。このとき、対象領域設定部23は、カメラ2から入力されるチルト角、床(設置面)からの高さ等のカメラパラメータに基づいて、対象領域の垂直方向の存在領域(範囲)を設定する。
【0058】
なお、このようにヒストグラムが最大となる位置を移動物体の中心と判定することで、同一距離に複数の移動物体(人物等)が存在していても、その中の一つ(一人)を検出することができる。
【0059】
ここで、図6を参照(適宜図1参照)して、対象領域設定部23が、対象距離画像TDEの中から一つ(一人)の移動物体の領域(対象領域)を設定する手順について説明する。図6(a)は、対象距離画像生成部22で生成された対象距離画像TDEにおける垂直方向の画素数の累計をヒストグラムHIで表したものである。図6(b)は、対象距離画像TDEの中で移動物体を人物として対象領域Tを設定した状態を示したものである。なお、図6(a)(b)では、ヒストグラムHIを対象距離画像TDEに重畳させているが、これは、説明の都合上重畳させているだけである。
【0060】
対象領域設定部23は、図6(a)に示したように、対象距離画像TDEの垂直方向の画素数を累計したヒストグラムHIを生成する。このように対象距離画像TDEをヒストグラム化することで、そのヒストグラムHIが最大となる位置に移動物体の中心の水平位置が存在すると判定することが可能になる。例えば、ヒストグラムHIを使用せずに対象距離画像TDEの中で最も高位置に存在する0でない画素位置を、移動物体の中心の水平位置と判定すると、人物が手を上げた場合、その手の先を人物(移動物体)の中心であると判定してしまうことになる。そこで、ここでは、ヒストグラムHIを使用することとする。
【0061】
そして、対象領域設定部23は、図6(b)に示したように、ヒストグラムHIが最大となる水平位置を中心に、左右に特定の大きさ(例えば0.5m)の範囲を対象領域Tの水平方向の範囲とする。また、縦方向は特定の大きさ(例えば2m)を対象領域Tの垂直方向の範囲とする。
【0062】
この対象領域Tの大きさについては、図7を参照(適宜図1参照)してさらに説明を行う。図7は、カメラ2が移動ロボット(図示せず)に組み込まれ、移動物体Mと同じ床からある高さ(カメラ高)Hに位置しているときに、移動物体Mが対象距離画像(a´、b´)上のどの高さに位置するかを説明するための説明図である。なお、図7(a)は、カメラ2のチルト角が0(°)の場合、図7(b)はカメラ2のチルト角がθT(≠0)の場合におけるカメラ2と移動物体Mとの対応関係を示している。
【0063】
まず、図7(a)を参照して、チルト角が0(°)の場合において、移動物体Mが対象距離画像(a´)上で縦方向のどの位置に存在するかを特定する方法について説明する。
ここで、カメラ2の垂直画角をθv、カメラ2から移動物体Mまでの距離をD、対象距離画像(a´)の縦方向の解像度をY、カメラ2の床からの高さ(カメラ高)をH、移動物体Mの床からの仮想の高さを2(m)とする。このとき、カメラ2の光軸と、カメラ2から移動物体Mの仮想の上端(床から2m)までを結んだ直線との角度θHは(3)式で表すことができる。
【0064】
θH=tan−1((2−H)/D) …(3)
【0065】
これにより、移動物体Mの対象距離画像(a´)上での上端yTは(4)式で求めることができる。
【0066】
【0067】
また、カメラ2の光軸と、カメラ2から移動物体Mの下端(床)までを結んだ直線との角度θLは(5)式で表すことができる。
【0068】
θL=tan−1(H/D) …(5)
【0069】
これにより、移動物体Mの対象距離画像(a´)上での下端yBは(6)式で求めることができる。
【0070】
【0071】
次に、図7(b)を参照して、チルト角がθT(≠0)の場合において、移動物体Mが対象距離画像(b´)上で縦方向のどの位置に存在するかを特定する方法について説明する。
ここで、カメラ2の垂直画角をθv、チルト角をθT、移動物体Mまでの距離をD、対象距離画像の縦方向の解像度をY、カメラ2の床からの高さ(カメラ高)をH、移動物体Mの床からの仮想の高さを2(m)とする。このとき、カメラ2の光軸とカメラ2から移動物体Mの仮想の上端(床から2m)までを結んだ直線との角度θHと、チルト角θTとの差分角度(θH−θT)は(7)式で表すことができる。
【0072】
θH−θT=tan−1((2−H)/D) …(7)
【0073】
これにより、移動物体Mの対象距離画像(b´)上での上端yTは(8)式で求めることができる。
【0074】
【0075】
また、カメラ2の光軸とカメラ2から移動物体Mの下端(床)までを結んだ直線との角度θLと、チルト角θTとの加算角度(θL+θT)は(9)式で表すことができる。
【0076】
θL+θT=tan−1(H/D) …(9)
【0077】
これにより、移動物体Mの対象距離画像(b´)上での下端yBは(10)式で求めることができる。
【0078】
【0079】
このように求めた対象距離画像(a´又はb´)の上端yT及び下端yBによって、対象領域T(図6(b))の垂直方向の範囲が決定される。
なお、移動ロボット(図示せず)が階段等を昇降し、移動物体Mと同一の床に存在しない場合は、移動ロボット本体のエンコーダ等によって昇降量を検出し、その昇降量を移動物体Mの床からの高さに対して加算又は減算することで、移動物体Mの対象距離画像(a´又はb´)における縦方向の位置を特定することができる。あるいは、移動ロボットに地図情報を保持しておき、移動物体Mの方向及び距離で特定される床の高さを、その地図情報から取得することとしてもよい。
【0080】
また、対象領域T(図6(b))の水平方向の範囲は、例えば、図示していないが、カメラ2の水平画角をθh、カメラ2から対象とする移動物体Mまでの距離をD、対象距離画像の横方向の解像度をXとすると、対象領域の幅の半分(移動物体の中心からの距離)を0.5(m)としたときの、対象距離画像上での水平画素数αHは、(11)式で求めることができる。
【0081】
αH=(X/θh)tan−1(0.5/D) …(11)
図1に戻って、説明を続ける。
【0082】
輪郭抽出部(輪郭抽出手段)24は、対象距離画像生成部22で生成された対象距離画像において、対象領域設定部23で設定した移動物体の領域(対象領域)内で、既知の輪郭抽出技術を用いて輪郭の抽出を行うものである。ここで抽出された輪郭(輪郭情報)は、移動物体検出装置1の出力として、外部に出力されるとともに、距離情報更新部25へ通知される。なお、この輪郭抽出部24で輪郭が抽出されることで、移動物体が検出されたことになる。
【0083】
ここで、既知の技術である輪郭抽出の手順の概要を説明する。
まず、対象領域内の画素値の変化に基づいてエッジを検出する。例えば、ある画素の近傍領域の画素に対して重み係数を持つオペレータ(係数行例:Sovelオペレータ、Kirschオペレータ等)を画素毎に乗算することで、エッジの検出を行う。そして、この検出されたエッジに対して、適当な閾値によって2値化を行い、メディアンフィルタ等によって孤立点の除去を行う。このように2値化されたエッジを連結することで、対象領域内から移動物体の輪郭を抽出することができる。なお、エッジから輪郭を抽出する手法として、動的輪郭モデル(SNAKES)を適用することとしてもよい。これによって、例えば、図8に示したように、対象領域画像TDEの中で移動物体が一つ(一人)に限定された対象領域T内で輪郭Oを抽出することができる。
【0084】
距離情報更新部(距離情報更新手段)25は、輪郭抽出部24で抽出された輪郭(輪郭情報)に基づいて、対象距離設定部21で記憶手段(図示せず)に記憶した距離画像を更新するものである。例えば、輪郭を含んだ内部領域に対応する距離画像の画素値を“0”にする。これによって、輪郭抽出を完了した移動物体の領域が距離画像から削除されたことになる。なお、距離情報更新部25は、この距離画像の更新が完了したことを、更新情報として、対象距離設定部21へ通知する。
【0085】
例えば、図9に示したように、図8で抽出した輪郭O内(輪郭Oを含んだ内部領域)に対応する距離画像DEの内容(距離画像画素値DEB)を更新する。すなわち、輪郭Oの領域内における全ての画素値、例えば輪郭O内の画素位置(30,50)等、の視差を0に変更する。このように輪郭Oの領域内の視差を0に変更することで、輪郭Oとして抽出された移動物体は、カメラ2からの距離が無限大になり、距離画像DE上には存在しなくなる。
【0086】
以上、第一の実施の形態である移動物体検出装置1の構成について説明したが、移動物体検出装置1は、コンピュータにおいて各手段を各機能プログラムとして実現することも可能であり、各機能プログラムを結合して移動物体検出プログラムとして動作させることも可能である。
【0087】
また、ここでは、移動物体検出装置1の距離情報生成部11が、2台のカメラ2で撮像したカメラ画像に基づいて距離画像を生成したが、3台以上のカメラを用いて距離画像を生成することとしてもよい。例えば、3行3列に配置した9台のカメラで、中央に配置したカメラを基準カメラとして、他のカメラとの視差に基づいて距離画像を生成することで、移動物体までの距離をより正確に測定することもできる。
【0088】
また、この移動物体検出装置1を、移動ロボット、自動車等の移動体に組み込んで、人物等の物体を検出するために用いることも可能である。例えば、移動ロボットに本発明を適用することで、移動ロボットが、人込みにおいても人物を認識することが可能になる。さらに、人物を個別に検出することができるので、例えば、顔認識等を行うことで、その人物を追跡したり、人物毎に異なる動作を行わせる等の輪郭抽出後の処理が容易になる。
【0089】
(移動物体検出装置1の動作)
次に、図1乃至図3を参照して、移動物体検出装置1の動作について説明する。図2及び図3は、移動物体検出装置1の動作を示すフローチャートである。
【0090】
<カメラ画像入力ステップ>
まず、移動物体検出装置1は、同期した2台のカメラ2から時系列にカメラ画像を入力する(ステップS1)。なお、ここでは、ある時刻tに右カメラ2a(基準カメラ)と左カメラ2bとから入力されたカメラ画像と、次の時刻t+1(例えば、1フレーム後)に右カメラ2a(基準カメラ)から入力されたカメラ画像とに基づいて、移動物体の輪郭を抽出するものとする。
【0091】
<距離画像生成ステップ>
そして、移動物体検出装置1は、距離情報生成部11によって、時刻tに右カメラ2a(基準カメラ)と左カメラ2bとから入力された2枚のカメラ画像から、撮像対象までの視差(距離)を埋め込んだ距離画像を生成する(ステップS2)。
【0092】
<差分画像生成ステップ>
さらに、移動物体検出装置1は、動き情報生成部12によって、右カメラ2a(基準カメラ)で時刻tと時刻t+1に撮像された2枚のカメラ画像(基準カメラ画像)の差分をとり、差のあった画素を画素値“1”、差のなかった画素を画素値“0”とした差分画像を生成する(ステップS3)。
【0093】
<対象距離設定ステップ>
また、移動物体検出装置1は、対象距離設定部21によって、ステップS2及びステップS3で生成した距離画像及び差分画像から、距離画像で表された視差(距離)毎に、動きのあった画素数を累計する(ステップS4)。例えば、距離画像から、ある視差(距離)の画素のみを抽出し、この抽出された画素と対応する差分画像の画素の画素値を累計する。そして、この動き(差分)のある画素数の累計が最大となる距離を、検出する移動物体の対象距離として設定する(ステップS5)。
【0094】
<対象距離画像生成ステップ>
そして、移動物体検出装置1は、対象距離画像生成部22によって、距離画像から対象距離±αに対応する画素を抽出した対象距離画像を生成する(ステップS6)。なお、ここでは人物を検出することと仮定して、αを数十cmとする。
【0095】
<対象領域設定ステップ>
そして、移動物体検出装置1は、対象領域設定部23によって、ステップS6で生成した対象距離画像の垂直方向(縦方向)の画素数をヒストグラム化することで計測する(ステップS7)。そして、このヒストグラムが最大(ピーク)となる水平位置を中心に、左右に特定の大きさ(例えば0.5〜0.6(m))の範囲を対象領域の水平方向の範囲として設定する(ステップS8)。
さらに、対象領域設定部23では、カメラ2から入力されるチルト角、床(設置面)からの高さ等のカメラパラメータに基づいて、対象領域の垂直(上下)方向の範囲を設定する(ステップS9)。
【0096】
例えば、カメラ2のチルト角、床からの高さに基づいて、対象距離画像における画像中の床の位置(対象領域の下端)を求める。そして、カメラ2の画角と移動物体までの距離とに基づいて、床から2mまでの範囲を、画素数に換算することにより対象領域の対象距離画像における床からの画素数を求める。これによって、対象距離画像における対象領域の上端を求めることができる。この対象領域の上端は、カメラ2のチルト角、床からの高さに基づいて、対象距離画像における画像中の2mの位置(高さ)を直接求めることとしてもよい。なお、この2mは、一例であって、他の長さ(高さ)であっても構わない。
【0097】
<輪郭抽出ステップ>
また、移動物体検出装置1は、輪郭抽出部24によって、ステップS6で生成した対象距離画像において、ステップS8及びステップS9で設定した対象領域内で輪郭の抽出を行う(ステップS10)。例えば、対象領域内でエッジを検出し、そのエッジに対して動的輪郭モデル(SNAKES)を適用することによって輪郭の抽出を行う。
【0098】
そして、輪郭の抽出に成功したかどうかを判定する(ステップS11)。なお、ここで輪郭抽出の成功及び失敗の判定は、ステップS10において輪郭が抽出できたかどうかの判定だけではなく、例えば、対象距離が予め定めた距離よりも遠い場合や、対象領域が予め定めた大きさよりも小さい場合、さらには、すべての物体の輪郭抽出を完了した等の理由によって、物体の輪郭抽出を行わないとする判定をも含むものとする。
このステップS11で輪郭の抽出に成功した場合(Yes)は、ステップS12へ進む。一方、輪郭の抽出に失敗した(あるいは抽出を行わない)場合(No)は、本動作を終了する。
【0099】
<距離情報更新ステップ>
そして、移動物体検出装置1は、距離情報更新部25によって、ステップS10で抽出した輪郭内(輪郭を含んだ内部領域)に対応する距離画像を更新する(ステップS12)。例えば、輪郭を含んだ内部領域に対応する距離画像の画素値を“0”にする。これによって、すでに抽出を終わった移動物体の領域が距離画像から削除されることになる。そして、ステップS4へ戻って、処理を継続する。
【0100】
以上の各ステップによって、本実施の形態の移動物体検出装置1によれば、カメラ2から入力されたカメラ画像から、そのカメラ画像に存在する移動物体を検出することができる。なお、ここでは、ある時刻t(t+1)において移動物体の輪郭を抽出したが、時々刻々と入力されるカメラ画像に基づいて、前記ステップ(ステップS1〜ステップS12)を動作させることで、例えば、移動ロボット等の移動体が、人物を検出し続けることができる。
【0101】
[第二の実施の形態]
(移動物体検出装置の構成)
次に、図10を参照して、本発明における第二の実施の形態である移動物体検出装置1Bの構成について説明する。図10は、移動物体検出装置1Bの構成を示したブロック図である。図10に示すように移動物体検出装置1Bは、2台のカメラ(撮像手段)2から撮像されたカメラ画像(撮像画像)から、動きを伴う物体(移動物体)を検出するものである。
【0102】
ここでは、移動物体検出装置1Bを、距離情報生成部11、動き情報生成部12及びエッジ画像生成部13からなる入力画像解析手段10Bと、対象距離設定部21、対象距離画像生成部22B、対象領域設定部23、輪郭抽出部24B及び距離情報更新部25からなる物体検出手段20Bとで構成した。なお、エッジ画像生成部13、対象距離画像生成部22B及び輪郭抽出部24B以外の構成は、図1に示したものと同一であるので、同一の符号を付し、説明を省略する。
【0103】
エッジ画像生成部(エッジ画像生成手段)13は、カメラ2(2a)から距離情報生成部11と動き情報生成部12とに入力される同時刻のカメラ画像(基準撮像画像)を入力し、そのカメラ画像からエッジを抽出したエッジ画像を生成するものである。このエッジ画像生成部13では、カメラ2(2a)から入力されたカメラ画像の明るさ(輝度:濃淡情報)に基づいて、その明るさが大きく変化する部分をエッジとして検出し、そのエッジのみからなるエッジ画像を生成する。例えば、ある画素の近傍領域の画素に対して重み係数を持つオペレータ(係数行例:Sovelオペレータ、Kirschオペレータ等)を画素毎に乗算することで、エッジの検出を行う。
【0104】
すなわち、入力画像解析手段10Bでは、図13に示すように、時刻tの右カメラ画像と左カメラ画像との視差を画素値で表現した距離画像DEと、時刻tの右カメラ画像からエッジを抽出したエッジ画像EDと、時刻tの右カメラ画像と時刻t+1の右カメラ画像との差分をとり、差のあった画素を画素値“1”、差のなかった画素を画素値“0”として表現した差分画像DIとが生成されることになる。
なお、エッジ画像生成部13では、カメラ画像がカラー画像で、移動物体を人物として特定する場合は、例えば、人物の顔の色(肌色)等を色情報として検出することで、エッジを検出することも可能である。
【0105】
対象距離画像生成部(対象距離画像生成手段)22Bは、対象距離設定部21で設定された対象距離に対応する画素からなる対象距離画像を生成するものである。この対象距離画像生成部22Bでは、まず、距離情報生成部11で生成された視差量を埋め込んだ距離画像から、対象距離設定部21から通知される対象距離±α(このαは、人物を検出することと仮定した場合、数十cm)に対応する画素位置を求める。そして、その画素位置に対応する画素のみをエッジ画像生成部13で生成されたエッジ画像から抽出し、対象距離画像を生成する。すなわち、この対象距離画像は、対象距離に存在する移動物体をエッジで表現した画像になる。
【0106】
輪郭抽出部(輪郭抽出手段)24Bは、対象距離画像生成部22Bで生成された対象距離画像において、対象領域設定部23で設定した移動物体の領域(対象領域)内で輪郭の抽出を行うものである。ここで抽出された輪郭(輪郭情報)は、移動物体検出装置1Bの出力として、外部に出力されるとともに、距離情報更新部25へ通知される。この輪郭抽出部24Bで輪郭が抽出されることで、移動物体が検出されたことになる。
【0107】
なお、この輪郭抽出部24Bでは、対象距離画像生成部22Bで生成された対象距離画像が、すでにエッジで表現されているため、そのエッジから動的輪郭モデル(SNAKES)等によって輪郭を抽出する。すなわち、輪郭抽出部24Bでは、輪郭抽出部24(図1)で行ったエッジ検出を省略することができる。
【0108】
以上、第二の実施の形態である移動物体検出装置1Bの構成について説明したが、移動物体検出装置1Bは、コンピュータにおいて各手段を各機能プログラムとして実現することも可能であり、各機能プログラムを結合して移動物体検出プログラムとして動作させることも可能である。
【0109】
また、移動物体検出装置1Bは、距離情報生成部11において、3台以上のカメラを用いて距離画像を生成することとしてもよい。この場合、動き情報生成部12及びエッジ画像生成部13は、基準となるカメラから入力されるカメラ画像に基づいて、差分画像及びエッジ画像を生成することとする。
さらに、移動物体検出装置1Bは、移動ロボット、自動車等の移動体に組み込んで、人物等の物体を検出するために用いることも可能である。
【0110】
(移動物体検出装置1Bの動作)
次に、図10、図11及び図12を参照して、移動物体検出装置1Bの動作について簡単に説明する。図11及び図12は、移動物体検出装置1Bの動作を示すフローチャートである。
【0111】
まず、移動物体検出装置1Bは、同期した2台のカメラ2から時系列にカメラ画像を入力する(ステップS21)。そして、距離情報生成部11によって、時刻tに右カメラ2a(基準カメラ)と左カメラ2bとから入力された2枚のカメラ画像から、撮像対象までの視差(距離)を埋め込んだ距離画像を生成する(ステップS22)。さらに、動き情報生成部12によって、右カメラ2a(基準カメラ)で時刻tと時刻t+1に撮像された2枚のカメラ画像(基準カメラ画像)の差分をとり、差のあった画素を画素値“1”、差のなかった画素を画素値“0”とした差分画像を生成する(ステップS23)。そして、エッジ画像生成部13によって、右カメラ2a(基準カメラ)で時刻tに撮像されたカメラ画像(基準カメラ画像)からエッジを抽出したエッジ画像を生成する(ステップS24)。
【0112】
そして、移動物体検出装置1Bは、対象距離設定部21によって、ステップS22及びステップS23で生成した距離画像及び差分画像から、距離画像で表された視差(距離)毎に、その視差に対応する画素と同じ位置にある差分画像の画素値を累計する(ステップS25)。そして、この動き(差分)のある画素数(画素値の累計)が最大となる距離を、検出する移動物体の対象距離として設定する(ステップS26)。そして、対象距離画像生成部22Bによって、エッジ画像から対象距離±αに対応する画素を抽出した対象距離画像を生成する(ステップS27)。なお、ここでは人物を検出することと仮定して、αを数十cmとする。
【0113】
そして、移動物体検出装置1Bは、対象領域設定部23によって、ステップS27で生成した対象距離画像の垂直方向(縦方向)の画素値をヒストグラム化することで計測する(ステップS28)。そして、このヒストグラムが最大となる水平位置を中心に、左右に特定の大きさ(例えば0.5〜0.6(m))の範囲を対象領域の水平方向の範囲として設定する(ステップS29)。さらに、カメラ2から入力されるチルト角、床(設置面)からの高さ等のカメラパラメータに基づいて、対象領域の垂直方向の範囲を設定する(ステップS30)。
【0114】
また、移動物体検出装置1Bは、輪郭抽出部24Bによって、ステップS27で生成した対象距離画像において、ステップS29及びステップS30で設定した対象領域内で輪郭の抽出を行い(ステップS31)、輪郭の抽出に成功したかどうかを判定する(ステップS32)。このステップS32で輪郭の抽出に成功した場合(Yes)は、ステップS33へ進む。一方、輪郭の抽出に失敗した(あるいは抽出を行わない)場合(No)は、本動作を終了する。
【0115】
そして、移動物体検出装置1Bは、距離情報更新部25によって、ステップS31で抽出した輪郭内(輪郭を含んだ内部領域)に対応する画素位置を更新情報として生成し、対象距離設定部21が、その更新情報に基づいて、距離画像の情報を削除する(ステップS33)。これによって、すでに抽出を終わった移動物体の領域が距離画像から削除されることになる。そして、ステップS25へ戻って、処理を継続する。
【0116】
以上の各ステップによって、本実施の形態の移動物体検出装置1Bによれば、カメラ2から入力されたカメラ画像から、そのカメラ画像に存在する移動物体を検出することができる。なお、移動物体検出装置1Bでは、ステップS24でエッジ画像を生成し、ステップS31における輪郭の抽出には、すでにエッジを検出した対象距離画像を用いるため、同じ距離に複数の移動物体(人物等)が並んで存在している場合でも高速に輪郭の抽出を行うことが可能になる。
【0117】
【発明の効果】
以上説明したとおり、本発明に係る移動物体検出装置、移動物体検出方法及び移動物体検出プログラムでは、以下に示す優れた効果を奏する。
【0118】
本発明によれば、複数のカメラで撮像されたカメラ画像から生成される距離画像(距離情報)と、時系列に入力されるカメラ画像から生成される差分画像(動き情報)とに基づいて、動きのある移動物体のカメラからの距離を特定し、その距離のみに着目した画像(対象距離画像)を生成することができる。これによって、カメラ画像上では繋がっている移動物体(例えば、人物等)を、距離によって識別し分離することで、別の移動物体として検出することが可能になる。
【0119】
また、本発明によれば、対象距離画像における移動物体の垂直方向の画素量に基づいて、移動物体の水平方向の範囲を絞り込むことができるため、同じ距離に横並びに存在する複数の移動物体を分離して、別の移動物体として検出することが可能になる。
【0120】
さらに、本発明によれば、カメラのチルト角や、床からの高さに基づいて、対象距離画像における移動物体の垂直方向の範囲を絞り込むことができるため、輪郭抽出にかかる計算量を抑え、移動物体の検出にかかる処理速度を早めることができる。
【0121】
また、本発明によれば、予めカメラ画像からエッジを抽出したエッジ画像を生成しておくため、個々の移動物体の領域(対象領域)に対する輪郭抽出時にエッジを検出する必要がない。このため、移動物体がカメラ画像上に複数繋がって存在する場合であっても、重複した領域でエッジの抽出を行わないため、高速に移動物体を検出することが可能になる。
【図面の簡単な説明】
【図1】本発明の第一の実施の形態である移動物体検出装置の全体構成を示すブロック図である。
【図2】本発明の第一の実施の形態である移動物体検出装置の動作を示すフローチャート(1/2)である。
【図3】本発明の第一の実施の形態である移動物体検出装置の動作を示すフローチャート(2/2)である。
【図4】距離画像及び差分画像の内容の一例を示す図である。
【図5】視差(距離)毎の動き量(画素値)に基づいて、対象距離画像を生成するための手順を説明するための説明図である。
【図6】ヒストグラムに基づいて、対象領域を設定する手順を説明するための説明図である。
【図7】カメラパラメータに基づいて、移動物体が対象距離画像上のどの高さに位置するかを算出する手順を説明するための説明図である。
【図8】対象距離画像の対象領域で輪郭を抽出した例を示す図である。
【図9】輪郭を抽出した移動物体の領域に基づいて、距離画像の内容を更新した例を示す図である。
【図10】本発明の第二の実施の形態である移動物体検出装置の全体構成を示すブロック図である。
【図11】本発明の第二の実施の形態である移動物体検出装置の動作を示すフローチャート(1/2)である。
【図12】本発明の第二の実施の形態である移動物体検出装置の動作を示すフローチャート(2/2)である。
【図13】距離画像、差分画像及びエッジ画像の内容の一例を示す図である。
【符号の説明】
1、1B …… 移動物体検出装置
10、10B…… 入力画像解析手段
11 …… 距離情報生成部(距離情報生成手段)
12 …… 動き情報生成部(動き情報生成手段)
13 …… エッジ画像生成部(エッジ画像生成手段)
20、20B…… 物体検出手段
21 …… 対象距離設定部(対象距離設定手段)
22、22B…… 対象距離画像生成部(対象距離画像生成手段)
23 …… 対象領域設定部(対象領域設定手段)
24、24B…… 輪郭抽出部(輪郭抽出手段)
25 …… 距離情報更新部(距離情報更新手段)[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a moving object detection device, a moving object detection method, and a moving object detection program for detecting a moving object existing on an image captured by a camera.
[0002]
[Prior art]
Conventionally, as a technique for detecting an object existing on an image captured by a camera such as a CCD, for example, an initial ambiguous outline of the object in an image is set as an outline model, and the outline model is set as an outline model. There is a technology (active contour model: SNAKES) for detecting the object by extracting the contour of the object by contracting and deforming according to a predetermined rule. In the object detection technique based on the contour extraction, the edge of a moving object (moving object) is detected from a temporally continuous image, and the contour of the moving object is connected by connecting the contour model to the edge. Is extracted to detect a moving object (see, for example, Patent Document 1).
[0003]
Further, as a technique for detecting a moving object from an image captured by a moving camera, the movement of the moving camera is analyzed from luminance information of a temporally continuous image, and the movement is assumed to be a background movement. There is a technique for detecting a region of a moving object based on a difference between images and a motion of a background and extracting the region as a contour (for example, see Non-Patent Document 1).
[0004]
[Patent Document 1]
JP-A-8-329254 (
[Non-patent document 1]
Matsuoka, Araki, Yamazawa, Takemura, Yokoya, "Extraction and Tracking of Moving Object Contour from Moving Camera Image and Real-Time Processing by DSP", The Institute of Electronics, Information and Communication Engineers, IEICE Technical Report, PRMU97-235, 1998
[0005]
[Problems to be solved by the invention]
However, in the above-described conventional technique, in the first example, a technique of extracting a contour of a moving object by connecting a contour model to an edge detected from a continuous image and detecting the object, Therefore, when a plurality of objects exist adjacent to each other, there is a problem that the plurality of objects are recognized as one object.
[0006]
Further, in the above-described conventional technique, in the second example of the technique of detecting a moving object by a moving camera, since the entire image captured by the moving camera is processed as a contour extraction target area, the amount of calculation is large. In order to sequentially extract the contour of the moving object in real time, there is a problem that a high-speed arithmetic device is required. Further, similarly to the first example, when a plurality of objects exist adjacently on a captured image, there is a problem that the plurality of objects are recognized as one object.
[0007]
The present invention has been made in view of the above-described problems, and reduces an arithmetic process for extracting a contour of a moving object even for an image captured by a moving camera. It is an object of the present invention to provide a moving object detection device, a moving object detection method, and a moving object detection program that can individually detect objects even when a plurality of objects are adjacent.
[0008]
[Means for Solving the Problems]
The present invention has been devised to achieve the above object. First, the moving object detection device according to
[0009]
According to this configuration, the moving object detection device uses the distance information generation unit to generate the distance to the imaging target as distance information based on the parallax of the plurality of captured images. For example, in a pixel in which parallax is detected from a plurality of captured images, a distance image (distance information) in which the magnitude of the parallax (parallax amount) is embedded as a parallax (distance) to an imaging target for each pixel is generated. .
[0010]
In addition, the moving object detection device uses the motion information generating unit to determine the motion of the moving object as motion information based on a difference between captured images input in time series from at least one of the plurality of imaging units. Generate. For example, a difference between two captured images input in time series is obtained, and a difference image in which all pixel values other than “0” are set to “1” is generated as motion information of a moving object.
[0011]
Then, the moving object detection device specifies the parallax (distance) having the largest amount of motion based on the distance information and the motion information by the target distance setting means, and sets the parallax (distance) as the target distance.
[0012]
In the moving object detection device, the target distance image generating unit extracts pixels corresponding to the target distance from the distance image (distance information) to generate a target distance image. For example, the target distance has a certain width (for example, several tens of cm), and pixels corresponding to the distance are extracted from the distance image. Further, the target area setting means sets, in the target distance image, a target area for which a moving object is to be detected, corresponding to at least the target distance. For example, in a target distance image generated by pixels corresponding to the target distance, a region where the pixel exists is set as a target region. As a result, it is possible to narrow down an area in the target distance image where a moving object is assumed to be present. Then, the moving object is detected by extracting the contour of the moving object from the target area in the target distance image by the contour extracting means.
[0013]
According to a second aspect of the present invention, in the moving object detecting apparatus according to the first aspect, the target distance setting means obtains an accumulated value of pixels that have moved for each distance, and calculates the accumulated value. Setting a target distance at which the moving object exists based on
[0014]
According to this configuration, the moving object detection device accumulates (hashes a histogram) pixel values having motion included in the motion information for each parallax (distance) included in the distance information by the target distance setting unit. It is determined that a moving object with the largest amount of motion exists in the parallax (distance) with the largest cumulative value, and the parallax (distance) is set as the target distance. As described above, the distance to the target can be set by a simple operation of accumulating pixels, and the processing can be speeded up.
[0015]
Furthermore, in the moving object detection device according to
[0016]
According to such a configuration, the moving object detection device uses the target distance image generation unit to, for example, only detect pixels existing within a predetermined range (predetermined range) in the depth direction (front-back direction) based on the target distance. A target distance image is generated by extraction. Thus, even if a plurality of moving objects exist in the same direction, a target distance image in which a moving object existing at a target distance is specified can be generated.
[0017]
According to a fourth aspect of the present invention, in the moving object detecting apparatus according to any one of the first to third aspects, the target area setting unit may be configured so that the target area setting unit sets a vertical direction in the target distance image. The target area is set within a predetermined range in the horizontal direction from the peak of the pixel amount based on the pixel amount of (1).
[0018]
According to this configuration, when the moving object detection device sets the target region where the moving object exists, the moving object detection device sets the moving object based on the vertical pixel amount of the moving object in the target distance image by the target region setting unit. The horizontal position of the. For example, a position (peak) where the pixel amount of the moving object in the vertical direction is the largest is set as the center of the moving object in the horizontal direction, and a predetermined range from the center is set as a region where the moving object exists. Thus, even when a plurality of moving objects exist at the same distance, one of them can be detected.
[0019]
Furthermore, in the moving object detection device according to
[0020]
According to this configuration, when the moving object detection device sets the target area where the moving object is present, the target area setting unit sets the tilt angle of the camera as the imaging unit or the installation surface serving as the reference of the camera. Based on the camera parameters such as the height of the moving object, the range of the existence area of the moving object in the vertical direction is set. For example, by setting the height of the moving object to a specific size (for example, 2 m for a human), based on the size and camera parameters, it is possible to determine in which range in the target distance image the moving object is located. Can be identified.
[0021]
A moving object detection device according to a sixth aspect is the moving object detection device according to any one of the first to fifth aspects, based on color information or shading information of each pixel of the captured image. Edge image generating means for generating an edge image by extracting an edge of the captured image, wherein the target distance image generating means extracts a pixel of the edge image corresponding to the target distance based on the distance information. And generating the target distance image.
[0022]
According to this configuration, the moving object detection device generates the edge image by extracting the edge of the captured image from the color information or the shading information of the captured image by the edge image generation unit. For example, based on the brightness (brightness) of the captured image, a portion where the brightness greatly changes is detected as an edge, thereby generating an edge image including only the edge. When the captured image is a color image and the moving object is specified as a person, the edge can be detected by detecting, for example, the color (skin color) of the face of the person as color information.
[0023]
Then, the moving object detection device generates a target distance image existing within the target distance range from the edge image by the target distance image generating means. This makes it possible to omit the operation of detecting an edge when the contour extracting means extracts a contour from the target distance image.
[0024]
Further, the moving object detecting device according to
[0025]
According to this configuration, the moving object detection device sets the distance information by the distance information updating unit to the extracted region in which the outline of the moving object has already been extracted by setting the inner region of the outline extracted by the outline extracting unit as the extracted region. Update. As a result, the information of the moving object that has already been extracted is deleted from the distance information, so that another moving object can be sequentially detected.
[0026]
Further, the moving object detection method according to claim 8, wherein the distance information to the imaging target generated based on the captured images captured by the plurality of synchronized imaging units and at least one of the plurality of imaging units. A moving object detection method for detecting a moving object that is moving within the imaging target, based on motion information generated based on captured images input in time series from two imaging units, wherein the distance information and the motion Based on information, a target distance setting step of setting a target distance at which the moving object is present, and, based on the distance information, a target distance image including pixels corresponding to the target distance set in the target distance setting step. Generating a target distance image to be generated, and setting, in the target distance image, a target region in which the moving object is to be detected, corresponding to at least the target distance. And the target region setting step, by extracting a contour from the target area set by the target region setting step, characterized in that it contains, and the contour extracting step of detecting the moving object.
[0027]
According to this method, the moving object detection method includes, in the target distance setting step, distance information to the imaging target generated based on the captured images captured by the plurality of synchronized imaging units; The parallax (distance) having the largest amount of motion is specified based on the motion information generated based on the captured images input in time series by at least one of the imaging means, and the parallax (distance) is set as the target distance. .
[0028]
Then, in a target distance image generation step, a pixel corresponding to the target distance is extracted from the distance image (distance information) to generate a target distance image. For example, the target distance has a certain width (for example, several tens of cm), and pixels corresponding to the distance are extracted from the distance image. Further, in the target area setting step, a target area for detecting a moving object is set in the target distance image at least corresponding to the target distance. As a result, it is possible to narrow down an area in the target distance image where a moving object is assumed to be present. Then, in the contour extraction step, the moving object is detected by extracting the contour of the moving object from the target area in the target distance image.
[0029]
The moving object detection program according to
[0030]
That is, based on the distance information and the motion information, a target distance setting unit that sets a target distance at which the moving object exists, and based on the distance information, corresponds to a target distance set by the target distance setting unit. A target distance image generating means for generating a target distance image composed of pixels, a target area setting means for setting a target area for detecting the moving object in the target distance image, at least corresponding to the target distance, Contour extraction means for detecting the moving object by extracting a contour from the target area set by the target area setting means.
[0031]
According to this configuration, the moving object detection program specifies the parallax (distance) having the largest amount of motion by the target distance setting unit based on the distance information and the motion information, and sets the parallax (distance) as the target distance. .
[0032]
Then, the target distance image generating means extracts a pixel corresponding to the target distance from the distance image (distance information) to generate a target distance image, and the target area setting means determines that a moving object exists in the target distance image. Set a target area that narrows down the assumed area.
Then, the moving object is detected by extracting the contour of the moving object from the target area in the target distance image by the contour extracting means.
[0033]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First embodiment]
(Configuration of moving object detection device)
FIG. 1 is a block diagram showing a configuration of a moving
[0034]
The input image analysis means 10 analyzes camera images (captured images) input synchronously from the two cameras 2 (image capture means: 2a, 2b) that have captured the image capturing target, and obtains a distance image including distance information. And a difference image including motion information. Here, the input image analysis means 10 includes a distance
[0035]
The distance information generation unit (distance information generation means) 11 calculates the parallax between the two camera images captured by the right camera 2a and the
[0036]
In the distance
[0037]
When the parallax is Z, the distance D (not shown) from the
[0038]
D = B × f / Z (1)
[0039]
The motion information generation unit (motion information generation means) 12 uses the motion of the moving object in the camera image as motion information based on the difference between the two camera images captured in time series by the reference camera (right camera 2a). This is to generate an embedded difference image.
[0040]
The motion
[0041]
In the case where the
[0042]
Here, the contents of the distance image generated by the distance
[0043]
As shown in FIG. 4, the distance image DE is generated by expressing the parallax between the right camera image and the left camera image at the time t with pixel values. The larger the value of the parallax, the closer the position of the person is to the
[0044]
The difference image DI is a difference between the right camera image at the time t and the right camera image at the
Returning to FIG. 1, the description will be continued.
[0045]
The
[0046]
The target distance setting unit (target distance setting unit) 21 performs the most movement based on the distance image generated by the distance
[0047]
The target
[0048]
The target distance image generation unit (target distance image generation unit) 22 extracts a pixel corresponding to the target distance set by the target
[0049]
Here, assuming that a person is detected, the parallax width (depth) of the target distance (maximum parallax) ± α (several tens of cm) is set to the parallax range in which the moving object with the largest motion amount exists. And The value of α is a range (predetermined range) in the depth direction based on the target distance, and is a value predetermined according to the size of the object to be detected in the depth direction.
[0050]
For example, if the distance D from the
[0051]
B × f / (D + α) <Zr <B × f / (D−α) (2)
[0052]
The target distance
The target distance image may be generated by extracting only pixels at pixel positions corresponding to the target distance (range of parallax) from a camera image (original image) captured by the reference camera (right camera 2a). Good.
[0053]
Here, referring to FIG. 5 (see FIG. 1 as appropriate), the target
[0054]
As shown in FIG. 5A, when the relationship between the disparity (distance) and the amount of motion (the number of pixels) of the distance image DE (FIG. 4) is graphed, the disparity (distance) is 1 m, 2.2 m, and 3 m. The movement amount reaches a peak at the position of. Therefore, the target
[0055]
Therefore, as shown in FIG. 5B, the target distance
Returning to FIG. 1, the description will be continued.
[0056]
The target area setting unit (target area setting unit) 23 accumulates the number of pixels in the vertical direction of the target distance image generated by the target distance
[0057]
More specifically, the target
[0058]
By determining the position where the histogram is maximum as the center of the moving object, even if there are a plurality of moving objects (persons, etc.) at the same distance, one (one) of the moving objects can be detected. can do.
[0059]
Here, a procedure in which the target
[0060]
As shown in FIG. 6A, the target
[0061]
Then, as shown in FIG. 6B, the target
[0062]
The size of the target region T will be further described with reference to FIG. 7 (see FIG. 1 as appropriate). FIG. 7 shows a case where the
[0063]
First, with reference to FIG. 7A, a method for specifying which position in the vertical direction the moving object M exists on the target distance image (a ′) when the tilt angle is 0 (°). explain.
Here, the vertical angle of view of the
[0064]
θ H = Tan -1 ((2-H) / D) (3)
[0065]
Thus, the upper end y of the moving object M on the target distance image (a ′) T Can be obtained by equation (4).
[0066]
[0067]
The angle θ between the optical axis of the
[0068]
θ L = Tan -1 (H / D) ... (5)
[0069]
As a result, the lower end y of the moving object M on the target distance image (a ′) B Can be obtained by equation (6).
[0070]
[0071]
Next, referring to FIG. 7B, when the tilt angle is θ T In the case of (≠ 0), a method for specifying a vertical position of the moving object M on the target distance image (b ′) will be described.
Here, the vertical angle of view of the
[0072]
θ H −θ T = Tan -1 ((2-H) / D) (7)
[0073]
Thereby, the upper end y of the moving object M on the target distance image (b ′) T Can be obtained by equation (8).
[0074]
[0075]
The angle θ between the optical axis of the
[0076]
θ L + Θ T = Tan -1 (H / D) ... (9)
[0077]
As a result, the lower end y of the moving object M on the target distance image (b ′) B Can be obtained by equation (10).
[0078]
[0079]
Upper end y of the target distance image (a ′ or b ′) obtained in this way T And lower end y B Thus, the range in the vertical direction of the target region T (FIG. 6B) is determined.
If the mobile robot (not shown) moves up and down stairs and the like and does not exist on the same floor as the moving object M, the moving amount of the moving object M is determined by detecting the amount of movement by the encoder or the like of the mobile robot body. By adding or subtracting the height from the floor, the vertical position of the moving object M in the target distance image (a ′ or b ′) can be specified. Alternatively, map information may be stored in the mobile robot, and the floor height specified by the direction and distance of the moving object M may be acquired from the map information.
[0080]
The horizontal range of the target area T (FIG. 6B) is, for example, not shown, but the horizontal angle of view of the
[0081]
α H = (X / θ h ) Tan -1 (0.5 / D) ... (11)
Returning to FIG. 1, the description will be continued.
[0082]
The contour extraction unit (contour extraction means) 24 uses a known contour extraction technique in the area of the moving object (target area) set by the target
[0083]
Here, an outline of a procedure of contour extraction which is a known technique will be described.
First, an edge is detected based on a change in the pixel value in the target area. For example, edge detection is performed by multiplying, for each pixel, an operator having a weighting factor (a coefficient row example: a Sobel operator, a Kirsch operator, or the like) with respect to pixels in an area near a certain pixel. Then, the detected edge is binarized by an appropriate threshold, and an isolated point is removed by a median filter or the like. By connecting the binarized edges in this way, the outline of the moving object can be extracted from within the target area. As a method of extracting a contour from an edge, a dynamic contour model (SNAKES) may be applied. Thereby, for example, as shown in FIG. 8, it is possible to extract the contour O in the target area T in which the moving object is limited to one (one) in the target area image TDE.
[0084]
The distance information updating unit (distance information updating unit) 25 updates the distance image stored in the storage unit (not shown) by the target
[0085]
For example, as shown in FIG. 9, the content (distance image pixel value DEB) of the distance image DE corresponding to the inside of the outline O (the internal region including the outline O) extracted in FIG. 8 is updated. That is, the parallax of all pixel values in the region of the contour O, for example, the pixel position (30, 50) in the contour O, is changed to zero. By changing the parallax in the region of the contour O to 0 in this manner, the moving object extracted as the contour O has an infinite distance from the
[0086]
In the above, the configuration of the moving
[0087]
Also, here, the distance
[0088]
Further, the moving
[0089]
(Operation of the moving object detection device 1)
Next, the operation of the moving
[0090]
<Camera image input step>
First, the moving
[0091]
<Distance image generation step>
Then, the moving
[0092]
<Difference image generation step>
Further, the moving
[0093]
<Target distance setting step>
In addition, the moving
[0094]
<Target distance image generation step>
Then, in the moving
[0095]
<Target area setting step>
Then, the moving
Further, the target
[0096]
For example, based on the tilt angle of the
[0097]
<Contour extraction step>
In the moving
[0098]
Then, it is determined whether or not the contour has been successfully extracted (step S11). Here, the determination of the success or failure of the contour extraction is not limited to the determination of whether or not the contour has been successfully extracted in step S10. For example, when the target distance is longer than a predetermined distance, or when the target area is a predetermined target area. When the size is smaller than the size, the determination further includes that the contour extraction of the object is not performed because the contour extraction of all the objects is completed.
If the contour has been successfully extracted in step S11 (Yes), the process proceeds to step S12. On the other hand, if the extraction of the contour has failed (or the extraction is not performed) (No), the operation ends.
[0099]
<Distance information update step>
Then, the moving
[0100]
Through the above steps, according to the moving
[0101]
[Second embodiment]
(Configuration of moving object detection device)
Next, a configuration of a moving object detection device 1B according to a second embodiment of the present invention will be described with reference to FIG. FIG. 10 is a block diagram showing a configuration of the moving object detection device 1B. As shown in FIG. 10, the moving
[0102]
Here, the moving object detection device 1B is divided into an input image analysis unit 10B including a distance
[0103]
The edge image generation unit (edge image generation means) 13 inputs a camera image (reference captured image) at the same time input from the camera 2 (2a) to the distance
[0104]
That is, in the input image analysis unit 10B, as shown in FIG. 13, an edge is extracted from the distance image DE expressing the parallax between the right camera image and the left camera image at the time t by a pixel value, and the right camera image at the time t. The difference between the obtained edge image ED and the right camera image at time t and the right camera image at time t + 1 is calculated, and the pixel having a difference is expressed as a pixel value “1” and the pixel having no difference is expressed as a pixel value “0”. The resulting difference image DI is generated.
When the camera image is a color image and the moving object is specified as a person, the edge
[0105]
The target distance image generating unit (target distance image generating unit) 22B generates a target distance image including pixels corresponding to the target distance set by the target
[0106]
The contour extracting unit (contour extracting means) 24B extracts a contour in the moving object region (target region) set by the target
[0107]
In the contour extracting unit 24B, since the target distance image generated by the target distance image generating unit 22B is already expressed by an edge, a contour is extracted from the edge by using a dynamic contour model (SNAKES) or the like. That is, in the contour extracting unit 24B, the edge detection performed by the contour extracting unit 24 (FIG. 1) can be omitted.
[0108]
The configuration of the moving object detection device 1B according to the second embodiment has been described above. However, in the moving object detection device 1B, each unit in the computer can be realized as each function program. It is also possible to combine and operate as a moving object detection program.
[0109]
Further, the moving object detection device 1B may generate the distance image using the three or more cameras in the distance
Further, the moving object detection device 1B can be incorporated in a moving object such as a mobile robot or an automobile and used for detecting an object such as a person.
[0110]
(Operation of the moving object detection device 1B)
Next, the operation of the moving object detection device 1B will be briefly described with reference to FIGS. 10, 11, and 12. 11 and 12 are flowcharts showing the operation of the moving object detection device 1B.
[0111]
First, the moving object detection device 1B inputs camera images in time series from the two synchronized cameras 2 (step S21). Then, the distance
[0112]
Then, the moving object detection device 1B uses the target
[0113]
Then, the moving object detection device 1B measures the vertical direction (vertical direction) pixel values of the target distance image generated in step S27 by forming a histogram using the target area setting unit 23 (step S28). Then, a range of a specific size (for example, 0.5 to 0.6 (m)) is set as the horizontal range of the target region on the left and right with the horizontal position at which the histogram is the maximum as the center (step S29). . Further, a vertical range of the target area is set based on camera parameters such as a tilt angle and a height from the floor (installation surface) input from the camera 2 (step S30).
[0114]
In the moving object detection device 1B, the contour extraction unit 24B extracts a contour from the target area set in steps S29 and S30 in the target distance image generated in step S27 (step S31). Is determined (step S32). If the contour has been successfully extracted in step S32 (Yes), the process proceeds to step S33. On the other hand, if the extraction of the contour has failed (or the extraction is not performed) (No), the operation ends.
[0115]
Then, the moving object detection device 1B uses the distance
[0116]
Through the above steps, according to the moving object detection device 1B of the present embodiment, the moving object existing in the camera image can be detected from the camera image input from the
[0117]
【The invention's effect】
As described above, the moving object detection device, the moving object detection method, and the moving object detection program according to the present invention have the following excellent effects.
[0118]
According to the present invention, based on a distance image (distance information) generated from camera images captured by a plurality of cameras and a difference image (motion information) generated from camera images input in time series, It is possible to specify the distance of a moving object that moves from the camera, and generate an image (target distance image) focusing only on the distance. This makes it possible to detect a moving object (for example, a person or the like) connected on the camera image as another moving object by identifying and separating the moving object according to the distance.
[0119]
Further, according to the present invention, the horizontal range of the moving object can be narrowed down based on the pixel amount of the moving object in the target distance image in the vertical direction. Separately, it is possible to detect it as another moving object.
[0120]
Furthermore, according to the present invention, the range in the vertical direction of the moving object in the target distance image can be narrowed based on the tilt angle of the camera and the height from the floor, so that the amount of calculation for contour extraction is suppressed, The processing speed for detecting a moving object can be increased.
[0121]
Further, according to the present invention, since an edge image in which edges are extracted from a camera image is generated in advance, it is not necessary to detect an edge when extracting a contour for each moving object region (target region). For this reason, even when a plurality of moving objects are present on the camera image, edges are not extracted in the overlapped area, so that the moving objects can be detected at high speed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an entire configuration of a moving object detection device according to a first embodiment of the present invention.
FIG. 2 is a flowchart (1/2) illustrating an operation of the moving object detection device according to the first embodiment of the present invention.
FIG. 3 is a flowchart (2/2) showing an operation of the moving object detection device according to the first embodiment of the present invention.
FIG. 4 is a diagram illustrating an example of the contents of a distance image and a difference image.
FIG. 5 is an explanatory diagram for describing a procedure for generating a target distance image based on a motion amount (pixel value) for each parallax (distance).
FIG. 6 is an explanatory diagram illustrating a procedure for setting a target area based on a histogram.
FIG. 7 is an explanatory diagram illustrating a procedure for calculating a height of a moving object on a target distance image based on camera parameters.
FIG. 8 is a diagram illustrating an example in which a contour is extracted from a target area of a target distance image.
FIG. 9 is a diagram illustrating an example in which the content of a distance image is updated based on a region of a moving object from which a contour has been extracted.
FIG. 10 is a block diagram showing an entire configuration of a moving object detection device according to a second embodiment of the present invention.
FIG. 11 is a flowchart (1/2) illustrating an operation of the moving object detection device according to the second embodiment of the present invention.
FIG. 12 is a flowchart (2/2) showing an operation of the moving object detection device according to the second embodiment of the present invention.
FIG. 13 is a diagram illustrating an example of the contents of a distance image, a difference image, and an edge image.
[Explanation of symbols]
1, 1B ... moving object detection device
10, 10B ... Input image analysis means
11 Distance information generation unit (distance information generation means)
12: motion information generation unit (motion information generation means)
13 Edge image generation unit (edge image generation means)
20, 20B ... Object detecting means
21... Target distance setting unit (target distance setting means)
22, 22B... Target distance image generating unit (target distance image generating means)
23 Target area setting unit (target area setting means)
24, 24B... Contour extraction unit (contour extraction means)
25 distance information updating unit (distance information updating means)
Claims (9)
前記複数の撮像画像の視差に基づいて、前記撮像対象までの距離を距離情報として生成する距離情報生成手段と、
前記複数の撮像手段の中の少なくとも一つの撮像手段から、時系列に入力される撮像画像の差分に基づいて、前記移動物体の動きを動き情報として生成する動き情報生成手段と、
前記距離情報及び前記動き情報に基づいて、前記移動物体が存在する対象距離を設定する対象距離設定手段と、
前記距離情報に基づいて、前記対象距離設定手段で設定された対象距離に対応する画素からなる対象距離画像を生成する対象距離画像生成手段と、
前記対象距離画像内に、少なくとも前記対象距離に対応して、前記移動物体を検出する対象となる対象領域を設定する対象領域設定手段と、
この対象領域設定手段で設定された対象領域から輪郭を抽出することで、前記移動物体を検出する輪郭抽出手段と、
を備えていることを特徴とする移動物体検出装置。A moving object detection device that detects a moving object existing in the imaging target from a plurality of captured images of the imaging target with a plurality of synchronized imaging units,
A distance information generating unit configured to generate a distance to the imaging target as distance information based on a parallax of the plurality of captured images;
Motion information generating means for generating the motion of the moving object as motion information based on a difference between captured images input in time series from at least one of the plurality of image capturing means;
A target distance setting unit that sets a target distance at which the moving object exists based on the distance information and the motion information;
Based on the distance information, a target distance image generation unit that generates a target distance image composed of pixels corresponding to the target distance set by the target distance setting unit,
In the target distance image, at least corresponding to the target distance, a target region setting means for setting a target region to be a target for detecting the moving object,
By extracting a contour from the target area set by the target area setting means, a contour extracting means for detecting the moving object,
A moving object detection device comprising:
前記対象距離画像生成手段が、前記距離情報に基づいて、前記対象距離に対応する前記エッジ画像の画素を抽出して、前記対象距離画像を生成することを特徴とする請求項1乃至請求項5のいずれか1項に記載の移動物体検出装置。Based on color information or shade information of each pixel of the captured image, comprising an edge image generating means for generating an edge image by extracting the edge of the captured image,
6. The target distance image generating unit extracts a pixel of the edge image corresponding to the target distance based on the distance information to generate the target distance image. The moving object detection device according to any one of the above.
前記距離情報及び前記動き情報に基づいて、前記移動物体が存在する対象距離を設定する対象距離設定ステップと、
前記距離情報に基づいて、前記対象距離設定ステップで設定された対象距離に対応する画素からなる対象距離画像を生成する対象距離画像生成ステップと、
前記対象距離画像内に、少なくとも前記対象距離に対応して、前記移動物体を検出する対象となる対象領域を設定する対象領域設定ステップと、
この対象領域設定ステップで設定された対象領域から輪郭を抽出することで、前記移動物体を検出する輪郭抽出ステップと、
を含んでいることを特徴とする移動物体検出方法。Based on distance information to an imaging target generated based on captured images captured by a plurality of synchronized imaging units, and based on captured images input in time series from at least one of the plurality of imaging units. A moving object detection method for detecting a moving object having motion in the imaging target by using the generated motion information.
Based on the distance information and the motion information, a target distance setting step of setting a target distance where the moving object is present,
Based on the distance information, a target distance image generating step of generating a target distance image composed of pixels corresponding to the target distance set in the target distance setting step,
In the target distance image, at least corresponding to the target distance, a target region setting step of setting a target region to be a target for detecting the moving object,
A contour extraction step of detecting the moving object by extracting a contour from the target area set in the target area setting step;
A moving object detection method comprising:
前記距離情報及び前記動き情報に基づいて、前記移動物体が存在する対象距離を設定する対象距離設定手段、
前記距離情報に基づいて、前記対象距離設定手段で設定された対象距離に対応する画素からなる対象距離画像を生成する対象距離画像生成手段、
前記対象距離画像内に、少なくとも前記対象距離に対応して、前記移動物体を検出する対象となる対象領域を設定する対象領域設定手段、
この対象領域設定手段で設定された対象領域から輪郭を抽出することで、前記移動物体を検出する輪郭抽出手段、
として機能させることを特徴とする移動物体検出プログラム。Based on distance information to an imaging target generated based on captured images captured by a plurality of synchronized imaging units, and based on captured images input in time series from at least one of the plurality of imaging units. With the generated motion information, to detect a moving object that is moving in the imaging target, a computer,
A target distance setting unit that sets a target distance at which the moving object exists based on the distance information and the motion information;
A target distance image generation unit configured to generate a target distance image including pixels corresponding to the target distance set by the target distance setting unit based on the distance information;
In the target distance image, at least corresponding to the target distance, a target region setting means for setting a target region to be a target for detecting the moving object,
Contour extracting means for detecting the moving object by extracting a contour from the target area set by the target area setting means;
A moving object detection program characterized by functioning as a moving object.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002334970A JP3952460B2 (en) | 2002-11-19 | 2002-11-19 | Moving object detection apparatus, moving object detection method, and moving object detection program |
US10/713,431 US7251346B2 (en) | 2002-11-19 | 2003-11-17 | Moving object detection device, moving object detection method, and moving object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002334970A JP3952460B2 (en) | 2002-11-19 | 2002-11-19 | Moving object detection apparatus, moving object detection method, and moving object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004171189A true JP2004171189A (en) | 2004-06-17 |
JP3952460B2 JP3952460B2 (en) | 2007-08-01 |
Family
ID=32699216
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002334970A Expired - Fee Related JP3952460B2 (en) | 2002-11-19 | 2002-11-19 | Moving object detection apparatus, moving object detection method, and moving object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3952460B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196362A (en) * | 2004-01-05 | 2005-07-21 | Honda Motor Co Ltd | Apparatus, method and program for detecting moving object |
JP2005196359A (en) * | 2004-01-05 | 2005-07-21 | Honda Motor Co Ltd | Moving object detection apparatus, moving object detection method and moving object detection program |
JP2007156939A (en) * | 2005-12-07 | 2007-06-21 | Honda Motor Co Ltd | Person detector, person detection method, and person detection program |
US7376250B2 (en) | 2004-01-05 | 2008-05-20 | Honda Motor Co., Ltd. | Apparatus, method and program for moving object detection |
JP2009193390A (en) * | 2008-02-15 | 2009-08-27 | Honda Motor Co Ltd | Vehicle periphery monitor device, vehicle, and program and method for monitoring vehicle periphery |
JP2009245363A (en) * | 2008-03-31 | 2009-10-22 | Mitsubishi Heavy Ind Ltd | Behavior recognition system and method thereof |
JP2010122078A (en) * | 2008-11-20 | 2010-06-03 | Nippon Signal Co Ltd:The | Height detection system, and automatic ticket gate using the same |
JP2015121524A (en) * | 2013-11-19 | 2015-07-02 | キヤノン株式会社 | Image processing apparatus, control method thereof, imaging apparatus, and program |
JP2017223587A (en) * | 2016-06-16 | 2017-12-21 | 株式会社エヌ・ティ・ティ・データ | Tracking object discovery device, tracking object discovery method and program |
JP2019028022A (en) * | 2017-08-03 | 2019-02-21 | 東芝テック株式会社 | Dimension measurement device |
JPWO2017208437A1 (en) * | 2016-06-03 | 2019-04-25 | マクセル株式会社 | Imaging device and imaging system |
US10311595B2 (en) | 2013-11-19 | 2019-06-04 | Canon Kabushiki Kaisha | Image processing device and its control method, imaging apparatus, and storage medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4231320B2 (en) * | 2003-03-31 | 2009-02-25 | 本田技研工業株式会社 | Moving body detection device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08210847A (en) * | 1995-02-06 | 1996-08-20 | Ikegami Tsushinki Co Ltd | Image processing method |
JPH09185720A (en) * | 1995-12-28 | 1997-07-15 | Canon Inc | Picture extraction device |
JP2001005975A (en) * | 1999-06-21 | 2001-01-12 | Victor Co Of Japan Ltd | Device and method for controlling equipment |
-
2002
- 2002-11-19 JP JP2002334970A patent/JP3952460B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08210847A (en) * | 1995-02-06 | 1996-08-20 | Ikegami Tsushinki Co Ltd | Image processing method |
JPH09185720A (en) * | 1995-12-28 | 1997-07-15 | Canon Inc | Picture extraction device |
JP2001005975A (en) * | 1999-06-21 | 2001-01-12 | Victor Co Of Japan Ltd | Device and method for controlling equipment |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005196359A (en) * | 2004-01-05 | 2005-07-21 | Honda Motor Co Ltd | Moving object detection apparatus, moving object detection method and moving object detection program |
US7376250B2 (en) | 2004-01-05 | 2008-05-20 | Honda Motor Co., Ltd. | Apparatus, method and program for moving object detection |
JP2005196362A (en) * | 2004-01-05 | 2005-07-21 | Honda Motor Co Ltd | Apparatus, method and program for detecting moving object |
US7840036B2 (en) | 2005-12-07 | 2010-11-23 | Honda Motor Co., Ltd. | Human being detection apparatus, method of detecting human being, and human being detecting program |
JP2007156939A (en) * | 2005-12-07 | 2007-06-21 | Honda Motor Co Ltd | Person detector, person detection method, and person detection program |
JP4516516B2 (en) * | 2005-12-07 | 2010-08-04 | 本田技研工業株式会社 | Person detection device, person detection method, and person detection program |
JP2009193390A (en) * | 2008-02-15 | 2009-08-27 | Honda Motor Co Ltd | Vehicle periphery monitor device, vehicle, and program and method for monitoring vehicle periphery |
JP2009245363A (en) * | 2008-03-31 | 2009-10-22 | Mitsubishi Heavy Ind Ltd | Behavior recognition system and method thereof |
JP2010122078A (en) * | 2008-11-20 | 2010-06-03 | Nippon Signal Co Ltd:The | Height detection system, and automatic ticket gate using the same |
JP2015121524A (en) * | 2013-11-19 | 2015-07-02 | キヤノン株式会社 | Image processing apparatus, control method thereof, imaging apparatus, and program |
US10311595B2 (en) | 2013-11-19 | 2019-06-04 | Canon Kabushiki Kaisha | Image processing device and its control method, imaging apparatus, and storage medium |
JPWO2017208437A1 (en) * | 2016-06-03 | 2019-04-25 | マクセル株式会社 | Imaging device and imaging system |
JP2017223587A (en) * | 2016-06-16 | 2017-12-21 | 株式会社エヌ・ティ・ティ・データ | Tracking object discovery device, tracking object discovery method and program |
JP2019028022A (en) * | 2017-08-03 | 2019-02-21 | 東芝テック株式会社 | Dimension measurement device |
Also Published As
Publication number | Publication date |
---|---|
JP3952460B2 (en) | 2007-08-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11360571B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP4328286B2 (en) | Face area estimation device, face area estimation method, and face area estimation program | |
JP4516516B2 (en) | Person detection device, person detection method, and person detection program | |
JP6030617B2 (en) | Image processing apparatus and image processing method | |
US7251346B2 (en) | Moving object detection device, moving object detection method, and moving object detection program | |
JP6554169B2 (en) | Object recognition device and object recognition system | |
JP4235018B2 (en) | Moving object detection apparatus, moving object detection method, and moving object detection program | |
JP2005228042A (en) | Face identification device, face identification method, and face identification program | |
JP3952460B2 (en) | Moving object detection apparatus, moving object detection method, and moving object detection program | |
KR100651034B1 (en) | System for detecting targets and method thereof | |
KR20130066438A (en) | Image processing apparatus and image processing method | |
JP4153818B2 (en) | Gesture recognition device, gesture recognition method, and gesture recognition program | |
JP6617150B2 (en) | Object detection method and object detection apparatus | |
JP4153819B2 (en) | Gesture recognition device, gesture recognition method, and gesture recognition program | |
JP4272538B2 (en) | Moving object detection apparatus, moving object detection method, and moving object detection program | |
JP2016081252A (en) | Image processor and image processing method | |
JPWO2005004060A1 (en) | Outline extraction apparatus, outline extraction method, and outline extraction program | |
JP4272539B2 (en) | Moving object detection device, moving object detection method, and moving object detection program | |
JP4664805B2 (en) | Face edge detection device, face edge detection method, and program | |
CN111563912B (en) | Pedestrian tracking system and method | |
RU2189628C2 (en) | Remote control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070124 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070326 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070418 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070420 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3952460 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110511 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110511 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120511 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130511 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130511 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140511 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |