JP4306333B2 - Computer-readable information recording medium recording object detection program - Google Patents
Computer-readable information recording medium recording object detection program Download PDFInfo
- Publication number
- JP4306333B2 JP4306333B2 JP2003170951A JP2003170951A JP4306333B2 JP 4306333 B2 JP4306333 B2 JP 4306333B2 JP 2003170951 A JP2003170951 A JP 2003170951A JP 2003170951 A JP2003170951 A JP 2003170951A JP 4306333 B2 JP4306333 B2 JP 4306333B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- background
- image
- target
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、監視カメラなどにより撮影した画像に含まれる物体を検出する物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体に関するものである。
【0002】
【従来の技術】
監視カメラなどで撮影した動画像から物体を検出する場合、日照条件などにより背景の明るさが変動しても確実に物体を検出できることが重要である。そこで、本発明の発明者らは照明変動が大きく、かつ頻繁に発生する場合でも、その影響を受けにくい物体検出技術を考案し、すでにその特許出願を行っている(特願平11−078641号)。
【0003】
この物体検出技術は、あらかじめ作成した背景画像と、現時点の画像とにおいて、注目点とは異なる位置に参照点を設け、その参照点の輝度値変化の相関情報から物体を判別するというものである。以下、原理について図面を参照して詳しく説明する。
図8は背景画像を表す説明図であり、水平方向にX軸、垂直方向にY軸がそれぞれ設定されている。ただし、必要以上に複雑になることを避けるため、背景画像はテクスチャーがなく場所によらず一定の明るさであるとする。図8において、PAは注目点、PBはその近傍に設けた参照点である。そして、注目点PAにおける輝度値をIA、参照点PBにおける輝度値をIBとする。
【0004】
図9は注目点および参照点の輝度値により形成される2次元の輝度空間を示す説明図である。この輝度空間には2次元の座標系が設定され、その横軸は上記注目点PAの輝度値IAを表し、縦軸は上記参照点PBの輝度値IBを表している。
ここで、注目点PAの輝度値がIA1、参照点PBの輝度値がIB1であったとすると、これらの輝度値の組に対応する、上記輝度空間上の点、すなわち輝度点(IA1、IB1)は、たとえば図9中の白ドット102の位置となる。
そして、背景の明るさが変化し、注目点PAの輝度値がたとえば小さくなったとすると、参照点PBの輝度値も同じ割合で小さくなる。また、注目点PAの輝度値が0なら、参照点PBの輝度値も0となる。したがって、注目点PAおよび参照点PBの輝度IA、IBの組に対応する輝度空間上の点は、背景の明るさが変化したとき、図9に示した直線104に沿って移動する。ここではこのような直線のことを照明変動背景モデルと呼ぶ。
【0005】
一方、たとえば注目点PAの位置に物体が侵入したとし、注目点PAの輝度値がIA2に下がったとすると、この場合の輝度点(IA2、IB1)はたとえば白丸ドット106の位置となる。したがって、このような輝度点と直線104との距離107を調べ、輝度点が直線104から離れている場合には、注目点の位置に物体が侵入していると判定することができる。
そして、照明変動が生じ、たとえば参照点PBの輝度値が大きくなったとすると、通常、物体上の注目点PAの輝度値も同様に大きくなるため、輝度点(IA2、IB1)はおおむね直線104と平行に右上方向(矢印A)に移動し、直線104との間の距離はあまり変化しない。したがって、照明変動が生じても物体を確実に検出することができる。
【0006】
【発明が解決しようとする課題】
しかし、上記従来技術では、参照点を注目点に接近して配置した場合には物体の輪郭部のみが抽出されて、抽出した物体画像が中抜けの状態となり、この点で改良の余地があった。
以下、図10を参照して具体的に説明する。図10は、たとえば監視カメラの撮影領域に物体が侵入した場合の撮影画像を示す説明図である。背景は図8の場合と同様、場所によらず一定の明るさであるとする。
この画像に対して、図10に示したように、注目点PAを設定し、近接して参照点PBを設定したとすると、図10の状態ではこれらの点はいずれも物体108上に在り、両点の輝度はともに同じ程度に低下するため、輝度空間において注目点PAおよび参照点PBが対応する輝度点(IA、IB)は、図9に示した直線104上の黒ドット110の位置となる。そして、黒ドット110と直線104との間の距離は零であるから、この場合、注目点PAは、物体上にはないと判定することになり、注目点PAが物体108上に在るにも係わらず物体を検出することができない。
【0007】
一方、注目点PAと参照点PBを同様の間隔で設定した場合でも、物体108の縁部で、たとえば注目点PAが物体108上となり、参照点PBが背景上となる位置に各点を設定した場合には、両点に輝度差が生じ、図9において対応する輝度点は直線104から離れた位置となるため、物体108を検出することができる。
したがって、特願平11−078641号の技術では、注目点と参照線とを近接して配置した場合には、物体の縁部、すなわち輪郭部のみが検出されることになる。
【0008】
そこで、物体の輪郭部だけでなく全体を検出するためには、参照点を注目点から充分に離して配置する必要がある。
また、特願平11−078641号の技術では、参照点はかならず、物体が侵入する可能性のある領域の外に設定する必要がある。これについて図11を参照して説明する。図11の(A)は画像面を示す説明図、(B)は物体が撮影領域に侵入した場合の模式図、(C)は検出結果を示す模式図である。
【0009】
図11の(A)に示したように、画像上に注目点PAと注目点PBとを離して設定した場合、図11の(B)に示したように、物体108が注目点PAの位置に侵入すると、注目点PAと参照点PBとの間で輝度差が生じて物体108が検出される。しかし、物体108が参照点PBの位置に侵入した場合にも同様の輝度差が生じるため、この場合にも物体108は検出されることになる。
したがって、注目点PAに物体108が侵入して検出された場合、物体108が注目点PAの位置に存在するのか、あるいは参照点PBの位置に存在するのかを特定することができず、その結果、注目点PAの位置のみに物体108が存在するにもかかわらず、図11の(C)に示したように、両方の位置に物体108が存在するように物体像109が生成されてしまう。
【0010】
そのため、このような現象を回避すべく、参照点はかならず、物体が侵入する可能性のある領域の外に設定しなければならない。
本発明はこのような欠点を除去するためになされたもので、その目的は、照明変動が大きく、かつ頻繁に発生する場合にも安定で、しかも高精度に物体を検出できるとともに、参照点を任意の位置に設定して確実に物体を検出することが可能な物体検出装置、物体検出方法、ならびに物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体を提供することにある。
【0011】
【課題を解決するための手段】
本発明は、上記目的を達成するため、撮影画像を用いて物体を検出する物体検出装置であって、前記撮影画像の各画素の輝度値を取り込んで保持する画像入力手段と、前記撮影画像の注目画素ごとに複数の参照画素を選択して、選択した複数の参照画素および前記注目画素の輝度値を前記画像入力手段から前記注目画素ごとに取得する複数参照点選択手段と、前記撮影画像の背景を成す背景画像の各画素の輝度値を保持する背景画像保持手段と、前記複数参照点選択手段が選択した前記注目画素および同画素に対応する前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記背景画像保持手段から取得して、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを前記注目画素と、同画素に対応する各参照画素との組ごとに作成する背景モデル作成手段と、輝度空間において、前記背景モデル作成手段が前記注目画素と参照画素との前記組ごとに作成した前記照明変動背景モデルと、前記複数参照点選択手段が前記注目画素ごとに取得した前記複数の参照画素の輝度値のそれぞれと前記注目画素の輝度値との組が表す点との間の距離をそれぞれ計算する距離計算手段と、前記注目画素と各参照画素との組ごとに、前記距離計算手段が計算した前記距離にもとづいて前記注目画素が物体を表す画素か否かを判別し、前記組ごとの判別結果に対し論理演算を行って前記注目画素が物体を表す画素か否かを最終的に判別する物体判別手段とを備えたことを特徴とする。
【0012】
本発明の物体検出装置では、画像入力手段は、撮影画像の各画素の輝度値を取り込んで保持し、複数参照点選択手段は、前記画像の注目画素ごとに複数の参照画素を選択して、選択した複数の参照画素および前記注目画素の輝度値を画像入力手段から注目画素ごとに取得する。そして、背景モデル作成手段は、複数参照点選択手段が選択した注目画素および同画素に対応する前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を背景画像保持手段から取得して、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを注目画素と、同画素に対応する各参照画素との組ごとに作成する。
【0013】
その上で、距離計算手段は、輝度空間において、背景モデル作成手段が注目画素と参照画素との前記組ごとに作成した前記照明変動背景モデルと、複数参照点選択手段が注目画素ごとに取得した前記複数の参照画素の輝度値のそれぞれと注目画素の輝度値との組が表す点との間の距離をそれぞれ計算する。
そして、物体判別手段は、注目画素と各参照画素との組ごとに、距離計算手段が計算した前記距離にもとづいて前記注目画素が物体を表す画素か否かを判別し、前記組ごとの判別結果に対し論理演算を行って注目画素が物体を表す画素か否かを最終的に判別する。
【0014】
また、本発明は、撮影画像を用いて物体を検出する物体検出装置であって、前記撮影画像の各画素の輝度値を取り込んで保持する画像入力手段と、前記撮影画像において水平方向に配列された複数の画素から成る注目水平画素列ごとに、前記注目水平画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を前記画像入力手段から取得する水平参照点選択手段と、前記撮影画像において垂直方向に配列された複数の画素から成る注目垂直画素列ごとに、前記注目垂直画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を前記画像入力手段から取得する垂直参照点選択手段と、前記撮影画像の背景を成す画像の各画素の輝度値を保持する背景画像保持手段と、前記水平参照点選択手段が選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記背景画像保持手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する水平背景モデル作成手段と、前記垂直参照点選択手段が選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記背景画像保持手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する垂直背景モデル作成手段と、多次元輝度空間において、前記水平背景モデル作成手段が作成した前記照明変動背景モデルと、前記水平参照点選択手段が取得した前記複数の輝度値が表す点との間の距離を計算する水平距離計算手段と、多次元輝度空間において、前記垂直背景モデル作成手段が作成した前記照明変動背景モデルと、前記垂直参照点選択手段が取得した前記複数の輝度値が表す点との間の距離を計算する垂直距離計算手段と、前記水平距離計算手段および前記垂直距離計算手段が計算した前記距離にもとづいて、前記注目水平画素列および前記注目垂直画素列に物体を表す画素が含まれているか否かを判別し、両画素列に係わる判別結果に対して論理演算を行って物体を含む矩形領域を特定する物体判別手段とを備えたことを特徴とする。
【0015】
本発明の物体検出装置では、画像入力手段は撮影画像の各画素の輝度値を取り込んで保持し、水平参照点選択手段は、撮影画像において水平方向に配列された複数の画素から成る注目水平画素列ごとに、注目水平画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を画像入力手段から取得する。また、垂直参照点選択手段は、撮影画像において垂直方向に配列された複数の画素から成る注目垂直画素列ごとに、注目垂直画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を画像入力手段から取得する。
そして、水平背景モデル作成手段は、水平参照点選択手段が選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を背景画像保持手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成し、垂直背景モデル作成手段は、垂直参照点選択手段が選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を背景画像保持手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する。
【0016】
その後、水平距離計算手段は、多次元輝度空間において、水平背景モデル作成手段が作成した前記照明変動背景モデルと、水平参照点選択手段が取得した前記複数の輝度値が表す点との間の距離を計算し、垂直距離計算手段は、多次元輝度空間において、垂直背景モデル作成手段が作成した前記照明変動背景モデルと、垂直参照点選択手段が取得した前記複数の輝度値が表す点との間の距離を計算する。
そして、物体判別手段は、水平距離計算手段および垂直距離計算手段が計算した前記距離にもとづいて、注目水平画素列および注目垂直画素列に物体を表す画素が含まれているか否かを判別し、両画素列に係わる判別結果に対して論理演算を行って物体を含む矩形領域を特定する。
【0017】
また、本発明は、撮影画像を用いて物体を検出する物体検出方法であって、前記撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させる画像入力ステップと、前記撮影画像の注目画素ごとに複数の参照画素を選択して、選択した複数の参照画素および前記注目画素の輝度値を前記第1の記憶手段から前記注目画素ごとに取得する複数参照点選択ステップと、前記撮影画像の背景を成す背景画像の各画素の輝度値を第2の記憶手段に保持させる背景画像保持ステップと、前記複数参照点選択ステップで選択した前記注目画素および同画素に対応する前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記第2の記憶手段から取得して、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを前記注目画素と、同画素に対応する各参照画素との組ごとに作成する背景モデル作成ステップと、輝度空間において、前記背景モデル作成ステップで前記注目画素と参照画素との前記組ごとに作成した前記照明変動背景モデルと、前記複数参照点選択ステップで前記注目画素ごとに取得した前記複数の参照画素の輝度値のそれぞれと前記注目画素の輝度値との組が表す点との間の距離をそれぞれ計算する距離計算ステップと、前記注目画素と各参照画素との組ごとに、前記距離計算ステップで計算した前記距離にもとづいて前記注目画素が物体を表す画素か否かを判別し、前記組ごとの判別結果に対し論理演算を行って前記注目画素が物体を表す画素か否かを最終的に判別する物体判別ステップとを備えたことを特徴とする。
【0018】
また、本発明は、撮影画像を用いて物体を検出する物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体であって、前記撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させる画像入力ステップと、前記撮影画像の注目画素ごとに複数の参照画素を選択して、選択した複数の参照画素および前記注目画素の輝度値を前記第1の記憶手段から前記注目画素ごとに取得する複数参照点選択ステップと、前記撮影画像の背景を成す背景画像の各画素の輝度値を第2の記憶手段に保持させる背景画像保持ステップと、前記複数参照点選択ステップで選択した前記注目画素および同画素に対応する前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記第2の記憶手段から取得して、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを前記注目画素と、同画素に対応する各参照画素との組ごとに作成する背景モデル作成ステップと、輝度空間において、前記背景モデル作成ステップで前記注目画素と参照画素との前記組ごとに作成した前記照明変動背景モデルと、前記複数参照点選択ステップで前記注目画素ごとに取得した前記複数の参照画素の輝度値のそれぞれと前記注目画素の輝度値との組が表す点との間の距離をそれぞれ計算する距離計算ステップと、前記注目画素と各参照画素との組ごとに、前記距離計算ステップで計算した前記距離にもとづいて前記注目画素が物体を表す画素か否かを判別し、前記組ごとの判別結果に対し論理演算を行って前記注目画素が物体を表す画素か否かを最終的に判別する物体判別ステップとを含むことを特徴とする。
【0019】
本発明の物体検出方法および本発明のコンピュータ読み取り可能な情報記録媒体に記録された物体検出プログラムでは、画像入力ステップにおいて、撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させ、複数参照点選択ステップでは、前記画像の注目画素ごとに複数の参照画素を選択して、選択した複数の参照画素および前記注目画素の輝度値を第1の記憶手段から注目画素ごとに取得する。そして、背景モデル作成ステップでは、複数参照点選択ステップで選択した注目画素および同画素に対応する前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を第2の記憶手段から取得して、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを注目画素と、同画素に対応する各参照画素との組ごとに作成する。
【0020】
その上で、距離計算ステップでは、輝度空間において、背景モデル作成ステップで注目画素と参照画素との前記組ごとに作成した前記照明変動背景モデルと、複数参照点選択ステップで注目画素ごとに取得した前記複数の参照画素の輝度値のそれぞれと注目画素の輝度値との組が表す点との間の距離をそれぞれ計算する。
そして、物体判別ステップでは、注目画素と各参照画素との組ごとに、距離計算ステップで計算した前記距離にもとづいて前記注目画素が物体を表す画素か否かを判別し、前記組ごとの判別結果に対し論理演算を行って注目画素が物体を表す画素か否かを最終的に判別する。
【0021】
また、本発明は、撮影画像を用いて物体を検出する物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体であって、前記撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させる画像入力ステップと、前記撮影画像において水平方向に配列された複数の画素から成る注目水平画素列ごとに、前記注目水平画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を前記第1の記憶手段から取得する水平参照点選択ステップと、前記撮影画像において垂直方向に配列された複数の画素から成る注目垂直画素列ごとに、前記注目垂直画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を前記第1の記憶手段から取得する垂直参照点選択ステップと、前記撮影画像の背景を成す画像の各画素の輝度値を第2の記憶手段に保持させる背景画像保持ステップと、前記水平参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記第2の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する水平背景モデル作成ステップと、前記垂直参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記第2の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する垂直背景モデル作成ステップと、多次元輝度空間において、前記水平背景モデル作成ステップで作成した前記照明変動背景モデルと、前記水平参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算する水平距離計算ステップと、多次元輝度空間において、前記垂直背景モデル作成ステップで作成した前記照明変動背景モデルと、前記垂直参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算する垂直距離計算ステップと、前記水平距離計算ステップおよび前記垂直距離計算ステップで計算した前記距離にもとづいて、前記注目水平画素列および前記注目垂直画素列に物体を表す画素が含まれているか否かを判別し、両画素列に係わる判別結果に対して論理演算を行って物体を含む矩形領域を特定する物体判別ステップとを含むことを特徴とする。
【0022】
また、本発明は、撮影画像を用いて物体を検出する物体検出方法であって、前記撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させる画像入力ステップと、前記撮影画像において水平方向に配列された複数の画素から成る注目水平画素列ごとに、前記注目水平画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を前記第1の記憶手段から取得する水平参照点選択ステップと、前記撮影画像において垂直方向に配列された複数の画素から成る注目垂直画素列ごとに、前記注目垂直画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を前記第1の記憶手段から取得する垂直参照点選択ステップと、前記撮影画像の背景を成す画像の各画素の輝度値を第2の記憶手段に保持させる背景画像保持ステップと、前記水平参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記第2の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する水平背景モデル作成ステップと、前記垂直参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記第2の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する垂直背景モデル作成ステップと、多次元輝度空間において、前記水平背景モデル作成ステップで作成した前記照明変動背景モデルと、前記水平参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算する水平距離計算ステップと、多次元輝度空間において、前記垂直背景モデル作成ステップで作成した前記照明変動背景モデルと、前記垂直参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算する垂直距離計算ステップと、前記水平距離計算ステップおよび前記垂直距離計算ステップで計算した前記距離にもとづいて、前記注目水平画素列および前記注目垂直画素列に物体を表す画素が含まれているか否かを判別し、両画素列に係わる判別結果に対して論理演算を行って物体を含む矩形領域を特定する物体判別ステップとを備えたことを特徴とする。
【0023】
本発明の物体検出方法および本発明のコンピュータ読み取り可能な情報記録媒体に記録された物体検出プログラムでは、画像入力ステップにおいて撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させ、水平参照点選択ステップでは、撮影画像において水平方向に配列された複数の画素から成る注目水平画素列ごとに、注目水平画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を第1の記憶手段から取得する。また、垂直参照点選択ステップでは、撮影画像において垂直方向に配列された複数の画素から成る注目垂直画素列ごとに、注目垂直画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を第1の記憶手段から取得する。
そして、水平背景モデル作成ステップでは、水平参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を第1の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成し、垂直背景モデル作成ステップでは、垂直参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を第2の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する。
【0024】
その後、水平距離計算ステップでは、多次元輝度空間において、水平背景モデル作成ステップで作成した前記照明変動背景モデルと、水平参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算し、垂直距離計算ステップでは、多次元輝度空間において、垂直背景モデル作成ステップで作成した前記照明変動背景モデルと、垂直参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算する。
そして、物体判別ステップでは、水平距離計算ステップおよび垂直距離計算ステップで計算した前記距離にもとづいて、注目水平画素列および注目垂直画素列に物体を表す画素が含まれているか否かを判別し、両画素列に係わる判別結果に対して論理演算を行って物体を含む矩形領域を特定する。
【0025】
【発明の実施の形態】
次に本発明の実施の形態例について図面を参照して説明する。
まず、第1の実施の形態例における物体検出の原理について説明する。図3の(A)は画像面における注目点と参照点との位置関係を示す説明図、(B)は物体が撮影領域に侵入した場合の模式図、(C)は検出結果を示す模式図、(D)は画像面における注目点と参照点との位置関係を示す他の説明図、(E)は検出結果を示す他の模式図、(F)は最終的な検出結果を示す模式図である。
【0026】
図3の(A)に示したように、画像上に注目点PAと注目点PBとを離して設定した場合、図3の(B)に示したように、物体108が注目点PAの位置に侵入すると、注目点PAと参照点PBとの間で輝度差が生じるので、照明変動背景モデルを用いた従来と同じ手法で検出を行って物体108を検出する。そして、検出結果は、図3の(C)に示したように、従来と同様、注目点PAと参照点PBの両方に物体108が存在する可能性があることを示すものとなる。
【0027】
一方、本実施の形態例では、図3の(D)に示したように、参照点PBとは異なる参照点PCをさらに設定する。そして、注目点PAと参照点PCとの組に関しても従来と同様の手法で物体の検出を行う。その結果、上述のように物体108が注目点PAに侵入した場合、検出結果では図3の(E)に示したように、注目点PAと参照点PCの両方の位置に物体108が存在する可能性があることを示すものとなる。
【0028】
本実施の形態例では、さらに、この2つの検出結果、すなわち図3の(C)と(E)の論理積をとる。したがって、図3の(F)に示したように、図3の(C)と(E)の両方に共通して存在する注目点PAの位置の物体像111のみが残り、注目点PAに侵入した物体108がその位置を特定して確実に検出される。そして、本実施の形態例では注目点と参照点とをある程度離して配置することができることから、検出された物体の画像は輪郭部だけでなく内側の領域も描画された画像となる。
【0029】
なお、一般に、1つの注目点に対し、注目点を含むN個(Nは3以上の整数)の異なる参照点を設定した場合、次式により表される条件を満たすことで物体の存在領域を特定することができる。
【0030】
【数1】
dist(Pi、Pj)>ObjectSize
だだし、1≦i、j≦N(i≠j)であり、dist(A、B)は点A、B間の距離を表す。また、ObjectSizeは画像上での物体の大きさを表している。
【0031】
次に、本発明の第1の実施形態について図面を参照して詳細に説明する。
図1は第1の実施の形態例の物体検出装置を示すブロック図、図2は図1の物体検出装置の動作を示すフローチャートである。以下では、これらの図面を参照して本発明の物体検出装置の一例について説明すると同時に本発明の物体検出方法および物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体の実施の形態例について説明する。
【0032】
図1に示した物体検出装置2は、画像入力手段4、複数参照点選択手段6、背景画像保持手段8、背景モデル作成手段10、距離計算手段12、物体判別手段14、ならびに背景作成手段16を含み、たとえば監視カメラにより撮影した画像から物体を検出する構成となっている。
物体検出装置2は具体的には、一例として、監視カメラやビデオテープレコーダとのインターフェースなども備え、所定のオペレーティングシステムが組み込まれたコンピュータにより構成されており、コンピュータを構成する入力装置に、本発明の物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体としてのたとえばCD−ROMを装着してCD−ROMからプログラムデータを読み込み、コンピュータのメモリにロードして、コンピュータのCPUを同プログラムデータにもとづいて動作させることで実現されている。
【0033】
画像入力手段4は、監視カメラにより撮影された画像、あるいは撮影後、ビデオテープレコーダに録画された画像を、監視カメラやVTRなどから取り込んで保持する。より詳しくは、画像入力手段4は、撮影画像の各画素の輝度値を取り込んで保持する。なお、画像入力手段4が取り込む画像は動画像であっても、静止画像であってもよい。また、画像入力手段4は、自身が画像を撮像するカメラを備えた構成であってもよい。
【0034】
複数参照点選択手段6は、前記画像の注目画素(注目点の位置の画素)ごとに、あらかじめ決められた複数の参照画素(参照点の位置の画素)を選択して、選択した複数の参照画素および注目画素の各輝度値を画像入力手段4から注目画素ごとに取得する。なお、1つの注目画素に対応する上記複数の参照画素は参照画素群ともいう。
背景画像保持手段8は、撮影領域の背景画像の各画素の輝度値を保持している。背景画像保持手段8が保持する輝度値は、本実施の形態例では、後に説明するように背景作成手段16により適宜更新される。
背景モデル作成手段10は、複数参照点選択手段6が選択した注目画素および同画素に対応する前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を背景画像保持手段8から取得して、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを注目画素と、同画素に対応する各参照画素との組ごとに作成する。
【0035】
そして、距離計算手段12は、輝度空間において、背景モデル作成手段10が注目画素と参照画素との前記組ごとに作成した前記照明変動背景モデルと、複数参照点選択手段6が注目画素ごとに取得した複数の参照画素の輝度値のそれぞれと注目画素の輝度値との組が表す点との間の距離をそれぞれ計算する。
【0036】
物体判別手段14は、注目画素と各参照画素との組ごとに、距離計算手段12が計算した前記距離にもとづいて前記注目画素が物体を表す画素か否かを判別し、注目画素と各参照画素との組ごとの判別結果に対し論理演算を行って注目画素が物体を表す画素か否かを最終的に判別する。
そして、画像出力手段15は、物体判別手段14が出力する判別結果の画像データを不図示の表示装置などへ出力する。
また、背景作成手段16は、物体判別手段14が物体を表す画素ではないと判別した注目画素と、同画素に対応する前記複数の参照画素のそれぞれに対応する背景画像の画素の輝度値を、注目画素および参照画素の輝度値にもとづき更新して背景画像保持手段8に保持させる。
【0037】
次に、このように構成された第1の実施の形態例の動作について説明する。
図2に示したように、まず、物体検出装置2の画像入力手段4は、監視カメラなどによって撮像された画像を読み込み、画像を構成する各画素ごとの輝度値を画像入力手段4内に設けられた不図示のメモリに保持する(ステップA1)。
画像はマトリクス状に配列された多数の画素により構成され、画像入力手段4はこのような画素の輝度値を2次元配列のデータとして保持する。また、各画素は上記メモリのxアドレスとyアドレスを指定することで特定可能となっており、xアドレスはマトリクスの列番号に対応し、yアドレスはマトリクスの行番号に対応している。
【0038】
そして、複数参照点選択手段6は、上記画像の注目画素ごとに、あらかじめ決められた複数の参照画素を選択して、選択した複数の参照画素および注目画素の各輝度値を画像入力手段4の上記メモリから注目画素ごとに取得する(ステップA2)。
上記参照画素はそれぞれ、検出すべき侵入物体の大きさよりも大きい距離だけ注目画素から離れた位置に設定されている。
たとえば、侵入物体の画面上での大きさが100画素未満であるとし、現在の注目画素点PAと、この画素とは異なるもう1つの画素点PBを参照点とする場合、図3の(A)に示したように参照点PBは、注目点PAからx軸方向に100画素離れた位置に設定する。このとき、注目点PAにおける輝度値はI(x、y)、参照点PBにおける輝度値はI(x+100、y)のように表すことができる。
同様に、もう1つの参照点PCを設定する場合、図3の(D)に示したように、参照点PCは注目点PAからx軸の反対方向に100画素離れた位置に設定する。参照点PCにおける輝度値はI(x−100、y)のように表すことができる。
【0039】
本実施の形態例では、複数参照点選択手段6は、注目点PAに対し注目点以外に2つの参照点PB、PCを設定するものとし、したがって、注目点および各参照点にそれぞれ対応する1つの注目画素と2つの参照画素を設定するものとする。次に、複数参照点選択手段6は、ステップA2で得た注目画素および参照画素の各輝度値を背景作成手段16に供給する(ステップA3)。この段階では、背景画像保持手段8を構成するメモリには、背景画像を構成する各画素の輝度値はまだ格納されていないため、背景作成手段16は、複数参照点選択手段6から供給された各輝度値を、それぞれ対応する背景画像の画素の輝度値として、背景画像保持手段8に保持させる。
【0040】
次に、背景モデル作成手段10は、背景画像保持手段8が保持している背景画像の各画素の輝度値を用いて照明変動背景モデルを作成する。
たとえば注目画素が図3における注目点PAに対応するpaであり、参照画素が参照点PB、PCに対応するpb、pcであったとすると、背景モデル作成手段10はまず、注目画素paおよび参照画素pbに対応する、背景画像における2つの画素の輝度値を背景画像保持手段8から取得する。
【0041】
そして、これら2つの輝度値を用いて、注目画素paと参照画素pbとの組に対応するものとして、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する。具体的には、図9に示したような、注目画素paに対応する背景画素の輝度値を横軸、参照画素pbに対応する背景画素の輝度値を縦軸とする輝度空間において、注目画素paと参照画素pbに対応する背景画素の輝度値の組が表す点と、原点を通過する直線を求め、その直線を上記照明変動背景モデルとする。
背景モデル作成手段10は、注目画素paと参照画素pcとの組に対しても同様に照明変動背景モデルを作成する。
【0042】
なお、注目画素ごとに参照する画素の数が注目画素も含めてN個であれば、1つの注目画素ごとにN個の背景画像の画素の輝度値を用いることになり、したがって注目画素ごとの背景の輝度値の組はN次元のベクトルとして表すことができる。
本実施例では注目画素と1参照点の組を2組用いているので、背景の輝度値は2組の2次元ベクトルとなる。
【0043】
その後、距離計算手段12は、注目画素paおよび参照画素pbの組に対して、上記輝度空間において、上記照明変動背景モデルと、注目画素paおよび参照画素pbの輝度値の組が表す点との間の距離を計算し、さらに、注目画素paおよび参照画素pcの組に対しても同様の距離を計算する(ステップA4)。
【0044】
ここで、注目画素pa、参照画素pb、pcに対応する背景画素の輝度値をia0、ib0、ic0とし、注目画素pa、参照画素pb、pcの輝度値をia1、ib1、ic1とすると、注目画素paと参照画素pbとの組に対応する照明変動背景モデルと、輝度値ia1、ib1に対応する点との間の距離D1、ならびに注目画素paと参照画素pcとの組に対応する照明変動背景モデルと、輝度値ia1、ic1に対応する点との間の距離D2はそれぞれ[数2]、[数4]に示した式によって計算することができる。
【0045】
【数2】
【0046】
【数3】
次に、物体判別手段14は、ステップA4において求められた距離D1、D2と、あらかじめ設定されているしきい値T1、T2とを比べ(ステップA5)、これらの距離およびしきい値が[数4]を満たす場合には、注目画素paは物体を表す画素であり、対応箇所に物体が存在すると判断し、一方、[数4]を満たさない場合には、注目画素paは背景を表す画素であると判断する(ステップA6、S7、S8、S9)。
【0047】
【数4】
より詳しくは、物体判別手段14は、複数距離計算手段が計算した距離D1、D2がそれぞれ上記しきい値T1、T2より大きいか否かを調べる(ステップA5)。たとえば距離D1がしきい値T1より大きい場合には、物体判別手段14は注目画素paおよび参照画素pbは物体を表す画素である可能性があるとし、検出結果として両画素に論理”1”を対応づける。また、距離D2も、しきい値T2より大きい場合には、物体判別手段14は、注目画素paおよび参照画素pcは物体を表す画素である可能性があるとし、検出結果として両画素に論理”1”を対応づける。
一方、距離D1、D2がT1、T2より小さい場合には、各画素には論理”0”を対応づける。
【0048】
その上で、物体判別手段14は、これらの検出結果の論理積をとり(ステップA6)、そして値を判定して(ステップA7)、結果が論理”1”の場合は注目画素paは物体を表す画素であるとし(ステップA8)、論理”0”の場合は注目画素paは物体を表さず、背景を表す画素であるとする(ステップA9)。
たとえば、距離D1がしきい値T1より大きい場合、物体判別手段14が各画素pa、pb、pcに対応づける値は”1”、”1”、”0”となり、また、距離D2がしきい値T2より大きい場合、物体判別手段14が各画素pa、pb、pcに対応づける値は”1”、”0”、”1”となる。したがって、各画素ごとに、これらの値の論理積をとると、それぞれ”1”、”0”、”0”となり、画素paに対する論理値のみが”1”となる。したがって、物体判別手段14は、注目画素paが物体を表す画素であると判断する。
【0049】
一般に注目画素以外にN個の参照点をとった場合、各参照点ごとに距離Diを計算し、各参照点ごとのしきい値Tiを用いて、[数5]が成立するか否かにより注目画素が物体を表す画素であるか否かを判別することができる。
【0050】
【数5】
このようなステップA2からS9までの処理を、画像入力手段4が保持している全画素を次々に注目画素に設定して行うことで(ステップA10)、撮影画像上の物体を検出することができる。
検出された物体は、画像出力手段15により出力され、表示装置に表示される。その際、ステップA7、A8において、物体を表すと判別された注目画素の表示色を、背景とは異なる色で表示すれば、画面上で検出物体の形状などをより明瞭に把握することができる。
【0051】
なお、ステップA10において、すべての画素について処理が終わったと判断された場合に、物体であると判別された画素の数をカウントして、このカウント値が予め設定されたしきい値より大きい場合にのみ物体が存在すると判断するようにしてもよい。これによって、ある大きさ以上の物体のみを検出することが可能となる。
【0052】
一方、ステップA7、A9で注目画素が物体を表す画素ではないと判別された場合には、背景作成手段16は、同注目画素および対応する複数の参照画素の輝度値にもとづいて、対応する背景画像の画素の輝度値を更新し、背景画像保持手段8に保持させる(ステップA3)。
なお、最初の入力画像に移動物体が含まれていなければ、基本的に背景画像の各画素の輝度値は更新する必要はない。しかし、ノイズ等の影響で、背景領域の輝度値が照明変動以外の要因でばらつきを起こしうるため、物体判別手段14により背景とみなされた画素において随時輝度値を更新していくことで誤差を抑えることができる。
【0053】
また、このような背景画像の更新において、新旧の輝度値に重みを乗じて徐々に更新するという方法をとることができる。すなわち、物体判別手段14で注目画素paが背景画素とみなされた場合、[数6]のように新しく加わるデータに重みをかけ徐々に更新することができる。
【0054】
【数6】
ここで、PA_newは注目画素paと参照画素pb、pcに対応する背景画素の輝度値による3次元輝度値行列、PA_oldは今までの注目画素paと参照画素pb、pcに対応する背景画素の輝度値による3次元背景輝度行列である。また、IAは、注目画素paと参照画素pb、pcの輝度値行列、αは上記重み定数である。
【0055】
次に、ステップA10において、すべての画素に対して前述した判別処理が終了したと判断された場合、画像入力手段4は、次の画像があるか否かを判断し(ステップA11)、次の画像がある場合はステップA1に戻って、画像を取得し、以降、上述した各処理が繰り返される。そして、すべての画像に対して処理が終了した時点で、物体検出処理を終了する。
以上の処理を監視カメラから画像が取り込まれるごとに行うことで、物体検出を逐次行うことができる。
【0056】
図4の(A)は、道路を黒い車が走っている原画像を示す模式図、(B)は従来技術による車の検出結果を示す説明図、(C)は本実施の形態例による車の検出結果を示す説明図である。
図4の(B)は、図4の(A)に示した原画像および背景画像により図8などを用いて説明した従来技術にもとづき車の検出を行った結果を示し、注目点および参照点を隣接させて物体検出を行ったため、車の輪郭部のみが検出されている。
【0057】
これに対して、本実施の形態例による検出結果である図4の(C)では、車の輪郭部だけでなく、輪郭の内側も含め、車全体が検出されており、より明瞭に、したがって確実に車が検出されている。
本実施の形態例では、上述したように、各注目画素ごとに選択する参照画素を、注目画素に対し、物体の大きさ以上に離して設定する。したがって、注目画素と参照画素とを接近させて設定した場合のように物体の輪郭部のみが検出されるといったことがない。
そして、1つの注目画素に対して複数の参照画素を設定し、注目画素と各参照画素との組ごとに物体検出を行って、最終的に論理演算により注目画素が物体の画素か否かを判別するので、注目画素と参照画素とを離して設定しても、物体の位置を確実に特定できる。
【0058】
また、上記従来技術と同様、輝度空間における照明変動背景モデルと輝度点との距離にもとづいて注目画素が画像を表すか否かを判定しているので、照明変動が大きく、かつ頻繁に発生する場合にも安定で、しかも高精度に物体を検出することができる。
【0059】
次に、本発明の第2の実施形態について説明する。
図5は第2の実施の形態例の物体検出装置2を示すブロック図、図6は図5の物体検出装置の動作を示すフローチャートである。以下では、これらの図面を参照して本発明の第2の実施の形態例の物体検出装置について説明すると同時に本発明の第2の実施の形態例の物体検出方法および物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体について説明する。なお、図5において図1と同一の要素には同一の符号が付されており、それらに関する説明はここでは省略する。
【0060】
図5に示した物体検出装置18が上記物体検出装置2と異なるのは、物体自体を検出するのではなく物体の外接矩形を求める点であり、その結果、少ない計算量で物体を検出することが可能となる。
物体検出装置18は、画像入力手段4、本発明に係わる水平参照点選択手段および垂直参照点選択手段として機能する複数参照点選択手段20、背景画像保持手段8、本発明に係わる水平背景モデル作成手段および垂直背景モデル作成手段として機能する背景モデル作成手段22、本発明に係わる水平距離計算手段および垂直距離計算手段として機能する距離計算手段24、物体判別手段26、背景作成手段28、ならびに画像出力手段15を含み、たとえば監視カメラにより撮影した画像から物体を検出する構成となっている。
【0061】
物体検出装置18は上記物体検出装置2と同様、具体的には、一例として監視カメラやビデオテープレコーダとのインターフェースなども備えたコンピュータにより構成されており、コンピュータを構成する入力装置に、本発明の物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体としてのたとえばCD−ROMを装着してCD−ROMからプログラムデータを読み込み、コンピュータのメモリにロードして、コンピュータのCPUを同プログラムデータにもとづいて動作させることで実現されている。
【0062】
物体検出装置18の複数参照点選択手段20は、水平参照点選択手段として機能して、撮影画像において水平方向に配列された複数の画素から成る注目水平画素列ごとに、注目水平画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を画像入力手段4から取得する。
また、複数参照点選択手段20は、垂直参照点選択手段として機能して、撮影画像において垂直方向に配列された複数の画素から成る注目垂直画素列ごとに、注目垂直画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を画像入力手段4から取得する。
【0063】
そして、背景モデル作成手段22は、水平背景モデル作成手段として機能して、水平参照点選択手段が選択した複数の参照画素にそれぞれ対応する、背景画像における複数の画素の輝度値を背景画像保持手段8から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する。
また、背景モデル作成手段22は、垂直背景モデル作成手段として機能して、垂直参照点選択手段が選択した複数の参照画素にそれぞれ対応する、背景画像における複数の画素の輝度値を背景画像保持手段8から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する。
【0064】
複数距離計算手段2は、水平距離計算手段として機能して、多次元輝度空間において、水平背景モデル作成手段としての背景モデル作成手段22が作成した前記照明変動背景モデルと、水平参照点選択手段としての複数参照点選択手段20が取得した複数の輝度値が表す点との間の距離を計算する。
また、複数距離計算手段2は、垂直距離計算手段として機能して、多次元輝度空間において、垂直背景モデル作成手段としての背景モデル作成手段22が作成した前記照明変動背景モデルと、垂直参照点選択手段としての複数参照点選択手段20が取得した前記複数の輝度値が表す点との間の距離を計算する。
【0065】
物体判別手段26は、上記水平距離計算手段および垂直距離計算手段としての複数距離計算手段2が計算した前記距離にもとづいて、注目水平画素列および注目垂直画素列に物体を表す画素が含まれているか否かを判別し、両画素列に係わる判別結果に対して論理演算を行って物体を含む矩形領域を特定する。
背景作成手段28は、物体判別手段26が物体を表す画素を含まないと判別した前記注目水平画素列および注目垂直画素列を構成する各画素の輝度値にもとづいて、対応する前記背景画像の画素の輝度値を更新して背景画像保持手段8に保持させる。
【0066】
次に、このように構成された物体検出装置18の動作について説明する。
図7は第2の実施の形態例の動作を説明するための図であって、(A)は垂直方向における物体の存在可能領域の検出を表す説明図、(B)は水平方向における物体の存在可能領域の検出を表す説明図、(C)は検出結果を示す説明図である。以下では、図5とともに図6、図7を参照して説明する。
【0067】
図6に示したように、まず、画像入力手段4は、監視カメラなどによって撮像された画像を読み込み、画像を構成する各画素ごとの輝度値を画像入力手段4内に設けられた不図示のメモリに保持する(ステップB1)。
次に、複数参照点選択手段20は、撮影画像において垂直方向のアドレスyにおける1行分の画素を注目水平画素列とし、またこの1行分の画素を参照画素(参照画素群)に選択して、各参照画素の輝度値を画像入力手段4から取得する(ステップB4)。したがって、撮影画像の幅がWidth画素(Widthは正の整数)であったとすると、上記注目水平画素列にはWidth個の画素が含まれ、複数参照点選択手段20は、本実施の形態例ではこれらすべて画素を参照画素とする。
【0068】
そして、背景モデル作成手段22は、複数参照点選択手段20が選択した上記参照画素にそれぞれ対応する、背景画像における各画素の輝度値を背景画像保持手段8から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する。
その後、複数距離計算手段24は、参照画素の輝度値によって形成される多次元輝度空間において、背景モデル作成手段22が作成した前記照明変動背景モデルと、複数参照点選択手段20が取得した上記複数の輝度値が表す点との間の距離を計算する(ステップB6)。
【0069】
つづいて、物体判別手段26は、複数距離計算手段24がこのように計算した距離をしきい値と比較して、距離がしきい値より大きい場合には、上記注目水平画素列に対応づけて論理”1”を保持し、距離がしきい値より小さい場合には論理”0”を保持する(ステップB8)。
複数参照点選択手段20、背景モデル作成手段22、ならびに複数距離計算手段2は、このような処理を、アドレスyの値を1ずつ大きくしながら、画像の垂直方向の全範囲において行う(ステップB10)。
その結果、図7の(A)に示したように、物体108が図のように存在する場合、Hの範囲内の各注目水平画素列に対して、物体判別手段26は論理”1”を保持することになる。
【0070】
また、複数参照点選択手段20、背景モデル作成手段22、ならびに複数距離計算手段2は、同様の処理を、画像の水平方向においても行う。
すなわち、複数参照点選択手段20は、撮影画像において水平方向のアドレスxにおける1列分の画素を注目垂直画素列とし、またこの1列分の画素を参照画素(参照画素群)に選択して、各参照画素の輝度値を画像入力手段4から取得する(ステップB2)。したがって、撮影画像の高さがHeight画素(Heightは正の整数)であったとすると、上記注目垂直画素列にはHeight個の画素が含まれ、複数参照点選択手段20は、本実施の形態例ではこれらすべて画素を参照画素とする。
【0071】
そして、背景モデル作成手段22は、複数参照点選択手段20が選択した上記参照画素にそれぞれ対応する、背景画像における各画素の輝度値を背景画像保持手段8から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する。
その後、複数距離計算手段24は、参照画素の輝度値によって形成される多次元輝度空間において、背景モデル作成手段22が作成した前記照明変動背景モデルと、複数参照点選択手段20が取得した上記複数の輝度値が表す点との間の距離を計算する(ステップB5)。
【0072】
つづいて、物体判別手段26は、複数距離計算手段2がこのように計算した距離をしきい値と比較して、距離がしきい値より大きい場合には、上記注目垂直画素列に対応づけて論理”1”を保持し、距離がしきい値より小さい場合には論理”0”を保持する(ステップB7)。
複数参照点選択手段20、背景モデル作成手段22、ならびに複数距離計算手段24は、このような処理を、アドレスyの値を1ずつ大きくしながら、画像の水平方向の全範囲において行う(ステップB9)。
その結果、図7の(B)に示したように、Wの範囲内の各注目垂直画素列に対して、物体判別手段26は論理”1”を保持することになる。
【0073】
その後、物体判別手段26は、各注目水平画素列および各注目垂直画素列ごとに保持している論理値の論理積をとることで(ステップB11)、検出結果としての矩形領域の画像を保持するためのメモリ(図示せず)において、各画素ごとに、その値が論理”1”か論理”0”かを決定する。
詳しくは、値を決定すべき画素に対応する位置の撮影画像の画素を含む注目水平画素列および注目垂直画素列に対して、共に論理”1”を保持している場合には、上記画素の値は論理”1”に設定する。一方、対応する撮影画像の画素を含む注目水平画素列および注目垂直画素列の少なくとも一方に対して論理”0”を保持している場合には、上記画素の値は論理”0”に設定する(ステップB12、B13、B14)。その結果、検出結果を保持する上記メモリにおいて、図7の(C)に示したように、物体を含む可能性のある矩形領域R内の画素の値は論理”1”となり、それ以外の画素の値は論理”0”となる。
【0074】
したがって、このメモリの内容を画像出力手段15により表示装置に表示すれば、物体を含む矩形領域が画面に表示されることになる。また、矩形領域Rの4辺は物体108の外接矩形となっている。
そして、撮影画像の幅がWidth画素、高さがHeight画素であった場合、上記第1の実施の形態例では、各画素ごとに背景モデルの作成や距離の計算を行うので、このような演算処理を(Width×Heigh)回行う必要がある。
しかし、第2の実施の形態例では、各水平画素列ごとに上記演算処理を行い、また各垂直画素列ごとに上記演算処理を行えばよいので、演算処理の回数は全体で(Width+Height)回となる。したがって、演算量は第1の実施の形態例の場合にくらべ大幅に低減し、高速に物体検出を行ったり、装置の低コスト化を図る場合に非常に有利である。
【0075】
なお、物体検出装置2の場合と同様に、背景作成手段28は、物体判別手段26が物体を表す画素を含まないと判別した注目水平画素列および注目垂直画素列を構成する各画素の輝度値にもとづいて、対応する背景画像の画素の輝度値を更新して背景画像保持手段8に保持させる。これにより最新の背景画像を用いて精度の高い物体検出を行うことができる。
また、処理すべき画像がさらに存在する場合には、物体検出装置2の場合と同様、以上の手順が次の画像に対して繰り返される(ステップB15)。
【0076】
なお、この第2の実施の形態例では、注目水平画素列および注目垂直画素列において、各画素列のすべての画素を参照画素にするとしたが、数画素ごとに選択するなどの間引きを行って、さらに演算量の低減を図ることも可能である。
さらに、たとえば水平方向および垂直方向のいずれか一方でまず物体の存在可能領域を確定し、その上で、その領域内でのみ他方の方向における処理を行えば、物体が存在する可能性のない領域では演算処理を行わなくても済むため、さらに演算量を削減することが可能となる。
【0077】
なお、ここでは物体検出装置2および物体検出装置18はコンピュータにより構成されているとしたが、物体検出装置2および物体検出装置18を専用のハードウェアにより構成することも無論可能である。また、本発明に係わる機能のうち、一部の機能をコンピュータに所定のプログラムをロードして実現し、他の機能は専用のハードウェアによって実現したり、さらには、コンピュータにすでに組み込まれているプログラムを組み合わせて用いることで物体検出装置2および物体検出装置18を構成とすることも可能である。
【0078】
また、コンピュータ読み取り可能な情報記録媒体とは、上述したCD−ROMに限らず、フロッピー(登録商標)ディスク、光磁気ディスク、ROMなどの可搬媒体や、コンピュータに内蔵されるハードディスクなどの記憶装置を含んでいる。
さらに、コンピュータ読み取り可能な情報記録媒体は、インターネットなどの通信ネットワークや電話回線などの通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するものも含み、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものも含んでいる。
【0079】
【発明の効果】
以上説明したように本発明の物体検出装置では、画像入力手段は、撮影画像の各画素の輝度値を取り込んで保持し、複数参照点選択手段は、前記画像の注目画素ごとに複数の参照画素を選択して、選択した複数の参照画素および前記注目画素の輝度値を画像入力手段から注目画素ごとに取得する。そして、背景モデル作成手段は、複数参照点選択手段が選択した注目画素および同画素に対応する前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を背景画像保持手段から取得して、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを注目画素と、同画素に対応する各参照画素との組ごとに作成する。
【0080】
その上で、距離計算手段は、輝度空間において、背景モデル作成手段が注目画素と参照画素との前記組ごとに作成した前記照明変動背景モデルと、複数参照点選択手段が注目画素ごとに取得した前記複数の参照画素の輝度値のそれぞれと注目画素の輝度値との組が表す点との間の距離をそれぞれ計算する。
そして、物体判別手段は、注目画素と各参照画素との組ごとに、距離計算手段が計算した前記距離にもとづいて前記注目画素が物体を表す画素か否かを判別し、前記組ごとの判別結果に対し論理演算を行って注目画素が物体を表す画素か否かを最終的に判別する。
【0081】
このように、本発明の物体検出装置では、1つの注目画素に対して複数の参照画素を設定し、注目画素と各参照画素との組ごとに物体検出を行って、最終的に論理演算により注目画素が物体の画素か否かを判別するので、注目画素と参照画素とを離して設定しても、物体の位置を確実に特定できる。
したがって、各注目画素ごとに選択する参照画素を、注目画素に対し、物体の大きさ以上に離して設定することができ、その結果、注目画素と参照画素とを接近させて設定した場合のように物体の輪郭部のみが検出されるといったことがない。
また、上述した従来技術と同様、輝度空間における照明変動背景モデルと輝度点との距離にもとづいて注目画素が画像を表すか否かを判定するので、照明変動が大きく、かつ頻繁に発生する場合にも安定で、しかも高精度に物体を検出することができる。
【0082】
また、本発明の物体検出装置では、画像入力手段は撮影画像の各画素の輝度値を取り込んで保持し、水平参照点選択手段は、撮影画像において水平方向に配列された複数の画素から成る注目水平画素列ごとに、注目水平画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を画像入力手段から取得する。また、垂直参照点選択手段は、撮影画像において垂直方向に配列された複数の画素から成る注目垂直画素列ごとに、注目垂直画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を画像入力手段から取得する。
そして、水平背景モデル作成手段は、水平参照点選択手段が選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を背景画像保持手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成し、垂直背景モデル作成手段は、垂直参照点選択手段が選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を背景画像保持手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する。
【0083】
その後、水平距離計算手段は、多次元輝度空間において、水平背景モデル作成手段が作成した前記照明変動背景モデルと、水平参照点選択手段が取得した前記複数の輝度値が表す点との間の距離を計算し、垂直距離計算手段は、多次元輝度空間において、垂直背景モデル作成手段が作成した前記照明変動背景モデルと、垂直参照点選択手段が取得した前記複数の輝度値が表す点との間の距離を計算する。
そして、物体判別手段は、水平距離計算手段および垂直距離計算手段が計算した前記距離にもとづいて、注目水平画素列および注目垂直画素列に物体を表す画素が含まれているか否かを判別し、両画素列に係わる判別結果に対して論理演算を行って物体を含む矩形領域を特定する。
【0084】
本発明の物体検出装置では、各水平画素列ごとに背景モデルの作成や、背景モデルと輝度点との間の距離の計算といった演算処理を行い、また各垂直画素列ごとに同様の演算処理を行えばよいので、演算処理の回数は全体で画像の水平方向の画素数に、画像の垂直方向の画素数を加えた値となる。
一方、各画素ごとに背景モデルの作成や、背景モデルと輝度点との間の距離の計算といった演算処理を行った場合には、全体の演算処理の回数は、画像の水平方向の画素数に、画像の垂直方向の画素数を乗じたものとなる。
したがって、本発明では、照明変動が大きく、かつ頻繁に発生する場合にも安定で、しかも高精度に物体の存在領域を検出できる上に、演算量が大幅に低減し、その結果、高速に物体検出を行ったり、装置の低コスト化を図る上で非常に有利となる。
【0085】
本発明の物体検出方法および本発明のコンピュータ読み取り可能な情報記録媒体に記録された物体検出プログラムでは、画像入力ステップにおいて、撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させ、複数参照点選択ステップでは、前記画像の注目画素ごとに複数の参照画素を選択して、選択した複数の参照画素および前記注目画素の輝度値を第1の記憶手段から注目画素ごとに取得する。そして、背景モデル作成ステップでは、複数参照点選択ステップで選択した注目画素および同画素に対応する前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を第2の記憶手段から取得して、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを注目画素と、同画素に対応する各参照画素との組ごとに作成する。
【0086】
その上で、距離計算ステップでは、輝度空間において、背景モデル作成ステップで注目画素と参照画素との前記組ごとに作成した前記照明変動背景モデルと、複数参照点選択ステップで注目画素ごとに取得した前記複数の参照画素の輝度値のそれぞれと注目画素の輝度値との組が表す点との間の距離をそれぞれ計算する。
そして、物体判別ステップでは、注目画素と各参照画素との組ごとに、距離計算ステップで計算した前記距離にもとづいて前記注目画素が物体を表す画素か否かを判別し、前記組ごとの判別結果に対し論理演算を行って注目画素が物体を表す画素か否かを最終的に判別する。
【0087】
このように本発明では、1つの注目画素に対して複数の参照画素を設定し、注目画素と各参照画素との組ごとに物体検出を行って、最終的に論理演算により注目画素が物体の画素か否かを判別するので、注目画素と参照画素とを離して設定しても、物体の位置を確実に特定できる。
したがって、各注目画素ごとに選択する参照画素を、注目画素に対し、物体の大きさ以上に離して設定することができ、その結果、注目画素と参照画素とを接近させて設定した場合のように物体の輪郭部のみが検出されるといったことがない。
また、上述した従来技術と同様、輝度空間における照明変動背景モデルと輝度点との距離にもとづいて注目画素が画像を表すか否かを判定するので、照明変動が大きく、かつ頻繁に発生する場合にも安定で、しかも高精度に物体を検出することができる。
【0088】
また、本発明の物体検出方法および本発明のコンピュータ読み取り可能な情報記録媒体に記録された物体検出プログラムでは、画像入力ステップにおいて撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させ、水平参照点選択ステップでは、撮影画像において水平方向に配列された複数の画素から成る注目水平画素列ごとに、注目水平画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を第1の記憶手段から取得する。また、垂直参照点選択ステップでは、撮影画像において垂直方向に配列された複数の画素から成る注目垂直画素列ごとに、注目垂直画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を第1の記憶手段から取得する。
そして、水平背景モデル作成ステップでは、水平参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を第1の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成し、垂直背景モデル作成ステップでは、垂直参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を第2の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する。
【0089】
その後、水平距離計算ステップでは、多次元輝度空間において、水平背景モデル作成ステップで作成した前記照明変動背景モデルと、水平参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算し、垂直距離計算ステップでは、多次元輝度空間において、垂直背景モデル作成ステップで作成した前記照明変動背景モデルと、垂直参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算する。
そして、物体判別ステップでは、水平距離計算ステップおよび垂直距離計算ステップで計算した前記距離にもとづいて、注目水平画素列および注目垂直画素列に物体を表す画素が含まれているか否かを判別し、両画素列に係わる判別結果に対して論理演算を行って物体を含む矩形領域を特定する。
【0090】
このように、本発明では、各水平画素列ごとに背景モデルの作成や、背景モデルと輝度点との間の距離の計算といった演算処理を行い、また各垂直画素列ごとに同様の演算処理を行えばよいので、演算処理の回数は全体で画像の水平方向の画素数に、画像の垂直方向の画素数を加えた値となる。
一方、各画素ごとに背景モデルの作成や、背景モデルと輝度点との間の距離の計算といった演算処理を行った場合には、全体の演算処理の回数は、画像の水平方向の画素数に、画像の垂直方向の画素数を乗じたものとなる。
したがて、本発明では、照明変動が大きく、かつ頻繁に発生する場合にも安定で、しかも高精度に物体の存在領域を検出できる上に、演算量が大幅に低減し、その結果、高速に物体検出を行ったり、装置の低コスト化を図る上で非常に有利となる。
【図面の簡単な説明】
【図1】第1の実施の形態例の物体検出装置を示すブロック図である。
【図2】図1の物体検出装置の動作を示すフローチャートである。
【図3】(A)は画像面における注目点と参照点との位置関係を示す説明図、(B)は物体が撮影領域に侵入した場合の模式図、(C)は検出結果を示す模式図、(D)は画像面における注目点と参照点との位置関係を示す他の説明図、(E)は検出結果を示す他の模式図、(F)は最終的な検出結果を示す模式図である。
【図4】(A)は、道路を黒い車が走っている原画像を示す模式図、(B)は従来技術による車の検出結果を示す説明図、(C)は本実施の形態例による車の検出結果を示す説明図である。
【図5】第2の実施の形態例の物体検出装置を示すブロック図である。
【図6】図5の物体検出装置の動作を示すフローチャートである。
【図7】第2の実施の形態例の動作を説明するための図であって、(A)は垂直方向における物体の存在可能領域の検出を表す説明図、(B)は水平方向における物体の存在可能領域の検出を表す説明図、(C)は検出結果を示す説明図である。
【図8】背景画像を表す説明図である。
【図9】注目点および参照点の輝度値により形成される2次元の輝度空間を示す説明図である。
【図10】監視カメラの撮影領域に物体が侵入した場合の撮影画像を示す説明図である。
【図11】(A)は画像面を示す説明図、(B)は物体が撮影領域に侵入した場合の模式図、(C)は検出結果を示す模式図である。
【符号の説明】
2……物体検出装置、4……画像入力手段、6……複数参照点選択手段、8……背景画像保持手段、10……背景モデル作成手段、12……距離計算手段、14……物体判別手段、16……背景作成手段、18……物体検出装置、20……複数参照点選択手段、22……背景モデル作成手段、24……距離計算手段、26……物体判別手段、28……背景作成手段、102……白ドット、104……直線、106……白丸ドット、108……物体、110……黒ドット。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a computer-readable information recording medium on which an object detection program for detecting an object included in an image taken by a surveillance camera or the like is recorded.
[0002]
[Prior art]
When detecting an object from a moving image taken by a surveillance camera or the like, it is important that the object can be reliably detected even if the brightness of the background fluctuates due to sunshine conditions or the like. Therefore, the inventors of the present invention have devised an object detection technique that is not easily affected even when the illumination fluctuation is large and occurs frequently, and has already filed a patent application (Japanese Patent Application No. 11-078641). ).
[0003]
This object detection technique is to provide a reference point at a position different from the point of interest in the background image created in advance and the current image, and discriminate the object from the correlation information of the luminance value change of the reference point. . Hereinafter, the principle will be described in detail with reference to the drawings.
FIG. 8 is an explanatory diagram showing a background image, in which an X axis is set in the horizontal direction and a Y axis is set in the vertical direction. However, in order to avoid unnecessarily complicated, it is assumed that the background image has no texture and has a constant brightness regardless of the location. In FIG. 8, P A Is the point of interest, P B Is a reference point provided in the vicinity thereof. And attention point P A The luminance value at A , Reference point P B The luminance value at B And
[0004]
FIG. 9 is an explanatory diagram showing a two-dimensional luminance space formed by the luminance values of the attention point and the reference point. In this luminance space, a two-dimensional coordinate system is set, and the horizontal axis indicates the attention point P. A Luminance value I A The vertical axis represents the reference point P B Luminance value I B Represents.
Where attention point P A The brightness value of I is I A1 , Reference point P B The brightness value of I is I B1 , The point on the luminance space corresponding to the set of luminance values, that is, the luminance point (I A1 , I B1 ) Is, for example, the position of the
Then, the brightness of the background changes, and the attention point P A For example, if the luminance value of the reference point P becomes small, the reference point P B The luminance value of becomes smaller at the same rate. In addition, attention point P A If the luminance value of is 0, the reference point P B The luminance value is also 0. Therefore, attention point P A And reference point P B Brightness I A , I B When the brightness of the background changes, the point on the luminance space corresponding to the set of moves along the
[0005]
On the other hand, for example, the attention point P A If an object has entered the position of A The brightness value of I is I A2 In this case, the luminance point (I A2 , I B1 ) Is, for example, the position of the
And illumination fluctuation occurs, for example, the reference point P B If the luminance value of the object increases, the point of interest P on the object is usually A Similarly, the luminance value of the luminance point (I A2 , I B1 ) Generally moves in the upper right direction (arrow A) parallel to the
[0006]
[Problems to be solved by the invention]
However, in the above prior art, when the reference point is arranged close to the target point, only the contour portion of the object is extracted, and the extracted object image is in a hollow state, and there is room for improvement in this respect. It was.
Hereinafter, a specific description will be given with reference to FIG. FIG. 10 is an explanatory diagram illustrating a captured image when an object enters the imaging region of the surveillance camera, for example. As in the case of FIG. 8, the background is assumed to have a constant brightness regardless of the location.
For this image, as shown in FIG. A And set the reference point P close to B 10, these points are all on the
[0007]
On the other hand, attention point P A And reference point P B Are set at similar intervals, for example, at the edge of the
Therefore, in the technique of Japanese Patent Application No. 11-078641, when the attention point and the reference line are arranged close to each other, only the edge portion of the object, that is, the contour portion is detected.
[0008]
Therefore, in order to detect not only the outline of the object but also the whole, it is necessary to dispose the reference point sufficiently away from the attention point.
In the technique of Japanese Patent Application No. 11-078641, the reference point must be set outside the area where the object may enter. This will be described with reference to FIG. 11A is an explanatory diagram showing an image plane, FIG. 11B is a schematic diagram when an object has entered the imaging region, and FIG. 11C is a schematic diagram showing a detection result.
[0009]
As shown in FIG. 11A, the attention point P is displayed on the image. A And attention point P B Are set apart from each other, as shown in FIG. A The point of interest P A And reference point P B A difference in brightness occurs between the two and the
Therefore, attention point P A When the
[0010]
Therefore, in order to avoid such a phenomenon, the reference point must be set outside the area where the object may enter.
The present invention has been made to eliminate such drawbacks. The purpose of the present invention is to stably detect an object with high accuracy and to detect an object with high accuracy and to detect a reference point. It is an object to provide an object detection apparatus, an object detection method, and a computer-readable information recording medium on which an object detection program is recorded, which can be set at an arbitrary position and reliably detect an object.
[0011]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides an object detection apparatus that detects an object using a captured image, an image input unit that captures and holds a luminance value of each pixel of the captured image, A plurality of reference pixels for each pixel of interest, a plurality of selected reference pixels and a plurality of reference point selection means for acquiring the luminance value of the pixel of interest for each pixel of interest from the image input means; A background image holding unit that holds a luminance value of each pixel of a background image that forms a background; and the background corresponding to the target pixel selected by the plurality of reference point selection units and the plurality of reference pixels corresponding to the pixel. The luminance value of a plurality of pixels in the image is acquired from the background image holding means, and an illumination variation background model when the background luminance is changed by the influence of illumination variation A background model creating means for creating a set of each reference pixel corresponding to each of the illumination variation background models created by the background model creating means for each set of the target pixel and the reference pixel in a luminance space; Distance calculating means for calculating the distance between each of the plurality of reference pixel brightness values acquired for each target pixel by the plurality of reference point selecting means and a point represented by the set of the brightness value of the target pixel; For each set of the target pixel and each reference pixel, it is determined whether or not the target pixel is a pixel representing an object based on the distance calculated by the distance calculation means, and a logical result is obtained for the determination result for each set. And an object discriminating means for finally discriminating whether or not the pixel of interest is a pixel representing an object by performing an operation.
[0012]
In the object detection device of the present invention, the image input means captures and holds the luminance value of each pixel of the captured image, and the plurality of reference point selection means selects a plurality of reference pixels for each target pixel of the image, A plurality of selected reference pixels and luminance values of the target pixel are acquired for each target pixel from the image input means. Then, the background model creating means outputs the luminance values of the plurality of pixels in the background image respectively corresponding to the target pixel selected by the plurality of reference point selecting means and the plurality of reference pixels corresponding to the same pixel from the background image holding means. The illumination variation background model is acquired for each set of the pixel of interest and each reference pixel corresponding to the pixel when the background luminance changes due to the illumination variation.
[0013]
In addition, in the luminance space, the distance calculation unit acquires the illumination variation background model created by the background model creation unit for each pair of the target pixel and the reference pixel, and the plurality of reference point selection units acquires the target pixel for each target pixel. The distance between each of the luminance values of the plurality of reference pixels and the point represented by the set of the luminance value of the target pixel is calculated.
The object determining unit determines, for each pair of the target pixel and each reference pixel, whether or not the target pixel is a pixel representing an object based on the distance calculated by the distance calculating unit, and determines each group A logical operation is performed on the result to finally determine whether the target pixel is a pixel representing an object.
[0014]
In addition, the present invention is an object detection device that detects an object using a captured image, and includes an image input unit that captures and holds a luminance value of each pixel of the captured image, and is arranged in the horizontal direction in the captured image. A horizontal reference point selection unit that selects a plurality of reference pixels included in the target horizontal pixel column and obtains a luminance value of each reference pixel from the image input unit for each horizontal pixel column of interest composed of a plurality of pixels; For each target vertical pixel column composed of a plurality of pixels arranged in the vertical direction in the photographed image, a plurality of reference pixels included in the target vertical pixel column are selected, and the luminance value of each reference pixel is obtained from the image input unit. A vertical reference point selection means to obtain, a background image holding means for holding the luminance value of each pixel of the image constituting the background of the photographed image, and the plurality of reference pixels selected by the horizontal reference point selection means; A horizontal background model creation that obtains brightness values of a plurality of pixels in the background image corresponding to the background image from the background image holding unit and creates a lighting fluctuation background model when the brightness of the background changes under the influence of lighting fluctuations And luminance values of a plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected by the vertical reference point selection unit are obtained from the background image holding unit, and the luminance of the background is affected by illumination variation A vertical background model creating means for creating a lighting fluctuation background model when changed by receiving, the lighting fluctuation background model created by the horizontal background model creating means in a multidimensional luminance space, and the horizontal reference point selecting means. Horizontal distance calculation means for calculating a distance between the points represented by the acquired plurality of luminance values, and the vertical background model creation means in a multidimensional luminance space Vertical distance calculation means for calculating the distance between the created illumination variation background model and the points represented by the plurality of luminance values acquired by the vertical reference point selection means, the horizontal distance calculation means, and the vertical distance calculation Based on the distance calculated by the means, it is determined whether or not a pixel representing an object is included in the target horizontal pixel column and the target vertical pixel column, and a logical operation is performed on a determination result related to both pixel columns. And an object discriminating means for specifying a rectangular area including the object.
[0015]
In the object detection device of the present invention, the image input unit captures and holds the luminance value of each pixel of the captured image, and the horizontal reference point selection unit includes the horizontal pixel of interest composed of a plurality of pixels arranged in the horizontal direction in the captured image. For each column, a plurality of reference pixels included in the target horizontal pixel column are selected, and the luminance value of each reference pixel is acquired from the image input unit. Further, the vertical reference point selection unit selects a plurality of reference pixels included in the target vertical pixel column for each target vertical pixel column including a plurality of pixels arranged in the vertical direction in the captured image, and brightness of each reference pixel. The value is acquired from the image input means.
Then, the horizontal background model creation means acquires the brightness values of the plurality of pixels in the background image corresponding to the plurality of reference pixels selected by the horizontal reference point selection means from the background image holding means, and the background brightness is An illumination variation background model in the case of changing under the influence of illumination variation is created, and the vertical background model creation means is a plurality of reference pixels selected by the vertical reference point selection means, each of which corresponds to the plurality of reference pixels in the background image. A luminance value background model is created when the luminance value of the pixel is obtained from the background image holding means and the luminance of the background changes due to the influence of the illumination variation.
[0016]
Thereafter, in a multi-dimensional luminance space, the horizontal distance calculation unit is a distance between the illumination variation background model created by the horizontal background model creation unit and the point represented by the plurality of luminance values acquired by the horizontal reference point selection unit. The vertical distance calculation means is a multi-dimensional luminance space between the illumination variation background model created by the vertical background model creation means and the points represented by the plurality of brightness values obtained by the vertical reference point selection means. Calculate the distance.
Then, the object determining means determines whether or not a pixel representing the object is included in the target horizontal pixel column and the target vertical pixel column based on the distance calculated by the horizontal distance calculating unit and the vertical distance calculating unit, A logical operation is performed on the discrimination results relating to both pixel columns to identify a rectangular area including the object.
[0017]
The present invention is also an object detection method for detecting an object using a captured image, an image input step of capturing a luminance value of each pixel of the captured image and holding it in a first storage means, and the captured image Selecting a plurality of reference pixels for each target pixel, and acquiring a plurality of selected reference pixels and luminance values of the target pixel for each target pixel from the first storage unit; and The background image holding step of holding the luminance value of each pixel of the background image forming the background of the photographed image in the second storage means, and the plurality of pixels corresponding to the pixel of interest selected in the plurality of reference point selecting step and the same pixel The luminance value of the plurality of pixels in the background image respectively corresponding to the reference pixel is acquired from the second storage means, and the illumination change when the background luminance changes due to the influence of the illumination change. A background model creating step for creating a background model for each set of the target pixel and each reference pixel corresponding to the pixel, and for each set of the target pixel and the reference pixel in the background model creating step in a luminance space Between the illumination variation background model created in the above and a point represented by a set of each of the luminance values of the plurality of reference pixels and the luminance value of the pixel of interest acquired for each pixel of interest in the plurality of reference point selection step A distance calculation step for calculating the distance of each, and for each set of the target pixel and each reference pixel, it is determined whether the target pixel is a pixel representing an object based on the distance calculated in the distance calculation step. And an object determination step of finally determining whether or not the target pixel is a pixel representing an object by performing a logical operation on the determination result for each group.
[0018]
The present invention is also a computer-readable information recording medium in which an object detection program for detecting an object using a photographed image is recorded. The brightness value of each pixel of the photographed image is taken into the first storage means. An image input step to hold, a plurality of reference pixels for each target pixel of the captured image, and a plurality of selected reference pixels and luminance values of the target pixel for each target pixel from the first storage unit A plurality of reference point selection steps to be acquired; a background image holding step for holding a luminance value of each pixel of the background image forming the background of the photographed image in a second storage unit; and the attention selected in the plurality of reference point selection steps Obtaining luminance values of a plurality of pixels in the background image respectively corresponding to the pixel and the plurality of reference pixels corresponding to the pixel from the second storage unit; In a luminance space, a background model creating step for creating a lighting variation background model for each set of the target pixel and each reference pixel corresponding to the pixel when the luminance of the scene changes due to the influence of illumination variation, The illumination variation background model created for each pair of the target pixel and reference pixel in the background model creation step, and the luminance values of the plurality of reference pixels acquired for each target pixel in the multiple reference point selection step A distance calculating step for calculating a distance between each and a point represented by a set of luminance values of the target pixel, and the distance calculated in the distance calculating step for each set of the target pixel and each reference pixel Based on this, it is determined whether or not the target pixel is a pixel representing an object, and a logical operation is performed on the determination result for each set to finally determine whether or not the target pixel is a pixel representing an object Characterized in that it comprises a object determination step of determining.
[0019]
In the object detection method of the present invention and the object detection program recorded on the computer-readable information recording medium of the present invention, in the image input step, the luminance value of each pixel of the photographed image is captured and held in the first storage means. In the multiple reference point selection step, a plurality of reference pixels are selected for each target pixel of the image, and the selected plurality of reference pixels and the luminance value of the target pixel are acquired from the first storage unit for each target pixel. . In the background model creation step, the second storage means stores the luminance values of the plurality of pixels in the background image respectively corresponding to the target pixel selected in the plurality of reference point selection step and the plurality of reference pixels corresponding to the pixel. Thus, an illumination variation background model when the background luminance changes under the influence of illumination variation is created for each set of the target pixel and each reference pixel corresponding to the pixel.
[0020]
In addition, in the distance calculation step, in the luminance space, the illumination variation background model created for each pair of the target pixel and the reference pixel in the background model creation step and the target reference pixel acquired in the multiple reference point selection step The distance between each of the luminance values of the plurality of reference pixels and the point represented by the set of the luminance value of the target pixel is calculated.
In the object determining step, for each set of the target pixel and each reference pixel, it is determined whether or not the target pixel is a pixel representing an object based on the distance calculated in the distance calculating step. A logical operation is performed on the result to finally determine whether the target pixel is a pixel representing an object.
[0021]
The present invention is also a computer-readable information recording medium in which an object detection program for detecting an object using a photographed image is recorded. The brightness value of each pixel of the photographed image is taken into the first storage means. An image input step to be held, and for each horizontal pixel column of interest consisting of a plurality of pixels arranged in the horizontal direction in the captured image, a plurality of reference pixels included in the horizontal pixel column of interest are selected and the luminance of each reference pixel A horizontal reference point selecting step for acquiring a value from the first storage means, and a plurality of pixels included in the target vertical pixel column for each target vertical pixel column including a plurality of pixels arranged in the vertical direction in the captured image. A vertical reference point selection step of selecting a reference pixel and acquiring the luminance value of each reference pixel from the first storage means; and the luminance of each pixel of the image constituting the background of the photographed image Are stored in the second storage means, and brightness values of a plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the horizontal reference point selecting step are stored in the second storage. A horizontal background model creating step for creating an illumination variation background model obtained when the background luminance is changed by the influence of illumination variation obtained from the means, and each of the plurality of reference pixels selected in the vertical reference point selection step. A vertical background model creation that obtains corresponding brightness values of a plurality of pixels in the background image from the second storage means and creates a lighting fluctuation background model when the brightness of the background changes under the influence of lighting fluctuations And in the multi-dimensional luminance space, the illumination variation background model created in the horizontal background model creation step, and the horizontal reference point selection step. A horizontal distance calculating step for calculating a distance between the points represented by the plurality of luminance values acquired in step (a), a lighting variation background model created in the vertical background model creating step in a multidimensional luminance space, and the vertical Based on the vertical distance calculation step for calculating the distance between the points represented by the plurality of luminance values acquired in the reference point selection step, and the distance calculated in the horizontal distance calculation step and the vertical distance calculation step, An object that determines whether or not a pixel representing an object is included in the horizontal pixel column of interest and the vertical pixel column of interest and performs a logical operation on the determination results relating to both pixel columns to identify a rectangular region including the object A discriminating step.
[0022]
The present invention is also an object detection method for detecting an object using a captured image, an image input step of capturing a luminance value of each pixel of the captured image and holding it in a first storage means, and the captured image For each horizontal pixel column of interest composed of a plurality of pixels arranged in the horizontal direction in FIG. 1, a plurality of reference pixels included in the horizontal pixel column of interest are selected and the luminance value of each reference pixel is obtained from the first storage means And selecting a plurality of reference pixels included in the target vertical pixel column for each target vertical pixel column composed of a plurality of pixels arranged in the vertical direction in the captured image, and selecting each reference pixel. A vertical reference point selection step of acquiring a luminance value from the first storage unit, a background image holding step of holding a luminance value of each pixel of an image forming a background of the captured image in a second storage unit, The luminance values of the plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the horizontal reference point selecting step are obtained from the second storage means, and the background luminance is affected by illumination fluctuations. A horizontal background model creating step for creating a lighting variation background model when the light source changes, and luminance values of a plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the vertical reference point selecting step. A vertical background model creating step for creating a lighting fluctuation background model obtained when the background luminance is changed by the influence of the lighting fluctuation obtained from the second storage means, and the horizontal background model creating step in a multi-dimensional luminance space; The distance between the illumination variation background model created in
[0023]
In the object detection method of the present invention and the object detection program recorded on the computer-readable information recording medium of the present invention, in the image input step, the luminance value of each pixel of the captured image is captured and held in the first storage means, In the horizontal reference point selection step, for each target horizontal pixel column composed of a plurality of pixels arranged in the horizontal direction in the captured image, a plurality of reference pixels included in the target horizontal pixel column are selected, and the luminance value of each reference pixel is determined. Obtained from the first storage means. Further, in the vertical reference point selection step, a plurality of reference pixels included in the target vertical pixel column are selected for each target vertical pixel column composed of a plurality of pixels arranged in the vertical direction in the captured image, and the luminance of each reference pixel is selected. A value is obtained from the first storage means.
In the horizontal background model creation step, the luminance values of the plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the horizontal reference point selection step are obtained from the first storage means, and the background luminance is obtained. A lighting fluctuation background model is created when the lighting changes due to the influence of lighting fluctuation, and in the vertical background model creation step, a plurality of background pixels in the background image respectively corresponding to the plurality of reference pixels selected in the vertical reference point selection step The luminance value of the pixel is obtained from the second storage means, and an illumination variation background model is created when the background luminance changes under the influence of illumination variation.
[0024]
Thereafter, in the horizontal distance calculation step, in a multidimensional luminance space, the distance between the illumination variation background model created in the horizontal background model creation step and the point represented by the plurality of luminance values acquired in the horizontal reference point selection step In the vertical distance calculation step, in the multidimensional luminance space, between the illumination variation background model created in the vertical background model creation step and the points represented by the plurality of luminance values obtained in the vertical reference point selection step Calculate the distance.
Then, in the object determination step, based on the distance calculated in the horizontal distance calculation step and the vertical distance calculation step, it is determined whether or not the pixel representing the object is included in the target horizontal pixel column and the target vertical pixel column, A logical operation is performed on the discrimination results relating to both pixel columns to identify a rectangular area including the object.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
Next, embodiments of the present invention will be described with reference to the drawings.
First, the principle of object detection in the first embodiment will be described. 3A is an explanatory diagram showing the positional relationship between the attention point and the reference point on the image plane, FIG. 3B is a schematic diagram when an object has entered the imaging region, and FIG. 3C is a schematic diagram showing a detection result. , (D) is another explanatory diagram showing the positional relationship between the attention point and the reference point on the image plane, (E) is another schematic diagram showing the detection result, and (F) is a schematic diagram showing the final detection result. It is.
[0026]
As shown in FIG. 3A, the attention point P is displayed on the image. A And attention point P B Are set apart from each other, as shown in FIG. A The point of interest P A And reference point P B Therefore, the
[0027]
On the other hand, in this embodiment, as shown in FIG. B Reference point P different from C Set further. And attention point P A And reference point P C The object is detected by the same method as the conventional method. As a result, as described above, the
[0028]
In the present embodiment, the two detection results, that is, the logical product of (C) and (E) in FIG. Therefore, as shown in (F) of FIG. 3, the attention point P that exists in common in both (C) and (E) of FIG. A Only the
[0029]
In general, when N different reference points including an attention point (N is an integer of 3 or more) are set for one attention point, an object existence region is determined by satisfying the condition expressed by the following equation. Can be identified.
[0030]
[Expression 1]
dist (Pi, Pj)> ObjectSize
However, 1 ≦ i, j ≦ N (i ≠ j), and dist (A, B) represents the distance between points A and B. ObjectSize represents the size of the object on the image.
[0031]
Next, a first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing an object detection apparatus according to the first embodiment, and FIG. 2 is a flowchart showing an operation of the object detection apparatus of FIG. Hereinafter, an example of the object detection apparatus of the present invention will be described with reference to these drawings, and at the same time, an embodiment of a computer-readable information recording medium recording the object detection method and the object detection program of the present invention will be described. .
[0032]
1 includes an
Specifically, the
[0033]
The image input means 4 captures and holds an image captured by the surveillance camera or an image recorded on the video tape recorder after the capture from the surveillance camera or VTR. More specifically, the
[0034]
The plurality of reference point selection means 6 selects a plurality of predetermined reference pixels (pixels at the position of the reference point) for each target pixel (pixel at the position of the attention point) of the image, and selects the plurality of selected references. Each luminance value of the pixel and the target pixel is acquired from the
The background image holding means 8 holds the luminance value of each pixel of the background image in the shooting area. In this embodiment, the luminance value held by the background
The background model creation means 10 is a background image holding means 8 for the luminance values of a plurality of pixels in the background image respectively corresponding to the target pixel selected by the plurality of reference point selection means 6 and the plurality of reference pixels corresponding to the same pixel. Thus, an illumination variation background model when the background luminance changes under the influence of illumination variation is created for each set of the target pixel and each reference pixel corresponding to the pixel.
[0035]
Then, the
[0036]
The
Then, the image output means 15 outputs the image data of the discrimination result output from the object discrimination means 14 to a display device (not shown).
Further, the
[0037]
Next, the operation of the first embodiment configured as described above will be described.
As shown in FIG. 2, first, the
The image is composed of a large number of pixels arranged in a matrix, and the image input means 4 holds the luminance values of such pixels as two-dimensional array data. Each pixel can be specified by designating the x address and y address of the memory. The x address corresponds to the column number of the matrix, and the y address corresponds to the row number of the matrix.
[0038]
Then, the plurality of reference point selection means 6 selects a plurality of reference pixels determined in advance for each target pixel of the image, and sets the luminance values of the selected reference pixels and target pixel of the image input means 4. Each pixel of interest is acquired from the memory (step A2).
Each of the reference pixels is set at a position away from the target pixel by a distance larger than the size of the intruding object to be detected.
For example, if the size of the intruding object on the screen is less than 100 pixels, the current pixel point of interest P A And another pixel point P different from this pixel B Is used as a reference point, as shown in FIG. B Is the point of interest P A Is set at a position 100 pixels away in the x-axis direction. At this time, the luminance value at the attention point PA can be expressed as I (x, y), and the luminance value at the reference point PB can be expressed as I (x + 100, y).
Similarly, another reference point P C , The reference point P is set as shown in FIG. C Is set at a position 100 pixels away from the point of interest PA in the direction opposite to the x-axis. Reference point P C The luminance value at can be expressed as I (x-100, y).
[0039]
In the present embodiment, the multiple reference point selection means 6 A In addition to the attention point, two reference points P B , P C Therefore, one attention pixel and two reference pixels respectively corresponding to the attention point and each reference point are set. Next, the multiple reference point selection unit 6 supplies the luminance values of the target pixel and the reference pixel obtained in step A2 to the background creation unit 16 (step A3). At this stage, since the luminance value of each pixel constituting the background image is not yet stored in the memory constituting the background image holding means 8, the
[0040]
Next, the background model creating unit 10 creates an illumination variation background model using the luminance value of each pixel of the background image held by the background
For example, the target pixel is the target point P in FIG. A P corresponding to a And the reference pixel is the reference point P B , P C P corresponding to b , P c If so, the background model creation means 10 first starts with the pixel of interest p a And reference pixel p b The luminance values of the two pixels in the background image corresponding to are acquired from the background image holding means 8.
[0041]
Then, using these two luminance values, the target pixel p a And reference pixel p b As a pair corresponding to the above, a lighting fluctuation background model is created in the case where the luminance of the background changes under the influence of lighting fluctuation. Specifically, the target pixel p as shown in FIG. a The luminance value of the background pixel corresponding to the horizontal axis, the reference pixel p b In the luminance space with the vertical axis representing the luminance value of the background pixel corresponding to a And reference pixel p b A point represented by a set of luminance values of background pixels corresponding to and a straight line passing through the origin are obtained, and the straight line is used as the illumination variation background model.
The background model creation means 10 uses the pixel of interest p a And reference pixel p c Similarly, a lighting variation background model is created for the pair.
[0042]
If the number of pixels to be referred to for each target pixel is N including the target pixel, the luminance values of the N background image pixels are used for each target pixel, and therefore, for each target pixel. A set of background luminance values can be represented as an N-dimensional vector.
In this embodiment, since two sets of the target pixel and one reference point are used, the background luminance values are two sets of two-dimensional vectors.
[0043]
Thereafter, the distance calculation means 12 uses the pixel of interest p a And reference pixel p b In the luminance space, the illumination variation background model and the pixel of interest p a And reference pixel p b The distance between the point represented by the set of luminance values of the pixel of interest and the pixel of interest p a And reference pixel p c The same distance is calculated for the set of (step A4).
[0044]
Here, the target pixel p a , Reference pixel p b , P c The luminance values of the background pixels corresponding to ia0, i b0 , I c0 And the pixel of interest p a , Reference pixel p b , P c The luminance value of i a1 , I b1 , I c1 Then, the target pixel p a And reference pixel p b The distance D1 between the illumination variation background model corresponding to the pair and the points corresponding to the luminance values ia1 and ib1, and the target pixel p a And reference pixel p c The distance D2 between the illumination variation background model corresponding to the pair and the points corresponding to the luminance values ia1 and ic1 can be calculated by the equations shown in [Expression 2] and [Expression 4], respectively.
[0045]
[Expression 2]
[0046]
[Equation 3]
Next, the
[0047]
[Expression 4]
More specifically, the
On the other hand, distance D 1 , D 2 Is T 1 , T 2 If it is smaller, each pixel is associated with logic “0”.
[0048]
After that, the object discriminating means 14 calculates the logical product of these detection results (step A6), determines the value (step A7), and if the result is logic “1”, the object pixel p a Is a pixel representing an object (step A8), and in the case of logic "0", the target pixel p a Are pixels that do not represent an object but represent the background (step A9).
For example, distance D 1 Is the threshold T 1 If larger, the object discriminating means 14 determines each pixel p a , P b , P c The values associated with are “1”, “1”, “0”, and the distance D 2 Is the threshold T 2 If larger, the object discriminating means 14 determines each pixel p a , P b , P c The values associated with are “1”, “0”, and “1”. Therefore, for each pixel, the logical product of these values is “1”, “0”, “0”, and the pixel p a Only the logical value for is “1”. Therefore, the object discrimination means 14 a Are pixels representing an object.
[0049]
In general, when N reference points are taken in addition to the target pixel, the distance D for each reference point i And the threshold T for each reference point i Can be used to determine whether the pixel of interest is a pixel representing an object based on whether [Equation 5] holds.
[0050]
[Equation 5]
By performing such processing from step A2 to S9 by sequentially setting all the pixels held by the image input means 4 as the target pixel (step A10), an object on the captured image can be detected. it can.
The detected object is output by the image output means 15 and displayed on the display device. At this time, if the display color of the pixel of interest determined to represent the object in steps A7 and A8 is displayed in a color different from the background, the shape of the detected object can be grasped more clearly on the screen. .
[0051]
When it is determined in step A10 that the processing has been completed for all the pixels, the number of pixels determined to be an object is counted, and this count value is greater than a preset threshold value. It may be determined that only the object exists. As a result, it is possible to detect only objects having a certain size or more.
[0052]
On the other hand, if it is determined in steps A7 and A9 that the pixel of interest is not a pixel representing an object, the
If no moving object is included in the first input image, basically, it is not necessary to update the luminance value of each pixel of the background image. However, since the luminance value of the background region can vary due to factors other than illumination fluctuations due to the influence of noise or the like, the error can be corrected by updating the luminance value at any time in the pixels regarded as the background by the object discrimination means 14. Can be suppressed.
[0053]
In addition, in such update of the background image, it is possible to take a method of gradually updating the old and new luminance values by multiplying them with weights. That is, the target pixel p is detected by the object discrimination means 14. a Is regarded as a background pixel, the newly added data can be weighted and gradually updated as shown in [Formula 6].
[0054]
[Formula 6]
Where P A _New is the pixel of interest p a And reference pixel p b , P c A three-dimensional luminance value matrix by luminance values of background pixels corresponding to P, A _Old is the current pixel of interest p a And reference pixel p b , P c Is a three-dimensional background luminance matrix based on luminance values of background pixels corresponding to. I A Is the pixel of interest p a And reference pixel p b , P c Is a weighting constant.
[0055]
Next, when it is determined in step A10 that the above-described determination processing has been completed for all pixels, the
By performing the above processing every time an image is captured from the monitoring camera, object detection can be performed sequentially.
[0056]
4A is a schematic diagram showing an original image of a black car running on a road, FIG. 4B is an explanatory diagram showing a detection result of a car according to the prior art, and FIG. 4C is a car according to the present embodiment. It is explanatory drawing which shows the detection result of.
FIG. 4B shows the result of detection of a vehicle based on the prior art described with reference to FIG. 8 using the original image and background image shown in FIG. Since the object detection is performed by adjoining each other, only the contour portion of the car is detected.
[0057]
On the other hand, in FIG. 4C, which is a detection result according to the present embodiment, not only the contour portion of the vehicle but also the inside of the contour is detected, so that the whole vehicle is detected more clearly. The car is reliably detected.
In the present embodiment, as described above, the reference pixel to be selected for each target pixel is set apart from the target pixel by more than the size of the object. Therefore, only the contour part of the object is not detected unlike the case where the target pixel and the reference pixel are set close to each other.
Then, a plurality of reference pixels are set for one target pixel, object detection is performed for each pair of the target pixel and each reference pixel, and finally whether or not the target pixel is a pixel of the object is determined by a logical operation. Thus, even if the target pixel and the reference pixel are set apart from each other, the position of the object can be reliably specified.
[0058]
In addition, as in the above-described prior art, since it is determined whether or not the pixel of interest represents an image based on the distance between the illumination variation background model and the luminance point in the luminance space, the illumination variation is large and frequently occurs. Even in this case, an object can be detected with high accuracy.
[0059]
Next, a second embodiment of the present invention will be described.
FIG. 5 is a block diagram showing the
[0060]
The
The
[0061]
Similar to the
[0062]
The multiple reference point selection unit 20 of the
Further, the plurality of reference point selection means 20 functions as a vertical reference point selection means, and each of the plurality of reference vertical pixel columns made up of a plurality of pixels arranged in the vertical direction in the photographed image includes a plurality of the plurality of reference point selection units 20 included in the target vertical pixel column. A reference pixel is selected and the luminance value of each reference pixel is acquired from the image input means 4.
[0063]
The background model creation means 22 functions as horizontal background model creation means, and the brightness values of the plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected by the horizontal reference point selection means are background image holding means. 8 is used to create an illumination fluctuation background model when the brightness of the background changes under the influence of illumination fluctuation.
The background model creation means 22 functions as a vertical background model creation means, and the brightness values of the plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected by the vertical reference point selection means are background image holding means. 8 is used to create an illumination fluctuation background model when the brightness of the background changes under the influence of illumination fluctuation.
[0064]
The multiple distance calculation means 2 functions as a horizontal distance calculation means, and in the multi-dimensional luminance space, the illumination variation background model created by the background model creation means 22 as the horizontal background model creation means and the horizontal reference point selection means. The distance between the points represented by the plurality of luminance values acquired by the plurality of reference point selection means 20 is calculated.
The multiple distance calculation means 2 functions as a vertical distance calculation means, and the illumination variation background model created by the background model creation means 22 as the vertical background model creation means in the multidimensional luminance space, and the vertical reference point selection A plurality of reference point selection means 20 as a means calculates a distance between the points represented by the plurality of luminance values acquired.
[0065]
The
The
[0066]
Next, the operation of the
7A and 7B are diagrams for explaining the operation of the second embodiment, in which FIG. 7A is an explanatory diagram showing detection of a possible area of an object in the vertical direction, and FIG. Explanatory drawing showing detection of a possible area | region, (C) is explanatory drawing which shows a detection result. Hereinafter, description will be made with reference to FIGS. 6 and 7 together with FIG.
[0067]
As shown in FIG. 6, first, the
Next, the plurality of reference point selection means 20 selects the pixels for one row at the address y in the vertical direction in the captured image as a target horizontal pixel column, and selects the pixels for this one row as reference pixels (reference pixel group). Thus, the luminance value of each reference pixel is acquired from the image input means 4 (step B4). Therefore, if the width of the captured image is Width pixels (Width is a positive integer), the noted horizontal pixel row includes Width pixels, and the plurality of reference point selection means 20 is the same in the present embodiment. All these pixels are used as reference pixels.
[0068]
Then, the background model creation means 22 acquires the brightness value of each pixel in the background image corresponding to each of the reference pixels selected by the plurality of reference point selection means 20 from the background image holding means 8, and the background brightness changes with illumination fluctuation. Create a lighting fluctuation background model when it changes under the influence of the.
Thereafter, the multi-distance calculation means 24 is a multi-dimensional luminance space formed by the luminance values of the reference pixels, and the illumination variation background model created by the background model creating means 22 and the plurality of reference points selecting means 20 obtained by the multiple reference point selection means 20. The distance to the point represented by the luminance value is calculated (step B6).
[0069]
Subsequently, the
The multiple reference point selection means 20, the background model creation means 22, and the multiple distance calculation means 2 perform such processing over the entire range in the vertical direction of the image while increasing the value of the address y by 1 (step B10). ).
As a result, as shown in FIG. 7A, when the
[0070]
The multiple reference point selection means 20, the background model creation means 22, and the multiple distance calculation means 2 perform the same processing in the horizontal direction of the image.
That is, the plurality of reference point selection means 20 selects one column of pixels at the horizontal address x in the captured image as a target vertical pixel column, and selects one column of pixels as a reference pixel (reference pixel group). The brightness value of each reference pixel is acquired from the image input means 4 (step B2). Therefore, assuming that the height of the captured image is Height pixels (Height is a positive integer), the target vertical pixel column includes Height pixels, and the plurality of reference point selection means 20 is used in the present embodiment. Then, all these pixels are used as reference pixels.
[0071]
Then, the background model creation means 22 acquires the brightness value of each pixel in the background image corresponding to each of the reference pixels selected by the plurality of reference point selection means 20 from the background image holding means 8, and the background brightness changes with illumination fluctuation. Create a lighting fluctuation background model when it changes under the influence of the.
Thereafter, the multi-distance calculation means 24 is a multi-dimensional luminance space formed by the luminance values of the reference pixels, and the illumination variation background model created by the background model creating means 22 and the plurality of reference points selecting means 20 obtained by the multiple reference point selection means 20. The distance to the point represented by the luminance value is calculated (step B5).
[0072]
Subsequently, the object discriminating means 26 compares the distance calculated in this way by the multiple distance calculating means 2 with a threshold value. If the distance is larger than the threshold value, the object discriminating means 26 associates the distance with the target vertical pixel column. The logic “1” is held, and if the distance is smaller than the threshold value, the logic “0” is held (step B7).
The multiple reference point selection means 20, the background model creation means 22, and the multiple distance calculation means 24 perform such processing in the entire horizontal range of the image while increasing the value of the address y by 1 (step B9). ).
As a result, as shown in FIG. 7B, the object discriminating means 26 holds the logic “1” for each target vertical pixel column within the range of W.
[0073]
Thereafter, the object discrimination means 26 takes the logical product of the logical values held for each horizontal pixel column of interest and each vertical pixel column of interest (step B11), and holds the image of the rectangular area as the detection result. In the memory (not shown), whether the value is logic “1” or logic “0” is determined for each pixel.
Specifically, when both of the attention horizontal pixel column and the attention vertical pixel column including the pixel of the photographed image at the position corresponding to the pixel whose value is to be determined hold logic “1”, The value is set to logic “1”. On the other hand, when logic “0” is held for at least one of the target horizontal pixel column and the target vertical pixel column including the corresponding captured image pixel, the value of the pixel is set to logic “0”. (Steps B12, B13, B14). As a result, in the memory holding the detection result, as shown in FIG. 7C, the value of the pixel in the rectangular region R that may contain the object is logical “1”, and the other pixels The value of is logical “0”.
[0074]
Therefore, when the contents of this memory are displayed on the display device by the image output means 15, a rectangular area including the object is displayed on the screen. Further, the four sides of the rectangular area R are circumscribed rectangles of the
When the width of the captured image is Width pixels and the height is Height pixels, in the first embodiment, the background model is created and the distance is calculated for each pixel. The process needs to be performed (Width × Height) times.
However, in the second embodiment, the calculation process is performed for each horizontal pixel column and the calculation process is performed for each vertical pixel column, so the total number of calculation processes is (Width + Height) times. It becomes. Therefore, the amount of calculation is greatly reduced compared to the case of the first embodiment, which is very advantageous when performing object detection at a high speed or reducing the cost of the apparatus.
[0075]
As in the case of the
If there are more images to be processed, the above procedure is repeated for the next image as in the case of the object detection device 2 (step B15).
[0076]
In the second embodiment, in the target horizontal pixel column and the target vertical pixel column, all the pixels in each pixel column are used as reference pixels. However, thinning out such as selecting every several pixels is performed. Further, it is possible to further reduce the amount of calculation.
Further, for example, if an area where an object can exist first is determined in one of the horizontal direction and the vertical direction, and then processing in the other direction is performed only within that area, an area where there is no possibility that an object exists Then, since it is not necessary to perform arithmetic processing, the amount of calculation can be further reduced.
[0077]
Although the
[0078]
The computer-readable information recording medium is not limited to the above-described CD-ROM, but is a portable medium such as a floppy (registered trademark) disk, a magneto-optical disk, or a ROM, or a storage device such as a hard disk built in the computer. Is included.
Further, the computer-readable information recording medium dynamically holds the program for a short time like a communication line when transmitting the program via a communication network such as the Internet or a communication line such as a telephone line. In this case, there are those that hold a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or a client in that case.
[0079]
【The invention's effect】
As described above, in the object detection apparatus of the present invention, the image input unit captures and holds the luminance value of each pixel of the captured image, and the plurality of reference point selection units includes a plurality of reference pixels for each target pixel of the image. And the luminance values of the selected reference pixels and the target pixel are acquired for each target pixel from the image input means. Then, the background model creating means outputs the luminance values of the plurality of pixels in the background image respectively corresponding to the target pixel selected by the plurality of reference point selecting means and the plurality of reference pixels corresponding to the same pixel from the background image holding means. The illumination variation background model is acquired for each set of the pixel of interest and each reference pixel corresponding to the pixel when the background luminance changes due to the illumination variation.
[0080]
In addition, in the luminance space, the distance calculation unit acquires the illumination variation background model created by the background model creation unit for each pair of the target pixel and the reference pixel, and the plurality of reference point selection units acquires the target pixel for each target pixel. The distance between each of the luminance values of the plurality of reference pixels and the point represented by the set of the luminance value of the target pixel is calculated.
The object determining unit determines, for each pair of the target pixel and each reference pixel, whether or not the target pixel is a pixel representing an object based on the distance calculated by the distance calculating unit, and determines each group A logical operation is performed on the result to finally determine whether the target pixel is a pixel representing an object.
[0081]
As described above, in the object detection device of the present invention, a plurality of reference pixels are set for one target pixel, object detection is performed for each pair of the target pixel and each reference pixel, and finally a logical operation is performed. Since it is determined whether or not the target pixel is a pixel of the object, the position of the object can be reliably specified even if the target pixel and the reference pixel are set apart.
Accordingly, the reference pixel to be selected for each target pixel can be set apart from the target pixel by more than the size of the object, and as a result, the target pixel and the reference pixel are set close to each other. Thus, only the contour portion of the object is not detected.
In addition, as in the prior art described above, since whether or not the pixel of interest represents an image is determined based on the distance between the illumination variation background model and the luminance point in the luminance space, the illumination variation is large and frequently occurs In addition, an object can be detected with high accuracy and stability.
[0082]
In the object detection device of the present invention, the image input unit captures and holds the luminance value of each pixel of the captured image, and the horizontal reference point selection unit includes a plurality of pixels arranged in the horizontal direction in the captured image. For each horizontal pixel column, a plurality of reference pixels included in the target horizontal pixel column are selected, and the luminance value of each reference pixel is acquired from the image input unit. Further, the vertical reference point selection unit selects a plurality of reference pixels included in the target vertical pixel column for each target vertical pixel column including a plurality of pixels arranged in the vertical direction in the captured image, and brightness of each reference pixel. The value is acquired from the image input means.
Then, the horizontal background model creation means acquires the brightness values of the plurality of pixels in the background image corresponding to the plurality of reference pixels selected by the horizontal reference point selection means from the background image holding means, and the background brightness is An illumination variation background model in the case of changing under the influence of illumination variation is created, and the vertical background model creation means is a plurality of reference pixels selected by the vertical reference point selection means, each of which corresponds to the plurality of reference pixels in the background image. A luminance value background model is created when the luminance value of the pixel is obtained from the background image holding means and the luminance of the background changes due to the influence of the illumination variation.
[0083]
Thereafter, in a multi-dimensional luminance space, the horizontal distance calculation unit is a distance between the illumination variation background model created by the horizontal background model creation unit and the point represented by the plurality of luminance values acquired by the horizontal reference point selection unit. The vertical distance calculation means is a multi-dimensional luminance space between the illumination variation background model created by the vertical background model creation means and the points represented by the plurality of brightness values obtained by the vertical reference point selection means. Calculate the distance.
Then, the object determining means determines whether or not a pixel representing the object is included in the target horizontal pixel column and the target vertical pixel column based on the distance calculated by the horizontal distance calculating unit and the vertical distance calculating unit, A logical operation is performed on the discrimination results relating to both pixel columns to identify a rectangular area including the object.
[0084]
In the object detection device of the present invention, calculation processing such as creation of a background model for each horizontal pixel column and calculation of the distance between the background model and the luminance point is performed, and similar calculation processing is performed for each vertical pixel column. Therefore, the total number of times of calculation processing is a value obtained by adding the number of pixels in the horizontal direction of the image to the number of pixels in the vertical direction of the image.
On the other hand, when calculation processing such as creating a background model for each pixel and calculating the distance between the background model and the luminance point is performed, the total number of calculation processing is the number of pixels in the horizontal direction of the image. , Multiplied by the number of pixels in the vertical direction of the image.
Therefore, in the present invention, it is possible to detect an object existence area with high accuracy and stable even when the illumination fluctuation is large and frequently occurs, and the calculation amount is greatly reduced. This is very advantageous for detection and cost reduction of the apparatus.
[0085]
In the object detection method of the present invention and the object detection program recorded on the computer-readable information recording medium of the present invention, in the image input step, the luminance value of each pixel of the photographed image is captured and held in the first storage means. In the multiple reference point selection step, a plurality of reference pixels are selected for each target pixel of the image, and the selected plurality of reference pixels and the luminance value of the target pixel are acquired from the first storage unit for each target pixel. . In the background model creation step, the second storage means stores the luminance values of the plurality of pixels in the background image respectively corresponding to the target pixel selected in the plurality of reference point selection step and the plurality of reference pixels corresponding to the pixel. Thus, an illumination variation background model when the background luminance changes under the influence of illumination variation is created for each set of the target pixel and each reference pixel corresponding to the pixel.
[0086]
In addition, in the distance calculation step, in the luminance space, the illumination variation background model created for each pair of the target pixel and the reference pixel in the background model creation step and the target reference pixel acquired in the multiple reference point selection step The distance between each of the luminance values of the plurality of reference pixels and the point represented by the set of the luminance value of the target pixel is calculated.
In the object determining step, for each set of the target pixel and each reference pixel, it is determined whether or not the target pixel is a pixel representing an object based on the distance calculated in the distance calculating step. A logical operation is performed on the result to finally determine whether the target pixel is a pixel representing an object.
[0087]
As described above, in the present invention, a plurality of reference pixels are set for one target pixel, object detection is performed for each pair of the target pixel and each reference pixel, and finally, the target pixel is detected as an object by logical operation. Since it is determined whether or not the pixel is a pixel, the position of the object can be reliably specified even if the target pixel and the reference pixel are set apart from each other.
Accordingly, the reference pixel to be selected for each target pixel can be set apart from the target pixel by more than the size of the object, and as a result, the target pixel and the reference pixel are set close to each other. Thus, only the contour portion of the object is not detected.
In addition, as in the prior art described above, since whether or not the pixel of interest represents an image is determined based on the distance between the illumination variation background model and the luminance point in the luminance space, the illumination variation is large and frequently occurs In addition, an object can be detected with high accuracy and stability.
[0088]
In the object detection method of the present invention and the object detection program recorded on the computer-readable information recording medium of the present invention, the luminance value of each pixel of the photographed image is captured and stored in the first storage means in the image input step. In the horizontal reference point selection step, for each target horizontal pixel column composed of a plurality of pixels arranged in the horizontal direction in the captured image, a plurality of reference pixels included in the target horizontal pixel column are selected and the luminance of each reference pixel is selected. A value is obtained from the first storage means. Further, in the vertical reference point selection step, a plurality of reference pixels included in the target vertical pixel column are selected for each target vertical pixel column composed of a plurality of pixels arranged in the vertical direction in the captured image, and the luminance of each reference pixel is selected. A value is obtained from the first storage means.
In the horizontal background model creation step, the luminance values of the plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the horizontal reference point selection step are obtained from the first storage means, and the background luminance is obtained. A lighting fluctuation background model is created when the lighting changes due to the influence of lighting fluctuation, and in the vertical background model creation step, a plurality of background pixels in the background image respectively corresponding to the plurality of reference pixels selected in the vertical reference point selection step The luminance value of the pixel is obtained from the second storage means, and an illumination variation background model is created when the background luminance changes under the influence of illumination variation.
[0089]
Thereafter, in the horizontal distance calculation step, in a multidimensional luminance space, the distance between the illumination variation background model created in the horizontal background model creation step and the point represented by the plurality of luminance values acquired in the horizontal reference point selection step In the vertical distance calculation step, in the multidimensional luminance space, between the illumination variation background model created in the vertical background model creation step and the points represented by the plurality of luminance values obtained in the vertical reference point selection step Calculate the distance.
Then, in the object determination step, based on the distance calculated in the horizontal distance calculation step and the vertical distance calculation step, it is determined whether or not the pixel representing the object is included in the target horizontal pixel column and the target vertical pixel column, A logical operation is performed on the discrimination results relating to both pixel columns to identify a rectangular area including the object.
[0090]
Thus, in the present invention, calculation processing such as creation of a background model and calculation of the distance between the background model and the luminance point is performed for each horizontal pixel column, and similar calculation processing is performed for each vertical pixel column. Therefore, the total number of times of calculation processing is a value obtained by adding the number of pixels in the horizontal direction of the image to the number of pixels in the vertical direction of the image.
On the other hand, when calculation processing such as creating a background model for each pixel and calculating the distance between the background model and the luminance point is performed, the total number of calculation processing is the number of pixels in the horizontal direction of the image. , Multiplied by the number of pixels in the vertical direction of the image.
Therefore, according to the present invention, the fluctuation of the illumination is large and stable even when it frequently occurs, and the existence area of the object can be detected with high accuracy, and the calculation amount is greatly reduced. This is very advantageous for detecting an object and reducing the cost of the apparatus.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an object detection apparatus according to a first embodiment.
FIG. 2 is a flowchart showing an operation of the object detection apparatus of FIG.
3A is an explanatory diagram showing a positional relationship between a target point and a reference point on an image plane, FIG. 3B is a schematic diagram when an object has entered a shooting area, and FIG. 3C is a schematic diagram showing a detection result; FIG. 4D is another explanatory diagram showing the positional relationship between the attention point and the reference point on the image plane, FIG. 4E is another schematic diagram showing the detection result, and FIG. 4F is a schematic diagram showing the final detection result. FIG.
4A is a schematic diagram showing an original image of a black car running on a road, FIG. 4B is an explanatory diagram showing a detection result of a vehicle according to the prior art, and FIG. 4C is an embodiment of the present invention. It is explanatory drawing which shows the detection result of a vehicle.
FIG. 5 is a block diagram showing an object detection apparatus according to a second embodiment.
6 is a flowchart showing an operation of the object detection apparatus of FIG.
7A and 7B are diagrams for explaining the operation of the second embodiment, in which FIG. 7A is an explanatory diagram showing detection of a possible area of an object in the vertical direction, and FIG. 7B is an object in the horizontal direction; (C) is an explanatory view showing the detection result.
FIG. 8 is an explanatory diagram showing a background image.
FIG. 9 is an explanatory diagram showing a two-dimensional luminance space formed by luminance values of a target point and a reference point.
FIG. 10 is an explanatory diagram illustrating a captured image when an object enters the imaging region of the surveillance camera.
11A is an explanatory diagram illustrating an image plane, FIG. 11B is a schematic diagram when an object has entered a shooting area, and FIG. 11C is a schematic diagram illustrating a detection result;
[Explanation of symbols]
2 ... Object detection device, 4 ... Image input means, 6 ... Multiple reference point selection means, 8 ... Background image holding means, 10 ... Background model creation means, 12 ... Distance calculation means, 14 ... Object Discriminating means, 16 ... background creating means, 18 ... object detecting device, 20 ... multiple reference point selecting means, 22 ... background model creating means, 24 ... distance calculating means, 26 ... object discriminating means, 28 ... ... background creation means, 102 ... white dots, 104 ... straight lines, 106 ... white circle dots, 108 ... objects, 110 ... black dots.
Claims (4)
前記撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させる画像入力ステップと、
前記撮影画像の注目画素ごとに複数の参照画素を選択して、選択した複数の参照画素および前記注目画素の輝度値を前記第1の記憶手段から前記注目画素ごとに取得する複数参照点選択ステップと、
前記撮影画像の背景を成す背景画像の各画素の輝度値を第2の記憶手段に保持させる背景画像保持ステップと、
前記複数参照点選択ステップで選択した前記注目画素および同画素に対応する前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記第2の記憶手段から取得して、背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを前記注目画素と、同画素に対応する各参照画素との組ごとに作成する背景モデル作成ステップと、
輝度空間において、前記背景モデル作成ステップで前記注目画素と参照画素との前記組ごとに作成した前記照明変動背景モデルと、前記複数参照点選択ステップで前記注目画素ごとに取得した前記複数の参照画素の輝度値のそれぞれと前記注目画素の輝度値との組が表す点との間の距離をそれぞれ計算する距離計算ステップと、
前記注目画素と各参照画素との組ごとに、前記距離計算ステップで計算した前記距離にもとづいて前記注目画素が物体を表す画素か否かを判別し、前記組ごとの判別結果に対し論理演算を行って前記注目画素が物体を表す画素か否かを最終的に判別する物体判別ステップとを含むことを特徴とする物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体。A computer-readable information recording medium recording an object detection program for detecting an object using a captured image,
An image input step of capturing the luminance value of each pixel of the photographed image and holding it in the first storage means;
Multiple reference point selection step of selecting a plurality of reference pixels for each target pixel of the photographed image, and acquiring the selected reference pixels and luminance values of the target pixel from the first storage unit for each target pixel. When,
A background image holding step of holding the luminance value of each pixel of the background image forming the background of the photographed image in the second storage means;
The luminance values of the plurality of pixels in the background image respectively corresponding to the target pixel selected in the plurality of reference point selection step and the plurality of reference pixels corresponding to the pixel are acquired from the second storage unit, A background model creation step of creating a lighting variation background model for each set of the pixel of interest and each reference pixel corresponding to the pixel when the luminance of the background changes under the influence of illumination variation;
In a luminance space, the illumination variation background model created for each set of the target pixel and reference pixel in the background model creation step, and the plurality of reference pixels acquired for each target pixel in the multiple reference point selection step A distance calculation step of calculating a distance between each of the brightness values of the pixel and a point represented by the set of the brightness values of the target pixel,
For each set of the target pixel and each reference pixel, it is determined whether the target pixel is a pixel representing an object based on the distance calculated in the distance calculation step, and a logical operation is performed on the determination result for each set. And an object discrimination step for finally discriminating whether or not the target pixel is a pixel representing an object. A computer-readable information recording medium recording an object detection program.
前記撮影画像の各画素の輝度値を取り込んで第1の記憶手段に保持させる画像入力ステップと、
前記撮影画像において水平方向に配列された複数の画素から成る注目水平画素列ごとに、前記注目水平画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を前記第1の記憶手段から取得する水平参照点選択ステップと、
前記撮影画像において垂直方向に配列された複数の画素から成る注目垂直画素列ごとに、前記注目垂直画素列に含まれる複数の参照画素を選択して各参照画素の輝度値を前記第1の記憶手段から取得する垂直参照点選択ステップと、
前記撮影画像の背景を成す画像の各画素の輝度値を第2の記憶手段に保持させる背景画像保持ステップと、
前記水平参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記第2の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する水平背景モデル作成ステップと、
前記垂直参照点選択ステップで選択した前記複数の参照画素にそれぞれ対応する、前記背景画像における複数の画素の輝度値を前記第2の記憶手段から取得して背景の輝度が照明変動の影響を受けて変化した場合の照明変動背景モデルを作成する垂直背景モデル作成ステップと、
多次元輝度空間において、前記水平背景モデル作成ステップで作成した前記照明変動背景モデルと、前記水平参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算する水平距離計算ステップと、
多次元輝度空間において、前記垂直背景モデル作成ステップで作成した前記照明変動背景モデルと、前記垂直参照点選択ステップで取得した前記複数の輝度値が表す点との間の距離を計算する垂直距離計算ステップと、
前記水平距離計算ステップおよび前記垂直距離計算ステップで計算した前記距離にもとづいて、前記注目水平画素列および前記注目垂直画素列に物体を表す画素が含まれているか否かを判別し、両画素列に係わる判別結果に対して論理演算を行って物体を含む矩形領域を特定する物体判別ステップとを含むことを特徴とする物体検出プログラムを記録したコンピュータ読み取り可能な情報記録媒体。A computer-readable information recording medium recording an object detection program for detecting an object using a captured image,
An image input step of capturing the luminance value of each pixel of the photographed image and holding it in the first storage means;
For each target horizontal pixel column composed of a plurality of pixels arranged in the horizontal direction in the captured image, a plurality of reference pixels included in the target horizontal pixel column are selected, and the luminance value of each reference pixel is stored in the first storage. A horizontal reference point selection step acquired from the means;
For each target vertical pixel column composed of a plurality of pixels arranged in the vertical direction in the photographed image, a plurality of reference pixels included in the target vertical pixel column are selected, and the luminance value of each reference pixel is stored in the first storage. A vertical reference point selection step acquired from the means;
A background image holding step of holding the luminance value of each pixel of the image constituting the background of the captured image in the second storage means;
The luminance values of the plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the horizontal reference point selection step are obtained from the second storage means, and the background luminance is affected by illumination variation. A horizontal background model creation step for creating a lighting fluctuation background model when the
The luminance values of the plurality of pixels in the background image respectively corresponding to the plurality of reference pixels selected in the vertical reference point selection step are obtained from the second storage means, and the background luminance is affected by illumination variation. Vertical background model creation step to create a lighting fluctuation background model when changed
In a multidimensional luminance space, a horizontal distance calculation that calculates a distance between the illumination variation background model created in the horizontal background model creation step and a point represented by the plurality of luminance values acquired in the horizontal reference point selection step Steps,
Vertical distance calculation for calculating the distance between the illumination variation background model created in the vertical background model creation step and the point represented by the plurality of luminance values obtained in the vertical reference point selection step in a multidimensional luminance space Steps,
Based on the distance calculated in the horizontal distance calculation step and the vertical distance calculation step, it is determined whether or not the pixel representing the object is included in the target horizontal pixel column and the target vertical pixel column, and both pixel columns A computer-readable information recording medium having an object detection program recorded thereon, comprising: an object determination step of performing a logical operation on the determination result related to the above and identifying a rectangular area including the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003170951A JP4306333B2 (en) | 2003-06-16 | 2003-06-16 | Computer-readable information recording medium recording object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003170951A JP4306333B2 (en) | 2003-06-16 | 2003-06-16 | Computer-readable information recording medium recording object detection program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15792699A Division JP3465632B2 (en) | 1999-06-04 | 1999-06-04 | Object detection device and object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004030659A JP2004030659A (en) | 2004-01-29 |
JP4306333B2 true JP4306333B2 (en) | 2009-07-29 |
Family
ID=31185418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003170951A Expired - Fee Related JP4306333B2 (en) | 2003-06-16 | 2003-06-16 | Computer-readable information recording medium recording object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4306333B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4533836B2 (en) * | 2005-12-01 | 2010-09-01 | 株式会社東芝 | Fluctuating region detection apparatus and method |
-
2003
- 2003-06-16 JP JP2003170951A patent/JP4306333B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004030659A (en) | 2004-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3679512B2 (en) | Image extraction apparatus and method | |
US10762655B1 (en) | Disparity estimation using sparsely-distributed phase detection pixels | |
WO2019210555A1 (en) | People counting method and device based on deep neural network and storage medium | |
JP5279654B2 (en) | Image tracking device, image tracking method, and computer program | |
JP3684017B2 (en) | Image processing apparatus and method | |
CN111144213B (en) | Object detection method and related equipment | |
US8494267B2 (en) | Image processing device, image processing method, and program for normalizing a histogram | |
CN110572636B (en) | Camera contamination detection method and device, storage medium and electronic equipment | |
WO2020171379A1 (en) | Capturing a photo using a mobile device | |
US20190042869A1 (en) | Image processing apparatus and control method therefor | |
JP2020149641A (en) | Object tracking device and object tracking method | |
KR101321780B1 (en) | Image processing apparatus and image processing method | |
JP7312026B2 (en) | Image processing device, image processing method and program | |
JP6798609B2 (en) | Video analysis device, video analysis method and program | |
JP4496005B2 (en) | Image processing method and image processing apparatus | |
JP4328259B2 (en) | Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus | |
JP3534551B2 (en) | Motion detection device | |
CN111885371A (en) | Image occlusion detection method and device, electronic equipment and computer readable medium | |
JP4306333B2 (en) | Computer-readable information recording medium recording object detection program | |
JP3465632B2 (en) | Object detection device and object detection method | |
US9842406B2 (en) | System and method for determining colors of foreground, and computer readable recording medium therefor | |
JPH09265538A (en) | Automatic tracking device | |
JP2667885B2 (en) | Automatic tracking device for moving objects | |
JP6230345B2 (en) | Image processing method, image processing apparatus, and program | |
CN117593211B (en) | Video processing method, device, electronic equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090408 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090414 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090427 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120515 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130515 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140515 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |