JP2011013978A - Method and apparatus for detecting object based on estimation of background image - Google Patents

Method and apparatus for detecting object based on estimation of background image Download PDF

Info

Publication number
JP2011013978A
JP2011013978A JP2009158120A JP2009158120A JP2011013978A JP 2011013978 A JP2011013978 A JP 2011013978A JP 2009158120 A JP2009158120 A JP 2009158120A JP 2009158120 A JP2009158120 A JP 2009158120A JP 2011013978 A JP2011013978 A JP 2011013978A
Authority
JP
Japan
Prior art keywords
image
pixel
background image
normal distribution
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009158120A
Other languages
Japanese (ja)
Other versions
JP5388059B2 (en
Inventor
Seiji Ishikawa
聖二 石川
Joo Kooi Tan
ジュークイ タン
Makoto Miyoshi
誠 三好
Takashi Morie
隆 森江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu Institute of Technology NUC
Original Assignee
Kyushu Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu Institute of Technology NUC filed Critical Kyushu Institute of Technology NUC
Priority to JP2009158120A priority Critical patent/JP5388059B2/en
Publication of JP2011013978A publication Critical patent/JP2011013978A/en
Application granted granted Critical
Publication of JP5388059B2 publication Critical patent/JP5388059B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method and an apparatus for detecting objects based on estimation of a background image, capable of detecting the shape of a moving object with ease and at low cost, and thereby recognizing the movement or behavior of the moving object.SOLUTION: The method and apparatus for detecting objects use one image input means capable of moving slowly, and detect an image 11 of a moving object from the background image 10 of a plurality of image frames F, Ftaken at preset time intervals. For each pixel 12 forming the image frame F, a background image estimation means determines using the image frame Fthe normal distribution of density values of the pixel 12 forming the image frame F, estimates the background image 10 based on a comparison between the density value of each pixel 12 of the image frame Fand its normal distribution, and obtains the image 11 of the moving object.

Description

本発明は、徐行移動可能な1つの画像入力手段(例えば、カメラ)で撮影された画像フレームの背景画像から移動物体画像を検出する背景画像推定に基づく物体検出方法及び物体検出装置に関する。 The present invention relates to an object detection method and an object detection apparatus based on background image estimation for detecting a moving object image from a background image of an image frame photographed by one image input means (for example, a camera) that can move slowly.

移動するカメラで撮影された映像から移動物体を検出する技術は、自動車の安全走行や移動ロボットの環境認識などのために重要である。
従来法としては、ステレオカメラシステムによる検出方法(ステレオ法)が主体である(例えば、特許文献1〜3参照)。
A technique for detecting a moving object from an image captured by a moving camera is important for safe driving of a car and environment recognition of a mobile robot.
As a conventional method, a detection method (stereo method) using a stereo camera system is mainly used (see, for example, Patent Documents 1 to 3).

特開2001−243456号公報JP 2001-243456 A 特開2001−283203号公報JP 2001-283203 A 特開2004−280194号公報JP 2004-280194 A

しかしながら、ステレオカメラシステムを用いた場合、移動物体が存在する領域を検出することはできるが、その領域は枠で示されるため、物体の形状そのものの検出は簡単ではない。例えば、移動物体が人の場合、その領域を検出できても、人の動作や挙動までは分からない。
また、左右2台のカメラで取得した画像間の対応付けが必要であるが、人が行うほど正確な対応付けはできない。
更に、カメラが2台必要であり、設置するためのコストもかかる。
なお、従来の移動物体(障害物)の検出方法(ステレオ法)は、車載ビジョンにおいては、一般道路走行時の場合の検出方法が主であり、交差点付近のように移動速度が遅い場合の検出方法は少ない。
However, when a stereo camera system is used, an area where a moving object exists can be detected, but since the area is indicated by a frame, detection of the shape of the object itself is not easy. For example, when the moving object is a person, even if the area can be detected, the movement and behavior of the person are not known.
Moreover, although the correlation between the images acquired by the two cameras on the left and right is necessary, the correlation cannot be performed as accurately as humans do.
Furthermore, two cameras are required, and the cost for installation is high.
In addition, the conventional detection method (stereo method) for moving objects (obstacles) is mainly the detection method when driving on general roads in in-vehicle vision, and detection when the moving speed is slow, such as near an intersection. There are few ways.

本発明はかかる事情に鑑みてなされたもので、容易かつ低コストに移動物体の形状を検出でき、これによって移動物体の動作や挙動の認識も可能な背景画像推定に基づく物体検出方法及び物体検出装置を提供することを目的とする。 The present invention has been made in view of such circumstances, and an object detection method and object detection based on background image estimation that can detect the shape of a moving object easily and at a low cost, and can also recognize the movement and behavior of the moving object. An object is to provide an apparatus.

前記目的に沿う第1の発明に係る背景画像推定に基づく物体検出方法は、徐行移動可能な1つの画像入力手段を用い、予め設定した時間間隔で撮影された複数の画像フレームの背景画像から、移動物体画像を検出する物体検出方法であって、
前記各画像フレームを構成する画素ごとに濃度値の正規分布を求め、前記各画像フレームの各画素の濃度値の正規分布と該各画素の濃度値との比較から前記背景画像を推定し、前記移動物体画像を得る。
The object detection method based on the background image estimation according to the first invention in accordance with the above object uses a single image input means capable of slow movement, and from a background image of a plurality of image frames taken at a preset time interval, An object detection method for detecting a moving object image,
Obtaining a normal distribution of density values for each pixel constituting each image frame, estimating the background image from a comparison of the normal distribution of density values of each pixel of each image frame and the density value of each pixel, A moving object image is obtained.

第1の発明に係る背景画像推定に基づく物体検出方法において、前記背景画像は、前記画像フレームのうち、前の画像フレームAを構成する画素ごとの濃度値の正規分布Aを用いて、前記画像フレームAの各画素の位置と該画像フレームAの次の画像フレームBの各画素の位置との対応から、該画像フレームBを構成する画素ごとの濃度値の正規分布Bを求め、前記画像フレームBを構成する画素ごとの濃度値が、前記濃度値の正規分布Bの予め設定した値の範囲内か否かを基準に推定するのがよい。 In the object detection method based on background image estimation according to the first invention, the background image uses the normal distribution A of density values for each pixel constituting the previous image frame A out of the image frames. From the correspondence between the position of each pixel in the frame A and the position of each pixel in the next image frame B of the image frame A, a normal distribution B of density values for each pixel constituting the image frame B is obtained, and the image frame It is preferable to estimate based on whether the density value for each pixel constituting B is within a preset value range of the normal distribution B of density values.

第1の発明に係る背景画像推定に基づく物体検出方法において、前記前の画像フレームAのうち基準となる画像フレームは、該基準となる画像フレームを構成する各画素に濃度値の正規分布を与えて前記濃度値の正規分布Aとするのがよい。 In the object detection method based on background image estimation according to the first aspect of the invention, the reference image frame of the previous image frame A gives a normal distribution of density values to each pixel constituting the reference image frame. Thus, the normal distribution A of the density values is preferable.

第1の発明に係る背景画像推定に基づく物体検出方法において、前記背景画像と前記移動物体画像をそれぞれ構成する画素ごとの濃度値の正規分布を、新たに求めた濃度値で更新することが好ましい。 In the object detection method based on background image estimation according to the first invention, it is preferable that the normal distribution of density values for each pixel constituting the background image and the moving object image is updated with newly obtained density values. .

第1の発明に係る背景画像推定に基づく物体検出方法において、前記画像入力手段は、車載用カメラ又は移動ロボット用カメラであることが好ましい。 In the object detection method based on background image estimation according to the first invention, the image input means is preferably a vehicle-mounted camera or a mobile robot camera.

前記目的に沿う第2の発明に係る背景画像推定に基づく物体検出装置は、徐行移動可能な1つの画像入力手段を用い、予め設定した時間間隔で撮影された複数の画像フレームの背景画像から、移動物体画像を検出する物体検出装置であって、
前記各画像フレームを構成する画素ごとに濃度値の正規分布を求め、前記各画像フレームの各画素の濃度値の正規分布と該各画素の濃度値との比較から前記背景画像を推定し、該推定した前記背景画像から前記移動物体画像を得る背景画像推定手段を有する。
The object detection device based on the background image estimation according to the second invention according to the above object uses one image input means capable of slow movement, and from the background images of a plurality of image frames taken at a preset time interval, An object detection device for detecting a moving object image,
A normal distribution of density values is obtained for each pixel constituting each image frame, the background image is estimated from a comparison between the normal distribution of density values of each pixel of each image frame and the density value of each pixel, and A background image estimating means for obtaining the moving object image from the estimated background image;

第2の発明に係る背景画像推定に基づく物体検出装置において、前記背景画像推定手段は、前記画像フレームのうち、前の画像フレームAを構成する画素ごとの濃度値の正規分布Aを用いて、前記画像フレームAの各画素の位置と該画像フレームAの次の画像フレームBの各画素の位置との対応から、該画像フレームBを構成する画素ごとの濃度値の正規分布Bを求め、前記画像フレームBを構成する画素ごとの濃度値が、前記濃度値の正規分布Bの予め設定した値の範囲内か否かを基準に、前記背景画像を推定するのがよい。 In the object detection device based on the background image estimation according to the second invention, the background image estimation means uses a normal distribution A of density values for each pixel constituting the previous image frame A among the image frames. From the correspondence between the position of each pixel of the image frame A and the position of each pixel of the next image frame B of the image frame A, a normal distribution B of density values for each pixel constituting the image frame B is obtained, The background image may be estimated based on whether or not the density value of each pixel constituting the image frame B is within a preset value range of the normal distribution B of the density value.

第2の発明に係る背景画像推定に基づく物体検出装置において、前記背景画像推定手段は、前記前の画像フレームAのうち基準となる画像フレームの画素ごとの濃度値の正規分布Aを、該基準となる画像フレームを構成する各画素に濃度値の正規分布を与えて求めるのがよい。 In the object detection device based on background image estimation according to the second invention, the background image estimation means uses the normal distribution A of density values for each pixel of the reference image frame of the previous image frame A as the reference. It is preferable to obtain a normal distribution of density values for each pixel constituting the image frame.

第2の発明に係る背景画像推定に基づく物体検出装置において、更に、前記背景画像と前記移動物体画像をそれぞれ構成する画素ごとの濃度値の正規分布を、新たに求めた濃度値で更新する正規分布更新手段を備えることが好ましい。 In the object detection device based on background image estimation according to the second invention, the normal distribution of density values for each of the pixels constituting the background image and the moving object image is further updated with newly obtained density values. It is preferable to provide a distribution update means.

第2の発明に係る背景画像推定に基づく物体検出装置において、前記画像入力手段は、車載用カメラ又は移動ロボット用カメラであることが好ましい。 In the object detection device based on background image estimation according to the second invention, the image input means is preferably an in-vehicle camera or a mobile robot camera.

本発明に係る背景画像推定に基づく物体検出方法及び物体検出装置は、各画像フレームを構成する画素ごとに濃度値の正規分布を求め、各画像フレームの各画素の濃度値の正規分布と各画像フレーム上の各画素の濃度値とを比較するので、背景画像を推定でき、移動物体の画像が得られる。このように、背景画像の推定に、画像フレームを構成する画素ごとに求めた濃度値の正規分布を用いるので、直接移動物体の形状を求めることが可能となる。これにより、移動物体が例えば人の場合、特願2008−14124に記載の動体の動作認識方法等を用いることで、動作認識(歩く、走る、立ち止まる、しゃがむ、転ぶ等)も可能になる。
更に、移動物体の画像は、徐行移動可能な1つの画像入力手段により得られるため、従来のステレオ法と異なり、不安定性がある左右画像間の対応付け処理が不要である。また、カメラを2台用いるステレオ法よりも、コストを低く抑えることができ、経済的である。
An object detection method and an object detection device based on background image estimation according to the present invention obtain a normal distribution of density values for each pixel constituting each image frame, and obtain a normal distribution of density values of each pixel of each image frame and each image. Since the density value of each pixel on the frame is compared, the background image can be estimated and an image of the moving object can be obtained. Thus, since the normal distribution of the density values obtained for each pixel constituting the image frame is used for estimating the background image, the shape of the moving object can be directly obtained. Accordingly, when the moving object is a person, for example, motion recognition (walking, running, stopping, squatting, falling, etc.) can be performed by using the motion recognition method described in Japanese Patent Application No. 2008-14124.
Furthermore, since the image of the moving object is obtained by a single image input means capable of slow movement, unlike the conventional stereo method, it is not necessary to perform the association processing between the left and right images having instability. Moreover, the cost can be kept lower than the stereo method using two cameras, which is economical.

特に、背景画像と移動物体画像をそれぞれ構成する画素ごとの濃度値の正規分布を、新たに求めた濃度値で更新する場合、背景画像と移動物体画像の正規分布が、最新の情報に更新されるため、移動物体の検出精度が更に高められる。
また、画像入力手段が車載用カメラである場合、特に人(障害物)を検出することで、例えば、横断歩道等で危険な人物を判定し、警告信号をドライバーに与えることが可能になり、自動車運転の安全技術の向上に貢献できる。更に、画像入力手段が移動ロボット用カメラである場合、例えば、知能ロボットがこの機能を持てば、人の様々な活動を支援、あるいは保護することが可能になる。
In particular, when the normal distribution of density values for each pixel constituting the background image and the moving object image is updated with newly obtained density values, the normal distribution of the background image and the moving object image is updated to the latest information. Therefore, the detection accuracy of the moving object is further improved.
In addition, when the image input means is an in-vehicle camera, particularly by detecting a person (obstacle), for example, it is possible to determine a dangerous person on a pedestrian crossing and give a warning signal to the driver, It can contribute to the improvement of driving safety technology. Further, when the image input means is a mobile robot camera, for example, if the intelligent robot has this function, it becomes possible to support or protect various activities of a person.

本発明の一実施の形態に係る背景画像推定に基づく物体検出方法の準備工程の説明図である。It is explanatory drawing of the preparation process of the object detection method based on the background image estimation which concerns on one embodiment of this invention. 同物体検出方法の特徴点検出工程の説明図である。It is explanatory drawing of the feature point detection process of the same object detection method. 同物体検出方法の特徴点追跡工程の説明図である。It is explanatory drawing of the feature point tracking process of the same object detection method. 同物体検出方法のカメラ運動モデル推定工程の説明図である。It is explanatory drawing of the camera motion model estimation process of the same object detection method. 同物体検出方法の正規分布算出工程の説明図である。It is explanatory drawing of the normal distribution calculation process of the same object detection method. 同物体検出方法の移動物体画像検出工程の説明図である。It is explanatory drawing of the moving object image detection process of the same object detection method. 同物体検出方法の正規分布更新工程の説明図である。It is explanatory drawing of the normal distribution update process of the same object detection method. (A)は横断歩道手前で停止した車から撮影した原画像の写真、(B)は(A)の背景画像の写真、(C)は(A)から検出された人の写真である。(A) is a photograph of an original image taken from a car stopped in front of a pedestrian crossing, (B) is a photograph of a background image of (A), and (C) is a photograph of a person detected from (A). (A)は交差点を左折して停止した車から撮影した原画像の写真、(B)は(A)の背景画像の写真、(C)は(A)から検出された人の写真である。(A) is a photograph of an original image taken from a car that is turned left at an intersection, (B) is a photograph of a background image of (A), and (C) is a photograph of a person detected from (A).

続いて、添付した図面を参照しつつ、本発明を具体化した実施の形態につき説明し、本発明の理解に供する。
図1〜図7に示すように、本発明の一実施の形態に係る背景画像推定に基づく物体検出方法は、自動車に取付け固定された徐行移動可能な1つのカメラ(画像入力手段の一例)を用い、予め設定した時間間隔で撮影された複数の画像フレームの背景画像10から、人画像(移動物体画像の一例)11を検出する方法である。なお、撮影した複数の画像フレームは、時系列的に撮影されたものであり、前の画像フレームAを画像フレームFi−1とし、これに連続する次の画像フレームBを画像フレームFとして、全画像フレームの数をIとした場合、iは1以上I以下の正の整数である。以下、詳しく説明する。
Next, embodiments of the present invention will be described with reference to the accompanying drawings for understanding of the present invention.
As shown in FIGS. 1 to 7, the object detection method based on background image estimation according to an embodiment of the present invention includes a single camera (an example of an image input unit) that is attached and fixed to an automobile and that can move slowly. This is a method for detecting a human image (an example of a moving object image) 11 from background images 10 of a plurality of image frames taken at preset time intervals. The plurality of photographed image frames are photographed in time series, the previous image frame A is an image frame F i−1, and the next image frame B that is continuous thereto is an image frame F i. When the number of all image frames is I, i is a positive integer not less than 1 and not more than I. Details will be described below.

カメラは、自動車のフロント(運転席前方)に取付け固定された車載用カメラである。なお、カメラは、これに限定されるものではなく、例えば、移動ロボットに取付け固定される移動ロボット用カメラでもよい。
このカメラは、例えば、デジタルビデオカメラやCCDカメラである。なお、撮影した画像フレームのサイズ(画素数)は、例えば、(100〜500)×(100〜500)ピクセル程度である。また、画像フレームの撮影速度は、例えば、1秒あたり10〜100枚程度である。
このカメラによる撮影は、自動車が徐行移動するとき又は停止するときに行われる。ここで、徐行移動とは、例えば、上限が、10km/時間、更には5km/時間、下限が0を超え、又は1km/時間の速度を意味する。
The camera is an in-vehicle camera attached and fixed to the front of the automobile (front of the driver's seat). The camera is not limited to this, and may be, for example, a camera for a mobile robot that is attached and fixed to the mobile robot.
This camera is, for example, a digital video camera or a CCD camera. Note that the size (number of pixels) of the captured image frame is, for example, about (100 to 500) × (100 to 500) pixels. Also, the image frame shooting speed is, for example, about 10 to 100 frames per second.
The photographing by this camera is performed when the automobile moves slowly or stops. Here, slow movement means, for example, a speed having an upper limit of 10 km / hour, further 5 km / hour, a lower limit exceeding 0, or 1 km / hour.

この自動車(カメラ)が停止している場合、従来の方法では、1つのカメラで人画像の形状そのものの検出ができない。また、自動車(カメラ)が徐行移動する場合、撮影した複数の画像フレームにおいて、背景画像の位置も移動するため、各画像フレーム内の人画像を検出できない。ここで、徐行移動とは、例えば、走行中の自動車が停止しようとするときの速度や、一度停止した自動車が再度動き出すときの速度を意味する。
そこで、本実施の形態に係る物体検出方法を構成する以下の作業を、本発明の一実施の形態に係る背景画像推定に基づく物体検出装置(以下、単に物体検出装置ともいう)のコンピュータ(図示しない)内で計算して行い、コンピュータ内のプログラムにより画像処理して、人画像を検出する。このコンピュータは、RAM、CPU、ROM、I/O、及びこれらの要素を接続するバスを備えた従来公知のものであり、背景画像推定手段を有している。なお、物体検出装置は、上記したカメラも有している。
以下、カメラが徐行移動する場合について説明する。
When the automobile (camera) is stopped, the conventional method cannot detect the shape of the human image itself with one camera. In addition, when the automobile (camera) moves slowly, the position of the background image also moves in the plurality of captured image frames, so that a human image in each image frame cannot be detected. Here, slow travel means, for example, the speed at which a traveling automobile tries to stop, or the speed at which a once stopped automobile starts to move again.
Therefore, the following operations constituting the object detection method according to the present embodiment are performed by a computer (illustrated) of an object detection apparatus (hereinafter also simply referred to as an object detection apparatus) based on background image estimation according to an embodiment of the present invention. No), and the image is processed by a program in the computer to detect a human image. This computer is a conventionally known computer including a RAM, a CPU, a ROM, an I / O, and a bus for connecting these elements, and has a background image estimating means. Note that the object detection apparatus also includes the above-described camera.
Hereinafter, a case where the camera moves slowly will be described.

まず、i=1として、図1に示すように、画像フレームFの前の画像フレームである基準となる画像フレームFi−1(ここでは、最初の初期画像フレームであるが、複数の画像フレームのうちの途中の画像フレームでもよい)を構成する画素12ごとに、濃度値の正規分布Aを求める。なお、正規分布は、平均値μと分散σという2つのパラメータを持つ。ここで、平均値μは、背景画像の推定画素値を表すパラメータであり、移動平均モデルと同様の意味を持つ。また、分散σは、その画素における時間方向の画素値のばらつき(安定性)を表している。つまり、画素値の変化が少ない画素においては分散が小さく、変化が多い画素においては大きくなる。
濃度値の正規分布Aを求める処理は、カメラで撮影した画像フレームFi−1のデータを、コンピュータに送信して記憶手段に保存し、コンピュータ内の演算手段を用いて行う。なお、画像フレームFi−1の次の画像フレームFのデータも、コンピュータに送信して記憶手段に保存しておく。
First, i = 1, as shown in FIG. 1, the image frame F i-1 as a reference a previous image frame of the image frames F i (where is the first initial image frame, a plurality of images A normal distribution A of density values is obtained for each pixel 12 constituting an image frame in the middle of the frame). The normal distribution has two parameters, an average value μ and a variance σ 2 . Here, the average value μ is a parameter representing the estimated pixel value of the background image, and has the same meaning as the moving average model. Further, the variance σ 2 represents the variation (stability) of pixel values in the time direction in the pixel. That is, the variance is small for pixels with little change in pixel value, and is large for pixels with much change.
The processing for obtaining the normal distribution A of density values is performed by using the calculation means in the computer after transmitting the data of the image frame F i-1 captured by the camera to the computer and storing it in the storage means. The data of the image frame F i next to the image frame F i-1 is also transmitted to the computer and stored in the storage means.

各画素は、カラー画像の場合は、RGBで表現された色を有している。このRGBは、色の表現法の一種で、赤(Red)、緑(Green)、及び青(Blue)の3つの原色を混ぜて幅広い色を再現する加法混色の一種である。なお、各画素の色の表現は、RGBに限定されるものではなく、他の表現法で表現してもよい(例えば、画像合成などに使われる透過(透明度)を表現するアルファチャンネル(Alpha)が加わったRGBA等)。また、各画素は白黒で表現されてもよい。 In the case of a color image, each pixel has a color expressed in RGB. This RGB is a kind of color expression method, and is a kind of additive color mixture that reproduces a wide range of colors by mixing three primary colors of red (Red), green (Green), and blue (Blue). Note that the color representation of each pixel is not limited to RGB, and may be represented by other representation methods (for example, an alpha channel (Alpha) representing transparency (transparency) used for image composition) RGBA and so on). Each pixel may be expressed in black and white.

これにより、初期画像フレームFi−1上の画素p(x,y)に、RGBの濃度値の3次元の正規分布Ni−1(f;μ,Σ)(x,y)を与える。そして、これを、画像フレームFi−1を構成する全画素について行い、記憶手段に記憶する。
ただし、上記した濃度値の正規分布Ni−1(f;μ,Σ)(x,y)は、式(1)及び式(2)で示される。
As a result, a three-dimensional normal distribution N i−1 (f; μ, Σ) (x, y) of RGB density values is given to the pixel p (x, y) on the initial image frame F i−1 . This is performed for all the pixels constituting the image frame F i-1 and stored in the storage means.
However, the normal distribution N i-1 (f; μ, Σ) (x, y) of the above-described concentration value is expressed by the equations (1) and (2).

ここで、Σは、一例として、RGBの各成分が独立で同じ大きさの分散を持つと仮定した場合の共分散行列を示している。この仮定によれば、逆行列の計算等の複雑な計算を避けることができ、高速な処理が可能となる(以上、準備工程)。 Here, Σ represents, as an example, a covariance matrix when it is assumed that each component of RGB is independent and has the same variance. According to this assumption, complicated calculation such as calculation of an inverse matrix can be avoided, and high-speed processing is possible (the preparation process).

次に、コンピュータの記憶手段に保存された画像フレームFi−1に対し、特徴点検出法(例えば、Harris operator)を適用する。これにより、図2に示すように、太線の○印で囲まれたK個の特徴点Pk,i−1(k=1、2、・・・、K)を求めることができるので、これを記憶手段に記憶する。なお、特徴点の個数は、計算の処理速度にもよるが、例えば、50個以上500個以下程度(ここでは、100個以上200個以下)である。
このように、特徴点検出法を用いることで、画像フレームFi−1内で対応の取り易い(動きベクトルを算出し易い)特徴点を検出でき、画像フレームFi−1内の任意の点で動きベクトルを求めようとした場合に発生する誤差を小さくできる(以上、特徴点検出工程)。
Next, a feature point detection method (for example, Harris operator) is applied to the image frame F i-1 stored in the storage means of the computer. As a result, as shown in FIG. 2, K feature points P k, i-1 (k = 1, 2,..., K) surrounded by thick circles can be obtained. Is stored in the storage means. The number of feature points depends on the calculation processing speed, but is, for example, about 50 or more and 500 or less (here, 100 or more and 200 or less).
As described above, by using the feature point detection method, it is possible to detect feature points that are easily taken in the image frame F i-1 (easy to calculate a motion vector), and any point in the image frame F i-1 can be detected. The error that occurs when trying to obtain the motion vector can be reduced (the feature point detection step).

そして、図3に示すように、コンピュータの記憶手段に保存された画像フレームF上で、上記した特徴点Pk,i−1に対応する点Pk,iを、特徴点追跡法(例えば、L−K法:Lucas−Kanade法、局所勾配法)を用いて求める。このL−K法は、注目点近傍の小領域画素の動きベクトルを、注目点の動きベクトルと同一と仮定し、注目画素近傍の拘束方程式の線形解法を用いて動きベクトルを算出する方法である。
これにより、図3に示すように、画像フレームFi−1内の特徴点Pk,i−1(図3の細線の○印で囲まれた位置)が、画像フレームF内のどの位置(図3の太線の○印で囲まれた位置、即ち対応点Pa(k),i)に対応しているのかを検出し、これを記憶手段に記憶する。
Then, as shown in FIG. 3, on an image frame F i stored in the storage means of the computer, the feature points and the P k, P k point corresponding to i-1, a i, feature point tracking method (e.g. , LK method: Lucas-Kanade method, local gradient method). This LK method is a method of calculating a motion vector using a linear solution of a constraint equation in the vicinity of the target pixel, assuming that the motion vector of the small region pixel in the vicinity of the target point is the same as the motion vector of the target point. .
As a result, as shown in FIG. 3, the position of the feature point P k, i-1 in the image frame F i- 1 (the position surrounded by the circle of the thin line in FIG. 3) in the image frame F i It is detected whether it corresponds to ( a position surrounded by a thick circle in FIG. 3, that is, the corresponding point P a (k), i ), and this is stored in the storage means.

なお、L−K法は、大きな動きに弱いという欠点があるため、画像の解像度階層構造を利用した改良法を用いることもできる。
この手法では、2枚の画像をそれぞれ順次圧縮して、ピラミッド形状の階層構造を作成する。画像フレーム上の動きは、解像度が低いほど小さくなる。このことを利用して、解像度の低い画像から、L−K法により動きベクトルを推定し、その結果を次の階層の動きベクトル推定の初期値として用いる。この処理を原画像のサイズになるまで繰返すことにより、L−K法は比較的大きな動きに対応することができる(以上、特徴点追跡工程)。
Note that the LK method has a drawback that it is vulnerable to a large movement, and therefore an improved method using the resolution hierarchical structure of an image can be used.
In this method, two images are sequentially compressed to create a pyramid-shaped hierarchical structure. The movement on the image frame becomes smaller as the resolution is lower. Using this fact, a motion vector is estimated from an image with low resolution by the LK method, and the result is used as an initial value for motion vector estimation of the next layer. By repeating this process until the size of the original image is reached, the LK method can cope with a relatively large movement (the feature point tracking step).

次に、コンピュータの記憶手段に記憶させた特徴点とその対応点のセット(Pk,i−1,Pa(k),i)(k=1、2、・・・、K;a(k)はkに対応する特徴点の番号を与える関数)を用いて、図4に示すように、画像フレームFi−1と画像フレームFの間の2次元射影変換Ti−1→iを求める。これにより、画像フレームFi−1と画像フレームFのペアから、特徴点の移動時の規則性(式)を求めることができるので、これを記憶手段に記憶させる。
なお、このとき、RANSAC(RANdom SAmple Consensus)を用いて、局所的な動き(アウトライア)となる対応点のセットを除き、これを記憶手段に記憶させる。
Next, a set of feature points and corresponding points stored in the storage means of the computer (P k, i−1 , P a (k), i ) (k = 1, 2,..., K; a ( k) by using a function) that gives the number of the feature points corresponding to k, as shown in FIG. 4, two-dimensional projective transformation between image frames F i-1 and the image frame F i T i-1 i Ask for. Thereby, since the regularity (formula) at the time of the movement of the feature point can be obtained from the pair of the image frame F i-1 and the image frame F i , this is stored in the storage means.
At this time, RANSAC (RANdom Sample Consensus) is used to remove a set of corresponding points that cause local motion (outlier), and this is stored in the storage means.

RANSACを用いることにより、ランダムサンプリングに基づき、画像フレーム内の動きを、大局的な動き(インライア)と局所的な動きのいずれかに判別できる。このRANSACを用いたカメラ運動モデルのパラメータ推定アルゴリズムを、以下に示す。
1)全ての動きベクトル内からランダムにR個のベクトルを選択する。
2)選択されたベクトルを用いて最小二乗法でモデルパラメータを計算する。
3)全ての算出された動きベクトル(u、v)において、得られたモデルパラメータで計算されるモデルベクトル(mu、mv)との誤差E={(u−mu)+(v−mv)1/2を測定し、誤差Eが閾値内に入るベクトル(インライア)の数を測定する。
4)上記1)〜3)を十分多数回繰返す。
5)最も多くのインライアが得られたモデルパラメータにおける全てのインライアを用いて、最終的なモデルパラメータを計算する(以上、カメラ運動モデル推定工程)。
By using RANSAC, based on random sampling, a motion in an image frame can be discriminated as either a global motion (inlier) or a local motion. A camera motion model parameter estimation algorithm using this RANSAC is shown below.
1) R vectors are randomly selected from all motion vectors.
2) The model parameter is calculated by the least square method using the selected vector.
3) The error E = {(u−mu) 2 + (v−mv) with respect to the model vector (mu, mv) calculated with the obtained model parameter in all calculated motion vectors (u, v). 2 } 1/2 is measured, and the number of vectors (inliers) whose error E falls within the threshold is measured.
4) Repeat the above 1) to 3) sufficiently many times.
5) The final model parameters are calculated using all the inliers in the model parameters from which the most inliers are obtained (the camera motion model estimation step).

続いて、画像フレームF上で、画素p(x,y)のRGBの濃度値の正規分布N(f;μ,Σ)(x,y)を求める。
具体的には、図5に示すように、画像フレームF上の各画素pの位置(x,y)に対応する画像フレームFi−1上の点(x,y)i−1を、上記した2次元射影変換Ti−1→iの逆変換を用いて求める(図5に示す点線矢印)。そして、点(x,y)i−1の最近傍の4画素(テクスチャのある画素)の正規分布から、双線形補間によりRGBの各平均値μ、μ、μと分散σを求め、これを画素pの位置(x,y)の濃度値の正規分布N(f;μ,Σ)(x,y)とする。
Subsequently, the normal distribution N i (f; μ, Σ) (x, y) of the RGB density values of the pixel p (x, y) is obtained on the image frame F i .
Specifically, as shown in FIG. 5, a point (x, y) i-1 on the image frame F i-1 corresponding to the position (x, y) i of each pixel p on the image frame F i is represented by , Using the inverse transformation of the two-dimensional projective transformation T i-1 → i described above (dotted line arrow shown in FIG. 5). Then, the RGB average values μ R , μ G , μ B and variance σ 2 are obtained by bilinear interpolation from the normal distribution of four pixels (texture pixels) nearest to the point (x, y) i−1. This is obtained, and this is set as a normal distribution N i (f; μ, Σ) (x, y) of the density value at the position (x, y) i of the pixel p.

以上の手続きを、画像フレームF上の全画素について行い、これを記憶手段に記憶させる。
このように、画像フレームFを構成する画素ごとの濃度値の正規分布N(f;μ,Σ)(x,y)を、カメラの移動に伴う画像フレームFi−1の各画素p´の点(x,y)i−1の位置と画像フレームFの各画素pの位置(x,y)との対応から、画像フレームFi−1の画素ごとの濃度値の正規分布Ni−1(f;μ,Σ)(x,y)を用いて求めることができる(以上、正規分布算出工程)。
The above procedure is performed for all pixels in the image frame F i, and stores it in the storage means.
In this way, the normal distribution N i (f; μ, Σ) (x, y) of the density value for each pixel constituting the image frame F i is represented by each pixel p of the image frame F i−1 as the camera moves. point '(x, y) position of each pixel p of i-1 positions the image frame F i (x, y) from the correspondence between the i, normal distribution of the density values of each pixel in the image frame F i-1 N i-1 (f; μ, Σ) (x, y) can be used for the calculation (the normal distribution calculating step).

そして、コンピュータの演算手段で求めた画像フレームF上の画素pの位置(x,y)のRGBの濃度値f、f、fが、式(3)を満たせば、画素pは背景画像を構成する画素(B)、満たさなければ前景である人画像を構成する画素(F)とする。なお、式(3)のTσは、閾値定数である。また、画素pの位置(x,y)のRGBの濃度値f、f、f(画素値)は、画像フレームFを構成する画素ごとの値であり、濃度値と濃度値の正規分布とは、前者が特定の数値であるのに対し、後者は画像ノイズや画像フレーム間の明るさの変化等によるその数値の広がり(分布)を表すという点で異なる。
同様の処理を全画素に対して行うことで、画像フレームF上の前景画素(F)が得られるため、これを記憶手段に記憶させる。
Then, if the RGB density values f R , f G , and f B at the position (x, y) i of the pixel p on the image frame F i obtained by the computing means of the computer satisfy Expression (3), the pixel p Is a pixel (B) constituting a background image, and if not satisfied, a pixel (F) constituting a human image as a foreground. Note that Tσ in Expression (3) is a threshold constant. Further, the RGB density values f R , f G , and f B (pixel values) at the position (x, y) i of the pixel p are values for each pixel constituting the image frame F i. Is different from the normal distribution in that the former is a specific numerical value, whereas the latter represents a spread (distribution) of the numerical value due to image noise, a change in brightness between image frames, or the like.
The same process by performing for all pixels, since the foreground pixels of the image frame F i (F) is obtained, this is stored in storage means.

具体的には、図6に示すように、画像フレームFを構成する画素pの位置(x,y)ごとのRGBの濃度値f、f、fが、画像フレームFの濃度値の正規分布N(f;μ,Σ)(x,y)の予め設定した値(ここでは、σ)の範囲内か否かの基準により、背景か前景かを推定する。
なお、背景とは、カメラの位置が移動する場合、その動きがカメラの動きのみに起因する画素の集合を意味し(静止カメラの場合、連続した画像フレーム間で静止した画素の集合を意味する)、前景とは、背景以外の画素の集合を意味する。
これにより、画像フレームFi−1、Fを構成する画素ごとに求めた濃度値の正規分布Ni−1(f;μ,Σ)(x,y)、N(f;μ,Σ)(x,y)から、カメラの移動に伴って移動する背景画像を推定できる(以上、移動物体画像検出工程)。
以上に示した背景画像の推定は、コンピュータ内の背景画像推定手段により処理して行う。
Specifically, as shown in FIG. 6, the RGB density values f R , f G , and f B for each position (x, y) i of the pixel p constituting the image frame F i are the values of the image frame F i . The background or the foreground is estimated based on whether or not the normal distribution N i (f; μ, Σ) (x, y) of the density value is within a preset value (here, σ).
The background means a set of pixels whose movement is caused only by the movement of the camera when the position of the camera moves (in the case of a still camera, it means a set of pixels that are stationary between consecutive image frames). ), Foreground means a set of pixels other than the background.
As a result, the normal distributions N i−1 (f; μ, Σ) (x, y) and N i (f; μ, Σ of density values obtained for the pixels constituting the image frames F i−1 and F i are obtained. ) From (x, y) , the background image that moves with the movement of the camera can be estimated (the moving object image detection step).
The background image estimation described above is performed by processing by background image estimation means in the computer.

なお、背景画像10と人画像11をそれぞれ構成する画素12ごとの濃度値の正規分布は、図7に示すように、新たに得られた濃度値で更新することが好ましい。
具体的には、式(4)〜式(7)を使用して画素pの位置(x,y)の正規分布を更新する。なお、更新は、背景画素(background pixel)か前景画素(foreground pixel)かに応じて、異なる更新式を用いて行われる。
It should be noted that the normal distribution of density values for each pixel 12 constituting the background image 10 and the person image 11 is preferably updated with newly obtained density values as shown in FIG.
Specifically, the normal distribution of the position (x, y) i of the pixel p is updated using Expressions (4) to (7). The update is performed using different update formulas depending on whether the pixel is a background pixel or a foreground pixel.

ここで、f(x,y)は、サンプル時刻iにおける画素pの位置(x,y)の濃度値、αは式(5)で定義される変動学習率、βは式(6)で定義されるように、前景抽出連続フレーム数C(x,y)(サンプル時刻iにおいて、画素pの位置(x,y)がiまでに連続して前景と判定された回数)による変動学習率である。また、式(5)のcは正規化定数、式(6)のkは実験で決められる定数である。
この更新式である式(4)と式(7)により、新たな正規分布N (f;μ(x,y)が得られる。このように、新たに求めた(得られた)濃度値を用いて正規分布を更新し、これを画素pの位置(x,y)の新しい正規分布N(f;μ,Σ)(x,y)とする。
この手続きを、全画素に対して行い、記憶手段に記憶させる(以上、正規分布更新工程)。
このように、正規分布の更新を行う場合は、コンピュータ内に更に正規分布更新手段を設けて行う。
Here, f i (x, y) is the density value at the position (x, y) of the pixel p at the sample time i, α is the variation learning rate defined by the equation (5), and β is the equation (6). As defined, variation learning based on the number of consecutive foreground extracted frames C i (x, y) (the number of times that the position (x, y) of the pixel p is determined to be the foreground consecutively by i at the sample time i) Rate. Also, c in equation (5) is a normalization constant, and k in equation (6) is a constant determined by experiment.
A new normal distribution N i # (f; μ # , Σ # ) (x, y) is obtained from the updating formulas (4) and (7). In this way, the normal distribution is updated using the newly obtained (obtained) density value, and this is updated with the new normal distribution N i (f; μ, Σ) (at the position (x, y) i of the pixel p. x, y) .
This procedure is performed for all the pixels and stored in the storage means (the normal distribution updating step).
As described above, when the normal distribution is updated, a normal distribution update means is further provided in the computer.

次に、i=2として、以上に示した特徴点検出工程、特徴点追跡工程、カメラ運動モデル推定工程、正規分布算出工程、移動物体画像検出工程、及び正規分布更新工程を、順次行う。このとき、画像フレームFi−1の次の画像フレームFのデータは、特徴点検出工程でコンピュータに送信して記憶手段に保存する。
更に、i:=i+1として、i≦I(全画像フレーム数)の間、上記工程を順次行う処理を繰り返して、全画像フレームの処理を終わらせる。
以上により、推定された背景画像10上の画素ごとの正規分布と、画像フレームF上の各画素の濃度値との比較により、人画像11が得られる。
以上に示した背景画像の推定と人画像の検出は、コンピュータ内の背景画像推定手段により処理して行う。
従って、カメラが徐行移動し、画像フレームFi−1、F上で背景画像10の位置が移動しても、人画像11を検出でき、且つその形状を認識できる。なお、カメラが停止している場合においても、人画像の形状を認識できる。
Next, assuming i = 2, the above-described feature point detection step, feature point tracking step, camera motion model estimation step, normal distribution calculation step, moving object image detection step, and normal distribution update step are sequentially performed. At this time, the data of the image frame F i next to the image frame F i-1 is transmitted to the computer and stored in the storage means in the feature point detection step.
Further, assuming that i: = i + 1, the process of sequentially performing the above steps is repeated for i ≦ I (the number of all image frames), and the process for all image frames is completed.
Thus, the normal distribution of each pixel on the background image 10 that has been estimated by comparing the density value of each pixel on the image frame F i, human image 11 is obtained.
The background image estimation and human image detection described above are performed by background image estimation means in the computer.
Therefore, even if the camera moves slowly and the position of the background image 10 moves on the image frames F i-1 and F i , the human image 11 can be detected and its shape can be recognized. Note that the shape of the human image can be recognized even when the camera is stopped.

次に、本発明の作用効果を確認するために行った実施例について説明する。
ここでは、カメラには車載用カメラを使用し、横断歩道手前で停止した車から撮影した場合と、交差点を左折して停止した車から撮影した場合の2例について、画像フレームから人画像を検出した結果について説明する。
なお、撮影した画像フレームのサイズは、320×220ピクセル、また、画像フレームの撮影速度は、1秒あたり30枚である。
Next, examples carried out for confirming the effects of the present invention will be described.
In this example, a camera is mounted on the camera, and human images are detected from the image frames for two cases: shooting from a car stopped in front of a pedestrian crossing and shooting from a car stopped by turning left at an intersection. The results will be described.
Note that the size of the captured image frame is 320 × 220 pixels, and the imaging speed of the image frame is 30 frames per second.

まず、横断歩道手前で停止した車から撮影した原画像を用いて、人画像を検出した結果について、図8(A)〜(C)を参照しながら説明する。
図8(A)に示す原画像に対し、前記した本発明の背景画像推定に基づく物体検出方法を適用することで、図8(B)に示す原画像の背景画像を推定でき、これにより、図8(C)に示す原画像から人画像を検出できることを確認できた。
First, a result of detecting a human image using an original image taken from a car stopped in front of a pedestrian crossing will be described with reference to FIGS.
By applying the object detection method based on the background image estimation of the present invention described above to the original image shown in FIG. 8A, the background image of the original image shown in FIG. 8B can be estimated. It was confirmed that a human image can be detected from the original image shown in FIG.

次に、交差点を左折して停止した車から撮影した原画像を用いて、人画像を検出した結果について、図9(A)〜(C)を参照しながら説明する。
図9(A)に示す原画像に対し、前記した本発明の背景画像推定に基づく物体検出方法を適用することで、図9(B)に示す原画像の背景画像を推定でき、これにより、図9(C)に示す原画像から人画像を検出できることを確認できた。
Next, the result of detecting a human image using an original image taken from a car that has turned left at an intersection will be described with reference to FIGS.
By applying the object detection method based on the background image estimation of the present invention described above to the original image shown in FIG. 9 (A), the background image of the original image shown in FIG. 9 (B) can be estimated. It was confirmed that a human image can be detected from the original image shown in FIG.

以上から、本発明の背景画像推定に基づく物体検出方法及び物体検出装置を使用することで、容易かつ低コストに移動物体の形状を検出できることを確認できた。その結果、例えば、特願2008−14124に記載の動体の動作認識方法等を用いることで、移動物体の動作や挙動の認識も可能となる。 From the above, it was confirmed that the shape of the moving object can be detected easily and at low cost by using the object detection method and the object detection device based on the background image estimation of the present invention. As a result, for example, by using the motion recognition method described in Japanese Patent Application No. 2008-14124, the motion and behavior of the moving object can be recognized.

以上、本発明を、実施の形態を参照して説明してきたが、本発明は何ら上記した実施の形態に記載の構成に限定されるものではなく、特許請求の範囲に記載されている事項の範囲内で考えられるその他の実施の形態や変形例も含むものである。例えば、前記したそれぞれの実施の形態や変形例の一部又は全部を組合せて本発明の背景画像推定に基づく物体検出方法及び物体検出装置を構成する場合も本発明の権利範囲に含まれる。 As described above, the present invention has been described with reference to the embodiment. However, the present invention is not limited to the configuration described in the above embodiment, and the matters described in the scope of claims. Other embodiments and modifications conceivable within the scope are also included. For example, a case where an object detection method and an object detection apparatus based on background image estimation according to the present invention are configured by combining some or all of the above-described embodiments and modifications is also included in the scope of the present invention.

本発明の背景画像推定に基づく物体検出方法及び物体検出装置は、例えば、各種乗り物(例えば、自動車、バス、電車)に設けられる安全システムや、移動ロボットの視覚情報処理システムに利用できる。 The object detection method and object detection apparatus based on background image estimation of the present invention can be used for, for example, a safety system provided in various vehicles (for example, automobiles, buses, trains) and a visual information processing system of a mobile robot.

10:背景画像、11:人画像(移動物体画像)、12:画素 10: background image, 11: human image (moving object image), 12: pixel

Claims (10)

徐行移動可能な1つの画像入力手段を用い、予め設定した時間間隔で撮影された複数の画像フレームの背景画像から、移動物体画像を検出する物体検出方法であって、
前記各画像フレームを構成する画素ごとに濃度値の正規分布を求め、前記各画像フレームの各画素の濃度値の正規分布と該各画素の濃度値との比較から前記背景画像を推定し、前記移動物体画像を得ることを特徴とする背景画像推定に基づく物体検出方法。
An object detection method for detecting a moving object image from background images of a plurality of image frames taken at a preset time interval using one image input means capable of slow movement,
Obtaining a normal distribution of density values for each pixel constituting each image frame, estimating the background image from a comparison of the normal distribution of density values of each pixel of each image frame and the density value of each pixel, An object detection method based on background image estimation, characterized by obtaining a moving object image.
請求項1記載の背景画像推定に基づく物体検出方法において、前記背景画像は、前記画像フレームのうち、前の画像フレームAを構成する画素ごとの濃度値の正規分布Aを用いて、前記画像フレームAの各画素の位置と該画像フレームAの次の画像フレームBの各画素の位置との対応から、該画像フレームBを構成する画素ごとの濃度値の正規分布Bを求め、前記画像フレームBを構成する画素ごとの濃度値が、前記濃度値の正規分布Bの予め設定した値の範囲内か否かを基準に推定することを特徴とする背景画像推定に基づく物体検出方法。 2. The object detection method based on background image estimation according to claim 1, wherein the background image uses the normal distribution A of density values for each pixel constituting the previous image frame A out of the image frames. From the correspondence between the position of each pixel of A and the position of each pixel of the image frame B next to the image frame A, a normal distribution B of density values for each pixel constituting the image frame B is obtained, and the image frame B An object detection method based on background image estimation, wherein a density value for each pixel constituting the pixel is estimated based on whether or not the density value is within a preset value range of the normal distribution B of density values. 請求項2記載の背景画像推定に基づく物体検出方法において、前記前の画像フレームAのうち基準となる画像フレームは、該基準となる画像フレームを構成する各画素に濃度値の正規分布を与えて前記濃度値の正規分布Aとすることを特徴とする背景画像推定に基づく物体検出方法。 3. The object detection method based on background image estimation according to claim 2, wherein a reference image frame of the previous image frame A is obtained by giving a normal distribution of density values to each pixel constituting the reference image frame. An object detection method based on background image estimation, wherein the density distribution is a normal distribution A. 請求項1〜3のいずれか1項に記載の背景画像推定に基づく物体検出方法において、前記背景画像と前記移動物体画像をそれぞれ構成する画素ごとの濃度値の正規分布を、新たに求めた濃度値で更新することを特徴とする背景画像推定に基づく物体検出方法。 4. The object detection method based on background image estimation according to claim 1, wherein a normal distribution of density values for each pixel constituting each of the background image and the moving object image is newly obtained. An object detection method based on background image estimation, characterized by being updated with a value. 請求項1〜4のいずれか1項に記載の背景画像推定に基づく物体検出方法において、前記画像入力手段は、車載用カメラ又は移動ロボット用カメラであることを特徴とする背景画像推定に基づく物体検出方法。 5. The object detection method according to claim 1, wherein the image input means is an in-vehicle camera or a mobile robot camera. Detection method. 徐行移動可能な1つの画像入力手段を用い、予め設定した時間間隔で撮影された複数の画像フレームの背景画像から、移動物体画像を検出する物体検出装置であって、
前記各画像フレームを構成する画素ごとに濃度値の正規分布を求め、前記各画像フレームの各画素の濃度値の正規分布と該各画素の濃度値との比較から前記背景画像を推定し、該推定した前記背景画像から前記移動物体画像を得る背景画像推定手段を有することを特徴とする背景画像推定に基づく物体検出装置。
An object detection device that detects a moving object image from background images of a plurality of image frames taken at a preset time interval using one image input means capable of slow movement,
A normal distribution of density values is obtained for each pixel constituting each image frame, the background image is estimated from a comparison between the normal distribution of density values of each pixel of each image frame and the density value of each pixel, and An object detection apparatus based on background image estimation, comprising background image estimation means for obtaining the moving object image from the estimated background image.
請求項6記載の背景画像推定に基づく物体検出装置において、前記背景画像推定手段は、前記画像フレームのうち、前の画像フレームAを構成する画素ごとの濃度値の正規分布Aを用いて、前記画像フレームAの各画素の位置と該画像フレームAの次の画像フレームBの各画素の位置との対応から、該画像フレームBを構成する画素ごとの濃度値の正規分布Bを求め、前記画像フレームBを構成する画素ごとの濃度値が、前記濃度値の正規分布Bの予め設定した値の範囲内か否かを基準に、前記背景画像を推定することを特徴とする背景画像推定に基づく物体検出装置。 7. The object detection device based on background image estimation according to claim 6, wherein the background image estimation means uses the normal distribution A of density values for each pixel constituting the previous image frame A out of the image frames. From the correspondence between the position of each pixel in the image frame A and the position of each pixel in the next image frame B of the image frame A, a normal distribution B of density values for each pixel constituting the image frame B is obtained, and the image Based on background image estimation, wherein the background image is estimated based on whether or not the density value for each pixel constituting the frame B is within a preset value range of the normal distribution B of the density value Object detection device. 請求項7記載の背景画像推定に基づく物体検出装置において、前記背景画像推定手段は、前記前の画像フレームAのうち基準となる画像フレームの画素ごとの濃度値の正規分布Aを、該基準となる画像フレームを構成する各画素に濃度値の正規分布を与えて求めることを特徴とする背景画像推定に基づく物体検出装置。 8. The object detection apparatus based on background image estimation according to claim 7, wherein the background image estimation means uses a normal distribution A of density values for each pixel of a reference image frame of the previous image frame A as the reference. An object detection apparatus based on background image estimation, wherein a normal distribution of density values is given to each pixel constituting an image frame. 請求項6〜8のいずれか1項に記載の背景画像推定に基づく物体検出装置において、更に、前記背景画像と前記移動物体画像をそれぞれ構成する画素ごとの濃度値の正規分布を、新たに求めた濃度値で更新する正規分布更新手段を備えることを特徴とする背景画像推定に基づく物体検出装置。 The object detection device based on background image estimation according to any one of claims 6 to 8, further newly obtaining a normal distribution of density values for each pixel constituting each of the background image and the moving object image. An object detection apparatus based on background image estimation, comprising normal distribution updating means for updating with a density value. 請求項6〜9のいずれか1項に記載の背景画像推定に基づく物体検出装置において、前記画像入力手段は、車載用カメラ又は移動ロボット用カメラであることを特徴とする背景画像推定に基づく物体検出装置。 10. An object detection apparatus based on background image estimation according to claim 6, wherein the image input means is an in-vehicle camera or a mobile robot camera. Detection device.
JP2009158120A 2009-07-02 2009-07-02 Object detection method and object detection apparatus based on background image estimation Active JP5388059B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009158120A JP5388059B2 (en) 2009-07-02 2009-07-02 Object detection method and object detection apparatus based on background image estimation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009158120A JP5388059B2 (en) 2009-07-02 2009-07-02 Object detection method and object detection apparatus based on background image estimation

Publications (2)

Publication Number Publication Date
JP2011013978A true JP2011013978A (en) 2011-01-20
JP5388059B2 JP5388059B2 (en) 2014-01-15

Family

ID=43592784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009158120A Active JP5388059B2 (en) 2009-07-02 2009-07-02 Object detection method and object detection apparatus based on background image estimation

Country Status (1)

Country Link
JP (1) JP5388059B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097390A (en) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp Own vehicle travel estimation method and own vehicle travel estimation program
WO2014027551A1 (en) * 2012-08-16 2014-02-20 ソニー株式会社 Image processing device, image processing method, and program
JP2014165801A (en) * 2013-02-27 2014-09-08 Canon Inc Color tracking device, control method thereof and control program
JP2018506768A (en) * 2015-02-16 2018-03-08 アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド Method and apparatus for estimating car egomotion from surround view images
JPWO2018139461A1 (en) * 2017-01-30 2019-11-14 日本電気株式会社 Moving object detection apparatus, moving object detection method, and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031939A (en) * 2007-07-25 2009-02-12 Advanced Telecommunication Research Institute International Image processing apparatus, method and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031939A (en) * 2007-07-25 2009-02-12 Advanced Telecommunication Research Institute International Image processing apparatus, method and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200800957001; 三好 誠他: '逐次背景推定による移動物体検出' 情報処理学会研究報告 Vol.2008 No.92, 20080918, 1-4頁, 社団法人情報処理学会 *
JPN6013023713; 三好 誠他: '逐次背景推定による移動物体検出' 情報処理学会研究報告 Vol.2008 No.92, 20080918, 1-4頁, 社団法人情報処理学会 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013097390A (en) * 2011-10-27 2013-05-20 Toshiba Alpine Automotive Technology Corp Own vehicle travel estimation method and own vehicle travel estimation program
WO2014027551A1 (en) * 2012-08-16 2014-02-20 ソニー株式会社 Image processing device, image processing method, and program
JP2014165801A (en) * 2013-02-27 2014-09-08 Canon Inc Color tracking device, control method thereof and control program
JP2018506768A (en) * 2015-02-16 2018-03-08 アプリケーション・ソリューションズ・(エレクトロニクス・アンド・ヴィジョン)・リミテッド Method and apparatus for estimating car egomotion from surround view images
US10867401B2 (en) 2015-02-16 2020-12-15 Application Solutions (Electronics and Vision) Ltd. Method and device for the estimation of car ego-motion from surround view images
JPWO2018139461A1 (en) * 2017-01-30 2019-11-14 日本電気株式会社 Moving object detection apparatus, moving object detection method, and storage medium
JP7151488B2 (en) 2017-01-30 2022-10-12 日本電気株式会社 Moving object detection device, moving object detection method and program

Also Published As

Publication number Publication date
JP5388059B2 (en) 2014-01-15

Similar Documents

Publication Publication Date Title
US20240161622A1 (en) Vehicle environment modeling with a camera
JP5975598B2 (en) Image processing apparatus, image processing method, and program
EP3598387B1 (en) Learning method and program
JP5023186B2 (en) Object motion detection system based on combination of 3D warping technique and proper object motion (POM) detection
US20100166259A1 (en) Object enumerating apparatus and object enumerating method
JP6171593B2 (en) Object tracking method and system from parallax map
KR102507248B1 (en) Egomotion estimation system and method thereof
JP5388059B2 (en) Object detection method and object detection apparatus based on background image estimation
WO2006068223A1 (en) Image processor
CN110619674B (en) Three-dimensional augmented reality equipment and method for accident and alarm scene restoration
CN108280445B (en) Method for detecting moving objects and raised obstacles around vehicle
WO2018008184A1 (en) Image processing device and image processing method
KR20220008208A (en) Self-supervised attention learning for depth and motion estimation
JP2000048211A (en) Movile object tracking device
KR101834512B1 (en) Super-resolution image restoration apparatus and method based on consecutive-frame
JP2007280387A (en) Method and device for detecting object movement
JP2021092996A (en) Measurement system, vehicle, measurement method, measurement device and measurement program
JP4376199B2 (en) Image processing device
JP2007249386A (en) Image processor
JP4246691B2 (en) Image information processing system, image information processing method, image information processing program, and automobile
JP5903901B2 (en) Vehicle position calculation device
Westerhoff et al. Development and comparison of homography based estimation techniques for camera to road surface orientation
Kim et al. Real-time human segmentation from RGB-D video sequence based on adaptive geodesic distance computation
JP2004038760A (en) Traveling lane recognition device for vehicle
JP7337165B2 (en) Method for determining relative motion using digital image sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131001

R150 Certificate of patent or registration of utility model

Ref document number: 5388059

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250