JP2000057323A - Image processor - Google Patents

Image processor

Info

Publication number
JP2000057323A
JP2000057323A JP10226976A JP22697698A JP2000057323A JP 2000057323 A JP2000057323 A JP 2000057323A JP 10226976 A JP10226976 A JP 10226976A JP 22697698 A JP22697698 A JP 22697698A JP 2000057323 A JP2000057323 A JP 2000057323A
Authority
JP
Japan
Prior art keywords
image data
image
area
threshold value
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10226976A
Other languages
Japanese (ja)
Inventor
Satoshi Terakubo
敏 寺久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP10226976A priority Critical patent/JP2000057323A/en
Publication of JP2000057323A publication Critical patent/JP2000057323A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor which can extract only an object area without being affected by the pixel value of a background area. SOLUTION: This image processor 30 includes an image memory 305 for temporarily storing image data generated from the output of a camera 20 and also storing the image data processed by an image processing board 307 and this board 307 for performing fault detection processing, based on the image data stored in the memory 305 and the output of a laser radar 25. Then the board 307 produces differential image data from the input image data and the background image data and binarizes the differential image data. The respective areas included in the binarized differential image data are discriminated into an obstacle area and the other areas according to distances observed by a laser radar 25. Further binarization threshold is decided by the relation between the processing capability of the laser radar 25 and the area to be detected.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置に関
し、特に、背景領域の画素値に影響されることなく物体
領域を抽出することができる画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus capable of extracting an object area without being affected by pixel values of a background area.

【0002】[0002]

【従来の技術】CCD(電荷結合素子)カメラ等で撮影
された入力画像データより物体領域のみを抽出するため
に、入力画像データを適当なしきい値で2値化する方法
がある。また、入力画像データおよび物体領域の写って
いない背景画像データより差分画像データを作成し、こ
の差分画像データを2値化して、物体領域のみを抽出す
る方法も広く知られている。これらいずれの方法におい
ても、2値化しきい値は重要な役割を果たす。
2. Description of the Related Art In order to extract only an object region from input image data captured by a CCD (charge coupled device) camera or the like, there is a method of binarizing input image data with an appropriate threshold value. There is also widely known a method in which difference image data is created from input image data and background image data in which an object region is not shown, and the difference image data is binarized to extract only the object region. In any of these methods, the binarization threshold plays an important role.

【0003】特公平6−79332号公報に開示の画像
処理装置では、入力画像データおよび背景画像データの
それぞれのヒストグラムを作成し、両ヒストグラムを比
較することにより、物体領域のみを抽出する2値化しき
い値を求める。この2値化しきい値を用いて、入力画像
データを2値化することにより物体領域の抽出を行なっ
ている。
In the image processing apparatus disclosed in Japanese Patent Publication No. Hei 6-79332, a histogram is created for each of input image data and background image data, and the two histograms are compared. Find the threshold. Using this binarization threshold, the input image data is binarized to extract the object region.

【0004】また、特開平7−320035号公報に開
示の動体像抽出方法では、2枚の時刻の異なる背景画像
データの差分画像データを求め、その差分画像データの
最大値に所定値αを加算した値を2値化しきい値として
定める。この2値化しきい値を用いて、入力画像データ
と背景画像データとの差分画像データを2値化すること
により物体領域の抽出を行なっている。
In the moving object image extraction method disclosed in Japanese Patent Application Laid-Open No. 7-320035, difference image data of two background image data at different times is obtained, and a predetermined value α is added to the maximum value of the difference image data. The determined value is determined as a binarization threshold. Using this binarization threshold, the object area is extracted by binarizing the difference image data between the input image data and the background image data.

【0005】[0005]

【発明が解決しようとする課題】前者の画像処理装置で
は、背景領域の画素値よりも物体領域の画素値のほうが
十分に小さい(または大きい)場合を想定している。し
かし、道路上の落下物抽出処理など実環境を想定した処
理では、背景領域の画素値および物体領域の画素値の分
布は一様とは限らず、背景領域の画素値よりも物体領域
の画素値のほうが常に十分に小さい(または大きい)よ
うな状況は稀である。このため、この画像処理装置の適
用範囲は狭いという問題点がある。また、この画像処理
装置は、背景領域とそれ以外の領域とを分けることがで
きるような画素値を2値化しきい値としている。このた
め、背景領域を物体領域として検出することは少なくな
るが、背景領域に近い明るさを持つ物体領域を抽出する
ことができないという問題点がある。
In the former image processing apparatus, it is assumed that the pixel value of the object area is sufficiently smaller (or larger) than the pixel value of the background area. However, in a process that assumes a real environment such as a process for extracting a falling object on a road, the distribution of the pixel value of the background region and the pixel value of the object region are not always uniform, and the pixel value of the object region is more than the pixel value of the background region. It is rare that the value is always sufficiently small (or large). Therefore, there is a problem that the application range of this image processing apparatus is narrow. Further, the image processing apparatus sets a pixel value that can separate the background area and the other area as the binarization threshold. For this reason, the background region is less often detected as an object region, but there is a problem that an object region having brightness close to the background region cannot be extracted.

【0006】後者の動体像抽出方法で求められた2値化
しきい値は、CCDカメラの暗電流やノイズなどの影響
を受けないように定められたものである。一方、背景領
域に近い明るさを持つ物体領域では、差分画像データの
画素値が小さな値を示す。このため、背景領域に近い明
るさを持つ物体領域を抽出することができないという問
題点がある。
[0006] The binarization threshold value obtained by the latter moving object image extraction method is determined so as not to be affected by dark current or noise of the CCD camera. On the other hand, in an object region having a brightness close to the background region, the pixel value of the difference image data indicates a small value. Therefore, there is a problem that an object region having a brightness close to the background region cannot be extracted.

【0007】本発明は、これらのような問題点を解決す
るためになされたもので、その目的は、背景領域の画素
値に影響されることなく物体領域を抽出することができ
る画像処理装置を提供することである。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and has as its object to provide an image processing apparatus capable of extracting an object area without being affected by the pixel value of a background area. To provide.

【0008】本発明の他の目的は、背景領域の画素値に
影響されることなく物体領域のみを抽出することができ
る画像処理装置を提供することである。
Another object of the present invention is to provide an image processing apparatus capable of extracting only an object area without being affected by pixel values of a background area.

【0009】[0009]

【課題を解決するための手段】請求項1に記載の発明に
係る画像処理装置は、入力画像および背景画像に基づ
き、第1の差分画像を作成するための手段と、第1の差
分画像を第1のしきい値で2値化して、第1の2値差分
画像を作成するための手段と、第1の2値差分画像より
物体領域を抽出するための物体領域抽出手段と、第1の
しきい値を更新するための第1のしきい値更新手段とを
含み、第1のしきい値更新手段は、1フレーム前の入力
画像より求められた物体領域以外の領域について、入力
画像および背景画像に基づき、第2の差分画像を作成す
るための手段と、第2の差分画像を第2のしきい値で2
値化して、第2の2値差分画像を作成するための手段
と、第2の2値差分画像内の領域の個数を計数するため
の手段と、領域の個数に応じて、第2のしきい値を更新
するための第2のしきい値更新手段と、第1のしきい値
に第2のしきい値に応じて定められる数を設定するため
の第1のしきい値設定手段とを含む。
According to the first aspect of the present invention, there is provided an image processing apparatus comprising: means for creating a first difference image based on an input image and a background image; Means for binarizing with a first threshold value to create a first binary difference image, object region extracting means for extracting an object region from the first binary difference image, And a first threshold updating means for updating the threshold value of the input image for an area other than the object area obtained from the input image one frame before. Means for creating a second difference image based on the background image and a second difference image at a second threshold value.
Means for generating a second binary difference image by converting to a value, means for counting the number of regions in the second binary difference image, and a second process in accordance with the number of regions. Second threshold value updating means for updating the threshold value, and first threshold value setting means for setting the first threshold value to a number determined according to the second threshold value. including.

【0010】請求項1に記載の発明によると、第2の2
値差分画像内の領域の個数に応じて、第2のしきい値が
更新され、第1のしきい値が決定される。このため、検
出される物体領域以外の領域(ノイズ領域)の数をほぼ
一定にすることができる。このようにして求められた第
1のしきい値は、検出されるノイズ領域を一定数以下に
押さえつつ、背景領域と近似した画素値を有する物体領
域を抽出できるように定められている。したがって、背
景領域の画素値に影響されることなく物体領域を抽出す
ることができる画像処理装置を提供することができる。
[0010] According to the first aspect of the invention, the second 2
The second threshold is updated according to the number of regions in the value difference image, and the first threshold is determined. For this reason, the number of regions (noise regions) other than the detected object region can be made substantially constant. The first threshold value thus determined is determined so that an object region having a pixel value similar to that of the background region can be extracted while the detected noise region is kept to a certain number or less. Therefore, it is possible to provide an image processing apparatus capable of extracting an object region without being affected by the pixel value of the background region.

【0011】請求項2に記載の発明は、請求項1に記載
の発明の構成に加えて、物体領域抽出手段は、第1の2
値差分画像より物体候補領域を抽出するための物体候補
領域抽出手段と、物体候補領域に対応する物体までの距
離を計測するための距離計測手段と、距離計測手段の出
力に応じ、物体候補領域を物体領域と物体領域以外の領
域とに弁別するための弁別手段とをさらに含む。
According to a second aspect of the present invention, in addition to the configuration of the first aspect of the present invention, the object region extracting means comprises a first
Object candidate area extracting means for extracting an object candidate area from the value difference image, distance measuring means for measuring a distance to an object corresponding to the object candidate area, and an object candidate area according to an output of the distance measuring means. And a discriminating means for discriminating between the object region and the region other than the object region.

【0012】請求項2に記載の発明では、請求項1に記
載の発明の作用、効果に加えて、測定された距離に基づ
き、物体候補領域の絞込みが行われる。このため、背景
領域の画素値に影響されることなく物体領域のみを抽出
することができる画像処理装置を提供することができ
る。
According to the second aspect of the invention, in addition to the functions and effects of the first aspect, the object candidate area is narrowed down based on the measured distance. Therefore, it is possible to provide an image processing apparatus capable of extracting only the object region without being affected by the pixel value of the background region.

【0013】請求項3に記載の発明は、請求項2に記載
の発明の構成に加えて、物体候補領域抽出手段は、1フ
レーム前の入力画像に対して、弁別手段で求められた物
体領域以外の領域を除いた領域について、第1の2値差
分画像より物体候補領域を抽出するための手段を含む。
According to a third aspect of the present invention, in addition to the configuration of the second aspect, the object candidate area extracting means extracts the object area obtained by the discriminating means from the input image one frame before. Means for extracting an object candidate area from the first binary difference image for an area excluding the area other than.

【0014】請求項3に記載の発明は、請求項2に記載
の発明の作用、効果に加えて、1フレーム前の入力画像
で物体領域以外の領域(ノイズ領域)と弁別された領域
を除いた領域から物体候補領域を抽出する。このため、
物体候補領域中のノイズ領域の数を減らすことができ
る。これにより、物体領域の誤検出を減少させることが
でき、効率よく物体領域の検出を行なうことができる。
According to a third aspect of the present invention, in addition to the functions and effects of the second aspect of the present invention, an area other than the object area (noise area) is discriminated from the input image one frame before the input image. Then, an object candidate area is extracted from the set area. For this reason,
The number of noise regions in the object candidate region can be reduced. Thereby, erroneous detection of the object region can be reduced, and the object region can be detected efficiently.

【0015】請求項4に記載の発明は、請求項1〜3の
いずれかに記載の発明の構成に加えて、第2のしきい値
更新手段は、第2の2値差分画像内の領域の個数が所定
上限数以下であれば、第2のしきい値を第1の所定数だ
けデクリメントするための手段を含み、第1のしきい値
設定手段は、第2の2値差分画像内の領域の個数が所定
上限数より大きければ、第2のしきい値より第2の所定
数を減じた値を第1のしきい値に設定するための手段を
含む。
According to a fourth aspect of the present invention, in addition to the configuration according to any one of the first to third aspects, the second threshold value updating means includes an area in the second binary difference image. If the number is less than or equal to a predetermined upper limit number, the first threshold setting means includes means for decrementing the second threshold value by the first predetermined number. Means for setting a value obtained by subtracting the second predetermined number from the second threshold value as the first threshold value if the number of regions is larger than the predetermined upper limit number.

【0016】[0016]

【発明の実施の形態】以下、図面を参照しつつ、本発明
における実施の形態の1つである道路監視装置について
説明する。なお、以下の説明では、同一の部品には同一
の参照符号を付す。それらの名称および機能も同一であ
るので、説明の繰返しは適宜省略する。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a road monitoring apparatus according to an embodiment of the present invention. In the following description, the same parts are denoted by the same reference numerals. Since their names and functions are the same, repetition of the description will be appropriately omitted.

【0017】図1を参照して、道路監視装置70は、道
路の近傍に設けられたポール60と、ポール60の上部
に設けられたカメラ20および距離測定用のレーザレー
ダ25と、カメラ20およびレーザレーダ25とケーブ
ルにより接続され、ポール60の下部に備付けられた画
像処理装置30とを含む。画像処理装置30は、回線5
0により管制センター40と結ばれており、路面上に障
害物が落下しているか否かを検知し、管制センター40
に報告する。管制センター40は、道路の交通状態を管
理/制御する中枢の管制センターである。
Referring to FIG. 1, a road monitoring device 70 includes a pole 60 provided near a road, a camera 20 provided above the pole 60 and a laser radar 25 for distance measurement, It includes an image processing device 30 connected to the laser radar 25 by a cable and provided below the pole 60. The image processing device 30 is connected to the line 5
0 and is connected to the control center 40 to detect whether an obstacle is falling on the road surface.
Report to The control center 40 is a central control center that manages / controls traffic conditions on roads.

【0018】カメラ20と画像処理装置30との間で画
像データはNTSC(National Television System Com
mittee)方式などの標準規格に適合した形で送受信され
る。これにより、画像データの送受信に際して、従来の
通常のインタフェースをそのまま利用することができ
る。たとえば、パーソナルコンピュータなどを用いた道
路の画像の解析やTV(Television)によるモニタや画
像のビデオ装置への記録などを容易に行なうことができ
る。
The image data between the camera 20 and the image processing device 30 is transmitted by NTSC (National Television System
It is transmitted and received in a form that conforms to standards such as the mittee method. As a result, when transmitting and receiving image data, the conventional ordinary interface can be used as it is. For example, analysis of a road image using a personal computer or the like, recording of a monitor or image on a video device by a TV (Television), and the like can be easily performed.

【0019】図2を参照して、画像処理装置30は、カ
メラ20から出力されるアナログ信号をデジタル信号に
変換するアナログ/デジタルコンバータ303と、アナ
ログ/デジタルコンバータ303から出力される画像デ
ータを一旦記憶し、後述の画像処理ボード307で処理
された結果の画像データを記憶するための画像メモリ3
05と、画像メモリ305に記憶された画像データとレ
ーザレーダ25の出力とにより障害物検出処理を行なう
ための画像処理ボード307とを含む。
Referring to FIG. 2, image processing apparatus 30 includes an analog / digital converter 303 for converting an analog signal output from camera 20 into a digital signal and an image data output from analog / digital converter 303 once. An image memory 3 for storing and storing image data as a result of processing by an image processing board 307 described later.
05, and an image processing board 307 for performing an obstacle detection process based on the image data stored in the image memory 305 and the output of the laser radar 25.

【0020】図3を参照して、レーザレーダ25は、レ
ーザ光を投受光する投受光部202と、投受光部202
より射出される光を、図中下方向に反射するための第1
の反射鏡204と、第1の反射鏡204で反射した光
を、図中右方向に反射するための第2の反射鏡206
と、第1および第2の反射鏡204、206をそれぞれ
回転させ、投受光部202より射出される光を所望の方
向に導く制御を行なうための制御部(図示せず)とを含
む。第1の反射鏡204は、平面鏡であり、投受光部2
02からの射出光と同一の方向の軸208周りに回転す
る(図中の矢印方向)。第2の反射鏡206は、平面鏡
であり、紙面に直行する軸周りに回転する(図中の矢印
方向)。第1および第2の反射鏡204、206の回転
により、レーザレーダ25より射出される光の左右方向
および上下方向がそれぞれ定められる。レーザレーダ2
5は、発光から受光までの時間から距離を算出する。
Referring to FIG. 3, laser radar 25 includes a light emitting and receiving unit 202 for emitting and receiving laser light, and a light emitting and receiving unit 202.
The first light for reflecting the light emitted therefrom downward in the drawing.
And a second reflecting mirror 206 for reflecting the light reflected by the first reflecting mirror 204 rightward in the drawing.
And a control unit (not shown) for controlling the rotation of the first and second reflecting mirrors 204 and 206 to guide the light emitted from the light emitting and receiving unit 202 in a desired direction. The first reflecting mirror 204 is a plane mirror, and
It rotates around the axis 208 in the same direction as the light emitted from the light emitting element 02 (the direction of the arrow in the figure). The second reflecting mirror 206 is a plane mirror and rotates around an axis perpendicular to the plane of the paper (the direction of the arrow in the figure). By the rotation of the first and second reflecting mirrors 204 and 206, the horizontal direction and the vertical direction of the light emitted from the laser radar 25 are determined, respectively. Laser radar 2
5 calculates the distance from the time from light emission to light reception.

【0021】図4を参照して、画像処理装置30の各部
は以下のように動作する。画像処理装置30は、前処理
として、障害物の映っていない背景を撮像し、図5
(A)に示すような背景画像データを画像メモリ305
に記憶する(S1)。カメラ20から取込まれた図5
(B)に示すような入力画像データが、画像メモリ30
5に記憶され、入力画像データに対して平滑化などの前
処理が施される(S2)。
Referring to FIG. 4, each part of image processing apparatus 30 operates as follows. The image processing device 30 captures, as pre-processing, a background on which no obstacle is reflected, as shown in FIG.
The background image data as shown in FIG.
(S1). FIG. 5 taken from the camera 20
The input image data as shown in FIG.
5, and pre-processing such as smoothing is performed on the input image data (S2).

【0022】前処理を施された入力画像データと背景画
像データとの間で差分処理が行われ、図5(C)に示す
ような差分画像データが画像メモリ305に記憶される
(S3)。この差分処理は、2枚の画像の対応する画素
間で画素値の差分の絶対値を求める処理であり、以下の
式(1)で表わされる。このとき、後述のノイズ領域マ
スク画像データの対応する画素の画素値が1のとき、差
分処理後の画素値は0とする。これにより、1フレーム
前の入力画像データでノイズ領域と判断された領域を除
くことができる。
The difference processing is performed between the preprocessed input image data and the background image data, and the difference image data as shown in FIG. 5C is stored in the image memory 305 (S3). This difference processing is processing for obtaining an absolute value of a difference between pixel values between corresponding pixels of two images, and is represented by the following equation (1). At this time, when the pixel value of the corresponding pixel of the noise area mask image data described later is 1, the pixel value after the difference processing is set to 0. This makes it possible to exclude a region determined as a noise region in the input image data one frame before.

【0023】[0023]

【数1】 (Equation 1)

【0024】差分画像データが、所定の2値化しきい値
を用いて、2値化され、図5(D)に示すような画像デ
ータが得られる。2値化された差分画像データのラベル
付けが行なわれ、障害物の候補領域が検出される(S
4)。差分画像データのラベル付けは、8連接近傍の画
素を結合する方法により行われる。たとえば、図6を参
照して、領域82と領域84とは、8連接近傍で接続さ
れているため、同一のラベルが付される。
The difference image data is binarized using a predetermined binarization threshold, and the image data as shown in FIG. 5D is obtained. Labeling of the binarized difference image data is performed, and a candidate area for an obstacle is detected (S
4). The labeling of the difference image data is performed by a method of combining pixels in the vicinity of eight concatenations. For example, referring to FIG. 6, since area 82 and area 84 are connected in the vicinity of eight joints, the same label is assigned.

【0025】S4の処理で求められた障害物候補の各々
について、レーザレーダ25を用いて、その候補領域を
構成する各画素に対応する物体または背景までの距離を
計測する(S5)。なお、カメラ20およびレーザレー
ダ25のキャリブレーションはあらかじめ行われている
ものとする。
For each obstacle candidate obtained in the process of S4, the distance to the object or background corresponding to each pixel constituting the candidate area is measured using the laser radar 25 (S5). It is assumed that the calibration of the camera 20 and the laser radar 25 has been performed in advance.

【0026】計測結果よりその領域の形状が認識され、
障害物か否かが判断される(S6)。たとえば、その領
域の形状が凹凸を有していれば、障害物領域であると判
断され、凹凸を有していなければ、路面などの障害物以
外の背景領域と判断される。その他、あらかじめ背景の
距離画像を画像メモリ305に記憶しておき、それとの
比較により障害物か否かの判断を行なっても良い。その
領域が障害物領域であると判断された場合には(S6で
YES)、画像処理ボード307は、障害物を検知した
ことと障害物の位置とを回線50を通じて管制センタ4
0に報告する。また、後述の2値化しきい値最適化処理
(S9)のため、障害物領域を構成する画素の画素値を
1とし、それ以外の画素の画素値を0とする、図5
(E)のような障害物領域マスク画像データを作成する
(S7)。
The shape of the area is recognized from the measurement result,
It is determined whether it is an obstacle (S6). For example, if the shape of the area has unevenness, it is determined to be an obstacle area, and if not, it is determined to be a background area other than an obstacle such as a road surface. Alternatively, the distance image of the background may be stored in the image memory 305 in advance, and it may be determined whether or not the obstacle is an obstacle by comparing with the distance image. If it is determined that the area is an obstacle area (YES in S6), the image processing board 307 notifies the control center 4 of the detection of the obstacle and the position of the obstacle via the line 50.
Report to 0. In addition, for the binarization threshold value optimization process (S9) to be described later, the pixel value of a pixel constituting the obstacle region is set to 1, and the pixel values of the other pixels are set to 0.
Obstacle area mask image data as shown in (E) is created (S7).

【0027】その領域が障害物ではないと判断された場
合には(S6でNO)、その領域の対応するノイズ領域
マスク画像データ(図5(F))の画素値を1に設定す
る(S8)。S6〜S8までの処理が、S4で検出され
たすべての障害物候補について行われる。なお、ノイズ
領域マスク画像データでノイズ以外の画素には、1以外
の画素値、たとえば画素値0が設定されているものとす
る。
If it is determined that the area is not an obstacle (NO in S6), the pixel value of the noise area mask image data (FIG. 5F) corresponding to the area is set to 1 (S8). ). The processing from S6 to S8 is performed for all obstacle candidates detected in S4. It is assumed that a pixel value other than 1 such as a pixel value 0 is set for pixels other than noise in the noise area mask image data.

【0028】入力画像データ、背景画像データおよび障
害物領域マスク画像データを用いて、次のフレームの入
力画像データに対する障害物候補検出処理(S4)で用
いられる2値化しきい値が算出される(S9)。この処
理については後述する。
Using the input image data, the background image data and the obstacle area mask image data, a binarization threshold value used in the obstacle candidate detection process (S4) for the input image data of the next frame is calculated (S4). S9). This processing will be described later.

【0029】その後、背景画像更新処理が行われ(S1
0)、S2に処理が戻される。背景画像の更新は、指数
平滑法と呼ばれる方法により行なわれる。時刻tでの入
力画像データ、背景画像データおよび障害物領域マスク
画像データの座標(x,y)の画素値をそれぞれI(t,
x,y) 、B(t,x,y) およびOM(t,x,y) とすると、更新
後の背景画像データの座標(x,y)の画素値は以下の
式(2)で表わされる。
Thereafter, background image update processing is performed (S1).
0), the process is returned to S2. The updating of the background image is performed by a method called an exponential smoothing method. The pixel values of the coordinates (x, y) of the input image data, the background image data, and the obstacle area mask image data at time t are represented by I (t,
x, y), B (t, x, y) and OM (t, x, y), the pixel value of the coordinates (x, y) of the updated background image data is expressed by the following equation (2). It is.

【0030】[0030]

【数2】 (Equation 2)

【0031】なお、定数αは、実験的に求められる0以
上1以下の大きさの値である。定数αの値を大きくする
ほど、更新後の背景画像データは、現在入力された入力
画像データの影響を大きく受ける。このため、入力画像
データの急峻な変化にも追随することができる。一方、
定数αの値を小さくするほど、更新後の背景画像データ
は、現在の入力画像データの影響を受けにくい。このた
め、背景画像データの変化の度合いを緩やかにすること
ができる。また、OM(t,x,y )=1となる画素では、
障害物領域を除いて背景画像の更新を行なうため、1フ
レーム前の背景画像の画素値をそのまま用いる。
Note that the constant α is a value of a value from 0 to 1 experimentally obtained. As the value of the constant α increases, the updated background image data is more affected by the currently input image data. Therefore, it is possible to follow a sharp change in the input image data. on the other hand,
As the value of the constant α decreases, the updated background image data is less affected by the current input image data. For this reason, the degree of change of the background image data can be reduced. In a pixel where OM (t, x, y) = 1,
In order to update the background image except for the obstacle area, the pixel value of the background image one frame before is used as it is.

【0032】図7を参照して、2値化しきい値最適化処
理(図4のS9)について説明する。tフレーム目の入
力画像データおよび背景画像データの差分画像データを
以下の式(3)に従い作成する(S21)。この差分画
像データを作成する際に、障害物領域マスク画像データ
でマスクされた画素の差分値を0にするのは、後述の処
理において、その画素を領域として検出したくないため
である。
The binarization threshold value optimization processing (S9 in FIG. 4) will be described with reference to FIG. The difference image data between the input image data and the background image data of the t-th frame is created according to the following equation (3) (S21). The reason why the difference value of the pixel masked by the obstacle region mask image data is set to 0 when the difference image data is created is that the pixel is not desired to be detected as a region in the processing described later.

【0033】[0033]

【数3】 (Equation 3)

【0034】画像処理装置30は、しきい値として、あ
らかじめ定められている上限しきい値を設定する(S2
2)。差分画像データが上限しきい値で2値化され、図
8に示すような画像データが得られる(S23)。2値
化されることにより、しきい値以上の差分値を有する画
素の画素値が1に設定され、それ以外の画素の画素値が
0に設定される。2値化された差分画像データに対して
収縮処理が2回施され(S24)、その後、膨張処理が
2回施される(S25)。これにより、小さな面積のノ
イズ成分が除去される。
The image processing device 30 sets a predetermined upper threshold value as the threshold value (S2).
2). The difference image data is binarized with the upper threshold, and image data as shown in FIG. 8 is obtained (S23). By the binarization, the pixel value of a pixel having a difference value equal to or larger than the threshold value is set to 1, and the pixel values of other pixels are set to 0. The binarized difference image data is subjected to erosion processing twice (S24), and thereafter is subjected to expansion processing twice (S25). As a result, noise components having a small area are removed.

【0035】図9を参照して、収縮処理および膨張処理
について説明する。収縮処理とは、画素値0の画素の8
連接近傍の画素の画素値を0に置換える処理である。た
とえば、図9(A)に示す画像データに対して、1回の
収縮処理を施すと、図9(B)に示す画像データが得ら
れる。膨張処理とは、画素値1の画素の8連接近傍の画
素の画素値を1に置換える処理である。たとえば、図9
(B)に示す画像データに対して、1回の膨張処理を施
すと、図9(A)に示す画像データが得られる。
Referring to FIG. 9, the contraction processing and expansion processing will be described. The contraction processing is a process of 8 of a pixel having a pixel value of 0.
This is a process of replacing the pixel value of a pixel near the concatenation with 0. For example, when the image data shown in FIG. 9A is subjected to one contraction process, the image data shown in FIG. 9B is obtained. The expansion process is a process of replacing a pixel value of a pixel in the vicinity of eight consecutive pixels of a pixel with a pixel value of 1 with 1. For example, FIG.
By performing one expansion process on the image data shown in (B), the image data shown in FIG. 9A is obtained.

【0036】また、図10(A)に示す画像データに1
回の収縮処理を施した後、1回の膨張処理を施す場合を
考える。説明の簡単化のため、収縮処理および膨張処理
の回数をそれぞれ1回とするが、2回の場合でも同様の
効果が得られる。図10(A)に示す画像データには、
小さな面積のノイズ成分に対応する領域86と障害物に
対応する領域88とが含まれる。図10(A)に示す画
像データに1回の収縮処理を施すと、領域86が除去さ
れ、図10(B)に示す画像データが得られる。さら
に、図10(B)に示す画像データに1回の膨張処理を
施すと、最終的に、障害物に対応する領域88のみを含
む図10(C)に示す画像データが得られる。
The image data shown in FIG.
Consider a case where one expansion process is performed after performing one contraction process. For the sake of simplicity, the number of times of the contraction process and the number of the expansion processes are each one, but the same effect can be obtained with two times. The image data shown in FIG.
An area 86 corresponding to a small area noise component and an area 88 corresponding to an obstacle are included. When the image data shown in FIG. 10A is subjected to one contraction process, the area 86 is removed, and the image data shown in FIG. 10B is obtained. Further, when the image data shown in FIG. 10B is subjected to one expansion process, finally, the image data shown in FIG. 10C including only the area 88 corresponding to the obstacle is obtained.

【0037】S25の処理の後、2値化された差分画像
データに対して膨張処理が2回施され(S26)、収縮
処理が2回施される(S27)。これにより、近傍で複
数に分裂している領域を統合することができる。
After the processing of S25, the dilation processing is performed twice on the binarized difference image data (S26), and the erosion processing is performed twice (S27). As a result, it is possible to integrate a plurality of divided regions in the vicinity.

【0038】たとえば、図11(A)に示す画像データ
に1回の膨張処理を施した後、1回の収縮処理を施す場
合を考える。図11(A)に示す画像データには、互い
に近傍に位置する2つの領域90および92が含まれ
る。図11(B)を参照して、1回の膨張処理の後、2
つの領域90および92が統合された領域94が得られ
る。図11(C)を参照して、さらに1回の収縮処理を
施すと、最終的に2つの領域90および92が統合さ
れ、1つの領域94になった後の画像データが得られ
る。
For example, consider a case where the image data shown in FIG. 11A is subjected to one expansion processing and then to one contraction processing. The image data shown in FIG. 11A includes two regions 90 and 92 located near each other. Referring to FIG. 11B, after one expansion process, 2
An area 94 in which the two areas 90 and 92 are integrated is obtained. Referring to FIG. 11 (C), when one more contraction process is performed, two regions 90 and 92 are finally integrated, and image data after one region 94 is obtained.

【0039】S27の処理の後、2値化された差分画像
データのうち画素値が1の領域の数が計数される(S2
8)。上述の図4のS8の処理と同様、8連接近傍で接
続された領域を1つの領域とする。この領域の数が大き
くなるほど、レーザレーダ25よる計測処理(図4のS
5の処理)にかかる時間が大きくなる。
After the processing in S27, the number of areas having a pixel value of 1 in the binarized difference image data is counted (S2).
8). Similar to the process of S8 in FIG. 4 described above, a region connected near eight concatenations is defined as one region. As the number of these areas increases, the measurement processing by the laser radar 25 (S in FIG. 4)
5)).

【0040】検出領域の個数が所定の検出上限数より大
きいか否かが判断される(S29)。この検出上限数の
値は、レーザレーダ25の処理時間との関係で定められ
る。すなわち、レーザレーダ25が、1回の計測処理
(図4のS5の処理)ですべての検出領域に対する距離
を計測できるように検出上限数が定められている。
It is determined whether or not the number of detection areas is larger than a predetermined detection upper limit number (S29). The value of the upper detection limit is determined in relation to the processing time of the laser radar 25. That is, the detection upper limit number is determined so that the laser radar 25 can measure the distances to all the detection regions in one measurement process (the process of S5 in FIG. 4).

【0041】検出領域の個数が、検出上限数以下であれ
ば(S29でNO)、レーザレーダ25は、より多くの
領域の距離計側が可能である。このため、画像処理装置
30は、しきい値を1つデクリメントし(S31)、S
23以下の処理を繰返す。
If the number of detection areas is equal to or smaller than the detection upper limit number (NO in S29), the laser radar 25 can be used as a rangefinder for more areas. For this reason, the image processing device 30 decrements the threshold by one (S31),
The processing of 23 and below is repeated.

【0042】検出領域の個数が、検出上限より大きけれ
ば(S29でYES)、しきい値を1つインクリメント
し(S30)、その値を、次回のS4の処理での2値化
しきい値とする。この2値化しきい値を用いて図4のS
4の処理で検出される障害物候補の数は、レーザレーダ
25で距離計測可能な最大の個数以下となる。
If the number of detection areas is larger than the upper limit of detection (YES in S29), the threshold value is incremented by one (S30), and the value is set as a binarization threshold value in the next processing of S4. . Using this binarized threshold, S in FIG.
The number of obstacle candidates detected in the process 4 is equal to or less than the maximum number that can be measured by the laser radar 25.

【0043】上述の画像処理装置30では、差分処理に
伴うノイズ領域が検出されることを前提として、2値化
しきい値が設定される。このため、2値化しきい値は低
めに設定される。この2値化しきい値を用いて差分画像
データの2値化を行なうと、背景と画素値の近似した障
害物領域を検出することが可能である。しかし、同時に
ノイズ領域をも検出してしまう。このノイズ領域は、レ
ーザレーダ25を用いて距離測定を行なうことにより除
去される。このため、本画像処理装置30は、背景領域
の画素値に影響されることなく障害物領域のみを抽出す
ることができる。
In the above-described image processing apparatus 30, the binarization threshold is set on the assumption that a noise region accompanying the difference processing is detected. For this reason, the binarization threshold is set lower. When the binarization of the differential image data is performed using the binarization threshold value, it is possible to detect an obstacle region in which the pixel value is similar to the background. However, a noise region is also detected at the same time. This noise region is removed by performing distance measurement using the laser radar 25. Therefore, the image processing apparatus 30 can extract only the obstacle region without being affected by the pixel value of the background region.

【0044】なお、本実施の形態に係る道路監視装置7
0では、距離計測用にレーザレーダ25を用いたが、こ
れに限定されるものではなくミリ波レーダのように、距
離を計測可能な装置であれば良い。
The road monitoring device 7 according to the present embodiment
In the case of 0, the laser radar 25 is used for distance measurement. However, the present invention is not limited to this, and any device capable of measuring distance, such as a millimeter wave radar, may be used.

【0045】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る道路監視装置の外観
図である。
FIG. 1 is an external view of a road monitoring device according to an embodiment of the present invention.

【図2】道路監視装置の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of a road monitoring device.

【図3】レーザレーダの構成を示す断面図である。FIG. 3 is a cross-sectional view illustrating a configuration of a laser radar.

【図4】道路監視装置で実施される処理のフローチャー
トである。
FIG. 4 is a flowchart of a process performed by the road monitoring device.

【図5】各種画像データの一例を示す図である。FIG. 5 is a diagram illustrating an example of various image data.

【図6】8連接近傍で接続される領域を説明する図であ
る。
FIG. 6 is a diagram illustrating a region connected near eight joints.

【図7】道路監視装置で実施される2値化しきい値最適
化処理のフローチャートである。
FIG. 7 is a flowchart of a binarization threshold value optimization process performed by the road monitoring device.

【図8】2値化しきい値最適化処理で作成される2値差
分画像データの一例を示す図である。
FIG. 8 is a diagram illustrating an example of binary difference image data created by a binarization threshold value optimization process.

【図9】膨張処理および収縮処理を説明する図である。FIG. 9 is a diagram illustrating expansion processing and contraction processing.

【図10】収縮処理および膨張処理によりノイズ成分を
除去する処理を説明する図である。
FIG. 10 is a diagram illustrating a process of removing a noise component by a contraction process and an expansion process.

【図11】膨張処理および収縮処理により分裂した領域
を統合する処理を説明する図である。
FIG. 11 is a diagram illustrating a process of integrating regions divided by an expansion process and a contraction process.

【符号の説明】[Explanation of symbols]

20 カメラ 25 レーザレーダ 30 画像処理装置 40 管制センター 50 回線 60 ポール 70 道路監視装置 303 アナログ/デジタルコンバータ 305 画像メモリ 307 画像処理ボード Reference Signs List 20 camera 25 laser radar 30 image processing device 40 control center 50 line 60 pole 70 road monitoring device 303 analog / digital converter 305 image memory 307 image processing board

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 入力画像および背景画像に基づき、第1
の差分画像を作成するための手段と、 前記第1の差分画像を第1のしきい値で2値化して、第
1の2値差分画像を作成するための手段と、 前記第1の2値差分画像より物体領域を抽出するための
物体領域抽出手段と、 前記第1のしきい値を更新するための第1のしきい値更
新手段とを含み、 前記第1のしきい値更新手段は、 1フレーム前の入力画像より求められた物体領域以外の
領域について、前記入力画像および前記背景画像に基づ
き、第2の差分画像を作成するための手段と、 前記第2の差分画像を第2のしきい値で2値化して、第
2の2値差分画像を作成するための手段と、 前記第2の2値差分画像内の領域の個数を計数するため
の手段と、 前記領域の個数に応じて、前記第2のしきい値を更新す
るための第2のしきい値更新手段と、 前記第1のしきい値に前記第2のしきい値に応じて定め
られる数を設定するための第1のしきい値設定手段とを
含む、画像処理装置。
1. A method according to claim 1, further comprising the steps of:
Means for creating a first differential image; means for creating a first binary difference image by binarizing the first differential image with a first threshold value; An object area extracting unit for extracting an object area from the value difference image; and a first threshold updating unit for updating the first threshold, the first threshold updating unit Means for creating a second difference image based on the input image and the background image for an area other than the object area obtained from the input image one frame before; Means for binarizing with a threshold value of 2 to create a second binary difference image; means for counting the number of regions in the second binary difference image; A second threshold value updating means for updating the second threshold value according to the number; When, and a first threshold setting means for setting the number determined according to the second threshold to the first threshold value, the image processing apparatus.
【請求項2】 前記物体領域抽出手段は、 前記第1の2値差分画像より物体候補領域を抽出するた
めの物体候補領域抽出手段と、 前記物体候補領域に対応する物体までの距離を計測する
ための距離計測手段と、 前記距離計測手段の出力に応じ、前記物体候補領域を前
記物体領域と前記物体領域以外の領域とに弁別するため
の弁別手段とをさらに含む、請求項1に記載の画像処理
装置。
2. The object region extracting unit, comprising: an object candidate region extracting unit for extracting an object candidate region from the first binary difference image; and measuring a distance to an object corresponding to the object candidate region. The method according to claim 1, further comprising: a distance measuring unit for discriminating the object candidate region into the object region and a region other than the object region according to an output of the distance measuring unit. Image processing device.
【請求項3】 前記物体候補領域抽出手段は、1フレー
ム前の前記入力画像に対して、前記弁別手段で求められ
た前記物体領域以外の領域を除いた領域について、前記
第1の2値差分画像より前記物体候補領域を抽出するた
めの手段を含む、請求項2に記載の画像処理装置。
3. An object candidate area extracting unit, wherein the first binary difference is set for an area excluding an area other than the object area obtained by the discriminating unit from the input image one frame before. The image processing apparatus according to claim 2, further comprising: a unit configured to extract the object candidate region from an image.
【請求項4】 前記第2のしきい値更新手段は、前記第
2の2値差分画像内の前記領域の個数が所定上限数以下
であれば、前記第2のしきい値を第1の所定数だけデク
リメントするための手段を含み、 前記第1のしきい値設定手段は、前記第2の2値差分画
像内の前記領域の個数が前記所定上限数より大きけれ
ば、前記第2のしきい値より第2の所定数を減じた値を
前記第1のしきい値に設定するための手段を含む、請求
項1〜3のいずれかに記載の画像処理装置。
4. The second threshold value updating means, if the number of the areas in the second binary difference image is equal to or less than a predetermined upper limit number, sets the second threshold value to a first upper limit number. Means for decrementing by a predetermined number, wherein the first threshold value setting means sets the second threshold value if the number of the regions in the second binary difference image is larger than the predetermined upper limit number. The image processing apparatus according to claim 1, further comprising: a unit configured to set a value obtained by subtracting a second predetermined number from a threshold value as the first threshold value.
JP10226976A 1998-08-11 1998-08-11 Image processor Withdrawn JP2000057323A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10226976A JP2000057323A (en) 1998-08-11 1998-08-11 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10226976A JP2000057323A (en) 1998-08-11 1998-08-11 Image processor

Publications (1)

Publication Number Publication Date
JP2000057323A true JP2000057323A (en) 2000-02-25

Family

ID=16853571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10226976A Withdrawn JP2000057323A (en) 1998-08-11 1998-08-11 Image processor

Country Status (1)

Country Link
JP (1) JP2000057323A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260098A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Obstacle detection unit
JP2007110207A (en) * 2005-10-11 2007-04-26 Matsushita Electric Ind Co Ltd Image compositing apparatus and image compositing method
JP2007115129A (en) * 2005-10-21 2007-05-10 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method, and computer program
JP2008204406A (en) * 2007-02-22 2008-09-04 Fujitsu Ltd Background image creator
CN112258517A (en) * 2020-09-30 2021-01-22 无锡太机脑智能科技有限公司 Automatic map repairing method and device for laser radar grid map

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260098A (en) * 2005-03-16 2006-09-28 Matsushita Electric Works Ltd Obstacle detection unit
JP4539388B2 (en) * 2005-03-16 2010-09-08 パナソニック電工株式会社 Obstacle detection device
JP2007110207A (en) * 2005-10-11 2007-04-26 Matsushita Electric Ind Co Ltd Image compositing apparatus and image compositing method
JP4622797B2 (en) * 2005-10-11 2011-02-02 パナソニック株式会社 Image composition apparatus and image composition method
JP2007115129A (en) * 2005-10-21 2007-05-10 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method, and computer program
JP2008204406A (en) * 2007-02-22 2008-09-04 Fujitsu Ltd Background image creator
CN112258517A (en) * 2020-09-30 2021-01-22 无锡太机脑智能科技有限公司 Automatic map repairing method and device for laser radar grid map

Similar Documents

Publication Publication Date Title
US10070053B2 (en) Method and camera for determining an image adjustment parameter
US7035430B2 (en) Intruding object detection method and intruding object monitor apparatus which automatically set a threshold for object detection
KR20000071087A (en) Outdoor range finder
JPH07302328A (en) Method for extracting area of moving object based upon background difference
JPH09322155A (en) Method and device for monitoring video
KR101845943B1 (en) A system and method for recognizing number plates on multi-lane using one camera
JP2000011133A (en) Device and method for detecting moving object
JP4389602B2 (en) Object detection apparatus, object detection method, and program
JP7092615B2 (en) Shadow detector, shadow detection method, shadow detection program, learning device, learning method, and learning program
CN112132863A (en) High-altitude parabolic detection process and analysis method
JP3034101B2 (en) Method and apparatus for identification using motion vector
JP2000057323A (en) Image processor
JP2008026999A (en) Obstacle detection system and obstacle detection method
JPH11278182A (en) Fog status detection device for vehicle
JP3625442B2 (en) Object detection method, object detection apparatus, and object detection program
JP2002367077A (en) Device and method for deciding traffic congestion
JPH0514891A (en) Image monitor device
JPH09322153A (en) Automatic monitor
JP2002032759A (en) Monitor
JP3736836B2 (en) Object detection method, object detection apparatus, and program
JP2009193130A (en) Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
JP2001307017A (en) Character plate recognizing device
KR100744158B1 (en) Probabilistic visual surveillance system and method
JPH057363A (en) Picture monitoring device
JP4071336B2 (en) Image processing device for monitoring

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051101