JP3419919B2 - Moving object detection device - Google Patents

Moving object detection device

Info

Publication number
JP3419919B2
JP3419919B2 JP28793494A JP28793494A JP3419919B2 JP 3419919 B2 JP3419919 B2 JP 3419919B2 JP 28793494 A JP28793494 A JP 28793494A JP 28793494 A JP28793494 A JP 28793494A JP 3419919 B2 JP3419919 B2 JP 3419919B2
Authority
JP
Japan
Prior art keywords
image
edge
input
moving object
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP28793494A
Other languages
Japanese (ja)
Other versions
JPH08147475A (en
Inventor
英吾 瀬川
守人 塩原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP28793494A priority Critical patent/JP3419919B2/en
Publication of JPH08147475A publication Critical patent/JPH08147475A/en
Application granted granted Critical
Publication of JP3419919B2 publication Critical patent/JP3419919B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、撮影で得られた時系列
画像から移動物体を検出する装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for detecting a moving object from a time-series image obtained by photographing.

【0002】この種の装置は道路の交通量を観測するシ
ステムや侵入者を監視するセキュリティシステムに使用
されている。
This type of device is used in a system for observing traffic on a road and a security system for monitoring an intruder.

【0003】[0003]

【従来の技術】移動体が含まれない背景画像を予め用意
し、カメラ撮影で得られた時系列画像を入力し、画像が
入力される毎に、入力画像を背景画像と比較し、不一致
な画像領域を移動物体の存在部分とする。
2. Description of the Related Art A background image that does not include a moving object is prepared in advance, a time-series image obtained by camera shooting is input, and each time the image is input, the input image is compared with the background image, and there is a mismatch. The image area is defined as the existence portion of the moving object.

【0004】あるいは、カメラ撮影を行なってその撮影
で得られた時系列画像を入力し、最新の入力画像を既に
入力された画像と比較し、不一致な画像領域を移動物体
の存在部分とする。
Alternatively, a time-series image obtained by photographing with a camera is input, the latest input image is compared with the already input image, and the inconsistent image area is set as the existence portion of the moving object.

【0005】特開平3−282709においては、入力
画像を2値化し、2値化された入力画像からエッジを抽
出し、抽出されたエッジのうち長さがある程度以上のも
のを物体の輪郭線とし、一対の画像につき得られた輪郭
線で位置が変化したものを移動物体の輪郭と認識する装
置が示されている。
In Japanese Patent Laid-Open No. 282709/1989, an input image is binarized, edges are extracted from the binarized input image, and the extracted edges having a certain length or more are defined as the contour line of the object. , A device for recognizing a contour of a pair of images whose position has changed as the contour of a moving object is shown.

【0006】[0006]

【発明が解決しようとする課題】従来においては、入力
された画面内で背景画像や既入力の画像と不一致となる
部分の全てが移動物体として検出されることから、移動
物体とその影が区別されない。
In the prior art, since all the portions of the input screen that do not match the background image or the already input image are detected as moving objects, the moving objects and their shadows are distinguished. Not done.

【0007】したがって道路の交通量を観測するシステ
ムの場合、カメラ撮影の視野に影のみが含まれる走行車
両も誤って通過車両と認識され、このため、交通量の観
測結果が実際のものより過大となる。また夜間において
は、路面に反射したヘッドライト光も車両と共に移動す
ることから、走行車両と誤認される。
Therefore, in the case of a system for observing traffic on a road, a traveling vehicle whose shadow is included in the field of view of the camera is also mistakenly recognized as a passing vehicle, and the result of observation of traffic is excessive than the actual one. Becomes Further, at night, the headlight light reflected on the road surface also moves together with the vehicle and is therefore mistakenly recognized as a traveling vehicle.

【0008】本発明は上記従来の事情に鑑みてなされた
ものであり、その目的は、移動する影を移動物体と誤認
することのない装置を提供することにある。
The present invention has been made in view of the above conventional circumstances, and an object of the present invention is to provide a device that does not mistake a moving shadow as a moving object.

【0009】[0009]

【課題を解決するための手段】図1において、第1発明
にかかる装置は、撮影で得られた時系列画像の連続入力
を行なう画像入力手段10と、移動物体が含まれない背
景画像を時系列の入力画像から作成する背景画像作成手
段12と、入力された画像と背景画像とから輝度の変化
が大きなエッジ点を抽出するエッジ点抽出手段14と、
入力された画像と背景画像とから抽出されたエッジ点の
うち入力された画像の側にのみ存在するエッジ点を選択
する移動エッジ点選択手段16と、選択されたエッジ点
の密度が高い領域を移動物体の存在部分として特定する
移動物体特定手段18と、を有する。
In FIG. 1, an apparatus according to a first aspect of the present invention includes an image input means 10 for continuously inputting time-series images obtained by photographing, and a background image which does not include a moving object. Background image creating means 12 for creating from a series of input images; edge point extracting means 14 for extracting edge points having large changes in brightness from the input image and the background image;
A moving edge point selecting means 16 for selecting an edge point existing only on the input image side among the edge points extracted from the input image and the background image, and an area having a high density of the selected edge points are set. And a moving object specifying unit 18 that specifies the moving object as an existing portion.

【0010】同図において、第2発明にかかる装置も、
撮影で得られた時系列画像の連続入力を行なう画像入力
手段10と、移動物体が含まれない背景画像を時系列の
入力画像から作成する背景画像作成手段12と、入力さ
れた画像と背景画像とから輝度の変化が大きなエッジ点
を抽出するエッジ点抽出手段14と、入力された画像と
背景画像とから抽出されたエッジ点のうち入力された画
像の側にのみ存在するエッジ点を選択する移動エッジ点
選択手段16と、選択されたエッジ点の密度が高い領域
を移動物体の存在部分として特定する移動物体特定手段
18と、を有する。
In the figure, the device according to the second invention is also
Image input means 10 for continuously inputting time-series images obtained by shooting, background image creation means 12 for creating a background image that does not include a moving object from time-series input images, input image and background image The edge point extracting means 14 for extracting an edge point having a large change in luminance from and the edge point existing only on the input image side among the edge points extracted from the input image and the background image are selected. It has moving edge point selecting means 16 and moving object specifying means 18 for specifying a region with a high density of the selected edge points as a moving object existing portion.

【0011】ただし、背景画像作成手段12は、時系列
先頭で入力された画像を移動物体が含まれない背景画像
の初期画像とする初期背景画像設定手段121と、入力
された画像と背景画像とにおいて対応した点の輝度差を
算出する輝度差算出手段122と、算出された輝度の差
が減少する方向へ背景画像における各点の輝度を更新す
る背景画像更新手段123と、を含む。
However, the background image creating means 12 sets an initial background image setting means 121 for setting the image input at the beginning of the time series as an initial image of a background image that does not include a moving object, the input image and the background image. The brightness difference calculation means 122 for calculating the brightness difference between the corresponding points in 1) and the background image update means 123 for updating the brightness of each point in the background image in the direction in which the calculated brightness difference decreases.

【0012】また、エッジ点抽出手段14は、入力され
た画像から輝度の変化が大きなエッジ点を抽出して入力
エッジ画像を生成する入力エッジ画像生成手段141
と、更新された背景画像から輝度の変化が大きなエッジ
点を抽出して背景エッジ画像を生成する背景エッジ画像
生成手段142と、を含む。
Further, the edge point extraction means 14 extracts the edge points having a large change in brightness from the input image and generates the input edge image by the input edge image generation means 141.
And a background edge image generation unit 142 that generates a background edge image by extracting an edge point having a large change in luminance from the updated background image.

【0013】さらに、移動エッジ点選択手段16は、入
力エッジ画像に存在し背景エッジ画像に存在しないエッ
ジ点を検索する変化エッジ点検索手段161と、検索さ
れた全てのエッジ点で変化エッジ画像を作成する変化エ
ッジ画像作成手段162と、を含む。
Furthermore, the moving edge point selecting means 16 searches the changing edge point searching means 161 for searching for edge points existing in the input edge image but not in the background edge image, and changing edge image for all the searched edge points. And a changing edge image creating means 162 for creating.

【0014】そして、移動物体特定手段18は、物体移
動路を横断する方向に変化エッジ画像を走査して走査毎
にエッジ点の総和を算出し、算出された各エッジ点総和
を順に物体移動路の伸長方向へ整列させるヒストグラム
作成手段181と、一定数以上のエッジ点総和が物体移
動路の伸長方向で密に連続する部分を移動物体の存在領
域として決定する移動物体領域決定手段182と、を含
む。
Then, the moving object specifying means 18 scans the changing edge image in the direction traversing the object moving path, calculates the sum of the edge points for each scanning, and sequentially calculates the calculated sum of the respective edge points. And a moving object region determining unit 182 that determines a portion where a certain number or more of edge points are densely continuous in the extending direction of the object moving path as an existing region of the moving object. Including.

【0015】同図において、第3発明にかかる装置は、
撮影で得られた時系列画像の連続入力を行なう画像入力
手段10と、移動物体が含まれない背景画像を時系列の
入力画像から作成する背景画像作成手段12と、入力さ
れた画像と背景画像とから輝度の変化が大きなエッジ点
を抽出するエッジ点抽出手段14と、入力された画像と
背景画像とから抽出されたエッジ点のうち入力された画
像の側にのみ存在するエッジ点を選択する移動エッジ点
選択手段16と、選択されたエッジ点の密度が高い領域
を移動物体の存在部分として特定する移動物体特定手段
18と、を有し、かつ、撮影の視野範囲を通過した移動
物体の数をカウントする通過物体数カウント手段20
と、も有する。
In the figure, the device according to the third invention is
Image input means 10 for continuously inputting time-series images obtained by shooting, background image creation means 12 for creating a background image that does not include a moving object from time-series input images, input image and background image The edge point extracting means 14 for extracting an edge point having a large change in luminance from and the edge point existing only on the input image side among the edge points extracted from the input image and the background image are selected. The moving edge point selecting unit 16 and the moving object specifying unit 18 that specifies a region where the density of the selected edge points is high as a moving object existing portion, Passing object number counting means 20 for counting the number
And also have.

【0016】第3発明にかかる装置においても、背景画
像作成手段12は、時系列先頭で入力された画像を移動
物体が含まれない背景画像の初期画像とする初期背景画
像設定手段121と、入力された画像と背景画像とにお
いて対応した点の輝度差を算出する輝度差算出手段12
2と、算出された輝度の差が減少する方向へ背景画像に
おける各点の輝度を更新する背景画像更新手段123
と、を含む。
Also in the apparatus according to the third aspect of the present invention, the background image creating means 12 inputs the initial background image setting means 121 for setting the image input at the beginning of the time series as the initial image of the background image not including the moving object, and the input. Difference calculation means 12 for calculating the difference in brightness between corresponding points in the captured image and the background image
2 and the background image update means 123 for updating the brightness of each point in the background image in the direction in which the calculated difference in brightness decreases.
And, including.

【0017】また、エッジ点抽出手段14は、入力され
た画像から輝度の変化が大きなエッジ点を抽出して入力
エッジ画像を生成する入力エッジ画像生成手段141
と、更新された背景画像から輝度の変化が大きなエッジ
点を抽出して背景エッジ画像を生成する背景エッジ画像
生成手段142と、を含む。
Further, the edge point extraction means 14 extracts the edge points having a large change in brightness from the input image and generates the input edge image, and the input edge image generation means 141.
And a background edge image generation unit 142 that generates a background edge image by extracting an edge point having a large change in luminance from the updated background image.

【0018】さらに、移動エッジ点選択手段16は、入
力エッジ画像に存在し背景エッジ画像に存在しないエッ
ジ点を検索する変化エッジ点検索手段161と、検索さ
れた全てのエッジ点で変化エッジ画像を作成する変化エ
ッジ画像作成手段162と、を含む。
Further, the moving edge point selecting means 16 searches the changing edge point searching means 161 for searching the edge points existing in the input edge image but not in the background edge image, and the changing edge image in all the searched edge points. And a changing edge image creating means 162 for creating.

【0019】そして、移動物体特定手段18は、物体移
動路を横断する方向に変化エッジ画像を走査して走査毎
にエッジ点の総和を算出し、算出された各エッジ点総和
を順に物体移動路の伸長方向へ整列させるヒストグラム
作成手段181と、一定数以上のエッジ点総和が物体移
動路の伸長方向で密に連続する部分を移動物体の存在領
域として決定する移動物体領域決定手段182と、を含
む。
Then, the moving object specifying means 18 scans the changing edge image in the direction traversing the object moving path, calculates the sum of the edge points for each scanning, and sequentially calculates the calculated sum of the respective edge points. And a moving object region determining unit 182 that determines a portion where a certain number or more of edge points are densely continuous in the extending direction of the object moving path as an existing region of the moving object. Including.

【0020】ここで、通過物体数カウント手段20は、
決定された移動物体の存在領域における一端を移動物体
の位置として記憶する物体位置記憶手段201と、記憶
された位置を前回に記憶された位置と両位置間の距離で
対応付ける画面間物体対応付け手段202と、記憶され
た位置のうち前回に記憶された位置と対応付けられなか
った位置の数をカウントして撮影の視野範囲を通過した
移動物体の数を求める新規撮影物体カウント手段203
と、を含む。
Here, the passing object number counting means 20 is
Object position storage means 201 that stores one end of the determined moving object existing area as the position of the moving object, and inter-screen object associating means that associates the stored position with the previously stored position and the distance between the two positions. 202 and a new imaged object counting unit 203 that counts the number of stored positions that are not associated with previously stored positions to obtain the number of moving objects that have passed through the field of view of the image capturing.
And, including.

【0021】[0021]

【作用】第1発明にかかる装置においては、撮影で得ら
れた時系列画像を連続入力し、移動物体が含まれない背
景画像を時系列の入力画像から作成し、入力された画像
と背景画像とから輝度の変化が大きなエッジ点を抽出し
て輪郭を抽出し、入力された画像の側にのみ存在するエ
ッジ点を選択して移動物体とその影の輪郭を抽出する。
In the device according to the first aspect of the present invention, the time-series images obtained by photographing are continuously input, a background image containing no moving object is created from the time-series input images, and the input image and the background image are input. The edge points having a large change in brightness are extracted from and the contours are extracted, and the edge points existing only on the side of the input image are selected to extract the contours of the moving object and its shadow.

【0022】ここで、移動物体の存在部分はエッジ点の
密度が高く、走行車両の影やヘッドライト光の部分はエ
ッジ点の密度が低いことから、選択された高いエッジ点
密度が連続する領域を移動物体の存在部分として特定す
る。
Here, since the density of the edge points is high in the portion where the moving object exists, and the density of the edge points is low in the portion of the shadow of the traveling vehicle and the headlight light, an area where the selected high edge point density is continuous. Is specified as the existing part of the moving object.

【0023】第2発明にかかる装置においては、時系列
先頭で入力された画像を移動物体が含まれない背景画像
の初期画像とし、入力された画像と背景画像とにおいて
対応した点の輝度差を算出し、算出された輝度の差が減
少する方向へ背景画像における各点の輝度を更新し、照
度の変化分を背景画像に反映させる。
In the apparatus according to the second aspect of the present invention, the image input at the beginning of the time series is used as the initial image of the background image that does not include a moving object, and the brightness difference between corresponding points in the input image and the background image is determined. The brightness of each point in the background image is calculated in a direction in which the calculated difference in brightness decreases, and the change in illuminance is reflected in the background image.

【0024】屋外の照度が時刻や天気で大きく変動して
も、照度の変化分が背景画像にリアルタイムで反映され
ることから、照度の大きな変動にもかかわらず、常に安
定した検出結果が得られる。
Even if the outdoor illuminance changes greatly depending on the time of day and the weather, since the change in illuminance is reflected in the background image in real time, a stable detection result can always be obtained despite the large change in illuminance. .

【0025】また、入力された画像から輝度の変化が大
きなエッジ点を抽出して入力エッジ画像を生成し、さら
に、更新された背景画像から輝度の変化が大きなエッジ
点を抽出して背景エッジ画像を生成し、入力エッジ画像
のみに存在のエッジ点を検索し、検索された全てのエッ
ジ点で変化エッジ画像を作成する。
Further, the input edge image is generated by extracting edge points having a large change in luminance from the input image, and the background edge image is extracted by extracting edge points having a large change in luminance from the updated background image. Is generated, an edge point existing only in the input edge image is searched, and a changed edge image is created with all the searched edge points.

【0026】そして、物体移動路を横断する方向に変化
エッジ画像を走査して走査毎にエッジ点の総和を算出
し、物体移動路の伸長方向へ順に整列させたヒストグラ
ムを作成し、一定数以上のエッジ点総和が物体移動路の
伸長方向で密に連続するヒストグラム部分を移動物体の
存在領域として決定し、影やヘッドライト光の部分を除
去する。
Then, the changing edge image is scanned in the direction traversing the object moving path, the total sum of the edge points is calculated for each scan, and a histogram is created which is arranged in order in the extending direction of the object moving path. A histogram portion in which the sum of the edge points is densely continuous in the extension direction of the object moving path is determined as the moving object existing area, and the shadow and the headlight light portion are removed.

【0027】このように、垂直エッジと水平エッジの双
方が移動物体の検出に使用されるので、検出結果の信頼
性が高められる(車両の撮影画像からは垂直エッジより
水平エッジの方が多く取り出されることから、走行車両
を検出する場合は、両エッジの双方を使用することが最
適となる)。
As described above, since both the vertical edges and the horizontal edges are used for detecting the moving object, the reliability of the detection result is improved (more horizontal edges than vertical edges are extracted from the photographed image of the vehicle. Therefore, it is best to use both edges when detecting a moving vehicle).

【0028】第3発明にかかる装置では、決定された移
動物体の存在領域における一端(例えば、走行車両の後
尾)を移動物体の位置として記憶し、記憶された位置を
前回に記憶された位置と両位置間の距離で対応付けて移
動物体を追尾し(連続した2枚の画像間で距離的に近い
位置を同一の移動物体に関するものとする)、記憶され
た位置のうち前回に記憶された位置と対応付けられなか
った位置の数を通過移動の物体数としてカウントする
(撮影視野へ新たに進入した車両の数を積算する)。
In the device according to the third aspect of the invention, one end (for example, the tail of the traveling vehicle) in the determined moving object existing area is stored as the position of the moving object, and the stored position is set as the previously stored position. The moving object is tracked in association with the distance between the two positions (positions that are close to each other in distance between two consecutive images are related to the same moving object), and are stored in the previously stored positions. The number of positions that are not associated with the position is counted as the number of passing objects (the number of vehicles that have newly entered the field of view is integrated).

【0029】[0029]

【実施例】図2において、カメラ2000(民生用のビ
デオカメラを使用できる)の撮影出力が動画像処理シス
テム2002のビデオボード2004へ入力されてお
り、ビデオボード2004の画像出力(道路の撮影画像
やその交通情報)はモニタ2006に与えられる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to FIG. 2, a photographing output of a camera 2000 (a consumer video camera can be used) is input to a video board 2004 of a moving image processing system 2002, and an image output of the video board 2004 (a photographed image of a road). And its traffic information) are given to the monitor 2006.

【0030】また、ワークステーション2008もビデ
オボード2004に接続されており、このワークステー
ション2008は道路の交通情報をビデオボード200
4から取得して回線2010を介し遠隔のホストコンピ
ュータ(図示は省略)へ送信する。
The workstation 2008 is also connected to the video board 2004, and the workstation 2008 displays road traffic information on the video board 200.
4 and sends it to a remote host computer (not shown) via a line 2010.

【0031】そして、動画像処理システム2002には
5枚の画像処理ボード2012_1,2012_2,2
012_3,2012_4,2012_5をパイプライ
ン接続したリニアアレイプロセッサが設けられている。
The moving image processing system 2002 includes five image processing boards 2012_1, 1212_2, 2
A linear array processor in which 012_3, 2012_4, and 2012_5 are pipeline-connected is provided.

【0032】リニアアレイプロセッサにはカメラ200
0の撮影出力がビデオボード2004から入力されてお
り、リニアアレイプロセッサはビデオボード2004に
交通情報(車両の台数,走行速度)を送出する。
The linear array processor includes a camera 200
The shooting output of 0 is input from the video board 2004, and the linear array processor sends traffic information (the number of vehicles, traveling speed) to the video board 2004.

【0033】また、リニアアレイプロセッサの画像処理
ボード2012_1,2012_2,2012_3,2
012_4,2012_5にはワークステーション20
08からプログラムがダウンロードされ、画像処理ボー
ド2012_1,2012_2,2012_3,201
2_4,2012_5はワークステーション2008か
ら自己にダウンロードされたプログラムを個別に実行す
る。
Image processing boards 2012_1, 2012_2, 2012_3, 2 of the linear array processor.
Workstations 012_4 and 2012_5
08, the program is downloaded, the image processing board 2012_1, 2012_2, 2012_3, 201
2_4 and 2012_5 individually execute the programs downloaded to themselves from the workstation 2008.

【0034】このため、装置全体のアルゴリズムが画像
処理ボード2012_1,2012_2,2012_
3,2012_4,2012_5で分担され、したがっ
て、ワークステーション2008の処理速度に依存する
ことなく、パイプライン処理がリニアアレイプロセッサ
により高速に行なわれる。その結果、交通情報がリアル
タイムで得られる。
For this reason, the algorithm of the entire apparatus is the image processing boards 2012_1, 2012_2, 2012_.
3, 2012_4, 2012_5, and therefore pipeline processing is performed at high speed by the linear array processor without depending on the processing speed of the workstation 2008. As a result, traffic information can be obtained in real time.

【0035】図3及び図4においてカメラ2000は道
路を2車線に等分する白線の伸長方向へ指向してやや下
向きとされた姿勢とされ、この白線から高く離れた位置
に設けられる。これにより、カメラ2000は数十メー
トルに亘る道路部分(観測区間:図3参照)を撮影視野
とし、その道路部分を走行する車両は後ろ斜め上方から
撮影される。
In FIGS. 3 and 4, the camera 2000 is oriented slightly in the direction of extension of the white line that divides the road into two lanes, and is set slightly downward, and is provided at a position distant from the white line. As a result, the camera 2000 has a field of view of a road portion (observation section: see FIG. 3) extending over several tens of meters, and a vehicle traveling on the road portion is imaged from diagonally above and behind.

【0036】図2において、動画像処理システム200
2のビデオボード2004はカメラ2000から撮影画
像が入力されるされる毎にその画像をA/D変換し、フ
レームメモリに蓄積してから、画像処理ボード2012
_1に引き渡す。
In FIG. 2, a moving image processing system 200
The video board 2004 of No. 2 A / D-converts a captured image each time a captured image is input from the camera 2000, stores the image in the frame memory, and then the image processing board 2012.
Hand over to _1.

【0037】画像処理ボード2012_1は図5のよう
に引き渡された画像50より道路以外の部分を除去し、
残りの画像部分から道路中央の白線を検出し、その白線
で残りの画像部分を左右の走行車線(図4参照)に分割
し(領域500,501に分割する)、これらの分割領
域500,501毎に処理を行なうよう、画像処理ボー
ド2012_2,2012_3,2012_4,201
2_5に指示する。
The image processing board 2012_1 removes portions other than roads from the delivered image 50 as shown in FIG.
A white line at the center of the road is detected from the remaining image portion, and the remaining image portion is divided into left and right driving lanes (see FIG. 4) by the white line (divided into areas 500 and 501), and these divided areas 500 and 501 are divided. The image processing boards 2012_2, 2012_3, 2012_4, 201 are configured to perform the processing for each.
Instruct 2_5.

【0038】画像処理ボード2012_2は最初に入力
された撮影画像の領域500,501をそのまま背景画
像としてメモリに蓄積し、撮影画像の入力毎に、図6の
背景更新処理を行なう。
The image processing board 2012_2 stores the areas 500 and 501 of the first input photographed image as they are in the memory as a background image, and performs the background update processing of FIG. 6 every time the photographed image is input.

【0039】この処理では、領域500,501の全座
標につき(ステップ600)、入力画像の側と背景画像
側との輝度差が算出され(ステップ602)、その差が
減少する方向へ背景画像における各座標の輝度が一定量
だけ更新される(ステップ604,606,608,6
10)。
In this process, the luminance difference between the input image side and the background image side is calculated for all the coordinates of the areas 500 and 501 (step 600) (step 602), and the difference in the background image is reduced. The brightness of each coordinate is updated by a fixed amount (steps 604, 606, 608, 6).
10).

【0040】したがって、屋外の照度が時刻や天気で大
きく変動しても、照度の変化分が背景画像に反映され
る。このため、照度が大きく変動する外部環境の変化に
もかかわらず、常に安定した交通情報を得ることが可能
となる。
Therefore, even if the outdoor illuminance greatly changes depending on time and weather, the change in illuminance is reflected in the background image. Therefore, it is possible to always obtain stable traffic information despite changes in the external environment in which the illuminance fluctuates greatly.

【0041】画像処理ボード2012_3は図7の処理
を行ない、領域500,501の全座標について(ステ
ップ700)、輝度の変化量を計算し(ステップ70
2,704,706)、輝度の変化量が所定の値以上の
座標点で値‘1’,それ以外の座標点で値‘0’となる
背景エッジ画像を生成する(ステップ708,710,
712)。
The image processing board 2012_3 performs the processing shown in FIG. 7, and calculates the amount of change in luminance for all coordinates of the areas 500 and 501 (step 700) (step 70).
2, 704, 706), a background edge image having a value "1" at a coordinate point where the amount of change in luminance is equal to or larger than a predetermined value and a value "0" at other coordinate points is generated (steps 708, 710,
712).

【0042】また、画像処理ボード2012_4は図8
の処理を行ない、領域500,501の全座標について
(ステップ800)、輝度の変化量を計算し(ステップ
802,804,806)、輝度の変化量が所定の値以
上の座標点で値‘1’,それ以外の座標点で値‘0’と
なる入力エッジ画像を生成する(ステップ808,81
0,812)。
The image processing board 2012_4 is shown in FIG.
Processing is performed to calculate the brightness change amount for all coordinates of the regions 500 and 501 (step 800) (steps 802, 804, and 806), and the value '1 is obtained at the coordinate point where the brightness change amount is a predetermined value or more. ', An input edge image having a value of "0" at other coordinate points is generated (steps 808, 81)
0,812).

【0043】さらに、画像処理ボード2012_4は図
9の処理を行ない、領域500,501の全座標につい
て(ステップ900)、背景エッジ画像と入力エッジ画
像の対応した座標点の値を調べ(ステップ902,90
4)、背景エッジ画像の側が値‘0’であって入力エッ
ジ画像の側が値‘1’の座標点を値‘1’とし(ステッ
プ906)、それ以外の座標点を値‘0’とし(ステッ
プ908)、入力エッジ画像に存在し、背景エッジ画像
に存在しないエッジ点で変化エッジ画像を生成する。
Further, the image processing board 2012_4 performs the processing shown in FIG. 9 and checks the values of the coordinate points corresponding to the background edge image and the input edge image for all coordinates of the areas 500 and 501 (step 900) (step 902). 90
4), the coordinate point having the value "0" on the side of the background edge image and the value "1" on the side of the input edge image is set to the value "1" (step 906), and the other coordinate points are set to the value "0" (step 906). Step 908), a changing edge image is generated at edge points that are present in the input edge image but not in the background edge image.

【0044】例えば、図10(A)の背景エッジ画像と
図10(B)の入力エッジ画像が得られた場合、図10
(C)の変化エッジ画像が生成され、入力エッジ画像に
存在するものの、背景エッジ画像には存在しない車両及
びその影のエッジ点で変化エッジ画像が生成される。
For example, when the background edge image of FIG. 10A and the input edge image of FIG.
The changed edge image of (C) is generated, and the changed edge image is generated at the edge points of the vehicle and its shadow which are present in the input edge image but not in the background edge image.

【0045】そして、画像処理ボード2012_4は図
11の処理を行ない、領域500,501内(カメラ撮
影の視野内:観測区間の走行車線上)を走行している車
両の後尾位置を記録する。
Then, the image processing board 2012_4 performs the processing of FIG. 11 and records the rear position of the vehicle traveling in the areas 500 and 501 (in the field of view of the camera image: on the traveling lane of the observation section).

【0046】図11の処理では、計測開始点Y1(図5
参照)から計測終了点Y2(図5参照)へ向いながら、
道路を横断する方向Xに変化エッジ画像を走査してエッ
ジ点の総和(エッジヒストグラムの値:H(y)=ΣE2
(x,y))を算出し、走査毎にエッジ点の総和を第1の設
定値(所定値1)と比較し、エッジ点の総和が第1の設
定値以上となる位置yを車両の後尾位置として検出する
(ステップ1100,1102,1104,1105,
1106,1108)。
In the processing of FIG. 11, the measurement start point Y1 (see FIG.
(See) to the measurement end point Y2 (see FIG. 5),
The change edge image is scanned in the direction X across the road, and the sum of the edge points is calculated (the value of the edge histogram: H (y) = ΣE2
(x, y)) is calculated, and the sum of the edge points is compared with the first set value (predetermined value 1) for each scan, and the position y at which the sum of the edge points is equal to or more than the first set value is set to the vehicle position. It is detected as the tail position (steps 1100, 1102, 1104, 1105, and
1106, 1108).

【0047】さらに計測終了点Y2へ向いながら、道路
を横断する方向Xに変化エッジ画像を走査してエッジ点
の総和を算出し、これを積算(積算値=S)し、第2の
設定値(所定値2)と比較し、エッジ点の総和が第2の
設定値以下となる位置yを車両の先頭位置として検出す
る(ステップ1108,1110,1112,111
4,1116)。
Further, while moving toward the measurement end point Y2, the changing edge image is scanned in the direction X crossing the road to calculate the total sum of the edge points, and this is integrated (integrated value = S) to obtain the second set value. Compared with (predetermined value 2), the position y at which the total sum of the edge points is equal to or less than the second set value is detected as the head position of the vehicle (steps 1108, 1110, 1112, 111).
4, 1116).

【0048】車両の先頭位置を検出した際には、エッジ
点数の総和を積算した値Sを第3の設定値(所定値3)
と比較し(ステップ1118)、積算値Sが第3の設定
値より大きく、エッジ点数の総和が方向Yにおいて密な
ことを確認すると、検出した後尾位置より先頭位置へ至
る部分を走行車両の存在領域として確定し、この位置を
記録する(ステップ1120)。
When the head position of the vehicle is detected, the value S obtained by integrating the total sum of the number of edge points is set to the third set value (predetermined value 3).
When it is confirmed that the integrated value S is larger than the third set value and the total sum of the number of edge points is dense in the direction Y by comparing with (step 1118), the portion from the detected rear position to the leading position is present by the traveling vehicle. The area is confirmed and this position is recorded (step 1120).

【0049】また、積算値Sが第3の設定値より小さ
く、エッジ点数の総和が方向Yにおいて粗であることを
確認すると、検出した後尾位置より先頭位置へ至る部分
を走行車両の影が存在する領域と判断する。走行車両ま
たはその影が検出されると、次の車両後尾位置を検索す
る以上の処理が再び開始される(ステップ1118−>
ステップ1102)。
When it is confirmed that the integrated value S is smaller than the third set value and the total sum of the number of edge points is rough in the direction Y, the shadow of the traveling vehicle exists in the portion from the detected rear position to the leading position. Judge as the area to When the traveling vehicle or its shadow is detected, the above-described processing for searching the rear position of the next vehicle is restarted (step 1118->).
Step 1102).

【0050】図12の中央部分には観測区間の右側走行
車線(図3及び図4参照)を1台の車両が走行している
ときの変化エッジ画像(図10参照)が示されており、
同図の右側部分にはその車両のエッジヒストグラムが、
また、同図の左側部分には左側走行車線に投影されたそ
の車両の影のエッジヒストヅラムが、各々示されてい
る。
In the center portion of FIG. 12, a change edge image (see FIG. 10) when one vehicle is traveling in the right lane of the observation section (see FIGS. 3 and 4) is shown.
The edge histogram of the vehicle is on the right side of the figure,
Further, in the left part of the figure, the edge histrums of the shadow of the vehicle projected on the left lane are respectively shown.

【0051】この図12から理解されるように、車両が
右側の走行車線を手前側から移動すると、そのエッジヒ
ストグラムが図5の領域501を下側から上側へ向かっ
て進み、この車両の影をエッジヒストグラムも図5の領
域500を下側から上側へ向かって進む。
As can be seen from FIG. 12, when the vehicle moves on the right lane from the front side, its edge histogram advances from the lower side to the upper side in the region 501 of FIG. The edge histogram also advances from the lower side to the upper side in the area 500 of FIG.

【0052】図13には車両が存在する部分のエッジヒ
ストグラムが拡大して示されており、同図からも理解さ
れるように、車両存在部分の境界と内側では大きなヒス
トグラムの値(すなわち、エッジ点数の総和)が密に現
れる。
FIG. 13 shows an enlarged edge histogram of a portion where a vehicle exists. As can be understood from FIG. 13, a large histogram value (that is, edge The sum of points) appears densely.

【0053】図14には車両の影部分のエッジヒストグ
ラムが拡大して示されており、同図からも理解されるよ
うに、車両影部分の境界ではヒストグラムの値が高くな
るものの、その部分の内側においては低くなる。
FIG. 14 shows an enlarged edge histogram of the shadow portion of the vehicle. As can be seen from FIG. 14, although the histogram value is high at the boundary of the vehicle shadow portion, It becomes lower inside.

【0054】したがって、車両の後尾を検出してから
(ステップ1104−>ステップ1108)、座標値y
を変化させながら(ステップ1112)、ヒストグラム
値を第2の設置値と比較(ステップ1116)し、その
後、車両の先頭を検出した時点(ステップ1116でN
O)で、エッジ点数総和の積算値Sを第3の設置値(所
定値3)と比較(ステップ1118)することにより、
この部分が走行車両によるものか(図13参照)、その
影によるものか(図14参照)を確実に判別できる。
Therefore, after detecting the tail of the vehicle (step 1104-> step 1108), the coordinate value y
While changing (step 1112), the histogram value is compared with the second installation value (step 1116), and thereafter, the time point when the head of the vehicle is detected (N in step 1116).
In O), the integrated value S of the total number of edge points is compared with the third installation value (predetermined value 3) (step 1118),
Whether this portion is due to the traveling vehicle (see FIG. 13) or the shadow thereof (see FIG. 14) can be reliably determined.

【0055】図15では画像処理ボード2012_5が
行なう処理が説明されており、観測区間(図3及び図4
参照)を通過する車両の台数がこの処理によりカウント
される。
FIG. 15 illustrates the processing performed by the image processing board 2012_5, and the observation section (see FIGS. 3 and 4).
The number of vehicles passing through (see) is counted by this processing.

【0056】図15の処理においては、前回に記録され
た全ての車両位置(車両後尾の位置)が順に取り出され
(ステップ1500,1502)、前回記録の車両位置
が取り出される毎に、今回に記録された車両位置(車両
後尾の位置)が順に取り出される(ステップ1504,
1506)。
In the process of FIG. 15, all vehicle positions recorded last time (positions of the vehicle tail) are sequentially taken out (steps 1500 and 1502), and each time the previously recorded vehicle position is taken out, they are recorded this time. The determined vehicle position (position of the vehicle tail) is sequentially extracted (step 1504).
1506).

【0057】そして、今回記録の車両位置が取り出され
る毎に、同車両位置と前回記録の車両位置(取り出され
ているもの)との間の距離が一定の値以下か否かが調べ
られる(ステップ1508)。
Then, every time the vehicle position recorded this time is taken out, it is checked whether or not the distance between the vehicle position and the vehicle position recorded previously (the one taken out) is a fixed value or less (step 1508).

【0058】このときに、両位置間の距離が一定の値以
下の場合であることが確認されると(ステップ1508
でYES)、それらの位置が同一車両のものであると判
断される(ステップ1510)。
At this time, when it is confirmed that the distance between the two positions is equal to or less than a certain value (step 1508).
YES), it is determined that these positions belong to the same vehicle (step 1510).

【0059】また、両車両の距離が一定の値以下の場合
でないことが確認されると(ステップ1508でN
O)、それらの位置が異なる車両のものであると判断さ
れ、次の車両位置(今回記録のもの)が取り出される。
If it is confirmed that the distance between the two vehicles is not less than a certain value (N at step 1508).
O), it is determined that the positions of the vehicles are different, and the next vehicle position (currently recorded) is taken out.

【0060】さらに、取り出された前回記録の車両位置
と同一車両のものとなる今回記録の車両位置が検索され
なかった場合(ステップ1504でYES)は、そのと
きに取り出された今回記録の位置が観測区間へ新たに進
入した車両のものと判断され(ステップ1512)、観
測区間を通過した車両の台数を示す値がカウントアップ
される(ステップ1514)。
Further, if the vehicle position of the current record that is the same as the vehicle position of the previously recorded record retrieved is not retrieved (YES in step 1504), the position of the current record retrieved at that time is determined. It is determined that the vehicle has newly entered the observation section (step 1512), and the value indicating the number of vehicles that have passed the observation section is counted up (step 1514).

【0061】画像処理ボード2012_5では観測区間
を通過中している車両の速度も算出されており、その車
速と観測区間通過の車両台数はビデオボード2004に
与えられる。
The image processing board 2012_5 also calculates the speed of the vehicle passing through the observation section, and the vehicle speed and the number of vehicles passing through the observation section are given to the video board 2004.

【0062】ビデオボード2004は画像処理ボード2
012_5から与えられた車速と車両台数をカメラ20
00が撮影した最新の画像とともにモニタ2006へ出
力し、モニタ2006に表示させる。
The video board 2004 is the image processing board 2
The vehicle speed and the number of vehicles given from 012_5 are taken by the camera 20.
00 is output to the monitor 2006 together with the latest image captured by 00, and is displayed on the monitor 2006.

【0063】また、ワークステーション2008は観測
された車速と車両台数をビデオボード2004から取得
し、回線2010を介して遠隔のホストコンピュータに
送信する。
Further, the workstation 2008 acquires the observed vehicle speed and the number of vehicles from the video board 2004 and transmits them to the remote host computer via the line 2010.

【0064】以上説明したように本実施例によれば、車
両が実際に存在する部分はエッジ点の密度が連続して高
く、その影(及びヘッドライト光)の部分内はエッジ点
の密度が低いことに着目し、エッジ点の密度が連続して
高い領域のみが移動物体の存在部分として特定されるの
で、車両の通過台数を正確に観測することが可能とな
る。
As described above, according to this embodiment, the density of the edge points is continuously high in the portion where the vehicle actually exists, and the density of the edge points is high in the portion of the shadow (and headlight light). Focusing on the lowness, only the region where the density of the edge points is continuously high is specified as the existence portion of the moving object, so that the number of vehicles passing through can be accurately observed.

【0065】また、時系列先頭の入力画像が初期の背景
画像とされ、以後の入力画像との輝度差が減少する方向
へ背景画像の輝度が更新されるので、屋外の照度が時刻
や天気で大きく変更しても、その照度の変化分が背景画
像に反映され、したがって、常に安定した観測結果を得
ることが可能となる。
The input image at the beginning of the time series is set as the initial background image, and the brightness of the background image is updated in the direction in which the brightness difference from the subsequent input images decreases, so that the outdoor illuminance changes depending on time and weather. Even if it is largely changed, the change in the illuminance is reflected in the background image, and thus it is possible to always obtain stable observation results.

【0066】さらに、垂直エッジと水平エッジの双方が
車両の検出に使用されるので、垂直エッジのみによる場
合(エッジ数が少ないことから照度や車両によっては検
出漏れを招く)に比し、車両検出の信頼性を大幅に高め
ることが可能となる。
Further, since both the vertical edges and the horizontal edges are used for detecting the vehicle, the vehicle detection is performed as compared with the case where only the vertical edges are used (there is a small number of edges, which may cause detection omission depending on illuminance and vehicle). It is possible to greatly improve the reliability of the.

【0067】そして、リニアアレイプラセッサの画像処
理ボード2012_1,2012_2,2012_3,
2012_4,2012_5にワークステーション20
08からプログラムがダウンロードされ、画像処理ボー
ド2012_1,2012_2,2012_3,201
2_4,2012_5がワークステーション2008か
らダウンロードされたプログラムを個別に実行し、装置
全体のアルゴリズムを画像処理ボード2012_1,2
012_2,2012_3,2012_4,2012_
5で分担するので、道路情報をリアルタイムに得ること
も可能となる。
Image processing boards 2012_1, 2012_2, 2012_3 of the linear array processor.
Workstations 20 to 2012_4 and 2012_5
08, the program is downloaded, the image processing board 2012_1, 2012_2, 2012_3, 201
2_4 and 2012_5 individually execute the programs downloaded from the workstation 2008 to execute the algorithm of the entire apparatus on the image processing boards 2012_1 and 2012_2.
012_2, 2012_3, 2012_4, 2012_
Since it is shared by 5, it is possible to obtain road information in real time.

【0068】[0068]

【発明の効果】以上説明したように本発明によれば、撮
影視野の照度変化(日照変化),移動物体の影や物体移
動路の強い反射光にもかかわらず、移動物体を誤りなく
確実に検出することが可能となる。
As described above, according to the present invention, a moving object can be reliably and accurately in spite of a change in illuminance (a change in sunshine) in a photographing field, a shadow of a moving object, or strong reflected light of an object moving path. It becomes possible to detect.

【図面の簡単な説明】[Brief description of drawings]

【図1】発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the invention.

【図2】実施例の構成説明図である。FIG. 2 is an explanatory diagram of a configuration of an embodiment.

【図3】カメラの設置説明図である。FIG. 3 is an explanatory diagram of installation of a camera.

【図4】カメラの設置説明図である。FIG. 4 is an explanatory diagram of installation of a camera.

【図5】マスク処理の説明図である。FIG. 5 is an explanatory diagram of mask processing.

【図6】背景更新処理を説明するフローチャートであ
る。
FIG. 6 is a flowchart illustrating background update processing.

【図7】背景エッジ画像生成処理を説明するフローチャ
ートである。
FIG. 7 is a flowchart illustrating background edge image generation processing.

【図8】入力エッジ画像の生成処理を説明するフローチ
ャートである。
FIG. 8 is a flowchart illustrating a process of generating an input edge image.

【図9】変化エッジ画像の生成処理を説明するフローチ
ャートである。
FIG. 9 is a flowchart illustrating a changing edge image generation process.

【図10】変化エッジ画像の生成作用説明図である。FIG. 10 is an explanatory diagram of a generation operation of a changed edge image.

【図11】車両位置の決定処理を説明するフローチャー
トである。
FIG. 11 is a flowchart illustrating a vehicle position determination process.

【図12】エッジヒストグラムの説明図である。FIG. 12 is an explanatory diagram of an edge histogram.

【図13】車両部分エッジのヒストグラム説明図であ
る。
FIG. 13 is an explanatory diagram of a histogram of vehicle partial edges.

【図14】背景部分エッジのヒストグラム説明図であ
る。
FIG. 14 is an explanatory diagram of a histogram of a background partial edge.

【図15】車両カウント処理を説明するフローチャート
である。
FIG. 15 is a flowchart illustrating a vehicle counting process.

【符号の説明】[Explanation of symbols]

2000 カメラ 2002 動画像処理システム 2004 ビデオボード 2006 モニタ 2008 ワークステーション 2010 回線 2012_1 画像処理ボード(領域マスク設定) 2012_2 画像処理ボード(背景画像作成) 2012_3 画像処理ボード(背景画像のエッジ抽
出) 2012_4 画像処理ボード(ヒストグラムの作成) 2012_5 画像処理ボード(車両の台数と速度の算
出)
2000 camera 2002 moving image processing system 2004 video board 2006 monitor 2008 workstation 2010 line 2012_1 image processing board (area mask setting) 2012_2 image processing board (background image creation) 2012_3 image processing board (background image edge extraction) 2012_4 image processing board (Creation of histogram) 2012_5 Image processing board (calculation of number of vehicles and speed)

フロントページの続き (56)参考文献 特開 平1−211083(JP,A) 特開 平3−144797(JP,A) 特開 平5−62094(JP,A) 特開 平6−223157(JP,A) 特開 平5−28396(JP,A) 特開 平4−84300(JP,A) 特開 昭63−9813(JP,A) 国際公開94/011852(WO,A1) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G06T 1/00 H04N 7/18 G08G 1/00 - 1/16 B60R 21/00 Continuation of the front page (56) References JP-A 1-211083 (JP, A) JP-A 3-144797 (JP, A) JP-A 5-62094 (JP, A) JP-A 6-223157 (JP , A) JP 5-28396 (JP, A) JP 4-84300 (JP, A) JP 63-9813 (JP, A) International publication 94/011852 (WO, A1) (58) Survey Areas (Int.Cl. 7 , DB name) G06T 7 /00-7/60 G06T 1/00 H04N 7/18 G08G 1/00-1/16 B60R 21/00

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮影で得られた時系列画像の連続入力を
行なう画像入力手段と、 移動物体が含まれない背景画像を時系列の入力画像から
作成する背景画像作成手段と、 入力された画像と背景画像とから輝度の変化が大きなエ
ッジ点を抽出するエッジ点抽出手段と、 入力された画像と背景画像とから抽出されたエッジ点の
うち入力された画像の側にのみ存在するエッジ点を選択
する移動エッジ点選択手段と、 選択されたエッジ点の密度が高い領域を移動物体の存在
部分として特定する移動物体特定手段と、 を有する、 ことを特徴とした移動物体検出装置。
1. An image input means for continuously inputting time-series images obtained by photographing, a background image creation means for creating a background image containing no moving object from time-series input images, and an input image. Edge point extraction means for extracting an edge point having a large change in brightness from the background image and the edge point existing only on the input image side among the edge points extracted from the input image and the background image. A moving object detecting device, comprising: a moving edge point selecting means for selecting; and a moving object specifying means for specifying an area having a high density of the selected edge points as a portion where a moving object exists.
【請求項2】 撮影で得られた時系列画像の連続入力を
行なう画像入力手段と、 移動物体が含まれない背景画像を時系列の入力画像から
作成する背景画像作成手段と、 入力された画像と背景画像とから輝度の変化が大きなエ
ッジ点を抽出するエッジ点抽出手段と、 入力された画像と背景画像とから抽出されたエッジ点の
うち入力された画像の側にのみ存在するエッジ点を選択
する移動エッジ点選択手段と、 選択されたエッジ点の密度が高い領域を移動物体の存在
部分として特定する移動物体特定手段と、 を有し、 背景画像作成手段は、 時系列先頭で入力された画像を移動物体が含まれない背
景画像の初期画像とする初期背景画像設定手段と、 入力された画像と背景画像とにおいて対応した点の輝度
差を算出する輝度差算出手段と、 算出された輝度の差が減少する方向へ背景画像における
各点の輝度を更新する背景画像更新手段と、 を含み、 エッジ点抽出手段は、 入力された画像から輝度の変化が大きなエッジ点を抽出
して入力エッジ画像を生成する入力エッジ画像生成手段
と、 更新された背景画像から輝度の変化が大きなエッジ点を
抽出して背景エッジ画像を生成する背景エッジ画像生成
手段と、 を含み、 移動エッジ点選択手段は、 入力エッジ画像に存在し背景エッジ画像に存在しないエ
ッジ点を検索する変化エッジ点検索手段と、 検索された全てのエッジ点で変化エッジ画像を作成する
変化エッジ画像作成手段と、 を含み、 移動物体特定手段は、 物体移動路を横断する方向に変化エッジ画像を走査して
走査毎にエッジ点の総和を算出し、算出された各エッジ
点総和を順に物体移動路の伸長方向へ整列させるヒスト
グラム作成手段と、 一定数以上のエッジ点総和が物体移動路の伸長方向で密
に連続する部分を移動物体の存在領域として決定する移
動物体領域決定手段と、 を含む、 ことを特徴とした移動物体検出装置。
2. An image input means for continuously inputting time-series images obtained by photographing, a background image creation means for creating a background image containing no moving object from time-series input images, and an input image. Edge point extraction means for extracting an edge point having a large change in brightness from the background image and the edge point existing only on the input image side among the edge points extracted from the input image and the background image. The background image creating means includes a moving edge point selecting means to be selected, and a moving object specifying means to specify an area having a high density of the selected edge points as an existing portion of the moving object. An initial background image setting means that uses the captured image as an initial image of a background image that does not include a moving object, and a brightness difference calculating means that calculates a brightness difference between corresponding points in the input image and the background image. The background image updating means for updating the brightness of each point in the background image in the direction in which the difference in the brightness is reduced, and the edge point extracting means extracts the edge points having a large brightness change from the input image. Input edge image generation means for generating an input edge image according to the present invention, and a background edge image generation means for generating a background edge image by extracting edge points having a large change in brightness from the updated background image. The selecting means includes a changing edge point searching means for searching for an edge point existing in the input edge image and not existing in the background edge image, and a changing edge image creating means for creating a changing edge image with all the searched edge points. The moving object specifying means scans the changing edge image in the direction traversing the object moving path, calculates the sum of the edge points for each scan, and calculates the calculated sum of the edge points. A histogram creating means for aligning in the extension direction of the object moving path, and a moving object area determining means for determining a portion where a certain number of edge point sums are densely continuous in the extending direction of the object moving path as an existing area of the moving object. A moving object detection device comprising:
【請求項3】 撮影で得られた時系列画像の連続入力を
行なう画像入力手段と、 移動物体が含まれない背景画像を時系列画像から作成す
る背景画像作成手段と、 入力された画像と背景画像とから輝度の変化が大きなエ
ッジ点を抽出するエッジ点抽出手段と、 入力された画像と背景画像とから抽出されたエッジのう
ち入力された画像の側にのみ存在するエッジ点を選択す
る移動エッジ点選択手段と、 選択されたエッジ点の密度が高い領域を移動物体の存在
部分として特定する移動物体特定手段と、 撮影の視野範囲を通過した移動物体の数をカウントする
通過物体数カウント手段と、 を有し、 背景画像作成手段は、 時系列先頭で入力された画像を移動物体が含まれない背
景画像の初期画像とする初期背景画像設定手段と、 入力された画像と背景画像とにおいて対応した点の輝度
差を算出する輝度差算出手段と、 算出された輝度の差が減少する方向へ背景画像における
各点の輝度を更新する背景画像更新手段と、 を含み、 エッジ点抽出手段は、 入力された画像から輝度の変化が大きなエッジ点を抽出
して入力エッジ画像を生成する入力エッジ画像生成手段
と、 更新された背景画像から輝度の変化が大きなエッジ点を
抽出して背景エッジ画像を生成する背景エッジ画像生成
手段と、 を含み、 移動エッジ点選択手段は、 入力エッジ画像に存在し背景エッジ画像に存在しないエ
ッジ点を検索する変化エッジ点検索手段と、 検索された全てのエッジ点で変化エッジ画像を作成する
変化エッジ画像作成手段と、 を含み、 移動物体特定手段は、 物体移動路を横断する方向に変化エッジ画像を走査して
走査毎にエッジ点の総和を算出し、算出された各エッジ
点総和を順に物体移動路の伸長方向へ整列させるヒスト
グラム作成手段と、 一定数以上のエッジ点総和が物体移動路の伸長方向で密
に連続する部分を移動物体の存在領域として決定する移
動物体領域決定手段と、 を含み、 通過物体数カウント手段は、 決定された移動物体の存在領域における一端を移動物体
の位置として記憶する物体位置記憶手段と、 記憶された位置を前回に記憶された位置と両位置間の距
離で対応付ける画面間物体対応付け手段と、 記憶された位置のうち前回に記憶された位置と対応付け
られなかった位置の数をカウントして撮影の視野範囲を
通過した移動物体の数を求める新規撮影物体カウント手
段と、 を含む、 ことを特徴とした移動物体検出装置。
3. An image input means for continuously inputting time-series images obtained by photographing, a background image creation means for creating a background image containing no moving object from the time-series images, and the input image and background. An edge point extracting means for extracting an edge point having a large change in brightness from the image, and a movement for selecting an edge point existing only on the input image side among the edges extracted from the input image and the background image. Edge point selecting means, moving object specifying means for specifying a region where the density of the selected edge points is high as the existence portion of the moving object, and passing object number counting means for counting the number of moving objects that have passed through the visual field range of the photographing. The background image creating means includes an initial background image setting means that uses the image input at the beginning of the time series as an initial image of a background image that does not include a moving object, and the input image and the background image. A brightness difference calculating means for calculating a brightness difference between corresponding points in the scene image; and a background image updating means for updating the brightness of each point in the background image in a direction in which the calculated brightness difference decreases, The point extracting means extracts an edge point having a large luminance change from the input image to generate an input edge image, and an edge point having a large luminance change from the updated background image. A moving edge point selecting means for searching for an edge point existing in the input edge image but not in the background edge image, and a moving edge point searching means for generating a background edge image. A moving edge image creating means for creating a changing edge image at all edge points, and the moving object specifying means is a changing edge image in a direction traversing the object moving path. Histogram creating means for scanning and calculating the sum total of edge points for each scan, and aligning the calculated sum total of edge points in the extension direction of the object moving path in order; A moving object area determining unit that determines a portion that is densely continuous in a direction as a moving object existing area, and the passing object number counting unit stores one end in the determined moving object existing area as a position of the moving object. Object position storage means, inter-screen object associating means for associating the stored position with the previously stored position and the distance between both positions, and the previously stored position among the stored positions. A moving object detection device, comprising: a new imaged object counting unit that counts the number of positions that have not existed and obtains the number of moving objects that have passed through the field of view of imaging.
JP28793494A 1994-11-22 1994-11-22 Moving object detection device Expired - Fee Related JP3419919B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28793494A JP3419919B2 (en) 1994-11-22 1994-11-22 Moving object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28793494A JP3419919B2 (en) 1994-11-22 1994-11-22 Moving object detection device

Publications (2)

Publication Number Publication Date
JPH08147475A JPH08147475A (en) 1996-06-07
JP3419919B2 true JP3419919B2 (en) 2003-06-23

Family

ID=17723631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28793494A Expired - Fee Related JP3419919B2 (en) 1994-11-22 1994-11-22 Moving object detection device

Country Status (1)

Country Link
JP (1) JP3419919B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001297397A (en) * 2000-04-17 2001-10-26 Nagoya Electric Works Co Ltd Method and device for counting vehicle
US7433494B2 (en) 2002-09-19 2008-10-07 Denso Corporation Moving body detecting apparatus
JP4140402B2 (en) * 2003-03-03 2008-08-27 松下電工株式会社 Image processing device
JP5804155B1 (en) * 2014-07-24 2015-11-04 沖電気工業株式会社 Information processing apparatus, information processing method, and program

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104160B2 (en) * 1986-06-30 1995-11-13 スズキ株式会社 Inter-vehicle distance detection method
JP2644805B2 (en) * 1988-02-19 1997-08-25 株式会社日立製作所 Background image update method
JPH07114494B2 (en) * 1989-10-31 1995-12-06 名古屋電機工業株式会社 Moving object detector
JP2995813B2 (en) * 1990-07-26 1999-12-27 オムロン株式会社 Traffic flow speed measurement method
JP2829800B2 (en) * 1991-07-22 1998-12-02 松下電器産業株式会社 Vehicle running condition measuring device
JP2829801B2 (en) * 1991-09-04 1998-12-02 松下電器産業株式会社 Vehicle dynamics measurement device in tunnel
JP3218521B2 (en) * 1992-09-30 2001-10-15 清水建設株式会社 Moving object detection system using image sensor
DE59305180D1 (en) * 1992-11-10 1997-02-27 Siemens Ag METHOD FOR DETECTING AND SPLITTING THE SHADOW OF MOVING OBJECTS IN A DIGITAL IMAGE SEQUENCE

Also Published As

Publication number Publication date
JPH08147475A (en) 1996-06-07

Similar Documents

Publication Publication Date Title
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP3064928B2 (en) Subject extraction method
US6687386B1 (en) Object tracking method and object tracking apparatus
JP3279479B2 (en) Video monitoring method and device
US6205242B1 (en) Image monitor apparatus and a method
JP4157620B2 (en) Moving object detection apparatus and method
JP2004112144A (en) Front car tracking system and method for tracking front car
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JPH09506454A (en) Method and apparatus for machine vision classification and tracking
JPH1166319A (en) Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JP6226368B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
JPH07250319A (en) Supervisory equipment around vehicle
JP2002074368A (en) Moving object recognizing and tracking device
JP3577875B2 (en) Moving object extraction device
JP3388087B2 (en) Object detection device
CN109886064A (en) Determination can driving space boundary method
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JPH10269362A (en) Object recognition method and device therefor
JPH1144533A (en) Preceding vehicle detector
JP3419919B2 (en) Moving object detection device
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP3516118B2 (en) Object recognition method and object recognition device
JPH11345392A (en) Device and method for detecting obstacle
JP3465531B2 (en) Object recognition method and apparatus
JP3556319B2 (en) Distance measuring device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030401

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080418

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090418

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100418

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110418

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees