JP2003173435A - Moving body detecting method and moving body detecting device - Google Patents

Moving body detecting method and moving body detecting device

Info

Publication number
JP2003173435A
JP2003173435A JP2001373376A JP2001373376A JP2003173435A JP 2003173435 A JP2003173435 A JP 2003173435A JP 2001373376 A JP2001373376 A JP 2001373376A JP 2001373376 A JP2001373376 A JP 2001373376A JP 2003173435 A JP2003173435 A JP 2003173435A
Authority
JP
Japan
Prior art keywords
image
moving body
moving
binarized
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001373376A
Other languages
Japanese (ja)
Inventor
Takeshi Kumazawa
剛 熊澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sekisui Jushi Corp
Tietech Co Ltd
Original Assignee
Sekisui Jushi Corp
Tietech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sekisui Jushi Corp, Tietech Co Ltd filed Critical Sekisui Jushi Corp
Priority to JP2001373376A priority Critical patent/JP2003173435A/en
Publication of JP2003173435A publication Critical patent/JP2003173435A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving body detecting method and a moving body detecting device capable of detecting a moving body (vehicle and the like) with high accuracy regardless of the change of weather and the like. <P>SOLUTION: A detected area is picked up at first predetermined time intervals to acquire and store the picked-up images, and a binary image [i-n, i] obtained by binarizing the difference between the picked-up image [i-n] and the picked-up image [i], and a binary image [i, i+n] obtained by binarizing the difference between the picked-up image [i] and the picked-up image [i+n] are determined on the basis of the picked-up image [i] at a point of time [i], the picked-up image [i-n] in the past by n times with respect to the picked-up image [i], and the picked-up image [i+n] of in the future by n times with respect to the picked-up image [i]. A mask image [i] corresponding the point of time [i] is determined on the basis of the binary image [i-n, i] and the binary image [i, i+n], a moving body image [i] corresponding to the point of time [i] is determined on the basis of the mask image [i] and the picked-up image [i], and the moving body is detected on the basis of the information of the moving body image [i]. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、移動体の検出方法
及び移動体検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving body detecting method and a moving body detecting device.

【0002】[0002]

【従来の技術】交通事故の抑制等を目的として、道路上
を走行する移動体(車両等)の挙動を検出する技術が求
められている。例えば、特開平10−105689号公
報には、予め設定された検出領域を撮影し、背景画像
(移動体(車両等)が存在しない時の道路の画像)と現
在画像(現在、撮影した画像)との差分から移動体(車
両等)を検出する移動体挙動検知装置が提案されてい
る。
2. Description of the Related Art A technique for detecting the behavior of a moving body (vehicle or the like) traveling on a road is required for the purpose of suppressing traffic accidents. For example, in Japanese Unexamined Patent Publication No. 10-105689, a preset detection area is photographed, and a background image (an image of a road when a moving body (vehicle, etc.) does not exist) and a current image (an image currently photographed) are taken. There has been proposed a moving body behavior detection device that detects a moving body (vehicle or the like) based on the difference between and.

【0003】[0003]

【発明が解決しようとする課題】従来の移動体の検出方
法では、背景画像と現在画像との差分から背景を除去し
て移動体のみを抽出している。しかし、従来の移動体の
検出方法では、天候の変化による影響が大きく、例え
ば、太陽が輝いている場合と太陽が雲に隠れた場合で、
移動体の検出精度に影響を及ぼす可能性がある。つま
り、晴天時の昼間の背景画像と、曇天時の昼間の現在画
像との差分を取る場合等では、色彩あるいは明るさの違
いによるノイズ等の発生量が多く、精度良く移動体を検
出することが困難である。これを回避するには、現在画
像を撮影する直前に背景画像を撮影することが好ましい
が、都合良く移動体(車両)が不在となることは稀であ
る。本発明は、このような点に鑑みて創案されたもので
あり、天候等の変化に対しても精度良く移動体(車両
等)を検出できる移動体検出方法及び移動体検出装置を
提供することを目的とする。
In the conventional method of detecting a moving body, the background is removed from the difference between the background image and the current image to extract only the moving body. However, in the conventional method of detecting a moving object, the influence of a change in the weather is large, for example, when the sun is shining and when the sun is hidden by clouds,
This may affect the detection accuracy of the moving body. In other words, when taking the difference between the background image in the daytime in fine weather and the current image in the daytime in cloudy weather, the amount of noise generated due to the difference in color or brightness is large, and moving objects should be detected accurately. Is difficult. To avoid this, it is preferable to capture the background image immediately before capturing the current image, but it is rare that the moving body (vehicle) is conveniently absent. The present invention has been devised in view of the above point, and provides a moving body detection method and a moving body detection device capable of accurately detecting a moving body (vehicle or the like) even with changes in weather or the like. With the goal.

【0004】[0004]

【課題を解決するための手段】上記課題を解決するため
の本発明の第1発明は、請求項1に記載されたとおりの
移動体検出方法である。請求項1に記載の移動体検出方
法では、背景画像を用いることなく、撮影画像[i−
n]と撮影画像[i]と撮影画像[i+n]を用いて、
移動体を検出する。このため、時間的に非常に接近した
3つの撮影画像を用いることで、天候等の変化に対して
ほとんど影響を受けることなく、精度良く移動体(車両
等)を検出することができる。また、nは2以上の整数
であり、例えば、検出した移動体(車両等)の挙動に応
じて警報等を発生させる場合、警報等を発生させるため
に必要なサンプリング間隔(第1の所定時間間隔)を維
持すると同時に、移動体の検出に最適なサンプリング間
隔(n=2の場合は第1の所定時間間隔の2倍、n=3
の場合は第1の所定時間間隔の3倍等)を設定すること
ができる。
A first invention of the present invention for solving the above-mentioned problems is a method for detecting a moving body as set forth in claim 1. The moving object detection method according to claim 1, wherein the captured image [i-
n], the captured image [i], and the captured image [i + n],
Detects moving objects. Therefore, by using the three captured images that are very close in time to each other, the moving body (vehicle or the like) can be accurately detected with almost no influence of a change in weather or the like. Further, n is an integer of 2 or more, and for example, when an alarm or the like is generated according to the detected behavior of the moving body (vehicle or the like), a sampling interval (first predetermined time) necessary for generating the alarm or the like. The interval is maintained, and at the same time, the optimum sampling interval for detecting a moving object (in the case of n = 2, twice the first predetermined time interval, n = 3).
In this case, it is possible to set three times the first predetermined time interval or the like).

【0005】また、本発明の第2発明は、請求項2に記
載されたとおりの移動体検出方法である。請求項2に記
載の移動体検出方法では、移動体を検出した場合は第1
の所定時間間隔を短くし、移動体を検出しなかった場合
は第1の所定時間間隔を長くすることで、不要な作動を
抑制し、電源等の寿命を延長させることができる。
A second aspect of the present invention is a method for detecting a moving body as set forth in claim 2. In the moving body detection method according to claim 2, when the moving body is detected, the first
By shortening the predetermined time interval and increasing the first predetermined time interval when a moving object is not detected, unnecessary operation can be suppressed and the life of the power supply or the like can be extended.

【0006】また、本発明の第3発明は、請求項3に記
載されたとおりの移動体検出方法である。請求項3に記
載の移動体検出方法では、例えば、移動体までの距離が
遠い場合、あるいは移動体の速度が遅い場合等では、n
の値を大きくして移動体を検出するサンプリング間隔を
長くする。また、移動体までの距離が近い場合、あるい
は移動体の速度が速い場合等では、nの値を小さくし
て、移動体を検出するサンプリング間隔を短くする。あ
るいは、移動体の位置と速度に応じてnの値を適切な値
に設定する。このように、状況に応じて移動体の検出に
最適なサンプリング間隔を設定することができる。
The third invention of the present invention is a method for detecting a moving object as described in claim 3. In the moving object detection method according to claim 3, for example, when the distance to the moving object is long, or when the speed of the moving object is slow, n
The value of is increased to increase the sampling interval for detecting a moving object. Further, when the distance to the moving body is short, or when the moving body has a high speed, the value of n is reduced to shorten the sampling interval for detecting the moving body. Alternatively, the value of n is set to an appropriate value according to the position and speed of the moving body. In this way, it is possible to set the optimum sampling interval for detecting the moving body depending on the situation.

【0007】また、本発明の第4発明は、請求項4に記
載されたとおりの移動体検出方法である。請求項4に記
載の移動体検出方法では、移動していないが移動体とし
て検出された物体(風に揺られた旗、樹木等)が連続的
に存在する領域を、適切に除外することで、当該領域内
の移動体(この場合は、振動体)を非移動体と判定し
て、移動体の検出から除外することができる。このた
め、天候等の変化に対しても精度良く移動体(車両等)
を検出できる。
A fourth invention of the present invention is a method for detecting a moving object as described in claim 4. In the moving body detection method according to claim 4, by appropriately excluding a region in which an object that is not moving but is detected as a moving body (a flag swayed by the wind, trees, etc.) continuously exists. The moving body (in this case, the vibrating body) in the area can be determined as a non-moving body and excluded from the detection of the moving body. Therefore, the moving body (vehicle, etc.) can be accurately operated even when the weather changes.
Can be detected.

【0008】また、本発明の第5発明は、請求項5に記
載されたとおりの移動体検出方法である。請求項5に記
載の移動体検出方法では、移動していないが移動体とし
て検出された物体(風に揺られた旗、樹木等)がほぼ定
常的に存在する領域を、適切に除外することで(断続的
であっても除外できる)、当該領域内の移動体(この場
合は、振動体)を非移動体と判定して、移動体の検出か
ら除外することができる。このため、天候等の変化に対
しても、より精度良く移動体(車両等)を検出できる。
A fifth aspect of the present invention is a method for detecting a moving body as set forth in claim 5. In the moving body detection method according to claim 5, a region in which an object (a flag swayed by the wind, a tree, etc.) that is not moving but is detected as a moving body is almost constantly present is appropriately excluded. Then (even if it is intermittent, it can be excluded), it is possible to determine that the moving body (in this case, the vibrating body) in the area is a non-moving body and exclude it from the detection of the moving body. Therefore, the moving body (vehicle or the like) can be detected with higher accuracy even when the weather or the like changes.

【0009】また、本発明の第6発明は、請求項6に記
載されたとおりの移動体検出方法である。請求項6に記
載の移動体検出方法では、適切に閾値を設定すること
で、2つの撮影画像の差分に基づく2値化画像を容易に
且つ適切に求めることができる。
A sixth aspect of the present invention is a method for detecting a moving body as set forth in claim 6. In the moving object detection method according to the sixth aspect, by appropriately setting the threshold value, the binarized image based on the difference between the two captured images can be easily and appropriately obtained.

【0010】また、本発明の第7発明は、請求項7に記
載されたとおりの移動体検出方法である。請求項7に記
載の移動体検出方法では、2値化画像を求める場合に、
例えば、移動体として検出された領域が多い場合は閾値
を大きくし、移動体として検出された領域が少ない場合
は閾値を小さくすることで、雨、雪等、移動しているが
移動体として検出すべきでない物体を、移動体の検出か
ら適切に除外することができる。このため、天候等の変
化に対しても、更に精度良く移動体(車両等)を検出で
きる。
Further, a seventh invention of the present invention is a moving object detecting method as described in claim 7. In the moving object detection method according to claim 7, when a binarized image is obtained,
For example, if there are many areas detected as moving objects, the threshold value is increased, and if there are few areas detected as moving objects, the threshold value is decreased. Objects that should not be can be properly excluded from moving object detection. Therefore, the moving body (vehicle or the like) can be detected with higher accuracy even if the weather or the like changes.

【0011】また、本発明の第8発明は、請求項8に記
載されたとおりの移動体検出方法である。請求項8に記
載の移動体検出方法では、移動体の検出に、マスク画像
[i]と撮影画像[i]に加え、更に、移動体が検出さ
れなかった場合の背景画像と撮影画像[i]との差分に
よる背景除去移動体画像[i]をも用いる。このため、
より精度良く移動体(車両等)を検出できる。
The eighth invention of the present invention is a method for detecting a moving body as described in claim 8. In the moving body detection method according to claim 8, in addition to the mask image [i] and the photographed image [i], a background image and a photographed image [i] when the moving body is not detected are used for detecting the moving body. ], The background-removed moving body image [i] is also used. For this reason,
The moving body (vehicle or the like) can be detected more accurately.

【0012】また、本発明の第9発明は、請求項9に記
載されたとおりの移動体検出装置である。請求項9に記
載の移動体検出装置を用いれば、天候等の変化に対して
も精度良く移動体(車両等)を検出できる移動体検出装
置を実現できる。
The ninth invention of the present invention is a moving object detecting apparatus as described in claim 9. By using the moving body detection device according to the ninth aspect, it is possible to realize a moving body detection device that can detect a moving body (vehicle or the like) with high accuracy even when the weather or the like changes.

【0013】また、本発明の第10発明は、請求項10
に記載されたとおりの移動体検出装置である。請求項1
0に記載の移動体検出装置を用いれば、少なくとも2つ
の移動体画像に基づいて、検出した移動体の位置と移動
方向を求め、所定地点(交差点等)に移動体(車両等)
が接近している場合、警報を発生させることで、警報装
置の近傍の人々に注意を促すことができる。
The tenth invention of the present invention is the tenth aspect.
The moving body detection device as described in 1. Claim 1
If the moving body detection device described in 0 is used, the position and the moving direction of the detected moving body are obtained based on at least two moving body images, and the moving body (vehicle or the like) is located at a predetermined point (intersection or the like).
When a person is approaching, an alarm can be generated to call attention to people in the vicinity of the alarm device.

【0014】また、本発明の第11発明は、請求項11
に記載されたとおりの移動体検出装置である。請求項1
1に記載の移動体検出装置を用いれば、適切な電源を用
いて、移動体検出装置を動作させることができる。ま
た、太陽電池を用いた場合は、移動体検出装置を動作さ
せるためのエネルギーコストを低減させることができ
る。
The eleventh invention of the present invention is the eleventh invention.
The moving body detection device as described in 1. Claim 1
If the moving body detecting device described in 1 is used, the moving body detecting device can be operated by using an appropriate power source. Further, when the solar cell is used, the energy cost for operating the moving body detection device can be reduced.

【0015】また、本発明の第12発明は、請求項12
に記載されたとおりの車両接近警報装置である。請求項
12に記載の車両接近警報装置を用いれば、検出した移
動体の大きさに基づいて移動体が車両であるか否かを判
定し、少なくとも2つの移動体画像に基づいて、判定し
た車両の位置と移動方向を求め、当該車両が所定地点
(交差点等)に接近している場合、警報装置から警報を
発生させることで、交通事故等を抑制させることが期待
できる。
The twelfth invention of the present invention is the twelfth invention.
The vehicle approach warning device as described in 1. If the vehicle approach warning device according to claim 12 is used, it is determined whether or not the moving body is a vehicle based on the detected size of the moving body, and the determined vehicle is based on at least two moving body images. When the vehicle is approaching a predetermined point (intersection or the like) by determining the position and the moving direction of the vehicle, it is possible to suppress a traffic accident by issuing an alarm from an alarm device.

【0016】また、本発明の第13発明は、請求項13
に記載されたとおりの車両接近警報装置である。請求項
13に記載の車両接近警報装置を用いれば、適切な電源
を用いて、車両接近警報装置を動作させることができ
る。また、太陽電池を用いた場合は、車両接近警報装置
を動作させるためのエネルギーコストを低減させること
ができる。
The thirteenth invention of the present invention is the thirteenth invention.
The vehicle approach warning device as described in 1. If the vehicle approach warning device according to the thirteenth aspect is used, the vehicle approach warning device can be operated by using an appropriate power source. Further, when the solar cell is used, the energy cost for operating the vehicle approach warning device can be reduced.

【0017】[0017]

【発明の実施の形態】以下に本発明の実施の形態を図面
を用いて説明する。図1は、本発明の移動体検出方法を
適用した移動体検出装置の一実施の形態の概略構成図を
示している。図1は、移動体Cが、見通しの悪い路地β
から幹線道路αを横断しようとしている(直進しようと
している)例を示している。この例では、移動体Cの左
側には障害物γがあり、移動体Cからの視界では、左側
の幹線道路αが見えない状況にある。通常の場合は、移
動体Cの運転者は、徐行して交差点に近づき、(幹線道
路αの)左右の交通状況を確認する。そして、幹線道路
αを走行して交差点に向かって来る移動体(車両等)が
存在しないことを確認した後に、幹線道路αを横断す
る。しかし、夕暮れ時等、薄暗い場合では、移動体Cの
運転者が、幹線道路αを走行して交差点に向かって来る
移動体Aの存在を見落とし、交通事故につながる可能性
がある。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a schematic configuration diagram of an embodiment of a moving body detection apparatus to which the moving body detection method of the present invention is applied. In FIG. 1, the moving body C shows an alley β with poor visibility.
It shows an example of trying to cross the highway α from (is trying to go straight). In this example, there is an obstacle γ on the left side of the moving body C, and the main road α on the left side cannot be seen in the view from the moving body C. In the normal case, the driver of the mobile unit C slowly moves to the intersection and checks the traffic conditions on the left and right (of the main road α). Then, after traveling on the main road α and confirming that there is no moving body (vehicle or the like) coming toward the intersection, the vehicle crosses the main road α. However, in the case of dim light such as at dusk, the driver of the mobile body C may overlook the existence of the mobile body A traveling on the main road α and coming toward the intersection, which may lead to a traffic accident.

【0018】撮影装置1は、第1の所定時間間隔で、
(図1中の移動体Aを含む)検出領域の画像を撮影す
る。処理装置2は、第1の所定時間間隔で、撮影された
画像を記憶装置3に記憶するとともに、記憶装置3に記
憶されている撮影画像をプログラムに従って処理して移
動体を検出する。そして、処理装置2は、幹線道路αを
走行して交差点に向かって来る移動体Aを検出すると、
警報装置4に警報動作信号を送る。警報装置4は、処理
装置2から警報動作信号を受け取ると、音声あるいは光
等(警報の方法は、種々の方法が可能である)で警報を
発生する。移動体Cの運転者は、警報装置4から警報が
発生していることにより、交差点に他の移動体(この場
合は、移動体A)が進入してくることを判別することが
できる。これにより、安全に幹線道路αを横断すること
ができる。なお、撮影装置1、処理装置2、記憶装置
3、警報装置4は、各々個別の装置であってもよいし、
いくつかをまとめた装置(図1の例では、処理装置2と
記憶装置3をまとめている)であってもよい。また、処
理装置2と警報装置4は、無線回線で接続してもよい
し、有線回線で接続してもよい。また、設置場所も、種
々変更が可能である。また、各装置の駆動用電源として
は、交流電源を用いてもよいし、太陽電池を用いてもよ
いし、交流電源あるいは太陽電池の双方を具備し、必要
に応じて切り替えて用いてもよい。電源には、種々の電
源を用いることができる。なお、太陽電池を備える場合
は、例えば、電池パネルを撮影装置1の上部等に設け
る。
The image pickup apparatus 1 has a first predetermined time interval,
An image of the detection area (including the moving body A in FIG. 1) is captured. The processing device 2 stores the captured image in the storage device 3 at the first predetermined time interval, and processes the captured image stored in the storage device 3 according to the program to detect the moving body. Then, when the processing device 2 detects the moving body A traveling on the main road α and coming toward the intersection,
An alarm operation signal is sent to the alarm device 4. When the alarm device 4 receives the alarm operation signal from the processing device 2, the alarm device 4 generates an alarm by voice or light (various methods of alarm can be used). The driver of the moving body C can determine that another moving body (in this case, the moving body A) is approaching the intersection because the warning is issued from the warning device 4. As a result, the main road α can be safely crossed. The image capturing device 1, the processing device 2, the storage device 3, and the alarm device 4 may be separate devices, respectively.
It may be a device in which some of them are integrated (in the example of FIG. 1, the processing device 2 and the storage device 3 are integrated). The processing device 2 and the alarm device 4 may be connected by a wireless line or a wired line. Further, the installation place can be variously changed. As a power supply for driving each device, an AC power supply may be used, a solar cell may be used, or both an AC power supply and a solar cell may be provided and switched as needed. . Various power sources can be used as the power source. In the case where a solar cell is provided, for example, a battery panel is provided on the upper portion of the image capturing device 1 or the like.

【0019】◆[移動体の検出原理1]次に、図2を用
いて、本発明の移動体検出方法の検出原理を説明する。
本実施例で用いている画像は、全て、明るさ(輝度)を
デジタル量に変換した個々の画素が、整然と配列(例え
ば、縦方向:480画素、横方向:640画素)されて
構成された、デジタル画像である。また、各図面におい
て、各画像間を結ぶ矢印は、処理の流れを明確にするた
めに、適宜、実線、点線、1点鎖線、2点鎖線を用いて
いる。まず、撮影装置1にて、第1の所定時間間隔(例
えば、1/8秒間隔)で検出領域を撮影し、処理装置2
は撮影画像を記憶装置3に記憶する。図2の例では、時
間[i−1]、[i]、[i+1]で、撮影画像[i−
1]、撮影画像[i]、撮影画像[i+1]を得るとと
もに記憶装置3に記憶している。時間[i]の時点で
は、処理装置2は、撮影画像[i]を得て記憶装置3に
記憶し、更に、撮影画像[i−1]と撮影画像[i]と
の差分に基づいて2値化した2値化画像[i−1、i]
を求め、記憶装置3に記憶する。この例では、2値化画
像は、移動体が黒色で示され、移動体を除いた背景が白
色で示されている(黒色と白色の2値で表現されてい
る)。時間[i−1]と時間[i]が非常に近接した時
間なので、天候等の変化による背景の明るさ等の変化が
ほとんどなく、適切に背景を除去することが可能であ
る。なお、2値化画像の求め方の詳細については後述す
る。
[Detection Principle 1 of Mobile Object] Next, the detection principle of the mobile object detection method of the present invention will be described with reference to FIG.
The images used in this embodiment are all formed by orderly arranging individual pixels whose brightness (luminance) is converted into a digital amount (for example, vertical direction: 480 pixels, horizontal direction: 640 pixels). , Digital images. In addition, in each drawing, solid lines, dotted lines, one-dot chain lines, and two-dot chain lines are used as appropriate for the arrows connecting the images in order to clarify the flow of processing. First, the image capturing apparatus 1 captures an image of the detection area at a first predetermined time interval (for example, 1/8 second interval), and the processing apparatus 2
Stores the captured image in the storage device 3. In the example of FIG. 2, captured images [i-] are obtained at times [i-1], [i], and [i + 1].
1], the photographed image [i], and the photographed image [i + 1] are obtained and stored in the storage device 3. At time [i], the processing device 2 obtains the captured image [i] and stores it in the storage device 3, and further, based on the difference between the captured image [i-1] and the captured image [i]. Binarized image [i-1, i]
Is stored in the storage device 3. In this example, in the binarized image, the moving body is shown in black and the background excluding the moving body is shown in white (represented by binary values of black and white). Since the time [i-1] and the time [i] are very close to each other, there is almost no change in the brightness of the background or the like due to changes in the weather or the like, and the background can be appropriately removed. The details of how to obtain the binarized image will be described later.

【0020】時間[i+1]の時点では、処理装置2
は、撮影画像[i+1]を得て記憶装置3に記憶し、撮
影画像[i]と撮影画像[i+1]との差分に基づいて
2値化した2値化画像[i、i+1]を求め、記憶装置
3に記憶する。そして、2値化画像[i−1、i]と2
値化画像[i、i+1]との論理積から、マスク画像
[i]を求める。ここで、マスク画像は、2値で表現さ
れており、時間[i+1]で得られるマスク画像は、時
間[i+1]に対応するマスク画像でなく、時間[i]
に対応するマスク画像[i]である。なお、マスク画像
の求め方の詳細については後述する。続いて、求めたマ
スク画像[i]と、時間[i]に対応する撮影画像
[i]とに基づいて、移動体画像[i]を得る。撮影画
像[i]からマスク画像[i]の黒色部分のみを抽出し
たものが移動体画像[i]である。移動体画像は、撮影
画像から移動体以外の背景が除去され、移動体のみが存
在している。なお、移動体画像の求め方の詳細について
は後述する。この例では、時間[i]に撮影した撮影画
像[i]に対応する移動体画像[i]は、時間[i]で
なく、時間[i+1]に抽出されるが、時間[i]と時
間[i+1]の間隔が短い(本実施例では、1/8秒)
ので、移動体の検出及び警報の発生等に、ほとんど影響
しない。
At time [i + 1], the processing device 2
Obtains a captured image [i + 1], stores it in the storage device 3, and obtains a binarized image [i, i + 1] that is binarized based on the difference between the captured image [i] and the captured image [i + 1], It is stored in the storage device 3. Then, the binarized images [i-1, i] and 2
The mask image [i] is obtained from the logical product of the binarized image [i, i + 1]. Here, the mask image is represented by a binary value, and the mask image obtained at time [i + 1] is not the mask image corresponding to time [i + 1] but the time [i]
Is a mask image [i] corresponding to. The details of how to obtain the mask image will be described later. Then, the moving body image [i] is obtained based on the obtained mask image [i] and the captured image [i] corresponding to the time [i]. The moving object image [i] is obtained by extracting only the black portion of the mask image [i] from the captured image [i]. In the moving body image, the background other than the moving body is removed from the captured image, and only the moving body exists. Details of how to obtain the moving body image will be described later. In this example, the moving image [i] corresponding to the captured image [i] captured at the time [i] is extracted at the time [i + 1] instead of the time [i]. The interval of [i + 1] is short (1/8 second in this embodiment).
Therefore, it has almost no influence on the detection of a moving object and the generation of an alarm.

【0021】◆[移動体の検出原理2]図3は、上記で
説明した図2の処理を、第1の所定時間間隔で、連続的
に実行していく様子を示している。例えば、時間[i]
の時点では、撮影画像[i]を得て記憶し、撮影画像
[i−1]と撮影画像[i]との差分に基づいて2値化
した2値化画像[i−1、i]を求めて記憶する。そし
て、2値化画像[i−2、i−1]と2値化画像[i−
1、i]との論理積からマスク画像[i−1]を求め、
撮影画像[i−1]からマスク画像[i−1]の黒色部
分を抽出して移動体画像[i−1]を得ることができ
る。同様にして、時間[i+1]では移動体画像[i]
を得ることができ、時間[i+2]では移動体画像[i
+1]を得ることができる。そして、第1の所定時間間
隔毎の移動体画像[i−1]、移動体画像[i]、移動
体画像[i−1]に基づいて、移動体の移動方向及び移
動速度、あるいは移動体までの距離等を求めることがで
きる。移動体までの距離は、各移動体画像における移動
体の位置で推定することが可能である(本実施例では、
移動体は地上を移動するため)。なお、移動体の移動方
向、移動速度、位置等の求め方は後述する。
[Detection Principle 2 of Moving Object] FIG. 3 shows how the above-described processing of FIG. 2 is continuously executed at a first predetermined time interval. For example, time [i]
At the point of time, the captured image [i] is obtained and stored, and the binarized image [i-1, i] binarized based on the difference between the captured image [i-1] and the captured image [i] is stored. Seeking and remembering. Then, the binarized image [i-2, i-1] and the binarized image [i-
The mask image [i-1] is obtained from the logical product of
The moving object image [i-1] can be obtained by extracting the black portion of the mask image [i-1] from the captured image [i-1]. Similarly, at time [i + 1], the moving body image [i]
Can be obtained, and at time [i + 2], the moving body image [i
+1] can be obtained. Then, based on the moving body image [i-1], the moving body image [i], and the moving body image [i-1] at each first predetermined time interval, the moving direction and moving speed of the moving body, or the moving body You can calculate the distance to. The distance to the moving body can be estimated by the position of the moving body in each moving body image (in the present embodiment,
Mobiles move on the ground). The method for obtaining the moving direction, moving speed, position, etc. of the moving body will be described later.

【0022】◆[2値化画像の求め方]次に、図4を用
いて、2つの撮影画像の差分から2値化画像を求める方
法について説明する。図4は、説明のために、撮影画像
を8×8のブロック(X、Y)に分割している。また、
この例では、各ブロック(X、Y)は、4×4の合計1
6個の画素が整然と配列されて構成されており、各画素
には明るさ(輝度)に基づく測定値が入っている。例え
ば、各画素は明るさ(輝度)を測定する。図4に示すよ
うに、撮影画像[i−1]のブロック(5、2)及びブ
ロック(5、3)と、撮影画像[i]のブロック(5、
2)及びブロック(5、3)の各画素の値は、各画素で
検出された明るさ(輝度)の量である(点線で示す部分
は、移動体の外形を参考として示している)。また、各
ブロック中に色彩を変更している部分は、参考として移
動体の一部であることを示している。
[Method of Obtaining Binary Image] Next, a method of obtaining a binary image from the difference between two photographed images will be described with reference to FIG. In FIG. 4, the captured image is divided into 8 × 8 blocks (X, Y) for the sake of explanation. Also,
In this example, each block (X, Y) has a total of 1 × 4 × 4.
Six pixels are arranged in an orderly manner, and each pixel has a measured value based on brightness (luminance). For example, each pixel measures the brightness (luminance). As shown in FIG. 4, blocks (5, 2) and blocks (5, 3) of the captured image [i-1] and blocks (5, 5,) of the captured image [i].
The value of each pixel in 2) and the block (5, 3) is the amount of brightness (luminance) detected in each pixel (the portion indicated by the dotted line is shown with reference to the outer shape of the moving body). In addition, a portion in which the color is changed in each block is shown as a part of the moving body for reference.

【0023】ここで、撮影画像[i−1]と撮影画像
[i]との差分を求めるには、撮影画像[i]の各画素
のデジタル量から、撮影画像[i−1]の対応する画素
のデジタル量を減算する。そして、求めた差分の絶対値
を演算する。例えば、撮影画像[i]のブロック(5、
3)の右上の画素のデジタル量(12)から、撮影画像
[i−1]のブロック(5、3)の右上のデジタル量
(6)を減算する。そして、各画素毎に差分の絶対値を
演算して、対応する画素の部分に、演算した値を格納す
る。次に、差分の絶対値を2値化する。例えば、差分の
絶対値が閾値以上(例えば、「4」以上)である画素の
部分を「1」に設定し、差分の絶対値が閾値未満(例え
ば、「4」未満)である画素の部分を「0」に設定す
る。これにより、2つの撮影画像の差分から「1」と
「0」の2値のみを有する2値化画像を得ることができ
る。例えば、「0」の画素の部分を白色に設定し、
「1」の画素の部分を黒色に設定すると、図4に示す2
値化画像[i−1、i]が得られる。この方法による
と、非常に短い時間間隔の2つの撮影画像の差分である
ため、移動体以外の背景を精度良く除去することが可能
である。しかし、明るさ(輝度)の差が小さい画素を背
景とみなして除去するため、移動体の明るさ(輝度)が
ほぼ均一で、且つ移動体の移動速度が低速、あるいは撮
影の間隔(第1の所定時間間隔)が短い場合、撮影画像
[i−1]と撮影画像[i]において、同一の移動体が
重畳した部分(図4中の「移動体重畳画素」)では、移
動体が存在しているにもかかわらず、背景として除去さ
れてしまう場合がある。この現象及び対応方法について
は後述する。
Here, to obtain the difference between the photographed image [i-1] and the photographed image [i], the digital amount of each pixel of the photographed image [i] corresponds to the photographed image [i-1]. Subtract the digital amount of pixels. Then, the absolute value of the obtained difference is calculated. For example, the block (5,
The digital amount (6) at the upper right of the block (5, 3) of the captured image [i-1] is subtracted from the digital amount (12) of the pixel at the upper right of 3). Then, the absolute value of the difference is calculated for each pixel, and the calculated value is stored in the corresponding pixel portion. Next, the absolute value of the difference is binarized. For example, a pixel portion whose absolute value of difference is equal to or more than a threshold value (for example, “4” or more) is set to “1”, and a pixel portion whose absolute value of difference is less than the threshold value (for example, less than “4”). Is set to "0". This makes it possible to obtain a binarized image having only binary values of “1” and “0” from the difference between the two captured images. For example, set the pixel part of "0" to white,
When the pixel portion of "1" is set to black, the pixel shown in FIG.
The binarized image [i-1, i] is obtained. According to this method, it is possible to remove the background other than the moving object with high accuracy because the difference is between the two captured images at a very short time interval. However, since the pixels having a small difference in brightness (luminance) are regarded as the background and are removed, the brightness (luminance) of the moving body is substantially uniform, the moving speed of the moving body is low, or the shooting interval (first interval) is set. If the same moving body is superimposed on the captured image [i-1] and the captured image [i] (“moving body overlapping pixel” in FIG. 4), the moving body is present. However, it may be removed as a background. This phenomenon and the corresponding method will be described later.

【0024】◆[マスク画像の求め方]次に、2つの2
値化画像の論理積からマスク画像を求める方法について
説明する。2値化画像は、図4に示すように、各画素が
「0」あるいは「1」のいずれかである。この各画素毎
に、対応する画素との論理積を求める。例えば、図2に
示す2値化画像[i−1、i]と2値化画像[i、i+
1]との論理積を求めた結果、例えば、「0」の画素の
部分を白色に設定し、「1」の画素の部分を黒色に設定
すると、図2に示すマスク画像[i]が得られる。
[How to obtain mask image] Next, two 2
A method of obtaining the mask image from the logical product of the binarized images will be described. In the binarized image, each pixel is either "0" or "1" as shown in FIG. For each pixel, a logical product with the corresponding pixel is obtained. For example, the binarized image [i-1, i] and the binarized image [i, i +] shown in FIG.
1], the mask image [i] shown in FIG. 2 is obtained when, for example, the pixel portion of “0” is set to white and the pixel portion of “1” is set to black. To be

【0025】◆[移動体画像の求め方]次に、撮影画像
とマスク画像から移動体画像を得る方法について説明す
る。マスク画像は、上記に説明したように、各画素の部
分が「0」あるいは「1」のいずれかである。例えば、
図2において、マスク画像[i]の画素が「0」の部分
(この場合、マスク画像[i]中の白色部分)に対応す
る撮影画像[i]の画素の部分を「0」にする(この場
合、白色にしている)。また、マスク画像[i]の画素
が「1」の部分(この場合、マスク画像[i]中の黒色
部分)に対応する撮影画像[i]の画素は、そのままの
デジタル量を保持させる。このように、移動体画像
[i]を得ることができる。
[Method of Obtaining Moving Object Image] Next, a method of obtaining a moving object image from a photographed image and a mask image will be described. As described above, in the mask image, each pixel portion is either "0" or "1". For example,
In FIG. 2, the pixel portion of the captured image [i] corresponding to the portion where the pixel of the mask image [i] is “0” (in this case, the white portion in the mask image [i]) is set to “0” ( In this case, it is white). In addition, the pixels of the captured image [i] corresponding to the portion where the pixels of the mask image [i] are “1” (in this case, the black portion in the mask image [i]) retain the digital amount as they are. In this way, the moving body image [i] can be obtained.

【0026】◆[第1の所定時間間隔の設定(1)(移
動体が低速時)]図5は、移動体の移動速度が低速、あ
るいは撮影の間隔(第1の所定時間間隔)が短い場合で
あって、各撮影時間毎の差分から求めた2値化画像にお
いて、移動体が重畳している例を示している。移動体が
車両の場合、明るさ(輝度)がほぼ均一の部分が多いた
め、2値化画像は、移動体の重畳部分の一部が背景と誤
認識されて除去される(以下、この状態を「中抜け状
態」という)可能性がある。例えば、撮影画像[i−
2]と撮影画像[i−1]との差分から求めた2値化画
像[i−2、i−1]は、移動体A及び移動体Bが、各
々重畳しており、重畳部分の一部が除去され、白色にな
っている(中抜け状態になっている)。2値化画像[i
−1、i]、2値化画像[i、i+1]も同様に、中抜
け状態になっている。
[Setting of First Predetermined Time Interval (1) (When Mobile Object is at Low Speed)] In FIG. 5, the moving speed of the mobile object is low, or the shooting interval (first predetermined time interval) is short. In this case, an example in which a moving object is superimposed on a binarized image obtained from the difference for each shooting time is shown. When the moving body is a vehicle, there are many areas where the brightness (luminance) is substantially uniform, and therefore, in the binarized image, a part of the overlapping portion of the moving body is erroneously recognized as the background and is removed (hereinafter, this state will be described). There is a possibility that it is referred to as a "middle-out state". For example, the captured image [i-
2] and the captured image [i-1], the binary image [i-2, i-1] obtained from the difference between the moving body A and the moving body B is overlapped with each other. The part has been removed and it has become white (there is a hollow state). Binary image [i
Similarly, the binarized image [i, i + 1] is in the void state.

【0027】これら中抜け状態の2値化画像[i−2、
i−1]と2値化画像[i−1、i]から求めたマスク
画像[i−1]は、図5に示すマスク画像[i−1]に
示すように、移動体の一部しか表していない。このマス
ク画像[i−1]と撮影画像[i−1]から求めた移動
体画像[i−1]は、図5に示す移動体画像[i−1]
に示すように、移動体の一部しか表していない。移動体
画像[i]も同様である。よって、第1の所定時間間隔
を、検出すべき移動体が重畳しない時間に設定する。こ
の場合、移動体が極低速の場合を想定しない。極低速の
場合は、移動体として検出して警報を発生させる必要が
ないからである。例えば、15km/h以上程度の速度
で移動する移動体を検出することができればよい。第1
の所定時間間隔は、検出領域の道路における車両の速度
等に影響されるが、1/4秒以上が好ましい。なお、こ
の値は、検出領域の道路毎に設定を変更してもよい。
The binarized images [i-2,
i-1] and the mask image [i-1] obtained from the binarized image [i-1, i] are only a part of the moving body as shown in the mask image [i-1] shown in FIG. Not represented. The moving body image [i-1] obtained from the mask image [i-1] and the captured image [i-1] is the moving body image [i-1] shown in FIG.
As shown in, only a part of the moving body is shown. The same applies to the moving body image [i]. Therefore, the first predetermined time interval is set to a time when the moving body to be detected does not overlap. In this case, the case where the moving body is extremely low speed is not assumed. This is because it is not necessary to detect it as a moving body and issue an alarm at extremely low speeds. For example, it is only necessary to be able to detect a moving body that moves at a speed of approximately 15 km / h or higher. First
The predetermined time interval of 1 is affected by the speed of the vehicle on the road in the detection area and the like, but is preferably 1/4 second or more. The setting of this value may be changed for each road in the detection area.

【0028】◆[第1の所定時間間隔の設定(2)(移
動体が高速時)]図6は、移動体の移動速度が高速、あ
るいは撮影の間隔(第1の所定時間間隔)が長い場合で
あって、移動体が存在する撮影画像が少ない例を示して
いる。例えば、図6に示すように、移動体が撮影画像
[i]のみに存在する場合、移動体画像[i−1]及び
移動体画像[i+1]には移動体が存在せず、移動体画
像[i]のみに移動体が存在する。この場合、移動体画
像[i−1]、[i]、[i+1]を用いても、移動体
の移動方向及び移動速度を求めることができない。よっ
て、第1の所定時間間隔を、検出すべき移動体が存在す
る撮影画像が多くなるように設定する。第1の所定時間
間隔は、検出領域の道路における車両の速度等に影響さ
れるが、1/8秒以下が好ましい。なお、この値は、検
出領域の道路毎に設定を変更してもよい。
[Setting of First Predetermined Time Interval (2) (When Mobile Object is at High Speed)] FIG. 6 shows that the moving speed of the mobile object is high or that the interval between photographing (first predetermined time interval) is long. In this case, an example in which there are few captured images in which a moving body exists is shown. For example, as shown in FIG. 6, when the moving body exists only in the captured image [i], there is no moving body in the moving body image [i-1] and the moving body image [i + 1], and the moving body image exists. The moving body exists only in [i]. In this case, the moving direction and moving speed of the moving body cannot be obtained even by using the moving body images [i-1], [i], and [i + 1]. Therefore, the first predetermined time interval is set so that the number of captured images in which the moving body to be detected is large. The first predetermined time interval is influenced by the speed of the vehicle on the road in the detection area and the like, but is preferably ⅛ second or less. The setting of this value may be changed for each road in the detection area.

【0029】◆[低速あるいは高速の移動体を検出する
時間間隔の最適化]以上の説明より、各撮影画像の差分
を用いて低速の移動体を精度よく検出するためには第1
の所定時間間隔を1/4秒以上に設定することが好まし
く、各撮影画像毎に高速の移動体を精度よく検出するた
めには第1の所定時間間隔を1/8秒以下に設定するこ
とが好ましい。これを解決する方法を、図7を用いて説
明する。例えば、図7に示すように、各撮影画像を1/
8秒毎に撮影する。ただし、2値化画像を1回過去の撮
影画像でなく、n回(nは、2以上の整数)過去の撮影
画像から求める。同様に、マスク画像及び移動体画像
も、n回過去の画像から求める。図7は、「n=2」に
設定した場合の例(撮影画像は1/8秒毎に撮影した
例)を示している。例えば、時間[i+1]の時点で
は、撮影画像[i+1]を得て記憶し、(2回過去の)
撮影画像[i−1]と、(今回撮影した)撮影画像[i
+1]との差分に基づいて2値化した2値化画像[i−
1、i+1]を求めて記憶する。次に、求めた2値化画
像[i−1、i+1]と、2回過去の2値化画像[i−
3、i−1]との論理積から、マスク画像[i−1]を
求める。そして、求めたマスク画像[i−1]と撮影画
像[i−1]から、移動体画像[i−1]を得ることが
できる。つまり、この場合、1/4秒毎の撮影画像の差
分に基づいて移動体画像を求めていることになる。この
場合、時間[i−1]に撮影した撮影画像[i−1]に
対応する移動体画像[i−1]は、時間[i−1]でな
く、時間[i+1]に抽出されるが、時間[i−1]と
時間[i+1]の間隔が短い(この場合、1/4秒)の
で、警報の発生等に、ほとんど影響を及ぼさない。
[Optimization of Time Interval for Detecting Low-speed or High-speed Moving Object] From the above description, the first method is to accurately detect the low-speed moving object using the difference between the captured images.
It is preferable to set the predetermined time interval of 1/4 seconds or more, and in order to accurately detect a high-speed moving object for each captured image, the first predetermined time interval is set to 1/8 seconds or less. Is preferred. A method for solving this will be described with reference to FIG. For example, as shown in FIG.
Take a picture every 8 seconds. However, the binarized image is obtained not from the captured image of the past once but from the captured image of the past n times (n is an integer of 2 or more). Similarly, the mask image and the moving body image are also obtained from images n times past. FIG. 7 shows an example in which “n = 2” is set (photographed images are photographed every 1/8 second). For example, at time [i + 1], the captured image [i + 1] is acquired and stored (twice in the past).
Captured image [i-1] and captured image [i]
Binarized image [i-
1, i + 1] is calculated and stored. Next, the obtained binarized image [i-1, i + 1] and the binarized image of the past twice [i-
3, i-1] and the mask image [i-1]. Then, the moving body image [i-1] can be obtained from the obtained mask image [i-1] and captured image [i-1]. In other words, in this case, the moving body image is obtained based on the difference between the photographed images every 1/4 second. In this case, the moving body image [i-1] corresponding to the captured image [i-1] captured at time [i-1] is extracted at time [i + 1] instead of time [i-1]. , The interval between the time [i-1] and the time [i + 1] is short (in this case, 1/4 second), so that it hardly affects the occurrence of an alarm.

【0030】また、時間[i+2]の時点では、撮影画
像[i+2]を得て記憶し、(2回過去の)撮影画像
[i]と、(今回撮影した)撮影画像[i+2]との差
分に基づいて2値化した2値化画像[i、i+2]を求
めて記憶する。次に、求めた2値化画像[i、i+2]
と、2回過去の2値化画像[i−2、i]との論理積か
ら、マスク画像[i]を求める。そして、求めたマスク
画像[i]と撮影画像[i]から、移動体画像[i]を
得ることができる。移動体画像を求める処理を撮影毎に
実行するので、時間[i+1]と時間[i+2]の時間
間隔は1/8秒である。このため、移動体画像[i−
1]、[i]、[i+1]は、1/8秒毎の撮影画像中
に存在する移動体を示している。
At time [i + 2], the captured image [i + 2] is obtained and stored, and the difference between the captured image [i] (twice in the past) and the captured image [i + 2] (currently captured). The binarized image [i, i + 2] binarized based on is obtained and stored. Next, the obtained binarized image [i, i + 2]
And the mask image [i] is obtained from the logical product of the binary image [i-2, i] obtained twice. Then, the moving object image [i] can be obtained from the obtained mask image [i] and captured image [i]. Since the process of obtaining the moving body image is executed for each shooting, the time interval between the time [i + 1] and the time [i + 2] is 1/8 second. Therefore, the moving body image [i-
1], [i], and [i + 1] represent moving objects existing in the captured image every ⅛ second.

【0031】つまり、第1の所定時間間隔で撮影して撮
影画像を得るとともに記憶し、時点[i]における撮影
画像[i]と、撮影画像[i]に対してn回過去の撮影
画像[i−n](nは、2以上の整数)と、撮影画像
[i]に対してn回未来の撮影画像[i+n]とを用
い、撮影画像[i−n]と撮影画像[i]との差分に基
づいて2値化した2値化画像[i−n、i]と、撮影画
像[i]と撮影画像[i+n]との差分に基づいて2値
化した2値化画像[i、i+n]とを求め、求めた2値
化画像[i−n、i]と2値化画像[i、i+n]とに
基づいて、時点[i]に対応するマスク画像[i]を求
め、求めたマスク画像[i]と撮影画像[i]とに基づ
いて、時点[i]に対応する移動体画像[i]を求め、
求めた移動体画像[i]の情報に基づいて、移動体を検
出する。この例では、第1の所定時間間隔が1/8秒で
あり、n=2であるので、1/4秒毎の差分に基づい
て、1/8秒毎に移動体を抽出する。これにより、天候
等の変化に対しても、低速及び高速の移動体を精度よく
検出することができる。
That is, a photographed image is obtained by photographing at the first predetermined time interval and stored, and the photographed image [i] at the time point [i] and the photographed image [n] past n times with respect to the photographed image [i]. i-n] (n is an integer greater than or equal to 2) and a captured image [i + n] n times in the future for the captured image [i], the captured image [i-n] and the captured image [i] are obtained. Binarized image [i−n, i] that is binarized based on the difference between the captured image [i] and captured image [i + n] i + n] is obtained, and the mask image [i] corresponding to the time point [i] is obtained and obtained based on the obtained binarized image [i−n, i] and the binarized image [i, i + n]. The moving object image [i] corresponding to the time point [i] based on the mask image [i] and the captured image [i],
The moving body is detected based on the obtained information of the moving body image [i]. In this example, the first predetermined time interval is ⅛ second and n = 2, and therefore the moving body is extracted every ⅛ second based on the difference every ¼ second. This makes it possible to accurately detect low-speed and high-speed moving bodies even with changes in weather and the like.

【0032】◆[移動体の移動方向及び移動速度の求め
方]次に、図8を用いて、求めた移動体画像に基づいて
移動体の移動方向及び移動速度を求める方法について説
明する。例えば、図8に示すように、求めた移動体画像
を8×8のブロック(X、Y)に分割する。また、この
例では、各ブロック(X、Y)は、4×4の合計16個
の画素が整然と配列されて構成されており、各画素には
明るさ(輝度)に基づく測定値が入っている。このブロ
ック間のマッチングを用いて、移動体が存在する各ブロ
ック(X[i]、Y[i])の移動先ブロック(X[i
+1]、Y[i+1])を検出し、当該ブロックの移動
方向と移動距離(動きベクトル)を求める。移動速度
は、所定時間における移動距離から求めることができ
る。
[How to obtain moving direction and moving speed of moving body] Next, a method of obtaining the moving direction and moving speed of the moving body based on the obtained moving body image will be described with reference to FIG. For example, as shown in FIG. 8, the obtained moving body image is divided into 8 × 8 blocks (X, Y). Also, in this example, each block (X, Y) is configured by a total of 16 4 × 4 pixels arranged in order, and each pixel contains a measurement value based on brightness (luminance). There is. By using the matching between the blocks, the destination block (X [i] of each block (X [i], Y [i]) in which the moving body exists is used.
+1], Y [i + 1]) is detected to obtain the moving direction and moving distance (motion vector) of the block. The moving speed can be obtained from the moving distance in a predetermined time.

【0033】図8を用いて、移動体画像[i−1]と移
動体画像[i]から、動きベクトル平面[i−1、i]
(時間[i−1]から時間[i]における、移動体の動
きベクトル)を求める方法を説明する。例えば、移動体
画像[i−1]のブロック(5、2)内の各画素に入っ
ているデジタル量が、図8に示す値とする。また、移動
体画像[i]のブロック(3、4)内の各画素に入って
いるデジタル量が、図8に示す値とする。(点線で示す
部分は移動体の外形を参考として示し、ブロック中の色
彩を変更している部分は移動体の一部であることを参考
として示している。)この場合、移動体画像[i−1]
のブロック(5、2)と、移動体画像[i]のブロック
(3、4)がマッチしたと判定し、動きベクトル平面
[i−1、i]上において、ブロック(5、2)からブ
ロック(3、4)へ向かうベクトルが得られる。同様
に、各ブロックにおける「(ブロック)動きベクトル」
を求め、類似方向及び類似距離の「(ブロック)動きベ
クトル」を平均化して、「(移動体)動きベクトル」を
求める。そして、「(移動体)動きベクトル」より、移
動体の移動方向及び移動距離を求めることができる。ま
た、所定時間における移動距離から、移動体の移動速度
を求めることができる。なお、ブロック間のマッチング
を求める方法としては、従来技術の、(1)ブロック内
画素の差分階調値の絶対値の和、(2)ブロック内画素
の平均階調値の差の絶対値、(3)ブロック内画素の階
調値の標準偏差の差の絶対値、(4)ブロック内画素の
階調値の相互相関係数、(5)ブロック内画素の階調値
のフーリエ係数による一致度、等種々の方法がある。本
実施の形態では、(1)ブロック内画素の差分階調値の
絶対値の和を用いたが、他の方法を用いてもよい。
Referring to FIG. 8, the motion vector plane [i-1, i] is calculated from the moving body image [i-1] and the moving body image [i].
A method for obtaining (motion vector of moving body from time [i-1] to time [i]) will be described. For example, the digital amount contained in each pixel in the block (5, 2) of the moving body image [i-1] has the value shown in FIG. Further, the digital amount contained in each pixel in the block (3, 4) of the moving body image [i] has the value shown in FIG. (The dotted line shows the outline of the moving body as a reference, and the portion in the block where the color is changed is shown as a part of the moving body.) In this case, the moving body image [i -1]
Block (5, 2) and the block (3, 4) of the moving image [i] are determined to match, and from the block (5, 2) to the block on the motion vector plane [i-1, i]. The vector going to (3, 4) is obtained. Similarly, "(block) motion vector" in each block
Then, the “(block) motion vector” in the similar direction and the similar distance is averaged to obtain the “(moving object) motion vector”. Then, the moving direction and the moving distance of the moving body can be obtained from the “(moving body) motion vector”. Further, the moving speed of the moving body can be obtained from the moving distance in a predetermined time. As a method for obtaining matching between blocks, there are (1) a sum of absolute values of difference gradation values of pixels in a block, (2) absolute value of a difference of average gradation values of pixels in a block, which are related to the related art. (3) Absolute value of difference between standard deviations of tone values of pixels in the block, (4) Cross-correlation coefficient of tone values of pixels in the block, (5) Matching by Fourier coefficient of tone values of pixels in the block There are various methods such as degree. In this embodiment, (1) the sum of the absolute values of the difference gradation values of the pixels in the block is used, but other methods may be used.

【0034】◆[2値化画像の処理において、移動体が
重畳時の補正]図7に示す方法を用いても、移動体が更
に低速で移動している場合、2値化画像の処理におい
て、移動体が重畳して中抜け状態が発生する可能性があ
る。図9を用いて、移動体が重畳した場合の補正方法に
ついて説明する。例えば、移動体A、移動体Bが非常に
低速で移動している場合、既に説明したように、2値化
画像[i−2、i]及び2値化画像[i、i+2]は、
重畳部分の一部が中抜け状態になる。中抜け状態の2値
化画像から求めたマスク画像[i]は、移動体の外形を
正確に表現できず、このマスク画像[i]と撮影画像
[i]から求めた移動体画像[i]は、移動体を正確に
検出できない。
[Correction when a moving object is superimposed in the processing of a binarized image] Even if the method shown in FIG. 7 is used, when the moving object is moving at a slower speed, in the processing of the binarized image. However, there is a possibility that the moving body may overlap and a hollow state may occur. A correction method when a moving body is superposed will be described with reference to FIG. For example, when the moving body A and the moving body B are moving at a very low speed, as already described, the binarized image [i−2, i] and the binarized image [i, i + 2] are
A part of the overlapped portion is in a hollow state. The mask image [i] obtained from the binarized image in the void state cannot accurately represent the outer shape of the moving body, and the moving body image [i] obtained from the mask image [i] and the captured image [i]. Cannot detect a moving object accurately.

【0035】そこで、移動体が存在しない時の画像を背
景画像に設定し、撮影画像[i]と背景画像との差分か
ら背景除去移動体画像[i]を求める。この場合、背景
画像が撮影された時の天候等と、撮影画像[i]を撮影
した時点の天候等では、明るさ(輝度)等の違いによ
り、背景除去移動体画像[i]にはノイズ成分が存在し
ている。しかし、背景除去移動体画像[i]には、ノイ
ズ成分とともに、移動体のほぼ正確な外形が含まれてい
る。そして、背景除去移動体画像[i]と移動体画像
[i]との重畳部分から、移動体の外形を推定し、(補
正)移動体画像[i]を求めることができる。例えば、
背景除去移動体画像[i]中の孤立した各移動体と、移
動体画像[i]との重畳した部分を、移動体と推定して
再検出する。推定の方法には、種々の方法を用いること
ができる。なお、背景画像は、移動体画像を求めた際
に、移動体画像中に移動体が存在しなかった時の撮影画
像を、背景画像として順次更新して使用する。あるいは
移動体画像中に移動体が存在しなかった時の撮影画像を
時刻とともに記憶し、最も近い時刻の背景画像を使用す
る。背景画像の記憶方法、背景画像の選択方法は、種々
の方法が考えられる。
Therefore, the image when no moving object is present is set as the background image, and the background-removed moving object image [i] is obtained from the difference between the photographed image [i] and the background image. In this case, due to the difference in brightness (luminance) between the weather when the background image was captured and the weather when the captured image [i] was captured, the background-removed moving body image [i] is noisy. Ingredient is present. However, the background-removed moving body image [i] contains a noise component and a substantially accurate outer shape of the moving body. Then, the (corrected) moving body image [i] can be obtained by estimating the outer shape of the moving body from the overlapping portion of the background-removed moving body image [i] and the moving body image [i]. For example,
The overlapping portion of each of the isolated moving objects in the background-removed moving object image [i] and the moving object image [i] is estimated as a moving object and re-detected. Various methods can be used for the estimation method. In addition, as the background image, a captured image when the moving body image does not include a moving body when the moving body image is obtained is sequentially updated and used as a background image. Alternatively, the captured image when the moving body does not exist in the moving body image is stored together with the time, and the background image at the closest time is used. Various methods are conceivable as a background image storage method and a background image selection method.

【0036】◆[撮影タイミング(第1の所定時間間
隔)、n値(n回過去及びn回未来の画像との差分を求
める場合の「n(nは、1以上の整数)」の値)の変
更]以上の説明では、第1の所定時間間隔を「1/8
秒」に固定し、nを「2」に固定した例で説明したが、
状況に応じて変更することも可能である。 [第1の所定時間間隔の変更]例えば、移動体画像を求
めた際に、移動体画像中に移動体が存在しなかった場
合、第1の所定時間間隔を長くしてもよい(例えば、1
秒)。また、移動体画像中の移動体の位置に基づいた移
動体までの距離が大きい(移動体が遠い)場合は、第1
の所定時間間隔を長くしてもよい。また、所定時間にお
ける移動距離から求めた移動体の移動速度が小さい場合
は、第1の所定時間間隔を長くしてもよい。また、逆の
場合は、第1の所定時間間隔を短くしてもよい。これに
より、移動体の検出に最適なサンプリング間隔を設定す
ることができる。なお、第1の所定時間を変更した場合
は、第1の所定時間間隔の変更に伴い、移動速度の演算
も変更する。
[Shooting timing (first predetermined time interval), n value (“n (n is an integer greater than or equal to 1)” when obtaining the difference between the image n times past and n times future)) Change] In the above description, the first predetermined time interval is "1/8".
It was explained with the example that it is fixed to "second" and n is fixed to "2".
It can be changed according to the situation. [Change of First Predetermined Time Interval] For example, when the moving body image is obtained and there is no moving body in the moving body image, the first predetermined time interval may be lengthened (for example, 1
Seconds). When the distance to the moving body based on the position of the moving body in the moving body image is large (the moving body is far), the first
The predetermined time interval may be increased. Further, when the moving speed of the moving body obtained from the moving distance in the predetermined time is small, the first predetermined time interval may be lengthened. In the opposite case, the first predetermined time interval may be shortened. This makes it possible to set the optimum sampling interval for detecting the moving body. When the first predetermined time is changed, the calculation of the moving speed is also changed with the change of the first predetermined time interval.

【0037】[n値の変更]また、例えば、移動体画像
を求めた際に、移動体画像中の移動体の位置に基づいた
移動体までの距離が大きい(移動体が遠い)場合は、n
値を大きくしてもよい(例えば、n=8)。あるいは、
所定時間における移動距離から求めた移動体の移動速度
が小さい場合は、n値を大きくしてもよい。また、逆の
場合は、n値を小さくしてもよい。あるいは、移動体の
位置と速度に応じてnの値を適切に設定するようにして
もよい。これにより、移動体の検出に最適なサンプリン
グ間隔を設定することができる。なお、n値を変更した
場合は、n値の変更に伴い、移動速度の演算も変更す
る。
[Change of n value] Further, for example, when the moving body image is obtained, if the distance to the moving body based on the position of the moving body in the moving body image is large (the moving body is far), n
The value may be increased (eg, n = 8). Alternatively,
If the moving speed of the moving body obtained from the moving distance in a predetermined time is small, the n value may be increased. In the opposite case, the n value may be reduced. Alternatively, the value of n may be set appropriately according to the position and speed of the moving body. This makes it possible to set the optimum sampling interval for detecting the moving body. When the n value is changed, the calculation of the moving speed is also changed with the change of the n value.

【0038】◆[振動体の除去]次に、図10を用い
て、風に揺られた旗等、移動していないが移動体として
検出されてしまう物体(本説明では、振動体と記載す
る)の除去方法について説明する。なお、図10は、振
動体の除去方法を判り易く説明するために、n値を
「1」に設定している。本発明では、所定地点(例え
ば、図1に示す交差点)に接近する車両等の移動体を検
出し、警報を発生させるので、振動体は移動体として検
出すべきでない。しかし、第1の所定時間間隔で撮影さ
れる各撮影画像中で「動き」があるため、移動体画像中
に移動体として抽出される。例えば、図10に示すよう
に、撮影画像中に振動体a(この例では、風に揺られる
旗)が存在する場合、各撮影画像にて「動き」がある。
このため、振動体aは、各2値化画像中、各マスク画像
中及び各移動体画像中にも存在する。振動体aが移動体
画像中に存在する場合、図8に示す「(ブロック)動き
ベクトル」により、振動体aが存在するブロックの移動
方向と移動距離が検出されることになる。そこで、
「(ブロック)動きベクトル」を求める前に、「(ブロ
ック)動きベクトル」を求めるべきブロックか、求める
べきでないブロックか、を区別する。
[Removal of Vibrating Body] Next, referring to FIG. 10, an object such as a flag swayed by the wind that is not moving but is detected as a moving body (in the present description, referred to as a vibrating body). ) Will be described. Note that in FIG. 10, the n value is set to “1” in order to easily understand the method of removing the vibrating body. In the present invention, a moving body such as a vehicle approaching a predetermined point (for example, the intersection shown in FIG. 1) is detected and an alarm is generated. Therefore, the vibrating body should not be detected as a moving body. However, since there is "motion" in each captured image captured at the first predetermined time interval, it is extracted as a moving body in the moving body image. For example, as shown in FIG. 10, when a vibrating body a (in this example, a flag swayed by the wind) is present in a captured image, there is “motion” in each captured image.
Therefore, the vibrating body a also exists in each binarized image, each mask image, and each moving body image. When the vibrating body a is present in the moving body image, the moving direction and moving distance of the block in which the vibrating body a is present are detected by the “(block) motion vector” shown in FIG. Therefore,
Before determining the “(block) motion vector”, a block for which the “(block) motion vector” should be obtained or a block for which the “(block) motion vector” should not be obtained is distinguished.

【0039】図11を用いて、「(ブロック)動きベク
トル」を求めるべきブロックか、求めるべきでないブロ
ックか、を区別する方法について説明する。図11は、
図8と同様に、求めた移動体画像を8×8のブロック
(X、Y)に分割する。そして、ブロックに分割された
移動体画像から、加算マップを求める。加算マップで
は、例えば、移動体が存在するブロックには「+2(第
1の所定値に相当)」が割り付けられ、移動体が存在し
ないブロックには「−1(第2の所定値に相当)」が割
り付けられる。なお、加算マップ中で色彩を施した部分
は、移動体が存在する領域を参考として示している。例
えば、移動体画像[i]から求めた加算マップ[i]で
は、ブロック(2、3)、(3、3)〜(3、6)、
(4、3)〜(4、6)、(5、3)〜(5、6)に移
動体が存在するので、当該ブロックに「+2」を割り付
け、その他のブロック(移動体が存在しないブロック)
には「−1」を割り付ける。そして、累積マップに、各
ブロック毎の累積値(判定値)を記憶する。なお、累積
マップ中で色彩を施した部分は、振動体と判定された領
域を参考として示している。
A method of distinguishing between a block for which a "(block) motion vector" should be obtained and a block for which it should not be obtained will be described with reference to FIG. FIG. 11 shows
Similar to FIG. 8, the obtained moving body image is divided into 8 × 8 blocks (X, Y). Then, an addition map is obtained from the moving body image divided into blocks. In the addition map, for example, "+2 (corresponding to a first predetermined value)" is assigned to a block in which a moving body exists, and "-1 (corresponding to a second predetermined value) in a block in which no moving body exists. Is assigned. It should be noted that the colored portions in the addition map are shown with reference to the area where the moving body exists. For example, in the addition map [i] obtained from the moving body image [i], blocks (2, 3), (3, 3) to (3, 6),
Since (4,3) to (4,6) and (5,3) to (5,6) have moving bodies, "+2" is assigned to the block and other blocks (blocks where moving bodies do not exist) are assigned. )
"-1" is assigned to. Then, the cumulative value (judgment value) of each block is stored in the cumulative map. It should be noted that the colored portions in the cumulative map are shown with reference to the area determined to be the vibrating body.

【0040】ここで、「(ブロック)動きベクトル」を
求めるべきブロックか、求めるべきでないブロックか、
を区別する2つの方法について説明する。 [第1の方法]第1の方法は、移動体画像を分割した各
ブロックにおいて、各ブロック毎に移動体が存在してい
る継続時間を求める方法である。第1の方法では、加算
マップと累積マップを省略してもよい。ただし、各ブロ
ック毎に、移動体が存在した継続時間を記憶するための
継続時間マップ(図示せず)を必要とする。継続時間が
第2の所定時間以上となったブロックを、移動体の判定
から除外する。図11の例では、ブロック(2、3)と
ブロック(3、3)の両ブロックに連続して移動体が存
在している。この両ブロックにおいて、第2の所定時間
(例えば、5秒)以上、連続して移動体が存在した場
合、ブロック(2、3)とブロック(3、3)を、
「(ブロック)動きベクトル」を求めるべきでないブロ
ックと判定する。当該ブロック以外のブロックで、移動
体が存在するブロックが、「(ブロック)動きベクト
ル」を求めるべきブロックである。なお、第1の方法で
は、移動体が存在しなくなった場合に、移動体の判定除
外から復帰(移動体の判定に戻す)する。
Here, whether the block for which the "(block) motion vector" should be obtained or the block for which it should not be obtained,
Two methods for distinguishing between will be described. [First Method] A first method is a method of obtaining a duration time in which a moving body exists for each block in each block obtained by dividing a moving body image. In the first method, the addition map and the cumulative map may be omitted. However, each block requires a duration map (not shown) for storing the duration in which the moving body existed. A block whose duration is equal to or longer than the second predetermined time is excluded from the determination of the moving body. In the example of FIG. 11, the moving body continuously exists in both the block (2, 3) and the block (3, 3). In both of these blocks, when the moving body is continuously present for a second predetermined time (for example, 5 seconds) or more, the block (2, 3) and the block (3, 3) are
It is determined that the “(block) motion vector” is a block that should not be obtained. A block other than the block in which the moving body exists is a block for which the “(block) motion vector” should be obtained. In the first method, when the moving body is no longer present, the determination exclusion of the moving body is restored (returning to the determination of the moving body).

【0041】[第2の方法]第2の方法は、移動体画像
を分割した各ブロックにおいて、移動体が存在した場合
に第1の所定値を加算し、移動体が存在しない場合に第
2の所定値を減算し、その累積値(判定値)を求める方
法である。累積値(判定値)が第3の所定値以上となっ
た場合に、当該ブロックを移動体の判定から除外する。
図11の例では、累積マップに各ブロックの累積値(判
定値)が記憶されている。例えば、累積マップ[i−
1]の各ブロックの累積値(判定値)に、加算マップ
[i]の各ブロックの加算値(「+2」あるいは「−
1」)を加算すると、累積マップ[i]が得られる。こ
の累積マップにおいて、累積値(判定値)が第3の所定
値(例えば、50)以上となったブロックを、移動体の
判定から除外する。また、移動体の判定除外からの復帰
(移動体の判定に戻す)は、図11中の「ブロック毎グ
ラフ」に示すように、ヒステリシスを設ける(この例で
は、50以上で判定から除外(振動体判定)し、30以
下で判定に戻すことを示している)ことが好ましい。ま
た、累積マップ中の累積値(判定値)は、適切な上下限
値(例えば、上限値:100、下限値:0)を設定する
ことが好ましい。(図11は、下限:0を設定した例で
ある。) 移動体の判定から除外されたブロックは、「(ブロッ
ク)動きベクトル」を求めるべきでないブロックと判定
される。また、当該ブロック以外のブロックで、移動体
が存在するブロックが、「(ブロック)動きベクトル」
を求めるべきブロックである。なお、第1の方法及び第
2の方法ともに、第1〜第3の所定値を、状況に応じて
変更することも可能である。例えば、振動体が存在する
領域が多い場合(撮影装置が風等で揺れている場合等)
は、第1の所定値を小さくしたり、第3の所定値を大き
くして、振動体の判定領域を少なくするようにすること
もできる。
[Second Method] In the second method, in each block obtained by dividing the moving body image, the first predetermined value is added when the moving body is present, and the second predetermined value is added when the moving body is not present. Is a method of subtracting the predetermined value of and obtaining the cumulative value (judgment value). When the cumulative value (judgment value) becomes equal to or larger than the third predetermined value, the block is excluded from the judgment of the moving body.
In the example of FIG. 11, the cumulative value (judgment value) of each block is stored in the cumulative map. For example, the cumulative map [i-
1] to the cumulative value (judgment value) of each block, the addition value (“+2” or “−” of each block of the addition map [i] is added.
1 ”) is added to obtain the cumulative map [i]. In this cumulative map, blocks whose cumulative value (determination value) is equal to or greater than a third predetermined value (for example, 50) are excluded from the determination of the moving body. In addition, the return from the determination exclusion of the moving body (returning to the determination of the moving body) is provided with hysteresis as shown in the “graph for each block” in FIG. It is shown that the body judgment is made) and the judgment is returned to 30 or less). Further, it is preferable to set appropriate upper and lower limit values (for example, upper limit value: 100, lower limit value: 0) as the cumulative value (determination value) in the cumulative map. (FIG. 11 is an example in which the lower limit: 0 is set.) The block excluded from the determination of the moving body is determined as the block for which the “(block) motion vector” should not be obtained. In addition, a block other than the block in which the moving body exists is a “(block) motion vector”.
Is the block to ask for. In addition, in both the first method and the second method, the first to third predetermined values can be changed according to the situation. For example, when there are many areas where the vibrating body exists (when the imaging device is shaking due to wind, etc.)
Can reduce the first predetermined value or increase the third predetermined value to reduce the determination area of the vibrating body.

【0042】◆[その他のノイズ成分の除去]次に、図
12を用いて、その他の天候の変化等によるノイズ成分
の除去方法について説明する。図12は、降雪によるノ
イズの発生と、当該ノイズの除去方法を説明する図であ
る。例えば、降雪時では、図3と同様に撮影画像を撮影
した場合、各撮影画像には移動体と背景の他にも、空中
を漂う雪が一緒に撮影される。なお、図12は、その他
のノイズ成分の除去方法を判り易く説明するために、n
値を「1」に設定している。上記の振動体の除去と同
様、その他のノイズ成分も移動体として検出すべきでな
い。しかし、第1の所定時間間隔で撮影される各撮影画
像中で「動き」があるため、移動体画像中に移動体とし
て抽出される。例えば、図12に示すように、撮影画像
中にその他のノイズ成分(この例では、降雪)が存在す
る場合、各撮影画像にて「動き」がある。このため、そ
の他のノイズ成分は、2値化画像中、マスク画像中及び
移動体画像中(2値化画像[i−2、i−1]、[i−
1、i]、マスク画像[i−1]及び移動体画像[i−
1])にも存在する。その他のノイズ成分が移動体画像
中に存在する場合、図8に示す「(ブロック)動きベク
トル」により、その他のノイズ成分が存在するブロック
の移動方向と移動距離が検出されることになる。そこ
で、移動体画像を求める前に、その他のノイズ成分を除
去する。
[Removal of Other Noise Components] Next, with reference to FIG. 12, another method of removing noise components due to changes in the weather will be described. FIG. 12 is a diagram illustrating generation of noise due to snowfall and a method of removing the noise. For example, at the time of snowfall, when a captured image is captured as in FIG. 3, in addition to the moving object and the background, snow drifting in the air is captured in each captured image. Note that, in FIG. 12, in order to make it easier to understand how to remove other noise components,
The value is set to "1". Other noise components should not be detected as moving objects as well as the removal of the vibrating body described above. However, since there is "motion" in each captured image captured at the first predetermined time interval, it is extracted as a moving body in the moving body image. For example, as shown in FIG. 12, when another noise component (snowfall in this example) exists in the captured image, there is “motion” in each captured image. Therefore, other noise components are included in the binarized image, the mask image, and the moving body image (binarized image [i-2, i-1], [i-
1, i], mask image [i-1] and moving body image [i-
1]) also exists. When other noise components are present in the moving body image, the moving direction and moving distance of the block in which the other noise components are present are detected by the “(block) motion vector” shown in FIG. Therefore, other noise components are removed before obtaining the moving body image.

【0043】ここで、移動体画像を求める前に、その他
のノイズ成分を除去する2つの方法について説明する。 [第1の方法]第1の方法は、移動体画像中において、
孤立した微小な移動体をノイズとみなす方法である。既
に説明したように、本実施例で用いている画像は、全
て、明るさ(輝度)を測定する個々の画素が整然と配列
されて構成された、デジタル画像である。また、移動体
画像[i]は、マスク画像[i]の画素が「0」の部分
(この場合、マスク画像[i]中の白色部分)に対応す
る撮影画像[i]の画素の部分を「0」にして(この場
合、白色にして)、移動体画像[i]を得ることができ
る。これより、移動体画像中において、孤立した移動体
であることの判定は、画素が「0」の部分で囲まれてい
ることを判定すればよい。また、微小な移動体であるこ
との判定は、孤立した移動体を構成する画素の数を計数
し、所定の数(例えば、6)以下であることを判定すれ
ばよい。上記の方法により、移動体画像中から、孤立し
た微小な移動体(その他のノイズ成分)を除去すること
ができる。
Now, two methods for removing other noise components before obtaining the moving body image will be described. [First Method] In the first method,
This is a method in which an isolated minute moving body is regarded as noise. As described above, the images used in this embodiment are all digital images in which individual pixels for measuring brightness (luminance) are arranged in an orderly manner. In addition, the moving image [i] has a pixel portion of the captured image [i] corresponding to a portion of the mask image [i] where the pixel is “0” (in this case, a white portion in the mask image [i]). The moving object image [i] can be obtained by setting it to "0" (in this case, white). From this, in the moving body image, it can be determined that the moving body is an isolated moving body by determining that the pixel is surrounded by the portion of “0”. Further, the determination as to be a minute moving body may be made by counting the number of pixels forming an isolated moving body and determining that the number is less than or equal to a predetermined number (for example, 6). By the above method, an isolated minute moving object (other noise component) can be removed from the moving object image.

【0044】[第2の方法]第2の方法は、2値化画像
を得る処理において、差分の絶対値から「1」あるいは
「0」の2値に判定するための閾値を適切に変更し、2
値化画像からその他のノイズ成分を除去する方法であ
る。閾値を、2値化画像中の差分の絶対値が閾値以上で
ある領域(画素)の合計面積(「1」の画素の数等)
と、2値化画像の全面積(構成する全画素の数等)との
比に応じて変更する。降雪、降雨等の天候時は、背景の
明るさ(輝度)等も、降雪、降雨等(ノイズ成分)の測
定値に、より近い測定値となる。なお、2値化画像中の
差分の絶対値が閾値以上である領域(画素)の合計面積
と、閾値未満である領域(画素)の合計面積との比に応
じて閾値を変更してもよい。2値化画像中の差分の絶対
値が閾値以上である領域(画素)の面積に基づいて閾値
を変更する方法は、種々の方法が可能である。
[Second Method] In the second method, in the process of obtaining a binarized image, the threshold value for judging from the absolute value of the difference to the binary value "1" or "0" is appropriately changed. Two
This is a method of removing other noise components from the binarized image. The threshold value is the total area of regions (pixels) in which the absolute value of the difference in the binarized image is greater than or equal to the threshold value (the number of pixels of "1", etc.)
And the total area of the binarized image (the number of all the constituent pixels, etc.). In the case of weather such as snowfall and rainfall, the brightness (luminance) of the background and the like are closer to the measured values of snowfall and rain (noise component). The threshold may be changed according to the ratio of the total area of the regions (pixels) in which the absolute value of the difference in the binarized image is greater than or equal to the threshold to the total area of the regions (pixels) less than the threshold. . Various methods are possible for changing the threshold value based on the area of the region (pixel) in which the absolute value of the difference in the binarized image is equal to or greater than the threshold value.

【0045】例えば、図12において、時間[i−1]
における2値化画像[i−2、i−1]では、閾値が
「4」である。この例では、2値化画像[i−2、i−
1]に、ノイズ成分(この場合、降雪)が残っている。
そして、全面積に対して、2値化画像中の差分の絶対値
が閾値以上である領域(画素)の合計面積の割合が、約
12%である。ここで、図12中の「2値化閾値テーブ
ル」から、面積割合が12%に相当する部分の閾値(こ
の場合、「4」)を、次回の2値化画像(2値化画像
[i−1、i])を得る処理で用いる。次に、時間
[i]における2値化画像[i−1、i]では、閾値が
「4」である。この例では、2値化画像[i−1、i]
に、ノイズ成分(この場合、降雪)が残っている。そし
て、全面積に対して、2値化画像中の差分の絶対値が閾
値以上である領域(画素)の合計面積の割合が、約25
%である。ここで、図12中の「2値化閾値テーブル」
から、面積割合が25%に相当する部分の閾値(この場
合、「6」)を、次回の2値化画像(2値化画像[i、
i−1])を得る処理で用いる。
For example, in FIG. 12, time [i-1]
In the binarized image [i-2, i-1] in, the threshold value is "4". In this example, the binarized image [i-2, i-
1] still has a noise component (snowfall in this case).
The ratio of the total area of the regions (pixels) in which the absolute value of the difference in the binarized image is equal to or more than the threshold value to the total area is about 12%. Here, from the “binarization threshold table” in FIG. 12, the threshold value (“4” in this case) corresponding to the area ratio of 12% is calculated as the next binarized image (binarized image [i -1, i]) is used in the process. Next, in the binarized image [i-1, i] at time [i], the threshold value is “4”. In this example, the binarized image [i-1, i]
A noise component (snowfall in this case) remains. Then, the ratio of the total area of the regions (pixels) in which the absolute value of the difference in the binarized image is equal to or more than the threshold value to the total area is about 25.
%. Here, "binarization threshold value table" in FIG.
Therefore, the threshold value (“6” in this case) of the portion corresponding to the area ratio of 25% is set to the next binarized image (binarized image [i,
i-1]) is used in the process.

【0046】次に、時間[i+1]における2値化画像
[i、i+1]では、閾値が「6」である。閾値が
「4」から「6」に上げられたことにより、この例で
は、2値化画像[i、i+1]から、ノイズ成分(この
場合、降雪)が除去されている。そして、全面積に対し
て、2値化画像中の差分の絶対値が閾値以上である領域
(画素)の合計面積の割合が、約25%である。ここ
で、図12中の「2値化閾値テーブル」から、面積割合
が25%に相当する部分の閾値(この場合、「6」)
を、次回の2値化画像(2値化画像[i+1、i+
2])を得る処理で用いる。次に、時間[i+2]にお
ける2値化画像[i+1、i+2]では、閾値が「6」
である。閾値が「6」であることにより、この例では、
2値化画像[i+1、i+2]から、ノイズ成分(この
場合、降雪)が除去されている。そして、全面積に対し
て、2値化画像中の差分の絶対値が閾値以上である領域
(画素)の合計面積の割合が、約15%である。ここ
で、図12中の「2値化閾値テーブル」から、面積割合
が15%に相当する部分の閾値(この場合、「4」)
を、次回の2値化画像(2値化画像[i+2、i+
3])を得る処理で用いる。
Next, in the binarized image [i, i + 1] at time [i + 1], the threshold value is "6". Since the threshold value is increased from “4” to “6”, in this example, the noise component (snowfall in this case) is removed from the binarized image [i, i + 1]. Then, the ratio of the total area of the regions (pixels) in which the absolute value of the difference in the binarized image is equal to or more than the threshold value to the total area is about 25%. Here, from the “binarization threshold value table” in FIG. 12, the threshold value of the portion where the area ratio corresponds to 25% (“6” in this case)
To the next binarized image (binarized image [i + 1, i +
2]) is used in the process of obtaining. Next, in the binarized image [i + 1, i + 2] at time [i + 2], the threshold value is “6”.
Is. Since the threshold is “6”, in this example,
The noise component (snowfall in this case) is removed from the binarized image [i + 1, i + 2]. The ratio of the total area of the regions (pixels) in which the absolute value of the difference in the binarized image is equal to or more than the threshold value to the total area is about 15%. Here, from the “binarization threshold value table” in FIG. 12, the threshold value of the portion whose area ratio corresponds to 15% (“4” in this case)
To the next binarized image (binarized image [i + 2, i +
3]) is used in the process.

【0047】◆[車両接近警報装置への適用]以上の移
動体検出方法により求めた移動体が、所定の大きさ(面
積)以上である場合、当該移動体を車両であると認識す
る。そして、少なくとも2つの移動体画像に基づいて、
認識した車両の「(移動体)動きベクトル」を求め、
「(移動体)動きベクトル」の方向、速度、位置に基づ
いて、警報装置から警報を発生させる。例えば、図8中
の動きベクトル平面[i−1、i]において、「(移動
体)動きベクトル」が、所定地点(例えば、交差点であ
り、この場合は、動きベクトル平面[i−1、i]の下
端)の方向に向かっている(接近している)場合、警報
を発生する。あるいは、所定地点(この場合は、動きベ
クトル平面[i−1、i]の下端)の方向に向かってい
る(接近している)「(移動体)動きベクトル」の大き
さが、所定の大きさより大きい場合(速度が大きい場
合)、警報を発生する。あるいは、所定地点(この場合
は、動きベクトル平面[i−1、i]の下端)の方向に
向かっている(接近している)「(移動体)動きベクト
ル」の位置が、所定の位置に到達した場合(例えば、ブ
ロック(5、1)〜ブロック(8、8)のいずれかの位
置に到達した場合)、警報を発生する。
[Application to Vehicle Approach Warning Device] When the moving body obtained by the above moving body detection method is larger than a predetermined size (area), the moving body is recognized as a vehicle. Then, based on at least two moving body images,
Obtain the “(moving body) motion vector” of the recognized vehicle,
An alarm is issued from the alarm device based on the direction, speed, and position of the "(moving object) motion vector". For example, in the motion vector plane [i-1, i] in FIG. 8, the "(moving body) motion vector" is a predetermined point (for example, an intersection, and in this case, the motion vector plane [i-1, i]). If the direction is toward (close to) the bottom edge of], an alarm is generated. Alternatively, the size of the “(moving object) motion vector” that is (approaching) toward the predetermined point (in this case, the lower end of the motion vector plane [i-1, i]) is the predetermined size. If it is larger than that (when the speed is high), an alarm is generated. Alternatively, the position of the “(moving object) motion vector” heading (approaching) in the direction of the predetermined point (in this case, the lower end of the motion vector plane [i-1, i]) is set to the predetermined position. When it arrives (for example, when it reaches any one of the blocks (5, 1) to (8, 8)), an alarm is issued.

【0048】本発明の移動体検出方法及び移動体検出装
置は、本実施の形態で説明した処理あるいは構成に限定
されず、本発明の要旨を変更しない範囲で種々の変更、
追加、削除が可能である。例えば、移動体検出装置の構
成は、図1に限定されず、種々の構成が可能である。本
発明は、道路上を走行する移動体(車両)の検出に限定
されず、種々の移動体の検出に適用することが可能であ
る。本実施の形態では、輝度情報を用いて説明したが、
色彩情報を用いることも可能である。(類似した色彩情
報のかたまりを移動体と判別することも可能である。) 本実施の形態の説明に用いた数値は一例であり、この数
値に限定されるものではない。本実施の形態で示した各
画像、テーブル及びグラフ等は一例であり、これらの画
像、テーブル及びグラフ等に限定されるものではない。
また、以上(≧)、以下(≦)、より大きい(>)、未
満(<)等は、等号を含んでも含まなくてもよい。
The moving body detecting method and the moving body detecting apparatus of the present invention are not limited to the processing or configuration described in the present embodiment, and various modifications can be made without departing from the scope of the present invention.
It can be added and deleted. For example, the configuration of the moving body detection device is not limited to that shown in FIG. 1, and various configurations are possible. The present invention is not limited to the detection of a moving body (vehicle) traveling on a road, but can be applied to the detection of various moving bodies. Although the present embodiment has been described using the luminance information,
It is also possible to use color information. (It is also possible to distinguish a similar group of color information from a moving body.) The numerical values used in the description of the present embodiment are examples, and the present invention is not limited to these numerical values. The images, tables, graphs, and the like shown in this embodiment are examples, and the present invention is not limited to these images, tables, graphs, and the like.
Further, the above (≧), the following (≦), the greater (>), the less than (<) and the like may or may not include an equal sign.

【0049】[0049]

【発明の効果】以上説明したように、請求項1〜8に記
載の移動体検出方法あるいは請求項9〜11に記載の移
動体検出装置あるいは請求項12〜13に記載の車両接
近警報装置を用いれば、天候等の変化に対しても精度良
く移動体(車両等)を検出できる。
As described above, the moving object detecting method according to any one of claims 1 to 8, the moving object detecting device according to any one of claims 9 to 11 and the vehicle approach warning device according to any one of claims 12 to 13 are provided. If used, a moving body (vehicle or the like) can be detected with high accuracy even when the weather changes.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の移動体検出装置の一実施の形態の概略
構成図である。
FIG. 1 is a schematic configuration diagram of an embodiment of a moving body detection device of the present invention.

【図2】本発明の移動体検出方法の検出原理を説明する
図である。
FIG. 2 is a diagram for explaining the detection principle of the moving body detection method of the present invention.

【図3】図2の処理を、第1の所定時間間隔で、連続的
に実行していく様子を示す図である。
FIG. 3 is a diagram showing how the process of FIG. 2 is continuously executed at a first predetermined time interval.

【図4】2つの撮影画像の差分から2値化画像を求める
方法について説明する図である。
FIG. 4 is a diagram illustrating a method of obtaining a binarized image from a difference between two captured images.

【図5】各撮影時間毎の差分から求めた2値化画像にお
いて、移動体が重畳している例を示す図である。
FIG. 5 is a diagram showing an example in which a moving object is superimposed on a binarized image obtained from a difference for each shooting time.

【図6】移動体が存在する撮影画像が少ない例を示す図
である。
FIG. 6 is a diagram showing an example in which there are few captured images in which a moving body exists.

【図7】低速の移動体を精度よく検出するとともに、高
速の移動体をも精度よく検出する方法を説明する図であ
る。
FIG. 7 is a diagram illustrating a method of accurately detecting a low-speed moving body and a high-speed moving body with high accuracy.

【図8】求めた移動体画像に基づいて移動体の移動方向
及び移動速度を求める方法について説明する図である。
FIG. 8 is a diagram illustrating a method of obtaining a moving direction and a moving speed of a moving body based on the obtained moving body image.

【図9】移動体が重畳した場合の補正方法について説明
する図である。
FIG. 9 is a diagram illustrating a correction method when a moving body is superposed.

【図10】移動していないが移動体として検出されてし
まう物体(振動体)について説明する図である。
FIG. 10 is a diagram illustrating an object (vibrating body) that is not moving but is detected as a moving body.

【図11】移動していないが移動体として検出されてし
まう物体(振動体)の除去方法について説明する図であ
る。
FIG. 11 is a diagram illustrating a method of removing an object (vibrating body) that is not moving but is detected as a moving body.

【図12】その他の天候の変化等によるノイズ成分の除
去方法について説明する図である。
FIG. 12 is a diagram illustrating another method of removing a noise component due to a change in weather or the like.

【符号の説明】[Explanation of symbols]

1 撮影装置 2 処理装置 3 記憶装置 4 警報装置 1 Imaging device 2 processing equipment 3 storage devices 4 Alarm device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 7/60 150 G06T 7/60 150B G08B 21/00 G08B 21/00 U G08G 1/04 G08G 1/04 D Fターム(参考) 5B057 AA16 BA29 BA30 CA08 CA12 CA16 CB06 CB12 CB16 CH01 CH11 DA07 DB02 DB09 DC22 DC32 5C086 AA54 BA22 CA28 CB36 DA08 5H180 AA01 BB03 BB04 BB06 BB09 BB15 CC04 DD02 DD03 LL01 LL02 LL04 LL07 LL08 5L096 AA06 BA04 CA04 FA14 FA69 GA08 GA10 GA19 GA51 HA03 LA05 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 7/60 150 G06T 7/60 150B G08B 21/00 G08B 21/00 U G08G 1/04 G08G 1/04 DF Term (Reference) 5B057 AA16 BA29 BA30 CA08 CA12 CA16 CB06 CB12 CB16 CH01 CH11 DA07 DB02 DB09 DC22 DC32 5C086 AA54 BA22 CA28 CB36 DA08 5H180 AA01 BB03 BB04 FA06 FA04 FA04 LL06L04 LL04L04 LL04L02 LL04L02 LL04L02 LL04L02 LL04L04L02 GA08 GA10 GA19 GA51 HA03 LA05

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 検出領域を第1の所定時間間隔で撮影
し、撮影画像を得るとともに記憶し、時点[i]におけ
る撮影画像[i]と、撮影画像[i]に対してn回過去
の撮影画像[i−n](nは、2以上の整数)と、撮影
画像[i]に対してn回未来の撮影画像[i+n]とを
用い、撮影画像[i−n]と撮影画像[i]との差分に
基づいて2値化した2値化画像[i−n、i]と、撮影
画像[i]と撮影画像[i+n]との差分に基づいて2
値化した2値化画像[i、i+n]とを求め、求めた2
値化画像[i−n、i]と2値化画像[i、i+n]と
に基づいて、時点[i]に対応するマスク画像[i]を
求め、求めたマスク画像[i]と撮影画像[i]とに基
づいて、時点[i]に対応する移動体画像[i]を求
め、求めた移動体画像[i]の情報に基づいて、移動体
を検出する、移動体検出方法。
1. A detection region is photographed at a first predetermined time interval, a photographed image is obtained and stored, and the photographed image [i] at time [i] and n times past the photographed image [i]. The captured image [i-n] (n is an integer of 2 or more) and the captured image [i + n] n times in the future with respect to the captured image [i] are used, and the captured image [i-n] and the captured image [ 2] based on the difference between the binarized image [i−n, i] and the photographed image [i] and the photographed image [i + n].
The binarized image [i, i + n] that has been binarized is obtained, and the obtained 2
The mask image [i] corresponding to the time point [i] is obtained based on the binarized image [i−n, i] and the binarized image [i, i + n], and the obtained mask image [i] and captured image A moving body detection method for obtaining a moving body image [i] corresponding to a time point [i] based on [i] and detecting the moving body based on information of the obtained moving body image [i].
【請求項2】 請求項1に記載の移動体検出方法であっ
て、 移動体を検出した場合は第1の所定時間間隔を短くし、
移動体を検出しなかった場合は第1の所定時間間隔を長
くする、移動体検出方法。
2. The moving body detection method according to claim 1, wherein when the moving body is detected, the first predetermined time interval is shortened,
A method of detecting a moving body, wherein the first predetermined time interval is lengthened when the moving body is not detected.
【請求項3】 検出領域を第1の所定時間間隔で撮影
し、撮影画像を得るとともに記憶し、時点[i]におけ
る撮影画像[i]と、撮影画像[i]に対してn回過去
の撮影画像[i−n](nは、1以上の整数)と、撮影
画像[i]に対してn回未来の撮影画像[i+n]とを
用い、撮影画像[i−n]と撮影画像[i]との差分に
基づいて2値化した2値化画像[i−n、i]と、撮影
画像[i]と撮影画像[i+n]との差分に基づいて2
値化した2値化画像[i、i+n]とを求め、求めた2
値化画像[i−n、i]と2値化画像[i、i+n]と
に基づいて、時点[i]に対応するマスク画像[i]を
求め、求めたマスク画像[i]と撮影画像[i]とに基
づいて、時点[i]に対応する移動体画像[i]を求
め、求めた移動体画像[i]の情報に基づいて、移動体
を検出し、 検出した移動体の位置と速度の少なくとも一方に基づい
て、nの値を変更する、移動体検出方法。
3. The detection area is photographed at a first predetermined time interval, the photographed image is obtained and stored, and the photographed image [i] at time [i] and n times past the photographed image [i]. The captured image [i-n] (n is an integer greater than or equal to 1) and the captured image [i + n] n times in the future with respect to the captured image [i] are used. 2] based on the difference between the binarized image [i−n, i] and the photographed image [i] and the photographed image [i + n].
The binarized image [i, i + n] that has been binarized is obtained, and the obtained 2
The mask image [i] corresponding to the time point [i] is obtained based on the binarized image [i−n, i] and the binarized image [i, i + n], and the obtained mask image [i] and captured image The moving body image [i] corresponding to the time point [i] is obtained based on [i], the moving body is detected based on the obtained information of the moving body image [i], and the detected position of the moving body is detected. And a velocity, the value of n is changed based on at least one of the two.
【請求項4】 請求項1〜3のいずれかに記載の移動体
検出方法であって、 移動体画像を複数の領域に区分し、各領域の情報に基づ
いて移動体を判定し、同一の領域に移動体が第2の所定
時間以上、連続して検出された場合は、当該領域の移動
体を非移動体と判定する、移動体検出方法。
4. The moving body detection method according to claim 1, wherein the moving body image is divided into a plurality of areas, the moving body is determined based on information of each area, and the same moving body image is detected. A moving body detection method, wherein when a moving body in a region is continuously detected for a second predetermined time or longer, the moving body in the region is determined as a non-moving body.
【請求項5】 請求項1〜4のいずれかに記載の移動体
検出方法であって、 移動体画像を複数の領域に区分し、各領域の情報に基づ
いて移動体を判定し、各領域には判定値が設けられてお
り、移動体が存在する領域の判定値には第1の所定値を
加算し、移動体が存在しない領域の判定値には第2の所
定値を減算し、判定値が第3の所定値以上となった場合
は、当該領域の移動体を非移動体と判定する、移動体検
出方法。
5. The moving body detection method according to claim 1, wherein the moving body image is divided into a plurality of areas, the moving body is determined based on information of each area, and each area is determined. Is provided with a judgment value, the first predetermined value is added to the judgment value of the area where the moving body exists, and the second predetermined value is subtracted from the judgment value of the area where the moving body does not exist, The moving body detection method, wherein when the determination value is equal to or larger than the third predetermined value, the moving body in the area is determined as a non-moving body.
【請求項6】 請求項1〜5のいずれかに記載の移動体
検出方法であって、 撮影画像は複数の領域で構成されており、2値化画像を
求める場合、2つの撮影画像の対応する領域の輝度デー
タの差分の絶対値が閾値以上である領域と、閾値未満で
ある領域の2種類の領域に分類して2値化画像を求め
る、移動体検出方法。
6. The moving object detection method according to claim 1, wherein the captured image is composed of a plurality of regions, and when a binarized image is obtained, correspondence between the two captured images is provided. A moving object detection method in which a binarized image is obtained by classifying into two types of areas, an area in which the absolute value of the difference in the brightness data of the area is greater than or equal to a threshold and an area in which the absolute value is less than the threshold.
【請求項7】 請求項6に記載の移動体検出方法であっ
て、 2値化画像を求める場合、更に、2つの撮影画像の対応
する領域の輝度データの差分の絶対値が閾値以上である
領域の面積に応じて、閾値を変更する、移動体検出方
法。
7. The moving object detection method according to claim 6, wherein when a binarized image is obtained, the absolute value of the difference between the brightness data of the corresponding areas of the two captured images is equal to or more than a threshold value. A moving object detection method, wherein a threshold value is changed according to the area of a region.
【請求項8】 請求項1〜7のいずれかに記載の移動体
検出方法であって、 更に、移動体が検出されなかった場合の撮影画像を背景
画像に設定し、撮影画像[i]と背景画像との差分か
ら、時点[i]における背景除去移動体画像[i]を求
め、 マスク画像[i]と撮影画像[i]と背景除去移動体画
像[i]とに基づいて、時点[i]に対応する移動体画
像[i]を求める、 移動体検出方法。
8. The moving body detection method according to claim 1, further comprising setting a captured image when a moving body is not detected as a background image, and setting the captured image [i] as The background-removed moving object image [i] at the time point [i] is obtained from the difference with the background image, and based on the mask image [i], the captured image [i], and the background-removed moving object image [i], A moving object detection method of obtaining a moving object image [i] corresponding to [i].
【請求項9】 撮影装置と処理装置と記憶装置とを備
え、 撮影装置は、第1の所定時間間隔で、検出領域の画像を
撮影し、 処理装置は、第1の所定時間間隔で、撮影された画像を
記憶装置に記憶するとともに、請求項1〜8のいずれか
に記載の移動体検出方法を用いて移動体を検出する、移
動体検出装置。
9. An imaging device, a processing device, and a storage device, wherein the imaging device captures an image of the detection region at a first predetermined time interval, and the processing device captures an image at a first predetermined time interval. A moving body detection device that stores the captured image in a storage device and detects a moving body using the moving body detection method according to claim 1.
【請求項10】 請求項9に記載の移動体検出装置であ
って、更に、警報装置を備え、 処理装置は、少なくとも2つの移動体画像に基づいて、
検出した移動体の位置と移動方向を求め、移動体が所定
地点に接近している場合、警報装置から警報を発生させ
る、移動体検出装置。
10. The moving body detection device according to claim 9, further comprising an alarm device, wherein the processing device is based on at least two moving body images,
A moving body detection device which obtains the detected position and moving direction of the moving body and issues an alarm from an alarm device when the moving body is approaching a predetermined point.
【請求項11】 請求項9または10に記載の移動体検
出装置であって、 電源として、交流電源あるいは太陽電池の少なくとも一
方を具備する、移動体検出装置。
11. The moving body detection device according to claim 9 or 10, comprising at least one of an AC power supply and a solar cell as a power supply.
【請求項12】 撮影装置と処理装置と記憶装置と警報
装置とを備え、 撮影装置は、第1の所定時間間隔で、検出領域の画像を
撮影し、 処理装置は、第1の所定時間間隔で、撮影された画像を
記憶装置に記憶するとともに、請求項1〜8のいずれか
に記載の移動体検出方法を用いて移動体を検出し、検出
した移動体の大きさに基づいて移動体が車両であるか否
かを判定し、少なくとも2つの移動体画像に基づいて、
判定した車両の位置と移動方向を求め、当該車両が所定
地点に接近している場合、警報装置から警報を発生させ
る、車両接近警報装置。
12. An imaging device, a processing device, a storage device, and an alarm device, wherein the imaging device captures an image of the detection area at a first predetermined time interval, and the processing device has a first predetermined time interval. Then, the captured image is stored in a storage device, the moving body is detected using the moving body detection method according to claim 1, and the moving body is detected based on the size of the detected moving body. Is a vehicle, and based on at least two moving body images,
A vehicle approach warning device that obtains the determined position and moving direction of a vehicle and issues an alarm from an alarm device when the vehicle is approaching a predetermined point.
【請求項13】 請求項12に記載の車両接近警報装置
であって、 電源として、交流電源あるいは太陽電池の少なくとも一
方を具備する、車両接近警報装置。
13. The vehicle approach warning device according to claim 12, comprising at least one of an AC power supply and a solar battery as a power supply.
JP2001373376A 2001-12-06 2001-12-06 Moving body detecting method and moving body detecting device Pending JP2003173435A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001373376A JP2003173435A (en) 2001-12-06 2001-12-06 Moving body detecting method and moving body detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001373376A JP2003173435A (en) 2001-12-06 2001-12-06 Moving body detecting method and moving body detecting device

Publications (1)

Publication Number Publication Date
JP2003173435A true JP2003173435A (en) 2003-06-20

Family

ID=19182099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001373376A Pending JP2003173435A (en) 2001-12-06 2001-12-06 Moving body detecting method and moving body detecting device

Country Status (1)

Country Link
JP (1) JP2003173435A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013774A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Apparatus for searching object
JP2008523454A (en) * 2004-12-15 2008-07-03 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to model background and foreground regions
JP2008525051A (en) * 2004-12-28 2008-07-17 新世代株式会社 Method and apparatus for detecting a reflective object
JP2009540460A (en) * 2006-06-13 2009-11-19 エーディーティー・セキュリティー・サービシーズ・インク Video confirmation system and method for alarm monitoring in a central station

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03138595A (en) * 1989-10-25 1991-06-12 Ikegami Tsushinki Co Ltd Moving body detecting device
JPH03211700A (en) * 1990-01-17 1991-09-17 Matsushita Electric Ind Co Ltd Landslide automatic watching device
JPH0460880A (en) * 1990-06-29 1992-02-26 Shimizu Corp Moving body discrimination and analysis controlling system
JPH04281680A (en) * 1991-03-11 1992-10-07 Nippon Telegr & Teleph Corp <Ntt> Moving object extraction processing system
JPH05137053A (en) * 1991-11-15 1993-06-01 Kyocera Corp Photographing speed control system
JPH0652485A (en) * 1992-07-28 1994-02-25 Nippon Signal Co Ltd:The Dangerous traffic event detecting method
JPH06223157A (en) * 1992-09-30 1994-08-12 Shimizu Corp Moving body detection system by image sensor
JPH07234914A (en) * 1994-02-24 1995-09-05 Sumitomo Metal Ind Ltd Bar code label reader
JPH07239911A (en) * 1994-02-28 1995-09-12 Nippon Steel Corp Binarizing processing method
JPH07325919A (en) * 1994-06-01 1995-12-12 Canon Inc Method for image processing and its processor
JPH07334299A (en) * 1994-04-13 1995-12-22 Toshiba Corp Information input device
JPH08185521A (en) * 1994-12-28 1996-07-16 Clarion Co Ltd Mobile object counter
JPH0922466A (en) * 1995-07-05 1997-01-21 Hitachi Ltd Method for preparing background image and image processor
JPH11234660A (en) * 1998-02-18 1999-08-27 Toshiba Corp Moving object detection processing unit and its method
JPH11284997A (en) * 1998-03-31 1999-10-15 Oki Electric Ind Co Ltd Traveling object sensing device
JP2000078564A (en) * 1998-08-28 2000-03-14 Aiphone Co Ltd System for tracing person on television camera monitor
JP2001091246A (en) * 1999-09-22 2001-04-06 Mitsubishi Electric Corp Obstacle detecting device
JP2001108494A (en) * 1999-10-12 2001-04-20 Japan Radio Co Ltd Falling rock-monitoring system
JP2001143197A (en) * 1999-11-10 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> Roadside device, device and method for preventing collision of vehicles as they passing by and recording medium
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03138595A (en) * 1989-10-25 1991-06-12 Ikegami Tsushinki Co Ltd Moving body detecting device
JPH03211700A (en) * 1990-01-17 1991-09-17 Matsushita Electric Ind Co Ltd Landslide automatic watching device
JPH0460880A (en) * 1990-06-29 1992-02-26 Shimizu Corp Moving body discrimination and analysis controlling system
JPH04281680A (en) * 1991-03-11 1992-10-07 Nippon Telegr & Teleph Corp <Ntt> Moving object extraction processing system
JPH05137053A (en) * 1991-11-15 1993-06-01 Kyocera Corp Photographing speed control system
JPH0652485A (en) * 1992-07-28 1994-02-25 Nippon Signal Co Ltd:The Dangerous traffic event detecting method
JPH06223157A (en) * 1992-09-30 1994-08-12 Shimizu Corp Moving body detection system by image sensor
JPH07234914A (en) * 1994-02-24 1995-09-05 Sumitomo Metal Ind Ltd Bar code label reader
JPH07239911A (en) * 1994-02-28 1995-09-12 Nippon Steel Corp Binarizing processing method
JPH07334299A (en) * 1994-04-13 1995-12-22 Toshiba Corp Information input device
JPH07325919A (en) * 1994-06-01 1995-12-12 Canon Inc Method for image processing and its processor
JPH08185521A (en) * 1994-12-28 1996-07-16 Clarion Co Ltd Mobile object counter
JPH0922466A (en) * 1995-07-05 1997-01-21 Hitachi Ltd Method for preparing background image and image processor
JPH11234660A (en) * 1998-02-18 1999-08-27 Toshiba Corp Moving object detection processing unit and its method
JPH11284997A (en) * 1998-03-31 1999-10-15 Oki Electric Ind Co Ltd Traveling object sensing device
JP2000078564A (en) * 1998-08-28 2000-03-14 Aiphone Co Ltd System for tracing person on television camera monitor
JP2001091246A (en) * 1999-09-22 2001-04-06 Mitsubishi Electric Corp Obstacle detecting device
JP2001108494A (en) * 1999-10-12 2001-04-20 Japan Radio Co Ltd Falling rock-monitoring system
JP2001143197A (en) * 1999-11-10 2001-05-25 Nippon Telegr & Teleph Corp <Ntt> Roadside device, device and method for preventing collision of vehicles as they passing by and recording medium
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008523454A (en) * 2004-12-15 2008-07-03 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to model background and foreground regions
JP4708343B2 (en) * 2004-12-15 2011-06-22 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to model background and foreground regions
JP2008525051A (en) * 2004-12-28 2008-07-17 新世代株式会社 Method and apparatus for detecting a reflective object
JP2007013774A (en) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc Apparatus for searching object
JP4723934B2 (en) * 2005-07-01 2011-07-13 株式会社豊田中央研究所 Object search device
JP2009540460A (en) * 2006-06-13 2009-11-19 エーディーティー・セキュリティー・サービシーズ・インク Video confirmation system and method for alarm monitoring in a central station

Similar Documents

Publication Publication Date Title
CN104050620B (en) Body detection device
US8818026B2 (en) Object recognition device and object recognition method
JP4970516B2 (en) Surrounding confirmation support device
CN106611512B (en) Method, device and system for processing starting of front vehicle
JP3423861B2 (en) Method and apparatus for monitoring a moving object
JP2008187347A (en) On-vehicle navigation system, road marking identifying program and road marking identifying method
JP2012226513A (en) Detection device and detection method
JP3857129B2 (en) Moving object detection method and moving object detection apparatus
JP2002074368A (en) Moving object recognizing and tracking device
JP6488913B2 (en) Vehicle position determination device and vehicle position determination method
CN104008518B (en) Body detection device
JP4972116B2 (en) Vehicle periphery monitoring device
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
CN104782115A (en) Image processing device for vehicle
JP2003173435A (en) Moving body detecting method and moving body detecting device
JP2019121356A (en) Interference region detection apparatus and method, and electronic apparatus
JP2002367077A (en) Device and method for deciding traffic congestion
JP2003248895A (en) System and method for image type vehicle sensing
Kasai et al. Lane detection system for vehicle platooning using multi-information map
JP2003233899A (en) Device and method for detecting road shoulder
US20230004764A1 (en) Automotive sensor integration module
JP3844750B2 (en) Infrared image recognition device and alarm device using infrared image recognition device
JPH11211845A (en) Rainfall/snowfall detecting method and its device
Khantasak et al. Parking violation detection system based on video processing
JP5479438B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071127