JP2009146337A - Vehicle presence determination device, vehicle presence determination method and program - Google Patents

Vehicle presence determination device, vehicle presence determination method and program Download PDF

Info

Publication number
JP2009146337A
JP2009146337A JP2007325731A JP2007325731A JP2009146337A JP 2009146337 A JP2009146337 A JP 2009146337A JP 2007325731 A JP2007325731 A JP 2007325731A JP 2007325731 A JP2007325731 A JP 2007325731A JP 2009146337 A JP2009146337 A JP 2009146337A
Authority
JP
Japan
Prior art keywords
vehicle
image
moving
determination
partial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007325731A
Other languages
Japanese (ja)
Other versions
JP4956400B2 (en
Inventor
Yasunori Kuramochi
康則 倉持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyosan Electric Manufacturing Co Ltd
Original Assignee
Kyosan Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyosan Electric Manufacturing Co Ltd filed Critical Kyosan Electric Manufacturing Co Ltd
Priority to JP2007325731A priority Critical patent/JP4956400B2/en
Publication of JP2009146337A publication Critical patent/JP2009146337A/en
Application granted granted Critical
Publication of JP4956400B2 publication Critical patent/JP4956400B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To attain accurate vehicle detection by relatively simple arithmetic processing in an image type vehicle detector. <P>SOLUTION: In an image type vehicle sensor 1, a control device 20 performs (1) detection of stopping vehicle by calculating a matching rate R by pattern matching of a photographic image taken by a camera 10 with a predetermined template image and comparing the matching rate with a predetermined threshold, and (2) detection of moving vehicle using an inter-frame difference method, and determines whether a vehicle is present or not based on both the detection results. Based on a moving speed V of a moving vehicle, an area where it is estimated that the other vehicle is absent in the front of the moving vehicle (vehicle-free estimated area) is determined, and the threshold of the matching rate R in the vehicle-free estimated area is changed to a value according to the matching rate R in this area which is calculated when a stopping vehicle is detected. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、撮影画像中の感知領域内の車両の存否を判定する車両存否判定装置等に関する。   The present invention relates to a vehicle presence / absence determination device that determines the presence / absence of a vehicle in a sensing area in a captured image.

道路交通分野では、道路上の交通流を計測する装置として、カメラ画像を用いた画像式車両感知器が利用されている。この画像式車両感知器では、道路上方に設置されたカメラによる撮影画像に対する所定の画像解析処理を行うことで、例えば、青信号点灯中に通過する車両台数や、赤信号点灯中に停車する車両の台数を検出する(例えば、特許文献1参照)。
特許第3215596号公報
In the road traffic field, an image type vehicle detector using a camera image is used as a device for measuring traffic flow on a road. In this image-type vehicle detector, for example, by performing a predetermined image analysis process on a photographed image by a camera installed above the road, for example, the number of vehicles that pass while the green light is lit or the vehicle that stops while the red signal is lit The number is detected (see, for example, Patent Document 1).
Japanese Patent No. 3215596

画像式車両感知器における撮影画像の画像解析方法としては、撮影画像と予め定められたテンプレート画像とのパターンマッチング処理を行うことで、撮影画像中の車両の存否を検出する方法が知られている。このとき、テンプレート画像としては、車両が存在しない状態での撮影画像(背景画像)が用いられる。しかしながら、晴れや雨といった天候や、昼や夜といった時間帯によって、撮影画像の各画素の輝度値が変化する。また、ビルや街路樹等の影の形状や大きさの変化や、街灯が点くといったことによっても撮影画像の各画素の輝度値が変化する。このため、テンプレート画像を固定とすると、撮影画像中の車両の検出を誤ることが多く、検出精度の低下の原因となっていた。そこで、環境に応じてテンプレート画像を変更する方法があるが、更新タイミングの判断を適切に行わないと、却って検出精度を低下させる可能性がある。本発明は、上記事情を鑑みてなされたものであり、画像式車両検知器において、比較的簡単な演算処理で精度の高い車両検出を実現することを目的としている。   As an image analysis method of a captured image in an image type vehicle sensor, a method of detecting the presence or absence of a vehicle in a captured image by performing pattern matching processing between the captured image and a predetermined template image is known. . At this time, a photographed image (background image) in a state where no vehicle is present is used as the template image. However, the luminance value of each pixel of the captured image changes depending on the weather such as sunny or rainy and the time zone such as day or night. In addition, the luminance value of each pixel of the captured image also changes due to changes in the shape and size of shadows such as buildings and street trees, and lighting of street lamps. For this reason, if the template image is fixed, the detection of the vehicle in the captured image is often mistaken, which causes a decrease in detection accuracy. Therefore, there is a method of changing the template image according to the environment. However, if the update timing is not properly determined, the detection accuracy may be lowered. The present invention has been made in view of the above circumstances, and an image-type vehicle detector has an object of realizing highly accurate vehicle detection by relatively simple arithmetic processing.

上記課題を解決するための第1の発明は、
上方から俯瞰するカメラ(例えば、図1,2のカメラ10)によって撮影された撮影画像中の感知対象とする画像部分を感知領域として設定する設定手段(例えば、処理部100)と、
前記設定された感知領域を複数の部分領域に分割する分割手段(例えば、処理部100)と、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定手段(例えば、移動車両検出部110)と、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理手段(例えば、図2の停止車両検出部130)と、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定手段(例えば、図2の停止車両検出部130)と、
前記移動車両判定手段による判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定手段(例えば、図2のマッチング閾値変更部140)と、
前記推定された部分領域についての前記マッチング処理手段のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新手段(例えば、図2のマッチング閾値変更部140)と、
前記移動車両判定手段の判定結果及び前記停止車両判定手段の判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定手段(例えば、図2の処理部100)と、
を備えた車両存否判定装置(例えば、図1,2の制御装置20)である。
The first invention for solving the above-described problems is
Setting means (for example, the processing unit 100) for setting an image portion to be detected in a captured image captured by a camera viewed from above (for example, the camera 10 in FIGS. 1 and 2) as a sensing area;
A dividing unit (for example, the processing unit 100) for dividing the set sensing region into a plurality of partial regions;
A moving vehicle determination means (for example, a moving vehicle detection unit 110) that compares and analyzes time-series changes of the captured image to determine whether or not there is a moving vehicle in the sensing area;
A matching processing unit (for example, a stopped vehicle detection unit 130 in FIG. 2) that compares and analyzes the captured image and a predetermined template image by a predetermined pattern matching process to calculate a matching rate for each of the plurality of partial regions;
Stopped vehicle determination means for determining whether there is a stopped vehicle in the sensing region by comparing the calculated matching rate for each of the plurality of partial regions with a given threshold value of the partial region. For example, the stopped vehicle detection unit 130 in FIG.
Based on a determination result by the moving vehicle determination unit, an estimation unit (for example, a matching threshold value changing unit 140 in FIG. 2) that estimates a partial region where no vehicle exists among the plurality of partial regions;
Based on the matching rate of the matching processing means for the estimated partial area, threshold update means for updating the threshold of the partial area (for example, the matching threshold changing unit 140 in FIG. 2);
Vehicle presence / absence determination means (for example, the processing unit 100 in FIG. 2) for determining presence / absence of a vehicle in the sensing area based on the determination result of the moving vehicle determination means and the determination result of the stopped vehicle determination means;
Is a vehicle presence / absence determination device (for example, the control device 20 of FIGS. 1 and 2).

また、第7の発明は、
上方から俯瞰するカメラの撮影画像に基づいて、前記撮影画像中の感知領域における車両の存否を判定する車両存否判定方法であって、
前記感知領域を複数の部分領域に分割する分割ステップ(例えば、図15のステップA
1)と、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定ステップ(例えば、図15のステップA7)と、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理ステップ(例えば、図17のステップC1)と、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定ステップ(例えば、図17のステップC3)と、
前記移動車両判定ステップによる判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定ステップ(例えば、図18のステップD5)と、
前記推定された部分領域についての前記マッチング処理のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新ステップ(例えば、図18のステップD7)と、
前記移動車両判定ステップの判定結果及び前記停止車両判定ステップの判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定ステップ(例えば、図15のステップA11〜A27)と、
を含む車両存否判定方法である。
In addition, the seventh invention,
A vehicle presence / absence determination method for determining presence / absence of a vehicle in a sensing area in the captured image based on a captured image of a camera viewed from above,
A dividing step of dividing the sensing area into a plurality of partial areas (for example, step A in FIG. 15).
1) and
A moving vehicle determination step (for example, step A7 in FIG. 15) for determining whether or not there is a moving vehicle in the sensing area by comparing and analyzing time-series changes of the captured image;
A matching processing step (for example, step C1 in FIG. 17) for comparing and analyzing the photographed image and a predetermined template image by a predetermined pattern matching processing to calculate a matching rate for each of the plurality of partial regions;
A stopped vehicle determination step for determining whether or not there is a stopped vehicle in the sensing area by comparing the calculated matching rate for each of the plurality of partial areas with a given threshold value of the partial area ( For example, step C3) in FIG.
An estimation step (e.g., step D5 in FIG. 18) for estimating a partial region in which the vehicle does not exist among the plurality of partial regions based on the determination result in the moving vehicle determination step;
A threshold update step (for example, step D7 in FIG. 18) for updating the threshold value of the partial region based on the matching rate of the matching process for the estimated partial region;
A vehicle presence / absence determination step (for example, steps A11 to A27 in FIG. 15) for determining the presence / absence of a vehicle in the sensing area based on the determination result of the moving vehicle determination step and the determination result of the stop vehicle determination step;
Is a vehicle presence / absence determination method.

また、第8の発明は、
コンピュータ(例えば、図1,2の制御装置20)を、
上方から俯瞰するカメラによって撮影された撮影画像中の感知対象とする画像部分を感知領域として設定する設定手段、
前記設定された感知領域を複数の部分領域に分割する分割手段、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定手段、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理手段、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定手段、
前記移動車両判定手段による判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定手段、
前記推定された部分領域についての前記マッチング処理手段のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新手段、
前記移動車両判定手段の判定結果及び前記停止車両判定手段の判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定手段、
として機能させるためのプログラム(例えば、図2の車両感知プログラム210)である。
Further, the eighth invention is
A computer (for example, the control device 20 of FIGS. 1 and 2)
Setting means for setting, as a sensing area, an image portion to be sensed in a photographed image photographed by a camera viewed from above;
A dividing means for dividing the set sensing area into a plurality of partial areas;
Moving vehicle determination means for comparing and analyzing time-series changes of the captured image to determine whether or not there is a moving vehicle in the sensing area;
A matching processing means for comparing and analyzing the captured image and a predetermined template image by a predetermined pattern matching process to calculate a matching rate for each of the plurality of partial regions;
Stopping vehicle determination means for determining whether or not there is a stopped vehicle in the sensing area by comparing the calculated matching rate for each of the plurality of partial areas with a given threshold value of the partial area;
Based on the determination result by the moving vehicle determination means, an estimation means for estimating a partial area where no vehicle is present among the plurality of partial areas;
Threshold updating means for updating the threshold of the partial area based on the matching rate of the matching processing means for the estimated partial area;
Vehicle presence / absence determination means for determining the presence / absence of a vehicle in the sensing area based on the determination result of the moving vehicle determination means and the determination result of the stop vehicle determination means;
For example, the vehicle sensing program 210 in FIG.

この第1、第7、第8の何れかの発明によれば、カメラによる撮影画像の時系列変化を比較解析して、感知領域内に移動中の車両が存在するか否かが判定されるとともに、撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して、感知領域内に停止中の車両が存在するか否かが判定され、移動車両及び停止車両の判定結果に基づいて感知領域内の車両の存否が判定される。停止車両の存否の判定は、感知領域を分割した複数の部分領域それぞれについてマッチング率を算出し、算出したマッチング率を当該部分領域の所与の閾値と比較することで行われる。更に、感知領域内に移動中の車両が存在するか否かの判定結果に基づいて車両が存在しない部分領域が推定され、推定された部分領域についてのマッチング率に基づいて、当該部分領域の閾値が更新される。移動中の車両の前方/後方には、他の車両が存在しない空間(いわゆる、車間)が存在する。従って、この車両が存在しないと推定される部分領域を、移動車両の検出結果をもとに判定し、当該領域に定められているマッチング率の閾値を変更することで、より正確な車両(詳細には、停止車両)の存否の判定が実現される。また、部分領域毎に閾値を変更するため、定常的に固定のテンプレート画像を用いたとしても比較的精度の良い停止車両の存否の判定が実現される。   According to any of the first, seventh, and eighth inventions, it is determined whether or not there is a moving vehicle in the sensing area by comparing and analyzing the time-series changes of the images taken by the camera. In addition, the captured image and the predetermined template image are compared and analyzed by a predetermined pattern matching process to determine whether or not there is a stopped vehicle in the sensing area, and based on the determination result of the moving vehicle and the stopped vehicle The presence / absence of a vehicle in the sensing area is determined. The determination of the presence or absence of a stopped vehicle is performed by calculating a matching rate for each of a plurality of partial areas into which the sensing area is divided, and comparing the calculated matching rate with a given threshold value for the partial area. Further, a partial region where no vehicle exists is estimated based on the determination result of whether or not there is a moving vehicle in the sensing region, and the threshold value of the partial region is determined based on the matching rate for the estimated partial region. Is updated. There is a space (so-called inter-vehicle space) where no other vehicle exists in front / rear of the moving vehicle. Therefore, a more accurate vehicle (details) can be obtained by determining a partial region in which the vehicle is assumed to be absent based on the detection result of the moving vehicle and changing the threshold of the matching rate set in the region. The determination of the presence or absence of a stopped vehicle) is realized. Further, since the threshold value is changed for each partial region, it is possible to determine whether or not there is a stopped vehicle with relatively high accuracy even when a fixed template image is used constantly.

第2の発明は、第1の発明の車両存否判定装置であって、
前記マッチング処理手段が、輝度値の異なる画素ブロックを格子状に配設した画像を前記所定のテンプレート画像として定常的に用いて前記パターンマッチング処理を行う車両存否判定装置である。
A second invention is a vehicle presence / absence determination device according to the first invention,
The vehicle presence / absence determining device that performs the pattern matching process using the image in which the pixel processing blocks having different luminance values are arranged in a grid as the predetermined template image.

この第2の発明によれば、パターンマッチング処理は、輝度値の異なる画素ブロックを格子状に配設した画像をテンプレート画像として定常的に用いて行われる。ここで、画素ブロックは、1画素であっても良いし、複数画素で構成されていても良い。また、格子状は、縦方向の格子のみ、横方向の格子のみ、縦横方向の格子の何れであっても良い。テンプレート画像は輝度値が異なる画素ブロックを格子状に配設した画像であるため、天候や昼夜の時間帯等を問わずパターンマッチング処理において一定の停止車両の検出率を得ることができ、テンプレート画像を固定することが可能となる。   According to the second aspect of the invention, the pattern matching process is performed by regularly using an image in which pixel blocks having different luminance values are arranged in a grid pattern as a template image. Here, the pixel block may be one pixel or may be composed of a plurality of pixels. Further, the lattice shape may be only a vertical lattice, only a horizontal lattice, or a vertical and horizontal lattice. Since the template image is an image in which pixel blocks having different luminance values are arranged in a grid pattern, a constant stop vehicle detection rate can be obtained in the pattern matching process regardless of the weather or day / night time zone. Can be fixed.

第3の発明は、第1又は第2の発明の車両存否判定装置であって、
前記マッチング処理手段が、画像中の最大輝度値と最小輝度値との輝度差が、輝度値として取り得る最高輝度値と最低輝度値との輝度差の1/10以下の画像を前記所定のテンプレート画像として定常的に用いて前記パターンマッチング処理を行う車両存否判定装置である。
A third invention is a vehicle presence / absence determination device according to the first or second invention,
The matching processing unit selects an image in which the luminance difference between the maximum luminance value and the minimum luminance value in the image is 1/10 or less of the luminance difference between the maximum luminance value and the minimum luminance value that can be taken as the luminance value. It is a vehicle presence / absence determination device that performs the pattern matching process by regularly using it as an image.

この第3の発明によれば、パターンマッチング処理は、画像中の最大輝度値と最小輝度値との輝度差が、輝度値としてとり得る最高輝度値と最低輝度値との輝度差の1/10以下の画像をテンプレート画像として定常的に用いて行われる。テンプレート画像中の最大輝度値と最小輝度値との輝度差が比較的小さいため、テンプレート画像はエッジ成分を殆ど持たない画像といえる。このため、停止車両の存否判定の精度を一層高めることが可能となる。   According to the third invention, in the pattern matching process, the luminance difference between the maximum luminance value and the minimum luminance value in the image is 1/10 of the luminance difference between the maximum luminance value and the minimum luminance value that can be taken as the luminance value. The following image is regularly used as a template image. Since the brightness difference between the maximum brightness value and the minimum brightness value in the template image is relatively small, the template image can be said to have almost no edge component. For this reason, it becomes possible to further improve the accuracy of the presence / absence determination of the stopped vehicle.

第4の発明は、第1〜第3の発明の車両存否判定装置であって、
前記移動車両判定手段が、前記撮影画像中の移動車両の位置及び移動速度を判定し、
前記推定手段が、前記移動車両判定手段により判定された移動車両の位置及び移動速度を用いて、前記複数の部分領域のうちの車両が存在しない部分領域を推定する、
車両存否判定装置である。
A fourth invention is a vehicle presence / absence determination device of the first to third inventions,
The moving vehicle determining means determines the position and moving speed of the moving vehicle in the captured image;
The estimation means estimates a partial area in which the vehicle does not exist among the plurality of partial areas, using the position and moving speed of the moving vehicle determined by the moving vehicle determination means.
It is a vehicle presence / absence determination device.

この第4の発明によれば、撮影画像中の移動車両の位置及び移動速度が判定され、この判定された移動車両の位置及び移動速度を用いて、複数の部分領域のうちの車両が存在しない部分領域が推定される。   According to the fourth aspect, the position and moving speed of the moving vehicle in the photographed image are determined, and the vehicle in the plurality of partial areas does not exist using the determined position and moving speed of the moving vehicle. A partial region is estimated.

第5の発明は、第1〜第4の何れかの発明の車両存否判定装置であって、
前記車両存否判定手段が、1)前記移動車両判定手段の判定結果が移動車両有りの場合には前記感知領域内に車両が存在すると判定し、2)前記移動車両判定手段の判定結果が移動車両有りから移動車両無しに変わった時から前記停止車両判定手段が停止車両無しと判定するまでの間は、前記感知領域内に車両が存在すると判定し、3)1)及び2)以外の場合には前記感知領域内に車両が存在しないと判定する車両存否判定装置である。
A fifth invention is a vehicle presence / absence determination device according to any one of the first to fourth inventions,
The vehicle presence / absence determining means 1) determines that a vehicle is present in the sensing area when the determination result of the moving vehicle determining means is that there is a moving vehicle, and 2) the determination result of the moving vehicle determining means is a moving vehicle. It is determined that there is no vehicle in the sensing area from when the vehicle changes from being present to no moving vehicle until the stopped vehicle determining means determines that there is no stopped vehicle. 3) In cases other than 1) and 2) Is a vehicle presence / absence determination device that determines that there is no vehicle in the sensing area.

この第5の発明によれば、1)移動車両有りの場合には感知領域内に車両が存在すると判定され、2)移動車両有りから移動車両無しに変わったときから、停止車両無しと判定するまでの間は、感知領域内に車両が存在すると判定され、1)、2)以外の場合には感知領域内に車両が存在しないと判定される。   According to the fifth aspect of the invention, 1) when there is a moving vehicle, it is determined that there is a vehicle in the sensing area, and 2) when there is a change from the presence of the moving vehicle to no moving vehicle, it is determined that there is no stopped vehicle. Until this time, it is determined that there is a vehicle in the sensing area, and in cases other than 1) and 2), it is determined that there is no vehicle in the sensing area.

第6の発明は、第1〜第5の何れかの発明の車両存否判定装置であって、
前記カメラは、感知対象とする車道又は車線を上方から俯瞰する位置に設けられ、
前記分割手段は、車両通行方向に沿って前記感知領域を複数の部分領域に分割する、
車両存否判定装置である。
A sixth invention is a vehicle existence determination device according to any one of the first to fifth inventions,
The camera is provided at a position overlooking the roadway or lane to be sensed from above,
The dividing means divides the sensing area into a plurality of partial areas along a vehicle traffic direction.
It is a vehicle presence / absence determination device.

この第6の発明によれば、カメラは、感知対象とする車道又は車線を上方から俯瞰する位置に設けられ、車両通行方向に沿って感知領域が複数の部分領域に分割される。   According to the sixth aspect of the invention, the camera is provided at a position overlooking the roadway or lane to be sensed from above, and the sensing area is divided into a plurality of partial areas along the vehicle traffic direction.

本発明によれば、カメラによる撮影画像の時系列変化を比較解析して、感知領域内に移動中の車両が存在するか否かが判定されるとともに、撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して、感知領域内に停止中の車両が存在するか否かが判定され、移動車両及び停止車両の判定結果に基づいて感知領域内の車両の存否が判定される。停止車両の存否の判定は、感知領域を分割した複数の部分領域それぞれについてマッチング率を算出し、算出したマッチング率を当該部分領域の所与の閾値と比較することで行われる。更に、感知領域内に移動中の車両が存在するか否かの判定結果に基づいて車両が存在しない部分領域が推定され、推定された部分領域についてのマッチング率に基づいて、当該部分領域の閾値が更新される。移動中の車両の前方/後方には、他の車両が存在しない空間(いわゆる、車間)が存在する。従って、この車両が存在しないと推定される部分領域を、移動車両の検出結果をもとに判定し、当該領域に定められているマッチング率の閾値を変更することで、より正確な車両(詳細には、停止車両)の存否の判定が実現される。   According to the present invention, a time series change of a captured image by a camera is compared and analyzed to determine whether or not there is a moving vehicle in the sensing area, and the captured image and a predetermined template image are determined in advance. In the pattern matching process, it is determined whether or not there is a stopped vehicle in the sensing area, and the presence or absence of the vehicle in the sensing area is determined based on the determination result of the moving vehicle and the stopped vehicle. . The determination of the presence or absence of a stopped vehicle is performed by calculating a matching rate for each of a plurality of partial areas into which the sensing area is divided, and comparing the calculated matching rate with a given threshold value for the partial area. Further, a partial region where no vehicle exists is estimated based on the determination result of whether or not there is a moving vehicle in the sensing region, and the threshold value of the partial region is determined based on the matching rate for the estimated partial region. Is updated. There is a space (so-called inter-vehicle space) where no other vehicle exists in front / rear of the moving vehicle. Therefore, a more accurate vehicle (details) can be obtained by determining a partial region in which the vehicle is assumed to be absent based on the detection result of the moving vehicle and changing the threshold of the matching rate set in the region. The determination of the presence or absence of a stopped vehicle) is realized.

以下、図面を参照して、本発明の好適な実施形態を説明する。なお、以下では、本発明を、道路の右折レーンを感知対象とする右折感応用画像式車両感知器に適用した場合を説明するが、本発明の適用可能な実施形態がこれに限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, the case where the present invention is applied to a right-turn applied image-type vehicle detector that senses a right-turn lane of a road will be described. However, applicable embodiments of the present invention are limited to this. is not.

[構成]
図1は、交差点における画像式車両感知器1の配置図である。同図によれば、この画像式車両感知器1は、交差点における右折レーンの車両有無を感知する右折感応用画像式車両感知器であり、カメラ10と、制御装置20とを備えて構成される。
[Constitution]
FIG. 1 is a layout diagram of the image type vehicle detector 1 at an intersection. According to the figure, this image-type vehicle detector 1 is a right-turn applied image-type vehicle detector that senses the presence or absence of a vehicle in a right turn lane at an intersection, and includes a camera 10 and a control device 20. .

カメラ10は、道路のそばに設置されたポールの上部に、感知対象である右折レーンを上方から俯瞰して撮影するように設けられている。カメラ10による撮影画像は、随時、制御装置20に出力される。制御装置20は、このポールの下方に設置され、カメラ10による撮影画像をもとに、右折レーンにおける車両の有無を検出する。制御装置20による検出結果は、当該交差点の信号現示を制御する信号制御装置や、所定の通信回線を介して接続された集中管理センタ等に送られる。   The camera 10 is provided on an upper part of a pole installed near a road so as to take a picture of a right turn lane as a sensing target from above. Images taken by the camera 10 are output to the control device 20 as needed. The control device 20 is installed below the pole and detects the presence or absence of a vehicle on the right turn lane based on the image taken by the camera 10. The detection result by the control device 20 is sent to a signal control device that controls signal display at the intersection, a centralized management center connected via a predetermined communication line, and the like.

図2は、制御装置20の内部構成を示すブロック図である。同図によれば、制御装置20は、処理部100と、記憶部200と、通信部300とを備えて構成される。   FIG. 2 is a block diagram showing an internal configuration of the control device 20. As shown in the figure, the control device 20 includes a processing unit 100, a storage unit 200, and a communication unit 300.

処理部100は、例えばCPU等で実現され、制御装置20の全体制御を行う。また、この処理部100は、移動車両検出部110と、停止車両検出部130と、車両追跡部120と、マッチング閾値変更部140とを有し、カメラ10から入力された撮影画像等に基づいて、車両の有無を判定する車両感知処理を行う。   The processing unit 100 is realized by, for example, a CPU and performs overall control of the control device 20. In addition, the processing unit 100 includes a moving vehicle detection unit 110, a stopped vehicle detection unit 130, a vehicle tracking unit 120, and a matching threshold change unit 140, and is based on a captured image input from the camera 10 or the like. A vehicle sensing process for determining the presence or absence of a vehicle is performed.

具体的には、車両感知処理では、先ず、撮影画像において、車両検出の対象とする感知領域を設定し、更に、この感知領域を複数の領域に分割して分割領域を設定する。図3(a)に、カメラ10による撮影画像の一例を示す。同図(a)に示すように、撮影画像において、右折レーンが感知領域AR1として設定される。感知領域AR1は、例えば、右折レーンの停止線から交通の上流側30mまでの区間に該当する画像部分として定められる。この感知領域AR1の設定は、基本的には、画像式車両感知器1を設置した際に、カメラ10の撮影画像を視認しながら管理者の操作に従って行うが、画像認識処理によって自動的に行うことにしても良い。更に、この感知領域AR1は、同図(b)に示すように、当該レーンにおける車両の進行方向と略垂直方向に複数の領域(分割領域)AR2に分割される。この分割は、処理部100が自動的に行うが、管理者の操作指示に従って行うことにしても良い。   Specifically, in the vehicle sensing process, first, a sensing area as a vehicle detection target is set in the captured image, and further, the sensing area is divided into a plurality of areas to set divided areas. FIG. 3A shows an example of an image captured by the camera 10. As shown in FIG. 5A, the right turn lane is set as the sensing area AR1 in the captured image. The sensing area AR1 is defined as, for example, an image portion corresponding to a section from the stop line of the right turn lane to the upstream 30m of traffic. This detection area AR1 is basically set according to the operation of the administrator while visually recognizing the image taken by the camera 10 when the image type vehicle sensor 1 is installed, but is automatically set by image recognition processing. Anyway. Further, as shown in FIG. 2B, the sensing area AR1 is divided into a plurality of areas (divided areas) AR2 in a direction substantially perpendicular to the traveling direction of the vehicle in the lane. This division is automatically performed by the processing unit 100, but may be performed according to an operation instruction from the administrator.

そして、処理部100は、この感知領域AR1内の車両の有無(存否)を検出する。検出結果としては、移動車両/停止車両の別を問わない。具体的には、感知領域AR1内の移動車両及び停止車両の検出を異なる検出方法によって並行して行い、双方の検出結果に基づいて感知領域内の車両の有無を判断する。すなわち、移動車両が検出されている間は、感知結果を車両“有り”と判断する。また、移動車両が検出されたくなった後であっても、停止車両が検出されている間は感知結果を車両“有り”と判断する。そして、移動車両及び停止車両がともに検出されなくなると、感知結果を車両“無し”と判断する。   Then, the processing unit 100 detects the presence / absence (presence / absence) of the vehicle in the sensing area AR1. The detection result may be a moving vehicle / stopped vehicle. Specifically, the moving vehicle and the stopped vehicle in the sensing area AR1 are detected in parallel by different detection methods, and the presence / absence of the vehicle in the sensing area is determined based on both detection results. That is, while the moving vehicle is detected, it is determined that the sensing result is “present”. Further, even after the moving vehicle is desired to be detected, the sensing result is determined to be “present” while the stopped vehicle is detected. When both the moving vehicle and the stopped vehicle are no longer detected, it is determined that the sensing result is “none”.

なお、カメラ10による撮影画像は動画像であり、制御装置20には、所定時間Δtの間隔で静止画像として取り込まれる。そして、取り込まれた静止画像である撮影画像は、取り込まれた時刻tと対応付けられて、撮影画像データ群231として蓄積記憶される。   The image captured by the camera 10 is a moving image, and is captured by the control device 20 as a still image at a predetermined time Δt. The captured image, which is a captured still image, is accumulated and stored as the captured image data group 231 in association with the captured time t.

移動車両検出部110は、カメラ10から入力された撮影画像をもとに、「フレーム間差分法」によって移動車両を検出する。図4は、フレーム間差分法による移動体の検出原理を説明する図である。フレーム間差分法では、時間的に連続した複数の画像の差分を算出することで画像内の移動体を検出する。すなわち、ある時刻tにおける移動体を検出する場合、この時刻tにおける画像(t)と、その直前の時刻t−1における画像(t−1)との差分画像1を生成する。また、時刻tにおける画像(t)と、その直後の時刻t+1における画像(t+1)の差分画像2を生成する。そして、生成した二つの差分画像1,2の共通画像(共通画素から成る画像)を生成し、この共通画像から、時刻tにおける移動体を検出できる。 The moving vehicle detection unit 110 detects the moving vehicle by the “interframe difference method” based on the captured image input from the camera 10. FIG. 4 is a diagram for explaining the principle of detection of a moving object by the interframe difference method. In the interframe difference method, a moving object in an image is detected by calculating a difference between a plurality of temporally continuous images. That is, when a moving body at a certain time t 0 is detected, a difference image 1 between the image (t) at this time t 0 and the image (t−1) at the immediately preceding time t −1 is generated. Further, a difference image 2 between the image (t) at time t and the image (t + 1) at time t + 1 immediately after that is generated. Then, to generate a common image of the two difference images 1 and 2 generated (image consisting of common pixels), from the common image, it is possible to detect the moving object at time t 0.

但し、現在時刻において未来の時刻における画像は得られないので、移動車両検出部110は、1フレーム時間ずれた画像をもとに移動車両の検出を行う。つまり、現在時刻tにおける撮影画像(t)と、1フレーム時間に相当する所定時間Δtだけ過去の時刻t−1における撮影画像(t−1)との差分画像1、及び、撮影画像(t−1)と時刻t−1から所定時間Δtだけ過去の時刻t−2における撮影画像(t−2)との差分画像2を算出する。次いで、この差分画像1,2の共通画像を算出する。そして、算出した共通画像中の感知領域AR1に該当する画像部分から、時刻t−1における移動車両を検出する。 However, since an image at a future time cannot be obtained at the current time, the moving vehicle detection unit 110 detects a moving vehicle based on an image shifted by one frame time. That is, the difference image 1 between the captured image (t) at the current time t 0 and the captured image (t−1) at the past time t −1 for a predetermined time Δt corresponding to one frame time, and the captured image (t -1) and a difference image 2 between the photographed image (t-2) at the past time t- 2 for a predetermined time Δt from the time t- 1 . Next, a common image of the difference images 1 and 2 is calculated. And the moving vehicle in the time t- 1 is detected from the image part applicable to sensing area AR1 in the calculated common image.

また、付加領域に該当する共通画像中の画像部分から、時刻t−1における当該付加領域内の移動車両を検出する。図5は、付加領域AR3を説明する図である。同図に示すように、付加領域AR3は、撮影画像において、右折レーンの一部であって、車両の進行方向とは逆の方向(後方)に感知領域AR1に隣り合って定められた領域である。つまり、付加領域AR3は、これから感知領域AR1に進入しようとする車両が存在し得る領域といえる。 Moreover, the moving vehicle in the said additional area in the time t- 1 is detected from the image part in the common image corresponding to an additional area. FIG. 5 is a diagram illustrating the additional area AR3. As shown in the figure, the additional area AR3 is a part of the right turn lane in the photographed image, and is an area defined adjacent to the sensing area AR1 in a direction (backward) opposite to the traveling direction of the vehicle. is there. That is, the additional area AR3 can be said to be an area where a vehicle that is about to enter the sensing area AR1 can exist.

車両追跡部120は、移動車両検出部110により検出された移動車両を追跡する。すなわち、移動車両検出部110による感知領域AR1或いは付加領域AR3内の移動車両の検出結果をもとに、時刻tにおける移動車両の位置の変化から移動速度や移動方向を算出し、次の時刻t+1での位置を予測することで移動車両を追跡する。ここで、移動車両の追跡は感知領域AR1或いは付加領域AR3内に存在する移動車両についてのみ行い、感知領域AR1外に出た場合にはその追跡を終了する。 The vehicle tracking unit 120 tracks the moving vehicle detected by the moving vehicle detection unit 110. That is, based on the detection result of the moving vehicle in the sensing area AR1 or the additional area AR3 by the moving vehicle detection unit 110, the moving speed and the moving direction are calculated from the change in the position of the moving vehicle at time t, and the next time t Track moving vehicles by predicting position at +1 . Here, the tracking of the moving vehicle is performed only for the moving vehicle existing in the sensing area AR1 or the additional area AR3, and when the vehicle moves out of the sensing area AR1, the tracking is ended.

車両追跡部120によって追跡されている移動車両についてのデータは、移動車両データ232に格納される。図6に、移動車両データのデータ構成の一例を示す。同図によれば、移動車両データ232は、追跡されている移動車両232aそれぞれについて、現在の位置232bと、移動速度232cと、移動方向232dとを、対応付けて格納している。位置232bは、例えば対応する移動車両の代表点の位置で表現される。移動方向232dは、撮影画像中における移動方向を示すベクトルで表現される。   Data on the moving vehicle tracked by the vehicle tracking unit 120 is stored in the moving vehicle data 232. FIG. 6 shows an example of the data configuration of moving vehicle data. According to the figure, the moving vehicle data 232 stores the current position 232b, the moving speed 232c, and the moving direction 232d in association with each other for each tracked moving vehicle 232a. The position 232b is expressed by the position of the representative point of the corresponding moving vehicle, for example. The moving direction 232d is expressed by a vector indicating the moving direction in the captured image.

停止車両検出部130は、カメラ10から入力された撮影画像をもとに、「パターンマッチング処理」によって停止車両を検出する。具体的には、撮影画像と予め定められたテンプレート画像とのパターンマッチングを行い、算出されたマッチング率をもとに停止車両の有無を判断する。   The stopped vehicle detection unit 130 detects the stopped vehicle by “pattern matching processing” based on the captured image input from the camera 10. Specifically, pattern matching is performed between the captured image and a predetermined template image, and the presence or absence of a stopped vehicle is determined based on the calculated matching rate.

図7に、テンプレート画像の一例を示す。テンプレート画像は、撮影画像と同サイズの画像であり、車両が無い場合の路面を想定した擬似路面画像である。また、このテンプレート画像は、輝度値が異なる2種類の画素が格子状に配置されて構成されている。配置される2種類の画素の輝度値は、その差が、当該画像においてとり得る輝度値の最高値(最高輝度値)と最低値(最低輝度値)との差の1/10以下となるように定められている。つまり、テンプレート画像では、隣り合う画素の輝度値の差が小さく、エッジ成分が極めて小さい。同図では、最高輝度値が「255」、最小輝度値が「0」であり、輝度値が「10」,「0」それぞれの画素によってテンプレート画像が構成されている。従って、撮影画像とテンプレート画像とのマッチング率は、撮影画像中に車両が存在しないときに高くなり、逆に車両が存在するときには低くなる。   FIG. 7 shows an example of a template image. The template image is an image of the same size as the captured image, and is a simulated road surface image assuming a road surface when there is no vehicle. In addition, this template image is configured by arranging two types of pixels having different luminance values in a grid pattern. The luminance values of the two types of pixels to be arranged are such that the difference is 1/10 or less of the difference between the maximum value (maximum luminance value) and the minimum value (minimum luminance value) of the luminance values that can be taken in the image. It is stipulated in. That is, in the template image, the difference in luminance value between adjacent pixels is small, and the edge component is extremely small. In the drawing, the maximum luminance value is “255”, the minimum luminance value is “0”, and the template image is composed of pixels with luminance values “10” and “0”. Therefore, the matching rate between the captured image and the template image is high when no vehicle is present in the captured image, and conversely, is low when the vehicle is present.

なお、テンプレート画像はエッジ成分を殆ど持たない画像であれば良く、例えば隣り合う画素の輝度がグラデーションを描くように変化する画像であっても良い。また、図8(a)に示すように、輝度値が等しい複数の画素で構成される画素ブロックが格子状に配置された画像であっても良いし、同図(b)に示すように、列/行方向に輝度値が同一の画素が並んで配置された画像であっても良い。このテンプレート画像についてのデータは、テンプレート画像データ221に格納されている。   The template image may be an image having almost no edge component. For example, the template image may be an image in which the luminance of adjacent pixels changes so as to draw a gradation. Moreover, as shown to Fig.8 (a), the image by which the pixel block comprised by several pixels with equal luminance value was arrange | positioned at the grid | lattice form may be sufficient, as shown to the same figure (b), It may be an image in which pixels having the same luminance value are arranged side by side in the column / row direction. Data about the template image is stored in the template image data 221.

図9は、パターンマッチングによる停止車両検出の概要を説明する図である。同図に示すように、撮影画像の分割領域AR2それぞれについて、テンプレート画像の該当する画像部分とのパターンマッチングを行ってマッチング率Rを算出する。そして、分割領域AR2それぞれについて算出したマッチング率Rを所定の閾値と比較し、マッチング率が閾値Rを超えた領域の数が所定数N以上ならば停止車両は“有り”と判断し、それ以外では停止車両は“無し”と判断する。   FIG. 9 is a diagram illustrating an outline of stopped vehicle detection by pattern matching. As shown in the figure, for each divided area AR2 of the photographed image, pattern matching with the corresponding image portion of the template image is performed to calculate the matching rate R. Then, the matching rate R calculated for each of the divided areas AR2 is compared with a predetermined threshold value, and if the number of areas where the matching rate exceeds the threshold value R is equal to or greater than the predetermined number N, the stop vehicle is determined to be “present”, otherwise Then, it is determined that there are no stopped vehicles.

マッチング率Rは式(1)で与えられる。

Figure 2009146337
式(1)において、「f[i,j]」は撮影画像の各画素の輝度値、「s[i,j]」はテンプレート画像の各画素の輝度値、「M,N」は撮影画像及びテンプレート画像の画像サイズ(列/行方向の画素の数)である。また、「f」は撮影画像の各画素の輝度値の平均値、「S」はテンプレート画像の各画素の輝度値の平均値である。このマッチング率Rの算出式(1)は、マッチング率算出式データ223として記憶されている。 The matching rate R is given by equation (1).
Figure 2009146337
In Expression (1), “f [i, j]” is the luminance value of each pixel of the captured image, “s [i, j]” is the luminance value of each pixel of the template image, and “M, N” is the captured image. And the image size (number of pixels in the column / row direction) of the template image. “F a ” is the average value of the luminance values of the pixels of the captured image, and “S a ” is the average value of the luminance values of the pixels of the template image. The calculation formula (1) for the matching rate R is stored as matching rate calculation formula data 223.

ここで、算出された各分割領域のマッチング率Rは、マッチング結果データ233に格納される。図10に、マッチング結果データ233のデータ構成の一例を示す。同図によれば、マッチング結果データ233は、感知領域を構成する分割領域233aそれぞれについて、算出されたマッチング率233bを対応付けて格納している。   Here, the calculated matching rate R of each divided region is stored in the matching result data 233. FIG. 10 shows an example of the data configuration of the matching result data 233. According to the figure, the matching result data 233 stores the calculated matching rate 233b in association with each divided area 233a constituting the sensing area.

また、マッチング率の閾値は、マッチング閾値データ222に格納されている。図11に、マッチング閾値データ222のデータ構成の一例を示す。同図によれば、マッチング閾値データ222は、感知領域を構成する分割領域222aそれぞれについて、マッチング率の閾値222bを対応付けて格納している。   Further, the matching rate threshold value is stored in the matching threshold value data 222. FIG. 11 shows an example of the data configuration of the matching threshold value data 222. According to the figure, the matching threshold value data 222 stores a matching rate threshold value 222b in association with each of the divided areas 222a constituting the sensing area.

移動車両検出部110による移動車両の検出結果及び停止車両検出部130による停止車両の検出結果は、車両検出結果データ234に格納される。図12に、車両検出結果データ234のデータ構成の一例を示す。同図によれば、車両検出結果データ234は、検出対象となる車両の種類234aそれぞれについて、検出結果234bを対応付けて格納している。車両の種類234aは、移動車両及び停止車両である。検出結果234bは、対応する車両が感知領域AR1内に存在するとして検出されているか否かを示す値が格納される。   The detection result of the moving vehicle by the moving vehicle detection unit 110 and the detection result of the stopped vehicle by the stop vehicle detection unit 130 are stored in the vehicle detection result data 234. FIG. 12 shows an example of the data configuration of the vehicle detection result data 234. According to the figure, the vehicle detection result data 234 stores a detection result 234b in association with each type of vehicle 234a to be detected. The vehicle type 234a is a moving vehicle and a stopped vehicle. The detection result 234b stores a value indicating whether or not the corresponding vehicle is detected as existing in the sensing area AR1.

マッチング閾値変更部140は、停止車両検出部130において用いられるマッチング率の「閾値」を変更する。具体的には、移動車両検出部110により検出された移動車両の移動速度をもとに、他の車両が存在しないと推定される分割領域AR2を判定し、この分割領域AR2(車両無し推定領域)の閾値を変更する。   The matching threshold value changing unit 140 changes the “threshold value” of the matching rate used in the stopped vehicle detection unit 130. Specifically, based on the moving speed of the moving vehicle detected by the moving vehicle detection unit 110, a divided area AR2 where it is estimated that no other vehicle exists is determined, and this divided area AR2 (the estimated area without vehicle) ) Is changed.

道路を走行する車両の前方/後方には、他の車両が存在しない領域(いわゆる、車間)が存在する。この車間距離は、走行速度が速いほど長い。   There is a region (so-called inter-vehicle space) where no other vehicle exists in front / back of the vehicle traveling on the road. This inter-vehicle distance is longer as the traveling speed is faster.

交通工学において、走行する車両が安全に停止できる距離Lは、次式(2)で与えられるとしている。
L=τ・V+V/2d ・・(2)
式(2)において、「V」は信号表示切り替え時の車両の走行速度、「d」はブレーキが効き始めてから停止するまでの平均減速度、「τ」は運転者の反応時間(ブレーキが効き始めるまでの時間)である。図13に、式(2)のグラフを示す。同図では、横軸を距離L、縦軸を走行速度Vとしている。但し、減速度dを0.7[s]、反応時間τを3.0[m/s]としている。この距離Lの算出式(2)は、車両無し推定距離算出式データ224として記憶されている。
In traffic engineering, the distance L at which a traveling vehicle can be safely stopped is given by the following equation (2).
L = τ · V + V 2 / 2d (2)
In equation (2), “V” is the vehicle running speed when the signal display is switched, “d” is the average deceleration from when the brake starts to stop until it stops, and “τ” is the driver reaction time (the brake is effective). Time to start). FIG. 13 shows a graph of the formula (2). In the figure, the horizontal axis is the distance L and the vertical axis is the traveling speed V. However, the deceleration d is 0.7 [s] and the reaction time τ is 3.0 [m / s 2 ]. The calculation formula (2) of the distance L is stored as the vehicle-less estimated distance calculation formula data 224.

本実施形態では、この距離Lを、他の車両が存在しないと推定される移動車両の前方の距離(車両無し推定領域)とみなして、車両無し推定領域を判断する。図14は、車両無し推定領域の判断を説明する図である。同図に示すように、感知領域AR1或いは付加領域AR3内の移動車両Cについて、移動速度Vをもとに、式(2)に従って車両無し推定距離Lを算出する。次いで、当該移動車両Cの位置からその進行方向に沿って前方の車両無し推定距離Lまでの範囲に全てが含まれる分割領域AR2を、車両無し推定領域と判断する。ここで、感知領域AR1或いは付加領域AR3内の移動車両は、移動車両追跡部120によって追跡され、その移動速度Vや現在位置が算出されている。また、複数の移動車両Cが追跡されている場合には、それぞれについて車両無し推定領域を判断する。そして、判断した車両無し推定領域それぞれについて、当該領域に定められているマッチング率の閾値を、停止車両検出部130によって算出された当該領域のマッチング率に所定値α(例えば、0.05(5%))を加算した値に更新する。   In the present embodiment, the distance L is regarded as the distance ahead of the moving vehicle (the vehicle-less estimated region) where it is estimated that no other vehicle exists, and the vehicle-free estimated region is determined. FIG. 14 is a diagram for explaining determination of the no-vehicles estimation region. As shown in the figure, for the moving vehicle C in the sensing area AR1 or the additional area AR3, the estimated distance L without vehicle is calculated according to the equation (2) based on the moving speed V. Subsequently, the divided area AR2 that is entirely included in the range from the position of the moving vehicle C to the preceding vehicle-less estimated distance L along the traveling direction is determined as the vehicle-free estimated area. Here, the moving vehicles in the sensing area AR1 or the additional area AR3 are tracked by the moving vehicle tracking unit 120, and the moving speed V and the current position are calculated. In addition, when a plurality of moving vehicles C are being tracked, an estimated no-vehicle area is determined for each. Then, for each of the estimated no-vehicle areas, the threshold of the matching rate set in the area is set to a predetermined value α (for example, 0.05 (5 %)) Is added to the added value.

記憶部200は、処理部100が制御装置20を統合的に制御するためのシステムプログラムや、本実施形態の車両感知制御を実現するためのプログラムやデータ等を記憶するとともに、記憶部200の作業領域として用いられ、処理部100が各種プログラムに従って実行した演算結果やフラグデータ等を一時的に記憶する。この記憶部200は、例えばICメモリやハードディスク、ROM、RAM等で実現される。本実施形態では、記憶部200には、プログラムとして車両感知プログラム210が記憶され、データとして、テンプレート画像データ221と、マッチング閾値データ222と、マッチング率算出式データ223と、車両無し推定距離算出式データ224と、撮影画像データ群231と、移動車両データ232と、マッチング結果データ233と、車両検出結果データ234とが記憶される。   The storage unit 200 stores a system program for the processing unit 100 to control the control device 20 in an integrated manner, a program and data for realizing vehicle detection control of the present embodiment, and the operation of the storage unit 200. It is used as an area and temporarily stores calculation results, flag data, and the like executed by the processing unit 100 according to various programs. The storage unit 200 is realized by, for example, an IC memory, a hard disk, a ROM, a RAM, or the like. In the present embodiment, the storage unit 200 stores a vehicle sensing program 210 as a program, and as data, template image data 221, matching threshold data 222, matching rate calculation formula data 223, and vehicle-less estimated distance calculation formula. Data 224, captured image data group 231, moving vehicle data 232, matching result data 233, and vehicle detection result data 234 are stored.

[処理の流れ]
図15は、車両感知処理の流れを説明するためのフローチャートである。この処理は、処理部100が車両感知プログラム210を実行することで実現される。同図によれば、処理部100は、先ず、撮影画像中に感知領域AR1及び付加領域AR3を設定し、更に、この感知領域AR1を複数の領域に分割して分割領域を設定する(ステップA1)。また、移動車両検出部110が移動車両検出処理を開始し(ステップA3)、停止車両検出部130が停止車両検出処理を開始し(ステップA5)、車両追跡部120が車両追跡処理を開始し(ステップA7)、マッチング閾値変更部140がマッチング閾値変更処理を開始する(ステップA9)。
[Process flow]
FIG. 15 is a flowchart for explaining the flow of the vehicle sensing process. This process is realized by the processing unit 100 executing the vehicle detection program 210. According to the figure, the processing unit 100 first sets a sensing area AR1 and an additional area AR3 in a captured image, and further divides the sensing area AR1 into a plurality of areas to set divided areas (step A1). ). In addition, the moving vehicle detection unit 110 starts the moving vehicle detection process (step A3), the stopped vehicle detection unit 130 starts the stopped vehicle detection process (step A5), and the vehicle tracking unit 120 starts the vehicle tracking process ( In step A7), the matching threshold value changing unit 140 starts the matching threshold value changing process (step A9).

続いて、処理部100は、移動車両検出部110によって移動車両が検出されているかを判断し、検出されているならば(ステップA11:YES)、車両感知結果を“有り”とする(ステップA13)。   Subsequently, the processing unit 100 determines whether or not a moving vehicle is detected by the moving vehicle detection unit 110. If the moving vehicle is detected (step A11: YES), the vehicle detection result is “present” (step A13). ).

一方、移動車両が検出されていないならば(ステップA11:NO)、移動車両の検出結果が“有り”から“無し”に変化したか否かを判断する。移動車両の検出結果が“有り”から“無し”に変化したならば(ステップA15:YES)、フラグFを「1」に設定する(ステップA17)。このフラグFは、停止車両の判断結果を車両検出結果としていることを示すフラグであり、移動車両の検出結果が“有り”から“無し”に変化したタイミングで「1」に設定され、その後、停止車両の検出結果が“無し”となると「0」に設定(クリア)される。   On the other hand, if a moving vehicle is not detected (step A11: NO), it is determined whether or not the detection result of the moving vehicle has changed from “present” to “absent”. If the detection result of the moving vehicle changes from “present” to “absent” (step A15: YES), the flag F is set to “1” (step A17). This flag F is a flag indicating that the determination result of the stopped vehicle is the vehicle detection result, and is set to “1” at the timing when the detection result of the moving vehicle changes from “present” to “none”. When the detection result of the stopped vehicle becomes “none”, it is set (cleared) to “0”.

続いて、停止車両検出部130によって停止車両が検出されているか否かを判断し、検出されているならば(ステップA21:YES)、車両感知結果を“有り”とする(ステップA23)。一方、停止車両が検出されていないならば(ステップA21:NO)、フラグFを「0」に設定し(ステップA25)、車両感知結果を“無し”とする(ステップA27)。   Subsequently, it is determined whether or not a stopped vehicle is detected by the stopped vehicle detection unit 130. If it is detected (step A21: YES), the vehicle detection result is set to “present” (step A23). On the other hand, if a stopped vehicle is not detected (step A21: NO), the flag F is set to “0” (step A25), and the vehicle detection result is set to “none” (step A27).

また、移動車両の検出結果が“無し”のままならば(ステップA15:NO)、フラグFを判断し、フラグFが「1」ならば(ステップA19:YES)、続いて、停止車両検出部130によって停止車両が検出されているか否かを判断する。停止車両が検出されているならば(ステップA21:YES)、車両感知結果を“有り”とし(ステップA23)、停止車両が検出されていないならば(ステップA21:NO)、フラグFを「0」に設定するとともに(ステップA25)、車両感知結果を“無し”とする(ステップA27)。また、フラグFが「0」ならば(ステップA19:NO)、車両感知結果を“無し”とする(ステップA27)。   If the detection result of the moving vehicle remains “None” (step A15: NO), the flag F is determined. If the flag F is “1” (step A19: YES), then the stopped vehicle detection unit It is determined by 130 whether or not a stopped vehicle is detected. If a stopped vehicle is detected (step A21: YES), the vehicle detection result is “present” (step A23). If a stopped vehicle is not detected (step A21: NO), the flag F is set to “0”. "(Step A25) and the vehicle detection result is" none "(step A27). If the flag F is “0” (step A19: NO), the vehicle detection result is “none” (step A27).

その後、処理部100は、車両感知処理を終了するか否かを判断し、終了しないならば(ステップA29:NO)、ステップA11に戻り、終了するならば(ステップA:YES)、実行中の各処理を終了した後(ステップA31)、車両感知処理を終了する。   Thereafter, the processing unit 100 determines whether or not to end the vehicle sensing process. If the processing does not end (step A29: NO), the processing unit 100 returns to step A11. If the processing ends (step A: YES), the processing unit 100 is executing. After each process is finished (step A31), the vehicle sensing process is finished.

図16は、移動車両検出処理のフローチャートである。同図によれば、移動車両検出部110は、所定の時間Δt毎にループAの処理を行う。すなわち、ループAでは、現在時刻tでの撮影画像(t)と、現在時刻tから時間Δtだけ過去の時刻t−1での撮影画像(t−1)との差分画像1を算出する(ステップB1)。また、撮影画像(t−1)と、時刻t−1から時間Δtだけ過去の時刻t−2での撮影画像(t−2)との差分画像2を算出する(ステップB3)。そして、差分画像1,2の共通画像を生成し、この共通画像をもとに、撮影画像中の感知領域AR1内の移動車両の有無を判断する(ステップB5)。ループAはこのように行われる。そして、処理の終了指示がなされると、移動車両検出処理は終了となる。 FIG. 16 is a flowchart of the moving vehicle detection process. According to the figure, the moving vehicle detection unit 110 performs the process of the loop A every predetermined time Δt. That is, in the loop A, to calculate the captured image at the current time t 0 (t), a difference image 1 between the photographed image from the current time t 0 the time Δt only past time t -1 (t-1) (Step B1). Further, a difference image 2 between the photographed image (t−1) and the photographed image (t−2) at the time t − 2 past from the time t −1 by the time Δt is calculated (step B3). And the common image of the difference images 1 and 2 is produced | generated, and the presence or absence of the moving vehicle in sensing area AR1 in a picked-up image is judged based on this common image (step B5). Loop A is performed in this way. Then, when an instruction to end the process is given, the moving vehicle detection process ends.

図17は、停止車両検出処理のフローチャートである。同図によれば、停止車両検出部130は、所定の時間Δt毎にループBの処理を行う。すなわち、ループBでは、現在時刻tでの撮影画像(t)について、感知領域を構成する分割領域毎に、テンプレート画像の該当する画像部分とのパターンマッチングを行ってマッチング率Rを算出する(ステップC1)、次いで、分割領域毎に、算出したマッチング率Rを定められた閾値と比較し、比較結果に応じて、撮影画像中の感知領域AR1内の停止車両の有無を判断する(ステップC3)。ループBはこのように行われる。そして、処理の終了指示がなされると、停止車両検出処理は終了となる。 FIG. 17 is a flowchart of the stopped vehicle detection process. According to the figure, the stopped vehicle detection unit 130 performs the process of the loop B every predetermined time Δt. That is, in the loop B, for the captured image (t) at the current time t 0 , pattern matching with the corresponding image portion of the template image is performed for each divided region constituting the sensing region to calculate the matching rate R ( Step C1) Next, for each divided region, the calculated matching rate R is compared with a predetermined threshold, and the presence or absence of a stopped vehicle in the sensing region AR1 in the captured image is determined according to the comparison result (Step C3). ). Loop B is performed in this way. Then, when an instruction to end the process is given, the stopped vehicle detection process ends.

図18は、マッチング閾値変更処理のフローチャートである。同図によれば、マッチング閾値変更部140は、所定の時間Δt毎にループCの処理を行う。すなわち、ループCでは、車両追跡部120によって追跡されている移動車両の有無を判断する。追跡されている移動車両があるならば(ステップD1:YES)、当該移動車両の移動速度Vをもとに車両無し推定距離Lを算出する(ステップD3)。次いで、算出した距離Lまでの範囲に含まれる分割領域を判断し、車両無し推定領域とする(ステップD5)。そして、判断した車両無し推定領域それぞれについて、当該領域のマッチング率Rをもとに閾値を変更する(ステップD7)。ループCはこのように行われる。そして、処理の終了指示がなされると、マッチング閾値変更処理は終了となる。   FIG. 18 is a flowchart of the matching threshold value changing process. According to the figure, the matching threshold value changing unit 140 performs the process of the loop C every predetermined time Δt. That is, in the loop C, it is determined whether there is a moving vehicle tracked by the vehicle tracking unit 120. If there is a moving vehicle being tracked (step D1: YES), a no-vehicle estimated distance L is calculated based on the moving speed V of the moving vehicle (step D3). Next, a divided region included in the range up to the calculated distance L is determined and set as a vehicle-free estimated region (step D5). Then, the threshold value is changed based on the matching rate R of each of the determined vehicle-less estimated regions (step D7). Loop C is performed in this way. Then, when an instruction to end the process is given, the matching threshold value changing process ends.

[作用/効果]
このように、本実施形態によれば、画像式車両感知器1の制御装置20では、1)カメラ10による撮影画像と所定のテンプレート画像とのパターンマッチングを行ってマッチング率Rを算出し、所定閾値と比較することによる停止車両の検出と、2)フレーム間差分法を用いた移動車両の検出とを行い、双方の検出結果をもとに車両の存否を判断する。また、移動車両の移動速度Vをもとに、当該移動車両の前方の他の車両が存在しないと推定される分割領域(車両無し推定領域)を判断し、この車両無し推定領域のマッチング率Rの閾値を、停止車両の検出の際に算出された当該領域のマッチング率Rに応じた値に変更する。これにより、比較的簡単な演算で精度の高い車両の存否の判定を実現できる。また、マッチング率の閾値を部分領域AR2毎に変更するため、テンプレート画像を固定としても、停止車両の存否判定の精度が比較的良い。更に、テンプレート画像として、輝度差が小さい画素が格子状に配置されてエッジ成分を殆ど持たない画像が用いられるため、停止車両の検出の制度を高めることができる。
[Action / Effect]
As described above, according to the present embodiment, the control device 20 of the image type vehicle sensor 1 1) calculates the matching rate R by performing pattern matching between an image captured by the camera 10 and a predetermined template image. Detection of a stopped vehicle by comparison with a threshold value and 2) detection of a moving vehicle using an inter-frame difference method are performed, and the presence or absence of the vehicle is determined based on both detection results. Further, based on the moving speed V of the moving vehicle, a divided region (a vehicle-free estimated region) where it is estimated that there is no other vehicle ahead of the moving vehicle is determined, and a matching rate R of the vehicle-free estimated region is determined. Is changed to a value corresponding to the matching rate R of the area calculated when the stopped vehicle is detected. As a result, it is possible to realize the presence / absence of a highly accurate vehicle by a relatively simple calculation. In addition, since the threshold value of the matching rate is changed for each partial area AR2, the accuracy of determining whether or not there is a stopped vehicle is relatively good even if the template image is fixed. Furthermore, since a template image is an image in which pixels having a small luminance difference are arranged in a grid and has almost no edge component, the system for detecting a stopped vehicle can be enhanced.

なお、上述の実施形態では、右折レーンにおける車両の存否を判定することにしたが、直線レーンや右折レーンといった他のレーンの他、交差点間の車線を対象としても良いのは勿論である。   In the above-described embodiment, the presence / absence of the vehicle in the right turn lane is determined, but it goes without saying that other lanes such as a straight lane and a right turn lane may be used as a lane between intersections.

交差点における画像式車両感知器の配置例。The example of arrangement | positioning of the image type vehicle sensor in an intersection. 制御装置の内部構成図。The internal block diagram of a control apparatus. 撮影画像の一例。An example of a photographed image. フレーム間差分法の説明図。Explanatory drawing of the difference method between frames. 付加領域の説明図。Explanatory drawing of an additional area | region. 移動車両データのデータ構成例。The data structural example of moving vehicle data. テンプレート画像の一例。An example of a template image. テンプレート画像の他の例。Another example of a template image. パターンマッチングの説明図。Explanatory drawing of pattern matching. マッチング結果データのデータ構成例。The data structural example of matching result data. マッチング閾値データのデータ構成例。The data structural example of matching threshold value data. 車両検出結果データのデータ構成例。The data structural example of vehicle detection result data. 移動速度Vと車間無し推定距離Lとの関係を示すグラフ。The graph which shows the relationship between the moving speed V and the estimated distance L between vehicles. 車両無し推定領域の判断の説明図。Explanatory drawing of judgment of an estimation area without a vehicle. 車両感知処理のフローチャート。The flowchart of a vehicle detection process. 移動車両検出処理のフローチャート。The flowchart of a moving vehicle detection process. 停止車両検出処理のフローチャート。The flowchart of a stop vehicle detection process. マッチング閾値変更処理のフローチャート。The flowchart of a matching threshold value change process.

符号の説明Explanation of symbols

1 画像式車両感知器
10 カメラ
20 制御装置
100 処理部
110 移動車両検出部、120 車両追跡部
130 停止車両検出部、140 マッチング閾値変更部
200 記憶部
210 車両感知プログラム
221 テンプレート画像データ、222 マッチング閾値データ
223 マッチング率算出式データ、224 車両無し推定距離算出式データ
231 撮影画像データ群、232 移動車両データ
233 マッチング結果データ、234 車両検出結果データ
AR1 感知領域、AR2 分割領域、AR3 付加領域
DESCRIPTION OF SYMBOLS 1 Image type vehicle sensor 10 Camera 20 Control apparatus 100 Processing part 110 Moving vehicle detection part, 120 Vehicle tracking part 130 Stop vehicle detection part, 140 Matching threshold change part 200 Storage part 210 Vehicle detection program 221 Template image data, 222 Matching threshold Data 223 Matching rate calculation formula data 224 Vehicle-free estimated distance calculation formula data 231 Captured image data group 232 Moving vehicle data 233 Matching result data 234 Vehicle detection result data AR1 Sensing area, AR2 divided area, AR3 additional area

Claims (8)

上方から俯瞰するカメラによって撮影された撮影画像中の感知対象とする画像部分を感知領域として設定する設定手段と、
前記設定された感知領域を複数の部分領域に分割する分割手段と、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定手段と、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理手段と、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定手段と、
前記移動車両判定手段による判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定手段と、
前記推定された部分領域についての前記マッチング処理手段のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新手段と、
前記移動車両判定手段の判定結果及び前記停止車両判定手段の判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定手段と、
を備えた車両存否判定装置。
A setting means for setting, as a sensing area, an image part to be sensed in a photographed image photographed by a camera viewed from above;
A dividing means for dividing the set sensing area into a plurality of partial areas;
Moving vehicle determination means for comparing and analyzing time-series changes of the captured image to determine whether or not there is a moving vehicle in the sensing area;
A matching processing means for comparing and analyzing the captured image and a predetermined template image by a predetermined pattern matching process to calculate a matching rate for each of the plurality of partial regions;
Stopping vehicle determination means for determining whether or not there is a stopped vehicle in the sensing area by comparing the calculated matching rate for each of the plurality of partial areas with a given threshold value of the partial area; ,
Based on a determination result by the moving vehicle determination unit, an estimation unit that estimates a partial region in which the vehicle does not exist among the plurality of partial regions;
Threshold updating means for updating the threshold of the partial area based on the matching rate of the matching processing means for the estimated partial area;
Vehicle presence / absence determination means for determining the presence / absence of a vehicle in the sensing area based on the determination result of the moving vehicle determination means and the determination result of the stopped vehicle determination means;
A vehicle presence / absence determination device.
前記マッチング処理手段が、輝度値の異なる画素ブロックを格子状に配設した画像を前記所定のテンプレート画像として定常的に用いて前記パターンマッチング処理を行う請求項1に記載の車両存否判定装置。   The vehicle presence / absence determining apparatus according to claim 1, wherein the matching processing unit performs the pattern matching processing by regularly using an image in which pixel blocks having different luminance values are arranged in a grid as the predetermined template image. 前記マッチング処理手段が、画像中の最大輝度値と最小輝度値との輝度差が、輝度値として取り得る最高輝度値と最低輝度値との輝度差の1/10以下の画像を前記所定のテンプレート画像として定常的に用いて前記パターンマッチング処理を行う請求項1又は2に記載の車両存否判定装置。   The matching processing unit selects an image in which the luminance difference between the maximum luminance value and the minimum luminance value in the image is 1/10 or less of the luminance difference between the maximum luminance value and the minimum luminance value that can be taken as the luminance value. The vehicle presence / absence determining apparatus according to claim 1, wherein the pattern matching process is performed using the image as a regular image. 前記移動車両判定手段が、前記撮影画像中の移動車両の位置及び移動速度を判定し、
前記推定手段が、前記移動車両判定手段により判定された移動車両の位置及び移動速度を用いて、前記複数の部分領域のうちの車両が存在しない部分領域を推定する、
請求項1〜3の何れか一項に記載の車両存否判定装置。
The moving vehicle determining means determines the position and moving speed of the moving vehicle in the captured image;
The estimation means estimates a partial area in which the vehicle does not exist among the plurality of partial areas, using the position and moving speed of the moving vehicle determined by the moving vehicle determination means.
The vehicle presence determination apparatus as described in any one of Claims 1-3.
前記車両存否判定手段が、1)前記移動車両判定手段の判定結果が移動車両有りの場合には前記感知領域内に車両が存在すると判定し、2)前記移動車両判定手段の判定結果が移動車両有りから移動車両無しに変わった時から前記停止車両判定手段が停止車両無しと判定するまでの間は、前記感知領域内に車両が存在すると判定し、3)1)及び2)以外の場合には前記感知領域内に車両が存在しないと判定する請求項1〜4の何れか一項に記載の車両存否判定装置。   The vehicle presence / absence determining means 1) determines that a vehicle is present in the sensing area when the determination result of the moving vehicle determining means is that there is a moving vehicle, and 2) the determination result of the moving vehicle determining means is a moving vehicle. It is determined that there is no vehicle in the sensing area from when the vehicle changes from being present to no moving vehicle until the stopped vehicle determining means determines that there is no stopped vehicle. 3) In cases other than 1) and 2) The vehicle presence / absence determination apparatus according to claim 1, wherein it is determined that no vehicle exists in the sensing area. 前記カメラは、感知対象とする車道又は車線を上方から俯瞰する位置に設けられ、
前記分割手段は、車両通行方向に沿って前記感知領域を複数の部分領域に分割する、
請求項1〜5の何れか一項に記載の車両存否判定装置。
The camera is provided at a position overlooking the roadway or lane to be sensed from above,
The dividing means divides the sensing area into a plurality of partial areas along a vehicle traffic direction.
The vehicle presence determination apparatus as described in any one of Claims 1-5.
上方から俯瞰するカメラの撮影画像に基づいて、前記撮影画像中の感知領域における車両の存否を判定する車両存否判定方法であって、
前記感知領域を複数の部分領域に分割する分割ステップと、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定ステップと、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理ステップと、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定ステップと、
前記移動車両判定ステップによる判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定ステップと、
前記推定された部分領域についての前記マッチング処理のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新ステップと、
前記移動車両判定ステップの判定結果及び前記停止車両判定ステップの判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定ステップと、
を含む車両存否判定方法。
A vehicle presence / absence determination method for determining presence / absence of a vehicle in a sensing area in the captured image based on a captured image of a camera viewed from above,
Dividing the sensing region into a plurality of partial regions;
A moving vehicle determination step of comparing and analyzing time-series changes of the captured image to determine whether or not there is a moving vehicle in the sensing area;
A matching process step of comparing and analyzing the captured image and a predetermined template image by a predetermined pattern matching process to calculate a matching rate for each of the plurality of partial regions;
A stopped vehicle determination step of determining whether there is a stopped vehicle in the sensing region by comparing the calculated matching rate for each of the plurality of partial regions with a given threshold value of the partial region; ,
Based on the determination result of the moving vehicle determination step, an estimation step of estimating a partial region where no vehicle exists among the plurality of partial regions;
A threshold update step of updating the threshold of the partial area based on the matching rate of the matching process for the estimated partial area;
A vehicle presence / absence determination step for determining the presence / absence of a vehicle in the sensing area based on the determination result of the moving vehicle determination step and the determination result of the stop vehicle determination step;
A vehicle presence / absence determination method including:
コンピュータを、
上方から俯瞰するカメラによって撮影された撮影画像中の感知対象とする画像部分を感知領域として設定する設定手段、
前記設定された感知領域を複数の部分領域に分割する分割手段、
前記撮影画像の時系列変化を比較解析して前記感知領域内に移動中の車両が存在するか否かを判定する移動車両判定手段、
前記撮影画像と所定のテンプレート画像とを所定のパターンマッチング処理で比較解析して前記複数の部分領域それぞれについてマッチング率を算出するマッチング処理手段、
前記複数の部分領域それぞれについて前記算出されたマッチング率を当該部分領域の所与の閾値と比較することで前記感知領域内に停止中の車両が存在するか否かを判定する停止車両判定手段、
前記移動車両判定手段による判定結果に基づいて、前記複数の部分領域のうち、車両が存在しない部分領域を推定する推定手段、
前記推定された部分領域についての前記マッチング処理手段のマッチング率に基づいて、当該部分領域の前記閾値を更新する閾値更新手段、
前記移動車両判定手段の判定結果及び前記停止車両判定手段の判定結果に基づいて前記感知領域内の車両の存否を判定する車両存否判定手段、
として機能させるためのプログラム。
Computer
Setting means for setting, as a sensing area, an image portion to be sensed in a photographed image photographed by a camera viewed from above;
A dividing means for dividing the set sensing area into a plurality of partial areas;
Moving vehicle determination means for comparing and analyzing time-series changes of the captured image to determine whether or not there is a moving vehicle in the sensing area;
A matching processing means for comparing and analyzing the captured image and a predetermined template image by a predetermined pattern matching process to calculate a matching rate for each of the plurality of partial regions;
Stopping vehicle determination means for determining whether or not there is a stopped vehicle in the sensing area by comparing the calculated matching rate for each of the plurality of partial areas with a given threshold value of the partial area;
Based on the determination result by the moving vehicle determination means, an estimation means for estimating a partial area where no vehicle is present among the plurality of partial areas;
Threshold updating means for updating the threshold of the partial area based on the matching rate of the matching processing means for the estimated partial area;
Vehicle presence / absence determination means for determining the presence / absence of a vehicle in the sensing area based on the determination result of the moving vehicle determination means and the determination result of the stop vehicle determination means;
Program to function as.
JP2007325731A 2007-12-18 2007-12-18 Vehicle presence / absence determination device, vehicle presence / absence determination method, and program Active JP4956400B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007325731A JP4956400B2 (en) 2007-12-18 2007-12-18 Vehicle presence / absence determination device, vehicle presence / absence determination method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007325731A JP4956400B2 (en) 2007-12-18 2007-12-18 Vehicle presence / absence determination device, vehicle presence / absence determination method, and program

Publications (2)

Publication Number Publication Date
JP2009146337A true JP2009146337A (en) 2009-07-02
JP4956400B2 JP4956400B2 (en) 2012-06-20

Family

ID=40916838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007325731A Active JP4956400B2 (en) 2007-12-18 2007-12-18 Vehicle presence / absence determination device, vehicle presence / absence determination method, and program

Country Status (1)

Country Link
JP (1) JP4956400B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099999A (en) * 2013-11-18 2015-05-28 東京エレクトロン株式会社 Information processing apparatus, information processing method and information processing system
CN108230696A (en) * 2018-01-24 2018-06-29 迈锐数据(北京)有限公司 The detection method of travel condition of vehicle, apparatus and system
JP2021033568A (en) * 2019-08-22 2021-03-01 ナブテスコ株式会社 Information processing system, information processing method, and construction machine

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190533A (en) * 1996-01-11 1997-07-22 Mitsubishi Heavy Ind Ltd Vehicle detecting device
JP2002024808A (en) * 2000-07-07 2002-01-25 Meidensha Corp Static obstacle detection system and its device
JP2004191276A (en) * 2002-12-13 2004-07-08 Koito Ind Ltd Apparatus for distinguishing road-surface state
JP2006185206A (en) * 2004-12-28 2006-07-13 Toshiba Corp Method, device, and program for detecting object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190533A (en) * 1996-01-11 1997-07-22 Mitsubishi Heavy Ind Ltd Vehicle detecting device
JP2002024808A (en) * 2000-07-07 2002-01-25 Meidensha Corp Static obstacle detection system and its device
JP2004191276A (en) * 2002-12-13 2004-07-08 Koito Ind Ltd Apparatus for distinguishing road-surface state
JP2006185206A (en) * 2004-12-28 2006-07-13 Toshiba Corp Method, device, and program for detecting object

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015099999A (en) * 2013-11-18 2015-05-28 東京エレクトロン株式会社 Information processing apparatus, information processing method and information processing system
CN108230696A (en) * 2018-01-24 2018-06-29 迈锐数据(北京)有限公司 The detection method of travel condition of vehicle, apparatus and system
JP2021033568A (en) * 2019-08-22 2021-03-01 ナブテスコ株式会社 Information processing system, information processing method, and construction machine
JP7383255B2 (en) 2019-08-22 2023-11-20 ナブテスコ株式会社 Information processing systems, information processing methods, construction machinery

Also Published As

Publication number Publication date
JP4956400B2 (en) 2012-06-20

Similar Documents

Publication Publication Date Title
JP5127182B2 (en) Object detection device
CN104108392B (en) Lane Estimation Apparatus And Method
JP5966965B2 (en) Lane boundary departure control device and lane boundary departure suppression method
JP5075672B2 (en) Object detection apparatus and method
JPWO2020090251A1 (en) Object recognition device, object recognition method and object recognition program
KR20150102546A (en) Apparatus and method for recognizing lane
JP2009252198A (en) Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus
KR101268282B1 (en) Lane departure warning system in navigation for vehicle and method thereof
JP4721278B2 (en) Lane departure determination device, lane departure prevention device, and lane tracking support device
JP2008310440A (en) Pedestrian detection device
JP4956400B2 (en) Vehicle presence / absence determination device, vehicle presence / absence determination method, and program
JP3912869B2 (en) Traffic flow measuring device
KR20170055738A (en) Apparatus and method for recognize driving lane on image
JP7068017B2 (en) Vehicle travel path recognition device and travel control device
JP5175765B2 (en) Image processing apparatus and traffic monitoring apparatus
JP3470172B2 (en) Traffic flow monitoring device
JP4469980B2 (en) Image processing method for tracking moving objects
JP2002123820A (en) Detecting method and device for obstacle being stationary on road obstacle
JP7383954B2 (en) Learning data collection device
JP7196781B2 (en) Information processing device and driving support system
JP2018073049A (en) Image recognition device, image recognition system, and image recognition method
JP4314870B2 (en) Lane detection device
JP2011113410A (en) Main road merging information provision system
JP2003217082A (en) Image type speed detecting system and image type speed detecting method
US11679769B2 (en) Traffic signal recognition method and traffic signal recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101111

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120307

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120316

R150 Certificate of patent or registration of utility model

Ref document number: 4956400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150323

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250