JP2006091974A - Traffic flow measuring method and device therefor - Google Patents

Traffic flow measuring method and device therefor Download PDF

Info

Publication number
JP2006091974A
JP2006091974A JP2004273270A JP2004273270A JP2006091974A JP 2006091974 A JP2006091974 A JP 2006091974A JP 2004273270 A JP2004273270 A JP 2004273270A JP 2004273270 A JP2004273270 A JP 2004273270A JP 2006091974 A JP2006091974 A JP 2006091974A
Authority
JP
Japan
Prior art keywords
vehicle head
image
vehicle
point
head point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004273270A
Other languages
Japanese (ja)
Other versions
JP4635536B2 (en
Inventor
Yoichiro Anzai
陽一郎 安西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2004273270A priority Critical patent/JP4635536B2/en
Publication of JP2006091974A publication Critical patent/JP2006091974A/en
Application granted granted Critical
Publication of JP4635536B2 publication Critical patent/JP4635536B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent an object not being a vehicle from being recognized as a vehicle in a traffic flow measurement. <P>SOLUTION: It is determined whether or not a vehicle head settlement point, which is selected by subjecting an image picked up with an ITV camera 1 to space differentiation, binarization, masking or the like, is settled based on the result of comparing the peripheral image of the vehicle head settlement point (the image of an area including a point selected as the vehicle head settlement point) with the background image corresponding to the peripheral image. More specifically, when it is determined that the difference between the peripheral image of the vehicle head settlement point and the background image lies in at least a preliminarily fixed level, the vehicle head settlement point is stored, but, if not so, the vehicle head settlement point is deleted from a storage. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、交通流計測方法およびその装置に関し、特に、カメラで撮影された画像情報から、車両の存在、車種(たとえば、小型車、中型車などの車両の大きさの区分)、個別の車両速度などを検出して交通流計測を行なう方法および装置に関する。   The present invention relates to a traffic flow measuring method and apparatus, and in particular, from the image information captured by a camera, the presence of a vehicle, the type of vehicle (for example, classification of the size of a vehicle such as a small vehicle, a medium size vehicle), and individual vehicle speed. The present invention relates to a method and apparatus for measuring traffic flow and the like.

一般道路や高速道路の交通管制システムでは、数多くの車両感知器を道路側に配置して交通流が計測されている。この計測機能をさらに高度化したものの一つに、ITV(Industrial Television)カメラによる交通流計測処理システムがあり、従来から研究が進められている。このITVカメラによる交通流計測処理システムは、テレビカメラをセンサとして使用するものであり、道路を斜めから見下ろして撮像した映像をリアルタイムで解析することにより車両の存在とその速度を判定する。   In traffic control systems for general roads and highways, traffic flow is measured by arranging many vehicle detectors on the road side. One of the advanced functions of this measurement is a traffic flow measurement processing system using an ITV (Industrial Television) camera, and research has been conducted in the past. This traffic flow measurement processing system using an ITV camera uses a TV camera as a sensor, and determines the presence and speed of a vehicle by analyzing in real time an image taken by looking down a road from an oblique direction.

たとえば、特許文献1には、ITVカメラを利用した交通流計測システムにおいて、ITVカメラから出力される画像に対して、空間微分処理を行なった後、車幅と同程度の幅を持つマスクを用いてマスク処理を施すことにより、車両を認識する技術が開示されている。このような技術では、カメラによって撮影された画像において、背景(カメラに撮影された画像における道路に相当する部分)に対して異なる輝度を有する部分が、車両として認識されていた。
特開平5−307695号公報
For example, in Patent Document 1, in a traffic flow measurement system using an ITV camera, a mask having a width approximately equal to the vehicle width is used after performing spatial differentiation processing on an image output from the ITV camera. A technique for recognizing a vehicle by performing mask processing is disclosed. In such a technique, in an image photographed by a camera, a portion having a different luminance with respect to the background (a portion corresponding to a road in an image photographed by the camera) has been recognized as a vehicle.
JP-A-5-307695

しかしながら、特許文献1を含む従来の技術では、一時的に路面に現れる、木の葉の影やビル等の背の高い建造物の影が、特に日差しの強い夏季には、誤って車両と認識される場合があった。このように影が車両と誤認される事態に対し、カメラの映像の時間差分の利用も検討されたが、今一つ、当該誤認を解決するには至らなかった。   However, in the conventional techniques including Patent Document 1, a shadow of a leaf or a tall building such as a building that temporarily appears on the road surface is mistakenly recognized as a vehicle, particularly in summer when the sunlight is strong. There was a case. For such a situation where the shadow is mistaken as a vehicle, the use of the time difference of the video of the camera has been studied, but it has not yet been solved.

本発明は上述したかかる実情に鑑み考え出されたものであり、その目的は、車両以外のものを車両であると認識されることを回避できる交通流計測方法およびその装置を提供することである。   The present invention has been conceived in view of the above-described circumstances, and an object of the present invention is to provide a traffic flow measuring method and apparatus capable of avoiding that other than a vehicle is recognized as a vehicle. .

本発明に従った交通流計測方法は、道路を撮影するステップと、前記道路を撮影することによって得られた画像に対して複数のサンプル点を定義し、当該複数のサンプル点の輝度を検出するステップと、前記複数のサンプル点の輝度に基づいて、前記道路を撮影することによって得られた画像における車頭位置の候補となる点である車頭点を決定するステップと、前記車頭点を特定する情報を記憶するステップと、前記車頭点を含む画像の中の前記車頭点の近傍の画像を、前記車頭点の近傍の画像であって車両を含まない画像である背景画像と比較することにより、これらの画像が類似する度合いを算出するステップと、前記車頭点を含む画像の中の前記車頭点の近傍の画像と前記背景画像との類似する度合いが所定の度合い以上である場合には、前記車頭点を特定する情報の記憶を削除するステップとを備えることを特徴とする。   In the traffic flow measuring method according to the present invention, a step of photographing a road, a plurality of sample points are defined for an image obtained by photographing the road, and luminances of the plurality of sample points are detected. Determining a vehicle head point that is a candidate for a vehicle head position in an image obtained by photographing the road based on the brightness of the plurality of sample points; and information identifying the vehicle head point And an image in the vicinity of the vehicle head point in an image including the vehicle head point, and a background image that is an image in the vicinity of the vehicle head point and does not include a vehicle. Calculating the degree of similarity of the image of the vehicle, and the degree of similarity between the image near the vehicle head point in the image including the vehicle head point and the background image is a predetermined degree or more It is characterized in that it comprises a step of deleting the stored information identifying the headway point.

本発明によると、道路に対して異なる輝度を有する領域であっても、車両以外のものも含む背景画像とある程度類似する領域は、車両を含む領域ではないと判断される。   According to the present invention, even if an area has a different luminance with respect to a road, an area that is somewhat similar to a background image that includes objects other than vehicles is determined not to be an area that includes vehicles.

また、本発明に従った交通流計測方法は、車両が走行する状態の前記道路の複数の画像を撮影するステップと、車両が走行する状態の前記道路の複数の画像を重ね合わせて平均化することにより、前記背景画像を作成するステップとをさらに備えることが好ましい。   Further, the traffic flow measuring method according to the present invention averages the step of taking a plurality of images of the road in a state where the vehicle is traveling and the plurality of images of the road in a state where the vehicle is traveling. Preferably, the method further includes the step of creating the background image.

また、本発明に従った交通流計測方法では、前記車頭点の近傍は、前記車頭点を中心とされ、前記道路における車両の走行方向に交わる方向について、車両に相当する幅を有する領域であることが好ましい。   Further, in the traffic flow measuring method according to the present invention, the vicinity of the vehicle head point is an area having a width corresponding to the vehicle with respect to the direction intersecting with the vehicle traveling direction on the road. It is preferable.

また、本発明に従った交通流計測方法では、前記画像が類似する度合いを算出するステップでは、前記車頭点を含む画像の中の前記車頭点の近傍の画像と、前記背景画像との、相違度が算出され、前記車頭点を特定する情報の記憶を削除するステップでは、前記相違度が所定の値以下の場合に、前記車頭点を含む画像の中の前記車頭点の近傍の画像と前記背景画像との類似する度合いが所定の度合い以上であるとされることが好ましい。   In the traffic flow measuring method according to the present invention, in the step of calculating the degree of similarity of the images, the difference between the image near the vehicle head point in the image including the vehicle head point and the background image is different. In the step of calculating the degree and deleting the storage of the information for identifying the vehicle head point, the image near the vehicle head point in the image including the vehicle head point and the image when the difference is a predetermined value or less It is preferable that the degree of similarity with the background image is greater than or equal to a predetermined degree.

本発明に従った交通流計測装置は、道路の側に設置され道路を撮影するカメラと、前記カメラの撮影した画像に対して複数のサンプル点を定義し、当該複数のサンプル点の輝度を検出する輝度検出手段と、前記複数のサンプル点の輝度に基づいて、前記カメラの撮影した画像における車頭位置の候補となる点である車頭点を決定する車頭点決定手段と、前記車頭点を特定する情報を記憶する車頭点記憶手段と、前記車頭点を含む画像の中の前記車頭点の近傍の画像を、前記カメラに撮影された画像に基づいて作成された前記車頭点の近傍の画像であって車両を含まない画像である背景画像と比較することにより、これらの画像が類似する度合いを算出する類似度合い算出手段と、前記類似度合い算出手段が、前記車頭点を含む画像の中の前記車頭点の近傍の画像と前記背景画像の類似する度合いが所定の度合い以上である場合には、前記車頭点を特定する情報を前記車頭点記憶手段の記憶から削除する車頭点削除手段とを備えることを特徴とする。   A traffic flow measuring apparatus according to the present invention defines a plurality of sample points for a camera installed on the side of a road and photographing the road, and an image captured by the camera, and detects the luminance of the plurality of sample points. A vehicle head point determination unit that determines a vehicle head point that is a candidate for a vehicle head position in an image captured by the camera, based on the brightness of the plurality of sample points; and the vehicle head point is specified A vehicle head point storage means for storing information and an image of the vicinity of the vehicle head point in an image including the vehicle head point are images of the vicinity of the vehicle head point created based on an image photographed by the camera. The similarity degree calculating means for calculating the degree of similarity between these images by comparing with a background image that does not include a vehicle, and the similarity degree calculating means includes the above-mentioned image in the image including the vehicle head point. Vehicle head point deletion means for deleting information for identifying the vehicle head point from the storage of the vehicle head point storage means when the degree of similarity between the image in the vicinity of the head point and the background image is a predetermined degree or more. It is characterized by that.

本発明によれば、道路において、当該道路上に一時的に見られる木の葉の影やビル等の建造物の影等が存在しても、それらも背景画像に含まれるため、それらが、車両として認識されることを回避できる。したがって、本発明によれば、車両以外のものを車両であると認識されることを回避できる。   According to the present invention, even if there is a shadow of a leaf or a shadow of a building such as a building that is temporarily seen on the road, they are also included in the background image. It can avoid being recognized. Therefore, according to this invention, it can avoid recognizing things other than a vehicle as a vehicle.

そして、車両以外のものが車両であると認識されることが回避されることにより、たとえば、ある時間間隔でカメラにより撮影された画像における車両の位置を用いて車両の速度が計算される場合であれば、より正確に、車両の速度の算出がなされることになる。また、交差点において、カメラに撮影された画像に基づいて決定された車両の位置に基づいて、感知信号の青になるタイミングが制御されている際にも、車両の位置が正確に把握されることにより、道路の実情に沿った信号の制御が可能となる。さらに、カメラに撮影された画像に基づいて決定された車両の位置に基づいて、交差点における右折信号を点灯させるタイミングが制御されている際にも、道路の実情に沿った信号の制御が可能となる。   Then, by recognizing that something other than the vehicle is recognized as a vehicle, for example, when the vehicle speed is calculated using the position of the vehicle in an image taken by the camera at a certain time interval. If so, the speed of the vehicle is calculated more accurately. In addition, at the intersection, the position of the vehicle can be accurately grasped even when the blue timing of the detection signal is controlled based on the position of the vehicle determined based on the image taken by the camera. Thus, it becomes possible to control the signal in accordance with the actual situation of the road. Furthermore, even when the timing for turning on the right turn signal at the intersection is controlled based on the position of the vehicle determined based on the image captured by the camera, it is possible to control the signal in accordance with the actual situation of the road. Become.

以下、図面を参照しつつ、本発明の交通流計測装置の一実施の形態を説明する。図1は、本実施の形態の交通流計測装置における、ITVカメラ1の設置例を示す図である。   Hereinafter, an embodiment of a traffic flow measuring device of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating an installation example of the ITV camera 1 in the traffic flow measuring apparatus according to the present embodiment.

図1を参照して、道路の側に設置されたポールの上部には、ITVカメラ1が備えられ、当該ポールの、ITVカメラ1よりも下方側に、制御部2が備え付けられている。ITVカメラ1の視野(計測領域)は、ITVカメラ1から伸びる一点鎖線で示されるように、4車線ある道路の全車線に渡っている。なお、図1において、二点鎖線で示された領域αと、点線で示された領域βとは、それぞれ、後述するITVカメラ1から出力される画像信号に対応する領域を示すものである。   Referring to FIG. 1, an ITV camera 1 is provided on an upper portion of a pole installed on the road side, and a control unit 2 is provided on the lower side of the pole with respect to the ITV camera 1. The field of view (measurement area) of the ITV camera 1 extends over all lanes of a road having four lanes, as indicated by the alternate long and short dash line extending from the ITV camera 1. In FIG. 1, an area α indicated by a two-dot chain line and an area β indicated by a dotted line indicate areas corresponding to image signals output from the ITV camera 1 described later.

図2は、本実施の形態の交通流計測装置の電気構成を示すブロック図である。   FIG. 2 is a block diagram showing an electrical configuration of the traffic flow measuring apparatus according to the present embodiment.

図2を参照して、交通流計測装置は、主に、ITVカメラ1と制御部2から構成される。制御部2は、ITVカメラ1において取得される画像信号を入力される画像入力部3と、車頭候補点検出部4と、計測処理部5と、画像入力部3に入力された画像信号に基づいて道路の背景画像を作成する背景画像作成部7とからなる、制御部本体を備える。また、制御部2は、さらに、当該制御部本体により算出された交通流計測結果等の情報を通信回線を通して交通管制センタに伝える伝送部6、および、外部の電源からの制御部2への電力の供給を制御する電源部8を備えている。   Referring to FIG. 2, the traffic flow measuring device mainly includes an ITV camera 1 and a control unit 2. The control unit 2 is based on an image input unit 3 to which an image signal acquired by the ITV camera 1 is input, a vehicle head candidate point detection unit 4, a measurement processing unit 5, and an image signal input to the image input unit 3. And a background image creating unit 7 for creating a road background image. The control unit 2 further includes a transmission unit 6 that transmits information such as traffic flow measurement results calculated by the control unit main body to the traffic control center through a communication line, and power to the control unit 2 from an external power source. Is provided with a power supply unit 8 for controlling the supply of.

次に、制御部2の中の制御部本体において実行される交通流計測処理について、図3に記載された当該交通流計測処理のフローチャートを参照しつつ説明する。本実施の形態の交通流計測装置において、図3に示されるような交通流計測処理が開始されるタイミング(間隔)は、たとえば、当該装置の処理能力や、一回の処理において取り扱われるITVカメラ1からの画像信号の量等に応じたものとされる。   Next, traffic flow measurement processing executed in the control unit main body in the control unit 2 will be described with reference to the flowchart of the traffic flow measurement processing described in FIG. In the traffic flow measuring apparatus of the present embodiment, the timing (interval) at which the traffic flow measuring process as shown in FIG. 3 is started is, for example, the processing capability of the apparatus or an ITV camera handled in a single process. 1 according to the amount of image signal from 1 and the like.

まず、ITVカメラ1から出力される画像信号が画像入力部3で取込まれると、ステップS1(以下、「ステップ」を省略する)で、車頭候補点検出部4において、当該画像信号の中の予め定められた複数のサンプル点に基づいて車両の走行方向の空間微分処理が実行される。   First, when the image signal output from the ITV camera 1 is captured by the image input unit 3, the vehicle head candidate point detection unit 4 includes the image signal in step S1 (hereinafter, “step” is omitted). Spatial differentiation processing in the traveling direction of the vehicle is executed based on a plurality of predetermined sample points.

ここで、空間微分処理の内容を説明する。   Here, the contents of the spatial differentiation process will be described.

図4は、ITVカメラ1から出力される画像信号の配列の一例であって、図1の領域αに示された領域に対応する画像信号の配列を模式的に示す図である。画像入力部3では、図4に示すように、ITVカメラ1から出力される画像信号に対し、道路の横断方向(ξ方向とする)に沿ってM個のサンプル点が定義され、車両の走行方向(η方向とする)に沿ったN個のサンプル点が定義される。これにより、当該画像信号に対して、M×N個の座標(i,j)が定義される。そして、画像入力部3では、このM×N個の座標(i,j)の各輝度値P(i,j)が記憶される。サンプル点のη方向,ξ方向の間隔をΔη,Δξとすると、Δηはたとえば25cm程度、Δξはたとえば20cm程度とされる。なお、画像入力部3は、ITVカメラ1から出力される画像信号を、そのまま、外部へ、映像として出力することもできる。   FIG. 4 is an example of an arrangement of image signals output from the ITV camera 1, and is a diagram schematically showing an arrangement of image signals corresponding to the area indicated by the area α in FIG. In the image input unit 3, as shown in FIG. 4, M sample points are defined along the crossing direction of the road (referred to as the ξ direction) for the image signal output from the ITV camera 1, and the vehicle travels. N sample points along the direction (referred to as η direction) are defined. Thereby, M × N coordinates (i, j) are defined for the image signal. The image input unit 3 stores each luminance value P (i, j) of the M × N coordinates (i, j). If the intervals between the sample points in the η direction and ξ direction are Δη and Δξ, Δη is about 25 cm, and Δξ is about 20 cm, for example. The image input unit 3 can also output the image signal output from the ITV camera 1 to the outside as a video as it is.

そして、車頭候補点検出部4は、画像入力部3において記憶されたM×N個の座標(i,j)の各輝度値P(i,j)を利用して、η方向の空間微分処理をする。具体的には、各(i,j)に対して次に示すソーベル演算子(Sobel operator)を作用させる(空間微分処理の詳細については、特開平5−307695号公報参照)。   Then, the vehicle head candidate point detection unit 4 uses the luminance values P (i, j) of the M × N coordinates (i, j) stored in the image input unit 3 to perform spatial differentiation processing in the η direction. do. Specifically, the following Sobel operator is applied to each (i, j) (refer to Japanese Laid-Open Patent Publication No. 5-307695 for details of the spatial differentiation process).

再度、図3を参照して、S1における空間微分処理の後には、S2で、二値化処理が実行される。なお、二値化処理は、車頭候補点検出部4において、予め定数として与えられているしきい値Th1が適用されて、空間微分処理された全画素が二値化されることにより、実行される。   Referring to FIG. 3 again, after the spatial differentiation process in S1, a binarization process is executed in S2. The binarization processing is executed by the vehicle head candidate point detection unit 4 by applying a threshold value Th1 given in advance as a constant and binarizing all pixels subjected to spatial differentiation. The

次に、S3において、マスキングがなされる。   Next, in S3, masking is performed.

マスキング処理は、車頭候補点検出部4において、予め小型車、普通車、大型車などの区分に応じて用意されたマスクが用いられて、実行される。本実施の形態において実行されるマスキング処理の内容についても、特開平5−307695号公報に記載された内容と同様のものとすることができる。つまり、本実施の形態においても、たとえば、図5に示されるように、M1からM8までの8種類のマスクが用意され、マスキング処理が実行される。M1からM4は普通車用を表し、M5からM8は大型車用を表す。また、M1,M2,M5,M6は2行のマスクであり、M3,M4,M7,M8は3行のマスクである。各マスクにおいて注目している画素は、M1,M3,M5,M7では左下にあり、M2,M4,M6,M8では左上にある。図5では、各マスクにおいて、注目している画素に対応する位置に、ハッチングが施されている。   The masking candidate point detection unit 4 executes the masking process using a mask prepared in advance according to the classification of a small car, a normal car, a large car, and the like. The contents of the masking process executed in the present embodiment can be the same as the contents described in Japanese Patent Laid-Open No. 5-307695. That is, also in the present embodiment, for example, as shown in FIG. 5, eight types of masks M1 to M8 are prepared and the masking process is executed. M1 to M4 are for ordinary vehicles, and M5 to M8 are for large vehicles. M1, M2, M5, and M6 are masks for two rows, and M3, M4, M7, and M8 are masks for three rows. The pixel of interest in each mask is in the lower left in M1, M3, M5, and M7, and is in the upper left in M2, M4, M6, and M8. In FIG. 5, each mask is hatched at a position corresponding to the pixel of interest.

マスキング処理では、各マスク内に存在する符号1である画素の数がカウントされ、当該カウントされた数が、マスクのスコアとされる。マスクが掛けられた状態の一例として、図6(A)に、左から2番目、下から2番目の注目している画素(i,j)に合わせてマスクM1が掛けられた状態を示す。このとき、マスクM1に対応する領域には符号1が9個存在するため、スコアは、9である。また、図6(B)に、左から2番目、下から2番目の注目している画素(i,j)に合わせてマスクM2が掛けられた状態を示す。このときのスコアは7である。車頭候補点検出部4は、マスキング処理において、注目している画素について、マスクの番号およびスコアを、当該画素の座標と組にして記憶する。たとえば、図6(A)に示された例では、座標(i,j)について、(i,j,M1,9)という情報が記憶される。また、図6(B)に示された例では、座標(i,j)について、(i,j,M2,7)という情報が記憶される。   In the masking process, the number of pixels having the code 1 existing in each mask is counted, and the counted number is used as a mask score. As an example of a state in which the mask is applied, FIG. 6A shows a state in which the mask M1 is applied in accordance with the pixel of interest (i, j) second from the left and second from the bottom. At this time, since the code 1 exists in the area corresponding to the mask M1, the score is 9. FIG. 6B shows a state in which a mask M2 is applied in accordance with the pixel (i, j) of interest that is second from the left and second from the bottom. The score at this time is 7. In the masking process, the vehicle head candidate point detection unit 4 stores the mask number and score for the pixel of interest in pairs with the coordinates of the pixel. For example, in the example shown in FIG. 6A, information (i, j, M1, 9) is stored for the coordinates (i, j). In the example shown in FIG. 6B, information (i, j, M2, 7) is stored for the coordinates (i, j).

再度、図3を参照して、車頭候補点検出部4は、マスキング処理の後、当該処理の結果を用いて、S4で、現在処理対象となっている画像中に撮影されていると考えられる車両の、車種および車頭候補点を決定する。具体的には、車頭候補点検出部4は、上記したように注目している画素に対して8種類のマスク(図5参照)を掛けた結果、最もスコアの高いマスクを選択する。なお、大型車用のマスクのスコアと小型車用のマスクのスコアとが同じであれば、小型車用のマスクを選択する。そして、車頭候補点検出部4は、選択されたマスク番号に対するスコアが一定のしきい値以上であれば、当該マスクに対応した車種を現在処理対象となっている画像中に撮影されていると考えられる車両の車種(大型車または小型車)とし、そして、そのマスクをもう一度掛けて、1である画素の分布に基づいて重心を求めることにより、当該重心を車頭候補点とする。   Referring to FIG. 3 again, it is considered that the vehicle head candidate point detecting unit 4 is photographed in the image currently being processed in S4 using the result of the processing after the masking processing. The vehicle type and vehicle head candidate point of the vehicle are determined. Specifically, the vehicle head candidate point detection unit 4 selects the mask with the highest score as a result of applying eight types of masks (see FIG. 5) to the pixel of interest as described above. If the score of the mask for the large vehicle is the same as the score of the mask for the small vehicle, the mask for the small vehicle is selected. Then, if the score for the selected mask number is equal to or greater than a certain threshold, the vehicle head candidate point detection unit 4 captures the vehicle type corresponding to the mask in the image currently being processed. A possible vehicle type (large vehicle or small vehicle) is set, and the mask is applied again, and the center of gravity is obtained based on the distribution of pixels that is 1, thereby setting the center of gravity as a vehicle head candidate point.

この結果、車頭候補点検出部4は、車頭候補点の座標、マスク番号、スコア最大値を組で記憶する。たとえば、図6(A)に示された場合であれば、重心の座標が(i,j+5)であるとすると、(i,j+5,M1,9)という情報が記憶される。そして、これ以降の処理では、画像データ、二値化データは使用されず、この車頭候補点の情報(車頭候補点の座標、マスク番号、スコア最大値)のみに基づいて、処理が進められる。   As a result, the vehicle head candidate point detection unit 4 stores the coordinates of the vehicle head candidate points, the mask number, and the maximum score value in pairs. For example, in the case shown in FIG. 6A, if the coordinates of the center of gravity are (i, j + 5), information (i, j + 5, M1, 9) is stored. In the subsequent processing, the image data and the binarized data are not used, and the processing proceeds based only on the information of the vehicle head candidate point (coordinates of the vehicle head candidate point, mask number, score maximum value).

再度、図3を参照して、S4の処理の後、制御部本体では、S5で、車頭有効点が抽出される。車頭有効点の抽出とは、具体的には、計測処理部5において、車頭候補点検出部4において記憶された複数の車頭候補点について、順に調べることにより、最も確からしい車頭位置(車頭有効点)を抽出することを言う。さらに具体的には、本実施の形態の車頭有効点の抽出では、特開平5−307695号公報に車頭有効点の抽出として記載されるように、計測処理部5は、近接する領域(例えばほぼ1台の車両が存在する領域)に車頭候補点がn個存在した場合、まず最初(n=1)の車頭候補点を車頭候補点検出部4から読出して、車頭有効点として登録する。次に、計測処理部5は、n=2以後の車頭候補点のスコア(スコア最大値)を順次車頭候補点検出部4から読出し、n=1の車頭有効点のスコアと比較して、スコアの大きい方を新たに車頭有効点として登録するか、または、車両の進行方向に近い点を新たに車頭有効点として登録する。そして、車頭有効点とならなかった車頭候補点を、車頭候補点検出部4における登録から削除するとともに、新たに車頭候補点を車頭有効点として登録した際には、当該車頭候補点と比較された車頭有効点の登録を削除する。このようにして、近接する複数の車頭候補点の中から1つの車頭有効点が決定される。   Referring to FIG. 3 again, after the process of S4, the vehicle head effective point is extracted in S5 in the control unit body. Specifically, the extraction of the vehicle head effective point means that the measurement processing unit 5 sequentially examines a plurality of vehicle head candidate points stored in the vehicle head candidate point detection unit 4 to find the most likely vehicle head position (vehicle head effective point). ) To extract. More specifically, in the extraction of the effective point of the vehicle head according to the present embodiment, as described in JP-A-5-307695 as the extraction of the effective point of the vehicle head, the measurement processing unit 5 has a region close to the vehicle (for example, approximately When there are n vehicle head candidate points in an area where one vehicle exists, the first (n = 1) vehicle head candidate points are first read from the vehicle head candidate point detection unit 4 and registered as vehicle head effective points. Next, the measurement processing unit 5 sequentially reads the score (maximum score value) of the vehicle head candidate points after n = 2 from the vehicle head candidate point detection unit 4 and compares it with the score of the vehicle head effective point of n = 1. The larger one of the two is newly registered as a vehicle head effective point, or a point close to the traveling direction of the vehicle is newly registered as a vehicle head effective point. When a vehicle head candidate point that has not become a vehicle head effective point is deleted from registration in the vehicle head candidate point detection unit 4 and a vehicle head candidate point is newly registered as a vehicle head effective point, it is compared with the vehicle head candidate point. Delete the registration of the valid vehicle head. In this way, one vehicle head effective point is determined from a plurality of vehicle head candidate points that are close to each other.

S5の処理の後、S6で、計測処理部5によって、車頭有効点が得られたかどうかを判断し、得られなかった場合には処理を終了させる。一方、車頭有効点が得られた場合には、S7で、当該車頭有効点の中から、車頭確定点が選出される。   After the process of S5, in S6, it is judged by the measurement process part 5 whether the vehicle head effective point was obtained, and a process is complete | finished when not obtained. On the other hand, when the vehicle head effective point is obtained, a vehicle head fixed point is selected from the vehicle head effective points in S7.

車頭確定点の選出とは、特開平5−307695号公報に車頭確定点の確定として記載されるように、計測処理部5が、当該計測処理部5において登録されている車頭有効点の位置を順に調べていき、車頭有効点がm個あるとすると、先ず最初の車頭有効点を車頭確定点として登録し、次に、次の車頭有効点と、車頭確定点として登録された車頭有効点とを比較し、両者の位置関係から、両点が、マスクに対応する大型車、小型車などの車両の長さ、幅の範囲内に入っているかどうかを判断する。そして、当該範囲内に入っていると判断すると、現在比較している車頭確定点と次の車頭有効点のうち、車両進行方向にある方を車頭確定点として選出し、他の点は車頭確定点の候補から削除する。このようにして、計測処理部5に登録されたそれぞれの車頭有効点について調べていき、残った車頭有効点を車頭確定点として選出し、保存する。   The selection of the vehicle head definite point means that the measurement processing unit 5 determines the position of the vehicle head effective point registered in the measurement processing unit 5 as described in Japanese Patent Application Laid-Open No. 5-307695 as definite vehicle head definite point. If there are m vehicle head effective points, the first vehicle head effective point is registered as the vehicle head definite point, then the next vehicle head effective point and the vehicle head effective point registered as the vehicle head definite point From the positional relationship between the two, it is determined whether or not both points are within the range of the length and width of a vehicle such as a large vehicle or a small vehicle corresponding to the mask. If it is determined that the vehicle is within the range, the vehicle head determination point and the next vehicle head effective point that are currently compared are selected as the vehicle head determination point, and the other points are determined as the vehicle head determination point. Delete from point candidates. In this way, each vehicle head effective point registered in the measurement processing unit 5 is examined, and the remaining vehicle head effective points are selected and stored as vehicle head fixed points.

次に、制御部本体では、S8で、背景画像作成部7によって、背景画像が作成される。背景画像作成部7は、図4に示したような、ITVカメラ1から画像入力部3を介して入力される画像信号に基づいて、背景画像を作成する。具体的には、背景画像作成部7は、ITVカメラ1が車両の走行する道路の複数の状態を撮影したことによって生成された複数の画像信号を平均化することにより、背景画像として、道路についての、車両を含まない画像を作成する。   Next, in the control unit main body, a background image is created by the background image creation unit 7 in S8. The background image creation unit 7 creates a background image based on an image signal input from the ITV camera 1 via the image input unit 3 as shown in FIG. Specifically, the background image creation unit 7 averages a plurality of image signals generated when the ITV camera 1 captures a plurality of states of a road on which the vehicle travels, thereby obtaining a background image for the road. Create an image that does not include the vehicle.

次に、S9で、計測処理部5によって、車頭確定点として選出された点を含む領域の画像と、当該車頭確定点に対応して作成された背景画像との、相違度Aの算出がなされる。   Next, in S9, the measurement processor 5 calculates the difference A between the image of the region including the point selected as the vehicle head definite point and the background image created corresponding to the vehicle definite point. The

ここで、車頭確定点の「近傍」の領域について、図7を参照して説明する。図7は、図1のITVカメラから出力される画像信号の配列の一例であって、車頭確定点の近傍の領域についての画像信号の配列を模式的に示す図である。   Here, the “near” region of the vehicle head definite point will be described with reference to FIG. FIG. 7 is an example of an arrangement of image signals output from the ITV camera of FIG. 1, and is a diagram schematically showing an arrangement of image signals for a region in the vicinity of the vehicle head definite point.

図7では、車頭確定点として選出されたサンプル点が「×」と記載されている。そして、図7に示された画像信号には、当該車頭確定点を車両の走行方向について先頭にかつ車両の幅方向について中心にして、車両の幅方向にΔξの10倍程度、車両の進行方向にΔηの10〜20倍程度の矩形領域内に存在するサンプル点が含まれている。なお、図7中の車両確定点が車両のバンパーの中央部分に対応すれば、図7に示されるような矩形領域は、多くの場合、車両のバンパーからフロントガラスの全面が検出される程度の面積を有する領域(図1中の領域βに対応する領域)と考えられる。   In FIG. 7, sample points selected as vehicle head definite points are described as “x”. The image signal shown in FIG. 7 includes the vehicle head definite point at the top in the vehicle traveling direction and the center in the vehicle width direction, and approximately 10 times Δξ in the vehicle width direction. Includes sample points that exist within a rectangular region of about 10 to 20 times Δη. If the vehicle fixed point in FIG. 7 corresponds to the central part of the bumper of the vehicle, the rectangular area as shown in FIG. 7 is often enough to detect the entire surface of the windshield from the bumper of the vehicle. A region having an area (a region corresponding to the region β in FIG. 1) is considered.

また、計測処理部5は、相違度Aを、次の式(1)に基づいて算出する。なお、式(1)において、Kは、車頭確定点として選出された点を含む領域(図7参照)に含まれるサンプル点の数であり、Xは、車頭確定点として選出された点を含む領域の画像におけるi番目のサンプル点の輝度であり、Bは、背景画像(図4参照)におけるi番目のサンプル点の輝度である。 Further, the measurement processing unit 5 calculates the degree of difference A based on the following equation (1). In Equation (1), K is the number of sample points included in a region (see FIG. 7) including the points selected as the vehicle head fixed point, and X i is the point selected as the vehicle head fixed point. This is the luminance of the i-th sample point in the image of the included region, and B i is the luminance of the i-th sample point in the background image (see FIG. 4).

Figure 2006091974
Figure 2006091974

S9で相違度Aが算出されると、次に、S10で、計測処理部5によって、算出された相違度Aが、予め定められた所定の値Lと比較される。所定の値Lは、予め計測処理部5内の所定のメモリに記憶されているものとする。そして、AがLよりも大きいと判断されれば、つまり、車頭確定点として選出された点を含む領域の画像と背景画像とが予め定められた程度を越えて相違していると判断されれば、処理は、S11に進められる。一方、AがL以下であれば、処理は、S12に進められる。   When the difference A is calculated in S9, the calculated difference A is compared with a predetermined value L by the measurement processing unit 5 in S10. The predetermined value L is assumed to be stored in a predetermined memory in the measurement processing unit 5 in advance. Then, if it is determined that A is greater than L, that is, it is determined that the image of the area including the point selected as the vehicle head decision point and the background image are different from each other beyond a predetermined level. If so, the process proceeds to S11. On the other hand, if A is L or less, the process proceeds to S12.

S11では、現在処理対象となっている車頭確定点が、確定されたものとして、計測処理部5によって当該計測処理部5内に保存されたままとされて、S13に処理が進められる。一方、S12では、現在処理対象となっている車頭確定点が、計測処理部5によって、当該計測処理部5から削除され、S13に処理が進められる。   In S11, it is assumed that the vehicle head fixed point which is the current processing target has been fixed, and is stored in the measurement processing unit 5 by the measurement processing unit 5, and the process proceeds to S13. On the other hand, in S12, the vehicle head definite point currently being processed is deleted from the measurement processing unit 5 by the measurement processing unit 5, and the process proceeds to S13.

S13では、計測処理部5に保存されているすべての車頭確定点について、S8〜S11の処理がなされたかについて判断がなされ、まだ、S11において確定されるような処理がなされていない車頭確定点があると判断されれば、S8に処理が戻される。一方、すべての車頭確定点についてS11において確定されるような処理がなされたと判断されると、S14に処理が進められる。   In S13, a determination is made as to whether or not the processing of S8 to S11 has been performed for all vehicle head fixed points stored in the measurement processing unit 5, and there are still vehicle head fixed points that have not been processed in S11. If it is determined that there is, the process returns to S8. On the other hand, if it is determined that the process for determining all the vehicle head determined points in S11 has been performed, the process proceeds to S14.

以上説明したS1〜S13の処理によって、制御部本体では、ITVカメラ1の撮影した或るフレームについて、画像内の車両の先頭に対応する点(車頭確定点)が得られたことになる。   Through the processes of S1 to S13 described above, the control unit main body has obtained a point (vehicle head definite point) corresponding to the head of the vehicle in the image for a certain frame captured by the ITV camera 1.

そして、S14では、計測処理部5によって、当該計測処理部5において確定された車頭確定点を用いた、車両の速度の算出が実行された後、S15に処理が進められる。具体的には、車両の速度は、現在処理対象となったフレームの計測領域内の車頭確定点と、1フレーム前の計測領域内に見出された車頭確定点との位置関係を調べ、車両の速度を計算する。なお、車両の速度の算出についても、特開平5−307695号公報等に記載された周知の技術を適用することができる。   In S14, the measurement processing unit 5 calculates the speed of the vehicle using the vehicle head fixed point determined in the measurement processing unit 5, and then the process proceeds to S15. Specifically, the vehicle speed is determined by examining the positional relationship between the vehicle head fixed point in the measurement area of the currently processed frame and the vehicle head fixed point found in the measurement area one frame before. Calculate the speed of Note that the well-known technique described in Japanese Patent Laid-Open No. 5-307695 can also be applied to the calculation of the vehicle speed.

そして、S15では、計測処理部5によって、当該計測処理部5において確定された車頭確定点(の位置情報)、当該車頭確定点に対応する車両の車種(大型車または小型車)、および、当該車両の速度が、交通流計測の結果として、伝送部6を介して、外部の装置に出力されて、交通流計測処理が終了される。   In S15, the vehicle processing point 5 determined by the measurement processing unit 5 (position information thereof), the vehicle type (large vehicle or small vehicle) of the vehicle corresponding to the vehicle head determination point, and the vehicle Is output to an external device via the transmission unit 6 as a result of the traffic flow measurement, and the traffic flow measurement process is terminated.

以上説明した本実施の形態では、ITVカメラ1によって撮影された画像に対して、空間微分、二値化、マスキング等によって選出された車頭確定点が、さらに、当該車頭確定点の周辺画像(車頭確定点として選出された点を含む領域の画像)と背景画像とを比較され、当該比較結果に基づいて、確定されるか否かが決定される。具体的には、車頭確定点の周辺画像と背景画像とが予め定められた程度を越えて相違していると判断されれば、当該車頭確定点は、車頭確定点として計測処理部5で保存されるが、そうでない場合には、当該車頭確定点は、計測処理部5の記憶から削除される。このような処理により、道路上に木の葉の影が生じ、ITVカメラ1の撮影した画像において当該木の葉の影に対応するサンプル点が誤って車頭確定点としてS7で選出されても、そのような車頭確定点を、S8からS12の処理において、削除することができる。そのような木の葉の影は、背景画像にも含まれると考えられるためである。つまり、そのような木の葉の影を含む画像が背景画像と比較された場合には、これらの画像が、予め定められた程度を越えて相違することはないと考えられるからである。したがって、このような点も考慮されて、上記の値Lが決定されるべきなのである。   In the present embodiment described above, a vehicle head definite point selected by spatial differentiation, binarization, masking, etc. with respect to an image taken by the ITV camera 1 is further displayed as a peripheral image of the vehicle definite point (vehicle head). The image of the region including the point selected as the fixed point) is compared with the background image, and it is determined whether or not to be fixed based on the comparison result. Specifically, if it is determined that the peripheral image of the vehicle head definite point and the background image are different from each other beyond a predetermined level, the vehicle definite point is stored in the measurement processing unit 5 as the vehicle definite point. However, otherwise, the vehicle head definite point is deleted from the storage of the measurement processing unit 5. By such processing, a shadow of a leaf of the tree is generated on the road, and even if a sample point corresponding to the shadow of the leaf of the tree is erroneously selected in S7 as the vehicle head definite point in the image taken by the ITV camera 1, such a vehicle head The fixed point can be deleted in the processing from S8 to S12. This is because such a shadow of a leaf is considered to be included in the background image. That is, when such an image including a leaf shadow is compared with a background image, it is considered that these images do not differ beyond a predetermined level. Therefore, the above value L should be determined in consideration of such points.

また、本実施の形態では、上記したような予め定められた程度を越えて相違するかどうかについて判断するための処理として、相違度Aを算出してその値を判断したが、本発明におけるこのような処理は、相違度の算出に限定されない。たとえば、車頭確定点の周辺画像と背景画像について、類似度(たとえば、正規化相関)を求め、当該類似度が所定の値未満であれば、車頭確定点の周辺画像と背景画像とが予め定められた程度を越えて相違すると判断されても良い。   Further, in the present embodiment, as a process for determining whether or not the difference exceeds a predetermined degree as described above, the difference A is calculated and the value is determined. Such processing is not limited to calculation of the degree of difference. For example, the degree of similarity (for example, normalized correlation) is obtained for the surrounding image and background image of the vehicle head fixed point, and if the similarity is less than a predetermined value, the surrounding image and background image of the vehicle head fixed point are determined in advance. It may be determined that the difference exceeds the specified level.

本実施の形態では、車頭確定点の周辺画像と背景画像とが予め定められた程度を越えて相違すると判断されたなかった場合、当該車頭確定点が削除される。つまり、「車頭確定点の周辺画像と背景画像との相違度が予め定められた程度以下である場合」が、「車頭点を含む画像の中の車頭点の近傍の画像と、背景画像との、類似する度合いが所定の度合い以上である場合」に相当する。   In the present embodiment, when it is not determined that the peripheral image of the vehicle head fixed point and the background image are different from each other beyond a predetermined level, the vehicle head fixed point is deleted. That is, “when the degree of difference between the surrounding image of the vehicle head definite point and the background image is equal to or less than a predetermined level” is “the image near the vehicle head point in the image including the vehicle head point and the background image. Corresponds to a case where the degree of similarity is greater than or equal to a predetermined degree.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明の一実施の形態である交通流計測装置における、ITVカメラの設置例を示す図である。It is a figure which shows the example of installation of the ITV camera in the traffic flow measuring device which is one embodiment of this invention. 図1の交通流計測装置の電気構成を示す図である。It is a figure which shows the electric constitution of the traffic flow measuring apparatus of FIG. 図2の制御部本体で実行される交通流計測処理のフローチャートである。It is a flowchart of the traffic flow measurement process performed with the control part main body of FIG. 図1のITVカメラから出力される画像信号の配列の一例を模式的に示す図である。It is a figure which shows typically an example of the arrangement | sequence of the image signal output from the ITV camera of FIG. 図2の車頭候補点検出部に用意された8種類のマスクを模式的に示す図である。It is a figure which shows typically eight types of masks prepared for the vehicle head candidate point detection part of FIG. (A)は、図3のマスキング処理において、注目画素にマスクM1が掛けられた状態を説明するための図であり、(B)は、注目画素にマスクM2が掛けられた状態を説明するための図である。(A) is a figure for demonstrating the state by which mask M1 was applied to the attention pixel in the masking process of FIG. 3, (B) is for demonstrating the state by which mask M2 was applied to the attention pixel. FIG. 図1のITVカメラから出力される画像信号の配列の一例であって、車頭確定点の近傍の領域についての画像信号の配列を模式的に示す図である。FIG. 2 is an example of an array of image signals output from the ITV camera of FIG. 1, and is a diagram schematically illustrating an array of image signals for a region in the vicinity of a vehicle head definite point.

符号の説明Explanation of symbols

1 ITVカメラ、2 制御部、3 画像入力部、4 車頭候補点検出部、5 計測処理部、6 伝送部、7 背景画像作成部、8 電源部。   DESCRIPTION OF SYMBOLS 1 ITV camera, 2 control part, 3 image input part, 4 vehicle head candidate point detection part, 5 measurement process part, 6 transmission part, 7 background image creation part, 8 power supply part.

Claims (5)

道路を撮影するステップと、
前記道路を撮影することによって得られた画像に対して複数のサンプル点を定義し、当該複数のサンプル点の輝度を検出するステップと、
前記複数のサンプル点の輝度に基づいて、前記道路を撮影することによって得られた画像における車頭位置の候補となる点である車頭点を決定するステップと、
前記車頭点を特定する情報を記憶するステップと、
前記車頭点を含む画像の中の前記車頭点の近傍の画像を、前記車頭点の近傍の画像であって車両を含まない画像である背景画像と比較することにより、これらの画像が類似する度合いを算出するステップと、
前記車頭点を含む画像の中の前記車頭点の近傍の画像と前記背景画像との類似する度合いが所定の度合い以上である場合には、前記車頭点を特定する情報の記憶を削除するステップとを備える、交通流計測方法。
Shooting the road,
Defining a plurality of sample points for an image obtained by photographing the road, and detecting the luminance of the plurality of sample points;
Determining a vehicle head point that is a candidate vehicle head position in an image obtained by photographing the road based on the brightness of the plurality of sample points;
Storing information identifying the vehicle head point;
The degree of similarity between these images by comparing an image in the vicinity of the vehicle head point in the image including the vehicle head point with a background image that is an image in the vicinity of the vehicle head point and does not include a vehicle. Calculating steps,
If the degree of similarity between the image near the vehicle head point in the image including the vehicle head point and the background image is greater than or equal to a predetermined level, deleting the information specifying the vehicle head point; and A traffic flow measuring method comprising:
車両が走行する状態の前記道路の複数の画像を撮影するステップと、
車両が走行する状態の前記道路の複数の画像を重ね合わせて平均化することにより、前記背景画像を作成するステップとをさらに備える、請求項1に記載の交通流計測方法。
Capturing a plurality of images of the road in a state in which the vehicle is traveling;
The traffic flow measuring method according to claim 1, further comprising: creating the background image by superimposing and averaging a plurality of images of the road in a state where the vehicle is traveling.
前記車頭点の近傍は、前記車頭点を中心とされ、前記道路における車両の走行方向に交わる方向について、車両に相当する幅を有する領域である、請求項1または請求項2に記載の交通流計測方法。   3. The traffic flow according to claim 1, wherein the vicinity of the vehicle head point is a region having a width corresponding to a vehicle with respect to a direction intersecting with a traveling direction of the vehicle on the road centered on the vehicle head point. Measurement method. 前記画像が類似する度合いを算出するステップでは、前記車頭点を含む画像の中の前記車頭点の近傍の画像と、前記背景画像との、相違度が算出され、
前記車頭点を特定する情報の記憶を削除するステップでは、前記相違度が所定の値以下の場合に、前記車頭点を含む画像の中の前記車頭点の近傍の画像と前記背景画像との類似する度合いが所定の度合い以上であるとされる、請求項1〜請求項3のいずれかに記載の交通流計測方法。
In the step of calculating the degree of similarity of the images, the degree of difference between the image near the vehicle head point in the image including the vehicle head point and the background image is calculated,
In the step of deleting the storage of the information specifying the vehicle head point, when the difference is a predetermined value or less, the similarity between the image in the vicinity of the vehicle head point in the image including the vehicle head point and the background image The traffic flow measuring method according to any one of claims 1 to 3, wherein a degree to be performed is greater than or equal to a predetermined degree.
道路の側に設置され道路を撮影するカメラと、
前記カメラの撮影した画像に対して複数のサンプル点を定義し、当該複数のサンプル点の輝度を検出する輝度検出手段と、
前記複数のサンプル点の輝度に基づいて、前記カメラの撮影した画像における車頭位置の候補となる点である車頭点を決定する車頭点決定手段と、
前記車頭点を特定する情報を記憶する車頭点記憶手段と、
前記車頭点を含む画像の中の前記車頭点の近傍の画像を、前記カメラに撮影された画像に基づいて作成された前記車頭点の近傍の画像であって車両を含まない画像である背景画像と比較することにより、これらの画像が類似する度合いを算出する類似度合い算出手段と、
前記類似度合い算出手段が、前記車頭点を含む画像の中の前記車頭点の近傍の画像と前記背景画像の類似する度合いが所定の度合い以上である場合には、前記車頭点を特定する情報を前記車頭点記憶手段の記憶から削除する車頭点削除手段とを備える、交通流計測装置。
A camera installed on the side of the road and shooting the road;
A plurality of sample points for an image captured by the camera, and a luminance detecting means for detecting the luminance of the plurality of sample points;
Vehicle head point determination means for determining a vehicle head point, which is a candidate point of the vehicle head position in the image captured by the camera, based on the luminance of the plurality of sample points;
Vehicle head point storage means for storing information identifying the vehicle head point;
A background image that is an image in the vicinity of the vehicle head point that is created based on an image photographed by the camera, and is an image that does not include a vehicle, in the image including the vehicle head point. A similarity degree calculating means for calculating the degree of similarity between these images by comparing with
If the degree of similarity between the image near the vehicle head point in the image including the vehicle head point and the background image is greater than or equal to a predetermined degree, the similarity degree calculating means includes information for specifying the vehicle head point. A traffic flow measuring device comprising: a vehicle head point deletion unit that deletes the vehicle head point storage unit from the storage.
JP2004273270A 2004-09-21 2004-09-21 Traffic flow measurement method and apparatus Expired - Fee Related JP4635536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004273270A JP4635536B2 (en) 2004-09-21 2004-09-21 Traffic flow measurement method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004273270A JP4635536B2 (en) 2004-09-21 2004-09-21 Traffic flow measurement method and apparatus

Publications (2)

Publication Number Publication Date
JP2006091974A true JP2006091974A (en) 2006-04-06
JP4635536B2 JP4635536B2 (en) 2011-02-23

Family

ID=36232927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004273270A Expired - Fee Related JP4635536B2 (en) 2004-09-21 2004-09-21 Traffic flow measurement method and apparatus

Country Status (1)

Country Link
JP (1) JP4635536B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081996A (en) * 2019-11-19 2021-05-27 トヨタ自動車株式会社 Image processing system, processing unit, repeating device, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10239606B2 (en) 2013-12-04 2019-03-26 Tamarack Aerospace Group, Inc. Airflow interrupting devices

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05307695A (en) * 1992-04-28 1993-11-19 Sumitomo Electric Ind Ltd Method for traffic stream measurement processing and device therefor
JPH08317373A (en) * 1995-05-17 1996-11-29 Hitachi Denshi Ltd System for detecting and extracting object in video monitoring device
JP2001256485A (en) * 2000-03-14 2001-09-21 Hitachi Ltd System for discriminating vehicle kind

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05307695A (en) * 1992-04-28 1993-11-19 Sumitomo Electric Ind Ltd Method for traffic stream measurement processing and device therefor
JPH08317373A (en) * 1995-05-17 1996-11-29 Hitachi Denshi Ltd System for detecting and extracting object in video monitoring device
JP2001256485A (en) * 2000-03-14 2001-09-21 Hitachi Ltd System for discriminating vehicle kind

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021081996A (en) * 2019-11-19 2021-05-27 トヨタ自動車株式会社 Image processing system, processing unit, repeating device, and program
JP7238738B2 (en) 2019-11-19 2023-03-14 トヨタ自動車株式会社 Image processing system, processing device, relay device and program

Also Published As

Publication number Publication date
JP4635536B2 (en) 2011-02-23

Similar Documents

Publication Publication Date Title
CN109460709B (en) RTG visual barrier detection method based on RGB and D information fusion
JP2917661B2 (en) Traffic flow measurement processing method and device
US8995723B2 (en) Detecting and recognizing traffic signs
US8634593B2 (en) Pixel-based texture-less clear path detection
JP5747549B2 (en) Signal detector and program
CN101599175B (en) Detection method for determining alteration of shooting background and image processing device
CN110737266B (en) Automatic driving control method and device, vehicle and storage medium
US11371851B2 (en) Method and system for determining landmarks in an environment of a vehicle
JP5019375B2 (en) Object detection apparatus and object detection method
CN107909012B (en) Real-time vehicle tracking detection method and device based on disparity map
JP2008158958A (en) Road surface determination method and road surface determination device
CN106951898B (en) Vehicle candidate area recommendation method and system and electronic equipment
US10762372B2 (en) Image processing apparatus and control method therefor
CN109916415B (en) Road type determination method, device, equipment and storage medium
US20170169299A1 (en) Vehicle detection method based on thermal imaging
CN111967396A (en) Processing method, device and equipment for obstacle detection and storage medium
JP3812384B2 (en) Leading vehicle recognition device
CN108509826B (en) Road identification method and system for remote sensing image
KR101026778B1 (en) Vehicle image detection apparatus
KR101236223B1 (en) Method for detecting traffic lane
JP2008040736A (en) Vehicle detector and vehicle detecting method
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP3914447B2 (en) Image-type vehicle detection system and image-type vehicle detection method
CN115690441A (en) Traffic signal lamp area detection method, device and equipment
JP4635536B2 (en) Traffic flow measurement method and apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees