JP4668754B2 - Traffic flow measuring device - Google Patents

Traffic flow measuring device Download PDF

Info

Publication number
JP4668754B2
JP4668754B2 JP2005285752A JP2005285752A JP4668754B2 JP 4668754 B2 JP4668754 B2 JP 4668754B2 JP 2005285752 A JP2005285752 A JP 2005285752A JP 2005285752 A JP2005285752 A JP 2005285752A JP 4668754 B2 JP4668754 B2 JP 4668754B2
Authority
JP
Japan
Prior art keywords
vehicle
coordinate position
traffic flow
image
center point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005285752A
Other languages
Japanese (ja)
Other versions
JP2007094919A (en
Inventor
隆宏 三原
浩朗 富田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005285752A priority Critical patent/JP4668754B2/en
Publication of JP2007094919A publication Critical patent/JP2007094919A/en
Application granted granted Critical
Publication of JP4668754B2 publication Critical patent/JP4668754B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

この発明は、特にトンネルなどの囲まれた箇所における車両の交通流の計測を効率的に行う交通流計測装置に関するものである。   The present invention relates to a traffic flow measuring device that efficiently measures the traffic flow of a vehicle, particularly in a place surrounded by a tunnel or the like.

従来の交通流計測装置は、様々な手法を用いて個別車両を検出・追跡・速度計測を行っていた。例えば車両に発生するエッジ分散量とその対称性に注目し車両検出を行っていた(例えば、特許文献1参照)。また、他の従来の場合は、レンズ絞りを調整して所望な撮像画像を得る手法が提案されている(例えば、特許文献2参照)。   Conventional traffic flow measuring devices detect, track, and measure individual vehicles using various methods. For example, the vehicle detection is performed by paying attention to the edge dispersion amount generated in the vehicle and its symmetry (see, for example, Patent Document 1). In another conventional case, a method for obtaining a desired captured image by adjusting a lens diaphragm has been proposed (for example, see Patent Document 2).

特開2002−358595号公報JP 2002-358595 A 特開平7−210795号公報Japanese Patent Laid-Open No. 7-210795

従来の交通流計測装置は、先の従来の場合には、トンネル等の囲まれた箇所における対向車線を有する路線で車両検出を行う場合、対向車両のヘッドライトが非常に高い輝度を持っているため高感度カメラで、かつ、レンズ絞りを開いた状態で撮像すると、撮像面において輝度が飽和した状態(以後、当該現象を「ハレーション」と呼ぶ)となり、人間の目から見ても車両物体形状が認識できない状態となる。よってこのような状態では車両検出を行うことができないという問題点があった。後の従来の場合には、対向車のハレーションが抑制でき、車両物体形状が認識可能になると、相対的に順行車両の輝度レベルが下がり車両物体形状が認識できなくなるという問題点があった。これは順行車両と対向車両とが発生する光量が異なるため、どちらか一方車線の車両を検知しやすい映像にカメラ絞りを変更するともう一方車線の車両が見えなくなる、もしくはハレーションを起こして車両形状が特定できなくなってしまうという問題点があった。さらに、レンズ絞りを調整するためには絞りを制御する機構が必要であるが、遠隔監視を目的とする道路監視システムにおいては撮像地点と画像処理地点とが隣接しておらず、カメラ制御信号を敷設する必要が発生しコストが高くなるという問題点があった。   In the conventional traffic flow measuring device, in the case of the previous conventional technology, the headlight of the oncoming vehicle has a very high luminance when performing vehicle detection on the route having the oncoming lane in the enclosed area such as a tunnel. Therefore, if an image is taken with a high-sensitivity camera and with the lens aperture opened, the luminance is saturated on the imaging surface (hereinafter, this phenomenon is referred to as “halation”), and the vehicle object shape is seen from the human eye. Cannot be recognized. Therefore, there is a problem that vehicle detection cannot be performed in such a state. In the conventional case later, when the oncoming vehicle halation can be suppressed and the vehicle object shape can be recognized, the luminance level of the forward vehicle is relatively lowered, and the vehicle object shape cannot be recognized. This is because the amount of light generated by the forward vehicle and the oncoming vehicle is different, so if you change the camera aperture to an image that makes it easy to detect the vehicle in one lane, the vehicle in the other lane will not be visible or the shape of the vehicle will cause halation There was a problem that could not be identified. Furthermore, in order to adjust the lens aperture, a mechanism for controlling the aperture is required. However, in a road monitoring system for remote monitoring, the imaging point and the image processing point are not adjacent, and the camera control signal is There was a problem that it was necessary to lay and the cost increased.

この発明は上記のような課題を解決するためになされたものであり、ハレーションなどがおこりやすいトンネルなどの囲まれた箇所における車両の交通流の計測を効率的かつ低コストにて行う交通流計測装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and is a traffic flow measurement that efficiently and inexpensively measures the traffic flow of a vehicle in an enclosed area such as a tunnel where halation is likely to occur. An object is to provide an apparatus.

この発明は、所定の周期で所定の範囲の画像を撮像する画像撮像部と、画像から車両の座標位置を検出する車両検出部とを備え、車両の座標位置から交通情報を作成する交通流計測装置において、
画像を構成する画素群の各画素の座標位置は、画像撮像部に定義された座標上に定められ、
車両検出部は、画像に輝度の飽和部分が存在すると、
飽和部分を構成する画素群の画素の座標位置に対して、その飽和部分を代表する代表座標位置を定める所定の座標特定手段を施すことにより代表座標位置を求め、
求めた代表座標位置を車両の座標位置とするものである。
The present invention includes an image capturing unit that captures an image in a predetermined range at a predetermined cycle, and a vehicle detection unit that detects a coordinate position of the vehicle from the image, and generates traffic information from the coordinate position of the vehicle. In the device
The coordinate position of each pixel of the pixel group constituting the image is determined on the coordinates defined in the image capturing unit,
When the vehicle detection unit has a saturated portion of brightness in the image,
For a coordinate position of a pixel of a pixel group constituting the saturated portion, a representative coordinate position is obtained by applying a predetermined coordinate specifying means for determining a representative coordinate position representing the saturated portion,
The obtained representative coordinate position is used as the coordinate position of the vehicle.

この発明の交通流計測装置は、所定の周期で所定の範囲の画像を撮像する画像撮像部と、画像から車両の座標位置を検出する車両検出部とを備え、車両の座標位置から交通情報を作成する交通流計測装置において、
画像を構成する画素群の各画素の座標位置は、画像撮像部に定義された座標上に定められ、
車両検出部は、画像に輝度の飽和部分が存在すると、
飽和部分を構成する画素群の画素の座標位置に対して、その飽和部分を代表する代表座標位置を定める所定の座標特定手段を施すことにより代表座標位置を求め、
求めた代表座標位置を車両の座標位置とするので、ハレーションなどがおこりやすいトンネルなどの囲まれた箇所における車両の検出が可能となり、延いては車両の交通流の計測を効率的に行うことができる。
The traffic flow measuring apparatus of the present invention includes an image capturing unit that captures an image in a predetermined range at a predetermined cycle, and a vehicle detection unit that detects a coordinate position of the vehicle from the image, and obtains traffic information from the coordinate position of the vehicle. In the traffic flow measuring device to be created,
The coordinate position of each pixel of the pixel group constituting the image is determined on the coordinates defined in the image capturing unit,
When the vehicle detection unit has a saturated portion of brightness in the image,
For a coordinate position of a pixel of a pixel group constituting the saturated portion, a representative coordinate position is obtained by applying a predetermined coordinate specifying means for determining a representative coordinate position representing the saturated portion,
Since the obtained representative coordinate position is used as the vehicle coordinate position, it is possible to detect the vehicle in a place surrounded by a tunnel or the like where halation is likely to occur, so that the traffic flow of the vehicle can be efficiently measured. it can.

実施の形態1.
以下、本願発明の実施の形態について説明する。図1はこの発明の実施の形態1における交通流計測装置の構成を示すブロック図、図2は実施の形態1における対向車線の車両がハレーションを起こし車両形状が特定不可能となる状況図、図3はこの発明の実施の形態1における対向車線のラスタスキャンを行い輝度分布を算出し、輝度飽和中心点列を求めている状況図、図4はこの発明の実施の形態1における輝度飽和中心点列から光源中心点を求めている状況図である。図において、交通流計測装置は以下のものにて構成されている。画像撮像部10は、例えば監視用ITVカメラなどの撮像素子により所定の周期で画像を撮像し、その画像をデジタルデータとして記憶するものである。
Embodiment 1 FIG.
Embodiments of the present invention will be described below. FIG. 1 is a block diagram showing a configuration of a traffic flow measuring apparatus according to Embodiment 1 of the present invention, and FIG. 2 is a situation diagram in which a vehicle in an opposite lane causes halation in Embodiment 1 and the vehicle shape cannot be specified. 3 is a situation diagram in which a luminance distribution is calculated by performing a raster scan of the oncoming lane in Embodiment 1 of the present invention, and a luminance saturation center point sequence is obtained, and FIG. 4 is a luminance saturation center point in Embodiment 1 of the present invention. It is a situation figure which calculates | requires the light source center point from the row | line | column. In the figure, the traffic flow measuring device is composed of the following. The image capturing unit 10 captures an image at a predetermined cycle by an image sensor such as a monitoring ITV camera, and stores the image as digital data.

車両検出部11は、撮像画像上の監視を必要とする車線上に存在する車両を、車両のライト光の輝度の飽和値に達している場合、そのライト光の光源中心点を検出して車両の検出を行うものである。車両追跡部12は、車両検出部11で検出した車両を時間軸に対して追跡し、個別車両毎の追跡情報を算出するものである。車両速度算出部13は、車両追跡部12において追跡を行っている個別車両に対して移動速度情報を算出するものである。交通流計測部14は、車両速度算出部13によって計測された個別車両の情報から交通事象の判定を行うもので、停止、低速、速度超過の個別車両単体において発生する事象や、渋滞や避走走行・車両同士の車間警告という複数車両間において発生する事象を統合検出するものである。   When the vehicle detection unit 11 reaches the saturation value of the brightness of the light light of the vehicle, the vehicle detection unit 11 detects the light source center point of the light when the vehicle existing on the lane that needs to be monitored on the captured image has been reached. Is detected. The vehicle tracking unit 12 tracks the vehicle detected by the vehicle detection unit 11 with respect to the time axis, and calculates tracking information for each individual vehicle. The vehicle speed calculation unit 13 calculates movement speed information for an individual vehicle that is being tracked by the vehicle tracking unit 12. The traffic flow measurement unit 14 determines a traffic event from the information on the individual vehicle measured by the vehicle speed calculation unit 13. The traffic flow measurement unit 14 determines an event that occurs in an individual vehicle alone, such as a stop, a low speed, and an overspeed, a traffic jam or a runaway. An event that occurs between a plurality of vehicles, such as travel and inter-vehicle warning, is detected in an integrated manner.

次に上記のように構成された実施の形態1の交通流計測装置の動作について説明する。まず、画像撮像部10が所定の周期で画像を撮像し、その画像をデジタルデータとして記憶する。次に、車両検出部11は、画像撮像部10にて撮像された撮像画像から監視を必要とする車線上に存在する車両を検出する。この際、画像撮像部10の撮像画像として図2に示すように、道路が囲まれた箇所にて撮像された例えばトンネル内にて撮像された場合、車両のライト光がハレーション部分Aを発生する可能性がある。よって、このようにハレーション部分Aが発生した車両は、図2で示すように車両の存在する周辺の輝度が飽和してしまい、車両の形状そのものが見えず、全く映っていない状態となる。この場合、撮像画像から直接的に車両を検出することができない。 Next, the operation of the traffic flow measuring apparatus according to Embodiment 1 configured as described above will be described. First, the image capturing unit 10 captures an image at a predetermined cycle and stores the image as digital data. Next, the vehicle detection unit 11 detects a vehicle that exists on the lane that requires monitoring from the captured image captured by the image capturing unit 10. In this case, as a captured image of the image capturing unit 10 as shown in FIG. 2, if the road taken by the imaged for example in tunnels in the enclosed portion, light beams of the vehicle generates a halation portion A 1 there's a possibility that. Therefore, such vehicles halation portion A 1 is generated as is becomes saturated peripheral luminance presence of the vehicle as shown in Figure 2, the shape itself of the vehicle can not be seen in a state that is not at all reflected. In this case, the vehicle cannot be detected directly from the captured image.

そこで、本発明ではこのライト光の輝度が飽和することを利用して車両の検出を行う。図3に示すように、対向車線領域の周辺におけるY軸の任意の点にて、X軸方向にラスタスキャンを行う。次に、輝度勾配分析を行う。すると、ハレーション部分Aでは輝度の頭打ち(飽和値)が発生している。尚、輝度の飽和値の値とは、画像撮像部の例えばカメラなどのAD変換特性に依存しており、通常の場合には図3にて示した235という値が飽和値を採ることが多い。よって、飽和値はその周辺の値を用いることとする。次に、この現象を利用してX軸の右側からの輝度勾配探索と左側からの輝度勾配探索とを同時に行い、輝度が飽和値に達しているX、Xをそれぞれ検出する。次に、その輝度が飽和値に達しているXとXとのX軸の中心点Xを決定する。そして、この作業をY軸の任意の点に対して繰り返し行っていく。そして、X軸方向のラスタスキャンにより決定された飽和値の中心点列aが検出される。そして、この中心点列aからY軸に対して並行な、すなわち図4で示すような、傾き0の1次近似直線Bを求める。 Therefore, in the present invention, the vehicle is detected by utilizing the saturation of the light light. As shown in FIG. 3, a raster scan is performed in the X-axis direction at an arbitrary point on the Y-axis around the opposite lane region. Next, luminance gradient analysis is performed. Then, the halation portion A 1 luminance plateau of (saturation value) is generated. Note that the value of the saturation value of luminance depends on the AD conversion characteristics of the image capturing unit such as a camera, and the value of 235 shown in FIG. . Therefore, the saturation value is a value around it. Next, using this phenomenon, a luminance gradient search from the right side of the X axis and a luminance gradient search from the left side are simultaneously performed, and X 1 and X 2 at which the luminance reaches a saturation value are detected. Next, the brightness determines the center point X 3 X-axis of the X 1 and X 2 has reached a saturation value. This operation is repeated for any point on the Y axis. Then, the center point sequence a 1 of the saturation value determined by the raster scan in the X-axis direction is detected. Then, a parallel to the Y-axis from the center point sequence a 1, i.e. as shown in Figure 4, obtains a first-order approximation straight line B 1 gradient 0.

次に、求められた近似直線Bに属し、X軸の中心点Xが一定数以上連続する部分の中心点列aのY軸方向に対するY軸の中心点Yを決定する。そして、図で示すように、ハレーションを発生させた車両の光源中心点C(X、Y)が求められる。また、後続の車両のハレーション部分Aに対しても上記に示した同様の処理を行い、中心点列aを求め、光源中心点Cを検出する。次に、車両追跡部12にて車両検出部11で検出した車両すなわち光源中心点C、Cを時間軸に対してそれぞれ追跡し、個別車両毎の追跡情報を算出する。例えば、車両検出部にて検出された車両の位置の経時的変化を追跡する。次に、車両速度算出部13にて車両追跡部12において追跡を行っている個別車両に対して移動速度情報を算出する。次に、交通流計測部14にて車両速度算出部13によって計測された個別車両の情報から交通事象の判定を行う。これにより、停止、低速、速度超過の個別車両単体において発生する事象や、渋滞や避走走行・車両同士の車間警告という複数車両間において発生する事象を統合検出することができる。 Next, the Y-axis center point Y 1 with respect to the Y-axis direction of the center point row a 1 of the portion belonging to the obtained approximate straight line B 1 and having a predetermined number or more of the X-axis center points X 3 is determined. Then, as shown in the figure, the light source center point C 1 (X 3 , Y 1 ) of the vehicle that has caused halation is obtained. Also it performs the same processing as shown above, determine the center point sequence a 2, to detect the light source center point C 2 with respect to halation portion A 2 of the subsequent vehicle. Next, the vehicle tracking unit 12 tracks the vehicle detected by the vehicle detection unit 11, that is, the light source center points C 1 and C 2 with respect to the time axis, and calculates tracking information for each individual vehicle. For example, a change with time of the position of the vehicle detected by the vehicle detection unit is tracked. Next, the vehicle speed calculation unit 13 calculates movement speed information for the individual vehicle tracked by the vehicle tracking unit 12. Next, the traffic event is determined from the information on the individual vehicle measured by the vehicle speed calculation unit 13 in the traffic flow measurement unit 14. As a result, it is possible to integrally detect events that occur in individual vehicles, such as stop, low speed, and excessive speed, and events that occur between multiple vehicles such as traffic jams, avoidance travel, and inter-vehicle warnings.

上記のように構成された実施の形態1の交通流計測装置によれば、車両形状の特定不可能なハレーションを発生させた車両に対する車両検出処理を、ライト光の輝度の飽和値の光源中心点を検出することにより車両の検出を可能としているため、効率よく、かつ、低コスト、かつ、精度の高い交通流の計測を行うことが可能となる。また、車両追跡部において、車両検出部にて検出された車両の位置の経時的変化を追跡して後処理を行うようにしているため、正確な速度、延いては、正確な交通事情の判定を行うことができる。   According to the traffic flow measuring apparatus of the first embodiment configured as described above, the vehicle detection process for the vehicle that has caused the halation in which the vehicle shape cannot be specified is performed, and the light source center point of the saturation value of the light light brightness By detecting the vehicle, the vehicle can be detected. Therefore, it is possible to measure the traffic flow efficiently, at low cost and with high accuracy. In addition, since the vehicle tracking unit tracks the change over time of the vehicle position detected by the vehicle detection unit and performs post-processing, it can accurately determine the speed and thus the traffic situation. It can be performed.

尚、上記の実施の形態1にて示した交通流量計測装置によれば、車両検出部において、車両のライト光の輝度の飽和値の光源中心点を検出して車両の検出を行う例を示したが、当然のことながら、撮像画像において車両の形状そのものが見えるような場合などは、撮像画像の車両の形状そのものから車両を検出し、上記実施の形態1にて示した場合と交えて車両の検出を行い以下の他の処理を行うことは言うまでもなく。以下の実施の形態においても同様のことが言えるためその説明は適宜省略する。   In addition, according to the traffic flow measuring apparatus shown in the first embodiment, the vehicle detection unit detects the vehicle by detecting the light source central point of the saturation value of the light light of the vehicle. However, as a matter of course, when the vehicle shape itself can be seen in the captured image, the vehicle is detected from the vehicle shape itself of the captured image, and the vehicle is combined with the case described in the first embodiment. Needless to say, the following processing is performed. Since the same can be said for the following embodiments, the description thereof will be omitted as appropriate.

実施の形態2.
図5はこの発明の実施の形態2における交通流計測装置の構成を示すブロック図、図6はこの発明の実施の形態2における対向車線車両のライト光の路面への移り込みを表す状況図、図7はこの発明の実施の形態2における車両判定評価結果を説明するための状況図、図8は図5に示した交通流計測装置の車両検出部の動作を説明するためのフローチャートである。図において、上記実施の形態1と同様の部分は同一符号を付して説明を省略する。車両検出部110は、撮像画像上の監視を必要とする車線上に存在する車両を、車両のライト光の輝度の飽和値に達している場合、そのライト光の光源中心点を検出して車両の検出を行い、さらにその際、車両のライト光の内の反射光を車両の検出の対象から除去するものである。
Embodiment 2. FIG.
FIG. 5 is a block diagram showing the configuration of the traffic flow measuring apparatus according to the second embodiment of the present invention, and FIG. 6 is a situation diagram showing the movement of the light light of the oncoming lane vehicle onto the road surface according to the second embodiment of the present invention. FIG. 7 is a situation diagram for explaining the vehicle determination evaluation result in the second embodiment of the present invention, and FIG. 8 is a flowchart for explaining the operation of the vehicle detection unit of the traffic flow measuring apparatus shown in FIG. In the figure, the same parts as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted. The vehicle detection unit 110 detects the light source center point of the light light of the vehicle existing on the lane that needs to be monitored on the captured image when the vehicle has reached the saturation value of the light light luminance of the vehicle. In this case, the reflected light in the light of the vehicle is removed from the detection target of the vehicle.

次に上記のように構成された実施の形態2の交通流計測装置の動作について説明する。まず、上記実施の形態1と同様に、画像撮像部10が所定の周期で画像を撮像し、車両検出部110は、画像撮像部10にて撮像された撮像画像から監視を必要とする車両を検出する。この際、上記実施の形態1と同様に、画像撮像部10の撮像画像として図6に示すように、道路が囲まれた箇所にて撮像された例えばトンネル内にて撮像された場合、車両のライト光がハレーション部分A、Aを発生する可能性がある。さらに、雨天等により路面の光反射率が上昇した場合、ハレーションを伴うライト光の移り込みが発生する。発生する状況は様々あり、左右のライト光が個別に路面に移り込みハレーション部分A、Aを発生する現象や、同一化して大きく路面に移り込みハレーション部分Aなどを発生する現象がある。よって、まず車両検出部110では上記実施の形態1にて示した場合と路面への移り込みに関しても同様に光源中心点C、C、Cがそれぞれ検出される。 Next, the operation of the traffic flow measuring apparatus according to the second embodiment configured as described above will be described. First, as in the first embodiment, the image capturing unit 10 captures an image at a predetermined cycle, and the vehicle detection unit 110 detects a vehicle that requires monitoring from the captured image captured by the image capturing unit 10. To detect. At this time, as in the first embodiment, as shown in FIG. 6 as a captured image of the image capturing unit 10, for example, when captured in a tunnel surrounded by a road, Light light may generate halation portions A 1 and A 2 . Furthermore, when the light reflectance of the road surface increases due to rain or the like, the light light is transferred with halation. There are various situations in which the right and left light beams individually move to the road surface, causing the halation portions A 4 and A 5, and the phenomenon of generating the halation portion A 3 by moving largely to the road surface in the same manner. . Therefore, first, the vehicle detection unit 110 similarly detects the light source center points C 3 , C 4 , and C 5 with respect to the case shown in the first embodiment and the transfer to the road surface.

そして、これら移り込みも含むハレーション部分A、A、A、A、Aにより発生した輝度飽和の光源中心点C、C、C、C、Cの全てが車両候補として検出される。そこで以下に示す評価方法、すなわち車両検出部110で以下に示す二次元情報と三次元情報とを用いて車両候補から反射光を除去し真に車両であるか否かの評価を行う。
(条件1)同一車線上のX座標±α画素以内に複数の車両候補は存在しない。
(条件2)同一車線上のY座標±β画素以内に複数の車両候補は存在しない。
(条件3)車両候補は車線中央から位置誤差が小さいものほど真の車両とする。
このような条件1、2、3の評価を行うことで、反射光は除去され真の車両が検出される。
Then, all of the light source center points C 1 , C 2 , C 3 , C 4 , and C 5 with saturated luminance generated by the halation portions A 1 , A 2 , A 3 , A 4 , and A 5 including the transfer are vehicles. Detected as a candidate. Therefore, the following evaluation method, that is, the vehicle detection unit 110 uses the following two-dimensional information and three-dimensional information to remove reflected light from the vehicle candidate and evaluate whether or not the vehicle is truly a vehicle.
(Condition 1) A plurality of vehicle candidates do not exist within X coordinates ± α pixels on the same lane.
(Condition 2) A plurality of vehicle candidates do not exist within Y coordinates ± β pixels on the same lane.
(Condition 3) A vehicle candidate is a true vehicle as the position error is smaller from the center of the lane.
By performing such evaluations of conditions 1, 2, and 3, the reflected light is removed and a true vehicle is detected.

以上の条件における処理の具体例を図7および図8のフローチャートに基づいて説明する。まず、車両候補Aの判定処理を開始する(図8のステップS1)。そして、任意の車両仮候補Aをとして例えば光源中心点Cを選択する(図8のステップS2)。次に、仮候補A(光源中心点C)を除く同一車線上の車両仮候補Bとして例えば光源中心点Cを選択する(図8のステップS3)。次に、仮候補A(光源中心点C)と仮候補B(光源中心点C)とのX座標が±α画素以内であるか否かを判断する(図8のステップS4)。この場合、1次近似直線群がB、Bであるため、±α画素以内であると判断される。次に、仮候補の車線中央からのX座標誤差をAD%、仮候補Bの車線中央からのX座標誤差BD%をそれぞれ算出する(図8のステップS6)。次に、この算出されたAD%>BD%が成立して、仮候補Bの方が車線中央に近いか否かを判断する(図8のステップS7)。ここでは仮候補Bの方が車線中央に近いため、車両仮候補Aを車両候補から除外される(図8のステップS9)。そして、光源中心点Cは車両候補ではないと判断されて、光源中心点Cの車両候補Aとしての判定の処理を終了する。 A specific example of processing under the above conditions will be described with reference to the flowcharts of FIGS. First, the process for determining the vehicle candidate A is started (step S1 in FIG. 8). Then, select the light source center point C 3, for example, as any vehicle tentative candidate A (step S2 in FIG. 8). Next, select the tentative candidate A (the light source center point C 3) light center point C 1, for example, a vehicle tentative candidate B on the same lane, except for (step S3 in FIG. 8). Next, it is determined whether or not the X coordinates of the temporary candidate A (light source center point C 3 ) and the temporary candidate B (light source center point C 1 ) are within ± α pixels (step S4 in FIG. 8). In this case, since the primary approximate straight line groups are B 1 and B 3 , it is determined that they are within ± α pixels. Next, the X coordinate error from the lane center of the temporary candidate is calculated as AD%, and the X coordinate error BD% from the lane center of the temporary candidate B is calculated (step S6 in FIG. 8). Next, it is determined whether or not the calculated AD%> BD% is satisfied and the temporary candidate B is closer to the center of the lane (step S7 in FIG. 8). Here, since temporary candidate B is closer to the center of the lane, vehicle temporary candidate A is excluded from the vehicle candidates (step S9 in FIG. 8). Then, the light source center point C 3 is judged not to be a vehicle candidate, and ends the process of determination as the vehicle candidate A of the light source center point C 3.

次に、任意の車両仮候補Aをとして例えば光源中心点Cを選択する(図8のステップS2)。次に、仮候補A(光源中心点C)を除く同一車線上の車両仮候補Bとして例えば光源中心点Cを選択する(図8のステップS3)。次に、仮候補A(光源中心点C)と仮候補B(光源中心点C)とのX座標が±α画素以内であるか否かを判断する(図8のステップS4)。この場合、1次近似直線群がB、Bであるため、±α画素以内でないと判断される。次に、仮候補A(光源中心点C)と仮候補B(光源中心点C)とのY座標が±β画素以内であるか否かを判断する(図8のステップS5)。この場合、仮候補A(光源中心点C)と仮候補B(光源中心点C)とはY座標方向において近似しているため、±β画素以内であると判断される。次に、仮候補Aの車線中央からのX座標誤差をAD%、仮候補Bの車線中央からのX座標誤差BD%をそれぞれ算出する(図8のステップS6)。次に、この算出されたAD%>BD%が成立して、仮候補Bの方が車線中央に近いか否かを判断する(図8のステップS7)。次に、ここでは仮候補Bの方が車線中央に近いため、車線仮候補Aを車両候補から除外する(図8のステップS9)。そして、光源中心点Cは車両候補ではないと判断されて、光源中心点Cの車両候補Aとしての判定の処理を終了する。また、光源中心点Cにおいても光源中心点Cと同様に車両候補から除去される。 Next, select the light source center point C 4, for example, as any vehicle tentative candidate A (step S2 in FIG. 8). Next, select the tentative candidate A (the light source center point C 4) the light source center point C 2, for example, a vehicle tentative candidate B on the same lane, except for (step S3 in FIG. 8). Next, it is determined whether or not the X coordinates of the temporary candidate A (light source center point C 4 ) and the temporary candidate B (light source center point C 2 ) are within ± α pixels (step S4 in FIG. 8). In this case, since the primary approximate straight line group is B 4 and B 2, it is determined that it is not within ± α pixels. Next, it is determined whether or not the Y coordinates of the temporary candidate A (light source center point C 4 ) and the temporary candidate B (light source center point C 2 ) are within ± β pixels (step S5 in FIG. 8). In this case, since the temporary candidate A (light source center point C 4 ) and the temporary candidate B (light source center point C 2 ) are approximated in the Y coordinate direction, it is determined that they are within ± β pixels. Next, the X coordinate error from the lane center of the temporary candidate A is calculated by AD%, and the X coordinate error BD% from the lane center of the temporary candidate B is calculated (step S6 in FIG. 8). Next, it is determined whether or not the calculated AD%> BD% is satisfied and the temporary candidate B is closer to the center of the lane (step S7 in FIG. 8). Next, since the temporary candidate B is closer to the center of the lane here, the lane temporary candidate A is excluded from the vehicle candidates (step S9 in FIG. 8). Then, the light source center point C 4 is being determined not to be a vehicle candidate, and ends the process of determination as the vehicle candidate A of the light source center point C 4. Also it is removed from the vehicle similarly to the candidate and the light source center point C 4 even in the light source center point C 5.

次に、任意の車両仮候補Aをとして例えば光源中心点Cを選択する(図8のステップS2)。次に、仮候補A(光源中心点C)を除く同一車線上の車両仮候補Bとして例えば光源中心点Cを選択する(図8のステップS3)。次に、仮候補A(光源中心点C)と仮候補B(光源中心点C)とのX座標が±α画素以内であるか否かを判断する(図8のステップS4)。この場合、1次近似直線群がB、Bであるため、±α画素以内でないと判断される。次に、仮候補A(光源中心点C)と仮候補B(光源中心点C)とのY座標が±β画素以内であるか否かを判断する(図8のステップS5)。この場合、仮候補A(光源中心点C)と仮候補B(光源中心点C)とはY座標方向において近似していないため、±β画素以内でないと判断される。次に、同一車線上の全仮候補Bに対して処理を行ったか否かを判断する(図8のステップS8)。ここでは、他の光源中心点C、C、Cは上記判定にて車両候補からすでに全て除去されているため、車線仮候補Aを車両候補として決定する(図8のステップS10)。そして、光源中心点Cの車両候補Aとしての判定の処理を終了する。そして、光源中心点Cにおいても同様に車両候補として判定される。このようにして車両の検出が行われた後は、上記実施の形態1と同様に行い、交通流の計測を行う。 Next, select the light source center point C 1, for example, as any vehicle tentative candidate A (step S2 in FIG. 8). Next, select the tentative candidate A (the light source center point C 1) the light source center point C 2, for example, a vehicle tentative candidate B on the same lane, except for (step S3 in FIG. 8). Next, it is determined whether or not the X coordinates of the temporary candidate A (light source center point C 1 ) and the temporary candidate B (light source center point C 2 ) are within ± α pixels (step S4 in FIG. 8). In this case, since the primary approximate straight line group is B 1 and B 2, it is determined that it is not within ± α pixels. Next, it is determined whether or not the Y coordinates of the temporary candidate A (light source center point C 1 ) and the temporary candidate B (light source center point C 2 ) are within ± β pixels (step S5 in FIG. 8). In this case, since the temporary candidate A (light source center point C 2 ) and the temporary candidate B (light source center point C 1 ) are not approximated in the Y coordinate direction, it is determined that they are not within ± β pixels. Next, it is determined whether or not processing has been performed for all temporary candidates B on the same lane (step S8 in FIG. 8). Here, since all the other light source center points C 3 , C 4 , and C 5 have already been removed from the vehicle candidates in the above determination, the lane temporary candidate A is determined as a vehicle candidate (step S 10 in FIG. 8). Then, the processing of the determination as the vehicle candidate A of the light source center point C 1. Then, it is determined similarly as the vehicle candidates in the light source center point C 2. After the vehicle is detected in this manner, the traffic flow is measured in the same manner as in the first embodiment.

上記のように構成された実施の形態2の交通流計測装置によれば、上記実施の形態1と同様の効果を奏するのはもちろんのこと、車両の誤検出結果、すなわち反射光を除外して車両を検出することが可能となり、より精度の高い交通流を計測することができる。   According to the traffic flow measuring apparatus of the second embodiment configured as described above, the same effect as that of the first embodiment can be obtained, but the erroneous detection result of the vehicle, that is, the reflected light is excluded. It becomes possible to detect the vehicle and to measure the traffic flow with higher accuracy.

実施の形態3.
図9はこの発明の実施の形態3における交通流計測装置の構成を示すブロック図、図10はこの発明の実施の形態3における輝度飽和車両を表す状況図、図11はこの発明の実施の形態3における輝度飽和車両の検出を表す状況図である。上記各実施の形態においては、車両が対向車線にあり、そのことにより車両のライト光がハレーションを発生しており、車両のライト光の輝度の飽和値の光源中心点により車両を検出する場合において示した。しかしながら、逆に、順行車線を走行中の車両では、道路が囲まれた箇所、例えばトンネル内において照明が非常に明るく、かつ、撮像画像の画像も明るい状況では、明度の高い車両が進入すると、例えば図10に示すように、車両1のテールランプはもちろん、車両1の後端形状周辺の輝度が飽和してしまい、輝度勾配が現れなくなってしまい輝度飽和車両となる。この現象は、主に画像撮像部の映像を画像処理だけではなく他用途にも用いることを考えた場合、撮像される映像の明度は全体的に明るめに設定されていることにより顕著に発生する。そして、このような車両1の後端形状周辺の輝度勾配は路面や路面構造物の輝度勾配に対して非常に小さな変化しかないため車両1の検出が困難となっていた。
Embodiment 3 FIG.
FIG. 9 is a block diagram showing the configuration of a traffic flow measuring apparatus according to Embodiment 3 of the present invention, FIG. 10 is a situation diagram showing a luminance saturated vehicle according to Embodiment 3 of the present invention, and FIG. 11 is an embodiment of the present invention. 3 is a situation diagram illustrating detection of a luminance saturated vehicle in FIG. In each of the above embodiments, when the vehicle is in the oncoming lane, the light light of the vehicle generates halation, and the vehicle is detected by the light source center point of the saturation value of the luminance of the light light of the vehicle. Indicated. However, on the other hand, in a vehicle traveling in the forward lane, a vehicle with high brightness enters when the road is surrounded, for example, in a tunnel where the illumination is very bright and the captured image is bright. For example, as shown in FIG. 10, not only the tail lamp of the vehicle 1 but also the luminance around the rear end shape of the vehicle 1 is saturated, and the luminance gradient does not appear, resulting in a luminance saturated vehicle. This phenomenon occurs remarkably when the brightness of the captured image is set to be generally bright when considering that the image captured by the image capturing unit is used not only for image processing but also for other purposes. . Since the luminance gradient around the rear end shape of the vehicle 1 has only a very small change with respect to the luminance gradient of the road surface or the road surface structure, it is difficult to detect the vehicle 1.

この発明の実施の形態3においては、このことを解消して車両の検出を行う場合について説明する。図において、上記各実施の形態と同様の部分は同一符号を付して説明を省略する。車両検出部111は画像撮像部10が撮像した撮像画像から、撮像箇所の背景画像と車両1の影2の輝度とから車両1の影2の中心点を検出して車両1の検出を行うものである。上記に示したように、車両1の検出に関しては撮像画像一部ではなく全体が明るいため上記実施の形態1で提案した手法、さらには、撮像画像に映し出されている車両1の形状から車両を検出する手法では車両1の検出を行うことはできない。   In Embodiment 3 of the present invention, a case will be described in which this is solved and vehicle detection is performed. In the figure, the same parts as those in the above embodiments are denoted by the same reference numerals, and description thereof is omitted. The vehicle detection unit 111 detects the vehicle 1 by detecting the center point of the shadow 2 of the vehicle 1 from the background image of the imaging location and the luminance of the shadow 2 of the vehicle 1 from the captured image captured by the image capturing unit 10. It is. As described above, the detection of the vehicle 1 is not a part of the captured image but the entire image is bright, so the method proposed in the first embodiment, and further, the vehicle is determined based on the shape of the vehicle 1 displayed in the captured image. The vehicle 1 cannot be detected by the detection method.

次に上記のように構成された実施の形態3の交通流計測装置の動作について説明する。まず、上記各実施の形態と同様に、画像撮像部10が所定の周期で画像を撮像し、車両検出部111は、画像撮像部10にて図10に示すような撮像画像が撮像され、この撮像画像から監視を必要とする車両1を検出する。この際、各車線すなわち順行第1車線、順行第2車線毎にX軸方向にラスタスキャンを行う。そして、撮像画像の輝度と同座標の背景画像の輝度との差分の累積加算:pixelvalueを下記式(1)の算出にて行う。そしてこの処理をY軸方向の所定の点に対して行う。   Next, the operation of the traffic flow measuring apparatus according to Embodiment 3 configured as described above will be described. First, as in each of the above embodiments, the image capturing unit 10 captures an image at a predetermined cycle, and the vehicle detection unit 111 captures a captured image as shown in FIG. A vehicle 1 that requires monitoring is detected from the captured image. At this time, raster scanning is performed in the X-axis direction for each lane, that is, the forward first lane and the forward second lane. Then, the cumulative addition of the difference between the luminance of the captured image and the luminance of the background image having the same coordinates is performed by calculating the following formula (1). This process is performed for a predetermined point in the Y-axis direction.

pixelvalue[i][y]=Σabs(背景輝度値(x,y)−撮像画像輝度値(x,y)) ・・・(1)

※Σの範囲は(車線i左端X座標−α<x<車線i右端X座標+β)
i:車線番号
y:Y座標
pixelvalue [i] [y] = Σabs (background luminance value (x, y) −captured image luminance value (x, y)) (1)

* The range of Σ is (lane i left end X coordinate-α <x <lane i right end X coordinate + β)
i: Lane number y: Y coordinate

そして、図11に示すように、この累積を行った結果、すなわち、撮像画像における背景画像のX軸方向に対して輝度差累積を行ったY軸の各点に対する輝度差累積が検出される。このように、例えばトンネル内の照度が高く、また車両自体の明度も高い場合であっても、その路面に移り込む車両1の影2は十分に暗く、背景画像の輝度から大きくかけ離れている。その性質を利用しX軸方向で輝度差の累積加算を行うことで、車線内に存在する車両1下端の影2のピークを検出し、車両1下端のY軸方向の位置を特定することができる。次に、X軸においてピークが検出したY座標に対してその中心点を下記式(2)により算出する。   Then, as shown in FIG. 11, the result of this accumulation, that is, the luminance difference accumulation for each point on the Y axis where the luminance difference is accumulated in the X axis direction of the background image in the captured image is detected. As described above, for example, even when the illuminance in the tunnel is high and the brightness of the vehicle itself is high, the shadow 2 of the vehicle 1 moving to the road surface is sufficiently dark and far away from the luminance of the background image. By using this property to perform cumulative addition of luminance differences in the X-axis direction, the peak of the shadow 2 at the lower end of the vehicle 1 existing in the lane can be detected, and the position of the lower end of the vehicle 1 in the Y-axis direction can be specified. it can. Next, the center point of the Y coordinate whose peak is detected on the X axis is calculated by the following equation (2).

Figure 0004668754
Figure 0004668754

以上のように算出された結果、車両1の下端中央の座標を特定し、車両1を検出する。そして、上記各実施の形態と同様に、次に、車両追跡部12にて車両検出部11で検出した車両1すなわち影2の中心点を時間軸に対して追跡し、個別車両毎の追跡情報を算出する。例えば、車両検出部111にて検出された車両1の位置の経時的変化を追跡する。次に、車両速度算出部13にて車両追跡部12において追跡を行っている個別車両に対して移動速度情報を算出する。次に、交通流計測部14にて車両計測部13によって計測された個別車両の情報から交通事象の判定を行う。これにより、停止、低速、速度超過の個別車両単体において発生する事象や、渋滞や避走走行・車両同士の車間警告という複数車両間において発生する事象を統合検出することができる。   As a result of the calculation as described above, the coordinates of the center of the lower end of the vehicle 1 are specified, and the vehicle 1 is detected. Then, similarly to the above embodiments, the vehicle tracking unit 12 then tracks the center point of the vehicle 1 detected by the vehicle detection unit 11, that is, the shadow 2 with respect to the time axis, and tracking information for each individual vehicle. Is calculated. For example, the temporal change in the position of the vehicle 1 detected by the vehicle detection unit 111 is tracked. Next, the vehicle speed calculation unit 13 calculates movement speed information for the individual vehicle tracked by the vehicle tracking unit 12. Next, a traffic event is determined from the information on the individual vehicle measured by the vehicle measurement unit 13 in the traffic flow measurement unit 14. As a result, it is possible to integrally detect events that occur in individual vehicles, such as stop, low speed, and excessive speed, and events that occur between multiple vehicles such as traffic jams, avoidance travel, and inter-vehicle warnings.

上記のように構成された実施の形態3の交通流計測装置によれば、車両自体の検出が困難な輝度飽和車両に対して、その下端に広がる影から車両の下端の影の中心点を検出し、その情報を用いて車両検出を行っているため、従来までは検出が不可能であった車両に関しても車両検出が可能となる。またこのような手法により検出しているため、カメラレンズ絞りを制御する必要もなく低コスト、かつ、効率よく車両検出が可能となる。また、車両追跡部において、車両検出部にて検出された車両の位置の経時的変化を追跡して後処理を行うようにしているため、正確な速度、延いては、正確な交通事情の判定を行うことができる。尚、上記各実施の形態と併用することにより、従来よりもさらに低コストで、かつ、効率よく、かつ、精度の高い交通流計測装置を提供することが可能になることは言うまでもない。   According to the traffic flow measuring apparatus of the third embodiment configured as described above, the center point of the shadow at the lower end of the vehicle is detected from the shadow spreading at the lower end of the luminance saturated vehicle that is difficult to detect the vehicle itself. However, since vehicle detection is performed using the information, vehicle detection is possible even for vehicles that could not be detected up to now. Further, since the detection is performed by such a method, it is not necessary to control the camera lens aperture, and the vehicle can be detected efficiently at low cost. In addition, since the vehicle tracking unit tracks the change over time of the vehicle position detected by the vehicle detection unit and performs post-processing, it can accurately determine the speed and thus the traffic situation. It can be performed. Needless to say, by using together with the above-described embodiments, it is possible to provide a traffic flow measuring apparatus that is lower in cost, more efficient, and high in accuracy.

実施の形態4.
図12はこの発明の実施の形態4における車両計測時刻と計測位置との関係を表す分布グラフと最小自乗和による一次近似直線の図である。上記各実施の形態においては車両を検出した後の車両の速度検出について特に示さなかったが、この実施の形態においては検出された車両の速度検出について説明する。よって、他の部分の構成などは上記各実施の形態と同様であるため説明を適宜省略する。
Embodiment 4 FIG.
FIG. 12 is a distribution graph showing the relationship between the vehicle measurement time and the measurement position according to Embodiment 4 of the present invention and a first-order approximation straight line based on the least square sum. In the above embodiments, the detection of the vehicle speed after detecting the vehicle is not particularly shown, but in this embodiment, the detection of the detected vehicle speed will be described. Accordingly, the configuration of the other parts is the same as that of each of the above embodiments, and thus description thereof will be omitted as appropriate.

上記のように構成された実施の形態4における車両速度算出部13の動作について説明する。まず、従来の車両速度計測は直近の車両位置からの速度計測を行う、瞬時速度計測を用いていた。そのため車両位置計測誤差が発生しやすく、その瞬時速度は実際の車両速度から大きく異なる値が計測されていた。この問題解消するため、指数平滑化手法などを用いて、速度の安定化を図るものがあるが、平滑の元となる値が真の車両速度からかけ離れている場合が多いため、車両の速度計測の誤差に問題があった。そこで本実施の形態4においては、車両速度算出部13において、車両追跡部12にて検出された車両の追跡データから車両の位置の分布を取得し、この車両の位置の分布に基づいて次に示す最小自乗和の式(3)を用いて計測誤差の少ない車両速度を計測する。   The operation of the vehicle speed calculation unit 13 in the fourth embodiment configured as described above will be described. First, conventional vehicle speed measurement uses instantaneous speed measurement, which measures speed from the nearest vehicle position. For this reason, a vehicle position measurement error is likely to occur, and the instantaneous speed has been measured to be significantly different from the actual vehicle speed. In order to solve this problem, there is a method that stabilizes the speed by using an exponential smoothing method, etc., but since the smoothing value is often far from the true vehicle speed, the vehicle speed measurement There was a problem with the error. Therefore, in the fourth embodiment, the vehicle speed calculation unit 13 obtains the vehicle position distribution from the vehicle tracking data detected by the vehicle tracking unit 12, and then based on the vehicle position distribution, The vehicle speed with less measurement error is measured using the least square sum equation (3) shown.

Figure 0004668754
Figure 0004668754

上記に示した式(3)により、aが近似された車両速度、bが車両計測初期位置となる。車両速度計測区間nの値を大きく設定すればより誤差の少ない近似速度が求められる。またこの場合、車両速度計測区間nの間は一定速度走行していることを前提にして速度近似を行うため、急加減速や停止などの車両に関する応答速度精度も確保するためには車両速度計測区間nの値は小さい方が望ましい。よって、必要とする速度の用途に応じて車両速度計測区間nは適宜設定する必要がある。   From the equation (3) shown above, a is the approximate vehicle speed, and b is the vehicle measurement initial position. If the value of the vehicle speed measurement section n is set large, an approximate speed with less error can be obtained. In this case, since the speed approximation is performed on the premise that the vehicle travels at a constant speed during the vehicle speed measurement section n, the vehicle speed measurement is required to ensure response speed accuracy related to the vehicle such as sudden acceleration / deceleration or stop. A smaller value for the interval n is desirable. Therefore, the vehicle speed measurement section n needs to be set appropriately according to the required speed application.

上記のように構成された実施の形態4の交通流計測装置によれば、上記各実施の形態と同様の効果を奏するのはもちろんのこと、車両の速度を、車両の追跡データから車両の位置の分布を取得して一次近似最小自乗和手法を用いて算出することで、より正確な車両の速度値を求めることが可能となる。   According to the traffic flow measuring apparatus of the fourth embodiment configured as described above, the vehicle speed is obtained from the vehicle tracking data based on the vehicle tracking data, as well as the same effects as those of the above embodiments. It is possible to obtain a more accurate speed value of the vehicle by obtaining the above distribution and calculating using the first-order approximate least squares sum method.

実施の形態5.
図13はこの発明の実施の形態5における交通流計測装置の構成を示すブロック図である。図において、上記各実施の形態と同様の部分は同一符号を付して説明を省略する。車両位置予測部17は、車両速度算出部13の車両の速度値の結果を用いて、次に撮像した撮像画像上でその追跡車両がどの位置に移動するかを予め予測し、その車両の予測位置を車両追跡部12に送信するものである。
Embodiment 5. FIG.
FIG. 13 is a block diagram showing a configuration of a traffic flow measuring apparatus according to Embodiment 5 of the present invention. In the figure, the same parts as those in the above embodiments are denoted by the same reference numerals, and description thereof is omitted. The vehicle position prediction unit 17 uses the result of the vehicle speed value of the vehicle speed calculation unit 13 to predict in advance which position the tracked vehicle will move on the next captured image and predict the vehicle. The position is transmitted to the vehicle tracking unit 12.

上記のように構成された実施の形態5の交通流計測装置では、車両位置予測部17にて車両の位置の予測を行い、それを車両追跡部12にて送信するようにしたため、車両追跡部12では、特にトンネル内の環境変化の影響により車両追跡が正常に行えなかった場合でも、予測位置を基にして車両位置を決定し追跡を行うことができる。   In the traffic flow measuring apparatus according to the fifth embodiment configured as described above, the vehicle position prediction unit 17 predicts the position of the vehicle and transmits the vehicle position using the vehicle tracking unit 12. 12, the vehicle position can be determined and tracked based on the predicted position even when the vehicle tracking cannot be normally performed due to the environmental change in the tunnel.

上記のように構成された実施の形態5の交通流計測装置によれば、上記各実施の形態と同様の効果を奏するのはもちろんのこと、車両計測位置から次期予測位置をフィードバックすることで車両追跡の補助を行い、これまで追跡が困難であった環境下、例えば、路面環境の変化や後続車・先行車の影響により追跡車両の形状や見え方が極度に変化する場合などには車両追跡が継続できず、安定した車両追跡を行うことが困難な場合があったが、不安定な環境下でも安定した車両追跡情報を計測することが可能となり、追跡の安定化を図ることが可能となる。   According to the traffic flow measuring apparatus of the fifth embodiment configured as described above, the vehicle can be obtained by feeding back the next predicted position from the vehicle measured position as well as the same effects as those of the above-described embodiments. Vehicle tracking in environments where it was difficult to track in the past, such as when the shape and appearance of the tracked vehicle changes drastically due to changes in the road surface environment or the influence of the following or preceding vehicle. May not be able to continue, and it may be difficult to perform stable vehicle tracking, but stable vehicle tracking information can be measured even in unstable environments, and tracking can be stabilized. Become.

この発明の実施の形態1における交通流計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the traffic flow measuring apparatus in Embodiment 1 of this invention. この発明の実施の形態1における対向車のライト光のハレーションが発生した状況図である。It is a situation figure in which halation of light light of an oncoming vehicle occurred in Embodiment 1 of this invention. この発明の実施の形態1における対向車線のラスタスキャンを行い輝度分布を算出し、輝度飽和中心点列を求めている状況図である。It is a situation figure which calculates | requires luminance distribution by performing the raster scan of the oncoming lane in Embodiment 1 of this invention, and calculates | requires a luminance saturation center point sequence. この発明の実施の形態1における輝度飽和中心点列から光源中心点を求めている状況図である。It is a condition figure which calculates | requires the light source center point from the brightness | luminance saturation center point sequence in Embodiment 1 of this invention. この発明の実施の形態2における交通流計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the traffic flow measuring apparatus in Embodiment 2 of this invention. この発明の実施の形態2における対向車線車両のライト光の路面への移り込みを表す状況図である。It is a situation figure showing transfer of the light light of the oncoming lane vehicle to the road surface in Embodiment 2 of this invention. この発明の実施の形態2における車両判定評価結果を説明するための状況図である。It is a situation figure for demonstrating the vehicle determination evaluation result in Embodiment 2 of this invention. 図5に示した交通流計測装置の車両検出部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the vehicle detection part of the traffic flow measuring apparatus shown in FIG. この発明の実施の形態3における交通流計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the traffic flow measuring apparatus in Embodiment 3 of this invention. この発明の実施の形態3における輝度飽和車両を表す状況図である。It is a situation figure showing the brightness saturation vehicle in Embodiment 3 of this invention. この発明の実施の形態3における輝度飽和車両の検出を表す状況図である。It is a situation figure showing detection of a brightness saturation vehicle in Embodiment 3 of this invention. この発明の実施の形態4における車両計測時刻と計測位置との関係を表す分布グラフと最小自乗和による一次近似直線の図である。It is a figure of the primary approximation straight line by the distribution graph showing the relationship between the vehicle measurement time and measurement position in Embodiment 4 of this invention, and the least square sum. この発明の実施の形態5における交通流計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the traffic flow measuring apparatus in Embodiment 5 of this invention.

符号の説明Explanation of symbols

10 画像撮像部、11,110,111 車両検出部、12 車両追跡部、
13 車両速度算出部、14 交通流計測、17 車両位置予測部。
10 image pickup unit, 11, 110, 111 vehicle detection unit, 12 vehicle tracking unit,
13 vehicle speed calculation unit, 14 traffic flow measurement, 17 vehicle position prediction unit.

Claims (6)

所定の周期で所定の範囲の画像を撮像する画像撮像部と、上記画像から車両の座標位置を検出する車両検出部とを備え、上記車両の座標位置から交通情報を作成する交通流計測装置において、
上記画像を構成する画素群の各画素の座標位置は、上記画像撮像部に定義された座標上に定められ、
上記車両検出部は、上記画像に輝度の飽和部分が存在すると、
上記飽和部分を構成する画素群の画素の座標位置に対して、その飽和部分を代表する代表座標位置を定める所定の座標特定手段を施すことにより代表座標位置を求め、
求めた代表座標位置を車両の座標位置とすることを特徴とする交通流計測装置。
In a traffic flow measurement apparatus comprising an image capturing unit that captures an image of a predetermined range at a predetermined cycle and a vehicle detection unit that detects a coordinate position of a vehicle from the image, and that generates traffic information from the coordinate position of the vehicle ,
The coordinate position of each pixel of the pixel group constituting the image is determined on the coordinates defined in the image capturing unit,
The vehicle detection unit, when a saturated portion of brightness exists in the image,
For the coordinate position of the pixel of the pixel group constituting the saturated portion, the representative coordinate position is obtained by applying a predetermined coordinate specifying means for determining the representative coordinate position representing the saturated portion,
A traffic flow measuring apparatus characterized in that the obtained representative coordinate position is a coordinate position of a vehicle.
請求項1に記載の交通流計測装置であって、
上記車両検出部は、上記画像に1以上の輝度の飽和部分が存在すると、
座標特定手段によって各飽和部分のそれぞれの代表座標位置を求め、
これらの代表座標位置の相対的な間隔を比較することで、これらの中から撮像される車両の路線上の位置と対応すると推定される代表座標位置を選択する選択手段を施すことにより、選択された代表座標位置を車両の座標位置とすることを特徴とする交通流計測装置。
The traffic flow measuring device according to claim 1,
When the vehicle detection unit includes a saturated portion having a luminance of 1 or more in the image,
Obtain the representative coordinate position of each saturated portion by the coordinate specifying means,
By comparing the relative intervals of these representative coordinate positions, a selection means for selecting a representative coordinate position estimated to correspond to a position on the route of the vehicle to be imaged is selected. A traffic flow measuring device characterized in that the representative coordinate position is the coordinate position of the vehicle.
請求項1または2に記載の交通流計測装置であって、
上記座標特定手段によって定められる代表座標位置が、飽和部分を構成する画素群の中心点の座標位置であることを特徴とする交通流計測装置。
The traffic flow measuring device according to claim 1 or 2,
A traffic flow measuring apparatus, wherein the representative coordinate position determined by the coordinate specifying means is a coordinate position of a center point of a pixel group constituting a saturated portion.
請求項1ないし3のいずれかに記載の交通流計測装置であって、
上記画像撮像部に定義された座標の座標系がXY座標系であることを特徴とする交通流計測装置。
The traffic flow measuring device according to any one of claims 1 to 3,
A traffic flow measuring apparatus, wherein a coordinate system of coordinates defined in the image capturing unit is an XY coordinate system.
所定の周期で所定の範囲の画像を撮像する画像撮像部と、上記画像から車両の座標位置を検出する車両検出部とを備え、上記車両の座標位置から交通情報を作成する交通流計測装置において、
上記画像を構成する画素群の各画素の座標位置は、上記画像撮像部に定義されたXY座標上に定められ、
上記車両検出部は、上記画像に輝度の飽和部分が存在すると、
上記各飽和部分を構成する画素群の画素のXY座標位置に対して、その飽和部分の中心点の座標位置を定める座標特定手段を施すことにより中心点のXY座標位置を求め、求めた中心点のXY座標位置を車両の座標位置とすることを特徴とする交通流計測装置。
In a traffic flow measurement apparatus comprising an image capturing unit that captures an image of a predetermined range at a predetermined cycle and a vehicle detection unit that detects a coordinate position of a vehicle from the image, and that generates traffic information from the coordinate position of the vehicle ,
The coordinate position of each pixel of the pixel group constituting the image is determined on the XY coordinates defined in the image capturing unit,
The vehicle detection unit, when a saturated portion of brightness exists in the image,
The XY coordinate position of the center point is obtained by applying coordinate specifying means for determining the coordinate position of the center point of the saturated portion with respect to the XY coordinate positions of the pixels of the pixel group constituting each of the saturated portions, and the obtained center point The traffic flow measuring device is characterized in that the XY coordinate position of the vehicle is the coordinate position of the vehicle.
請求項5に記載の交通流計測装置であって、
上記車両検出部は、画像に1以上の輝度の飽和部分が存在すると、
上記各飽和部分を構成する画素群の画素のXY座標位置に対して、その飽和部分の中心点の座標位置を定める座標特定手段を施すことにより、それぞれの中心点のXY座標位置を求め、
それぞれの中心点の位置するXY座標位置のX軸上の相対的な間隔が予め定められた所定の画素数の占める間隔より狭い中心点を選択し、それら選択された中心点の中から、予め定められた路線上の車線中央に対応する車線中央位置に対して最も近い中心点を選択し、
Y軸上の相対的な間隔が予め定められた所定の第2の画素数の占める間隔より狭い中心点を選択し、それら選択された中心点の中から、上記車線中央位置に対して最も近い中心点を選択し、
上記選択された中心点の座標位置を車両の座標位置とする選択手段を備えたことを特徴とする交通流計測装置。
The traffic flow measuring device according to claim 5,
When the vehicle detection unit includes a saturated portion having a luminance of 1 or more in the image,
By applying coordinate specifying means for determining the coordinate position of the central point of the saturated portion with respect to the XY coordinate position of the pixels of the pixel group constituting each saturated portion, the XY coordinate position of each central point is obtained,
Select a center point whose relative interval on the X axis of the XY coordinate position where each center point is located is narrower than the interval occupied by a predetermined number of pixels, and select from the selected center points in advance Select the center point closest to the lane center position corresponding to the lane center on the defined route,
A center point whose relative interval on the Y-axis is narrower than the interval occupied by a predetermined second number of pixels is selected, and the closest to the lane center position from among the selected center points Select the center point,
A traffic flow measuring apparatus comprising a selection means for setting the coordinate position of the selected center point to the coordinate position of a vehicle.
JP2005285752A 2005-09-30 2005-09-30 Traffic flow measuring device Active JP4668754B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005285752A JP4668754B2 (en) 2005-09-30 2005-09-30 Traffic flow measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005285752A JP4668754B2 (en) 2005-09-30 2005-09-30 Traffic flow measuring device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009271084A Division JP2010055628A (en) 2009-11-30 2009-11-30 Traffic flow measurement device

Publications (2)

Publication Number Publication Date
JP2007094919A JP2007094919A (en) 2007-04-12
JP4668754B2 true JP4668754B2 (en) 2011-04-13

Family

ID=37980534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005285752A Active JP4668754B2 (en) 2005-09-30 2005-09-30 Traffic flow measuring device

Country Status (1)

Country Link
JP (1) JP4668754B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101814235B (en) * 2010-01-22 2011-12-21 天津市市政工程设计研究院 Method for assigning traffic in port area in reservation congregation mode
JP5289509B2 (en) * 2011-05-31 2013-09-11 本田技研工業株式会社 Lane mark recognition device
CN103177584B (en) * 2013-02-05 2014-10-08 长安大学 Vehicle speed detection method based on enumeration probe
JP2017016460A (en) * 2015-07-02 2017-01-19 沖電気工業株式会社 Traffic flow measurement device and traffic flow measurement method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0311500A (en) * 1989-06-09 1991-01-18 Nagoya Denki Kogyo Kk Vehicle detector
JPH04188005A (en) * 1990-11-22 1992-07-06 Nippon Signal Co Ltd:The Image type vehicle sensor
JP2000041959A (en) * 1998-07-28 2000-02-15 Nippon Colin Co Ltd Cardiac output monitoring instrument
JP2000113169A (en) * 1998-10-01 2000-04-21 Toshiba Corp Device and method for detecting vehicle
JP2001229488A (en) * 2000-02-15 2001-08-24 Hitachi Ltd Vehicle tracking method and traffic state tracking device
JP2001351107A (en) * 2000-06-05 2001-12-21 Mitsubishi Electric Corp Device and method for monitoring traffic
JP2002008017A (en) * 2000-06-16 2002-01-11 Mitsubishi Electric Corp Movable body detection system
JP2002074368A (en) * 2000-08-25 2002-03-15 Matsushita Electric Ind Co Ltd Moving object recognizing and tracking device
JP2002358595A (en) * 2001-06-01 2002-12-13 Mitsubishi Electric Corp Instrument and method for measuring road traffic stream
JP2003199094A (en) * 2001-12-28 2003-07-11 Yazaki Corp Image revising apparatus for vehicle and night drive visual field supporting apparatus
JP2005228089A (en) * 2004-02-13 2005-08-25 Toshiba Corp Image processor, image processing method and image processing program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0311500A (en) * 1989-06-09 1991-01-18 Nagoya Denki Kogyo Kk Vehicle detector
JPH04188005A (en) * 1990-11-22 1992-07-06 Nippon Signal Co Ltd:The Image type vehicle sensor
JP2000041959A (en) * 1998-07-28 2000-02-15 Nippon Colin Co Ltd Cardiac output monitoring instrument
JP2000113169A (en) * 1998-10-01 2000-04-21 Toshiba Corp Device and method for detecting vehicle
JP2001229488A (en) * 2000-02-15 2001-08-24 Hitachi Ltd Vehicle tracking method and traffic state tracking device
JP2001351107A (en) * 2000-06-05 2001-12-21 Mitsubishi Electric Corp Device and method for monitoring traffic
JP2002008017A (en) * 2000-06-16 2002-01-11 Mitsubishi Electric Corp Movable body detection system
JP2002074368A (en) * 2000-08-25 2002-03-15 Matsushita Electric Ind Co Ltd Moving object recognizing and tracking device
JP2002358595A (en) * 2001-06-01 2002-12-13 Mitsubishi Electric Corp Instrument and method for measuring road traffic stream
JP2003199094A (en) * 2001-12-28 2003-07-11 Yazaki Corp Image revising apparatus for vehicle and night drive visual field supporting apparatus
JP2005228089A (en) * 2004-02-13 2005-08-25 Toshiba Corp Image processor, image processing method and image processing program

Also Published As

Publication number Publication date
JP2007094919A (en) 2007-04-12

Similar Documents

Publication Publication Date Title
RU2693419C1 (en) Device (embodiments) and method of recognizing traffic lights
US8964035B2 (en) Method for calibrating the image of a camera
EP2910971A1 (en) Object recognition apparatus and object recognition method
JP2018163438A (en) Information processing device and information processing system
JP2018180772A (en) Object detection device
CN113435237B (en) Object state recognition device, recognition method, and computer-readable recording medium, and control device
JP2007078358A (en) Measurement device for mobile body, signal control system, measurement method of mobile body, and computer program
JP2009265883A (en) Vehicle periphery monitoring device
CN105809669A (en) Method and apparatus of calibrating an image detecting device
JP4668754B2 (en) Traffic flow measuring device
JP5796187B2 (en) Evaluation value calculation apparatus and evaluation value calculation method
JP2021128705A (en) Object state identification device
JP2010055628A (en) Traffic flow measurement device
JP2019164840A (en) Information processor and information processing system
JP2020109560A (en) Traffic signal recognition method and traffic signal recognition device
JP6398218B2 (en) Self-position calculation device and self-position calculation method
CN116529633A (en) Method for detecting an object by means of a lighting device and an optical sensor, control device for carrying out the method, detection device having the control device, and motor vehicle having the detection device
JPH05157558A (en) Vehicular gap detector
JP2007164566A (en) System and device of vehicle sensing for traffic-actuated control
KR100751096B1 (en) Velocity measuring apparatus and method using optical flow
RU2597328C1 (en) Method of remote measurement and fixing the speed of vehicles
JPH10187974A (en) Physical distribution measuring instrument
JP6756507B2 (en) Environmental recognition device
KR20230082323A (en) Method and apparatus for detecting vehicle speed
JP7344743B2 (en) Occupancy map creation method and occupancy map creation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4668754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250