JP2006330942A - Traffic condition deciding system, image processor, computer program, and traffic condition deciding method - Google Patents

Traffic condition deciding system, image processor, computer program, and traffic condition deciding method Download PDF

Info

Publication number
JP2006330942A
JP2006330942A JP2005151618A JP2005151618A JP2006330942A JP 2006330942 A JP2006330942 A JP 2006330942A JP 2005151618 A JP2005151618 A JP 2005151618A JP 2005151618 A JP2005151618 A JP 2005151618A JP 2006330942 A JP2006330942 A JP 2006330942A
Authority
JP
Japan
Prior art keywords
traffic
motion vector
determination
block
connected block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005151618A
Other languages
Japanese (ja)
Inventor
Masakatsu Higashikubo
政勝 東久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2005151618A priority Critical patent/JP2006330942A/en
Publication of JP2006330942A publication Critical patent/JP2006330942A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a traffic condition deciding system for deciding such detail traffic conditions as traffic congestion, traffic abnormality, a traffic offense and traffic accident, an image processor configuring the traffic condition deciding system, a computer program for operating the image processor, and a traffic condition deciding method. <P>SOLUTION: A CPU starts clocking of a decision time T1 and a calculation time T2, and executes frame image processing, and decides presence/no presence of the lapse of the calculation time T2. When the calculation time T2 does not elapse, the CPU continuously executes the frame image processing. When the calculation time T2 elapses, the CPU executes traffic congestion decision processing and traffic abnormality decision processing. The CPU decides presence/no presence of the traffic abnormality, and when any traffic abnormality is present, the CPU decides presence/no presence of the lapse of the decision time T1. When the decision time T1 does not elapse, the CPU resets the calculation time T2, and repeats the frame image processing, the traffic congestion decision processing and the traffic abnormality decision processing. When the decision time T1 elapses, the CPU notifies a control center device (3) of the traffic abnormality. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、道路を含む領域を撮像装置で撮像して得られた撮像画像に基づいて、広範囲な交通状況を判定する交通状況判定システム、該交通状況判定システムを構成する画像処理装置、該画像処理装置を実現するコンピュータプログラム、及び交通状況判定方法に関する。   The present invention relates to a traffic situation determination system for determining a wide range of traffic conditions based on a captured image obtained by imaging an area including a road with an imaging apparatus, an image processing apparatus constituting the traffic situation determination system, and the image The present invention relates to a computer program for realizing a processing device and a traffic situation determination method.

道路交通環境の改善を目的とした道路交通システムは、渋滞緩和のために車両の流入制限するもの、交通関連情報の提供や交通流を最適化するものなど、様々な分野で利用されつつあり、ビデオカメラで撮像した撮像画像を処理して、車両の通過台数、走行速度などの情報を収集するものがある。   Road traffic systems aimed at improving the road traffic environment are being used in various fields, such as those that limit the inflow of vehicles to reduce traffic congestion, those that provide traffic-related information and optimize traffic flow, There are some which process captured images captured by a video camera and collect information such as the number of passing vehicles and traveling speed.

道路上の走行車両を検出する方法には、車両が存在しない道路のみの画像を予め作成しておき、車両が走行しているときの画像と道路のみの画像との差分を算出し、算出した情報に基づいて車両のみの情報を抽出するものがある。しかし、この方法は、日照変化、天候変化などの外部環境変化の影響により、道路上の影、路面標記などを走行車両と誤って検出する場合があった。   As a method for detecting a traveling vehicle on a road, an image of only a road where no vehicle exists is created in advance, and a difference between an image when the vehicle is traveling and an image of only a road is calculated and calculated. There is one that extracts information on only the vehicle based on the information. However, this method sometimes erroneously detects a shadow on a road, a road marking, or the like as a traveling vehicle due to the influence of changes in the external environment such as sunshine changes and weather changes.

これに対して、微小時間間隔の複数画像間での撮像画像の差分又は相関情報などを算出することにより移動体の動きベクトルを算出して車両を検出する方法は、外部環境変化の影響を受けにくく、動きベクトルの算出により、車両の速度、移動方向などの情報を取得することが可能である。   On the other hand, a method for detecting a vehicle by calculating a motion vector of a moving body by calculating a difference or correlation information of captured images between a plurality of images at minute time intervals is affected by changes in the external environment. It is difficult to obtain information such as the speed and moving direction of the vehicle by calculating the motion vector.

例えば、ビデオカメラの光軸を路面に向けて道路の上方に配置し、ビデオカメラで撮像した画像上の各車両の動きを動きベクトルとして認識することにより、車間距離が小さい場合であっても、車両の速度、方向、台数などの交通情報を測定することができる交通情報測定装置が提案されている(特許文献1参照)。
特開平10−334395号公報
For example, if the optical axis of the video camera is placed above the road with the road surface and the movement of each vehicle on the image captured by the video camera is recognized as a motion vector, even if the inter-vehicle distance is small, A traffic information measuring device capable of measuring traffic information such as the speed, direction, and number of vehicles has been proposed (see Patent Document 1).
JP-A-10-334395

しかしながら、特許文献1の装置にあっては、車両の速度、方向、台数などの交通情報(交通パラメータ)を同時に測定することができるが、交通渋滞、交通違反、交通事故、又は異常走行などの交通状況を判定することはできない。円滑な交通又は事故の未然防止を効果的に実現するためには、車両の速度、方向、台数などの交通情報だけでなく、さらに詳細な交通情報を測定して、交通状況を正確に、かつ広範囲に判定することが求められていた。   However, in the apparatus of Patent Document 1, traffic information (traffic parameters) such as the speed, direction, and number of vehicles can be measured simultaneously, but traffic jams, traffic violations, traffic accidents, abnormal driving, etc. The traffic situation cannot be judged. In order to effectively realize smooth traffic or accident prevention, not only traffic information such as the speed, direction and number of vehicles, but also more detailed traffic information is measured, and traffic conditions are accurately determined. A wide range of judgments were required.

本発明は、斯かる事情に鑑みてなされたものであり、撮像時点の異なる撮像画像で特定した対応する画素ブロックの位置変化により、画素ブロックの動きベクトルを算出し、算出した動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックの動きベクトルを算出し、算出した連結ブロックの動きベクトル又は該動きベクトルに基づいて算出した動きベクトルの分布密度により交通状況を判定することにより、外部環境変化に影響されずに交通状況を判定することができる交通状況判定システム、該交通状況判定システムを構成する画像処理装置、該画像処理装置を実現するコンピュータプログラム、及び交通状況判定方法を提供することを目的とする。   The present invention has been made in view of such circumstances, and calculates a motion vector of a pixel block based on a change in the position of the corresponding pixel block specified by a captured image at a different time of imaging, and the direction of the calculated motion vector is By calculating a motion vector of a connected block obtained by connecting adjacent pixel blocks that substantially match each other, and determining the traffic situation based on the calculated motion vector of the connected block or the distribution density of the motion vector calculated based on the motion vector, Provided are a traffic situation determination system capable of determining a traffic situation without being affected by environmental changes, an image processing device constituting the traffic situation judgment system, a computer program for realizing the image processing device, and a traffic situation judgment method. For the purpose.

また、本発明の他の目的は、所定時間に複数回算出した動きベクトルの分布密度及び動きベクトルに基づいて、それらの平均値、最頻値、又は中央値の少なくとも一つを含む統計値を算出することにより、さらに正確に交通状況を判定することができる画像処理装置を提供することにある。   Another object of the present invention is to calculate a statistical value including at least one of an average value, a mode value, or a median value based on a motion vector distribution density and a motion vector calculated a plurality of times in a predetermined time. An object of the present invention is to provide an image processing apparatus that can determine the traffic situation more accurately by calculating.

また、本発明の他の目的は、動きベクトルの分布密度又は連結ブロックの動きベクトルの大きさに基づいて、交通渋滞状況を判定することにより、交通渋滞の度合いを正確に判定することができる画像処理装置を提供することにある。   Another object of the present invention is an image that can accurately determine the degree of traffic congestion by determining the traffic congestion status based on the distribution density of motion vectors or the size of motion vectors of connected blocks. It is to provide a processing apparatus.

また、本発明の他の目的は、連結ブロックの動きベクトルの方向と交通流の方向を定める標準方向との角度差が略180度である場合、交通異常と判定することにより、車両の走行方向の異常を容易に判定することができる画像処理装置を提供することにある。   Another object of the present invention is to determine a traffic abnormality when the angle difference between the direction of the motion vector of the connected block and the standard direction that determines the direction of traffic flow is approximately 180 degrees, thereby determining the direction of travel of the vehicle. It is an object of the present invention to provide an image processing apparatus that can easily determine the abnormality.

また、本発明の他の目的は、計時された判定時間が所定の時間以上となるまで、連結ブロックの動きベクトルの方向と交通流の方向を定める標準方向との角度差が第1閾値以上である場合、交通異常と判定することにより、駐車車両、事故車両、又は障害物などを避けるための回避走行が継続していることを容易に判定することができる画像処理装置を提供することにある。   Another object of the present invention is that the angle difference between the direction of the motion vector of the connected block and the standard direction that determines the direction of traffic flow is greater than or equal to the first threshold until the timed determination time exceeds a predetermined time. In some cases, it is an object of the present invention to provide an image processing apparatus that can easily determine that avoidance traveling for avoiding a parked vehicle, an accident vehicle, an obstacle, or the like is continued by determining a traffic abnormality. .

また、本発明の他の目的は、同一進行方向の複数の車線に対応した判定領域を撮像画像に設けてあり、計時された判定時間が所定の時間以上となるまで、一の判定領域の連結ブロックの動きベクトルの大きさが第2閾値より小さく、他の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定することにより、隣接する車線の一方で交通異常が発生していることを判定することができる画像処理装置を提供することにある。   Another object of the present invention is to provide determination images corresponding to a plurality of lanes in the same traveling direction in a captured image, and to connect one determination region until a measured determination time becomes a predetermined time or more. When the magnitude of the motion vector of the block is smaller than the second threshold value and the magnitude of the motion vector of the connected block in the other determination area is larger than the second threshold value, it is determined that the traffic is abnormal, thereby It is an object of the present invention to provide an image processing apparatus that can determine that a traffic abnormality has occurred.

また、本発明の他の目的は、計時された判定時間が所定の時間以上となるまで、前記一の判定領域の動きベクトルの分布密度が第3閾値より大きい場合に、交通異常と判定することにより、さらに精度良く交通異常を判定することができる画像処理装置を提供することにある。   Another object of the present invention is to determine a traffic abnormality when the motion vector distribution density of the one determination area is larger than a third threshold until the measured determination time reaches a predetermined time or more. Accordingly, an object of the present invention is to provide an image processing apparatus capable of determining a traffic abnormality with higher accuracy.

また、本発明の他の目的は、同一進行方向の複数の車線に対応した判定領域を撮像画像に設けてあり、計時された判定時間が所定の時間以上となるまで、一の判定領域で連結ブロックが特定されず、他の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定することにより、さらに精度良く交通異常を判定することができる画像処理装置を提供することにある。   Another object of the present invention is to provide a captured image with determination areas corresponding to a plurality of lanes in the same traveling direction, and connect them in one determination area until the measured determination time becomes a predetermined time or more. Image processing that can determine a traffic abnormality with higher accuracy by determining a traffic abnormality when a block is not specified and the motion vector size of a connected block in another determination area is larger than the second threshold. To provide an apparatus.

また、本発明の他の目的は、交通規制に対応する規制領域を撮像画像に設けてあり、前記規制領域に進入した連結ブロックの動きベクトルの方向と、交通流の規制方向とが略一致する場合に、交通違反と判定することにより、進入禁止領域への進入、右折禁止での右折走行などの交通違反を判定することができる画像処理装置を提供することにある。   Another object of the present invention is to provide a captured image with a restriction area corresponding to traffic restriction, and the direction of the motion vector of the connected block that has entered the restriction area substantially coincides with the restriction direction of the traffic flow. In this case, it is desirable to provide an image processing device capable of determining traffic violations such as entering an entry prohibition area or traveling right when prohibiting a right turn by determining a traffic violation.

また、本発明の他の目的は、連結ブロック同士が重複する重複領域の画素ブロック数が第4閾値以上になる第1撮像時点と、該第1撮像時点より前の第2撮像時点との間で、前記重複領域の画素が有する輝度値の差が前記第5閾値以上である場合に、交通事故と判定することにより、衝突事故の発生を容易に判定することができる画像処理装置を提供することにある。   Another object of the present invention is between a first imaging time point when the number of pixel blocks in an overlapping region where connected blocks overlap each other is a fourth threshold value and a second imaging time point before the first imaging time point. And providing an image processing apparatus that can easily determine the occurrence of a collision accident by determining a traffic accident when the difference in luminance value of the pixels in the overlap region is equal to or greater than the fifth threshold. There is.

また、本発明の他の目的は、前記第2撮像時点に前記連結ブロックが存在した領域夫々の画素が有する輝度値の前記第1撮像時点及び第2撮像時点での差が第6閾値以上である場合に、交通事故と判定することにより、さらに精度良く衝突事故の発生を判定することができる画像処理装置を提供することにある。   Another object of the present invention is to provide a difference between the first imaging time point and the second imaging time point of a luminance value of each pixel in the region where the connected block is present at the second imaging time point being a sixth threshold value or more. An object of the present invention is to provide an image processing apparatus capable of determining the occurrence of a collision accident with higher accuracy by determining a traffic accident in some cases.

また、本発明の他の目的は、画像処理装置で算出した動きベクトルを判定装置へ送信し、該判定装置は、受信した動きベクトルに基づいて、動きベクトルの分布密度又は連結ブロックの動きベクトルを算出して交通状況を判定することにより、遠隔地の交通状況を容易に判定することができる交通状況判定システムを提供することにある。   Another object of the present invention is to transmit a motion vector calculated by an image processing device to a determination device, which determines a motion vector distribution density or a connected block motion vector based on the received motion vector. An object of the present invention is to provide a traffic condition determination system that can easily determine a traffic condition at a remote place by calculating and determining the traffic condition.

また、本発明の他の目的は、道路を含む異なる領域を撮像する撮像装置、及び該撮像装置で撮像した撮像画像を処理する画像処理装置夫々を道路に沿って3つ以上備え、一の撮像装置で撮像した撮像画像、及び前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像に基づいて、広範囲の交通渋滞状況を判定することができる交通状況判定システムを提供することにある。   In addition, another object of the present invention is to provide an image pickup apparatus that picks up different areas including a road and three or more image processing apparatuses that process picked-up images picked up by the image pickup apparatus along the road. Traffic situation determination capable of determining a wide range of traffic jam conditions based on a captured image captured by the apparatus and captured images captured by the two most recent imaging apparatuses installed with the one imaging apparatus in between To provide a system.

また、本発明の他の目的は、一の時点、及び該一の時点と異なる複数の他の時点における交通渋滞状況を判定することにより、誤判定を低減して、精度良く交通渋滞状況を判定することができる交通状況判定システムを提供することにある。   In addition, another object of the present invention is to determine the traffic jam situation at one time point and a plurality of other time points different from the one time point, thereby reducing misjudgment and accurately determining the traffic jam situation. An object of the present invention is to provide a traffic situation determination system that can do this.

また、本発明の他の目的は、複数の連続した撮像装置で撮像した撮像画像により判定した交通渋滞状況に基づいて、交通渋滞変化点を判定することができる交通状況判定システムを提供することにある。   Another object of the present invention is to provide a traffic situation determination system that can determine a traffic jam change point based on a traffic jam situation determined from captured images captured by a plurality of continuous imaging devices. is there.

第1発明に係る画像処理装置は、取得した撮像画像を処理して交通状況を判定する画像処理装置において、撮像時点の異なる撮像画像の対応する画素ブロックを特定する手段と、前記画素ブロックの位置変化に基づいて、前記画素ブロックの動きベクトルを算出する手段と、算出された動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定する手段と、前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出するベクトル算出手段と、前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出する密度算出手段と、前記分布密度又は連結ブロックの動きベクトルに基づいて、交通状況を判定する判定手段とを備えることを特徴とする。   An image processing apparatus according to a first aspect of the present invention is an image processing apparatus that processes an acquired captured image to determine a traffic situation, and that specifies a pixel block corresponding to a captured image at a different imaging time point, and the position of the pixel block Means for calculating a motion vector of the pixel block based on a change, means for specifying a connected block connecting adjacent pixel blocks having substantially the same direction of the calculated motion vector, and each pixel block of the connected block Vector calculation means for calculating a motion vector of the connected block based on the motion vector of the connected block; density calculation means for calculating a distribution density of the motion vector based on the number of pixel blocks of the connected block; and the distribution density or connected block. And determining means for determining a traffic situation based on the motion vector.

第2発明に係る画像処理装置は、第1発明において、前記密度算出手段及びベクトル算出手段は、前記分布密度及び連結ブロックの動きベクトルを所定時間に複数回算出するようにしてあり、算出した複数の分布密度及び連結ブロックの動きベクトルに基づいて、それらの平均値、最頻値、又は中央値の少なくとも一つを含む統計値を算出するようにしてあることを特徴とする。   The image processing apparatus according to a second invention is the image processing apparatus according to the first invention, wherein the density calculating means and the vector calculating means calculate the distribution density and the motion vector of the connected block a plurality of times in a predetermined time. On the basis of the distribution density and the motion vector of the connected block, a statistical value including at least one of the average value, the mode value, and the median value is calculated.

第3発明に係る画像処理装置は、第2発明において、前記判定手段は、前記分布密度又は連結ブロックの動きベクトルの大きさに基づいて、交通渋滞状況を判定するようにしてあることを特徴とする。   An image processing apparatus according to a third invention is characterized in that, in the second invention, the determination means determines a traffic jam situation based on the distribution density or the size of a motion vector of a connected block. To do.

第4発明に係る画像処理装置は、第1発明において、交通流の方向を定める標準方向を記憶する記憶手段と、前記連結ブロックの動きベクトルの方向と前記標準方向との角度差を算出する角度差算出手段とを備え、前記判定手段は、算出された角度差が略180度である場合、交通異常と判定するようにしてあることを特徴とする。   The image processing apparatus according to a fourth aspect of the present invention is the image processing apparatus according to the first aspect, wherein storage means for storing a standard direction for determining the direction of traffic flow, and an angle for calculating an angle difference between the direction of the motion vector of the connected block and the standard direction. And a difference calculating means, wherein the determining means determines that the traffic is abnormal when the calculated angle difference is approximately 180 degrees.

第5発明に係る画像処理装置は、第1発明乃至第4発明のいずれかにおいて、交通流の方向を定める標準方向を記憶する記憶手段と、前記連結ブロックの動きベクトルの方向と前記標準方向との角度差を算出する角度差算出手段と、判定時間を計時する手段とを備え、前記判定手段は、前記判定時間が所定の時間以上となるまで、算出された角度差が第1閾値以上である場合、交通異常と判定するようにしてあることを特徴とする。   An image processing apparatus according to a fifth invention is the image processing apparatus according to any one of the first to fourth inventions, a storage unit that stores a standard direction that determines a direction of traffic flow, a direction of a motion vector of the connection block, and the standard direction. An angle difference calculating means for calculating an angle difference between the first angle threshold value and a means for measuring a determination time. The determination means is configured such that the calculated angle difference is equal to or greater than a first threshold until the determination time is equal to or greater than a predetermined time. In some cases, a traffic abnormality is determined.

第6発明に係る画像処理装置は、第1発明乃至第4発明のいずれかにおいて、同一進行方向の複数の車線に対応した判定領域を撮像画像に設けてあり、前記連結ブロックの動きベクトルの大きさと第2閾値とを比較する手段と、判定時間を計時する手段とを備え、前記判定手段は、前記判定時間が所定の時間以上となるまで、一の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より小さく、他の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定するようにしてあることを特徴とする。   The image processing apparatus according to a sixth aspect of the present invention is the image processing apparatus according to any one of the first to fourth aspects, wherein the captured image includes determination areas corresponding to a plurality of lanes in the same traveling direction, and the magnitude of the motion vector of the connected block And a second time threshold, and a means for measuring a determination time, wherein the determination means is a magnitude of a motion vector of a connected block in one determination area until the determination time reaches a predetermined time or more. Is smaller than the second threshold and the motion vector of the connected block in the other determination area is larger than the second threshold, it is determined that the traffic is abnormal.

第7発明に係る画像処理装置は、第6発明において、前記分布密度と第3閾値とを比較する手段を備え、前記判定手段は、前記判定時間が所定の時間以上となるまで、前記一の判定領域の分布密度が前記第3閾値より大きい場合に、交通異常と判定するようにしてあることを特徴とする。   An image processing apparatus according to a seventh aspect of the present invention is the image processing apparatus according to the sixth aspect, further comprising means for comparing the distribution density with a third threshold value, wherein the determination means is configured to perform the determination until the determination time reaches a predetermined time or more. When the distribution density of the determination area is larger than the third threshold value, it is determined that the traffic is abnormal.

第8発明に係る画像処理装置は、第1発明乃至第4発明のいずれかにおいて、同一進行方向の複数の車線に対応した判定領域を撮像画像に設けてあり、前記連結ブロックの動きベクトルの大きさと第2閾値とを比較する手段と、判定時間を計時する手段とを備え、前記判定手段は、前記判定時間が所定の時間以上となるまで、一の判定領域で連結ブロックが特定されず、他の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定するようにしてあることを特徴とする。   An image processing apparatus according to an eighth aspect of the present invention is the image processing apparatus according to any one of the first to fourth aspects, wherein a determination region corresponding to a plurality of lanes in the same traveling direction is provided in the captured image, and the magnitude of the motion vector of the connected block And a second time threshold, and a means for measuring a determination time, wherein the determination means does not identify a connected block in one determination area until the determination time reaches a predetermined time, When the magnitude of the motion vector of the connected block in the other determination area is larger than the second threshold, it is determined that the traffic is abnormal.

第9発明に係る画像処理装置は、第1発明乃至第8発明のいずれかにおいて、交通規制に対応する規制領域を撮像画像に設けてあり、前記規制領域での交通流の規制方向を記憶するようにしてあり、連結ブロックの前記規制領域への進入を検出する手段と、前記連結ブロックの動きベクトルの方向と前記規制方向とを比較する手段とを備え、前記判定手段は、前記規制領域に進入した連結ブロックの動きベクトルの方向と前記規制方向とが略一致する場合に、交通違反と判定するようにしてあることを特徴とする。   An image processing device according to a ninth invention is the image processing device according to any one of the first to eighth inventions, wherein a restriction region corresponding to traffic restriction is provided in the captured image, and the restriction direction of traffic flow in the restriction region is stored. And a means for detecting entry of the connected block into the restricted area, and a means for comparing the direction of the motion vector of the connected block with the restricted direction, wherein the determining means is provided in the restricted area. It is characterized in that a traffic violation is determined when the direction of the motion vector of the connected block that has entered substantially coincides with the regulation direction.

第10発明に係る画像処理装置は、第1発明乃至第9発明のいずれかにおいて、連結ブロックの動きベクトルに基づいて、前記連結ブロック同士の重複領域を特定する手段と、 前記重複領域の画素ブロック数と第4閾値とを比較する手段とを備え、前記判定手段は、前記重複領域の画素ブロック数が前記第4閾値以上になる第1撮像時点と、該第1撮像時点より前の第2撮像時点との間で、前記重複領域の画素が有する輝度値の差が前記第5閾値以上である場合に、交通事故と判定するようにしてあることを特徴とする。   The image processing apparatus according to a tenth aspect of the present invention is the image processing apparatus according to any one of the first to ninth aspects, wherein means for identifying an overlapping area between the connected blocks based on a motion vector of the connected block; and a pixel block of the overlapping area A means for comparing the number and a fourth threshold value, wherein the determining means includes a first imaging time point at which the number of pixel blocks in the overlapping region is equal to or greater than the fourth threshold value, and a second time point before the first imaging time point. It is characterized in that a traffic accident is determined when the difference in luminance value of the pixels in the overlapping area from the imaging time point is not less than the fifth threshold value.

第11発明に係る画像処理装置は、第10発明において、前記判定手段は、前記第2撮像時点に前記連結ブロックが存在した領域夫々の画素が有する輝度値の前記第1撮像時点及び第2撮像時点での差が第6閾値以上である場合に、交通事故と判定するようにしてあることを特徴とする。   An image processing apparatus according to an eleventh aspect of the present invention is the image processing apparatus according to the tenth aspect, wherein the determination means includes the first imaging time point and the second imaging point of the luminance value of each pixel in the region where the connected block exists at the second imaging time point. It is characterized in that a traffic accident is determined when the difference at the time is equal to or greater than the sixth threshold.

第12発明に係る交通状況判定システムは、道路を含む領域を撮像装置で撮像し、撮像して得られた撮像画像を画像処理装置で処理して交通状況を判定する交通状況判定システムにおいて、前記画像処理装置は、撮像時点の異なる撮像画像の対応する画素ブロックを特定する手段と、前記画素ブロックの位置変化に基づいて、前記画素ブロックの動きベクトルを算出する手段と、算出された動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定する手段と、前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出するベクトル算出手段と、前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出する密度算出手段と、前記分布密度又は連結ブロックの動きベクトルに基づいて、交通状況を判定する判定手段とを備えることを特徴とする。   A traffic situation determination system according to a twelfth aspect of the present invention is the traffic situation determination system in which an area including a road is imaged by an imaging device, and a captured image obtained by imaging is processed by an image processing device to determine the traffic situation. The image processing apparatus includes: a unit that identifies a corresponding pixel block of a captured image at a different time of imaging; a unit that calculates a motion vector of the pixel block based on a change in the position of the pixel block; Means for identifying a connected block that connects adjacent pixel blocks having substantially the same direction; vector calculating means for calculating a motion vector of the connected block based on a motion vector of each pixel block of the connected block; and Density calculating means for calculating the distribution density of the motion vector based on the number of pixel blocks of the block, and the distribution density or concatenation Based on the lock of the motion vector, characterized in that it comprises a determination means for determining traffic situation.

第13発明に係る交通状況判定システムは、道路を含む領域を撮像する撮像装置と、撮像して得られた撮像画像を処理する画像処理装置と、交通状況を判定する判定装置とを備える交通状況判定システムにおいて、前記画像処理装置は、撮像時点の異なる撮像画像の対応する画素ブロックを特定する手段と、前記画素ブロックの位置変化に基づいて、前記画素ブロックの動きベクトルを算出する手段と、算出した動きベクトルを前記判定装置へ送信する手段とを備え、前記判定装置は、前記画像処理装置が送信した動きベクトルを受信する手段と、受信した動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定する手段と、前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出するベクトル算出手段と、前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出する密度算出手段と、前記分布密度又は前記連結ブロックの動きベクトルに基づいて、交通状況を判定する判定手段とを備えることを特徴とする。   A traffic situation determination system according to a thirteenth aspect of the present invention is provided with an imaging apparatus that captures an area including a road, an image processing apparatus that processes a captured image obtained by imaging, and a determination apparatus that determines a traffic situation. In the determination system, the image processing device includes: a unit that identifies a corresponding pixel block of a captured image at a different time of imaging; a unit that calculates a motion vector of the pixel block based on a change in the position of the pixel block; And a means for transmitting the motion vector transmitted to the determination device, wherein the determination device includes a means for receiving the motion vector transmitted by the image processing device and an adjacent pixel block whose directions of the received motion vectors substantially coincide. Based on the means for identifying the connected block connected, and the motion vector of each pixel block of the connected block, the motion of the connected block. Vector calculation means for calculating a vector, density calculation means for calculating a distribution density of a motion vector based on the number of pixel blocks of the connected block, and determining a traffic situation based on the distribution density or a motion vector of the connected block And determining means for performing the processing.

第14発明に係る交通状況判定システムは、第13発明において、道路を含む異なる領域を撮像する撮像装置、及び該撮像装置で撮像した撮像画像を処理する画像処理装置夫々を道路に沿って3つ以上備え、前記判定装置は、前記分布密度又は前記連結ブロックの動きベクトルに基づいて、交通渋滞状況を判定するようにしてあり、一の撮像装置で撮像した撮像画像により判定した第1の交通渋滞状況が、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により判定した第2の交通渋滞状況と異なる場合に、第2の交通渋滞状況であると判定するようにしてあることを特徴とする。   According to a fourteenth aspect of the present invention, in the thirteenth aspect of the present invention, there are provided three image pickup devices for picking up different areas including roads, and three image processing devices for processing picked-up images picked up by the image pickup devices along the road. The determination device is configured to determine the traffic congestion status based on the distribution density or the motion vector of the connected block, and the first traffic congestion determined by the captured image captured by one imaging device. When the situation is different from the second traffic congestion situation determined by the captured images taken by the two most recent imaging apparatuses installed with the one imaging apparatus in between, it is the second traffic congestion situation It is characterized in that it is determined.

第15発明に係る交通状況判定システムは、第14発明において、前記判定装置は、一の時点で、前記一の撮像装置で撮像した撮像画像により判定した第1の交通渋滞状況が、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により判定した第2の交通渋滞状況と異なる場合に、前記一の時点と異なる複数の他の時点で、前記一の撮像装置で撮像した撮像画像により判定した交通渋滞状況が、前記第2の交通渋滞状況であるときは、第2の交通渋滞状況であると判定するようにしてあることを特徴とする。   According to a fifteenth aspect of the present invention, in the fourteenth aspect of the present invention, there is provided the traffic situation determination system according to the fourteenth aspect, in which the determination device determines whether the first traffic congestion situation determined from the captured image captured by the one imaging device If the second traffic congestion situation determined by the captured images captured by the two most recent imaging devices installed with the imaging device in between is different from the one time point, the one When the traffic jam situation determined by the captured image captured by the imaging device is the second traffic jam situation, it is determined that the traffic jam situation is the second traffic jam situation.

第16発明に係る交通状況判定システムは、第14発明又は第15発明において、前記判定装置は、複数の連続した撮像装置で撮像した撮像画像により判定した交通渋滞状況が同一である場合に、前記撮像装置のうち交通流の下流端の撮像装置の位置に基づいて、交通渋滞変化点を判定するようにしてあることを特徴とする。   The traffic situation determination system according to a sixteenth aspect of the invention is the fourteenth aspect or the fifteenth aspect of the invention, wherein the determination device has the same traffic jam situation determined by captured images captured by a plurality of continuous imaging devices. The traffic congestion change point is determined based on the position of the imaging device at the downstream end of the traffic flow in the imaging device.

第17発明に係るコンピュータプログラムは、コンピュータに、取得した撮像画像を処理して交通状況を判定させるためのコンピュータプログラムにおいて、コンピュータを、動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定する手段と、前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出するベクトル算出手段と、前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出する密度算出手段と、前記分布密度又は連結ブロックの動きベクトルに基づいて、交通状況を判定する判定手段として機能させることを特徴とする。   A computer program according to a seventeenth aspect of the present invention is a computer program for causing a computer to process an acquired captured image and determine a traffic situation, and to connect the computer to adjacent pixel blocks whose motion vector directions substantially coincide with each other. A means for identifying a block; a vector calculating means for calculating a motion vector of the connected block based on a motion vector of each pixel block of the connected block; and a motion vector distribution density based on the number of pixel blocks of the connected block And a density calculating means for calculating a traffic condition based on the distribution density or the motion vector of the connected block.

第18発明に係る交通状況判定方法は、道路を含む領域を撮像装置で撮像し、撮像して得られた撮像画像を処理して交通状況を判定する交通状況判定方法において、動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定し、前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出し、前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出し、前記分布密度又は連結ブロックの動きベクトルに基づいて、交通状況を判定することを特徴とする。   A traffic situation determination method according to an eighteenth aspect of the present invention is the traffic situation determination method in which an area including a road is imaged by an imaging device, and the captured image obtained by imaging is processed to determine the traffic situation. Identifying a connected block that connects adjacent pixel blocks that substantially match, calculates a motion vector of the connected block based on a motion vector of each pixel block of the connected block, and based on the number of pixel blocks of the connected block The distribution density of the motion vector is calculated, and the traffic situation is determined based on the distribution density or the motion vector of the connected block.

第1発明、第12発明、第17発明及び第18発明にあっては、画像処理装置は、撮像画像を所望の画素ブロック(例えば、8×8画素のブロック)に分割し、一の撮像時点の撮像画像の各画素ブロックに対応する画素ブロックを前記一の撮像時点と異なる撮像時点の撮像画像で特定する。異なる撮像時点間において、対応する画素ブロックが特定された場合、画像処理装置は、特定された画素ブロックの撮像画像での位置変化に基づき、対応する画素ブロックの中心同士を結ぶベクトルである画素ブロックの動きベクトルを算出する。これにより、異なる撮像時点間で画素ブロックの位置変化がない道路上の影、路面標記などを排除することができる。画像処理装置は、算出された各画素ブロックの動きベクトルの方向が略一致する画素ブロックであって、隣接した画素ブロックを連結した連結ブロックを特定する。これにより、道路を走行する車両を特定する。   In the first invention, the twelfth invention, the seventeenth invention, and the eighteenth invention, the image processing apparatus divides the captured image into desired pixel blocks (for example, 8 × 8 pixel blocks), and one imaging time point. A pixel block corresponding to each pixel block of the captured image is identified by a captured image at an imaging time point different from the one imaging time point. When a corresponding pixel block is specified between different imaging time points, the image processing device is a pixel block that is a vector that connects the centers of the corresponding pixel blocks based on a positional change in the captured image of the specified pixel block. The motion vector of is calculated. As a result, it is possible to eliminate shadows on the road, road surface markings, and the like in which the position of the pixel block does not change between different imaging points. The image processing apparatus identifies pixel blocks in which the calculated motion vector directions of the respective pixel blocks substantially coincide with each other and connected blocks obtained by connecting adjacent pixel blocks. Thereby, the vehicle which drive | works a road is specified.

ベクトル算出手段は、連結ブロックを構成する各画素ブロックの動きベクトルに基づいて(例えば、各画素ブロックの動きベクトルの平均値)、連結ブロックの動きベクトルを算出する。密度算出手段は、連結ブロックの画素ブロック数に基づいて(例えば、撮像画像における画素ブロック数に対する連結ブロック(複数の連結ブロックがある場合には、すべての連結ブロック)を構成する画素ブロック数の比)、動きベクトルの分布密度を算出する。判定手段は、撮像装置で繰り返し撮像した場合、得られた撮像画像に基づいて、動きベクトルの分布密度又は連結ブロックの動きベクトルを算出することにより、車両の時間的分布及び空間的分布に基づいた交通状況を判定する。   The vector calculation means calculates the motion vector of the connected block based on the motion vector of each pixel block constituting the connected block (for example, the average value of the motion vector of each pixel block). Based on the number of pixel blocks of the connected block (for example, the ratio of the number of pixel blocks constituting the connected block (or all connected blocks when there are a plurality of connected blocks) based on the number of pixel blocks in the captured image) ) To calculate the motion vector distribution density. The determination means, based on the temporal distribution and the spatial distribution of the vehicle, calculates the motion vector distribution density or the motion vector of the connected block based on the obtained captured image when the imaging device repeatedly captures images. Determine traffic conditions.

第2発明にあっては、密度算出手段及びベクトル算出手段は、所定時間に亘って動きベクトルの分布密度及び連結ブロックの動きベクトルを複数回算出し、算出した複数の動きベクトルの分布密度及び連結ブロックの動きベクトルに基づいて、それらの平均値、最頻値、又は中央値の少なくとも一つを含む統計値を算出する。これにより、動きベクトルの分布密度及び連結ブロックの動きベクトルの変動が突発的に生じた場合に、その影響を排除するとともに、信頼性の高い値を算出する。   In the second invention, the density calculating means and the vector calculating means calculate the motion vector distribution density and the motion vector of the connected block a plurality of times over a predetermined time, and calculate the calculated motion vector distribution densities and concatenation. Based on the motion vector of the block, a statistical value including at least one of the average value, the mode value, and the median value is calculated. As a result, when the motion vector distribution density and the motion vector fluctuation of the connected block suddenly occur, the influence is eliminated and a highly reliable value is calculated.

第3発明にあっては、判定手段は、前記統計値により算出された動きベクトルの分布密度又は連結ブロックの動きベクトルの大きさに基づいて、交通渋滞状況を判定する。例えば、動きベクトルの分布密度の大小、連結ブロックの動きベクトルの大きさの大小(又は撮像画像における動きベクトルの大きさから車両の速度に換算し、換算した速度の大小)の組合せに応じて、閑散、普通流、渋滞、大渋滞などの交通渋滞の度合いを判定する。   In the third invention, the determination means determines the traffic congestion status based on the motion vector distribution density calculated from the statistical value or the size of the motion vector of the connected block. For example, according to the combination of the magnitude of the motion vector distribution density, the magnitude of the motion vector of the connected block (or the magnitude of the speed converted from the magnitude of the motion vector in the captured image, and the magnitude of the converted speed), Determining the degree of traffic jams such as light, normal flow, traffic jams, and heavy traffic jams.

第4発明にあっては、画像処理装置は、撮像画像上の道路又は車線の位置、方向などに基づいて、予め車両が走行する交通流の方向を定める標準方向を記憶しておく。角度算出手段は、連結ブロックの動きベクトルの方向と標準方向との角度差を算出し、判定手段は、算出された角度差が略180度である場合、交通異常と判定する。すなわち、前記判定手段は、車両が反対方向に逆走する交通異常と判定する。   In the fourth invention, the image processing apparatus stores in advance a standard direction that determines the direction of the traffic flow in which the vehicle travels based on the position and direction of the road or lane on the captured image. The angle calculation means calculates an angle difference between the direction of the motion vector of the connected block and the standard direction, and the determination means determines that the traffic is abnormal when the calculated angle difference is approximately 180 degrees. That is, the determination unit determines that the vehicle is abnormal in traffic in the reverse direction.

第5発明にあっては、画像処理装置は、撮像画像上の道路又は車線の位置、方向などに基づいて、予め車両が走行する交通流の方向を定める標準方向を記憶しておく。角度差算出手段は、算出された動きベクトルの方向と標準方向との角度差を算出する。判定手段は、計時された判定時間が所定の時間以上となるまで、角度差が第1閾値以上である場合、交通異常と判定する。これにより、交通事故又は道路上の障害物を避ける回避走行などの交通異常が継続して発生していると判定する。   In the fifth invention, the image processing apparatus stores in advance a standard direction that determines the direction of traffic flow in which the vehicle travels based on the position and direction of the road or lane on the captured image. The angle difference calculation means calculates an angle difference between the calculated motion vector direction and the standard direction. The determination means determines that the traffic is abnormal when the angle difference is equal to or greater than the first threshold until the measured determination time is equal to or greater than a predetermined time. As a result, it is determined that a traffic abnormality such as a traffic accident or avoiding traveling avoiding an obstacle on the road continues to occur.

第6発明にあっては、予め同一進行方向の複数の車線に対応した判定領域夫々を撮像画像に設けておく。判定手段は、計時された判定時間が所定の時間以上となるまで、一の判定領域(撮像画像での一の車線に対応する領域)の連結ブロックの動きベクトルの大きさが第2閾値より小さく、他の判定領域(撮像画像での他の車線に対応する領域)の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定する。   In the sixth invention, determination areas corresponding to a plurality of lanes in the same traveling direction are provided in the captured image in advance. The determination means is such that the magnitude of the motion vector of the connected block in one determination area (area corresponding to one lane in the captured image) is smaller than the second threshold until the measured determination time is equal to or greater than a predetermined time. When the magnitude of the motion vector of the connected block in another determination area (area corresponding to another lane in the captured image) is larger than the second threshold, it is determined that the traffic is abnormal.

例えば、一の判定領域に対応する車線での動きベクトルの大きさ(又は車両の速度)が前記第2閾値より小さく、渋滞の度合いが混雑又は大混雑であると判定される場合に、他の判定領域に対応する車線での動きベクトルの大きさ(又は車両の速度)が前記第2閾値より大きく、渋滞の度合いが閑散又は普通流であると判定されるときは、両方の車線で渋滞の度合いの差が大きく、一の判定領域に対応する車線で交通事故、駐車違反などの交通障害による交通異常であると判定する。また、一の判定領域に対応する車線での動きベクトルの大きさ、及び他の判定領域に対応する車線での動きベクトルの大きさ夫々が、前記第2閾値より大きい場合、又は小さい場合には、両方の車線で渋滞の度合いの差が小さく交通異常はないと判定する。   For example, when it is determined that the magnitude of the motion vector (or vehicle speed) in the lane corresponding to one determination area is smaller than the second threshold and the degree of traffic congestion is congested or very congested, When the magnitude of the motion vector (or vehicle speed) in the lane corresponding to the judgment area is larger than the second threshold and the degree of congestion is determined to be quiet or normal, traffic congestion in both lanes The difference in degree is large, and it is determined that there is a traffic abnormality due to a traffic fault such as a traffic accident or parking violation in the lane corresponding to one determination area. When the magnitude of the motion vector in the lane corresponding to one determination area and the magnitude of the motion vector in the lane corresponding to another determination area are both larger or smaller than the second threshold value, It is determined that there is no traffic abnormality because the difference in the degree of congestion is small in both lanes.

第7発明にあっては、前記判定手段は、計時された判定時間が所定の時間以上となるまで、前記一の判定領域の動きベクトルの分布密度が第3閾値より大きい場合に、交通異常と判定する。例えば、一の判定領域に対応する車線での渋滞度合いが、大混雑であると判定される場合に、一の判定領域に対応する車線で交通事故、駐車違反などの交通障害による交通異常であると判定する。これにより、交通事故、駐車違反などの交通障害による交通異常をさらに精度良く判定する。   In the seventh invention, the determination means determines that a traffic abnormality is detected when the motion vector distribution density of the one determination region is greater than a third threshold until the measured determination time reaches a predetermined time or more. judge. For example, when it is determined that the degree of congestion in the lane corresponding to one determination area is very congested, it is a traffic abnormality due to a traffic fault such as a traffic accident or parking violation in the lane corresponding to one determination area. Is determined. Thereby, the traffic abnormality due to traffic troubles such as traffic accidents and parking violations is determined with higher accuracy.

第8発明にあっては、予め同一進行方向の複数の車線に対応した判定領域夫々を撮像画像に設けておく。判定手段は、計時された判定時間が所定の時間以上となるまで、一の判定領域(撮像画像での一の車線に対応する領域)で連結ブロックが特定されず、他の判定領域(撮像画像での他の車線に対応する領域)の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定する。例えば、一の判定領域に対応する車線で車両が存在せず、他の判定領域に対応する車線での動きベクトルの大きさ(又は車両の速度)が前記第2閾値より大きく、渋滞の度合いが閑散又は普通流であると判定されるときは、一の判定領域に対応する車線で車両が走行できないような交通障害による交通異常であると判定する。これにより、交通事故、駐車違反などの交通障害による交通異常をさらに精度良く判定する。   In the eighth invention, determination areas corresponding to a plurality of lanes in the same traveling direction are provided in the captured image in advance. The determination means does not specify a connected block in one determination area (area corresponding to one lane in the captured image) until the determined determination time is equal to or greater than a predetermined time, and other determination areas (captured image) If the magnitude of the motion vector of the connected block in the area corresponding to the other lane in (1) is larger than the second threshold, it is determined that the traffic is abnormal. For example, there is no vehicle in the lane corresponding to one determination area, the magnitude of the motion vector (or vehicle speed) in the lane corresponding to the other determination area is greater than the second threshold, and the degree of congestion is When it is determined that the vehicle is quiet or normal, it is determined that there is a traffic abnormality due to a traffic obstacle that prevents the vehicle from traveling in the lane corresponding to one determination area. Thereby, the traffic abnormality due to traffic troubles such as traffic accidents and parking violations is determined with higher accuracy.

第9発明にあっては、画像処理装置は、道路における交通規制(例えば、停止線前方の進入禁止、交差点の右折禁止など)に対応する規制領域を撮像画像に設けてあり、前記規制領域での交通流の規制方向を(例えば、走行禁止方向を示す)を記憶してある。画像処理装置は、連結ブロックの前記規制領域への進入を検出した場合、前記連結ブロックの動きベクトルと前記規制領域の規制方向とを比較する。判定手段は、前記規制領域に進入した連結ブロックの動きベクトルの方向と前記規制方向とが略一致する場合に、交通違反と判定する。   In the ninth invention, the image processing apparatus includes a restriction area corresponding to traffic restrictions on the road (for example, prohibition of entry in front of a stop line, prohibition of right turn at an intersection) in the captured image. (For example, indicating a travel prohibition direction) is stored. When the image processing apparatus detects entry of the connected block into the restricted area, the image processing apparatus compares the motion vector of the connected block with the restricted direction of the restricted area. The determination unit determines that a traffic violation has occurred when the direction of the motion vector of the connected block that has entered the restriction area substantially matches the restriction direction.

例えば、前記判定手段は、連結ブロックの動きベクトルの方向と前記規制方向とが略一致する場合は、前記判定手段は、車両が禁止されている方向に走行したとして、進入禁止領域への進入、右折禁止での右折走行などの交通違反と判定する。   For example, if the direction of the motion vector of the connected block and the restriction direction substantially coincide with each other, the determination unit determines that the determination unit has traveled in the direction in which the vehicle is prohibited, Judged as a traffic violation such as a right turn with no right turn.

第10発明にあっては、画像処理装置は、連結ブロック同士が重複する重複領域を特定した場合、該重複領域の画素ブロック数と第4閾値とを比較する。すなわち、重複領域の画素ブロック数が前記第4閾値以上である場合は、連結ブロックに対応する車両同士の衝突の可能性が高く、重複領域の画素ブロック数が前記第4閾値以下である場合は、連結ブロックに対応する車両同士の衝突の可能性が低い。判定手段は、前記重複領域の画素ブロック数が前記第4閾値以上になる第1撮像時点(すなわち、衝突推定時点)と、該第1撮像時点より前の第2撮像時点(すなわち、衝突前の時点)との間で、前記重複領域の画素が有する輝度値の差が第5閾値以上である場合に、交通事故と判定する。   In the tenth invention, when the overlapping area where the connected blocks overlap is specified, the image processing apparatus compares the number of pixel blocks in the overlapping area with the fourth threshold value. That is, when the number of pixel blocks in the overlapping area is equal to or greater than the fourth threshold, there is a high possibility of collision between vehicles corresponding to the connected blocks, and the number of pixel blocks in the overlapping area is equal to or less than the fourth threshold. The possibility of collision between vehicles corresponding to the connection block is low. The determination means includes a first imaging time point (that is, a collision estimation time point) at which the number of pixel blocks in the overlapping region is equal to or greater than the fourth threshold value, and a second imaging time point before the first imaging time point (that is, before the collision). If the difference in luminance value between the pixels in the overlapping area is greater than or equal to the fifth threshold value, the traffic accident is determined.

すなわち、前記判定手段は、第2撮像時点(衝突前の時点)と第1撮像時点(衝突推定時点)との間で、前記重複領域が有する輝度値の差が前記第5閾値以上である場合は、第2撮像時点から第1撮像時点までの間に、前記重複領域に車両が移動しているため、衝突したものとして交通事故の発生と判定する。一方、前記判定手段は、第2撮像時点(衝突前の時点)と第1撮像時点(衝突推定時点)との間で、前記重複領域が有する輝度値の差が第5閾値以下である場合は、第2撮像時点から第1撮像時点までの間に、前記重複領域に車両が移動していないため、衝突は回避され、交通事故はないと判定する。   That is, the determination unit is configured such that the difference in luminance value between the overlapping areas is equal to or greater than the fifth threshold value between the second imaging time point (time point before the collision) and the first imaging time point (collision estimation time point). Since the vehicle has moved to the overlapping area between the second imaging time and the first imaging time, it is determined that a traffic accident has occurred as a collision. On the other hand, when the difference between the brightness values of the overlapping area is equal to or less than a fifth threshold between the second imaging time point (time point before the collision) and the first imaging time point (collision estimation time point), Since the vehicle has not moved to the overlapping area between the second imaging time and the first imaging time, it is determined that a collision is avoided and there is no traffic accident.

第11発明にあっては、前記判定手段は、前記第2撮像時点(衝突前の時点)に前記連結ブロックが存在した領域夫々の画素が有する輝度値の前記第1撮像時点(衝突推定時点)及び第2撮像時点での差が第6閾値以上である場合に、交通事故と判定する。すなわち、前記判定手段は、前記第1撮像時点及び第2撮像時点において、第2撮像時点に連結ブロックが存在した領域夫々の画素が有する輝度値の差が前記第6閾値以上である場合は、第2撮像時点から第1撮像時点までの間に、連結ブロックに対応する車両は停止せずに移動しているため、衝突したものとして交通事故の発生と判定する。一方、前記判定手段は、前記第1撮像時点及び第2撮像時点において、第2撮像時点に連結ブロックが存在した領域夫々の画素が有する輝度値の差が前記第6閾値以下である場合は、第2撮像時点から第1撮像時点までの間に、連結ブロックに対応する車両は停止しているため、衝突は回避され、交通事故はないと判定する。   In the eleventh aspect of the invention, the determination means includes the first imaging time point (collision estimation time point) of the luminance value of each pixel in the region where the connected block exists at the second imaging time point (time point before the collision). And when the difference in the 2nd imaging time is more than a 6th threshold value, it determines with a traffic accident. That is, when the difference between the luminance values of the pixels in each of the regions where the connected block exists at the second imaging time point is equal to or more than the sixth threshold value at the first imaging time point and the second imaging time point, Since the vehicle corresponding to the connection block is moving without stopping between the second imaging time and the first imaging time, it is determined that a traffic accident has occurred as a collision. On the other hand, when the difference between the luminance values of the pixels in each of the regions where the connected block exists at the second imaging time point is less than or equal to the sixth threshold value at the first imaging time point and the second imaging time point, Since the vehicle corresponding to the connection block is stopped between the second imaging time and the first imaging time, it is determined that the collision is avoided and there is no traffic accident.

第13発明にあっては、画像処理装置は、撮像画像を所望の画素ブロック(例えば、8×8画素のブロック)に分割し、一の撮像時点の撮像画像の各画素ブロックに対応する画素ブロックを前記一の撮像時点と異なる撮像時点の撮像画像で特定する。異なる撮像時点間において、対応する画素ブロックが特定された場合、特定された画素ブロックの撮像画像での位置変化に基づき、対応する画素ブロックの中心同士を結ぶベクトルである画素ブロックの動きベクトルを算出する。これにより、異なる撮像時点間で画素ブロックの位置変化がない道路上の影、路面標記などを排除することができる。画像処理装置は、算出した動きベクトルを判定装置へ送信する。   In the thirteenth aspect, the image processing apparatus divides the captured image into desired pixel blocks (for example, 8 × 8 pixel blocks), and pixel blocks corresponding to the respective pixel blocks of the captured image at the time of one imaging. Is identified by a captured image at an imaging time point different from the one imaging time point. When the corresponding pixel block is specified between different imaging time points, the motion vector of the pixel block, which is a vector connecting the centers of the corresponding pixel blocks, is calculated based on the position change in the captured image of the specified pixel block. To do. As a result, it is possible to eliminate shadows on the road, road surface markings, and the like in which the position of the pixel block does not change between different imaging points. The image processing apparatus transmits the calculated motion vector to the determination apparatus.

前記判定装置は、前記動きベクトルを受信し、受信した動きベクトルの方向が略一致する画素ブロックであって、隣接した画素ブロックを連結した連結ブロックを特定する。これにより、道路を走行する車両を特定する。ベクトル算出手段は、連結ブロックを構成する各画素ブロックの動きベクトルに基づいて(例えば、各画素ブロックの動きベクトルの平均値)、連結ブロックの動きベクトルを算出する。密度算出手段は、撮像画像における画素ブロック数に対する連結ブロック(複数の連結ブロックがある場合には、すべての連結ブロック)を構成する画素ブロック数の比を動きベクトルの分布密度として算出する。前記判定装置は、算出した動きベクトルの分布密度又は連結ブロックの動きベクトルに基づいて交通状況を判定する。   The determination device receives the motion vector, and identifies a pixel block in which the directions of the received motion vectors substantially coincide with each other and connects adjacent pixel blocks. Thereby, the vehicle which drive | works a road is specified. The vector calculation means calculates the motion vector of the connected block based on the motion vector of each pixel block constituting the connected block (for example, the average value of the motion vector of each pixel block). The density calculation means calculates a ratio of the number of pixel blocks constituting a connected block (all connected blocks when there are a plurality of connected blocks) to the number of pixel blocks in the captured image as a motion vector distribution density. The determination apparatus determines a traffic situation based on the calculated motion vector distribution density or a connected block motion vector.

第14発明にあっては、道路を含む異なる領域を撮像する3つ以上の撮像装置で撮像した撮像画像を画像処理装置で処理し、前記判定装置は、前記画像処理装置夫々が送信した動きベクトルに基づいて、動きベクトルの分布密度又は連結ブロックの動きベクトルを算出し、各撮像装置における交通渋滞状況を判定する。道路に沿って位置した3つ以上の撮像装置のうち、一の撮像装置で撮像した撮像画像により判定した第1の交通渋滞状況が、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により判定した第2の交通渋滞状況と異なる場合に、第2の交通渋滞状況であると判定する。   In the fourteenth aspect, the picked-up images picked up by three or more image pick-up devices picking up different areas including the road are processed by the image processing device, and the determination device is a motion vector transmitted by each of the image processing devices. Based on the above, the motion vector distribution density or the motion vector of the connected block is calculated, and the traffic jam situation in each imaging device is determined. Of the three or more imaging devices positioned along the road, the first traffic congestion situation determined by the captured image captured by one imaging device is the latest two installed with the one imaging device in between. When it is different from the second traffic congestion situation determined by the captured image captured by each of the two imaging devices, it is determined that it is the second traffic congestion situation.

例えば、一の撮像装置で撮像した撮像画像により判定した交通渋滞状況が普通流であり、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により判定した交通渋滞状況が混雑である場合に、前記判定装置は、渋滞度合いの粗密波が存在すると判定し、前記一の撮像装置で撮像した撮像画像により判定した交通渋滞状況も、混雑であると判定することにより、道路の広範囲に対して同一の交通渋滞状況を判定する。   For example, the traffic congestion situation determined by the captured image captured by one imaging device is normal, and determined by the captured images captured by the two most recent imaging devices installed with the one imaging device in between. When the traffic congestion situation is congested, the determination device determines that there is a density wave with a degree of congestion, and determines that the traffic congestion status determined by the captured image captured by the one imaging device is also congested. Thus, the same traffic congestion situation is determined for a wide area of the road.

第15発明にあっては、前記判定装置は、一の時点で、前記一の撮像装置で撮像した撮像画像により第1の交通渋滞状況を判定し、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により第2の交通渋滞状況を判定する。前記第1の交通渋滞状況及び第2の交通渋滞状況が異なる場合に、前記判定装置は、前記一の時点と異なる複数の他の時点で、前記一の撮像装置で撮像した撮像画像により判定した交通渋滞状況が、前記第2の交通渋滞状況であるときは、前記一の時点で判定した第1の交通渋滞状況は誤判定であるとして、第2の交通渋滞状況であると判定する。   In the fifteenth aspect, the determination device determines a first traffic congestion situation based on a captured image captured by the one imaging device at one time point, and is installed with the one imaging device in between. The second traffic congestion situation is determined based on the captured images captured by the two most recent imaging devices. When the first traffic congestion situation and the second traffic congestion situation are different, the determination device makes a determination based on a captured image captured by the one imaging device at a plurality of other time points different from the one time point. When the traffic jam situation is the second traffic jam situation, it is determined that the first traffic jam situation determined at the one time point is a false judgment and the second traffic jam situation is determined.

例えば、一の時点で、前記一の撮像装置で撮像した撮像画像により判定した交通渋滞状況が混雑であり、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により判定した交通渋滞状況が混雑ではなく閑散である場合に、前記一の時点と異なる複数の他の時点で、前記一の撮像装置で撮像した撮像画像により判定した交通渋滞状況が閑散であるときは、前記一の時点で混雑と判定した判定結果は誤りであるとして、閑散であると判定する。   For example, at one time point, the traffic jam situation determined by the captured image captured by the one imaging device is congested, and images are captured by the two most recent imaging devices installed with the one imaging device in between. When the traffic congestion situation determined by the captured image is not congested but quiet, the traffic congestion situation determined by the captured image captured by the one imaging device is quiet at a plurality of other time points different from the one time point. In some cases, the determination result determined to be crowded at the one time point is an error, and it is determined to be quiet.

第16発明にあっては、前記判定装置は、複数の連続した撮像装置で撮像した撮像画像により判定した交通渋滞状況が同一である場合に、前記撮像装置のうち交通流の下流端の撮像装置の位置に基づいて、交通渋滞変化点を判定する。例えば、複数の連続した撮像装置で撮像した撮像画像により判定した交通渋滞状況が混雑である場合、前記撮像装置のうち交通流の下流端の撮像装置(すなわち、混雑であると判定された領域を撮像する連続した複数の撮像装置のうちで、交通流の最も下流の撮像装置)の位置を交通渋滞の変化点(例えば、混雑のボトルネック)として判定する。   In the sixteenth aspect of the invention, the determination device is an image pickup device at the downstream end of the traffic flow among the image pickup devices when the traffic congestion situation determined by the picked-up images picked up by a plurality of continuous image pickup devices is the same. Based on the position of, the traffic jam change point is determined. For example, when the traffic jam situation determined by the captured images captured by a plurality of continuous imaging devices is congested, the imaging device at the downstream end of the traffic flow (that is, the region determined to be congested) is selected among the imaging devices. Among the plurality of continuous imaging devices to be imaged, the position of the imaging device that is the most downstream in the traffic flow is determined as a traffic jam change point (for example, a congestion bottleneck).

第1発明、第12発明、第17発明及び第18発明にあっては、撮像時点の異なる撮像画像で特定した対応する画素ブロックの位置変化により、隣接の画素ブロックを連結した連結ブロックの動きベクトルを算出し、算出した動きベクトル又は該動きベクトルに基づいて算出した動きベクトルの分布密度により交通状況を判定することにより、外部環境変化に影響されずに車両の時間的分布及び空間的分布に基づいた交通状況を判定することができる。   In the first invention, the twelfth invention, the seventeenth invention, and the eighteenth invention, a motion vector of a connected block in which adjacent pixel blocks are connected by a change in position of the corresponding pixel block specified by a captured image at a different imaging time point. And the traffic situation is determined based on the calculated motion vector or the distribution density of the motion vector calculated based on the motion vector. Can determine the traffic situation.

第2発明にあっては、所定時間に複数回算出した動きベクトルの分布密度及び動きベクトルに基づいて、それらの平均値、最頻値、又は中央値の少なくとも一つを含む統計値を算出することにより、さらに正確に交通状況を判定することができる。   In the second invention, a statistical value including at least one of an average value, a mode value, or a median value is calculated based on the motion vector distribution density and the motion vector calculated a plurality of times in a predetermined time. Thus, the traffic situation can be determined more accurately.

第3発明にあっては、動きベクトルの分布密度又は連結ブロックの動きベクトルの大きさに基づいて、交通渋滞状況を判定することにより、閑散、普通流、渋滞、大渋滞などの交通渋滞の度合いを正確に判定することができる。   In the third invention, the degree of traffic congestion such as light, normal flow, traffic jam, and heavy traffic jam is determined by determining the traffic jam status based on the motion vector distribution density or the size of the motion vector of the connected block. Can be accurately determined.

第4発明にあっては、連結ブロックの動きベクトルの方向と交通流の方向を定める標準方向との角度差が略180度である場合、交通異常と判定することにより、車両が反対方向に逆走する異常を容易に判定することができる。   In the fourth invention, when the angle difference between the direction of the motion vector of the connected block and the standard direction that determines the direction of traffic flow is approximately 180 degrees, the vehicle is reversed in the opposite direction by determining that the traffic is abnormal. Abnormal running can be easily determined.

第5発明にあっては、計時された判定時間が所定の時間以上となるまで、連結ブロックの動きベクトルの方向と交通流の方向を定める標準方向との角度差が第1閾値以上である場合、交通異常と判定することにより、駐車車両、事故車両、又は障害物などを避けるための回避走行が継続していることを容易に判定することができる。   In the fifth invention, when the angle difference between the direction of the motion vector of the connected block and the standard direction that determines the direction of traffic flow is equal to or greater than the first threshold until the measured determination time is equal to or greater than a predetermined time. By determining that the traffic is abnormal, it is possible to easily determine that avoidance traveling for avoiding a parked vehicle, an accident vehicle, or an obstacle is continued.

第6発明にあっては、同一進行方向の複数の車線に対応した判定領域を撮像画像に設けてあり、計時された判定時間が所定の時間以上となるまで、一の判定領域の連結ブロックの動きベクトルの大きさが第2閾値より小さく、他の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定することにより、両方の車線で渋滞の度合いに応じて、同一走行車線の一つで交通障害が発生していることを判定することができる。   In the sixth invention, determination areas corresponding to a plurality of lanes in the same traveling direction are provided in the captured image, and the connected blocks of one determination area are connected until the measured determination time becomes a predetermined time or more. When the magnitude of the motion vector is smaller than the second threshold and the magnitude of the motion vector of the connected block in the other determination area is larger than the second threshold, it is determined that the traffic is abnormal, and the degree of congestion in both lanes Accordingly, it can be determined that a traffic fault has occurred in one of the same lanes.

第7発明にあっては、計時された判定時間が所定の時間以上となるまで、前記一の判定領域の動きベクトルの分布密度が第3閾値より大きい場合に、交通異常と判定することにより、さらに精度良く交通異常を判定することができる。   In the seventh invention, until the timed determination time is equal to or greater than a predetermined time, when the motion vector distribution density of the one determination region is greater than a third threshold, it is determined as a traffic abnormality, Furthermore, it is possible to determine traffic abnormality with high accuracy.

第8発明にあっては、計時された判定時間が所定の時間以上となるまで、一の判定領域で連結ブロックが特定されず、他の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定することにより、さらに精度良く交通異常を判定することができる。   In the eighth invention, the connected block is not specified in one determination region until the measured determination time is equal to or longer than a predetermined time, and the size of the motion vector of the connected block in the other determination region is the first value. When it is larger than 2 threshold values, it is possible to determine the traffic abnormality with higher accuracy by determining the traffic abnormality.

第9発明にあっては、交通規制に対応する規制領域を撮像画像に設けてあり、前記規制領域に進入した連結ブロックの動きベクトルの方向と、交通流の規制方向とが略一致する場合に、交通違反と判定することにより、進入禁止領域への進入、右折禁止での右折走行などの交通違反を判定することができる。   In the ninth invention, when a restriction area corresponding to traffic restriction is provided in the captured image, and the direction of the motion vector of the connected block that has entered the restriction area substantially coincides with the restriction direction of the traffic flow. By determining the traffic violation, it is possible to determine a traffic violation such as entering the prohibited entry area or traveling right when the right turn is prohibited.

第10発明にあっては、連結ブロック同士が重複する重複領域の画素ブロック数が第4閾値以上になる第1撮像時点と、該第1撮像時点より前の第2撮像時点との間で、前記重複領域の画素が有する輝度値の差が前記第5閾値以上である場合に、交通事故と判定することにより、衝突事故の発生を容易に判定することができる。   In the tenth invention, between the first imaging time when the number of pixel blocks in the overlapping region where the connected blocks overlap each other is equal to or greater than the fourth threshold, and the second imaging time before the first imaging time, The occurrence of a collision accident can be easily determined by determining a traffic accident when the difference in luminance value of the pixels in the overlapping region is equal to or greater than the fifth threshold value.

第11発明にあっては、前記第1撮像時点及び第2撮像時点の間で、該第2撮像時点に連結ブロックが存在した領域夫々の画素が有する輝度値の差が第6閾値以上である場合は、交通事故と判定することにより、さらに精度良く衝突事故の発生を判定することができる。   In the eleventh aspect of the invention, the difference in luminance value between the first imaging time point and the second imaging time point of each pixel in the region where the connected block exists at the second imaging time point is equal to or greater than the sixth threshold value. In this case, it is possible to determine the occurrence of a collision accident with higher accuracy by determining a traffic accident.

第13発明にあっては、画像処理装置で算出した動きベクトルを判定装置へ送信し、該判定装置は、受信した動きベクトルに基づいて、動きベクトルの分布密度及び連結ブロックの動きベクトルを算出し、算出した動きベクトルの分布密度又は連結ブロックの動きベクトルに基づいて、交通状況を判定することにより、遠隔地の交通状況を容易に判定することができるとともに、画像処理装置の負荷を減らし、簡略化することにより、システム全体のコストを低減することができる。   In the thirteenth invention, the motion vector calculated by the image processing device is transmitted to the determination device, and the determination device calculates the motion vector distribution density and the motion vector of the connected block based on the received motion vector. By determining the traffic situation based on the calculated motion vector distribution density or the motion vector of the connected block, it is possible to easily determine the traffic situation at a remote location and reduce the load on the image processing apparatus, thereby simplifying Therefore, the cost of the entire system can be reduced.

第14発明にあっては、道路に沿って位置した3つ以上の撮像装置のうち、一の撮像装置で撮像した撮像画像により判定した第1の交通渋滞状況が、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により判定した第2の交通渋滞状況と異なる場合に、第2の交通渋滞状況であると判定することにより、渋滞度合いの粗密波を判定して、遠隔地の複数地点の交通渋滞状況を広範囲に判定することができる。   In the fourteenth aspect of the present invention, the first traffic jam situation determined by the captured image captured by one imaging device among the three or more imaging devices positioned along the road is a gap between the one imaging device. If it is different from the second traffic congestion situation determined by the captured images taken by the two most recent imaging devices installed as described above, it is determined that the traffic congestion situation is the second traffic congestion situation. It is possible to determine a wide range of traffic congestion conditions at a plurality of remote locations.

第15発明にあっては、一の時点で、前記一の撮像装置で撮像した撮像画像により判定した第1の交通渋滞状況と、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により判定した第2の交通渋滞状況とが異なる場合に、前記一の時点と異なる複数の他の時点において、前記一の撮像装置で撮像した撮像画像により交通渋滞状況を判定することにより、誤判定を低減することができる。   In the fifteenth aspect of the present invention, the first traffic jam situation determined by the captured image captured by the one imaging device at one time point and the latest two installed between the one imaging device. When the second traffic congestion situation determined by the captured image captured by each of the imaging devices is different, the traffic congestion situation by the captured image captured by the one imaging device at a plurality of other time points different from the one time point By determining this, it is possible to reduce erroneous determination.

第16発明にあっては、前記判定装置は、複数の連続した撮像装置で撮像した撮像画像により判定した交通渋滞状況が同一である場合に、前記撮像装置のうち交通流の下流端の撮像装置の位置に基づいて、交通渋滞変化点を判定することにより、交通渋滞(例えば、混雑)のボトルネック地点を検出することができる。   In the sixteenth aspect of the invention, the determination device is an image pickup device at the downstream end of the traffic flow among the image pickup devices when the traffic congestion situation determined by the picked-up images picked up by a plurality of continuous image pickup devices is the same. By determining the traffic jam change point based on the position of the traffic bottleneck, it is possible to detect a bottleneck point of traffic jam (for example, congestion).

実施の形態1
以下、本発明を実施の形態を示す図面に基づいて説明する。図1は本発明の実施の形態に係る交通状況判定システムの概要を示す模式図である。図において、1は道路を含む領域を撮像するビデオカメラである。ビデオカメラ1は、例えば、交差点付近の路上10m程度の位置に、光軸を道路方向に沿って配置してあり、片側4車線の道路5の数十mの撮像範囲6の交通状況を撮像する。
Embodiment 1
Hereinafter, the present invention will be described with reference to the drawings illustrating embodiments. FIG. 1 is a schematic diagram showing an outline of a traffic situation determination system according to an embodiment of the present invention. In the figure, reference numeral 1 denotes a video camera that captures an area including a road. For example, the video camera 1 has an optical axis arranged along the road direction at a position of about 10 m on the road near an intersection, and picks up the traffic situation of an imaging range 6 of several tens of meters on a road 5 of four lanes on one side. .

ビデオカメラ1には、画像処理装置2を接続してあり、画像処理装置2は、ビデオカメラ1で撮像して得られた撮像画像を処理して交通状況の判定を行う。画像処理装置2は、インターネットなどの通信回線4に接続され、通信回線4には、管制センタ装置3を接続してある。画像処理装置2で判定された交通状況は、通信回線4を介して管制センタ装置3へ送信され、管制センタ装置3は、画像処理装置2から送信された交通状況を受信し、受信した交通状況を表示、集計し、管制センタの操作員が所要の交通管制を行う。画像処理装置2は、判定した交通状況に応じて、信号機(不図示)の信号表示を制御し、また、交通表示板(不図示)などに所要の交通情報を表示させて、円滑な交通又は事故の未然防止を行う。   An image processing device 2 is connected to the video camera 1, and the image processing device 2 processes a captured image obtained by imaging with the video camera 1 to determine a traffic situation. The image processing apparatus 2 is connected to a communication line 4 such as the Internet, and a control center apparatus 3 is connected to the communication line 4. The traffic situation determined by the image processing apparatus 2 is transmitted to the control center apparatus 3 via the communication line 4, and the control center apparatus 3 receives the traffic situation transmitted from the image processing apparatus 2 and receives the received traffic situation. The control center operator performs necessary traffic control. The image processing apparatus 2 controls the signal display of a traffic light (not shown) according to the determined traffic situation, and displays necessary traffic information on a traffic display board (not shown), etc. Prevent accidents.

図2は画像処理装置2及び管制センタ装置3の構成を示すブロック図である。図において、1はビデオカメラである。ビデオカメラ1は撮像して得られた撮像画像を映像信号(アナログ信号)として画像入力部21へ出力する。画像入力部21は、取得した映像信号をA/D変換部22へ出力し、A/D変換部22は、入力された映像信号をデジタル信号に変換し、CPU28の制御のもと、変換されたデジタル信号を画像データとして画像メモリ23へ記憶する。CPU28は、画像入力部21を介してビデオカメラ1から入力された撮像画像を画像データとして、ビデオカメラ1のフレームレート(撮像時点の間隔、例えば、1秒間に30フレーム)と同期して、1フレーム単位(例えば、640×480画素)で画像メモリ23に記憶する。   FIG. 2 is a block diagram showing the configuration of the image processing device 2 and the control center device 3. In the figure, reference numeral 1 denotes a video camera. The video camera 1 outputs a captured image obtained by imaging to the image input unit 21 as a video signal (analog signal). The image input unit 21 outputs the acquired video signal to the A / D conversion unit 22, and the A / D conversion unit 22 converts the input video signal into a digital signal, which is converted under the control of the CPU 28. The obtained digital signal is stored in the image memory 23 as image data. The CPU 28 uses the captured image input from the video camera 1 via the image input unit 21 as image data in synchronization with the frame rate of the video camera 1 (interval at the time of imaging, for example, 30 frames per second). The data is stored in the image memory 23 in units of frames (for example, 640 × 480 pixels).

補助記憶部26は、本発明のコンピュータプログラムPGを記録したCD−ROM29が挿入されることにより、CD−ROM29に記録されたコンピュータプログラムPGをRAM24に記憶する。CPU28は、RAM24に記憶されたコンピュータプログラムPGを実行する。画像処理装置2は、CD−ROM29に記録したコンピュータプログラムPGがRAM24に読み込まれ、読み込まれたコンピュータプログラムPGをCPU28で実行することにより、後述するフレーム画像処理、交通渋滞判定処理、交通異常判定処理などの交通状況を判定するための処理を実現する。   The auxiliary storage unit 26 stores the computer program PG recorded on the CD-ROM 29 in the RAM 24 by inserting the CD-ROM 29 on which the computer program PG of the present invention is recorded. The CPU 28 executes the computer program PG stored in the RAM 24. The image processing apparatus 2 reads the computer program PG recorded in the CD-ROM 29 into the RAM 24, and executes the read computer program PG with the CPU 28, whereby frame image processing, traffic congestion determination processing, and traffic abnormality determination processing described later are performed. The process for judging traffic conditions such as is realized.

画像メモリ23は、画像入力部21を介して取得された撮像画像を画像データとして、フレーム毎に記憶するとともに、CPU28の処理に伴って、算出された算出結果を各フレームに対応して記憶する。   The image memory 23 stores the captured image acquired via the image input unit 21 as image data for each frame, and stores the calculated result corresponding to each frame in accordance with the processing of the CPU 28. .

記憶部27は、コンピュータプログラムPGをCPU28で実行することにより、得られた交通状況の判定結果を記憶している。また、記憶部27は、交通渋滞の度合いを判定するための交通渋滞判定テーブル271、車両の走行方向を判定するための標準方向を記憶している。標準方向は、道路を走行する車両の交通流の方向を定めるものであり、道路の形態、ビデオカメラ1の設置場所などに応じて、撮像画像上での交通流の方向は異なるため、ビデオカメラ1の設置場所などに応じて、所要の方向を定めた標準方向を記憶しておくことができる。なお、標準方向は、撮像画像におけるx座標に対するy座標の関係を示す数値テーブルで記憶しておくことができる。   The storage unit 27 stores the determination result of the traffic situation obtained by executing the computer program PG by the CPU 28. The storage unit 27 stores a traffic jam determination table 271 for determining the degree of traffic jam and a standard direction for determining the traveling direction of the vehicle. The standard direction determines the direction of traffic flow of vehicles traveling on the road, and the direction of the traffic flow on the captured image differs depending on the form of the road, the installation location of the video camera 1, etc. A standard direction that defines a required direction can be stored in accordance with the installation location of 1 or the like. The standard direction can be stored in a numerical table indicating the relationship of the y coordinate to the x coordinate in the captured image.

通信部25は、画像処理装置2で判定された交通状況の判定結果を、通信回線4を介して管制センタ装置3へ送信する。また、通信部25は、判定結果に基づいた制御信号をCPU28の制御のもと、信号機、交通表示板(いずれも不図示)などに送信して、信号機の表示制御、交通情報の表示制御などを行うこともできる。   The communication unit 25 transmits the determination result of the traffic situation determined by the image processing device 2 to the control center device 3 via the communication line 4. In addition, the communication unit 25 transmits a control signal based on the determination result to a traffic light, a traffic display board (both not shown), etc. under the control of the CPU 28, and so on. Can also be done.

管制センタ装置3の通信部31は、画像処理装置2から送信された交通状況の判定結果を受信し、受信した判定結果をCPU36の制御のもと、液晶ディスプレイを備えた表示部33に表示させるとともに、記憶部34に記憶する。   The communication unit 31 of the control center device 3 receives the determination result of the traffic situation transmitted from the image processing device 2 and displays the received determination result on the display unit 33 having a liquid crystal display under the control of the CPU 36. At the same time, it is stored in the storage unit 34.

CPU36は、RAM32に記憶されたコンピュータプログラムを実行することにより、交通状況の判定結果の表示、集計などの処理を行う。   The CPU 36 executes a computer program stored in the RAM 32 to perform processing such as display of traffic condition determination results and aggregation.

操作部35は、キーボード、マウスなどを備え、管制センタ装置3に対する入力操作を行うことができ、管制センタの操作員の操作を受付けることにより、管制センタ装置3は、交通状況の判定結果の表示処理、集計処理などを行う。   The operation unit 35 includes a keyboard, a mouse, and the like, and can perform an input operation on the control center device 3. By receiving the operation of the control center operator, the control center device 3 displays a traffic condition determination result. Perform processing, aggregation processing, etc.

次に、本発明に係る交通状況判定システムの処理手順について説明する。図3は交通状況判定の処理手順を示すフローチャートである。CPU28は、内蔵するタイマをセットすることにより、判定時間T1の計時を開始し(S1)、算出時間T2(T2<T1)の計時を開始する(S2)。   Next, a processing procedure of the traffic situation determination system according to the present invention will be described. FIG. 3 is a flowchart showing a processing procedure for determining traffic conditions. The CPU 28 starts counting the determination time T1 by setting a built-in timer (S1), and starts counting the calculation time T2 (T2 <T1) (S2).

CPU28は、フレーム画像処理を行い(S3)、算出時間T2が経過したか否かを判定する(S4)。算出時間T2が経過していない場合(S4でNO)、CPU28は、ステップS3のフレーム画像処理を繰り返し続ける。   The CPU 28 performs frame image processing (S3), and determines whether the calculation time T2 has elapsed (S4). If the calculation time T2 has not elapsed (NO in S4), the CPU 28 continues to repeat the frame image processing in step S3.

一方、算出時間T2が経過した場合(S4でYES)、CPU28は、交通渋滞判定の処理を行い(S5)、交通異常判定の処理を行う(S6)。CPU28は、交通異常の有無を判定し(S7)、交通異常が有ると判定した場合(S7でYES)、判定時間T1が経過したか否かを判定する(S8)。   On the other hand, when the calculation time T2 has elapsed (YES in S4), the CPU 28 performs traffic congestion determination processing (S5) and traffic abnormality determination processing (S6). The CPU 28 determines whether or not there is a traffic abnormality (S7). If it is determined that there is a traffic abnormality (YES in S7), the CPU 28 determines whether or not the determination time T1 has elapsed (S8).

判定時間T1が経過していない場合(S8でNO)、CPU28は、算出時間T2をゼロにすることにより算出時間T2をリセットし(S9)、ステップS2以降の処理を続け、フレーム画像処理、交通渋滞判定処理、交通異常判定処理を繰り返す。   When the determination time T1 has not elapsed (NO in S8), the CPU 28 resets the calculation time T2 by setting the calculation time T2 to zero (S9), and continues the processing from step S2 onward, thereby performing frame image processing, traffic Repeat the congestion determination process and the traffic abnormality determination process.

判定時間T1が経過した場合(S8でYES)、CPU28は、通信部25を介して交通異常を管制センタ装置3へ通知する(S10)。CPU28は、管制センタ装置3からの終了指令の有無を判定し(S11)、終了指令が無い場合(S11でNO)、判定時間T1、算出時間T2をゼロにすることにより、判定時間T1、算出時間T2をリセットし(S12)、ステップS1以降の処理を続ける。   When the determination time T1 has elapsed (YES in S8), the CPU 28 notifies the traffic control center device 3 of a traffic abnormality via the communication unit 25 (S10). The CPU 28 determines whether or not there is an end command from the control center device 3 (S11). If there is no end command (NO in S11), the determination time T1 and the calculation time T2 are calculated by setting the determination time T1 and the calculation time T2 to zero. The time T2 is reset (S12), and the processing after step S1 is continued.

一方、交通異常が無いと判定した場合(S7でNO)、CPU28はステップS11以降の処理を続ける。CPU28は、終了指令が有る場合(S11でYES)、処理を終了する。   On the other hand, when it determines with there being no traffic abnormality (it is NO at S7), CPU28 continues the process after step S11. CPU28 complete | finishes a process, when there exists completion | finish instruction | command (it is YES at S11).

これにより、画像処理装置2は、算出時間T2の間フレーム画像処理を繰り返し行い、算出時間T2が経過した時点で、交通渋滞判定処理、交通異常判定処理を行う。すなわち、算出時間T2の間繰り返し算出された結果に基づいて、算出時間T2の経過の都度交通渋滞判定処理、交通異常判定処理を行う。算出時間T2の経過時点で交通異常が有ると判定された場合は、算出時間T2よりも長い判定時間T1の間、交通異常が継続して発生しているかを判定し、判定時間T1の間継続して交通異常が有る場合に、交通異常の通知を行う。   Thereby, the image processing apparatus 2 repeatedly performs the frame image processing for the calculation time T2, and performs the traffic jam determination process and the traffic abnormality determination process when the calculation time T2 has elapsed. That is, based on the result repeatedly calculated during the calculation time T2, the traffic jam determination process and the traffic abnormality determination process are performed every time the calculation time T2 elapses. If it is determined that there is a traffic abnormality at the time when the calculation time T2 has elapsed, it is determined whether or not the traffic abnormality continues during the determination time T1 longer than the calculation time T2, and continues for the determination time T1. If there is a traffic abnormality, notification of the traffic abnormality is performed.

図4はフレーム画像処理の処理手順を示すフローチャートである。CPU28は、撮像時点の異なる2つの撮像画像(例えば、撮像時点tkのフレームfk、撮像時点tk+1 のフレームfk+1)を画像メモリ23から取得する(S301)。 FIG. 4 is a flowchart showing a processing procedure of frame image processing. CPU28 acquires imaging point different two captured images (e.g., frames f k of the imaging time t k, the frame f k + 1 of the imaging time t k + 1) from the image memory 23 (S301).

CPU28は、取得した一方の撮像画像の画素ブロック(例えば、8×8画素)毎に、画素ブロック内画素が有する輝度値(又は階調値など)に基づいて、他方の撮像画像を走査し一致する画素ブロックを特定する(S302)。2つの撮像画像間で一致する画素ブロックを特定する場合、画素ブロック内画素の輝度平均値、標準偏差値、差分輝度値の絶対値などの一致度を示すパラメータを用いることができる。   The CPU 28 scans and matches the other captured image for each pixel block (for example, 8 × 8 pixels) of the acquired captured image based on the luminance value (or gradation value) of the pixel in the pixel block. The pixel block to be specified is specified (S302). When specifying a matching pixel block between two captured images, a parameter indicating the degree of coincidence such as the average luminance value, standard deviation value, and absolute value of the difference luminance value of the pixels in the pixel block can be used.

CPU28は、2つの撮像画像で一致する画素ブロックの撮像画像における座標(位置)変化に基づいて、各画素ブロックの動きベクトルを算出する(S303)。この場合、画素ブロックの座標は、画素ブロックの中心の座標である。なお、画素ブロックの左上角の座標を用いてもよい。撮像時点tkの撮像画像における画素ブロックPjの座標が(xk、yk)、撮像時点tk+1の撮像画像における画素ブロックPjの座標が(xk+1、yk+1)である場合、動きベクトルPVjは、(xk+1-xk、yk+1-yk)となる。なお、座標変化が無い場合は、動きベクトルはゼロになり、かかる画素ブロックは、ステップS303以降の処理において除外される。また、算出した動きベクトルの大きさが、予め定めた閾値より小さい場合には、その画素ブロックの動きベクトルはゼロであるとして、除外してもよい。 The CPU 28 calculates the motion vector of each pixel block based on the change in coordinates (position) in the captured image of the pixel block that matches in the two captured images (S303). In this case, the coordinates of the pixel block are the coordinates of the center of the pixel block. Note that the coordinates of the upper left corner of the pixel block may be used. The coordinates of the pixel block P j in the captured image at the imaging time t k are (x k , y k ), and the coordinates of the pixel block P j in the captured image at the imaging time t k + 1 are (x k + 1 , y k + 1). ), The motion vector PV j is (x k + 1 -x k , y k + 1 -y k ). When there is no change in coordinates, the motion vector is zero, and such a pixel block is excluded in the processing after step S303. If the calculated motion vector is smaller than a predetermined threshold value, the motion vector of the pixel block may be excluded as being zero.

CPU28は、算出された動きベクトルの方向が略一致する画素ブロックであって、隣接する画素ブロックを連結した連結ブロックを特定する(S304)。これにより、連結ブロックは走行車両に対応する。なお、連結ブロックを特定する場合に、連結ブロックを構成する画素ブロックの数が、予め定めた閾値(例えば、3)より小さい場合は、ノイズとして除去することもできる。   The CPU 28 identifies pixel blocks in which the calculated motion vector directions substantially coincide with each other and connects adjacent pixel blocks (S304). Thereby, a connection block respond | corresponds to a traveling vehicle. In addition, when specifying a connection block, when the number of the pixel blocks which comprise a connection block is smaller than a predetermined threshold value (for example, 3), it can also remove as noise.

CPU28は、特定された連結ブロックが有るか否かを判定し(S305)、連結ブロックが有る場合(S305でYES)、連結ブロックを構成する各画素ブロックの動きベクトルの平均値を連結ブロックの動きベクトルとして算出する(S306)。CPU28は、記憶部27から標準方向を読み出し、連結ブロックの動きベクトルの方向と標準方向との角度差を算出する(S307)。   The CPU 28 determines whether or not there is a specified connected block (S305). If there is a connected block (YES in S305), the CPU 28 uses the average value of the motion vectors of the pixel blocks constituting the connected block as the motion of the connected block. It calculates as a vector (S306). The CPU 28 reads the standard direction from the storage unit 27 and calculates the angle difference between the direction of the motion vector of the connected block and the standard direction (S307).

CPU28は、算出された角度差が略180°に等しいか否かを判定し(S308)、角度差が略180°に等しい場合(S308でYES)、逆走行が有ることを管制センタ装置3へ通知する(S309)。角度差が略180°に等しくない場合(S308でNO)、CPU28は、1フレーム分の撮像画像が有する画素ブロック数に対する前記撮像画像で特定された連結ブロックを構成する画素ブロック数の比を動きベクトルの分布密度として算出する(S310)。   The CPU 28 determines whether or not the calculated angle difference is approximately equal to 180 ° (S308). If the angle difference is approximately equal to 180 ° (YES in S308), the control center device 3 determines that there is reverse travel. Notification is made (S309). When the angle difference is not approximately equal to 180 ° (NO in S308), the CPU 28 moves the ratio of the number of pixel blocks constituting the connected block specified by the captured image to the number of pixel blocks included in the captured image for one frame. The vector distribution density is calculated (S310).

CPU28は、連結ブロックの動きベクトルの大きさを、予め定められた変換式により連結ブロックに対応する車両の速度に変換して、車両の速度を算出し(S311)、算出した動きベクトルの分布密度、速度、連結ブロック数を記録し(S312)、フレーム画像処理を終了する。一方、連結ブロックが無い場合(S305でNO)、CPU28は、連結ブロック無しの記録をし(S313)、フレーム画像処理を終了する。なお、連結ブロックの動きベクトルの大きさと、連結ブロックに対応する車両の速度は、一義的に決定されるので、等価なものとすることができる。   The CPU 28 converts the magnitude of the motion vector of the connected block into the speed of the vehicle corresponding to the connected block using a predetermined conversion formula, calculates the speed of the vehicle (S311), and calculates the distribution density of the calculated motion vector. The speed and the number of connected blocks are recorded (S312), and the frame image processing is terminated. On the other hand, when there is no connected block (NO in S305), the CPU 28 records that there is no connected block (S313), and ends the frame image processing. In addition, since the magnitude | size of the motion vector of a connection block and the speed of the vehicle corresponding to a connection block are determined uniquely, it can be made equivalent.

図5は画素ブロックの動きベクトルを示す説明図である。図に示すように、撮像時点tkの撮像画像における画素ブロックPjの座標が(xk、yk)、撮像時点tk+1の撮像画像における画素ブロックPjの座標が(xk+1、yk+1)である場合、動きベクトルPVjは、(xk+1-xk、yk+1-yk)となる。 FIG. 5 is an explanatory diagram showing a motion vector of a pixel block. As shown in the figure, the coordinates of the pixel block P j in the captured image at the imaging time t k are (x k , y k ), and the coordinates of the pixel block P j in the captured image at the imaging time t k + 1 are (x k + 1 , y k + 1 ), the motion vector PV j is (x k + 1 −x k , y k + 1 −y k ).

図6は連結ブロックの例を示す説明図である。図に示すように、撮像画像を所定の画素ブロックで分割し、各画素ブロックの動きベクトルを算出し、算出した動きベクトルの方向が略一致する画素ブロックであって、隣接する画素ブロックのみを連結することにより、連結ブロックを特定する。動きベクトルの方向が略一致する画素ブロックであっても、離隔している画素ブロックはノイズとして除去する。また、連結された画素ブロックの数が所定の閾値(例えば、3)以下の場合も、ノイズとして除去することにより、連結ブロックにより走行車両を精度良く特定することができる。   FIG. 6 is an explanatory diagram showing an example of a connected block. As shown in the figure, the captured image is divided into predetermined pixel blocks, the motion vector of each pixel block is calculated, and the calculated motion vector directions are substantially the same, and only adjacent pixel blocks are connected. By doing so, the connected block is specified. Even if the pixel blocks have substantially the same motion vector direction, the separated pixel blocks are removed as noise. Further, even when the number of connected pixel blocks is equal to or less than a predetermined threshold (for example, 3), the traveling vehicle can be accurately identified by the connected blocks by removing the noise blocks.

図7は撮像画像の例を示す説明図である。上述の通り、ビデオカメラ1は、片側4車線の道路を含む領域を撮像するように配置してある。撮像画像において、車線ごとに交通状況を判定するための判定領域30a、30b、30c、30dを設定してある。すなわち、判定領域30a、30b、30c、30d夫々は、片側4車線の各車線を示す。道路を走行する車両は、動きベクトルにより特定される。上述のフレーム画像処理は、判定領域毎に処理される。   FIG. 7 is an explanatory diagram illustrating an example of a captured image. As described above, the video camera 1 is arranged so as to capture an area including a road on four lanes on one side. In the captured image, determination areas 30a, 30b, 30c, and 30d are set for determining traffic conditions for each lane. That is, each of the determination areas 30a, 30b, 30c, and 30d indicates each lane of four lanes on one side. A vehicle traveling on the road is specified by a motion vector. The frame image processing described above is processed for each determination area.

図8はフレーム画像処理で算出される算出情報を示す説明図である。図8(a)に示すように、1フレームの撮像画像は、例えば、8×8画素から構成される画素ブロックP1、P2、…Pnに分割される。図8(b)に示すように、画素ブロック毎に算出された動きベクトルPV1、PV2、…PVnが記録される。動きが検出されなかった画素ブロックの動きベクトルはゼロである。図8(c)に示すように、1フレームの撮像画像毎に、連結ブロック数、特定された連結ブロック毎に、連結ブロックの動きベクトルCB1…、連結ブロックに対応する車両の速度Cv、…、動きベクトルの分布密度Dなどの算出情報が算出され、記録される。 FIG. 8 is an explanatory diagram showing calculation information calculated by frame image processing. As shown in FIG. 8A, the captured image of one frame is divided into pixel blocks P 1 , P 2 ,... P n composed of 8 × 8 pixels, for example. As shown in FIG. 8B, motion vectors PV 1 , PV 2 ,... PV n calculated for each pixel block are recorded. The motion vector of the pixel block in which no motion is detected is zero. As shown in FIG. 8C, the number of connected blocks for each captured image of one frame, the motion vector CB 1 of the connected block for each specified connected block, the vehicle speed Cv 1 corresponding to the connected block, ... Calculation information such as motion vector distribution density D is calculated and recorded.

連結ブロックの動きベクトルから、連結ブロックに対応する車両の速度への変換は、例えば、数1で表される式に基づいて行うことができる。   The conversion from the motion vector of the connected block to the speed of the vehicle corresponding to the connected block can be performed based on, for example, an expression represented by Equation 1.

Figure 2006330942
Figure 2006330942

ここで、実空間での座標系を(X、Y、Z)、撮像画像上での座標系を(x、y)とする。実空間では、垂直方向をZ、道路の延びる方向をY、道路を横断する方向をXにとる。撮像画像面上でのx軸方向を実空間でのX方向に平行とし、撮像画像面上でのy軸方向を実空間でのY方向とし、ビデオカメラ俯角(ビデオカメラの光軸とY軸方向とがなす角度)をαとなるように設置する。また、ビデオカメラレンズの焦点距離をF、ビデオカメラの設置高さをH、撮像画像面のy軸方向の大きさ(寸法)をQy、撮像面のy軸方向の画素数をNyとする。走行車両の路面からの検出点などの経験値から、例えば、車両の平均高さ50cmを数1式に代入してYを算出し、Y座標の移動距離及び移動時間により車両の速度を算出することができる。なお、動きベクトルの大きさから速度の算出は、変換テーブルのようなものを用いてもよく、また、変換式に基づいて演算処理して求めてもよい。   Here, the coordinate system in the real space is (X, Y, Z), and the coordinate system on the captured image is (x, y). In real space, Z is the vertical direction, Y is the direction in which the road extends, and X is the direction that crosses the road. The x-axis direction on the captured image plane is parallel to the X direction in the real space, the y-axis direction on the captured image plane is the Y direction in the real space, and the video camera depression angle (the optical axis and the Y axis of the video camera) The angle formed by the direction is set to α. Further, it is assumed that the focal length of the video camera lens is F, the installation height of the video camera is H, the size (dimension) in the y-axis direction of the captured image plane is Qy, and the number of pixels in the y-axis direction of the captured image plane is Ny. From experience values such as detection points from the road surface of the traveling vehicle, for example, Y is calculated by substituting the average height of the vehicle 50 cm into Equation 1, and the speed of the vehicle is calculated from the moving distance and moving time of the Y coordinate. be able to. Note that the speed may be calculated from the magnitude of the motion vector by using a conversion table, or may be obtained by arithmetic processing based on a conversion formula.

図9は交通渋滞判定の処理手順を示すフローチャートである。CPU28は、算出時間T2の間に亘って複数回算出された速度、動きベクトルの分布密度から速度の平均値を算出し(S501)、動きベクトルの分布密度の平均値を算出する(S502)。CPU28は、記憶部27から交通渋滞判定テーブル271を読み出し、速度が10km以下であるか否かを判定する(S503)。   FIG. 9 is a flowchart showing a processing procedure for determining traffic congestion. The CPU 28 calculates an average value of speeds from the speed and motion vector distribution densities calculated a plurality of times during the calculation time T2 (S501), and calculates an average value of motion vector distribution densities (S502). The CPU 28 reads the traffic jam determination table 271 from the storage unit 27 and determines whether or not the speed is 10 km or less (S503).

速度が10km以下である場合(S503でYES)、CPU28は、動きベクトルの分布密度が75%以下であるか否かを判定する(S504)。分布密度が75%以下である場合(S504でYES)、CPU28は混雑であると判定し(S505)、判定結果を管制センタ装置3へ通知し(S510)、処理を終了する。分布密度が75%以上である場合(S504でNO)、CPU28は、大混雑であると判定し(S506)、判定結果を管制センタ装置3へ通知し(S510)、処理を終了する。   When the speed is 10 km or less (YES in S503), the CPU 28 determines whether or not the motion vector distribution density is 75% or less (S504). If the distribution density is 75% or less (YES in S504), the CPU 28 determines that it is congested (S505), notifies the control center device 3 of the determination result (S510), and ends the process. If the distribution density is 75% or more (NO in S504), the CPU 28 determines that the congestion is heavy (S506), notifies the control center device 3 of the determination result (S510), and ends the process.

一方、速度が10km以上である場合(S503でNO)、CPU28は、動きベクトルの分布密度が50%以下であるか否かを判定する(S507)。分布密度が50%以下である場合(S507でYES)、CPU28は閑散であると判定し(S508)、判定結果を管制センタ装置3へ通知し(S510)、処理をする。分布密度が50%以上である場合(S507でNO)、CPU28は普通流であると判定し(S509)、判定結果を管制センタ装置3へ通知し(S510)、処理を終了する。なお、交通渋滞判定処理は、上述の判定領域毎(例えば、判定領域30a、30b)に行われる。   On the other hand, when the speed is 10 km or more (NO in S503), the CPU 28 determines whether or not the motion vector distribution density is 50% or less (S507). If the distribution density is 50% or less (YES in S507), the CPU 28 determines that it is quiet (S508), notifies the control result to the control center device 3 (S510), and performs processing. If the distribution density is 50% or more (NO in S507), the CPU 28 determines that the flow is normal (S509), notifies the control center device 3 of the determination result (S510), and ends the process. The traffic jam determination process is performed for each of the above-described determination areas (for example, determination areas 30a and 30b).

これにより、算出時間T2の間に亘って、複数回算出された動きベクトル、動きベクトルの分布密度夫々の平均値に基づいて、交通渋滞の度合いを判定することができる。   Thereby, the degree of traffic congestion can be determined based on the average value of the motion vector calculated multiple times and the distribution density of the motion vector over the calculation time T2.

図10は交通渋滞判定テーブルのレコードレイアウトである。図に示すように、速度及び動きベクトルの分布密度の組み合わせに応じて、交通渋滞の渋滞度合いを、閑散、普通流、混雑、大混雑に区分して判定できるようにしてある。なお、速度に代えて、動きベクトルの大きさを組み合わせてもよい。   FIG. 10 is a record layout of the traffic jam determination table. As shown in the figure, according to the combination of speed and motion vector distribution density, the degree of traffic congestion can be determined by classifying it into light, normal flow, congestion, and heavy congestion. Note that the magnitude of the motion vector may be combined instead of the speed.

図11は交通異常判定の処理手順を示すフローチャートである。図において、一の領域(交通異常の有無を判定する領域)と、他の領域(前記一の領域以外の他の領域、例えば、片側4車の道路であれば、他の3つの車線のいずれか)は、車両の進行方向が同一である。CPU28は、他の領域の渋滞度合いが普通流又は閑散(第2閾値)であるか否かを判定する(S601)。普通流又は閑散である場合(S601でYES)、CPU28は、一の領域の渋滞度合いが大混雑(第3閾値)であるか否かを判定する(S602)。   FIG. 11 is a flowchart showing a traffic abnormality determination processing procedure. In the figure, one region (region for determining the presence or absence of traffic abnormality) and another region (other regions other than the one region, for example, if there are four cars on one side, any of the other three lanes Is the same direction of travel of the vehicle. The CPU 28 determines whether or not the degree of congestion in the other area is normal flow or quiet (second threshold) (S601). When it is normal flow or quiet (YES in S601), the CPU 28 determines whether or not the congestion degree of one area is large congestion (third threshold) (S602).

一の領域が大混雑である場合(S602でYES)、CPU28は、同方向車線で渋滞度合いが大きく異なるため、交通異常有りと記録し(S603)、処理を終了する。一の領域が大混雑でない場合(S602でNO)、CPU28は、一の領域に連結ブロックが無いか否かを判定する(S604)。   If one area is heavily congested (YES in S602), the CPU 28 records that there is a traffic abnormality because the degree of congestion is greatly different in the same direction lane (S603), and ends the process. When one area is not very crowded (NO in S602), the CPU 28 determines whether or not there is a connected block in the one area (S604).

一の領域に連結ブロックが無い場合(S604でYES)、CPU28は、同方向車線で渋滞度合いが大きく異なるため、交通異常有りと記録し(S603)、処理を終了する。一の領域に連結ブロックが有る場合(S604でNO)、CPU28は、動きベクトルの方向と記憶部27から読み出した標準ベクトルの方向との角度差を算出する(S605)。   If there is no connected block in one area (YES in S604), the CPU 28 records that there is a traffic abnormality because the degree of congestion is greatly different in the same direction lane (S603), and ends the process. When there is a connected block in one area (NO in S604), the CPU 28 calculates an angle difference between the direction of the motion vector and the direction of the standard vector read from the storage unit 27 (S605).

CPU28は、算出した角度差が閾値角度(第1閾値)より大きいか否かを判定し(S606)、角度差が閾値角度より大きい場合(S606でYES)、車両の走行方向が異常であるとして、交通異常有りと記録し(S603)、処理を終了する。角度差が閾値角度より小さい場合(S606でNO)、CPU28は、交通異常無しであると記録し(S607)、処理を終了する。   The CPU 28 determines whether or not the calculated angle difference is larger than the threshold angle (first threshold) (S606). If the angle difference is larger than the threshold angle (YES in S606), it is assumed that the traveling direction of the vehicle is abnormal. Then, it is recorded that there is a traffic abnormality (S603), and the process is terminated. When the angle difference is smaller than the threshold angle (NO in S606), the CPU 28 records that there is no traffic abnormality (S607) and ends the process.

これにより、算出時間T2の間に亘って、複数回算出された動きベクトル、動きベクトルの分布密度夫々の平均値に基づいて、同一走行車線の間で交通渋滞の度合いの差を判定して交通異常(例えば、交通事故、駐車違反車両、障害物などによる交通異常)を記録し、交通異常の状態が判定時間T1の間継続している場合は、交通異常と判定することができる。また、動きベクトルの平均値に基づいて、車両の通常の走行方向を示す標準方向との角度差を判定して交通異常を記録し、交通異常の状態が判定時間T1の間継続している場合は、交通異常と判定することができる。   As a result, the difference in the degree of traffic congestion between the same traveling lanes is determined based on the average values of the motion vectors calculated multiple times and the distribution density of the motion vectors over the calculation time T2. When an abnormality (for example, a traffic accident due to a traffic accident, a parking violation vehicle, an obstacle, or the like) is recorded and the state of the traffic abnormality continues for the determination time T1, it can be determined as a traffic abnormality. Also, based on the average value of the motion vector, the angle difference from the standard direction indicating the normal traveling direction of the vehicle is determined and the traffic abnormality is recorded, and the traffic abnormality state continues for the determination time T1. Can be determined as a traffic abnormality.

図12は交通異常判定の例を示すタイムチャートである。図に示すように、画像処理装置2は、隣接する車線に対応する判定領域30a、30bにおいて、算出時間T2経過の都度、交通渋滞の度合いを判定する。判定領域30aでは閑散であると判定され、判定領域30bでは普通流であると判定されている。次の判定サイクルで、判定領域30aでは閑散であると判定され、判定領域30bは大混雑であると判定された場合、両判定領域での渋滞度合いの差が大きいため、交通異常が記録され、判定時間T1の計時が開始される。これ以降、画像処理装置2は、判定領域30aでは閑散であると判定し、判定領域30bでは大混雑であると判定し続けた場合、判定時間T1が経過した時点で交通異常と判定する。   FIG. 12 is a time chart showing an example of traffic abnormality determination. As shown in the figure, the image processing apparatus 2 determines the degree of traffic congestion in the determination areas 30a and 30b corresponding to adjacent lanes every time the calculation time T2 elapses. The determination area 30a is determined to be quiet, and the determination area 30b is determined to be a normal flow. In the next determination cycle, when it is determined that the determination area 30a is quiet and the determination area 30b is determined to be very crowded, a traffic abnormality is recorded because the difference in the degree of congestion in both determination areas is large. Timing of the determination time T1 is started. Thereafter, the image processing apparatus 2 determines that the traffic is abnormal when the determination time T1 elapses when the determination area 30a determines that the area is quiet and the determination area 30b continues to determine that the area is very crowded.

なお、上述の例では、判定領域30a、及び判定領域30bに対応する2車線について、交通異常の判定を行っているが、交通異常の判定は、2車線の比較に限定されるものではない。例えば、片側4車線のうちの1車線(例えば、判定領域30b)の交通異常を判定する場合、判定領域30bと判定領域30a及び判定領域30cとの比較、判定領域30bと判定領域30a、判定領域30c及び判定領域30dとの比較、又は判定領域30bと判定領域30c及び判定領域30dとの比較などを行ってもよい。これにより、2車線に限らず、3車線以上でも交通異常を判定することが可能になる。   In the above example, the traffic abnormality is determined for the two lanes corresponding to the determination area 30a and the determination area 30b. However, the determination of the traffic abnormality is not limited to the comparison between the two lanes. For example, when determining a traffic abnormality in one lane (for example, the determination region 30b) of four lanes on one side, a comparison between the determination region 30b and the determination region 30a and the determination region 30c, a determination region 30b and the determination region 30a, and a determination region 30c and the determination area 30d may be compared, or the determination area 30b may be compared with the determination area 30c and the determination area 30d. Thereby, it is possible to determine a traffic abnormality not only in two lanes but also in three or more lanes.

実施の形態2
実施の形態1では、交差点の流入路又は流出路の数十mの範囲を撮像する構成であったが、交差点内の交通状況を判定することもできる。図13は実施の形態2に係る交通状況判定システムの概要を示す模式図である。図に示すように、ビデオカメラ1の設置場所が実施の形態1と相違する。ビデオカメラ1は、例えば、交差点角の路上10m程度の位置に、光軸を一の道路方向に沿って配置してあり、交差点7内を含む交差点付近の各道路を含む撮像範囲6の交通状況を撮像する。なお、画像処理装置2、管制センタ装置3は、実施の形態1と同様であるので、説明は省略する。
Embodiment 2
In the first embodiment, an image of a range of several tens of meters of the inflow path or the outflow path of the intersection is captured, but the traffic situation in the intersection can also be determined. FIG. 13 is a schematic diagram showing an outline of the traffic condition determination system according to the second embodiment. As shown in the figure, the installation location of the video camera 1 is different from that of the first embodiment. For example, the video camera 1 has an optical axis arranged along a road direction at a position of about 10 m on the road at an intersection angle, and the traffic situation of the imaging range 6 including each road near the intersection including the inside of the intersection 7. Image. Note that the image processing device 2 and the control center device 3 are the same as those in the first embodiment, and thus description thereof is omitted.

次に、実施の形態2に係る交通状況判定システムの処理手順について説明する。図14は交通状況判定の処理手順を示すフローチャートである。CPU28は、動きベクトルを算出するためのフレーム画像処理を行い(S20)、交通違反の有無を判定するための交通違反判定の処理を行い(S21)、交通事故の有無を判定するための交通事故判定の処理を行う(S22)。CPU28は、例えば、管制センタ装置3からの終了指令が有るか否かを判定し(S23)、終了指令がない場合(S23でNO)、ステップS20以降の処理を続け、終了指令が有る場合(S23でYES)、処理を終了する。   Next, a processing procedure of the traffic situation determination system according to Embodiment 2 will be described. FIG. 14 is a flowchart showing a traffic condition determination processing procedure. The CPU 28 performs frame image processing for calculating a motion vector (S20), performs traffic violation determination processing for determining whether there is a traffic violation (S21), and traffic accident for determining whether there is a traffic accident. A determination process is performed (S22). For example, the CPU 28 determines whether or not there is an end command from the control center device 3 (S23). If there is no end command (NO in S23), the CPU 28 continues the processing after step S20 and there is an end command ( The process is terminated.

図15はフレーム画像処理の処理手順を示すフローチャートである。なお、実施の形態1のフレーム画像処理と同様の部分は、説明を簡略化する。CPU28は、撮像時点の異なる2つの撮像画像(例えば、撮像時点tkのフレームfk、撮像時点tk+1のフレームfk+1を画像メモリ23から取得する(S201)。 FIG. 15 is a flowchart showing a processing procedure of frame image processing. The description of the same part as the frame image processing of the first embodiment is simplified. CPU28 has two captured images having different imaging times (e.g., acquires frame f k of the imaging time t k, the frame f k + 1 of the imaging time t k + 1 from the image memory 23 (S201).

CPU28は、取得した2つの撮像画像間で一致する画素ブロックを特定し(S202)、一致する画素ブロックの撮像画像における座標(位置)変化に基づいて、各画素ブロックの動きベクトルを算出する(S203)。CPU28は、算出された動きベクトルの方向が略一致する画素ブロックであって、隣接する画素ブロックを連結した連結ブロックを特定する(S204)。   The CPU 28 identifies a matching pixel block between the two acquired captured images (S202), and calculates a motion vector of each pixel block based on a change in coordinates (position) in the captured image of the matching pixel block (S203). ). The CPU 28 identifies pixel blocks in which the calculated motion vector directions substantially coincide with each other and connects adjacent pixel blocks (S204).

CPU28は、連結ブロックが有るか否かを判定し(S205)、連結ブロックが有る場合(S205でYES)、連結ブロックを構成する各画素ブロックの動きベクトルの平均値を連結ブロックの動きベクトルとして算出する(S206)。連結ブロックがない場合(S205でNO)、CPU28は、ステップS201以降の処理を続ける。CPU28は、連結ブロックの座標(例えば、連結ブロックの4隅近傍の撮像画像での座標)を記録し(S207)、処理を終了する。   The CPU 28 determines whether or not there is a connected block (S205). If there is a connected block (YES in S205), the CPU 28 calculates the average value of the motion vectors of the pixel blocks constituting the connected block as the motion vector of the connected block. (S206). If there is no connected block (NO in S205), the CPU 28 continues the processing from step S201. The CPU 28 records the coordinates of the connected block (for example, coordinates in the captured image near the four corners of the connected block) (S207), and ends the process.

図16は交通違反判定の処理手順を示すフローチャートである。CPU28は、道路上の交通規制に対応する規制領域が予め設定された撮像画像において、記録された連結ブロックの座標に基づいて、連結ブロックが規制領域内に有るか否かを判定する(S211)。   FIG. 16 is a flowchart showing a traffic violation determination processing procedure. The CPU 28 determines whether or not the connected block is within the restricted area based on the recorded coordinates of the connected block in the captured image in which the restricted area corresponding to the traffic restriction on the road is set in advance (S211). .

連結ブロックが規制領域内に有る場合(S211でYES)、CPU28は、規制領域に関連する規制情報(例えば、規制領域での走行禁止方向のように交通流の規制方向、又は、該規制方向と、制限速度に対応する大きさとに基づいて定められる規制ベクトルなどを含む)を記憶部27から読み出し(S212)、連結ブロックの動きベクトルの方向と規制方向とを比較する(S213)。   When the connection block is within the restriction area (YES in S211), the CPU 28 restricts the control information related to the restriction area (for example, the traffic flow restriction direction such as the travel prohibition direction in the restriction area, or the restriction direction). (Including a restriction vector determined based on the magnitude corresponding to the speed limit) is read from the storage unit 27 (S212), and the direction of the motion vector of the connected block is compared with the restriction direction (S213).

CPU28は、連結ブロックの動きベクトルの方向と規制方向とが略一致するか否かを判定し(S214)、略一致する場合(S214でYES)、交通違反と判定し(S215)、判定結果を管制センタ装置3へ通知する。CPU28は、他の規制領域が有るか否かを判定し(S216)、他の規制領域が有る場合(S216でYES)、ステップS211以降の処理を続ける。一方、略一致しない場合(S214でNO)、CPU28は、ステップS216以降の処理を続ける。   The CPU 28 determines whether or not the direction of the motion vector of the connected block substantially coincides with the restriction direction (S214). If the direction substantially coincides (YES in S214), the CPU 28 determines that it is a traffic violation (S215). The control center device 3 is notified. The CPU 28 determines whether or not there is another restriction area (S216), and if there is another restriction area (YES in S216), the processing after step S211 is continued. On the other hand, if they do not substantially match (NO in S214), the CPU 28 continues the processing after step S216.

図17は撮像画像の規制領域の例を示す説明図である。交差点の角部であって、交差点手前の停止線夫々の前方に規制領域50a、50b、50c、50dを設定し、交差点中央部に規制領域50eを設定している。規制領域50a、50b、50c、50d、50eは、交差点の信号表示に応じて走行禁止方向を規制し、規制領域50eは、時間に応じて右折禁止などの走行禁止方向を規制する。また、規制領域50a、50b、50c、50dは、制限速度を規制する。これらの走行禁止方向、制限速度などの規制情報は、規制領域に対応付けた規制情報テーブル272を記憶部27に記憶している。   FIG. 17 is an explanatory diagram illustrating an example of a restriction region of a captured image. Restriction areas 50a, 50b, 50c, and 50d are set at the corners of the intersection and in front of the stop lines before the intersection, and a restriction area 50e is set at the center of the intersection. The regulation areas 50a, 50b, 50c, 50d, and 50e regulate the travel prohibition direction according to the signal display of the intersection, and the regulation area 50e regulates the travel prohibition direction such as a right turn prohibition according to the time. In addition, the regulation areas 50a, 50b, 50c, and 50d regulate the speed limit. For the restriction information such as the travel prohibition direction and the speed limit, a restriction information table 272 associated with the restriction area is stored in the storage unit 27.

図18は規制情報テーブルのレコードレイアウトである。規制領域毎に、撮像画像上でのy軸方向(上下方向)の道路に対する信号表示、走行禁止方向を示す規制ベクトルの方向(規制方向)、規制領域を時間帯別に規制する場合の規制時間、該規制時間帯での走行禁止方向を示す規制ベクトルの方向、制限速度を示す規制ベクトルの大きさなどの欄により構成してある。   FIG. 18 shows a record layout of the restriction information table. For each restriction area, the signal display for the road in the y-axis direction (up and down direction) on the captured image, the direction of the restriction vector indicating the travel prohibition direction (regulation direction), the restriction time when restricting the restriction area by time zone, It is composed of fields such as a direction of a restriction vector indicating a travel prohibition direction in the restriction time zone, a size of a restriction vector indicating a speed limit, and the like.

動きベクトルの方向と規制方向を比較する場合に、交差点の信号表示を検知し、信号表示に応じた規制方向と比較することも可能である。また、動きベクトルの方向と規制方向とを比較する場合に、現在時刻を検知し、現在時刻が規制時間帯にあるか否かを判定して、所定の規制方向と比較することも可能である。さらに、動きベクトルの大きさが、制限速度を規定する規制ベクトルの大きさよりも大きいか否かを判定して、規制ベクトルの大きさよりも大きい場合に、速度違反と判定することも可能である。   When comparing the direction of the motion vector and the restriction direction, it is also possible to detect the signal display at the intersection and compare it with the restriction direction according to the signal display. Further, when comparing the direction of the motion vector and the regulation direction, it is also possible to detect the current time, determine whether the current time is in the regulation time zone, and compare it with a predetermined regulation direction. . Furthermore, it is possible to determine whether the motion vector is larger than the size of the restriction vector by determining whether the magnitude of the motion vector is larger than the size of the restriction vector that defines the speed limit.

図19は交通事故判定の処理手順を示すフローチャートである。CPU28は、撮像画像において連結ブロックが複数有るか否かを判定する(S221)。連結ブロックが複数(例えば、連結ブロックA、B)有る場合(S221でYES)、CPU28は、撮像時点tを記録する(S222)。撮像時点tの連結ブロックA、Bが存在した領域をAt、Btとする。CPU28は、動きベクトルに基づいて、撮像時点t+1での連結ブロックA、Bの移動先の領域を予想する(S223)。撮像時点t+1に連結ブロックA、Bが存在する領域をAt+1、Bt+1とする。連結ブロックが複数ない場合(S221でNO)、CPU28は、処理を終了する。   FIG. 19 is a flowchart showing a traffic accident determination processing procedure. The CPU 28 determines whether or not there are a plurality of connected blocks in the captured image (S221). When there are a plurality of connected blocks (for example, connected blocks A and B) (YES in S221), the CPU 28 records the imaging time t (S222). The areas where the connected blocks A and B at the imaging time t exist are defined as At and Bt. Based on the motion vector, the CPU 28 predicts the movement destination areas of the connected blocks A and B at the imaging time point t + 1 (S223). The areas where the connected blocks A and B exist at the imaging time t + 1 are defined as At + 1 and Bt + 1. When there are not a plurality of connected blocks (NO in S221), the CPU 28 ends the process.

CPU28は、領域At+1、Bt+1の重複領域Ct+1が有るか否かを判定し(S224)、重複領域Ct+1が有る場合(S224でYES)、重複領域Ct+1を構成する画素ブロック数が所定の閾値(第4閾値)より大きいか否かを判定する(S225)。重複領域Ct+1がない場合(S224でNO)、CPU28は、処理を終了する。   The CPU 28 determines whether or not there is an overlapping area Ct + 1 of the areas At + 1 and Bt + 1 (S224). If there is an overlapping area Ct + 1 (YES in S224), the number of pixel blocks constituting the overlapping area Ct + 1 is a predetermined threshold value (first number). It is determined whether it is larger than (4 threshold) (S225). If there is no overlapping area Ct + 1 (NO in S224), the CPU 28 ends the process.

画素ブロック数が閾値より大きい場合(S225でYES)、CPU28は、撮像時点t、t+1での重複領域Ct+1の輝度差を算出する(S226)。この場合、領域At+1、Bt+1に対応する車両同士が、撮像時点t+1で衝突する可能性が高いと判断される。画素ブロック数が閾値より小さい場合(S225でNO)、CPU28は、処理を終了する。   When the number of pixel blocks is larger than the threshold (YES in S225), the CPU 28 calculates the luminance difference of the overlapping area Ct + 1 at the imaging time points t and t + 1 (S226). In this case, it is determined that the vehicles corresponding to the regions At + 1 and Bt + 1 are highly likely to collide at the imaging time t + 1. If the number of pixel blocks is smaller than the threshold (NO in S225), the CPU 28 ends the process.

CPU28は、算出した輝度差が閾値(第5閾値)より大きいか否かを判定する(S227)。重複領域Ct+1の輝度差が閾値より大きい場合(S227でYES)、CPU28は、撮像時点t、t+1での領域Atの輝度差、及び撮像時点t、t+1での領域Btの輝度差を算出する(S228)。重複領域Ct+1の輝度差が閾値より小さい場合(S227でNO)、CPU28は、処理を終了する。この場合には、この場合には、連結ブロックA、Bに対応する車両のいずれか、又は両方が停止したと判断される。CPU28は、撮像時点t、t+1での領域Atの輝度差、及び撮像時点t、t+1での領域Btの輝度差が閾値(第6閾値)より大きいか否かを判定する(S229)。   The CPU 28 determines whether or not the calculated luminance difference is larger than a threshold value (fifth threshold value) (S227). When the luminance difference of the overlapping region Ct + 1 is larger than the threshold (YES in S227), the CPU 28 calculates the luminance difference of the region At at the imaging time t and t + 1 and the luminance difference of the region Bt at the imaging time t and t + 1 ( S228). When the luminance difference of the overlapping area Ct + 1 is smaller than the threshold value (NO in S227), the CPU 28 ends the process. In this case, in this case, it is determined that one or both of the vehicles corresponding to the connection blocks A and B have stopped. The CPU 28 determines whether or not the luminance difference of the region At at the imaging times t and t + 1 and the luminance difference of the region Bt at the imaging times t and t + 1 are larger than a threshold (sixth threshold) (S229).

領域At、Bt夫々の輝度差が閾値より大きい場合(S229でYES)、CPU28は、事故有りと判定し(S230)、判定結果を管制センタ装置3へ通知して処理を終了する。領域At、Btいずれかの輝度差が閾値より小さい場合(S229でNO)、CPU28は、処理を終了する。領域At、Bt夫々の輝度差が閾値より大きい場合は、連結ブロックA、Bに対応する各車両が重複領域に対応する道路上の衝突可能性領域に進入したものと判断され、交通事故の発生の有無の判定をさらに正確に行うことができる。なお、ステップS229での判定を行わずに、ステップS227での判定結果のみに基づいて、事故の有無を判定することも可能である。この場合は、処理に要する労力を低減することが可能になる。   If the luminance difference between each of the areas At and Bt is larger than the threshold (YES in S229), the CPU 28 determines that there is an accident (S230), notifies the control center device 3 of the determination result, and ends the process. If the luminance difference of either region At or Bt is smaller than the threshold value (NO in S229), the CPU 28 ends the process. If the luminance difference between each of the areas At and Bt is larger than the threshold value, it is determined that each vehicle corresponding to the connected blocks A and B has entered the collision possibility area on the road corresponding to the overlapping area, and a traffic accident occurs. The presence / absence determination can be more accurately performed. Note that it is also possible to determine the presence or absence of an accident based only on the determination result in step S227 without performing the determination in step S229. In this case, the labor required for processing can be reduced.

図20は撮像画像の重複領域の例を示す説明図である。図に示すように、撮像画像上で互いに交差する道路上を交差点に向かって走行する車両に対応する連結ブロックA、Bを特定した場合、連結ブロックAが時刻t及びt+1に存在した領域を、夫々At、At+1とし、同様に連結ブロックBが時刻t及びt+1に存在した領域を、夫々Bt、Bt+1とする。時刻t+1で、連結ブロックAt、Btが重なると予想される重複領域Ct+1は、領域At+1及びBt+1が重なる部分である。   FIG. 20 is an explanatory diagram illustrating an example of an overlapping region of captured images. As shown in the figure, when the connection blocks A and B corresponding to the vehicles traveling toward the intersection on the roads intersecting each other on the captured image are specified, the area where the connection block A exists at the times t and t + 1 is Similarly, let At and At + 1 be the same, and the regions where the connected block B was present at times t and t + 1 are Bt and Bt + 1, respectively. At time t + 1, the overlapping region Ct + 1 where the connected blocks At and Bt are expected to overlap is a portion where the regions At + 1 and Bt + 1 overlap.

実施の形態3
上述の実施の形態では、交差点付近に設置されたビデオカメラで撮像した撮像画像を画像処理装置で処理して交通状況を判定する構成であったが、管制センタ装置3で交通状況を判定することもできる。
Embodiment 3
In the above-described embodiment, the configuration is such that the captured image captured by the video camera installed near the intersection is processed by the image processing device to determine the traffic situation, but the traffic situation is determined by the control center device 3. You can also.

図21は実施の形態3に係る交通状況判定システムの概要を示す模式図である。図に示すように、ビデオカメラ1、1、…、画像処理装置2、2、…は、夫々交差点7付近に設置され、交差点7又は交差点近傍の道路5を撮像するようにしてあり、画像処理装置2、2、…は通信回線4を介して管制センタ装置3に接続してある。   FIG. 21 is a schematic diagram showing an outline of the traffic condition determination system according to the third embodiment. As shown in the figure, the video cameras 1, 1,..., The image processing devices 2, 2,... Are installed in the vicinity of the intersection 7, respectively, and take an image of the intersection 7 or the road 5 near the intersection. The devices 2, 2,... Are connected to the control center device 3 via the communication line 4.

画像処理装置2の画像入力部21は、ビデオカメラ1で撮像して得られた画像データをNTSC信号として取得し、A/D変換部22は、取得したアナログ信号をデジタル信号に変換し、CPU28は、変換したデジタル信号を画像データとして画像メモリ23に記憶する。CPU28は、画像メモリ23に記憶した画像データを所定の方式(例えば、MPEG、MPEG2、MPEG4、H.264など)に基づいて符号化処理し、符号化処理後のデータを通信部25から管制センタ装置3へ送信する。CPU28は、符号化処理を行う際に画像データに基づいて動きベクトルを算出し、算出した動きベクトルを符号化処理する。   The image input unit 21 of the image processing apparatus 2 acquires image data obtained by imaging with the video camera 1 as an NTSC signal, and the A / D conversion unit 22 converts the acquired analog signal into a digital signal, and the CPU 28 Stores the converted digital signal in the image memory 23 as image data. The CPU 28 encodes the image data stored in the image memory 23 based on a predetermined method (for example, MPEG, MPEG2, MPEG4, H.264, etc.), and the encoded data is transmitted from the communication unit 25 to the control center. Transmit to device 3. The CPU 28 calculates a motion vector based on the image data when performing the encoding process, and encodes the calculated motion vector.

管制センタ装置3は、画像処理装置2、2、…から送信された符号化処理後のデータを通信部31で受信し、受信したデータを記憶部34に記憶する。CPU36は、記憶部34から符号化処理後のデータを読み出し、読み出したデータから元の画像データを復元するとともに、動きベクトルなどを抽出する。管制センタ装置3は、所定のコンピュータプログラムがRAM32に読み込まれ、読み込まれたコンピュータプログラムをCPU36で実行することにより、実施の形態1、2において画像処理装置2が行う交通状況を判定するための同様の処理を実現する。   The control center device 3 receives the encoded data transmitted from the image processing devices 2, 2,... By the communication unit 31 and stores the received data in the storage unit 34. The CPU 36 reads the encoded data from the storage unit 34, restores the original image data from the read data, and extracts a motion vector and the like. The control center device 3 reads a predetermined computer program into the RAM 32, and executes the read computer program with the CPU 36, so that the control center device 3 can determine the traffic situation performed by the image processing device 2 in the first and second embodiments. Realize the process.

CPU36で実現される交通状況判定の処理は、図3、図9、図11、図14、図16、図19で示した処理手順と同様であるが、フレーム画像処理S3、S20が相違する。以下、本実施の形態における交通渋滞判定、交通異常判定を行う場合のフレーム画像処理を説明する。   The traffic condition determination process realized by the CPU 36 is the same as the process procedure shown in FIGS. 3, 9, 11, 14, 16, and 19, but the frame image processes S3 and S20 are different. Hereinafter, frame image processing in the case of performing traffic congestion determination and traffic abnormality determination in the present embodiment will be described.

図22はフレーム画像処理の処理手順を示すフローチャートである。CPU36は、画像処理装置2から送信された符号化画像データを受信する(S331)。CPU36は、受信した符号化画像データから動きベクトルを抽出する(S332)。   FIG. 22 is a flowchart showing a processing procedure of frame image processing. The CPU 36 receives the encoded image data transmitted from the image processing device 2 (S331). The CPU 36 extracts a motion vector from the received encoded image data (S332).

CPU36は、抽出された動きベクトルの方向が略一致する画素ブロックであって、隣接する画素ブロックを連結した連結ブロックを特定する(S333)。CPU36は、特定された連結ブロックが有るか否かを判定し(S334)、連結ブロックが有る場合(S334でYES)、連結ブロックを構成する各画素ブロックの動きベクトルの平均値を連結ブロックの動きベクトルとして算出する(S335)。CPU36は、記憶部34から標準方向を読み出し、連結ブロックの動きベクトルの方向と標準方向との角度差を算出する(S336)。   The CPU 36 identifies a connected block that is a pixel block in which the directions of the extracted motion vectors substantially match and connects adjacent pixel blocks (S333). The CPU 36 determines whether or not there is a specified connected block (S334). If there is a connected block (YES in S334), the CPU 36 uses the average value of the motion vectors of each pixel block constituting the connected block as the motion of the connected block. It calculates as a vector (S335). The CPU 36 reads the standard direction from the storage unit 34, and calculates the angle difference between the direction of the motion vector of the connected block and the standard direction (S336).

CPU36は、算出された角度差が略180°に等しいか否かを判定し(S337)、角度差が略180°に等しい場合(S337でYES)、逆走行が有ることを通知する(S338)。角度差が略180°に等しくない場合(S337でNO)、CPU36は、1フレーム分の撮像画像が有する画素ブロック数に対する前記撮像画像で特定された連結ブロックを構成する画素ブロック数の比を動きベクトルの分布密度として算出する(S339)。   The CPU 36 determines whether or not the calculated angle difference is substantially equal to 180 ° (S337). If the angle difference is substantially equal to 180 ° (YES in S337), the CPU 36 notifies that reverse running is present (S338). . When the angle difference is not approximately equal to 180 ° (NO in S337), the CPU 36 moves the ratio of the number of pixel blocks constituting the connected block specified by the captured image to the number of pixel blocks included in the captured image for one frame. The vector distribution density is calculated (S339).

CPU36は、連結ブロックの動きベクトルの大きさを、予め定められた変換式により連結ブロックに対応する車両の速度に変換して、車両の速度を算出し(S340)、算出した動きベクトルの分布密度、速度、連結ブロック数を記録し(S341)、フレーム画像処理を終了する。一方、連結ブロックが無い場合(S334でNO)、CPU36は、連結ブロック無しの記録をし(S342)、フレーム画像処理を終了する。なお、画像処理装置2が複数設置してある場合、各画像処理装置2からの符号化画像データを受信し、同様の処理を繰り返す。   The CPU 36 converts the magnitude of the motion vector of the connected block into the speed of the vehicle corresponding to the connected block using a predetermined conversion formula, calculates the speed of the vehicle (S340), and calculates the distribution density of the calculated motion vector. The speed and the number of connected blocks are recorded (S341), and the frame image processing is terminated. On the other hand, if there is no connected block (NO in S334), the CPU 36 records that there is no connected block (S342), and ends the frame image processing. When a plurality of image processing apparatuses 2 are installed, encoded image data from each image processing apparatus 2 is received, and the same processing is repeated.

次に、交通違反判定、交通事故判定を行う場合のフレーム画像処理を説明する。図23はフレーム画像処理の処理手順を示すフローチャートである。CPU36は、画像処理装置2から送信された符号化画像データを受信する(S231)。CPU36は、受信した符号化画像データから動きベクトルを抽出する(S232)。   Next, frame image processing when performing traffic violation determination and traffic accident determination will be described. FIG. 23 is a flowchart showing a processing procedure of frame image processing. The CPU 36 receives the encoded image data transmitted from the image processing device 2 (S231). The CPU 36 extracts a motion vector from the received encoded image data (S232).

CPU36は、抽出された動きベクトルの方向が略一致する画素ブロックであって、隣接する画素ブロックを連結した連結ブロックを特定する(S233)。CPU36は、連結ブロックが有るか否かを判定し(S234)、連結ブロックが有る場合(S234でYES)、連結ブロックを構成する各画素ブロックの動きベクトルの平均値を連結ブロックの動きベクトルとして算出する(S235)。連結ブロックがない場合(S234でNO)、CPU36は、ステップS231以降の処理を続ける。CPU36は、連結ブロックの座標(例えば、連結ブロックの4隅近傍の撮像画像での座標)を記録し(S236)、処理を終了する。なお、画像処理装置2が複数設置してある場合、各画像処理装置2からの符号化画像データを受信し、同様の処理を繰り返す。   The CPU 36 identifies pixel blocks in which the directions of the extracted motion vectors substantially match and connect adjacent pixel blocks (S233). The CPU 36 determines whether or not there is a connected block (S234). If there is a connected block (YES in S234), the CPU 36 calculates an average value of motion vectors of each pixel block constituting the connected block as a motion vector of the connected block. (S235). If there is no connected block (NO in S234), the CPU 36 continues the processing from step S231. The CPU 36 records the coordinates of the connected block (for example, coordinates in the captured image near the four corners of the connected block) (S236), and ends the process. When a plurality of image processing apparatuses 2 are installed, encoded image data from each image processing apparatus 2 is received, and the same processing is repeated.

これにより、管制センタ装置3は、多地点の交通状況を広範囲に、かつ同時に判定することが可能になる。また、管制センタ装置3は、多地点に配置された信号機、交通情報表示板などに判定結果に基づいて管制情報を送信し、信号機の制御、交通情報の表示などを行うことができる。   As a result, the control center device 3 can determine traffic conditions at multiple points in a wide range and simultaneously. In addition, the control center device 3 can transmit control information based on the determination result to traffic lights, traffic information display boards and the like arranged at multiple points, and can control traffic lights, display traffic information, and the like.

実施の形態4
道路に沿って、複数のビデオカメラ、画像処理装置を配置することにより、交通渋滞状況を広範囲に亘ってさらに詳細に判定することも可能である。図24は実施の形態4に係る交通状況判定システムの概要を示す模式図である。図に示すように、ビデオカメラ1、1、…、画像処理装置2、2、…夫々は、適長の離隔距離(例えば、数百m、数kmなど)を有して道路に沿って配置している。便宜上、図中では5つのビデオカメラ及び画像処理装置を示してあり、以下の説明を簡単にするため、交通流の上流から下流に向かって、ビデオカメラ1の符号をC1、C2、C3、C4、及びC5とする。
Embodiment 4
By arranging a plurality of video cameras and image processing devices along the road, it is possible to determine the traffic jam situation in more detail over a wide range. FIG. 24 is a schematic diagram showing an outline of the traffic condition determination system according to the fourth embodiment. As shown in the figure, the video cameras 1, 1,..., The image processing devices 2, 2,... Are arranged along the road with an appropriate separation distance (for example, several hundred meters, several kilometers, etc.). is doing. For convenience, in the figure, five video cameras and image processing apparatuses are shown, and in order to simplify the following description, the symbols of the video camera 1 are denoted by C1, C2, C3, C4 from upstream to downstream of the traffic flow. , And C5.

管制センタ装置3は、ビデオカメラC1、…、C5夫々で撮像した撮像画像に基づいて、ビデオカメラC1、…、C5夫々で撮像される領域の交通渋滞状況を判定する。まず、交通流の渋滞度合いの粗密波を検出して広範囲で精度良く渋滞状況を判定する処理について説明する。   The control center device 3 determines the traffic jam situation of the areas imaged by the video cameras C1,..., C5 based on the captured images captured by the video cameras C1,. First, a description will be given of a process for detecting a traffic jam in a traffic flow and determining a traffic jam condition in a wide range with high accuracy.

図25は交通渋滞判定の処理手順を示すフローチャートである。CPU36は、ビデオカメラ1の符号を示すための指標nを1にする(S521)。CPU36は、ビデオカメラCnで撮像した撮像画像に基づいて交通渋滞を判定し(S522)、ビデオカメラCnの隣に離隔して設置されたビデオカメラCn+1で撮像した撮像画像に基づいて、同じ時点の交通渋滞を判定する(S523)。   FIG. 25 is a flowchart showing a traffic jam determination processing procedure. The CPU 36 sets the index n for indicating the code of the video camera 1 to 1 (S521). The CPU 36 determines traffic congestion based on the captured image captured by the video camera Cn (S522), and based on the captured image captured by the video camera Cn + 1 that is installed next to the video camera Cn at the same time point. A traffic jam is determined (S523).

CPU36は、ビデオカメラCnにより判定した渋滞度合いとビデオカメラCn+1により判定した渋滞度合いとが同じであるか否かを判定し(S524)、同じ渋滞度合いでないと判定された場合(S524でNO)、CPU36は、ビデオカメラCn+1の隣に離隔して設置されたビデオカメラCn+2で撮像した撮像画像に基づいて、同じ時点の交通渋滞を判定する(S525)。   The CPU 36 determines whether or not the degree of congestion determined by the video camera Cn is the same as the degree of congestion determined by the video camera Cn + 1 (S524), and if it is determined that the degree of congestion is not the same (NO in S524), The CPU 36 determines traffic congestion at the same time point based on the captured image captured by the video camera Cn + 2 that is installed adjacent to the video camera Cn + 1 (S525).

CPU36は、ビデオカメラCn+2により判定した渋滞度合いとビデオカメラCnにより判定した渋滞度合いとが同じであるか否かを判定し(S526)、同じ渋滞度合いであると判定された場合(S526でYES)、ビデオカメラCn+1により判定した渋滞度合いを、ビデオカメラCnにより判定した渋滞度合いに修正する(S527)。   The CPU 36 determines whether or not the degree of congestion determined by the video camera Cn + 2 and the degree of congestion determined by the video camera Cn are the same (S526), and if it is determined that the degree of congestion is the same (YES in S526). Then, the degree of congestion determined by the video camera Cn + 1 is corrected to the degree of congestion determined by the video camera Cn (S527).

CPU36は、すべてのビデオカメラで撮像した撮像画像に基づいて交通渋滞判定を終了したか否かを判定し(S528)、すべてのビデオカメラで撮像した撮像画像に基づいて交通渋滞判定を終了していない場合(S528でNO)、nをn+1に置き換え(S529)、ステップS523以降の処理を続ける。   The CPU 36 determines whether or not the traffic jam determination has been completed based on the captured images captured by all the video cameras (S528), and the traffic jam determination has been completed based on the captured images captured by all the video cameras. If not (NO in S528), n is replaced with n + 1 (S529), and the processing after step S523 is continued.

すべてのビデオカメラで撮像した撮像画像に基づいて交通渋滞判定を終了した場合(S528でYES)、CPU36は、判定した交通渋滞を記録する(S530)。ステップS526で、同じ渋滞度合いでないと判定された場合(S526でNO)、CPU36は、ステップS528以降の処理を続ける。一方、ステップS524で、ビデオカメラCnにより判定した渋滞度合いとビデオカメラCn+1により判定した渋滞度合いとが同じであると判定された場合(S524でYES)、CPU36は、ステップS528以降の処理を続ける。   When the traffic jam determination is completed based on the captured images captured by all the video cameras (YES in S528), the CPU 36 records the determined traffic jam (S530). If it is determined in step S526 that the degree of congestion is not the same (NO in S526), the CPU 36 continues the processing from step S528. On the other hand, if it is determined in step S524 that the degree of congestion determined by the video camera Cn is the same as the degree of congestion determined by the video camera Cn + 1 (YES in S524), the CPU 36 continues the processing from step S528.

ステップS531で、CPU36は、処理終了の指示の有無を判定し(S531)、処理終了の指示がない場合(S531でNO)、ステップS521以降の処理を続ける。処理終了の指示がある場合(S531でYES)、CPU36は、処理を終了する。   In step S531, the CPU 36 determines whether or not there is an instruction to end the process (S531). If there is no instruction to end the process (NO in S531), the process from step S521 is continued. If there is an instruction to end the process (YES in S531), the CPU 36 ends the process.

例えば、ある時刻tにおいて、ビデオカメラC1、C2、…、C5により判定した渋滞状況が、混雑(C1)、混雑(C2)、普通流(C3)、混雑(C4)、混雑(C5)である場合、渋滞度合いの粗密波であると判定し、ビデオカメラC3により判定した普通流を混雑に修正する。これにより、道路の広範囲に亘って、渋滞度合いの粗密波を検出し、ビデオカメラC3単独で渋滞状況を判定した場合に比べて、より精度良く渋滞状況を判定することができる。   For example, at a certain time t, the congestion status determined by the video cameras C1, C2,..., C5 is congestion (C1), congestion (C2), normal flow (C3), congestion (C4), and congestion (C5). In this case, it is determined that the traffic wave is a rough and dense wave, and the normal flow determined by the video camera C3 is corrected to be congested. Thereby, it is possible to determine the traffic jam condition with higher accuracy compared to the case where the congestion wave of the traffic jam degree is detected over a wide range of the road and the traffic jam situation is determined by the video camera C3 alone.

上述の処理手順は、一例であって、道路状況に応じて、判定に使用するビデオカメラ1の台数は、適宜設定することができる。また、判定に使用するビデオカメラ1の台数を増加する場合は、両隣に設置された2つのビデオカメラに限定せず、両隣に連続して設置された複数のビデオカメラにより判定した渋滞度合いを用いることもできる。これにより、さらに広範囲に亘って、精度良く渋滞度合いを判定することができる。   The above-described processing procedure is an example, and the number of video cameras 1 used for determination can be appropriately set according to the road condition. When the number of video cameras 1 used for determination is increased, the degree of congestion determined by a plurality of video cameras continuously installed on both sides is used without being limited to the two video cameras installed on both sides. You can also. Thereby, it is possible to accurately determine the degree of traffic congestion over a wider range.

次に、ある時刻でビデオカメラC1、C2、…、C5により判定した交通渋滞の状況を、他の複数の時刻で同様に判定した交通渋滞の状況と比較することにより、交通渋滞の誤判定を低減する処理について説明する。   Next, the traffic jam situation determined by the video cameras C1, C2,..., C5 at a certain time is compared with the traffic jam situation similarly judged at a plurality of other times, thereby making an erroneous determination of the traffic jam. The process to reduce is demonstrated.

図26は交通渋滞判定の処理手順を示すフローチャートである。なお、ある時刻tでビデオカメラC1、C2、…、C5により判定した交通渋滞をStとする。例えば、交通渋滞Stは、ビデオカメラC1、C2、…、C5に対応して、St=(閑散、閑散、普通流、閑散、閑散)のように表すことができる。   FIG. 26 is a flowchart showing a traffic jam determination processing procedure. It is assumed that the traffic jam determined by the video cameras C1, C2,..., C5 at a certain time t is St. For example, the traffic jam St can be expressed as St = (low, low, normal, low, low) corresponding to the video cameras C1, C2,..., C5.

CPU36は、時刻tの交通渋滞Stを判定し(S541)、時刻tと適長の離隔間隔を有する時刻t+1の交通渋滞St+1を判定する(S542)。CPU36は、交通渋滞StとSt+1とが同じであるか否かを判定する(S543)。交通渋滞StとSt+1とが同じでない場合(S543でNO)、CPU36は、時刻tと適長の離隔間隔を有する時刻t−1の交通渋滞St−1を判定する(S544)。   The CPU 36 determines the traffic jam St + 1 at the time t (S541), and determines the traffic jam St + 1 at the time t + 1 having an appropriate distance from the time t (S542). The CPU 36 determines whether or not the traffic jam St and St + 1 are the same (S543). When the traffic jam St and St + 1 are not the same (NO in S543), the CPU 36 determines the traffic jam St-1 at the time t-1 having a proper separation distance from the time t (S544).

CPU36は、交通渋滞St+1とSt−1が同じであるか否かを判定する(S545)。交通渋滞St+1とSt−1が同じである場合(S545でYES)、CPU36は、時刻t+2の交通渋滞St+2を判定する(S546)。CPU36は、交通渋滞St+1とSt+2が同じであるか否かを判定する(S547)。   The CPU 36 determines whether or not the traffic jams St + 1 and St-1 are the same (S545). When the traffic jam St + 1 and St-1 are the same (YES in S545), the CPU 36 determines the traffic jam St + 2 at time t + 2 (S546). The CPU 36 determines whether or not the traffic jam St + 1 and St + 2 are the same (S547).

交通渋滞St+1とSt+2が同じである場合(S547でYES)、CPU36は、時刻t−2の交通渋滞St−2を判定する(S548)。CPU36は、交通渋滞St−1とSt−2が同じであるか否かを判定する(S549)。交通渋滞St−1とSt−2が同じである場合(S549でYES)、CPU36は、時刻tにおける交通渋滞Stは、誤判定であるとして、時刻t+1の交通渋滞St+1に修正する(S550)。   When the traffic jam St + 1 and St + 2 are the same (YES in S547), the CPU 36 determines the traffic jam St-2 at time t-2 (S548). The CPU 36 determines whether or not the traffic jams St-1 and St-2 are the same (S549). If the traffic jam St-1 and St-2 are the same (YES in S549), the CPU 36 corrects the traffic jam St at the time t to be the traffic jam St + 1 at the time t + 1, assuming that the traffic jam St at the time t is an erroneous determination (S550).

CPU36は、処理終了の指示の有無を判定し(S551)、処理終了の指示がない場合(S551でNO)、時刻tを時刻t+1に置き換え(S552)、ステップS542以降の処理を続ける。処理終了の指示がある場合(S551でYES)、CPU36は、処理を終了する。   The CPU 36 determines whether or not there is an instruction to end the process (S551). If there is no instruction to end the process (NO in S551), the time t is replaced with the time t + 1 (S552), and the processes after step S542 are continued. When there is an instruction to end the process (YES in S551), the CPU 36 ends the process.

一方、ステップS543で、交通渋滞StとSt+1とが同じである場合(S543でYES)、CPU36は、ステップS551以降の処理を続ける。ステップS545で、交通渋滞St+1とSt−1が同じでない場合(S545でNO)、CPU36は、ステップS551以降の処理を続ける。   On the other hand, if the traffic jam St and St + 1 are the same in step S543 (YES in S543), the CPU 36 continues the processing from step S551. If the traffic jam St + 1 and St-1 are not the same in step S545 (NO in S545), the CPU 36 continues the processing from step S551.

一方、交通渋滞St+1とSt+2が同じでない場合(S547でNO)、CPU36はステップS551以降の処理を続ける。また、交通渋滞St−1とSt−2が同じでない場合(S549でNO)、CPU36はステップS551以降の処理を続ける。   On the other hand, when the traffic jam St + 1 and St + 2 are not the same (NO in S547), the CPU 36 continues the processing from step S551. If the traffic jams St-1 and St-2 are not the same (NO in S549), the CPU 36 continues the processing from step S551.

例えば、時刻tにおける交通渋滞Stが、St=(閑散、閑散、混雑、閑散、閑散)であり、時刻t+1、t+2、t−1、t−2における交通渋滞St+1、St+2、St−1、St−2がすべて、(閑散、閑散、閑散、閑散、閑散)である場合、時刻tの交通渋滞St(ビデオカメラC3により判定した混雑)が誤判定であるとして、Stを(閑散、閑散、閑散、閑散、閑散)に修正する。これにより、誤判定を低減して交通渋滞の判定を精度良く行うことができる。   For example, the traffic jam St at time t is St = (light, light, crowded, light, quiet), and traffic jams at time t + 1, t + 2, t−1, t−2, St + 1, St + 2, St−1, St−2. When -2 is all (low, low, low, low, low), the traffic jam at time t (congestion determined by the video camera C3) is erroneously determined and St is (low, low, low) , Quiet, quiet). Thereby, it is possible to reduce erroneous determination and accurately determine traffic congestion.

上述の処理手順は、一例であって、道路状況に応じて、交通渋滞を判定する時刻の数を増減することが可能である。また、時刻の離隔間隔は、適宜設定することが可能である。   The above processing procedure is an example, and it is possible to increase or decrease the number of times for determining traffic congestion according to road conditions. Further, the time interval can be set as appropriate.

次に、交通渋滞が発生した場合に、道路のどの地点が渋滞発生のボルトネックであるか、渋滞発生の位置(例えば、混雑の先頭位置)を判定する処理について説明する。   Next, a description will be given of a process of determining a traffic jam occurrence position (for example, a congestion start position) as to which point on the road is a traffic jam bolt neck when a traffic jam occurs.

図27は交通渋滞判定の処理手順を示すフローチャートである。CPU36は、カウント数Kをゼロにセットし(S561)、ビデオカメラ1の符号を示すための指標nを1にする(S562)。CPU36は、ビデオカメラCnで撮像した撮像画像に基づいて交通渋滞を判定し(S563)、渋滞度合いが混雑か否かを判定する(S564)。   FIG. 27 is a flowchart showing a traffic jam determination processing procedure. The CPU 36 sets the count number K to zero (S561), and sets the index n for indicating the sign of the video camera 1 to 1 (S562). The CPU 36 determines traffic congestion based on the captured image captured by the video camera Cn (S563), and determines whether the degree of congestion is congested (S564).

混雑であると判定した場合(S564でYES)、CPU36は、カウンタ数Kに1を加算し(S565)、カウント数Kが閾値以上であるか否かを判定する(S566)。カウント数Kが閾値以上である場合(S566でYES)、CPU36は、ビデオカメラCnの位置を混雑の先頭位置とする(S567)。   When it is determined that the traffic is congested (YES in S564), the CPU 36 adds 1 to the counter number K (S565), and determines whether the count number K is equal to or greater than a threshold (S566). When the count number K is equal to or greater than the threshold (YES in S566), the CPU 36 sets the position of the video camera Cn as the congestion start position (S567).

CPU36は、すべてのビデオカメラで撮像した撮像画像に基づいて交通渋滞判定を終了したか否かを判定し(S568)、交通渋滞判定を終了していない場合(S568でNO)、CPU36は、nをn+1に置き換え(S569)、ステップS563以降の処理を続ける。交通渋滞判定を終了した場合(S568でYES)、処理終了の指示の有無を判定する(S570)。   The CPU 36 determines whether or not the traffic jam determination has ended based on the captured images captured by all the video cameras (S568). If the traffic jam determination has not ended (NO in S568), the CPU 36 determines that n Is replaced with n + 1 (S569), and the processing after step S563 is continued. When the traffic jam determination is completed (YES in S568), it is determined whether or not there is an instruction to end the process (S570).

処理終了の指示がない場合(S570でNO)、CPU36は、ステップS561以降の処理を続ける。処理終了の指示がある場合(S570でYES)、CPU36は、処理を終了する。一方、混雑でないと判定した場合(S564でNO)、CPU36は、ステップS568以降の処理を続ける。また、カウント数Kが閾値より小さい場合(S566でNO)、CPU36は、ステップS568以降の処理を続ける。   If there is no instruction to end the process (NO in S570), the CPU 36 continues the processes after step S561. When there is an instruction to end the process (YES in S570), the CPU 36 ends the process. On the other hand, if it is determined that the traffic is not congested (NO in S564), the CPU 36 continues the processing from step S568. If the count number K is smaller than the threshold value (NO in S566), the CPU 36 continues the processing from step S568.

例えば、閾値を2に設定した場合、連続して設置された3つのビデオカメラにより混雑を判定したときは、3つのビデオカメラのうち、交通流の下流端にあるビデオカメラ付近が、交通渋滞のボトルネック、すなわち、混雑の先頭位置であると判定することができる。道路状況に応じて、道路に沿って設置するビデオカメラの台数を変更した場合、閾値も適宜変更することが可能である。   For example, when the threshold is set to 2 and when congestion is determined by three video cameras installed in succession, the vicinity of the video camera at the downstream end of the traffic flow is the traffic jam in the three video cameras. It can be determined that it is a bottleneck, that is, a congestion start position. When the number of video cameras installed along the road is changed according to the road conditions, the threshold value can be changed as appropriate.

上述の処理は、一例であって、混雑の有無を判定する代わりに、大混雑の有無を判定してもよい。また、最終的に計数されたカウント数の大小に応じて、混雑、又は大混雑を判定した連続するビデオカメラの数が判るため、混雑(又は大混雑)の先頭位置及び混雑(又は大混雑)の後尾位置を求めることもできる。さらに、各ビデオカメラの離隔距離に基づいて、混雑(又は大混雑)が、どの程度の範囲(距離)に亘って発生しているかも判定することができる。   The above-described processing is an example, and instead of determining the presence or absence of congestion, the presence or absence of heavy congestion may be determined. In addition, since the number of continuous video cameras that have been determined to be crowded or crowded according to the size of the finally counted number is known, the start position of the crowded (or crowded) and the crowded (or crowded) The trailing position can also be obtained. Further, based on the separation distance of each video camera, it can be determined how much range (distance) the congestion (or large congestion) has occurred.

混雑範囲は、突如発生すること、又は解消することはないため、適当な時間の間における複数の時点での混雑範囲を平滑化し、より精度を高めることが可能である。平滑化の方法としては、例えば、時刻tの前後数時刻における混雑先頭位置の平均値、最頻値、又は中央値となる位置を時刻tにおける混雑の先頭位置とすることができ、同様に混雑の後尾位置も求めることができる。   Since the congestion range does not suddenly occur or disappears, it is possible to smooth the congestion range at a plurality of points in time and increase the accuracy. As a smoothing method, for example, the average, mode, or median position of the congestion start position at several times before and after time t can be set as the congestion start position at time t. The trailing position can also be obtained.

以上説明したように、本発明にあっては、撮像時点の異なる撮像画像で特定した一致する画素ブロックの位置変化により、隣接の画素ブロックを連結した連結ブロックの動きベクトルを算出し、算出した動きベクトル又は該動きベクトルに基づいて算出した動きベクトルの分布密度により、単に走行する車両の台数、速度、方向などの交通情報だけではなく、交通渋滞の渋滞度合いの判定、交通事故、駐車車両、又は障害物などの交通障害による交通異常の判定、道路上の場所に応じた交通規制に対する交通違反の判定、交通事故の発生の判定など、車両の時間的分布及び空間的分布に基づいて、詳細な交通状況を同時、かつ広範囲に判定することができる。   As described above, in the present invention, a motion vector of a connected block obtained by connecting adjacent pixel blocks is calculated based on a change in the position of a matching pixel block specified by different captured images at the time of imaging, and the calculated motion Depending on the vector or the motion vector distribution density calculated based on the motion vector, not only traffic information such as the number of vehicles traveling, speed, and direction, but also determination of the degree of traffic jam, traffic accidents, parked vehicles, or Based on the temporal and spatial distribution of vehicles, such as judgment of traffic abnormalities due to obstacles such as obstacles, judgment of traffic violations against traffic regulations according to places on the road, judgment of occurrence of traffic accidents, etc. The traffic situation can be determined simultaneously and in a wide range.

上述の実施の形態においては、ビデオカメラ1と画像処理装置2とは、別個の装置で構成されていたが、ビデオカメラ1と画像処理装置2とを統合して、ひとつの装置として構成してもよい。   In the above-described embodiment, the video camera 1 and the image processing device 2 are configured as separate devices. However, the video camera 1 and the image processing device 2 are integrated into a single device. Also good.

上述の実施の形態においては、ビデオカメラ1を交差点付近に配置する構成であったが、ビデオカメラ1、又は画像処理装置2の配置場所は、これに限定されるものではなく、交通状況を判定するために必要な場所であれば、いずれの場所に配置してもよいことはいうまでもない。   In the above-described embodiment, the video camera 1 is arranged near the intersection. However, the arrangement location of the video camera 1 or the image processing device 2 is not limited to this, and the traffic situation is determined. Needless to say, it may be placed in any place as long as it is necessary to do so.

上述の実施の形態においては、動きベクトルの分布密度を、1フレーム分の撮像画像が有する画素ブロック数に対する前記撮像画像で特定された連結ブロックを構成する画素ブロック数の比により算出するものであったが、動きベクトルの分布密度は、これに限定されるものではなく、撮像画像に占める連結ブロックの空間的分布を評価できる指標であれば、いずれのものを用いてもよい。   In the above-described embodiment, the motion vector distribution density is calculated based on the ratio of the number of pixel blocks constituting the connected block specified by the captured image to the number of pixel blocks included in the captured image for one frame. However, the motion vector distribution density is not limited to this, and any index may be used as long as it is an index that can evaluate the spatial distribution of the connected blocks in the captured image.

上述の実施の形態においては、算出時間T2の都度算出された動きベクトル(速度)の平均値、動きベクトルの分布密度の平均値に基づいて交通渋滞を判定する構成であったが、交通渋滞の判定は、これに限定されるものではない。例えば、算出時間を、時間帯で変化させることもでき、また、判定結果に応じて変更するものでもよい。算出時間は、道路状況に応じて適宜所望の時間を用いることはいうまでもない。   In the above-described embodiment, the traffic jam is determined based on the average value of the motion vector (speed) calculated every time the calculation time T2 and the average value of the motion vector distribution density. The determination is not limited to this. For example, the calculation time can be changed according to the time zone, or may be changed according to the determination result. It goes without saying that a desired time is appropriately used as the calculation time according to the road conditions.

上述の実施の形態においては、算出時間T2の都度算出された動きベクトル(速度)の平均値、動きベクトルの分布密度の平均値に基づいて、判定時間T1の間交通異常が継続しているか否かにより交通異常を判定する構成であったが、これに限定されるものではなく、所要の時間継続して交通異常が続いていることを確認できるものであれば、いずれの方法を用いてもよい。   In the above-described embodiment, whether or not the traffic abnormality continues for the determination time T1 based on the average value of the motion vector (speed) calculated every calculation time T2 and the average value of the distribution density of the motion vectors. However, the present invention is not limited to this, and any method can be used as long as it can be confirmed that the traffic abnormality continues for the required time. Good.

上述の実施の形態においては、連結ブロックの動きベクトル、動きベクトルの分布密度の平均値を算出するものであったが、これに限定されず、最頻値、中央値など、交通状況に対応して所望の統計値を用いるものであってもよい。   In the embodiment described above, the average value of the motion density of the connected blocks and the distribution density of the motion vectors is calculated. However, the present invention is not limited to this, and it corresponds to traffic conditions such as the mode value and the median value. Alternatively, a desired statistical value may be used.

上述の実施の形態において、交通渋滞判定テーブル、規制情報テーブルは、一例であって、これに限定されるものではない。速度又は分布密度の閾値は適宜変更することが可能であり、また他の情報を追加することも可能である。また、管制センタ装置3から、交通状況に応じて、画像処理装置2、2、…に対して、夫々異なる所望の交通渋滞判定テーブル、規制情報テーブルに更新することもできる。また、規制ベクトルの方向は、走行禁止方向を特定するものであったが、走行許容方向を用いることも可能である。   In the above-described embodiment, the traffic jam determination table and the restriction information table are examples, and are not limited thereto. The threshold value of velocity or distribution density can be changed as appropriate, and other information can be added. In addition, the control center device 3 can update the image processing devices 2, 2,... To different desired traffic congestion determination tables and restriction information tables, respectively, according to traffic conditions. In addition, the direction of the restriction vector specifies the travel prohibition direction, but a travel allowable direction can also be used.

上述の実施の形態において、異なる撮像時点の撮像画像を取得する場合、撮像時点の時間間隔は、道路の交通状況に応じて、適宜設定することができる。車両が比較的高速で走行する道路の場合は、時間間隔を短くし、低速走行車両が多い道路では、時間間隔を長くすることができる。   In the above-described embodiment, when acquiring captured images at different imaging time points, the time interval at the imaging time point can be set as appropriate according to the traffic situation of the road. The time interval can be shortened for roads where vehicles travel at relatively high speeds, and the time interval can be lengthened for roads with many low-speed traveling vehicles.

上述の実施の形態においては、ビデオカメラで撮像して得られた撮像画像から各画素ブロックの動きベクトルを算出する構成であったが、ビデオカメラで撮像してMPEG、MPEG2、MPEG4、H.264等の符号化映像の形式に変換された映像データに含まれる各画素ブロックの動きベクトル情報を用いてもよい。ここで、MPEG、MPEG2、MPEG4、H.264等の符号化映像とは、画像の中の動く部分だけを検出し保存するなどして映像データを圧縮しているものであって、この形式に変換する際に、画素ブロックの特定及び各画素ブロックの動きベクトルの算出が行われる。   In the above-described embodiment, the motion vector of each pixel block is calculated from the captured image obtained by capturing with the video camera. However, the motion vector of each pixel block is captured with the video camera. The motion vector information of each pixel block included in the video data converted into the encoded video format such as H.264 may be used. Here, MPEG, MPEG2, MPEG4, H.264. The encoded video such as H.264 compresses video data by detecting and storing only moving parts in an image. When converting to this format, the pixel block is specified and each The motion vector of the pixel block is calculated.

本発明の実施の形態に係る交通状況判定システムの概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the traffic condition determination system which concerns on embodiment of this invention. 画像処理装置及び管制センタ装置の構成を示すブロック図である。It is a block diagram which shows the structure of an image processing apparatus and a control center apparatus. 交通状況判定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of traffic condition determination. フレーム画像処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a frame image process. 画素ブロックの動きベクトルを示す説明図である。It is explanatory drawing which shows the motion vector of a pixel block. 連結ブロックの例を示す説明図である。It is explanatory drawing which shows the example of a connection block. 撮像画像の例を示す説明図である。It is explanatory drawing which shows the example of a captured image. フレーム画像処理で算出される算出情報を示す説明図である。It is explanatory drawing which shows the calculation information calculated by frame image processing. 交通渋滞判定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of traffic congestion determination. 交通渋滞判定テーブルのレコードレイアウトである。It is a record layout of a traffic jam determination table. 交通異常判定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of traffic abnormality determination. 交通異常判定の例を示すタイムチャートである。It is a time chart which shows the example of traffic abnormality determination. 実施の形態2に係る交通状況判定システムの概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the traffic condition determination system which concerns on Embodiment 2. FIG. 交通状況判定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of traffic condition determination. フレーム画像処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a frame image process. 交通違反判定の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of traffic violation determination. 撮像画像の規制領域の例を示す説明図である。It is explanatory drawing which shows the example of the control area | region of a captured image. 規制情報テーブルのレコードレイアウトである。It is a record layout of a regulation information table. 交通事故判定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of traffic accident determination. 撮像画像の重複領域の例を示す説明図である。It is explanatory drawing which shows the example of the overlap area | region of a captured image. 実施の形態3に係る交通状況判定システムの概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the traffic condition determination system which concerns on Embodiment 3. FIG. フレーム画像処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a frame image process. フレーム画像処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of a frame image process. 実施の形態4に係る交通状況判定システムの概要を示す模式図である。It is a schematic diagram which shows the outline | summary of the traffic condition determination system which concerns on Embodiment 4. 交通渋滞判定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of traffic congestion determination. 交通渋滞判定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of traffic congestion determination. 交通渋滞判定の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of traffic congestion determination.

符号の説明Explanation of symbols

1 ビデオカメラ
2 画像処理装置
3 管制センタ装置
4 通信回線
5 道路
6 撮像範囲
7 交差点
21 画像入力部
22 A/D変換部
23 画像メモリ
24 RAM
25 通信部
26 補助記憶部
27 記憶部
28 CPU
29 CD−ROM
31 通信部
32 RAM
33 表示部
34 記憶部
35 操作部
36 CPU
37 補助記憶部
DESCRIPTION OF SYMBOLS 1 Video camera 2 Image processing apparatus 3 Control center apparatus 4 Communication line 5 Road 6 Imaging range 7 Intersection 21 Image input part 22 A / D conversion part 23 Image memory 24 RAM
25 Communication Unit 26 Auxiliary Storage Unit 27 Storage Unit 28 CPU
29 CD-ROM
31 Communication unit 32 RAM
33 Display unit 34 Storage unit 35 Operation unit 36 CPU
37 Auxiliary storage

Claims (18)

取得した撮像画像を処理して交通状況を判定する画像処理装置において、
撮像時点の異なる撮像画像の対応する画素ブロックを特定する手段と、
前記画素ブロックの位置変化に基づいて、前記画素ブロックの動きベクトルを算出する手段と、
算出された動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定する手段と、
前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出するベクトル算出手段と、
前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出する密度算出手段と、
前記分布密度又は連結ブロックの動きベクトルに基づいて、交通状況を判定する判定手段と
を備えることを特徴とする画像処理装置。
In the image processing apparatus that processes the acquired captured image and determines the traffic situation,
Means for identifying corresponding pixel blocks of captured images at different imaging points;
Means for calculating a motion vector of the pixel block based on a change in position of the pixel block;
Means for identifying a concatenated block obtained by concatenating adjacent pixel blocks in which the directions of the calculated motion vectors substantially match;
Vector calculation means for calculating a motion vector of the connected block based on a motion vector of each pixel block of the connected block;
Density calculating means for calculating a motion vector distribution density based on the number of pixel blocks of the connected block;
An image processing apparatus comprising: a determination unit that determines a traffic situation based on the distribution density or a motion vector of a connected block.
前記密度算出手段及びベクトル算出手段は、
前記分布密度及び連結ブロックの動きベクトルを所定時間に複数回算出するようにしてあり、
算出した複数の分布密度及び連結ブロックの動きベクトルに基づいて、それらの平均値、最頻値、又は中央値の少なくとも一つを含む統計値を算出するようにしてあることを特徴とする請求項1に記載の画像処理装置。
The density calculating means and vector calculating means are:
The distribution density and the motion vector of the connected block are calculated a plurality of times in a predetermined time,
A statistical value including at least one of an average value, a mode value, and a median value is calculated based on the calculated plurality of distribution densities and motion vectors of connected blocks. The image processing apparatus according to 1.
前記判定手段は、
前記分布密度又は連結ブロックの動きベクトルの大きさに基づいて、交通渋滞状況を判定するようにしてあることを特徴とする請求項2に記載の画像処理装置。
The determination means includes
The image processing apparatus according to claim 2, wherein a traffic congestion situation is determined based on the distribution density or the size of a motion vector of a connected block.
交通流の方向を定める標準方向を記憶する記憶手段と、
前記連結ブロックの動きベクトルの方向と前記標準方向との角度差を算出する角度差算出手段と
を備え、
前記判定手段は、
算出された角度差が略180度である場合、交通異常と判定するようにしてあることを特徴とする請求項1に記載の画像処理装置。
Storage means for storing a standard direction for determining the direction of traffic flow;
An angle difference calculating means for calculating an angle difference between the direction of the motion vector of the connected block and the standard direction;
The determination means includes
The image processing apparatus according to claim 1, wherein when the calculated angle difference is approximately 180 degrees, it is determined that the traffic is abnormal.
交通流の方向を定める標準方向を記憶する記憶手段と、
前記連結ブロックの動きベクトルの方向と前記標準方向との角度差を算出する角度差算出手段と、
判定時間を計時する手段と
を備え、
前記判定手段は、
前記判定時間が所定の時間以上となるまで、算出された角度差が第1閾値以上である場合、交通異常と判定するようにしてあることを特徴とする請求項1乃至請求項4のいずれかに記載の画像処理装置。
Storage means for storing a standard direction for determining the direction of traffic flow;
An angle difference calculating means for calculating an angle difference between the direction of the motion vector of the connected block and the standard direction;
Means for measuring the judgment time, and
The determination means includes
5. The traffic abnormality is determined when the calculated angle difference is equal to or greater than a first threshold until the determination time reaches a predetermined time or more. An image processing apparatus according to 1.
同一進行方向の複数の車線に対応した判定領域を撮像画像に設けてあり、
前記連結ブロックの動きベクトルの大きさと第2閾値とを比較する手段と、
判定時間を計時する手段と
を備え、
前記判定手段は、
前記判定時間が所定の時間以上となるまで、一の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より小さく、他の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定するようにしてあることを特徴とする請求項1乃至請求項4のいずれかに記載の画像処理装置。
Judgment areas corresponding to multiple lanes in the same traveling direction are provided in the captured image,
Means for comparing the magnitude of the motion vector of the connected block with a second threshold;
Means for measuring the judgment time, and
The determination means includes
Until the determination time becomes a predetermined time or more, the size of the motion vector of the connected block in one determination region is smaller than the second threshold, and the size of the motion vector of the connected block in the other determination region is the second The image processing apparatus according to any one of claims 1 to 4, wherein when it is larger than the threshold value, it is determined that the traffic is abnormal.
前記分布密度と第3閾値とを比較する手段を備え、
前記判定手段は、
前記判定時間が所定の時間以上となるまで、前記一の判定領域の分布密度が前記第3閾値より大きい場合に、交通異常と判定するようにしてあることを特徴とする請求項6に記載の画像処理装置。
Means for comparing the distribution density with a third threshold;
The determination means includes
The traffic abnormality is determined when the distribution density of the one determination region is larger than the third threshold until the determination time becomes a predetermined time or more. Image processing device.
同一進行方向の複数の車線に対応した判定領域を撮像画像に設けてあり、
前記連結ブロックの動きベクトルの大きさと第2閾値とを比較する手段と、
判定時間を計時する手段と
を備え、
前記判定手段は、
前記判定時間が所定の時間以上となるまで、一の判定領域で連結ブロックが特定されず、他の判定領域の連結ブロックの動きベクトルの大きさが前記第2閾値より大きい場合に、交通異常と判定するようにしてあることを特徴とする請求項1乃至請求項4のいずれかに記載の画像処理装置。
Judgment areas corresponding to multiple lanes in the same traveling direction are provided in the captured image,
Means for comparing the magnitude of the motion vector of the connected block with a second threshold;
Means for measuring the judgment time, and
The determination means includes
If the connected block is not specified in one determination area and the size of the motion vector of the connected block in the other determination area is larger than the second threshold until the determination time is equal to or longer than a predetermined time, traffic abnormality is determined. The image processing apparatus according to claim 1, wherein the determination is made.
交通規制に対応する規制領域を撮像画像に設けてあり、
前記規制領域での交通流の規制方向を記憶するようにしてあり、
連結ブロックの前記規制領域への進入を検出する手段と、
前記連結ブロックの動きベクトルの方向と前記規制方向とを比較する手段と
を備え、
前記判定手段は、
前記規制領域に進入した連結ブロックの動きベクトルの方向と前記規制方向とが略一致する場合に、交通違反と判定するようにしてあることを特徴とする請求項1乃至請求項8のいずれかに記載の画像処理装置。
A restricted area corresponding to traffic restrictions is provided in the captured image,
The traffic flow regulation direction in the regulation area is stored,
Means for detecting the entry of the connecting block into the restricted area;
Means for comparing the direction of the motion vector of the connecting block and the restriction direction;
The determination means includes
9. A traffic violation is determined when the direction of a motion vector of a connected block that has entered the restriction area substantially matches the restriction direction. The image processing apparatus described.
連結ブロックの動きベクトルに基づいて、前記連結ブロック同士の重複領域を特定する手段と、
前記重複領域の画素ブロック数と第4閾値とを比較する手段と
を備え、
前記判定手段は、
前記重複領域の画素ブロック数が前記第4閾値以上になる第1撮像時点と、該第1撮像時点より前の第2撮像時点との間で、前記重複領域の画素が有する輝度値の差が前記第5閾値以上である場合に、交通事故と判定するようにしてあることを特徴とする請求項1乃至請求項9のいずれかに記載の画像処理装置。
Means for identifying an overlapping region between the connected blocks based on a motion vector of the connected blocks;
Means for comparing the number of pixel blocks in the overlapping region with a fourth threshold value,
The determination means includes
The difference in luminance value of the pixels in the overlapping area between the first imaging time when the number of pixel blocks in the overlapping area is equal to or greater than the fourth threshold and the second imaging time before the first imaging time is The image processing apparatus according to claim 1, wherein a traffic accident is determined when the value is equal to or greater than the fifth threshold value.
前記判定手段は、
前記第2撮像時点に前記連結ブロックが存在した領域夫々の画素が有する輝度値の前記第1撮像時点及び第2撮像時点での差が第6閾値以上である場合に、交通事故と判定するようにしてあることを特徴とする請求項10に記載の画像処理装置。
The determination means includes
A traffic accident is determined when the difference between the first imaging time point and the second imaging time point of the luminance value of each pixel in the region where the connected block exists at the second imaging time point is equal to or greater than a sixth threshold value. The image processing apparatus according to claim 10, wherein:
道路を含む領域を撮像装置で撮像し、撮像して得られた撮像画像を画像処理装置で処理して交通状況を判定する交通状況判定システムにおいて、
前記画像処理装置は、
撮像時点の異なる撮像画像の対応する画素ブロックを特定する手段と、
前記画素ブロックの位置変化に基づいて、前記画素ブロックの動きベクトルを算出する手段と、
算出された動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定する手段と、
前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出するベクトル算出手段と、
前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出する密度算出手段と、
前記分布密度又は連結ブロックの動きベクトルに基づいて、交通状況を判定する判定手段と
を備えることを特徴とする交通状況判定システム。
In a traffic situation determination system for imaging a region including a road with an imaging device, and processing a captured image obtained by imaging with an image processing device to determine a traffic situation,
The image processing apparatus includes:
Means for identifying corresponding pixel blocks of captured images at different imaging points;
Means for calculating a motion vector of the pixel block based on a change in position of the pixel block;
Means for identifying a concatenated block obtained by concatenating adjacent pixel blocks in which the directions of the calculated motion vectors substantially match;
Vector calculation means for calculating a motion vector of the connected block based on a motion vector of each pixel block of the connected block;
Density calculating means for calculating a motion vector distribution density based on the number of pixel blocks of the connected block;
A traffic condition determination system comprising: determination means for determining a traffic condition based on the distribution density or a motion vector of a connected block.
道路を含む領域を撮像する撮像装置と、撮像して得られた撮像画像を処理する画像処理装置と、交通状況を判定する判定装置とを備える交通状況判定システムにおいて、
前記画像処理装置は、
撮像時点の異なる撮像画像の対応する画素ブロックを特定する手段と、
前記画素ブロックの位置変化に基づいて、前記画素ブロックの動きベクトルを算出する手段と、
算出した動きベクトルを前記判定装置へ送信する手段と
を備え、
前記判定装置は、
前記画像処理装置が送信した動きベクトルを受信する手段と、
受信した動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定する手段と、
前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出するベクトル算出手段と、
前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出する密度算出手段と、
前記分布密度又は前記連結ブロックの動きベクトルに基づいて、交通状況を判定する判定手段と
を備えることを特徴とする交通状況判定システム。
In a traffic situation determination system comprising an imaging apparatus that captures an area including a road, an image processing apparatus that processes a captured image obtained by imaging, and a determination apparatus that determines a traffic situation,
The image processing apparatus includes:
Means for identifying corresponding pixel blocks of captured images at different imaging points;
Means for calculating a motion vector of the pixel block based on a change in position of the pixel block;
Means for transmitting the calculated motion vector to the determination device;
The determination device includes:
Means for receiving a motion vector transmitted by the image processing device;
Means for identifying a concatenated block obtained by concatenating adjacent pixel blocks whose directions of the received motion vectors substantially coincide;
Vector calculation means for calculating a motion vector of the connected block based on a motion vector of each pixel block of the connected block;
Density calculating means for calculating a motion vector distribution density based on the number of pixel blocks of the connected block;
A traffic condition determination system comprising: determination means for determining a traffic condition based on the distribution density or the motion vector of the connected block.
道路を含む異なる領域を撮像する撮像装置、及び該撮像装置で撮像した撮像画像を処理する画像処理装置夫々を道路に沿って3つ以上備え、
前記判定装置は、
前記分布密度又は前記連結ブロックの動きベクトルに基づいて、交通渋滞状況を判定するようにしてあり、
一の撮像装置で撮像した撮像画像により判定した第1の交通渋滞状況が、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により判定した第2の交通渋滞状況と異なる場合に、第2の交通渋滞状況であると判定するようにしてあることを特徴とする請求項13に記載の交通状況判定システム。
Three or more image pickup devices that pick up images of different areas including roads and image processing devices that process picked-up images picked up by the image pickup devices are provided along the roads.
The determination device includes:
Based on the distribution density or the motion vector of the connected block, the traffic congestion situation is determined,
The second traffic jam situation determined by the captured image captured by one imaging device is determined based on the captured images captured by the two most recent imaging devices installed with the one imaging device in between. 14. The traffic situation determination system according to claim 13, wherein when it is different from the traffic jam situation, the second traffic jam situation is judged.
前記判定装置は、
一の時点で、前記一の撮像装置で撮像した撮像画像により判定した第1の交通渋滞状況が、前記一の撮像装置を間にして設置された直近の2つの撮像装置夫々で撮像した撮像画像により判定した第2の交通渋滞状況と異なる場合に、前記一の時点と異なる複数の他の時点で、前記一の撮像装置で撮像した撮像画像により判定した交通渋滞状況が、前記第2の交通渋滞状況であるときは、第2の交通渋滞状況であると判定するようにしてあることを特徴とする請求項14に記載の交通状況判定システム。
The determination device includes:
At one time point, the first traffic jam situation determined by the picked-up image picked up by the one image pickup device is a picked-up image picked up by each of the two latest image pickup devices installed with the one image pickup device in between. When the second traffic congestion situation is different from the second traffic congestion situation, the traffic congestion situation judged by the captured images captured by the one imaging device at a plurality of other time points different from the one time point is the second traffic condition. 15. The traffic situation determination system according to claim 14, wherein when it is a traffic jam situation, it is judged as a second traffic jam situation.
前記判定装置は、
複数の連続した撮像装置で撮像した撮像画像により判定した交通渋滞状況が同一である場合に、前記撮像装置のうち交通流の下流端の撮像装置の位置に基づいて、交通渋滞変化点を判定するようにしてあることを特徴とする請求項14又は請求項15に記載の交通状況判定システム。
The determination device includes:
When traffic congestion conditions determined by captured images captured by a plurality of continuous imaging devices are the same, a traffic congestion change point is determined based on the position of the imaging device at the downstream end of the traffic flow among the imaging devices. The traffic condition determination system according to claim 14 or 15, wherein the system is configured as described above.
コンピュータに、取得した撮像画像を処理して交通状況を判定させるためのコンピュータプログラムにおいて、
コンピュータを、
動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定する手段と、
前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出するベクトル算出手段と、
前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出する密度算出手段と、
前記分布密度又は連結ブロックの動きベクトルに基づいて、交通状況を判定する判定手段と
して機能させることを特徴とするコンピュータプログラム。
In a computer program for causing a computer to process an acquired captured image and determine a traffic situation,
Computer
Means for identifying a connected block obtained by connecting adjacent pixel blocks having substantially the same direction of motion vector;
Vector calculation means for calculating a motion vector of the connected block based on a motion vector of each pixel block of the connected block;
Density calculating means for calculating a motion vector distribution density based on the number of pixel blocks of the connected block;
A computer program that functions as a determination unit that determines a traffic situation based on the distribution density or a motion vector of a connected block.
道路を含む領域を撮像装置で撮像し、撮像して得られた撮像画像を処理して交通状況を判定する交通状況判定方法において、
動きベクトルの方向が略一致する隣接の画素ブロックを連結した連結ブロックを特定し、
前記連結ブロックの各画素ブロックの動きベクトルに基づいて、前記連結ブロックの動きベクトルを算出し、
前記連結ブロックの画素ブロック数に基づいて動きベクトルの分布密度を算出し、
前記分布密度又は連結ブロックの動きベクトルに基づいて、交通状況を判定することを特徴とする交通状況判定方法。
In a traffic situation determination method of imaging a region including a road with an imaging device and processing a captured image obtained by imaging to determine a traffic situation,
Identify connected blocks that connect adjacent pixel blocks whose motion vector directions substantially match,
Calculating a motion vector of the connected block based on a motion vector of each pixel block of the connected block;
Calculating a motion vector distribution density based on the number of pixel blocks of the connected block;
A traffic situation determination method, wherein a traffic situation is determined based on the distribution density or a motion vector of a connected block.
JP2005151618A 2005-05-24 2005-05-24 Traffic condition deciding system, image processor, computer program, and traffic condition deciding method Pending JP2006330942A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005151618A JP2006330942A (en) 2005-05-24 2005-05-24 Traffic condition deciding system, image processor, computer program, and traffic condition deciding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005151618A JP2006330942A (en) 2005-05-24 2005-05-24 Traffic condition deciding system, image processor, computer program, and traffic condition deciding method

Publications (1)

Publication Number Publication Date
JP2006330942A true JP2006330942A (en) 2006-12-07

Family

ID=37552589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005151618A Pending JP2006330942A (en) 2005-05-24 2005-05-24 Traffic condition deciding system, image processor, computer program, and traffic condition deciding method

Country Status (1)

Country Link
JP (1) JP2006330942A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015721A (en) * 2007-07-06 2009-01-22 Pioneer Electronic Corp Image file providing device and image file providing program
JP2011180667A (en) * 2010-02-26 2011-09-15 Sumitomo Electric Ind Ltd Traffic information processing apparatus, and method for detecting congestion information using the same
JP2014010560A (en) * 2012-06-28 2014-01-20 Aisin Aw Co Ltd Probe information collection system
JP2014056441A (en) * 2012-09-12 2014-03-27 Toshiba Corp Road state grasping apparatus
JP2014059649A (en) * 2012-09-14 2014-04-03 Omron Corp Image processor, mobile body state determination method, and mobile body state determination program
KR101416457B1 (en) * 2013-11-22 2014-08-06 주식회사 넥스파시스템 Road crime prevention system using recognition of opposite direction drive and pedestrian
JP2014171013A (en) * 2013-03-01 2014-09-18 Yc Solution Inc Abnormal behavior on road monitoring system, program, and monitoring method
JP2014182433A (en) * 2013-03-18 2014-09-29 Toshiba Corp Road state comprehension apparatus
WO2015068854A1 (en) * 2013-11-11 2015-05-14 日本電気株式会社 Avoidance-behavior detection device, avoidance-reason processing device, and methods for same
CN104933868A (en) * 2015-06-17 2015-09-23 苏州大学 Real-time online traffic state detection method based on traffic monitoring video
JP2016024651A (en) * 2014-07-22 2016-02-08 沖電気工業株式会社 State determination system, state determination method, and program
JP2016206756A (en) * 2015-04-16 2016-12-08 日本信号株式会社 Intersection monitoring system
CN109360414A (en) * 2018-09-18 2019-02-19 北京交通大学 The often identification of hair congested link and screening method
JP2020048055A (en) * 2018-09-19 2020-03-26 株式会社東芝 Image sensor, sensing method, control system, and program
JP2020126505A (en) * 2019-02-06 2020-08-20 アルパイン株式会社 system
JP7495689B2 (en) 2020-07-28 2024-06-05 綜合警備保障株式会社 Traffic jam detection device, traffic jam detection system, and traffic jam detection method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10334395A (en) * 1997-06-05 1998-12-18 Sanyo Electric Co Ltd Method and device for measuring traffic information
JP2002279581A (en) * 2001-12-28 2002-09-27 Matsushita Electric Ind Co Ltd Traffic control system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10334395A (en) * 1997-06-05 1998-12-18 Sanyo Electric Co Ltd Method and device for measuring traffic information
JP2002279581A (en) * 2001-12-28 2002-09-27 Matsushita Electric Ind Co Ltd Traffic control system

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015721A (en) * 2007-07-06 2009-01-22 Pioneer Electronic Corp Image file providing device and image file providing program
JP2011180667A (en) * 2010-02-26 2011-09-15 Sumitomo Electric Ind Ltd Traffic information processing apparatus, and method for detecting congestion information using the same
JP2014010560A (en) * 2012-06-28 2014-01-20 Aisin Aw Co Ltd Probe information collection system
JP2014056441A (en) * 2012-09-12 2014-03-27 Toshiba Corp Road state grasping apparatus
JP2014059649A (en) * 2012-09-14 2014-04-03 Omron Corp Image processor, mobile body state determination method, and mobile body state determination program
JP2014171013A (en) * 2013-03-01 2014-09-18 Yc Solution Inc Abnormal behavior on road monitoring system, program, and monitoring method
JP2014182433A (en) * 2013-03-18 2014-09-29 Toshiba Corp Road state comprehension apparatus
JPWO2015068854A1 (en) * 2013-11-11 2017-03-09 日本電気株式会社 Avoidance action detection device, avoidance cause processing device, and methods thereof
WO2015068854A1 (en) * 2013-11-11 2015-05-14 日本電気株式会社 Avoidance-behavior detection device, avoidance-reason processing device, and methods for same
US9858486B2 (en) 2013-11-11 2018-01-02 Nec Corporation Device and method for detecting circumventing behavior and device and method for processing cause of circumvention
US20160267330A1 (en) * 2013-11-11 2016-09-15 Nec Corporation Device and method for detecting circumventing behavior and device and method for processing cause of circumvention
KR101416457B1 (en) * 2013-11-22 2014-08-06 주식회사 넥스파시스템 Road crime prevention system using recognition of opposite direction drive and pedestrian
JP2016024651A (en) * 2014-07-22 2016-02-08 沖電気工業株式会社 State determination system, state determination method, and program
JP2016206756A (en) * 2015-04-16 2016-12-08 日本信号株式会社 Intersection monitoring system
CN104933868A (en) * 2015-06-17 2015-09-23 苏州大学 Real-time online traffic state detection method based on traffic monitoring video
CN109360414A (en) * 2018-09-18 2019-02-19 北京交通大学 The often identification of hair congested link and screening method
JP2020048055A (en) * 2018-09-19 2020-03-26 株式会社東芝 Image sensor, sensing method, control system, and program
JP7237499B2 (en) 2018-09-19 2023-03-13 株式会社東芝 Image sensor, sensing method, control system and program
JP2020126505A (en) * 2019-02-06 2020-08-20 アルパイン株式会社 system
JP7144124B2 (en) 2019-02-06 2022-09-29 アルパイン株式会社 system
JP7495689B2 (en) 2020-07-28 2024-06-05 綜合警備保障株式会社 Traffic jam detection device, traffic jam detection system, and traffic jam detection method

Similar Documents

Publication Publication Date Title
JP2006330942A (en) Traffic condition deciding system, image processor, computer program, and traffic condition deciding method
JP4654163B2 (en) Vehicle surrounding environment recognition device and system
CN106373430B (en) Intersection traffic early warning method based on computer vision
US6760061B1 (en) Traffic sensor
CN106647776B (en) Method and device for judging lane changing trend of vehicle and computer storage medium
US6556133B2 (en) Vehicle-use surroundings monitoring system
WO2014192137A1 (en) Movement trajectory prediction device, and movement trajectory prediction method
EP2752834A1 (en) Vehicle vicinity monitoring device
EP2784763A1 (en) Vehicle periphery monitoring device
JP5597454B2 (en) Abnormal traveling vehicle detection system and road monitoring program
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
JP4776299B2 (en) Vehicle behavior monitoring system
CN107097794B (en) System and method for detecting lane line of road
US20020145665A1 (en) Vehicle-use surroundings monitoring system
JP5297407B2 (en) Traffic flow measuring device
US6549124B1 (en) Environment monitoring system for a vehicle with an image pickup device
JP4801934B2 (en) Moving object detection device
KR102456869B1 (en) System for smart managing traffic
JP5132729B2 (en) Road driving support system
JP2012164275A (en) Image recognition apparatus
JP2007156568A (en) Road travelling support system
CN111427063B (en) Mobile device traffic control method, device, equipment, system and medium
JP2007265016A (en) Vehicle detection device and vehicle detection method
CN112906428B (en) Image detection region acquisition method and space use condition judgment method
JP5794379B2 (en) Three-dimensional object detection apparatus and three-dimensional object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080123

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101124