JP4783898B2 - Abnormal event detection method at intersections by image processing - Google Patents

Abnormal event detection method at intersections by image processing Download PDF

Info

Publication number
JP4783898B2
JP4783898B2 JP2006005449A JP2006005449A JP4783898B2 JP 4783898 B2 JP4783898 B2 JP 4783898B2 JP 2006005449 A JP2006005449 A JP 2006005449A JP 2006005449 A JP2006005449 A JP 2006005449A JP 4783898 B2 JP4783898 B2 JP 4783898B2
Authority
JP
Japan
Prior art keywords
vehicle
route
determined
intersection
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006005449A
Other languages
Japanese (ja)
Other versions
JP2007188270A (en
Inventor
俊介 上條
小路 劉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Tokyo NUC
Original Assignee
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Tokyo NUC filed Critical University of Tokyo NUC
Priority to JP2006005449A priority Critical patent/JP4783898B2/en
Publication of JP2007188270A publication Critical patent/JP2007188270A/en
Application granted granted Critical
Publication of JP4783898B2 publication Critical patent/JP4783898B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/20Monitoring the location of vehicles belonging to a group, e.g. fleet of vehicles, countable or determined number of vehicles
    • G08G1/205Indicating the location of the monitored vehicles as destination, e.g. accidents, stolen, rental

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、交差点での時系列画像を処理して画像中の移動物体を追跡し、異常事象の有無を判定する方法に関する。   The present invention relates to a method for processing a time-series image at an intersection, tracking a moving object in the image, and determining the presence or absence of an abnormal event.

ビデオカメラで移動物体を撮像し、画像処理して画像上の移動物体を追跡することにより、交通状態や交通事故の検出等を自動的に行うことができる。   By capturing a moving object with a video camera, performing image processing, and tracking the moving object on the image, it is possible to automatically detect a traffic state or a traffic accident.

下記特許文献1には、車両が混んでくるとテレビカメラで撮影した画像は重なってくるため、ミクロに台数、速度を計測することができなくなることから、マクロに車が多い、少ない、速度が速い、遅いといった計測により渋滞度を計測し、渋滞度を平面的にプロットし、渋滞度が周囲の状況に比べ大きく変化している箇所の近傍には何らかの異常が発生していると判断することが記載されている。また、ある部分だけ走行ラインがずれている場合に異常と判断することが記載されている。   In Patent Document 1 below, when vehicles are crowded, images taken with a TV camera are overlapped, so the number and speed of the vehicle cannot be measured microscopically. Measure the congestion level by measuring fast and slow, plot the congestion level in a plane, and judge that something abnormal has occurred near the place where the congestion level has changed significantly compared to the surrounding conditions. Is described. In addition, it is described that an abnormality is determined when the travel line is shifted by a certain portion.

しかしながら、マクロ的、統計的手法であるため、これを交差点のような複雑な領域に適用すると、渋滞度が平均化されて、異常事象が検出できなくなる。さらに、該特許文献には、具体的にどのようにマクロ的、統計的手法を実施するのかについて、開示されていない。
特開平6−76195号公報
However, since this is a macro-statistical method, when this is applied to a complex area such as an intersection, the degree of congestion is averaged and abnormal events cannot be detected. Furthermore, this patent document does not disclose how to implement a macroscopic or statistical method.
JP-A-6-76195

本発明の目的は、上記問題点に鑑み、交差点を複数の移動物体経路の組み合わせとして取り扱うことにより単純化して、異常事象の有無を判定することが可能な、画像処理による交差点での異常事象検出方法を提供することにある。   In view of the above problems, an object of the present invention is to detect an abnormal event at an intersection by image processing that can simplify the handling of an intersection as a combination of a plurality of moving object paths and determine the presence or absence of an abnormal event. It is to provide a method.

本発明の第1態様では、記憶手段に格納された、交差点における時系列画像を処理して、異常事象を検出する方法において、
(a)該交差点の画像上で車輌又は歩行者が通ると予測される全ての経路のデータを予め設定しておき、
(b)各車輌の位置及び速度ベクトルを求め、
(c)該車輌が停止しているか否かを判別し、
(d)該経路のデータと該車輌の位置とに基づき、該車輌がどの経路上にあるかを判別し、
(g)該ステップ(c)で停止していると判定した場合には、他の経路の車輌又は交通信号との関係で該車輌の停止が正常事象であるか否かを判定し、
(h)いずれかの正常事象であると判定できなかった場合には、該車輌の停止が異常事象であると判定する、
ステップを有する。
In a first aspect of the present invention, in a method for detecting an abnormal event by processing a time-series image at an intersection stored in a storage means,
(A) Preliminarily set data of all routes predicted to pass by vehicles or pedestrians on the intersection image;
(B) Find the position and velocity vector of each vehicle,
(C) Determine whether the vehicle is stopped,
(D) Based on the route data and the position of the vehicle, determine which route the vehicle is on;
(G) If it is determined in step (c) that the vehicle is stopped, it is determined whether the vehicle stop is a normal event in relation to a vehicle on another route or a traffic signal;
(H) If the vehicle cannot be determined to be any normal event, it is determined that the vehicle stop is an abnormal event.
Has steps.

本発明による、画像処理による交差点での異常事象検出方法の第2態様では、第1態様において、該ステップ(d)と該ステップ(g)との間において、
(e)該ステップ(c)で肯定判定された場合に、該ステップ(d)の経路について、該車輌が該経路内で最も先頭側に位置する停止車輌であるか否かを判定し、
(f)該ステップ(e)で最も先頭側に位置する停止車輌であると判定した場合には、該経路内で該停止車輌の前方側に車輌が存在するか否かを判定する、
ステップをさらに有し、該ステップ(f)で前方側に車輌が存在しないと判定した場合に該ステップ(g)へ進む。
In the second aspect of the method for detecting an abnormal event at an intersection by image processing according to the present invention, in the first aspect, between the step (d) and the step (g),
(E) When an affirmative determination is made in step (c), it is determined whether or not the vehicle is the stop vehicle located on the most front side in the route for the route of step (d);
(F) If it is determined in step (e) that the vehicle is at the foremost stop side, it is determined whether or not there is a vehicle in front of the stop vehicle in the route.
The method further includes a step, and when it is determined in step (f) that there is no vehicle on the front side, the process proceeds to step (g).

本発明による、画像処理による交差点での異常事象検出方法の第3態様では、第1態様において、
該ステップ(b)で求めた車輌位置の時系列である軌跡の集合を該記憶手段に格納しておき、
該ステップ(a)では、該集合に基づいて、該全ての経路を求める。
In the third aspect of the abnormal event detection method at an intersection by image processing according to the present invention, in the first aspect,
A set of trajectories that are time series of vehicle positions obtained in step (b) is stored in the storage means,
In step (a), all the routes are obtained based on the set.

本発明による、画像処理による交差点での異常事象検出方法の第4態様では、第1乃至3態様のいずれか1つにおいて、
該ステップ(g)において、該車輌の経路と交差する歩行者経路の交通信号が、進行信号であるか否か又は設定時間内に進行信号に変わるか否かを判定し、これらのいずれかを肯定判定した場合には、正常事象であると判定する。
In the fourth aspect of the abnormal event detection method at an intersection by image processing according to the present invention, in any one of the first to third aspects,
In the step (g), it is determined whether the traffic signal of the pedestrian route intersecting the route of the vehicle is a progress signal or whether it changes to a progress signal within a set time. If a positive determination is made, it is determined that the event is a normal event.

本発明による、画像処理による交差点での異常事象検出方法の第5態様では、第2態様において、
該ステップ(g)において、該車輌の経路と交差する経路についても該ステップ(g)へ進んだ場合には、異常事象でないと判定する。
In the fifth aspect of the method for detecting an abnormal event at an intersection by image processing according to the present invention, in the second aspect,
In step (g), if the route crossing the route of the vehicle also proceeds to step (g), it is determined that there is no abnormal event.

本発明による、画像処理による交差点での異常事象検出方法の第6態様では、第1乃至5態様のいずれか1つにおいて、該ステップ(d)では、該車輌の過去の経路も記憶しておき、
(i)該ステップ(c)で停止していると判定した場合には、該停止車輌から設定範囲内に、該停止車輌の経路から他の経路に経路を変更した車輌が存在すれば、異常事象と判定する、
ステップをさらに有する。
In a sixth aspect of the abnormal event detection method at an intersection by image processing according to the present invention, in any one of the first to fifth aspects, in step (d), a past route of the vehicle is also stored. ,
(I) If it is determined that the vehicle is stopped in step (c), if there is a vehicle whose route has been changed from the route of the stopped vehicle to another route within the set range from the stopped vehicle, To determine an event,
It further has a step.

本発明による、画像処理による交差点での異常事象検出方法の第7態様では、第4態様において、
(j)車輌経路の、歩行者経路の手前の領域に存在する車輌速度の平均値を求め、該平均値のステップ変化に基づいて、交通信号機の信号の状態変化を認識する、
ステップをさらに有し、
該ステップ(g)において、該歩行者経路の交通信号として該信号の状態変化を用いる。
In the seventh aspect of the abnormal event detection method at an intersection by image processing according to the present invention, in the fourth aspect,
(J) An average value of vehicle speeds existing in a region of the vehicle route before the pedestrian route is obtained, and based on a step change of the average value, a state change of a traffic signal signal is recognized.
And further comprising steps
In step (g), the state change of the signal is used as the traffic signal of the pedestrian route.

上記第1態様の構成によれば、
(a)交差点の画像上で車輌又は歩行者が通ると予測される全ての経路のデータを予め設定しておき、
(b)各車輌の位置及び速度ベクトルを求め、
(c)該車輌が停止しているか否かを判別し、
(d)該経路のデータと該車輌の位置とに基づき、該車輌がどの経路上にあるかを判別し、
(g)該ステップ(c)で停止していると判定した場合には、他の経路の車輌又は交通信号との関係で該車輌の停止が正常事象であるか否かを判定し、
(h)いずれかの正常事象であると判定できなかった場合には、該車輌の停止が異常事象であると判定するので、交差点での複雑な事象が単純化されて、処理が簡単になり、交差点での異常事象の有無を比較的容易に判定することが可能になるという効果を奏する。
According to the configuration of the first aspect,
(A) Preliminarily set data of all routes predicted to pass by vehicles or pedestrians on the intersection image;
(B) Find the position and velocity vector of each vehicle,
(C) Determine whether the vehicle is stopped,
(D) Based on the route data and the position of the vehicle, determine which route the vehicle is on;
(G) If it is determined in step (c) that the vehicle is stopped, it is determined whether the vehicle stop is a normal event in relation to a vehicle on another route or a traffic signal;
(H) If any normal event cannot be determined, it is determined that the vehicle stop is an abnormal event, so that complicated events at the intersection are simplified and the processing is simplified. There is an effect that the presence or absence of an abnormal event at the intersection can be determined relatively easily.

本発明の他の目的、構成及び効果は以下の説明から明らかになる。   Other objects, configurations and effects of the present invention will become apparent from the following description.

以下、図面を参照して本発明の実施例1を説明する。図面において、同一又は類似の要素には、同一又は類似の符号を付している。   Embodiment 1 of the present invention will be described below with reference to the drawings. In the drawings, the same or similar elements are denoted by the same or similar reference numerals.

図1は、ビデオカメラ(例えばITVカメラ)ビデオカメラ10で撮像された画像を処理して移動物体を追跡する、本発明の実施例1の異常事象検出装置20の概略機能ブロック図である。   FIG. 1 is a schematic functional block diagram of an abnormal event detection apparatus 20 according to a first embodiment of the present invention that processes an image captured by a video camera (for example, an ITV camera) video camera 10 to track a moving object.

この異常事象検出装置20のうち記憶部以外は、コンピュータソフトウェア、専用のハードウェア又はコンピュータソフトウェアと専用のハードウェアの組み合わせで構成することができる。   The abnormal event detection device 20 other than the storage unit can be configured by computer software, dedicated hardware, or a combination of computer software and dedicated hardware.

ビデオカメラ10で撮影された時系列画像は、例えばフレーム画像30フレーム/秒のレートでサンプリングされて、画像メモリ21に格納され、最も古いフレーム画像が新しいフレーム画像で書き換えられる。   The time-series images taken by the video camera 10 are sampled at a rate of 30 frames / second, for example, and stored in the image memory 21, and the oldest frame image is rewritten with a new frame image.

本発明は、画像メモリ21に格納された画像データをブロック23〜29によりリアルタイムで処理する場合のみならず、不図示の外部記憶装置に格納しておき、必要な部分のみ後で処理する場合にも適用できる。   In the present invention, not only when image data stored in the image memory 21 is processed in real time by the blocks 23 to 29 but also when stored in an external storage device (not shown) and only necessary portions are processed later. Is also applicable.

また、画像メモリ21に格納された画像(原画像)を直接、ブロック23〜29で処理しても、ラプラシアンフィルタ等のフィルタをかけて空間的差分フレーム画像に変換したもの又は2次元フーリエ変換し所定周波数以上の成分を強調した後に逆フーリエ変換したもの(変換画像)を、ブロック23〜29で処理する構成であってもよい。以下、「画像」とは原画像又は変換画像を意味する。   Further, even if the image (original image) stored in the image memory 21 is directly processed in the blocks 23 to 29, it is converted into a spatial difference frame image by applying a filter such as a Laplacian filter or two-dimensional Fourier transform. A configuration may be used in which blocks 23 to 29 are processed after inverse Fourier transform (transformed image) after emphasizing components of a predetermined frequency or higher. Hereinafter, “image” means an original image or a converted image.

背景画像生成部22は、記憶部と処理部とを備え、処理部は、画像メモリ21をアクセスし、例えば過去1分間の全ての又は間引かれたもののフレーム画像の対応する画素について画素値のヒストグラムを作成し、その最頻値(モード)をその画素の画素値とする画像を、移動物体が存在しない背景画像として生成し、これを該記憶部に格納する。背景画像は、この処理が定期的に行われて更新される。   The background image generation unit 22 includes a storage unit and a processing unit. The processing unit accesses the image memory 21, and for example, the pixel values of the corresponding pixels of the frame image of all or thinned out objects in the past one minute. A histogram is created, and an image having the mode value (mode) as the pixel value of the pixel is generated as a background image in which no moving object exists, and this is stored in the storage unit. The background image is updated by performing this process periodically.

ID生成/消滅部23には、図2に示す如くフレーム画像30内に配置される入口スリット31A、31B及び出口スリット32A、32Bの領域データが、予め設定されている。図2は、フレーム画像30に、これらスリットと、点線で示すブロックの境界線とが重ね合わされている。1ブロックは例えば8×8画素である。   In the ID generation / annihilation unit 23, area data of entrance slits 31A and 31B and exit slits 32A and 32B arranged in the frame image 30 as shown in FIG. In FIG. 2, these slits and block boundary lines indicated by dotted lines are superimposed on the frame image 30. One block is, for example, 8 × 8 pixels.

前記スリットの設定は、マウス等のポインティングデバイス又はキーボード等の入力装置INと、設定を確認する表示装置OUTと、ID生成/消滅部23に含まれる入力処理プログラムとを含む設定手段により、人の操作に基づいて行われる。図2ではスリットの奥行が2ブロック幅であるが、1ブロック幅の整数倍であればよい。   The slit is set by a setting means including an input device IN such as a pointing device such as a mouse or a keyboard, a display device OUT for confirming the setting, and an input processing program included in the ID generation / erasure unit 23. Performed based on the operation. In FIG. 2, the depth of the slit is 2 blocks wide, but may be an integer multiple of 1 block width.

ID生成/消滅部23は、画像メモリ21から入口スリット31A及び31B内の画像データを読み込み、これらの内側に移動物体が存在するかどうかをブロック単位で判定する。あるブロックに移動物体が存在するかどうかは、このブロック内の各画素と背景画像の対応する画素との差の絶対値の総和が閾値以上であるかどうかにより判定する。   The ID generation / annihilation unit 23 reads the image data in the entrance slits 31A and 31B from the image memory 21, and determines whether or not there is a moving object inside each block. Whether there is a moving object in a block is determined by whether the sum of absolute values of differences between the pixels in the block and the corresponding pixels in the background image is greater than or equal to a threshold value.

ID生成/消滅部23は、ブロック内に移動物体が存在すると判定すると、このブロックに新たな移動物体識別符号(ID)を付与する。ID生成/消滅部23は、ID付与済ブロックと隣接しているブロックに移動物体が存在すると判定すると、この隣接ブロックに付与済ブロックと同一のIDを付与する。このID付与済ブロックは、スリットに隣接しているブロックも含まれる。以下、IDが付与されたブロックの塊をクラスタと称する。   When the ID generation / annihilation unit 23 determines that there is a moving object in the block, the ID generation / annihilation unit 23 assigns a new moving object identification code (ID) to the block. If the ID generation / annihilation unit 23 determines that a moving object exists in a block adjacent to the ID-assigned block, the ID generation / annihilation unit 23 assigns the same ID as the assigned block to this adjacent block. This ID-added block includes a block adjacent to the slit. Hereinafter, a block of blocks to which an ID is assigned is referred to as a cluster.

IDの付与は、記憶部オブジェクトマップ記憶部24内のオブジェクトマップの対応するブロックに対して行われる。オブジェクトマップは、上述の場合60×80ブロックの各ブロックの移動物体情報を記憶するためのものであり、移動物体情報は、IDが付与されているかどうかを示すフラグを含み、IDが付与されていることを示している場合にはさらにID及びブロックの動きベクトル(MV)を含む。この情報は配列M(i,j,n)で表すことができる。ここに(i,j)は第i行第j列のブロックを示し、n=0、n=1及びn=2はそれぞれMがフラグ、ID及びMVであることを示す。なお、該フラグを用いずに、ID=0のときIDが付与されていないと判定してもよい。また、IDの最上位ビットをフラグとしてもよい。ブロックマッチングでMVが求まらないブロックのMVは例えば、その回りの同一IDのブロックのMVの平均値に等しくする。   The ID is assigned to the corresponding block of the object map in the storage unit object map storage unit 24. The object map is for storing the moving object information of each block of 60 × 80 blocks in the above-described case. The moving object information includes a flag indicating whether or not an ID is assigned, and the ID is assigned. In addition, the ID and the block motion vector (MV) are included. This information can be represented by an array M (i, j, n). Here, (i, j) indicates a block in the i-th row and j-th column, and n = 0, n = 1, and n = 2 indicate that M is a flag, ID, and MV, respectively. Instead of using the flag, it may be determined that no ID is assigned when ID = 0. The most significant bit of the ID may be used as a flag. The MV of a block whose MV cannot be obtained by block matching is set equal to, for example, the average value of MVs of blocks having the same ID around it.

入口スリット31A又は入口スリット31Bを通過したクラスタに対しては、移動物体追跡部25により、例えば上記特許文献1に記載の方法で追跡処理が行われる。例えば、高速処理のため、時刻t−1(フレーム番号)でのMVに基づいて時刻tでのクラスタの概略移動範囲が推定され、この範囲内で上述の移動物体存否判定がブロック毎に行われ、移動方向側のブロックに対するIDの付与及び移動と反対方向側のブロックに対するIDの消滅が行われて、時刻tでのクラスタが決定される。また、時刻t−1とtのフレーム画像間のブロックマッチングにより、時刻tでIDが付与されているブロックのMVが求められる。高速処理のため、ブロックマッチングを行う範囲は、時刻t−1でのMVに基づいて定められる。各ブロックのIDとMVは、上記特許文献1に記載のように、評価関数を用いて同時に決定することもできる。ID及びMVの更新は、記憶部オブジェクトマップ記憶部24内のオブジェクトマップに対して行われる。   For the cluster that has passed through the entrance slit 31A or the entrance slit 31B, the moving object tracking unit 25 performs tracking processing by the method described in Patent Document 1, for example. For example, for high-speed processing, the approximate movement range of the cluster at time t is estimated based on the MV at time t-1 (frame number), and the above-mentioned moving object existence determination is performed for each block within this range. ID is assigned to the block on the moving direction side, and ID is erased on the block on the opposite direction to the movement, and the cluster at time t is determined. Further, the MV of the block to which the ID is assigned at time t is obtained by block matching between the frame images at time t−1 and t. For high-speed processing, the range in which block matching is performed is determined based on the MV at time t-1. As described in Patent Document 1, the ID and MV of each block can be determined simultaneously using an evaluation function. The ID and MV are updated on the object map in the storage unit object map storage unit 24.

移動物体追跡部25による追跡処理は、各クラスタについて出口スリット32A又は出口スリット32B内まで行われる。   The tracking processing by the moving object tracking unit 25 is performed up to the exit slit 32A or the exit slit 32B for each cluster.

ID生成/消滅部23はさらに、記憶部オブジェクトマップ記憶部24内のオブジェクトマップに基づき出口スリット32A及び32B内のブロックにIDが付与されているかどうかを調べ、付与されていれば、クラスタが出口スリットを通過したときにそのIDを消滅させる。   The ID generation / annihilation unit 23 further checks whether an ID is assigned to the blocks in the exit slits 32A and 32B based on the object map in the storage unit object map storage unit 24, and if so, the cluster is exited. When passing through the slit, the ID is extinguished.

図4は、時刻t0でのIDのオブジェクトマップに、理解を容易にするため図2中の画像上移動物体33及び34を重ね合わせ、さらにこれらのクラスタ33C及び34Cの境界を太線で示したものである。   FIG. 4 shows the ID object map at time t0 superimposed with the moving objects 33 and 34 on the image in FIG. 2 for easy understanding, and the boundaries of these clusters 33C and 34C are indicated by bold lines. It is.

図1のクラスタ内接矩形決定部26は、後述の処理を簡単化するため、図5に示す如く、35上において、ID毎のクラスタ33C及び34Cが内接する矩形33D及び34Dを決定する。図5では、クラスタ34Cと矩形34Dとは同一である。   The cluster inscribed rectangle determining unit 26 in FIG. 1 determines rectangles 33D and 34D that are inscribed in the clusters 33C and 34C for each ID on 35, as shown in FIG. In FIG. 5, the cluster 34C and the rectangle 34D are the same.

次に、ID毎のクラスタの代表点及び計測点の求め方について説明する。   Next, how to obtain the representative points and measurement points of clusters for each ID will be described.

フレーム画像30上において、時刻t0で図2に示す位置にいた移動物体33及び34がそれぞれ、図4に示す位置に移動したとする。図7に示すように、移動物体33とビデオカメラ10との間の距離が異なることと、ビデオカメラ10から路面への直線と路面とのなす角度が移動物体33の位置により異なることから、実物の長さに対する画像上の長さ(縮小率)が画像上の位置により異なる。ビデオカメラ10の撮像面の画像は、ビデオカメラ10の光軸に垂直な面投影面SC上への実物の投影像に比例しているので、この縮小率は、投影面SC上のδSとこれに対応した路面上のδRとの比μ=δS/δRに比例している。この比例定数を1、すなわち縮小率をμとする。画像上の軌跡の各微小線分に、その位置のμを乗じたものが、実軌跡の線分に対応する。   It is assumed that the moving objects 33 and 34 that were at the position shown in FIG. 2 on the frame image 30 have moved to the positions shown in FIG. As shown in FIG. 7, since the distance between the moving object 33 and the video camera 10 is different, and the angle between the straight line from the video camera 10 to the road surface and the road surface is different depending on the position of the moving object 33, The length (reduction ratio) on the image with respect to the length of the image differs depending on the position on the image. Since the image on the imaging plane of the video camera 10 is proportional to the actual projection image on the plane projection plane SC perpendicular to the optical axis of the video camera 10, the reduction ratio is δS on the projection plane SC and this. Is proportional to the ratio μ = δS / δR with δR on the road surface corresponding to. This proportionality constant is 1, that is, the reduction ratio is μ. A product obtained by multiplying each minute line segment of the locus on the image by μ at the position corresponds to the line segment of the actual locus.

一方、移動物体の代表点をその領域の幾何学的重心として求めると、移動物体毎にその高さが異なる。このため、移動物体の速度をこの代表点に基づいて計測すると、誤差が生ずる原因となる。移動物体のカメラ側端、例えば、移動物体がビデオカメラ10から遠ざかる方向へ移動する場合には移動物体後端、逆方向へ移動する場合には移動物体前端が、路面に最も近く、かつ、ビデオカメラ10から見える位置となり、これを計測点とすれば、速度計測誤差を小さくすることができる。   On the other hand, when the representative point of the moving object is obtained as the geometric center of gravity of the region, the height differs for each moving object. For this reason, if the speed of the moving object is measured based on the representative point, an error occurs. The camera side end of the moving object, for example, the moving object rear end when the moving object moves away from the video camera 10, and the moving object front end when moving in the opposite direction are closest to the road surface, and the video If it becomes a position that can be seen from the camera 10, and this is used as a measurement point, the speed measurement error can be reduced.

しかしながら、カメラアングルを低くして移動物体に対する視野を広くしたり、車輌が渋滞したりした場合には、画像上で複数の移動物体がその進行方向に重なって、この計測点が隠蔽されるという問題が生ずる。また、リアルタイム処理を高速に行うためにモノクロ濃淡画像を使うと、移動物体とその影を含んだものが移動物体と認識されて、計測点が安定せず、その誤差が比較的大きくなる。   However, when the camera angle is lowered to widen the field of view for moving objects, or when the vehicle is congested, multiple moving objects overlap in the traveling direction on the image, and this measurement point is hidden. Problems arise. Further, when a monochrome grayscale image is used to perform real-time processing at high speed, a moving object and its shadow are recognized as a moving object, the measurement point is not stable, and the error becomes relatively large.

そこで、本実施例1では、以下のようにしてこの問題を解決している。   Thus, in the first embodiment, this problem is solved as follows.

ID生成/消滅部23は、図2及び図4において、クラスタ33Cの後端33C1が入口スリット31Aの後端31A1を完全に通過したと判定すると、これを初期値決定部27に通知する。この時点をt0とする。   When the ID generation / annihilation unit 23 determines in FIG. 2 and FIG. 4 that the rear end 33C1 of the cluster 33C has completely passed the rear end 31A1 of the entrance slit 31A, it notifies the initial value determination unit 27 of this. This time is set as t0.

初期値決定部27は、これに応答して、時刻t0でのオブジェクトマップ35に基づいて、移動物体領域の代表点を求める。例えば図4に示すオブジェクトマップ35において、クラスタ33Cの幾何学的重心位置を、移動物体33の代表点として求める。クラスタ33CのIDが付与されたブロックは、ブロック26で求めた矩形内のブロックを走査することにより、短時間で見つけることができる。   In response to this, the initial value determination unit 27 obtains a representative point of the moving object region based on the object map 35 at time t0. For example, in the object map 35 shown in FIG. 4, the geometric gravity center position of the cluster 33 </ b> C is obtained as a representative point of the moving object 33. The block to which the ID of the cluster 33C is assigned can be found in a short time by scanning the block in the rectangle obtained in block 26.

ここで、時刻tにおける移動物体33の代表点を代表点RP(t)、代表点から計測点までのオフセットベクトルをオフセットベクトルオフセットベクトル、代表点の動きベクトル(代表動きベクトル)を代表動きベクトル代表動きベクトルと表記する。図8(A)及び(B)はそれぞれ、時刻t0及びtkでのこれらを示す。また、第i行第j列のブロックの縮小率をμ(i,j)と表記する。   Here, the representative point of the moving object 33 at time t is the representative point RP (t), the offset vector from the representative point to the measurement point is the offset vector offset vector, and the motion vector of the representative point (representative motion vector) is the representative motion vector representative. This is expressed as a motion vector. FIGS. 8A and 8B show these at times t0 and tk, respectively. Further, the reduction ratio of the block in the i-th row and the j-th column is expressed as μ (i, j).

一方、図1の動きベクトル平均値算出部28は、動きベクトルMVのオブジェクトマップにおいて、各移動物体領域に含まれるすべてのブロックの動きベクトルMVの平均値を、代表動きベクトル代表動きベクトルとして求める。   On the other hand, the motion vector average value calculation unit 28 in FIG. 1 obtains the average value of the motion vectors MV of all the blocks included in each moving object region as a representative motion vector representative motion vector in the object map of the motion vector MV.

初期値決定部27はさらに、動きベクトル平均値算出部28から代表動きベクトルRMV(t0)を取得し、図8(A)において、代表点RP(t0)を始点とする代表動きベクトルRMV(t0)が通る直線上を、ビデオカメラ10に接近する方向へフレーム画像30上で走査し、クラスタ33C内の最も外側のエッジ位置を、初期計測点MP(t0)として求める。   The initial value determination unit 27 further acquires the representative motion vector RMV (t0) from the motion vector average value calculation unit 28, and in FIG. 8A, the representative motion vector RMV (t0) starting from the representative point RP (t0). ) Is scanned on the frame image 30 in the direction approaching the video camera 10, and the outermost edge position in the cluster 33C is obtained as the initial measurement point MP (t0).

図1の代表点追跡部29は、初期値決定部27で求められた代表点RP(t0)に、動きベクトル平均値算出部28で順次求められる代表動きベクトルを累積加算することにより、代表点の軌跡代表点RP(t)を求める。図9は、移動物体33が直線移動する場合の時間(フレーム番号)t0〜t5における代表点の位置を示す。   The representative point tracking unit 29 in FIG. 1 cumulatively adds the representative motion vector sequentially obtained by the motion vector average value calculating unit 28 to the representative point RP (t0) obtained by the initial value determining unit 27, thereby representing the representative point. The trajectory representative point RP (t) is obtained. FIG. 9 shows the positions of representative points at times (frame numbers) t0 to t5 when the moving object 33 moves linearly.

このようにして求めた代表点の軌跡は、ブロック量子化誤差の影響を受けないので、安定したものとなる。また、画像上で移動物体の一部が他の移動物体に隠蔽されても、これにより、代表点が殆どずれない(平均化対象の動きベクトルが少なくなることにより少しずれる)ので、代表点の軌跡をより正確に求めることが可能となる。さらに、例えば時刻t0でのみクラスタ33C内についてカラー画像を処理することにより、影が移動物体と判定されている場合にこれをクラスタ33Cから除去して、代表点RP(t0)及び代表動きベクトルRMV(t0)を求めるようにすれば、その後はモノクロ画像のみを処理することにより、影の影響を受けずに代表点RP(t)を正確かつ高速に求めることが可能となる。   The trajectory of the representative point thus obtained is stable because it is not affected by the block quantization error. Also, even if a part of the moving object is concealed by another moving object on the image, the representative point is hardly shifted (a little because the motion vector to be averaged decreases). The trajectory can be obtained more accurately. Further, for example, by processing a color image only within the cluster 33C only at the time t0, when the shadow is determined to be a moving object, the shadow is removed from the cluster 33C, and the representative point RP (t0) and the representative motion vector RMV are removed. If (t0) is obtained, then it is possible to obtain the representative point RP (t) accurately and at high speed without being affected by the shadow by processing only the monochrome image.

図1に戻って、縮小率マップ2Aは、記憶部と処理部とを備え、記憶部には上述の縮小率のマップ(配列)μが格納されており、処理部は初期代表点RP(t0)及び代表点追跡部29で求められた代表点RP(t)に応答して、代表点が属するブロックの座標(i,j)を求め、その縮小率μ(i,j)を計測点追跡部2Bに供給する。   Returning to FIG. 1, the reduction ratio map 2A includes a storage unit and a processing unit. The storage unit stores the above-described reduction rate map (array) μ, and the processing unit stores the initial representative point RP (t0). ) And the representative point RP (t) obtained by the representative point tracking unit 29, the coordinates (i, j) of the block to which the representative point belongs are obtained, and the reduction ratio μ (i, j) is traced to the measurement point. Supply to part 2B.

計測点追跡部2Bは、代表点追跡部29で求められた代表点RP(t)を始点とするオフセットベクトルOFV(t)=−|オフセットベクトルOFV(t0)|・μ(i,j)/μ(i0,j0)・代表動きベクトルRMV(t)/|代表動きベクトルRMV(t)|を求める。但し、ビデオカメラ10側へ接近する移動物体については、この符号が逆になる。   The measurement point tracking unit 2B has an offset vector OFV (t) = − | offset vector OFV (t0) | · μ (i, j) / starting from the representative point RP (t) obtained by the representative point tracking unit 29. μ (i0, j0) · representative motion vector RMV (t) / | representative motion vector RMV (t) | However, this sign is reversed for a moving object approaching the video camera 10 side.

すなわち、初期値決定部27で求められたオフセットベクトルOFV(t0)の絶対値をμ(i,j)/μ(i0,j0)倍にしたものをオフセットベクトルオフセットベクトルの長さとする。ここに、(i,j)及び(i0,j0)はそれぞれ、時刻t0及びtでの代表点が属するブロック座標である。また、動きベクトル平均値算出部28で求められた代表動きベクトルRMV(t)が通る直線のカメラ側、図7の場合は移動物体後端側を、オフセットベクトルの向きとして求める。   That is, the length of the offset vector offset vector is obtained by multiplying the absolute value of the offset vector OFV (t0) obtained by the initial value determination unit 27 by μ (i, j) / μ (i0, j0). Here, (i, j) and (i0, j0) are block coordinates to which the representative points at times t0 and t belong, respectively. Further, the camera side of the straight line through which the representative motion vector RMV (t) obtained by the motion vector average value calculation unit 28 passes, in the case of FIG. 7, the moving object rear end side is obtained as the direction of the offset vector.

このようにして求められたオフセットベクトルOFV(t)の先端を連ねたものが、計測点MP(t)の軌跡となる。図9は、移動物体33が直線移動する場合の計測点MP(t)の軌跡も示す。   The locus of the measurement point MP (t) is obtained by connecting the leading ends of the offset vector OFV (t) thus obtained. FIG. 9 also shows the locus of the measurement point MP (t) when the moving object 33 moves linearly.

図10は、移動物体33が右折する場合に、上述のようにして求められる代表点と計測点の軌跡を示す。   FIG. 10 shows the trajectories of representative points and measurement points obtained as described above when the moving object 33 turns to the right.

このようにして計測点を求めることにより、計測点が画像上で他の移動物体により隠蔽されても、正確に求めることが可能となる。   By obtaining the measurement points in this way, the measurement points can be obtained accurately even if they are hidden by other moving objects on the image.

本実施例1の特徴は、図1中のブロック2C〜2Iと、これらとブロック29及び2Bとの関係にあり、以下これを詳述する。   The features of the first embodiment are the blocks 2C to 2I in FIG. 1 and the relationship between these blocks 29 and 2B, which will be described in detail below.

速度計測部2Cは、計測点追跡部2Bで求められた各計測点MPについて、計測点MPが含まれるブロック及びその周りのブロックの動きベクトルの平均値を求め、これをμで除することにより、この車速Vを求める。計測点MPが他の移動物体により隠蔽されている場合には、平均化の範囲を広げることにより、車速Vを求める。   For each measurement point MP obtained by the measurement point tracking unit 2B, the speed measurement unit 2C obtains an average value of motion vectors of the block including the measurement point MP and its surrounding blocks, and divides this by μ. The vehicle speed V is obtained. When the measurement point MP is concealed by another moving object, the vehicle speed V is obtained by expanding the averaging range.

一方、異常判別処理を行う前に、経路決定・記憶部2Dにより図11に示す処理を行う。以下、括弧内は図中のステップ識別符号である。   On the other hand, before the abnormality determination process, the process shown in FIG. 11 is performed by the route determination / storage unit 2D. In the following, the step identification codes in the figure are shown in parentheses.

(S0)オブジェクトマップ記憶部24の内容を外部記憶装置に蓄積した過去の時系列オブジェクトマップに基づいて、入口スリットと出口スリットの組で区別される経路として、クラスタ通過領域を求める。入口スリットに入る前については、入口スリットから時間を遡って移動物体を追跡することによりクラスタ通過領域を求める。例えば図4のクラスタ33Cが通過した、図6に示すような領域を求める。すなわち、クラスタ通過ブロックに1を加算する。このような処理を繰り返し、その経路の各横断線に沿ったカウント列について、閾値で2値化することにより、車両経路を求める。   (S0) Based on the past time-series object map in which the contents of the object map storage unit 24 are stored in the external storage device, a cluster passage area is obtained as a path distinguished by the combination of the entrance slit and the exit slit. Before entering the entrance slit, the cluster passing region is obtained by tracing the moving object from the entrance slit. For example, an area as shown in FIG. 6 through which the cluster 33C of FIG. 4 has passed is obtained. That is, 1 is added to the cluster passing block. Such processing is repeated, and the vehicle route is obtained by binarizing the count sequence along each crossing line of the route with a threshold value.

図13において、道路Aから交差点に進入して直進し、右折し、左折するそれぞれの車両経路AS、AR及びALを上記のようにして求める。道路B〜Dについても同様であり、これらを重ね合わせたものは、図15に示す如くなる。また、道路A〜Dでの歩行者経路AW、BW、CW及びDWを求める。さらに、これら経路のうち、歩行者経路AW、BW、CW及びDWのそれぞれに対し車輌が停止信号で停止する領域AC、BC、CC及びDC(ドット領域)を後述の信号判定用として求める。   In FIG. 13, the vehicle routes AS, AR, and AL that enter the intersection from the road A, go straight, turn right, and turn left are obtained as described above. The same applies to the roads B to D, and a combination of these roads is as shown in FIG. Further, pedestrian routes AW, BW, CW and DW on the roads A to D are obtained. Further, among these routes, areas AC, BC, CC, and DC (dot areas) where the vehicle stops with a stop signal for each of the pedestrian paths AW, BW, CW, and DW are obtained for signal determination described later.

(S1)求めた経路を図1の表示装置OUTに表示させる。   (S1) The obtained route is displayed on the display device OUT of FIG.

(S2)経路及び領域の修正要否のダイアログボックスを表示させ、ユーザによる入力装置INからの選択を待つ。ユーザが修正要を選択した場合には、入力装置INからの指示に基づいてこれを修正し、ステップS1へ戻って修正後のものを表示させる。ユーザが修正不要を選択した場合には、ステップS4へ進む。   (S2) A dialog box indicating whether or not the route and area need to be corrected is displayed, and the user waits for selection from the input device IN. When the user selects correction necessity, this is corrected based on an instruction from the input device IN, and the process returns to step S1 to display the corrected one. If the user has selected that correction is unnecessary, the process proceeds to step S4.

(S4)決定された車両経路及び信号判定用領域のデータを記憶部に格納する。   (S4) Store the data of the determined vehicle route and signal determination area in the storage unit.

図14は、全ての経路を重ね合わせたものであり、複雑になる。しかし、本実施例では、図15に示すように、4方向から交差点へ進入しそれぞれ3つに分岐する12本の車輌経路と、4つの歩行者経路とに分け、各車輌経路毎に同様の処理を行うので、処理が簡単になる。   FIG. 14 is a combination of all routes, and is complicated. However, in this embodiment, as shown in FIG. 15, the vehicle is divided into 12 vehicle routes that enter the intersection from four directions and branch into three and four pedestrian routes, and the same for each vehicle route. Since processing is performed, processing is simplified.

ここで、車両の停止が異常事象であるか否かを判定するために、交通信号が必要となる。しかし、ビデオカメラ10の設置箇所及び角度によっては、交通信号機が視野外になって、画像処理により信号状態を判定できなかったり、異常事象検出装置20へ信号機の情報を有線又は無線で供給するとコスト高になる場合がある。   Here, a traffic signal is required to determine whether or not the stop of the vehicle is an abnormal event. However, depending on the installation location and angle of the video camera 10, it may be costly if the traffic signal goes out of view and the signal state cannot be determined by image processing, or the signal information is supplied to the abnormal event detection device 20 by wire or wirelessly. May be high.

そこで、信号判定部2Eは、図13の領域ACとCCに含まれる車両の代表速度の平均値を求め、同様に領域BCとDCに含まれる車両の代表速度の平均値を求める。図17はこれら平均値のタイムチャートを示す。平均化により、信号無視の車速の影響が殆どなくなるとともに、注意信号がステップ変化の両側に分けられる。信号判定部2Eは、このオンとオフの信号周期及び変化基準点を検出して記憶しておき、ステップ変化量が閾値以下になった場合には、すなわち交通量が少なくなって、交通流から交通信号の変化を検出できなくなった場合には、記憶した信号周期及び変化基準点に基づいて信号の変化を推定する。次にステップ変化量が閾値を超えた場合には、その波形に基づいて交通信号の状態を判定するとともに、信号周期及び変化基準点を更新する。   Therefore, the signal determination unit 2E obtains the average value of the representative speeds of the vehicles included in the areas AC and CC in FIG. 13, and similarly obtains the average value of the representative speeds of the vehicles included in the areas BC and DC. FIG. 17 shows a time chart of these average values. By averaging, the influence of the vehicle speed neglecting the signal is almost eliminated, and the attention signal is divided on both sides of the step change. The signal determination unit 2E detects and stores the on / off signal period and the change reference point, and when the step change amount is less than or equal to the threshold value, that is, the traffic amount decreases, and the traffic flow is detected. When the traffic signal change cannot be detected, the signal change is estimated based on the stored signal period and the change reference point. Next, when the step change amount exceeds the threshold value, the state of the traffic signal is determined based on the waveform, and the signal period and the change reference point are updated.

所属経路判定部2Fは、移動物体のID毎にそれがどの経路に属するかを決定するものであり、クラスタ内接矩形決定部26で決定された各矩形について、その中の同一IDが付与された領域(クラスタ)をオブジェクトマップ記憶部24から取得し、各経路について、このクラスタが設定%以上、例えば80%以上、経路内に含まれていれば、該クラスタが該経路に属していると判定し、この経路の識別符号FPを移動物体IDと対応付ける。図16は、ID=1〜6の移動物体のそれぞれが属性として経路識別符号FPを持つことをイメージで示している。経路の重ね合わさった部分に居る移動物体にはそれぞれの識別符号FPの値が対応付けられている。   The belonging route determination unit 2F determines to which route it belongs for each moving object ID, and the same ID is given to each rectangle determined by the cluster inscribed rectangle determination unit 26. If an area (cluster) is acquired from the object map storage unit 24 and this cluster is included in the path for a given path, the cluster is included in the path. The route identification code FP is associated with the moving object ID. FIG. 16 illustrates in an image that each of the moving objects with ID = 1 to 6 has the route identification code FP as an attribute. The value of each identification code FP is associated with the moving object in the overlapped part of the route.

移動物体毎特徴量記憶部2Gは、移動物体ID毎にその特徴量をテーブルとして記憶したものである。このテーブルは、構造体を定義しさらにその配列を定義し、配列の添字を移動物体IDとすることにより表現することができる。テーブルの項目(構造体の変数)は、クラスタ内接矩形決定部26、代表点追跡部29、速度計測部2C及び所属経路判定部2Fで求められた内接矩形の対角点座標、代表点の座標、速度ベクトル及び所属経路識別符号FPを含んでいる。   The feature quantity storage unit 2G for each moving object stores the feature quantity as a table for each moving object ID. This table can be expressed by defining a structure, further defining its array, and using the array subscript as a moving object ID. The table items (structural variables) are the inscribed rectangle diagonal point coordinates and representative points obtained by the cluster inscribed rectangle determining unit 26, representative point tracking unit 29, speed measuring unit 2C, and belonging route determining unit 2F. , The velocity vector, and the belonging route identification code FP.

次に、異常判別部2Hでの処理を説明する。   Next, processing in the abnormality determination unit 2H will be described.

ここで、交差点で衝突事故が生じた場合、その車両はその後停止し、その先方の経路内の車両は通過して存在せず、後方の車両が通路を妨げられて停止し又は事故車を迂回(経路を変更)して進むと考えられる。交差点で車輌が故障した場合も同様である。一方、信号待ちで車輌が停止したり、直進車と右折車がデッドロック状態で停止している場合もある。   Here, if a collision accident occurs at the intersection, the vehicle stops after that, the vehicle in the path ahead does not exist, the rear vehicle is blocked by the passage and stops or bypasses the accident vehicle (Change route) and proceed. The same applies when a vehicle breaks down at an intersection. On the other hand, there is a case where the vehicle stops while waiting for a signal, or a straight-ahead vehicle and a right turn vehicle are stopped in a deadlock state.

そこで、事故や故障などの異常事象ではない正常事象であるか否かを全て調べ、どの正常事象にも該当しない場合には、異常事象であると判定する。   Therefore, all the normal events that are not abnormal events such as accidents and failures are examined, and if they do not correspond to any normal event, they are determined to be abnormal events.

まず、各経路について、停止車があれば、その前方にも停止車があるか否かを調べ、経路内先頭の停止車の前方に車両が存在しないか否かを判定する。この処理は、次のように簡単化することができる。すなわち、移動物体毎特徴量記憶部2Gを参照して、経路と無関係に停止車(速度が設定値以下で停止と見なせるものを含んでもよい。)が存在するか否かを調べ、存在する場合には、1つの経路に複数存在するか否かを調べ、複数存在する場合には経路内先頭の停止車がどれであるかを決定し、その経路内の前方に車両が存在しないことを確認する。   First, for each route, if there is a stop vehicle, it is checked whether there is a stop vehicle in front of it, and it is determined whether there is a vehicle ahead of the first stop vehicle in the route. This process can be simplified as follows. That is, by referring to the feature quantity storage unit 2G for each moving object, it is checked whether or not there is a stop vehicle (which may be regarded as a stop when the speed is equal to or less than a set value) regardless of the route. Check if there is more than one on a route, and if there are more than one, determine which is the first stop vehicle in the route and confirm that there are no vehicles ahead in that route To do.

異常判別部2Hは、時刻tでサンプリングしたフレーム画像に関し、図12に示すような処理を、移動物体毎特徴量記憶部2Gにより得られた移動物体特徴量と、経路決定・記憶部2Dにより得られた経路と、信号判定部2Eにより得られた交通信号状態に基づき行う。   The abnormality determination unit 2H obtains the processing shown in FIG. 12 for the frame image sampled at time t by the moving object feature amount obtained by the moving object feature amount storage unit 2G and the route determination / storage unit 2D. And the traffic signal state obtained by the signal determination unit 2E.

以下では、時刻tのIDオブジェクトマップにおいて、移動物体IDが1からimaxまで付与されているとする。また、交差点に経路が12本あり、それらが番号1〜12で識別されるとする。   In the following, it is assumed that the moving object ID is assigned from 1 to imax in the ID object map at time t. Also, assume that there are 12 routes at the intersection and these are identified by numbers 1-12.

(S10)移動物体IDの変数iに初期値1を代入し、経路j内の先頭停止車輌IDを示すST(j)、j=1〜12を0に初期化する。   (S10) The initial value 1 is substituted for the variable i of the moving object ID, and ST (j), j = 1 to 12 indicating the head stop vehicle ID in the route j is initialized to 0.

(S11)iがimaxでなければステップS12へ進み、そうでなければステップS17へ進む。   (S11) If i is not imax, the process proceeds to step S12. Otherwise, the process proceeds to step S17.

(S12)移動物体毎特徴量記憶部2Gを参照して、ID=iの車両が停止しているか否かを判定し、停止していればステップS13へ進み、そうでなければステップS16へ進む。   (S12) Referring to the feature quantity storage unit 2G for each moving object, it is determined whether or not the vehicle with ID = i is stopped. If it is stopped, the process proceeds to step S13. Otherwise, the process proceeds to step S16. .

(S13)移動物体毎特徴量記憶部2Gを参照して、ID=iの車両が属する経路jを取得する。どの経路にも属さない場合は経路0である。ST(j)=0であれば、すなわち経路jで最初に見つけた停止車であればステップS15へ進み、2回目以降に見つけた停止車であればステップS14へ進む。   (S13) With reference to the moving object feature quantity storage unit 2G, the route j to which the vehicle with ID = i belongs is acquired. If it does not belong to any route, it is route 0. If ST (j) = 0, that is, if it is the first stop car found on the route j, the process proceeds to step S15, and if it is the second stop car or later, the process proceeds to step S14.

(S14)経路j上でID=iとID=ST(j)の車輌のどちらが先行しているかを、移動物体毎特徴量記憶部2Gに格納されている代表点座標経路決定・記憶部2Dに格納されている経路とに基づいて判定する。例えば、経路の中央線を予め求めておき、代表点座標を該中央線へ垂直に投影し、該中央線に沿ってどちらが先行しているかを判定する。また、IDオブジェクトマップ上で、経路と直交する方向に副走査しながら経路方向に主走査し、どちらのIDが後で見つかるかにより先後を判定してもよい。 (S14) The representative point coordinates stored in the moving object feature quantity storage unit 2G and the route determination / storage unit 2D indicate which of the vehicles with ID = i or ID = ST (j) precedes the route j. And the route stored in the route. For example, the center line of the route is obtained in advance, the representative point coordinates are projected perpendicularly onto the center line, and it is determined which precedes the center line. Further, on the ID object map, the main scanning in the path direction may be performed while performing the sub-scanning in the direction orthogonal to the path, and the front or back may be determined depending on which ID is found later.

ID=iの車輌がID=ST(j)の車輌よりも先行していれば、ステップS15へ進み、この逆であればステップS16へ進む。   If the vehicle with ID = i is ahead of the vehicle with ID = ST (j), the process proceeds to step S15, and if vice versa, the process proceeds to step S16.

(S15)ST(j)にiを代入する。   (S15) Substitute i for ST (j).

(S16)iを1だけインクリメントし、ステップS11へ戻る。   (S16) Increment i by 1 and return to step S11.

このような処理により、時刻tのフレーム画像上の経路毎の先頭停止車輌を見つけることができる。   By such processing, it is possible to find the first stop vehicle for each route on the frame image at time t.

(S17)経路変数jに初期値1を代入する。   (S17) The initial value 1 is substituted into the route variable j.

(S18)j<13であればステップS19へ進み、そうでなければ図12の処理を終了する。   (S18) If j <13, the process proceeds to step S19. Otherwise, the process in FIG. 12 is terminated.

(S19)ST(j)=0、すなわち停止車が経路jに存在しなければステップS20へ進み、そうでなければステップS21へ進む。   (S19) ST (j) = 0, that is, if the stop vehicle does not exist on the route j, the process proceeds to step S20, and if not, the process proceeds to step S21.

(S20)jを1だけインクリメントし、ステップS18へ戻る。   (S20) Increment j by 1 and return to step S18.

(S21)経路jにおいて、ID=ST(j)の停止車輌の前方に車両が存在するか否かを調べ、存在しなければステップS22へ進み、存在すればステップS18へ戻る。例えば、IDオブジェクトマップ上で、経路と直交する方向に副走査しながら経路方向に主走査し、IDが見つからなければ存在しないと判定する。このステップS21の処理を行う理由は、直列に停止している車両群が、前方から順に発進する場合を、異常事象と判定しないようにするためである。 (S21) In the path j, it is checked whether or not there is a vehicle ahead of the stopped vehicle of ID = ST (j). If there is no vehicle, the process proceeds to step S22, and if it exists, the process returns to step S18. For example, on the ID object map, main scanning is performed in the path direction while sub-scanning in the direction orthogonal to the path, and it is determined that the ID does not exist if no ID is found. The reason why the process of step S21 is performed is to prevent a case where a group of vehicles stopped in series start in order from the front is not determined as an abnormal event.

(S22)ID=ST(j)の車輌の停止が、考えられる正常事象に該当するか否かを調べる。   (S22) It is checked whether or not the stop of the vehicle with ID = ST (j) corresponds to a possible normal event.

例えば、経路jと交差する横断歩道が該車輌の前にあれば、信号判定部2Eの情報に基づいて、この横断歩道の交通信号が進行信号であるかまたは設定時間内に進行信号に変わると予測できるか否かを判定し、肯定判定した場合には、異常事情でないと判定してステップS18へ戻る。   For example, if there is a pedestrian crossing crossing the route j in front of the vehicle, the traffic signal of this pedestrian crossing is a progress signal or changes to a progress signal within a set time based on the information of the signal determination unit 2E. It is determined whether or not the prediction can be made. If the determination is affirmative, it is determined that there is no abnormal situation, and the process returns to step S18.

また、経路jと交差する経路(互いに交差する右折経路と直進経路)について、停止車輌が存在するか否かを調べる。存在する場合、両代表点間の距離が設定値以内であれば、デッドロック状態であって異常事情でないと判定してステップS18へ戻る。   Further, it is checked whether or not there is a stop vehicle for a route that intersects with the route j (a right-turn route and a straight-ahead route that intersect each other). If it exists, if the distance between both representative points is within the set value, it is determined that there is a deadlock condition and there is no abnormal situation, and the process returns to step S18.

(S23)事故又は故障などの異常事象であると判定し、これを異常記憶・報知部2Iに通知する。   (S23) The abnormal event such as an accident or failure is determined, and this is notified to the abnormal memory / notification unit 2I.

異常記憶・報知部2Iはこれに応答して、異常と判定された時点の前後の複数フレームの画像、異常判定時刻、異常と判定された移動物体の該複数フレームに関する上記特徴量のデータを、外部記憶装置に格納するとともに、通信媒体を介して交通センターへ送信する。   In response to this, the abnormality storage / notification unit 2I receives the image of the plurality of frames before and after the point determined to be abnormal, the abnormality determination time, and the feature amount data regarding the plurality of frames of the moving object determined to be abnormal. The data is stored in an external storage device and transmitted to a traffic center via a communication medium.

なお、例えば図16に示すID=6の移動物体はFP=1、2及び3であるので、図12のステップS13〜S15はj=1,2,3のそれぞれについて処理を行うことになる。しかし、いずれか1つのみついて行ってもよい。この場合、経路1〜3は重なり部分がないとみなすことになる(例えば、直進経路の長さは変わらないが右折経路及び左折経路は重なり部分がないのでその分だけ短くなる)。   For example, since the moving object with ID = 6 shown in FIG. 16 has FP = 1, 2 and 3, steps S13 to S15 in FIG. 12 are processed for j = 1, 2, 3 respectively. However, only one of them may be performed. In this case, the routes 1 to 3 are regarded as having no overlapping portion (for example, the length of the straight traveling route is not changed, but the right turn route and the left turn route are shorter because there is no overlapping portion).

また、移動物体の過去の所属経路又は経路変更有無も移動物体の特徴量として移動物体毎特徴量記憶部2Gに格納しておき、ステップS12とステップS13との間又はステップS22とステップS23との間において、当該停止車輌から設定範囲内に、該停止車輌の経路から他の経路に経路を変更した車輌が存在すれば、事故又は故障の異常事象であると判定する構成であってもよい。或いは、経路を変更した移動物体をカウントし、設定時間内に該カウントが設定値を超えたとき、事故又は故障の異常事象であると判定する構成であってもよい。   Further, the past belonging route of the moving object or the presence / absence of route change is also stored in the feature amount storage unit 2G for each moving object as the feature amount of the moving object, and between step S12 and step S13 or between step S22 and step S23. In the meantime, if there is a vehicle whose route is changed from the route of the stopped vehicle to another route within the set range from the stopped vehicle, the configuration may be such that it is determined as an abnormal event of an accident or failure. Alternatively, a configuration may be adopted in which moving objects whose routes have been changed are counted, and when the count exceeds a set value within a set time, it is determined that the event is an abnormal event of an accident or failure.

本実施例1によれば、交差点を、車輌が通る複数の経路に分けて単純化し、他の経路も考慮して車輌停止が正常事象であるか否かを判定し、どの正常事象にも該当しない場合に異常事象と判定するので、交差点での複雑な事象を比較的簡単に解析でき、交差点での異常事象自動検出装置の実用化に寄与するところが大きい。   According to the first embodiment, the intersection is simplified by dividing it into a plurality of routes through which the vehicle passes, and it is determined whether the vehicle stop is a normal event in consideration of other routes, and corresponds to any normal event. If it is not, it is determined as an abnormal event, so that a complicated event at the intersection can be analyzed comparatively easily, which greatly contributes to the practical use of the abnormal event automatic detection device at the intersection.

なお、本発明には外にも種々の変形例が含まれる。   Note that the present invention includes various other modifications.

例えば、信号判定部2Eを用いる代わりに、交通信号機の信号を受信し、交通センターからインターネットを介して該交通信号機の信号情報を取得し、又は、信号機の画像を処理して信号情報を取得する構成であってもよいことは勿論である。   For example, instead of using the signal determination unit 2E, the signal of the traffic signal is received and the signal information of the traffic signal is obtained from the traffic center via the Internet, or the signal information is obtained by processing the image of the traffic signal. Of course, it may be a configuration.

また、車輌代表点の動きベクトルを車速として用いてもよい。   Further, the motion vector of the vehicle representative point may be used as the vehicle speed.

さらに、経路はユーザが予め設定する構成であってもよい。   Further, the route may be configured in advance by the user.

また、車輌の経路を車輌代表点の経路とし、代表点の停止を車輌の停止として取り扱う構成であってもよい。この場合、代表点は、幾何学的重心であってもよい。   Alternatively, the vehicle route may be a vehicle representative point route and the stop of the representative point may be handled as a vehicle stop. In this case, the representative point may be a geometric centroid.

経路内の車輌の進行順にIDをリンクしたリスト構造を用いて、車輌の先行を容易に判定できるようにしてもよい。   It may be possible to easily determine the preceding of a vehicle using a list structure in which IDs are linked in the order of progression of vehicles in the route.

また、上記実施例では、クラスタ内の全ての動きベクトルの平均値を初期代表動きベクトルとして求めたが、移動物体の領域に含まれる複数ブロックの動きベクトルの平均値であればよく、代表点付近のブロック、例えば代表点が属するブロックとその周囲の8個のブロックの動きベクトルの平均値であってもよい。   In the above embodiment, the average value of all the motion vectors in the cluster is obtained as the initial representative motion vector. However, the average value of the motion vectors of a plurality of blocks included in the moving object region may be used, and the vicinity of the representative point. The average value of the motion vectors of the blocks, for example, the block to which the representative point belongs and the eight surrounding blocks may be used.

さらに、上記実施例では、初期代表点として求める移動物体の領域の幾何学的重心として、クラスタの幾何学的重心を求めたが、該クラスタに対応するフレーム画像上の移動物体の領域の幾何学的重心を求めてもよい。   Further, in the above embodiment, the geometric center of gravity of the cluster is obtained as the geometric center of gravity of the moving object region to be obtained as the initial representative point. However, the geometrical center of the moving object region on the frame image corresponding to the cluster is obtained. The target center of gravity may be obtained.

また、上記実施例では、初期代表点を始点とする初期オフセットベクトルの終点をフレーム画像上で求めたが、ブロックサイズは比較的小さいので、オブジェクトマップ上の端部ブロック内の点又はその近傍の点を初期オフセットベクトルの終点として求めてもよい。   In the above embodiment, the end point of the initial offset vector starting from the initial representative point is obtained on the frame image. However, since the block size is relatively small, the point in the end block on the object map or the vicinity thereof A point may be obtained as the end point of the initial offset vector.

さらに、例えば図3において、ビデオカメラから遠方の入口スリット31B側で初期代表点及び計測点を求めるよりも近くの出口スリット32B側でこれらを求めた方が精度が高くなるので、出口スリット32B側でこれらを求め、特開2004−207786号公報に記載のように時間を遡って移動物体を追跡する構成であってもよく、これは、過去のビデオの解析のようにリアルタイム処理が要求されない場合に有効である。また、入口スリットや出口スリットの替わりにラインを用い、ライン通過等のラインとの関係でIDの付与/消滅を行ってもよい。   Further, for example, in FIG. 3, the accuracy is higher when the initial representative point and the measurement point are determined on the side of the exit slit 32B than on the side of the entrance slit 31B far from the video camera. It is also possible to obtain the above and track the moving object by going back in time as described in Japanese Patent Application Laid-Open No. 2004-207786. This is when real-time processing is not required as in the analysis of past video. It is effective for. Further, a line may be used instead of the entrance slit or the exit slit, and ID may be given / disappeared in relation to the line such as line passing.

また、初期値決定部27での処理開始時点は、設定したラインが移動物体(クラスタ)と所定の関係になった時点、例えば、移動物体の先端部、後端部又は代表点が該ラインと一致し又は該ラインを通過した時点であってもよい。なぜならば、ラインをどの位置に設定するかで該所定の関係を変えることができ、また、時間を遡って入口スリットに入る前の移動物体軌跡を求めることができるからである。このラインは領域の辺であってもよい。   In addition, the processing start time in the initial value determination unit 27 is the time when the set line has a predetermined relationship with the moving object (cluster), for example, the front end, the rear end, or the representative point of the moving object is the line. It may be the point of coincidence or passing through the line. This is because the predetermined relationship can be changed depending on where the line is set, and the moving object trajectory before entering the entrance slit can be obtained by going back in time. This line may be a side of the region.

さらに、上記実施例では代表点での縮小率を求める場合を説明したが、これは近似的なものであり、例えば、上記実施例のようにして計測点を求めた後に、計測点と代表点との間、例えば中央点が属するブロックの縮小率を求め、これを初期オフセット長さに乗じてオフセットベクトルの絶対値を決定することで、計測点の精度を向上させてもよい。このような処理を複数回又は該絶対値が収束するまで繰り返してもよい。この近似の程度は、カメラの配置高さ、ズーム倍率、カメラアングル等にも依存する。   Further, in the above embodiment, the case where the reduction rate at the representative point is obtained has been described. However, this is an approximate one. For example, after obtaining the measurement point as in the above embodiment, the measurement point and the representative point are obtained. For example, the accuracy of the measurement point may be improved by obtaining the reduction ratio of the block to which the central point belongs and multiplying this by the initial offset length to determine the absolute value of the offset vector. Such processing may be repeated a plurality of times or until the absolute value converges. The degree of approximation also depends on the camera arrangement height, zoom magnification, camera angle, and the like.

本発明の実施例1の異常事象検出装置の概略機能ブロック図である。It is a schematic functional block diagram of the abnormal event detection apparatus of Example 1 of this invention. 入口及び出口のスリットとブロック境界線とを時刻t0のフレーム画像に重ね合わせた説明図である。It is explanatory drawing which overlap | superposed the slit of an entrance and an exit, and the block boundary line on the frame image of the time t0. 入口及び出口のスリットとブロック境界線とを他の時刻でのフレーム画像に重ね合わせた説明図である。It is explanatory drawing which overlap | superposed the slit of the entrance and exit, and the block boundary line on the frame image at other time. 時刻t0での移動物体IDのオブジェクトマップに、理解を容易にするため図2中の移動物体を重ね合わせ、さらにこれらのクラスタの境界を太線で示したIDオブジェクトマップ説明図である。FIG. 3 is an explanatory diagram of an ID object map in which the moving object in FIG. 2 is overlaid on the object map of the moving object ID at time t0 for easy understanding, and the boundaries of these clusters are indicated by bold lines. クラスタ内接矩形説明図である。It is a cluster inscribed rectangle explanatory drawing. 経路を自動的に求める方法を示す説明図である。It is explanatory drawing which shows the method of calculating | requiring a path | route automatically. 実長さに対する画像上の長さの比である縮小率と、計測誤差が生ずる原因とを説明する図である。It is a figure explaining the reduction ratio which is ratio of the length on the image with respect to actual length, and the cause which a measurement error produces. (A)及び(B)はそれぞれ時刻t0及びtkでの代表点RP、代表動きベクトルRMV及びオフセットベクトルOFVを示す図である。(A) and (B) are diagrams showing a representative point RP, a representative motion vector RMV, and an offset vector OFV at times t0 and tk, respectively. 移動物体が直線移動する場合の、時刻tをパラメータとする代表点の軌跡RP(t)及び計測点の軌跡MP(t)の説明図である。It is explanatory drawing of locus | trajectory RP (t) of the representative point which uses time t as a parameter, and locus | trajectory MP (t) of a measurement point when a moving object moves linearly. 移動物体が右折する場合の代表点及び計測点の軌跡説明図である。It is locus | trajectory explanatory drawing of the representative point and measurement point in case a moving object turns right. 経路決定処理を示すフローチャートである。It is a flowchart which shows a route determination process. 異常判別処理を示すフローチャートである。It is a flowchart which shows an abnormality determination process. 交差点での経路の一部の説明図である。It is explanatory drawing of a part of path | route in an intersection. 交差点での経路を全て重ね合わせた経路説明図である。。It is route explanatory drawing which overlap | superposed all the routes in an intersection. . 交差点での全ての経路を複数のレイヤーに分けて示す経路説明図である。It is route explanatory drawing which divides and shows all the routes in an intersection into a some layer. ID=1〜6の移動物体のそれぞれが属性として経路識別符号FPを持つことをイメージで示す図である。It is a figure which shows with an image that each of the moving objects of ID = 1-6 has the path | route identification code FP as an attribute. 車輌速度平均値を交通信号状態と対応させて示すタイムチャートである。It is a time chart which shows a vehicle speed average value corresponding to a traffic signal state.

符号の説明Explanation of symbols

10 ビデオカメラ
20 異常事象検出装置
21 画像メモリ
22 背景画像生成部
23 ID生成/消滅部
24 オブジェクトマップ記憶部
25 移動物体追跡部
26 クラスタ内接矩形決定部
27 初期値決定部
28 動きベクトル平均値算出部
29 代表点追跡部
2A 縮小率マップ
2B 計測点追跡部
2C 速度計測部
2D 経路決定・記憶部
2E 信号判定部
2F 所属経路判定部
2G 移動物体毎特徴量記憶部
2H 異常判別部
2I 異常記憶・報知部
30 フレーム画像
31A、31B 入口スリット
32B、32A 出口スリット
33、34 移動物体
33C、34C クラスタ
IN 入力装置
OUT 表示装置
RP 代表点
RMV 代表動きベクトル
OFV オフセットベクトル
MP 計測点
SC 投影面
DESCRIPTION OF SYMBOLS 10 Video camera 20 Abnormal event detection apparatus 21 Image memory 22 Background image generation part 23 ID production | generation / annihilation part 24 Object map memory | storage part 25 Moving object tracking part 26 Cluster inscribed rectangle determination part 27 Initial value determination part 28 Motion vector average value calculation Unit 29 representative point tracking unit 2A reduction rate map 2B measurement point tracking unit 2C speed measurement unit 2D route determination / storage unit 2E signal determination unit 2F belonging route determination unit 2G feature amount storage unit for each moving object 2H abnormality determination unit 2I abnormality storage / Notification unit 30 Frame image 31A, 31B Entrance slit 32B, 32A Exit slit 33, 34 Moving object 33C, 34C Cluster IN Input device OUT Display device RP Representative point RMV Representative motion vector OFV Offset vector MP Measurement point SC Projection plane

Claims (5)

記憶手段に格納された、交差点における時系列画像を処理して、異常事象を検出する方法において、
(a)該交差点の画像上で車輌又は歩行者が通ると予測される全ての経路のデータを予め設定しておき、
(b)各車輌の位置及び速度ベクトルを求め、
(c)該車輌が停止しているか否かを判別し、
(d)該経路のデータと該車輌の位置とに基づき、該車輌がどの経路上にあるかを判別し、
(e)該ステップ(c)で肯定判定された場合に、該ステップ(d)の経路について、該車輌が該経路内で最も先頭側に位置する停止車輌であるか否かを判定し、
(f)該ステップ(e)で最も先頭側に位置する停止車輌であると判定した場合には、該経路内で該停止車輌の前方側に車輌が存在するか否かを判定し、

(g)該ステップ(f)で前方側に車輌が存在しないと判定した場合には、他の経路の車輌又は交通信号との関係で該車輌の停止が正常事象であるか否かを判定し、
(h)いずれかの正常事象であると判定できなかった場合には、該車輌の停止が異常事象であると判定する、
ステップを有することを特徴とする、画像処理による交差点での異常事象検出方法。
In a method for detecting an abnormal event by processing a time-series image at an intersection stored in a storage means,
(A) Preliminarily set data of all routes predicted to pass by vehicles or pedestrians on the intersection image;
(B) Find the position and velocity vector of each vehicle,
(C) Determine whether the vehicle is stopped,
(D) Based on the route data and the position of the vehicle, determine which route the vehicle is on;
(E) When an affirmative determination is made in step (c), it is determined whether or not the vehicle is the stop vehicle located on the most front side in the route for the route of step (d);
(F) If it is determined in step (e) that the vehicle is located at the foremost side, it is determined whether or not there is a vehicle in front of the stopped vehicle in the route;

(G) If it is determined in step (f) that there is no vehicle on the front side, it is determined whether the stop of the vehicle is a normal event in relation to a vehicle on another route or a traffic signal. ,
(H) If the vehicle cannot be determined to be any normal event, it is determined that the vehicle stop is an abnormal event.
An abnormal event detection method at an intersection by image processing, characterized by comprising steps.
該ステップ(g)において、該車輌の経路と交差する歩行者経路の交通信号が、進行信号であるか否か又は設定時間内に進行信号に変わるか否かを判定し、これらのいずれかを肯定判定した場合には、正常事象であると判定する、
ことを特徴とする請求項に記載の、画像処理による交差点での異常事象検出方法。
In the step (g), it is determined whether the traffic signal of the pedestrian route intersecting the route of the vehicle is a progress signal or whether it changes to a progress signal within a set time. If a positive determination is made, it is determined that the event is a normal event.
The method for detecting an abnormal event at an intersection by image processing according to claim 1 .
該ステップ(g)において、該車輌の経路と交差する経路についても該ステップ(g)へ進んだ場合には、正常事象であると判定する、
ことを特徴とする請求項1又は2に記載の、画像処理による交差点での異常事象検出方法。
In step (g), if the route crosses the route of the vehicle also proceeds to step (g), it is determined as a normal event .
The method for detecting an abnormal event at an intersection by image processing according to claim 1 or 2 .
該ステップ(d)では、該車輌の過去の経路も記憶しておき、
(i)該ステップ(c)で停止していると判定した場合には、該停止車輌から設定範囲内に、該停止車輌の経路から他の経路に経路を変更した車輌が存在すれば、異常事象と判定する、
ステップをさらに有することを特徴とする請求項1乃至のいずれか1つに記載の、画像処理による交差点での異常事象検出方法。
In this step (d), the past route of the vehicle is also stored,
(I) If it is determined that the vehicle is stopped in step (c), if there is a vehicle whose route has been changed from the route of the stopped vehicle to another route within the set range from the stopped vehicle, To determine an event,
The method for detecting an abnormal event at an intersection by image processing according to any one of claims 1 to 3 , further comprising a step.
(j)車輌経路の、歩行者経路の手前の領域に存在する車輌速度の平均値を求め、該平均値のステップ変化に基づいて、交通信号機の信号の状態変化を認識する、
ステップをさらに有し、
該ステップ(g)において、該歩行者経路の交通信号として該信号の状態変化を用いる
ことを特徴とする請求項に記載の、画像処理による交差点での異常事象検出方法。
(J) An average value of vehicle speeds existing in a region of the vehicle route before the pedestrian route is obtained, and based on a step change of the average value, a state change of a traffic signal signal is recognized.
And further comprising steps
The method for detecting an abnormal event at an intersection by image processing according to claim 2 , wherein in step (g), a change in state of the signal is used as a traffic signal of the pedestrian route.
JP2006005449A 2006-01-13 2006-01-13 Abnormal event detection method at intersections by image processing Active JP4783898B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006005449A JP4783898B2 (en) 2006-01-13 2006-01-13 Abnormal event detection method at intersections by image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006005449A JP4783898B2 (en) 2006-01-13 2006-01-13 Abnormal event detection method at intersections by image processing

Publications (2)

Publication Number Publication Date
JP2007188270A JP2007188270A (en) 2007-07-26
JP4783898B2 true JP4783898B2 (en) 2011-09-28

Family

ID=38343403

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006005449A Active JP4783898B2 (en) 2006-01-13 2006-01-13 Abnormal event detection method at intersections by image processing

Country Status (1)

Country Link
JP (1) JP4783898B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103886753B (en) * 2014-03-31 2016-09-21 北京易华录信息技术股份有限公司 A kind of signal lamp control crossroad exception parking reason quickly confirms system and method
JP2017120657A (en) * 2017-03-09 2017-07-06 株式会社ニコン Information management device, data analysis device, signal apparatus, server, information management system, and program
CN108171452B (en) * 2017-12-08 2022-04-05 苏宁易购集团股份有限公司 Express delivery point addressing method and device
US20200219396A1 (en) * 2019-01-08 2020-07-09 Continental Automotive Systems, Inc. Automated detection of traffic incidents via intelligent infrastructure sensors
CN114155715B (en) * 2022-02-07 2022-05-06 北京图盟科技有限公司 Conflict point detection method, device, equipment and readable storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1011692A (en) * 1990-04-27 1998-01-16 Hitachi Ltd Traffic flow measuring method/device
JP2001216519A (en) * 2000-02-04 2001-08-10 Fujitsu Ltd Traffic monitor device
JP2002260149A (en) * 2001-02-28 2002-09-13 Gen Tec:Kk Traffic accident detection system
JP4480299B2 (en) * 2001-06-21 2010-06-16 富士通マイクロエレクトロニクス株式会社 Method and apparatus for processing image including moving object

Also Published As

Publication number Publication date
JP2007188270A (en) 2007-07-26

Similar Documents

Publication Publication Date Title
US8358808B2 (en) Video-based vehicle detection and tracking using spatio-temporal maps
US20050169501A1 (en) Method and apparatus for determining driving lane of vehicle, and computer product
US9454704B2 (en) Apparatus and method for determining monitoring object region in image
JP4793324B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
JP2016016681A (en) Parking frame recognition device
JP2007147458A (en) Location detector, location detection method, location detection program, and recording medium
JP4783898B2 (en) Abnormal event detection method at intersections by image processing
JPWO2009078056A1 (en) Moving object detection apparatus and moving object detection program
KR102082254B1 (en) a vehicle recognizing system
US20180012068A1 (en) Moving object detection device, image processing device, moving object detection method, and integrated circuit
JP4734568B2 (en) Method and apparatus for determining moving object measurement point on image
JP2009211678A (en) Traffic accident analyzing device, traffic accident analyzing method, and program
JP2014106147A (en) Intersection detection method and intersection detection system
JP3470172B2 (en) Traffic flow monitoring device
US20200114823A1 (en) Bird&#39;s-eye view video generation device, bird&#39;s-eye view video generation method, and non-transitory storage medium
JP4714872B2 (en) Method and apparatus for dividing moving object superimposed on image
JP4628712B2 (en) Method and apparatus for recognizing moving object on image
Cao et al. Vehicle motion analysis based on a monocular vision system
JP4462533B2 (en) Road lane detection device
CN110736465B (en) Navigation method, navigation device, robot and computer readable storage medium
JP7271877B2 (en) Traffic counting device, program and traffic counting system
JP4697761B2 (en) Queue detection method and queue detection apparatus
JP6763473B2 (en) Object detection device, traffic monitoring system, control method and program of object detection device
JP4555987B2 (en) Method and apparatus for tracking moving object in image
JP4573590B2 (en) Moving object measuring method and apparatus by image processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110329

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110614

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150