JP2001126183A - Device for detecting traffic flow - Google Patents

Device for detecting traffic flow

Info

Publication number
JP2001126183A
JP2001126183A JP30493899A JP30493899A JP2001126183A JP 2001126183 A JP2001126183 A JP 2001126183A JP 30493899 A JP30493899 A JP 30493899A JP 30493899 A JP30493899 A JP 30493899A JP 2001126183 A JP2001126183 A JP 2001126183A
Authority
JP
Japan
Prior art keywords
vehicle
image data
traffic flow
integrated
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP30493899A
Other languages
Japanese (ja)
Other versions
JP3507857B2 (en
Inventor
Toshihiro Ogasawara
俊広 小笠原
Yuji Okamoto
祐司 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minister for Public Works for State of New South Wales
National Research and Development Agency Public Works Research Institute
Original Assignee
Minister for Public Works for State of New South Wales
Public Works Research Institute Ministry of Construction
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minister for Public Works for State of New South Wales, Public Works Research Institute Ministry of Construction filed Critical Minister for Public Works for State of New South Wales
Priority to JP30493899A priority Critical patent/JP3507857B2/en
Publication of JP2001126183A publication Critical patent/JP2001126183A/en
Application granted granted Critical
Publication of JP3507857B2 publication Critical patent/JP3507857B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a traffic flow detecting device by which a small vehicle hidden behind a large vehicle is adequately discriminated and detected and also the vehicle detecting precision can be improved. SOLUTION: The device is provided with a plurality of IR cameras which are disposed in left and right at a prescribed interval along the sides of a traveling road, a plurality of vehicle detecting parts for inputting image data of the plurality of traveling vehicles, which are photographed by the IR cameras and an integration judging part for inputting a plurality kind of vehicle information which are processed by the vehicle detecting parts. The vehicle information processed by the judging part are integrated and also a cross-correlation arithmetic processing is executed concerning the respective kinds of data so that the vehicle is synthetically judged.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、道路上を走行す
る複数の車両を判別し検出するための交通流検出装置に
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a traffic flow detecting device for discriminating and detecting a plurality of vehicles traveling on a road.

【0002】[0002]

【従来の技術】図9(a)は従来の交通流検出装置におけ
る概略構成図を示している。すなわち、図9(a)に示す
ように従来では走行道路1の路側に沿って1台の可視カ
メラ2を配置し、この可視カメラ2により道路を走行す
る複数の車両を撮影し、撮影した画像データを所定のア
ルゴリズムにより判定することにより車両の判別及び交
通量の把握を行っていた。この場合、大型車両3に対し
て普通車4(小型車両)が並走している場合には、車両
の判別が難しいため所謂「分離方式」のアルゴリズム判
定により両車両3,4の識別を行っていた。この「分離
方式」のアルゴリズム判定について簡単に説明すると、
先ず撮影した背景画像データの生成を行い、その背景差
分を2値化整形することにより車両領域の形状を検出
し、次いでこれらを複数の矩形データ(個別車両デー
タ)として検出し、融合或は消去による画像処理により
判別を行うものである。
2. Description of the Related Art FIG. 9 (a) shows a schematic configuration diagram of a conventional traffic flow detecting device. That is, as shown in FIG. 9 (a), conventionally, one visible camera 2 is arranged along the road side of the traveling road 1, and a plurality of vehicles traveling on the road are photographed by the visible camera 2, and the photographed image is taken. The vehicle is determined and the traffic volume is grasped by determining the data by a predetermined algorithm. In this case, when the ordinary vehicle 4 (small vehicle) is running in parallel with the large vehicle 3, it is difficult to distinguish between the two vehicles 3 and 4 by the so-called "separation method" algorithm determination. I was Briefly describing the algorithm determination of the “separation method”,
First, the captured background image data is generated, the background difference is binarized and shaped to detect the shape of the vehicle area, and then these are detected as a plurality of rectangular data (individual vehicle data), and then merged or deleted. The determination is made by image processing according to.

【0003】[0003]

【発明が解決しようとする課題】ところが、前記従来の
交通流検出装置の場合には以下のような問題がある。す
なわち、図9(b)に示すように大型車両3に対して普通
車4が完全に隠蔽された場合には、可視カメラ2の撮影
条件により車種を正確にかつ精度良く把握することがで
きず検出精度が低下してしまうという問題があった。ま
た、このような不具合を解決すべく可視カメラを1台で
はなく2台の可視カメラを使用するものも提案されてお
り、この場合には1台の可視カメラよりは検出精度を向
上することができるが、車両による影等の影響により誤
差が軽減されない場合もある。さらに、車両の撮像手段
として可視カメラを採用しているので、車両自体や建造
物の影による誤検出が生じる恐れがあると共に、夜間時
には照明が必要となるという問題がある。また、近年で
は交通量の増加と共に、多種類の車両が増加しているた
め、これら複数の車両の判別及び検出精度をより向上す
ることができる交通流検出装置の実現が望まれている。
However, the conventional traffic flow detecting device has the following problems. That is, when the ordinary vehicle 4 is completely hidden from the large vehicle 3 as shown in FIG. 9B, the vehicle type cannot be accurately and accurately grasped by the photographing conditions of the visible camera 2. There is a problem that the detection accuracy is reduced. In order to solve such a problem, it has been proposed to use two visible cameras instead of one visible camera. In this case, the detection accuracy can be improved more than one visible camera. Although it is possible, the error may not be reduced due to the influence of the shadow or the like due to the vehicle. Furthermore, since a visible camera is used as an imaging means of the vehicle, there is a risk that erroneous detection may occur due to a shadow of the vehicle itself or a building, and illumination is required at night. Further, in recent years, as the number of types of vehicles has increased along with the increase in traffic volume, it has been desired to realize a traffic flow detection device capable of further improving the accuracy of discriminating and detecting these vehicles.

【0004】そこで、この発明の目的は前記従来の交通
流検出装置のもつ問題を解消し、大型車両に隠蔽された
車両でも精度よく判別及び検出すると共に、道路を走行
している複数の車両の検出精度をより向上することがで
きる交通流検出装置を提供するにある。
Accordingly, an object of the present invention is to solve the problems of the conventional traffic flow detecting device, to accurately determine and detect even a vehicle concealed by a large vehicle, and to detect a plurality of vehicles traveling on a road. An object of the present invention is to provide a traffic flow detection device capable of further improving detection accuracy.

【0005】[0005]

【課題を解決するための手段】この発明は、前記のよう
な目的を達成するために、請求項1に記載の発明は、走
行道路の路側に沿って所定の間隔で左右に配置される複
数台の赤外線カメラと、これら複数台の赤外線カメラに
より撮影された複数の走行車両の画像データが入力され
る複数の車両検出部と、これら各車両検出部により処理
された複数の車両情報が入力される統合判定部とを有
し、この統合判定部により処理された車両情報を統合す
ると共に、各画像データに対しての相互相関演算処理を
行うことにより車両の総合判定を行うことを特徴とする
ものである。
According to the present invention, in order to achieve the above object, the invention according to claim 1 comprises a plurality of light emitting devices which are arranged on the left and right at predetermined intervals along a road side of a traveling road. A plurality of infrared cameras, a plurality of vehicle detection units to which image data of a plurality of traveling vehicles captured by the plurality of infrared cameras are input, and a plurality of vehicle information processed by each of the vehicle detection units. And an integrated determination unit that integrates the vehicle information processed by the integrated determination unit and performs a cross-correlation calculation process on each image data to perform a comprehensive determination of the vehicle. Things.

【0006】請求項2に記載の発明は、請求項1に記載
の発明において車両検出部はA/D変換部、フレームメ
モリ、CPU、通信I/Fとを有し、統合判定部は通信
I/F、車両位置判定部、出力I/Fとを有することを
特徴とする撮像手段に赤外線カメラを使用したことを特
徴とするものである。
According to a second aspect of the present invention, in the first aspect of the invention, the vehicle detecting section has an A / D conversion section, a frame memory, a CPU, and a communication I / F, and the integrated determining section has a communication I / F. / F, a vehicle position determination unit, and an output I / F, wherein an infrared camera is used as an imaging unit.

【0007】請求項3に記載の発明は、請求項1に記載
の発明において、統合判定処理部は2台の赤外線カメラ
によりそれぞれ撮影された2つの画像データを、それぞ
れ別々に処理すると共に、このうち一方の画像データに
対して車両輪郭抽出処理後に倍率変換処理及び左右反転
処理を行い、これら2つの画像データに対して相互相関
演算処理を行うことにより車両の同一性を判定し、隠蔽
車両を確定することを特徴とするものである。
According to a third aspect of the present invention, in the first aspect of the present invention, the integration determination processing unit processes two image data respectively photographed by two infrared cameras separately, and A magnification conversion process and a left-right inversion process are performed on one of the image data after the vehicle contour extraction process, and a cross-correlation calculation process is performed on the two image data to determine the identity of the vehicle. It is characterized in that it is determined.

【0008】請求項4に記載の発明は、請求項3に記載
の発明において、統合判定処理部で得られる車両情報と
しての車両速度、車幅情報とを基に処理された画像デー
タと比較し、これらの各情報が一致しないときは車両と
して確定しないことを特徴とするものである。
According to a fourth aspect of the present invention, in the third aspect of the present invention, the image data is compared with image data processed based on vehicle speed and vehicle width information as vehicle information obtained by the integrated determination processing section. When these pieces of information do not match, the vehicle is not determined.

【0009】[0009]

【発明の実施の形態】図1,2は本発明が適用される道
路の一実施形態を示すもので、このうち図1は車両の進
行方向に対する正面図を、図2は平面図をそれぞれ示し
ており、大型車両3に隣接した普通車4が並走している
状態を想定している。また、図2に示すように、本発明
では走行道路の路側に沿って所定の間隔(100m程度)
で左右に配置される複数台(4台)の赤外線カメラ6
(前左),7(前右),8(後左)9(後右)を有して
おり、これら複数台の赤外線カメラ6〜9は道路上方位
置から道路を走行する複数の車両をそれぞれ撮影できる
ように配置されている。車両に対する視野位置もほぼ同
様となっている。この例では、4台の赤外線カメラによ
る実施形態を示しているが、本発明では少なくても2台
の赤外線カメラを必要とするものとする。
1 and 2 show an embodiment of a road to which the present invention is applied. FIG. 1 shows a front view of a vehicle in a traveling direction, and FIG. 2 shows a plan view. It is assumed that the ordinary vehicle 4 adjacent to the large vehicle 3 is running in parallel. Further, as shown in FIG. 2, in the present invention, a predetermined interval (about 100 m) is provided along the road side of the traveling road.
(Four) infrared cameras 6 arranged on both sides
(Front left), 7 (front right), 8 (rear left) and 9 (rear right), and the plurality of infrared cameras 6 to 9 respectively control a plurality of vehicles traveling on the road from a position above the road. It is arranged so that you can shoot. The visual field position with respect to the vehicle is almost the same. In this example, an embodiment using four infrared cameras is shown, but it is assumed that at least two infrared cameras are required in the present invention.

【0010】図3は本発明の一実施形態である機能構成
の全体ブロック図を示している。すなわち、図3に示す
ように本発明の交通流検出装置は4台の赤外線カメラ6
〜9から撮影された複数の走行車両の画像データが入力
される、それぞれ単独の車両検出部10〜13と、これら各
車両検出部10〜13により処理された複数の車両情報が入
力される統合判定部14とを有している。このうち各車両
検出部10〜13はA/D変換部16、フレームメモリ17、C
PU18、通信I/F19とを有し、統合判定部14は通信I
/F20、車両位置判定部21、出力I/F22とを有してい
る。
FIG. 3 is an overall block diagram of a functional configuration according to an embodiment of the present invention. That is, as shown in FIG. 3, the traffic flow detecting device according to the present invention comprises four infrared cameras 6.
9. Image data of a plurality of traveling vehicles photographed from 9 to 99 are input, and a single vehicle detection unit 10〜13 and a plurality of vehicle information processed by each of these vehicle detection units 10〜13 are integrated. And a determination unit 14. Among these, each of the vehicle detection units 10 to 13 includes an A / D conversion unit 16, a frame memory 17,
A PU 18 and a communication I / F 19;
/ F20, a vehicle position determination unit 21, and an output I / F22.

【0011】この全体ブロック図の各機能の概略を説明
すると、赤外線カメラ6により撮影された映像(画像デ
ータ)は車両検出部10に入力され、その内部のA/D変
換部16によりデジタル変換され、この変換後の画像デー
タはフレームメモリ17内に一時的にストアされる。そし
て、CPU18によって車両の存在位置の検出、速度、走
行車線位置、車幅などの各車両データが算出され、この
各車両データは通信I/F19を介して統合判定部14に送
出される。同様に各赤外線カメラ7,8,9により撮影
された映像(画像データ)は車両検出部10に入力され、
画像処理後にそれぞれ統合判定部14に送出される。そし
て、この統合判定部14により車両情報に対しての相互相
関演算を行い車両の幅、高さ及び長さを計算して処理結
果を統合することにより車両を検出する。後述するよう
に、最終的に統合判定部14により統合され判定された車
両のデータは車両情報として出力される。
The outline of each function of this overall block diagram will be described. An image (image data) photographed by the infrared camera 6 is input to a vehicle detecting section 10 and is digitally converted by an A / D converting section 16 therein. The converted image data is temporarily stored in the frame memory 17. Then, the CPU 18 calculates each vehicle data such as the detection of the vehicle position, the speed, the traveling lane position, and the vehicle width, and the vehicle data is transmitted to the integrated determination unit 14 via the communication I / F 19. Similarly, images (image data) captured by the infrared cameras 7, 8, and 9 are input to the vehicle detection unit 10,
After the image processing, each is sent to the integration determination unit 14. Then, the integration determination unit 14 performs a cross-correlation operation on the vehicle information, calculates the width, height, and length of the vehicle, and integrates the processing results to detect the vehicle. As will be described later, the vehicle data finally integrated and determined by the integration determination unit 14 is output as vehicle information.

【0012】以下、本発明の詳細について図4,5の判
定概念図及び図6のフローチャート(統合判定処理)を
参照して説明する。ここで図4は大型車両1台が「隠蔽
車両」なく走行しているときの撮像画面とその画像デー
タ処理過程を示すもので、また図5は「隠蔽車両」が存
在するときの撮像画面とその画像データ処理過程を示す
もので、ここでは相互相関演算による画像の一致、不一
致を判定する際の判定概念図となる。この場合、普通車
が大型車両に対する「隠蔽車両」となる。先ず、図4に
示すように道路上を大型車両1台が走行している状態を
想定すると、先ず大型車両の映像(前左)は赤外線カメ
ラ6により撮影され(「画面A」)、その撮影画像を基
に車両検出部10から抽出した車両情報が取得され(S
1)、次いで同様に赤外線カメラ6の反対位置にある赤
外線カメラ7により大型車両の映像(前右)が撮影され
(「画面B」)、その撮影画像を基に車両検出部11から
抽出した車両情報が取得される(S2)。つまり、この
段階で大型車両は両側面から車両全体が撮影され、その
画像データが車両情報として検出される。
Hereinafter, the details of the present invention will be described with reference to the determination conceptual diagrams of FIGS. 4 and 5 and the flowchart (integration determination processing) of FIG. Here, FIG. 4 shows an imaging screen when one large vehicle is traveling without a “concealed vehicle” and an image data processing process thereof, and FIG. 5 shows an imaging screen when a “concealed vehicle” is present. It shows the image data processing process, and here is a conceptual diagram of judgment when judging coincidence or non-coincidence of images by a cross-correlation operation. In this case, the ordinary vehicle is a “concealed vehicle” for the large vehicle. First, assuming that one large vehicle is running on the road as shown in FIG. 4, first, an image (front left) of the large vehicle is photographed by the infrared camera 6 (“screen A”), and the photograph is taken. Vehicle information extracted from the vehicle detection unit 10 based on the image is acquired (S
1) Then, similarly, an image (front right) of the large vehicle is photographed by the infrared camera 7 located in the opposite position of the infrared camera 6 (“screen B”), and the vehicle extracted from the vehicle detection unit 11 based on the photographed image Information is obtained (S2). That is, at this stage, the entire large vehicle is photographed from both sides, and the image data is detected as vehicle information.

【0013】この際、各赤外線カメラ6,7から撮影さ
れた車両の撮影画像に対しては、輪郭抽出処理が行なわ
れる。つまり、車両検出部10においてA/D変換部16よ
り変換後の画像データはその1画素単位で「黒データ
(1)」から「白データ(0)」に変換(0〜255)さ
れているため、これを輪郭処理により輪郭レベル値の高
い画像データの輪郭部のみを「黒(1)」とし、その他
を「白(0)」とする処理が行われる。この輪郭抽出処
理の過程では各抽出画像においての画像データ上での重
心位置が特定され設定される。例えば、この輪郭抽出処
理は所定値にスライスレベルを設定した比較器などを利
用することにより行われる。また、ここで赤外線カメラ
6,7から車両までの距離が異なる場合には、取得した
一方の画像データに対しての倍率変換処理を行う(S
3)。この倍率変換処理により両画像データの大きさが
ほぼ同じものとなる。また、その後倍率変換処理により
拡大した側の画像データに対しての左右反転処理を行う
(S4)。
At this time, an outline extraction process is performed on the image of the vehicle taken from each of the infrared cameras 6 and 7. In other words, the image data converted by the A / D converter 16 in the vehicle detector 10 is converted (from 0 to 255) from "black data (1)" to "white data (0)" for each pixel. Therefore, by performing the contour processing, only the contour portion of the image data having a high contour level value is set to “black (1)”, and the other portion is set to “white (0)”. In the process of this contour extraction processing, the position of the center of gravity on the image data in each extracted image is specified and set. For example, this contour extraction processing is performed by using a comparator or the like in which a slice level is set to a predetermined value. If the distances from the infrared cameras 6, 7 to the vehicle are different, a magnification conversion process is performed on one of the acquired image data (S
3). By this magnification conversion processing, the sizes of both image data become substantially the same. Further, after that, the left / right inversion processing is performed on the image data on the side enlarged by the magnification conversion processing (S4).

【0014】つまり、図7に示すように車両が道路の片
側(図7の左側)を走行している場合には、赤外線カメ
ラ6,7と車両までの距離L1,L2には差異が生じる
(L1<L2)と共に、当然赤外線カメラ7側から撮影し
た撮影画像(前右)は離間距離が長いため小さくなる。
また、赤外線カメラ6,7は互いに車両に対して反対方
向から撮影するため、それぞれの抽出画像(図4「画面
A,B」参照)はその向きが異なることとなる。このた
め、後述する「相互相関演算処理」を行うため抽出画像
に対しての拡大処理を行い同様に、この拡大した側の抽
出画像に対しての左右反転処理を行う。この左右反転処
理(鏡像処理)はラインメモリ上にある1走査分の画像
データを逆方向から読み出すことなどにより行われる。
That is, when the vehicle is traveling on one side of the road (left side in FIG. 7) as shown in FIG. 7, there is a difference between the infrared cameras 6, 7 and the distances L 1 and L 2 to the vehicle. At the same time (L 1 <L 2 ), the taken image (front right) taken from the infrared camera 7 side is naturally small because the separation distance is long.
Further, since the infrared cameras 6 and 7 capture images from opposite directions with respect to the vehicle, the directions of the respective extracted images (see “Screens A and B” in FIG. 4) are different. For this reason, enlargement processing is performed on the extracted image in order to perform “cross-correlation calculation processing” described later, and similarly, left-right reversal processing is performed on the enlarged extracted image. This left-right reversal processing (mirror image processing) is performed by reading out image data for one scan on the line memory from the opposite direction.

【0015】そして、前記画像処理後の2画像に対して
「相互相関演算処理」を行う(S5)。ここで、図8
(a),(b)を参照して「相互相関演算処理」について簡
単に説明する。例えば、図8(a)に示す同形である「図
形α」と「図形β」との同一性を判断する場合に、「相
互相関演算処理」では「図形α」と「図形β」をそれぞ
れ内側に向けて少しずつずらし重心位置を整合させる積
和処理を行う。この場合、図形同士が同一である場合に
はそれぞれ該当するマトリックス(整合する輪郭デー
タ)は「1×1」の積であり「1」となるため重心点で
の線図(相関処理結果図)は図4に示すように、その頂
点である「1」となる。つまり、重心位置が予め設定さ
れた「スレッショルド」を越えたものとなる。したがっ
て、この予め設定された「スレッショルド」相関値の判
定(S6)を行うことにより、この場合は2方向から撮
影された抽出画像が同一車両であると判定される(S
7)。一方、図8(b)に示すように「図形α」と「図形
γ」とが同形でない場合には積和処理を行った場合でも
線図は図5に示すように、重心位置及び何れの位置にお
いても予め設定された「スレッショルド」を越えたもの
とはならない平坦な線図として表れる。つまり、図5に
示すように赤外線カメラ6により撮影された大型車両の
映像(前左)が「画面A」であり、赤外線カメラ7によ
り撮影された大型車両の映像(前右)が「画面C」であ
った場合には、車両の同一性がないと判断され「隠蔽車
両」の存在が検出されるものとなる。
Then, "cross-correlation calculation processing" is performed on the two images after the image processing (S5). Here, FIG.
The “cross-correlation calculation processing” will be briefly described with reference to (a) and (b). For example, when judging the identity between the “figure α” and the “figure β” having the same shape shown in FIG. 8A, the “figure α” and the “figure β” are respectively set in the “cross-correlation calculation processing”. , The product-sum processing is performed to shift the center of gravity slightly. In this case, when the figures are the same, the corresponding matrix (matching contour data) is the product of “1 × 1” and “1”, so the diagram at the center of gravity (correlation processing result diagram) Is "1" which is the vertex as shown in FIG. That is, the position of the center of gravity exceeds a preset “threshold”. Therefore, by performing the determination of the preset “threshold” correlation value (S6), in this case, it is determined that the extracted images captured from the two directions are the same vehicle (S6).
7). On the other hand, as shown in FIG. 8 (b), when the “figure α” and the “figure γ” are not the same shape, even when the sum-of-products processing is performed, as shown in FIG. The position also appears as a flat diagram that does not exceed the preset “threshold”. That is, as shown in FIG. 5, the image of the large vehicle (front left) captured by the infrared camera 6 is “screen A”, and the image of the large vehicle (front right) captured by the infrared camera 7 is “screen C”. , It is determined that there is no vehicle identity, and the presence of a “concealed vehicle” is detected.

【0016】さらに、これを図6の判定フローチャート
により手順を説明すると、積和した相関値が「スレッシ
ョルド」以上でない場合には、車両検出部10,11におけ
る車両存在位置の比較を行う(S8)。次いで、存在位
置が一致か否かの判定が行われる(S9)。具体的に
は、両赤外線カメラ6,7で検出した車両底部における
存在位置が一致するかの判定が行われ、その結果が「存
在位置が一致」と判断された場合には同一車両であると
の確定が行われる(S10)。そして、「存在位置が一
致」でないと判断された場合には「隠蔽車両の確定」が
行われる(S11)。すなわち、どの位置においても積算
相関値が「スレッショルド」を越えることはなく同一車
両でないことが判定できる。
Further, the procedure will be described with reference to the judgment flowchart of FIG. 6. If the sum of the correlation values is not equal to or greater than the "threshold", the vehicle detection positions of the vehicle detectors 10 and 11 are compared (S8). . Next, it is determined whether or not the existing positions match (S9). Specifically, it is determined whether or not the presence positions at the vehicle bottom detected by the infrared cameras 6 and 7 match, and if the result is determined to be “the presence positions match”, it is determined that the vehicle is the same vehicle. Is determined (S10). Then, when it is determined that the “existing positions are not the same”, “determination of the concealed vehicle” is performed (S11). That is, at any position, the integrated correlation value does not exceed the “threshold” and it can be determined that the vehicles are not the same vehicle.

【0017】[0017]

【発明の効果】この発明は上記のようであって、請求項
1に記載の発明は、走行道路の路側に沿って所定の間隔
で左右に配置される複数台の赤外線カメラと、これら複
数台の赤外線カメラにより撮影された複数の走行車両の
画像データが入力される複数の車両検出部と、これら各
車両検出部により処理された複数の車両情報が入力され
る統合判定部とを有し、この統合判定部により処理され
た車両情報を統合すると共に、各画像データに対しての
相互相関演算処理を行うことにより車両の総合判定を行
うので、大型車両と普通車が隣接して並走している場合
でも隠蔽された車両を検出できると共に、道路上を走行
している複数車両の検出精度を向上できるという効果が
ある。また、可視カメラではなく赤外線カメラを採用し
ているので、車両自体や建造物の影響による誤検出を防
止でき、夜間時でも照明が不要となり正確な検出機能を
発揮することができるという効果がある。
The present invention is as described above. According to the first aspect of the present invention, there are provided a plurality of infrared cameras arranged on the left and right at predetermined intervals along a road side of a traveling road, and a plurality of these infrared cameras. A plurality of vehicle detection units to which image data of a plurality of traveling vehicles captured by the infrared camera are input, and an integrated determination unit to which a plurality of vehicle information processed by each of these vehicle detection units are input, Since the vehicle information processed by the integration determination unit is integrated and the overall determination of the vehicle is performed by performing cross-correlation calculation processing on each image data, a large vehicle and a normal vehicle run side by side next to each other. In this case, the concealed vehicle can be detected even when the vehicle is running, and the detection accuracy of a plurality of vehicles traveling on the road can be improved. In addition, since an infrared camera is used instead of a visible camera, erroneous detection due to the influence of the vehicle itself or a building can be prevented, and illumination is unnecessary even at night, so that an accurate detection function can be exhibited. .

【0018】請求項3に記載の発明は、請求項1に記載
の発明において統合判定処理部は2台の赤外線カメラに
よりそれぞれ撮影された2つの画像データを、それぞれ
別々に処理すると共に、このうち一方の画像データに対
して車両輪郭抽出処理後に倍率変換処理及び左右反転処
理を行い、これら2つの画像データに対して相互相関演
算処理を行うことにより車両の同一性を判定し、隠蔽車
両を確定するので、大型車両と普通車が隣接して並走し
ている場合でも隠蔽された車両を検出できると共に、道
路上を走行している複数車両の検出精度を向上できると
いう効果がある。また、可視カメラではなく赤外線カメ
ラを採用しているので、車両自体や建造物の影等による
影響で生じる誤検出を防止でき、夜間時でも照明が不要
となり正確な検出機能を発揮することができという効果
がある。
According to a third aspect of the present invention, in the first aspect of the present invention, the integrated judgment processing unit separately processes two image data respectively photographed by the two infrared cameras, and among them, After performing a vehicle contour extraction process on one of the image data, a magnification conversion process and a left-right reversal process are performed, and a cross-correlation calculation process is performed on the two image data to determine the vehicle identity and determine the concealed vehicle Therefore, even when a large vehicle and a normal vehicle run side by side adjacently, a hidden vehicle can be detected, and the detection accuracy of a plurality of vehicles traveling on a road can be improved. In addition, since an infrared camera is used instead of a visible camera, erroneous detection caused by the shadow of the vehicle or building can be prevented, and no illumination is required even at night, and an accurate detection function can be demonstrated. This has the effect.

【0019】請求項4に記載の発明は、請求項3に記載
の発明において統合判定処理部で得られる車両情報とし
ての車両速度、車幅情報とを基に処理された画像データ
と比較し、これらの各情報が一致しないときは車両とし
て確定しないので、道路上を走行している複数車両の検
出精度をより向上できるという効果がある。
According to a fourth aspect of the present invention, in the third aspect of the invention, image data processed based on vehicle speed and vehicle width information as vehicle information obtained by the integrated determination processing section are compared with each other, When these pieces of information do not match, since the vehicle is not determined, there is an effect that the detection accuracy of a plurality of vehicles traveling on the road can be further improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態を示す正面図である。FIG. 1 is a front view showing an embodiment of the present invention.

【図2】同配置構成を示す平面図である。FIG. 2 is a plan view showing the arrangement.

【図3】同機能構成の一例を示す全体ブロック図であ
る。
FIG. 3 is an overall block diagram showing an example of the functional configuration.

【図4】同一車両時の判定概念図である。FIG. 4 is a conceptual diagram of the determination when the vehicle is the same.

【図5】隠蔽車両存在時の判定概念図である。FIG. 5 is a conceptual diagram of determination when a concealed vehicle is present.

【図6】統合処理判定手順を示すフローチャートであ
る。
FIG. 6 is a flowchart illustrating an integration processing determination procedure.

【図7】離間距離の相違を示す説明図である。FIG. 7 is an explanatory diagram showing a difference in a separation distance.

【図8】相互相関演算処理を説明する説明図である。FIG. 8 is an explanatory diagram illustrating a cross-correlation calculation process.

【図9】従来の交通流検出装置の概略構成図である。FIG. 9 is a schematic configuration diagram of a conventional traffic flow detection device.

【符号の説明】[Explanation of symbols]

1 道路 2 可視カメラ 3 大型車両 4 普通車 6,7,8,9 赤外線カメラ 10,11,12,13 車両検出部 14 統合判定部 16 A/D変換部 17 フレームメモリ 18 CPU 19,20 通信I/F 21 車両位置判定部 22 出力I/F DESCRIPTION OF SYMBOLS 1 Road 2 Visible camera 3 Large vehicle 4 Ordinary vehicle 6,7,8,9 Infrared camera 10,11,12,13 Vehicle detection unit 14 Integrated judgment unit 16 A / D conversion unit 17 Frame memory 18 CPU 19,20 Communication I / F 21 Vehicle position determination unit 22 Output I / F

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 7/18 C 7/18 G06F 15/62 380 15/70 410 460A Fターム(参考) 5B057 AA16 BA01 CA02 CA08 CA12 CA16 CB02 CB06 CB12 CB16 CC03 CD05 CD20 DA08 DB02 DB05 DB09 DC16 DC34 5C022 AA01 AA14 AB61 5C054 AA01 AA05 CA05 CC02 CE02 CH04 DA08 EA05 EB05 ED11 EH07 EJ00 5H180 BB06 CC02 CC04 DD01 5L096 AA06 BA02 BA04 CA05 DA02 EA03 EA18 FA06 FA34 HA03 HA08 JA11 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/225 H04N 7/18 C 7/18 G06F 15/62 380 15/70 410 460A F term (reference) 5B057 AA16 BA01 CA02 CA08 CA12 CA16 CB02 CB06 CB12 CB16 CC03 CD05 CD20 DA08 DB02 DB05 DB09 DC16 DC34 5C022 AA01 AA14 AB61 5C054 AA01 AA05 CA05 CC02 CE02 CH04 DA08 EA05 EB05 ED11 EH07 EA00 5H180 BB00 DD06 FA06 FA34 HA03 HA08 JA11

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 走行道路の路側に沿って所定の間隔で左
右に配置される複数台の赤外線カメラと、これら複数台
の赤外線カメラにより撮影された複数の走行車両の画像
データが入力される複数の車両検出部と、これら各車両
検出部により処理された複数の車両情報が入力される統
合判定部とを有し、この統合判定部により処理された車
両情報を統合すると共に、各画像データに対しての相互
相関演算処理を行うことにより車両の総合判定を行うこ
とを特徴とする交通流検出装置。
1. A plurality of infrared cameras arranged on the left and right at predetermined intervals along a road side of a traveling road, and a plurality of image data of a plurality of traveling vehicles captured by the plurality of infrared cameras are input. A vehicle detection unit, and an integrated determination unit to which a plurality of vehicle information processed by each of the vehicle detection units is input. The vehicle information processed by the integration determination unit is integrated, and A traffic flow detection device for performing a comprehensive determination of a vehicle by performing a cross-correlation calculation process on the traffic flow.
【請求項2】 車両検出部はA/D変換部、フレームメ
モリ、CPU、通信I/Fとを有し、統合判定部は通信
I/F、車両位置判定部、出力I/Fとを有することを
特徴とする請求項1に記載の交通流検出装置。
2. The vehicle detection unit includes an A / D conversion unit, a frame memory, a CPU, and a communication I / F, and the integrated determination unit includes a communication I / F, a vehicle position determination unit, and an output I / F. The traffic flow detecting device according to claim 1, wherein:
【請求項3】 統合判定処理部は2台の赤外線カメラに
よりそれぞれ撮影された2つの画像データを、それぞれ
別々に処理すると共に、このうち一方の画像データに対
して車両輪郭抽出処理後に倍率変換処理及び左右反転処
理を行い、これら2つの画像データに対して相互相関演
算処理を行うことにより車両の同一性を判定し、隠蔽車
両を確定することを特徴とする請求項1に記載の交通流
検出装置。
3. An integrated judgment processing unit separately processes two image data respectively photographed by two infrared cameras, and executes a magnification conversion process after a vehicle contour extraction process on one of the image data. 2. The traffic flow detection method according to claim 1, wherein the vehicle identity is determined by performing a cross-correlation calculation process on these two image data, and a concealed vehicle is determined. apparatus.
【請求項4】 統合判定処理部で得られる車両情報とし
ての車両速度、車幅情報とを基に処理された画像データ
と比較し、これらの各情報が一致しないときは車両とし
て確定しないことを特徴とする請求項3に記載の交通流
検出装置。
4. Comparing the image data processed based on the vehicle speed and vehicle width information as the vehicle information obtained by the integrated determination processing unit, and when these information do not match, it is determined that the vehicle is not determined. The traffic flow detection device according to claim 3, wherein
JP30493899A 1999-10-27 1999-10-27 Traffic flow detector Expired - Lifetime JP3507857B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30493899A JP3507857B2 (en) 1999-10-27 1999-10-27 Traffic flow detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30493899A JP3507857B2 (en) 1999-10-27 1999-10-27 Traffic flow detector

Publications (2)

Publication Number Publication Date
JP2001126183A true JP2001126183A (en) 2001-05-11
JP3507857B2 JP3507857B2 (en) 2004-03-15

Family

ID=17939134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30493899A Expired - Lifetime JP3507857B2 (en) 1999-10-27 1999-10-27 Traffic flow detector

Country Status (1)

Country Link
JP (1) JP3507857B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100385461C (en) * 2006-06-01 2008-04-30 电子科技大学 Detection method for moving target in infrared image sequence under complex background
CN102289940A (en) * 2011-07-26 2011-12-21 西南交通大学 Hybrid differential-based traffic flow detection method
JP2013168178A (en) * 2013-05-15 2013-08-29 Mitsubishi Electric Corp Vehicle detection system and vehicle detection method for vehicle detection system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108962082B (en) * 2018-08-19 2020-12-01 日照市德衡信息技术有限公司 A bill-board that is used for urban road both sides to have concealed and tests speed snapshot function

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100385461C (en) * 2006-06-01 2008-04-30 电子科技大学 Detection method for moving target in infrared image sequence under complex background
CN102289940A (en) * 2011-07-26 2011-12-21 西南交通大学 Hybrid differential-based traffic flow detection method
JP2013168178A (en) * 2013-05-15 2013-08-29 Mitsubishi Electric Corp Vehicle detection system and vehicle detection method for vehicle detection system

Also Published As

Publication number Publication date
JP3507857B2 (en) 2004-03-15

Similar Documents

Publication Publication Date Title
EP0567059B1 (en) Object recognition system using image processing
US7031525B2 (en) Edge detection based on background change
US7043084B2 (en) Wheelchair detection using stereo vision
US6205242B1 (en) Image monitor apparatus and a method
JPH0944685A (en) Face image processor
JPH08221577A (en) Device and method for detecting/extracting moving object
US7164784B2 (en) Edge chaining using smoothly-varying stereo disparity
KR101236223B1 (en) Method for detecting traffic lane
JPH0431996A (en) Image recognition type burgler sensor
JP3377659B2 (en) Object detection device and object detection method
JP2000331148A (en) Obstacle detector
JPH07249128A (en) Picture processor for vehicle
JP2001043383A (en) Image monitoring system
JP2001126183A (en) Device for detecting traffic flow
JPH11345392A (en) Device and method for detecting obstacle
JP3779229B2 (en) Identification method, identification device, and traffic control system
JPH03265985A (en) Plate segmenting device for automatic car number reader
JPH05300516A (en) Animation processor
JP2005140754A (en) Method of detecting person, monitoring system, and computer program
JP2001126192A (en) Method for judging parked or vacancy state in parking space of parking lot
JP2946620B2 (en) Automatic number reading device with speed measurement function
JP2003162710A (en) Device and method for recognizing traveling object
JP2003162724A (en) Image sensor
JPH09212791A (en) Method and device for monitoring road surface
JP2003233802A (en) Approaching object detecting device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R150 Certificate of patent or registration of utility model

Ref document number: 3507857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term