JPH103595A - Road monitoring device - Google Patents

Road monitoring device

Info

Publication number
JPH103595A
JPH103595A JP15573196A JP15573196A JPH103595A JP H103595 A JPH103595 A JP H103595A JP 15573196 A JP15573196 A JP 15573196A JP 15573196 A JP15573196 A JP 15573196A JP H103595 A JPH103595 A JP H103595A
Authority
JP
Japan
Prior art keywords
camera
road
image
cameras
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP15573196A
Other languages
Japanese (ja)
Inventor
Makoto Nishida
誠 西田
Kunihiko Adachi
邦彦 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP15573196A priority Critical patent/JPH103595A/en
Publication of JPH103595A publication Critical patent/JPH103595A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve the recognizing ratio of a road object in a device for monitoring a road surface by distributing a camera so that image pickup areas can be mutually overlapped. SOLUTION: Cameras A and B are arranged on a road, and the road is photographed at a prescribed tilt angle ϕ. The image pickup areas of the both cameras are set so that one part can be overlapped. When an object 100 such as a vehicle is present in the overlapped area, it is image picked-up by the both cameras, and only an extracted result obtained by one camera is adopted for the objective data in the overlapped area. The object extracted result is stored in a memory, and the lane entrance and exit of the vehicle is discriminated from the past history. Also, when the object can be extracted from only one camera although the object is present in the overlapped area, it is judged that the object is also present in the other camera, and the processing is executed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は路上監視装置、特に
道路の進行方向に沿ってカメラ等の撮像手段を複数配置
して監視する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a road monitoring device, and more particularly to a device for monitoring by arranging a plurality of imaging means such as cameras along a traveling direction of a road.

【0002】[0002]

【従来の技術】従来より、路上の監視カメラで道路の状
況、特に車両の走行状況を監視する監視システムが開発
されている。例えば、特公昭63−57840号公報に
は、道路の進行方向に沿って複数のテレビカメラを配置
し、得られた画像から車両の移動速度等を算出して交通
渋滞を検出する技術が開示されている。
2. Description of the Related Art Hitherto, a monitoring system has been developed which monitors the state of a road, particularly the running state of a vehicle, using a monitoring camera on the road. For example, Japanese Patent Publication No. 63-57840 discloses a technique in which a plurality of television cameras are arranged along a traveling direction of a road, and a moving speed of a vehicle is calculated from an obtained image to detect traffic congestion. ing.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、路面を
確実に監視する場合には、隣接するカメラの撮像領域を
隙間なく、時には互いに重複させて配置することが必要
となるが、単に撮像領域のみをこのように配置したので
は、例えば車両がその重複領域に存在する場合には、隣
接するカメラで共にその車両を撮影することになり、本
来は単一の物体であるにもかかわらず2つの物体が路上
に存在すると誤検出することになる。
However, in order to reliably monitor the road surface, it is necessary to arrange the imaging areas of adjacent cameras without any gaps, sometimes overlapping each other. With such an arrangement, for example, if a vehicle exists in the overlapping area, an adjacent camera will photograph the vehicle together. Will be erroneously detected if it exists on the road.

【0004】本発明は上記従来技術の有する課題に鑑み
なされたものであり、その目的は、複数のカメラの撮像
領域を互いに重複させて確実に物体を捉えるとともに、
物体の誤検出を無くして認識率の優れた路上監視装置を
提供することにある。
[0004] The present invention has been made in view of the above-mentioned problems of the prior art, and an object of the present invention is to overlap an image pickup area of a plurality of cameras with each other to reliably capture an object.
It is an object of the present invention to provide a road monitoring device having an excellent recognition rate by eliminating erroneous detection of an object.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、第1の発明は、道路の進行方向に沿ってその撮像領
域が互いに重複するように複数配置された撮像手段によ
り路上を監視する路上監視装置であって、各撮像手段で
得られた画像データから各撮像領域に存在する物体を抽
出する抽出手段と、抽出物体が隣接する撮像領域の重複
領域に存在する場合に、一方の抽出手段での前記重複領
域の抽出結果を選択的に出力する処理手段とを有するこ
とを特徴とする。これにより、本来単一である物体を異
なる2つの物体と誤認識することを有効に防止できる。
In order to achieve the above object, a first aspect of the present invention is to monitor a road by a plurality of image pickup means arranged so that image pickup areas thereof overlap with each other along a traveling direction of the road. A road surveillance device, comprising: an extraction unit for extracting an object present in each imaging region from image data obtained by each imaging unit; and extracting one of the extracted objects when the extracted object is present in an overlapping region of an adjacent imaging region. Processing means for selectively outputting the result of extraction of the overlapping area by the means. As a result, it is possible to effectively prevent erroneous recognition of an originally single object as two different objects.

【0006】また、第2の発明は、第1の発明におい
て、異なる時間における複数の抽出結果から路上の障害
物を検出する検出手段をさらに有することを特徴とす
る。
According to a second aspect of the present invention, in the first aspect, there is further provided a detecting means for detecting an obstacle on the road from a plurality of extraction results at different times.

【0007】また、第3の発明は、第1または第2の発
明において、前記撮像手段は路側に設けられて路面の幅
方向を撮影し、かつ、前記処理手段は抽出物体が隣接す
る撮像領域の重複領域に存在する場合に、隣接する他方
の撮像手段でもその物体を撮影したものとみなして処理
することを特徴とする。これにより、例えば逆光や陰等
の環境要因により一つの撮像手段で物体を撮影できなく
ても、他の撮像手段で物体を撮影することができれば確
かにその物体が存在するとして処理するので、環境状況
によらず物体認識率が向上する。
In a third aspect based on the first or second aspect, the image pickup means is provided on a road side to take an image in the width direction of the road surface, and the processing means comprises an image pickup area adjacent to the extracted object. In the case where the object exists in the overlapping area, the other adjacent image pickup means performs the processing assuming that the object has been photographed. Thus, even if an object cannot be photographed by one image pickup device due to environmental factors such as backlight or shade, if the object can be photographed by another image pickup device, it is processed as if the object is present. The object recognition rate is improved regardless of the situation.

【0008】[0008]

【発明の実施の形態】BEST MODE FOR CARRYING OUT THE INVENTION

<第1実施形態>以下、図面に基づき本発明の実施形態
について説明する。
<First Embodiment> An embodiment of the present invention will be described below with reference to the drawings.

【0009】図1には、撮像手段としてのカメラの配置
及びその撮像領域が示されている。カメラA、B、C、
Dが路面を俯瞰するように道路の進行方向に沿って間隔
dで配置されており、それぞれのカメラは画角θで路面
を撮影する。図中点線がそれぞれのカメラの撮像領域を
示しており、隣接する撮像領域は互いに一部重複するよ
うに設定される。
FIG. 1 shows the arrangement of a camera as an image pickup means and its image pickup area. Cameras A, B, C,
D is arranged at intervals d along the traveling direction of the road so that D looks down on the road surface, and each camera photographs the road surface at an angle of view θ. In the figure, dotted lines indicate the imaging regions of the respective cameras, and adjacent imaging regions are set so as to partially overlap each other.

【0010】図2には、図1におけるカメラAとカメラ
Bの撮影状況が示されている。図2(A)は図1におい
てカメラAとカメラBのみを抽出した平面図、図2
(B)はカメラAとカメラBを横から見た図である。カ
メラA及びカメラBの撮影中心軸は鉛直面に対してφの
角度をなし(チルト角φ)、上述したように画角θで前
方路面を撮影する。車両などの物体100がカメラBの
画角内に存在すると物体100はカメラBで捕捉される
が、物体100がカメラAとカメラBの撮像領域の重複
範囲に存在すると、カメラBのみならずカメラAでも捕
捉される。例えば、物体100がカメラBの撮影中心軸
上に存在すると、この物体100はカメラAでも中心軸
からθA の位置で撮影されることになる。
FIG. 2 shows a photographing situation of the cameras A and B in FIG. FIG. 2A is a plan view showing only the cameras A and B extracted in FIG.
(B) is a diagram of the camera A and the camera B viewed from the side. The photographing center axes of the cameras A and B form an angle of φ with respect to the vertical plane (tilt angle φ), and photograph the front road surface at the angle of view θ as described above. When the object 100 such as a vehicle exists within the angle of view of the camera B, the object 100 is captured by the camera B. However, when the object 100 exists in the overlapping range of the imaging area of the camera A and the camera B, not only the camera B but also the camera B A is also captured. For example, if the object 100 exists on the photographing center axis of the camera B, the object A is photographed by the camera A at a position θA from the center axis.

【0011】図3には、図2のような位置に物体100
が存在する場合のカメラAとカメラBの画像が簡略的に
示されている。図3(A)がカメラAによる画像であ
り、図3(B)がカメラBによる画像である。物体10
0はカメラAでは中心からφAの位置に存在し、カメラ
Bでは中心に位置する。なお、各画像において点線で示
す領域は撮像領域の重複範囲200である。
FIG. 3 shows an object 100 at a position as shown in FIG.
The image of the camera A and the image of the camera B in the case where is present is shown in a simplified manner. FIG. 3A shows an image obtained by the camera A, and FIG. Object 10
0 is located at a position φA from the center of the camera A, and is located at the center of the camera B. The area indicated by the dotted line in each image is the overlapping range 200 of the imaging area.

【0012】このように、物体が撮像領域の重複範囲に
存在する場合には、隣接する2つのカメラで同時にその
物体を撮影することになるので、単に各カメラで得られ
た画像を処理して物体を抽出したのでは、本来同一物体
でありながら異なる2つの物体が存在すると誤検出して
しまう。
As described above, when an object exists in the overlapping range of the imaging region, the object is photographed by two adjacent cameras at the same time. Therefore, an image obtained by each camera is simply processed. If an object is extracted, it is erroneously detected that there are two different objects that are originally the same object.

【0013】そこで、本実施形態では、予め既知である
画像内の重複範囲に物体が存在する場合には、隣接する
カメラの内いずれか一方のカメラでの重複領域の抽出結
果のみを選択的に採用することで誤検出を有効に防止し
ている。
Therefore, in the present embodiment, when an object exists in an overlapping range in an image that is known in advance, only the result of extracting the overlapping area by one of the adjacent cameras is selectively used. By adopting it, erroneous detection is effectively prevented.

【0014】図4には、本実施形態の路上監視装置の構
成ブロック図が示されている。なお、図1では、カメラ
A、B、C、Dとしたが、カメラの数は任意であるの
で、ここでは一般化してカメラn、n+1、n+2・・
とする(nは1以上の自然数)。各カメラには物体抽出
部10が接続されており、得られた画像はこれら物体抽
出部10に供給される。物体抽出部10はA/Dコンバ
ータや画像処理コンピュータを含んで構成され、入力画
像から物体を抽出する。物体には静止物体及び移動物体
があるが、静止物体は予め物体の存在しない背景画像を
取得して入力画像と背景画像の差分を演算することで静
止物体を抽出でき、また、移動物体は例えばオプティカ
ルフローを算出することで抽出できる。なお、オプティ
カルフローとは、動画像内の相対的速度ベクトルで、時
間的に連続する2つの画像において、適当なサイズのテ
ンプレートを用いて対応付けを行い、その変位を算出す
ることで抽出できる。オプティカルフローベクトルの方
向がその物体の移動方向を示し、ベクトルの大きさが物
体の速度の大きさを示すことになる。物体抽出部10で
抽出された静止物体の位置や大きさのデータ及び移動物
体の位置や大きさ並びに速度データは、オーバラップ判
定部12に供給される。オーバラップ判定部12はマイ
クロコンピュータを有しており、入力した静止物体や移
動物体が重複領域に存在する物体か否かを判定する。具
体的には、オーバラップ判定部12には、自身のカメラ
で得られた画像から抽出された物体データのみならず、
隣接する2つのカメラで得られた画像から抽出された物
体データが供給され、予め画像内で既知の重複領域にこ
れらの物体が存在するか否かをその位置データに基づい
て判定する。
FIG. 4 is a block diagram showing the configuration of the road monitoring apparatus according to this embodiment. In FIG. 1, cameras A, B, C, and D are used. However, since the number of cameras is arbitrary, generalized cameras n, n + 1, n + 2,.
(N is a natural number of 1 or more). An object extraction unit 10 is connected to each camera, and the obtained image is supplied to these object extraction units 10. The object extracting unit 10 includes an A / D converter and an image processing computer, and extracts an object from an input image. Objects include a stationary object and a moving object, but a stationary object can be extracted by acquiring a background image in which no object exists in advance and calculating the difference between the input image and the background image. It can be extracted by calculating the optical flow. Note that the optical flow is a relative velocity vector in a moving image, and can be extracted by associating two temporally continuous images using a template of an appropriate size and calculating the displacement. The direction of the optical flow vector indicates the moving direction of the object, and the magnitude of the vector indicates the magnitude of the velocity of the object. The position and size data of the stationary object and the position, size and velocity data of the moving object extracted by the object extracting unit 10 are supplied to the overlap determining unit 12. The overlap determination unit 12 includes a microcomputer, and determines whether the input stationary object or moving object is an object existing in the overlapping area. Specifically, the overlap determination unit 12 includes not only the object data extracted from the image obtained by its own camera,
Object data extracted from images obtained by two adjacent cameras is supplied, and it is determined in advance whether these objects exist in a known overlapping area in the image based on the position data.

【0015】例えば、カメラn+1に接続されているオ
ーバラップ判定部(n+1)には、自身のカメラn+1
の物体抽出部からの物体データと、カメラnの物体抽出
部からの物体データと、カメラn+2の物体抽出部から
の物体データが供給される。そして、カメラnとカメラ
n+1の撮像領域の重複範囲の位置データP(既知)と
カメラnの物体抽出部からの物体の位置データ及びカメ
ラn+1の物体抽出部からの物体の位置データを照合
し、これらの物体の位置データがPに含まれている場合
には、同一物体であると判定して、カメラnの物体抽出
部からの物体データは採用せず、カメラn+1の物体抽
出部からの物体データのみを選択的に出力する。さら
に、カメラn+1とカメラn+2の撮像領域の重複範囲
の位置データP´(既知)とカメラn+1の物体抽出部
からの物体の位置データ及びカメラn+2の物体抽出部
からの物体の位置データを照合し、これらの位置データ
がP´に含まれている場合には、同一物体と判定する
が、カメラn+1の物体抽出部からの物体データは出力
せず、このデータはオーバラップ判定部n+2から出力
する。すなわち、 カメラn−1とカメラnの重複範囲 → カメラnの抽
出結果をオーバラップ判定部nで出力 カメラnとカメラn+1の重複範囲 → カメラn+1
の抽出結果をオーバラップ判定部n+1で出力 カメラn+1とカメラn+2の重複範囲→カメラn+2
の抽出結果をオーバラップ判定部n+2で出力 等となる。これにより、重複範囲に存在する物体のデー
タは、隣接するカメラのうち進行方向後よりのカメラか
ら出力されることになり、本来1つの物体であることに
対応して1つの物体データのみを出力できる。なお、隣
接するカメラの撮像領域と重複しない領域にある物体デ
ータは、そのまま出力されることは言うまでもない。こ
のような物体データは、例えばカメラn+1について言
えば、カメラn+1の撮像領域のうちカメラnとの重複
領域の位置データP及びカメラn+2との重複領域P´
の位置データのいずれにも含まれない物体データであ
る。オーバラップ判定部12からの物体データは、全て
入出線車両認識部14に供給される。入出線車両認識部
14は、マイクロコンピュータ及びメモリを含んで構成
され、入力したデータを順次メモリに記憶していく。そ
して、これら時系列の物体データの相関関係に基づい
て、各物体の移動状況を追跡する。例えば、過去に存在
しないにもかかわらず、ある時刻tで移動物体が存在す
る場合には、この物体はカメラが設置されている走行レ
ーンに新たに進入した車両であると認識し、逆に過去に
移動存在した移動物体がある時刻tを境に存在しなくな
った物体はレーン逸脱車両と認識する。また、過去に存
在しないのに、ある時刻tを境に存在する静止物体はレ
ーン上の落下物と認識する。このようにして認識した結
果は、管理センタ等に送られ、レーンを走行する各車両
に適宜報知される。
For example, the overlap determination unit (n + 1) connected to the camera n + 1 has its own camera n + 1.
, The object data from the object extraction unit of camera n, and the object data from the object extraction unit of camera n + 2. Then, the position data P (known) of the overlapping range of the imaging area of the camera n and the camera n + 1 is compared with the position data of the object from the object extraction unit of the camera n and the position data of the object from the object extraction unit of the camera n + 1, If the position data of these objects is included in P, it is determined that they are the same object, the object data from the object extraction unit of camera n is not adopted, and the object data from the object extraction unit of camera n + 1 is not used. Selectively output data only. Further, the position data P ′ (known) of the overlapping range of the imaging area of the camera n + 1 and the camera n + 2 is compared with the position data of the object from the object extraction unit of the camera n + 1 and the position data of the object from the object extraction unit of the camera n + 2. When these position data are included in P ′, it is determined that the objects are the same, but the object data from the object extracting unit of camera n + 1 is not output, and this data is output from the overlap determining unit n + 2. . That is, the overlapping range of camera n−1 and camera n → the extraction result of camera n is output by the overlap determination unit n. The overlapping range of camera n and camera n + 1 → camera n + 1
Is output by the overlap determination unit n + 1. The overlapping range of camera n + 1 and camera n + 2 → camera n + 2
Is output by the overlap determination unit n + 2. As a result, the data of the object existing in the overlapping range is output from the camera in the direction of travel among the adjacent cameras, and only one object data is output in response to the fact that the camera is originally one object. it can. It goes without saying that object data in an area that does not overlap with an imaging area of an adjacent camera is output as it is. Such object data includes, for example, the position data P of the overlapping area with the camera n and the overlapping area P ′ with the camera n + 2 in the imaging area of the camera n + 1 for the camera n + 1.
The object data is not included in any of the position data. All the object data from the overlap determination unit 12 is supplied to the incoming / outgoing line vehicle recognition unit 14. The incoming / outgoing line vehicle recognition unit 14 includes a microcomputer and a memory, and sequentially stores input data in the memory. Then, the movement status of each object is tracked based on the correlation between these time-series object data. For example, if there is a moving object at a certain time t even though it does not exist in the past, the object is recognized as a vehicle that has newly entered the driving lane where the camera is installed, and conversely, Is recognized as a vehicle that has departed from the lane when the moving object that has moved and no longer exists after a certain time t. In addition, a stationary object that does not exist in the past but exists at a certain time t is recognized as a falling object on the lane. The result recognized in this way is sent to a management center or the like, and is appropriately notified to each vehicle traveling on the lane.

【0016】図5には、本実施形態の路上監視装置の全
体処理フローチャートが示されている。まず、各カメラ
から画像を入力し(S101)、物体抽出部10で静止
物体及び移動物体を認識する(S102)。物体データ
はオーバラップ判定部12に出力され、オーバラップ処
理が行われる(S103)。
FIG. 5 is a flowchart showing the overall processing of the road monitoring apparatus according to this embodiment. First, an image is input from each camera (S101), and a stationary object and a moving object are recognized by the object extraction unit 10 (S102). The object data is output to the overlap determination unit 12, and the overlap processing is performed (S103).

【0017】図6には、S103のオーバラップ処理の
詳細なフローチャートが示されている。まず、n番目の
カメラでの認識結果及びn+1番目のカメラでの認識結
果を読み出す(S201)。そして、n番目のカメラと
n+1番目のカメラのオーバラップ領域に位置するn番
目カメラでの認識物体とn+1番目のカメラでの認識物
体を抽出する(S202)。オーバラップ領域の物体を
抽出した後、オーバラップ領域にありn番目カメラによ
る認識とn+1番目カメラによる認識が重複する物体
は、n番目カメラによる認識結果から消去してn+1番
目カメラの認識物体のみを選択的に出力する(S20
3)。
FIG. 6 shows a detailed flowchart of the overlap processing in S103. First, the recognition result of the nth camera and the recognition result of the (n + 1) th camera are read (S201). Then, a recognition object of the nth camera and a recognition object of the (n + 1) th camera located in the overlap region of the nth camera and the (n + 1) th camera are extracted (S202). After extracting the object in the overlap area, the object in the overlap area, in which the recognition by the nth camera and the recognition by the (n + 1) th camera overlap, is deleted from the recognition result by the nth camera, and only the recognition object of the (n + 1) th camera is removed. Selectively output (S20
3).

【0018】図5に戻り、以上のようにしてオーバラッ
プ処理が完了すると、認識物体データは入出線車両認識
部14に供給される。入出線車両認識部14では、認識
物体の位置及び速度データを抽出し(S104)、メモ
リに記憶されている前回の物体位置及び速度を読み出し
て(S105)、前回と今回の物体データを照合する
(S106)。
Returning to FIG. 5, when the overlap processing is completed as described above, the recognized object data is supplied to the incoming / outgoing line vehicle recognition unit 14. The incoming / outgoing line vehicle recognition unit 14 extracts the position and speed data of the recognized object (S104), reads out the previous object position and speed stored in the memory (S105), and compares the previous and current object data. (S106).

【0019】図7には、S106のマッチング処理の詳
細なフローチャートが示されている。まず、前回の認識
物体の位置及び速度データをメモリから読み出す(S3
01)。次に、前回の位置及び速度データから現在の位
置を推定する(S302)。この推定は、現在と前回の
時間間隔に前回の物体の速度データを乗算することによ
り行われる。そして、推定位置にある今回の認識物体と
前回物体とをその形状データから対応づけ(S30
3)、推定位置に今回の物体が存在するか(存続物
体)、前回存在して今回存在しないか(消滅物体)、前
回存在しなくて今回存在するか(発生物体)を判別する
(S304)。さらに、これら存続物体、発生物体の位
置及び車速をメモリに記憶する(S305)。なお、消
滅物体は、既述したようにレーンを逸脱した車両と考え
られるので、メモリに記憶することなく追跡を終了す
る。
FIG. 7 shows a detailed flowchart of the matching processing in S106. First, the previous position and speed data of the recognized object are read from the memory (S3).
01). Next, the current position is estimated from the previous position and speed data (S302). This estimation is performed by multiplying the current time interval and the previous time interval by the previous object velocity data. Then, the current recognition object at the estimated position and the previous object are associated with each other based on the shape data (S30).
3) It is determined whether the present object exists at the estimated position (surviving object), whether it exists last time and does not exist this time (disappearing object), or whether it does not exist last time and exists this time (occurring object) (S304). . Further, the position and the vehicle speed of the surviving object and the generated object are stored in the memory (S305). Note that the disappearing object is considered to be a vehicle that has deviated from the lane as described above, and thus the tracking ends without being stored in the memory.

【0020】再び図5に戻り、物体のマッチング処理が
終了すると、次に障害物・故障車の判定処理に移行する
(S107)。図8には、この処理のフローチャートが
示されており、まず存続物体の位置及び速度を読み出す
(S401)。そして、過去の存続物体の位置及び車速
の履歴をメモリから読み出し(S402)、過去の車速
履歴から減速していると判定され、かつ現在静止してい
る存続物体は故障車と判定する(S403)。次に、発
生物体が存在する場合には、その物体の位置及び速度を
読み出し(S404)、現在停止している発生物体を障
害物として判定する(S405)。
Returning to FIG. 5 again, when the object matching process is completed, the process proceeds to an obstacle / failed vehicle determination process (S107). FIG. 8 shows a flowchart of this processing. First, the position and velocity of the surviving object are read (S401). Then, the history of the position and the vehicle speed of the past surviving object is read from the memory (S402), and the surviving object that is determined to be decelerating from the past vehicle speed history and that is currently stationary is determined to be a malfunctioning vehicle (S403). . Next, when the generated object is present, the position and speed of the object are read out (S404), and the currently stopped generated object is determined as an obstacle (S405).

【0021】このようにして障害物及び故障車を判定す
ると、次に車両の入出判定を行う(S108)。図9
は、この入出判定の詳細フローチャートであり、まず消
滅物体の位置及び速度データを読み出す(S501)。
そして、過去の消滅物体の位置及び車速履歴を読み出し
(S502)、消滅物体のレーン外れ判定と外れ位置を
推定する(S503)。外れ位置は、消滅物体の位置と
速度から推定される。一方、発生物体については、その
位置及び速度データを読み出し(S504)、発生物体
のレーン入り判定と入り位置を推定する(S505)。
入り位置は、発生物体の位置と速度から推定される。
When the obstacle and the malfunctioning vehicle are determined in this way, the vehicle is judged to enter or exit (S108). FIG.
Is a detailed flowchart of this entry / exit determination. First, the position and velocity data of the disappearing object are read (S501).
Then, the past position and vehicle speed history of the disappearing object are read out (S502), and the out-of-lane determination of the disappearing object and the off-lane position are estimated (S503). The off position is estimated from the position and speed of the disappearing object. On the other hand, the position and speed data of the generated object are read out (S504), and the lane entry determination and the entry position of the generated object are estimated (S505).
The entry position is estimated from the position and speed of the generated object.

【0022】以上のようにして車両の入出判定が完了す
ると、道路の管制システムに対してレーン状況を伝達す
る(S109)。レーン状況を得た管制システムでは、
その状況に応じた適切な情報をレーンを走行する各車両
に報知する。例えば、故障車が存在する場合には、後続
車両に注意警報を与えるとともに所定の修理車両の出動
を要請するる入線車両に対しては、レーンの流れに合っ
た走行を行うための適当な車速を指示する等である。
When the entry / exit determination of the vehicle is completed as described above, the lane condition is transmitted to the road control system (S109). In the traffic control system that obtained the lane status,
Appropriate information according to the situation is reported to each vehicle traveling on the lane. For example, if there is a faulty vehicle, a warning speed is given to the following vehicle and an appropriate vehicle speed for traveling in line with the lane flow is given to the incoming line vehicle requesting the dispatch of a predetermined repair vehicle. And so on.

【0023】<第2実施形態>上述した実施形態では、
カメラを道路の進行方向に沿って配置したが、カメラを
路側の一方に配置し、路面の幅方向を撮影するようにし
てもよい。
<Second Embodiment> In the above embodiment,
Although the camera is arranged along the traveling direction of the road, the camera may be arranged on one side of the road to photograph the width direction of the road surface.

【0024】図10には、このように複数のカメラを路
側の一方に配置した場合が示されている。焦点距離の等
しいカメラA、B、Cは路側に等間隔で配置され、等し
いチルト角で路面の幅方向を撮影する。各撮像領域は互
いにその一部が重複するように設定される。このような
配置においても、第1実施形態と同様にオーバラップ領
域に存在する物体に対しては、隣接するカメラの内一方
の認識結果のみを選択的に出力することで、誤検出を確
実に防止することができる。
FIG. 10 shows a case where a plurality of cameras are arranged on one side of the road. The cameras A, B, and C having the same focal length are arranged at equal intervals on the road side, and photograph the width direction of the road surface at the same tilt angle. Each imaging region is set so that a part thereof overlaps each other. Even in such an arrangement, erroneous detection is reliably performed for an object existing in the overlap region as in the first embodiment by selectively outputting only one recognition result of an adjacent camera. Can be prevented.

【0025】また、このように配置した場合には、太陽
光の影響も受けにくい利点がある。すなわち、昼間で太
陽が天頂付近にある場合はともかく、太陽が地平線付近
に存在する場合には、路側の構造物の陰が路面にまで延
び、物体がこの陰に入ってしまう場合もあり得る。図1
0には、このような状況も示されており、路側構造物3
00の陰が路面に延び、路面上の物体100がこの陰に
入っている。すると、この陰の延長方向に配置されてい
るカメラでは、物体を十分明瞭に撮影することができ
ず、物体を抽出することが困難となる。ところが、他の
カメラでは、この陰の影響をあまり受けずに撮影するこ
とができるので、物体が撮像領域の重複範囲に存在すれ
ば、この物体を撮影することができる。
In addition, in such an arrangement, there is an advantage that it is hardly affected by sunlight. That is, aside from the case where the sun is near the zenith in the daytime, if the sun is near the horizon, the shadow of the roadside structure may extend to the road surface, and the object may enter the shadow. FIG.
0 indicates such a situation, and the roadside structure 3
The shadow of 00 extends to the road surface, and the object 100 on the road surface is in the shadow. Then, the camera arranged in the direction of extension of the shade cannot capture the object sufficiently clearly, making it difficult to extract the object. However, other cameras can take an image without being affected by the shadow, so that the object can be taken if the object exists in the overlapping range of the imaging region.

【0026】図11には、物体が重複領域に存在する場
合に、隣接するカメラA、Bで得られる画像が模式的に
示されている。図11(A)はカメラAの画像であり、
図11(B)はカメラBの画像である。カメラBは陰の
延長方向(いわゆる逆光方向)にあるため物体100の
コントラストは十分ではないが、カメラAでは方向が異
なるため物体100を撮影できる。従って、隣接するカ
メラBで物体を抽出できなくても、カメラAで物体を抽
出できれば、カメラBでもその物体が存在するはずであ
るとみなして処理することで、太陽光の影響を受けずに
物体を確実に検出することが可能となる。
FIG. 11 schematically shows images obtained by adjacent cameras A and B when an object exists in the overlapping area. FIG. 11A is an image of camera A,
FIG. 11B is an image of the camera B. The contrast of the object 100 is not sufficient because the camera B is in the extension direction of the shadow (so-called backlight direction), but the camera A can photograph the object 100 because the direction is different. Therefore, even if the object cannot be extracted by the adjacent camera B, if the object can be extracted by the camera A, the camera B performs the processing by assuming that the object should exist. An object can be reliably detected.

【0027】図12には、本実施形態における処理フロ
ーチャートが示されている。なお、本実施形態の構成
は、図4に示された第1実施形態の構成と同様であり、
また、説明の都合上、カメラA及びカメラBで得られた
画像A及び画像Bの処理を示す。まず、画像A及び画像
Bを入力し、各々の画像で物体を抽出する(S60
1)。抽出した物体データはオーバラップ判定部に供給
され、画像A及び画像Bの重複領域に物体が存在するか
否かを判定する(S602)。判定の方法は、第1実施
形態と同様であり、物体の位置データが予め既知の重複
範囲に属するか否かで判定できる。物体が重複範囲に存
在する場合には、画像A、Bの各対応位置に物体が存在
するか否かを判別する(S603)。具体的には、カメ
ラAの位置とカメラBの位置関係から、画像A上の位置
と画像B上の位置には1:1の対応関係ができるから、
抽出された物体の画像Aにおける位置と画像Bにおける
位置がこの対応関係にあるか否かを判定することにな
る。そして、両画像に対応物体が存在する場合(S60
4でYESの場合)には、画像A、Bで抽出された物体
を同一物体と認識して(S610)、検出位置に物体有
りと認識すると共に一方の認識結果を消去する(S61
1)。また、例えば図10のように太陽光の影響で画像
A及び画像Bのいずれかで物体を抽出できない場合に
は、S604でNOと判定されるから、どちらの画像に
物体があるかを判定する(S605)。すなわち、重複
領域に存在するにもかかわらず画像Aに物体があり画像
Bに物体がない場合には、画像Aに存在する物体は画像
Bにも存在するはずであると推定し(S608)、画像
Bの抽出結果に画像Aで抽出した結果を付加するととも
に画像Aの検出位置に物体があると認識する(S60
9)。そして、オーバラップ判定部は、両画像のいずれ
か一方の抽出結果のみを出力し、他方の抽出結果を消去
する。なお、画像Aの抽出結果を画像Bに付加するので
はなく、単に画像Aの抽出結果のみを出力してもよい。
また、重複領域に存在するにもかかわらず画像Bに物体
があり画像Aに物体がない場合には、画像Bに存在する
物体は画像Aにも存在するはずであると推定し(S60
6)、画像Bの抽出結果に画像Aで抽出した結果を付加
するとともに画像Aの検出位置に物体があると認識する
(S607)。
FIG. 12 shows a processing flowchart in this embodiment. The configuration of the present embodiment is similar to the configuration of the first embodiment shown in FIG.
In addition, for convenience of explanation, processing of images A and B obtained by cameras A and B will be described. First, an image A and an image B are input, and an object is extracted from each image (S60).
1). The extracted object data is supplied to the overlap determination unit, and it is determined whether or not the object exists in the overlapping area of the image A and the image B (S602). The determination method is the same as in the first embodiment, and it can be determined based on whether or not the position data of the object belongs to a known overlapping range in advance. If the object exists in the overlapping range, it is determined whether the object exists at each corresponding position of the images A and B (S603). Specifically, from the positional relationship between the position of the camera A and the position of the camera B, there is a 1: 1 correspondence between the position on the image A and the position on the image B.
It is determined whether or not the position of the extracted object in the image A and the position in the image B have this correspondence. Then, when a corresponding object exists in both images (S60
In the case of YES in step 4), the objects extracted from the images A and B are recognized as the same object (S610), and it is recognized that there is an object at the detection position and one recognition result is deleted (S61).
1). If an object cannot be extracted from either image A or image B due to the influence of sunlight as shown in FIG. 10, for example, NO is determined in S604, and it is determined which image has the object. (S605). That is, when there is an object in the image A and no object in the image B despite being present in the overlapping area, it is estimated that the object existing in the image A should also exist in the image B (S608). The result of extracting the image A is added to the result of extracting the image B, and it is recognized that an object is present at the detection position of the image A (S60).
9). Then, the overlap determination unit outputs only one of the extraction results of the two images, and deletes the other extraction result. Note that instead of adding the extraction result of the image A to the image B, only the extraction result of the image A may be output.
If there is an object in image B and no object in image A despite being in the overlapping area, it is estimated that the object present in image B should also be present in image A (S60).
6) The result of extracting the image A is added to the result of extracting the image B, and it is recognized that there is an object at the detection position of the image A (S607).

【0028】一方、画像A及び画像Bの重複領域に物体
が存在しない場合には、S602でNOと判定され、次
に各画像の固有領域に物体が存在するか否かを判定する
(S612)。固有領域とは、撮像領域のうち重複領域
でない領域をいい、カメラAでのみ撮影可能な領域、あ
るいはカメラBでのみ撮影可能な領域を意味する。そし
て、この固有領域に物体が存在する場合には、その位置
に物体有りと認識し(S613)、固有領域にも物体が
存在しない場合には、カメラA及びカメラBの撮像領域
には物体はないと判定する(S614)。
On the other hand, if no object exists in the overlapping area of the image A and the image B, NO is determined in S602, and then it is determined whether an object exists in the unique area of each image (S612). . The unique region is a region that is not an overlapping region in the imaging region, and means a region that can be photographed only by the camera A or a region that can be photographed only by the camera B. If an object exists in this unique region, it is recognized that there is an object at that position (S613). If there is no object in the unique region, the object is located in the imaging region of camera A and camera B. It is determined that there is not (S614).

【0029】このように、本実施形態では、物体が撮像
領域の重複範囲にあるにもかかわらず一方のカメラでし
か物体が抽出されない場合にも、他方のカメラの対応す
る位置に物体が存在するとみなして処理を行うので、撮
影状況によらず路上物体を確実に検出することができ
る。
As described above, in the present embodiment, even if an object is extracted by only one camera even though the object is in the overlapping range of the imaging region, it is determined that the object exists at the corresponding position of the other camera. Since the processing is performed assuming that the object is on the road, it is possible to reliably detect the road object regardless of the shooting situation.

【0030】なお、上記実施形態では、焦点距離の等し
いカメラを等間隔で配置し、かつ等チルト角で路面を撮
影するとしたが、各カメラ間でこれらが異なる場合でも
同様に処理できることは言うまでもない。
In the above embodiment, the cameras having the same focal length are arranged at equal intervals and the road surface is photographed at the same tilt angle. However, it is needless to say that the same processing can be performed even when the cameras are different. .

【0031】また、第2実施形態のように、路側の一方
にカメラを配置した場合には、画角との関係で路面に撮
影できない死角領域が生じるので(特にカメラ間の路側
付近)、例えば図13に示すように、カメラAを一方の
路側、次のカメラBを他方の路側、次のカメラCを再び
一方の路側・・というようにカメラを交互に路側の両側
に配置して撮影の死角領域を無くすことも可能であり、
これにより一層確実に路上物体を検出することができ
る。
Further, when the camera is arranged on one side of the road as in the second embodiment, there is a blind spot area which cannot be photographed on the road surface due to the angle of view (particularly near the road between the cameras). As shown in FIG. 13, the cameras are alternately arranged on both sides of the roadside, such as the camera A on one roadside, the next camera B on the other roadside, the next camera C again on one roadside, and so on. It is also possible to eliminate the blind spot area,
This makes it possible to more reliably detect a road object.

【0032】[0032]

【発明の効果】以上説明したように、本発明の路上監視
装置によれば、複数のカメラの撮像領域を互いに重複さ
せて確実に物体を捉えるとともに、物体の誤検出を無く
して認識率を上げることができる。
As described above, according to the road monitoring apparatus of the present invention, the image pickup areas of a plurality of cameras can be overlapped with each other to reliably capture an object, and erroneous detection of the object can be eliminated to increase the recognition rate. be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1実施形態のカメラ配置説明図で
ある。
FIG. 1 is an explanatory diagram of a camera arrangement according to a first embodiment of the present invention.

【図2】 カメラA及びカメラBの撮像領域説明図であ
る。
FIG. 2 is an explanatory diagram of an imaging area of a camera A and a camera B;

【図3】 カメラA及びカメラBの画像の説明図及び重
複領域説明図である。
FIG. 3 is an explanatory diagram of an image of a camera A and a camera B and an explanatory diagram of an overlapping area.

【図4】 本発明の実施形態の構成ブロック図である。FIG. 4 is a configuration block diagram of an embodiment of the present invention.

【図5】 本発明の実施形態の全体処理フローチャート
である。
FIG. 5 is an overall processing flowchart of the embodiment of the present invention.

【図6】 オーバラップ処理のフローチャートである。FIG. 6 is a flowchart of an overlap process.

【図7】 物体のマッチング処理のフローチャートであ
る。
FIG. 7 is a flowchart of an object matching process.

【図8】 障害物及び故障車の判定処理フローチャート
である。
FIG. 8 is a flowchart of a process for determining an obstacle and a failed vehicle.

【図9】 レーン入出判定処理フローチャートである。FIG. 9 is a flowchart of lane entry / exit determination processing.

【図10】 本発明の第2実施形態のカメラ配置説明図
である。
FIG. 10 is an explanatory diagram of a camera arrangement according to a second embodiment of the present invention.

【図11】 カメラA及びカメラBの画像の説明図であ
る。
FIG. 11 is an explanatory diagram of images of cameras A and B.

【図12】 第2実施形態の全体処理フローチャートで
ある。
FIG. 12 is an overall processing flowchart of the second embodiment.

【図13】 本発明の他のカメラ配置説明図である。FIG. 13 is an explanatory view of another camera arrangement according to the present invention.

【符号の説明】[Explanation of symbols]

10 物体抽出部、12 オーバラップ判定部、14
入出線車両認識部、100 物体(車両)、200 重
複領域、300 路側構造物。
10 object extraction unit, 12 overlap judgment unit, 14
Incoming / outgoing line vehicle recognition unit, 100 objects (vehicles), 200 overlapping areas, 300 roadside structures.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 道路の進行方向に沿ってその撮像領域が
互いに重複するように複数配置された撮像手段により路
上を監視する路上監視装置であって、 各撮像手段で得られた画像データから各撮像領域に存在
する物体を抽出する抽出手段と、 抽出物体が隣接する撮像領域の重複領域に存在する場合
に、一方の抽出手段での前記重複領域の抽出結果を選択
的に出力する処理手段と、 を有することを特徴とする路上監視装置。
An on-road monitoring apparatus for monitoring a road by a plurality of image pickup means arranged so that image pickup areas thereof overlap with each other along a traveling direction of a road. Extracting means for extracting an object present in the imaging area; and processing means for selectively outputting an extraction result of the overlapping area by one of the extracting means when the extracted object is present in an overlapping area of an adjacent imaging area. A road surveillance device, comprising:
【請求項2】 異なる時間における複数の抽出結果から
路上の障害物を検出する検出手段をさらに有することを
特徴とする請求項1記載の路上監視装置。
2. The road monitoring apparatus according to claim 1, further comprising detection means for detecting an obstacle on the road from a plurality of extraction results at different times.
【請求項3】 前記撮像手段は路側に設けられて路面の
幅方向を撮影し、かつ、前記処理手段は抽出物体が隣接
する撮像領域の重複領域に存在する場合に、隣接する他
方の撮像手段でもその物体を撮影したものとみなして処
理することを特徴とする請求項1または請求項2記載の
路上監視装置。
3. An image pickup means provided on a road side for photographing a width direction of a road surface, and said processing means, when an extracted object is present in an overlapping area of an adjacent image pickup area, another adjacent image pickup means. The road monitoring apparatus according to claim 1 or 2, wherein the processing is performed assuming that the object is photographed.
JP15573196A 1996-06-17 1996-06-17 Road monitoring device Pending JPH103595A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15573196A JPH103595A (en) 1996-06-17 1996-06-17 Road monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15573196A JPH103595A (en) 1996-06-17 1996-06-17 Road monitoring device

Publications (1)

Publication Number Publication Date
JPH103595A true JPH103595A (en) 1998-01-06

Family

ID=15612228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15573196A Pending JPH103595A (en) 1996-06-17 1996-06-17 Road monitoring device

Country Status (1)

Country Link
JP (1) JPH103595A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258981A (en) * 2003-02-26 2004-09-16 Hitachi Ltd Vehicle monitoring method and device
CN1302094C (en) * 2004-01-18 2007-02-28 许晓华 Lubricating grease composition for motor gearbox
JP2010283722A (en) * 2009-06-08 2010-12-16 Alpine Electronics Inc Obstacle detector and obstacle detection method
CN114067554A (en) * 2020-08-05 2022-02-18 北京万集科技股份有限公司 Road side terminal abnormality detection method and device, computer equipment and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258981A (en) * 2003-02-26 2004-09-16 Hitachi Ltd Vehicle monitoring method and device
CN1302094C (en) * 2004-01-18 2007-02-28 许晓华 Lubricating grease composition for motor gearbox
JP2010283722A (en) * 2009-06-08 2010-12-16 Alpine Electronics Inc Obstacle detector and obstacle detection method
CN114067554A (en) * 2020-08-05 2022-02-18 北京万集科技股份有限公司 Road side terminal abnormality detection method and device, computer equipment and storage medium
CN114067554B (en) * 2020-08-05 2023-06-20 北京万集科技股份有限公司 Road side terminal abnormality detection method, device, computer equipment and storage medium

Similar Documents

Publication Publication Date Title
JP5679461B2 (en) Method and apparatus for determining valid lane markings
US6760061B1 (en) Traffic sensor
US6330511B2 (en) Danger deciding apparatus for motor vehicle and environment monitoring apparatus therefor
EP1895766B1 (en) Camera with two or more angles of view
JP3977802B2 (en) Obstacle detection device, obstacle detection method, and obstacle detection program
JPH06281455A (en) Vehicle environment monitoring device
US6810132B1 (en) Traffic monitoring apparatus
KR101710646B1 (en) System for recognizing front and back face of license plate using video tracking
WO2016052837A1 (en) Traffic monitoring system
KR20140027479A (en) Traffic lane recognition appartus
KR20200064873A (en) Method for detecting a speed employing difference of distance between an object and a monitoring camera
KR102111363B1 (en) Accident monitoring system in tunnel using camera grouping of IoT based
KR101522686B1 (en) Method for monitoring access control of vehicle and system thereof
JP5057750B2 (en) Toll collection system
JPH103595A (en) Road monitoring device
JPH10105863A (en) Travel route information collection device
JP2004258981A (en) Vehicle monitoring method and device
JP2002008019A (en) Railway track recognition device and rolling stock using railway track recognition device
JP2002002485A (en) Track recognition device and railway rolling stock using track recognition device
JPH10105690A (en) Wide area moving body following device
US11157755B2 (en) Image processing apparatus
KR102111362B1 (en) Linkage type vehicle monitoring system using camera grouping of IoT based
JP4013856B2 (en) Rear side warning device
JP2966683B2 (en) Obstacle detection device for vehicles
JP2735033B2 (en) Lane change detection apparatus and method