JP3456339B2 - Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device - Google Patents

Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device

Info

Publication number
JP3456339B2
JP3456339B2 JP12267796A JP12267796A JP3456339B2 JP 3456339 B2 JP3456339 B2 JP 3456339B2 JP 12267796 A JP12267796 A JP 12267796A JP 12267796 A JP12267796 A JP 12267796A JP 3456339 B2 JP3456339 B2 JP 3456339B2
Authority
JP
Japan
Prior art keywords
projection
image
vehicle
dimensional coordinates
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP12267796A
Other languages
Japanese (ja)
Other versions
JPH0933232A (en
Inventor
勝己 大橋
雅俊 來海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP12267796A priority Critical patent/JP3456339B2/en
Priority to TW85106539A priority patent/TW303443B/zh
Publication of JPH0933232A publication Critical patent/JPH0933232A/en
Application granted granted Critical
Publication of JP3456339B2 publication Critical patent/JP3456339B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、所定の観測位置にお
いて対象物を観測するための方法および装置に関連し、
さらにこの発明は、道路上の車輌を観測してその観測結
果の時間的な推移により、車輌の通過台数,車輌速度,
車種などのデータ(以下「交通流データ」と総称する)
を計測する交通流計測装置、ならびに駐車スペース内に
駐車する車輌を観測する駐車場観測装置に関する。
FIELD OF THE INVENTION The present invention relates to a method and apparatus for observing an object at a predetermined observation position,
Further, the present invention observes the vehicles on the road, and based on the temporal transition of the observation results, the number of vehicles passing, the vehicle speed,
Data such as vehicle type (collectively referred to as "traffic flow data" below)
The present invention relates to a traffic flow measuring device for measuring a traffic flow and a parking lot observation device for observing a vehicle parked in a parking space.

【0002】[0002]

【従来の技術】従来、交通流データを計測するものとし
て、道路の上方にカメラを設置して道路上の所定位置を
撮像し、得られた画像の時間的な推移から道路上におけ
る車輌の流れを計測する装置が開発されている。この装
置では、あらかじめ背景画像として道路上に対象物が存
在しない画像を記憶しており、前記カメラからの画像と
この背景画像との差分を車輌に関わる画像として抽出し
てゆき、その抽出結果を順次追跡することにより道路上
の車輌の流れを計測するようにしている(電気学会技術
報告 第512号 第80〜81頁)。また背景画像を
記憶する代わりに、1段階前に取り込んだ画像を記憶し
ておき、この直前の画像を最新の画像から差し引くこと
により車輌の位置の変化のみを抽出する方法も提案され
ている。
2. Description of the Related Art Conventionally, as a device for measuring traffic flow data, a camera is installed above a road to capture an image of a predetermined position on the road. A device for measuring is being developed. In this device, an image in which an object does not exist on the road is stored in advance as a background image, and the difference between the image from the camera and this background image is extracted as an image related to the vehicle, and the extraction result is extracted. The flow of the vehicle on the road is measured by sequentially tracking it (Technical Report of the Institute of Electrical Engineers of Japan No. 512, pp. 80-81). In addition, instead of storing the background image, a method of storing the image captured one step before and subtracting the immediately preceding image from the latest image to extract only the change in the vehicle position has also been proposed.

【0003】さらに近年、カメラからの入力画像を時間
毎に蓄積した時空間画像を作成して交通流データを計測
する技術(DTT法)が発表された(電子情報通信学会
論文誌Vol.J77-D-II No.10 p2019 〜2026,1994)。この
方法によれば、各時間毎の画像から車輌の輪郭などの特
徴量データが抽出された後、この特徴量データを車輌の
移動方向に平行な方向軸に投影した1次元データが作成
される。この1次元データはさらに時系列に並べられて
方向軸−時間軸から成る2次元画像(DDT画像)が作
成され、このDDT画像から所定方向へ移動する物体が
抽出される。
Furthermore, in recent years, a technology (DTT method) for creating a spatiotemporal image in which input images from a camera are accumulated every hour and measuring traffic flow data has been announced (Journal of the Institute of Electronics, Information and Communication Engineers Vol.J77- D-II No. 10 p2019-2026, 1994). According to this method, after the characteristic amount data such as the contour of the vehicle is extracted from the images for each time, the one-dimensional data is created by projecting the characteristic amount data on the direction axis parallel to the moving direction of the vehicle. . This one-dimensional data is further arranged in time series to create a two-dimensional image (DDT image) consisting of a direction axis and a time axis, and an object moving in a predetermined direction is extracted from this DDT image.

【0004】また駐車場の各駐車エリアが空いているか
否かを判別する場合には、一般に上記第1または第2の
方法、すなわち観測位置を撮像して得られた入力画像と
背景画像との差分、または入力画像と一段階前に取り込
んだ画像との差分により駐車エリアに車輌が駐車してい
るか否かを判別するようにしている。
In order to determine whether or not each parking area of the parking lot is vacant, generally, the above-mentioned first or second method, that is, the input image obtained by imaging the observation position and the background image are compared. Whether or not the vehicle is parked in the parking area is determined based on the difference or the difference between the input image and the image captured one step before.

【0005】[0005]

【発明が解決しようとする課題】交通流の計測に入力画
像と背景画像との差分を用いる場合、昼夜、晴天時、雨
天時など種々の環境に応じた背景画像を記憶する必要が
あるが、必要な環境を想定したり、環境の変化に応じた
背景画像の更新を行うことには限界があり、車輌を高精
度で抽出することは望めない。また上記した第1,第
2,第3の各方法の場合、車輌の影や風で揺れる木の影
などの路面上で動く影、あるいは夜間のライトの反射光
や濡れた路面に写った車輌など、車輌以外の動きを車輌
として誤検出してしまうという問題がある。
When the difference between the input image and the background image is used for measuring the traffic flow, it is necessary to store the background image according to various environments such as day and night, fine weather, and rainy weather. There is a limit in assuming the required environment and updating the background image according to the change in the environment, and it is not possible to extract the vehicle with high accuracy. In the case of each of the first, second, and third methods described above, a shadow that moves on the road such as a shadow of a vehicle or a tree swaying by the wind, or a light reflected at night or reflected on a wet road For example, there is a problem that a motion other than the vehicle is erroneously detected as the vehicle.

【0006】さらに従来の各方法の場合、路上に大型車
輌が存在したり、渋滞が生じた場合、画面上では各車輌
を区別できなくなり、複数台の車輌が1台に誤検出され
る虞がある。また大型車輌の影の画像が隣の車線にまで
及んで後方にある小型車輌と重なると、この影や小型車
輌を大型車輌と誤検出するなど、道路上の車輌の台数や
車種を正確に判別することは到底不可能である。
Further, in the case of each of the conventional methods, when a large vehicle is present on the road or a traffic jam occurs, the vehicles cannot be distinguished on the screen, and there is a risk that a plurality of vehicles will be erroneously detected as one vehicle. is there. In addition, if the image of the shadow of a large vehicle overlaps with a small vehicle in the back to reach the adjacent lane, the shadow or small vehicle will be erroneously detected as a large vehicle, and the number and type of vehicles on the road can be accurately determined. It is impossible to do.

【0007】上記の問題は駐車場の観測装置についても
同様であって、観測位置における照度の変化により判別
精度が低下したり、隣のエリアの車輌などの影を誤検出
したりする虞がある。
The above-mentioned problem also applies to the parking lot observation device, and there is a possibility that the discrimination accuracy may be deteriorated due to the change of the illuminance at the observation position, or the shadow of the vehicle in the adjacent area may be erroneously detected. .

【0008】加えてこれら従来の方法では、種々の背景
画像や時間毎の画像を蓄積するためのメモリや、各画像
の減算や累積加算などの演算処理を行うためのハード構
成が必要となるため、装置の構成が大がかりとなり、製
作コストが高くなるという問題も存在する。
In addition, these conventional methods require a memory for accumulating various background images and images for each time, and a hardware configuration for performing arithmetic processing such as subtraction and cumulative addition of each image. However, there is also a problem that the structure of the device becomes large and the manufacturing cost becomes high.

【0009】この発明は上記問題に着目してなされたも
ので、複数台のカメラにより観測位置を撮像し、得られ
た各画像中の特徴部分について3次元計測を行い、その
高さデータを用いて対象物を判別することにより、目的
とする物体を高精度で観測することを目的とする。
The present invention has been made in view of the above problem. The observation position is imaged by a plurality of cameras, the characteristic portion in each obtained image is three-dimensionally measured, and the height data is used. By discriminating the target object with the purpose, the object is to observe the target object with high accuracy.

【0010】さらにこの発明は、前記各カメラから得ら
れた画像中の特徴部分の3次元座標を、対象物が接する
平面に対し垂直に位置する仮想垂直平面に投影させるこ
とにより、対象物の形状を抽出し、観測位置における対
象物の存在,個数,種別などを正確に把握することを目
的とする。
Further, according to the present invention, the three-dimensional coordinates of the characteristic portion in the image obtained from each of the cameras are projected on an imaginary vertical plane perpendicular to the plane in contact with the object, whereby the shape of the object is projected. The purpose is to accurately grasp the existence, number, and type of objects at the observation position.

【0011】さらにこの発明は、上記の手法を用いて道
路上や駐車スペース内を観測し、その観測結果に基づ
き、高精度の交通流計測や車輌判別を行うことを目的と
する。
A further object of the present invention is to observe the inside of a road or a parking space by using the above method, and to perform highly accurate traffic flow measurement and vehicle discrimination based on the observation result.

【0012】[0012]

【課題を解決するための手段】請求項1の発明は、対象
物を観測する方法において、2台以上の撮像装置を所定
の観測位置に向けて同時に撮像を行い、得られた各画像
中の特徴部分を画像毎に抽出する第1のステップと、前
記抽出された各画像の特徴部分について画像間での対応
付けを行う第2のステップと、対応づけられた各特徴部
分について3次元計測を行って各特徴部分の3次元座標
を抽出する第3のステップと、抽出された各特徴部分の
3次元座標を、対象物が接する平面に対し垂直に位置す
る仮想垂直平面上に投影する第4のステップと、この投
影データを所定の2次元モデルデータと比較することに
より前記対象物を判別する第5のステップとを一連に実
施することを特徴とする。
According to a first aspect of the present invention, in a method of observing an object, two or more image pickup devices are simultaneously imaged toward a predetermined observation position, and each of the obtained images is A first step of extracting a characteristic part for each image, a second step of associating the extracted characteristic part of each image between the images, and a three-dimensional measurement for each associated characteristic part. And a third step of extracting the three-dimensional coordinates of each characteristic part, and a fourth step of projecting the extracted three-dimensional coordinates of each characteristic part onto a virtual vertical plane that is perpendicular to the plane in contact with the object. And the fifth step of discriminating the object by comparing the projection data with predetermined two-dimensional model data.

【0013】請求項2の発明では、前記第4のステップ
の投影処理として、各特徴部分の3次元座標を前記対象
物が接する平面上の位置関係に基づきグループ分けした
後、各グループ毎に、そのグループ内に含まれる3次元
座標を前記仮想垂直平面に投影する。
In the invention of claim 2, as the projection process of the fourth step, the three-dimensional coordinates of each characteristic portion are divided into groups based on the positional relationship on the plane with which the object is in contact, and then, for each group, The three-dimensional coordinates included in the group are projected on the virtual vertical plane.

【0014】請求項3の発明では、前記第5のステップ
の比較処理として、前記第4のステップの投影処理によ
り仮想垂直平面上に生成された各投影点に対し、それぞ
れその投影点を含む所定範囲を設定するとともに、この
範囲内の各点について前記投影点との位置関係に基づく
重みを付して前記2次元モデルデータとの比較を行う。
According to the third aspect of the invention, as the comparison process of the fifth step, for each projection point generated on the virtual vertical plane by the projection process of the fourth step, a predetermined point including the projection point is specified. A range is set, and each point within this range is weighted based on the positional relationship with the projection point and compared with the two-dimensional model data.

【0015】請求項4の物体観測方法では、請求項1と
同様の第1のステップと、抽出された各画像の特徴部分
について、それぞれその代表的な特徴を示す点を特定す
る第2のステップと、前記特定された各代表点について
画像間での対応付けを行う第3のステップと、対応づけ
られた各代表点毎に3次元計測を行って各代表点の3次
元座標を抽出する第4のステップと、抽出された各代表
点の3次元座標を、対象物が接する平面に対し垂直に位
置する仮想垂直平面上に投影する第5のステップと、こ
の投影データを所定の2次元モデルデータと比較するこ
とにより前記対象物を判別する第6のステップとを一連
に実施することを特徴とする。
In the object observing method according to a fourth aspect, the first step similar to the first aspect, and the second step of specifying the points showing the representative features of the extracted feature portions of each image, respectively. And a third step of associating the specified representative points between images, and a three-dimensional measurement for each associated representative point to extract three-dimensional coordinates of each representative point. 4, the fifth step of projecting the extracted three-dimensional coordinates of each representative point on a virtual vertical plane that is perpendicular to the plane in contact with the object, and the projection data of the predetermined two-dimensional model. The sixth step of discriminating the object by comparing with the data is performed in series.

【0016】請求項5の発明では、前記投影処理として
請求項2と同様の処理が、請求項6の発明では、前記比
較処理として請求項3と同様の処理が、それぞれ実行さ
れる。
In the invention of claim 5, the same process as in claim 2 is executed as the projection process, and in the invention of claim 6, the same process as in claim 3 is executed as the comparison process.

【0017】請求項7の発明の物体観測装置は、観測位
置に向けて配備された2台以上の撮像装置と、各撮像装
置により同時に取り込まれた各画像からそれぞれ特徴部
分を抽出する特徴抽出手段と、前記特徴抽出手段により
抽出された各画像の特徴部分について画像間での対応付
けを行う対応付け手段と、前記対応付け手段により対応
づけられた各特徴部分について3次元計測を行って各特
徴部分の3次元座標を抽出する座標抽出手段と、対象物
の2次元モデルデータを記憶する記憶手段と、対象物が
接する平面に対し垂直に位置するように仮想垂直平面を
設定して、この仮想垂直平面上に前記座標抽出手段によ
り抽出された各特徴部分の3次元座標を投影する投影手
段と、前記投影手段による投影結果を前記記憶手段に記
憶された2次元モデルデータと比較する比較手段とを備
えている。
According to a seventh aspect of the present invention, there is provided an object observing apparatus, which comprises two or more imaging devices arranged toward an observation position, and a feature extracting means for extracting a characteristic part from each image simultaneously captured by each imaging device. And associating means for associating between the images the characteristic portions of the images extracted by the characteristic extracting means, and the three-dimensional measurement of the respective characteristic portions associated by the associating means. Coordinate extraction means for extracting the three-dimensional coordinates of the portion, storage means for storing the two-dimensional model data of the object, and a virtual vertical plane are set so as to be positioned perpendicular to the plane in contact with the object. Projecting means for projecting the three-dimensional coordinates of each characteristic portion extracted by the coordinate extracting means on a vertical plane, and a projection result by the projecting means stored in the storage means. And a comparing means for comparing the Rudeta.

【0018】請求項10の発明の物体観測装置は、請求
項7と同様の2台以上の撮像装置および特徴抽出手段
と、前記特徴抽出手段により抽出された各画像の特徴部
分について、それぞれその代表的な特徴を示す点を特定
する代表点特定手段と、前記代表点特定手段により特定
された各代表点について画像間での対応付けを行う対応
付け手段と、前記対応付け手段により対応づけられた各
代表点毎に3次元計測を行って各代表点の3次元座標を
抽出する座標抽出手段と、対象物の2次元モデルデータ
を記憶する記憶手段と、対象物が接する平面に対し垂直
に位置する仮想垂直平面を設定して、この仮想垂直平面
上に前記座標抽出手段により抽出された各代表点の3次
元座標を投影する投影手段と、前記投影手段による投影
結果を前記記憶手段に記憶された2次元モデルデータと
比較する比較手段とを備えている。
An object observing apparatus according to a tenth aspect of the present invention is a representative of two or more image pickup apparatuses and feature extracting means as in the seventh aspect, and a characteristic portion of each image extracted by the characteristic extracting means. Associated with the representative point specifying means for specifying a point indicating the characteristic of the image, the associating means for associating the representative points specified by the representative point specifying means between the images, and the associating means. Coordinate extraction means for performing three-dimensional measurement for each representative point to extract three-dimensional coordinates of each representative point, storage means for storing two-dimensional model data of the object, and a position perpendicular to a plane in contact with the object. A virtual vertical plane to be set, a projection means for projecting the three-dimensional coordinates of each representative point extracted by the coordinate extraction means on the virtual vertical plane, and a projection result by the projection means for the storage means. And a comparing means for comparing the stored two-dimensional model data.

【0019】請求項8および11の発明では、前記投影
手段を、前記座標抽出手段により抽出された各3次元座
標を前記対象物が接する平面上の位置関係に基づきグル
ープ分けした後、各グループ毎に、そのグループ内に含
まれる3次元座標を前記仮想垂直平面に投影するように
構成している。
According to the invention of claims 8 and 11, the projection means divides the three-dimensional coordinates extracted by the coordinate extraction means into groups based on the positional relationship on the plane with which the object is in contact, and then, for each group. In addition, the three-dimensional coordinates included in the group are projected on the virtual vertical plane.

【0020】請求項9および12の発明では、前記比較
手段を、前記投影手段による投影処理により仮想垂直平
面上に生成された各投影点に対し、それぞれその投影点
を含む所定範囲を設定するとともに、この範囲内の各点
について前記投影点との位置関係に基づく重みを付して
前記2次元モデルデータとの比較を行なうように構成し
ている。
In the ninth and twelfth aspects of the present invention, the comparing means sets, for each projection point generated on the virtual vertical plane by the projection processing by the projection means, a predetermined range including the projection point. The points in this range are weighted based on the positional relationship with the projection point and are compared with the two-dimensional model data.

【0021】請求項13および14の発明は、道路上に
おける車輌の流れを観測してその観測結果の時間的な推
移により道路上における交通流データを計測する装置に
関する。請求項13の発明にかかる交通流計測装置は、
道路の上方に道路上の観測位置に向けて配備された2台
以上の撮像装置と、所定の時間毎に各撮像装置により同
時に取り込んだ各画像からそれぞれ特徴部分を抽出する
特徴抽出手段と、前記特徴抽出手段により抽出された各
画像の特徴部分について画像間での対応付けを行う対応
付け手段と、前記対応付け手段により対応づけられた各
特徴部分について3次元計測を行って各特徴部分の3次
元座標を抽出する座標抽出手段と、道路に沿う仮想垂直
平面を設定して、この仮想垂直平面上に前記座標抽出手
段により抽出された各特徴部分の3次元座標を投影する
投影手段と、複数種の車輌について、各車輌の側面の形
状モデルを記憶する記憶手段と、前記投影手段による投
影結果を前記記憶手段に記憶された各モデルと比較する
ことにより道路上の車輌を判別する車輌判別手段と、前
記車輌判別手段による判別結果を順次追跡して道路上に
おける車輌の流れを観測する観測手段とを備えている。
The thirteenth and fourteenth aspects of the present invention relate to an apparatus for observing the flow of a vehicle on a road and measuring traffic flow data on the road based on the temporal transition of the observation result. The traffic flow measuring device according to the invention of claim 13 is
Two or more image pickup devices arranged above the road toward an observation position on the road, feature extraction means for extracting a feature part from each image simultaneously captured by the image pickup devices at predetermined time intervals, An associating unit that associates the characteristic portions of each image extracted by the characteristic extracting unit between the images, and three-dimensional measurement by performing three-dimensional measurement for each of the characteristic portions associated by the associating unit. A coordinate extracting means for extracting the dimensional coordinates, a virtual vertical plane along the road, and a projecting means for projecting the three-dimensional coordinate of each characteristic portion extracted by the coordinate extracting means on the virtual vertical plane; For each type of vehicle, by comparing the shape model of the side surface of each vehicle with the storage means, and comparing the projection result by the projection means with each model stored in the storage means, And it includes a vehicle discriminating means for discriminating vehicles, and observation means for observing the flow of vehicles in the vehicle discriminating means a discrimination result successively tracking to by on the road.

【0022】請求項14の発明にかかる交通流計測装置
は、上記と同様の撮像装置,特徴抽出手段,対応付け手
段,座標抽出手段を具備するほか、前記座標抽出手段に
より抽出された各特徴部分の3次元座標のうち、所定の
高さ条件を満たす3次元座標の相対位置関係を用いて道
路上の車輌を判別する車輌判別手段と、前記車輌判別手
段による判別結果を順次追跡して道路上における車輌の
流れを観測する観測手段とを備えている。
A traffic flow measuring apparatus according to a fourteenth aspect of the present invention comprises an image pickup apparatus, a feature extracting means, a correlating means, and a coordinate extracting means similar to those described above, and each characteristic portion extracted by the coordinate extracting means. Among the three-dimensional coordinates, the vehicle discrimination means for discriminating the vehicle on the road by using the relative positional relationship of the three-dimensional coordinates satisfying the predetermined height, and the discrimination result by the vehicle discrimination means are sequentially traced on the road. And an observing means for observing the flow of the vehicle.

【0023】請求項15および16の発明は、所定形状
のエリア内に駐車する車輌を観測するための装置に関す
る。請求項15の発明にかかる駐車場観測装置は、前記
エリアの上方にエリアに向けて配備された2台以上の撮
像装置と、各撮像装置により同時に取り込んだ各画像か
らそれぞれ特徴部分を抽出する特徴抽出手段と、前記特
徴抽出手段により抽出された各画像の特徴部分について
画像間での対応付けを行う対応付け手段と、前記対応付
け手段により対応づけられた各特徴部分について3次元
計測を行って各特徴部分の3次元座標を抽出する座標抽
出手段と、前記エリアの車輌の設置面に対し垂直に位置
する仮想垂直平面を設定して、この仮想垂直平面上に前
記座標抽出手段により抽出された各特徴部分の3次元座
標を投影する投影手段と、複数種の車輌について、各車
輌の形状モデルを記憶する記憶手段と、前記投影手段に
よる投影結果を前記記憶手段に記憶された各モデルと比
較することにより前記エリア内の車輌を判別する判別手
段とを備えている。
The inventions of claims 15 and 16 relate to an apparatus for observing a vehicle parked in an area of a predetermined shape. A parking lot observation device according to the invention of claim 15 is characterized in that two or more image pickup devices arranged toward the area above the area and feature portions are extracted from each image simultaneously captured by each image pickup device. Three-dimensional measurement is performed on the extraction unit, the association unit that associates the feature portions of each image extracted by the feature extraction unit between the images, and the feature portions associated by the association unit. Coordinate extraction means for extracting the three-dimensional coordinates of each characteristic portion and a virtual vertical plane positioned perpendicular to the installation surface of the vehicle in the area are set, and extracted on the virtual vertical plane by the coordinate extraction means. The projection means for projecting the three-dimensional coordinates of each characteristic portion, the storage means for storing the shape model of each vehicle for a plurality of types of vehicles, and the projection result by the projection means are described above. And a discriminating means for discriminating vehicles within said area by comparing with the respective models stored in means.

【0024】請求項16の駐車場観測装置は、上記と同
様の撮像装置,特徴抽出手段,対応付け手段,座標抽出
手段を具備するほか、前記座標抽出手段により抽出され
た各特徴部分の3次元座標のうち、所定の高さ条件を満
たす3次元座標を用いて前記エリア内の車輌を判別する
判別手段を備えている。
A parking lot observing device according to a sixteenth aspect comprises an image pickup device, a feature extracting means, an associating means, and a coordinate extracting means similar to those described above, and the three-dimensional structure of each characteristic portion extracted by the coordinate extracting means. Among the coordinates, there is provided a judging means for judging the vehicle in the area by using three-dimensional coordinates satisfying a predetermined height condition.

【0025】[0025]

【作用】請求項1および7の発明では、2台以上の撮像
装置により観測位置を撮像して得られる画像から各画像
の特徴部分が抽出され、さらにこれら特徴部分の画像間
の対応関係から各特徴部分の3次元座標が抽出された
後、この抽出された3次元座標を、対象物に接する平面
に対し垂直に位置する仮想垂直平面上に投影することに
より、対象物の形状が抽出される。したがってこの投影
結果を対象物のモデルデータと比較することにより、観
測位置における対象物の種別,位置,個数などが把握さ
れることになる。
According to the invention of claims 1 and 7, the characteristic portions of each image are extracted from the images obtained by picking up the observation positions by two or more image pickup devices, and the correspondence between the images of these characteristic portions causes After the three-dimensional coordinates of the characteristic portion are extracted, the shape of the object is extracted by projecting the extracted three-dimensional coordinates on a virtual vertical plane that is positioned perpendicular to the plane in contact with the object. . Therefore, by comparing this projection result with the model data of the object, the type, position, number, etc. of the object at the observation position can be grasped.

【0026】請求項4および10の発明では、上記と同
様にして2台以上の撮像装置による画像からそれぞれ特
徴部分が抽出されると、さらに各特徴部分について、代
表的な特徴を示す点(例えば特徴部分の中心点)が特定
される。この特定された各代表点について、前記と同
様、3次元座標が抽出され、その抽出結果を仮想垂直平
面上に投影して得られる結果により、対象物の判別が行
われる。
According to the fourth and tenth aspects of the present invention, when the characteristic portions are respectively extracted from the images by the two or more image pickup devices in the same manner as described above, a point showing a representative characteristic for each characteristic portion (eg, The center point of the characteristic part) is specified. Similar to the above, three-dimensional coordinates are extracted for each of the identified representative points, and the object is determined based on the result obtained by projecting the extraction result on the virtual vertical plane.

【0027】請求項2,5,8,11の各発明では、抽
出された3次元座標を、対象物が接する平面上の位置関
係に基づきグループ分けした後、各グループ毎に前記仮
想垂直平面への投影処理を行うようにしたので、複数の
対象物が存在する場合でも、その位置関係に応じて個別
に判別することができる。
In each of the inventions of claims 2, 5, 8 and 11, the extracted three-dimensional coordinates are divided into groups based on the positional relationship on the plane in contact with the object, and then each group is moved to the virtual vertical plane. Since the projection processing is performed, even when there are a plurality of objects, it is possible to individually determine them according to their positional relationship.

【0028】請求項3,6,9,12の各発明では、仮
想垂直平面上の各投影点毎に、その投影点を含む所定の
範囲内の各点について、投影点との距離に基づく重みを
付してモデルデータとの比較を行うことにより、3次元
計測時に生じた誤差が取り除かれる。
According to the inventions of claims 3, 6, 9 and 12, for each projection point on the virtual vertical plane, for each point within a predetermined range including the projection point, a weight based on the distance from the projection point is used. The error generated during the three-dimensional measurement is removed by adding the symbol and comparing with the model data.

【0029】請求項13の発明では、道路の上方に2台
以上の撮像装置を配備して観測位置を撮像して得られる
画像を所定の時間毎に取り込み、上記と同様の方法で、
各画像中の特徴部分の3次元座標を抽出した後、この抽
出結果を道路に沿う仮想垂直平面上に投影する。これに
より、仮想垂直平面には、道路上に位置する物体の側面
の形状が投影されることになる。一方、記憶手段には複
数種の車輌の側面の形状モデルが記憶されているので、
これらモデルと前記投影結果とを比較することにより道
路上の車輌の種別,台数,および位置を判別することが
できる。
According to the thirteenth aspect of the present invention, two or more image pickup devices are provided above the road and the images obtained by picking up the observation position are captured at predetermined time intervals.
After extracting the three-dimensional coordinates of the characteristic portion in each image, the extraction result is projected on a virtual vertical plane along the road. As a result, the shape of the side surface of the object located on the road is projected on the virtual vertical plane. On the other hand, since the storage means stores the side surface shape models of a plurality of types of vehicles,
By comparing these models with the projection result, the type, number and position of vehicles on the road can be determined.

【0030】請求項14の発明では、道路の上方に配備
された2台以上の撮像装置から得られた画像から特徴部
分を抽出した後、各特徴部分について上記と同様、対応
付け、3次元計測を実行した後、所定の高さ条件を満た
す3次元座標の相対位置関係を用いて道路上の車輌を判
別するので、例えば夜間走行時の車輌のライトなどを抽
出して判別処理を実行することができる。このため夜間
時など車輌の形状を示す画像を抽出しにくい場合にも、
道路上の車輌の判別が可能となり、高精度の交通流計測
を行うことが可能となる。
In the fourteenth aspect of the present invention, after the characteristic portions are extracted from the images obtained from the two or more image pickup devices arranged above the road, the respective characteristic portions are associated with each other in the same manner as described above, and the three-dimensional measurement is performed. After executing, the vehicle on the road is discriminated by using the relative positional relationship of the three-dimensional coordinates satisfying the predetermined height condition. Therefore, for example, it is necessary to extract the light of the vehicle when driving at night and execute the discrimination processing. You can Therefore, even when it is difficult to extract an image showing the shape of the vehicle at night,
Vehicles on the road can be identified, and highly accurate traffic flow measurement can be performed.

【0031】請求項15,16の発明では、2台以上の
撮像装置を所定形状のエリアに向けて配備して同時に撮
像し、得られた各画像につき上記と同様の方法で特徴部
分の3次元座標を抽出する。この後、請求項15の発明
では、抽出された各3次元座標を、エリアの車輌の設置
面に垂直に位置する仮想垂直平面上に投影し、その投影
結果と種々の車輌の形状モデルとを比較するようにした
ので、エリア内に駐車する車輌の車種まで判別すること
が可能となる。また請求項16の発明では、抽出された
各3次元座標が所定の高さ条件を満たすか否かにより、
エリア内に車輌が存在するか否かが判別される。
In the inventions of claims 15 and 16, two or more image pickup devices are arranged toward an area of a predetermined shape and imaged at the same time, and the obtained images are three-dimensionally characterized by the same method as described above. Extract the coordinates. After that, in the invention of claim 15, each of the extracted three-dimensional coordinates is projected onto a virtual vertical plane that is positioned perpendicular to the installation surface of the vehicle in the area, and the projection result and the shape models of various vehicles are obtained. Since the comparison is made, it is possible to determine even the vehicle type of the vehicle parked in the area. In the invention of claim 16, depending on whether or not each extracted three-dimensional coordinate satisfies a predetermined height condition,
It is determined whether or not there is a vehicle in the area.

【0032】[0032]

【発明の実施の形態】以下にこの発明にかかる各種の形
態として、5つの実施例を示す。各実施例とも、2台の
カメラ3a,3bを観測対象となる道路または駐車エリ
アに向けて同時に撮像を行うもので、各カメラの入力画
像よりエッジ構成点などの特徴部分を抽出された後、こ
れら特徴部分について、各画像間での対応づけが行われ
て特徴部分の3次元座標が算出される。さらにこの3次
元座標を仮想垂直平面上に投影、またはその所定の高さ
データを有する座標点を抽出し、その処理結果を用いて
対象物(この場合車輌)の観測処理が実行される。
BEST MODE FOR CARRYING OUT THE INVENTION Five embodiments will be shown below as various modes according to the present invention. In each of the embodiments, two cameras 3a and 3b are simultaneously imaged toward a road or a parking area to be observed, and after characteristic portions such as edge constituent points are extracted from the input image of each camera, The three-dimensional coordinates of the characteristic portions are calculated by associating these characteristic portions with each other. Further, the three-dimensional coordinates are projected on a virtual vertical plane, or coordinate points having predetermined height data thereof are extracted, and the processing result is used to execute the observation processing of the object (vehicle in this case).

【0033】[0033]

【実施例】図1は、この発明の一実施例にかかる交通流
計測装置の設置例を示す。この交通流計測装置は、道路
1の真横にF字形状の支柱2を配備して、この支柱2に
2台のカメラ3a,3bと制御処理装置4とを取り付け
て構成されるもので、各カメラ3a,3bにより道路1
を上方より撮像して得られた画像を制御処理装置4で処
理することにより、道路1の各車道毎の通過車輌の台数
や車種の判別、特定車輌の通過速度の計測、違法駐車中
の車輌の検出などが行われる。
FIG. 1 shows an example of installation of a traffic flow measuring device according to an embodiment of the present invention. This traffic flow measuring device is configured by disposing an F-shaped support 2 right next to a road 1 and mounting two cameras 3a and 3b and a control processing device 4 on the support 2. Road 1 by cameras 3a and 3b
By processing the image obtained by imaging the above from the upper side by the control processing device 4, the number and types of vehicles passing through each road on the road 1 can be discriminated, the passing speed of the specific vehicle can be measured, and the vehicle is illegally parked. Is detected.

【0034】前記支柱2は、その横桟部分を道路上に突
出させて配備されており、各カメラ3a,3bは、各横
桟間に固定配備された垂直棒6に縦並びに取り付けられ
ている。また制御処理装置4は、保守,点検などの必要
から支柱2の基部付近に取り付けられる。
The pillar 2 is arranged such that its cross rail portion projects on the road, and the cameras 3a and 3b are vertically mounted on a vertical rod 6 fixedly arranged between the cross rails. . Further, the control processing device 4 is attached near the base of the column 2 for the necessity of maintenance and inspection.

【0035】図2は、前記カメラ3a,3bの設置例を
示す。前記カメラ3a,3bは焦点距離を同じくするレ
ンズを有するもので、前記垂直棒6に対して所定角度傾
斜させて取り付けられた長尺の支持板7,7により各側
面が支持されている。このとき各カメラ3a,3bの光
軸は支持板7の長さ方向に直交する方向、すなわち道路
の方向に向けて平行配備されるとともに、各撮像面は同
一平面上に位置するように、各カメラ3a,3bの取り
付け位置が調整される。なお前記支持板7のカメラ3a
の支持位置とカメラ3bの支持位置との間には短尺の補
強板8が連結されており、この補強板8の他端部を垂直
棒6に固定させることにより、支持板7の傾きが維持さ
れる。
FIG. 2 shows an installation example of the cameras 3a and 3b. Each of the cameras 3a and 3b has a lens having the same focal length, and each side surface is supported by long support plates 7 and 7 attached to the vertical rod 6 at a predetermined angle. At this time, the optical axes of the cameras 3a and 3b are arranged parallel to each other in a direction orthogonal to the length direction of the support plate 7, that is, in the direction of the road, and the respective image pickup surfaces are located on the same plane. The mounting positions of the cameras 3a and 3b are adjusted. The camera 3a of the support plate 7
A short reinforcing plate 8 is connected between the supporting position of the supporting plate 7 and the supporting position of the camera 3b. By fixing the other end of the reinforcing plate 8 to the vertical rod 6, the inclination of the supporting plate 7 is maintained. To be done.

【0036】図3は、前記カメラ3a,3bの他の設置
例を示す。この例では、各カメラ3a,3bは、前記垂
直棒6に直交させて取り付けられた2枚の支持板7a,
7bにより両側面を支持されており、各支持板7a,7
bを補強板9により水平方向に維持することにより、カ
メラ3a,3bの位置が安定化されている。この場合も
各カメラ3a,3bは、それぞれの光軸が道路の方向に
向けて互いに平行になるよう、その位置の調整が行われ
る。
FIG. 3 shows another installation example of the cameras 3a and 3b. In this example, each of the cameras 3a and 3b includes two support plates 7a, which are mounted orthogonally to the vertical rod 6.
Both side surfaces are supported by 7b, and each support plate 7a, 7b
By maintaining b in the horizontal direction by the reinforcing plate 9, the positions of the cameras 3a and 3b are stabilized. Also in this case, the positions of the cameras 3a and 3b are adjusted so that their optical axes are parallel to each other toward the road.

【0037】またこの例の場合、上方のカメラ3aの撮
像面は下方のカメラ3bの撮像面よりも後退した位置に
配備されるので、後述する画像処理の前に、カメラ3a
の画像をその後退距離に応じて拡大処理する必要があ
る。なお、カメラ3a,3bの設置例は上記に限らず、
図4に示すように、各カメラ3a,3bが箱型ユニット
25内に収納された一体化型の装置を作成し、これを支
持板7や補強板8により支えるようにしても良い。
In the case of this example, the image pickup surface of the upper camera 3a is arranged at a position retracted from the image pickup surface of the lower camera 3b, so that the camera 3a can be processed before the image processing described later.
It is necessary to magnify the image in accordance with the receding distance. The installation examples of the cameras 3a and 3b are not limited to the above,
As shown in FIG. 4, an integrated device in which the cameras 3a and 3b are housed in the box-shaped unit 25 may be prepared and supported by the support plate 7 and the reinforcing plate 8.

【0038】またこの実施例では、2台のカメラにより
道路を撮像しているが、これに限らず、3台以上のカメ
ラを用いてもよい。またカメラを取り付ける支柱も、上
記のF字型支柱2に限らず、既存の電信柱や照明柱など
を改良して用いても良い。
Although the road is imaged by two cameras in this embodiment, the present invention is not limited to this, and three or more cameras may be used. Further, the support column to which the camera is attached is not limited to the above-mentioned F-shaped support column 2, and an existing telegraph pole or illumination pole may be modified and used.

【0039】図5は、上記の交通流計測装置の電気的構
成を示す。前記制御処理部4は、A/D変換部10a,
10b,画像メモリ11a,11b,エッジ画像メモリ
12a,12b,エッジ抽出部13,対応づけ処理部1
4,3次元座標算出部15,カメラパラメータ記憶部1
6,投影処理部17,車線データ記憶部18,モデルデ
ータ記憶部19,比較判定部20,処理結果記憶部2
1,追跡処理部22などをその構成として含んでいる。
FIG. 5 shows an electrical configuration of the above traffic flow measuring device. The control processing unit 4 includes an A / D conversion unit 10a,
10b, image memories 11a and 11b, edge image memories 12a and 12b, edge extraction unit 13, and association processing unit 1
4, three-dimensional coordinate calculation unit 15, camera parameter storage unit 1
6, projection processing unit 17, lane data storage unit 18, model data storage unit 19, comparison determination unit 20, processing result storage unit 2
1, includes a tracking processing unit 22 and the like.

【0040】前記A/D変換部10a,10bは、それ
ぞれ前記カメラ3a,3bからのアナログ量のビデオ信
号を濃淡画像信号に変換するためのもので、変換後の画
像信号は、それぞれ画像メモリ11a,11bに格納さ
れる。なお以下の説明では、画像メモリ11aに格納さ
れたカメラ3aの画像を「第1画像」,画像メモリ11
bに格納されたカメラ3bの画像を「第2画像」と呼ぶ
ことにする。
The A / D converters 10a and 10b are for converting analog video signals from the cameras 3a and 3b into grayscale image signals, and the converted image signals are respectively stored in the image memory 11a. , 11b. In the following description, the image of the camera 3a stored in the image memory 11a is referred to as “first image”, the image memory 11
The image of the camera 3b stored in b will be referred to as a "second image".

【0041】図6(1)(2)は、それぞれ第1画像,
第2画像の具体例であって、それぞれ道路上の車線,車
輌,車輌の影などの画像を含む画像データが生成されて
いる。
FIGS. 6A and 6B show the first image,
As a specific example of the second image, image data including images such as lanes on the road, vehicles, and shadows of the vehicles are generated.

【0042】前記エッジ抽出部13は、各画像メモリ1
1a,11bからそれぞれ第1画像,第2画像を取り出
してエッジ画像を生成するためのもので、各画像毎に図
7に示すようなラプラシアンフィルタを走査してゼロク
ロッシング点を抽出する。さらにエッジ抽出部13は、
前記ゼロクロッシング点の座標を算出してこの座標位置
の画素を黒画素、他の画素を白画素とした2値のエッジ
画像を生成する。なお、上記のエッジ抽出処理はラプラ
シアンフィルタに限らず、ソーベルフィルタなどのエッ
ジ抽出フィルタを用いてもよい。
The edge extraction unit 13 is provided for each image memory 1
The first image and the second image are extracted from 1a and 11b, respectively, to generate an edge image. A Laplacian filter as shown in FIG. 7 is scanned for each image to extract the zero-crossing point. Furthermore, the edge extraction unit 13
The coordinates of the zero-crossing point are calculated, and a binary edge image in which the pixel at this coordinate position is a black pixel and the other pixels are white pixels is generated. Note that the above edge extraction processing is not limited to the Laplacian filter, and an edge extraction filter such as a Sobel filter may be used.

【0043】第1画像について生成されたエッジ画像
(「以下「第1エッジ画像」という)は第1のエッジ画
像メモリ12aに、第2画像について生成されたエッジ
画像(以下「第2エッジ画像」という)は第2のエッジ
画像メモリ12bに、それぞれ格納される。図8(1)
(2)は、前記図6(1)(2)に示した第1,2画像
について、それぞれ上記のエッジ抽出処理を施した結果
を示すもので、それぞれ車輌や車輌の影の輪郭に相当す
るエッジ成分が抽出されている。
The edge image generated for the first image (hereinafter referred to as "first edge image") is stored in the first edge image memory 12a as the edge image generated for the second image (hereinafter referred to as "second edge image"). Are stored in the second edge image memory 12b. Figure 8 (1)
6 (2) shows the results of the above edge extraction processing performed on the first and second images shown in FIGS. 6 (1) and 6 (2), which correspond to the contour of the vehicle and the shadow of the vehicle. Edge components have been extracted.

【0044】上記のエッジ画像の生成、およびエッジ画
像メモリ12a,12bへの格納処理が終了すると、つ
ぎに対応づけ処理部14により各エッジ画像内のエッジ
構成点を対応づける処理が行われ、ついで3次元座標算
出部15により対応づけられた各エッジ構成点に対する
3次元座標の算出処理が行われる。
When the above-described edge image generation and storage processing in the edge image memories 12a and 12b are completed, the association processing unit 14 then performs processing for associating edge constituent points in each edge image. The three-dimensional coordinate calculation unit 15 performs a three-dimensional coordinate calculation process for each edge composing point.

【0045】図9(1)〜(4)は、前記対応づけ処理
部14の対応づけ処理の具体例を示すもので、以下、各
図を用いて対応づけ処理部14の処理の詳細を説明す
る。まず対応づけ処理部14は、前記エッジ画像メモリ
12aの第1エッジ画像E1(図9(1)に示す)から
所定のエッジ構成点pを抽出する。つぎに対応づけ処理
部14は、前記エッジ画像メモリ12bの第2エッジ画
像E2(図9(2)に示す)に着目し、このエッジ画像
E2内で前記エッジ構成点pのエピポーララインL上に
位置するエッジ構成点q1 ,q2 ,q3 ,q4 ,q
5 を、エッジ構成点pの対応候補点として抽出する。な
おこの場合、カメラ3a,3bは、前記したように縦並
びに配備されているので、エピポーララインLはy軸に
垂直になり、対応候補点を容易に抽出することができ
る。
9 (1) to 9 (4) show specific examples of the associating process of the associating processor 14, and the details of the process of the associating processor 14 will be described below with reference to the drawings. To do. First, the association processing unit 14 extracts a predetermined edge composing point p from the first edge image E1 (shown in FIG. 9A) of the edge image memory 12a. Next, the association processing unit 14 pays attention to the second edge image E2 (shown in FIG. 9 (2)) of the edge image memory 12b, and in the edge image E2, the second edge image E2 is placed on the epipolar line L of the edge composing point p. Positioned edge constituent points q 1 , q 2 , q 3 , q 4 , q
5 is extracted as a corresponding candidate point of the edge composing point p. In this case, since the cameras 3a and 3b are arranged vertically as described above, the epipolar line L is perpendicular to the y axis, and the corresponding candidate points can be easily extracted.

【0046】つぎに対応づけ処理部14は、第1の画像
メモリ11a内の第1画像G1(図9(3)に示す)上
に前記エッジ構成点pと同じ座標(x,yu )上に位置
する点Pを中心点とする所定の大きさのウィンドウWu
を設定する。また対応づけ処理部14は、第2の画像メ
モリ11b内の第2画像G2(図9(4)に示す)上で
も、前記対応候補点q1 〜q5 と同じ座標(x,
1 ),(x,y2 ),(x,y3 ),(x,y4 ,
(x,y5 )上にそれぞれ位置する点Q1 〜Q5 を抽出
し、これら点Q1 〜Q5 を中心とし、かつ前記ウィンド
ウWu と同じ大きさを有するウィンドウW1 〜W5 を画
像G2上に設定する。
Next, the association processing unit 14 sets the same coordinates (x, yu ) as the edge composing point p on the first image G1 (shown in FIG. 9 (3)) in the first image memory 11a. A window W u of a predetermined size with the point P located at
To set. Further, the correspondence processing unit 14 also has the same coordinates (x, x) as the correspondence candidate points q 1 to q 5 on the second image G2 (shown in FIG. 9 (4)) in the second image memory 11b.
y 1 ), (x, y 2 ), (x, y 3 ), (x, y 4 ) ,
Extract the Q 1 to Q 5 point located respectively on (x, y 5), and around these points Q 1 to Q 5, and the window W 1 to W-5 having the same size as the window W u It is set on the image G2.

【0047】各ウィンドウが設定されると、対応づけ処
理部14は、第2画像上の各ウィンドウW1 〜W5 につ
いてそれぞれつぎの(1)式を実行し、各ウィンドウと
第1画像上のウィンドウWu との相違度Cを算出する。
なお、次式において、gU (x,y)はウィンドウWU
内の所定の画素の輝度値を、またgL (x,y)はウィ
ンドウWL (L=1〜5)内の所定の画素の輝度値を、
それぞれ示す。またi,jはそれぞれ各ウィンドウの大
きさに応じて変動する変数である。
When each window is set, the association processing unit 14 executes the following equation (1) for each window W 1 to W 5 on the second image, and each window and the first image on the first image. The difference C with the window W u is calculated.
In the following equation, g U (x, y) is the window W U
, G L (x, y) is the brightness value of a predetermined pixel in the window W L (L = 1 to 5),
Shown respectively. Further, i and j are variables that vary depending on the size of each window.

【0048】[0048]

【数1】 [Equation 1]

【0049】対応づけ処理部14は、各ウィンドウW1
〜W5 について求められたウィンドウWU との相違度C
を比較し、相違度が最も小さくなるウィンドウをウィン
ドウWU に対応するものとして判別する。そしてそのウ
ィンドウの中心点QL と同じ座標(x,yL )上にある
第2エッジ画像上の点qL を前記第1エッジ画像のエッ
ジ構成点pの対応点として決定する。
The correlation processing unit 14 determines that each window W 1
The difference C with the window W U obtained for W 5
Are compared with each other, and the window having the smallest difference is determined to correspond to the window W U. Then, a point q L on the second edge image on the same coordinates (x, y L ) as the center point Q L of the window is determined as a corresponding point of the edge constituent point p of the first edge image.

【0050】図10は、前記各ウィンドウW1 〜W5
ついてウィンドウWU との相違度を算出した結果を示
す。この図示例では、第2のウィンドウW2 における相
違度が最も小さくなっており、したがって前記エッジ構
成点pに対する第2エッジ画像中での対応点はq2であ
るとみなされる。
FIG. 10 shows the result of calculating the difference between the windows W 1 to W 5 and the window W U. In the illustrated example, the degree of difference in the second window W 2 is the smallest, and therefore, the corresponding point in the second edge image with respect to the edge composing point p is regarded as q 2 .

【0051】なお上記の相違度の代わりに、各ウィンド
ウW1 〜W5 ごとにウィンドウWUとの間の正規化相互
相関演算を行い、最も高い相関値が得られたウィンドウ
をウィンドウWU に対応するものと判別するようにして
も良い。
Instead of the above difference, the normalized cross-correlation operation with the window W U is performed for each of the windows W 1 to W 5 , and the window having the highest correlation value is set as the window W U. It may be determined that they correspond.

【0052】上記の対応付け処理が、両エッジ画像内の
すべてのエッジ構成点について行われると、3次元座標
算出部15は、各エッジ画像E1,E2間の対応するエ
ッジ構成点p,qの座標(x,yU , (x,yL )と
カメラパラメータ記憶部16に記憶された各カメラ3
a,3bのパラメータとを用いて、三角計測の原理をも
とに、各エッジ構成点に対応する3次元座標を算出す
る。
When the above-mentioned associating process is performed for all edge constituent points in both edge images, the three-dimensional coordinate calculating section 15 determines the corresponding edge constituent points p, q between the respective edge images E1, E2. The coordinates (x, y U ) , (x, y L ) and each camera 3 stored in the camera parameter storage unit 16.
Using the parameters a and 3b, three-dimensional coordinates corresponding to each edge composing point are calculated based on the principle of triangulation measurement.

【0053】図11は、上記の三角計測の原理を示す。
図中Pは、車道上の対象物23(この場合車輌)上の所
定の特徴点を示すもので、前記第1画像G1,第2画像
G2上にはこの特徴点Pの物点像Pu ,PL が現れてい
る。なお図中、Uはカメラ3aの焦点を、Lはカメラ3
bの焦点を、それぞれ示す。
FIG. 11 shows the principle of the above-mentioned triangulation measurement.
In the figure, P indicates a predetermined feature point on the object 23 (vehicle in this case) on the roadway, and the object point image P u of this feature point P on the first image G1 and the second image G2. , P L have appeared. In the figure, U is the focus of the camera 3a and L is the camera 3a.
The focal points of b are shown respectively.

【0054】上記の対応する物点像PU ,PL に対応す
る3次元座標(X,Y,Z)は、特徴点Pの空間位置に
相当する。したがってこの対象物23のすべての特徴点
について上記の方法を実行すれば、対象物23の立体形
状を把握することができる。この原理に基づき、3次元
座標算出部15は、つぎの(2)〜(4)式を実行して
各エッジ構成点に対応する3次元座標を算出する。
The three-dimensional coordinates (X, Y, Z) corresponding to the corresponding object point images P U and P L correspond to the spatial position of the characteristic point P. Therefore, if the above method is executed for all the characteristic points of the object 23, the three-dimensional shape of the object 23 can be grasped. Based on this principle, the three-dimensional coordinate calculation unit 15 executes the following expressions (2) to (4) to calculate the three-dimensional coordinates corresponding to each edge composing point.

【0055】[0055]

【数2】 [Equation 2]

【0056】[0056]

【数3】 [Equation 3]

【0057】[0057]

【数4】 [Equation 4]

【0058】ただし上記の各式において、Bは各カメラ
の基線長を、Fは各カメラのレンズの焦点距離を、Hは
第2のカメラ3bの高さデータを、θはカメラの俯角
を、それぞれ示す。
In the above equations, B is the base length of each camera, F is the focal length of the lens of each camera, H is the height data of the second camera 3b, and θ is the depression angle of the camera. Shown respectively.

【0059】すべてのエッジ構成点に対応する3次元座
標が算出されると、投影処理部17は、道路の長さ方向
に沿って仮想垂直平面を設定し、前記3次元座標算出部
により算出された3次元座標をこの仮想垂直平面上に投
影する。
When the three-dimensional coordinates corresponding to all the edge constituent points are calculated, the projection processing unit 17 sets a virtual vertical plane along the length direction of the road, and the three-dimensional coordinate calculation unit calculates the virtual vertical plane. 3D coordinates are projected on this virtual vertical plane.

【0060】図12は、投影処理の一例を示す。図中、
X,Y,Zは、各3次元座標点を既定するための空間座
標軸であって、前記仮想垂直平面(図中Rで示す)は、
道路に沿う位置においてZ軸に平行する水平軸Hと、Y
軸に平行する垂直軸Vとにより特定される。
FIG. 12 shows an example of the projection process. In the figure,
X, Y, and Z are spatial coordinate axes for defining each three-dimensional coordinate point, and the virtual vertical plane (indicated by R in the drawing) is
A horizontal axis H parallel to the Z axis at a position along the road, and Y
And a vertical axis V parallel to the axis.

【0061】前記仮想垂直平面Rには、各3次元座標点
の高さデータ(y座標)と、撮像さらた画像の正面から
見た場合の奥行きデータ(z座標)とを反映した点が投
影される。したがってこの仮想垂直平面Rを正面から見
ると、図13に示すごとく、前記各エッジ成分を道路の
側方から見た状態が抽出されている。
On the virtual vertical plane R, points reflecting the height data (y coordinate) of each three-dimensional coordinate point and the depth data (z coordinate) when viewed from the front of the captured image are projected. To be done. Therefore, when the virtual vertical plane R is viewed from the front, a state in which each of the edge components is viewed from the side of the road is extracted as shown in FIG.

【0062】なお前記車線データ記憶部18には、観測
位置から見た道路上の各車線の位置関係を示すデータ
(すなわちx座標およびz座標)が記憶されており、こ
の記憶データを参照して投影処理を行うようにすれば、
各3次元座標を車線毎に投影することができる。またこ
の車線データ記憶部18に代えて、3次元座標算出部1
5と投影処理部17との間に後述する分類処理部32を
配備し、各3次元座標を道路幅方向の位置関係に基づき
グループ分けした後、各グループ毎に投影処理を行うよ
うに構成しても良い。
The lane data storage section 18 stores data (ie, x coordinate and z coordinate) indicating the positional relationship of each lane on the road viewed from the observation position. If you do the projection process,
Each three-dimensional coordinate can be projected for each lane. Further, instead of the lane data storage unit 18, the three-dimensional coordinate calculation unit 1
5 is arranged between the projection processing unit 17 and the projection processing unit 17, the three-dimensional coordinates are divided into groups based on the positional relationship in the road width direction, and the projection processing is performed for each group. May be.

【0063】前記モデルデータ記憶部19には、図14
(1)(2)(3)に示すように、普通自動車,トラッ
ク,バスなど複数種の車輌について、それぞれ側面形状
のモデルを表す2次元データMD1,MD2,MD3・
・・が記憶されている。比較判別部19は、前記仮想垂
直平面Rに対しこれらの側面形状モデル(以下単に「モ
デル」という)を順次走査させることにより、仮想垂直
平面R上に表される投影点が何を示しているのかを判別
する。
FIG. 14 shows the model data storage section 19.
As shown in (1), (2) and (3), two-dimensional data MD1, MD2, MD3.
.. is stored. The comparison / determination unit 19 sequentially scans these side surface shape models (hereinafter, simply referred to as “models”) on the virtual vertical plane R to show what the projection point represented on the virtual vertical plane R is. To determine if.

【0064】なお、各車輌のモデルは、必ずしも側面形
状全体を表すものに限らず、図15(1)〜(3)に示
すように、前記各モデルの一部の形状を示す2次元デー
タ(図中実線で示す部分)をモデルとしても良い。
It should be noted that the model of each vehicle is not limited to the one representing the entire side surface shape, but as shown in FIGS. 15 (1) to 15 (3), two-dimensional data ( The part shown by the solid line in the figure) may be used as a model.

【0065】図16は、前記図13に示した投影結果に
対し、図14(1)のモデルMD1を用いて比較処理を
行った例を示す。比較判定部20は、仮想垂直平面Rの
原点Oを初期位置として、前記モデルMD1を順次H軸
方向に走査し、各走査位置においてモデルMD1に含ま
れる投影点の数nを計数し、この投影点数nが所定のし
きい値TH以上であったとき、つぎの(5)式を実行し
て、このモデルMD1と重なり合う投影部分の評価値E
i を算出する。
FIG. 16 shows an example in which the projection result shown in FIG. 13 is subjected to comparison processing using the model MD1 of FIG. 14 (1). The comparison and determination unit 20 sequentially scans the model MD1 in the H-axis direction with the origin O of the virtual vertical plane R as an initial position, counts the number n of projection points included in the model MD1 at each scanning position, and calculates the projections. When the score n is equal to or larger than the predetermined threshold value TH, the following expression (5) is executed to evaluate the evaluation value E of the projection portion overlapping with the model MD1.
Calculate h i .

【0066】なお(5)式において、hk ,vk は仮想
垂直平面R上の点の座標を示し、hi はモデルの左端点
のH座標、LNはモデルのH軸方向の長さ、V(h)は
座標h(0<h<LN)におけるモデルの高さを表す関
数をそれぞれ示す。またSiは後述する(6)式により
示される。
In the equation (5), h k and v k indicate the coordinates of a point on the virtual vertical plane R, h i is the H coordinate of the left end point of the model, LN is the length of the model in the H axis direction, V (h) represents a function representing the height of the model at the coordinate h (0 <h <LN). Further, S i is represented by the equation (6) described later.

【0067】[0067]

【数5】 [Equation 5]

【0068】[0068]

【数6】 [Equation 6]

【0069】一方、モデルに重なる投影点の数nが前記
しきい値を下回った場合は、比較判定部20は、その走
査位置における評価値に最大値MAXを設定する。比較
判定部20は、すべてのモデルにより仮想垂直平面R上
を走査して各走査位置における評価値を算出し、得られ
た結果の中から極小の評価値が得られたモデルの車種を
投影部分の車種と判定し、さらにその極小の評価値が得
られた時点での座標h0 (図16に示す)をその車輌の
先頭位置として決定する。
On the other hand, when the number n of projection points overlapping the model falls below the threshold value, the comparison and determination section 20 sets the maximum value MAX as the evaluation value at that scanning position. The comparison determination unit 20 scans the virtual vertical plane R with all the models to calculate the evaluation value at each scanning position, and projects the vehicle type of the model from which the minimum evaluation value is obtained from the obtained results. Then, the coordinate h 0 (shown in FIG. 16) at the time when the minimum evaluation value is obtained is determined as the head position of the vehicle.

【0070】上記の判定結果は、処理結果記憶部21へ
と格納される。以下所定時間毎に同様の処理が実行さ
れ、その処理結果は、順次、処理結果記憶部21に蓄積
される。処理結果記憶部21は、図17に示すように、
各車線毎に抽出された車輌の先頭位置(前記図16の座
標h0 )を記憶するためのテーブルTB(以下「処理結
果記憶テーブルTB」という)を有するもので、それぞ
れの処理時刻t1 ,t2,t3 ・・・毎に、抽出された
車輌の先頭位置を示す数値が、順次記憶される。
The above determination result is stored in the processing result storage unit 21. Thereafter, similar processing is executed every predetermined time, and the processing results are sequentially accumulated in the processing result storage unit 21. The processing result storage unit 21, as shown in FIG.
Each table has a table TB (hereinafter referred to as a “process result storage table TB”) for storing the head position (coordinate h 0 in FIG. 16) of each vehicle extracted for each lane, and each process time t 1 , A numerical value indicating the head position of the extracted vehicle is sequentially stored for each time t 2 , t 3 .

【0071】追跡処理部22は、上記の処理結果記憶テ
ーブルTBより、各処理時刻毎に検出された車輌の位置
を取り出し、それぞれ1段階前の処理時刻におけるいず
れかの検出値と対応づけることにより、車輌の時間的な
位置変化を判別する。いまある処理時刻ti においてJ
台の車輌が検出されたものとし、このうちj番目(1≦
j≦J)に検出された車輌の先頭位置をhj (ti )と
したとき、追跡処理部22は、つぎの処理時刻ti+1
時点での各検出結果中、前記hj (ti )との差分が所
定のしきい値以下となるものの中からさらにh
j (ti )との距離が最小となる検出結果を抽出し、こ
れを処理時刻ti+1 におけるj番目の車輌の先頭位置h
j (ti+1 )と認識する。
The tracking processing unit 22 takes out the position of the vehicle detected at each processing time from the processing result storage table TB and associates it with any detected value at the processing time one step before. , Determine the position change of the vehicle over time. J at the current processing time t i
It is assumed that one vehicle is detected, of which jth (1 ≦
When the head position of the detected vehicle in j ≦ J) was h j (t i), the tracking processing unit 22 in each detection result at the time of the next processing time t i + 1, wherein h j ( from among those whose difference with t i ) is less than or equal to a predetermined threshold value, h
A detection result that minimizes the distance from j (t i ) is extracted, and this is extracted as the head position h of the j-th vehicle at the processing time t i + 1 .
Recognize as j (t i + 1 ).

【0072】なお、この対応づけ処理は、上記の条件を
満たすデータが所定の検出ラインDet(図18(1)
(2)に示す)を越えた時点で終了する。また処理時刻
i+1 において、上記の条件を満たすデータが存在しな
かったときには、追跡処理部21は、以後の対応づけ処
理を中止する。
Incidentally, in this associating process, data satisfying the above-mentioned condition is a predetermined detection line Det (FIG. 18 (1)).
The process ends when (2) is exceeded. Further, at the processing time t i + 1 , when there is no data satisfying the above conditions, the tracking processing unit 21 stops the subsequent associating processing.

【0073】図18(1)(2)は、前記対応づけ処理
に基づき判別された各車輌の位置変化を示す。図中、×
印は、各処理時間毎の検出結果をプロットしたもので、
各破線で示す軌跡は、対応づけられた検出結果、すなわ
ち個々の車輌の位置変化を示している。
FIGS. 18 (1) and 18 (2) show the position change of each vehicle determined based on the above-mentioned correspondence processing. In the figure, ×
The mark shows the detection results for each processing time.
The locus indicated by each broken line shows the corresponding detection result, that is, the position change of each vehicle.

【0074】検出ラインDetは、道路上の所定の水平
ラインに対応するもので、追跡処理部21は、各軌跡が
この検出ラインDetを越えた時点(図18(1)中、
1,t2 ,t3 で示す)で、通過車輌のカウント処理
を実行するとともに、この通過直後の検出値およびその
直前の数回分の検出結果をサンプリングし、これらの検
出結果を用いて車輌の通過速度を算出する。
The detection line Det corresponds to a predetermined horizontal line on the road, and the tracking processing unit 21 determines that each locus has crossed the detection line Det (in FIG. 18 (1),
At t 1 , t 2 , and t 3 ), the passing vehicle is counted, and the detection value immediately after passing and the detection results of several times immediately before that are sampled, and the vehicle is detected using these detection results. Calculate the passing speed of.

【0075】いまu番目の軌跡(u=1,2,3・・
・)について、N個の検出値をサンプリングし、このう
ちn番目(1≦n≦N)にサンプリングした検出値の座
標を(tun ,hun )とすると、この軌跡により示さ
れる車輌の通過速度Vu はつぎの(7)式で表される。
The u-th locus (u = 1, 2, 3, ...
·) For sampling the N number of the detected values, coordinates (tu n detected values sampled in these n-th (1 ≦ n ≦ N), when the hu n), the passage of vehicles indicated by the locus The velocity V u is expressed by the following equation (7).

【0076】[0076]

【数7】 [Equation 7]

【0077】なお、各車輌がスムーズに進行している状
態では、図18(1)に示すような軌跡が得られるが、
信号待ちや渋滞などにかかっている場合には、図18
(2)に示すように、各処理時間における検出値が殆ど
変化しない結果が得られる。
Incidentally, in the state where each vehicle is traveling smoothly, the locus shown in FIG. 18 (1) is obtained,
If you are waiting for a traffic light or a traffic jam,
As shown in (2), the result that the detected value at each processing time hardly changes is obtained.

【0078】上記の方法によれば、車輌の影などの平面
的なデータを車輌として誤検出する虞がなくなり、車輌
を正確に判別しての高精度の計測処理を行うことができ
る。また移動中の車輌の速度のほか、車道上に停止して
いる車輌や物体も検出することができるので、渋滞状況
の把握や、違法駐車,障害物などの抽出を的確に行うこ
とができる。
According to the above method, there is no possibility of erroneously detecting planar data such as the shadow of a vehicle as a vehicle, and it is possible to perform highly accurate measurement processing by accurately discriminating the vehicle. Further, in addition to the speed of a moving vehicle, a vehicle or an object stopped on the road can be detected, so that it is possible to accurately grasp a traffic jam condition and to illegally park or extract an obstacle.

【0079】図19は、交通流計測装置の他の構成例を
示す。この実施例も、前記と同様、2台のカメラ3a,
3bにより同時に取り込まれた画像から道路上の各車線
を走行する車輌を判別し、その判別結果の時間的推移か
ら交通流の計測を行うものであるが、ここでは前記図5
の構成に加えて、制御処理装置4の構成に、特徴選択部
30,代表点抽出部31,分類処理部32,座標選択部
33,重み付け範囲設定部34などを構成として付加す
ることにより、処理時間を削減し、しかも高精度の計測
処理を行うようにしている。
FIG. 19 shows another configuration example of the traffic flow measuring device. Also in this embodiment, the two cameras 3a, 3a,
Vehicles traveling in each lane on the road are discriminated from the images simultaneously captured by 3b, and the traffic flow is measured from the time transition of the discrimination result.
In addition to the above configuration, by adding a feature selection unit 30, a representative point extraction unit 31, a classification processing unit 32, a coordinate selection unit 33, a weighting range setting unit 34, etc. to the configuration of the control processing device 4 as processing, The time is reduced and highly accurate measurement processing is performed.

【0080】特徴選択部30は、エッジ画像メモリ12
a,12bに格納された各エッジ画像から処理対象候補
となる特徴部分を選択するためのもので、ここでは各エ
ッジ画像毎に、エッジ構成点が所定数以上連結している
部分を特徴部分として取り出すようにしている。
The feature selection unit 30 uses the edge image memory 12
This is for selecting a characteristic portion as a processing target candidate from each edge image stored in a and 12b. Here, a portion in which a predetermined number of edge constituent points are connected for each edge image is set as a characteristic portion. I try to take it out.

【0081】代表点抽出部30は、これら選択された特
徴部分につき、その特徴部分を代表する1点として、各
特徴部分の中心点に相当するエッジ構成点を抽出する。
図20(1)(2)は、前記図8(1)(2)に示した
エッジ画像に対し、特徴選択処理を施した例を示し、さ
らに図21は、前記図20(2)中の破線で囲んだ領域
内の画像において代表点(図中、×印で示す)を抽出し
た結果を示す。以下の処理では、これら代表点のみが処
理対象となるので、処理速度を大幅に向上させることが
できる。
The representative point extracting section 30 extracts edge constituent points corresponding to the center points of the respective characteristic portions as one point representing the characteristic portions of the selected characteristic portions.
FIGS. 20 (1) and 20 (2) show an example in which the feature selection processing is applied to the edge images shown in FIGS. 8 (1) and 8 (2), and FIG. The result of extracting a representative point (indicated by X in the figure) in the image within the area surrounded by the broken line is shown. In the following processing, only these representative points are processed, so that the processing speed can be greatly improved.

【0082】対応付け処理部14は、抽出された各代表
点に対し、各エッジ画像間での対応づけ処理を実行し、
3次元座標算出部15は、この対応づけ結果を用いて各
代表点につき3次元座標を算出する。分類処理部32
は、算出された各3次元座標に対し、それぞれのx座標
を用いたクラスタリング処理を実行し、その処理結果に
応じて、各代表点をグループ分けする。
The associating processor 14 executes the associating process between the respective edge images for each of the extracted representative points,
The three-dimensional coordinate calculation unit 15 calculates three-dimensional coordinates for each representative point by using this association result. Classification processing unit 32
Performs clustering processing using each x coordinate on each of the calculated three-dimensional coordinates, and groups each representative point into groups according to the processing result.

【0083】図22は各代表点についての3次元座標の
算出結果の一例を示すもので、車線L1とL2との境界
近傍の空間内、および第1の車線L1にかかるXZ平面
上に、それぞれ複数個の代表点が抽出されている。
FIG. 22 shows an example of the calculation result of the three-dimensional coordinates for each representative point, in the space near the boundary between the lanes L1 and L2 and on the XZ plane of the first lane L1. A plurality of representative points are extracted.

【0084】図23は、上記図22の各代表点をグルー
プ分けした結果を示すもので、車線L1とL2との境界
近傍に位置する各代表点は第1のグループG1に、また
xz平面上に位置する各代表点は第2のグループG2
に、それぞれ分類される。
FIG. 23 shows the result of grouping the representative points in FIG. 22. The representative points located near the boundary between the lanes L1 and L2 are in the first group G1 and on the xz plane. The representative points located at are the second group G2
Are classified into two categories.

【0085】このグループ分け処理が終了すると、投影
処理部17は、各グループに含まれる代表点の3次元座
標について、グループ毎に投影処理を実行する。座標選
択部33は、各グループの投影処理結果から最終的な処
理対象となる代表点を選択する。この実施例では、車輌
のバンパー位置に相当するy座標をしきい値としてお
り、座標選択部33は前記仮想垂直平面R上に投影され
た各代表点の中からこのしきい値を上回る高さデータを
有する点を、車輌の構成点候補として選択する。
When the grouping process is completed, the projection processing section 17 executes the projection process for each group with respect to the three-dimensional coordinates of the representative points included in each group. The coordinate selection unit 33 selects a representative point to be the final processing target from the projection processing results of each group. In this embodiment, the y-coordinate corresponding to the bumper position of the vehicle is used as the threshold value, and the coordinate selection unit 33 selects a height higher than the threshold value from the representative points projected on the virtual vertical plane R. A point having data is selected as a candidate point of the vehicle.

【0086】図24(1)(2)は、それぞれ前記グル
ープG1,G2について、前記の座標選択処理を行った
後の投影結果を示すもので、グループG2の各投影点は
ノイズとして除去されている。上記の処理により、車輌
の影など、道路平面上に位置する対象物にかかる投影点
が除去されるもので、残された投影点には、以下に述べ
るように、重み付け範囲設定部34により重み付け範囲
の設定処理が施され、以下、比較処理部20により、こ
の設定範囲に含まれる各点とモデルデータ記憶部19に
記憶された各モデルとの比較処理が、順次実行される。
FIGS. 24 (1) and 24 (2) show the projection results of the groups G1 and G2 after the coordinate selection processing is performed. The projection points of the group G2 are removed as noise. There is. By the above processing, the projection points on the object located on the road plane, such as the shadow of the vehicle, are removed. The remaining projection points are weighted by the weighting range setting unit 34 as described below. A range setting process is performed, and thereafter, the comparison processing unit 20 sequentially executes a comparison process between each point included in the setting range and each model stored in the model data storage unit 19.

【0087】つぎに図25〜図29を用いて、上記重み
付け範囲の設定処理と比較処理との詳細を説明する。重
み付け範囲設定部34は、各投影点に対し、図25に示
すように、前記3次元座標の計測時に生じた誤差の幅に
相当する範囲として、この投影点を中心カメラパラメー
タに基づく方向に所定長さ分だけ拡張した線分WLを設
定する。
Details of the weighting range setting process and the comparison process will be described below with reference to FIGS. 25 to 29. As shown in FIG. 25, the weighting range setting unit 34 sets each projection point as a range corresponding to the width of the error generated at the time of measuring the three-dimensional coordinates, and sets the projection point in the direction based on the central camera parameter. The line segment WL expanded by the length is set.

【0088】いまi番目の投影点Wi のHV平面上にお
ける座標を(hi ,vi )とし、カメラ3a,3bによ
り得られる各入力画像上でこの投影点Wi に対応する点
のy座標をそれぞれyUi,yLiとすると、投影点Wi
中心点とする拡張線分WLの各端点Wi + ,Wi - の座
標(hi+,vi+),(hi-,vi-)は、それぞれつぎの
(8)〜(11)式により求められる。なお、以下の式
において、B,F,H,θは、前記(2)〜(4)式で
用いたと同様のカメラパラメータを示す。また各式中、
eは、入力画像上の1画素により示される現実の長さを
示す。
Let the coordinates of the i-th projection point W i on the HV plane be (h i , v i ), and y of the point corresponding to this projection point W i on each input image obtained by the cameras 3a and 3b. If the coordinates are y Ui and y Li , respectively, the coordinates (h i + , v i + ), (h i− , v of the end points W i + , W i of the extended line segment WL with the projection point W i as the center point are set. i- ) is calculated by the following equations (8) to (11). In the formulas below, B, F, H, and θ represent the same camera parameters as used in the formulas (2) to (4). Also in each formula,
e indicates the actual length indicated by one pixel on the input image.

【0089】[0089]

【数8】 [Equation 8]

【0090】[0090]

【数9】 [Equation 9]

【0091】[0091]

【数10】 [Equation 10]

【0092】[0092]

【数11】 [Equation 11]

【0093】比較判定部20は、モデルデータ記憶部1
9の各モデルMを順次読み出し、図26に示すように、
モデルMの幅rの範囲内に2点以上の投影点が含まれる
範囲SRを、モデルの走査範囲として設定する。
The comparison / determination unit 20 is the model data storage unit 1.
Each model M of 9 is sequentially read out, and as shown in FIG.
A range SR in which two or more projection points are included in the range of the width r of the model M is set as the scanning range of the model.

【0094】この後、比較判定部20は、図27に示す
ように、この走査範囲R内におけるモデルMの各走査位
置hi 毎に、前記拡張線分WLとモデルMとの交点Zi
の座標を求めると共に、この交点Zi と投影点Wi との
距離Di 、およびこの交点Zi 側に位置する端点Wi +
(またはWi - )と投影点Wi までの距離Ei を算出す
る。さらに比較判定部20は、この投影点Wi につい
て、算出されたDi ,Ei の比率をつぎの(12)式に
当てはめることにより、この交点Zi の位置に実際にモ
デルMが存在する確率spi (図28に示す)を、投影
点Wi の評価値として算出した後、これら評価値spi
の総和SPi を、前記走査位置hi における投影データ
のモデルとの適合度として算出する。
Thereafter, as shown in FIG. 27, the comparison / determination section 20 makes an intersection Z i between the extension line segment WL and the model M for each scanning position h i of the model M within the scanning range R.
With determination of the coordinates, the distance D i between the intersection point Z i and the projection point W i, and the end point W i which is located the intersection point Z i side +
(Or W i -) and calculates the distance E i to the projection point W i. Further, the comparison / determination unit 20 applies the calculated ratio of D i and E i to the projection point W i to the following equation (12), so that the model M actually exists at the position of this intersection Z i. After calculating the probability sp i (shown in FIG. 28) as the evaluation value of the projection point W i , these evaluation values sp i
The sum SP i, is calculated as a goodness of fit with the model of the projection data in the scanning position h i.

【0095】[0095]

【数12】 [Equation 12]

【0096】なお上式において、εは自然定数の底を意
味し、またσは2または3の値をとるものとする。
In the above equation, ε means the base of the natural constant, and σ takes a value of 2 or 3.

【0097】上記の方法により、モデルMと各拡張線分
WLとの間で、各交点Zi と投影点Wi との距離に応じ
た重みを付けた比較が行われることになり、3次元座標
算出時の誤差を取り除くことができる。なおこの重みを
付けた比較にかかる構成は、第1の実施例の装置にも適
用することが可能である。
According to the above method, the model M and each extension line segment WL are compared with each other by weighting according to the distance between each intersection Z i and the projection point W i. The error at the time of coordinate calculation can be removed. Note that this weighted comparison configuration can also be applied to the apparatus of the first embodiment.

【0098】図29は、前記走査範囲SRにおける比較
処理の結果を示すもので、比較判定部20は、前記評価
値SPi が最大値となる走査位置h0 にモデルMに相当
する車種の先頭部分が位置するものと判断する。
FIG. 29 shows the result of the comparison processing in the scanning range SR. The comparison / determination unit 20 indicates that the head of the vehicle type corresponding to the model M is located at the scanning position h 0 where the evaluation value SP i is the maximum value. Judge that the part is located.

【0099】この判別結果は、処理結果記憶部21に格
納され、以下第1の実施例と同様、追跡処理部22によ
り、各車輌の時間的な位置変化や速度計測などの処理が
実行される。
The determination result is stored in the processing result storage unit 21, and the tracking processing unit 22 executes processing such as temporal position change and speed measurement of each vehicle as in the first embodiment. .

【0100】上記の2つの実施例は、いずれも各カメラ
3a,3bからの入力画像からエッジ構成点を抽出し、
その抽出結果に基づき、画像上の特徴部分を道路に沿う
仮想垂直平面に投影して車輌の判別を行うようにしてい
るが、夜間など、車輌の特徴である天井やフロントガラ
ス等の画像部分を抽出しにくい状態下においては、各入
力画像を2値化処理して車輌のライトの画像を特徴部分
として抽出し、その抽出結果を用いて交通流を計測する
方法が有効となる。
In each of the above two embodiments, edge constituent points are extracted from the input images from the cameras 3a and 3b,
Based on the extraction result, the characteristic part on the image is projected on the virtual vertical plane along the road to identify the vehicle, but the image part such as the ceiling and the windshield, which is the characteristic of the vehicle at night, is detected. Under difficult conditions, it is effective to binarize each input image to extract the image of the vehicle light as a characteristic portion and measure the traffic flow using the extracted result.

【0101】図30は、夜間時の処理に対応する交通流
計測装置の構成例を示すもので、制御処理部4は、前記
第1の実施例のエッジ抽出部13,エッジ画像メモリ1
2a,12bに代えて2値化処理部35,2値画像メモ
リ36a,36bを構成として含んでいる。
FIG. 30 shows an example of the structure of a traffic flow measuring device corresponding to the processing at night. The control processing unit 4 includes the edge extracting unit 13 and the edge image memory 1 of the first embodiment.
Instead of 2a and 12b, a binarization processing unit 35 and binary image memories 36a and 36b are included as components.

【0102】図31(1)(2)および図32(1)
(2)は、それぞれカメラ3a,3bにより得られた入
力画像の例を示す。なおいずれの例も、(1)を付した
図面は第1の画像メモリ11a内に格納される第1入力
画像を示し、(2)を付した図面は第2の画像メモリ1
1b内に格納される第2入力画像を示す。
FIG. 31 (1) (2) and FIG. 32 (1)
(2) shows examples of input images obtained by the cameras 3a and 3b, respectively. In all examples, the drawing with (1) shows the first input image stored in the first image memory 11a, and the drawing with (2) shows the second input image memory 1a.
2b shows a second input image stored in 1b.

【0103】2値化処理部35は、各画像メモリ11
a,11b内の入力画像に対し、それぞれ輝度値が所定
のしきい値を越える画素を黒画素に変換する処理を行
い、その結果得られた2値画像を、2値画像メモリ36
a,36bに格納する。図33(1)(2)は、前記図
31(1)(2)の各入力画像を2値化処理して得られ
た画像を、図34(1)(2)は、前記図32(1)
(2)の各入力画像を2値化処理して得られた画像を、
それぞれ示すもので、いずれの2値画像も、車輌のライ
トの部分が黒画素として抽出されている。
The binarization processing unit 35 operates the image memory 11
The input images in a and 11b are subjected to processing for converting pixels whose brightness values exceed a predetermined threshold value into black pixels, and the resulting binary image is stored in the binary image memory 36.
a and 36b. FIGS. 33 (1) and (2) show images obtained by binarizing the input images shown in FIGS. 31 (1) and (2), and FIGS. 1)
The image obtained by binarizing each input image in (2) is
In each of the binary images, the light portion of the vehicle is extracted as a black pixel.

【0104】対応づけ処理部14は、各2値画像中の黒
画素に対し、前記と同様、画像間の対応づけ処理を行う
もので、3次元座標算出部15は、その対応づけられた
各画素につきその3次元座標の算出処理を実行する。こ
の結果、各入力画像上に含まれるライト部分の位置が抽
出され、比較判定部20へと出力される。
The associating processing unit 14 performs the associating process between the images for the black pixels in each binary image in the same manner as described above, and the three-dimensional coordinate calculating unit 15 carries out each associating process. The calculation process of the three-dimensional coordinates is executed for each pixel. As a result, the position of the light portion included in each input image is extracted and output to the comparison determination unit 20.

【0105】モデルデータ記憶部19には、普通車輌,
バイク,大型車輌などの車輌別のライトの数や設置位置
にかかるデータが記憶されており、比較判定部20は、
この記憶データと前記3次元座標算出部15による算出
結果とを比較することにより、いずれの位置にどの種の
車輌が位置しているかを判別する。
The model data storage unit 19 stores ordinary vehicles,
Data relating to the number of lights and installation positions for each vehicle such as a motorcycle and a large vehicle is stored, and the comparison / determination unit 20
By comparing the stored data with the calculation result by the three-dimensional coordinate calculating unit 15, it is possible to determine which kind of vehicle is located at which position.

【0106】図35は前記図33(1)(2)の2値画
像を用いた3次元座標の算出結果を、図35は前記図3
4(1)(2)の2値画像を用いた3次元座標の算出結
果を、それぞれ示す。
FIG. 35 shows the calculation result of the three-dimensional coordinates using the binary image of FIGS. 33 (1) and 33 (2), and FIG.
The calculation results of the three-dimensional coordinates using the binary images of 4 (1) and (2) are shown respectively.

【0107】図中、・印は抽出された各特徴部分の中心
点に相当する点(以下「特徴点」という)を示す。比較
判定部20は、標準的なバンパーの高さ位置に相当する
y座標から所定の高さ位置までを認識範囲とし、y座標
値がこの認識範囲内に含まれる特徴点を、車輌のライト
を示す特徴点候補として抽出する。さらに比較判定部2
0は、抽出された各特徴点の位置関係を前記モデルデー
タ記憶部19内の記憶データと比較することにより、道
路上の車輌の車種や位置を判別する。なお各図中、点線
部分は、車線データ記憶部18内の位置情報に基づく車
線の境界線を示すもので、この位置情報により、判別さ
れた車輌がいずれの車線に位置するかが認識される。
In the figure, the mark * indicates a point corresponding to the center point of each extracted feature portion (hereinafter referred to as "feature point"). The comparison / determination unit 20 sets the recognition range from the y-coordinate corresponding to the standard height position of the bumper to a predetermined height position, and sets the feature point whose y-coordinate value is within the recognition range to the vehicle light. It is extracted as the indicated feature point candidate. Furthermore, the comparison and determination unit 2
0 compares the extracted positional relationship of each characteristic point with the stored data in the model data storage unit 19 to determine the vehicle type and position of the vehicle on the road. In each figure, a dotted line portion indicates a lane boundary line based on the position information in the lane data storage unit 18, and it is possible to recognize in which lane the determined vehicle is located based on this position information. .

【0108】例えば、バンパーの真上位置に相当する位
置にあり、かつ普通乗用車のライトの間隔に相当する間
隔を隔てて道路の幅方向に平行に位置する特徴点の組
(例えば、図35中の特徴点o1 とo2 ,および特徴点
3 とo4 の各組)が存在する場合、比較判定部20
は、これら特徴点の位置を普通乗用車の先頭位置として
認識する。またバンパーの真上位置に相当する高さデー
タを有する単独の特徴点(例えば図35中の特徴点
5 )があれば、比較判定部20は、この特徴点の位置
にバイクが位置すると判別する。またライトに相当する
特徴点の組の間隔が普通乗用車のライトの間隔よりも大
きく、かつこの特徴点の組の近傍に、多数の特徴点が位
置する場合(図36中の各特徴点)には、比較判定部2
0は、この特徴点群が大型車輌を示すものと判断し、さ
らに各特徴点の位置関係からその車種(トラック,バ
ン,バスなど)を判別する。
For example, a set of characteristic points located at a position directly above the bumper and parallel to the width direction of the road at an interval corresponding to the interval of lights of a passenger car (for example, in FIG. 35). Of the feature points o 1 and o 2 and the feature points o 3 and o 4 ) of the
Recognizes the positions of these feature points as the head position of the ordinary passenger car. If there is a single feature point (for example, feature point o 5 in FIG. 35) having height data corresponding to the position directly above the bumper, the comparison and determination unit 20 determines that the motorcycle is located at this feature point. To do. Further, when the interval of the feature points corresponding to the lights is larger than the interval of the lights of the ordinary passenger car and a large number of feature points are located near the feature point set (each feature point in FIG. 36). Is the comparison determination unit 2
0 determines that this feature point group indicates a large vehicle, and further determines the vehicle type (truck, van, bus, etc.) from the positional relationship of each feature point.

【0109】一方、降雨時などに道路上にライトの影が
移ったり、道路沿いの夜間灯や標識の画像が特徴点とし
て抽出された場合には、これら特徴点のy座標は前記認
識範囲外にあるので、車輌を反映する特徴点ではないと
判別される。これにより、車輌以外の物体を車輌として
誤検出する虞がなくなり、夜間においても車輌を高精度
で判別することができる。
On the other hand, when the shadow of the light shifts on the road at the time of rainfall or the image of the night light or the sign along the road is extracted as the feature points, the y coordinates of these feature points are outside the recognition range. Therefore, it is determined that the feature point does not reflect the vehicle. As a result, there is no risk of erroneously detecting an object other than the vehicle as the vehicle, and the vehicle can be discriminated with high accuracy even at night.

【0110】比較判定部20の判定結果は、処理結果記
憶部21に順次格納され、以下追跡処理部22により、
前記第1,第2の実施例と同様の処理が実行される。
The determination results of the comparison / determination unit 20 are sequentially stored in the processing result storage unit 21.
The same processing as in the first and second embodiments is executed.

【0111】ここまでの各実施例は、いずれも交通流計
測装置にかかるものであるが、上記した車輌観測方法は
走行中の車輌に限らず、駐車中の車輌に適用することも
可能である。
Although all of the above-described embodiments are related to the traffic flow measuring device, the above-mentioned vehicle observation method can be applied not only to a running vehicle but also to a parked vehicle. .

【0112】図37は、この発明を駐車場観測装置に適
用した例を示す。この駐車場観測装置は、複数の駐車区
画(図示例では2区画)から成る駐車場の近傍位置で、
車輌が駐車状況を判別するためのもので、所定間隔を隔
てて配備される駐車区画40,40は、それぞれ長さ方
向(図中矢印Aで示す方向)に4区画,幅方向に2区画
に区切ることにより、計8個の駐車エリアARが設けら
れている。
FIG. 37 shows an example in which the present invention is applied to a parking lot observation device. This parking lot observation device is located in the vicinity of a parking lot consisting of a plurality of parking zones (two zones in the illustrated example),
The vehicle is used to determine the parking status, and the parking sections 40, 40 arranged at predetermined intervals are respectively 4 sections in the length direction (direction shown by arrow A in the figure) and 2 sections in the width direction. A total of eight parking areas AR are provided by dividing the areas.

【0113】この実施例では、各駐車区画40毎に、そ
の駐車区画40内の各駐車エリアARを観測するように
しており、それぞれ駐車区画40の長さ方向Aの延長上
に、カメラ3a,3bおよび制御処理装置4´から成る
観測装置が配備されている。
In this embodiment, for each parking section 40, each parking area AR in the parking section 40 is observed, and the cameras 3a, An observation device composed of 3b and a control processing device 4'is provided.

【0114】なおこの実施例では、各カメラ3a,3b
は、照明用の支柱41に、前記と同様の位置関係をもっ
て取り付けられる。また各制御処理装置4´による計測
結果は、図示しない管理センターのコンピュータに伝送
され、駐車場全体の使用状況が把握される。
In this embodiment, the cameras 3a and 3b are used.
Are attached to the lighting columns 41 in the same positional relationship as described above. Further, the measurement result by each control processing device 4'is transmitted to a computer of a management center (not shown) to grasp the usage status of the entire parking lot.

【0115】図38は、上記観測装置の電気的構成を示
す。制御処理装置4´は、前記図5と同様、A/D変換
部10a,10b,画像メモリ11a,11b,エッジ
画像メモリ12a,12b,エッジ抽出部13,対応づ
け処理部14,3次元座標算出部15,カメラパラメー
タ記憶部16,投影処理部17,モデルデータ記憶部1
9,比較判定部20を具備するほか、各駐車エリアAR
の位置情報(例えばエリアARの各頂点の座標など)を
記憶するためのエリアデータ記憶部42を構成として含
んでいる。
FIG. 38 shows the electrical configuration of the above observation device. As in the case of FIG. 5, the control processing device 4 ′ includes A / D conversion units 10a and 10b, image memories 11a and 11b, edge image memories 12a and 12b, an edge extraction unit 13, an association processing unit 14, and three-dimensional coordinate calculation. Unit 15, camera parameter storage unit 16, projection processing unit 17, model data storage unit 1
9. In addition to having a comparison and determination unit 20, each parking area AR
The area data storage unit 42 for storing the position information (for example, the coordinates of each vertex of the area AR) is included as a configuration.

【0116】画像メモリ11a,11bに、それぞれ図
39(1)(2)に示すような入力画像が格納される
と、エッジ抽出部13は、これら入力画像について、前
記第1第2の実施例と同様の手法で、水平方向のエッジ
構成点を抽出する。この結果、図40(1)(2)に示
すようなエッジ画像が生成され、エッジ画像メモリ12
a,12bに格納される。
When the input images as shown in FIGS. 39 (1) and (2) are stored in the image memories 11a and 11b, the edge extracting unit 13 determines the input images according to the first and second embodiments. The edge constituent points in the horizontal direction are extracted by a method similar to. As a result, edge images as shown in FIGS. 40 (1) and 40 (2) are generated, and the edge image memory 12
a and 12b.

【0117】つぎに対応づけ処理部14および3次元座
標算出部15により、前記各実施例と同様の方法で、各
エッジ構成点の画像間での対応づけ処理、および対応づ
けられた各点の3次元座標の算出処理が行われる。
Next, the correspondence processing unit 14 and the three-dimensional coordinate calculation unit 15 perform the correspondence processing between the images of the edge constituent points and the corresponding points by the same method as in each of the embodiments. A three-dimensional coordinate calculation process is performed.

【0118】投影処理部17は、駐車区画の長さ方向
A、すなわち各駐車エリアARの幅方向に沿って仮想垂
直平面R´を設定し、算出された各3次元座標を、この
仮想垂直平面R´上に投影する。なお、この投影処理
は、前記エリアデータ記憶部42内の記憶データに基づ
き、駐車区画40の各列毎に行われる。
The projection processing unit 17 sets a virtual vertical plane R'along the lengthwise direction A of the parking section, that is, the widthwise direction of each parking area AR, and calculates each calculated three-dimensional coordinate on this virtual vertical plane. Project on R '. It should be noted that this projection process is performed for each row of the parking section 40 based on the storage data in the area data storage unit 42.

【0119】図41は前記の投影処理の一例を、図42
はこの投影処理がなされた仮想垂直平面R´を正面から
見た状態を、それぞれ示すもので、各駐車エリア内の車
輌の正面または背面の形状を示す投影データが分離され
て抽出されている。
FIG. 41 shows an example of the above-mentioned projection processing.
Shows a state in which the virtual vertical plane R ′ subjected to this projection process is viewed from the front, and projection data indicating the shape of the front or back of the vehicle in each parking area is separated and extracted.

【0120】モデルデータ記憶部19には、図43
(1)(2)に示すように、各種の車輌毎の正面形状ま
たは背面形状を示すモデルが記憶されており、比較判定
部20は、前記第1の実施例と同様の手法で、仮想垂直
平面R´上に各モデルを順次走査して車輌の判別を行
う。この場合、比較判定部20は、いずれかモデルに相
当する車輌の存在する位置を判別すると、さらに前記エ
リアデータ記憶部42内の記憶データを照合して、その
判別された位置がいずれの駐車エリアに該当するかを認
識し、最終的に管理センターに対し、いずれの駐車エリ
アにどのような種類の車輌が駐車しているかを示す情報
を伝送する。
FIG. 43 shows the model data storage section 19.
As shown in (1) and (2), a model indicating the front shape or the back shape of each vehicle is stored, and the comparison / determination unit 20 uses the same method as that of the first embodiment to calculate the virtual vertical direction. Each model is sequentially scanned on the plane R ′ to identify the vehicle. In this case, when the comparison / determination unit 20 determines the position where the vehicle corresponding to any of the models exists, the comparison / determination unit 20 further collates the stored data in the area data storage unit 42, and the determined position indicates which parking area. Finally, the information indicating which kind of vehicle is parked in which parking area is finally transmitted to the management center.

【0121】なお上記の実施例では、駐車エリアの幅方
向に仮想垂直平面R´を設定して、各車輌の正面形状を
投影するようにしているが、これに限らず、駐車エリア
の長さ方向に仮想垂直平面を設定して、各車輌の側面形
状を投影しても良い。また上記の実施例では、同じ列に
並ぶ駐車エリアについての投影処理を同時に行っている
が、駐車エリア毎に、個別に投影処理を行うようにして
も良い。さらにこの駐車場観測処理に加えて、各駐車区
画40の周辺の通路を走行する車輌を、前記第1,第2
の実施例を用いて判別するようにすれば、駐車しようと
している車輌や駐車場から出ていく車輌の判別も可能と
なり、駐車場全体を統合的に管理することができる。
In the above embodiment, the virtual vertical plane R'is set in the width direction of the parking area to project the front shape of each vehicle. However, the present invention is not limited to this, and the length of the parking area is not limited to this. A virtual vertical plane may be set in the direction to project the side surface shape of each vehicle. Further, in the above-described embodiment, the projection processing is performed simultaneously for the parking areas arranged in the same row, but the projection processing may be performed individually for each parking area. Furthermore, in addition to this parking lot observation processing, the vehicle running on the passage around each parking section 40 is
According to the embodiment described above, it is possible to determine the vehicle that is about to park or the vehicle that leaves the parking lot, and the entire parking lot can be managed in an integrated manner.

【0122】上記の駐車場観測装置は、3次元座標の投
影処理に基づく車輌判別を行っているが、これに代えて
算出された各3次元座標により示される高さデータに基
づき車輌を判別するように構成しても良い。図44は、
この場合の装置構成例を示すもので、制御処理装置4´
は、算出された各3次元座標と各駐車エリアの位置情報
に基づき、各駐車エリア内に車輌が駐車しているか否か
を判別するための駐車有無判別部45を具備している。
なお、その他、各実施例と同一の構成については、同じ
符号を付すことにより詳細な説明を省略する。
The above parking lot observing device performs vehicle discrimination based on the projection processing of three-dimensional coordinates. Instead, it discriminates vehicles based on the height data indicated by the calculated three-dimensional coordinates. It may be configured as follows. Figure 44 shows
An example of a device configuration in this case is shown, and a control processing device 4 '
Has a parking presence / absence determining unit 45 for determining whether or not the vehicle is parked in each parking area based on the calculated three-dimensional coordinates and the position information of each parking area.
In addition, other than that, detailed description is omitted by assigning the same reference numerals to the same configurations as the respective embodiments.

【0123】駐車有無判別部45は、エリアデータ記憶
部42に記憶された各駐車エリアARの位置情報に基づ
き、算出された各3次元座標を駐車エリア毎にグループ
分けする。例えば、前記図41に示した3次元座標の算
出結果をグループ分けすると、図45(1)(2)に示
すような結果となる。
The parking presence / absence determining section 45 divides the calculated three-dimensional coordinates into groups for each parking area based on the position information of each parking area AR stored in the area data storage section 42. For example, if the calculation results of the three-dimensional coordinates shown in FIG. 41 are divided into groups, the results shown in FIGS. 45 (1) and 45 (2) are obtained.

【0124】さらに駐車有無判別部45は、m番目に分
類されたグループgm について、グループ内に含まれる
3次元座標点の個数PTm およびこれら座標点の高さデ
ータの平均値ADm を算出し、この算出されたデータP
m ,ADm をそれぞれ所定のしきい値と比較すること
により、このグループgm に該当する駐車エリアAR内
に車輌が存在するか否かを判別する。
Further, the parking presence / absence determining unit 45 calculates the number PT m of the three-dimensional coordinate points included in the group g m and the average value AD m of the height data of these coordinate points for the group g m classified into the m-th place. Then, the calculated data P
By comparing each of T m and AD m with a predetermined threshold value, it is determined whether or not there is a vehicle in the parking area AR corresponding to this group g m .

【0125】前記3次元座標点の個数PTm は、車輌の
エッジ構成点の平均的な数に相当する値に設定されたし
きい値TH1 と比較される。また高さ平均値ADm は2
種類のしきい値TH2 ,TH3 と比較されるもので、こ
のうちしきい値TH2 には普通乗用車の平均的な高さに
相当する値が、しきい値TH3 には大型車輌の平均的な
高さに相当する値が、それぞれ設定される。
The number PT m of the three-dimensional coordinate points is compared with a threshold value TH 1 set to a value corresponding to the average number of edge constituent points of the vehicle. The height average value AD m is 2
The threshold values TH 2 and TH 3 are compared with each other. Among them, the threshold value TH 2 is a value corresponding to the average height of an ordinary passenger vehicle, and the threshold value TH 3 is a value of a large vehicle. A value corresponding to the average height is set respectively.

【0126】前記グループgm において、前記PTm
しきい値TH1 を上回り、かつADm がしきい値TH2
としきい値TH3 との間にあるとき、駐車有無判別部4
5は、このグループgm に該当する駐車エリアARに普
通乗用車が存在するものと判別する。またPTm がしき
い値TH1 を上回り、かつADm がしきい値TH2 以上
の値をとるときは、このグループgm に該当する駐車エ
リアARには大型車輌が存在するものと判別される。な
おPTm がしきい値TH1 以下の値をとる場合、または
ADm がしきい値TH2 以下の値をとる場合には、該当
する駐車エリアには車輌が存在しないものと判別され
る。
In the group g m , the PT m exceeds the threshold TH 1 and the AD m is the threshold TH 2.
And between the threshold value TH 3 and the parking presence / absence determining unit 4
5 determines that an ordinary passenger vehicle exists in the parking area AR corresponding to this group g m . When PT m exceeds the threshold value TH 1 and AD m takes a value equal to or greater than the threshold value TH 2, it is determined that a large vehicle exists in the parking area AR corresponding to this group g m. It When PT m has a value equal to or less than the threshold value TH 1 or when AD m has a value equal to or less than the threshold value TH 2, it is determined that no vehicle exists in the corresponding parking area.

【0127】なお上記の各実施例は、道路上または駐車
エリア内の車輌を判別するものであるが、車輌に限ら
ず、各種の対象物を判別したり、その対象物の時間的な
位置変化を計測する際にも、同様の手法を適用できるこ
とは、言うまでもない。
Although each of the above-described embodiments discriminates the vehicle on the road or in the parking area, it is not limited to the vehicle and can discriminate various objects or change the position of the object with time. It goes without saying that the same method can be applied to the measurement of.

【0128】[0128]

【発明の効果】請求項1および7の発明では、2台以上
の撮像装置により観測位置を撮像して得られる画像から
各画像の特徴部分を抽出し、さらにこれら特徴部分の画
像間の対応関係から各特徴部分の3次元座標を抽出した
後、抽出された各3次元座標を、対象物に接する平面に
対し垂直に位置する仮想垂直平面上に投影し、その投影
結果を対象物のモデルデータと比較して対象物を判別す
るようにした。これにより観測位置における対象物の種
別,位置,個数などを正確に把握し、しかも対象物の影
など平面的なデータを対象物と誤認識することがなくな
るので、観測精度が大幅に向上する。
According to the first and seventh aspects of the present invention, the characteristic portions of each image are extracted from the images obtained by picking up the observation positions by two or more image pickup devices, and the correspondence relation between the images of these characteristic portions is extracted. After extracting the three-dimensional coordinates of each feature part from, the extracted three-dimensional coordinates are projected on a virtual vertical plane that is perpendicular to the plane in contact with the object, and the projection result is model data of the object. The target object is discriminated by comparing with. As a result, the type, position, number, etc. of the object at the observation position can be accurately grasped, and the planar data such as the shadow of the object is not erroneously recognized as the object, so that the observation accuracy is greatly improved.

【0129】請求項4および10の発明では、上記と同
様にして2台以上の撮像装置による画像からそれぞれ特
徴部分を抽出した後、各特徴部分について代表的な特徴
を示す点を特定し、特定された各代表点の3次元座標に
対し、前記と同様の投影処理,比較判別処理を行うよう
にしたので、処理速度を大幅に短縮することができる。
According to the inventions of claims 4 and 10, after the characteristic portions are respectively extracted from the images by the two or more image pickup devices in the same manner as described above, the points showing the representative characteristic of each characteristic portion are specified and specified. Since the projection processing and the comparison / discrimination processing similar to those described above are performed on the three-dimensional coordinates of the respective representative points, the processing speed can be significantly reduced.

【0130】請求項2,5,8,11の各発明では、抽
出された3次元座標を、対象物が接する平面上の位置関
係に基づきグループ分けした後、各グループ毎に前記仮
想垂直平面への投影処理を行うようにしたので、複数の
対象物が存在する場合でも、その位置関係に応じて個別
に判別することができる。
In each of the inventions of claims 2, 5, 8 and 11, the extracted three-dimensional coordinates are divided into groups based on the positional relationship on the plane in contact with the object, and then each group is moved to the virtual vertical plane. Since the projection processing is performed, even when there are a plurality of objects, it is possible to individually determine them according to their positional relationship.

【0131】請求項3,6,9,12の各発明では、仮
想垂直平面上の各投影点毎に、その投影点を含む所定の
範囲内の各点について、投影点との距離に基づく重みを
付してモデルデータとの比較を行うことにより、3次元
計測時に生じた誤差を取り除き、対象物の判別精度を向
上させることができる。
According to the inventions of claims 3, 6, 9 and 12, for each projection point on the virtual vertical plane, for each point within a predetermined range including the projection point, a weight based on the distance from the projection point is used. By adding the symbol and comparing with the model data, it is possible to remove the error that has occurred during the three-dimensional measurement and improve the discrimination accuracy of the object.

【0132】請求項13の発明では、道路の上方に2台
以上の撮像装置を配備して観測位置を撮像して得られる
画像を所定の時間毎に取り込み、上記と同様の方法で、
各画像中の特徴部分の3次元座標を抽出した後、この抽
出結果を道路に沿う仮想垂直平面上に投影し、その投影
結果を複数種の車輌の側面の形状モデルと比較するよう
にしたので、道路上の車輌の種別,台数,および位置を
判別して交通流を正確に計測することができる。また上
記の比較処理によれば、交通渋滞など、車輌が重なった
場合でも精度の良い車輌抽出が可能となる。さらにこの
比較処理は2次元平面上で行われるので、ハード構成を
小さくすることができる上、処理速度を高速化でき、高
精度の交通流計測装置を安価に提供できる。
In the thirteenth aspect of the present invention, two or more image pickup devices are provided above the road to capture images obtained by picking up the observation position at predetermined time intervals, and by the same method as described above,
After extracting the three-dimensional coordinates of the characteristic part in each image, the extraction result is projected on a virtual vertical plane along the road, and the projection result is compared with the shape models of the side surfaces of a plurality of types of vehicles. The traffic flow can be accurately measured by discriminating the type, number and position of vehicles on the road. Further, according to the above-mentioned comparison processing, it is possible to accurately extract the vehicle even when the vehicles overlap due to traffic congestion. Furthermore, since this comparison process is performed on a two-dimensional plane, the hardware configuration can be reduced, the processing speed can be increased, and a highly accurate traffic flow measuring device can be provided at low cost.

【0133】請求項14の発明では、道路の上方に配備
された2台以上の撮像装置から得られた画像から特徴部
分を抽出した後、各特徴部分について上記と同様、対応
付け、3次元計測を実行した後、所定の高さ条件を満た
す3次元座標を用いて道路上の車輌を判別するので、夜
間時においても車輌のライト部分の位置関係に基づき高
精度の交通流計測を行うことができる。
In the fourteenth aspect of the present invention, after the characteristic portions are extracted from the images obtained from the two or more image pickup devices arranged above the road, the respective characteristic portions are associated with each other in the same manner as described above, and the three-dimensional measurement is performed. After executing, the vehicle on the road is discriminated by using the three-dimensional coordinates that satisfy the predetermined height condition. Therefore, it is possible to perform highly accurate traffic flow measurement based on the positional relationship of the light portion of the vehicle even at night. it can.

【0134】請求項15の発明では、2台以上の撮像装
置を所定形状のエリアに向けて配備して同時に撮像し、
得られた各画像につき上記と同様の方法で特徴部分の3
次元座標を抽出し、抽出された各3次元座標を、エリア
の車輌の設置面に垂直に位置する仮想垂直平面上に投影
し、その投影結果と種々の車輌の形状モデルとを比較す
るようにしたので、エリア内の車輌を正確に判別するこ
とができる。また請求項16の発明では、抽出された各
3次元座標が所定の高さ条件を満たすか否かにより、エ
リア内に車輌が存在するか否かを簡単に判別できる。さ
らにこれら請求項15,16の発明においても、ハード
ウエア構成の削減や、処理速度の高速化を実現でき、駐
車場計測における従来の諸問題は一挙に解決する。
According to the fifteenth aspect of the present invention, two or more image pickup devices are arranged toward an area having a predetermined shape, and images are picked up at the same time.
For each of the obtained images, the 3
Dimensional coordinates are extracted, and each extracted three-dimensional coordinate is projected on a virtual vertical plane that is perpendicular to the installation surface of the vehicle in the area, and the projection result is compared with the shape models of various vehicles. Therefore, the vehicle in the area can be accurately identified. According to the sixteenth aspect of the present invention, whether or not a vehicle exists in the area can be easily determined by whether or not each of the extracted three-dimensional coordinates satisfies a predetermined height condition. Further, also in the inventions of claims 15 and 16, the hardware configuration can be reduced and the processing speed can be increased, and the conventional problems in the parking lot measurement can be solved at once.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の第1実施例にかかる交通流計測装置
の設置例を示す説明図である。
FIG. 1 is an explanatory diagram showing an installation example of a traffic flow measuring apparatus according to a first embodiment of the present invention.

【図2】2台のカメラの設置例を示す斜視図である。FIG. 2 is a perspective view showing an installation example of two cameras.

【図3】カメラの他の設置例を示す斜視図である。FIG. 3 is a perspective view showing another installation example of the camera.

【図4】カメラを一体化した例を示す斜視図である。FIG. 4 is a perspective view showing an example in which a camera is integrated.

【図5】交通流計測装置の電気的構成を示すブロック図
である。
FIG. 5 is a block diagram showing an electrical configuration of a traffic flow measuring device.

【図6】各カメラからの入力画像の例を示す説明図であ
る。
FIG. 6 is an explanatory diagram showing an example of an input image from each camera.

【図7】ラプラシアンフィルタを示す説明図である。FIG. 7 is an explanatory diagram showing a Laplacian filter.

【図8】エッジ画像の抽出例を示す説明図である。FIG. 8 is an explanatory diagram illustrating an example of extracting an edge image.

【図9】対応づけ処理の方法を示す説明図である。FIG. 9 is an explanatory diagram showing a method of association processing.

【図10】対応づけ処理のための相違度演算の結果を例
示する説明図である。
FIG. 10 is an explanatory diagram exemplifying a result of a dissimilarity calculation for association processing.

【図11】3角計量の原理を示す説明図である。FIG. 11 is an explanatory diagram showing the principle of triangulation measurement.

【図12】3次元座標の投影方法を示す説明図である。FIG. 12 is an explanatory diagram showing a projection method of three-dimensional coordinates.

【図13】仮想垂直平面への投影結果を例示する説明図
である。
FIG. 13 is an explanatory diagram illustrating the result of projection onto a virtual vertical plane.

【図14】側面形状モデルを示す説明図である。FIG. 14 is an explanatory diagram showing a side surface shape model.

【図15】モデルの他の設定例を示す説明図である。FIG. 15 is an explanatory diagram showing another setting example of the model.

【図16】比較判別処理結果を示す説明図である。FIG. 16 is an explanatory diagram showing a comparison determination processing result.

【図17】処理結果記憶部のデータ構成を示す説明図で
ある。
FIG. 17 is an explanatory diagram showing a data structure of a processing result storage unit.

【図18】各処理時点での車輌位置の検出値を対応づけ
た結果を示す説明図である。
FIG. 18 is an explanatory diagram showing a result of associating detected values of vehicle positions at respective processing points.

【図19】第2実施例にかかる交通流計測装置の構成を
示すブロック図である。
FIG. 19 is a block diagram showing a configuration of a traffic flow measuring device according to a second embodiment.

【図20】特徴選択の結果を示す説明図である。FIG. 20 is an explanatory diagram showing a result of feature selection.

【図21】代表点の抽出結果を示す説明図である。FIG. 21 is an explanatory diagram showing a result of extracting representative points.

【図22】代表点に対する3次元座標の算出結果を示す
説明図である。
FIG. 22 is an explanatory diagram showing a calculation result of three-dimensional coordinates for a representative point.

【図23】図22の各3次元座標に対する分類処理の結
果を示す説明図である。
23 is an explanatory diagram showing a result of a classification process on each three-dimensional coordinate in FIG. 22.

【図24】各グループ毎に3次元座標を投影した結果を
示す説明図である。
FIG. 24 is an explanatory diagram showing a result of projecting three-dimensional coordinates for each group.

【図25】重み付け範囲の設定方法を示す説明図であ
る。
FIG. 25 is an explanatory diagram showing a method of setting a weighting range.

【図26】モデルの走査範囲を示す説明図である。FIG. 26 is an explanatory diagram showing a scanning range of a model.

【図27】重みを付した比較処理方法の原理を示す説明
図である。
FIG. 27 is an explanatory diagram showing the principle of a weighted comparison processing method.

【図28】各投影点の評価値の概念を示す説明図であ
る。
FIG. 28 is an explanatory diagram showing the concept of the evaluation value of each projection point.

【図29】比較判別処理結果を示す説明図である。FIG. 29 is an explanatory diagram showing a result of comparison / determination processing.

【図30】第3実施例にかかる交通流計測装置の構成を
示すブロック図である。
FIG. 30 is a block diagram showing a configuration of a traffic flow measuring device according to a third embodiment.

【図31】各カメラからの入力画像の例を示す説明図で
ある。
FIG. 31 is an explanatory diagram showing an example of an input image from each camera.

【図32】各カメラからの入力画像の例を示す説明図で
ある。
FIG. 32 is an explanatory diagram showing an example of an input image from each camera.

【図33】図31の各入力画像を2値化処理した結果を
示す説明図である。
FIG. 33 is an explanatory diagram showing a result of binarizing each input image of FIG. 31.

【図34】図32の各入力画像を2値化処理した結果を
示す説明図である。
34 is an explanatory diagram showing a result of binarizing each input image of FIG. 32. FIG.

【図35】特徴点の3次元座標を算出した結果を示す説
明図である。
FIG. 35 is an explanatory diagram showing a result of calculating three-dimensional coordinates of feature points.

【図36】特徴点の3次元座標を算出した結果を示す説
明図である。
FIG. 36 is an explanatory diagram showing a result of calculating three-dimensional coordinates of feature points.

【図37】第4実施例にかかる駐車場観測装置の設置例
を示す説明図である。
FIG. 37 is an explanatory diagram showing an installation example of the parking lot observation device according to the fourth embodiment.

【図38】駐車場観測装置の構成を示すブロック図であ
る。
FIG. 38 is a block diagram showing a configuration of a parking lot observation device.

【図39】各カメラからの入力画像の例を示す説明図で
ある。
FIG. 39 is an explanatory diagram showing an example of an input image from each camera.

【図40】エッジ画像の抽出例を示す説明図である。FIG. 40 is an explanatory diagram illustrating an example of extracting an edge image.

【図41】3次元座標の算出結果と投影処理との関係を
示す説明図である。
FIG. 41 is an explanatory diagram showing a relationship between a calculation result of three-dimensional coordinates and projection processing.

【図42】投影処理結果を示す説明図である。FIG. 42 is an explanatory diagram showing a projection processing result.

【図43】モデルの形状を示す説明図である。FIG. 43 is an explanatory diagram showing the shape of a model.

【図44】第5実施例にかかる駐車場観測装置の構成を
示すブロック図である。
FIG. 44 is a block diagram showing a configuration of a parking lot observation device according to a fifth embodiment.

【図45】3次元座標をグループ分けした結果を示す説
明図である。
FIG. 45 is an explanatory diagram showing a result of grouping three-dimensional coordinates.

【符号の説明】[Explanation of symbols]

3a,3b カメラ 4 制御処理装置 13 エッジ抽出部 14 対応づけ処理部 15 3次元座標産出具 17 投影処理部 18 モデルデータ記憶部 20 比較判定部 31 代表点抽出部 34 重み付け範囲設定部 35 2値化処理部 45 駐車有無判定部 3a, 3b cameras 4 Control processor 13 Edge extractor 14 Correlation processing unit 15 3D coordinate production tool 17 Projection processing unit 18 Model data storage 20 Comparison judgment section 31 Representative point extractor 34 Weighting range setting section 35 Binarization processing unit 45 Parking presence / absence determination unit

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 - 11/30 G06T 1/00 G06T 7/00 G08G 1/00 - 9/02 H04N 7/18 Front page continued (58) Fields surveyed (Int.Cl. 7 , DB name) G01B 11/00-11/30 G06T 1/00 G06T 7/00 G08G 1/00-9/02 H04N 7/18

Claims (16)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 対象物を観測する方法において、 2台以上の撮像装置を所定の観測位置に向けて同時に撮
像を行い、得られた各画像中の特徴部分を画像毎に抽出
する第1のステップと、 前記抽出された各画像の特徴部分について画像間での対
応付けを行う第2のステップと、 対応づけられた各特徴部分について3次元計測を行って
各特徴部分の3次元座標を抽出する第3のステップと、 抽出された各特徴部分の3次元座標を、対象物が接する
平面に対し垂直に位置する仮想垂直平面上に投影する第
4のステップと、 この投影データを所定の2次元モデルデータと比較する
ことにより前記対象物を判別する第5のステップとを一
連に実施することを特徴とする物体観測方法。
1. A method for observing a target object, wherein two or more imaging devices are simultaneously imaged toward a predetermined observation position, and a characteristic portion in each obtained image is extracted for each image. Steps, a second step of associating the extracted feature portions of each image between the images, and three-dimensional measurement of each associated feature portion to extract three-dimensional coordinates of each feature portion. And a fourth step of projecting the extracted three-dimensional coordinates of each feature part onto a virtual vertical plane that is positioned perpendicular to the plane in contact with the object, and this projection data An object observing method, characterized in that a fifth step of discriminating the object by comparing it with three-dimensional model data is carried out in series.
【請求項2】 前記第4のステップの投影処理は、各特
徴部分の3次元座標を前記対象物が接する平面上の位置
関係に基づきグループ分けした後、各グループ毎に、そ
のグループ内に含まれる3次元座標を前記仮想垂直平面
に投影する処理である請求項1に記載された物体観測方
法。
2. The projection process of the fourth step is performed by grouping the three-dimensional coordinates of each characteristic portion into groups based on the positional relationship on the plane with which the object is in contact, and then including each group within the group. The object observing method according to claim 1, wherein the object observing method is a process of projecting the three-dimensional coordinates described above onto the virtual vertical plane.
【請求項3】 前記第5のステップの比較処理は、前記
第4のステップの投影処理により仮想垂直平面上に生成
された各投影点に対し、それぞれその投影点を含む所定
範囲を設定するとともに、この範囲内の各点について前
記投影点との位置関係に基づく重みを付して前記2次元
モデルデータとの比較を行う処理である請求項1または
2のいずれかに記載された物体観測方法。
3. The comparison process of the fifth step sets, for each projection point generated on the virtual vertical plane by the projection process of the fourth step, a predetermined range including the projection point. 3. The object observing method according to claim 1, wherein the object observing method is a process of weighting each point within this range based on a positional relationship with the projection point and comparing the weight with the two-dimensional model data. .
【請求項4】 対象物を観測する方法において、 2台以上の撮像装置を所定の観測位置に向けて同時に撮
像を行い、得られた各画像中の特徴部分を画像毎に抽出
する第1のステップと、 前記抽出された各画像の特徴部分について、それぞれそ
の代表的な特徴を示す点を特定する第2のステップと、 前記特定された各代表点について画像間での対応付けを
行う第3のステップと、 対応づけられた各代表点毎に3次元計測を行って各代表
点の3次元座標を抽出する第4のステップと、 抽出された各代表点の3次元座標を、対象物が接する平
面に対し垂直に位置する仮想垂直平面上に投影する第5
のステップと、 この投影データを所定の2次元モデルデータと比較する
ことにより前記対象物を判別する第6のステップとを一
連に実施することを特徴とする物体観測方法。
4. A method of observing an object, wherein first and second imaging devices are simultaneously imaged at predetermined observation positions, and a characteristic part in each obtained image is extracted for each image. A second step of identifying a point indicating a representative feature of each of the extracted characteristic portions of each image, and a third step of associating the identified representative points between images And the fourth step of performing three-dimensional measurement for each associated representative point to extract the three-dimensional coordinates of each representative point, and Fifth projection onto an imaginary vertical plane that is perpendicular to the tangent plane
And a sixth step of discriminating the target object by comparing the projection data with predetermined two-dimensional model data.
【請求項5】 前記第5のステップの投影処理は、各代
表点の3次元座標を前記対象物が接する平面上の位置関
係に基づきグループ分けした後、各グループ毎に、その
グループ内に含まれる3次元座標を前記仮想垂直平面上
に投影する処理である請求項4に記載された物体観測方
法。
5. The projection process of the fifth step, after grouping the three-dimensional coordinates of each representative point on the basis of the positional relationship on the plane in contact with the object, includes each group within the group. The object observing method according to claim 4, which is a process of projecting the three-dimensional coordinates described above onto the virtual vertical plane.
【請求項6】 前記第6のステップの比較処理は、前記
第5のステップの投影処理により仮想垂直平面上に生成
された各投影点に対し、それぞれその投影点を含む所定
範囲を設定するとともに、この範囲内の各点について前
記投影点との位置関係に基づく重みを付して前記2次元
モデルデータとの比較を行う処理である請求項4または
5のいずれかに記載された物体観測方法。
6. The comparing process of the sixth step sets, for each projection point generated on the virtual vertical plane by the projection process of the fifth step, a predetermined range including the projection point. The object observing method according to claim 4 or 5, wherein each point within this range is weighted based on the positional relationship with the projection point and compared with the two-dimensional model data. .
【請求項7】 対象物を観測するための装置において、 観測位置に向けて配備された2台以上の撮像装置と、 各撮像装置により同時に取り込まれた各画像からそれぞ
れ特徴部分を抽出する特徴抽出手段と、 前記特徴抽出手段により抽出された各画像の特徴部分に
ついて画像間での対応付けを行う対応付け手段と、 前記対応付け手段により対応づけられた各特徴部分につ
いて3次元計測を行って各特徴部分の3次元座標を抽出
する座標抽出手段と、 対象物の2次元モデルデータを記憶する記憶手段と、 対象物が接する平面に対し垂直に位置するように仮想垂
直平面を設定して、この仮想垂直平面上に前記座標抽出
手段により抽出された各特徴部分の3次元座標を投影す
る投影手段と、 前記投影手段による投影結果を前記記憶手段に記憶され
た2次元モデルデータと比較する比較手段とを備えて成
る物体観測装置。
7. An apparatus for observing an object, characterized in that two or more imaging devices arranged toward an observation position, and feature extraction for extracting a characteristic part from each image simultaneously captured by each imaging device. Means, associating means for associating the characteristic portions of each image extracted by the characteristic extracting means between the images, and three-dimensional measurement for each of the characteristic portions associated by the associating means. Coordinate extraction means for extracting the three-dimensional coordinates of the characteristic portion, storage means for storing the two-dimensional model data of the object, and a virtual vertical plane are set so as to be positioned perpendicular to the plane in contact with the object. Projection means for projecting the three-dimensional coordinates of each characteristic portion extracted by the coordinate extraction means on a virtual vertical plane, and a projection result by the projection means is stored in the storage means. Object observation device comprising a comparison means for comparing the two-dimensional model data.
【請求項8】 前記投影手段は、前記座標抽出手段によ
り抽出された各特徴部分の3次元座標を前記対象物が接
する平面上の位置関係に基づきグループ分けした後、各
グループ毎に、そのグループ内に含まれる3次元座標を
前記仮想垂直平面に投影する請求項7に記載された物体
観測装置。
8. The projection means divides the three-dimensional coordinates of each characteristic portion extracted by the coordinate extraction means into groups based on a positional relationship on a plane with which the object is in contact, and then groups each group. The object observation device according to claim 7, wherein the three-dimensional coordinates included in the image are projected on the virtual vertical plane.
【請求項9】 前記比較手段は、前記投影手段による投
影処理により仮想垂直平面上に生成された各投影点に対
し、それぞれその投影点を含む所定範囲を設定するとと
もに、この範囲内の各点について前記投影点との位置関
係に基づく重みを付して前記2次元モデルデータとの比
較を行う請求項7または8のいずれかに記載された物体
観測装置。
9. The comparing means sets, for each projection point generated on the virtual vertical plane by the projection processing by the projection means, a predetermined range including the projection point, and each point within this range. 9. The object observation apparatus according to claim 7, wherein a weight is added based on a positional relationship with respect to the projection point and the comparison is performed with the two-dimensional model data.
【請求項10】 対象物を観測するための装置におい
て、 観測位置に向けて配備された2台以上の撮像装置と、 各撮像装置により同時に取り込まれた各画像からそれぞ
れ特徴部分を抽出する特徴抽出手段と、 前記特徴抽出手段により抽出された各画像の特徴部分に
ついて、それぞれその代表的な特徴を示す点を特定する
代表点特定手段と、 前記代表点特定手段により特定された各代表点について
画像間での対応付けを行う対応付け手段と、 前記対応付け手段により対応づけられた各代表点毎に3
次元計測を行って各代表点の3次元座標を抽出する座標
抽出手段と、 対象物の2次元モデルデータを記憶する記憶手段と、 対象物が接する平面に対し垂直に位置する仮想垂直平面
を設定して、この仮想垂直平面上に前記座標抽出手段に
より抽出された各代表点の3次元座標を投影する投影手
段と、 前記投影手段による投影結果を前記記憶手段に記憶され
た2次元モデルデータと比較する比較手段とを備えて成
る物体観測装置。
10. A device for observing an object, characterized in that two or more image pickup devices arranged toward an observation position, and feature extraction for extracting a characteristic part from each image simultaneously captured by each image pickup device. Means, a representative point specifying means for specifying a characteristic point of each image extracted by the characteristic extracting means, and an image for each representative point specified by the representative point specifying means. 3 for each of the representative points associated by the associating means and the associating means
Coordinate extraction means for performing three-dimensional measurement to extract three-dimensional coordinates of each representative point, storage means for storing two-dimensional model data of the object, and virtual vertical plane positioned perpendicular to the plane in contact with the object A projection means for projecting the three-dimensional coordinates of each representative point extracted by the coordinate extraction means on the virtual vertical plane; and two-dimensional model data in which the projection result by the projection means is stored in the storage means. An object observation apparatus comprising: a comparison means for comparing.
【請求項11】 前記投影手段は、前記座標抽出手段に
より抽出された各代表点の3次元座標を前記対象物が接
する平面上の位置関係に基づきグループ分けした後、各
グループ毎に、そのグループ内に含まれる3次元座標を
前記仮想垂直平面上に投影する請求項10に記載された
物体観測装置。
11. The projection means divides the three-dimensional coordinates of each representative point extracted by the coordinate extraction means into groups based on the positional relationship on the plane with which the object is in contact, and then groups each group. The object observation device according to claim 10, wherein the three-dimensional coordinates included in the image are projected onto the virtual vertical plane.
【請求項12】 前記比較手段は、前記投影手段による
投影処理により仮想垂直平面上に生成された各投影点に
対し、それぞれその投影点を含む所定範囲を設定すると
ともに、この範囲内の各点について前記投影点との位置
関係に基づく重みを付して前記2次元モデルデータとの
比較を行う請求項10または11のいずれかに記載され
た物体観測装置。
12. The comparison means sets, for each projection point generated on the virtual vertical plane by the projection processing by the projection means, a predetermined range including the projection point, and each point within this range. The object observing device according to claim 10 or 11, wherein a weight based on a positional relationship with the projection point is added and the comparison is performed with the two-dimensional model data.
【請求項13】 道路上における車輌の流れを観測して
その観測結果の時間的な推移により道路上における交通
流データを計測する装置であって、 道路の上方に道路上の観測位置に向けて配備された2台
以上の撮像装置と、 所定の時間毎に各撮像装置により同時に取り込んだ各画
像からそれぞれ特徴部分を抽出する特徴抽出手段と、 前記特徴抽出手段により抽出された各画像の特徴部分に
ついて画像間での対応付けを行う対応付け手段と、 前記対応付け手段により対応づけられた各特徴部分につ
いて3次元計測を行って各特徴部分の3次元座標を抽出
する座標抽出手段と、 道路に沿う仮想垂直平面を設定して、この仮想垂直平面
上に前記座標抽出手段により抽出された各特徴部分の3
次元座標を投影する投影手段と、 複数種の車輌について、各車輌の側面の形状モデルを記
憶する記憶手段と、 前記投影手段による投影結果を前記記憶手段に記憶され
た各モデルと比較することにより道路上の車輌を判別す
る車輌判別手段と、 前記車輌判別手段による判別結果を順次追跡して道路上
における車輌の流れを観測する観測手段とを備えて成る
交通流計測装置。
13. A device for observing a flow of a vehicle on a road and measuring traffic flow data on the road based on a temporal transition of the observation result, which is directed toward an observation position on the road above the road. Two or more image pickup devices provided, feature extraction means for extracting feature portions from each image simultaneously captured by each image pickup device at a predetermined time, and feature portions of each image extracted by the feature extraction means With respect to each image, coordinate extraction means for performing three-dimensional measurement on each characteristic portion associated with the association means, and extracting three-dimensional coordinates of each characteristic portion, An imaginary vertical plane is set along the virtual vertical plane, and 3 of each of the characteristic portions extracted by the coordinate extracting means on the imaginary vertical plane.
By projecting the dimensional coordinates, storing means for storing the shape model of the side surface of each vehicle for a plurality of types of vehicles, and comparing the projection result by the projecting means with each model stored in the storing means. A traffic flow measuring device comprising: a vehicle discrimination means for discriminating a vehicle on the road; and an observation means for observing the flow of the vehicle on the road by sequentially tracing the discrimination results by the vehicle discrimination means.
【請求項14】 道路上における車輌の流れを観測して
その観測結果の時間的な推移により道路上における交通
流データを計測する装置であって、 道路の上方に道路上の観測位置に向けて配備された2台
以上の撮像装置と、 所定の時間毎に各撮像装置により同時に取り込んだ各画
像からそれぞれ特徴部分を抽出する特徴抽出手段と、 前記特徴抽出手段により抽出された各画像の特徴部分に
ついて画像間での対応付けを行う対応付け手段と、 前記対応付け手段により対応づけられた各特徴部分につ
いて3次元計測を行って各特徴部分の3次元座標を抽出
する座標抽出手段と、 前記座標抽出手段により抽出された各特徴部分の3次元
座標のうち、所定の高さ条件を満たす3次元座標の相対
位置関係を用いて道路上の車輌を判別する車輌判別手段
と、 前記車輌判別手段による判別結果を順次追跡して道路上
における車輌の流れを観測する観測手段とを備えて成る
交通流計測装置。
14. A device for observing a flow of a vehicle on a road and measuring traffic flow data on the road based on a temporal transition of the observation result, which is directed toward an observation position on the road above the road. Two or more image pickup devices provided, feature extraction means for extracting feature portions from each image simultaneously captured by each image pickup device at a predetermined time, and feature portions of each image extracted by the feature extraction means And a coordinate extraction unit that performs three-dimensional measurement on each characteristic portion associated by the association unit, and extracts three-dimensional coordinates of each characteristic portion, Vehicle discriminating means for discriminating the vehicle on the road by using the relative positional relationship of the three-dimensional coordinates satisfying a predetermined height among the three-dimensional coordinates of the respective characteristic parts extracted by the extracting means. , Traffic flow measurement device comprising a observation means for observing the flow of vehicles in the vehicle discriminating means by the discrimination result successively tracking to the road.
【請求項15】 所定形状のエリア内に駐車する車輌を
観測するための装置であって、 前記エリアの上方にエリアに向けて配備された2台以上
の撮像装置と、 各撮像装置により同時に取り込んだ各画像からそれぞれ
特徴部分を抽出する特徴抽出手段と、 前記特徴抽出手段により抽出された各画像の特徴部分に
ついて画像間での対応付けを行う対応付け手段と、 前記対応付け手段により対応づけられた各特徴部分につ
いて3次元計測を行って各特徴部分の3次元座標を抽出
する座標抽出手段と、 前記エリアの車輌の設置面に対し垂直に位置する仮想垂
直平面を設定して、この仮想垂直平面上に前記座標抽出
手段により抽出された各特徴部分の3次元座標を投影す
る投影手段と、 複数種の車輌について、各車輌の形状モデルを記憶する
記憶手段と、 前記投影手段による投影結果を前記記憶手段に記憶され
た各モデルと比較することにより前記エリア内の車輌を
判別する判別手段とを備えて成る駐車場観測装置。
15. A device for observing a vehicle parked in an area of a predetermined shape, comprising two or more image pickup devices arranged toward the area above the area, and captured by the respective image pickup devices at the same time. The feature extracting means for extracting the characteristic part from each image, the associating means for associating the characteristic parts of the images extracted by the feature extracting means between the images, and the associating means. The coordinate extraction means for performing three-dimensional measurement of each characteristic portion to extract the three-dimensional coordinates of each characteristic portion, and the virtual vertical plane positioned perpendicular to the installation surface of the vehicle in the area are set, and the virtual vertical plane Projection means for projecting the three-dimensional coordinates of each characteristic portion extracted by the coordinate extraction means on a plane, and storage means for storing a shape model of each vehicle for a plurality of types of vehicles And a discriminating means for discriminating a vehicle in the area by comparing a projection result by the projecting means with each model stored in the storing means.
【請求項16】 所定形状のエリア内に駐車する車輌を
観測するための装置であって、 前記エリアの上方にエリアに向けて配備された2台以上
の撮像装置と、 各撮像装置により同時に取り込んだ各画像からそれぞれ
特徴部分を抽出する特徴抽出手段と、 前記特徴抽出手段により抽出された各画像の特徴部分に
ついて画像間での対応付けを行う対応付け手段と、 前記対応付け手段により対応づけられた各特徴部分につ
いて3次元計測を行って各特徴部分の3次元座標を抽出
する座標抽出手段と、 前記座標抽出手段により抽出された各特徴部分の3次元
座標のうち、所定の高さ条件を満たす3次元座標を用い
て前記エリア内の車輌を判別する判別手段とを備えて成
る駐車場観測装置。
16. A device for observing a vehicle parked in an area of a predetermined shape, comprising two or more image pickup devices arranged toward the area above the area, and captured by the respective image pickup devices at the same time. The feature extracting means for extracting the characteristic part from each image, the associating means for associating the characteristic parts of the images extracted by the feature extracting means between the images, and the associating means. And a coordinate extracting means for performing three-dimensional measurement on each characteristic portion to extract the three-dimensional coordinates of each characteristic portion, and a predetermined height condition among the three-dimensional coordinates of each characteristic portion extracted by the coordinate extracting means. A parking lot observing device comprising: a discriminating means for discriminating a vehicle in the area using the three-dimensional coordinates that are satisfied.
JP12267796A 1995-05-18 1996-04-19 Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device Expired - Fee Related JP3456339B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP12267796A JP3456339B2 (en) 1995-05-18 1996-04-19 Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device
TW85106539A TW303443B (en) 1995-05-18 1996-05-30

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP14554695 1995-05-18
JP7-145546 1995-05-18
JP12267796A JP3456339B2 (en) 1995-05-18 1996-04-19 Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device

Publications (2)

Publication Number Publication Date
JPH0933232A JPH0933232A (en) 1997-02-07
JP3456339B2 true JP3456339B2 (en) 2003-10-14

Family

ID=26459768

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12267796A Expired - Fee Related JP3456339B2 (en) 1995-05-18 1996-04-19 Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device

Country Status (2)

Country Link
JP (1) JP3456339B2 (en)
TW (1) TW303443B (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3328711B2 (en) * 1997-12-15 2002-09-30 オムロン株式会社 Vehicle height measuring device and vehicle monitoring system using the same
JP3815019B2 (en) * 1998-01-20 2006-08-30 株式会社デンソー Vehicle type identification device
JP3629935B2 (en) * 1998-01-27 2005-03-16 オムロン株式会社 Speed measurement method for moving body and speed measurement device using the method
JP2002032766A (en) * 2000-07-18 2002-01-31 Matsushita Electric Ind Co Ltd Device and method for recognizing image
EP1089214A3 (en) 1999-09-30 2005-01-26 Matsushita Electric Industrial Co., Ltd. Apparatus and method for image recognition
JP2001297397A (en) * 2000-04-17 2001-10-26 Nagoya Electric Works Co Ltd Method and device for counting vehicle
KR100552389B1 (en) * 2004-02-21 2006-02-20 유일정보시스템(주) Advanced Traffic Analyzing System by Descriminating Types of Vehicles
US8509480B2 (en) * 2007-03-22 2013-08-13 Nec Corporation Mobile detector, mobile detecting program, and mobile detecting method
JP5108605B2 (en) * 2008-04-23 2012-12-26 三洋電機株式会社 Driving support system and vehicle
JP5315104B2 (en) * 2009-03-23 2013-10-16 三菱電機株式会社 Traffic flow measuring device
JP5448602B2 (en) * 2009-06-25 2014-03-19 三菱電機株式会社 Vehicle detection device, traffic information providing system, vehicle detection method, and vehicle detection program
JP6060570B2 (en) * 2012-09-07 2017-01-18 株式会社Ihi Analysis apparatus and analysis method
JP2015046126A (en) * 2013-08-29 2015-03-12 株式会社東芝 Vehicle detector
JP6455921B2 (en) * 2014-11-13 2019-01-23 エムケー精工株式会社 Parking detector
JP6601181B2 (en) * 2015-11-19 2019-11-06 株式会社大林組 Long material positioning support device
US10846541B2 (en) * 2017-01-04 2020-11-24 Qualcomm Incorporated Systems and methods for classifying road features
WO2020246202A1 (en) * 2019-06-03 2020-12-10 国立大学法人東京大学 Measurement system, measurement method, and measurement program
CN113899377B (en) * 2021-08-23 2023-10-27 武汉光庭信息技术股份有限公司 Method and system for measuring relative coordinates of automatic parking end point based on camera

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0782928A (en) * 1993-09-20 1995-03-28 Hitachi Zosen Corp Sky parking facility
JP3388087B2 (en) * 1996-04-18 2003-03-17 松下電器産業株式会社 Object detection device

Also Published As

Publication number Publication date
JPH0933232A (en) 1997-02-07
TW303443B (en) 1997-04-21

Similar Documents

Publication Publication Date Title
KR100201739B1 (en) Method for observing an object, apparatus for observing an object using said method, apparatus for measuring traffic flow and apparatus for observing a parking lot
JP3456339B2 (en) Object observation method, object observation device using the method, traffic flow measurement device and parking lot observation device using the device
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
CN111832536B (en) Lane line detection method and device
JP2917661B2 (en) Traffic flow measurement processing method and device
KR100459476B1 (en) Apparatus and method for queue length of vehicle to measure
JP3049603B2 (en) 3D image-object detection method
US7116246B2 (en) Apparatus and method for sensing the occupancy status of parking spaces in a parking lot
JP4118452B2 (en) Object recognition device
JP4363295B2 (en) Plane estimation method using stereo images
US20070127778A1 (en) Object detecting system and object detecting method
JP2000329852A (en) Obstacle recognition device
CN113345237A (en) Lane-changing identification and prediction method, system, equipment and storage medium for extracting vehicle track by using roadside laser radar data
JP2006184276A (en) All-weather obstacle collision preventing device by visual detection, and method therefor
CN108645375B (en) Rapid vehicle distance measurement optimization method for vehicle-mounted binocular system
Janda et al. Road boundary detection for run-off road prevention based on the fusion of video and radar
JP2018055597A (en) Vehicle type discrimination device and vehicle type discrimination method
JP3465531B2 (en) Object recognition method and apparatus
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
KR100532058B1 (en) Traffic information acquisition method and apparatus using camera calibration
JP3475700B2 (en) Object recognition method, object recognition device, and vehicle recognition device
CN116206286A (en) Obstacle detection method, device, equipment and medium under high-speed road condition
Shaaban et al. Parking space detection system using video images
JPH11175883A (en) Traffic volume measuring instrument and signal control device
JP3740531B2 (en) Parked vehicle detection method, detection system, and parked vehicle detection device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080801

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080801

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090801

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100801

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100801

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130801

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees