JPH1049662A - Device for discriminating vehicle - Google Patents

Device for discriminating vehicle

Info

Publication number
JPH1049662A
JPH1049662A JP8219342A JP21934296A JPH1049662A JP H1049662 A JPH1049662 A JP H1049662A JP 8219342 A JP8219342 A JP 8219342A JP 21934296 A JP21934296 A JP 21934296A JP H1049662 A JPH1049662 A JP H1049662A
Authority
JP
Japan
Prior art keywords
image
vehicle
feature
perspective
transformed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8219342A
Other languages
Japanese (ja)
Other versions
JP3605955B2 (en
Inventor
Masatoshi Kurumi
雅俊 來海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP21934296A priority Critical patent/JP3605955B2/en
Publication of JPH1049662A publication Critical patent/JPH1049662A/en
Application granted granted Critical
Publication of JP3605955B2 publication Critical patent/JP3605955B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To exactly discriminate a vehicle. SOLUTION: This device discriminates a vehicle by using a picture obtained by image picking up a prescribed observing position on a road from the upper part. A perspective transformation processing part 2 which operates the perspective transformation of an input picture on a virtual horizontal face including the road calculates the coordinate of the destination of the perspective transformation of each picture element of the input picture by an arithmetic operation using a parameter stored in a parameter storage part 3. A characteristic extracting part 4 extracts a characteristic by subtracting the generated perspective transformed picture from the perspective transformed result of a background picture. The model of a vehicle is stored in a model storage part 6. A judging part 5 calculates the size of the characteristic obtained by operating the perspective transformation of the vehicle model at a position at which the characteristic is extracted for each extracted characteristic, compares this calculated value with the size of the actual characteristic, and judges whether or not the characteristics indicates the vehicle when any significant difference is not recognized in the both sizes.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、道路上などに位置す
る車輌を観測するのに用いられる車輌観測装置に関連す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle observation device used for observing a vehicle located on a road or the like.

【0002】[0002]

【従来の技術】近年、道路の上方にカメラを設置して道
路上の所定位置を撮像し、得られた画像から車輌を示す
特徴を抽出し、その抽出結果の時間的な推移から道路上
における車輌の流れを計測する交通流計測装置が開発さ
れている。
2. Description of the Related Art In recent years, a camera is installed above a road to image a predetermined position on the road, and a feature indicating a vehicle is extracted from the obtained image. A traffic flow measuring device for measuring the flow of a vehicle has been developed.

【0003】前記した車輌の特徴を抽出する代表的な方
法としては、入力画像の背景差分をとる方法があげられ
る。この方法は、あらかじめ背景画像として道路上に対
象物が存在しない画像を記憶しておき、カメラからの画
像とこの背景画像との差分を車輌の画像部分として抽出
するものである(以下この方法を「背景差分法」とい
う)。
As a typical method for extracting the characteristics of a vehicle, there is a method of obtaining a background difference of an input image. In this method, an image in which an object does not exist on a road is stored in advance as a background image, and a difference between an image from a camera and the background image is extracted as an image portion of a vehicle (hereinafter, this method is referred to as a method). "Background subtraction method").

【0004】上記の背景差分法のほかには、1フレーム
前の入力画像を記憶しておき、現フレームの入力画像か
らこの直前の入力画像を差し引いて道路上の車輌の位置
の変化を抽出する方法(以下「フレーム差分法」とい
う)や、入力画像に空間微分を施して車輌の輪郭を示す
エッジ成分を抽出する方法(以下「空間差分法」とい
う)などがある。
In addition to the above-described background subtraction method, the input image of one frame before is stored, and the change of the position of the vehicle on the road is extracted by subtracting the immediately preceding input image from the input image of the current frame. There is a method (hereinafter, referred to as a “frame difference method”) and a method of performing an spatial differentiation on an input image to extract an edge component indicating a contour of a vehicle (hereinafter, referred to as a “spatial difference method”).

【0005】[0005]

【発明が解決しようとする課題】背景差分法は、あらか
じめ記憶された背景画像と異なる部分が抽出されること
になるので、実際の車輌の画像部分のみならず、車輌の
影の画像を誤抽出してしまうという問題が生じる。この
問題を解決するために、差分値が負値をとる特徴は車輌
として認識しないように設定することが提案されている
が、この方法を用いると、色彩の濃い車輌を検出するこ
とができなくなる。
In the background subtraction method, a portion different from the background image stored in advance is extracted, so that not only the image portion of the actual vehicle but also the image of the shadow of the vehicle is erroneously extracted. Problem arises. In order to solve this problem, it has been proposed to set a feature whose difference value is a negative value so as not to be recognized as a vehicle. However, if this method is used, a vehicle with a dark color cannot be detected. .

【0006】フレーム差分法や空間差分法を用いた場合
も、上記と同様、車輌の影が誤抽出されるという問題が
生じるため、道路上の車輌の台数や車種を正確に判別す
ることなど、到底不可能である。
[0006] Even in the case of using the frame difference method or the spatial difference method, there is a problem that the shadow of the vehicle is erroneously extracted as in the above case. Therefore, it is necessary to accurately determine the number and type of vehicles on the road. It is impossible at all.

【0007】この発明は上記問題に着目してなされたも
ので、観測位置を撮像して得られた2次元画像を、道路
面などの車輌の支持面を含む仮想水平面上に透視変換
し、この透視変換された画像上の特徴を用いて車輌を正
確に判別することを技術課題とする。
The present invention has been made in view of the above-mentioned problem. A two-dimensional image obtained by imaging an observation position is perspective-transformed onto a virtual horizontal plane including a vehicle support surface such as a road surface. It is an object of the present invention to accurately determine a vehicle using features on a perspective-transformed image.

【0008】[0008]

【課題を解決するための手段】所定の観測位置を撮像し
て得られた画像を、車輌の支持面を含む仮想水平面上に
透視変換すると、高さのある対象物の画像部分は、この
対象物の実際の位置に対応する点から離れた場所に投影
される。この投影点の位置ずれ量は、z座標が大きくな
るほど、また空間座標点が視点から離れるほど、大きく
なるので、車輌など高さデータを有する対象物を透視変
換すると、実際の対象物より歪んだ形状の特徴が得られ
る。一方、影など車輌の支持面上にある2次元対象物
は、その対象物の実際の位置に投影されるため、透視変
換後も、実際の対象物を真上から観察した場合と同様の
形状,大きさの特徴が得られる。
When an image obtained by imaging a predetermined observation position is perspective-transformed onto a virtual horizontal plane including a support surface of a vehicle, an image portion of a tall object is converted to an image portion of the object. It is projected at a point away from a point corresponding to the actual position of the object. The displacement amount of the projection point increases as the z coordinate increases and the spatial coordinate point moves away from the viewpoint, so that when the object having height data, such as a vehicle, is perspective-transformed, the displacement is distorted from the actual object. Shape features are obtained. On the other hand, a two-dimensional object, such as a shadow, on the support surface of the vehicle is projected onto the actual position of the object, so that even after perspective transformation, the shape is the same as when the actual object is observed from directly above , Size characteristics can be obtained.

【0009】各請求項にかかる発明は、上記の原理を用
いてなされたもので、請求項1にかかる車輌判別装置
は、前記観測位置を撮像して得られた2次元画像を入力
する画像入力手段と、入力された2次元画像を車輌の支
持面を含む仮想水平面上に透視変換する画像変換手段
と、前記画像変換手段により透視変換された画像につい
て特徴抽出を行う特徴抽出手段と、前記特徴抽出手段に
よる抽出結果を用いて前記観測位置における車輌を判別
する判別手段とを備えている。
The invention according to each claim is made using the above principle, and the vehicle discriminating apparatus according to claim 1 is an image inputting apparatus for inputting a two-dimensional image obtained by imaging the observation position. Means, image conversion means for perspectively transforming the input two-dimensional image on a virtual horizontal plane including a support surface of the vehicle, feature extraction means for performing feature extraction on the image perspectively transformed by the image transformation means, A determination unit configured to determine a vehicle at the observation position using an extraction result obtained by the extraction unit.

【0010】請求項2の発明では、前記特徴抽出手段
は、前記画像変換手段により透視変換された画像と、前
記観測位置における背景画像の透視変換画像との差分処
理により特徴抽出を行うように構成される。
[0010] In the second aspect of the present invention, the feature extracting means is configured to perform feature extraction by a difference process between a perspective-transformed image of the background image at the observation position and an image perspective-transformed by the image converting means. Is done.

【0011】請求項3の発明では、前記特徴抽出手段
は、前記画像変換手段により透視変換された画像からエ
ッジ成分を抽出し、抽出された各エッジ成分のうち、所
定の距離範囲内にあるエッジ成分を統合した結果を透視
変換画像上の特徴とするように構成される。
According to a third aspect of the present invention, the feature extracting means extracts an edge component from the image which has been perspectively transformed by the image transforming means, and an edge component within a predetermined distance range among the extracted edge components. The result of integrating the components is configured to be a feature on the perspective transformed image.

【0012】請求項4の発明では、前記特徴抽出手段
は、前記画像変換手段により透視変換された画像と、1
段階前に透視変換された入力画像との差分により画像上
の変動部分を求めた後、これら変動部分のうち所定の距
離範囲内にある変動部分を統合した結果を透視変換画像
上の特徴とするように構成される。
[0012] In the invention according to claim 4, the feature extracting means includes an image which is perspective-transformed by the image converting means,
After calculating the fluctuating parts on the image based on the difference from the input image that has been perspective-transformed before the stage, the result of integrating the fluctuating parts within a predetermined distance range among these fluctuating parts is used as the feature on the perspective-transformed image It is configured as follows.

【0013】請求項5の発明では、前記特徴抽出手段
は、前記画像変換手段により透視変換された画像につい
て、2種類以上の方法を用いて画像上の特徴を抽出した
後、各方法による抽出結果を統合するように構成され
る。
In the invention of claim 5, the feature extracting means extracts features on the image, which have been perspectively transformed by the image transforming means, by using two or more types of methods, and then extracts the result of each method. It is configured to integrate

【0014】請求項6の発明では、前記判別手段は、前
記特徴抽出手段により抽出された各特徴を、前記仮想水
平面上に所定の車輌モデルを透視変換して得られる特徴
と比較し、その比較結果に基づき前記観測位置における
車輌を判定する。
In the invention according to claim 6, the discriminating means compares each feature extracted by the feature extracting means with a feature obtained by performing a perspective transformation of a predetermined vehicle model on the virtual horizontal plane. The vehicle at the observation position is determined based on the result.

【0015】請求項7の発明にかかる車輌判別装置は、
前記と同様の画像入力手段および画像変換手段と、画像
変換手段により透視変換された入力画像について車頭部
分の画像候補となる特徴を抽出する特徴抽出手段と、前
記特徴抽出手段により抽出された各特徴間の距離を、前
記仮想水平面上に所定の車輌モデルを透視変換して得ら
れる特徴の大きさと比較して、各特徴が車頭部分の画像
であるか否かを判別する判別手段とを備えている。
According to a seventh aspect of the present invention, there is provided a vehicle discriminating apparatus.
Image input means and image conversion means similar to those described above, feature extraction means for extracting features that are image candidates for a vehicle head portion of the input image perspective-transformed by the image conversion means, and features extracted by the feature extraction means Comparing the distance between them with the size of a feature obtained by performing a perspective transformation of a predetermined vehicle model on the virtual horizontal plane, and determining whether or not each feature is an image of a vehicle head portion. I have.

【0016】請求項8の発明では、前記特徴抽出手段
は、前記画像変換手段により透視変換された画像と、前
記観測位置における背景画像の透視変換画像との差分画
像より、前記特徴を抽出するように構成される。
According to an eighth aspect of the present invention, the feature extracting means extracts the feature from a difference image between the image transformed by the image transforming means and the perspective transformed image of the background image at the observation position. It is composed of

【0017】請求項9の発明では、前記特徴抽出手段
は、前記画像変換手段により透視変換された画像上で、
車輌の幅方向におけるエッジ成分を、前記特徴として抽
出するように構成される。
In the ninth aspect of the present invention, the feature extracting means includes a step of:
An edge component in the width direction of the vehicle is configured to be extracted as the feature.

【0018】請求項10の発明では、前記特徴抽出手段
は、前記画像変換手段により透視変換された画像と、1
段階前に透視変換された入力画像との差分処理により透
視変換画像上の変動部分を、前記特徴として抽出する。
According to a tenth aspect of the present invention, the feature extracting means includes an image which is perspective-transformed by the image converting means,
A change portion on the perspective transformed image is extracted as the feature by a difference process with the input image that has been perspective transformed before the stage.

【0019】請求項11の発明は、道路上を走行する車
輌を判別するための装置であって、道路上の観測位置を
撮像して得られた2次元画像を入力する画像入力手段
と、入力された2次元画像を道路面を含む仮想水平面上
に透視変換する画像変換手段と、前記画像変換手段によ
り透視変換された画像について特徴抽出を行う特徴抽出
手段と、前記特徴抽出手段により抽出された各特徴を用
いて道路上に車輌が存在するか否かを仮判別する仮判別
手段と、過去複数回の入力画像についての仮判別結果を
記憶する記憶手段と、前記記憶手段に記憶された各入力
画像毎の仮判別結果を追跡して、道路上に車輌が存在す
るか否かを最終的に判別する最終判別手段とを備えてい
る。
An invention according to claim 11 is an apparatus for discriminating a vehicle traveling on a road, comprising: image input means for inputting a two-dimensional image obtained by imaging an observation position on the road; Image transformation means for perspectively transforming the obtained two-dimensional image onto a virtual horizontal plane including a road surface, feature extraction means for performing feature extraction on the image perspectively transformed by the image transformation means, and the feature extraction means A provisional determination means for temporarily determining whether or not a vehicle exists on the road using each feature; a storage means for storing a provisional determination result for a plurality of past input images; and a storage means for storing each of the storage means in the storage means. A final discriminating means is provided for tracing a temporary discrimination result for each input image and finally discriminating whether or not a vehicle exists on the road.

【0020】[0020]

【作用】請求項1の発明では、観測位置における2次元
画像を車輌の支持面を含む仮想水平面上に透視変換した
後、この透視変換画像についての特徴抽出結果により観
測位置における車輌を判別するようにしたので、観測位
置における車輌の高さを反映した特徴を用いて、車輌と
影などの2次元対象物とを明確に区別して認識すること
が可能となる。
According to the first aspect of the present invention, the two-dimensional image at the observation position is perspective-transformed onto a virtual horizontal plane including the support surface of the vehicle, and then the vehicle at the observation position is determined based on the feature extraction result of the perspective transformed image. Therefore, it is possible to clearly distinguish and recognize a vehicle and a two-dimensional object such as a shadow using a feature reflecting the height of the vehicle at the observation position.

【0021】請求項2の発明では、入力画像を透視変換
して得られる画像と、観測位置における背景画像の透視
変換画像との差分をとることにより、背景になかった画
像部分が特徴として抽出される。
According to the second aspect of the present invention, the difference between the image obtained by performing the perspective transformation of the input image and the perspective transformation image of the background image at the observation position is obtained, so that the image portion not existing in the background is extracted as a feature. You.

【0022】請求項3の発明では、入力画像を透視変換
して得られる画像上で、所定の距離範囲内にあるエッジ
成分を統合した結果が、特徴として抽出される。また請
求項4の発明では、透視変換画像上における1段階前の
透視変換画像に対する変動部分のうち、所定の距離範囲
内にある変動部分を統合した結果が特徴として抽出され
る。
According to the third aspect of the present invention, a result obtained by integrating edge components within a predetermined distance range on an image obtained by performing a perspective transformation on an input image is extracted as a feature. According to the fourth aspect of the present invention, a result obtained by integrating the variable portions within a predetermined distance range among the variable portions with respect to the perspective transformed image one stage before on the perspective transformed image is extracted as a feature.

【0023】請求項5の発明では、2種類以上の方法に
より透視変換画像上の特徴を抽出した後、各抽出結果を
統合することにより、特徴の抽出精度の向上がはかられ
る。
According to the fifth aspect of the present invention, the feature extraction accuracy is improved by extracting the features on the perspective transformed image by two or more methods and integrating the extracted results.

【0024】請求項6の発明では、透視変換画像上で抽
出された特徴を、仮想水平面上に所定の車輌モデルを透
視変換して得られる特徴と比較した結果により、観測位
置における車輌の判別が行われる。
According to the sixth aspect of the present invention, the feature of the vehicle extracted at the observation position can be determined based on the result of comparing the feature extracted on the perspective transformed image with the feature obtained by performing a perspective transform of a predetermined vehicle model on a virtual horizontal plane. Done.

【0025】請求項7の発明では、観測位置における入
力画像を透視変換した後、この透視変換画像から車頭部
分の画像候補となる特徴を抽出し、各特徴間の距離を前
記と同様の車輌モデルの透視変換結果と比較して、各特
徴が車頭部分に対応するものか否かを判別するので、夕
暮れ時など車輌全体を1つの特徴として抽出できなくな
った場合にも、車輌1台,1台を正確に判別することが
できる。
According to the seventh aspect of the present invention, after the input image at the observation position is perspective-transformed, features which are image candidates for the vehicle head portion are extracted from the perspective-transformed image, and the distance between the features is determined by the same vehicle model as described above. It is determined whether each feature corresponds to the head portion of the vehicle by comparing with the perspective transformation result of. Therefore, even when the entire vehicle cannot be extracted as one feature such as at sunset, one vehicle, one vehicle Can be accurately determined.

【0026】請求項8の発明では、前記透視変換画像と
背景画像の透視変換画像との差分処理により、車頭候補
となる特徴が抽出される。また請求項9の発明では、透
視変換画像上の車輌の幅方向におけるエッジ成分が、請
求項10の発明では、1段階前の透視変換画像に対する
変動部分が、それぞれ車頭候補となる特徴として抽出さ
れる。
According to the eighth aspect of the present invention, a feature to be a candidate for a vehicle head is extracted by a difference process between the perspective transformed image and the perspective transformed image of the background image. According to the ninth aspect of the present invention, the edge component in the width direction of the vehicle on the perspective transformed image is extracted as the feature to be a candidate for the head of the vehicle, and the changing part with respect to the perspective transformed image of the previous stage is extracted as the vehicle head candidate. You.

【0027】請求項11の発明は、道路上の所定位置を
撮像し、各段階における入力画像について、それぞれ請
求項1と同様の方法を用いて、道路上に車輌が存在する
か否かが仮判別される。この仮判別結果は記憶手段に順
次記憶され、最終的に各入力画像毎の判別結果を追跡す
ることにより最終的な判定が行われる。これにより車輌
が撮像位置に近づくにつれ、車輌と影との透視変換結果
に差異が認められなくなるという問題が解消される。
According to an eleventh aspect of the present invention, a predetermined position on a road is imaged, and for each input image at each stage, it is temporarily determined whether or not a vehicle exists on the road by using the same method as in the first aspect. Is determined. The provisional determination results are sequentially stored in the storage means, and the final determination is performed by finally tracing the determination results for each input image. This solves the problem that as the vehicle approaches the imaging position, no difference is recognized in the perspective transformation result between the vehicle and the shadow.

【0028】[0028]

【発明の実施の形態】図1に、この発明にかかる車輌判
別装置が組み込まれた交通流計測装置の設置例を示すと
共に、この車輌判別処理の原理を図2〜図9および数式
(1)〜(44)を用いて説明する。さらに図10,1
1,15,18,19,21,22,25により、上記
各請求項にかかる車輌判別装置の好適な実施例を説明す
る。
FIG. 1 shows an example of installation of a traffic flow measuring device incorporating a vehicle discriminating device according to the present invention, and the principle of this vehicle discriminating process is shown in FIGS. This will be described with reference to (44). Further, FIGS.
Preferred embodiments of the vehicle discriminating apparatus according to the above claims will be described with reference to 1, 15, 18, 19, 21, 22, 25.

【0029】[0029]

【実施例】図1は、交通流計測装置の一設置例を示す。
この交通流計測装置は、道路30の近傍に支柱31を配
備し、この支柱31の上部位置にカメラ32を、下部位
置に制御ボックス33を、それぞれ取り付けて構成され
るもので、制御ボックス33の内部には、この発明にか
かる車輌判別装置や計測装置が組み込まれている。
FIG. 1 shows an example of installation of a traffic flow measuring device.
This traffic flow measuring device is configured by disposing a support 31 near a road 30 and mounting a camera 32 at an upper position of the support 31 and a control box 33 at a lower position thereof. The vehicle discriminating device and the measuring device according to the present invention are incorporated therein.

【0030】この実施例の車輌判別装置は、カメラ32
より入力された2次元画像をフレーム単位で道路30上
の仮想水平面上に透視変換し、この透視変換画像につい
て後記する特徴抽出処理や車輌の判別処理を実行し、さ
らにこの判別結果を、道路上の車輌の位置データに編集
して計測装置へと出力する。計測装置は、各フレーム毎
に入力されるデータの時間的な推移により、道路上の車
輌の流れを示すデータを作成し、図示しないセンター装
置などに伝送する。
The vehicle discriminating apparatus according to this embodiment includes a camera 32
The input two-dimensional image is perspective-transformed on a virtual horizontal plane on the road 30 on a frame-by-frame basis, and a feature extraction process and a vehicle discrimination process, which will be described later, are performed on the perspective-transformed image. The position data of the vehicle is edited and output to the measuring device. The measurement device creates data indicating the flow of the vehicle on the road based on the temporal transition of data input for each frame, and transmits the data to a center device (not shown) or the like.

【0031】前記透視変換処理は、あらかじめ所定の位
置(例えば前記支柱の設置位置)を原点とする空間座標
系(以下単に「空間座標系」という)を定めておき、こ
の空間座標系に対するカメラ座標系の回転角度により決
定されるパラメータを用いて、入力画像上の各画素を前
記仮想水平面上の所定位置へと変換するものである。前
記パラメータは、計測処理に先立ち、空間座標が既知の
点を用いたキャリブレーションによりカメラ座標系の回
転角度を算出した後、さらにこの算出結果を後記する
(28)〜(35)式にあてはめることにより算出され
る。
In the perspective transformation processing, a spatial coordinate system (hereinafter simply referred to as a "spatial coordinate system") having a predetermined position (for example, the installation position of the column) as an origin is determined in advance, and camera coordinates with respect to this spatial coordinate system are determined. Each pixel on the input image is converted to a predetermined position on the virtual horizontal plane using a parameter determined by the rotation angle of the system. Prior to the measurement processing, the rotation angle of the camera coordinate system is calculated by calibration using a point whose spatial coordinates are known, and the calculation result is further applied to equations (28) to (35) described later. Is calculated by

【0032】つぎに図2を用いて、前記車輌判別装置に
よる透視変換処理および前記パラメータの算出処理の原
理を、順を追って説明する。図2中、Xw ,Yw ,Zw
の各軸で示される座標系は前記した空間座標系を、
c ,Yc ,Zc の各軸で示される座標系は前記カメラ
座標系を、それぞれ示す。またOはカメラの撮像位置
を、Aは空間中の任意の1点を、それぞれ示す。
Next, with reference to FIG. 2, the principle of the perspective transformation processing and the parameter calculation processing by the vehicle discriminating apparatus will be described step by step. In FIG. 2, X w , Y w , and Z w
The coordinate system indicated by each axis of the above-mentioned spatial coordinate system,
X c, Y c, the coordinate system is the camera coordinate system represented by the axes of Z c, respectively. In addition, O indicates an imaging position of the camera, and A indicates an arbitrary point in space.

【0033】いま前記中心点Oがカメラ座標系の原点O
c (0,0,0)に対応しており、空間座標系のXw
w ,Zw 各軸に対しカメラ座標系のXc ,Yc ,Zc
軸がそれぞれ角度α,β,γだけ回転していると想定す
ると、点Oの空間座標を(x0 ,y0 ,z0 ),点Aの
空間座標を(xA ,yA ,zA )としたときの点Aのカ
メラ座標(x1 ,y1 ,z1 )は、これら回転角度α,
β,γにより決定されるパラメータs1 ,s2 ,s3
1 ,t2 ,t3 ,u1 ,u2 ,u3 に基づき、つぎの
(1)〜(3)で表される。なお上記各パラメータは、
それぞれ(4)〜(12)式で表される。また前記
1 ,y1 は、点Aの入力画像上の対応点A´のx,y
座標に、z1 はカメラの焦点距離Fに、それぞれ相当す
る。
Now, the center point O is the origin O of the camera coordinate system.
c (0,0,0), and X w ,
Y w, Z w X c of the camera coordinate system for each axis, Y c, Z c
Assuming that the axes are rotated by angles α, β, γ, respectively, the spatial coordinates of point O are (x 0 , y 0 , z 0 ) and the spatial coordinates of point A are (x A , y A , z A ), The camera coordinates (x 1 , y 1 , z 1 ) of the point A are these rotation angles α,
parameters s 1 , s 2 , s 3 , determined by β and γ,
Based on t 1 , t 2 , t 3 , u 1 , u 2 , u 3 , they are represented by the following (1) to (3). The above parameters are
These are represented by equations (4) to (12), respectively. Further, x 1 and y 1 are x and y of the corresponding point A ′ on the input image of point A.
The coordinates and z 1 correspond to the focal length F of the camera, respectively.

【0034】[0034]

【数1】 (Equation 1)

【0035】[0035]

【数2】 (Equation 2)

【0036】[0036]

【数3】 (Equation 3)

【0037】[0037]

【数4】 (Equation 4)

【0038】[0038]

【数5】 (Equation 5)

【0039】[0039]

【数6】 (Equation 6)

【0040】[0040]

【数7】 (Equation 7)

【0041】[0041]

【数8】 (Equation 8)

【0042】[0042]

【数9】 (Equation 9)

【0043】[0043]

【数10】 (Equation 10)

【0044】[0044]

【数11】 [Equation 11]

【0045】[0045]

【数12】 (Equation 12)

【0046】一方、直線OA,および道路30を含む仮
想水平面は、それぞれつぎの(13)(14)式により
表される。
On the other hand, the virtual horizontal plane including the straight line OA and the road 30 is expressed by the following equations (13) and (14), respectively.

【0047】[0047]

【数13】 (Equation 13)

【0048】[0048]

【数14】 [Equation 14]

【0049】いま前記点A´を含む画像を前記仮想水平
面上に透視変換するものとすると、点A´は前記直線O
Aと仮想水平面との交点B(xB ,yB ,0)の位置に
投影される。したがって前記(13)(14)式より、
B ,yB は、つぎの(15)(16)式で表される
Now, assuming that the image including the point A ′ is to be perspective-transformed on the virtual horizontal plane, the point A ′ is
Intersection of the A and the virtual horizontal plane B (x B, y B, 0) is projected at the position of. Therefore, from the above equations (13) and (14),
x B and y B are represented by the following equations (15) and (16).

【0050】[0050]

【数15】 (Equation 15)

【0051】[0051]

【数16】 (Equation 16)

【0052】さらにx´=xA −x0 /zA −z0 ,
´=yA −y0 /zA −z0 ,z´=1/zA −z0
おくと、前記(1)〜(3)式および(15)(16)
式は、それぞれ(17)〜(21)式に変形される。
[0052] In addition x'= x A -x 0 / z A -z 0, y
'= Y A -y 0 / z A -z 0, by placing the z'= 1 / z A -z 0 , (1) to (3) and (15) (16)
The equations are respectively transformed into equations (17) to (21).

【0053】[0053]

【数17】 [Equation 17]

【0054】[0054]

【数18】 (Equation 18)

【0055】[0055]

【数19】 [Equation 19]

【0056】[0056]

【数20】 (Equation 20)

【0057】[0057]

【数21】 (Equation 21)

【0058】上記(17)〜(19)式よりz´を消去
することにより、x´,y´は、それぞれつぎの(2
2)(23)式により表される。さらにこの(22)
(23)式を用いて前記(20)(21)式を変形する
ことにより、(24)(25)式が得られる。
By eliminating z ′ from the above equations (17) to (19), x ′ and y ′ can be changed to the following (2)
2) It is expressed by equation (23). This (22)
By modifying the equations (20) and (21) using the equation (23), the equations (24) and (25) are obtained.

【0059】[0059]

【数22】 (Equation 22)

【0060】[0060]

【数23】 (Equation 23)

【0061】[0061]

【数24】 (Equation 24)

【0062】[0062]

【数25】 (Equation 25)

【0063】よって、前記xB ,yB は、(28)〜
(35)式により定義されるパラメータa,b,c,
d,e,f,g,hを用いた(26)(27)式により
算出される。
Therefore, the above x B and y B are (28)-
Parameters a, b, c, defined by equation (35)
It is calculated by the equations (26) and (27) using d, e, f, g, and h.

【0064】[0064]

【数26】 (Equation 26)

【0065】[0065]

【数27】 [Equation 27]

【0066】[0066]

【数28】 [Equation 28]

【0067】[0067]

【数29】 (Equation 29)

【0068】[0068]

【数30】 [Equation 30]

【0069】[0069]

【数31】 (Equation 31)

【0070】[0070]

【数32】 (Equation 32)

【0071】[0071]

【数33】 [Equation 33]

【0072】[0072]

【数34】 (Equation 34)

【0073】[0073]

【数35】 (Equation 35)

【0074】したがって、前記カメラ32の中心点Oの
空間座標(x0 ,y0 ,z0 ),キャリブレーションに
より算出されたカメラ座標系の回転角度α,β,γ,お
よびカメラ32の焦点距離Fを、前記(28)〜(3
5)式に代入して各パラメータa〜hを求めておき、カ
メラ32からの入力画像の各画素毎に、そのx,y座標
を前記(26)(27)式にあてはめることにより、各
画素の投影点の座標を算出することができる。
Therefore, the spatial coordinates (x 0 , y 0 , z 0 ) of the center point O of the camera 32, the rotation angles α, β, γ of the camera coordinate system calculated by the calibration, and the focal length of the camera 32 F with the above (28) to (3)
Each parameter a to h is obtained by substituting into the equation (5), and the x and y coordinates of each pixel of the input image from the camera 32 are applied to the above equations (26) and (27) to obtain each pixel. Can be calculated.

【0075】前記したように、空間中の点Aに対応する
入力画像上の点A´を仮想水平面上に透視変換すると、
この点Aにおける画像データは、カメラ中心点Oと点A
とを結ぶ直線と仮想水平面との交点に投影される。した
がってこの直線OAの傾きが緩慢であるほど、仮想水平
面上の投影点は、点Aを真上方向から透視した際の投影
点(すなわち点Aのx,y座標により特定される点)か
ら離れた場所に位置することになる。言い換えれば、点
Aが高い位置にあるほど、もしくは点Aがカメラから離
れた位置にあるほど、その投影点は、本来の点Aのある
べき位置から離れた場所に位置するので、高さ成分を有
する対象物を透視変換したとき、実際の対象物を真上位
置より見た場合とは異なる大きさ,形状を有する特徴が
得られることになる。
As described above, when the point A ′ on the input image corresponding to the point A in the space is perspectively transformed on a virtual horizontal plane,
The image data at this point A includes the camera center point O and the point A
Is projected onto the intersection of the straight line connecting and the virtual horizontal plane. Therefore, as the inclination of the straight line OA is gentler, the projected point on the virtual horizontal plane is farther from the projected point when the point A is seen from directly above (that is, the point specified by the x and y coordinates of the point A). Will be located at In other words, the higher the point A is, or the farther the point A is from the camera, the farther the projected point is from the position where the original point A should be. When the object having the shape is perspectively transformed, a feature having a size and a shape different from those when the actual object is viewed from a position directly above is obtained.

【0076】一方、空間座標におけるz座標が0となる
点の画像データは、実際と同じ位置に投影されるため、
影など2次元対象物は、透視変換後も、実際の対象物を
真上位置より見た場合と同様の大きさ,形状の特徴を有
する。
On the other hand, the image data of the point where the z-coordinate in the spatial coordinates becomes 0 is projected at the same position as the actual one.
Even after perspective transformation, a two-dimensional object such as a shadow has the same size and shape characteristics as when an actual object is viewed from directly above.

【0077】図3は、カメラ32からの入力画像の一例
であって、道路の車線を示す画像部分34のほかに、車
輌やその影の画像35,36などが含まれている。図4
は、前記図3の入力画像を前記水平面上に透視変換した
結果を示すもので、透視変換画像中、前記画像35の変
換画像35´の形状には、その高さ成分を反映した歪み
が現れている。これに対し、画像36の変換画像36´
の形状は、実際の影を真上位置から観察した結果と同様
になる。
FIG. 3 shows an example of an input image from the camera 32, which includes images 35 and 36 of vehicles and their shadows in addition to an image portion 34 indicating lanes of a road. FIG.
Shows the result of perspective transformation of the input image of FIG. 3 on the horizontal plane. In the perspective transformed image, a distortion reflecting the height component appears in the shape of the transformed image 35 ′ of the image 35. ing. On the other hand, the converted image 36 'of the image 36
Is the same as the result of observing the actual shadow from directly above.

【0078】図5は、観測位置における背景画像を仮想
水平面上に透視変換して得られた画像(以下この画像を
「背景変換画像」という)を示すもので、車線の画像部
分34の変換画像34´が現れている。また図6は、前
記図4の透視変換画像とこの背景変換画像との差分をと
った後、2値化処理した結果を示すもので、前記変換画
像35´,36´の形状を示す特徴37A,37Bが抽
出されている。
FIG. 5 shows an image obtained by perspectively transforming a background image at an observation position on a virtual horizontal plane (hereinafter, this image is referred to as a “background converted image”). 34 'has appeared. FIG. 6 shows the result of binarizing the difference between the perspective transformed image of FIG. 4 and the background transformed image, and shows a characteristic 37A indicating the shapes of the transformed images 35 'and 36'. , 37B are extracted.

【0079】この車輌判別装置では、各特徴37A,3
7Bにそれぞれ外接長方形38A,38Bを設定し、各
長方形38A,38B毎に、各辺の長さAwx,Awy,B
wx,Bwyを、それぞれ車輌の代表的な特徴を示すデータ
(以下これを「特徴モデルデータ」という)と比較し、
その比較結果からその特徴が車輌を意味するものである
か否かを判別するようにしている。
In this vehicle discriminating apparatus, each feature 37A, 3
7B, circumscribed rectangles 38A, 38B are set, and the lengths A wx , A wy , B of the sides are set for each rectangle 38A, 38B.
wx and B wy are compared with data indicating typical characteristics of the vehicle (hereinafter referred to as “feature model data”),
From the comparison result, it is determined whether or not the feature means a vehicle.

【0080】つぎに上記特徴モデルデータの算出原理に
ついて説明する。カメラの中心点Oの空間座標を(0,
0,k),空間中の任意の1点Pの空間座標を(xw
w ,zw ),この点Pを透視変換して得られる投影点
P´の座標を(xr ,yr ,0)とすると、図7から明
らかなように、点P´のx,y座標xr ,yr は、つぎ
の(36)(37)式により算出される。
Next, the principle of calculating the characteristic model data will be described. Let the spatial coordinates of the camera center point O be (0,
0, k), and the spatial coordinates of an arbitrary point P in the space are (x w ,
y w , z w ), and the coordinates of the projection point P ′ obtained by perspective transformation of this point P are (x r , y r , 0), as is clear from FIG. y-coordinate x r, y r is calculated by the following (36) (37) below.

【0081】[0081]

【数36】 [Equation 36]

【0082】[0082]

【数37】 (37)

【0083】ここで説明を簡単にするために、車輌のモ
デルとして、図8に示すような、幅Vx ,奥行きVy
高さVz の直方体を想定し、この直方体モデルの各頂点
のうち、前面の左端頂点Rが座標(xR0,yR0,0)の
位置にあるものとすると、直方体モデル上でこの点Rに
最も遠い頂点Sの座標(xSW,ySW,zSW)は、つぎの
(38)〜(40)式により求められる。
Here, for the sake of simplicity, as a vehicle model, the width V x , depth V y ,
Assuming a rectangular parallelepiped with a height V z and, among the vertices of this rectangular parallelepiped model, the left end vertex R on the front surface is located at the coordinates ( xR0 , yR0 , 0), this point R The coordinates (x SW , y SW , z SW ) of the vertex S farthest from are obtained by the following equations (38) to (40).

【0084】[0084]

【数38】 (38)

【0085】[0085]

【数39】 [Equation 39]

【0086】[0086]

【数40】 (Equation 40)

【0087】したがって、前記(38)〜(40)式を
(36)(37)式に当てはめることにより、頂点Sを
仮想水平面上に透視変換した場合の投影点S´のx,y
座標xSR,ySRを算出するための式として、(41)
(42)式が得られる。
Therefore, by applying the equations (38) to (40) to the equations (36) and (37), the x, y of the projection point S ′ when the vertex S is perspectively transformed on the virtual horizontal plane is obtained.
Equations (41) are used to calculate the coordinates x SR and y SR.
Equation (42) is obtained.

【0088】[0088]

【数41】 [Equation 41]

【0089】[0089]

【数42】 (Equation 42)

【0090】一方、前記道路面上に位置する点Rの投影
点R´は、透視変換前と同じ位置に変換されるので、図
9に示すように、前記立方体モデルの透視変換画像40
に外接する長方形41を設定すると、この外接長方形4
1の各辺Wx ,Wy はつぎの(43)(44)式により
算出される。
On the other hand, since the projection point R ′ of the point R located on the road surface is transformed to the same position as before the perspective transformation, as shown in FIG.
Is set to a circumscribed rectangle 41.
Each side W x and W y of 1 is calculated by the following equations (43) and (44).

【0091】[0091]

【数43】 [Equation 43]

【0092】[0092]

【数44】 [Equation 44]

【0093】よって前記図6に示した各特徴37A,3
7B毎に、その外接長方形38A,38Bの左端点39
A,39Bが前記立方体モデルの頂点Rに対応するもの
と想定し、この左端点39A,39Bのx,y座標を上
記(41)〜(44)式の(xR0,yR0)にあてはめる
ことにより、前記Wx ,Wy を算出し、これを前記特徴
モデルデータとして設定する。
Therefore, each of the features 37A, 3A shown in FIG.
For each 7B, the left end point 39 of the circumscribed rectangles 38A, 38B
Assuming that A and 39B correspond to the vertices R of the cubic model, the x and y coordinates of the left end points 39A and 39B are applied to ( xR0 , yR0 ) in the above equations (41) to (44). Accordingly, the W x, calculates the W y, is set as the feature model data.

【0094】したがって、透視変換画像上の各特徴部分
毎に、上記の方法を用いて特徴モデルデータWx ,Wy
を算出するとともに、その特徴部分に外接長方形を設定
し、この外接長方形の各辺の長さ(図6に示したAwx
wy,Bwx,Bwy)と特徴モデルデータWx ,Wy の算
出値とを比較する。この比較により有意な差が認められ
なければ、その特徴は車輌に相当するものであると判定
される。
Therefore, for each feature portion on the perspective transformed image, the feature model data W x , W y is obtained by using the above method.
, A circumscribed rectangle is set for the characteristic portion, and the length of each side of the circumscribed rectangle (A wx ,
A wy , B wx , B wy ) and the calculated values of the characteristic model data W x , W y are compared. If no significant difference is recognized by this comparison, the feature is determined to correspond to the vehicle.

【0095】なお外接長方形の各辺を比較する代わり
に、前記立方体モデルを透視変換画像上の特徴抽出位置
に仮想的に透視変換し、この透視変換結果と実際の特徴
とのマッチング処理を行うようにすれば、さらに精度の
高い判別結果を得ることが可能となる。
Instead of comparing each side of the circumscribed rectangle, the cubic model is virtually perspective-transformed to a feature extraction position on the perspective-transformed image, and matching processing between the perspective-transformed result and actual features is performed. Then, it is possible to obtain a more accurate determination result.

【0096】図10は、上記原理が導入された車輌判別
装置の一構成例であって、画像入力部1,透視変換処理
部2,パラメータ記憶部3,特徴抽出部4,モデル記憶
部6,判定部5,出力部7などから構成される。
FIG. 10 shows an example of the configuration of a vehicle discriminating apparatus to which the above principle is introduced. The image input unit 1, the perspective transformation processing unit 2, the parameter storage unit 3, the feature extraction unit 4, the model storage unit 6, It comprises a determination unit 5, an output unit 7, and the like.

【0097】前記画像入力部1は、前記カメラ32から
のアナログ量の画像データをディジタル変換するA/D
変換回路や変換処理後の画像データを格納する画像メモ
リなどから構成される。パラメータ記憶部3には、前記
(28)〜(35)式により算出されたパラメータa,
b,c,d,e,f,g,hが記憶されている。透視変
換処理部2は、これらパラメータと入力画像中の各画素
のx,y座標とを前記(26),(27)式に代入する
ことにより、各画素の透視変換点の座標を算出し、この
算出結果に基づき、入力画像の透視変換処理を実行す
る。
The image input unit 1 converts the analog image data from the camera 32 into digital data.
It is composed of a conversion circuit and an image memory for storing image data after the conversion processing. The parameter storage unit 3 stores the parameters a, calculated by the above equations (28) to (35).
b, c, d, e, f, g, and h are stored. The perspective transformation processing unit 2 calculates the coordinates of the perspective transformation point of each pixel by substituting these parameters and the x and y coordinates of each pixel in the input image into the equations (26) and (27), Based on the calculation result, a perspective transformation process of the input image is executed.

【0098】なお、前記パラメータ記憶部3の代わり
に、入力画像の各画素についての透視変換先の座標が記
憶されたルックアップテーブルを設け、画像入力時に、
各画素を、このルックアップテーブル中の対応する設定
値に基づく位置に変換するようにすれば、変換処理の高
速化を実現できる。
Note that, instead of the parameter storage unit 3, a look-up table in which the coordinates of the perspective transformation destination for each pixel of the input image are stored is provided.
If each pixel is converted into a position based on the corresponding set value in the look-up table, the speed of the conversion process can be increased.

【0099】前記特徴抽出部4は、背景差分処理部8,
2値化処理部9,背景画像記憶部10などにより構成さ
れる。背景画像記憶部10には、前記図5に示したよう
な背景変換画像が記憶されており、背景差分処理部8
は、透視変換処理部2により生成された透視変換画像の
各画素データとこの背景変換画像の対応する画素データ
との差分を求める。2値化処理部9は、この差分処理に
より生成された差分画像を所定のしきい値により2値化
処理するもので、これにより前記図6に示したように、
車輌や影の画像を透視変換した結果を示す特徴の抽出が
行われる。
The feature extraction unit 4 includes a background difference processing unit 8,
It comprises a binarization processing section 9, a background image storage section 10, and the like. The background image storage unit 10 stores a background conversion image as shown in FIG.
Calculates the difference between each pixel data of the perspective transformed image generated by the perspective transformation processing unit 2 and the corresponding pixel data of the background transformed image. The binarization processing unit 9 binarizes the difference image generated by the difference processing with a predetermined threshold value. As shown in FIG.
The feature indicating the result of the perspective transformation of the image of the vehicle or the shadow is extracted.

【0100】前記モデル記憶部6には、前記図8に示し
た車輌の立方体モデルが記憶されている。判定部5は、
前記2値化処理部9により抽出された各特徴について、
前記した外接長方形を設定するとともに、各外接長方形
毎に、その左端点(図6中の39A,39B)と立方体
モデルの前記頂点Rとを対応づけて、前記(41)〜
(44)式を実行し、それぞれの特徴に応じた特徴モデ
ルデータWx ,Wy を算出する。さらに判定部5は、各
外接長方形毎に、その各辺の長さを算出されたWx ,W
y と比較し、その比較結果から特徴が車輌を示すもので
あるか否かを判定する。
The model storage unit 6 stores the cube model of the vehicle shown in FIG. The determination unit 5
For each feature extracted by the binarization processing unit 9,
The above-mentioned circumscribed rectangles are set, and for each circumscribed rectangle, the left end points (39A and 39B in FIG. 6) and the vertices R of the cube model are associated with each other, and
Equation (44) is executed to calculate feature model data W x , W y corresponding to each feature. Further, the determining unit 5 calculates, for each circumscribed rectangle, the length of each side of the rectangle W x , W
It is compared with y, and it is determined whether or not the feature indicates the vehicle based on the comparison result.

【0101】外接長方形の各辺と特徴モデルデータ
x ,Wy との間に有意な差が認められないとき、判定
部5は、この特徴を車輌に相当するものと判定する。出
力部7は、この判定結果に基づき、特徴抽出位置から道
路上の車輌の位置などを認識し、その認識結果を後段の
交通流計測装置へと出力する。
When there is no significant difference between each side of the circumscribed rectangle and the feature model data W x , W y , the determination unit 5 determines that the feature corresponds to a vehicle. The output unit 7 recognizes the position of the vehicle on the road or the like from the feature extraction position based on the determination result, and outputs the recognition result to a traffic flow measurement device at a subsequent stage.

【0102】図11は、判別処理装置の他の構成例を示
す。この実施例も、基本的に前記図10と同様の構成を
とるが、特徴抽出部4として、エッジ抽出部11とエッ
ジ統合部12とを含んでいる。
FIG. 11 shows another configuration example of the discrimination processing device. This embodiment also has a configuration basically similar to that of FIG. 10, but includes an edge extraction unit 11 and an edge integration unit 12 as the feature extraction unit 4.

【0103】エッジ抽出部11は、前記透視変換画像に
微分処理などを行って、水平方向(x軸方向)のエッジ
成分を抽出するためのもので、エッジ統合部12は、抽
出された各エッジ成分のうち、車の進行方向(この実施
例ではy軸方向)において所定の距離範囲内にあるエッ
ジ成分を統合し、その統合結果を特徴として出力する。
The edge extracting section 11 performs differentiation processing and the like on the perspective transformed image to extract edge components in the horizontal direction (x-axis direction). Among the components, edge components within a predetermined distance range in the traveling direction of the vehicle (the y-axis direction in this embodiment) are integrated, and the integrated result is output as a feature.

【0104】図12は、前記図4の透視変換画像に対す
るエッジ画像を、図13はこのエッジ画像中のエッジ成
分を統合した画像を、それぞれ示す。図示例から明らか
なように、透視変換画像上の影に対応する部分では、抽
出されるエッジ成分が少なくなるため、統合処理対象と
ならず、ノイズとして除去される。一方、車輌に対応す
る画像部分については、統合処理により複数個の特徴
(図中、42a,42b,42cと示す)が抽出され
る。
FIG. 12 shows an edge image for the perspective transformed image of FIG. 4, and FIG. 13 shows an image obtained by integrating the edge components in the edge image. As is apparent from the illustrated example, the portion corresponding to the shadow on the perspective transformed image is not subject to the integration processing because the extracted edge component is reduced, and is removed as noise. On the other hand, for the image portion corresponding to the vehicle, a plurality of features (indicated as 42a, 42b, and 42c in the figure) are extracted by the integration process.

【0105】判定部5は、抽出された各特徴42a,4
2b,42cが含まれる矩形領域43を設定するととも
に、前記図10と同様の方法により、この矩形領域43
の左端点44を前記立方体モデルの点Rと対応づけて特
徴モデルデータWx ,Wy を算出し、この算出結果を前
記矩形領域43の各辺の長さCwx,Cwyと比較する。
The determination unit 5 determines whether each of the extracted features 42a, 4
2b and 42c are set, and the rectangular area 43 is set in the same manner as in FIG.
Wherein model data W x the leftmost point 44 in association with the point R of the cubic model to calculate a W y, the calculation result of each side of the rectangular region 43 length C wx, compared with C wy.

【0106】上記の比較処理により、各辺の長さCwx
wyと前記特徴モデルデータWx ,Wy との間に有意な
差が認められなかった場合、判定部5は、図14に示す
ように、前記各特徴42a,42b,42cを包括する
ような画像領域45を設定し、この画像領域45を車輌
に対応するものとして判定する。
By the above-described comparison processing, the lengths C wx ,
If no significant difference is found between C wy and the feature model data W x , W y , the determination unit 5 includes the features 42a, 42b, 42c as shown in FIG. An image area 45 is set, and the image area 45 is determined to correspond to the vehicle.

【0107】なお透視変換画像から抽出する特徴は、エ
ッジ成分に限らず、例えばフレーム差分処理により、車
輌の移動部分に対応する特徴を抽出するようにしても良
い。図15は、特徴抽出をフレーム差分処理により行う
場合の判定処理装置の構成例を示すもので、特徴抽出部
4は、フレーム差分処理部13,2値化処理部14,抽
出結果統合部15などから構成される。
The features to be extracted from the perspective transformed image are not limited to the edge components. For example, the features corresponding to the moving parts of the vehicle may be extracted by frame difference processing. FIG. 15 shows an example of a configuration of a determination processing device when feature extraction is performed by frame difference processing. The feature extraction unit 4 includes a frame difference processing unit 13, a binarization processing unit 14, an extraction result integration unit 15, and the like. Consists of

【0108】フレーム差分処理部13は、1段階前の入
力画像についての透視変換画像を記憶するメモリを具備
しており、透視変換処理部2から入力された最新の透視
変換画像の各画素について、前記メモリ内の透視変換画
像の対応画素との差分演算を実行する。2値化処理部1
4は、各画素毎の差分値を所定のしきい値で2値化処理
するもので、その結果、図16に示すような複数個の特
徴46が抽出され、抽出結果統合部15へと出力され
る。
The frame difference processing unit 13 has a memory for storing a perspective transformed image of the input image one stage before. For each pixel of the latest perspective transformed image input from the perspective transformation unit 2, A difference calculation is performed between the perspective transformed image and the corresponding pixel in the memory. Binarization processing unit 1
Reference numeral 4 denotes a process for binarizing the difference value of each pixel with a predetermined threshold value. As a result, a plurality of features 46 as shown in FIG. 16 are extracted and output to the extraction result integration unit 15. Is done.

【0109】抽出結果統合部15は、抽出された各特徴
46について、y軸方向において所定の距離範囲内にあ
る特徴を統合するもので、統合対象とならなかったされ
た特徴は、ノイズとして除去される。図17は、図16
の抽出結果を統合した結果を示すもので、判定部5は、
この統合結果について、前記図10の実施例と同様、矩
形領域47を設定するとともに特徴モデルデータWx
y を算出し、その算出結果と矩形領域47の各辺
x ,Dy と比較する。この結果、両者の間に有意差が
認められなかったとき、判定部5は、前記と同様、各特
徴部分を包括する画像領域を、車輌に対応するものとし
て判定する。
The extraction result integration unit 15 integrates features within a predetermined distance range in the y-axis direction with respect to each of the extracted features 46, and removes, as noise, features that are not to be integrated. Is done. FIG.
The determination unit 5 shows the result of integrating the extraction results of
Based on this integration result, a rectangular area 47 is set and the feature model data W x ,
Calculating a W y, the sides D x of the calculation result and the rectangular region 47, compared with D y. As a result, when no significant difference is recognized between the two, the determination unit 5 determines an image region including each characteristic portion as corresponding to the vehicle, as described above.

【0110】なお特徴抽出は、1つの方法に限らず、複
数種の方法により抽出された特徴部分を統合するように
しても良い。図18は、2種類の特徴抽出方法を導入し
た場合の判定処理装置の構成例であって、特徴抽出部4
は、エッジ抽出部11,フレーム差分処理部13,2値
化処理部14,処理結果統合部16により構成される。
Note that the feature extraction is not limited to one method, and feature portions extracted by a plurality of types of methods may be integrated. FIG. 18 shows an example of the configuration of a determination processing device when two types of feature extraction methods are introduced.
Is composed of an edge extraction unit 11, a frame difference processing unit 13, a binarization processing unit 14, and a processing result integration unit 16.

【0111】エッジ抽出部11,フレーム差分処理部1
3,2値化処理部14は、前記図11,15と同様の構
成のもので、処理結果統合部16は、各処理により抽出
された特徴部分を合成した後、前記各実施例と同様、y
軸方向において所定距離範囲内にある特徴を統合し、そ
の統合結果を判定部5に出力する。
Edge extraction unit 11, frame difference processing unit 1
The binarization processing unit 14 has the same configuration as that of FIGS. 11 and 15, and the processing result integration unit 16 combines the characteristic portions extracted by each processing, and then, as in the above-described embodiments, y
The features within a predetermined distance range in the axial direction are integrated, and the integration result is output to the determination unit 5.

【0112】ところで前記した各抽出結果は、昼間など
十分な明度のある環境下で撮像が行われた場合に得られ
るもので、夕暮れ時など背景色と車輌の色とのコントラ
ストが明確でない条件下においては、フロントガラスな
ど明度の低い部分の画像が抽出されないことがある。こ
の結果、抽出される特徴部分は、複数の特徴部分に分断
されたものとなり正確に車輌を判別することは不可能と
なる。
Each of the above extraction results is obtained when an image is taken in an environment with sufficient brightness, such as in the daytime, and is obtained when the contrast between the background color and the color of the vehicle is not clear such as at sunset. In some cases, an image of a low brightness portion such as a windshield may not be extracted. As a result, the extracted characteristic portion is divided into a plurality of characteristic portions, and it becomes impossible to accurately determine the vehicle.

【0113】図19は、上記問題を解決するための判定
処理装置の構成例であって、特徴抽出部4には、前記図
10の構成に加えて、抽出された特徴から車頭部分の候
補となる特徴を抽出するための車頭候補抽出部17が配
備されている。
FIG. 19 shows an example of the configuration of a determination processing device for solving the above-mentioned problem. In addition to the configuration shown in FIG. A vehicle head candidate extraction unit 17 for extracting a characteristic is provided.

【0114】いま背景差分処理部8および2値化処理部
9により、図20に示すような複数個の特徴48a,4
8bが抽出されたとき、車頭候補抽出部17は、これら
各特徴部分の中から、前方部(図20中、破線で囲んだ
部分)が平坦形状であって、かつその幅長さが車輌幅に
近似する特徴を、車頭部分の候補として抽出する。この
結果は判定部5へと出力され、各車頭候補の位置関係か
ら車輌の判定が行われる。
Now, a plurality of features 48a, 48 as shown in FIG.
When 8b is extracted, the vehicle head candidate extracting unit 17 determines that the front part (the part surrounded by a broken line in FIG. 20) has a flat shape and the width of the vehicle is equal to the vehicle width. Are extracted as candidates for the head portion. This result is output to the determination unit 5, and the vehicle is determined from the positional relationship of each head candidate.

【0115】すなわち2個以上の車頭候補が車輌の進行
方向であるy軸方向に並んでいる場合、判定部5は、こ
れら車頭候補の距離(図20中、Hで示す)を算出する
とともに、前記立方体モデルが前方の車頭候補に位置す
る場合の特徴モデルデータWy を算出し、この算出結果
と前記距離Hとを比較する。これにより距離がモデルデ
ータWy よりも小さい場合には、後方の車頭候補が候補
から除去され、残された車頭候補の抽出位置に車輌が存
在するものと判定される。
That is, when two or more head candidates are arranged in the y-axis direction, which is the traveling direction of the vehicle, the determination unit 5 calculates the distance between these head candidates (indicated by H in FIG. 20) and the cube model calculates the feature model data W y when located in front of the headway candidate, compares this calculation result and the distance H. The case thereby the distance is smaller than the model data W y, behind the headway candidates are removed from the candidate, it is determined that the vehicle is present in the extraction position of the remaining headway candidates.

【0116】なお車頭候補間の距離HがモデルデータW
y を上回る場合、または抽出された車頭候補に後続の候
補が存在しない場合には、これら車頭候補はノイズとし
て除去される。また抽出された特徴が単独でモデルデー
タWx ,Wy の条件を満たす場合には、この特徴は車輌
全体を表すものと判定される。
Note that the distance H between the head candidates is model data W
If it exceeds y , or if there is no subsequent candidate in the extracted headway candidates, these headway candidates are removed as noise. If the extracted feature alone satisfies the conditions of the model data W x and W y , it is determined that this feature represents the entire vehicle.

【0117】図21は上記と同様の処理をエッジ抽出に
より行う場合の構成例を、図22は同様の処理をフレー
ム差分法により行う場合の構成例を、それぞれ示す。い
ずれの実施例も、透視変換画像から特徴部分を抽出する
ための構成以外は、図19と同様であり、ここでは詳細
な説明を省略する。
FIG. 21 shows a configuration example when the same processing is performed by edge extraction, and FIG. 22 shows a configuration example when the same processing is performed by the frame difference method. Each of the embodiments is the same as FIG. 19 except for a configuration for extracting a characteristic portion from a perspective transformed image, and a detailed description thereof is omitted here.

【0118】なお上記した車輌判別処理の原理は、車輌
の画像部分を透視変換した結果に生ずる歪みを利用して
いるが、この場合、車輌が撮像位置に近づいて車輌に対
するカメラの俯角が大きくなると、透視変換画像におけ
る車輌部分の歪みが小さくなり、車輌と影との区別が困
難になるという問題が生じる。
The principle of the above-described vehicle discriminating process utilizes a distortion generated as a result of the perspective transformation of the image portion of the vehicle. In this case, when the vehicle approaches the imaging position and the depression angle of the camera with respect to the vehicle increases. In addition, the distortion of the vehicle portion in the perspective transformed image is reduced, which causes a problem that it is difficult to distinguish between the vehicle and the shadow.

【0119】図23(1)は車輌が撮像位置に近づいた
時点で得られる入力画像を、図23(2)はこの入力画
像の透視変換画像を、それぞれ示す。図23(2)の前
記透視変換画像に対し、前記した背景差分法による特徴
抽出を行うと、図24に示す如く、車輌、影それぞれに
対応する特徴50a,50bに有意な差が現れなくな
り、前記した特徴モデルデータと比較する方法により両
者を区別して判別することは、困難となる。
FIG. 23A shows an input image obtained when the vehicle approaches the imaging position, and FIG. 23B shows a perspective transformed image of the input image. When the feature extraction by the above-described background subtraction method is performed on the perspective transformed image of FIG. 23 (2), as shown in FIG. 24, no significant difference appears between the features 50a and 50b corresponding to the vehicle and the shadow, respectively. It is difficult to distinguish between the two by the method of comparing with the above-described feature model data.

【0120】図25は、上記問題を解決するための判定
処理装置の構成例であって、図10と同様の構成に、判
定結果処理部18,追跡処理部19,最終判定部20な
どが付加されている。
FIG. 25 shows an example of the configuration of a judgment processing device for solving the above-mentioned problem. A judgment result processing unit 18, a tracking processing unit 19, a final judgment unit 20 and the like are added to the same configuration as in FIG. Have been.

【0121】透視変換処理部2から判定部5までの構成
により、各段階での画像入力に対し、前記と同様の透視
変換処理,特徴抽出処理,判定処理が実行される。判定
結果記憶部18は過去数フレーム毎に、抽出された特徴
部分の位置やその判定結果などのデータを記憶、蓄積す
る。追跡処理部19は、これら蓄積されたデータから同
一対象にかかる特徴部分を対応付けし、各対象物につい
ての判定結果の推移を追跡する。
With the configuration from the perspective transformation processing section 2 to the decision section 5, the same perspective transformation processing, feature extraction processing, and decision processing as described above are executed for the image input at each stage. The determination result storage unit 18 stores and accumulates data such as the position of the extracted characteristic portion and the determination result for each of several past frames. The tracking processing unit 19 correlates the characteristic portions related to the same object from the stored data, and tracks the transition of the determination result for each object.

【0122】図26は、前記追跡処理部19による追跡
方法を示す。図中a0 ,b0 は、ある時点における特徴
部分の抽出位置であって、追跡処理部19は、各特徴部
分について、それぞれその特徴抽出位置に対応する車線
に沿う方向(すなわちy軸方向)における追跡処理を行
って、つぎの段階におけるその特徴部分の抽出位置
1 ,b1 を検出する。最終判定部20は、追跡処理部
19による追跡処理結果に基づき、抽出された特徴部分
が車輌に対応するものであるか否かについての最終的な
判定を実施する。なおこの最終判定は、各対象物毎にそ
の追跡処理が終了した時点、すなわちその対象物に相当
する特徴部分が抽出されなくなった時点で、実施され
る。
FIG. 26 shows a tracking method by the tracking processing section 19. In the figure, a 0 and b 0 are the extraction positions of the characteristic portions at a certain point in time, and the tracking processing unit 19 determines, for each characteristic portion, the direction along the lane corresponding to the characteristic extraction position (ie, the y-axis direction). , And the extraction positions a 1 and b 1 of the characteristic portion in the next stage are detected. The final determination unit 20 makes a final determination as to whether or not the extracted characteristic portion corresponds to the vehicle based on the result of the tracking processing performed by the tracking processing unit 19. The final determination is performed when the tracking process is completed for each object, that is, when the feature portion corresponding to the object is no longer extracted.

【0123】図27は、前記追跡処理部19による追跡
結果と最終判定部20の判定結果とを対応づけて示す。
なおここでは説明を簡単にするために、2個の対象物
A,Bについての特徴が複数段階にわたって抽出されて
いるものと想定し、追跡処理結果として、各特徴部分の
抽出位置と判定結果との推移を示してある。
FIG. 27 shows the result of tracking by the tracking processing unit 19 and the result of determination by the final determining unit 20 in association with each other.
For the sake of simplicity, it is assumed here that the features of the two objects A and B have been extracted in a plurality of stages. Is shown.

【0124】最終判定部20は、追跡処理部19による
最終追跡結果を受けて、その特徴部分における過去の判
定結果をまとめて最終判定を実行する。これにより対象
物Bに示すように、最終段階で「車輌」であると判定さ
れた場合でも、それ以前の複数段階における判定結果が
「影」である場合には、この特徴部分は影を反映したも
のであると判定される。
The final determination unit 20 receives the final tracking result of the tracking processing unit 19, and performs the final determination by putting together the past determination results of the characteristic part. As a result, as shown in the object B, even if it is determined that the vehicle is a "vehicle" in the final stage, if the determination result in a plurality of previous stages is a "shadow", the characteristic portion reflects the shadow. Is determined to have been performed.

【0125】上記の処理によれば、車輌が観測位置を通
過した時点で最終的な判定が行われることになり、最終
判定により特徴部分が車輌を反映していると決定された
とき、後段の計測装置にその判定結果が出力される。こ
れにより計測装置は、観測地点における車両の通過台数
を正確に計測することができ、高精度の交通流計測を実
施することが可能となる。
According to the above processing, the final decision is made when the vehicle passes the observation position, and when it is determined by the final decision that the characteristic portion reflects the vehicle, the subsequent stage The determination result is output to the measuring device. Accordingly, the measuring device can accurately measure the number of vehicles passing at the observation point, and can perform highly accurate traffic flow measurement.

【0126】[0126]

【発明の効果】請求項1の発明では、観測位置における
2次元画像を車輌の支持面を含む仮想水平面上に透視変
換した後、この透視変換画像についての特徴抽出結果に
より観測位置における車輌を判別するようにしたので、
観測位置における車輌の高さを反映した特徴を用いて車
輌を正確に判別することができる。
According to the first aspect of the present invention, after the two-dimensional image at the observation position is perspective-transformed on a virtual horizontal plane including the support surface of the vehicle, the vehicle at the observation position is determined based on the feature extraction result of the perspective transformed image. I decided to
The vehicle can be accurately determined using a feature reflecting the height of the vehicle at the observation position.

【0127】請求項2の発明では、入力画像を透視変換
して得られる画像と、観測位置における背景画像の透視
変換画像との差分をとることにより、背景になかった画
像部分を特徴として抽出するので、車輌などの移動する
対象物を表す特徴を抽出することができる。
According to the second aspect of the present invention, the difference between the image obtained by performing the perspective transformation on the input image and the perspective transformation image of the background image at the observation position is extracted as a feature of the image portion not present on the background. Therefore, it is possible to extract a feature representing a moving object such as a vehicle.

【0128】請求項3の発明では、入力画像を透視変換
して得られる画像上で、所定の距離範囲内にあるエッジ
成分を統合した結果を特徴として抽出し、また請求項4
の発明では、透視変換画像上における1段階前の透視変
換画像に対する変動部分のうち、所定の距離範囲内にあ
る変動部分を統合した結果を特徴として抽出するので、
一台の車輌にかかる特徴を認識して正確な判別処理を行
うことが出来る。
According to a third aspect of the present invention, a result obtained by integrating edge components within a predetermined distance range is extracted as a feature on an image obtained by perspectively transforming an input image.
According to the invention, since a result obtained by integrating a variable portion within a predetermined distance range among the variable portions with respect to the perspective-transformed image one stage before on the perspective-transformed image is extracted as a feature,
By recognizing the characteristics of one vehicle, it is possible to perform an accurate determination process.

【0129】請求項5の発明では、2種類以上の方法に
より透視変換画像上の特徴を抽出した後、各抽出結果を
統合することにより、特徴の抽出精度を向上することが
できる。
According to the fifth aspect of the present invention, the feature extraction accuracy can be improved by extracting the features on the perspective transformed image by two or more methods and integrating the extracted results.

【0130】請求項6の発明では、透視変換画像上で抽
出された特徴を、仮想水平面上に所定の車輌モデルを透
視変換して得られる特徴と比較した結果を用いることに
より、観測位置に車輌が存在するか否かを判別すること
ができる。
According to the sixth aspect of the present invention, by using a result obtained by comparing a feature extracted on the perspective transformed image with a feature obtained by performing a perspective transformation of a predetermined vehicle model on a virtual horizontal plane, the vehicle is located at the observation position. Can be determined.

【0131】請求項7の発明では、観測位置における入
力画像を透視変換した後、この透視変換画像から車頭部
分の画像候補となる特徴を抽出し、各特徴間の距離を前
記と同様の車輌モデルの透視変換結果と比較して、各特
徴が車頭部分に対応するものか否かを判別するので、夕
暮れ時など車輌全体を1つの特徴として抽出できなくな
った場合にも、車輌1台,1台を正確に判別でき、信頼
性の高いデータを得ることができる。
According to the seventh aspect of the present invention, after the input image at the observation position is perspective-transformed, features serving as image candidates for the vehicle head are extracted from the perspective-transformed image, and the distance between the features is determined by the same vehicle model as described above. It is determined whether each feature corresponds to the head portion of the vehicle by comparing with the perspective transformation result of. Therefore, even when the entire vehicle cannot be extracted as one feature such as at sunset, one vehicle, one vehicle Can be accurately determined, and highly reliable data can be obtained.

【0132】請求項8の発明では、前記透視変換画像と
背景画像の透視変換画像との差分処理により、車頭候補
となる特徴の抽出が可能となる。また請求項9の発明で
は、透視変換画像上の車輌の幅方向におけるエッジ成分
を、請求項10の発明では、1段階前の透視変換画像に
対する変動部分を、それぞれ抽出することにより、車頭
候補となる特徴の抽出が可能となる。
According to the eighth aspect of the present invention, it is possible to extract a feature which is a candidate for a vehicle head by performing a difference process between the perspective transformed image and the perspective transformed image of the background image. According to the ninth aspect of the present invention, the edge component in the width direction of the vehicle on the perspective transformed image is extracted. It becomes possible to extract certain features.

【0133】請求項11の発明は、道路上の所定位置を
撮像し、各段階における入力画像について、それぞれ道
路上に車輌が存在するか否かを仮判別し、複数回の入力
画像毎の判別結果を追跡することにより最終的な判定を
行うようにしたので、車輌が撮像位置に近づくにつれ、
車輌と影との透視変換結果に差異が認められなくなると
いう問題が解消され、精度の高い車輌判別を行うことが
できる。
According to an eleventh aspect of the present invention, a predetermined position on a road is imaged, and for each input image at each stage, it is provisionally determined whether or not a vehicle is present on the road. By making a final decision by tracking the results, as the vehicle approaches the imaging position,
The problem that the difference in the perspective transformation result between the vehicle and the shadow is no longer recognized is solved, and highly accurate vehicle discrimination can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明にかかる車輌判別装置が組み込まれた
交通流計測装置の設置例を示す説明図である。
FIG. 1 is an explanatory diagram showing an installation example of a traffic flow measuring device incorporating a vehicle discriminating device according to the present invention.

【図2】透視変換処理の原理を示す説明図である。FIG. 2 is an explanatory diagram showing the principle of perspective transformation processing.

【図3】カメラからの入力画像を示す説明図である。FIG. 3 is an explanatory diagram showing an input image from a camera.

【図4】図3の入力画像を透視変換した結果を示す説明
図である。
FIG. 4 is an explanatory diagram showing a result of perspective transformation of the input image of FIG. 3;

【図5】背景変換画像を示す説明図である。FIG. 5 is an explanatory diagram showing a background conversion image.

【図6】図4の透視変換画像と図5の背景変換画像との
差分処理により抽出された特徴を示す説明図である。
6 is an explanatory diagram showing features extracted by a difference process between the perspective transformed image of FIG. 4 and the background transformed image of FIG. 5;

【図7】任意の点Pの空間座標からこの点Pの透視変換
先の座標を算出する原理を示す説明図である。
FIG. 7 is an explanatory view showing the principle of calculating coordinates of a perspective transformation destination of an arbitrary point P from spatial coordinates of the point P;

【図8】車輌のモデルの一例を示す説明図である。FIG. 8 is an explanatory diagram showing an example of a vehicle model.

【図9】図8のモデルを透視変換した結果を示す説明図
である。
FIG. 9 is an explanatory diagram showing a result of perspective transformation of the model of FIG. 8;

【図10】車輌判別装置の構成例を示すブロック図であ
る。
FIG. 10 is a block diagram illustrating a configuration example of a vehicle determination device.

【図11】車輌判別装置の他の構成例を示すブロック図
である。
FIG. 11 is a block diagram showing another configuration example of the vehicle discrimination device.

【図12】入力画像上のエッジ成分を抽出した結果を示
す説明図である。
FIG. 12 is an explanatory diagram showing a result of extracting an edge component on an input image.

【図13】図12のエッジ成分を統合処理した結果を示
す説明図である。
FIG. 13 is an explanatory diagram showing a result obtained by integrating the edge components of FIG. 12;

【図14】車輌に対応するものとして認識された画像領
域を示す説明図である。
FIG. 14 is an explanatory diagram showing an image area recognized as corresponding to a vehicle.

【図15】車輌判別装置の他の構成例を示すブロック図
である。
FIG. 15 is a block diagram illustrating another configuration example of the vehicle determination device.

【図16】フレーム差分処理により抽出された特徴を示
す説明図である。
FIG. 16 is an explanatory diagram showing features extracted by the frame difference processing.

【図17】図16の各特徴を統合処理した結果を示す説
明図である。
FIG. 17 is an explanatory diagram showing a result obtained by integrating the features of FIG. 16;

【図18】車輌判別装置の他の構成例を示すブロック図
である。
FIG. 18 is a block diagram illustrating another configuration example of the vehicle determination device.

【図19】車輌判別装置の他の構成例を示すブロック図
である。
FIG. 19 is a block diagram illustrating another configuration example of the vehicle determination device.

【図20】車頭候補として抽出された特徴を示すブロッ
ク図である。
FIG. 20 is a block diagram showing features extracted as vehicle head candidates.

【図21】車輌判別装置の他の構成例を示すブロック図
である。
FIG. 21 is a block diagram illustrating another configuration example of the vehicle determination device.

【図22】車輌判別装置の他の構成例を示すブロック図
である。
FIG. 22 is a block diagram illustrating another configuration example of the vehicle determination device.

【図23】車輌が撮像位置に接近した状態で得られた入
力画像、およびその透視変換画像を示す説明図である。
FIG. 23 is an explanatory diagram illustrating an input image obtained in a state where the vehicle approaches the imaging position and a perspective transformed image thereof.

【図24】図23(2)の透視変換画像から抽出された
特徴を示す説明図である。
FIG. 24 is an explanatory diagram showing features extracted from the perspective transformed image of FIG. 23 (2).

【図25】車輌判別装置の他の構成例を示すブロック図
である。
FIG. 25 is a block diagram illustrating another configuration example of the vehicle determination device.

【図26】図25の追跡処理部による追跡方法を示す説
明図である。
FIG. 26 is an explanatory diagram showing a tracking method by the tracking processing unit in FIG. 25;

【図27】追跡処理結果と最終判定結果とを対応づけて
示す説明図である。
FIG. 27 is an explanatory diagram showing a tracking process result and a final determination result in association with each other.

【符号の説明】[Explanation of symbols]

2 透視変換処理部 4 特徴抽出部 5 判定部 8 背景差分処理部 11 エッジ抽出部 12 エッジ統合部 13 フレーム差分処理部 15 抽出結果統合部 16 処理結果統合部 17 車頭候補抽出部 18 判定結果記憶部 19 追跡処理部 20 最終判定部 2 perspective transformation processing unit 4 feature extraction unit 5 determination unit 8 background difference processing unit 11 edge extraction unit 12 edge integration unit 13 frame difference processing unit 15 extraction result integration unit 16 processing result integration unit 17 vehicle head candidate extraction unit 18 determination result storage unit 19 Tracking processing unit 20 Final judgment unit

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 所定の観測位置における車輌を判別する
ための装置であって、 前記観測位置を撮像して得られた2次元画像を入力する
画像入力手段と、 入力された2次元画像を車輌の支持面を含む仮想水平面
上に透視変換する画像変換手段と、 前記画像変換手段により透視変換された画像について特
徴抽出を行う特徴抽出手段と、 前記特徴抽出手段による抽出結果を用いて前記観測位置
における車輌を判別する判別手段とを備えて成る車輌判
別装置。
1. An apparatus for discriminating a vehicle at a predetermined observation position, comprising: image input means for inputting a two-dimensional image obtained by imaging the observation position; Image transformation means for performing perspective transformation on a virtual horizontal plane including the support surface of the above, feature extraction means for performing feature extraction on the image perspective-transformed by the image transformation means, and the observation position using an extraction result by the feature extraction means. A vehicle discriminating device comprising: a discriminating means for discriminating a vehicle in the above.
【請求項2】 前記特徴抽出手段は、前記画像変換手段
により透視変換された画像と、前記観測位置における背
景画像の透視変換画像との差分処理により特徴抽出を行
う請求項1に記載された車輌判別装置。
2. The vehicle according to claim 1, wherein the feature extracting unit performs feature extraction by performing a difference process between a perspectively transformed image of the background image at the observation position and an image that has been perspective transformed by the image transforming unit. Discriminator.
【請求項3】 前記特徴抽出手段は、前記画像変換手段
により透視変換された画像からエッジ成分を抽出し、抽
出された各エッジ成分のうち、所定の距離範囲内にある
エッジ成分を統合した結果を透視変換画像上の特徴とす
る請求項1に記載された車輌判別装置。
3. A result obtained by extracting an edge component from an image perspective-transformed by the image conversion unit and integrating edge components within a predetermined distance range among the extracted edge components. 2. The vehicle discriminating apparatus according to claim 1, wherein the vehicle discriminating means is a feature on a perspective transformed image.
【請求項4】 前記特徴抽出手段は、前記画像変換手段
により透視変換された画像と、1段階前に透視変換され
た入力画像との差分により画像上の変動部分を求めた
後、これら変動部分のうち所定の距離範囲内にある変動
部分を統合した結果を透視変換画像上の特徴とする請求
項1に記載された車輌判別装置。
4. The method according to claim 1, wherein the characteristic extracting means obtains a variable portion on the image based on a difference between the image subjected to the perspective transformation by the image converting means and the input image subjected to the perspective transformation one stage before, The vehicle discriminating apparatus according to claim 1, wherein a result obtained by integrating the fluctuating portions within a predetermined distance range is included in the perspective transformed image.
【請求項5】 前記特徴抽出手段は、前記画像変換手段
により透視変換された画像について、2種類以上の方法
を用いて画像上の特徴を抽出した後、各方法による抽出
結果を統合する請求項1に記載された車輌判別装置。
5. The method according to claim 1, wherein the feature extracting unit extracts features on the image that has been perspectively transformed by the image transforming unit using two or more types of methods, and then integrates the extraction results obtained by each method. 2. The vehicle discriminating apparatus according to 1.
【請求項6】 前記判別手段は、前記特徴抽出手段によ
り抽出された各特徴を、前記仮想水平面上に所定の車輌
モデルを透視変換して得られる特徴と比較し、その比較
結果に基づき前記観測位置における車輌を判定する請求
項1〜5のいずれかに記載された車輌判別装置。
6. The discriminating unit compares each feature extracted by the feature extracting unit with a feature obtained by performing a perspective transformation of a predetermined vehicle model on the virtual horizontal plane, and performs the observation based on a comparison result. The vehicle discriminating apparatus according to claim 1, wherein the vehicle at the position is determined.
【請求項7】 所定の観測位置における車輌を判別する
ための装置であって、 前記観測位置を撮像して得られた2次元画像を入力する
画像入力手段と、 入力された2次元画像を車輌の支持面を含む仮想水平面
上に透視変換する画像変換手段と、 前記画像変換手段により透視変換された入力画像につい
て車頭部分の画像候補となる特徴を抽出する特徴抽出手
段と、 前記特徴抽出手段により抽出された各特徴間の距離を、
前記仮想水平面上に所定の車輌モデルを透視変換して得
られる特徴の大きさと比較して、各特徴が車頭部分の画
像であるか否かを判別する判別手段とを備えて成る車輌
判別装置。
7. An apparatus for discriminating a vehicle at a predetermined observation position, comprising: image input means for inputting a two-dimensional image obtained by imaging the observation position; Image conversion means for performing perspective transformation on a virtual horizontal plane including the support surface of the above, feature extraction means for extracting features that are image candidates of a vehicle head portion with respect to the input image subjected to perspective transformation by the image transformation means, and the feature extraction means The distance between each extracted feature is
A vehicle discriminating device comprising: a discriminating means for comparing each feature with an image of a vehicle head portion by comparing the size of a feature obtained by perspectively transforming a predetermined vehicle model on the virtual horizontal plane.
【請求項8】 前記特徴抽出手段は、前記画像変換手段
により透視変換された画像と、前記観測位置における背
景画像の透視変換画像との差分画像より、前記特徴を抽
出する請求項7に記載された車輌判別装置。
8. The feature extraction unit according to claim 7, wherein the feature extraction unit extracts the feature from a difference image between the image subjected to the perspective transformation by the image transformation unit and the perspective transformation image of the background image at the observation position. Vehicle identification device.
【請求項9】 前記特徴抽出手段は、前記画像変換手段
により透視変換された画像上で、車輌の幅方向における
エッジ成分を、前記特徴として抽出する請求項7に記載
された車輌判別装置。
9. The vehicle discriminating apparatus according to claim 7, wherein the feature extracting unit extracts an edge component in a width direction of the vehicle as the feature on the image perspective-transformed by the image converting unit.
【請求項10】 前記特徴抽出手段は、前記画像変換手
段により透視変換された画像と、1段階前に透視変換さ
れた入力画像との差分処理により透視変換画像上の変動
部分を、前記特徴として抽出する請求項7に記載された
車輌判別装置。
10. The feature extracting unit, as a feature, sets a fluctuating portion on a perspective transformed image by a difference process between an image perspective transformed by the image transform unit and an input image perspective transformed one stage before. The vehicle discriminating apparatus according to claim 7, which extracts the vehicle.
【請求項11】 道路上を走行する車輌を判別するため
の装置であって、 前記道路上の観測位置を撮像して得られた2次元画像を
入力する画像入力手段と、 入力された2次元画像を道路面を含む仮想水平面上に透
視変換する画像変換手段と、 前記画像変換手段により透視変換された画像について特
徴抽出を行う特徴抽出手段と、 前記特徴抽出手段により抽出された各特徴を用いて道路
上に車輌が存在するか否かを仮判別する仮判別手段と、 過去複数回の入力画像についての仮判別結果を記憶する
記憶手段と、 前記記憶手段に記憶された各入力画像毎の仮判別結果を
追跡して、道路上に車輌が存在するか否かを最終的に判
別する最終判別手段とを備えて成る車輌判別装置。
11. An apparatus for discriminating a vehicle traveling on a road, comprising: image input means for inputting a two-dimensional image obtained by imaging an observation position on the road; An image conversion unit that perspective-transforms the image onto a virtual horizontal plane including a road surface, a feature extraction unit that performs feature extraction on the image that has been perspective-transformed by the image conversion unit, and each feature extracted by the feature extraction unit. Temporary determination means for temporarily determining whether or not a vehicle is present on the road, storage means for storing temporary determination results for a plurality of past input images, and for each input image stored in the storage means. A vehicle discriminating device comprising: a final discriminating unit that tracks a provisional discrimination result and finally discriminates whether or not a vehicle exists on a road.
JP21934296A 1996-07-31 1996-07-31 Vehicle identification device Expired - Fee Related JP3605955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21934296A JP3605955B2 (en) 1996-07-31 1996-07-31 Vehicle identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21934296A JP3605955B2 (en) 1996-07-31 1996-07-31 Vehicle identification device

Publications (2)

Publication Number Publication Date
JPH1049662A true JPH1049662A (en) 1998-02-20
JP3605955B2 JP3605955B2 (en) 2004-12-22

Family

ID=16733959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21934296A Expired - Fee Related JP3605955B2 (en) 1996-07-31 1996-07-31 Vehicle identification device

Country Status (1)

Country Link
JP (1) JP3605955B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059165A (en) * 2004-08-20 2006-03-02 Riyuukoku Univ Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP2011008505A (en) * 2009-06-25 2011-01-13 Mitsubishi Electric Corp Vehicle detection apparatus, traffic information providing system, vehicle detection method and vehicle detection program
JP2014010765A (en) * 2012-07-02 2014-01-20 Sumitomo Electric Ind Ltd Mobile object detector, image type sensor, and computer program
WO2014054328A1 (en) * 2012-10-02 2014-04-10 株式会社 東芝 Vehicle detection apparatus
JP2015022658A (en) * 2013-07-22 2015-02-02 株式会社東芝 Vehicle monitoring apparatus and vehicle monitoring method
US9262683B2 (en) 2012-12-04 2016-02-16 Sony Corporation Image processing device, image processing method, and program
JP2017084417A (en) * 2017-02-02 2017-05-18 株式会社東芝 Vehicle monitoring device and vehicle monitoring method
CN113863180A (en) * 2021-09-16 2021-12-31 泰州市雷信农机电制造有限公司 Bottom supporting prevention and control system based on big data storage

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059165A (en) * 2004-08-20 2006-03-02 Riyuukoku Univ Three-dimensional modeling device, geometric pattern, three-dimensional modeling data generating method, three-dimensional modeling program and recording medium
JP2011008505A (en) * 2009-06-25 2011-01-13 Mitsubishi Electric Corp Vehicle detection apparatus, traffic information providing system, vehicle detection method and vehicle detection program
JP2014010765A (en) * 2012-07-02 2014-01-20 Sumitomo Electric Ind Ltd Mobile object detector, image type sensor, and computer program
WO2014054328A1 (en) * 2012-10-02 2014-04-10 株式会社 東芝 Vehicle detection apparatus
JP2014074939A (en) * 2012-10-02 2014-04-24 Toshiba Corp Vehicle detection device
US9262683B2 (en) 2012-12-04 2016-02-16 Sony Corporation Image processing device, image processing method, and program
JP2015022658A (en) * 2013-07-22 2015-02-02 株式会社東芝 Vehicle monitoring apparatus and vehicle monitoring method
US9875413B2 (en) 2013-07-22 2018-01-23 Kabushiki Kaisha Toshiba Vehicle monitoring apparatus and vehicle monitoring method
JP2017084417A (en) * 2017-02-02 2017-05-18 株式会社東芝 Vehicle monitoring device and vehicle monitoring method
CN113863180A (en) * 2021-09-16 2021-12-31 泰州市雷信农机电制造有限公司 Bottom supporting prevention and control system based on big data storage

Also Published As

Publication number Publication date
JP3605955B2 (en) 2004-12-22

Similar Documents

Publication Publication Date Title
JP4822766B2 (en) Road marking recognition device and system
US7899211B2 (en) Object detecting system and object detecting method
US20020134151A1 (en) Apparatus and method for measuring distances
EP1383100A2 (en) Local positioning apparatus and method therefor
JP2000357233A (en) Body recognition device
CN108197523B (en) Night vehicle detection method and system based on image conversion and contour neighborhood difference
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
EP3115933B1 (en) Image processing device, image capturing device, mobile body control system, image processing method, and computer-readable recording medium
JP6226368B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
JP5834933B2 (en) Vehicle position calculation device
CN111213153A (en) Target object motion state detection method, device and storage medium
CN107346547B (en) Monocular platform-based real-time foreground extraction method and device
JP2002228423A (en) Tire detecting method and device
JPH1173514A (en) Recognition device for vehicle
JPH11195127A (en) Method for recognizing white line and device therefor
JP4123138B2 (en) Vehicle detection method and vehicle detection device
JPH07334800A (en) Vehicle recognition device
JPH1049662A (en) Device for discriminating vehicle
JP3516118B2 (en) Object recognition method and object recognition device
CN112766046B (en) Target detection method and related device
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP3465531B2 (en) Object recognition method and apparatus
JPH1055446A (en) Object recognizing device
JP5903901B2 (en) Vehicle position calculation device
JP3475700B2 (en) Object recognition method, object recognition device, and vehicle recognition device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040927

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071015

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111015

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111015

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees