JP2002190023A - Device and method for discriminating car model, and storage medium storing car model discriminating program readable in computer - Google Patents

Device and method for discriminating car model, and storage medium storing car model discriminating program readable in computer

Info

Publication number
JP2002190023A
JP2002190023A JP2000388866A JP2000388866A JP2002190023A JP 2002190023 A JP2002190023 A JP 2002190023A JP 2000388866 A JP2000388866 A JP 2000388866A JP 2000388866 A JP2000388866 A JP 2000388866A JP 2002190023 A JP2002190023 A JP 2002190023A
Authority
JP
Japan
Prior art keywords
vehicle
model
image
area
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000388866A
Other languages
Japanese (ja)
Other versions
JP3816747B2 (en
Inventor
Masayuki Maruyama
昌之 丸山
Kyoichi Okamoto
恭一 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2000388866A priority Critical patent/JP3816747B2/en
Publication of JP2002190023A publication Critical patent/JP2002190023A/en
Application granted granted Critical
Publication of JP3816747B2 publication Critical patent/JP3816747B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device and a method for discriminating a car model, and a storage medium storing the method allowing real-time processing and having less restriction on the installation conditions of a camera. SOLUTION: This device for discriminating the car model has the camera 1 and electronic equipment 2. The electronic equipment 2 comprises an image signal processor 4, a model storage device 5, a model projection processor 6 and a discriminating device 7. The image signal processor 4 extracts a vehicle region T including a vehicle, from an image picked up by the camera 1. The model storage device 5 stores every vehicle model as a three-dimensional shape model. The model projection processor 6 reads the vehicle model from the model storage device 5 and converts the read vehicle model into an image viewed from picked-up position in the picked-up image. The discriminating device 7 obtains the area of the converted vehicle model, the area of the vehicle region T and the intersecting area of these areas and discriminates the car model (a large car, a standard-sized car or a two-wheeler). The reduction of a calculation cost and the like can be attained by using the three-dimensional shape model as the vehicle model.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車種判別装置及び
車種判別方法及び車種判別を行わせるプログラムを記憶
したコンピュータ読み取り可能な記憶媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle type discriminating apparatus, a vehicle type discriminating method, and a computer-readable storage medium storing a program for performing vehicle type discrimination.

【0002】[0002]

【従来の技術】一般道路や高速道路を通行する車両の車
種(大型車、普通車、小型車、二輪車等)ごとの交通量や、
道路を通行する車両の車種ごとの速度、等の広域監視を
行う方法には、可視カメラで撮像された画像を用いて車
両の車種を判別し所望の情報(交通量や速度等)を得る、
以下に示す幾つかの方法があった。
2. Description of the Related Art Traffic volume for each type of vehicle (large-sized car, ordinary car, small-sized car, two-wheeled vehicle, etc.) passing on a general road or an expressway,
A method of performing wide-area monitoring of the speed of each type of vehicle traveling on the road, etc., is to determine the type of the vehicle using an image captured by a visible camera and obtain desired information (traffic volume, speed, etc.),
There were several methods described below.

【0003】車両の車種を判別する方法には、例えば、
車両のナンバープレートの車種番号を読み取る方法、車
両の車高及び車幅等の寸法に注目する方法、車両のヘッ
ドライトやテイルランプの位置や間隔を用いる方法、車
両表面や車両と背景との境界部に存在するエッジ成分を
抽出する方法、可視カメラで撮像された画像内の車両領
域の大きさを用いた方法、等が提案されていた。 ・ナンバープレートを利用した方法 この方法は、車両のナンバープレートを撮像可能な位置
に撮像カメラが配置され、撮像された画像内からナンバ
ープレートをエッジ処理により抽出し、抽出されたナン
バープレートから車別番号をテンプレートマッチングに
より検出し車種を判別する。この方法では、ほぼ確実に
車種を判別することができるが、ナンバープレートの検
出もれ、車別(車種)番号の検索にかかる処理時間が大
きい等の問題があった。このため、広域監視、実時間処
理に適さなかった。 ・車両の寸法を利用した方法 この方法は、撮像された画像からエッジ処理により車両
を抽出し、この抽出された領域から車両の車幅、車長、
車高といった寸法を計算し求める。この求められた数値
をデータベースに予め記憶されている情報と比較し車種
を判別する。この方法では、判別にかかる計算コストが
低く、実時間・広域監視に有効であるが、計測すべき寸
法によって、カメラの取り付け位置や台数等の設置条件
があり、この設置条件を満たさない場合には機能しなか
った。また、撮像される画像の領域を、車両一台が撮像
されるように設定しておかなければならず、そのため撮
像領域が交差点や渋滞した道路であれば、複数の車両が
密集し一台の車両の寸法を得ることができなかった。 ・ヘッドライトやテイルランプを利用した方法 この方法は、ヘッドライトやテイルランプの位置をエッ
ジ処理により求め、求めたヘッドライトやテイルランプ
の位置からヘッドライト等の間隔や取り付け位置を求
め、この間隔や位置から車種を判別する。この方法では、
夜間やトンネル内でライト、ランプを使用する場所では
有効であるが、昼間では、ヘッドライトやテイルランプ
の位値を正確に求めなければならず、そのため計算コス
トがかかり、実時間・広域監視には適さない。また、雨天
で路面が濡れている時には、ライトが路面に写りこみ、
真のヘッドライトやテイルランプの位置を求めることが
困難であった。 ・エッジ成分を利用した方法 この方法は、車両に存在するフロントガラス、サイドガラ
ス、ボンネット、車両の背景に対するシルエットを抽出し
て、抽出した各構成要素の形状から車種を判別する。こ
の方法には、例えば特開平11-353581号公報があり、微分
処理によって車両のシルエットを切り出し、更に、このシ
ルエット領域をヘッドライト、ボンネット、フロントガラ
ス、屋根、屋根以降の後方部分といった部位に分割し
て、分割した各部位を予め保持するデータと比較するこ
とで、高精度の車種判別を達成していた。しかしなが
ら、この方法では、撮像された画像内の車両に各部位とは
無関係なエッジが存在した場合や、カメラの設置状況に
よって複数台の車両が重なって検出された場合について
は、各部位を分割することができなかった。 ・車両領域の大きさを利用した方法 この方法は、撮像された画像内からエッジ処理により、車
両であろう領域を抽出し、予め車種ごとに持っているデ
ータの大きさと比較して車種を判別する。この方法で
は、計算コストが低く実時間処理が可能であるが、検出さ
れた領域が車両以外でなくとも、検出された領域の大き
さ(面積)が車種ごとに設定された所定領域であれば、こ
の領域を車両とみなして判別するため、判別の信頼性が
低いことが欠点であった。
[0003] Methods for determining the type of vehicle include, for example,
A method of reading the model number on the license plate of the vehicle, a method of focusing on dimensions such as the height and width of the vehicle, a method of using the positions and intervals of headlights and tail lamps of the vehicle, a boundary between the vehicle surface and the vehicle and the background A method of extracting an edge component present in a part, a method using the size of a vehicle region in an image captured by a visible camera, and the like have been proposed.・ Method using license plate In this method, an imaging camera is arranged at a position where the license plate of the vehicle can be imaged, the license plate is extracted from the captured image by edge processing, and the license plate is classified according to the extracted license plate. The number is detected by template matching to determine the vehicle type. In this method, the vehicle type can be determined almost certainly, but there are problems such as a missing license plate detection and a long processing time for searching for a vehicle (vehicle type) number. Therefore, it is not suitable for wide area monitoring and real-time processing. -Method using the size of the vehicle This method extracts a vehicle from the captured image by edge processing, and calculates the vehicle width, vehicle length, and vehicle length from the extracted area.
Calculate and calculate dimensions such as vehicle height. The obtained numerical value is compared with information stored in the database in advance to determine the vehicle type. This method has a low computational cost for discrimination and is effective for real-time and wide-area monitoring.However, depending on the dimensions to be measured, there are installation conditions such as the camera mounting position and the number of cameras. Did not work. In addition, the area of the image to be imaged must be set so that one vehicle is imaged. Therefore, if the imaged area is an intersection or a congested road, a plurality of vehicles are densely packed and one vehicle is imaged. The dimensions of the vehicle could not be obtained.・ Method using headlights and tail lamps In this method, the positions of headlights and tail lamps are determined by edge processing, and the spacing and mounting position of headlights and the like are determined from the determined positions of headlights and tail lamps. And the vehicle type from the position. in this way,
It is effective at night and in places where lights and lamps are used in tunnels.However, in the daytime, the position of headlights and tail lamps must be determined accurately, which requires computational costs and is necessary for real-time and wide-area monitoring. Is not suitable. Also, when the road surface is wet in rainy weather, the light is reflected on the road surface,
It was difficult to determine the true headlight and tail lamp positions. Method Using Edge Component This method extracts a silhouette of a windshield, a side glass, a hood, and a background of a vehicle existing in a vehicle, and determines a vehicle type from the shape of each of the extracted components. This method is disclosed in, for example, Japanese Patent Application Laid-Open No. 11-353581, in which a silhouette of a vehicle is cut out by differential processing, and this silhouette area is further divided into parts such as a headlight, a hood, a windshield, a roof, and a rear part after the roof. By comparing each of the divided parts with data stored in advance, highly accurate vehicle type determination has been achieved. However, in this method, each part is divided when a vehicle in the captured image has an edge irrelevant to each part, or when a plurality of vehicles are detected overlapping with each other due to a camera installation situation. I couldn't. -Method using the size of the vehicle area This method extracts the area that is likely to be a vehicle by edge processing from the captured image, and determines the vehicle type by comparing it with the size of the data that is held in advance for each vehicle type I do. In this method, the calculation cost is low and real-time processing is possible.However, even if the detected area is not a vehicle, the size (area) of the detected area is a predetermined area set for each vehicle type. However, since this area is determined as a vehicle, the reliability of the determination is low.

【0004】また、信頼性を増加させた方法として、特
許第2953232号公報に記載された方法では、カメラが撮像
する領域を通行する車両を予め撮像し画像データとして
記憶しておき、この画像データと実際に撮像された画像
内の車両とを比較することで判別を行っていた。しかし
ながら、カメラの設置位置や画角が変更された場合に
は、再度複数の画像データを作成する必要があった。
[0004] As a method of increasing reliability, in a method described in Japanese Patent No. 2953232, a vehicle passing through an area imaged by a camera is imaged in advance and stored as image data. The determination is made by comparing the vehicle with the vehicle in the actually captured image. However, when the installation position and the angle of view of the camera are changed, it is necessary to create a plurality of image data again.

【0005】[0005]

【発明が解決しようとする課題】上述したように、従来
の車種判別装置では、実時間処理ができなかった、カメ
ラの設置条件に制約があった、複数の車両が重なった時
に判別できなかった、車両の各部位の抽出が困難であっ
た、等により所望の車種を判別することが困難であっ
た。
As described above, in the conventional vehicle type discriminating apparatus, real-time processing could not be performed, camera installation conditions were restricted, and discrimination could not be performed when a plurality of vehicles overlapped. It was difficult to determine the desired vehicle type because of the difficulty in extracting each part of the vehicle.

【0006】そこで本発明は上記従来の問題点に鑑みて
なされたもので、実時間処理が可能であり、カメラの設
置条件に対する制約がより少なく、所望の車種を判別す
ることができる車種判別装置及び車種判別方法及び車種
判別を行うプログラムを記憶したコンピュータ読み取り
可能な記憶媒体の提供を目的とする。
Accordingly, the present invention has been made in view of the above-mentioned conventional problems, and is capable of real-time processing, has less restrictions on camera installation conditions, and can determine a desired vehicle type. It is another object of the present invention to provide a computer-readable storage medium storing a vehicle type determining method and a program for performing vehicle type determination.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に本発明の車種判別装置は、移動体が通行する領域を撮
像範囲とした画像を撮像する撮像手段と、撮像された前
記画像内から前記移動体を含む領域を移動体領域として
抽出する移動体領域抽出手段と、複数種の移動体の3次
元形状を移動体の車種ごとに移動体モデルとして記憶す
る記憶手段と、前記移動体モデルを、前記画像上の前記
移動体の撮像方向の見え方に変換した移動体モデル画像
に変換する移動体モデル画像変換手段と、この移動体モ
デル画像を前記画像上の移動体に重ねた場合の重なり程
度を比較し、この比較結果から前記移動体の車種を判別
する車種判別手段とから構成される。
In order to achieve the above object, a vehicle type discriminating apparatus according to the present invention comprises: an image pickup means for picking up an image in an area where a moving object passes; Moving body region extracting means for extracting a region including the moving body as a moving body region; storage means for storing a three-dimensional shape of a plurality of kinds of moving bodies as a moving body model for each vehicle type of the moving body; A moving body model image converting means for converting the moving body model image into a moving body model image converted into a view of the imaging direction of the moving body on the image, and a case where the moving body model image is superimposed on the moving body on the image. Vehicle type discriminating means for comparing the degree of overlap and discriminating the vehicle type of the moving body from the comparison result.

【0008】また、本発明の車種判別方法は、移動体が通
行する領域を撮像範囲とした画像を撮像する工程と、撮
像された前記画像内から前記移動体を含む領域を移動体
領域として抽出する工程と、複数種の移動体の3次元形
状を移動体の車種ごとに移動体モデルとして記憶する工
程と、前記移動体モデルを、前記画像上の前記移動体の
撮像方向の見え方に変換した移動体モデル画像に変換す
る移動体モデル画像変換工程と、この移動体モデル画像
を前記画像に重ねた場合の重なり程度を比較し、この比
較結果から前記移動体の車種を判別する工程とを有す
る。
[0008] In addition, according to the vehicle type discriminating method of the present invention, an image of an area in which a moving object passes is taken as an imaging range, and an area including the moving object is extracted from the taken image as a moving object area. And storing the three-dimensional shapes of the plurality of types of moving objects as a moving object model for each vehicle type of the moving object, and converting the moving object model into a view of the imaging direction of the moving object on the image. A moving body model image converting step of converting the moving body model image into a moving body model image, and a step of comparing the degree of overlap when the moving body model image is superimposed on the image, and determining a vehicle type of the moving body from the comparison result. Have.

【0009】また、本発明の記憶媒体は、車両の車種の
判別を行うプログラムをコンピュータ読み取り可能なよ
うに記憶させた記憶媒体であって、移動体が通行する領
域を撮像範囲とした画像を撮像させ、撮像された前記画
像内から前記移動体を含む領域を移動体領域として抽出
させ、複数種の移動体の3次元形状を移動体の車種ごと
に移動体モデルとして記憶させ、前記移動体モデルを、
前記画像上の前記移動体の撮像方向の見え方に変換させ
た移動体モデル画像に変換させ、この移動体モデル画像
を前記画像に重ねさせた場合の重なり程度を比較し、こ
の比較結果から前記移動体の車種を判別させるプログラ
ムを記憶したコンピュータ読み取り可能な記憶媒体であ
る。
A storage medium according to the present invention is a storage medium in which a program for determining the type of a vehicle is stored so as to be readable by a computer. And extracting a region including the moving object from the captured image as a moving object region, storing a three-dimensional shape of a plurality of types of moving objects as a moving object model for each vehicle type of the moving object, To
It is converted into a moving body model image converted to the appearance of the imaging direction of the moving body on the image, and the degree of overlap when the moving body model image is superimposed on the image is compared.From this comparison result, It is a computer-readable storage medium storing a program for determining a vehicle type of a moving object.

【0010】また、本発明のプログラムは、コンピュー
タに、移動体が通行する領域を撮像範囲とした画像を撮
像させる機能と、撮像された前記画像内から前記移動体
を含む領域を移動体領域として抽出させる機能と、複数
種の移動体の3次元形状を移動体の車種ごとに移動体モ
デルとして記憶させる機能と、前記移動体モデルを、前
記画像上の前記移動体の撮像方向の見え方に変換させた
移動体モデル画像に変換させる機能と、この移動体モデ
ル画像を前記画像に重ねさせた場合の重なり程度を比較
させて、この比較結果から前記移動体の車種を判別させ
る機能とから構成される。
[0010] The program of the present invention has a function of causing a computer to capture an image having an area where a moving object passes as an imaging range, and an area including the moving object from the captured image as a moving object area. A function of extracting, a function of storing a three-dimensional shape of a plurality of types of moving objects as a moving object model for each vehicle type of the moving object, and a method of displaying the moving object model in the appearance of the imaging direction of the moving object on the image. A function for converting the moving object model image into a converted one, and a function for comparing the degree of overlap when the moving object model image is superimposed on the image and discriminating the vehicle type of the moving object from the comparison result. Is done.

【0011】このような構成によれば、判別したい車種
の3次元形状モデルなる車両モデルを有し、この車両モデ
ルを撮像手段によって撮像された画像上に表示した時の
画像の大きさと、車両領域の大きさと、この画像と車両領
域とが交差する領域の大きさとから車種を判別すること
ができ、計算コストを抑えつつ、装置の設置場所の制限
を少なくすることができる。また、判別したい車両を抽
出した時に、この車両と並行して走行する車両を同時に
抽出した場合であっても、車種をほぼ正しく判別するこ
とができる。また、車両一台あたりの判別処理が非常に
簡単であるため、検出領域を複数設けた場合や、交通量
の多い道路でも演算量を増加させずに車種を判別するこ
とができる。また、車両の判別を行いつつ、車両の追跡
や歩行者の検出、車群(複数の車両がほぼ一塊に密集し
た状態)の速度などを同時に計算することも可能であ
る。
According to this configuration, the vehicle model has a three-dimensional shape model of the vehicle type to be determined, and the size of the image when the vehicle model is displayed on the image captured by the image capturing means and the vehicle area And the size of the area where the image and the vehicle area intersect, the type of the vehicle can be determined, so that the calculation cost can be suppressed and the restriction on the installation location of the device can be reduced. In addition, when a vehicle to be determined is extracted, even if a vehicle running in parallel with the vehicle is extracted at the same time, the vehicle type can be determined substantially correctly. In addition, since the determination process per vehicle is very simple, the vehicle type can be determined without increasing the calculation amount even when a plurality of detection regions are provided or on a road with a large traffic volume. In addition, it is possible to simultaneously calculate the vehicle tracking, the detection of the pedestrian, the speed of a vehicle group (in a state where a plurality of vehicles are substantially densely packed) while determining the vehicle, and the like.

【0012】[0012]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0013】図1乃至図15は第1の実施の形態を示すもの
である。
FIG. 1 to FIG. 15 show a first embodiment.

【0014】図1は、第1の実施の形態を道路に配置した
時の斜視図である。
FIG. 1 is a perspective view when the first embodiment is arranged on a road.

【0015】第1の実施の形態は、撮像手段なるカメラ1
と、コンピュータ等の電子機器2とから構成される。電子
機器2は、カメラ1内に設けられるが、カメラ1本体とは別
筐体で設けても良い。
The first embodiment is directed to a camera 1 serving as an image pickup means.
And an electronic device 2 such as a computer. The electronic device 2 is provided in the camera 1, but may be provided in a separate housing from the camera 1 main body.

【0016】カメラ1は、移動体なる車両が通行する道路
(車線L1、L2)の側部に配置された支柱3に、道路を上
方から撮像するように固定される。カメラ1が固定され
る高さは、例えば6〜8mであり、カメラ1によって撮像され
る領域を検出領域Dとする。この検出領域Dは、図1では2
車線であり略8×8メートル角の領域であるが、1車線ある
いは3車線以上でも構わず、使用者によって任意に設定可
能である。また、カメラ1は、カメラ1が設置された道路を
通行する車両の走行方向(上流)側に配置され、この車両
の前方を撮像する。また、逆に下流に配置され、この車
両の後方を撮像しても良い。また、カメラ1で撮像された
画像の濃淡値は、例えば256階調であるが、この諧調は任
意に設定可能である。
The camera 1 is located on a road through which a moving vehicle passes.
The road is fixed to a column 3 disposed on the side of (lane L1, L2) so that the road is imaged from above. The height at which the camera 1 is fixed is, for example, 6 to 8 m, and an area imaged by the camera 1 is a detection area D. This detection area D is 2 in FIG.
Although it is a lane and an area of approximately 8 × 8 m square, it may be one lane or three lanes or more, and can be arbitrarily set by a user. Further, the camera 1 is arranged in the traveling direction (upstream) of a vehicle passing through a road on which the camera 1 is installed, and captures an image in front of the vehicle. Conversely, it may be arranged downstream and image the rear of the vehicle. The grayscale value of the image captured by the camera 1 is, for example, 256 gradations, and this gradation can be set arbitrarily.

【0017】図2は、第1の実施の形態のブロック図であ
り、電子機器2は、画像信号処理装置4、モデル記憶装置
5、モデル投影処理装置6(モデル画像変換手段)、判別
装置7を有する。
FIG. 2 is a block diagram of the first embodiment. The electronic device 2 includes an image signal processing device 4 and a model storage device.
5. It has a model projection processing device 6 (model image conversion means) and a discrimination device 7.

【0018】カメラ1が撮像した画像の画像信号は、画
像信号処理部3に送られる。画像信号は、カメラ1と電子
機器2とが接続されていれば画像信号処理部3に有線にて
送信され、接続されていなければ無線にて送信される。
無線で画像信号を受信する場合には、アンテナ、フィル
タ、増幅器等の送受信装置が別途設けられる。
An image signal of an image picked up by the camera 1 is sent to an image signal processing unit 3. The image signal is transmitted to the image signal processing unit 3 by wire if the camera 1 and the electronic device 2 are connected, and wirelessly transmitted if not connected.
When an image signal is received wirelessly, a transmitting / receiving device such as an antenna, a filter, and an amplifier is separately provided.

【0019】画像信号処理部4は、カメラ1により撮像さ
れた画像(検出領域D)から車両領域Tを含む領域を抽出す
る。車両領域Tとは、撮像された画像上で少なくとも車両
が含まれる領域(複数の画素からなる)をさす。この車両
領域Tの抽出は、例えば背景差分やフレーム間差分とい
った方法を用いる。この車両抽出領域Tには、天候による
車両の影が含まれていても良い。
The image signal processing section 4 extracts a region including the vehicle region T from the image (detection region D) captured by the camera 1. The vehicle region T refers to a region (comprising a plurality of pixels) at least including a vehicle on a captured image. The extraction of the vehicle region T uses, for example, a method such as a background difference or an inter-frame difference. The vehicle extraction region T may include a shadow of the vehicle due to the weather.

【0020】モデル記憶装置5は、車種(大型車、普通
車、小型車、二輪車等)ごとの車両の3次元形状を車両モ
デルとして記憶している。この車両モデルは、例えばCAD
データのようなデータ構造を有し、車両の3次元形状の特
徴を複数の点(座標)で表現したものである。例えば、
普通車の場合には、この点の数を16点とし、車両下側で4
点、ボンネット4点、屋根4点、トランク(荷台)4点で、
車両の特徴を表現している。
The model storage device 5 stores the three-dimensional shape of a vehicle for each vehicle type (large-sized vehicle, ordinary vehicle, small-sized vehicle, two-wheeled vehicle, etc.) as a vehicle model. This vehicle model is, for example, CAD
It has a data structure like data and expresses the features of the three-dimensional shape of the vehicle by a plurality of points (coordinates). For example,
In the case of an ordinary car, the number of points is 16 points, and 4 points
4 points, 4 hoods, 4 roofs, 4 trunks,
Expresses the characteristics of the vehicle.

【0021】モデル投影処理装置6は、任意の車両モデル
を車両モデル画像に変換する。車両モデル画像とは、車
両モデルを表現した複数の点を結び、2次元な画像で表
現したデータである。なお、車両が走行する車線幅と検
出領域D内の車両の走行方向は予めデータとして記憶し
ている。この車両モデル画像は、検出領域D内の、車線幅
(実長)と車両の走行方向と抽出された車両領域とから求
められ、抽出された車両領域Tの位置に配置された車両モ
デルを撮像画像(見え方)に変換した画像である。
The model projection processing device 6 converts an arbitrary vehicle model into a vehicle model image. The vehicle model image is data represented by a two-dimensional image by connecting a plurality of points representing the vehicle model. The lane width in which the vehicle travels and the traveling direction of the vehicle in the detection area D are stored in advance as data. This vehicle model image shows the lane width in the detection area D.
This is an image obtained by converting the (real length), the traveling direction of the vehicle, and the extracted vehicle region and converting the vehicle model arranged at the position of the extracted vehicle region T into a captured image (view).

【0022】判別装置7は、車両領域Tの大きさ(画素数)、
車両モデル画像の大きさ等をもとに、車種を判別する。
具体的には、車両領域Tと車両モデル画像との重ねた場合
の重なり程度を比較して判別する。
The discriminating device 7 determines the size (the number of pixels) of the vehicle area T,
The vehicle type is determined based on the size of the vehicle model image and the like.
Specifically, the degree of overlap in the case where the vehicle region T and the vehicle model image overlap is determined.

【0023】また、車種判別装置には、判別結果を記憶す
るMOやHDD等の記憶装置、判別結果や広域監視結果を表
示するディスプレイ装置、判別結果や広域監視結果を出
力するプリンタ、等の周辺機器を別途設けることも可能
である。
The vehicle type discriminating apparatus includes a storage device such as an MO and an HDD for storing the discrimination result, a display device for displaying the discrimination result and the wide area monitoring result, and a printer for outputting the discrimination result and the wide area monitoring result. It is also possible to separately provide equipment.

【0024】このような構成からなる車種判別装置の車
種判別方法について、図3の電子機器のブロック図と図4
のフローチャートを参照して説明する。
FIG. 4 is a block diagram of the electronic apparatus shown in FIG.
This will be described with reference to the flowchart of FIG.

【0025】図3に示すように、電子機器2は、少なくとも
各種演算処理を行うCPU10、演算結果や車両モデル等を
記憶するメモリ11を有し、電子機器2の周辺機器として
演算結果等を表示するディスプレイ12、演算結果等を出
力するプリンタ13、電子機器2を操作するためのマウス14
やキーボード15、が設けられる。図3に示すような電子
機器2は、カメラ1内に配置される場合ではなく、複数のカ
メラ1からの画像信号を集中的に処理、管理する管理セン
タ等に配置される場合である。
As shown in FIG. 3, the electronic device 2 has at least a CPU 10 for performing various types of arithmetic processing and a memory 11 for storing the calculation results and vehicle models, and displays the calculation results and the like as peripheral devices of the electronic device 2. Display 12, a printer 13 for outputting calculation results, etc., and a mouse 14 for operating the electronic device 2.
And a keyboard 15. The electronic device 2 as shown in FIG. 3 is not a case where the electronic device 2 is arranged in the camera 1, but a case where the electronic device 2 is arranged in a management center or the like which centrally processes and manages image signals from a plurality of cameras 1.

【0026】(1)カメラ1により検出領域Dの画像を撮像
する(S1)。撮像した画像は、有線もしくは無線により電
子機器2に送信し、メモリ11に記憶する。メモリ11に記憶
する際には、画像を撮像(記憶)した撮像時間(記憶時間)
も含めた形式で記憶する。カメラ1は、常に検出領域Dを
撮像しつづける。
(1) An image of the detection area D is captured by the camera 1 (S1). The captured image is transmitted to the electronic device 2 by wire or wirelessly, and stored in the memory 11. When storing in the memory 11, the imaging time (storage time) when the image was captured (stored)
Is stored in a format that also includes The camera 1 always captures the detection area D.

【0027】(2)撮像された画像に対してノイズ処理を
行い、背景差分法(もしくはフレーム間差分法)を用い、
濃淡値が変化した複数の画素からなる領域を抽出する(S
2)。そして、抽出された領域の大きさを求める。道路上
に存在する移動体は、自動車等の車両が大半であり、人間
やその他物体が存在するとは考えにくい。そのため、こ
の抽出した領域が車両領域Tであるとみなす。画像から
車両領域Tを抽出する処理はCPU10によって行われ、車両
領域Tは車両領域Tの大きさと共にメモリ11に記憶する。
(2) Noise processing is performed on the captured image, and a background difference method (or an inter-frame difference method) is used.
Extract an area consisting of a plurality of pixels whose gray value has changed (S
2). Then, the size of the extracted region is obtained. Most of the moving objects on the road are vehicles such as automobiles, and it is unlikely that humans or other objects exist. Therefore, the extracted area is regarded as the vehicle area T. The process of extracting the vehicle region T from the image is performed by the CPU 10, and the vehicle region T is stored in the memory 11 together with the size of the vehicle region T.

【0028】なお、車両領域Tの抽出と共に、この車両領
域Tの各車線の走行方向端部における画像上の車線幅(図
5中W1、W2)を画素(ピクセル)単位で求め、車両領域Tと対
応させてメモリ11に記憶する。
Note that, along with the extraction of the vehicle area T, the lane width on the image at the end of each lane in the vehicle area T in the traveling direction (FIG.
(W1 and W2 in 5) are obtained in pixel units, and stored in the memory 11 in association with the vehicle region T.

【0029】(3)車両領域Tが検出領域D内の特定領域に
含まれているか否かをCPU10によって調べる(S3)。この
特定領域とは、図6の特定領域を示す検出領域Dの斜視図
中の斜線で示された領域であり、走行方向の幅が略2メー
トルの四角形領域である。この特定領域内に車両領域T
の(走行方向の)先端が入っていれば、(走行方向の)後端
が検出領域D内に入り、ほぼ1台の車両が撮像されてい
る。また、この特定領域に車両領域Tが入っていない場合
には、検出領域D内に車両が存在しない、もしくは車両抽
出不能としてS1へ進む。車両領域Tがこの特定領域内に
入っている場合には、次のステップに進む。尚、この特
定領域は、撮像された画像内の任意の領域を使用者によ
り設定することができる。
(3) The CPU 10 checks whether or not the vehicle area T is included in a specific area in the detection area D (S3). The specific region is a region indicated by oblique lines in the perspective view of the detection region D indicating the specific region in FIG. 6, and is a rectangular region having a width of approximately 2 meters in the traveling direction. The vehicle area T falls within this specific area.
If the front end (in the running direction) is included, the rear end (in the running direction) is within the detection area D, and almost one vehicle is imaged. When the vehicle region T does not fall within the specific region, the process proceeds to S1 because there is no vehicle in the detection region D or the vehicle cannot be extracted. If the vehicle area T is within the specific area, the process proceeds to the next step. The specific area can be set by the user as an arbitrary area in the captured image.

【0030】(4)検出領域D内に車両が存在している場合
には、車種ごとに記憶された車両モデルのうち、大型車
の車両モデルをメモリ11から読み出し、この読み出した
車両モデル、画像上の車線の幅、車両の走行方向と車両領
域Tから、大型車の車両モデルの車両領域Tにおける見え
方(撮像方向の見え方)に変換した画像を作成する。そ
して、変換された車両モデルの画像をモデル領域Mとし
て、このモデル領域Mの面積(ピクセルの数)を求める(S
4)。車両モデルの変換、モデル領域Mの面積は、CPU10によ
って計算し求め、モデル領域M及び面積はメモリ11に記憶
する。尚、最初に読み出される車両モデルは大型車でな
く、別の車両であっても構わない。
(4) When a vehicle exists in the detection area D, a vehicle model of a large vehicle is read out of the memory 11 among the vehicle models stored for each vehicle type, and the read vehicle model and image From the width of the upper lane, the traveling direction of the vehicle, and the vehicle area T, an image is created which is converted into a view (view in the imaging direction) in the vehicle area T of the vehicle model of the large vehicle. Then, using the image of the converted vehicle model as the model region M, the area (number of pixels) of the model region M is obtained (S
Four). The conversion of the vehicle model and the area of the model area M are calculated and obtained by the CPU 10, and the model area M and the area are stored in the memory 11. Note that the vehicle model to be read first may be another vehicle instead of a large vehicle.

【0031】(5)モデル領域Mをマスクパターンとし、こ
のモデル領域Mを車両領域T内で移動し、モデル領域Mと車
両領域Tとが交差する交差面積Cの最大値を求める(S5)。
モデル領域Mの移動と交差面積Cの計算はCPU10によって
行い、車両モデルと対応させてメモリ11に交差面積Cの
最大値を記憶する。車両領域T、モデル領域Mと交差面積C
の関係を図7に示す。
(5) Using the model area M as a mask pattern, the model area M is moved within the vehicle area T, and the maximum value of the intersection area C where the model area M and the vehicle area T intersect is obtained (S5).
The movement of the model area M and the calculation of the intersection area C are performed by the CPU 10, and the maximum value of the intersection area C is stored in the memory 11 in association with the vehicle model. Vehicle area T, model area M and intersection area C
Is shown in FIG.

【0032】(6)全ての車両モデルに対して交差面積Cを
求めたか否かをCPU10によって調べる(S6)。最初は、大型
車に対する交差面積Cしか求めていないため、次のステ
ップに進む。なお、全ての車両モデルに対する交差面積C
が求められていれば、(9)に進む。
(6) The CPU 10 checks whether or not the intersection area C has been obtained for all vehicle models (S6). Initially, only the intersection area C for a large vehicle is determined, so the process proceeds to the next step. The intersection area C for all vehicle models
If is required, proceed to (9).

【0033】(7)全ての車両モデルに対して交差面積Cを
求めていない場合には、メモリ11から他の車両モデル、
例えば普通車の車両モデルを読み出し、読み出し普通車
の車両モデルのモデル領域Mとモデル領域Mの面積を求め
る(S7)。求められたモデル領域Mとモデル領域Mの面積
は、車両モデルに対応させてメモリ11に記憶する。
(7) If the intersection area C has not been obtained for all vehicle models, the other vehicle models,
For example, a vehicle model of an ordinary vehicle is read, and a model area M and an area of the model area M of the vehicle model of the ordinary vehicle are determined (S7). The determined model area M and the area of the model area M are stored in the memory 11 in association with the vehicle model.

【0034】(8)(7)で求めたモデル領域Mと車両領域Tと
の交差面積Cの最大値を求める(S8)。求めた交差面積Cの
最大値は、車両モデルと対応させてメモリ11に記憶され
る。(S6)に進む。
(8) The maximum value of the intersection area C between the model area M and the vehicle area T obtained in (7) is obtained (S8). The obtained maximum value of the intersection area C is stored in the memory 11 in association with the vehicle model. Proceed to (S6).

【0035】(9)車両領域Tが任意のモデル領域n(ただし
n=1,2,3,4)である確度(n)の基準を求め、メモリ11に記憶
する(S9)。この確度(n)はC/Mと定義する。
(9) If the vehicle region T is an arbitrary model region n (however,
The criterion of the accuracy (n) that is (n = 1, 2, 3, 4) is obtained and stored in the memory 11 (S9). This accuracy (n) is defined as C / M.

【0036】確度(n)は、車両領域Tに対して、選択され
た車両モデルが正しい場合、交差面積Cの大きさが、モデ
ル領域Mの大きさに近付き、
The accuracy (n) is such that when the selected vehicle model is correct for the vehicle region T, the size of the intersection area C approaches the size of the model region M,

【数1】 また、選択されたモデル領域Mが車両領域Tよりも小さい
場合には、同じように
(Equation 1) Similarly, if the selected model area M is smaller than the vehicle area T,

【数2】 一方、選択されたモデル領域Mが車両領域Tよりも大きい
場合には、
(Equation 2) On the other hand, if the selected model area M is larger than the vehicle area T,

【数3】 (10)全ての車両モデルごとにT/Mを求める(S10)。求めた
T/Mは、車両モデルに対応させてメモリ11に記憶され、こ
の計算はCPU10によって行う。
(Equation 3) (10) T / M is obtained for each vehicle model (S10). Asked
T / M is stored in the memory 11 in association with the vehicle model, and this calculation is performed by the CPU 10.

【0037】(11)所定の関係に基づいて全ての車両モデ
ルごとに新たな確度(n)を求め、記憶する(S11)。所定の
関係とは、(S10)で求められたT/MがT/M<1であれば確度
(n)=確度(n)×M/Tの計算式を使用し、T/M≧1であれば確
度(n)=確度(n)×T/Mの計算式を使用することをいう。
(11) A new accuracy (n) is obtained for each vehicle model based on a predetermined relationship and stored (S11). The predetermined relationship is the accuracy if T / M obtained in (S10) is T / M <1
(n) = Accuracy (n) × M / T is used, and if T / M ≧ 1, it means using the equation of accuracy (n) = Accuracy (n) × T / M.

【0038】新たな確度(n)の計算は、CPU10によって行
い、この新たな確度(n)をメモリ11に記憶する。
The calculation of the new accuracy (n) is performed by the CPU 10, and the new accuracy (n) is stored in the memory 11.

【0039】(12)確度(n)を用いて車種を判別する(S1
2)。車種の判別は、(S11)で求めた確度(n)の最大値を有
する車両モデルが、カメラ1によって撮像された車両領域
Tに含まれる車両であると判断する。メモリ11から確度
(n)を読み込み、最大値を求め、車種を判別する動作は、C
PU10によって行う。判別した車種は、撮像時間と共に車
両領域Tと対応させてメモリ11に記憶する。
(12) The vehicle type is determined using the accuracy (n) (S1).
2). The discrimination of the vehicle type is performed in the vehicle region where the vehicle model having the maximum value of the accuracy (n) obtained in (S11) is captured by the camera 1.
It is determined that the vehicle is included in T. Accuracy from memory 11
(n) is read, the maximum value is calculated, and the operation to determine the vehicle type is C
Performed by PU10. The determined vehicle type is stored in the memory 11 in association with the vehicle area T together with the imaging time.

【0040】以上のようなステップ(1)〜(12)によって、
カメラ1によって、撮像された画像内の車両が、いずれの
車種であるかを判別する。
By the above steps (1) to (12),
The camera 1 determines the type of the vehicle in the captured image.

【0041】判別された車種は、ディスプレイ12、プリ
ンタ13に適宜出力することができる。また、このような
判別を複数台の車両に対して行ったり、複数台のカメラ
を設置したりすることで、交通量や通行する車両の速度
等の広域監視を行うことができる。
The determined vehicle type can be output to the display 12 and the printer 13 as appropriate. In addition, by performing such determination for a plurality of vehicles or installing a plurality of cameras, it is possible to monitor a wide area such as a traffic volume and a speed of a passing vehicle.

【0042】次に、大型車のように二輪車に比べてモデ
ル領域Mが大きな場合、車両領域Tがモデル領域Mに比例
して大きければ車種をほぼ正しく判別することができ
る。この場合の車両領域T、モデル領域M、交差面積Cの関
係を図10に示す。しかしながら、この判別したい車線の
車両が検出領域Dを通行している間に、この車線に並行す
る車線を通行する車両があった場合には、判別したい車
線とこの車線に並行する車線とをそれぞれ通行する車両
を1つの車両領域Tとして抽出する。このため、
Next, when the model area M is larger than a two-wheeled vehicle such as a large vehicle, if the vehicle area T is larger in proportion to the model area M, the vehicle type can be almost correctly determined. FIG. 10 shows the relationship among the vehicle region T, the model region M, and the intersection area C in this case. However, if the vehicle in the lane to be determined passes through the detection area D while there is a vehicle passing in the lane parallel to this lane, the lane to be determined and the lane parallel to this lane are respectively set. The passing vehicles are extracted as one vehicle region T. For this reason,

【数4】 このような場合の車種判別方法について、図12のフロー
チャートを参照して説明する。
(Equation 4) The vehicle type determination method in such a case will be described with reference to the flowchart in FIG.

【0043】ステップ(1)から(11)までは、上述した図3
の(1)〜(11)と同様である。
Steps (1) to (11) correspond to FIG.
(1) to (11).

【0044】(1)カメラ1により検出領域Dの画像を撮像
する(S21)。撮像した画像は、有線もしくは無線により電
子機器2に送信し、メモリ11に記憶する。メモリ11に記憶
する際には、画像を撮像(記憶)した撮像時間(記憶時間)
も含めた形式で記憶する。カメラ1は、常に検出領域Dを
撮像しつづける。
(1) An image of the detection area D is captured by the camera 1 (S21). The captured image is transmitted to the electronic device 2 by wire or wirelessly, and stored in the memory 11. When storing in the memory 11, the imaging time (storage time) when the image was captured (stored)
Is stored in a format that also includes The camera 1 always captures the detection area D.

【0045】(2)撮像された画像に対してノイズ処理を
行い、背景差分法(もしくはフレーム間差分法)を用い、
濃淡値が変化した複数の画素からなる領域を抽出する(S
22)。そして、抽出された領域の大きさを求める。道路上
に存在する移動体は、自動車等の車両が大半であり、人間
やその他物体が存在するとは考えにくい。そのため、こ
の抽出した領域が車両領域Tであるとみなす。画像から
車両領域Tを抽出する処理はCPU10によって行われ、車両
領域Tは車両領域Tの大きさと共にメモリ11に記憶する。
(2) Noise processing is performed on the captured image, and a background difference method (or an inter-frame difference method) is used.
Extract an area consisting of a plurality of pixels whose gray value has changed (S
twenty two). Then, the size of the extracted region is obtained. Most of the moving objects on the road are vehicles such as automobiles, and it is unlikely that humans or other objects exist. Therefore, the extracted area is regarded as the vehicle area T. The process of extracting the vehicle region T from the image is performed by the CPU 10, and the vehicle region T is stored in the memory 11 together with the size of the vehicle region T.

【0046】なお、車両領域Tの抽出と共に、この車両領
域Tの各車線の走行方向端部における画像上の車線幅(図
5参照(W1、W2))を画素(ピクセル)単位で求め、車両領域T
と対応させてメモリ11に記憶する。
Note that, along with the extraction of the vehicle area T, the lane width on the image (see FIG.
5 (W1, W2)) in pixels (pixels), and the vehicle area T
And stored in the memory 11.

【0047】(3)車両領域Tが検出領域D内の特定領域に
含まれているか否かをCPU10によって調べる(S23)。この
特定領域とは、特定領域(図6参照)を示す検出領域Dの
斜視図中の斜線で示された領域であり、走行方向の幅が
略2メートルの四角形領域である。この特定領域内に車
両領域Tの(走行方向の)先端が入っていれば、(走行方向
の)後端が検出領域D内に入り、ほぼ1台の車両が撮像さ
れている。また、この特定領域に車両領域Tが入っていな
い場合には、検出領域D内に車両が存在しない、もしくは
車両抽出不能としてS21へ進む。車両領域Tがこの特定領
域内に入っている場合には、次のステップに進む。
(3) The CPU 10 checks whether or not the vehicle area T is included in a specific area in the detection area D (S23). The specific region is a region indicated by diagonal lines in the perspective view of the detection region D indicating the specific region (see FIG. 6), and is a rectangular region having a width of approximately 2 meters in the traveling direction. If the front end (in the traveling direction) of the vehicle area T falls within this specific area, the rear end (in the traveling direction) enters the detection area D, and almost one vehicle is imaged. When the vehicle region T does not fall within the specific region, the process proceeds to S21 because there is no vehicle in the detection region D or the vehicle cannot be extracted. If the vehicle area T is within the specific area, the process proceeds to the next step.

【0048】(4)検出領域D内に車両が存在している場合
には、車種ごとに記憶された車両モデルのうち、大型車
の車両モデルをメモリ11から読み出し、この読み出した
車両モデル、画像上の車線の幅、車両の走行方向と車両領
域Tから、大型車の車両モデルの車両領域Tにおける見え
方に変換した画像を作成する。そして、変換された車両
モデルの画像をモデル領域Mとして、このモデル領域Mの
面積(ピクセルの数)を求める(S24)。車両モデルの変換、
モデル領域Mの面積は、CPU10によって計算し求め、モデル
領域M及び面積はメモリ11に記憶する。
(4) When a vehicle is present in the detection area D, a vehicle model of a large vehicle is read from the memory 11 among vehicle models stored for each vehicle type, and the read vehicle model and image An image is created by converting the width of the upper lane, the traveling direction of the vehicle, and the vehicle region T into the appearance in the vehicle region T of the vehicle model of the large vehicle. The area of the model area M (the number of pixels) is determined using the converted image of the vehicle model as the model area M (S24). Vehicle model conversion,
The area of the model area M is calculated and obtained by the CPU 10, and the model area M and the area are stored in the memory 11.

【0049】(5)モデル領域Mをマスクパターンとし、こ
のモデル領域Mを車両領域T内で移動し、モデル領域Mと車
両領域Tとが交差する交差面積Cの最大値を求める(S2
5)。モデル領域Mの移動と交差面積Cの計算はCPU10によ
って行い、車両モデルと対応させてメモリ11に交差面積
Cの最大値を記憶する。
(5) The model area M is used as a mask pattern, the model area M is moved within the vehicle area T, and the maximum value of the intersection area C where the model area M and the vehicle area T intersect is obtained (S2).
Five). The movement of the model area M and the calculation of the intersection area C are performed by the CPU 10, and the intersection area is stored in the memory 11 in association with the vehicle model.
Store the maximum value of C.

【0050】(6)全ての車両モデルに対して交差面積Cを
求めたか否かをCPU10によって調べる(S26)。最初は、大
型車に対する交差面積Cしか求めていないため、次のス
テップに進む。なお、全ての車両モデルに対する交差面
積Cが求められていれば、(9)に進む。
(6) The CPU 10 checks whether or not the intersection area C has been obtained for all vehicle models (S26). Initially, only the intersection area C for a large vehicle is determined, so the process proceeds to the next step. If the intersection areas C for all vehicle models have been obtained, the process proceeds to (9).

【0051】(7)全ての車両モデルに対して交差面積Cを
求めていない場合には、メモリ11から他の車両モデル、
例えば普通車の車両モデルを読み出し、読み出し普通車
の車両モデルのモデル領域Mとモデル領域Mの面積を求め
る(S27)。求められたモデル領域Mとモデル領域Mの面積
は、車両モデルに対応させてメモリ11に記憶する。
(7) If the intersection area C has not been obtained for all vehicle models, the other vehicle models
For example, a vehicle model of an ordinary vehicle is read, and the model area M of the vehicle model of the ordinary vehicle and the area of the model area M are obtained (S27). The determined model area M and the area of the model area M are stored in the memory 11 in association with the vehicle model.

【0052】(8)(7)で求めたモデル領域Mと車両領域Tと
の交差面積Cの最大値を求める(S28)。求めた交差面積C
の最大値は、車両モデルと対応させてメモリ11に記憶さ
れる。(S26)に進む。
(8) The maximum value of the intersection area C between the model area M and the vehicle area T obtained in (7) is obtained (S28). Determined intersection area C
Is stored in the memory 11 in association with the vehicle model. Proceed to (S26).

【0053】(9)車両領域Tが任意のモデル領域n(ただし
n=1,2,3,4)である確度(n)の基準を求め、メモリ11に記憶
する(S29)。この確度(n)はC/Mと定義する。
(9) If the vehicle area T is an arbitrary model area n (however,
A criterion of the accuracy (n) that is (n = 1, 2, 3, 4) is obtained and stored in the memory 11 (S29). This accuracy (n) is defined as C / M.

【0054】確度(n)は、車両領域Tに対して、選択され
た車両モデルが正しい場合、交差面積Cの大きさが、モデ
ル領域Mの大きさに近付き、
The accuracy (n) is that if the selected vehicle model is correct for the vehicle region T, the size of the intersection area C approaches the size of the model region M,

【数5】 また、選択されたモデル領域Mが車両領域Tよりも小さい
場合には、同じように
(Equation 5) Similarly, if the selected model area M is smaller than the vehicle area T,

【数6】 一方、選択されたモデル領域Mが車両領域Tよりも大きい
場合には、
(Equation 6) On the other hand, if the selected model area M is larger than the vehicle area T,

【数7】 (10)全ての車両モデルごとにT/Mを求める(S30)。求めた
T/Mは、車両モデルに対応させてメモリ11に記憶され、こ
の計算はCPU10によって行う。
(Equation 7) (10) T / M is obtained for every vehicle model (S30). Asked
T / M is stored in the memory 11 in association with the vehicle model, and this calculation is performed by the CPU 10.

【0055】(11)所定の関係に基づいて全ての車両モデ
ルごとに新たな確度(n)を求め、記憶する(S31)。所定の
関係とは、(S30)で求められたT/MがT/M<1であれば確度
(n)=確度(n)×M/Tの計算式を使用し、T/M≧1であれば確
度(n)=確度(n)×T/Mの計算式を使用することをいう。
(11) A new accuracy (n) is obtained for each vehicle model based on a predetermined relationship and stored (S31). The predetermined relationship is accuracy if T / M obtained in (S30) is T / M <1
(n) = Accuracy (n) × M / T is used, and if T / M ≧ 1, it means using the equation of accuracy (n) = Accuracy (n) × T / M.

【0056】新たな確度(n)の計算は、CPU10によって行
い、この新たな確度(n)をメモリ11に記憶する。
The calculation of the new accuracy (n) is performed by the CPU 10, and the new accuracy (n) is stored in the memory 11.

【0057】(12)車両モデルごとに求められた交差面積
Cと車両領域Tとの比(C/T)を求める(S32)。C/TはCPU10に
よって計算し、求めたC/Tは、車両モデルに対応させてメ
モリ11に記憶する。
(12) Intersection area determined for each vehicle model
A ratio (C / T) between C and the vehicle area T is determined (S32). The C / T is calculated by the CPU 10, and the obtained C / T is stored in the memory 11 in association with the vehicle model.

【0058】(13)C/Tと閾値1(TH1)とを比較する(S33)。
閾値1は、例えば0.4と設定しているが、この数値は利用
者が適宜設定可能である。C/Tが閾値1よりも小さい場合
には、車両モデルの確度(n)に所定量(0.4)を乗算し減
する。確度(n)を所定量減じて新たな確度(n)を求めた
後、及びC/Tが閾値1よりも大きい場合には、次のステッ
プ(14)に進む。
(13) Compare C / T with threshold value 1 (TH1) (S33).
The threshold value 1 is set to, for example, 0.4, but this numerical value can be appropriately set by the user. When C / T is smaller than the threshold value 1, the accuracy (n) of the vehicle model is multiplied by a predetermined amount (0.4) and reduced. After the new accuracy (n) is obtained by reducing the accuracy (n) by a predetermined amount, and when the C / T is larger than the threshold 1, the process proceeds to the next step (14).

【0059】このステップにより、抽出したい車両と、
この抽出したい車両に対して並走する車両とを1つの車
両領域Tとして抽出した時に、抽出したい車両をより大
きな車種であると判断することを防止し、ほぼ正しい車
種判別を行うことができる。このため、例えば小型車を
普通車、大型車であると車種判別するような誤判別を防
止することができる。
By this step, the vehicle to be extracted
When a vehicle running in parallel with the vehicle to be extracted is extracted as one vehicle region T, it is possible to prevent the vehicle to be extracted from being determined to be a larger vehicle type, and to perform almost correct vehicle type determination. For this reason, it is possible to prevent erroneous discrimination such as discriminating a small car from a normal car and a large car, for example.

【0060】なお、確度(n)に乗算される所定量なる数
値は、使用者が適宜設定可能である。
It should be noted that the numerical value of the predetermined amount to be multiplied by the accuracy (n) can be appropriately set by the user.

【0061】(14)車両モデルごとに求められた交差面積
Cと、モデル領域Mとの比(C/M)を求める(S34)。C/MはCPU1
0によって計算し、求めたC/Mは、車両モデルに対応させて
メモリ11に記憶される。
(14) Intersection area determined for each vehicle model
The ratio (C / M) between C and the model area M is determined (S34). C / M is CPU1
The C / M calculated and calculated based on 0 is stored in the memory 11 in correspondence with the vehicle model.

【0062】(15)C/Mと閾値2(TH2)とを比較する(S35)。
閾値2は、例えば0.9と設定しているが、この数値は利用
者が適宜設定可能である。C/Mが閾値2よりも大きい場合
には、車両モデルの確度(n)に所定量(1.5)を乗算して
増やす。確度(n)を所定量増加して新たな確度(n)を求
めた後、及びC/Mが閾値2よりも小さい場合には、次のス
テップ(16)に進む。
(15) The C / M is compared with the threshold value 2 (TH2) (S35).
The threshold value 2 is set to, for example, 0.9, but this numerical value can be appropriately set by the user. When C / M is larger than the threshold value 2, the accuracy (n) of the vehicle model is multiplied by a predetermined amount (1.5) to increase. After the accuracy (n) is increased by a predetermined amount to obtain a new accuracy (n), and when the C / M is smaller than the threshold value 2, the process proceeds to the next step (16).

【0063】なお、確度(n)に乗算される所定量なる数
値は、使用者が適宜設定可能である。
It should be noted that the numerical value of the predetermined amount by which the accuracy (n) is multiplied can be appropriately set by the user.

【0064】(16)上述のようにして求められた確度(n)
を用いて車種を判別する(S36)。車種の判別は、確度(n)
の最大値を有する車両モデルが、カメラ1によって撮像さ
れた車両領域Tに含まれる車両であるとする。メモリ11
から確度(n)を読み込み、最大値を求め、車種を判別する
動作は、CPU10によって行う。判別した車種は、撮像時間
と共に車両領域Tと対応させてメモリ11に記憶する。
(16) Accuracy (n) obtained as described above
Is used to determine the vehicle type (S36). Accuracy (n)
It is assumed that the vehicle model having the maximum value of is a vehicle included in the vehicle region T captured by the camera 1. Memory 11
The operation of reading the accuracy (n) from, obtaining the maximum value, and determining the vehicle type is performed by the CPU. The determined vehicle type is stored in the memory 11 in association with the vehicle area T together with the imaging time.

【0065】以上のようなステップ(1)〜(16)により、カ
メラ1によって、撮像された画像内の車両が、いずれの車
種であるかを判別する。この方法は、特に並行する車両
を車両領域Tとして抽出した場合(抽出する頻度が高い
場合)、大型車と区別して判別したい場合に有効であ
る。
Through the steps (1) to (16) as described above, the camera 1 determines which type of vehicle is in the captured image. This method is particularly effective when a parallel vehicle is extracted as the vehicle region T (when the frequency of extraction is high) and when it is desired to distinguish the large vehicle from a large vehicle.

【0066】次に、二輪車のように大型車に比べてモデ
ル領域Mが小さな場合、車両領域Tがモデル領域Mの大き
さに比例して小さければ車種をほぼ正しく判別すること
ができる。この時の車両領域T、モデル領域M、交差面積C
の関係を図13に示す。しかしながら、車両領域Tがこのモ
デル領域Mよりも小さい場合、つまり
Next, when the model area M is smaller than that of a large vehicle such as a motorcycle, if the vehicle area T is smaller in proportion to the size of the model area M, the vehicle type can be almost correctly determined. Vehicle area T, model area M, intersection area C at this time
Is shown in FIG. However, if the vehicle area T is smaller than the model area M,

【数8】 ステップ(1)から(11)までは、上述した図3の(1)〜(11)と
同様である。
(Equation 8) Steps (1) to (11) are the same as (1) to (11) in FIG. 3 described above.

【0067】(1)カメラ1により検出領域Dの画像を撮像
する(S41)。撮像した画像は、有線もしくは無線により電
子機器2に送信し、メモリ11に記憶する。メモリ11に記憶
する際には、画像を撮像(記憶)した撮像時間(記憶時間)
も含めた形式で記憶する。カメラ1は、常に検出領域Dを
撮像しつづける。
(1) An image of the detection area D is captured by the camera 1 (S41). The captured image is transmitted to the electronic device 2 by wire or wirelessly, and stored in the memory 11. When storing in the memory 11, the imaging time (storage time) when the image was captured (stored)
Is stored in a format that also includes The camera 1 always captures the detection area D.

【0068】(2)撮像された画像に対してノイズ処理を
行い、背景差分法(もしくはフレーム間差分法)を用い、
濃淡値が変化した複数の画素からなる領域を抽出する(S
42)。そして、抽出された領域の大きさを求める。道路上
に存在する移動体は、自動車等の車両が大半であり、人間
やその他物体が存在するとは考えにくい。そのため、こ
の抽出した領域が車両領域Tであるとみなす。画像から
車両領域Tを抽出する処理はCPU10によって行われ、車両
領域Tは車両領域Tの大きさと共にメモリ11に記憶する。
(2) Noise processing is performed on the captured image, and the background difference method (or the inter-frame difference method) is used.
Extract an area consisting of a plurality of pixels whose gray value has changed (S
42). Then, the size of the extracted region is obtained. Most of the moving objects on the road are vehicles such as automobiles, and it is unlikely that humans or other objects exist. Therefore, the extracted area is regarded as the vehicle area T. The process of extracting the vehicle region T from the image is performed by the CPU 10, and the vehicle region T is stored in the memory 11 together with the size of the vehicle region T.

【0069】なお、車両領域Tの抽出と共に、この車両領
域Tの各車線の走行方向端部における車線幅(図5参照(W
1、W2))を画素(ピクセル)単位で求め、車両領域Tと対応
させてメモリ11に記憶する。
In addition to the extraction of the vehicle area T, the lane width (see FIG. 5 (W
1, W2)) are obtained in units of pixels (pixels), and stored in the memory 11 in association with the vehicle region T.

【0070】(3)車両領域Tが検出領域D内の特定領域に
含まれているか否かをCPU10によって調べる(S43)。この
特定領域とは、特定領域(図6参照)を示す検出領域Dの
斜視図中の斜線で示された領域であり、走行方向の幅が
略2メートルの四角形領域である。この特定領域内に車
両領域Tの(走行方向の)先端が入っていれば、(走行方向
の)後端が検出領域D内に入り、ほぼ1台の車両が撮像さ
れている。また、この特定領域に車両領域Tが入っていな
い場合には、検出領域D内に車両が存在しない、もしくは
車両抽出不能としてS1へ進む。車両領域Tがこの特定領
域内に入っている場合には、次のステップに進む。
(3) The CPU 10 checks whether or not the vehicle area T is included in a specific area in the detection area D (S43). The specific region is a region indicated by diagonal lines in the perspective view of the detection region D indicating the specific region (see FIG. 6), and is a rectangular region having a width of approximately 2 meters in the traveling direction. If the front end (in the traveling direction) of the vehicle area T falls within this specific area, the rear end (in the traveling direction) enters the detection area D, and almost one vehicle is imaged. When the vehicle region T does not fall within the specific region, the process proceeds to S1 because there is no vehicle in the detection region D or the vehicle cannot be extracted. If the vehicle area T is within the specific area, the process proceeds to the next step.

【0071】(4)検出領域D内に車両が存在している場合
には、車種ごとに記憶された車両モデルのうち、大型車
の車両モデルをメモリ11から読み出し、この読み出した
車両モデル、車線の幅、車両の走行方向と車両領域Tから、
大型車の車両モデルの車両領域Tにおける見え方に変換
した画像を作成する。そして、変換された車両モデルの
画像をモデル領域Mとして、このモデル領域Mの面積(ピク
セルの数)を求める(S44)。車両モデルの変換、モデル領
域Mの面積は、CPU10によって計算し求め、モデル領域M及
び面積はメモリ11に記憶する。
(4) When a vehicle exists in the detection area D, a vehicle model of a large vehicle is read out of the memory 11 among the vehicle models stored for each vehicle type, and the read vehicle model and lane are read. From the width of the vehicle, the traveling direction of the vehicle and the
An image converted to the appearance in the vehicle region T of the vehicle model of the large vehicle is created. Then, the area of the model area M (the number of pixels) is determined using the converted image of the vehicle model as the model area M (S44). The conversion of the vehicle model and the area of the model area M are calculated and obtained by the CPU 10, and the model area M and the area are stored in the memory 11.

【0072】(5)モデル領域Mをマスクパターンとし、こ
のモデル領域Mを車両領域T内で移動し、モデル領域Mと車
両領域Tとが交差する交差面積Cの最大値を求める(S4
5)。モデル領域Mの移動と交差面積Cの計算はCPU10によ
って行い、車両モデルと対応させてメモリ11に交差面積
Cの最大値を記憶する。
(5) The model area M is used as a mask pattern, the model area M is moved within the vehicle area T, and the maximum value of the intersection area C where the model area M and the vehicle area T intersect is obtained (S4).
Five). The movement of the model area M and the calculation of the intersection area C are performed by the CPU 10, and the intersection area is stored in the memory 11 in association with the vehicle model.
Store the maximum value of C.

【0073】(6)全ての車両モデルに対して交差面積Cを
求めたか否かをCPU10によって調べる(S46)。最初は、大
型車に対する交差面積Cしか求めていないため、次のス
テップに進む。なお、全ての車両モデルに対する交差面
積Cを求めていれば、(9)に進む。
(6) The CPU 10 checks whether or not the intersection area C has been obtained for all vehicle models (S46). Initially, only the intersection area C for a large vehicle is determined, so the process proceeds to the next step. If the intersection areas C for all the vehicle models have been obtained, the process proceeds to (9).

【0074】(7)全ての車両モデルに対して交差面積Cを
求めていない場合には、メモリ11から他の車両モデル、
例えば普通車の車両モデルを読み出し、読み出し普通車
の車両モデルのモデル領域Mとモデル領域Mの面積を求め
る(S47)。求められたモデル領域Mとモデル領域Mの面積
は、車両モデルに対応させてメモリ11に記憶する。
(7) If the intersection area C has not been obtained for all the vehicle models, the other vehicle models,
For example, a vehicle model of an ordinary vehicle is read, and the model area M and the area of the model area M of the read ordinary vehicle model are obtained (S47). The determined model area M and the area of the model area M are stored in the memory 11 in association with the vehicle model.

【0075】(8)(7)で求めたモデル領域Mと車両領域Tと
の交差面積Cの最大値を求める(S48)。求めた交差面積C
の最大値は、車両モデルと対応させてメモリ11に記憶さ
れる。(S46)に進む。
(8) The maximum value of the intersection area C between the model area M and the vehicle area T obtained in (7) is obtained (S48). Determined intersection area C
Is stored in the memory 11 in association with the vehicle model. Proceed to (S46).

【0076】(9)車両領域Tが任意のモデル領域n(ただし
n=1,2,3,4)である確度(n)の基準を求め、メモリ11に記憶
する(S49)。この確度(n)はC/Mと定義する。
(9) The vehicle area T is an arbitrary model area n (however,
A criterion for the accuracy (n) that is (n = 1, 2, 3, 4) is obtained and stored in the memory 11 (S49). This accuracy (n) is defined as C / M.

【0077】確度(n)は、車両領域Tに対して、選択され
た車両モデルが正しい場合、交差面積Cの大きさが、モデ
ル領域Mの大きさに近付き、
When the selected vehicle model is correct for the vehicle region T, the accuracy (n) is such that the size of the intersection area C approaches the size of the model region M,

【数9】 また、選択されたモデル領域Mが車両領域Tよりも小さい
場合には、同じように
(Equation 9) Similarly, if the selected model area M is smaller than the vehicle area T,

【数10】 一方、選択されたモデル領域Mが車両領域Tよりも大きい
場合には、
(Equation 10) On the other hand, if the selected model area M is larger than the vehicle area T,

【数11】 (10)全ての車両モデルごとにT/Mを求める(S50)。求めた
T/Mは、車両モデルに対応させてメモリ11に記憶され、こ
の計算はCPU10によって行う。
[Equation 11] (10) T / M is obtained for each vehicle model (S50). Asked
T / M is stored in the memory 11 in association with the vehicle model, and this calculation is performed by the CPU 10.

【0078】(11)所定の関係に基づいて全ての車両モデ
ルごとに新たな確度(n)を求め、記憶する(S51)。所定の
関係とは、(S50)で求められたT/MがT/M<1であれば確度
(n)=確度(n)×M/Tの計算式を使用し、T/M≧1であれば確
度(n)=確度(n)×T/Mの計算式を使用することをいう。
(11) A new accuracy (n) is obtained for each vehicle model based on a predetermined relationship and stored (S51). The predetermined relationship is accuracy if T / M obtained in (S50) is T / M <1
(n) = Accuracy (n) × M / T is used, and if T / M ≧ 1, it means using the equation of accuracy (n) = accuracy (n) × T / M.

【0079】新たな確度(n)の計算は、CPU10によって行
い、この新たな確度(n)をメモリ11に記憶する。
The calculation of the new accuracy (n) is performed by the CPU 10, and the new accuracy (n) is stored in the memory 11.

【0080】(12)(10)で求めた全ての車両モデルごとの
T/Mの大きさを調べる(S52)。T/Mの大きさが1以下である
場合には、その車両モデルの確度(n)を所定量(1.5)を
乗算し増加し、メモリ11に記憶する。T/Mの大きさが1よ
りも大きい場合には、確度(n)はそのままとする。
(12) For each vehicle model obtained in (10)
The size of T / M is checked (S52). When the magnitude of T / M is 1 or less, the accuracy (n) of the vehicle model is increased by multiplying by a predetermined amount (1.5) and stored in the memory 11. If the magnitude of T / M is greater than 1, the accuracy (n) is left as it is.

【0081】なお、確度(n)に乗算される所定量なる数
値は、使用者が適宜設定可能である。
The numerical value which is a predetermined amount to be multiplied by the accuracy (n) can be appropriately set by the user.

【0082】(13)上述のようにして求められた確度(n)
を用いて車種を判別する(S53)。車種の判別は、確度(n)
の最大値を有する車両モデルが、カメラ1によって撮像さ
れた車両領域Tに含まれる車両であるとする。メモリ11
から確度(n)を読み込み、最大値を求め、車種を判別する
動作は、CPU10によって行う。判別した車種は、撮像時間
と共に車両領域Tと対応させてメモリ11に記憶する。
(13) Accuracy (n) obtained as described above
Is used to determine the vehicle type (S53). Accuracy (n)
It is assumed that the vehicle model having the maximum value of is the vehicle included in the vehicle region T captured by the camera 1. Memory 11
The operation of reading the accuracy (n) from, obtaining the maximum value, and determining the vehicle type is performed by the CPU. The determined vehicle type is stored in the memory 11 in association with the vehicle area T together with the imaging time.

【0083】以上のようなステップ(1)〜(13)により、カ
メラ1によって、撮像された画像内の車両が、いずれの車
種であるかを判別する。この方法は、小型車もしくは二
輪車を判別する時に、特に有効である。
According to the steps (1) to (13) described above, the camera 1 determines which type of vehicle is in the captured image. This method is particularly effective when discriminating a small car or a motorcycle.

【0084】また、図15のフローチャートに示すよう
に、図12(モデル領域が大きな場合)、14(モデル領域が小
さい場合)のステップを同時に含んだステップを有して
いても良い。
Further, as shown in the flow chart of FIG. 15, it may have a step that simultaneously includes the steps of FIG. 12 (when the model area is large) and 14 (when the model area is small).

【0085】以上述べた様な第1の実施の形態では、車
両領域Tを抽出するために、車両モデルを実画像でなく3
次元形状モデルを用いることで、実時間処理を可能と
し、かつカメラ1の設置条件に対する制約を軽減し、ま
た複数の車両が重なって撮像された時でもほぼ正しく車
種を判別することができる。
In the first embodiment as described above, in order to extract the vehicle region T, the vehicle model is not a real image but a 3
By using the dimensional shape model, real-time processing is enabled, restrictions on the installation conditions of the camera 1 are reduced, and even when a plurality of vehicles are imaged in an overlapping manner, the vehicle type can be almost correctly determined.

【0086】また、判別の信頼性を高めることができる
ため、高速道路及び一般道路の広域監視に対して使用す
ることができる。
Further, since the reliability of the determination can be enhanced, it can be used for wide area monitoring of expressways and general roads.

【0087】次に、本発明の第2の実施の形態の構成に
ついて、図16の第2の実施の形態のブロック図を参照して
説明する。
Next, the configuration of the second embodiment of the present invention will be described with reference to the block diagram of the second embodiment of FIG.

【0088】なお、以下の各実施の形態において同一構
成要素は同一符号を付し重複する説明は省略する。
In the following embodiments, the same components are denoted by the same reference numerals, and duplicate description will be omitted.

【0089】第2の実施の形態の特徴は、電子機器2内に
モデル領域記憶装置20を設けたことである。
The feature of the second embodiment is that a model area storage device 20 is provided in the electronic device 2.

【0090】電子機器2内に、モデル領域記憶装置20が
モデル領域投影処理装置6と判別装置7とに接続されて配
置される。
In the electronic device 2, a model area storage device 20 is arranged so as to be connected to the model area projection processing device 6 and the discriminating device 7.

【0091】モデル領域記憶装置20は、車両モデルごと
にモデル領域Mをあらかじめ記憶している。モデル領域M
の求め方は第1の実施の形態と同様である。
The model area storage device 20 stores a model area M for each vehicle model in advance. Model area M
Is the same as in the first embodiment.

【0092】第1の実施の形態では、カメラと車両との
位置関係が変化するため、その位置関係に対応した車両
モデルの大きさ、見え方に変換する必要がある。つまり、
カメラと車両の距離が小さければ車両は大きく撮像さ
れ、逆に大きければ小さく撮像される。したがって、予
め車両モデルごとにモデル領域Mを計算して記憶してお
くことはできない。仮に、予め計算されたこのモデル領
域Mを判別に使用したとすれば、判別できない、もしくは
正しく車種を判別することができない。
In the first embodiment, since the positional relationship between the camera and the vehicle changes, it is necessary to convert the size and appearance of the vehicle model corresponding to the positional relationship. That is,
If the distance between the camera and the vehicle is small, the image of the vehicle is large, and if it is large, the image of the vehicle is small. Therefore, the model area M cannot be calculated and stored in advance for each vehicle model. If the model region M calculated in advance is used for the discrimination, the discrimination cannot be performed or the vehicle type cannot be discriminated correctly.

【0093】これに対して、第2の実施の形態では、カメ
ラ1が、検出領域Dから十分遠方(15〜20メートル以上)に
配置された場合には、検出領域D内に存在する車両を、
その検出領域D内での位置によらず1つのモデル領域Mと
近似することができる。このため、モデル領域記憶装置2
0に、車種ごとのモデル領域Mを予め計算して記憶してお
くことができる。
On the other hand, in the second embodiment, when the camera 1 is located sufficiently far (15 to 20 meters or more) from the detection area D, the vehicle existing in the detection area D ,
It can be approximated to one model area M regardless of the position in the detection area D. Therefore, the model area storage device 2
At 0, the model area M for each vehicle type can be calculated and stored in advance.

【0094】車種判別方法は、上述した第1の実施の形態
と同一である。
The vehicle type discriminating method is the same as in the first embodiment.

【0095】以上述べたような第2の実施の形態では、
カメラ1の設置位置によって、予め車種ごとのモデル領域
Mを計算して求めておくことができ、計算コストを低減す
ることができる。第2の実施の形態では、より実時間処
理に対応でき、また計算コストが低いことから、一般道路
よりも高速道路等で有利である。
In the second embodiment as described above,
Depending on the installation position of camera 1, model area for each vehicle model
M can be calculated beforehand, and the calculation cost can be reduced. The second embodiment is more advantageous on a highway and the like than on a general road because it can cope with real-time processing and has a low calculation cost.

【0096】なお、本発明は上述した各実施の形態には
限定されず、その主旨を逸脱しない範囲で種々変形して
実施できることは言うまでもない。例えば、カメラによ
って撮像された画像内に複数の車両が重なって撮像され
た場合には、複数の車両を1つの車両領域として抽出して
も良い。また、この車両領域を複数の車両領域に分割す
ることが可能であれば、分割して複数の車両領域を抽出
しても良い。
The present invention is not limited to the above-described embodiments, and it goes without saying that various modifications can be made without departing from the spirit of the present invention. For example, when a plurality of vehicles are captured in an image captured by the camera, the plurality of vehicles may be extracted as one vehicle region. If the vehicle region can be divided into a plurality of vehicle regions, the vehicle region may be divided and a plurality of vehicle regions may be extracted.

【0097】また、車両領域を抽出する方法としては、
オプティカルフローや色情報を用いて行うことも可能で
あるまた、カメラによって撮像される画像は、可視光、も
しくは赤外線を使用して撮像される。
As a method of extracting the vehicle area,
It is also possible to use optical flow or color information, and the image captured by the camera is captured using visible light or infrared light.

【0098】また、判別する車種の数は、いくつであっ
ても良く、例えば5種類(大型車、中型車、普通車、軽自動
車(小型車)、二輪車)とした場合には、中型車の車両モデ
ルで
Further, the number of vehicle types to be determined may be any number. For example, when five types (large-sized car, medium-sized car, ordinary car, light car (small-sized car), two-wheeled vehicle) are used, a medium-sized car By model

【数12】 となった時、中型車の確度(n)を減少させて、大型車の確
度(n)を更に(中型車よりも)減少させても良い。また、大
型車の確度(n)のみを減少させることも可能である。
(Equation 12) When, the accuracy (n) of the medium-sized vehicle may be reduced, and the accuracy (n) of the large-sized vehicle may be further reduced (compared to the medium-sized vehicle). It is also possible to reduce only the accuracy (n) of a large vehicle.

【0099】さらに、中型車の車両モデルでFurther, in a vehicle model of a medium-sized car,

【数13】 となった時、中型車の確度(n)を増加させて、大型車の確
度(n)を更に(中型車よりも)増加させても良い。また、大
型車の確度(n)のみを増加させることも可能である。
(Equation 13) , The accuracy (n) of the medium-sized vehicle may be increased, and the accuracy (n) of the large-sized vehicle may be further increased (compared to the medium-sized vehicle). It is also possible to increase only the accuracy (n) of a large vehicle.

【0100】さらに、大型車の車両モデルでFurther, in a vehicle model of a large car,

【数14】 となった時は、大型車の確度(n)のみを増加させれば良
い。
[Equation 14] , Only the accuracy (n) of the large vehicle needs to be increased.

【0101】また、本発明の実施の形態における処理を
コンピュータで実行可能なプログラムで実現し、このプ
ログラムをコンピュータで読み取り可能な記憶媒体とし
て実現することも可能である。
Further, the processing in the embodiment of the present invention can be realized by a computer-executable program, and the program can be realized as a computer-readable storage medium.

【0102】なお、本発明における記憶媒体としては、
磁気ディスク、フロッピー(登録商標)ディスク、ハー
ドディスク、光ディスク(CD−ROM,CD−R,DVD等)、
光磁気ディスク(MO等)、半導体メモリ等、プログラム
を記憶でき、かつコンピュータが読み取り可能な記憶媒
体であれば、その記憶形式は何れの形態であってもよ
い。
The storage medium of the present invention includes:
Magnetic disk, floppy (registered trademark) disk, hard disk, optical disk (CD-ROM, CD-R, DVD, etc.),
As long as the program can be stored and a computer-readable storage medium such as a magneto-optical disk (MO or the like), a semiconductor memory, or the like can be used, any storage format may be used.

【0103】また、記憶媒体からコンピュータにインス
トールされたプログラムの指示に基づきコンピュータ上
で稼動しているOS(オペレーションシステム)や、デー
タベース管理ソフト、ネットワーク等のMW(ミドルウェ
ア)等が本実施の形態を実現するための各処理の一部を
実行してもよい。
An OS (operation system) running on the computer, MW (middleware) such as database management software, network, etc., according to the instructions of the program installed in the computer from the storage medium, etc. A part of each process for realizing it may be executed.

【0104】さらに、本発明における記憶媒体は、コン
ピュータと独立した媒体に限らず、LANやインターネ
ット等により伝送されたプログラムをダウンロードして
記憶または一時記憶した記憶媒体も含まれる。
Further, the storage medium in the present invention is not limited to a medium independent of a computer, but also includes a storage medium in which a program transmitted through a LAN, the Internet, or the like is downloaded and stored or temporarily stored.

【0105】また、記憶媒体は1つに限らず、複数の媒
体から本実施形態における処理が実行される場合も、本
発明における記憶媒体に含まれ、媒体の構成は何れの構
成であってもよい。
Further, the number of storage media is not limited to one, and a case where the processing in the present embodiment is executed from a plurality of media is also included in the storage medium of the present invention, and the configuration of the medium may be any configuration. Good.

【0106】なお、本発明におけるコンピュータは、記
憶媒体に記憶されたプログラムに基づき、本実施の形態
における各処理を実行するものであって、パソコン等の
1つからなる装置、複数の装置がネットワーク接続され
たシステム等の何れの構成であってもよい。
The computer according to the present invention executes each processing in the present embodiment based on a program stored in a storage medium.
Any configuration, such as a single device or a system in which a plurality of devices are connected to a network, may be used.

【0107】また、本発明におけるコンピュータとは、
パソコンに限らず、情報処理機器に含まれる演算処理装
置、マイコン等も含み、プログラムによって本発明の機
能を実現することが可能な機器、装置を総称している。
The computer in the present invention is
It is not limited to a personal computer, but also includes a processing device, a microcomputer, and the like included in an information processing device, and generically refers to a device and a device capable of realizing the functions of the present invention by a program.

【0108】また、本発明は判別する対象を自動車(2
輪、4輪)としているが、他の移動体である飛行機、列
車、船、自転車や人間等に適用することも可能である。
Further, according to the present invention, the object to be determined is an automobile (2
Wheel, four wheels), but it is also possible to apply to other moving objects such as airplanes, trains, ships, bicycles and humans.

【0109】[0109]

【発明の効果】以上説明したように本発明によれば、実
時間処理が可能であり、カメラの設置条件に対する制約
がより少なくして、所望の車種を判別することができ
る。
As described above, according to the present invention, real-time processing is possible, and a desired vehicle type can be determined with less restrictions on camera installation conditions.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の車種判別装置の第1の実施の形態を
道路に設置した時の斜視図。
FIG. 1 is a perspective view of a first embodiment of a vehicle type identification device according to the present invention when installed on a road.

【図2】 本発明の車種判別装置の第1の実施の形態の
ブロック図。
FIG. 2 is a block diagram of a first embodiment of a vehicle type identification device according to the present invention.

【図3】 本発明の車種判別装置の電子機器のブロック
図。
FIG. 3 is a block diagram of an electronic device of the vehicle type identification device of the present invention.

【図4】 本発明の車種判別装置の第1の実施の形態の
フローチャート。
FIG. 4 is a flowchart of the first embodiment of the vehicle type identification device of the present invention.

【図5】 本発明の車種判別方法の動作の説明図。FIG. 5 is an explanatory diagram of the operation of the vehicle type discriminating method of the present invention.

【図6】 本発明の車種判別方法の動作の説明図。FIG. 6 is an explanatory diagram of the operation of the vehicle type discrimination method of the present invention.

【図7】 本発明の車種判別方法の動作の説明図。FIG. 7 is an explanatory diagram of the operation of the vehicle type discriminating method of the present invention.

【図8】 本発明の車種判別方法の動作の説明図。FIG. 8 is an explanatory diagram of the operation of the vehicle type discrimination method of the present invention.

【図9】 本発明の車種判別方法の動作の説明図。FIG. 9 is an explanatory diagram of the operation of the vehicle type determination method of the present invention.

【図10】 本発明の車種判別方法の動作の説明図。FIG. 10 is an explanatory diagram of the operation of the vehicle type discrimination method of the present invention.

【図11】 本発明の車種判別方法の動作の説明図。FIG. 11 is an explanatory diagram of the operation of the vehicle type discriminating method of the present invention.

【図12】 本発明の車種判別方法のフローチャート。FIG. 12 is a flowchart of a vehicle type determination method according to the present invention.

【図13】 本発明の車種判別方法の動作の説明図。FIG. 13 is an explanatory diagram of the operation of the vehicle type discriminating method of the present invention.

【図14】 本発明の車種判別方法のフローチャート。FIG. 14 is a flowchart of a vehicle type determination method according to the present invention.

【図15】 本発明の車種判別方法のフローチャート。FIG. 15 is a flowchart of a vehicle type determination method according to the present invention.

【図16】 本発明の車種判別装置の第2の実施の形態
のブロック図。
FIG. 16 is a block diagram of a second embodiment of the vehicle type identification device of the present invention.

【符号の説明】[Explanation of symbols]

1 カメラ 2 電子機器 3 支柱 4 画像信号処理装置 5 モデル記憶装置 6 モデル投影処理装置 7 判別装置 20 モデル領域記憶装置 1 Camera 2 Electronic equipment 3 Post 4 Image signal processing device 5 Model storage device 6 Model projection processing device 7 Classification device 20 Model region storage device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G08G 1/04 G08G 1/04 D Fターム(参考) 5B057 AA16 BA02 CA08 CA12 CA16 DA12 DB02 DB09 DC33 5H180 AA01 CC04 EE07 EE10 5L096 AA06 BA04 CA02 FA02 HA03 HA09 JA11 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G08G 1/04 G08G 1/04 DF Term (Reference) 5B057 AA16 BA02 CA08 CA12 CA16 DA12 DB02 DB09 DC33 5H180 AA01 CC04 EE07 EE10 5L096 AA06 BA04 CA02 FA02 HA03 HA09 JA11

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】移動体が通行する領域を撮像範囲とした画
像を撮像する撮像手段と、 撮像された前記画像内から前記移動体を含む領域を移動
体領域として抽出する移動体領域抽出手段と、 複数種の移動体の3次元形状を移動体の車種ごとに移動
体モデルとして記憶する記憶手段と、 前記移動体モデルを、前記画像上の前記移動体の撮像方
向の見え方に変換した移動体モデル画像に変換する移動
体モデル画像変換手段と、この移動体モデル画像を前記
画像上の移動体に重ねた場合の重なり程度を比較し、こ
の比較結果から前記移動体の車種を判別する車種判別手
段とを具備したことを特徴とする車種判別装置。
1. An image pickup means for picking up an image in which an area where a moving object passes is set as an imaging range, and a moving object area extracting means for extracting an area including the moving object from the picked-up image as a moving object area. A storage unit that stores a three-dimensional shape of a plurality of types of moving objects as a moving object model for each vehicle type of the moving object; and a movement that converts the moving object model into a view of the imaging direction of the moving object on the image. A moving body model image converting means for converting the moving body model image into a body model image, and a vehicle type for comparing the degree of overlap when the moving body model image is overlaid on the moving body on the image, and discriminating the vehicle type of the moving body from the comparison result. A vehicle type discriminating device comprising a discriminating means.
【請求項2】前記移動体モデルは、前記移動体の3次元
形状の特徴を複数の点を用いて表現したデータであり、
前記移動体モデル画像は、この複数の点を結び2次元で表
現したデータであることを特徴とする請求項1に記載の
車種判別装置。
2. The moving body model is data representing a characteristic of a three-dimensional shape of the moving body using a plurality of points,
2. The vehicle type discrimination device according to claim 1, wherein the moving object model image is data that connects the plurality of points and expresses the two-dimensionally.
【請求項3】前記車種判別手段は、前記移動体領域と前
記移動体モデル画像とを重ね合わせて、前記移動体領域
と前記移動体モデル画像とが交差する領域の面積を求
め、この交差面積と前記移動体領域の大きさと前記移動
体モデル画像の大きさとから前記移動体の前記車種を判
別することを特徴とする請求項1に記載の車種判別装
置。
3. The vehicle type discriminating means superimposes the moving body region and the moving body model image to obtain an area of a region where the moving body region intersects with the moving body model image. 2. The vehicle type determination device according to claim 1, wherein the vehicle type of the mobile object is determined from a size of the mobile object region and a size of the mobile object model image.
【請求項4】移動体が通行する領域を撮像範囲とした画
像を撮像する工程と、 撮像された前記画像内から前記移動体を含む領域を移動
体領域として抽出する工程と、 複数種の移動体の3次元形状を移動体の車種ごとに移動
体モデルとして記憶する工程と、 前記移動体モデルを、前記画像上の前記移動体の撮像方
向の見え方に変換した移動体モデル画像に変換する移動
体モデル画像変換工程と、この移動体モデル画像を前記
画像に重ねた場合の重なり程度を比較し、この比較結果
から前記移動体の車種を判別する工程とを有することを
特徴とする車種判別方法。
4. A method of capturing an image in which an area where a moving object passes is defined as an imaging range; a step of extracting a region including the moving object from the captured image as a moving object area; Storing the three-dimensional shape of the body as a moving body model for each vehicle type of the moving body; and converting the moving body model into a moving body model image converted into a view of the moving body in the imaging direction on the image. A moving object model image converting step, and a step of comparing the degree of overlap when the moving object model image is superimposed on the image, and discriminating a vehicle type of the moving object from the comparison result. Method.
【請求項5】車両の車種の判別を行うプログラムをコン
ピュータ読み取り可能なように記憶させた記憶媒体であ
って、移動体が通行する領域を撮像範囲とした画像を撮
像させ、 撮像された前記画像内から前記移動体を含む領域を移動
体領域として抽出させ、 複数種の移動体の3次元形状を移動体の車種ごとに移動
体モデルとして記憶させ、 前記移動体モデルを、前記画像上の前記移動体の撮像方
向の見え方に変換させた移動体モデル画像に変換させ、
この移動体モデル画像を前記画像に重ねさせた場合の重
なり程度を比較させて、この比較結果から前記移動体の
車種を判別させるプログラムを記憶したコンピュータ読
み取り可能な記憶媒体。
5. A storage medium in which a program for determining the type of a vehicle is stored in a computer-readable manner, wherein an image having an area where a moving object passes is taken as an imaging range. A region including the moving object is extracted from the inside as a moving object region, and a three-dimensional shape of a plurality of types of moving objects is stored as a moving object model for each vehicle type of the moving object. Converted to a moving body model image converted to the appearance of the imaging direction of the moving body,
A computer-readable storage medium storing a program for comparing a degree of overlap when the moving object model image is superimposed on the image and determining a vehicle type of the moving object from the comparison result.
【請求項6】コンピュータに、移動体が通行する領域を
撮像範囲とした画像を撮像させる機能と、 撮像された前記画像内から前記移動体を含む領域を移動
体領域として抽出させる機能と、 複数種の移動体の3次元形状を移動体の車種ごとに移動
体モデルとして記憶させる機能と、 前記移動体モデルを、前記画像上の前記移動体の撮像方
向の見え方に変換させた移動体モデル画像に変換させる
機能と、この移動体モデル画像を前記画像に重ねさせた
場合の重なり程度を比較させて、この比較結果から前記
移動体の車種を判別させる機能とを有するコンピュータ
プログラム。
6. A function for causing a computer to capture an image in which an area where a moving object passes is set as an imaging range; a function for extracting a region including the moving object from the imaged image as a moving object area; A function of storing a three-dimensional shape of the moving object as a moving object model for each vehicle type of the moving object; and a moving object model obtained by converting the moving object model into a view of the imaging direction of the moving object on the image. A computer program having a function of converting an image into an image and a function of comparing the degree of overlap when the moving object model image is superimposed on the image and determining the vehicle type of the moving object based on the comparison result.
JP2000388866A 2000-12-21 2000-12-21 Vehicle type discriminating apparatus, car type discriminating method, and storage medium storing computer readable program stored therein Expired - Fee Related JP3816747B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000388866A JP3816747B2 (en) 2000-12-21 2000-12-21 Vehicle type discriminating apparatus, car type discriminating method, and storage medium storing computer readable program stored therein

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000388866A JP3816747B2 (en) 2000-12-21 2000-12-21 Vehicle type discriminating apparatus, car type discriminating method, and storage medium storing computer readable program stored therein

Publications (2)

Publication Number Publication Date
JP2002190023A true JP2002190023A (en) 2002-07-05
JP3816747B2 JP3816747B2 (en) 2006-08-30

Family

ID=18855532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000388866A Expired - Fee Related JP3816747B2 (en) 2000-12-21 2000-12-21 Vehicle type discriminating apparatus, car type discriminating method, and storage medium storing computer readable program stored therein

Country Status (1)

Country Link
JP (1) JP3816747B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302699A (en) * 2003-03-28 2004-10-28 Sumitomo Electric Ind Ltd Vehicle detector
JP2008052517A (en) * 2006-08-24 2008-03-06 Koito Ind Ltd Traffic measurement method and traffic measurement apparatus
JP2009003647A (en) * 2007-06-20 2009-01-08 Mitsubishi Electric Corp Object detection device
JP2013134667A (en) * 2011-12-27 2013-07-08 Toshiba Corp Vehicle detection device
JP2013530463A (en) * 2010-06-03 2013-07-25 マイクロソフト コーポレーション Simulated video for road information camera with additional viewpoint and increased resolution
KR101321597B1 (en) 2013-08-30 2013-10-28 주식회사 넥스파시스템 Vehicle identification based on image/video analysis and manless fare allocation system
JP2014061797A (en) * 2012-09-21 2014-04-10 Kobe Steel Ltd Train type determination method and train type determination device
KR101407658B1 (en) 2013-04-16 2014-06-27 정영창 Car detection method and system using it
US9025818B2 (en) 2012-01-17 2015-05-05 Oki Electric Industry Co., Ltd. Vehicle type identification device
JP2017097783A (en) * 2015-11-27 2017-06-01 株式会社東芝 Vehicle type determination device and vehicle type determination method
JP2018010483A (en) * 2016-07-13 2018-01-18 日本電信電話株式会社 Foreground area extraction apparatus, method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103794050A (en) * 2014-01-21 2014-05-14 华东交通大学 Real-time transport vehicle detecting and tracking method
US11151633B1 (en) 2020-06-17 2021-10-19 Capital One Services, Llc Systems and methods of application of machine learning to traffic data for vehicle recommendation

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302699A (en) * 2003-03-28 2004-10-28 Sumitomo Electric Ind Ltd Vehicle detector
JP2008052517A (en) * 2006-08-24 2008-03-06 Koito Ind Ltd Traffic measurement method and traffic measurement apparatus
JP2009003647A (en) * 2007-06-20 2009-01-08 Mitsubishi Electric Corp Object detection device
JP2013530463A (en) * 2010-06-03 2013-07-25 マイクロソフト コーポレーション Simulated video for road information camera with additional viewpoint and increased resolution
JP2013134667A (en) * 2011-12-27 2013-07-08 Toshiba Corp Vehicle detection device
US9025818B2 (en) 2012-01-17 2015-05-05 Oki Electric Industry Co., Ltd. Vehicle type identification device
JP2014061797A (en) * 2012-09-21 2014-04-10 Kobe Steel Ltd Train type determination method and train type determination device
KR101407658B1 (en) 2013-04-16 2014-06-27 정영창 Car detection method and system using it
KR101321597B1 (en) 2013-08-30 2013-10-28 주식회사 넥스파시스템 Vehicle identification based on image/video analysis and manless fare allocation system
JP2017097783A (en) * 2015-11-27 2017-06-01 株式会社東芝 Vehicle type determination device and vehicle type determination method
JP2018010483A (en) * 2016-07-13 2018-01-18 日本電信電話株式会社 Foreground area extraction apparatus, method, and program

Also Published As

Publication number Publication date
JP3816747B2 (en) 2006-08-30

Similar Documents

Publication Publication Date Title
EP2282295B1 (en) Object recognizing device and object recognizing method
JP4624594B2 (en) Object recognition method and object recognition apparatus
WO2021259344A1 (en) Vehicle detection method and device, vehicle, and storage medium
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
EP1860594A2 (en) Pedestrian detector and pedestrian detecting method
CN109871728B (en) Vehicle type recognition method and device
JP6679152B1 (en) Accident analysis device, accident analysis method and program
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2024023319A (en) Emergency vehicle detection
JP2002190023A (en) Device and method for discriminating car model, and storage medium storing car model discriminating program readable in computer
JP4940177B2 (en) Traffic flow measuring device
JP3849505B2 (en) Obstacle monitoring device and program
JP4296287B2 (en) Vehicle recognition device
JP7285799B2 (en) Accident analysis device, accident analysis method and program
JP2011076214A (en) Obstacle detection device
WO2021166169A1 (en) Vehicle condition estimation method, vehicle condition estimation device and vehicle condition estimation program
JP4813304B2 (en) Vehicle periphery monitoring device
JP2002163645A (en) Device and method for detecting vehicle
Wang et al. The neolix open dataset for autonomous driving
Mukhtar et al. On-road approaching motorcycle detection and tracking techniques: A survey
JP7140895B1 (en) Accident analysis device, accident analysis method and program
CN115497070A (en) Method, system and storage medium for identifying moving object on road at night
JP2023026299A (en) Accident analysis device, accident analysis method and program
Wang et al. An embedded system for vision-based driving environment perception
CN116639131A (en) Intelligent auxiliary driving method for electric automobile with deep learning function

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050812

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060608

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090616

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100616

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100616

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110616

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees