JP2006293629A - Method and device for detecting height of mobile object, and method for determining object shape - Google Patents

Method and device for detecting height of mobile object, and method for determining object shape Download PDF

Info

Publication number
JP2006293629A
JP2006293629A JP2005112439A JP2005112439A JP2006293629A JP 2006293629 A JP2006293629 A JP 2006293629A JP 2005112439 A JP2005112439 A JP 2005112439A JP 2005112439 A JP2005112439 A JP 2005112439A JP 2006293629 A JP2006293629 A JP 2006293629A
Authority
JP
Japan
Prior art keywords
height
moving object
vehicle
feature line
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005112439A
Other languages
Japanese (ja)
Other versions
JP4055785B2 (en
Inventor
Masakatsu Higashikubo
政勝 東久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2005112439A priority Critical patent/JP4055785B2/en
Publication of JP2006293629A publication Critical patent/JP2006293629A/en
Application granted granted Critical
Publication of JP4055785B2 publication Critical patent/JP4055785B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To minutely know an object shape on the basis of height information by calculating the height of the object with the use of a device with a simple structure. <P>SOLUTION: A camera for surveying a place where the object is moved periodically photographs the place. When the mobile object is detected in a photographed image, the speed of the mobile object and the feature line of the mobile object, which is expressed in the image and is vertical with respect to the mobile direction of the mobile object, are detected. Then the height of the feature line is calculated by tracking the feature line on the image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像処理により、移動物体の高さ情報を検出することのできる移動物体の高さを検出する方法及び装置に関するものである。また本発明は、検出された物体の高さ情報に基づいて物体の形状を判定する方法に関するものである。   The present invention relates to a method and apparatus for detecting the height of a moving object that can detect height information of the moving object by image processing. The present invention also relates to a method for determining the shape of an object based on the detected height information of the object.

円滑な交通信号制御や交通捜査支援のために、詳細な交通情報提供が求められており、特に詳細な車両種別情報の提供により、車種の混入率に応じた信号制御や、特定車両の追跡が可能になる。
このため、従来の大型/小型の2車種情報よりも、より詳細な情報を高精度かつ安価に提供する方法が求められている。
Detailed traffic information provision is required for smooth traffic signal control and traffic investigation support, especially by providing detailed vehicle type information, signal control according to the mixing rate of the vehicle type and tracking of specific vehicles It becomes possible.
For this reason, there is a need for a method for providing more detailed information with higher accuracy and lower cost than conventional large / small two-car model information.

特開平5−307695号公報では、カメラ画像上での車両の見かけ上の大きさより車種判定する方式を示しているが、車高の大きい小型車を大型車と誤感知する問題があり、また大型/小型の2車種にしか識別できない。
また、特開平11−175880号公報では、複数カメラを路上に設置し、カメラ間の視差より、カメラからの距離を算出し、詳細な車両形状を算出しているが、複数のカメラを用いるため、機器コストが高くなる。また重量も1カメラより増加するため、設置コストも上がる。さらに、カメラ間の光軸の方向を厳密に調整する必要もあり、取り扱いが難しい。
Japanese Patent Application Laid-Open No. 5-307695 discloses a method for determining the vehicle type based on the apparent size of the vehicle on the camera image. However, there is a problem that a small vehicle with a large vehicle height is misdetected as a large vehicle. Only two small models can be identified.
In Japanese Patent Application Laid-Open No. 11-175880, a plurality of cameras are installed on the road, and the distance from the camera is calculated from the parallax between the cameras, and the detailed vehicle shape is calculated. , Equipment cost will be high. Moreover, since the weight increases from one camera, the installation cost also increases. Furthermore, it is necessary to strictly adjust the direction of the optical axis between the cameras, and handling is difficult.

また、文献「単眼画像からの断面形状の認識による車種判別」電学論D、120巻10号、pp.1182-1188,2000年では、車両の斜め上方からの視点より、車両の左右対称点位置を検出し、それらの画面上でのずれより車高を算出する方式だが、そもそも左右対称点検出において、ボンネットと側面の色合いが同じ場合に、ボンネット範囲内での中心点の検出は困難である。   Also, in the literature “Determination of vehicle type by recognizing cross-sectional shape from monocular image”, Electric theory D, Volume 120, No. 10, pp.1182-1188, 2000 It is a method to detect the position and calculate the vehicle height from the deviation on the screen, but in the first place, it is difficult to detect the center point within the bonnet range when the bonnet and the side color are the same in the left and right symmetrical point detection is there.

特開平10−63987号公報では、連続する複数枚の画像より通過車両全体の詳細な画像を合成し、車種判別する。しかし、画像の合成において、エッジ情報のみより車両の前面部や側面部を推定しているが、一般的に実現は困難である。
特開平5−307695号公報 特開平11−175880号公報 特開平10−63987号公報 松崎、小沢「単眼画像からの断面形状の認識による車種判別」電学論D、120巻10号、pp.1182-1188,2000年
In Japanese Patent Laid-Open No. 10-63987, a detailed image of the entire passing vehicle is synthesized from a plurality of continuous images, and the vehicle type is determined. However, in the image synthesis, the front part and the side part of the vehicle are estimated from only the edge information, but it is generally difficult to realize.
JP-A-5-307695 JP-A-11-175880 JP-A-10-63987 Matsuzaki, Ozawa, “Vehicle Identification by Recognizing Cross-sectional Shapes from Monocular Images,” D & D, Volume 120, No. 10, pp.1182-1188, 2000

そこで、本発明者は、一台のカメラの視野範囲を所定速度で横切る物体の高さ情報を算出することができることに着目した。
また、この物体の高さ情報を用いれば、車両の外郭形状(シルエット)を容易に合成することができる。
従って、本発明は、従来よりも簡単な構成の装置を用いて物体の高さを算出できる移動物体の高さ検出方法及び装置を提供することを目的とする。
Therefore, the present inventor has paid attention to the fact that the height information of an object that crosses the visual field range of one camera at a predetermined speed can be calculated.
In addition, if the height information of the object is used, the outer shape (silhouette) of the vehicle can be easily synthesized.
Accordingly, an object of the present invention is to provide a moving object height detection method and apparatus capable of calculating the height of an object using an apparatus having a simpler configuration than the prior art.

また本発明は、前記高さ情報に基づいて、物体の形状を詳細に知ることのできる物体形状判定方法を提供することを目的とする。   It is another object of the present invention to provide an object shape determination method that can know the shape of an object in detail based on the height information.

本発明の移動物体の高さ検出方法は、物体が移動する場所を俯瞰するカメラにより、当該場所を周期的に撮影し、撮影した画像内に移動物体が検出された場合に、その移動物体の速度と、当該画像に表れる、移動物体の移動方向に垂直な移動物体の特徴ラインを検出し、前記特徴ラインを画面上で追跡することにより、当該特徴ラインの高さを算出する方法である。   According to the moving object height detection method of the present invention, when a moving object is detected periodically in a photographed image, the moving object is periodically photographed by a camera overlooking the place where the object moves. This is a method of calculating the height of the feature line by detecting the feature line of the moving object perpendicular to the moving direction of the moving object, which appears in the image, and tracking the feature line on the screen.

この方法は、物体が移動する場所を俯瞰する1つのカメラにより当該場所を撮影していると、実空間内をある既知の速度で物体が移動した場合に、移動物体は、その高さに応じて、カメラの画面を横切る時間又はスピードが異なることに注目したものである。
そこで、当該移動物体の速度を検出するとともに、当該画像に表れる、移動物体の移動方向に垂直な移動物体の特徴ラインを検出し、前記特徴ラインを画面上で追跡することにより、当該特徴ラインの高さを算出することができる。
In this method, if the place is photographed by a single camera that looks down on the place where the object moves, and the object moves at a known speed in real space, the moving object The time or speed across the camera screen is different.
Therefore, by detecting the speed of the moving object, detecting the feature line of the moving object that appears in the image perpendicular to the moving direction of the moving object, and tracking the feature line on the screen, The height can be calculated.

前記特徴ラインの高さを算出する手順において、前記移動物体の速度と、前記特徴ラインが撮影画面の所定位置から所定位置まで通過する時間とに基づいて、当該特徴ラインの高さを算出してもよい。
また、あらかじめ速度、高さの異なる特徴ラインの時間軌跡のパターンを用意し、測定した特徴ラインの時間軌跡点を同じ、速度のパターン群にフィッティングさせることにより、当該特徴ラインの高さを算出してもよい。一般に、2つの離れた時刻における同一特徴ラインの位置の組み合わせを検出することは、照明変動やノイズ等の影響により、ライン位置の誤抽出や抽出漏れが発生するおそれがあり、複数の特徴ラインの組み合わせを精度良く算出することはさらに難しい。このため、尤もらしい軌跡を検出することにより、照明変動やノイズ等の影響に強い方式として、フィッティング方式を提案している。
In the procedure of calculating the height of the feature line, the height of the feature line is calculated based on the speed of the moving object and the time for the feature line to pass from a predetermined position to a predetermined position on the shooting screen. Also good.
Also, by preparing time trajectory patterns of feature lines with different speeds and heights in advance and fitting the time trajectory points of the measured feature lines to the same speed pattern group, the height of the feature lines is calculated. May be. In general, detecting a combination of positions of the same feature line at two separate times may cause erroneous extraction of the line position or omission of extraction due to effects of illumination fluctuations, noise, etc. It is even more difficult to calculate the combination with high accuracy. For this reason, a fitting method has been proposed as a method that is resistant to the effects of illumination fluctuations, noise, and the like by detecting a plausible trajectory.

また本発明の移動物体の高さ検出装置は、道路面を俯瞰するように所定の高さに設置されたカメラと、カメラの撮影画像を取り込み処理する計測装置とを備え、前記計測装置は、カメラの画面上に設定した検出範囲内で移動物体が検出された場合に、その移動物体の速度を検出する速度検出手段と、当該画像に表れる、移動物体の移動方向に垂直な移動物体の特徴ラインを検出する特徴ライン検出手段と、当該車両の特徴ラインを画面上で追跡することにより、当該特徴ラインの高さを算出する高さ算出手段とを備えるものである。   The moving object height detection device of the present invention includes a camera installed at a predetermined height so as to overlook the road surface, and a measurement device that captures and processes a captured image of the camera, and the measurement device includes: When a moving object is detected within the detection range set on the camera screen, speed detection means for detecting the speed of the moving object, and features of the moving object that appear in the image perpendicular to the moving direction of the moving object Feature line detection means for detecting a line and height calculation means for calculating the height of the feature line by tracking the feature line of the vehicle on the screen.

この装置によれば、1カメラの画像において、物体形状の特徴となるラインを複数本抽出し、連続する画像におけるこれらのラインの軌跡を検出し、速度検出手段で算出した移動速度情報を用いて、各水平ラインの高さを精度よく算出することができる。
また、本発明の物体形状判定方法は、前記移動物体の高さ検出方法に基づいて検出された複数の特徴ラインを結合することにより、当該移動物体のシルエット画像を生成する方法である。
According to this apparatus, a plurality of lines that are characteristic of an object shape are extracted from an image of one camera, the trajectory of these lines in a continuous image is detected, and the moving speed information calculated by the speed detecting means is used. The height of each horizontal line can be calculated with high accuracy.
The object shape determination method of the present invention is a method of generating a silhouette image of a moving object by combining a plurality of feature lines detected based on the moving object height detection method.

前記移動物体が車両である場合は、当該車両のシルエット画像に基づき車種を判定することができる。   When the moving object is a vehicle, the vehicle type can be determined based on the silhouette image of the vehicle.

以上のように本発明によれば、1カメラのみで物体の高さ、形状を算出できるため、機器コスト、設置コスト、調整コストが小さくて済む。また、特徴となるラインを複数回にわたって追跡するため、ノイズに強く、高さ情報を精度よく算出できる。   As described above, according to the present invention, since the height and shape of an object can be calculated with only one camera, the equipment cost, installation cost, and adjustment cost can be reduced. In addition, since the characteristic line is tracked a plurality of times, it is resistant to noise and height information can be calculated with high accuracy.

以下、本発明の実施の形態を、添付図面を参照しながら詳細に説明する。
図1は、本発明の移動物体の高さ検出装置を含む物体形状判定装置の構成図を示す。
道路上方に道路面を俯瞰するように、カメラ2を所定の高さに設置している。カメラ2の視野範囲5は、道路の一車線上にある。
カメラ2の撮影画像は、映像ケーブル3を通して計測装置4に入力される。計測装置4は、通信手段を持ち、計測結果を遠隔地の処理センターに提供することができる。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
FIG. 1 is a configuration diagram of an object shape determination apparatus including a moving object height detection apparatus according to the present invention.
The camera 2 is installed at a predetermined height so as to overlook the road surface above the road. The visual field range 5 of the camera 2 is on one lane of the road.
The captured image of the camera 2 is input to the measuring device 4 through the video cable 3. The measuring device 4 has communication means and can provide the measurement result to a remote processing center.

図2に、カメラ2で撮影した撮影画像の例を示す。
カメラ2の視野範囲5は、図2のように車両のバンパーやフロントガラスなどの、移動物体の移動方向に垂直なラインである水平ラインが抽出しやすい程度の視野(左右方向2〜3m、上下方向2〜3m程度)とする。
図3は、計測装置4の構成例を示す図である。
In FIG. 2, the example of the picked-up image image | photographed with the camera 2 is shown.
As shown in FIG. 2, the field of view 5 of the camera 2 is a field of view that is easy to extract a horizontal line that is perpendicular to the moving direction of a moving object such as a vehicle bumper or a windshield (left and right direction 2 to 3 m, up and down Direction 2 to 3 m).
FIG. 3 is a diagram illustrating a configuration example of the measuring device 4.

計測装置4は、カメラ2の画像を取り込み、カメラ2の画面上に設定した車両検出用の計測範囲内での車両の有無を判定し、車両が検出された場合に、水平ラインの抽出、追跡、物体形状判定等の演算処理を実行する。
計測装置4は、画像入力部41、A/D変換部42、画像メモリ43、演算部44、通信部45を有する。
The measuring device 4 captures the image of the camera 2, determines the presence or absence of a vehicle within the vehicle detection measurement range set on the screen of the camera 2, and extracts and tracks a horizontal line when a vehicle is detected. Then, arithmetic processing such as object shape determination is executed.
The measurement device 4 includes an image input unit 41, an A / D conversion unit 42, an image memory 43, a calculation unit 44, and a communication unit 45.

画像入力部41は、カメラ2の画像を取り込むためのインターフェイスを提供する。A/D変換部42は、画像信号をデジタル変換する。画像メモリ43は、デジタル変換した画像データを一時的に格納する。演算部44は、水平ラインの抽出、追跡、物体形状判定等の演算処理を実行する。通信部45は、信号機や表示板、交通管制センター等との通信を行って、物体形状の情報を伝える。   The image input unit 41 provides an interface for capturing an image of the camera 2. The A / D converter 42 digitally converts the image signal. The image memory 43 temporarily stores the digitally converted image data. The calculation unit 44 executes calculation processes such as horizontal line extraction, tracking, and object shape determination. The communication part 45 communicates with a traffic light, a display board, a traffic control center, etc., and conveys the information of an object shape.

なお、前記カメラ2と前記計測装置4は一体型としても良い。
図4は、計測装置4の行う物体形状算出処理方法を示すフローチャートである。
演算部44は、画像入力部41を通して画像を取り込み、画像メモリ43に記憶させる(ステップS1)。画像の取り込み間隔は、例えば1秒間に30枚とする。
演算部44は、画像メモリ43に記憶された画像に基づいて、画面の中に車両が存在するかどうかを検出する(ステップS2)。
The camera 2 and the measuring device 4 may be integrated.
FIG. 4 is a flowchart illustrating an object shape calculation processing method performed by the measurement device 4.
The calculation unit 44 captures an image through the image input unit 41 and stores it in the image memory 43 (step S1). The image capture interval is, for example, 30 images per second.
Based on the image stored in the image memory 43, the calculation unit 44 detects whether or not a vehicle is present on the screen (step S2).

図5は、車両検出用の計測範囲Rを示す図である。計測範囲Rは、画面上に四角の太枠で示している。
この枠内において、車両有無を判定する。
例えば、予め車両が存在しない場合の路面画像(以下、背景画像と呼ぶ)を作成しておき、取り込んだ画像(以下、入力画像と呼ぶ)との明るさの差を算出し、閾値以上の変化が検出された場合を車両有りとし、閾値以下の変化の場合は車両なしとする(ステップS3)。
FIG. 5 is a diagram showing a measurement range R for vehicle detection. The measurement range R is indicated by a rectangular thick frame on the screen.
Within this frame, the presence or absence of the vehicle is determined.
For example, a road surface image (hereinafter referred to as a background image) when a vehicle is not present is created in advance, a brightness difference from the captured image (hereinafter referred to as an input image) is calculated, and a change that exceeds a threshold value If the vehicle is detected, the vehicle is present, and if the change is less than or equal to the threshold, the vehicle is absent (step S3).

あるいは、路面模様の明るさ変化のある部分(以下、エッジと呼ぶ)の位置を予め記憶しておき、入力画像についてもエッジを算出し、それらのエッジの鋭さの差を算出し、閾値以上の差が検出された場合を車両有りとし、閾値以下の変化の場合は車両なしとすることもできる。
車両ありと判定された場合、車両の速度検出を行う(ステップS4)。車両の速度検出は公知の手段を用いることができる。例えば、カメラ2の下に超音波式ドップラーレーダを設置して、車両の速度を測定することができる。また、道路に埋め込み式の車両感知器を2つ設置し、車両がこれらの車両感知器を通過した時間を測定して、車両の速度を知ることができる。
Alternatively, the position of a portion of the road surface pattern where the brightness changes (hereinafter referred to as an edge) is stored in advance, the edge is also calculated for the input image, the difference in sharpness between the edges is calculated, When the difference is detected, the vehicle can be present, and when the difference is less than or equal to the threshold, the vehicle can be absent.
If it is determined that there is a vehicle, the vehicle speed is detected (step S4). A well-known means can be used for vehicle speed detection. For example, an ultrasonic Doppler radar can be installed under the camera 2 to measure the speed of the vehicle. In addition, it is possible to know the speed of the vehicle by installing two embedded vehicle detectors on the road and measuring the time when the vehicle passes through these vehicle detectors.

次に、特徴ライン抽出処理を行う(ステップS5)。
図6は、特徴ライン抽出処理を説明するための詳細フローチャートである。
まず、各画素毎に、前時刻と現時刻の明るさの差を算出し、その差が閾値以上ある場合、時間差分変化ありとする(ステップT1)。これは、路面標示等の動かない路面のエッジを消すためである。
Next, feature line extraction processing is performed (step S5).
FIG. 6 is a detailed flowchart for explaining the feature line extraction processing.
First, for each pixel, the brightness difference between the previous time and the current time is calculated. If the difference is equal to or greater than a threshold, it is determined that there is a time difference change (step T1). This is to erase an edge of a road surface that does not move, such as a road marking.

次に、時間差分変化ありの画素について、水平エッジの有無を算出する(ステップT2)。これは例えば、図7に示すように、注目画素及びその周辺画素の9画素に対して、ソーベルフィルタ処理を行い、計算値Dの絶対値が閾値以上であった場合、注目画素(*)において水平エッジありとする。
計算式は、例えば
D=I11×1+I12×2+I13×1-I31×1-I32×2-I33×1
である(Ijkは、行列の第j行第k列の画素の輝度を表す)。
Next, the presence / absence of a horizontal edge is calculated for a pixel with a time difference change (step T2). For example, as shown in FIG. 7, when the Sobel filter processing is performed on the target pixel and its nine neighboring pixels and the absolute value of the calculated value D is equal to or larger than the threshold value, the target pixel (*) In FIG.
The calculation formula is, for example, D = I11 × 1 + I12 × 2 + I13 × 1-I31 × 1-I32 × 2-I33 × 1
(Ijk represents the luminance of the pixel in the j-th row and the k-th column of the matrix).

次に、時間差分変化があり、水平エッジを構成する画素に対して、細線化処理をする(ステップT3)。これは、近接するエッジを除去し、特徴ラインを抽出しやすくするための処理である。例えば、Hilditchの細線化アルゴリズム(「画像の処理と認識」、安居院他、昭晃堂参照)を用いて、水平エッジ画像を細線化する。
図8は、細線化された水平エッジ画像の一例を示す図である。
Next, a thinning process is performed on pixels that have a time difference change and constitute a horizontal edge (step T3). This is a process for removing adjacent edges and facilitating extraction of feature lines. For example, a horizontal edge image is thinned using Hilditch's thinning algorithm (see “Image Processing and Recognition”, Aiin et al., Shosodo).
FIG. 8 is a diagram illustrating an example of a thinned horizontal edge image.

次に、この画面の水平方向に水平エッジ数を算出して、図8の右端に示すように、ヒストグラムをつくる(ステップT4)。
このヒストグラムに基づいて、画面の上部から下部にかけて(下部から上部でもよい)、水平エッジ数が、その水平ラインの上下に隣接する水平ラインと比較して閾値以上大きいラインを抽出する。これは図7に円で囲んだ、尖ったピークの部分に該当する。この尖ったラインを「特徴ライン」という。
Next, the number of horizontal edges is calculated in the horizontal direction of the screen, and a histogram is created as shown at the right end of FIG. 8 (step T4).
Based on this histogram, from the upper part to the lower part of the screen (or from the lower part to the upper part), a line whose number of horizontal edges is greater than a threshold value is extracted as compared with the horizontal lines adjacent to the top and bottom of the horizontal line. This corresponds to a sharp peak portion surrounded by a circle in FIG. This pointed line is called “characteristic line”.

このようにして特徴ラインの抽出処理が終われば、図4に戻り、車両検出回数を1加算し(ステップS6)、ステップS1に戻る。
以下、次に取り込んだ画像に基づいて、ステップS2以下の処理を繰り返す。
ステップS3で、画像内に車両がなくなったと判定された場合、ステップS7に移り、今までの車両検出回数をしきい値nと比較する。
When the feature line extraction process is completed in this manner, the process returns to FIG. 4, the vehicle detection count is incremented by 1 (step S 6), and the process returns to step S 1.
Thereafter, the processing from step S2 onward is repeated based on the next captured image.
If it is determined in step S3 that there are no vehicles in the image, the process proceeds to step S7, where the number of vehicle detections so far is compared with a threshold value n.

車両検出回数の閾値nは、例えば「3」程度に設定する。これは、連続した車両検出が3回以下しかできなかったのであれば、本当に車両であったかどうか疑わしいので、以下の特徴ラインの高さ算出処理をやめるためである。
車両検出回数が閾値nを超えていたら、ステップS8に移り、特徴ラインの高さ算出処理に入る。
The threshold value n of the number of vehicle detections is set to about “3”, for example. This is to stop the following feature line height calculation process because it is doubtful whether the vehicle is really a vehicle if continuous vehicle detection can be performed only three times or less.
If the number of vehicle detections exceeds the threshold value n, the process proceeds to step S8, and the feature line height calculation process is entered.

以下、特徴ラインの高さ算出処理を詳しく説明する。
図9は、検出された特徴ラインの画面上の位置を縦軸に、時刻を横軸にとったグラフである。特徴ラインが3本写った場合を例示している。
図9において、各特徴ラインの軌跡は、画面上における見かけの動きであり、各時刻における実空間上での位置を射影したものである。車両の走行に従って、特徴ラインが画面の上から下へ移動している。
Hereinafter, the feature line height calculation process will be described in detail.
FIG. 9 is a graph in which the position of the detected feature line on the screen is on the vertical axis and the time is on the horizontal axis. The case where three feature lines are shown is illustrated.
In FIG. 9, the trajectory of each feature line is an apparent movement on the screen and is a projection of the position in real space at each time. The characteristic line moves from the top to the bottom of the screen as the vehicle travels.

ここで、実空間と撮影面上の座標の変換式を定義する。
図10のように、実空間での座標系を(X,Y,Z)とし、カメラ2の撮影面上での座標系を(P,Q)とする。
実空間では、垂直方向をZ、道路の延びる方向をY、道路を横断する方向をXにとる。
カメラ2は、道路の延長線上に設置されており、その撮影面では、道路横断方向Xと平行に横軸Pをとり、横軸Pと直角に縦軸Qをとる。縦軸Qは、道路の垂直方向Zに対して、俯角に相当する角度αだけ傾いているものとする。
Here, a conversion formula between coordinates in the real space and the imaging plane is defined.
As shown in FIG. 10, the coordinate system in the real space is (X, Y, Z), and the coordinate system on the imaging surface of the camera 2 is (P, Q).
In real space, Z is the vertical direction, Y is the direction in which the road extends, and X is the direction that crosses the road.
The camera 2 is installed on an extended line of the road, and on the photographing surface thereof, the horizontal axis P is parallel to the road crossing direction X, and the vertical axis Q is perpendicular to the horizontal axis P. The vertical axis Q is inclined with respect to the vertical direction Z of the road by an angle α corresponding to the depression angle.

ここでは、カメラ2が道路の延長線上に設置されていて、車両はカメラ2に向かって近づいてくることを前提にしているので、実空間での道路横断方向Xへの動きは考慮しない。撮影面では特徴ラインの位置座標qのみを考慮し、それに直交する座標pは無視する。従って、実空間での車両の座標は(y,z)となり、撮影面ではqとなる。
撮影面上での座標q(単位:画素数)と、実空間上での座標点(y,z)には、(1)(2)式の関係式が成立する。
Here, since it is assumed that the camera 2 is installed on an extension line of the road and the vehicle approaches the camera 2, the movement in the road crossing direction X in the real space is not considered. On the imaging plane, only the position coordinate q of the feature line is considered, and the coordinate p orthogonal thereto is ignored. Therefore, the coordinates of the vehicle in the real space are (y, z) and q on the photographing surface.
The relational expressions (1) and (2) are established for the coordinate q (unit: number of pixels) on the imaging surface and the coordinate point (y, z) on the real space.

ただし、カメラ2レンズの焦点距離f、カメラ2の設置高さH、撮影面上のQ軸方向の高さSqと、Sqに相当する撮影面のQ軸方向の画素数Nqとの比(一画素のサイズ)は既知であり、定数値として扱う。
z=H−(ftanα−ξ)y/(ξtanα+f) (1)
ξ=(Sq/Nq)q (2)
ここで、ξは特徴ラインの撮像面上の高さである。微少時間(画面上下範囲を通過する時間)内での車両の移動速度vは検出済みであるから、所定時刻からの経過時間に基づいて各時刻でのY座標y(t)が算出できる。
However, the ratio of the focal length f of the camera 2 lens, the installation height H of the camera 2, the height Sq in the Q-axis direction on the imaging surface, and the number Nq of pixels in the Q-axis direction of the imaging surface corresponding to Sq (one Pixel size) is known and treated as a constant value.
z = H− (ftanα−ξ) y / (ξtanα + f) (1)
ξ = (Sq / Nq) q (2)
Here, ξ is the height of the feature line on the imaging surface. Since the moving speed v of the vehicle within the minute time (the time passing through the upper and lower range of the screen) has been detected, the Y coordinate y (t) at each time can be calculated based on the elapsed time from the predetermined time.

特徴ラインの実空間上での高さzを、ある一定値に仮定する。
すると(1)式から、前記y(t)に基づいて、ξ(t)が時間の関数として算出できる。このξ(t)を使えば、(2)式からq(t)が時間の関数として求まる。
従って、このq(t)を時間の関数として、曲線Uを描くことができる。
特徴ラインの実空間上での高さzを変数(パラメータ)とし、高さzを変えていけば、複数のq(t)を描いた曲線群ができる。
The height z of the feature line in the real space is assumed to be a certain constant value.
Then, from equation (1), ξ (t) can be calculated as a function of time based on y (t). Using this ξ (t), q (t) can be obtained as a function of time from the equation (2).
Therefore, the curve U can be drawn using q (t) as a function of time.
If the height z of the feature line in the real space is a variable (parameter) and the height z is changed, a curve group depicting a plurality of q (t) can be formed.

図11は、特徴ラインの実空間上での高さzを変数として、これらのq(t)の曲線群Uを示すグラフである。
同図では、各曲線とも、時刻t0における撮影面上の高さを同一値qsに統一している。また同図で、高さzは、z0>z1>z2の関係がある。
高さz0に対応する曲線U0は、短い時間で撮影面を上端から下端まで(撮影面の上端から下端までを「カメラ2の視野」という)通過していることがわかる。この現象は、高さの高い物体、例えば車両の屋根などは、比較的短時間でカメラ2の視野を横切るという経験則に対応している。
FIG. 11 is a graph showing a curve group U of these q (t) using the height z of the feature line in the real space as a variable.
In the figure, the height on the photographing surface at time t0 is unified to the same value qs for each curve. In the same figure, the height z has a relationship of z0>z1> z2.
It can be seen that the curve U0 corresponding to the height z0 passes through the imaging surface from the upper end to the lower end (referred to as “field of view of the camera 2” from the upper end to the lower end of the imaging surface) in a short time. This phenomenon corresponds to an empirical rule that a high object such as a vehicle roof crosses the field of view of the camera 2 in a relatively short time.

これとは逆に、高さの低い物体、例えば車両のバンパーなどは、同じ速度で走行していも、比較的長時間かかってカメラ2の視野を通過する。図11のグラフでは、高さz2に対応する曲線U2は、長い時間をかけて撮影面を通過している。
従って、車両の移動速度が分かっているとして、特徴ラインがこのカメラ2の視野を通過する時間Tを測定すれば、当該物体の高さが求まる。
On the other hand, an object with a low height, such as a bumper of a vehicle, passes through the field of view of the camera 2 in a relatively long time even when traveling at the same speed. In the graph of FIG. 11, the curve U2 corresponding to the height z2 passes through the imaging surface over a long time.
Therefore, assuming that the moving speed of the vehicle is known, the height of the object can be obtained by measuring the time T during which the characteristic line passes through the field of view of the camera 2.

また、車両の移動速度が分かっているとして、特徴ラインがこのカメラ2の視野を通過する時間Tに代えて、特徴ラインがこのカメラ2の視野を通過する見かけ上の速度(画面の上端から下端までの距離(q0−q1)を前記時間Tで割ったもの)に基づいても、当該物体の高さを求めることができる。
例えば図11では、特徴ラインの時々刻々の軌跡例がプロットされており、それらの点がカメラ2の視野を通過するのに時間Tかかっているとする。この時間Tをかけてカメラ2の視野を通過する曲線U*を特定することができる。曲線U*に対応する高さをz*とすると、そのz*が特徴ラインの実空間上での高さとなる。
Further, assuming that the moving speed of the vehicle is known, instead of the time T when the feature line passes through the field of view of the camera 2, the apparent speed at which the feature line passes through the field of view of the camera 2 (from the upper end to the lower end of the screen). The height of the object can also be obtained based on the distance (q0−q1) divided by the time T).
For example, in FIG. 11, it is assumed that an example of the trajectory of the feature line from time to time is plotted, and it takes time T for these points to pass through the field of view of the camera 2. The curve U * passing through the field of view of the camera 2 over this time T can be specified. If the height corresponding to the curve U * is z * , the z * is the height of the feature line in real space.

また、前記時間Tや見かけ上の速度を測定する代わりに、特徴ラインの時々刻々の軌跡(つまり曲線Uの形)が分かるのであるから、この軌跡の形を、曲線群Uを構成する各曲線にフィッティングさせて最も傾きの似ている曲線を特定してもよい。すると、この曲線に対応する高さがわかる。
例えば図11では、撮影された特徴ラインの時々刻々の軌跡がプロットされているが、それらの点は、曲線U*にフィットしているとする。曲線U*に対応する高さをz*とすると、そのz*が特徴ラインの実空間上での高さとして求まる。
Further, instead of measuring the time T and the apparent speed, the trajectory of the feature line is known every moment (that is, the shape of the curve U). Therefore, the shape of this trajectory is used as each curve constituting the curve group U. The curve having the most similar inclination may be specified by fitting to. Then, the height corresponding to this curve is known.
For example, in FIG. 11, the trajectory of the photographed feature line is plotted every moment, but these points are assumed to fit the curve U * . When the height corresponding to the curve U * is z * , the z * is obtained as the height of the feature line in the real space.

なお、前記曲線群の形は、車両の移動速度が違えば違ったものになるので、車両の移動速度ごとに、曲線群を用意しなければならない。
しかし、1つの移動速度に対応する曲線群を持っておけば、他の移動速度の曲線群は、時間のスケールを延び縮みさせるだけで簡単に求めることができる。
以上の説明では、図11に示したように、グラフ上で時間を計り、曲線形の一致を調べていたが、これらの処理は、実際には、コンピュータの計算処理機能を利用して行うことは言うまでもない。例えば、前記曲線形の一致を調べるには、最小自乗法など、公知の最尤推定法を用いればよい。
Since the shape of the curve group is different if the moving speed of the vehicle is different, a curve group must be prepared for each moving speed of the vehicle.
However, if a group of curves corresponding to one moving speed is provided, a group of curves of other moving speeds can be easily obtained simply by extending or reducing the time scale.
In the above description, as shown in FIG. 11, the time is measured on the graph and the coincidence of the curve shapes is examined, but these processes are actually performed by using the computer processing function. Needless to say. For example, in order to check the coincidence of the curve shapes, a known maximum likelihood estimation method such as a least square method may be used.

以上のようにして、特徴ラインの実空間上の高さzが分かったならば、その画面上の時々刻々の位置qを用いて、(1)式により、車両からカメラ2までの距離yを算出できる。このように、特徴ラインの実空間上の座標(y,z)が分かる。
したがって、特徴ライン位置を結合することにより、図12に示すように、車両のシルエット画像を作成できる。
As described above, when the height z of the feature line in the real space is known, the distance y from the vehicle to the camera 2 is calculated by the equation (1) using the position q every moment on the screen. It can be calculated. In this way, the coordinates (y, z) in the real space of the feature line are known.
Therefore, by combining the feature line positions, a silhouette image of the vehicle can be created as shown in FIG.

算出されたシルエット画像より、車長や車高、形状を判別し、図13に示すように、大型車/小型車、セダン/ワゴン型などの車種判定を行うことができる。
以上で、本発明の実施の形態を説明したが、本発明の実施は、前記の形態に限定されるものではない。例えば、物体として道路を走行する車両を想定したが、移動物体であれば、歩行者、航空機であってもよい。また、水面の上を航行する船舶であっても、その形状を判定することができる。その他、本発明の範囲内で種々の変更を施すことが可能である。
From the calculated silhouette image, the vehicle length, vehicle height, and shape can be discriminated, and as shown in FIG. 13, the vehicle type such as large vehicle / small vehicle, sedan / wagon type can be determined.
Although the embodiments of the present invention have been described above, the embodiments of the present invention are not limited to the above-described embodiments. For example, although a vehicle traveling on a road is assumed as an object, a pedestrian or an aircraft may be used as long as it is a moving object. Moreover, even if it is a ship which navigates on the water surface, the shape can be determined. In addition, various modifications can be made within the scope of the present invention.

物体形状判定装置の構成図である。It is a block diagram of an object shape determination apparatus. 撮影画像例を示す図である。It is a figure which shows the picked-up image example. 計測装置4の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a measuring device 4. FIG. 車両形状算出処理方法を示すフローチャートである。It is a flowchart which shows a vehicle shape calculation processing method. 車両検出用の計測範囲Rを示す図である。It is a figure which shows the measurement range R for vehicle detection. 特徴ライン抽出処理を説明するための詳細フローチャートである。It is a detailed flowchart for demonstrating a feature line extraction process. 水平エッジの検出用マスクを示す図である。It is a figure which shows the mask for a detection of a horizontal edge. 細線化された水平エッジ画像及び水平エッジ数ヒストグラムを示す図である。It is a figure which shows the thinned horizontal edge image and horizontal edge number histogram. 画面に写った各特徴ライン位置の時空間上での軌跡図である。It is a locus diagram on the time space of each characteristic line position reflected on the screen. 実空間と撮影面上の座標を定義した図である。It is the figure which defined the coordinate on real space and an imaging surface. 特徴ラインの実空間上での高さzを変数として、画面に写った各特徴ライン位置qと時間tとの関係q(t)を示すグラフである。It is a graph which shows the relationship q (t) between each feature line position q reflected on the screen and time t, using the height z of the feature line in the real space as a variable. 特徴ライン位置を結合して、車両のシルエット画像を作成した図である。It is the figure which combined the characteristic line position and created the silhouette image of the vehicle. シルエット画像より、車長や車高、形状を判別した結果を示す図である。It is a figure which shows the result of having discriminate | determined the vehicle length, the vehicle height, and the shape from the silhouette image.

符号の説明Explanation of symbols

2 カメラ
3 映像ケーブル
4 計測装置
41 画像入力部
42 A/D変換部
43 画像メモリ
44 演算部
45 通信部
2 Camera 3 Video cable 4 Measuring device 41 Image input unit 42 A / D conversion unit 43 Image memory 44 Calculation unit 45 Communication unit

Claims (6)

(a)物体が移動する場所を俯瞰するカメラにより、当該場所を周期的に撮影し、
(b)撮影した画像内に移動物体が検出された場合に、その移動物体の速度と、当該画像に表れる、移動物体の移動方向に垂直な移動物体の特徴ラインとを検出し、
(c)前記特徴ラインを画面上で追跡することにより、当該特徴ラインの高さを算出する移動物体の高さ検出方法。
(A) Using a camera overlooking the place where the object moves, the place is periodically photographed;
(B) When a moving object is detected in the captured image, the speed of the moving object and the feature line of the moving object perpendicular to the moving direction of the moving object appearing in the image are detected;
(C) A moving object height detection method for calculating the height of a feature line by tracking the feature line on a screen.
前記(c)の手順において、
前記移動物体の速度と、前記特徴ラインが撮影画面の所定位置から所定位置まで通過する時間とに基づいて、当該特徴ラインの高さを算出する請求項1記載の移動物体の高さ検出方法。
In the procedure (c),
The height detection method of the moving object according to claim 1, wherein the height of the feature line is calculated based on the speed of the moving object and a time during which the feature line passes from a predetermined position to a predetermined position on the shooting screen.
前記(c)の手順において、
あらかじめ速度、高さの異なる特徴ラインの時間軌跡のパターンを用意し、測定した特徴ラインの時間軌跡点を同じ、速度のパターン群にフィッティングさせることにより、当該特徴ラインの高さを算出する請求項1記載の移動物体の高さ検出方法。
In the procedure (c),
Claims: The height of the feature line is calculated by preparing time trajectory patterns of feature lines with different speeds and heights in advance and fitting the time trajectory points of the measured feature lines to the same speed pattern group. 2. A method for detecting a height of a moving object according to 1.
道路面を俯瞰するように所定の高さに設置されたカメラと、
カメラの撮影画像を取り込み処理する計測装置と、
カメラの画面上に設定した検出範囲内で移動物体が検出された場合に、その移動物体の速度を検出する速度検出手段とを備え、
前記計測装置は、当該画像に表れる、移動物体の移動方向に垂直な移動物体の特徴ラインを検出する特徴ライン検出手段と、
当該車両の特徴ラインを画面上で追跡することにより、当該特徴ラインの高さを算出する高さ算出手段とを備える移動物体の高さ検出装置。
A camera installed at a predetermined height to overlook the road surface;
A measuring device that captures and processes captured images of the camera;
When a moving object is detected within the detection range set on the camera screen, it is provided with speed detecting means for detecting the speed of the moving object,
The measurement device includes a feature line detection unit that detects a feature line of a moving object that appears in the image and is perpendicular to the moving direction of the moving object;
A moving object height detection apparatus comprising: a height calculation unit that calculates a height of the feature line by tracking the feature line of the vehicle on a screen.
請求項1記載の移動物体の高さ検出方法に基づいて検出された複数の特徴ラインを結合することにより、当該移動物体のシルエット画像を生成する物体形状判定方法。   An object shape determination method for generating a silhouette image of a moving object by combining a plurality of feature lines detected based on the moving object height detection method according to claim 1. 前記移動物体が車両であり、当該車両のシルエット画像に基づき車種判定する請求項5記載の物体形状判定方法。   The object shape determination method according to claim 5, wherein the moving object is a vehicle, and a vehicle type is determined based on a silhouette image of the vehicle.
JP2005112439A 2005-04-08 2005-04-08 Moving object height detection method and apparatus, and object shape determination method and apparatus Expired - Fee Related JP4055785B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005112439A JP4055785B2 (en) 2005-04-08 2005-04-08 Moving object height detection method and apparatus, and object shape determination method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005112439A JP4055785B2 (en) 2005-04-08 2005-04-08 Moving object height detection method and apparatus, and object shape determination method and apparatus

Publications (2)

Publication Number Publication Date
JP2006293629A true JP2006293629A (en) 2006-10-26
JP4055785B2 JP4055785B2 (en) 2008-03-05

Family

ID=37414151

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005112439A Expired - Fee Related JP4055785B2 (en) 2005-04-08 2005-04-08 Moving object height detection method and apparatus, and object shape determination method and apparatus

Country Status (1)

Country Link
JP (1) JP4055785B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109686104A (en) * 2018-12-31 2019-04-26 武汉静磁栅机电制造有限公司 A kind of vehicle super-high detection device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107993488B (en) * 2017-12-13 2021-07-06 深圳市航盛电子股份有限公司 Parking space identification method, system and medium based on fisheye camera

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109686104A (en) * 2018-12-31 2019-04-26 武汉静磁栅机电制造有限公司 A kind of vehicle super-high detection device

Also Published As

Publication number Publication date
JP4055785B2 (en) 2008-03-05

Similar Documents

Publication Publication Date Title
CN107738612B (en) Automatic parking space detection and identification system based on panoramic vision auxiliary system
US7899211B2 (en) Object detecting system and object detecting method
CN104282020B (en) A kind of vehicle speed detection method based on target trajectory
KR101647370B1 (en) road traffic information management system for g using camera and radar
JP4919036B2 (en) Moving object recognition device
JP3759429B2 (en) Obstacle detection apparatus and method
JP4930046B2 (en) Road surface discrimination method and road surface discrimination device
JP4587038B2 (en) Vehicle position detection method, and vehicle speed detection method and apparatus
JP4363295B2 (en) Plane estimation method using stereo images
JP4793324B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
JP2002197444A (en) Run lane recognition device for vehicle
EP3070430A1 (en) Moving body position estimation device and moving body position estimation method
JP5834933B2 (en) Vehicle position calculation device
US10984263B2 (en) Detection and validation of objects from sequential images of a camera by using homographies
KR20080024776A (en) Method and apparatus for recognizing parking slot marking by using hough transformation and parking assist system using same
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
CN114359714A (en) Unmanned body obstacle avoidance method and device based on event camera and intelligent unmanned body
JP2011513876A (en) Method and system for characterizing the motion of an object
JP4067340B2 (en) Object recognition device and object recognition method
CN109886064A (en) Determination can driving space boundary method
JP4936045B2 (en) Vehicle color discrimination device, method and program
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070807

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071203

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101221

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111221

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121221

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131221

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees