JP4502733B2 - Obstacle measuring method and obstacle measuring device - Google Patents

Obstacle measuring method and obstacle measuring device Download PDF

Info

Publication number
JP4502733B2
JP4502733B2 JP2004208116A JP2004208116A JP4502733B2 JP 4502733 B2 JP4502733 B2 JP 4502733B2 JP 2004208116 A JP2004208116 A JP 2004208116A JP 2004208116 A JP2004208116 A JP 2004208116A JP 4502733 B2 JP4502733 B2 JP 4502733B2
Authority
JP
Japan
Prior art keywords
obstacle
vehicle
width
filter
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004208116A
Other languages
Japanese (ja)
Other versions
JP2006031313A (en
Inventor
基 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2004208116A priority Critical patent/JP4502733B2/en
Publication of JP2006031313A publication Critical patent/JP2006031313A/en
Application granted granted Critical
Publication of JP4502733B2 publication Critical patent/JP4502733B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Description

本発明は、自車に搭載した単眼カメラの自車前方の撮影画像から、自車から自車前方の先行車両等の障害物までの距離(車間距離)、障害物の横幅(車幅)を推定して測定する障害物測定方法及び障害物測定装置に関するものである。   In the present invention, a distance (inter-vehicle distance) from an own vehicle to an obstacle such as a preceding vehicle in front of the own vehicle, and a lateral width (vehicle width) of the obstacle from a captured image of the monocular camera mounted on the own vehicle in front of the own vehicle. The present invention relates to an obstacle measurement method and an obstacle measurement device that perform estimation and measurement.

近年、自動車産業界においては、車両認識や車線認識など画像処理技術を応用したさまざまな車載システムの開発、商品化が進められているが、なかでも、ACCと呼ばれる車両走行支援システム(Adaptive Cruise Control)や被害軽減自動ブレーキシステムなどにあっては、撮影画像の画像処理により、自車前方の先行車両等の障害物について、少なくとも自車から障害物までの距離(車間距離)を測定することが要求される。   In recent years, in the automobile industry, various in-vehicle systems that apply image processing technologies such as vehicle recognition and lane recognition have been developed and commercialized, and among them, a vehicle driving support system (Adaptive Cruise Control) called ACC. ) And damage-reducing automatic braking systems, it is possible to measure at least the distance from the vehicle to the obstacle (inter-vehicle distance) for obstacles such as preceding vehicles ahead of the vehicle by image processing of the captured image. Required.

この障害物測定を行なうため、ACCや被害軽減自動ブレーキシステム等にあっては、従来、自車にステレオカメラを搭載し、そのステレオの自車前方の撮影画像に基き、三角測量の原理で前記の車間距離等の距離を測定することが提案されている(例えば、非特許文献1参照。)。   In order to perform this obstacle measurement, in the ACC and the damage reduction automatic braking system, etc., a stereo camera has been conventionally mounted on the own vehicle, and based on the image taken in front of the stereo vehicle, the principle of triangulation is used. It has been proposed to measure distances such as the inter-vehicle distance (see Non-Patent Document 1, for example).

しかしながら、このステレオ撮影画像からの測定にあっては、ステレオカメラを要し、高価であり、しかも、その光学系のサイズが大きく大型になる等の不都合がある。   However, the measurement from this stereo photographed image requires a stereo camera, is expensive, and has the disadvantage that the size of the optical system is large and large.

そこで、ステレオカメラに代えて安価で小型の単眼カメラを自車に搭載し、この単眼カメラの自車前方の撮影画像(以下、単眼カメラの撮影画像を単眼画像という)を画像処理し、その画像エッジのエッジヒストグラムのピーク点検出に基くカルマンフィルタ処理により、道路勾配が一定、障害物としての先行車両の車幅が既知である等の条件下、前記の車間距離等の距離を推定して測定することが提案されている(例えば、非特許文献2参照。)。   Therefore, instead of a stereo camera, an inexpensive and small-sized monocular camera is mounted on the own vehicle, and a captured image of the monocular camera in front of the own vehicle (hereinafter, the captured image of the monocular camera is referred to as a monocular image) is processed. The Kalman filter process based on the detection of the peak point of the edge histogram of the edge estimates and measures the distance such as the above-mentioned inter-vehicle distance under the condition that the road gradient is constant and the vehicle width of the preceding vehicle as an obstacle is known. (For example, refer nonpatent literature 2).

また、単眼のビデオカメラの自車前方の単眼画像につき、最初に、自車の走行車線を検出し、その走行車線内の最も画面下方の水平エッジを先行車両の影として抽出し、抽出した水平エッジの画像上の高さに基づく比例計算から初期の車間距離を算出し、以降は、算出した車間距離と、基準の車幅に対する垂直エッジの間隔から測定した最新の車幅の比から、最新の車間距離を算出して測定し、時々刻々に車間距離と車幅を測定することも提案されている(例えば、特許文献1参照。)。   In addition, for a monocular image in front of the vehicle of a monocular video camera, first, the traveling lane of the own vehicle is detected, the horizontal edge at the bottom of the screen in the traveling lane is extracted as the shadow of the preceding vehicle, and the extracted horizontal The initial inter-vehicle distance is calculated from a proportional calculation based on the height of the image on the edge. It has also been proposed to measure and measure the inter-vehicle distance and measure the inter-vehicle distance and the vehicle width every moment (see, for example, Patent Document 1).

塙 圭二、十川 能之、「自動車前方監視用のステレオ画像認識装置の開発」、信学技報(電子情報通信学会技術研究報告)、Vol.101、No.302、pp37−42、Sept.2001Junji Tsuji and Noriyuki Togawa, “Development of Stereo Image Recognition Device for Car Front Monitoring”, IEICE Technical Report (Technical Report of IEICE), Vol. 101, no. 302, pp37-42, Sept. 2001 山田 憲一、伊東 敏夫、「エッジ画像の濃度投影による車両の一捕捉方法」、電気学会論文誌 E、Vol.118−E No6.pp327−332、1998Kenichi Yamada, Toshio Ito, “A Method for Capturing Vehicles by Density Projection of Edge Images”, IEEJ Transactions E, Vol. 118-E No6. pp 327-332, 1998 特開平7−334799号公報(段落[0019]−[0023]、[0029]−[0030]、図3、図4、図5、図9)JP-A-7-334799 (paragraphs [0019]-[0023], [0029]-[0030], FIGS. 3, 4, 5, and 9)

前記非特許文献2に記載の従来測定の場合、単眼画像のエッジヒストグラム等から、その画像の先行車の領域を抽出して画像上での先行車両の車幅(横幅)を検出し、先行車両の車幅、車間距離と、単眼カメラの取り付け角度やカメラピッチの撮影条件(カメラパラメータ)との関係を示す、つぎの(a)式の演算から、車間距離を算出して推定することになる。なお、式中のiwvは画像上の検出車幅、fはカメラの焦点距離、Wvは実際の車幅、Ldistは実際の車間距離、βはカメラピッチ角、h0はカメラ取り付け角である。   In the case of the conventional measurement described in Non-Patent Document 2, the area of the preceding vehicle in the image is extracted from the edge histogram of the monocular image, and the vehicle width (width) of the preceding vehicle on the image is detected. From the calculation of the following equation (a) showing the relationship between the vehicle width and the inter-vehicle distance and the shooting conditions (camera parameters) of the mounting angle and camera pitch of the monocular camera, the inter-vehicle distance is calculated and estimated. . In the equation, iwv is the detected vehicle width on the image, f is the focal length of the camera, Wv is the actual vehicle width, Ldist is the actual inter-vehicle distance, β is the camera pitch angle, and h0 is the camera mounting angle.

iwv=f・[Wv/{Ldist・cosβ+h0・sinβ}] (a)   iwv = f · [Wv / {Ldist · cosβ + h0 · sinβ}] (a)

したがって、前記したように先行車両の実際の車幅Wvが既知でなければ、前記(a)式から車間距離Ldistを算出して推定することができない。   Therefore, as described above, if the actual vehicle width Wv of the preceding vehicle is not known, the inter-vehicle distance Ldist cannot be calculated and estimated from the equation (a).

そして、実際の走行環境下においては、先行車両の実際の車幅Wvを既知とすることは難しく、車幅Wvの精度の高い測定は困難である。なお、先行車両以外の自車前方の障害物についても同様である。   Under the actual traveling environment, it is difficult to make the actual vehicle width Wv of the preceding vehicle known, and it is difficult to measure the vehicle width Wv with high accuracy. The same applies to obstacles ahead of the host vehicle other than the preceding vehicle.

つぎに、前記特許文献1に記載の従来測定の場合、単眼画像から車間距離Ldist及び先行車両の車幅Wvの測定は行えるが、それらの測定結果が外乱の影響を受けて変動し易く、精度の高い測定が行なえない問題がある。   Next, in the case of the conventional measurement described in Patent Document 1, the inter-vehicle distance Ldist and the vehicle width Wv of the preceding vehicle can be measured from a monocular image, but the measurement results are likely to fluctuate due to the influence of disturbance, and the accuracy There is a problem that high measurement cannot be performed.

さらに、この種の測定に用いられる画像処理の欠点として、天候状況等の周囲の環境条件による画質劣化、画像中に存在する雑音等の外乱によりその認識性能が低下することが、よく知られており、また、個々の撮像系のばらつきや車両運動などによるモデル化誤差の影響も測定性能の低下に影響すると考えられていることから、これらの認識性能の低下の影響を極力受けないようにして、前記の車間距離Ldist等の自車から前方の障害物までの距離及び先行車両の車幅Wv等の障害物の横幅の精度の高い測定を行なうことが望まれる。   Furthermore, it is well known that the image processing used for this type of measurement has its recognition performance deteriorated due to image quality degradation due to ambient environmental conditions such as weather conditions, and disturbances such as noise present in the image. In addition, the effects of modeling errors due to variations in individual imaging systems and vehicle movements are also considered to affect the measurement performance. It is desirable to measure the distance from the own vehicle to the front obstacle such as the inter-vehicle distance Ldist and the lateral width of the obstacle such as the vehicle width Wv of the preceding vehicle with high accuracy.

本発明は、とくに先行車両の車幅等の自車前方の障害物の横幅が未知の場合に、前記の外乱等の影響を極力受けないようにして、単眼画像から、車間距離等の自車から前方の障害物までの距離を精度よく測定し、前記の距離の測定に基いて、同時に、障害物の横幅も単眼画像から精度よく測定することを目的とする。 The present invention avoids the influence of the disturbance or the like as much as possible from a monocular image, in particular when the width of an obstacle ahead of the host vehicle such as the width of the preceding vehicle is unknown. The object is to accurately measure the distance from an obstacle to the front and to measure the width of the obstacle from a monocular image at the same time based on the measurement of the distance.

上記した目的を達成するために、本発明の障害物測定方法は、自車に単眼カメラを搭載し、前記単眼カメラの自車前方の単眼画像の画像処理により、前記撮影画像上での先行車両等の自車前方の障害物の基準部の高さ方向の位置及び前記障害物の横幅を、観測位置及び観測幅として検出し、前記観測位置を入力とする非線形状態空間モデルの適応フィルタのフィルタリングにより、前記観測位置及び前記単眼カメラの撮影条件に基いて自車から前記障害物までの距離を推定し、前記観測幅を入力とする線形状態空間モデルの適応フィルタのフィルタリングにより、該線形状態空間モデルの適応フィルタの観測行列の係数を前記非線形状態空間モデルの適応フィルタの前記距離の推定値により調整して前記横幅を推定し、前記単眼画像から前記障害物の前記距離、前記横幅を同時に測定することを特徴としている(請求項)。この場合、障害物の基準部が、単眼カメラの撮影画像の水平、垂直のエッジヒストグラムから検出した前記障害物の下端中央部であり、かつ、前記障害物の横幅を、前記両エッジヒストグラムのピークから検出することが好ましい(請求項)。 In order to achieve the above-described object, the obstacle measuring method of the present invention includes a monocular camera mounted on the own vehicle, and the preceding vehicle on the photographed image is processed by image processing of the monocular image in front of the own vehicle of the monocular camera. Filtering of adaptive filter of nonlinear state space model that detects the position in the height direction of the reference part of the obstacle ahead of the vehicle and the lateral width of the obstacle as the observation position and the observation width, and inputs the observation position Based on the observation position and the photographing condition of the monocular camera, the distance from the vehicle to the obstacle is estimated, and the linear state space is filtered by the adaptive filter of the linear state space model using the observation width as an input. The lateral width is estimated by adjusting the coefficient of the observation matrix of the adaptive filter of the model by the estimated value of the distance of the adaptive filter of the nonlinear state space model, and from the monocular image, It said distance harm product is characterized by measuring the width at the same time (claim 1). In this case, the obstacle reference portion is the center of the lower end of the obstacle detected from the horizontal and vertical edge histograms of the captured image of the monocular camera, and the width of the obstacle is the peak of the two-edge histogram. It is preferable to detect from (Claim 2 ).

そして、本発明の障害物測定方法は、適応フィルタがH∞フィルタであることを特徴としている(請求項)。 The obstacle detection method of the present invention is characterized in that the adaptive filter is H∞ filter (claim 3).

つぎに、本発明の障害物測定装置は、自車に搭載された単眼カメラと、この単眼カメラの自車前方の単眼画像を画像処理し、前記単眼画像上での先行車両等の自車前方の障害物の基準部の高さ方向の位置及び前記障害物の横幅を、観測位置及び観測幅として測定する画像処理手段と、前記観測位置を入力とする非線形状態空間モデルの適応フィルタのフィルタリングにより、前記観測位置及び前記単眼カメラの撮影条件に基いて自車から前記障害物までの距離を推定し、かつ、前記観測幅を入力とする線形状態空間モデルの適応フィルタのフィルタリングにより、該線形状態空間モデルの適応フィルタの観測行列の係数を前記非線形状態空間モデルの適応フィルタの前記距離の推定値により調整して前記横幅を推定し、前記障害物の前記距離、前記横幅を同時に測定するフィルタ演算手段とを備えたことをことを特徴としている(請求項)。この場合、画像処理手段により、単眼カメラの撮影画像の水平、垂直のエッジヒストグラムから、障害物の基準部として、前記障害物の下端中央部を検出し、かつ、前記両エッジヒストグラムのピークから、前記障害物の横幅を検出することが好ましい(請求項)。 Next , the obstacle measuring apparatus according to the present invention performs image processing on a monocular camera mounted on the own vehicle and a monocular image in front of the own vehicle of the monocular camera, and forwards the vehicle such as a preceding vehicle on the monocular image. Image processing means for measuring the position of the obstacle in the height direction and the width of the obstacle as an observation position and an observation width, and filtering of an adaptive filter of a nonlinear state space model using the observation position as an input Estimating the distance from the vehicle to the obstacle based on the observation position and the photographing condition of the monocular camera, and filtering the linear state by using an adaptive filter of a linear state space model with the observation width as an input The lateral width is estimated by adjusting the coefficient of the observation matrix of the adaptive filter of the spatial model by the estimated value of the distance of the adaptive filter of the nonlinear state space model, and the distance of the obstacle It is characterized by further comprising a filtering unit for measuring the width at the same time (claim 4). In this case, from the horizontal and vertical edge histogram of the image captured by the monocular camera, the image processing means detects the lower end center of the obstacle as the reference portion of the obstacle, and from the peak of the both edge histogram, it is preferable to detect the width of the obstacle (claim 5).

そして、本発明の障害物測定装置は、適応フィルタがH∞フィルタであることを特徴としている(請求項)。 The obstacle measuring apparatus of the present invention is characterized in that the adaptive filter is H∞ filter (claim 6).

まず、請求項1、の構成によれば、自車に搭載した単眼カメラの自車前方の単眼画像の画像処理により、この画像上での自車前方の障害物の基準部の高さ方向の位置及び障害物の横幅が、観測位置及び観測幅として検出され、観測位置は障害物の遠近によって上下する。 First, according to the configuration of claims 1 and 4 , the height direction of the reference portion of the obstacle ahead of the vehicle on the image is processed by image processing of the monocular image ahead of the vehicle of the monocular camera mounted on the vehicle. width of the position and the obstacle is detected as the observation position and the observation width, observation position moves up and down in perspective of the obstacle.

そして、前記観測位置が入力される非線形状態空間モデルの適応フィルタのフィルタリングにより、観測位置及び単眼カメラの撮影条件に基き、外乱の影響等を極力排除して自車から障害物までの距離を推定する状態推定フィルタが形成され、この状態推定フィルタにより、自車から障害物までの車間距離等の距離を精度よく推定して測定することができ、このとき、障害物の横幅(車幅)は不要であり、障害物の横幅が未知(不明)であっても、前記の状態推定フィルタにより自車から障害物までの距離を精度よく測定できる。 Then, the through filtering of the adaptive filter of the observed nonlinear state space model position is input, the observed position and based on the photographing condition of monocular camera, estimate the distance from the vehicle as much as possible eliminate the disturbance influence to the obstacle A state estimation filter is formed, and with this state estimation filter, it is possible to accurately estimate and measure a distance such as an inter-vehicle distance from the own vehicle to the obstacle. At this time, the width of the obstacle (vehicle width) is Even if the width of the obstacle is unknown (unknown), the distance from the vehicle to the obstacle can be accurately measured by the state estimation filter.

さらに、前記観測幅を入力とする線形状態空間モデルの適応フィルタの観測行列の係数を、前記非線形状態空間モデルの適応フィルタの前記距離の推定値により調整することにより、観測幅と非線形状態空間モデルの適応フィルタの推定結果とに基いて車幅等の横幅を精度よく推定して測定することができる。 Further, by adjusting the coefficient of the observation matrix of the adaptive filter of the linear state space model with the observation width as an input according to the estimated value of the distance of the adaptive filter of the nonlinear state space model, the observation width and the nonlinear state space model The lateral width such as the vehicle width can be accurately estimated and measured based on the estimation result of the adaptive filter.

したがって、単眼カメラの自車前方の単眼画像上での自車前方の障害物の基準部の高さ方向の観測位置を入力とする非線形状態空間モデルの適応フィルタに、前記単眼画像上での自車前方の障害物の観測幅を入力とする線形状態空間モデルの適応フィルタを直列に接続した構成により、障害物の横幅が未知(不明)であっても、前記距離及び横幅を最適フィルタのフィルタリングによって推定し、同時に精度よく測定することができる。   Accordingly, the adaptive filter of the nonlinear state space model that receives the observation position in the height direction of the reference portion of the obstacle in front of the vehicle on the monocular image in front of the vehicle of the monocular camera is input to the monocular image on the monocular image. Filtering the optimum distance and width even if the width of the obstacle is unknown (unknown) by connecting the adaptive filter of the linear state space model with the observation width of the obstacle in front of the car in series And can be measured accurately at the same time.

つぎに、請求項2、5の構成によれば、障害物の基準部を、単眼画像の水平、垂直のエッジヒストグラムから検出した障害物の下端中央部としたため、障害物の大きさ等による誤差なく、その遠近によって変化する観測位置を検出することができ、この観測位置の検出に基く前記距離や横幅の推定が極めて精度よく行なえ、しかも、障害物の横幅を、前記両エッジヒストグラムのピークから精度よく確実に検出することができる。 Next, according to the configurations of claims 2 and 5 , since the reference portion of the obstacle is the central portion of the lower end of the obstacle detected from the horizontal and vertical edge histograms of the monocular image, an error due to the size of the obstacle, etc. Therefore, it is possible to detect an observation position that varies depending on the distance, and to estimate the distance and width based on the detection of the observation position with extremely high accuracy. It can be detected accurately and reliably.

また、請求項3、6の構成によれば、前記の非線形状態空間モデルの適応フィルタ、線形状態空間モデルの適応フィルタを、H∞フィルタで構成したため、それらの適応フィルタが外乱やモデル化誤差にロバストになり、精度の高い実用的な構成のフィルタリングによって前記距離、横幅を精度よく測定することができる。 According to the configuration of claims 3 and 6 , since the adaptive filter of the nonlinear state space model and the adaptive filter of the linear state space model are configured by H∞ filters, these adaptive filters are subject to disturbances and modeling errors. The distance and width can be measured with high accuracy by filtering with a practical configuration with high accuracy.

つぎに、本発明をより詳細に説明するため、その実施形態について、図1〜図16にしたがって詳述する。   Next, in order to describe the present invention in more detail, the embodiment will be described in detail with reference to FIGS.

<全体構成>
図1は自車1に搭載された障害物測定装置のブロック図であり、2は小型かつ安価なモノクロCCDカメラ構成の単眼カメラであり、車室内前方のほぼ車幅センタ位置に自車前方の路面を所定角度下向きに撮影するように取り付けられ、自車1のエンジンスタート後、自車前方を連続的にくり返し撮影し、毎フレームの単眼画像(撮影画像)を出力する。このとき、自車前方の障害物の遠近にしたがって単眼画像上の障害物の位置が上下する。
<Overall configuration>
FIG. 1 is a block diagram of an obstacle measuring device mounted on a host vehicle 1, and 2 is a single-lens camera having a small and inexpensive monochrome CCD camera configuration. The vehicle is mounted so as to photograph the road surface downward at a predetermined angle. After the engine of the host vehicle 1 is started, the front of the host vehicle is continuously photographed repeatedly and a monocular image (captured image) of each frame is output. At this time, the position of the obstacle on the monocular image moves up and down according to the distance of the obstacle ahead of the host vehicle.

3は単眼カメラ2の毎フレームの単眼画像(撮影画像)を取り込む画像処理部であり、画像処理手段を形成し、取り込んだ単眼画像をA/D変換し、例えば最新の数フレーム分の単眼画像をメモリに書き換え自在に蓄積保持し、マイクロコンピュータ(CPU)により、設定された画像処理プログラムにしたがって前記メモリの単眼画像を処理し、単眼画像上での先行車両等の自車前方の障害物の基準部の高さ方向の位置を観測位置として検出する。   Reference numeral 3 denotes an image processing unit that captures a monocular image (captured image) of each frame of the monocular camera 2, and forms image processing means, A / D-converts the captured monocular image, for example, the latest monocular image for several frames Is stored in a rewritable memory, and a monocular image in the memory is processed by a microcomputer (CPU) according to a set image processing program, and obstacles ahead of the host vehicle such as a preceding vehicle on the monocular image are processed. The position in the height direction of the reference part is detected as the observation position.

そして、この実施形態にあっては、障害物の基準部を、単眼画像の水平、垂直のエッジヒストグラムから検出した障害物の下端中央部とし、障害物の大きさ等による検出誤差を極力押さえる。   In this embodiment, the reference portion of the obstacle is the center of the lower end of the obstacle detected from the horizontal and vertical edge histograms of the monocular image, and the detection error due to the size of the obstacle is suppressed as much as possible.

4は画像処理部3の後段のフィルタ演算部であり、フィルタ演算手段を形成し、マイクロコンピュータの最適フィルタリング演算により、先行車間距離等の自車から障害物までの距離のみを推定して測定する場合は、ソフトウエアで形成された後述の非線形状態空間モデルΓの適応フィルタを備え、車間距離等の自車から障害物までの距離及び障害物の車幅等の横幅を推定して測定する場合は、ソフトウエアで形成された後述の線形状態空間モデルΓの適応フィルタも備え、前記の距離、横幅をくり返し推定して測定する。 Reference numeral 4 denotes a filter calculation unit subsequent to the image processing unit 3, which forms filter calculation means and estimates and measures only the distance from the host vehicle to the obstacle, such as the distance between the preceding vehicles, by the optimum filtering calculation of the microcomputer. In this case, an adaptive filter of a later-described nonlinear state space model Γ 2 formed by software is provided, and the distance from the vehicle to the obstacle such as the inter-vehicle distance and the lateral width such as the vehicle width of the obstacle are estimated and measured. In this case, an adaptive filter of a later-described linear state space model Γ 1 formed by software is also provided, and the distance and the lateral width are repeatedly estimated and measured.

そして、非線形状態空間モデルΓ、線形状態空間モデルΓの状態推定の適応フィルタは、種々のアルゴリズムに基くフィルタであってよいが、この実施形態にあっては、それぞれH∞フィルタによって形成する。 The adaptive filter for state estimation of the nonlinear state space model Γ 2 and the linear state space model Γ 1 may be a filter based on various algorithms. In this embodiment, each filter is formed by an H∞ filter. .

<H∞フィルタの導出>
つぎに、前記のH∞フィルタの導出について説明する。
<Derivation of H∞ filter>
Next, the derivation of the H∞ filter will be described.

まず、離散時間の確定的な状態空間モデルは、一般に、つぎの数1の式(1)、数2の式(2)で与えられる。   First, the discrete-time deterministic state space model is generally given by the following Equation (1) and Equation (2).

ここで、ξkはn次元状態ベクトル、ζkはp次元観測ベクトル、Fk、Gk、Hkはそれぞれn×n、n×r、p×nの既知の状態遷移行列、駆動行列、観測行列、wk及びvkはそれぞれr次元雑音、p次元雑音(ベクトル)である。   Here, ξk is an n-dimensional state vector, ζk is a p-dimensional observation vector, Fk, Gk, and Hk are n × n, n × r, and p × n known state transition matrices, driving matrices, observation matrices, wk, and vk is r-dimensional noise and p-dimensional noise (vector), respectively.

ただし、雑音wk、vkはエネルギーが有界な確定的な雑音、すなわち、N>0に対して、下記数3の条件式を満足する雑音である。これは、フィルタシステムに存在する雑音の確率的な性質を問わないということである。   However, noises wk and vk are deterministic noises whose energy is bounded, that is, noises that satisfy the following conditional expression 3 for N> 0. This is regardless of the stochastic nature of the noise present in the filter system.

一般に、伝達行列Tに対するH∞ノルムは、つぎの数4の時系列uの2ノルムを用いて数5の式(3)で定義される。   In general, the H∞ norm for the transfer matrix T is defined by Equation (3) in Equation 5 using the following 2 norm of Equation 4 in time series u.

そして、入カを未知外乱(雑音)ξk、wk、vkとし、出カを推定誤差ef,kとして、式(3)を最小にするフィルタを導出することは、最適H∞フィルタリング間題として知られているが、一般に、この最適H∞フィルタを求めることは難しく、前記フィルタの導出は有限時間の準最適H∞フィルタリング問題として扱われる。   Deriving a filter that minimizes Equation (3) with input as unknown disturbance (noise) ξk, wk, vk, output as estimated error ef, k is known as an optimal H∞ filtering problem. However, in general, it is difficult to obtain the optimum H∞ filter, and the derivation of the filter is treated as a finite-time suboptimal H∞ filtering problem.

すなわち、前記の最適H∞フィルタリング間題は、あるレベルの制御パラメータγf>0が与えられたとき、‖Tk(fk)‖∞<γfを溝たす準最適H∞フィルタを求めることとして扱われ、これは、求められた準最適H∞フィルタが、外乱エネルギーと推定誤差エネルギーの比の最大値を与えられた値γf以下にすることを目的とするフィルタであることを意味する。 That is, the optimal H∞ filtering problem is treated as obtaining a suboptimal H∞ filter that gives a groove of ‖Tk (fk) ‖∞ <γf when a certain level of control parameter γf> 0 is given. This means that the obtained suboptimal H∞ filter is a filter whose purpose is to make the maximum value of the ratio of disturbance energy and estimated error energy equal to or less than a given value γ 2 f.

そして、本願のH∞フィルタは、この準最適H∞フィルタを意味し、レベルγf>0が与えられたとき、‖Tk(fk)‖∞<γfを溝たすレベルγfのH∞フィルタの一つは、つぎの数6の式(4)〜数9の式(7)で示される。   The H∞ filter of the present application means this sub-optimal H∞ filter. When a level γf> 0 is given, the H∞ filter of the level γf that grooves ‖Tk (fk) ‖∞ <γf. This is expressed by the following equation (4) to equation (7).

ここで、行列Re,kは、つぎの数10の式(8)で示され、誤差の共分散行列P^k|k−1は、数11の式(9)に示す不等式(存在条件)を満たすものでなければならない。   Here, the matrix Re, k is expressed by the following Equation 10 (8), and the error covariance matrix P ^ k | k−1 is an inequality (existence condition) shown in Equation 11 (9). Must satisfy.

つぎに、H∞フィルタは外乱(初期状態、雑音)から推定誤差までの伝達関数Tk(Ff)のH∞ノルムを最小にする意味で最適なフィルタとして与えられるものであり、このフィルタは最悪外乱に対する推定誤差を最小とするので、一般に、雑音の特性変化やモデル化誤差に対してロバストであるといわれている。   Next, the H∞ filter is given as an optimum filter in the sense of minimizing the H∞ norm of the transfer function Tk (Ff) from the disturbance (initial state, noise) to the estimation error, and this filter is the worst disturbance. In general, it is said to be robust against noise characteristic changes and modeling errors.

このH∞フィルタは無数に存在し、そのアルゴリズムの導出についてもさまざまな方法での定式化が提案されており、例えば、ミニマックス推定問題として離散時間H∞フィルタの導出を試みたり、また、不定計量空間の一種であるクライン空間におけるカルマンフィルタがH∞フィルタであることから、両者に対する統一的解釈を与えて前記の式(4)〜式(9)に示したH∞フィルタアルゴリズムで定式化することがよく知られている。   There are an infinite number of H∞ filters, and various methods have been proposed for the derivation of the algorithms. For example, derivation of a discrete-time H∞ filter is attempted as a minimax estimation problem, or indefinite. Since the Kalman filter in the Klein space, which is a kind of metric space, is an H∞ filter, a unified interpretation is given to both, and it is formulated by the H∞ filter algorithm shown in the above equations (4) to (9). Is well known.

一方、このH∞フィルタを形成してフィルタリングを実行する際には、パラメータγfの決定と計算量の多さが問題となる。   On the other hand, when this H∞ filter is formed and filtering is performed, the determination of the parameter γf and the large amount of calculation are problematic.

[線形状態空間モデルΓのH∞フィルタ]
そして、この実施形態では、線形状態空間モデルΓの適応フィルタとして、前記のパラメータγfの決定が容易で計算量が少ない、つぎの数12の式(10)〜数16の式(14)で示されるフィルタアルゴリズムのH∞フィルタを用いる。
[H∞ filter of linear state space model Γ 1 ]
In this embodiment, as the adaptive filter of the linear state space model Γ 1 , the following parameter γf can be easily determined and the amount of calculation is small, and the following Expression (10) to Expression 16 (14) are used. Use the H∞ filter of the filter algorithm shown.

ここで、行列λi、(i=1、…、n)、Vkは、つぎの数17の式(15)に示すように、行列Mkの固有値、及び固有ベクトルより求められる。   Here, the matrices λi, (i = 1,..., N) and Vk are obtained from the eigenvalues and eigenvectors of the matrix Mk as shown in the following equation (15).

なお、行列Mkは、つぎの数18の式(16)で示される行列である。   The matrix Mk is a matrix represented by the following equation (16).

また、行列VkはVk=(v1、…、vi、…、vn)の雑音行列であり、雑音viは行列λiに対応する行列Mkの固有ベクトルとして求まり、ただし、|vi|=1である。さらに、VkVk=VkVk=Iである。 The matrix Vk is a noise matrix of Vk = (v1,..., Vi,..., Vn), and the noise vi is obtained as an eigenvector of the matrix Mk corresponding to the matrix λi, where | vi | = 1. Furthermore, Vk T Vk = VkVk T = I.

[非線形状態空間モデルΓのH∞フィルタ]
前記式(12)〜式(16)のH∞フィルタは線形状態空間モデルΓの適応フィルタとして導出したものであるが、つぎに、線形状態空間モデルΓの適応フィルタとしては、観測方程式における観測行列Hkが非線形関数hk(ξk)である非練形状態空間モデル(システム)Γに対するH∞フィルタを導出する。
[H∞ filter of nonlinear state space model Γ 2 ]
The H∞ filter of the equations (12) to (16) is derived as an adaptive filter of the linear state space model Γ 1. Next, as an adaptive filter of the linear state space model Γ 2 , An H∞ filter is derived for the non-formal state space model (system) Γ in which the observation matrix Hk is a nonlinear function hk (ξk).

すなわち、非線形システムΓにおける非線形関数hk(ξk)を、k(今回)、k−1(前回)の時点における推定量(値)ξ^k|k、ξ^k|k−1の周りで、つぎの数19の式(17)に示すようにテイラー展開する。   That is, the nonlinear function hk (ξk) in the nonlinear system Γ is changed around the estimated values (values) ξ ^ k | k, ξ ^ k | k−1 at the time of k (present) and k−1 (previous), Taylor expansion is performed as shown in the following equation (17).

ここで、観測行列Hkは、つぎの数20の式(18)で示される。   Here, the observation matrix Hk is expressed by the following equation (18).

したがって、非線形状態空間モデルΓは、つぎの数21の式(19)〜数24の式(22)で示される。   Therefore, the nonlinear state space model Γ is expressed by the following equation (19) to equation (22).

そして、数式(22)のパラメータmkが前回推定量(値)ξ^k|k−1から各ステップ毎(フレーム毎)に求められ、非線形状態空間モデルΓは線形状態空間モデルとして扱うことが可能となる。   Then, the parameter mk in Expression (22) is obtained for each step (for each frame) from the previous estimated amount (value) ξ ^ k | k−1, and the nonlinear state space model Γ can be handled as a linear state space model. It becomes.

そこで、線形状態空間モデルΓ1に対するH∞フィルタ及び前記式(19)〜式(22)から、この実施形態では、線形状態空間モデルΓ2の適応フィルタとして、つぎの数25の式(23)〜数30の式(28)に示すフィルタアルゴリズムのH∞フィルタを用いる。   Therefore, from the H∞ filter for the linear state space model Γ1 and the above equations (19) to (22), in this embodiment, as an adaptive filter for the linear state space model Γ2, the following equations (23) to (23) The H∞ filter of the filter algorithm shown in Equation (28) of 30 is used.

ここで、行列λi、(i=1、…、n)、Vkは、つぎの数31の式(29)に示すように、行列Mkの固有値、及び固有ベクトルより求められる。   Here, the matrices λi, (i = 1,..., N) and Vk are obtained from the eigenvalues and eigenvectors of the matrix Mk as shown in the following equation (29).

なお、行列Mkは、つぎの数32の式(30)で示される行列である。   The matrix Mk is a matrix represented by the following equation (30).

また、行列VkはVk=(v1、…、vi、…、vn)の雑音行列であり、雑音viは行列λiに対応する行列Mkの固有ベクトルとして求まり、ただし、‖vi‖=1である。さらに、VkVk=VkVk=Iである。 The matrix Vk is a noise matrix of Vk = (v1,..., Vi,..., Vn), and the noise vi is obtained as an eigenvector of the matrix Mk corresponding to the matrix λi, where ‖vi‖ = 1. Furthermore, Vk T Vk = VkVk T = I.

<図1の測定処理>
つぎに、上記のH∞フィルタを用いた図1の具体的な測定処理について説明する。
<Measurement process of FIG. 1>
Next, a specific measurement process of FIG. 1 using the above H∞ filter will be described.

[座標系]
まず、走行環境のワールド座標系、単眼カメラ2のカメラ座標系、その撮像座標系について、図2の座標系説明用の斜視図、図3のその側面図を参照して説明する。
[Coordinate system]
First, the world coordinate system of the driving environment, the camera coordinate system of the monocular camera 2, and the imaging coordinate system thereof will be described with reference to the perspective view for explaining the coordinate system in FIG. 2 and its side view in FIG.

ワールド座標系は自車1に対する先行車両等の自車前方の障害物の位置情報を表現するものであり、その直交する3軸は、車載の単眼カメラ2のレンズ2aを中心(原点)とする、図2、図3のwX軸、wY軸、wZ軸で表わされる。   The world coordinate system expresses position information of obstacles ahead of the host vehicle 1 such as a preceding vehicle with respect to the host vehicle 1, and the three orthogonal axes are centered on the lens 2a of the in-vehicle monocular camera 2 (origin). 2 and 3 are represented by the wX axis, the wY axis, and the wZ axis.

また、カメラ座標系の3軸は、レンズ2aを中心とする、図2、図3のcX軸,cY軸,cZ軸で表わされ、撮影光軸を斜め下向きにして自車前方の路面5を撮影するため、cX軸をwX軸に一致した状態で、座標系を、wX軸を中心軸として反時計回りに角度β回転した状態に設定され、cY軸、cZ軸は、wY軸、wZ軸から角度β傾いている。   The three axes of the camera coordinate system are represented by the cX axis, cY axis, and cZ axis in FIGS. 2 and 3 with the lens 2a as the center, and the road surface 5 in front of the host vehicle with the photographing optical axis facing obliquely downward. In the state where the cX axis coincides with the wX axis, the coordinate system is set to a state rotated by an angle β counterclockwise about the wX axis as a central axis, and the cY axis and cZ axis are the wY axis, wZ The angle is inclined from the axis by β.

さらに,画像座標系は単眼カメラ2の撮影画像平面2bの中央を原点とする2次元座標系であり、図2に示すように、そのy軸はcY軸に平行であり、x軸はcX軸に平行である。   Furthermore, the image coordinate system is a two-dimensional coordinate system having the center of the captured image plane 2b of the monocular camera 2 as the origin, and as shown in FIG. 2, the y axis is parallel to the cY axis, and the x axis is the cX axis. Parallel to

なお、図2、図3のh0は単眼カメラ2の路面5からの高さ(カメラ高さ)、fは単眼カメラ2の焦点距離,βはそのカメラピッチ角である。この場合、よく知られているように、カメラ座標系と画像座標系には、つぎの数33の式(31)の関係がある。   2 and 3, h0 is the height (camera height) from the road surface 5 of the monocular camera 2, f is the focal length of the monocular camera 2, and β is the camera pitch angle. In this case, as is well known, the camera coordinate system and the image coordinate system have the relationship of the following Expression (31):

[測定対象の距離、横幅]
つぎに、前記の座標関係に基く先行車両等の自車前方の障害物の測定対象の距離(車間距離)、横幅(車幅)について、図4の先行車両の撮影画像の説明図、図5のワールド座標系での距離、横幅の説明図を参照して説明する。
[Measurement distance, width]
Next, with respect to the distance (inter-vehicle distance) and the lateral width (vehicle width) of the object to be measured in front of the host vehicle such as the preceding vehicle based on the coordinate relationship described above, FIG. This will be described with reference to explanatory diagrams of distance and width in the world coordinate system.

まず、白車1及び先行車両等の障害物を合む走行環境の道路平面5の勾配が一定であるとすると、前記の各座標系の関係から、ワールド座標系の任意の点(wX1、wY1、wZ1)と、画像座標系の任意の点(x1、y1)との間には、つぎの数34の式(32)、数35の式(33)の関係がある。   First, assuming that the gradient of the road plane 5 of the traveling environment that joins obstacles such as the white car 1 and the preceding vehicle is constant, from the relationship of each coordinate system, any point (wX1, wY1 in the world coordinate system) , WZ1) and an arbitrary point (x1, y1) in the image coordinate system, there is a relationship expressed by the following Expression 34 (32) and Expression 35 (33).

また、説明を簡単にするため、障害物を先行車両6とし、ワールド座標系における先行車両6の左、右両端の座標を(wXl、wZl)、(wXr、wZr)、画像座標系における先行車両6の左、右両端の座標をxl、xrとして、ワールド座標系における先行車両6の測定する車幅(横幅)を図5のWvとし、自車1から先行車両6までの測定する車間距離を図5のLdistとし、画像座標系における先行車両6の撮影された横幅(車幅)を図4のiwvとし、画像平面2b上で下端中央部として検出される図4の矩形枠の車両領域の下線中点座標(重心点座標)を(Ox、Oy)とすると、iwv=xr−xlであるため、前記式(32)〜(33)より、画像平面2b上の先行車両6の横幅iwv、中点座標(Ox、Oy)と、車間距離Ldistとは、つぎの数36の式(34)、数37の式(35)の関係がある。   In order to simplify the description, the obstacle is the preceding vehicle 6, the coordinates of the left and right ends of the preceding vehicle 6 in the world coordinate system are (wX1, wZl), (wXr, wZr), and the preceding vehicle in the image coordinate system. 6, the coordinates of the left and right ends of the vehicle 6 are xl and xr, the vehicle width (width) measured by the preceding vehicle 6 in the world coordinate system is Wv in FIG. 5, and the distance between the vehicle 1 and the preceding vehicle 6 is measured. 5, the captured lateral width (vehicle width) of the preceding vehicle 6 in the image coordinate system is iwv in FIG. 4, and the vehicle area of the rectangular frame in FIG. 4 detected as the lower center portion on the image plane 2b. Assuming that the underline midpoint coordinates (centroid point coordinates) are (Ox, Oy), since iwv = xr−xl, the width iwv of the preceding vehicle 6 on the image plane 2b from the above equations (32) to (33), Midpoint coordinates (Ox, Oy) and car Distance is Ldist, a relationship of Expression 36 wherein the following (34), the number 37 formula (35).

そして、中点座標(Ox、Oy)が先行車両6の基準部であり、その座標値Oyがその高さ方向の観測位置であり、式(35)は、その観測位置と、単眼カメラ2の撮影条件であるカメラ高さh0、焦点距離f、角度βとに基づき、車間距離Ldistが測定できることを示している。   The midpoint coordinates (Ox, Oy) are the reference portion of the preceding vehicle 6, the coordinate value Oy is the observation position in the height direction, and the equation (35) It shows that the inter-vehicle distance Ldist can be measured based on the camera height h0, the focal length f, and the angle β, which are photographing conditions.

また、横幅iwvを観測幅として検出すると、式(34)は、その観測幅及び前記の車間距離Ldistの測定結果、単眼カメラ2の撮影条件に基き、車幅(横幅)Wvを測定できることを示している。   Further, when the horizontal width iwv is detected as the observation width, the equation (34) indicates that the vehicle width (horizontal width) Wv can be measured based on the observation width, the measurement result of the inter-vehicle distance Ldist, and the photographing conditions of the monocular camera 2. ing.

[画像処理部3の処理(先行車両情報の抽出)]
そこで、単眼カメラ2の単眼画像に基づき、画像処理部3により、つぎに説明するようにして、前記の観測位置Oy、観測幅iwvを検出する。
[Processing of image processing unit 3 (extraction of preceding vehicle information)]
Thus, based on the monocular image of the monocular camera 2, the image processing unit 3 detects the observation position Oy and the observation width iwv as described below.

撮影画像平面2b上に存在する先行車両6の観測位置Oy、観測幅iwvの検出は、単眼画像の種々の画像処理によって行なうことができるが、この実施形態においては、いわゆるエッジヒストグラムによる先行車両認識アルゴリズムの画像処理によって行う。   The detection of the observation position Oy and the observation width iwv of the preceding vehicle 6 existing on the photographed image plane 2b can be performed by various image processing of the monocular image. In this embodiment, the preceding vehicle recognition by the so-called edge histogram is performed. Performed by algorithm image processing.

この場合、画像処理部3により、A/D変換された単眼カメラ2の毎フレームの単眼画像、例えば図6の単眼画像Paについて、その画像平面上に、図7の微分二値画像に示す垂直エッジ検出の領域V−ROI、水平エッジ検出の領域H−ROIを設定する。   In this case, the monocular image of each frame of the monocular camera 2 A / D converted by the image processing unit 3, for example, the monocular image Pa in FIG. An edge detection region V-ROI and a horizontal edge detection region H-ROI are set.

なお、図6の枠線で囲まれたほぼ画像中央の部分は、種々の実験等に基き、先行車両6を捕捉する位置、大きさに設定され、両領域H−ROI、V−ROIは、前記画像中央の部分で十字状に交差する帯状の領域である。   6 is set to a position and size for capturing the preceding vehicle 6 based on various experiments and the like, and both regions H-ROI and V-ROI are This is a belt-like region that intersects in a cross shape at the center of the image.

そして、まず、枠線内のほぼ中央部に設定した領域V−ROIについて縦方向の微分画像を濃度投影し、図7の垂直エッジのエッジヒストグラムGvを得、このヒストグラムGvのピーク検出により、車両両端等の垂直線成分が強い個所を検出する。   First, the differential image in the vertical direction is density-projected with respect to the region V-ROI set almost at the center in the frame line, and the edge histogram Gv of the vertical edge in FIG. 7 is obtained. Detects parts with strong vertical line components such as both ends.

つぎに、エッジヒストグラムGvから検出した2ピークの間隔のほぼ中央に垂直方向に領域H−ROIを設定し、この領壊H−ROlについて横方向の微分画像を濃慶投影し、図7の水平エッジヒストグラムGhを得、このヒストグラムGhの水平線成分が強い先行車両の上下端部のピークを検出する。   Next, a region H-ROI is set in the vertical direction substantially at the center of the interval between the two peaks detected from the edge histogram Gv, and a differential image in the horizontal direction is projected on the region H-ROl. An edge histogram Gh is obtained, and peaks at the upper and lower ends of the preceding vehicle having a strong horizontal line component of the histogram Gh are detected.

そして、前記の垂直、水平のエッジヒストグラムのピーク検出情報に基づき、水平のエッジピークが検出された先行車両の下端部を認識し、その中央位置から図4の画像平面2b上の下線中点座標(Ox、Oy)を検出し、その座標Oyから、前記基準部の高さ方向の観測位置を検出し、同時に、垂直エッジの2ピークの間隔から図4の画像平面2b上での先行車両の車幅(横幅)iwvを観測幅として検出する。   Based on the peak detection information of the vertical and horizontal edge histograms, the lower end of the preceding vehicle in which the horizontal edge peak is detected is recognized, and the underline midpoint coordinates on the image plane 2b in FIG. (Ox, Oy) is detected, and the observation position in the height direction of the reference portion is detected from the coordinates Oy. At the same time, the preceding vehicle on the image plane 2b in FIG. The vehicle width (horizontal width) iwv is detected as the observation width.

このとき、先行車両6の大きさ等によらず、先行車両6の遠近によって下線中点座標(Ox、Oy)が上下動し、観測位置は、自車1からの先行車両6の遠近に即して上下する。   At this time, the underline midpoint coordinates (Ox, Oy) move up and down depending on the distance of the preceding vehicle 6 regardless of the size of the preceding vehicle 6, and the observation position immediately follows the distance of the preceding vehicle 6 from the own vehicle 1. Then go up and down.

[フィルタ演算部4の処理]
先行車両6の車幅Wvが既知であれば、前記式(34)の関係から、撮影画像平面2b上の先行車両6の車幅iwvを検出することにより、車間距離Ldistを求めることができるが、先行車両幅Wvが未知の傷合は、車幅iwvを検出するだけでは車間距離Ldistを求めることができない。
[Processing of Filter Operation Unit 4]
If the vehicle width Wv of the preceding vehicle 6 is known, the inter-vehicle distance Ldist can be obtained by detecting the vehicle width iwv of the preceding vehicle 6 on the captured image plane 2b from the relationship of the equation (34). When the preceding vehicle width Wv is unknown, the inter-vehicle distance Ldist cannot be obtained only by detecting the vehicle width iwv.

そこで、画像処理部3によって得られた前記の観測位置、観測幅が入力されるフィルタ演算部4においては、車幅Wvが未知の傷合に、非線形状態空間モデルΓのフィルタリングによって車間距離Ldistを推定する。 Therefore, in the filter calculation unit 4 to which the observation position and the observation width obtained by the image processing unit 3 are input, the inter-vehicle distance Ldist is filtered by filtering the nonlinear state space model Γ 2 in the case where the vehicle width Wv is unknown. Is estimated.

また、この実施形態の場合、同時に、線形状態空間モデルΓのフィルタリングによって車幅Wvも推定する。 In the case of this embodiment, the vehicle width Wv is also estimated simultaneously by filtering the linear state space model Γ 1 .

そして、前記のH∞フィルタを使用して、つぎの状態空間モデルΓ、Γの適応フィルタを形成する。 Then, using the H∞ filter, adaptive filters of the following state space models Γ 1 and Γ 2 are formed.

(a)線形状態空間モデルΓの適応フィルタ
車幅Wvを推定する線形状態空間モデルΓの適応フィルタは、つぎの数38の式(36)、数39の式(37)で示される。
(A) a linear state-space model gamma 1 of the adaptive filter that estimates a linear state-space model gamma 1 of the adaptive filter wheel width Wv of the formula (36) in the number of the next 38, the formula of the number 39 (37).

なお、それらの式中のθkは先行車両6の時点kでの車幅の状態量、ζlkは時点kの観測行列Hkの車間距離のパラメータであり、θk、ζlk、Hkはつぎの数40の式(38)〜数42の式(40)で表される。   In these equations, θk is the vehicle width state quantity at the time point k of the preceding vehicle 6, ζlk is an inter-vehicle distance parameter of the observation matrix Hk at the time point k, and θk, ζlk, and Hk are the following equation 40 (38) to Expression 42 (42).

(b)非線形状態空間モデルΓの適応フィルタ
車間距離Ldistを推定する非線形状態空間モデルΓの適応フィルタは、つぎの数43の式(41)、数44の式(42)で示される。
(B) Adaptive filter of the nonlinear state space model Γ 2 The adaptive filter of the nonlinear state space model Γ 1 for estimating the inter-vehicle distance Ldist is expressed by the following equations (41) and (42).

なお、それらの式中のξkは時点kの車間距離、ζ2kは時点kの観測位置Oy、hk(ξk)は時点kの観測行列であり、つぎの数45の式(43)〜数47の式(45)で表される。   In these equations, ξk is the inter-vehicle distance at the time point k, ζ2k is the observation position Oy at the time point k, hk (ξk) is the observation matrix at the time point k, and the following equations (43) to (47) It is represented by Formula (45).

そして、先行車両5の車幅を状態量θkとする状態空間モデルΓは観測行列Hkに車間距離ζlkを未知のパラメータとして含むが、このパラメータに状態空間モデルΓの推定結果を用いることにより、適応フィルタの枠組みで、その状態量θkと未知のパラメータζlkを同時に推定することができる。 The state space model Γ 1 having the vehicle width of the preceding vehicle 5 as the state quantity θk includes the inter-vehicle distance ζlk as an unknown parameter in the observation matrix Hk. By using the estimation result of the state space model Γ 2 as this parameter, The state quantity θk and the unknown parameter ζlk can be estimated simultaneously in the framework of the adaptive filter.

具体的には、状態空間モデルΓの適応フィルタを前記の非線形H∞フィルタにより形成し、先に車間距離Ldistの推定値ξkを求め、この推定値ξkを用いることにより、状態空間モデルΓの適応フィルタを前記の線形H∞フィルタで形成して車幅Wvの推定値θkを求めることができる。 Specifically, the adaptive filter of the state space model Γ 2 is formed by the nonlinear H∞ filter, and the estimated value ξk of the inter-vehicle distance Ldist is obtained first, and the estimated value ξk is used to obtain the state space model Γ 1. The estimated value θk of the vehicle width Wv can be obtained by forming the above adaptive filter by the linear H∞ filter.

この場合、前記式(36)〜式(45)に即した状態空間モデルΓ、Γの適応フィルタフィルタは、図8のZ変換のブロック図に示すように直列の形で接統される。 In this case, the adaptive filter filters of the state space models Γ 1 and Γ 2 conforming to the expressions (36) to (45) are connected in series as shown in the block diagram of the Z conversion in FIG. .

そして、状態空間モデルΓ、Γの関係に基づき、フィルタ演算部4に、H∞フィルタを用いた図9のZ変換の状態推定フィルタを設け、非線形状態空間モデルΓのH∞フィルタのブロックF2により車間距離Ldistの推定値ξkを求め、この推定値ξkにより、線形状態空間モデルΓのH∞フィルタのブロックF1の観測行列Hkを車間距離Ldistにしたがって調整しつつ車幅Wvの推定値θkを求める。 Then, based on the relationship between the state space models Γ 1 and Γ 2 , the filter operation unit 4 is provided with the Z-transform state estimation filter of FIG. 9 using an H∞ filter, and the H∞ filter of the nonlinear state space model Γ 2 is provided. The estimated value ξk of the inter-vehicle distance Ldist is obtained from the block F2, and the estimated vehicle width Wv is adjusted by adjusting the observation matrix Hk of the block F1 of the H∞ filter of the linear state space model Γ 1 according to the inter-vehicle distance Ldist. The value θk is obtained.

なお、図9のブロックF1、F2においては、推定したθk、ξkを単位行列Lkを通し、推定値zlk、z2kとして出力している。   In blocks F1 and F2 in FIG. 9, the estimated θk and ξk are output as estimated values zlk and z2k through the unit matrix Lk.

そして、画像処理部3,フィルタ処理部4の処理をフローチャートで示すと、例えば図10のステップS1〜S5のようになり、これらの処理に基づき、車幅Wvが未知であっても、H∞フィルタを用いた、雑音の特性変化やモデル化誤差等に対してロバストな構成で、精度よく、車間距離Ldistを推定して測定することができ、同時に、先行車両6の車幅Wvも推定して測定することができる。   Then, when the processing of the image processing unit 3 and the filter processing unit 4 is shown in a flowchart, it becomes like, for example, steps S1 to S5 in FIG. 10, and even if the vehicle width Wv is unknown based on these processes, H∞ It is possible to accurately estimate and measure the inter-vehicle distance Ldist with a configuration that is robust against noise characteristic changes and modeling errors using a filter, and at the same time, estimates the vehicle width Wv of the preceding vehicle 6. Can be measured.

[実験結果]
つぎに、図9の状態推定フィルタを用いたシミュレーションの実験結果について説明する。
[Experimental result]
Next, experimental results of simulation using the state estimation filter of FIG. 9 will be described.

この実験においては、自車1、先行車両6の車速、車間随離、及びカメラパラメータ等から、画像平面2b上における先行車両6の車幅Wvを計算し、これにα=1の正規雑音を付加したものを観測信号とした。   In this experiment, the vehicle width Wv of the preceding vehicle 6 on the image plane 2b is calculated from the vehicle speed of the own vehicle 1 and the preceding vehicle 6, the inter-vehicle separation, the camera parameters, and the like, and a normal noise of α = 1 is added thereto. The added signal was used as an observation signal.

そして、つぎの3つの走行パターンによって実験を行った。すなわち、第1の走行パターン(走行パターン1)は、車間距離Ldistが一定の場合であり、第2の走行パターン(走行パターン2)は、30秒([s])経過した後に加速する場合であり、第3の走行パターン(走行パターン3)は、30[s]経過後に減速する場合である。   And it experimented with the following three driving | running | working patterns. That is, the first travel pattern (travel pattern 1) is a case where the inter-vehicle distance Ldist is constant, and the second travel pattern (travel pattern 2) is a case where acceleration is performed after 30 seconds ([s]). Yes, the third travel pattern (travel pattern 3) is a case where the vehicle decelerates after 30 [s].

また、いずれの走行パターンの場合も、先行車両の車幅Wvは1600[mm]、自車速は30[km/h]の一定車速、H∞フィルタのフィルタリングのアルゴリズムにおける初期値はθ0|−1=1800[mm]、ξ0|−1=30[m]とした。 In any driving pattern, the vehicle width Wv of the preceding vehicle is 1600 [mm], the host vehicle speed is a constant vehicle speed of 30 [km / h], and the initial value in the filtering algorithm of the H∞ filter is θ 0 | − 1 = 1800 [mm] and ξ 0 | −1 = 30 [m].

(a)走行パターン1の結果
車間距離distが一定のまま走行した場合は、図11、図12の推定結果が得られた。図11は車間距離Ldistの結果を示し、図12は車幅Wvの結果を示す。
(A) Result of traveling pattern 1 When traveling with the inter-vehicle distance dist kept constant, the estimation results of FIGS. 11 and 12 were obtained. FIG. 11 shows the result of the inter-vehicle distance Ldist, and FIG. 12 shows the result of the vehicle width Wv.

なお、両図において、縦軸は距離、横軸は100ミリ秒単位の時間であり、実線aが真の値の特性、実線bが推定値の特性である。また、車間距離Ldistは6[m]に設定した。   In both figures, the vertical axis represents distance, the horizontal axis represents time in units of 100 milliseconds, a solid line a is a true value characteristic, and a solid line b is an estimated value characteristic. The inter-vehicle distance Ldist was set to 6 [m].

(b)走行パターン2
30[s]後に先行車両6が加速した場合は、図13、図14の推定結果が得られた。図13は車間距離Ldistの結果を示し、図14は車幅Wvの結果を示す。
(B) Travel pattern 2
When the preceding vehicle 6 accelerated after 30 [s], the estimation results of FIGS. 13 and 14 were obtained. FIG. 13 shows the result of the inter-vehicle distance Ldist, and FIG. 14 shows the result of the vehicle width Wv.

なお、両図においても、縦軸は距離、横軸は100ミリ秒単位の時間であり、車間距離Ldistは6[m]に設定した。   In both figures, the vertical axis represents distance, the horizontal axis represents time in units of 100 milliseconds, and the inter-vehicle distance Ldist is set to 6 [m].

そして、両図の実線aは真の値の特性、実線bは推定値の特性であり、波線cは比較のためにいわゆる拡張カルマンフィルタで推定した場合の特性である。   The solid line a in both figures is the true value characteristic, the solid line b is the estimated value characteristic, and the broken line c is the characteristic when estimated by a so-called extended Kalman filter for comparison.

(c)走行パターン3
30[s]経過後に先行車両6が減速した場合は、図15、図16の推定結果が得られた。図15は車間距離Ldistの結果を示し、図16は車幅Wvの結果を示す。
(C) Running pattern 3
When the preceding vehicle 6 decelerates after 30 [s], the estimation results of FIGS. 15 and 16 were obtained. FIG. 15 shows the result of the inter-vehicle distance Ldist, and FIG. 16 shows the result of the vehicle width Wv.

なお、両図においても、縦軸は距離、横軸は100ミリ秒単位の時間であり、車間距離Ldistは30[m]に設定した。   In both figures, the vertical axis represents distance, the horizontal axis represents time in units of 100 milliseconds, and the inter-vehicle distance Ldist was set to 30 [m].

そして、両図の実線aは真の値の特性、実線bは推定値の特性であり、波線cは比較のためにいわゆる拡張カルマンフィルタで推定した場合の特性である。   The solid line a in both figures is the true value characteristic, the solid line b is the estimated value characteristic, and the broken line c is the characteristic when estimated by a so-called extended Kalman filter for comparison.

以上の実験結果に基づき、実施形態の状態推定フィルタを用いた推定と拡張カルマンフィルタを用いた従来推定とでは、追従性に違いがあることが判明した。具体的には、例えば図13、図14から、システム動作開始直後における真値への収束が、従来推定よりも短時間で済むことが判明し、図13、図15から、加速、及び減速によって車間距離が変化を始めるときには、従来推定にみられる応答遅れがないことが判明した。   Based on the above experimental results, it has been found that there is a difference in followability between the estimation using the state estimation filter of the embodiment and the conventional estimation using the extended Kalman filter. Specifically, for example, from FIGS. 13 and 14, it has been found that the convergence to the true value immediately after the start of the system operation is shorter than the conventional estimation, and from FIGS. 13 and 15, acceleration and deceleration are performed. When the inter-vehicle distance starts to change, it has been found that there is no response delay found in conventional estimation.

さらに、従来推定より雑音に敏感であり、推定値に微小な変動しか生じないことも判明した。   Furthermore, it has been found that the estimation value is more sensitive to noise than the conventional estimation, and only a slight fluctuation occurs in the estimated value.

なお、よく知られているように、カルマンフィルタは、システム雑音、及び観測雑音の設定によってフィルタの追従特性を変化させることが可能であるが、それらのパラメータを調整しなければ、カルマンフィルタの特性をこの図9の状態推定フィルタを用いた良好な推定特性に近づけることは容易でなく、とくに、システム雑音、観測雑音等の状態を事前に知っておくことが難しい場合の車間距離Ldist、車幅Wvの推定については、H∞フィルタを用いた図9の状態推定フィルタのような精度の高い安定した推定は行えない。   As is well known, the Kalman filter can change the follow-up characteristics of the filter by setting system noise and observation noise. However, if these parameters are not adjusted, the characteristics of the Kalman filter are changed. It is not easy to approach the good estimation characteristics using the state estimation filter of FIG. 9, and in particular, when it is difficult to know the state of system noise, observation noise, etc. in advance, the inter-vehicle distance Ldist and the vehicle width Wv As for the estimation, a highly accurate and stable estimation like the state estimation filter of FIG. 9 using the H∞ filter cannot be performed.

そして、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。   The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention.

例えば、画像処理部3により、エッジヒストグラムによる先行車両認識アルゴリズムと異なるアルゴリズムで前記の観測位置、観測幅を検出してもよい。 For example, the image processing unit 3, the observed position of the at different algorithms between the preceding vehicle recognition algorithm by the edge histogram may detect the swath width.

そして、測定対象の自車前方の障害物は先行車両6に限られるものではなく、走行する物体、静止物体のいずれであってもよい。   The obstacle in front of the subject vehicle to be measured is not limited to the preceding vehicle 6, and may be either a traveling object or a stationary object.

つぎに、フィルタ演算部4の状態空間モデルΓ、Γの適応フィルタフィルタは、H∞フィルタと同等のデジタルフィルタ等で構成してもよい。 Next, the adaptive filter filters of the state space models Γ 1 and Γ 2 of the filter calculation unit 4 may be configured by a digital filter or the like equivalent to the H∞ filter.

そして、本発明の測定結果は、ACCや被害軽減自動ブレーキシステム等の自車1の種々の走行制御に用いることができるのは勿論である。   And the measurement result of this invention can be used for various driving | running | working control of the own vehicle 1, such as ACC and a damage reduction automatic brake system.

ところで、自車1の装備部品数を少なくするため、例えば図1の単眼カメラ2を追従走行制御等の他の制御のセンサに兼用する場合にも適用することができる。   By the way, in order to reduce the number of equipment parts of the own vehicle 1, for example, the present invention can be applied to the case where the monocular camera 2 of FIG. 1 is also used as a sensor for other control such as follow-up running control.

この発明の実施形態のブロック図である。1 is a block diagram of an embodiment of the present invention. 図1の座標系の関係説明図である。FIG. 2 is an explanatory diagram of the relationship of the coordinate system of FIG. 1. 図2の側面図である。FIG. 3 is a side view of FIG. 2. 図1の観測位置、観測幅の説明図である。It is explanatory drawing of the observation position of FIG. 1, and observation width. 図1の座標変換の説明図である。It is explanatory drawing of the coordinate transformation of FIG. 図1の単眼カメラの撮影図である。FIG. 2 is a shooting diagram of the monocular camera of FIG. 1. 図6の処理画像の説明図である。It is explanatory drawing of the process image of FIG. 図1のフィルタ演算部の状態空間モデルΓ、Γのブロック図である。FIG. 2 is a block diagram of state space models Γ 1 and Γ 2 of the filter operation unit in FIG. 1. 図8の状態空間モデルΓ、Γに即した図1のフィルタ演算部の状態推定フィルタのブロック図である。FIG. 9 is a block diagram of a state estimation filter of the filter operation unit of FIG. 1 in accordance with the state space models Γ 1 and Γ 2 of FIG. 8. 図1の処理説明用のフローチャートである。It is a flowchart for process description of FIG. 走行パターン1の車間距離の推定例の特性図である。It is a characteristic view of the example of estimation of the inter-vehicle distance of the running pattern 1. 走行パターン1の車幅の推定例の特性図である。It is a characteristic view of the example of estimation of the vehicle width of the running pattern 1. 走行パターン2の車間距離の推定例の特性図である。It is a characteristic view of the example of estimation of the inter-vehicle distance of the driving | running | working pattern 2. FIG. 走行パターン2の車幅の推定例の特性図である。FIG. 6 is a characteristic diagram of an example of estimating a vehicle width of a running pattern 2; 走行パターン3の車間距離の推定例の特性図である。It is a characteristic view of the example of estimation of the inter-vehicle distance of the running pattern 3. 走行パターン3の車幅の推定例の特性図である。It is a characteristic view of the example of estimation of the vehicle width of the driving pattern 3.

符号の説明Explanation of symbols

1 自車
2 単眼カメラ
3 画像処理部
4 フィルタ演算部
1 Car 2 Monocular Camera 3 Image Processing Unit 4 Filter Calculation Unit

Claims (6)

自車に単眼カメラを搭載し、
前記単眼カメラの自車前方の撮影画像の画像処理により、前記撮影画像上での先行車両等の自車前方の障害物の基準部の高さ方向の位置及び前記障害物の横幅を、観測位置及び観測幅として検出し、
前記観測位置を入力とする非線形状態空間モデルの適応フィルタのフィルタリングにより、前記観測位置及び前記単眼カメラの撮影条件に基いて自車から前記障害物までの距離を推定し
前記観測幅を入力とする線形状態空間モデルの適応フィルタのフィルタリングにより、該線形状態空間モデルの適応フィルタの観測行列の係数を前記非線形状態空間モデルの適応フィルタの前記距離の推定値により調整して前記横幅を推定し、
前記撮影画像から前記障害物の前記距離、前記横幅を同時に測定することを特徴とする障害物測定方法。
A monocular camera is installed in the vehicle,
By the image processing of the captured image in front of the vehicle of the monocular camera, the position in the height direction of the reference portion of the obstacle ahead of the vehicle such as the preceding vehicle on the captured image and the lateral width of the obstacle are observed positions. And detected as an observation width ,
By filtering the adaptive filter of the nonlinear state space model with the observation position as input, the distance from the own vehicle to the obstacle is estimated based on the observation position and the photographing condition of the monocular camera ,
By filtering the adaptive filter of the linear state space model with the observation width as an input, the coefficient of the observation matrix of the adaptive filter of the linear state space model is adjusted by the estimated value of the distance of the adaptive filter of the nonlinear state space model. Estimating the width,
Wherein the distance from the captured image the obstacle, obstacle measuring method characterized by measuring the width at the same time.
障害物の基準部が、単眼カメラの撮影画像の水平、垂直のエッジヒストグラムから検出した前記障害物の下端中央部であり、かつ、前記障害物の横幅を、前記両エッジヒストグラムのピークから検出することを特徴とする請求項1記載の障害物測定方法。 Reference portion of the obstacle, horizontal shot image of a monocular camera, lower central portion der of the obstacle detected from the vertical edge histogram is, and the width of the obstacle, detecting the peak of the both edges histogram obstacle measuring method according to claim 1, wherein to Rukoto. 適応フィルタがH∞フィルタであることを特徴とする請求項1または2に記載の障害物測定方法。 The obstacle measuring method according to claim 1 , wherein the adaptive filter is an H∞ filter . 自車に搭載された単眼カメラと、A monocular camera mounted on the vehicle,
前記単眼カメラの自車前方の撮影画像を画像処理し、前記撮影画像上での先行車両等の自車前方の障害物の基準部の高さ方向の位置及び前記障害物の横幅を、観測位置及び観測幅として測定する画像処理手段と、The captured image of the front of the vehicle of the monocular camera is subjected to image processing, and the position in the height direction of the reference portion of the obstacle ahead of the vehicle such as the preceding vehicle on the captured image and the width of the obstacle are observed positions. And image processing means for measuring as an observation width,
前記観測位置を入力とする非線形状態空間モデルの適応フィルタのフィルタリングにより、前記観測位置及び前記単眼カメラの撮影条件に基いて自車から前記障害物までの距離を推定し、かつ、前記観測幅を入力とする線形状態空間モデルの適応フィルタのフィルタリングにより、該線形状態空間モデルの適応フィルタの観測行列の係数を前記非線形状態空間モデルの適応フィルタの前記距離の推定値により調整して前記横幅を推定し、前記障害物の前記距離、前記横幅を同時に測定するフィルタ演算手段とを備えたことを特徴とする障害物測定装置。By filtering the adaptive filter of the nonlinear state space model with the observation position as an input, the distance from the own vehicle to the obstacle is estimated based on the observation position and the photographing conditions of the monocular camera, and the observation width is By filtering the adaptive filter of the linear state space model as an input, the coefficient of the observation matrix of the adaptive filter of the linear state space model is adjusted by the estimated value of the distance of the adaptive filter of the nonlinear state space model to estimate the lateral width And an obstacle measuring device comprising a filter calculating means for simultaneously measuring the distance and the width of the obstacle.
画像処理手段により、単眼カメラの撮影画像の水平、垂直のエッジヒストグラムから、障害物の基準部として、前記障害物の下端中央部を検出し、かつ、前記両エッジヒストグラムのピークから、前記障害物の横幅を検出するようにしたことを特徴とする請求項4に記載の障害物測定装置。The image processing means detects the lower end center of the obstacle as a reference part of the obstacle from the horizontal and vertical edge histograms of the captured image of the monocular camera, and the obstacle from the peak of the both edge histograms. The obstacle measuring device according to claim 4, wherein the width of the obstacle is detected. 適応フィルタがH∞フィルタであることを特徴とする請求項4または5に記載の障害物測定装置。 The obstacle measuring apparatus according to claim 4 or 5 , wherein the adaptive filter is an H∞ filter .
JP2004208116A 2004-07-15 2004-07-15 Obstacle measuring method and obstacle measuring device Expired - Fee Related JP4502733B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004208116A JP4502733B2 (en) 2004-07-15 2004-07-15 Obstacle measuring method and obstacle measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004208116A JP4502733B2 (en) 2004-07-15 2004-07-15 Obstacle measuring method and obstacle measuring device

Publications (2)

Publication Number Publication Date
JP2006031313A JP2006031313A (en) 2006-02-02
JP4502733B2 true JP4502733B2 (en) 2010-07-14

Family

ID=35897592

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004208116A Expired - Fee Related JP4502733B2 (en) 2004-07-15 2004-07-15 Obstacle measuring method and obstacle measuring device

Country Status (1)

Country Link
JP (1) JP4502733B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10713507B2 (en) 2017-06-22 2020-07-14 Kabushiki Kaisha Toshiba Object detecting apparatus, object detecting method, and computer program product

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009169776A (en) * 2008-01-18 2009-07-30 Hitachi Ltd Detector
JP4839330B2 (en) * 2008-02-29 2011-12-21 東芝テリー株式会社 Image processing apparatus and image processing program
WO2011055418A1 (en) 2009-11-09 2011-05-12 トヨタ自動車株式会社 Distance measuring device and distance measuring method
JP6192157B2 (en) * 2013-04-17 2017-09-06 日本放送協会 Measuring device and program thereof
US10442355B2 (en) 2014-09-17 2019-10-15 Intel Corporation Object visualization in bowl-shaped imaging systems
US9437001B2 (en) 2014-09-18 2016-09-06 Intel Corporation Tracking objects in bowl-shaped imaging systems
KR102463449B1 (en) * 2016-12-15 2022-11-04 현대자동차주식회사 Method and apparatus for calculating vehicle width of vehicle of adjacent lane
JP6875940B2 (en) * 2017-06-15 2021-05-26 株式会社Subaru Mutual distance calculation device
SG11202108455PA (en) * 2019-02-28 2021-09-29 Shenzhen Sensetime Technology Co Ltd Vehicle intelligent driving control method and apparatus, electronic device and storage medium
CN110412982B (en) * 2019-07-31 2022-07-15 长沙理工大学 Robot path robustness planning method based on monocular camera ranging uncertainty
CN111027381A (en) * 2019-11-06 2020-04-17 杭州飞步科技有限公司 Method, device, equipment and storage medium for recognizing obstacle by monocular camera

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266160A (en) * 2000-03-22 2001-09-28 Toyota Motor Corp Method and device for recognizing periphery

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104160B2 (en) * 1986-06-30 1995-11-13 スズキ株式会社 Inter-vehicle distance detection method
JP3430641B2 (en) * 1994-06-10 2003-07-28 日産自動車株式会社 Inter-vehicle distance detection device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001266160A (en) * 2000-03-22 2001-09-28 Toyota Motor Corp Method and device for recognizing periphery

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10713507B2 (en) 2017-06-22 2020-07-14 Kabushiki Kaisha Toshiba Object detecting apparatus, object detecting method, and computer program product

Also Published As

Publication number Publication date
JP2006031313A (en) 2006-02-02

Similar Documents

Publication Publication Date Title
EP2336999B1 (en) Device for detecting/judging road boundary
KR101411668B1 (en) A calibration apparatus, a distance measurement system, a calibration method, and a computer readable medium recording a calibration program
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
EP2924655B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
JP7206583B2 (en) Information processing device, imaging device, device control system, moving object, information processing method and program
CN106447730B (en) Parameter estimation method and device and electronic equipment
US9513108B2 (en) Sensor system for determining distance information based on stereoscopic images
JP4502733B2 (en) Obstacle measuring method and obstacle measuring device
JP6816401B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6769477B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and program
JP6936098B2 (en) Object estimation device
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP6458651B2 (en) Road marking detection device and road marking detection method
US20190152487A1 (en) Road surface estimation device, vehicle control device, and road surface estimation method
WO2014002692A1 (en) Stereo camera
EP2913998B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
EP2913999A1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, disparity value deriving method, and computer-readable storage medium
KR20220027359A (en) Method for adjusting grid interval of height map for autonomous driving
JP3951734B2 (en) Vehicle external recognition device
EP3540643A1 (en) Image processing apparatus and image processing method
CN113643355A (en) Method and system for detecting position and orientation of target vehicle and storage medium
JP6812701B2 (en) Image processing equipment, mobile device control system, image processing method, and program
JP6561688B2 (en) DETECTING DEVICE, DETECTING METHOD, IMAGING DEVICE, DEVICE CONTROL SYSTEM, AND PROGRAM
EP2919191B1 (en) Disparity value deriving device, equipment control system, movable apparatus, robot, and disparity value producing method
KR102565603B1 (en) Performance evaluation apparatus and method for autonomous emergency braking system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100302

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100420

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130430

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150430

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees