JP2023053681A - Distance estimation apparatus - Google Patents
Distance estimation apparatus Download PDFInfo
- Publication number
- JP2023053681A JP2023053681A JP2021162865A JP2021162865A JP2023053681A JP 2023053681 A JP2023053681 A JP 2023053681A JP 2021162865 A JP2021162865 A JP 2021162865A JP 2021162865 A JP2021162865 A JP 2021162865A JP 2023053681 A JP2023053681 A JP 2023053681A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- distance
- image
- preceding vehicle
- width
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像に表された物体までの距離を推定する距離推定装置に関する。 The present invention relates to a distance estimation device for estimating a distance to an object represented in an image.
車両を自動運転制御するために、あるいは、車両のドライバの運転を支援するために、車両から、その周囲の物体までの距離を推定することが求められる。そこで、自車両に搭載された撮像手段により生成された、自車両の前方が表された画像における、自車両の前方の物体の幅と、その物体の幅の実際の値とに基づいて、自車両とその物体との距離を検出する技術が提案されている(特許文献1を参照)。 BACKGROUND ART In order to automatically control a vehicle or assist a driver in driving the vehicle, it is required to estimate the distance from the vehicle to objects in its surroundings. Therefore, based on the width of an object in front of the own vehicle and the actual value of the width of the object in an image representing the front of the own vehicle generated by an imaging means mounted on the own vehicle, A technique for detecting the distance between a vehicle and its object has been proposed (see Patent Document 1).
上記の技術において、画像上での物体の幅を求めるためには、画像からその物体が表されている領域(以下、物体領域と呼ぶ)を検出する必要がある。そしてその物体領域の水平方向の幅が、その物体の幅として推定される。しかし、自車両からの距離を推定する物体が、自車両の前方を走行する他の車両である場合、他の車両の向きが、自車両の進行方向に対して傾いていることがある。このような場合、画像上の物体領域には、他の車両の背面だけでなく、他の車両の側面も含まれることがある。その結果として、物体領域の横幅が画像上での他の車両の背面の横幅よりも広くなるために、自車両から他の車両までの距離の推定精度が低下する。特に、自車両から他の車両までの距離が遠くなるほど、画像上での他の車両のサイズが小さくなり、他の車両の背面だけを正確に識別することが困難となる。そのため、自車両から他の車両までの距離が遠くなるほど、自車両から他の車両までの距離の推定精度が低下するおそれがある。 In the above technique, in order to obtain the width of the object on the image, it is necessary to detect the area where the object is represented (hereinafter referred to as the object area) from the image. The horizontal width of the object region is then estimated as the width of the object. However, when the object whose distance from the own vehicle is estimated is another vehicle traveling in front of the own vehicle, the other vehicle may be tilted with respect to the traveling direction of the own vehicle. In such cases, the object area on the image may include not only the back of the other vehicle, but also the sides of the other vehicle. As a result, the width of the object region becomes wider than the width of the back surface of the other vehicle on the image, so the accuracy of estimating the distance from the own vehicle to the other vehicle decreases. In particular, as the distance from the own vehicle to the other vehicle increases, the size of the other vehicle on the image becomes smaller, making it difficult to accurately identify only the back surface of the other vehicle. Therefore, as the distance from one's own vehicle to another vehicle increases, the accuracy of estimating the distance from one's own vehicle to another vehicle may decrease.
そこで、本発明は、自車両と自車両の周囲を走行する他の車両との間の距離の推定精度を向上できる距離推定装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a distance estimating device capable of improving the accuracy of estimating the distance between the own vehicle and other vehicles traveling around the own vehicle.
一つの実施形態によれば、距離推定装置が提供される。この距離推定装置は、車両に搭載された撮像部により生成された車両の周囲の領域を表す画像を取得する度に、その画像を識別器に入力することで、その画像から、車両の周囲を走行する他の車両が表された物体領域及び物体領域中で他の車両の側面と前面または背面との境界を検出するとともに他の車両の車種を識別する検出部と、車両に対する他の車両の相対的な運動が所定の運動モデルに従うと仮定して、画像が取得される度に検出された、その画像上での物体領域における他の車両の側面と前面または背面との境界の位置と、その画像上での他の車両の前面または背面の幅及び側面の長さと、他の車両の車種に対応する、実空間における他の車両の基準車幅及び基準車長と、その画像の生成時の車両の速度及びヨーレートとを所定の予測フィルタに入力することで、車両に対する他の車両の相対的な位置及び姿勢の変化を追跡することで、最新の画像が生成されたときの車両から他の車両までの距離を推定する距離推定部とを有する。 According to one embodiment, a distance estimation device is provided. Each time an image representing the area around the vehicle generated by an imaging unit mounted on the vehicle is acquired, the distance estimation device inputs the image into the classifier, thereby estimating the surroundings of the vehicle from the image. an object area in which another vehicle is represented and a detection unit that detects the boundary between the side surface and the front or rear surface of the other vehicle in the object area and identifies the vehicle type of the other vehicle; the position of the boundary between the side and the front or back of the other vehicle in the object region on the image, detected each time the image is acquired, assuming that the relative motion follows a predetermined motion model; Width and side length of the other vehicle on the image, reference vehicle width and reference vehicle length of the other vehicle in real space corresponding to the vehicle type of the other vehicle, and when the image is generated By inputting the vehicle speed and yaw rate of the vehicle into a predetermined prediction filter, by tracking changes in the relative position and attitude of the other vehicle with respect to the vehicle, the vehicle from the time when the latest image was generated to the other vehicle and a distance estimator for estimating the distance to the vehicle.
本発明に係る距離推定装置は、自車両と自車両の周囲を走行する他の車両との間の距離の推定精度を向上できるという効果を奏する。 The distance estimating device according to the present invention has the effect of improving the accuracy of estimating the distance between the own vehicle and other vehicles traveling around the own vehicle.
以下、図を参照しつつ、距離推定装置について説明する。この距離推定装置は、自車両に搭載された撮像部により、時系列に得られる一連の画像から検出される、自車両の周囲を走行する他の車両までの距離を推定する。その際、この距離推定装置は、自車両に対する他の車両の相対的な運動が所定の運動モデルに従うと仮定して、予測フィルタを用いて自車両に対する他の車両の相対的な位置及び姿勢の変化を追跡する。そしてこの距離推定装置は、その追跡結果を利用して、各画像生成時における自車両から他の車両までの距離を推定する。 The distance estimation device will be described below with reference to the drawings. This distance estimating device estimates the distance to other vehicles traveling around the own vehicle, which is detected from a series of images obtained in time series by an imaging unit mounted on the own vehicle. At that time, this distance estimating device uses a prediction filter to estimate the position and attitude of the other vehicle relative to the own vehicle, assuming that the relative motion of the other vehicle with respect to the own vehicle follows a predetermined motion model. Track changes. This distance estimating device uses the tracking result to estimate the distance from the own vehicle to the other vehicle when each image is generated.
以下では、距離推定装置を、車両制御システムに適用した例について説明する。この例では、距離推定装置は、自車両に搭載されたカメラにより得られた画像に対して距離推定処理を実行することで、自車両の前方を走行する他の車両(以下、説明の便宜上、先行車両と呼ぶ)を検出するとともに、検出された先行車両までの距離を推定する。そして、その検出結果及び検出された先行車両までの距離の推定値が、自車両の運転制御に利用される。なお、以下の実施形態では、自車両に搭載されたカメラから先行車両までの距離を、自車両から先行車両までの距離とする。 An example in which the distance estimation device is applied to a vehicle control system will be described below. In this example, the distance estimating device performs distance estimation processing on an image obtained by a camera mounted on the own vehicle, thereby estimating other vehicles traveling in front of the own vehicle (hereinafter, for convenience of explanation, preceding vehicle) is detected, and the distance to the detected preceding vehicle is estimated. Then, the detection result and the detected estimated value of the distance to the preceding vehicle are used for driving control of the host vehicle. In the following embodiments, the distance from the camera mounted on the own vehicle to the preceding vehicle is defined as the distance from the own vehicle to the preceding vehicle.
図1は、距離推定装置が実装される車両制御システムの概略構成図である。また図2は、距離推定装置の一例である電子制御装置のハードウェア構成図である。本実施形態では、車両10(すなわち、自車両)に搭載され、かつ、車両10を制御する車両制御システム1は、車両10の周囲を撮影するためのカメラ2と、距離推定装置の一例である電子制御装置(ECU)3とを有する。カメラ2とECU3とは、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。さらに、ECU3には、車両10の車速を測定する車速センサ4及び車両10のヨーレートを測定するヨーレートセンサ5が接続される。
FIG. 1 is a schematic configuration diagram of a vehicle control system in which a distance estimation device is installed. Further, FIG. 2 is a hardware configuration diagram of an electronic control device, which is an example of the distance estimation device. In this embodiment, a
カメラ2は、撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。カメラ2は、車両10の前方を向くように、例えば、車両10の車室内に取り付けられる。そしてカメラ2は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両10の前方領域を撮影し、その前方領域が写った画像を生成する。カメラ2により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、車両10には、撮影方向または焦点距離が異なる複数のカメラが設けられてもよい。
The
カメラ2は、画像を生成する度に、その生成した画像及び撮影時刻(すなわち、画像の生成時刻)を、車内ネットワークを介してECU3へ出力する。
Each time the
ECU3は、車両10を制御する。本実施形態では、ECU3は、カメラ2により得られた時系列の一連の画像から検出された先行車両までの距離に基づいて車両10を自動運転するよう、車両10を制御する。そのために、ECU3は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
The ECU 3 controls the
通信インターフェース21は、通信部の一例であり、ECU3を車内ネットワークに接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワークを介して、カメラ2と接続される。そして通信インターフェース21は、カメラ2から画像を受信する度に、受信した画像をプロセッサ23へわたす。さらに、通信インターフェース21は、車速センサ4から、車両10の速度の測定値を受信する度に、その測定値をプロセッサ23へわたす。さらに、通信インターフェース21は、ヨーレートセンサ5から、車両10のヨーレートの測定値を受信する度に、その測定値をプロセッサ23へわたす。
The
メモリ22は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。なお、メモリ22は、後述するようにプロセッサ23が複数の演算ユニットを有する場合に、演算ユニットごとに専用のメモリ回路を有していてもよい。そしてメモリ22は、ECU3のプロセッサ23により実行される距離推定処理において使用される各種のデータを記憶する。メモリ22は、そのようなデータとして、例えば、カメラ2の焦点距離、撮影方向及び設置高さといったカメラ2に関する情報を表すパラメータ、先行車両の検出で利用される識別器を特定するための各種パラメータなどを記憶する。また、メモリ22は、距離推定の際に利用される予測フィルタで利用される各種の情報を記憶する。例えば、メモリ22は、車種ごとに、その車種の車両の基準となる車幅(以下、基準車幅と呼ぶ)及びその車種の車両の基準となる車長(以下、基準車長と呼ぶ)を記憶する。また、メモリ22は、予測フィルタにおける状態変数の更新の際に用いられるプロセスノイズを記憶する。さらにまた、メモリ22は、カメラ2から受信した画像をその撮影時刻とともに一定期間記憶する。さらにまた、メモリ22は、車両10の速度及びヨーレートの測定値を一定期間記憶する。さらにまた、メモリ22は、検出された先行車両が追跡されている期間中に得られた各画像における、先行車両が表された物体領域を表す情報といった、距離推定処理の途中で生成される各種のデータを一定期間記憶する。さらにまた、メモリ22は、地図情報といった車両10の走行制御に利用される情報を記憶してもよい。
The
プロセッサ23は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、車両10が走行している間、カメラ2から画像を受信する度に、受信した画像に対して距離推定処理を含む車両制御処理を実行する。そしてプロセッサ23は、検出された先行車両までの推定距離に基づいて、車両10を自動運転するよう、車両10を制御する。
The
図3は、距離推定処理を含む車両制御処理に関する、ECU3のプロセッサ23の機能ブロック図である。プロセッサ23は、検出部31と、距離推定部32と、車両制御部33とを有する。プロセッサ23が有するこれらの各部は、例えば、プロセッサ23上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ23が有するこれらの各部は、プロセッサ23に設けられる、専用の演算回路であってもよい。また、プロセッサ23が有するこれらの各部のうち、検出部31及び距離推定部32が、距離推定処理を実行する。なお、車両10に複数のカメラが設けられる場合には、プロセッサ23は、カメラごとに、そのカメラにより得られた画像に基づいて距離推定処理を実行してもよい。
FIG. 3 is a functional block diagram of the
検出部31は、カメラ2から画像を受信する度に、受信した最新の画像を識別器に入力する。これにより、検出部31は、その画像に表されている先行車両を含む物体領域(例えば、先行車両の外接矩形)を検出するとともに、その先行車両の車種、及び、物体領域中でのその先行車両の背面が表されている部分領域を検出する。すなわち、識別器は、物体領域内で、先行車両の側面と背面の境界となる位置、及び、その境界に対して左右何れに先行車両の背面が表されているかを表す情報を出力する。なお、先行車両の車種(以下、単に車種と呼ぶことがある)は、車両のサイズに関する観点で区別されればよく、例えば、車種は、普通乗用車、トラック、バスなどとすることができる。
Each time an image is received from the
検出部31は、識別器として、画像に表された先行車両を含む物体領域を検出し、車種を識別し、かつ、背面と側面の境界を検出するように予め学習された、いわゆるディープニューラルネットワーク(DNN)を利用する。検出部31が識別器として利用するDNNは、例えば、コンボリューショナルニューラルネットワーク(以下、単にCNNと呼ぶ)型のアーキテクチャを持つDNNとすることができる。すなわち、検出部31が識別器として利用するDNNは、入力側から順に、畳み込み演算を実行する複数の畳み込み層を有するとともに、それら複数の畳み込み層から出力される特徴マップに対して全結合演算を実行する1以上の全結合層を有する。さらに、このDNNは、各畳み込み層の間、畳み込み層と全結合層の間、及び全結合層間において、ReLUなどの活性化演算を行う活性化層を有する。また、このDNNは、何れかの二つの畳み込み層の間に、プーリング演算を実行するプーリング層を有してもよい。さらに、このDNNは、全結合層からの出力に対してsoftmax演算またはシグモイド演算などを実行することで、物体領域の検出結果、車種の識別結果及び背面が表された部分領域の検出結果を出力する1以上の出力層を有する。
The
このDNNは、様々な向きの車両が表された教師画像を多数用いて、例えば、誤差逆伝搬法といった学習手法に従って予め学習される。検出部31は、このように学習されたDNNを利用することで、画像から先行車両が表された物体領域を検出できるとともに、車種を識別し、かつ、先行車両の背面が表された部分領域を検出できる。
This DNN is trained in advance according to a learning method such as error backpropagation, using a large number of teacher images representing vehicles facing various directions. By using the DNN learned in this way, the
検出部31は、検出した個々の物体領域について、画像上での位置及び範囲と、物体領域に含まれる先行車両の車種と、先行車両の背面が表された部分領域及び背面と側面の境界の画像上での位置とを、距離推定部32に通知するとともに、メモリ22に記憶する。
For each detected object area, the
距離推定部32は、車両10に対する先行車両の相対的な運動が所定の運動モデルに従うと仮定して、車両10に対する先行車両の相対的な位置及び姿勢の変化を所定の予測フィルタを用いて追跡する。距離推定部32は、その追跡結果に基づいて、追跡中における各画像生成時の車両10から先行車両までの距離を推定する。
The
車両10の前方を複数の車両が走行している場合、カメラ2により生成された画像上に複数の先行車両が表されることになる。そこで、距離推定部32は、個々の先行車両を追跡するために、カメラ2により生成された時系列の一連の画像において、同じ先行車両が表された物体領域同士を対応付ける。
If multiple vehicles are traveling in front of the
距離推定部32は、例えば、Lucas-Kanade法あるいはKLT法といった、オプティカルフローに基づく追跡処理を、最新の画像における着目する物体領域及び過去の画像における物体領域に対して適用する。これにより、距離推定部32は、時系列の一連の画像にわたって同じ先行車両が表された物体領域同士を対応付ける。そのため、距離推定部32は、例えば、最新の画像における着目する物体領域に対してSIFTあるいはHarrisオペレータといった特徴点抽出用のフィルタを適用することで、その物体領域から複数の特徴点を抽出する。そして距離推定部32は、複数の特徴点のそれぞれについて、過去の画像における物体領域における対応する点を、適用される追跡手法に従って特定することで、オプティカルフローを算出すればよい。あるいは、距離推定部32は、画像から検出された移動物体の追跡に適用される他の追跡手法を、最新の画像における着目する物体領域及び過去の画像における物体領域に対して適用することで、同じ先行車両が表された物体領域同士を対応付けてもよい。
The
距離推定部32は、最新の画像における、先行車両が表された個々の物体領域を、過去の画像から検出された物体領域と対応付けると、適用される予測フィルタの手法に従って、その物体領域に表された先行車両を追跡する。そして距離推定部32は、その追跡結果に基づいて、車両10からその先行車両までの距離を推定する。距離推定部32は、個々の先行車両に対して同じ処理を実行すればよいので、以下では、一つの先行車両に対する処理について説明する。
The
本実施形態では、距離推定部32は、予測フィルタとしてKalman Filterを利用することで先行車両を追跡して、車両10からその先行車両までの距離を推定する。
In this embodiment, the
図4は、予測フィルタにおける状態変数を説明するための、車両10と先行車両との相対的な位置関係の一例を示す図である。図4に示されるように、車両10と先行車両400との相対的な位置関係は、以下の物理値により表される。
・車両10の進行方向に沿った、車両10(の先端)から先行車両400の背面の中心までの距離(以下、相対縦距離)。なお、相対縦距離が推定対象となる車両10と先行車両400間の距離である。
・車両10の進行方向と直交する方向に沿った、車両10の中心から先行車両400の背面の中心までの距離(以下、相対横距離)
・車両10の進行方向に対する、先行車両400の進行方向がなす角度(以下、相対向き)
・先行車両400の車幅
・先行車両400の車長
FIG. 4 is a diagram showing an example of the relative positional relationship between the
The distance from (the tip of) the
The distance from the center of the
The angle formed by the traveling direction of the preceding
・Width of preceding
これらの物理値に応じて、画像上での先行車両400の見え方が変化する。そのため、これらの物理値と、これらの物理値のうち、時間経過とともに変化するもの(先行車両400の車幅及び車長以外)の速度成分が、予測フィルタにおける状態変数となる。
The appearance of preceding
距離推定部32は、先行車両を追跡している間にカメラ2から画像を取得する度に、推定距離の観測値を更新するmeasurement updateと、次の時刻(この例では、次の画像生成時)における推定距離の予測値を更新するprocess updateとを実行する。これにより、各状態変数が更新される。そして距離推定部32は、Kalman Filterによる予測処理に従って、先行車両を追跡している期間中の各画像生成時における先行車両までの距離を最小平均二乗誤差推定(MMSE)する。
The
一般に、車両10に対する、先行車両の相対速度及び相対的な位置変化の方向は、急激には変化しない。そこで、距離推定部32は、車両10に対する先行車両の相対的な運動は等速直線運動モデルに従うと仮定する。したがって、距離推定部32は、process updateにおける状態方程式を以下のように定義する。
相対縦距離(予測値)=前回の相対縦距離×車幅変化率×ヨーレート変化率+(先行車両の縦速度-車両10の縦速度)×撮影周期+プロセスノイズ
相対横距離(予測値)=前回の相対横距離×車幅変化率×ヨーレート変化率+(先行車両の横速度-車両10の横速度)×撮影周期+プロセスノイズ
相対向き(予測値)=前回の相対向き+(先行車両のヨーレート-車両10の最新の画像取得時のヨーレート)×撮影周期+プロセスノイズ
先行車両の車幅(予測値)=先行車両の前回の車幅
先行車両の車長(予測値)=先行車両の前回の車長
In general, the direction of relative velocity and relative position change of the preceding vehicle with respect to
Relative longitudinal distance (predicted value) = Previous relative longitudinal distance x Vehicle width change rate x Yaw rate change rate + (Longitudinal speed of preceding vehicle - Longitudinal speed of vehicle 10) x Shooting cycle + Process noise Relative lateral distance (predicted value) = Previous relative lateral distance x Vehicle width change rate x Yaw rate change rate + (Lateral speed of preceding vehicle - Lateral speed of vehicle 10) × Imaging cycle + Process noise Relative orientation (predicted value) = Previous relative orientation + (Preceding vehicle yaw rate - yaw rate of the
ここで、車幅変化率及びヨーレート変化率は次式で定義される。
車幅変化率=先行車両の最新の車幅/先行車両の前回の車幅
ヨーレート変化率=最新の画像生成時の車両10のヨーレート/前回の画像生成時の車両10のヨーレート
Here, the vehicle width change rate and the yaw rate change rate are defined by the following equations.
Vehicle width change rate=Latest vehicle width of preceding vehicle/Previous vehicle width of preceding vehicle Yaw rate change rate=Yaw rate of
先行車両の車幅及び車長自体は、本来、一定の値であり、時間経過とともに変化する値ではない。しかし、詳細は後述するように、先行車両の車幅及び車長として、先行車両の車種の識別結果に応じた基準車幅及び基準車長が用いられる。そのため、その車種の識別結果が先行車用の追跡中に得られた画像間で変化すると、状態方程式上では、先行車長の車幅及び車長もその追跡中において変化することとなる。そのため、状態変数の一つとして、先行車両の車幅及び車長も含まれる。 The vehicle width and vehicle length of the preceding vehicle are essentially constant values, not values that change over time. However, as will be described later in detail, as the vehicle width and vehicle length of the preceding vehicle, a reference vehicle width and a reference vehicle length corresponding to the identification result of the vehicle type of the preceding vehicle are used. Therefore, if the identification result of the vehicle type changes between the images obtained during the tracking of the preceding vehicle, the vehicle width and length of the preceding vehicle length will also change during the tracking on the state equation. Therefore, the vehicle width and vehicle length of the preceding vehicle are also included as one of the state variables.
また、これらの式において、車両10のヨーレート、車両10の縦速度及び横速度が、車両10に搭載された車速センサ4及びヨーレートセンサ5による測定値から求められ、制御入力として用いられる。それ以外の変数は、上述したように状態変数である。
In these equations, the yaw rate of the
さらに、プロセスノイズは、先行車両の挙動または車両10自体の挙動の不確実性を表し、例えば、正規分布で表される。本実施形態では、プロセスノイズは、車両10に対する先行車両の相対加速度の絶対値が所定の値(例えば、0.3G)で変化した場合でも状態方程式が対応できるように設定される。
Furthermore, the process noise represents the uncertainty of the behavior of the preceding vehicle or the behavior of the
また、距離推定部32は、measurement updateを実行することで、相対縦距離を更新する。measurement updateでは、距離推定部32は、最新の画像からの先行車両の検出結果、すなわち、物体領域中での先行車両の側面の長さ及び背面の幅、先行車両の車種及び画像上の物体領域の位置を利用する。なお、物体領域中での先行車両の側面の長さは、物体領域内の先行車両の側面と背面の境界位置から、先行車両の側面が表されている方の物体領域の一端までの画素数で表される。また、物体領域中での先行車両の背面の幅は、物体領域内の先行車両の側面と背面の境界位置から、先行車両の背面が表されている方の物体領域の他端までの画素数で表される。
Also, the
図5は、measurement updateにおける、相対縦距離の算出の概要を説明する図である。先行車両500は、車両10の進行方向に対して角度θの方向に位置している。また、画像において、先行車両500を含む物体領域において、先行車両500の背面の幅がx1画素であり、先行車両500の側面の長さがx2画素であるとする。この場合、先行車両500の背面に対する法線方向からその背面が撮影されたと仮定したときの、画像上での先行車両500の車幅をy画素とすると、画像上での車幅yは次式で表される。
y=sqrt[(x1)2+(x2/α)2]*cosθ
ここで、αは、先行車両500のアスペクト比であり、先行車両500の車幅に対する車長の比で表される(すなわち、α=車長/車幅)。距離推定部32は、最新の画像から検出された先行車両の車種に応じた基準車幅を、先行車両の車幅とすることができる。同様に、距離推定部32は、最新の画像から検出された先行車両の車種に応じた基準車長を、先行車両の車長とすることができる。したがって、距離推定部32は、識別された先行車両の車種に応じた基準車幅及び基準車長をメモリ22から読み込んで、上記の式において使用すればよい。さらに、角度θは、画像上での先行車両500の位置に対応している。そこで、距離推定部32は、最新の画像上で先行車両500が表された物体領域において、先行車両500の背面と側面の境界となる画素に相当する、カメラ2からの方位を、角度θとすることができる。なお、上記の式の導出において、カメラ2から先行車両500の背面と側面の境界へ向かう方向と直交する線501に対して、カメラ2から、物体領域の水平方向の一端に対応する先行車両500の前端へ向かう方向が直交していると近似される。同様に、線501に対して、カメラ2から、物体領域の水平方向の他端に対応する、先行車両500の車両10から遠い方の背面の端部へ向かう方向が直交していると近似される。
FIG. 5 is a diagram explaining an outline of calculation of the relative vertical distance in measurement update. The preceding
y=sqrt[(x1) 2 +(x2/α) 2 ]*cosθ
Here, α is the aspect ratio of preceding
画像上での先行車両500の車幅yが算出されると、距離推定部32は、ピンホールモデルに従って導出される次式により、相対縦距離及び相対横距離の観測値を算出する。
相対縦距離 = 実空間における先行車両の車幅w×カメラ2の焦点距離(カメラ2の画素サイズ基準)fp/画像上での先行車両の車幅y
相対横距離 = 相対縦距離×tanθ
After calculating the vehicle width y of the preceding
Relative longitudinal distance = Width of preceding vehicle in real space w × Focal length of camera 2 (based on pixel size of camera 2) fp / Width of preceding vehicle in image y
Relative horizontal distance = Relative vertical distance x tanθ
上記のように、実空間における先行車両の車幅wとして、最新の画像から検出された先行車両の車種に応じた基準車幅が用いられればよい。また、カメラ2の焦点距離をカメラ2の画素サイズで表した値fpは、メモリ22に予め記憶される。
As described above, as the vehicle width w of the preceding vehicle in the real space, the reference vehicle width corresponding to the vehicle type of the preceding vehicle detected from the latest image may be used. A value fp representing the focal length of the
距離推定部32は、上記のように算出された相対縦距離及び相対横距離の観測値、及び、最新の画像から検出された先行車両の車種の基準車幅及び基準車長に基づく先行車両の車幅及び車長の観測値に基づいて、対応する状態変数を更新すればよい。また、距離推定部32は、これらの状態変数の分布の標準偏差を観測誤差として、観測誤差の共分散及びKalman Gainを求めればよい。
The
上記のように、距離推定部32は、measurement updateとprocess updateとを、先行車両を追跡している間に得られた画像ごとに繰り返すことで、先行車両までの距離を正確に推定できる。
As described above, the
距離推定部32は、追跡中の各先行車両について、その追跡中における各画像生成時の状態変数の組を、車両制御部33へ通知する。
The
車両制御部33は、追跡中の各先行車両について、その追跡中における各画像生成時の状態変数の組に基づいて、先行車両と車両10とが衝突しないように車両10の走行を制御する。例えば、車両制御部33は、追跡中の各先行車両の何れかに対して、所定時間先までの期間において、予測された相対縦距離が所定の縦距離閾値以下となり、かつ、予測された相対横距離が所定の横距離閾値以下になると、車両10を減速する。一方、車両制御部33は、追跡中の各先行車両の何れについても、所定時間先までの期間において、予測された相対縦距離が縦距離閾値よりも大きいか、または、予測された相対横距離が横距離閾値よりも大きい場合、現在の車速を維持するよう車両10を制御する。さらに、車両制御部33は、車両10が現在走行中の車線を維持するように、車両10を制御する。なお、車両制御部33は、上記の状態方程式において、撮影周期基準で算出される個々の値を、現時刻から所定時間先までの期間内の個々の時間までの長さ基準の値とすることでその個々の時間における相対縦距離及び相対横距離を予測することができる。
For each preceding vehicle being tracked, the
図6は、プロセッサ23により実行される、距離推定処理を含む車両制御処理の動作フローチャートである。プロセッサ23は、カメラ2から画像が受信する度に、図6に示される動作フローチャートに従って車両制御処理を実行する。なお、以下に示される動作フローチャートにおいて、ステップS101~S102の処理が距離推定処理に対応する。
FIG. 6 is an operation flowchart of vehicle control processing including distance estimation processing executed by the
プロセッサ23の検出部31は、カメラ2から得られた最新の画像を識別器に入力して、画像に表された先行車両を含む物体領域を検出するとともに、その先行車両の車種、及び、物体領域中でのその先行車両の背面と側面の境界を検出する(ステップS101)。
The
プロセッサ23の距離推定部32は、車両10に対する先行車両の相対的な運動が所定の運動モデルに従うと仮定して、車両10に対する先行車両の相対的な位置及び姿勢の変化を所定の予測フィルタを用いて追跡する。その際、距離推定部32は、物体領域における先行車両の側面と背面の境界位置、先行車両の背面の幅及び側面の長さ、先行車両の車種、車両10の車速及びヨーレートを利用する。そして距離推定部32は、その追跡中における各画像生成時の車両10から先行車両までの距離を推定する(ステップS102)。
The
プロセッサ23の車両制御部33は、追跡中の各先行車両について、その追跡期間中における各画像生成時の先行車両までの推定距離に基づいて、先行車両と車両10とが衝突しないように車両10を制御する(ステップS103)。そしてプロセッサ23は、車両制御処理を終了する。
For each preceding vehicle being tracked, the
以上に説明してきたように、この距離推定装置は、時系列に得られる一連の画像から、自車両の周囲を走行する他の車両を検出する。さらに、この距離推定装置は、自車両に対する、他の車両の相対的な運動が所定の運動モデルに従うと仮定して、自車両に対する他の車両の相対的な位置及び姿勢の変化を、予測フィルタを用いて追跡する。そしてこの距離推定装置は、その追跡結果を利用して、各画像生成時における自車両から他の車両までの距離を推定する。そのため、この距離推定装置は、自車両と他の車両とが同じ方向を向いていなくても、自車両と他の車両との間の距離を精度良く推定することができる。その結果として、この距離推定装置は、自車両と他の車両との間の距離の推定精度を向上することができる。 As explained above, this distance estimation device detects other vehicles traveling around the own vehicle from a series of images obtained in time series. Furthermore, this distance estimating device assumes that the relative motion of the other vehicle with respect to the own vehicle follows a predetermined motion model, and predicts changes in the relative position and attitude of the other vehicle with respect to the own vehicle. track using This distance estimating device uses the tracking result to estimate the distance from the own vehicle to the other vehicle when each image is generated. Therefore, this distance estimation device can accurately estimate the distance between the own vehicle and the other vehicle even if the own vehicle and the other vehicle do not face in the same direction. As a result, this distance estimation device can improve the accuracy of estimating the distance between the own vehicle and other vehicles.
変形例によれば、車両10に、車両10の後方を撮影するように設置された後方カメラが設けられていることがある。このような場合、距離推定装置は、後方カメラにより生成される画像(以下、後方画像と呼ぶ)に基づいて、車両10の後方を走行する他の車両(以下、追走車両と呼ぶ)と車両10間の距離を推定してもよい。この場合、検出部31は、後方画像が得られる度に、後方画像を識別器に入力することで、上記の実施形態と同様に、追走車両が含まれる物体領域を検出し、かつ、追走車両の車種を識別すればよい。さらに、検出部31は、物体領域内で追走車両の前面の幅を検出する。そして距離推定部32は、上記の実施形態と同様に、車両10に対する追走車両の運動が等速直線運動モデルに従うと仮定して、Kalman Filterを用いて追走車両を追跡すればよい。その際、距離推定部32は、先行車両の背面の幅の代わりに、追走車両の前面の幅を用いることで、上記の実施形態と同様に、追走車両を追跡して、車両10から追走車両までの距離を推定することができる。
According to a modification, the
他の変形例によれば、距離推定部32は、自車両に対する他の車両の運動が、他の運動モデルに従うと仮定して状態方程式を定義してもよい。例えば、距離推定部32は、車両10に対する先行車両または追走車両の運動が等加速度直線運動に従うと仮定して状態方程式を定義してもよい。
According to another modification, the
さらに他の変形例によれば、距離推定部32は、Kalman Filter以外の予測フィルタ、例えば、パーティクルフィルタを利用して、他の車両を追跡することで、自車両と他の車両間の距離を推定してもよい。
According to yet another modification, the
上記の実施形態または変形例による、距離推定装置のプロセッサ23の各部の機能を実現するコンピュータプログラムは、半導体メモリ、磁気記録媒体または光記録媒体といった、コンピュータ読取可能な可搬性の記録媒体に記録された形で提供されてもよい。
A computer program that implements the function of each unit of the
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。 As described above, those skilled in the art can make various modifications within the scope of the present invention according to the embodiment.
1 車両制御システム
2 カメラ
3 電子制御装置(距離推定装置)
4 車速センサ
5 ヨーレートセンサ
21 通信インターフェース
22 メモリ
23 プロセッサ
31 検出部
32 距離推定部
33 車両制御部
1
4
Claims (1)
前記車両に対する前記他の車両の相対的な運動が所定の運動モデルに従うと仮定して、前記画像が取得される度に検出された、当該画像上での前記物体領域における前記境界の位置と、当該画像上での前記他の車両の前面または背面の幅及び側面の長さと、前記他の車両の車種に対応する、実空間における前記他の車両の基準車幅及び基準車長と、当該画像生成時の前記車両の速度及びヨーレートとを所定の予測フィルタに入力することで、前記車両に対する前記他の車両の相対的な位置及び姿勢の変化を追跡することで、最新の前記画像が生成されたときの前記車両から前記他の車両までの距離を推定する距離推定部と、
を有する距離推定装置。 Each time an image representing an area around the vehicle generated by an imaging unit mounted on the vehicle is acquired, the image is input to the classifier, so that other objects traveling around the vehicle can be identified from the image. a detection unit that detects an object area in which a vehicle is represented and a boundary between a side surface and a front surface or a rear surface of the other vehicle in the object area and identifies the vehicle type of the other vehicle;
a position of the boundary in the object region on the image detected each time the image is acquired, assuming that the relative motion of the other vehicle with respect to the vehicle follows a predetermined motion model; The front or rear width and side length of the other vehicle on the image, the reference vehicle width and reference vehicle length of the other vehicle in real space corresponding to the vehicle type of the other vehicle, and the image By inputting the speed and yaw rate of the vehicle at the time of generation into a predetermined prediction filter, the latest image is generated by tracking changes in the position and attitude of the other vehicle relative to the vehicle. a distance estimating unit that estimates the distance from the vehicle to the other vehicle when
A distance estimator having
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021162865A JP2023053681A (en) | 2021-10-01 | 2021-10-01 | Distance estimation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021162865A JP2023053681A (en) | 2021-10-01 | 2021-10-01 | Distance estimation apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023053681A true JP2023053681A (en) | 2023-04-13 |
Family
ID=85873232
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021162865A Pending JP2023053681A (en) | 2021-10-01 | 2021-10-01 | Distance estimation apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023053681A (en) |
-
2021
- 2021-10-01 JP JP2021162865A patent/JP2023053681A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7052663B2 (en) | Object detection device, object detection method and computer program for object detection | |
US11216673B2 (en) | Direct vehicle detection as 3D bounding boxes using neural network image processing | |
EP2757527B1 (en) | System and method for distorted camera image correction | |
JP7147420B2 (en) | OBJECT DETECTION DEVICE, OBJECT DETECTION METHOD AND COMPUTER PROGRAM FOR OBJECT DETECTION | |
JP6770393B2 (en) | Tracking device and program | |
JP7078021B2 (en) | Object detection device, object detection method and computer program for object detection | |
JP7135665B2 (en) | VEHICLE CONTROL SYSTEM, VEHICLE CONTROL METHOD AND COMPUTER PROGRAM | |
US10554951B2 (en) | Method and apparatus for the autocalibration of a vehicle camera system | |
JPWO2017145541A1 (en) | Moving body | |
JP7067574B2 (en) | Distance estimation device and computer program for distance estimation | |
CN113874914A (en) | Method for determining an operating angle between a tractor and a trailer of a tractor | |
US11120292B2 (en) | Distance estimation device, distance estimation method, and distance estimation computer program | |
JP6988873B2 (en) | Position estimation device and computer program for position estimation | |
JP2023053681A (en) | Distance estimation apparatus | |
JP7223587B2 (en) | Object motion estimation method and object motion estimation device | |
JP7095559B2 (en) | Bound line detection device and lane marking method | |
JP2020076714A (en) | Position attitude estimation device | |
JP2004038760A (en) | Traveling lane recognition device for vehicle | |
JP2021026683A (en) | Distance estimation apparatus | |
JP4847303B2 (en) | Obstacle detection method, obstacle detection program, and obstacle detection apparatus | |
CN113492850B (en) | Inclination angle detection device and control device | |
JP2020087210A (en) | Calibration device and calibration method | |
Winkens et al. | Optical truck tracking for autonomous platooning | |
JP7334489B2 (en) | Position estimation device and computer program | |
Duric et al. | Estimating relative vehicle motions in traffic scenes |