JP2020126394A - Object motion estimation method and object motion estimation apparatus - Google Patents
Object motion estimation method and object motion estimation apparatus Download PDFInfo
- Publication number
- JP2020126394A JP2020126394A JP2019017815A JP2019017815A JP2020126394A JP 2020126394 A JP2020126394 A JP 2020126394A JP 2019017815 A JP2019017815 A JP 2019017815A JP 2019017815 A JP2019017815 A JP 2019017815A JP 2020126394 A JP2020126394 A JP 2020126394A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature point
- motion estimation
- object model
- estimation method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 107
- 238000000034 method Methods 0.000 title claims description 38
- 230000003287 optical effect Effects 0.000 claims abstract description 52
- 230000001133 acceleration Effects 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 14
- 238000003702 image correction Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 8
- 230000010365 information processing Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、物体運動推定方法及び物体運動推定装置に関する。 The present invention relates to an object motion estimation method and an object motion estimation device.
ステレオ画像から周囲の物体の位置および運動を推定する技術が知られている。例えば、特許文献1の移動速度検出装置は、ステレオカメラで撮像した一対の撮像画像から距離データを算出して監視領域内に存在する立体物を認識する。移動速度検出装置は、一対の撮像画像のうちの一方の撮像画像を処理対象として、時系列の撮像画像から立体物のオプティカルフローを検出し、距離データとオプティカルフローに基づいて立体物の移動速度を算出する。より具体的には、移動速度検出装置は、画像上の各画素のオプティカルフローと距離データの平均値にもとづいて立体物の横方向の動きを算出し、各画素の距離データの平均値から奥行方向への動きを推定する。 A technique for estimating the position and movement of a surrounding object from a stereo image is known. For example, the moving speed detection device of Patent Literature 1 calculates distance data from a pair of captured images captured by a stereo camera and recognizes a three-dimensional object existing in the monitoring area. The moving speed detection device detects an optical flow of a three-dimensional object from a time-series captured image by using one of the pair of captured images as a processing target, and detects the moving speed of the three-dimensional object based on the distance data and the optical flow. To calculate. More specifically, the moving speed detection device calculates the lateral movement of the three-dimensional object based on the optical flow of each pixel on the image and the average value of the distance data, and calculates the depth from the average value of the distance data of each pixel. Estimate the movement in the direction.
しかしながら、特許文献1のように距離に基づいて3次元空間で動きを算出する場合、ステレオ法による距離算出の距離分解能の低さに起因する距離誤差が推定される運動に大きな影響を与える。特に遠方では正しい動きを推定することができない可能性がある。 However, when a motion is calculated in a three-dimensional space based on the distance as in Patent Document 1, a distance error due to a low distance resolution of the distance calculation by the stereo method has a great influence on the estimated motion. In particular, it may not be possible to estimate the correct movement at a long distance.
本発明は、上記に鑑みてなされたものであり、物体の状態の予測精度を向上させることを目的とする。 The present invention has been made in view of the above, and an object thereof is to improve the accuracy of predicting the state of an object.
本発明の一態様に係る物体運動推定方法は、自車両に搭載されたカメラで撮影した時系列画像から特徴点を検出し、特徴点のオプティカルフローを算出する。物体運動推定方法は、物体が存在する画像領域を検出する。物体運動推定方法は、画像領域内の特徴点の情報を含む物体モデルに基づいて画像領域内の特徴点の現在位置を予測する。物体運動推定方法は、オプティカルフローから算出した画像領域内の特徴点の画像上での現在の第1座標を求め、物体モデルに基づいて予測した画像領域内の特徴点の現在位置を画像上に投影した第2座標を求める。物体運動推定方法は、第1座標と第2座標とのずれを画像上で最小化するように物体モデルを更新する。物体運動推定方法は、更新後の物体モデルを用いて物体の状態を予測する。 An object motion estimation method according to an aspect of the present invention detects a feature point from a time-series image captured by a camera mounted on a vehicle and calculates an optical flow of the feature point. The object motion estimation method detects an image area in which an object exists. The object motion estimation method predicts the current position of a feature point in an image area based on an object model including information on the feature point in the image area. The object motion estimation method obtains the current first coordinate on the image of the feature point in the image area calculated from the optical flow, and displays the current position of the feature point in the image area predicted based on the object model on the image. Obtain the projected second coordinates. The object motion estimation method updates the object model so as to minimize the deviation between the first coordinate and the second coordinate on the image. The object motion estimation method predicts the state of an object using the updated object model.
本発明によれば、物体の状態の予測精度を向上させることができる。 According to the present invention, the accuracy of predicting the state of an object can be improved.
以下、本発明の実施の形態について図面を用いて説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1を参照し、本実施形態の物体運動推定装置の構成を説明する。物体運動推定装置は、車両に搭載され、周囲の走行環境を認識するために利用できる。物体運動推定装置は、自動運転機能を有する車両に適用されてもよく、自動運転機能を有しない車両に適用されてもよい。物体運動推定装置は、自動運転と手動運転とを切り替え可能な車両に適用されてもよい。本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも何れかのアクチュエータが乗員の操作なしに制御されている状態のことを指す。自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングを乗員が操作している状態のことを指す。 The configuration of the object motion estimation apparatus of the present embodiment will be described with reference to FIG. The object motion estimation device is mounted on a vehicle and can be used for recognizing a surrounding traveling environment. The object motion estimation device may be applied to a vehicle having an automatic driving function or may be applied to a vehicle having no automatic driving function. The object motion estimation device may be applied to a vehicle capable of switching between automatic driving and manual driving. The automatic driving in the present embodiment refers to a state in which at least one of the actuators such as the brake, the accelerator, and the steering is controlled without the occupant's operation. The automatic operation may be a state in which any control such as acceleration/deceleration control and lateral position control is being executed. The manual operation in the present embodiment refers to a state in which an occupant is operating the brake, accelerator, and steering, for example.
物体運動推定装置は、ステレオカメラ11,12とコントローラ(制御部)20を備える。
The object motion estimation device includes
ステレオカメラ11,12は、左のステレオカメラ11と右のステレオカメラ12の2台のカメラで構成されている。ステレオカメラ11,12は、自車両の周囲を異なる方向から同時に撮像し、時系列のステレオ画像を得る。ステレオカメラ11,12の搭載場所は限定されないが、例えば、ステレオカメラ11は、自車両の前方左側に搭載され、ステレオカメラ12は、自車両の前方右側に搭載される。また、ステレオカメラ11,12は、互いの視野が撮像方向と直交する方向に沿って重なるように配置されてもよい。各ステレオカメラ11,12の相対位置姿勢、焦点距離、およびレンズひずみ等のカメラパラメータは予め測定されており、ステレオ法によりステレオカメラ11,12で撮像された物体までの距離を算出できる。
The
コントローラ20は、ステレオカメラ11,12により撮像された時系列のステレオ画像に基づいて自車両の周囲の物体を検出し、物体の運動を推定する。本実施形態における物体とは、他車両、バイク、自転車、および歩行者を含む移動物体でもよく、駐車車両を含む静止物体でもよい。コントローラ20は、画像補正部201,202、オプティカルフロー算出部203、物体検出部204、距離算出部205、自車運動推定部206、物体追跡部207、初期モデル推定部208、現在状態推定部209、モデル更新部210、収束判定部211、および状態予測部212を備える。コントローラ20は、CPU(中央処理装置)、メモリ(記憶部)、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、物体運動推定装置として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、物体運動推定装置が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって物体運動推定装置が備える複数の情報処理回路を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。
The
画像補正部201,202は、各ステレオカメラ11,12で撮像した画像を補正する。具体的には、画像補正部201,202は、各ステレオカメラ11,12で撮像した画像に対して、各ステレオカメラ11,12のレンズひずみ補正処理および各ステレオカメラ11,12で撮像した両画像のエピポーラ線を平行にするための平行化処理を行う。これにより、ステレオ法による距離計算時に、左右の画像間の画素の対応付けを行う際、探索領域を水平方向の1次元に絞ることができる。その結果、物体までの距離を計算するのに必要な処理時間を大幅に削減することが可能である。後段の各部による処理では、画像補正部201,202により補正された画像を使用する。
The image correction units 201 and 202 correct the images captured by the
オプティカルフロー算出部203は、補正された時系列画像から特徴点を検出し、特徴点のオプティカルフローを算出する。具体的には、オプティカルフロー算出部203は、画像補正部201で補正された時系列画像から周囲の画素と区別可能な特徴を持つ画素である1つ以上の特徴点を検出し、過去の画像の特徴点と現在の画像の特徴点から特徴点のオプティカルフローを算出する。オプティカルフローとは、画像中における物体の動きをベクトルで表すものである。本実施形態では、オプティカルフロー算出部203は、左のステレオカメラ11で撮影した画像を用いてオプティカルフローを算出する。オプティカルフロー算出部203は、単位時刻前の画像を過去の画像として保持する。オプティカルフロー算出部203は、過去の画像から検出した特徴点の周囲と近似した濃度パターンを持つ画素を現在の画像から検出し、過去の特徴点と現在の特徴点との組み合わせをオプティカルフローとして算出する。オプティカルフローの算出方法として、例えば、Bruce D. Lucas and Takeo Kanade, “An Iterative Image Registration Technique with an Application to Stereo Vision,” International Joint Conference on Artificial Intelligence, pages 674-679, 1981 に記載の方法を用いることができる。
The optical
物体検出部204は、画像補正部201で補正された画像から車両、二輪車、および歩行者などの物体が存在する画像領域を検出する。物体の検出方法として、例えば、J. Redmon, et al., “You only look once: Unified, real-time object detection,” Computer Vision and Pattern Recognition, 2016 に記載の方法を用いることができる。物体検出部204は、ステレオカメラ11で画像が撮影される度に物体検出処理を実行し、その時刻の画像内に存在する物体の占める画像領域と物体の種別(例えば、車両、二輪車、自転車)を物体追跡部207へ出力する。
The object detection unit 204 detects an image area in which an object such as a vehicle, a two-wheeled vehicle, and a pedestrian exists from the image corrected by the image correction unit 201. As an object detection method, for example, the method described in J. Redmon, et al., “You only look once: Unified, real-time object detection,” Computer Vision and Pattern Recognition, 2016 can be used. The object detection unit 204 executes the object detection process each time an image is captured by the
距離算出部205は、ステレオ画像を用いて自車両から特徴点までの距離を算出する。具体的には、距離算出部205は、左画像中の特徴点のそれぞれについて、特徴点周囲の画像濃淡パターンと類似した画像濃淡パターンを持つ右画像中の画素を探索し、各特徴点の左右の画像での水平位置の差(視差)を求める。距離算出部205は、視差、カメラの焦点距離、および画像中心の座標を用いて、自車両から各特徴点までの距離を算出する。なお、左画像とは、左のステレオカメラ11で撮影され、画像補正部201で補正された画像である。右画像とは、右のステレオカメラ12で撮影され、画像補正部202で補正された画像である。画素の探索処理は、水平方向のみの1次元探索のみで行う。
The
自車運動推定部206は、自車両の3軸並進運動および3軸回転運動を推定する。3軸並進運動は、自車両の前後方向、車幅方向、および上下方向の運動である。3軸回転運動は、ロール軸、ピッチ軸、およびヨー軸を含む3軸回りの回転運動である。以下、自車両の3軸並進運動および3軸回転運動を自車運動と称する。自車運動推定部206は、特徴点のオプティカルフローと3次元座標から、例えば、Andreas Geiger, Julius Ziegler, and Christoph Stiller, “StereoScan: Dense 3d reconstruction in real-time,” Intelligent Vehicles Symposium (IV), 2011 IEEE に記載の方法を用いて自車運動を推定できる。
The host vehicle
物体追跡部207は、追跡中の物体と物体検出部204の検出した画像領域とを対応付けて、追跡中の物体の現在の画像領域を推定する。具体的には、物体追跡部207は、特徴点のオプティカルフローを用いて、単位時刻前の追跡中の物体の画像領域内の特徴点と現在検出された画像領域内の特徴点との対応付けを行い、追跡中の物体の現在の画像領域を推定する。物体追跡部207は、追跡中の物体と対応付かなかった画像領域を新規物体(まだ追跡していない物体)が存在する画像領域として、その画像領域および画像領域内の特徴点の情報を初期モデル推定部208に出力する。
The
初期モデル推定部208は、新規物体に対して初期の物体モデルを生成して割り当てる。物体モデルは、重心位置、向き、速度、加速度、ヨーレート、回転中心位置、すべり角、および形状(長さ、幅、高さ)などの物体の状態と、各特徴点の3次元座標および画像座標を含む。これらの要素はすべて自車両を基準とする自車座標系(3次元座標系)で定義される。重心位置は、物体の画像領域内の特徴点の3次元位置の重心である。特徴点の3次元座標は距離算出部205が算出したものである。向きは、画像領域内の各特徴点の3次元空間での動きを求め、各特徴点の動きの平均を物体の運動方向とし、物体の運動方向を向きとする。特徴点の3次元空間での動きは、オプティカルフロー算出部203の算出した画像上の特徴点の動きを3次元空間に投影して求めることができる。初期設定時は、物体の向きと物体の運動方向が同じであるとみなす。速度は、物体の3次元空間での動きの大きさとして求められる。加速度、ヨーレートについては、初期設定時は0とする。回転中心位置は、物体の重心に対する回転中心の相対位置を表す。回転中心位置は、初期設定時は(0,0)とする。すべり角は、物体の向きと実際の進行方向のなす角である。すべり角は、初期設定時は0とする。形状(長さ、幅、高さ)は、画像領域内の特徴点の3次元座標が占める領域と上で求めた向きから算出する。各特徴点の3次元座標は、重心と向きで定義される物体座標系における3次元座標である。
The initial
初期モデル推定部208は、初期の物体モデルとして、異なる状態を持つ複数の物体モデルを生成してもよい。言い換えると、1つの物体に、異なる複数の物体モデルを割り当ててもよい。後述の収束判定部211は、物体モデルを更新する過程で、物体の動きを適切に表していない物体モデルを削除する。
The initial
初期モデル推定部208は、物体までの距離に基づいて生成する物体モデルの数を決定してもよい。物体までの距離は、例えば、重心位置から求めてもよいし、画像領域内の特徴点までの距離の平均値から求めてもよい。自車両から遠方で状態が不明確な物体については、初期モデル推定部208は、異なる複数の状態を想定した初期の物体モデルを多く生成する。自車両の近辺で状態が明確な物体については、初期モデル推定部208は、生成する初期の物体モデルの数を少なくする。
The initial
初期モデル推定部208は、画像領域内の特徴点のオプティカルフローの長さに基づいて生成する物体モデルの数を決定してもよい。大きなオプティカルフローが検出される物体の運動は画像から推定しやすいので、初期モデル推定部208は、生成する初期の物体モデルの数を少なくする。オプティカルフローが検出されず運動が不明確な物体については、初期モデル推定部208は、異なる複数の運動を想定した初期の物体モデルを多く生成する。
The initial
初期モデル推定部208が物体までの距離またはオプティカルフローの長さに基づいて初期の物体モデルの数を決定することにより、計算負荷を抑えつつ、適切に物体運動を推定できる。
Since the initial
初期モデル推定部208は、画像領域内の特徴点のオプティカルフローの長さが所定の閾値よりも短い場合、運動の種類として静止物体を想定した物体モデルを追加してもよい。これにより、静止物体についても物体の状態の予測精度を向上させることができる。
The initial
初期モデル推定部208は、等速運動、等加速度運動、静止などの異なる種類の運動を想定した複数の物体モデルを生成してもよい。これにより、物体の運動推定精度を向上させることができる。例えば、初期モデル推定部208は、加速度、ヨーレートについて、初期設定時に0以外の初期値を設定した物体モデルを生成する。
The initial
現在状態推定部209は、自車運動推定部206の求めた自車運動および追跡中の物体の物体モデルを用いて、現在の時刻における追跡中の物体の位置および姿勢を推定する。具体的には、現在状態推定部209は、自車運動推定部206の推定した自車運動を用い、追跡中の物体を現在の自車両座標系に変換し、物体の状態に従い現在の時刻における物体の位置および姿勢を推定する。物体に複数の物体モデルが割り当てられている場合は、物体モデルのそれぞれについて現在時刻における物体の状態を推定する。
The current
モデル更新部210は、オプティカルフローを用いて特徴点の画像上での現在の画像座標(以下、「第1座標」と称する)を求める。モデル更新部210は、現在状態推定部209の推定した特徴点の現在位置を画像上に投影した画像座標(以下、「第2座標」と称する)を求める。モデル更新部210は、第1座標と第2座標とのずれを画像上で最小化するような運動を推定して物体モデルを更新する。
The
モデル更新部210は、図2に示すように、単位時刻前の画像上での追跡中の物体の特徴点をオプティカルフローによって追跡した第1座標を求める。図2の三角印は、オプティカルフローによって追跡した画像上での特徴点の位置を示す。
As shown in FIG. 2, the
また、モデル更新部210は、現在状態推定部209の推定した現在の物体の状態に基づき、物体の特徴点の現在位置を画像上に投影して第2座標を求める。図3の上段は、現在状態推定部209が物体モデルを用いて現在の物体の状態を推定する様子を示す。図3の下段は、物体の特徴点を画像上に投影した様子を示す。図3の丸印は、物体モデルを用いて推定した画像上での特徴点の位置を示す。
Further, the
モデル更新部210は、第1座標と第2座標とのずれを画像上で最小化するような物体の運動を推定し、物体モデルの状態を更新する。図4に、特徴点の第1座標(三角印)と第2座標(丸印)を画像上にプロットした様子を示す。例えば、物体の運動の推定には拡張カルマンフィルタを用い、時系列で特徴点の追跡と推定を行う。自車座標系で表された3次元座標(X,Y,Z)は以下の式を用いて画像上の座標(u,v)と視差(d)に変換できる。
The
ここで、fx,fyは水平、垂直の焦点距離であり、x0,y0は画像中心の座標、bはステレオカメラの基線長である。 Here, f x and f y are horizontal and vertical focal lengths, x 0 and y 0 are coordinates of the image center, and b is a base line length of the stereo camera.
特徴点の動きは画像上に投影すると非線形になるので、拡張カルマンフィルタの分散共分散行列を求める際には、特徴点をいくつかを選択し、線形近似したヤコビ行列を用いて分散共分散行列を求める。求めた拡張カルマンフィルタで特徴点の現在位置を算出し、画像上に投影する。選択する特徴点を変えて、オプティカルフローで求めた画像上の点と拡張カルマンフィルタで現在位置を予測して画像上に投影した点とのずれが最小となった拡張カルマンフィルタで物体モデルの状態を更新する。 The motion of the feature points becomes non-linear when projected onto the image.Therefore, when obtaining the variance-covariance matrix of the extended Kalman filter, some feature points are selected and the variance-covariance matrix is linearly approximated using the linearly approximated Jacobian matrix. Ask. The current position of the feature point is calculated by the obtained extended Kalman filter and projected on the image. By changing the feature points to be selected, the state of the object model is updated by the extended Kalman filter that minimizes the deviation between the point on the image obtained by optical flow and the point projected on the image by predicting the current position with the extended Kalman filter. To do.
なお、物体の運動の推定には、拡張カルマンフィルタに限らず、パーティクルフィルタなど他の非線形ベイズフィルタを用いてもよい。本実施形態では、複数の特徴点の動きから、速度だけでなく、加速度およびヨーレートも推定できる。 Note that the motion estimation of the object is not limited to the extended Kalman filter, and other nonlinear Bayes filter such as a particle filter may be used. In this embodiment, not only the velocity but also the acceleration and the yaw rate can be estimated from the movements of the plurality of feature points.
モデル更新部210は、物体の向きの変化等により現在の画像から検出できなくなった特徴点を物体モデルから削除してもよい。これにより、特徴点の誤った対応付けを抑止でき、運動推定の精度の低下を抑えることができる。また、計算負荷の低減が期待できる。
The
モデル更新部210は、第1座標と第2座標とのずれが閾値以上となった特徴点を物体モデルから削除してもよいし、特徴点のオプティカルフローと物体モデルに基づく特徴点の動きを画像上に投影したベクトルのなす角度が閾値以上となった特徴点を物体モデルから削除してもよい。これにより、追跡した画像上の位置が間違っている、または検出できなくなった特徴点を削除できる。また、特徴点を柔軟に削除することで、自転車のような一部が非剛体の物体にも本実施形態を適用できる。
The
モデル更新部210は、画像領域内で新たな特徴点を検出したときに、その特徴点を物体モデルに追加してもよい。これにより、右左折時の車両などの見え方が大きく変化する物体の運動を推定できる。
When the
収束判定部211は、物体モデルのそれぞれについて、その物体モデルの推定が収束したか否か判定する。例えば、収束判定部211は、第1座標と第2座標とのずれの大きさ、特徴点のオプティカルフローと物体モデルに基づく特徴点の動きを画像上に投影したベクトルとのなす角度の誤差、および拡張カルマンフィルタの分散共分散を収束判定に用い、それぞれの値がすべて所定の閾値以下になった場合、あるいはいずれかの値が所定の閾値以下になった場合に、物体モデルの推定が収束したと判定する。物体モデルの推定が収束したか否かを判定することで、物体の追跡と運動の推定が成功しているか否かを判断できる。 The convergence determination unit 211 determines, for each of the object models, whether the estimation of the object model has converged. For example, the convergence determination unit 211 determines the deviation between the first coordinate and the second coordinate, the error between the optical flow of the characteristic point and the vector formed by projecting the movement of the characteristic point based on the object model on the image, The variance and covariance of the extended Kalman filter are used for the convergence judgment, and the estimation of the object model converges when all of the values are below a predetermined threshold or when any of the values are below a predetermined threshold. To determine. By determining whether or not the estimation of the object model has converged, it can be determined whether or not the tracking of the object and the estimation of the motion are successful.
収束判定部211は、所定の時間以上収束しない物体モデルを削除してもよいし、第1座標と第2座標とのずれの平均が閾値以上の場合に物体モデルを削除してもよいし、特徴点のオプティカルフローと3次元空間での特徴点の動きを画像上に投影したベクトルとのなす角度の平均が閾値以上の場合に物体モデルを削除してもよい。追跡に失敗したと考えられる物体モデルを削除することで計算負荷の低減が期待できる。 The convergence determination unit 211 may delete the object model that does not converge for a predetermined time or more, or may delete the object model when the average deviation between the first coordinate and the second coordinate is equal to or greater than a threshold value. The object model may be deleted when the average of the angles formed by the optical flow of the feature points and the vector obtained by projecting the motion of the feature points in the three-dimensional space on the image is equal to or greater than the threshold value. It can be expected to reduce the calculation load by deleting the object model that is considered to have failed in tracking.
状態予測部212は、モデル更新部210で更新された物体モデルを用いて物体の状態を予測する。状態予測部212は、収束判定部211が収束したと判定した物体モデルを用いてもよい。物体に複数の物体モデルが割り当てられている場合、状態予測部212は、最適な物体モデルを用いて物体の状態を予測してもよい。例えば、状態予測部212は、第1座標と第2座標のずれが最も小さい物体モデルを用いて物体の状態を予測する。
The state predicting unit 212 predicts the state of the object using the object model updated by the
次に、図5を参照し、本実施形態の物体運動推定装置の別の構成を説明する。 Next, another configuration of the object motion estimation device of the present embodiment will be described with reference to FIG.
図5の物体運動推定装置は、図1の物体運動推定装置のステレオカメラ11,12の代わりに、自車両周囲を観測するセンサとして単眼カメラ13とLight Detection and Ranging(LIDAR)14を備えた点が異なる。
The object motion estimation device of FIG. 5 includes a monocular camera 13 and a Light Detection and Ranging (LIDAR) 14 as sensors for observing the surroundings of the vehicle, instead of the
単眼カメラ13とLIDAR14はともに校正済みであり、単眼カメラ13の内部パラメータと単眼カメラ13に対するLIDAR14の相対位置姿勢は既知である。内部パラメータおよび相対位置姿勢により、LIDAR14で計測された3次元座標を単眼カメラ13で撮像された画像に投影できる。この校正には、例えば、Gaurav Pandey, et al., “Automatic extrinsic calibration of vision and lidar by maximizing mutual information,” Journal of Field Robotics, 2015, Volume 32, Issue 5, pp. 696-722 に記載の方法を用いることができる。
Both the monocular camera 13 and the
単眼カメラ13の撮像した画像の画素とLIDAR14の計測点は1対1で対応していない。そこで、距離算出部205は、LIDAR14の計測した隣接する3つの計測点から三角形を生成し、三角形と単眼カメラ13から特徴点の方向へ伸ばした直線との交点を特徴点の3次元位置として、特徴点までの距離を求める。いずれの三角形とも交差しない特徴点については、最近傍の計測点を特徴点の3次元位置とする。
The pixels of the image captured by the monocular camera 13 and the measurement points of the
次に、図6を参照して、コントローラ20の処理の流れの一例について説明する。図6の処理は、ステレオカメラ11,12でステレオ画像が撮像される度に実行される。
Next, an example of the processing flow of the
ステップS101では、各ステレオカメラ11,12で撮像した時系列画像が補正される。ステップS102では、時系列画像から特徴点が検出され、特徴点のオプティカルフローが算出される。ステップS103では、自車両から特徴点までの距離が算出される。ステップS104では、自車運動が推定される。
In step S101, the time-series images captured by the
ステップS105では、時系列画像から物体が存在する画像領域が検出される。ステップS106では、ステップS103で検出された画像領域のそれぞれに対して追跡中の物体が対応付けられる。ステップS107では、ステップS106で追跡中の物体と対応付けられなかった画像領域が判定される。ステップS108では、追跡中の物体と対応付けられなかった画像領域内に存在する物体の初期の物体モデルが生成される。ステップS108の後は、ステップS110が実行される。 In step S105, an image area where an object exists is detected from the time-series image. In step S106, the object being tracked is associated with each of the image regions detected in step S103. In step S107, the image area that is not associated with the object being tracked in step S106 is determined. In step S108, an initial object model of an object existing in the image area that is not associated with the object being tracked is generated. After step S108, step S110 is executed.
ステップS109では、追跡中の物体の物体モデルを用いて物体の現在の状態が推定される。ステップS110では、オプティカルフローを用いて推定した特徴点の現在の画像上での座標とステップS109で推定した特徴点を画像上に投影した座標とのずれが最小となるような物体の運動が推定されて、物体モデルが更新される。ステップS111では、物体モデルの収束が判定される。ステップS109からステップS111は、物体モデルのそれぞれについて実行される。 In step S109, the current state of the object is estimated using the object model of the object being tracked. In step S110, the motion of the object is estimated so that the deviation between the coordinates of the feature point estimated using the optical flow on the current image and the coordinates of the feature point estimated in step S109 projected on the image is minimized. Then, the object model is updated. In step S111, the convergence of the object model is determined. Steps S109 to S111 are executed for each of the object models.
ステップS112では、物体モデルを用いて物体の状態が予測される。 In step S112, the state of the object is predicted using the object model.
以上説明したように、本実施形態の物体運動推定装置によれば、以下の効果が得られる。 As described above, according to the object motion estimation device of the present embodiment, the following effects can be obtained.
自車両に搭載されたステレオカメラ11,12は、自車両の周囲の時系列画像を取得する。オプティカルフロー算出部203は、時系列画像から特徴点を検出し、特徴点のオプティカルフローを算出する。距離算出部205は、時系列画像から特徴点までの距離を算出する。物体検出部204は、時系列画像から物体が存在する画像領域を検出する。現在状態推定部209は、物体の状態と特徴点の情報を含む物体モデルに基づいて特徴点の現在位置を予測する。モデル更新部210は、オプティカルフローから特徴点の画像上での現在の第1座標を求めるとともに、物体モデルに基づいて予測した特徴点の現在位置を画像上に投影した第2座標を求め、第1座標と第2座標のずれを画像上で最小化するように物体モデルを更新する。状態予測部212は、更新後の物体モデルを用いて物体の状態を予測する。これにより、物体運動推定装置は、距離誤差の影響を抑えて物体の運動を推定することができる。初期モデル推定部208は、画像領域内の特徴点のオプティカルフローおよび距離に基づいて物体の初期の物体モデルを生成することにより、新たに検出した物体の運動の推定が可能になる。
The
初期モデル推定部208は、物体検出部204の検出した1つの物体に対して、異なる状態を持つ複数の物体モデルを生成することにより、遠方で物体の状態が不明確であっても、より適切に物体の追跡と状態の推定を行うことができる。
The initial
物体の状態は、速度、加速度、およびヨーレートを含み、モデル更新部210は、複数の特徴点の動きから物体の運動を推定することにより、速度だけでなく、加速度およびヨーレートも推定でき、物体の状態の予測精度をさらに向上できる。
The state of the object includes velocity, acceleration, and yaw rate, and the
11,12…ステレオカメラ
13…単眼カメラ
14…LIDAR
20…コントローラ
201,202…画像補正部
203…オプティカルフロー算出部
204…物体検出部
205…距離算出部
206…自車運動推定部
207…物体追跡部
208…初期モデル推定部
209…現在状態推定部
210…モデル更新部
211…収束判定部
212…状態予測部
11, 12... Stereo camera 13...
20... Controller 201, 202...
Claims (17)
前記時系列画像から特徴点を検出し、
前記時系列画像から前記特徴点のオプティカルフローを算出し、
前記時系列画像から物体が存在する画像領域を検出し、
前記画像領域内の前記特徴点の情報を含む物体モデルに基づいて前記画像領域内の前記特徴点の現在位置を予測し、
前記オプティカルフローから算出した前記画像領域内の前記特徴点の画像上での現在の第1座標と前記物体モデルに基づいて予測した前記画像領域内の前記特徴点の現在位置を前記画像上に投影した第2座標とのずれを前記画像上で最小化するように前記物体モデルを更新して、更新後の物体モデルを生成し、
前記更新後の物体モデルを用いて前記物体の状態を予測する
ことを特徴とする物体運動推定方法。 Obtaining a time series image of the surroundings of the own vehicle using a camera mounted on the own vehicle,
Detect feature points from the time series image,
Calculate the optical flow of the feature points from the time-series image,
Detecting an image area where an object exists from the time series image,
Predicting the current position of the feature point in the image region based on an object model containing information of the feature point in the image region,
A current first coordinate on the image of the feature point in the image region calculated from the optical flow and a current position of the feature point in the image region predicted based on the object model are projected on the image. Updating the object model so as to minimize the deviation from the second coordinate on the image, and generating the updated object model,
An object motion estimation method comprising predicting a state of the object using the updated object model.
検出された前記画像領域内の前記特徴点の前記オプティカルフローおよび前記距離に基づいて当該画像領域に含まれる物体の前記物体モデルを生成する
ことを特徴とする請求項1に記載の物体運動推定方法。 Calculate the distance from the host vehicle to the feature point,
The object motion estimation method according to claim 1, wherein the object model of the object included in the image region is generated based on the detected optical flow and the distance of the feature point in the image region. ..
ことを特徴とする請求項2に記載の物体運動推定方法。 The object motion estimation method according to claim 2, wherein a plurality of different object models are generated according to the state of the object.
ことを特徴とする請求項3に記載の物体運動推定方法。 The object motion estimation method according to claim 3, wherein the number of the object models to be generated is determined based on the distance to the object.
ことを特徴とする請求項3に記載の物体運動推定方法。 The object motion estimation method according to claim 3, wherein the number of the object models to be generated is determined based on the length of the optical flow of the feature points in the image region.
ことを特徴とする請求項3乃至5のいずれかに記載の物体運動推定方法。 The object model assuming a stationary object is added when the length of the optical flow of the feature points in the image region is shorter than a predetermined threshold value. Object motion estimation method.
ことを特徴とする請求項2乃至6のいずれかに記載の物体運動推定方法。 The object motion estimation method according to any one of claims 2 to 6, wherein a plurality of the object models assuming different kinds of motions are generated.
ことを特徴とする請求項1乃至7のいずれかに記載の物体運動推定方法。 The object motion estimation method according to any one of claims 1 to 7, wherein the object model includes information on a plurality of the feature points, and the state of the object includes velocity, acceleration, and yaw rate.
ことを特徴とする請求項1乃至8のいずれかに記載の物体運動推定方法。 The object motion estimation method according to any one of claims 1 to 8, wherein the feature points that cannot be detected from the time-series image are deleted from the object model.
ことを特徴とする請求項1乃至9のいずれかに記載の物体運動推定方法。 The object motion estimation method according to any one of claims 1 to 9, wherein the feature point in which the deviation between the first coordinate and the second coordinate is equal to or greater than a threshold value is deleted from the object model.
ことを特徴とする請求項1乃至10のいずれかに記載の物体運動推定方法。 The feature point whose angle formed by the optical flow of the feature point and a vector obtained by projecting the motion of the feature point based on the object model on an image is equal to or larger than a threshold is deleted from the object model. 11. The object motion estimation method according to any one of 1 to 10.
ことを特徴とする請求項1乃至11のいずれかに記載の物体運動推定方法。 The object motion estimation method according to any one of claims 1 to 11, wherein a newly detected feature point is added to the object model.
ことを特徴とする請求項1乃至12のいずれかに記載の物体運動推定方法。 The object motion according to claim 1, wherein it is determined that the estimation of the object model has converged when a deviation between the first coordinate and the second coordinate is equal to or less than a threshold value. Estimation method.
ことを特徴とする請求項13に記載の物体運動推定方法。 The object motion estimation method according to claim 13, wherein the object model that does not converge for a predetermined time or longer is deleted.
ことを特徴とする請求項13または14に記載の物体運動推定方法。 The object motion estimation method according to claim 13 or 14, wherein the object model corresponding to the object is deleted when the average of the deviations between the first coordinates and the second coordinates is equal to or more than a threshold value.
ことを特徴とする請求項13乃至15のいずれかに記載の物体運動推定方法。 The object model is deleted when an average of an angle formed by an optical flow of the characteristic point and a vector obtained by projecting the movement of the characteristic point based on the object model on an image is equal to or more than a threshold value. 16. The object motion estimation method according to any one of 1 to 15.
制御部とを備え、
前記制御部は、
前記時系列画像から特徴点を検出し、
前記時系列画像から前記特徴点のオプティカルフローを算出し、
前記時系列画像から物体が存在する画像領域を検出し、
前記画像領域内の前記特徴点の情報を含む物体モデルに基づいて前記特徴点の現在位置を予測し、
前記オプティカルフローから算出した前記画像領域内の前記特徴点の画像上での現在の第1座標と前記物体モデルに基づいて予測した前記画像領域内の前記特徴点の現在位置を前記画像上に投影した第2座標とのずれを前記画像上で最小化するように前記物体モデルを更新して、
更新後の前記物体モデルを用いて前記物体の状態を予測する
ことを特徴とする物体運動推定装置。 An imaging unit that acquires a time-series image of the surroundings of the own vehicle using a camera mounted on the own vehicle,
With a control unit,
The control unit is
Detect feature points from the time series image,
Calculate the optical flow of the feature points from the time-series image,
Detecting an image area where an object exists from the time series image,
Predicting the current position of the feature point based on an object model containing information of the feature point in the image region,
A current first coordinate on the image of the feature point in the image region calculated from the optical flow and a current position of the feature point in the image region predicted based on the object model are projected on the image. Updating the object model so as to minimize the deviation from the second coordinate on the image,
An object motion estimation apparatus, which predicts the state of the object using the updated object model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019017815A JP7223587B2 (en) | 2019-02-04 | 2019-02-04 | Object motion estimation method and object motion estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019017815A JP7223587B2 (en) | 2019-02-04 | 2019-02-04 | Object motion estimation method and object motion estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020126394A true JP2020126394A (en) | 2020-08-20 |
JP7223587B2 JP7223587B2 (en) | 2023-02-16 |
Family
ID=72084959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019017815A Active JP7223587B2 (en) | 2019-02-04 | 2019-02-04 | Object motion estimation method and object motion estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7223587B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023531653A (en) * | 2020-08-31 | 2023-07-25 | エヌイーシー ラボラトリーズ アメリカ インク | Monocular 3D object localization by temporal aggregation |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015041238A (en) * | 2013-08-21 | 2015-03-02 | 株式会社日本自動車部品総合研究所 | Object estimation device and object estimation method |
-
2019
- 2019-02-04 JP JP2019017815A patent/JP7223587B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015041238A (en) * | 2013-08-21 | 2015-03-02 | 株式会社日本自動車部品総合研究所 | Object estimation device and object estimation method |
Non-Patent Citations (1)
Title |
---|
日浦 慎作、森谷 貴行、佐藤 宏介: "入力画像と生成画像の差の最小化に基づく実時間運動追跡", 情報処理学会論文誌 トランザクション 情報処理学会論文誌 コンピュータビジョンとイメージメディア, vol. 第2巻、第1号, JPN6022054895, 15 April 2009 (2009-04-15), JP, pages 14 - 31, ISSN: 0004958379 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023531653A (en) * | 2020-08-31 | 2023-07-25 | エヌイーシー ラボラトリーズ アメリカ インク | Monocular 3D object localization by temporal aggregation |
JP7407978B2 (en) | 2020-08-31 | 2024-01-04 | エヌイーシー ラボラトリーズ アメリカ インク | Monocular 3D object localization using tense aggregation |
Also Published As
Publication number | Publication date |
---|---|
JP7223587B2 (en) | 2023-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4814669B2 (en) | 3D coordinate acquisition device | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
JP3895238B2 (en) | Obstacle detection apparatus and method | |
JP5588812B2 (en) | Image processing apparatus and imaging apparatus using the same | |
KR101961001B1 (en) | Single-camera distance estimation | |
JP6110256B2 (en) | Object estimation apparatus and object estimation method | |
JP6003673B2 (en) | 3D position estimation apparatus, vehicle control apparatus, and 3D position estimation method | |
CN112669354B (en) | Multi-camera motion state estimation method based on incomplete constraint of vehicle | |
JP4670528B2 (en) | Imaging device deviation detection method, imaging device deviation correction method, and imaging device | |
US10554951B2 (en) | Method and apparatus for the autocalibration of a vehicle camera system | |
WO2020137110A1 (en) | Movement amount estimation device | |
CN115015956A (en) | Laser and vision SLAM system of indoor unmanned vehicle | |
JP7145770B2 (en) | Inter-Vehicle Distance Measuring Device, Error Model Generating Device, Learning Model Generating Device, Methods and Programs Therefor | |
JP6044084B2 (en) | Moving object position and orientation estimation apparatus and method | |
JP2021081272A (en) | Position estimating device and computer program for position estimation | |
JP2018136739A (en) | Calibration device | |
JP7223587B2 (en) | Object motion estimation method and object motion estimation device | |
JP7456857B2 (en) | Self-position estimation device | |
JP2017182564A (en) | Positioning device, positioning method, and positioning computer program | |
JP2020076714A (en) | Position attitude estimation device | |
JP5903901B2 (en) | Vehicle position calculation device | |
JP5330341B2 (en) | Ranging device using in-vehicle camera | |
JP7358108B2 (en) | Information processing device, information processing method and program | |
JP2018116147A (en) | Map creation device, map creation method and map creation computer program | |
JP2020087210A (en) | Calibration device and calibration method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7223587 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |