JP2019007739A - Self position estimation method and self position estimation device - Google Patents
Self position estimation method and self position estimation device Download PDFInfo
- Publication number
- JP2019007739A JP2019007739A JP2017120503A JP2017120503A JP2019007739A JP 2019007739 A JP2019007739 A JP 2019007739A JP 2017120503 A JP2017120503 A JP 2017120503A JP 2017120503 A JP2017120503 A JP 2017120503A JP 2019007739 A JP2019007739 A JP 2019007739A
- Authority
- JP
- Japan
- Prior art keywords
- movement amount
- vehicle
- image
- self
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000004364 calculation method Methods 0.000 claims description 58
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 description 8
- 230000010365 information processing Effects 0.000 description 7
- 238000001454 recorded image Methods 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、自己位置推定方法及び自己位置推定装置に関する。 The present invention relates to a self-position estimation method and a self-position estimation apparatus.
従来から、互いに異なる時刻にカメラで撮影された物体の画像上の位置の差とカメラの移動量とに基づいて物体の3次元位置を計測する3次元位置計測装置が知られている(特許文献1参照)。特許文献1では、画像から抽出された特徴点の位置の変化から、カメラ或いは移動体の移動量を算出している。 2. Description of the Related Art Conventionally, there is known a three-dimensional position measurement device that measures a three-dimensional position of an object based on a difference in position on an image of an object photographed by a camera at different times and a moving amount of the camera (Patent Document). 1). In Patent Document 1, the movement amount of the camera or the moving body is calculated from the change in the position of the feature point extracted from the image.
しかし、特許文献1では、カメラを用いて移動体の移動量を算出するものの、複数のカメラから得られた情報のうち、移動体の3次元位置の計測精度を向上させるために、選択的に情報を用いていない。 However, in Patent Document 1, although the amount of movement of the moving object is calculated using a camera, in order to improve the measurement accuracy of the three-dimensional position of the moving object among information obtained from a plurality of cameras, it is selectively used. Information is not used.
本発明は、このような従来の課題に鑑みてなされたものであり、その目的は、車両の移動量を安定して精度よく算出することにより、車両の自己位置の推定精度を向上させることである。 The present invention has been made in view of such a conventional problem, and an object of the present invention is to improve the estimation accuracy of the vehicle's own position by stably and accurately calculating the movement amount of the vehicle. is there.
本発明の一態様に係わる自己位置推定方法は、第1のカメラを用いて第1の方向の車両の周囲を撮像して第1の画像を取得し、第2のカメラを用いて第1の方向とは異なる第2の方向の車両の周囲を撮像して第2の画像を取得し、第1の画像を用いて車両の第1の移動量を算出し、第2の画像を用いて車両の第2の移動量を算出し、車両から出力される車両信号を用いて車両の第3の移動量を算出し、第1の移動量と第3の移動量とを比較し、第2の移動量と第3の移動量とを比較し、比較の結果に基づいて、第1の移動量、第2の移動量及び第3の移動量のうち、いずれかの移動量を選択し、選択した移動量を用いて、車両の位置を推定する。 In the self-position estimation method according to one aspect of the present invention, the first camera is used to capture an image of the surroundings of the vehicle in the first direction, the first image is obtained, and the second camera is used to obtain the first image. A second image is obtained by imaging the surroundings of the vehicle in a second direction different from the direction, the first movement amount of the vehicle is calculated using the first image, and the vehicle using the second image The second movement amount is calculated, the third movement amount of the vehicle is calculated using the vehicle signal output from the vehicle, the first movement amount is compared with the third movement amount, and the second movement amount is compared. The movement amount is compared with the third movement amount, and one of the first movement amount, the second movement amount, and the third movement amount is selected and selected based on the comparison result. The position of the vehicle is estimated using the travel amount.
本発明の一態様によれば、車両の移動量を安定して精度よく算出することにより、車両の自己位置の推定精度を向上させることができる。 According to one aspect of the present invention, it is possible to improve the estimation accuracy of the vehicle's own position by stably and accurately calculating the amount of movement of the vehicle.
次に、図面を参照して、実施形態を詳細に説明する。 Next, embodiments will be described in detail with reference to the drawings.
<自己位置推定装置>
図1を参照して、実施形態に係わる自己位置推定装置の全体構成を説明する。自己位置推定装置は、車両に搭載された前方カメラ12a(第1のカメラ)及び後方カメラ12b(第2のカメラ)と、車両センサ13と、特徴点及び走行軌跡を記録する特徴点記録装置16と、チェックポイント及び走行軌跡を学習し、車両の位置を推定するコントローラ11とを備える。
<Self-position estimation device>
With reference to FIG. 1, the overall configuration of the self-position estimation apparatus according to the embodiment will be described. The self-position estimation device includes a
前方カメラ12aは、車両を基準にして定められた第1の方向(ここでは、「車両の前方」)の車両の周囲を撮像して画像データ(前方画像:第1の画像)を生成する。後方カメラ12bは、車両を基準にして定められた第1の方向とは異なる第2の方向(ここでは、「車両の後方」)の車両の周囲を撮像して画像データ(後方画像:第2の画像)を生成する。カメラ(12a、12b)は、互いに異なる方向の車両の周囲を同時に撮影することができる。ここでは、異なる方向として車両の前後方向を例示するが、車両の左右方向、或いはその他の方向の組合せであっても構わない。また、第1の方向と第2の方向の角度差が180°である必要はなく、ゼロではない所定の角度の差を有するように、カメラ(12a、12b)の撮像方向が定められている。
The
前方カメラ12a及び後方カメラ12bの各々は、ステレオカメラであっても単眼カメラであっても構わない。前方カメラ12a及び後方カメラ12bの各々が生成する画像データから、物体(特徴点)の奥行き情報を取得することができる。つまり、各画像データから、車両の周囲の物体の3次元位置を計測することが可能である。
Each of the
車両センサ13は、車両に搭載され、車両から得られる様々な情報(車両信号)を検出する。車両センサ13には、例えば、車両の走行速度(車速)を検出する車速センサ、車両が備える各タイヤの回転速度を検出する車輪速センサ、車両の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、車両に生じる角速度を検出するジャイロセンサ、ヨーレートを検出するヨーレートセンサが含まれる。
The
コントローラ11は、前方カメラ12a及び後方カメラ12b及び車両センサ13から得られるデータに基づいて、車両の自己位置及び走行軌跡を学習し、学習結果に基づいて車両の自己位置を推定する。
The controller 11 learns the vehicle's own position and travel locus based on the data obtained from the
コントローラ11は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータを用いて実現可能である。コントローラ11には、自己位置推定装置として機能させるためのコンピュータプログラム(自己位置推定プログラム)がインストールされ、メモリに記憶されている。コンピュータプログラムを実行することにより、コントローラ11は、自己位置推定装置が備える複数の情報処理回路(21〜28)として機能する。なお、実施形態では、ソフトウェアによって自己位置推定装置が備える複数の情報処理回路(21〜28)を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路(21〜28)を構成することも可能である。また、複数の情報処理回路(21〜28)を個別のハードウェアにより構成してもよい。更に、情報処理回路(21〜28)は、車両に関わる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。 The controller 11 can be realized by using a general-purpose microcomputer including a CPU (Central Processing Unit), a memory, and an input / output unit. A computer program (self-position estimation program) for causing the controller 11 to function as a self-position estimation apparatus is installed and stored in a memory. By executing the computer program, the controller 11 functions as a plurality of information processing circuits (21 to 28) included in the self-position estimation apparatus. In addition, although embodiment demonstrates the example which implement | achieves several information processing circuits (21-28) with which a self-position estimation apparatus is provided with software, of course, the hardware for exclusive use for performing each information processing shown below is shown. It is also possible to prepare and configure the information processing circuits (21 to 28). Further, the plurality of information processing circuits (21 to 28) may be configured by individual hardware. Further, the information processing circuits (21 to 28) may also be used as an electronic control unit (ECU) used for other control related to the vehicle.
コントローラ11は、複数の情報処理回路として、画像取得部21(画像取得回路)と、前方カメラ移動量算出部22(第1の移動量算出回路)と、後方カメラ移動量算出部23(第2の移動量算出回路)と、車両オドメトリ算出部24(第3の移動量算出回路)と、移動量差算出部25(移動量比較回路)と、移動量選択部26(移動量選択回路)と、特徴点学習部27と、自己位置推定部28(自己位置推定回路)とを備える。
The controller 11 includes, as a plurality of information processing circuits, an image acquisition unit 21 (image acquisition circuit), a front camera movement amount calculation unit 22 (first movement amount calculation circuit), and a rear camera movement amount calculation unit 23 (second Movement amount calculation circuit), vehicle odometry calculation unit 24 (third movement amount calculation circuit), movement amount difference calculation unit 25 (movement amount comparison circuit), movement amount selection unit 26 (movement amount selection circuit), , A feature
特徴点記録装置16には、特徴点学習部27による学習結果が記録される。
A learning result by the feature
画像取得部21は、前方カメラ12a及び後方カメラ12bの各々の撮影により得られた画像データを取得する。詳細には、画像取得部21は、画像データと共に、その撮影タイミングを示すタイムスタンプも同時に取得する。
The
前方カメラ移動量算出部22は、前方カメラ12aにより得られた前方画像を用いて車両の移動量(前方カメラ移動量:第1の移動量)を算出する。前方カメラ移動量の算出方法は特に問わず、既存の方法を用いることができる。例えば、先ず、前方画像の中から特徴点をそれぞれ抽出し、特徴点のステレオマッチング処理及び視差情報に基づき、特徴点の3次元位置を特定する。そして、車両が走行しながら繰り返し撮像を行い、フレーム(画像)間で特徴点のマッチング処理を行う。特徴点の3次元位置の変化から、車両の移動量(前方カメラ移動量)を算出することができる。後方カメラ移動量算出部23は、後方カメラ12bにより得られた後方画像を用いて車両の移動量(後方カメラ移動量:第2の移動量)を算出する。後方カメラ移動量算出部23も、前方カメラ移動量算出部22と同様に、既存の方法を用いて後方カメラ移動量を特定する。
The front camera movement amount calculation unit 22 calculates the movement amount of the vehicle (front camera movement amount: first movement amount) using the front image obtained by the
車両オドメトリ算出部24は、車両センサ13からの検出結果に基づいて、車両の移動量(オドメトリ移動量:第3の移動量)を算出する。先ず、車両オドメトリ算出部24は、車両センサ13からの検出結果を、車両から得られる車両信号として取得する。詳細には、車両オドメトリ算出部24は、車両信号と共に、その検出タイミングを示すタイムスタップも同時に取得する。撮像タイミング及び検出タイミングの各々を示すタイムスタップを、画像データ及び車両信号と共に受信することにより、画像データ及び車両信号を時間軸により関連付けることが可能となる。
The vehicle
車両オドメトリ算出部24は、車両センサ13により検出された車両信号に基づいて、車両の走行軌跡を算出する。走行軌跡の算出方法は、特に問わず、既存の方法を用いることができる。例えば、左右のタイヤの回転角度の差からヨーレートを算出し、ヨーレートを積分することにより車両のヨー角(車両の姿勢、進行方向を含む)を算出すればよい。勿論、ヨーレートセンサを用いても構わない。また、車両が備えるタイヤの回転量から車両の移動量を算出することができる。車両信号に基づいて算出される車両の走行軌跡を「車両オドメトリ」と呼ぶ。車両オドメトリ算出部24は、車両オドメトリから、所定の時間における車両の移動量(オドメトリ移動量:第3の移動量)を算出する。
The vehicle
なお、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量を含む「車両の移動量」は、車両の移動距離、及び車両の移動方向を含む概念である。 The “vehicle movement amount” including the front camera movement amount, the rear camera movement amount, and the odometry movement amount is a concept including the movement distance of the vehicle and the movement direction of the vehicle.
移動量差算出部25は、前方カメラ移動量とオドメトリ移動量とを比較し、後方カメラ移動量とオドメトリ移動量とを比較する。具体的には、前方カメラ移動量とオドメトリ移動量との差(前方差)を算出し、後方カメラ移動量とオドメトリ移動量との差(後方差)を算出する。
The movement amount
移動量選択部26は、移動量差算出部25による比較結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を車両の移動量として選択する。例えば、前方カメラ移動量及び後方カメラ移動量のうち、オドメトリ移動量との差が小さい移動量を選択する。換言すれば、移動量選択部26は、移動量差算出部25により算出された前方差と後方差とを比較し、前方差と後方差のうち小さい方の移動量を選択する。前方差が小さい場合は前方カメラ移動量を選択し、後方差が小さい場合は後方カメラ移動量を選択する。前方差と後方差とが同じ場合、前方カメラ移動量及び後方カメラ移動量のいずれを選択しても構わない。前方差及び後方差のいずれも所定の基準範囲外である場合、前方カメラ移動量及び後方カメラ移動量を選択せずに、オドメトリ移動量を選択する。
The movement
前方画像又は後方画像に基づいて独立して算出される前方カメラ移動量及び後方カメラ移動量は、通常、誤差が少なく正確な値を示す。しかし、太陽光、風景の平坦度合いなどの環境の影響、また旋回や段差による車両挙動により、画像から抽出される特徴点の数が減少することや、特徴点までの距離を正確に求めることが難しいことがある。更に、マッチングに成功する特徴点の数が減少したり、特徴点のマッチングに成功しても特徴点の見え方に微妙な変化が生じ、マッチングの尤度が低下してしまう。このため、前方カメラ移動量及び後方カメラ移動量の算出精度は、通常は高いが、ロバスト性が低く、外乱の影響により著しく低下してしまう。 The amount of movement of the front camera and the amount of movement of the rear camera that are independently calculated based on the front image or the rear image are usually accurate with little error. However, the number of feature points extracted from the image can be reduced and the distance to the feature point can be accurately obtained due to environmental effects such as sunlight, the flatness of the landscape, and vehicle behavior due to turning and steps. It can be difficult. Furthermore, the number of feature points that succeed in matching decreases, or even if feature point matching succeeds, a subtle change occurs in the appearance of feature points, and the likelihood of matching decreases. For this reason, although the calculation accuracy of the amount of movement of the front camera and the amount of movement of the rear camera is usually high, the robustness is low, and it is significantly lowered due to the influence of disturbance.
また、抽出される特徴点の数のみを基準にしてカメラ移動量の算出精度を判断してしまうと、抽出される特徴点の数の減少やマッチングの尤度の低下が、太陽光が原因しているのか、或いは元々の輝度変化の少ない平坦な風景が原因しているのか、を判別できない。 In addition, if the calculation accuracy of the camera movement amount is judged based only on the number of extracted feature points, the decrease in the number of extracted feature points and the decrease in the likelihood of matching are caused by sunlight. It is impossible to determine whether it is caused by a flat landscape with little change in luminance.
そこで、ロバスト性が高く、高い精度を安定して得るために、先ず、異なる方向(前方及び後方)の車両の周囲を撮像して前方画像及び後方画像を取得することにより、少なくともいずれか一方の画像に対して太陽光の影響を受けにくくする。 Therefore, in order to stably obtain high accuracy with high robustness, first, by capturing the surroundings of the vehicle in different directions (front and rear) and acquiring the front image and the rear image, at least one of them is acquired. Make the image less susceptible to sunlight.
次に、車両信号(例えば、車輪側センサ)に基づいて算出される車両オドメトリは、誤差が累積することが一般的に知られており、長期的には精度が低いが、局所的に見ると、車両オドメトリの精度は、安定して高い。そこで、車両オドメトリに基づくオドメトリ移動量を参照値(リファレンス)として、前方カメラ移動量及び後方カメラ移動量の各々の誤差を評価する。つまり、移動量差算出部25が、前方カメラ移動量とオドメトリ移動量との前方差を算出し、後方カメラ移動量とオドメトリ移動量との後方差を算出する。
Next, vehicle odometry calculated based on vehicle signals (for example, wheel side sensors) is generally known to accumulate errors and is not accurate in the long run, but when viewed locally The accuracy of vehicle odometry is stable and high. Therefore, each error of the front camera movement amount and the rear camera movement amount is evaluated using the odometry movement amount based on the vehicle odometry as a reference value (reference). That is, the movement amount
そして、移動量選択部26は、原則として、オドメトリ移動量(リファレンス)との差が小さい方のカメラ移動量が、より精度が高い車両の移動量であると判断して、これを選択する。ただし、前方カメラ移動量及び後方カメラ移動量のいずれも大きな誤差を有している場合、リファレンスとして用いたオドメトリ移動量が、いずれのカメラ移動量よりも精度が高い車両の移動量であると判断して、これを選択する。
In principle, the movement
これにより、移動量選択部26は、車両の移動量を安定して精度よく算出することができる。換言すれば、太陽光、輝度変化の少ない平坦な風景などの車両の周囲の影響に対するロバスト性を高めることができる。
Thereby, the movement
特徴点学習部27は、前方画像又は後方画像に基づいて、地図、及び地図上における車両の自己位置及び車両の走行軌跡を算出する。算出方法は特に問わず、既存の方法を用いることができる。例えば、前方カメラ12a及び後方カメラ12bの各々は、車両が走行しながら繰り返し撮像を行い、複数のフレーム(画像)をそれぞれ取得する。前方カメラ移動量算出部22及び後方カメラ移動量算出部23の各々は、前方画像又は後方画像から特徴点をそれぞれ抽出し、特徴点の3次元位置をそれぞれ特定し、フレーム(画像)間における特徴点の3次元位置の変化から車両の移動量(前方カメラ移動量、後方カメラ移動量)をそれぞれ特定する。一方、車両オドメトリ算出部24は、タイムスタンプを用いて、フレーム(画像)間におけるオドメトリ移動量を算出する。
The feature
特徴点学習部27は、フレーム(画像)間で特徴点のマッチング処理を行う。そして、移動量選択部26は、フレーム(画像)間の車両の移動量を選択する。特徴点学習部27は、移動量選択部26により選択された車両の移動量に従って、特徴点の3次元位置を移動させる。これを繰り返すことにより、特徴点学習部27は、複数のフレームから抽出された複数の特徴点の3次元位置を1つの地図(環境マップを含む)上に表すことができる。また同時に、地図上における車両の自己位置及び車両の走行軌跡を特定することもできる。なお、カメラ(12a、12b)の画像に基づいて算出される車両の走行軌跡を「ビジュアルオドメトリ(VO)」と呼ぶ。
The feature
このように、特徴点学習部27が、特徴点に基づいて、地図(環境マップを含む)、車両の自己位置及び車両の走行軌跡を学習する時に、移動量選択部26により選択された車両の移動量を用いることができるので、学習の精度が向上する。
As described above, when the feature
更に、特徴点学習部27は、カメラ(12a、12b)の画像に基づいて、車両が走行した地点(チェックポイント)を学習する。具体的には、チェックポイントを車両が通過したときに撮影した画像に基づいて、チェックポイントを学習する。例えば、特徴点学習部27は、当該画像から抽出された特徴点の画像上の位置、又は特徴点の3次元位置に基づいて、チェックポイントを学習すればよい。尚、特徴点学習部27は、チェックポイントの間毎に分割して走行軌跡(ビジュアルオドメトリ)を学習してもよく、分割せず走行軌跡を学習するようにしてもよい。分割する際は、所定時間毎にでもよく、シーン毎(例えば、直進、カーブ、高速道、一般道、交差点)でもよく、分割する方法は問わない。更に、特徴点学習部27は、走行軌跡ビジュアルオドメトリの代わりに、車両信号に基づいて算出される車両の走行軌跡(車両オドメトリ)を学習しても構わない。走行軌跡(車両オドメトリ)の算出方法は、特に問わず、既存の方法を用いることができる。例えば、左右のタイヤの回転角度の差からヨーレートを算出し、ヨーレートを積分することにより車両のヨー角(車両の姿勢、進行方向を含む)を算出すればよい。勿論、ヨーレートセンサを用いても構わない。また、車両が備えるタイヤの回転量から車両の移動量を算出することができる。
Further, the feature
地図、車両の自己位置及び走行軌跡、及びチェックポイントを含む特徴点学習部27の学習結果は、特徴点記録装置16に記録される。
The learning result of the feature
自己位置推定部28は、特徴点学習部27が学習した地図、車両の自己位置及び走行軌跡、及びチェックポイントに基づいて、車両の自己位置を推定する。具体的には、車両がチェックポイントを通過した否かを確認し、最後に通過したチェックポイントからの車両の移動量に基づいて、現在の車両の自己位置を推定する。この時、自己位置推定部28は、最後に通過したチェックポイントからの車両の移動量として、移動量選択部26により選択された車両の移動量を用いる。これにより、自己位置の推定精度が向上する。
The self-
車両がチェックポイントを通過した否かを確認する方法は例えば次の通りである。自己位置推定部28は、チェックポイントを通過した時の画像(記録画像)及び記録画像中の特徴点の位置情報を、特徴点記録装置16から読み出す。そして、自己位置推定の時に撮影された画像(対象画像)中の特徴点と、記録画像中の特徴点との対応付けを行う。対応付けに成功した特徴点が所定の条件を満たした場合、チェックポイントにおけるカメラの位置及び姿勢を、走行制御時に再現できたと判断できる。即ち、対象画像は、記録画像を取得した時と同じカメラの位置及び姿勢において取得された、と判断できる。よって、この場合、通過確認部24は、チェックポイントを車両が通過したと判断する。
A method for confirming whether or not the vehicle has passed the checkpoint is, for example, as follows. The self-
なお、対応付けに成功した特徴点が所定の条件を満たしたか否かは、例えば、以下の方法を用いて判断することができる。先ず、記録画像中から抽出された特徴点の数をFsとする。対象画像中から抽出された特徴点のうち、記録画像中から抽出された特徴点と対応付けに成功した特徴点の数をFnとする。例えば、記録画像と対象画像との間で、車両に対する特徴点の相対位置のずれが所定値未満である場合、その特徴点は対応付けに成功したと判断する。画像通過確信度(Z)を、Z=Fn/Fsと定義する。画像通過確信度は、チェックポイントを車両が通過した可能性を示す。自己位置推定部28は、画像通過確信度が0.8未満である場合、画像通過確信度が低いため、対応付けに成功した特徴点が所定の条件を満たしていない、つまり、チェックポイントを車両が通過していない、と判断する。自己位置推定部28は、画像通過確信度が0.8以上である場合、対応付けに成功した特徴点が所定の条件を満たしている、つまり、チェックポイントを車両が通過したと判断する。
Note that whether or not a feature point that has been successfully matched satisfies a predetermined condition can be determined using, for example, the following method. First, let Fs be the number of feature points extracted from the recorded image. Of the feature points extracted from the target image, let Fn be the number of feature points successfully matched with the feature points extracted from the recorded image. For example, if the deviation of the relative position of the feature point with respect to the vehicle between the recorded image and the target image is less than a predetermined value, it is determined that the feature point has been successfully matched. The image passing certainty (Z) is defined as Z = Fn / Fs. The image passing certainty indicates the possibility that the vehicle has passed the checkpoint. When the image passing certainty is less than 0.8, the self-
自己位置推定処理において、前方カメラ12a及び後方カメラ12bの各々は、車両が走行しながら繰り返し撮像を行い、複数のフレーム(画像)をそれぞれ取得する。前方カメラ移動量算出部22及び後方カメラ移動量算出部23の各々は、前方画像又は後方画像から特徴点をそれぞれ抽出し、特徴点の3次元位置をそれぞれ特定し、フレーム(画像)間で特徴点のマッチング処理を行う。そして、フレーム(画像)間における特徴点の3次元位置の変化から車両の移動量(前方カメラ移動量、後方カメラ移動量)をそれぞれ特定する。一方、車両オドメトリ算出部24は、タイムスタンプを用いて、フレーム(画像)間におけるオドメトリ移動量を算出する。そして、移動量選択部26は、移動量差算出部25による比較結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を選択する。自己位置推定部28は、移動量選択部26により選択された車両の移動量に基づいて、最後に通過したチェックポイントからの車両の移動量を算出し、現在の車両の自己位置を推定する。
In the self-position estimation process, each of the
<自己位置推定方法>
次に、図2及び図3を参照して、自己位置推定装置の動作例を説明する。先ず、図2を参照して、学習時(オフライン時)の自己位置推定装置の動作を説明する。
<Self-position estimation method>
Next, with reference to FIG.2 and FIG.3, the operation example of a self-position estimation apparatus is demonstrated. First, the operation of the self-position estimation apparatus during learning (offline) will be described with reference to FIG.
ステップS51において、画像取得部21は、カメラ(12a、12b)を用いて車両の周囲を撮影して前方画像及び後方画像を取得する。画像取得部21は、カメラ(12a、12b)の撮影タイミングを同期させ、且つ、所定のフレームレート(1〜5FPS)で繰り返し撮影する。
In step S51, the
ステップS53に進み、前方カメラ移動量算出部22は、前方カメラ12aにより得られた前方画像を用いて前方カメラ移動量を算出する。ステップS55に進み、後方カメラ移動量算出部23は、後方カメラ12bにより得られた後方画像を用いて後方カメラ移動量を算出する。ステップS57に進み、車両オドメトリ算出部24は、車両センサ13からの検出結果に基づいて、オドメトリ移動量を算出する。
In step S53, the front camera movement amount calculation unit 22 calculates the front camera movement amount using the front image obtained by the
ステップS59に進み、移動量差算出部25は、前方カメラ移動量とオドメトリ移動量とを比較する。具体的には、前方カメラ移動量とオドメトリ移動量との差(前方差)を算出する。ステップS61に進み、移動量差算出部25は、後方カメラ移動量とオドメトリ移動量とを比較する。具体的には、後方カメラ移動量とオドメトリ移動量との差(後方差)を算出する。ステップS63に進み、移動量選択部26は、前方差及び後方差のいずれも基準範囲外であるか否かを判断する。前方差及び後方差のいずれも基準範囲外である場合(S63でYES)、前方カメラ移動量及び後方カメラ移動量のいずれも大きな誤差を含んでいると推測できる。よって、ステップS67に進み、移動量選択部26は、オドメトリ移動量を選択する。
In step S59, the movement amount
一方、前方差及び後方差の少なくとも一方が基準範囲内である場合(S63でNO)、前方カメラ移動量及び後方カメラ移動量の少なくとも一方は大きな誤差を含んでいないと推測できる。よって、ステップS65に進み、移動量選択部26は、前方差と後方差のうち小さい方の移動量を選択する。これにより、オドメトリ移動量を基準とした前方カメラ移動量及び後方カメラ移動量の誤差を比較して、誤差が小さいいずれか一方のカメラ移動量を選択することができる。このように、S63〜S67において、移動量選択部26は、移動量差算出部25による比較結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を選択することができる。
On the other hand, when at least one of the front difference and the rear difference is within the reference range (NO in S63), it can be estimated that at least one of the front camera movement amount and the rear camera movement amount does not include a large error. Therefore, it progresses to step S65 and the movement
特徴点学習部27は、ステップS65又はS67で選択された車両の移動量を用いて、特徴点に基づいて、地図、車両の自己位置、車両の走行軌跡、及びチェックポイントを学習し、特徴点及び走行軌跡を特徴点記録装置16に記録する。
The feature
次に、図3を参照して、自己位置推定時(オンライン時)の自己位置推定装置の動作を説明する。 Next, the operation of the self-position estimation apparatus at the time of self-position estimation (on-line) will be described with reference to FIG.
ステップS01において、自己位置推定部28は、特徴点記録装置16から特徴点及び走行軌跡を読み出す。読み出した特徴点を、「記録特徴点」と呼ぶ。ステップS03に進み、前方カメラ12aは車両の周囲を撮影し、画像取得部21は、前方画像を取得する。
In step S <b> 01, the self-
ステップS05に進み、前方カメラ移動量算出部22は、前方画像から特徴点を抽出する。抽出された特徴点を、「抽出特徴点」と呼ぶ。ステップS07に進み、前方カメラ移動量算出部22は、記録特徴点と抽出特徴点との対応付けを行う。記録特徴点の相対位置と抽出特徴点の相対位置とのずれが所定値未満である場合、記録特徴点と抽出特徴点との対応付けに成功したと判断する。 In step S05, the front camera movement amount calculation unit 22 extracts feature points from the front image. The extracted feature points are called “extracted feature points”. In step S07, the front camera movement amount calculation unit 22 associates the recorded feature points with the extracted feature points. When the deviation between the relative position of the recorded feature point and the relative position of the extracted feature point is less than a predetermined value, it is determined that the recorded feature point and the extracted feature point are successfully associated with each other.
ステップS09に進み、前方カメラ移動量算出部22は、対応付けに成功した抽出特徴点を用いて、前方カメラ移動量を算出する。 In step S09, the front camera movement amount calculation unit 22 calculates the front camera movement amount using the extracted feature points that have been successfully matched.
ステップS11に進み、後方カメラ12bは車両の周囲を撮影し、画像取得部21は、後方画像を取得する。ステップS13に進み、後方カメラ移動量算出部23は、後方カメラ12bにより得られた後方画像から特徴点を抽出する。ステップS15に進み、後方カメラ移動量算出部23は、記録特徴点と抽出特徴点との対応付けを行う。
In step S11, the
ステップS17に進み、後方カメラ移動量算出部23は、対応付けに成功した抽出特徴点を用いて、後方カメラ移動量を算出する。 Proceeding to step S <b> 17, the rear camera movement amount calculation unit 23 calculates the rear camera movement amount using the extracted feature points that have been successfully matched.
ステップS19に進み、車両オドメトリ算出部24は、車両センサ13からの検出結果に基づいて、オドメトリ移動量を算出する。
Proceeding to step S <b> 19, the vehicle
ステップS21に進み、移動量差算出部25は、前方カメラ移動量とオドメトリ移動量とを比較する。具体的には、前方カメラ移動量とオドメトリ移動量との差(前方差)を算出する。ステップS23に進み、移動量差算出部25は、後方カメラ移動量とオドメトリ移動量とを比較する。具体的には、後方カメラ移動量とオドメトリ移動量との差(後方差)を算出する。ステップS25に進み、移動量選択部26は、前方差及び後方差のいずれも所定の基準範囲外であるか否かを判断する。前方差及び後方差のいずれも基準範囲外である場合(S25でYES)、前方カメラ移動量及び後方カメラ移動量のいずれも大きな誤差を含んでいると推測できる。よって、ステップS29に進み、移動量選択部26は、オドメトリ移動量を選択する。
In step S21, the movement amount
一方、前方差及び後方差の少なくとも一方が基準範囲内である場合(S25でNO)、前方カメラ移動量及び後方カメラ移動量の少なくとも一方は大きな誤差を含んでいないと推測できる。よって、ステップS27に進み、移動量選択部26は、前方差と後方差のうち小さい方の移動量を選択する。これにより、オドメトリ移動量を基準とした前方カメラ移動量及び後方カメラ移動量の誤差を比較して、誤差が小さいいずれか一方のカメラ移動量を選択することができる。このように、S25〜S29において、移動量選択部26は、移動量差算出部25による比較結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を選択することができる。
On the other hand, when at least one of the front difference and the rear difference is within the reference range (NO in S25), it can be estimated that at least one of the front camera movement amount and the rear camera movement amount does not include a large error. Therefore, it progresses to step S27 and the movement
ステップS31に進み、自己位置推定部28は、ステップS01で読み込んだ特徴点に基づいて、車両がチェックポイントを通過した否かを確認する。そして、最後に通過したチェックポイントからの車両の移動量に基づいて、現在の車両の自己位置を推定する。この時、自己位置推定部28は、最後に通過したチェックポイントからの車両の移動量として、S25〜S29において選択された車両の移動量を用いる。
Proceeding to step S31, the self-
上記したように、学習時(オフライン時)及び自己位置推定時(オンライン時)において、自己位置推定装置は、フレーム(画像)間で特徴点のマッチング処理を行うことにより、前方カメラ移動量及び後方カメラ移動量を算出する。よって、フレーム(画像)から抽出される特徴点の数、又はマッチング処理に成功する特徴点の数が多い方が、カメラ移動量の精度は高くなる。 As described above, at the time of learning (offline) and at the time of self-position estimation (on-line), the self-position estimation device performs feature point matching processing between frames (images), thereby moving the front camera movement amount and the rear The amount of camera movement is calculated. Therefore, the accuracy of the camera movement amount increases as the number of feature points extracted from the frame (image) or the number of feature points that succeed in the matching process increases.
しかし、抽出される特徴点の数やマッチング処理に成功する特徴点の数、マッチングの尤度は、太陽の影響を強く受ける。図4Aに示すように、カメラ(12a、12b)の撮影方向が太陽40に対向している場合、カメラの撮像素子に入射する光の輝度が撮像素子のダイナミックレンジを超えてしまい、輝度分布の少ない画像となってしまう。このため、輝度分布の少ない画像から抽出される特徴点の数や、マッチング処理に成功する特徴点の数が大幅に減ってしまい、カメラ移動量の算出精度が低下してしまう。
However, the number of feature points to be extracted, the number of feature points successfully matched, and the likelihood of matching are strongly influenced by the sun. As shown in FIG. 4A, when the shooting direction of the camera (12a, 12b) faces the
更に、太陽光の影響を受けていなくても、元々の風景において輝度分布が少なければ、輝度分布の少ない画像となってしまう。このため、特徴点の数を基準とした場合には、太陽光と平坦な風景とを判別できない。 Furthermore, even if not affected by sunlight, if the luminance distribution is small in the original landscape, the image has a small luminance distribution. For this reason, when the number of feature points is used as a reference, it is not possible to distinguish between sunlight and a flat landscape.
そこで、図4Bに示すように、前方カメラ移動量41及び後方カメラ移動量42を独立して算出すると同時に、オドメトリ移動量43を算出する。オドメトリ移動量43(関数)に対して、前方カメラ移動量41及び後方カメラ移動量42をフィッティングする。オドメトリ移動量43との一致度が高いカメラ移動量(41、42)を選択する。
Therefore, as shown in FIG. 4B, the front camera movement amount 41 and the rear
図4Aに示すように、車両39が走行軌跡38に沿って走行するシーンを考える。出発地点において、前方カメラ12aは太陽40とは逆方向の車両39の周囲を撮像する。一方、後方カメラ12bは太陽40に向かって車両39の周囲を撮像する。車両39は、走行軌跡38に沿って180°だけ左旋回する。到達地点においては、前方カメラ12aは太陽40に向かって車両39の周囲を撮像し、後方カメラ12bは太陽40とは逆方向の車両39の周囲を撮像する。
As shown in FIG. 4A, consider a scene in which a
よって、図4Bに示すように、出発地点において、前方カメラ移動量41とオドメトリ移動量43との差は、後方カメラ移動量42とオドメトリ移動量43との差よりも小さい。よって、出発地点において、より精度が高い前方カメラ移動量41を選択することができる。
Therefore, as shown in FIG. 4B, at the departure point, the difference between the front camera movement amount 41 and the
その後、90°左旋回した時に、前方カメラ12a及び後方カメラ12bは、共に太陽40の影響を受けにくくなり、前方カメラ移動量41及び後方カメラ移動量42は共に、オドメトリ移動量43との差が小さくなる。
Thereafter, when turning left by 90 °, both the
そして、更に90°左旋回した到達地点において、前方カメラ移動量41とオドメトリ移動量43との差は、後方カメラ移動量42とオドメトリ移動量43との差よりも大きくなる。よって、到達地点において、より精度が高い後方カメラ移動量42を選択することができる。
Then, at the arrival point that has further turned left by 90 °, the difference between the front camera movement amount 41 and the
以上説明したように、実施形態によれば、以下の作用効果が得られる。 As described above, according to the embodiment, the following operational effects can be obtained.
自己位置推定装置は、前方カメラ移動量とオドメトリ移動量とを比較し、後方カメラ移動量とオドメトリ移動量とを比較し、これらの比較の結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を選択し、選択した移動量を用いて車両の位置を推定する。よって、自己位置推定装置は、車両の移動量を安定して精度よく算出することにより、車両の自己位置の推定精度を向上させることができる。換言すれば、太陽光、輝度変化の少ない平坦な風景などの車両の周囲の影響に対するロバスト性を高めることができる。 The self-position estimation device compares the amount of movement of the front camera and the amount of odometry, compares the amount of movement of the rear camera and the amount of odometry, and based on the result of the comparison, the amount of movement of the front camera and the amount of movement of the rear camera Then, one of the odometry movement amounts is selected, and the position of the vehicle is estimated using the selected movement amount. Therefore, the self-position estimation apparatus can improve the self-position estimation accuracy of the vehicle by calculating the amount of movement of the vehicle stably and accurately. In other words, it is possible to improve the robustness against the influence of the surroundings of the vehicle such as sunlight and a flat landscape with little luminance change.
自己位置推定装置は、前方カメラ移動量とオドメトリ移動量との差を算出し、後方カメラ移動量とオドメトリ移動量との差を算出し、前方カメラ移動量及び後方カメラ移動量のうち、オドメトリ移動量との差が小さい移動量を選択する。オドメトリ移動量を参照値(リファレンス)として、前方カメラ移動量及び後方カメラ移動量の各々の誤差の大きさを評価することができる。局所的に見ると、車両信号に基づいて算出されるオドメトリ移動量の精度は、安定して高い。よって、誤差の小さいカメラ移動量を選択することができる。 The self-position estimation device calculates a difference between the front camera movement amount and the odometry movement amount, calculates a difference between the rear camera movement amount and the odometry movement amount, and among the front camera movement amount and the rear camera movement amount, the odometry movement is calculated. Select a movement amount with a small difference from the amount. Using the odometry movement amount as a reference value (reference), the magnitude of each error of the front camera movement amount and the rear camera movement amount can be evaluated. When viewed locally, the accuracy of the odometry movement amount calculated based on the vehicle signal is stable and high. Therefore, it is possible to select a camera movement amount with a small error.
自己位置推定装置は、図4Bに示すように、予め定めた局所領域における前方カメラ移動量41、後方カメラ移動量42及びオドメトリ移動量43を算出し、前方カメラ移動量41及び後方カメラ移動量42の各々をオドメトリ移動量からなる関数43に対してフィッティングし、前方カメラ移動量41及び後方カメラ移動量42のうち、関数43との一致が高い移動量を選択する。オドメトリ移動量を関数43として用いて、前方カメラ移動量41及び後方カメラ移動量42との一致度を評価することができる。局所領域におけるオドメトリ移動量の精度は、安定して高い。よって、誤差の小さいカメラ移動量を選択することができる。
As shown in FIG. 4B, the self-position estimation apparatus calculates a front camera movement amount 41, a rear
自己位置推定装置は、前方カメラ移動量とオドメトリ移動量との差、後方カメラ移動量とオドメトリ移動量との差のいずれも、所定の範囲以内に収まらない場合は、オドメトリ移動量を選択する。前方カメラ移動量及び後方カメラ移動量のいずれも大きな誤差を有している場合、リファレンスとして用いたオドメトリ移動量が、いずれのカメラ移動量よりも精度が高い車両の移動量であると判断できる。よって、誤差の小さい車両の移動量を選択することができる。 The self-position estimation apparatus selects the odometry movement amount when the difference between the front camera movement amount and the odometry movement amount and the difference between the rear camera movement amount and the odometry movement amount are not within the predetermined range. When both the front camera movement amount and the rear camera movement amount have a large error, it can be determined that the odometry movement amount used as a reference is a vehicle movement amount with higher accuracy than any camera movement amount. Therefore, the movement amount of the vehicle with a small error can be selected.
以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。 Although the contents of the present invention have been described according to the embodiments, the present invention is not limited to these descriptions, and it is obvious to those skilled in the art that various modifications and improvements can be made.
車両の移動距離と車両の移動方向をまとめて車両の移動量として説明した。これに限らず、車両の移動距離と車両の移動方向の各々について、前方カメラ移動量、後方カメラ移動量、及びオドメトリ移動量を比較し、車両の移動距離と車両の移動方向の各々を個別に選択しても構わない。或いは、車両の移動量を、車両の移動距離と車両の移動方向のいずれか一方に置き換えて実施しても構わない。 The movement distance of the vehicle and the movement direction of the vehicle are collectively described as the movement amount of the vehicle. Not limited to this, the front camera movement amount, the rear camera movement amount, and the odometry movement amount are compared for each of the vehicle movement distance and the vehicle movement direction, and each of the vehicle movement distance and the vehicle movement direction is individually determined. You can choose. Alternatively, the movement amount of the vehicle may be replaced with one of the movement distance of the vehicle and the movement direction of the vehicle.
図2及び図3のフローチャートにおいて、可能な限りにおいて、順番を変更して実施してもよい。例えば、図3において、ステップS03〜S09と、ステップS11〜S17と、ステップS19とは、互いに順番を入れ替えて実施しても構わない。或いは、同時に実施しても構わない。 In the flowcharts of FIGS. 2 and 3, the order may be changed as much as possible. For example, in FIG. 3, steps S03 to S09, steps S11 to S17, and step S19 may be performed with the order reversed. Or you may implement simultaneously.
尚、本実施形態における自己位置推定装置は、ドライバーの介入なしに車両を走行させる自動運転、ドライバーの介入に基づいて車両を走行させる手動運転に用いることができる。自動運転に用いる場合は、本実施形態における自己位置推定装置によって求めた自己位置を用いて、車両の走行軌跡を設定し、走行軌跡に基づいて車両を制御する。手動運転に用いる場合は、本実施形態における自己位置推定装置によって求めた自己位置を用いて、乗員に自己位置を知らせることや、いわゆるナビゲーション装置により走行計画を設定することができる。また、本実施形態における自己位置推定装置は、対象物(例えば、物標、白線、道路形状)を学習する、地図を生成する際に用いることができる。 In addition, the self-position estimation apparatus in this embodiment can be used for automatic driving for driving the vehicle without driver intervention and manual driving for driving the vehicle based on driver intervention. When used for automatic driving, a travel locus of the vehicle is set using the self-position obtained by the self-position estimation apparatus in the present embodiment, and the vehicle is controlled based on the travel locus. When used for manual operation, it is possible to notify the occupant of the self position using the self position obtained by the self position estimating apparatus in the present embodiment, or to set a travel plan using a so-called navigation device. Moreover, the self-position estimation apparatus in this embodiment can be used when learning a target object (for example, a target, a white line, a road shape) and generating a map.
12a 第1のカメラ
12b 第2のカメラ
21 画像取得部(画像取得回路)
22 前方カメラ移動量算出部(第1の移動量算出回路)
23 後方カメラ移動量算出部(第2の移動量算出回路)
24 車両オドメトリ算出部(第3の移動量算出回路)
25 移動量差算出部(移動量比較回路)
26 移動量選択部(移動量選択回路)
28 自己位置推定部(自己位置推定回路)
39 車両
41 前方カメラ移動量(第1の移動量)
42 後方カメラ移動量(第2の移動量)
43 オドメトリ移動量(第3の移動量)
22 Front camera movement amount calculation unit (first movement amount calculation circuit)
23 Rear camera movement amount calculation unit (second movement amount calculation circuit)
24 vehicle odometry calculation unit (third movement amount calculation circuit)
25 Movement amount difference calculation unit (movement amount comparison circuit)
26 Movement amount selection section (movement amount selection circuit)
28 Self-position estimation unit (self-position estimation circuit)
39 Vehicle 41 Front camera movement amount (first movement amount)
42 Rear camera travel (second travel)
43 Odometry travel (third travel)
Claims (5)
前記第1のカメラを用いて第1の方向の前記車両の周囲を撮像して第1の画像を取得し、
前記第2のカメラを用いて前記第1の方向とは異なる第2の方向の前記車両の周囲を撮像して第2の画像を取得し、
前記第1の画像を用いて前記車両の第1の移動量を算出し、
前記第2の画像を用いて前記車両の第2の移動量を算出し、
前記車両から出力される車両信号を用いて前記車両の第3の移動量を算出し、
前記第1の移動量と前記第3の移動量とを比較し、
前記第2の移動量と前記第3の移動量とを比較し、
前記比較の結果に基づいて、前記第1の移動量、前記第2の移動量及び前記第3の移動量のうち、いずれかの移動量を選択し、
選択した前記移動量を用いて、前記車両の位置を推定する
自己位置推定方法。 A self-position estimation method of a self-position estimation apparatus that estimates the position of the vehicle using a first camera and a second camera mounted on the vehicle,
Using the first camera to capture a first image by imaging the surroundings of the vehicle in a first direction;
Using the second camera to obtain a second image by imaging the periphery of the vehicle in a second direction different from the first direction;
A first movement amount of the vehicle is calculated using the first image;
A second movement amount of the vehicle is calculated using the second image;
A third movement amount of the vehicle is calculated using a vehicle signal output from the vehicle;
Comparing the first movement amount and the third movement amount;
Comparing the second movement amount and the third movement amount;
Based on the result of the comparison, select one of the first movement amount, the second movement amount, and the third movement amount,
A self-position estimation method for estimating the position of the vehicle using the selected amount of movement.
前記第1の移動量と前記第3の移動量との差を算出し、
前記第2の移動量と前記第3の移動量との差を算出し、
前記第1の移動量及び前記第2の移動量のうち、前記第3の移動量との前記差が小さい移動量を選択する
自己位置推定方法。 The self-position estimation method according to claim 1,
Calculating a difference between the first movement amount and the third movement amount;
Calculating a difference between the second movement amount and the third movement amount;
A self-position estimation method for selecting a movement amount having a small difference from the third movement amount from the first movement amount and the second movement amount.
予め定めた局所領域における前記第1の移動量、前記第2の移動量及び前記第3の移動量を算出し、
前記第1の移動量及び前記第2の移動量の各々を第3の移動量からなる関数に対してフィッティングし、
前記第1の移動量及び前記第2の移動量のうち、前記関数との一致が高い移動量を選択する
自己位置推定方法。 The self-position estimation method according to claim 1,
Calculating the first movement amount, the second movement amount and the third movement amount in a predetermined local region;
Fitting each of the first movement amount and the second movement amount to a function consisting of a third movement amount;
A self-position estimation method for selecting a movement amount having a high match with the function from the first movement amount and the second movement amount.
前記第1の移動量と前記第3の移動量との差、前記第2の移動量と前記第3の移動量との差のいずれも、所定の基準範囲内に収まらない場合は、前記第3の移動量を選択する
自己位置推定方法。 The self-position estimation method according to claim 2,
If neither the difference between the first movement amount and the third movement amount nor the difference between the second movement amount and the third movement amount falls within a predetermined reference range, A self-position estimation method for selecting a movement amount of 3.
前記第1のカメラを用いて第1の方向の前記車両の周囲を撮像して第1の画像を取得し、前記第2のカメラを用いて前記第1の方向とは異なる第2の方向の前記車両の周囲を撮像して第2の画像を取得する画像取得回路と、
前記第1の画像を用いて前記車両の第1の移動量を算出する第1の移動量算出回路と、
前記第2の画像を用いて前記車両の第2の移動量を算出する第2の移動量算出回路と、
前記車両から出力される車両信号を用いて前記車両の第3の移動量を算出する第3の移動量算出回路と、
前記第1の移動量と前記第3の移動量とを比較し、前記第2の移動量と前記第3の移動量とを比較する移動量比較回路と、
前記移動量比較回路の比較結果に基づいて、前記第1の移動量、前記第2の移動量及び前記第3の移動量のうち、いずれかの移動量を選択する移動量選択回路と、
選択した前記移動量を用いて、前記車両の位置を推定する自己位置推定回路と
を有する自己位置推定装置。 A self-position estimation device that estimates the position of the vehicle using a first camera and a second camera mounted on the vehicle,
The first camera is used to capture an image of the periphery of the vehicle in a first direction to obtain a first image, and the second camera is used to obtain a second direction different from the first direction. An image acquisition circuit that captures an image of the periphery of the vehicle to acquire a second image;
A first movement amount calculation circuit for calculating a first movement amount of the vehicle using the first image;
A second movement amount calculation circuit for calculating a second movement amount of the vehicle using the second image;
A third movement amount calculation circuit for calculating a third movement amount of the vehicle using a vehicle signal output from the vehicle;
A movement amount comparison circuit that compares the first movement amount and the third movement amount and compares the second movement amount and the third movement amount;
A movement amount selection circuit that selects any one of the first movement amount, the second movement amount, and the third movement amount based on a comparison result of the movement amount comparison circuit;
A self-position estimation apparatus comprising a self-position estimation circuit that estimates the position of the vehicle using the selected amount of movement.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017120503A JP2019007739A (en) | 2017-06-20 | 2017-06-20 | Self position estimation method and self position estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017120503A JP2019007739A (en) | 2017-06-20 | 2017-06-20 | Self position estimation method and self position estimation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019007739A true JP2019007739A (en) | 2019-01-17 |
Family
ID=65028710
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017120503A Pending JP2019007739A (en) | 2017-06-20 | 2017-06-20 | Self position estimation method and self position estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019007739A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110866482A (en) * | 2019-11-08 | 2020-03-06 | 广东工业大学 | Dynamic selection method, device and equipment for odometer data source |
WO2021065594A1 (en) * | 2019-10-01 | 2021-04-08 | ソニーセミコンダクタソリューションズ株式会社 | Self-position estimation device, autonomous moving body, self-position estimation method and program |
US11461928B2 (en) | 2019-09-06 | 2022-10-04 | Kabushiki Kaisha Toshiba | Location estimation apparatus |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04151562A (en) * | 1990-10-15 | 1992-05-25 | Mazda Motor Corp | Yaw-motion detecting apparatus for vehicle |
JP2007163223A (en) * | 2005-12-12 | 2007-06-28 | Sharp Corp | Travel sensing system |
JP2008175717A (en) * | 2007-01-19 | 2008-07-31 | Xanavi Informatics Corp | System for computing current position, and method for computing current position |
JP2012173874A (en) * | 2011-02-18 | 2012-09-10 | Fujitsu Ltd | Distance calculation program, distance calculation method, and distance calculation apparatus |
JP2015111336A (en) * | 2013-12-06 | 2015-06-18 | トヨタ自動車株式会社 | Mobile robot |
WO2017010268A1 (en) * | 2015-07-13 | 2017-01-19 | トヨタ自動車株式会社 | Estimation device and estimation program |
-
2017
- 2017-06-20 JP JP2017120503A patent/JP2019007739A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04151562A (en) * | 1990-10-15 | 1992-05-25 | Mazda Motor Corp | Yaw-motion detecting apparatus for vehicle |
JP2007163223A (en) * | 2005-12-12 | 2007-06-28 | Sharp Corp | Travel sensing system |
JP2008175717A (en) * | 2007-01-19 | 2008-07-31 | Xanavi Informatics Corp | System for computing current position, and method for computing current position |
JP2012173874A (en) * | 2011-02-18 | 2012-09-10 | Fujitsu Ltd | Distance calculation program, distance calculation method, and distance calculation apparatus |
JP2015111336A (en) * | 2013-12-06 | 2015-06-18 | トヨタ自動車株式会社 | Mobile robot |
WO2017010268A1 (en) * | 2015-07-13 | 2017-01-19 | トヨタ自動車株式会社 | Estimation device and estimation program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11461928B2 (en) | 2019-09-06 | 2022-10-04 | Kabushiki Kaisha Toshiba | Location estimation apparatus |
WO2021065594A1 (en) * | 2019-10-01 | 2021-04-08 | ソニーセミコンダクタソリューションズ株式会社 | Self-position estimation device, autonomous moving body, self-position estimation method and program |
CN110866482A (en) * | 2019-11-08 | 2020-03-06 | 广东工业大学 | Dynamic selection method, device and equipment for odometer data source |
CN110866482B (en) * | 2019-11-08 | 2022-09-16 | 广东工业大学 | Dynamic selection method, device and equipment for odometer data source |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2933790B1 (en) | Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method | |
JP4962581B2 (en) | Lane marking detector | |
CN109716062B (en) | Posture estimation device | |
JP7096053B2 (en) | Methods and equipment for calibrating the vehicle camera of the vehicle | |
JP6776202B2 (en) | In-vehicle camera calibration device and method | |
JP4670528B2 (en) | Imaging device deviation detection method, imaging device deviation correction method, and imaging device | |
JP2019007739A (en) | Self position estimation method and self position estimation device | |
JP6773223B2 (en) | Travel control method and travel control device | |
EP4001844A1 (en) | Method and apparatus with localization | |
KR101894052B1 (en) | Apparatus for calculating velocity of vehicle of video recording system using vehicle and method thereof | |
US20110304734A1 (en) | Method and apparatus for operating a video-based driver assistance system in a vehicle | |
JP7234840B2 (en) | position estimator | |
JP5425500B2 (en) | Calibration apparatus and calibration method | |
KR20140138635A (en) | Inertial sensor enhancement | |
JP5193148B2 (en) | Vehicle imaging device | |
JP2019132762A (en) | Vehicle position estimating device | |
KR20220150164A (en) | Object detecting apparatus, object detecting method, and autonomous vehicle | |
KR101199940B1 (en) | Apparatus for image tracking | |
CN111326012A (en) | Image processing apparatus and image processing method | |
US11410288B2 (en) | Image processing apparatus | |
JP5056436B2 (en) | 3D map generation apparatus and program | |
WO2016207934A1 (en) | Characteristic selecting device, moving state measuring device, moving state measuring system, work machine, and vehicle | |
CN115471565A (en) | Non-target calibration of camera and inertial sensor in vehicle | |
JP5962331B2 (en) | Speed estimation apparatus and speed estimation method | |
CN117723055A (en) | Low-cost positioning method and system for autonomous passenger parking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200409 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210302 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220510 |