JP2019007739A - Self position estimation method and self position estimation device - Google Patents

Self position estimation method and self position estimation device Download PDF

Info

Publication number
JP2019007739A
JP2019007739A JP2017120503A JP2017120503A JP2019007739A JP 2019007739 A JP2019007739 A JP 2019007739A JP 2017120503 A JP2017120503 A JP 2017120503A JP 2017120503 A JP2017120503 A JP 2017120503A JP 2019007739 A JP2019007739 A JP 2019007739A
Authority
JP
Japan
Prior art keywords
movement amount
vehicle
image
self
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017120503A
Other languages
Japanese (ja)
Inventor
泰仁 佐野
Yasuhito Sano
泰仁 佐野
博幸 ▲高▼野
博幸 ▲高▼野
Hiroyuki Takano
祐一 武田
Yuichi Takeda
祐一 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2017120503A priority Critical patent/JP2019007739A/en
Publication of JP2019007739A publication Critical patent/JP2019007739A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To improve estimation accuracy of the self position of a vehicle by estimating the amount of movement of the vehicle stably and accurately.SOLUTION: A first image is acquired by capturing an image of the periphery of the vehicle in the first direction by using a first camera, a second image is acquired by capturing an image of the periphery of the vehicle in the second direction different from the first direction by using a second camera, a first movement amount of the vehicle is calculated by using the first image, a second movement amount of the vehicle is calculated by using the second image, a third movement amount of the vehicle is calculated by using a vehicle signal output from the vehicle, the first movement amount is compared with the third movement amount, the second movement amount is compared with the third movement amount, one of the first movement amount, the second movement amount and the third movement amount is selected based on the result of the comparison and a position of the vehicle is estimated by using the selected movement amount.SELECTED DRAWING: Figure 3

Description

本発明は、自己位置推定方法及び自己位置推定装置に関する。   The present invention relates to a self-position estimation method and a self-position estimation apparatus.

従来から、互いに異なる時刻にカメラで撮影された物体の画像上の位置の差とカメラの移動量とに基づいて物体の3次元位置を計測する3次元位置計測装置が知られている(特許文献1参照)。特許文献1では、画像から抽出された特徴点の位置の変化から、カメラ或いは移動体の移動量を算出している。   2. Description of the Related Art Conventionally, there is known a three-dimensional position measurement device that measures a three-dimensional position of an object based on a difference in position on an image of an object photographed by a camera at different times and a moving amount of the camera (Patent Document). 1). In Patent Document 1, the movement amount of the camera or the moving body is calculated from the change in the position of the feature point extracted from the image.

特開2014−106092号公報JP 2014-106092 A

しかし、特許文献1では、カメラを用いて移動体の移動量を算出するものの、複数のカメラから得られた情報のうち、移動体の3次元位置の計測精度を向上させるために、選択的に情報を用いていない。   However, in Patent Document 1, although the amount of movement of the moving object is calculated using a camera, in order to improve the measurement accuracy of the three-dimensional position of the moving object among information obtained from a plurality of cameras, it is selectively used. Information is not used.

本発明は、このような従来の課題に鑑みてなされたものであり、その目的は、車両の移動量を安定して精度よく算出することにより、車両の自己位置の推定精度を向上させることである。   The present invention has been made in view of such a conventional problem, and an object of the present invention is to improve the estimation accuracy of the vehicle's own position by stably and accurately calculating the movement amount of the vehicle. is there.

本発明の一態様に係わる自己位置推定方法は、第1のカメラを用いて第1の方向の車両の周囲を撮像して第1の画像を取得し、第2のカメラを用いて第1の方向とは異なる第2の方向の車両の周囲を撮像して第2の画像を取得し、第1の画像を用いて車両の第1の移動量を算出し、第2の画像を用いて車両の第2の移動量を算出し、車両から出力される車両信号を用いて車両の第3の移動量を算出し、第1の移動量と第3の移動量とを比較し、第2の移動量と第3の移動量とを比較し、比較の結果に基づいて、第1の移動量、第2の移動量及び第3の移動量のうち、いずれかの移動量を選択し、選択した移動量を用いて、車両の位置を推定する。   In the self-position estimation method according to one aspect of the present invention, the first camera is used to capture an image of the surroundings of the vehicle in the first direction, the first image is obtained, and the second camera is used to obtain the first image. A second image is obtained by imaging the surroundings of the vehicle in a second direction different from the direction, the first movement amount of the vehicle is calculated using the first image, and the vehicle using the second image The second movement amount is calculated, the third movement amount of the vehicle is calculated using the vehicle signal output from the vehicle, the first movement amount is compared with the third movement amount, and the second movement amount is compared. The movement amount is compared with the third movement amount, and one of the first movement amount, the second movement amount, and the third movement amount is selected and selected based on the comparison result. The position of the vehicle is estimated using the travel amount.

本発明の一態様によれば、車両の移動量を安定して精度よく算出することにより、車両の自己位置の推定精度を向上させることができる。   According to one aspect of the present invention, it is possible to improve the estimation accuracy of the vehicle's own position by stably and accurately calculating the amount of movement of the vehicle.

図1は、実施形態に係わる自己位置推定装置の全体構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing the overall configuration of the self-position estimation apparatus according to the embodiment. 図2は、学習時(オフライン時)の図1の自己位置推定装置の動作の一例を示すフローチャートである。FIG. 2 is a flowchart showing an example of the operation of the self-position estimation apparatus of FIG. 1 during learning (offline). 図3は、自己位置推定時(オンライン時)の図1の自己位置推定装置の動作の一例を示すフローチャートである。FIG. 3 is a flowchart showing an example of the operation of the self-position estimation apparatus of FIG. 1 at the time of self-position estimation (on-line). 図4Aは、太陽40に対する前方カメラ12a及び後方カメラ12bの向きの時間変化を示す図である。FIG. 4A is a diagram illustrating temporal changes in the orientation of the front camera 12a and the rear camera 12b with respect to the sun 40. FIG. 図4Bは、図4Aの走行軌跡38に沿って車両39が走行した場合において、前方カメラ移動量41、後方カメラ移動量42、及びオドメトリ移動量43の時間変化を示す図である。FIG. 4B is a diagram illustrating temporal changes of the front camera movement amount 41, the rear camera movement amount 42, and the odometry movement amount 43 when the vehicle 39 travels along the travel locus 38 of FIG. 4A.

次に、図面を参照して、実施形態を詳細に説明する。   Next, embodiments will be described in detail with reference to the drawings.

<自己位置推定装置>
図1を参照して、実施形態に係わる自己位置推定装置の全体構成を説明する。自己位置推定装置は、車両に搭載された前方カメラ12a(第1のカメラ)及び後方カメラ12b(第2のカメラ)と、車両センサ13と、特徴点及び走行軌跡を記録する特徴点記録装置16と、チェックポイント及び走行軌跡を学習し、車両の位置を推定するコントローラ11とを備える。
<Self-position estimation device>
With reference to FIG. 1, the overall configuration of the self-position estimation apparatus according to the embodiment will be described. The self-position estimation device includes a front camera 12a (first camera) and a rear camera 12b (second camera) mounted on a vehicle, a vehicle sensor 13, and a feature point recording device 16 that records a feature point and a travel locus. And a controller 11 that learns checkpoints and travel trajectories and estimates the position of the vehicle.

前方カメラ12aは、車両を基準にして定められた第1の方向(ここでは、「車両の前方」)の車両の周囲を撮像して画像データ(前方画像:第1の画像)を生成する。後方カメラ12bは、車両を基準にして定められた第1の方向とは異なる第2の方向(ここでは、「車両の後方」)の車両の周囲を撮像して画像データ(後方画像:第2の画像)を生成する。カメラ(12a、12b)は、互いに異なる方向の車両の周囲を同時に撮影することができる。ここでは、異なる方向として車両の前後方向を例示するが、車両の左右方向、或いはその他の方向の組合せであっても構わない。また、第1の方向と第2の方向の角度差が180°である必要はなく、ゼロではない所定の角度の差を有するように、カメラ(12a、12b)の撮像方向が定められている。   The front camera 12a captures the surroundings of the vehicle in a first direction (here, “front of the vehicle”) determined with reference to the vehicle, and generates image data (front image: first image). The rear camera 12b picks up an image of the periphery of the vehicle in a second direction (here, “rear of the vehicle”) that is different from the first direction determined with reference to the vehicle, and outputs image data (rear image: second image). Image). The cameras (12a, 12b) can simultaneously photograph around the vehicle in different directions. Here, the front-rear direction of the vehicle is illustrated as a different direction, but the left-right direction of the vehicle or a combination of other directions may be used. The angle difference between the first direction and the second direction does not need to be 180 °, and the imaging direction of the cameras (12a, 12b) is determined so as to have a predetermined angle difference that is not zero. .

前方カメラ12a及び後方カメラ12bの各々は、ステレオカメラであっても単眼カメラであっても構わない。前方カメラ12a及び後方カメラ12bの各々が生成する画像データから、物体(特徴点)の奥行き情報を取得することができる。つまり、各画像データから、車両の周囲の物体の3次元位置を計測することが可能である。   Each of the front camera 12a and the rear camera 12b may be a stereo camera or a monocular camera. The depth information of the object (feature point) can be acquired from the image data generated by each of the front camera 12a and the rear camera 12b. That is, it is possible to measure the three-dimensional position of an object around the vehicle from each image data.

車両センサ13は、車両に搭載され、車両から得られる様々な情報(車両信号)を検出する。車両センサ13には、例えば、車両の走行速度(車速)を検出する車速センサ、車両が備える各タイヤの回転速度を検出する車輪速センサ、車両の3軸方向の加速度(減速度を含む)を検出する3軸加速度センサ(Gセンサ)、操舵角(転舵角を含む)を検出する操舵角センサ、車両に生じる角速度を検出するジャイロセンサ、ヨーレートを検出するヨーレートセンサが含まれる。   The vehicle sensor 13 is mounted on the vehicle and detects various information (vehicle signals) obtained from the vehicle. The vehicle sensor 13 includes, for example, a vehicle speed sensor that detects the traveling speed (vehicle speed) of the vehicle, a wheel speed sensor that detects the rotational speed of each tire included in the vehicle, and acceleration (including deceleration) in the three-axis directions of the vehicle. A triaxial acceleration sensor (G sensor) for detecting, a steering angle sensor for detecting a steering angle (including a turning angle), a gyro sensor for detecting an angular velocity generated in the vehicle, and a yaw rate sensor for detecting a yaw rate are included.

コントローラ11は、前方カメラ12a及び後方カメラ12b及び車両センサ13から得られるデータに基づいて、車両の自己位置及び走行軌跡を学習し、学習結果に基づいて車両の自己位置を推定する。   The controller 11 learns the vehicle's own position and travel locus based on the data obtained from the front camera 12a, the rear camera 12b, and the vehicle sensor 13, and estimates the vehicle's own position based on the learning result.

コントローラ11は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータを用いて実現可能である。コントローラ11には、自己位置推定装置として機能させるためのコンピュータプログラム(自己位置推定プログラム)がインストールされ、メモリに記憶されている。コンピュータプログラムを実行することにより、コントローラ11は、自己位置推定装置が備える複数の情報処理回路(21〜28)として機能する。なお、実施形態では、ソフトウェアによって自己位置推定装置が備える複数の情報処理回路(21〜28)を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路(21〜28)を構成することも可能である。また、複数の情報処理回路(21〜28)を個別のハードウェアにより構成してもよい。更に、情報処理回路(21〜28)は、車両に関わる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。   The controller 11 can be realized by using a general-purpose microcomputer including a CPU (Central Processing Unit), a memory, and an input / output unit. A computer program (self-position estimation program) for causing the controller 11 to function as a self-position estimation apparatus is installed and stored in a memory. By executing the computer program, the controller 11 functions as a plurality of information processing circuits (21 to 28) included in the self-position estimation apparatus. In addition, although embodiment demonstrates the example which implement | achieves several information processing circuits (21-28) with which a self-position estimation apparatus is provided with software, of course, the hardware for exclusive use for performing each information processing shown below is shown. It is also possible to prepare and configure the information processing circuits (21 to 28). Further, the plurality of information processing circuits (21 to 28) may be configured by individual hardware. Further, the information processing circuits (21 to 28) may also be used as an electronic control unit (ECU) used for other control related to the vehicle.

コントローラ11は、複数の情報処理回路として、画像取得部21(画像取得回路)と、前方カメラ移動量算出部22(第1の移動量算出回路)と、後方カメラ移動量算出部23(第2の移動量算出回路)と、車両オドメトリ算出部24(第3の移動量算出回路)と、移動量差算出部25(移動量比較回路)と、移動量選択部26(移動量選択回路)と、特徴点学習部27と、自己位置推定部28(自己位置推定回路)とを備える。   The controller 11 includes, as a plurality of information processing circuits, an image acquisition unit 21 (image acquisition circuit), a front camera movement amount calculation unit 22 (first movement amount calculation circuit), and a rear camera movement amount calculation unit 23 (second Movement amount calculation circuit), vehicle odometry calculation unit 24 (third movement amount calculation circuit), movement amount difference calculation unit 25 (movement amount comparison circuit), movement amount selection unit 26 (movement amount selection circuit), , A feature point learning unit 27 and a self-position estimation unit 28 (self-position estimation circuit).

特徴点記録装置16には、特徴点学習部27による学習結果が記録される。   A learning result by the feature point learning unit 27 is recorded in the feature point recording device 16.

画像取得部21は、前方カメラ12a及び後方カメラ12bの各々の撮影により得られた画像データを取得する。詳細には、画像取得部21は、画像データと共に、その撮影タイミングを示すタイムスタンプも同時に取得する。   The image acquisition unit 21 acquires image data obtained by photographing each of the front camera 12a and the rear camera 12b. Specifically, the image acquisition unit 21 simultaneously acquires a time stamp indicating the photographing timing together with the image data.

前方カメラ移動量算出部22は、前方カメラ12aにより得られた前方画像を用いて車両の移動量(前方カメラ移動量:第1の移動量)を算出する。前方カメラ移動量の算出方法は特に問わず、既存の方法を用いることができる。例えば、先ず、前方画像の中から特徴点をそれぞれ抽出し、特徴点のステレオマッチング処理及び視差情報に基づき、特徴点の3次元位置を特定する。そして、車両が走行しながら繰り返し撮像を行い、フレーム(画像)間で特徴点のマッチング処理を行う。特徴点の3次元位置の変化から、車両の移動量(前方カメラ移動量)を算出することができる。後方カメラ移動量算出部23は、後方カメラ12bにより得られた後方画像を用いて車両の移動量(後方カメラ移動量:第2の移動量)を算出する。後方カメラ移動量算出部23も、前方カメラ移動量算出部22と同様に、既存の方法を用いて後方カメラ移動量を特定する。   The front camera movement amount calculation unit 22 calculates the movement amount of the vehicle (front camera movement amount: first movement amount) using the front image obtained by the front camera 12a. The calculation method of the front camera movement amount is not particularly limited, and an existing method can be used. For example, first, feature points are extracted from the front image, and the three-dimensional positions of the feature points are specified based on the stereo matching processing of the feature points and the parallax information. Then, imaging is repeated while the vehicle travels, and feature point matching processing is performed between frames (images). From the change in the three-dimensional position of the feature point, the amount of movement of the vehicle (the amount of movement of the front camera) can be calculated. The rear camera movement amount calculation unit 23 calculates the movement amount of the vehicle (rear camera movement amount: second movement amount) using the rear image obtained by the rear camera 12b. Similarly to the front camera movement amount calculation unit 22, the rear camera movement amount calculation unit 23 also specifies the rear camera movement amount using an existing method.

車両オドメトリ算出部24は、車両センサ13からの検出結果に基づいて、車両の移動量(オドメトリ移動量:第3の移動量)を算出する。先ず、車両オドメトリ算出部24は、車両センサ13からの検出結果を、車両から得られる車両信号として取得する。詳細には、車両オドメトリ算出部24は、車両信号と共に、その検出タイミングを示すタイムスタップも同時に取得する。撮像タイミング及び検出タイミングの各々を示すタイムスタップを、画像データ及び車両信号と共に受信することにより、画像データ及び車両信号を時間軸により関連付けることが可能となる。   The vehicle odometry calculation unit 24 calculates the movement amount of the vehicle (odometry movement amount: third movement amount) based on the detection result from the vehicle sensor 13. First, the vehicle odometry calculation unit 24 acquires the detection result from the vehicle sensor 13 as a vehicle signal obtained from the vehicle. Specifically, the vehicle odometry calculation unit 24 simultaneously acquires a time stamp indicating the detection timing along with the vehicle signal. By receiving a time stamp indicating each of the imaging timing and the detection timing together with the image data and the vehicle signal, the image data and the vehicle signal can be associated with each other on the time axis.

車両オドメトリ算出部24は、車両センサ13により検出された車両信号に基づいて、車両の走行軌跡を算出する。走行軌跡の算出方法は、特に問わず、既存の方法を用いることができる。例えば、左右のタイヤの回転角度の差からヨーレートを算出し、ヨーレートを積分することにより車両のヨー角(車両の姿勢、進行方向を含む)を算出すればよい。勿論、ヨーレートセンサを用いても構わない。また、車両が備えるタイヤの回転量から車両の移動量を算出することができる。車両信号に基づいて算出される車両の走行軌跡を「車両オドメトリ」と呼ぶ。車両オドメトリ算出部24は、車両オドメトリから、所定の時間における車両の移動量(オドメトリ移動量:第3の移動量)を算出する。   The vehicle odometry calculation unit 24 calculates the travel locus of the vehicle based on the vehicle signal detected by the vehicle sensor 13. The method for calculating the travel locus is not particularly limited, and an existing method can be used. For example, the yaw rate may be calculated from the difference between the rotation angles of the left and right tires, and the yaw angle of the vehicle (including the attitude of the vehicle and the traveling direction) may be calculated by integrating the yaw rate. Of course, a yaw rate sensor may be used. Further, the movement amount of the vehicle can be calculated from the rotation amount of the tire provided in the vehicle. The travel locus of the vehicle calculated based on the vehicle signal is referred to as “vehicle odometry”. The vehicle odometry calculation unit 24 calculates the amount of vehicle movement (odometry movement amount: third movement amount) in a predetermined time from the vehicle odometry.

なお、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量を含む「車両の移動量」は、車両の移動距離、及び車両の移動方向を含む概念である。   The “vehicle movement amount” including the front camera movement amount, the rear camera movement amount, and the odometry movement amount is a concept including the movement distance of the vehicle and the movement direction of the vehicle.

移動量差算出部25は、前方カメラ移動量とオドメトリ移動量とを比較し、後方カメラ移動量とオドメトリ移動量とを比較する。具体的には、前方カメラ移動量とオドメトリ移動量との差(前方差)を算出し、後方カメラ移動量とオドメトリ移動量との差(後方差)を算出する。   The movement amount difference calculation unit 25 compares the front camera movement amount and the odometry movement amount, and compares the rear camera movement amount and the odometry movement amount. Specifically, the difference (forward difference) between the front camera movement amount and the odometry movement amount is calculated, and the difference (rear difference) between the rear camera movement amount and the odometry movement amount is calculated.

移動量選択部26は、移動量差算出部25による比較結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を車両の移動量として選択する。例えば、前方カメラ移動量及び後方カメラ移動量のうち、オドメトリ移動量との差が小さい移動量を選択する。換言すれば、移動量選択部26は、移動量差算出部25により算出された前方差と後方差とを比較し、前方差と後方差のうち小さい方の移動量を選択する。前方差が小さい場合は前方カメラ移動量を選択し、後方差が小さい場合は後方カメラ移動量を選択する。前方差と後方差とが同じ場合、前方カメラ移動量及び後方カメラ移動量のいずれを選択しても構わない。前方差及び後方差のいずれも所定の基準範囲外である場合、前方カメラ移動量及び後方カメラ移動量を選択せずに、オドメトリ移動量を選択する。   The movement amount selection unit 26 selects one of the front camera movement amount, rear camera movement amount, and odometry movement amount as the vehicle movement amount based on the comparison result by the movement amount difference calculation unit 25. For example, a movement amount having a small difference from the odometry movement amount is selected from the front camera movement amount and the rear camera movement amount. In other words, the movement amount selection unit 26 compares the front difference calculated by the movement amount difference calculation unit 25 with the rear difference, and selects the smaller movement amount among the front difference and the rear difference. When the front difference is small, the front camera movement amount is selected, and when the rear difference is small, the rear camera movement amount is selected. When the front difference and the rear difference are the same, either the front camera movement amount or the rear camera movement amount may be selected. When both the front difference and the rear difference are outside the predetermined reference range, the odometry movement amount is selected without selecting the front camera movement amount and the rear camera movement amount.

前方画像又は後方画像に基づいて独立して算出される前方カメラ移動量及び後方カメラ移動量は、通常、誤差が少なく正確な値を示す。しかし、太陽光、風景の平坦度合いなどの環境の影響、また旋回や段差による車両挙動により、画像から抽出される特徴点の数が減少することや、特徴点までの距離を正確に求めることが難しいことがある。更に、マッチングに成功する特徴点の数が減少したり、特徴点のマッチングに成功しても特徴点の見え方に微妙な変化が生じ、マッチングの尤度が低下してしまう。このため、前方カメラ移動量及び後方カメラ移動量の算出精度は、通常は高いが、ロバスト性が低く、外乱の影響により著しく低下してしまう。   The amount of movement of the front camera and the amount of movement of the rear camera that are independently calculated based on the front image or the rear image are usually accurate with little error. However, the number of feature points extracted from the image can be reduced and the distance to the feature point can be accurately obtained due to environmental effects such as sunlight, the flatness of the landscape, and vehicle behavior due to turning and steps. It can be difficult. Furthermore, the number of feature points that succeed in matching decreases, or even if feature point matching succeeds, a subtle change occurs in the appearance of feature points, and the likelihood of matching decreases. For this reason, although the calculation accuracy of the amount of movement of the front camera and the amount of movement of the rear camera is usually high, the robustness is low, and it is significantly lowered due to the influence of disturbance.

また、抽出される特徴点の数のみを基準にしてカメラ移動量の算出精度を判断してしまうと、抽出される特徴点の数の減少やマッチングの尤度の低下が、太陽光が原因しているのか、或いは元々の輝度変化の少ない平坦な風景が原因しているのか、を判別できない。   In addition, if the calculation accuracy of the camera movement amount is judged based only on the number of extracted feature points, the decrease in the number of extracted feature points and the decrease in the likelihood of matching are caused by sunlight. It is impossible to determine whether it is caused by a flat landscape with little change in luminance.

そこで、ロバスト性が高く、高い精度を安定して得るために、先ず、異なる方向(前方及び後方)の車両の周囲を撮像して前方画像及び後方画像を取得することにより、少なくともいずれか一方の画像に対して太陽光の影響を受けにくくする。   Therefore, in order to stably obtain high accuracy with high robustness, first, by capturing the surroundings of the vehicle in different directions (front and rear) and acquiring the front image and the rear image, at least one of them is acquired. Make the image less susceptible to sunlight.

次に、車両信号(例えば、車輪側センサ)に基づいて算出される車両オドメトリは、誤差が累積することが一般的に知られており、長期的には精度が低いが、局所的に見ると、車両オドメトリの精度は、安定して高い。そこで、車両オドメトリに基づくオドメトリ移動量を参照値(リファレンス)として、前方カメラ移動量及び後方カメラ移動量の各々の誤差を評価する。つまり、移動量差算出部25が、前方カメラ移動量とオドメトリ移動量との前方差を算出し、後方カメラ移動量とオドメトリ移動量との後方差を算出する。   Next, vehicle odometry calculated based on vehicle signals (for example, wheel side sensors) is generally known to accumulate errors and is not accurate in the long run, but when viewed locally The accuracy of vehicle odometry is stable and high. Therefore, each error of the front camera movement amount and the rear camera movement amount is evaluated using the odometry movement amount based on the vehicle odometry as a reference value (reference). That is, the movement amount difference calculation unit 25 calculates the front difference between the front camera movement amount and the odometry movement amount, and calculates the rear difference between the rear camera movement amount and the odometry movement amount.

そして、移動量選択部26は、原則として、オドメトリ移動量(リファレンス)との差が小さい方のカメラ移動量が、より精度が高い車両の移動量であると判断して、これを選択する。ただし、前方カメラ移動量及び後方カメラ移動量のいずれも大きな誤差を有している場合、リファレンスとして用いたオドメトリ移動量が、いずれのカメラ移動量よりも精度が高い車両の移動量であると判断して、これを選択する。   In principle, the movement amount selection unit 26 determines that the camera movement amount having the smaller difference from the odometry movement amount (reference) is the movement amount of the vehicle with higher accuracy, and selects this. However, if both the front camera movement amount and the rear camera movement amount have a large error, it is determined that the odometry movement amount used as a reference is a vehicle movement amount with higher accuracy than any camera movement amount. And select this.

これにより、移動量選択部26は、車両の移動量を安定して精度よく算出することができる。換言すれば、太陽光、輝度変化の少ない平坦な風景などの車両の周囲の影響に対するロバスト性を高めることができる。   Thereby, the movement amount selection unit 26 can stably and accurately calculate the movement amount of the vehicle. In other words, it is possible to improve the robustness against the influence of the surroundings of the vehicle such as sunlight and a flat landscape with little luminance change.

特徴点学習部27は、前方画像又は後方画像に基づいて、地図、及び地図上における車両の自己位置及び車両の走行軌跡を算出する。算出方法は特に問わず、既存の方法を用いることができる。例えば、前方カメラ12a及び後方カメラ12bの各々は、車両が走行しながら繰り返し撮像を行い、複数のフレーム(画像)をそれぞれ取得する。前方カメラ移動量算出部22及び後方カメラ移動量算出部23の各々は、前方画像又は後方画像から特徴点をそれぞれ抽出し、特徴点の3次元位置をそれぞれ特定し、フレーム(画像)間における特徴点の3次元位置の変化から車両の移動量(前方カメラ移動量、後方カメラ移動量)をそれぞれ特定する。一方、車両オドメトリ算出部24は、タイムスタンプを用いて、フレーム(画像)間におけるオドメトリ移動量を算出する。   The feature point learning unit 27 calculates the map, the vehicle's own position on the map, and the traveling locus of the vehicle based on the front image or the rear image. The calculation method is not particularly limited, and an existing method can be used. For example, each of the front camera 12a and the rear camera 12b repeatedly captures images while the vehicle travels, and acquires a plurality of frames (images). Each of the front camera movement amount calculation unit 22 and the rear camera movement amount calculation unit 23 extracts feature points from the front image or the rear image, specifies the three-dimensional positions of the feature points, and features between frames (images). The amount of movement of the vehicle (the amount of movement of the front camera and the amount of movement of the rear camera) is specified from the change in the three-dimensional position of the point. On the other hand, the vehicle odometry calculation unit 24 calculates an odometry movement amount between frames (images) using a time stamp.

特徴点学習部27は、フレーム(画像)間で特徴点のマッチング処理を行う。そして、移動量選択部26は、フレーム(画像)間の車両の移動量を選択する。特徴点学習部27は、移動量選択部26により選択された車両の移動量に従って、特徴点の3次元位置を移動させる。これを繰り返すことにより、特徴点学習部27は、複数のフレームから抽出された複数の特徴点の3次元位置を1つの地図(環境マップを含む)上に表すことができる。また同時に、地図上における車両の自己位置及び車両の走行軌跡を特定することもできる。なお、カメラ(12a、12b)の画像に基づいて算出される車両の走行軌跡を「ビジュアルオドメトリ(VO)」と呼ぶ。   The feature point learning unit 27 performs a feature point matching process between frames (images). Then, the movement amount selection unit 26 selects the movement amount of the vehicle between frames (images). The feature point learning unit 27 moves the three-dimensional position of the feature point according to the movement amount of the vehicle selected by the movement amount selection unit 26. By repeating this, the feature point learning unit 27 can represent the three-dimensional positions of the plurality of feature points extracted from the plurality of frames on one map (including the environment map). At the same time, the vehicle's own position on the map and the traveling locus of the vehicle can be specified. In addition, the traveling locus of the vehicle calculated based on the images of the cameras (12a, 12b) is referred to as “visual odometry (VO)”.

このように、特徴点学習部27が、特徴点に基づいて、地図(環境マップを含む)、車両の自己位置及び車両の走行軌跡を学習する時に、移動量選択部26により選択された車両の移動量を用いることができるので、学習の精度が向上する。   As described above, when the feature point learning unit 27 learns the map (including the environment map), the vehicle's own position, and the travel locus of the vehicle based on the feature points, Since the amount of movement can be used, the accuracy of learning is improved.

更に、特徴点学習部27は、カメラ(12a、12b)の画像に基づいて、車両が走行した地点(チェックポイント)を学習する。具体的には、チェックポイントを車両が通過したときに撮影した画像に基づいて、チェックポイントを学習する。例えば、特徴点学習部27は、当該画像から抽出された特徴点の画像上の位置、又は特徴点の3次元位置に基づいて、チェックポイントを学習すればよい。尚、特徴点学習部27は、チェックポイントの間毎に分割して走行軌跡(ビジュアルオドメトリ)を学習してもよく、分割せず走行軌跡を学習するようにしてもよい。分割する際は、所定時間毎にでもよく、シーン毎(例えば、直進、カーブ、高速道、一般道、交差点)でもよく、分割する方法は問わない。更に、特徴点学習部27は、走行軌跡ビジュアルオドメトリの代わりに、車両信号に基づいて算出される車両の走行軌跡(車両オドメトリ)を学習しても構わない。走行軌跡(車両オドメトリ)の算出方法は、特に問わず、既存の方法を用いることができる。例えば、左右のタイヤの回転角度の差からヨーレートを算出し、ヨーレートを積分することにより車両のヨー角(車両の姿勢、進行方向を含む)を算出すればよい。勿論、ヨーレートセンサを用いても構わない。また、車両が備えるタイヤの回転量から車両の移動量を算出することができる。   Further, the feature point learning unit 27 learns a point (check point) where the vehicle travels based on the images of the cameras (12a, 12b). Specifically, the check point is learned based on an image taken when the vehicle passes the check point. For example, the feature point learning unit 27 may learn a check point based on the position of the feature point extracted from the image or the three-dimensional position of the feature point. It should be noted that the feature point learning unit 27 may learn the travel locus (visual odometry) by dividing each check point, or may learn the travel locus without being divided. When dividing, it may be every predetermined time or every scene (for example, straight line, curve, highway, general road, intersection), and the dividing method is not limited. Further, the feature point learning unit 27 may learn a vehicle travel locus (vehicle odometry) calculated based on the vehicle signal instead of the travel locus visual odometry. The method for calculating the travel locus (vehicle odometry) is not particularly limited, and an existing method can be used. For example, the yaw rate may be calculated from the difference between the rotation angles of the left and right tires, and the yaw angle of the vehicle (including the attitude of the vehicle and the traveling direction) may be calculated by integrating the yaw rate. Of course, a yaw rate sensor may be used. Further, the movement amount of the vehicle can be calculated from the rotation amount of the tire provided in the vehicle.

地図、車両の自己位置及び走行軌跡、及びチェックポイントを含む特徴点学習部27の学習結果は、特徴点記録装置16に記録される。   The learning result of the feature point learning unit 27 including the map, the vehicle's own position and travel locus, and the check point is recorded in the feature point recording device 16.

自己位置推定部28は、特徴点学習部27が学習した地図、車両の自己位置及び走行軌跡、及びチェックポイントに基づいて、車両の自己位置を推定する。具体的には、車両がチェックポイントを通過した否かを確認し、最後に通過したチェックポイントからの車両の移動量に基づいて、現在の車両の自己位置を推定する。この時、自己位置推定部28は、最後に通過したチェックポイントからの車両の移動量として、移動量選択部26により選択された車両の移動量を用いる。これにより、自己位置の推定精度が向上する。   The self-position estimating unit 28 estimates the self-position of the vehicle based on the map learned by the feature point learning unit 27, the self-position and traveling locus of the vehicle, and the check point. Specifically, it is confirmed whether or not the vehicle has passed the checkpoint, and the current position of the current vehicle is estimated based on the amount of movement of the vehicle from the checkpoint that passed last. At this time, the self-position estimation unit 28 uses the movement amount of the vehicle selected by the movement amount selection unit 26 as the movement amount of the vehicle from the check point that has passed last. As a result, the self-position estimation accuracy is improved.

車両がチェックポイントを通過した否かを確認する方法は例えば次の通りである。自己位置推定部28は、チェックポイントを通過した時の画像(記録画像)及び記録画像中の特徴点の位置情報を、特徴点記録装置16から読み出す。そして、自己位置推定の時に撮影された画像(対象画像)中の特徴点と、記録画像中の特徴点との対応付けを行う。対応付けに成功した特徴点が所定の条件を満たした場合、チェックポイントにおけるカメラの位置及び姿勢を、走行制御時に再現できたと判断できる。即ち、対象画像は、記録画像を取得した時と同じカメラの位置及び姿勢において取得された、と判断できる。よって、この場合、通過確認部24は、チェックポイントを車両が通過したと判断する。   A method for confirming whether or not the vehicle has passed the checkpoint is, for example, as follows. The self-position estimation unit 28 reads the image (recorded image) when passing the checkpoint and the position information of the feature point in the recorded image from the feature point recording device 16. Then, the feature points in the image (target image) taken at the time of self-position estimation are associated with the feature points in the recorded image. When the feature points that have been successfully matched satisfy a predetermined condition, it can be determined that the position and orientation of the camera at the check point can be reproduced during travel control. That is, it can be determined that the target image has been acquired at the same camera position and orientation as when the recorded image was acquired. Therefore, in this case, the passage confirmation unit 24 determines that the vehicle has passed the check point.

なお、対応付けに成功した特徴点が所定の条件を満たしたか否かは、例えば、以下の方法を用いて判断することができる。先ず、記録画像中から抽出された特徴点の数をFsとする。対象画像中から抽出された特徴点のうち、記録画像中から抽出された特徴点と対応付けに成功した特徴点の数をFnとする。例えば、記録画像と対象画像との間で、車両に対する特徴点の相対位置のずれが所定値未満である場合、その特徴点は対応付けに成功したと判断する。画像通過確信度(Z)を、Z=Fn/Fsと定義する。画像通過確信度は、チェックポイントを車両が通過した可能性を示す。自己位置推定部28は、画像通過確信度が0.8未満である場合、画像通過確信度が低いため、対応付けに成功した特徴点が所定の条件を満たしていない、つまり、チェックポイントを車両が通過していない、と判断する。自己位置推定部28は、画像通過確信度が0.8以上である場合、対応付けに成功した特徴点が所定の条件を満たしている、つまり、チェックポイントを車両が通過したと判断する。   Note that whether or not a feature point that has been successfully matched satisfies a predetermined condition can be determined using, for example, the following method. First, let Fs be the number of feature points extracted from the recorded image. Of the feature points extracted from the target image, let Fn be the number of feature points successfully matched with the feature points extracted from the recorded image. For example, if the deviation of the relative position of the feature point with respect to the vehicle between the recorded image and the target image is less than a predetermined value, it is determined that the feature point has been successfully matched. The image passing certainty (Z) is defined as Z = Fn / Fs. The image passing certainty indicates the possibility that the vehicle has passed the checkpoint. When the image passing certainty is less than 0.8, the self-position estimating unit 28 has a low image passing certainty, so that the feature points that are successfully matched do not satisfy the predetermined condition. Is determined not to pass. When the image passing certainty factor is 0.8 or more, the self-position estimating unit 28 determines that the feature points that are successfully matched satisfy a predetermined condition, that is, the vehicle has passed the check point.

自己位置推定処理において、前方カメラ12a及び後方カメラ12bの各々は、車両が走行しながら繰り返し撮像を行い、複数のフレーム(画像)をそれぞれ取得する。前方カメラ移動量算出部22及び後方カメラ移動量算出部23の各々は、前方画像又は後方画像から特徴点をそれぞれ抽出し、特徴点の3次元位置をそれぞれ特定し、フレーム(画像)間で特徴点のマッチング処理を行う。そして、フレーム(画像)間における特徴点の3次元位置の変化から車両の移動量(前方カメラ移動量、後方カメラ移動量)をそれぞれ特定する。一方、車両オドメトリ算出部24は、タイムスタンプを用いて、フレーム(画像)間におけるオドメトリ移動量を算出する。そして、移動量選択部26は、移動量差算出部25による比較結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を選択する。自己位置推定部28は、移動量選択部26により選択された車両の移動量に基づいて、最後に通過したチェックポイントからの車両の移動量を算出し、現在の車両の自己位置を推定する。   In the self-position estimation process, each of the front camera 12a and the rear camera 12b repeatedly captures images while the vehicle travels, and acquires a plurality of frames (images). Each of the front camera movement amount calculation unit 22 and the rear camera movement amount calculation unit 23 extracts feature points from the front image or the rear image, specifies the three-dimensional positions of the feature points, and features between the frames (images). Performs a point matching process. Then, the moving amount of the vehicle (the moving amount of the front camera and the moving amount of the rear camera) is specified from the change in the three-dimensional position of the feature point between the frames (images). On the other hand, the vehicle odometry calculation unit 24 calculates an odometry movement amount between frames (images) using a time stamp. Then, the movement amount selection unit 26 selects one of the front camera movement amount, the rear camera movement amount, and the odometry movement amount based on the comparison result by the movement amount difference calculation unit 25. The self-position estimation unit 28 calculates the movement amount of the vehicle from the check point that has passed last based on the movement amount of the vehicle selected by the movement amount selection unit 26, and estimates the current position of the vehicle.

<自己位置推定方法>
次に、図2及び図3を参照して、自己位置推定装置の動作例を説明する。先ず、図2を参照して、学習時(オフライン時)の自己位置推定装置の動作を説明する。
<Self-position estimation method>
Next, with reference to FIG.2 and FIG.3, the operation example of a self-position estimation apparatus is demonstrated. First, the operation of the self-position estimation apparatus during learning (offline) will be described with reference to FIG.

ステップS51において、画像取得部21は、カメラ(12a、12b)を用いて車両の周囲を撮影して前方画像及び後方画像を取得する。画像取得部21は、カメラ(12a、12b)の撮影タイミングを同期させ、且つ、所定のフレームレート(1〜5FPS)で繰り返し撮影する。   In step S51, the image acquisition unit 21 acquires the front image and the rear image by photographing the surroundings of the vehicle using the cameras (12a, 12b). The image acquisition unit 21 synchronizes the shooting timing of the cameras (12a, 12b) and repeatedly shoots at a predetermined frame rate (1 to 5 FPS).

ステップS53に進み、前方カメラ移動量算出部22は、前方カメラ12aにより得られた前方画像を用いて前方カメラ移動量を算出する。ステップS55に進み、後方カメラ移動量算出部23は、後方カメラ12bにより得られた後方画像を用いて後方カメラ移動量を算出する。ステップS57に進み、車両オドメトリ算出部24は、車両センサ13からの検出結果に基づいて、オドメトリ移動量を算出する。   In step S53, the front camera movement amount calculation unit 22 calculates the front camera movement amount using the front image obtained by the front camera 12a. In step S55, the rear camera movement amount calculation unit 23 calculates the rear camera movement amount using the rear image obtained by the rear camera 12b. Proceeding to step S57, the vehicle odometry calculation unit 24 calculates the odometry movement amount based on the detection result from the vehicle sensor 13.

ステップS59に進み、移動量差算出部25は、前方カメラ移動量とオドメトリ移動量とを比較する。具体的には、前方カメラ移動量とオドメトリ移動量との差(前方差)を算出する。ステップS61に進み、移動量差算出部25は、後方カメラ移動量とオドメトリ移動量とを比較する。具体的には、後方カメラ移動量とオドメトリ移動量との差(後方差)を算出する。ステップS63に進み、移動量選択部26は、前方差及び後方差のいずれも基準範囲外であるか否かを判断する。前方差及び後方差のいずれも基準範囲外である場合(S63でYES)、前方カメラ移動量及び後方カメラ移動量のいずれも大きな誤差を含んでいると推測できる。よって、ステップS67に進み、移動量選択部26は、オドメトリ移動量を選択する。   In step S59, the movement amount difference calculation unit 25 compares the front camera movement amount with the odometry movement amount. Specifically, the difference (forward difference) between the front camera movement amount and the odometry movement amount is calculated. In step S61, the movement amount difference calculation unit 25 compares the rear camera movement amount with the odometry movement amount. Specifically, the difference (rear difference) between the rear camera movement amount and the odometry movement amount is calculated. In step S63, the movement amount selection unit 26 determines whether both the front difference and the rear difference are out of the reference range. When both the front difference and the rear difference are outside the reference range (YES in S63), it can be estimated that both the front camera movement amount and the rear camera movement amount include a large error. Therefore, it progresses to step S67 and the movement amount selection part 26 selects the odometry movement amount.

一方、前方差及び後方差の少なくとも一方が基準範囲内である場合(S63でNO)、前方カメラ移動量及び後方カメラ移動量の少なくとも一方は大きな誤差を含んでいないと推測できる。よって、ステップS65に進み、移動量選択部26は、前方差と後方差のうち小さい方の移動量を選択する。これにより、オドメトリ移動量を基準とした前方カメラ移動量及び後方カメラ移動量の誤差を比較して、誤差が小さいいずれか一方のカメラ移動量を選択することができる。このように、S63〜S67において、移動量選択部26は、移動量差算出部25による比較結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を選択することができる。   On the other hand, when at least one of the front difference and the rear difference is within the reference range (NO in S63), it can be estimated that at least one of the front camera movement amount and the rear camera movement amount does not include a large error. Therefore, it progresses to step S65 and the movement amount selection part 26 selects the movement amount of the smaller one of a front difference and a back difference. Thereby, the error of the front camera movement amount and the rear camera movement amount based on the odometry movement amount can be compared, and either one of the camera movement amounts having a small error can be selected. As described above, in S63 to S67, the movement amount selection unit 26 is based on the comparison result by the movement amount difference calculation unit 25, and is any one of the front camera movement amount, the rear camera movement amount, and the odometry movement amount. Can be selected.

特徴点学習部27は、ステップS65又はS67で選択された車両の移動量を用いて、特徴点に基づいて、地図、車両の自己位置、車両の走行軌跡、及びチェックポイントを学習し、特徴点及び走行軌跡を特徴点記録装置16に記録する。   The feature point learning unit 27 learns the map, the vehicle's own position, the vehicle's travel locus, and the check point based on the feature point using the movement amount of the vehicle selected in step S65 or S67. The travel locus is recorded in the feature point recording device 16.

次に、図3を参照して、自己位置推定時(オンライン時)の自己位置推定装置の動作を説明する。   Next, the operation of the self-position estimation apparatus at the time of self-position estimation (on-line) will be described with reference to FIG.

ステップS01において、自己位置推定部28は、特徴点記録装置16から特徴点及び走行軌跡を読み出す。読み出した特徴点を、「記録特徴点」と呼ぶ。ステップS03に進み、前方カメラ12aは車両の周囲を撮影し、画像取得部21は、前方画像を取得する。   In step S <b> 01, the self-position estimating unit 28 reads out the feature points and the travel locus from the feature point recording device 16. The read feature points are referred to as “recording feature points”. In step S03, the front camera 12a captures the surroundings of the vehicle, and the image acquisition unit 21 acquires a front image.

ステップS05に進み、前方カメラ移動量算出部22は、前方画像から特徴点を抽出する。抽出された特徴点を、「抽出特徴点」と呼ぶ。ステップS07に進み、前方カメラ移動量算出部22は、記録特徴点と抽出特徴点との対応付けを行う。記録特徴点の相対位置と抽出特徴点の相対位置とのずれが所定値未満である場合、記録特徴点と抽出特徴点との対応付けに成功したと判断する。   In step S05, the front camera movement amount calculation unit 22 extracts feature points from the front image. The extracted feature points are called “extracted feature points”. In step S07, the front camera movement amount calculation unit 22 associates the recorded feature points with the extracted feature points. When the deviation between the relative position of the recorded feature point and the relative position of the extracted feature point is less than a predetermined value, it is determined that the recorded feature point and the extracted feature point are successfully associated with each other.

ステップS09に進み、前方カメラ移動量算出部22は、対応付けに成功した抽出特徴点を用いて、前方カメラ移動量を算出する。   In step S09, the front camera movement amount calculation unit 22 calculates the front camera movement amount using the extracted feature points that have been successfully matched.

ステップS11に進み、後方カメラ12bは車両の周囲を撮影し、画像取得部21は、後方画像を取得する。ステップS13に進み、後方カメラ移動量算出部23は、後方カメラ12bにより得られた後方画像から特徴点を抽出する。ステップS15に進み、後方カメラ移動量算出部23は、記録特徴点と抽出特徴点との対応付けを行う。   In step S11, the rear camera 12b captures the surroundings of the vehicle, and the image acquisition unit 21 acquires a rear image. Proceeding to step S13, the rear camera movement amount calculation unit 23 extracts feature points from the rear image obtained by the rear camera 12b. In step S15, the rear camera movement amount calculation unit 23 associates the recorded feature points with the extracted feature points.

ステップS17に進み、後方カメラ移動量算出部23は、対応付けに成功した抽出特徴点を用いて、後方カメラ移動量を算出する。   Proceeding to step S <b> 17, the rear camera movement amount calculation unit 23 calculates the rear camera movement amount using the extracted feature points that have been successfully matched.

ステップS19に進み、車両オドメトリ算出部24は、車両センサ13からの検出結果に基づいて、オドメトリ移動量を算出する。   Proceeding to step S <b> 19, the vehicle odometry calculation unit 24 calculates the odometry movement amount based on the detection result from the vehicle sensor 13.

ステップS21に進み、移動量差算出部25は、前方カメラ移動量とオドメトリ移動量とを比較する。具体的には、前方カメラ移動量とオドメトリ移動量との差(前方差)を算出する。ステップS23に進み、移動量差算出部25は、後方カメラ移動量とオドメトリ移動量とを比較する。具体的には、後方カメラ移動量とオドメトリ移動量との差(後方差)を算出する。ステップS25に進み、移動量選択部26は、前方差及び後方差のいずれも所定の基準範囲外であるか否かを判断する。前方差及び後方差のいずれも基準範囲外である場合(S25でYES)、前方カメラ移動量及び後方カメラ移動量のいずれも大きな誤差を含んでいると推測できる。よって、ステップS29に進み、移動量選択部26は、オドメトリ移動量を選択する。   In step S21, the movement amount difference calculation unit 25 compares the front camera movement amount with the odometry movement amount. Specifically, the difference (forward difference) between the front camera movement amount and the odometry movement amount is calculated. In step S23, the movement amount difference calculation unit 25 compares the rear camera movement amount with the odometry movement amount. Specifically, the difference (rear difference) between the rear camera movement amount and the odometry movement amount is calculated. Proceeding to step S25, the movement amount selecting unit 26 determines whether or not both the forward difference and the backward difference are outside the predetermined reference range. When both the front difference and the rear difference are outside the reference range (YES in S25), it can be estimated that both the front camera movement amount and the rear camera movement amount include a large error. Therefore, it progresses to step S29 and the movement amount selection part 26 selects the odometry movement amount.

一方、前方差及び後方差の少なくとも一方が基準範囲内である場合(S25でNO)、前方カメラ移動量及び後方カメラ移動量の少なくとも一方は大きな誤差を含んでいないと推測できる。よって、ステップS27に進み、移動量選択部26は、前方差と後方差のうち小さい方の移動量を選択する。これにより、オドメトリ移動量を基準とした前方カメラ移動量及び後方カメラ移動量の誤差を比較して、誤差が小さいいずれか一方のカメラ移動量を選択することができる。このように、S25〜S29において、移動量選択部26は、移動量差算出部25による比較結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を選択することができる。   On the other hand, when at least one of the front difference and the rear difference is within the reference range (NO in S25), it can be estimated that at least one of the front camera movement amount and the rear camera movement amount does not include a large error. Therefore, it progresses to step S27 and the movement amount selection part 26 selects the movement amount of the smaller one among a front difference and a back difference. Thereby, the error of the front camera movement amount and the rear camera movement amount based on the odometry movement amount can be compared, and either one of the camera movement amounts having a small error can be selected. As described above, in S25 to S29, the movement amount selection unit 26 selects one of the front camera movement amount, the rear camera movement amount, and the odometry movement amount based on the comparison result by the movement amount difference calculation unit 25. Can be selected.

ステップS31に進み、自己位置推定部28は、ステップS01で読み込んだ特徴点に基づいて、車両がチェックポイントを通過した否かを確認する。そして、最後に通過したチェックポイントからの車両の移動量に基づいて、現在の車両の自己位置を推定する。この時、自己位置推定部28は、最後に通過したチェックポイントからの車両の移動量として、S25〜S29において選択された車両の移動量を用いる。   Proceeding to step S31, the self-position estimating unit 28 confirms whether or not the vehicle has passed the check point based on the feature point read in step S01. Then, the current position of the current vehicle is estimated based on the amount of movement of the vehicle from the check point that passed last. At this time, the self-position estimating unit 28 uses the movement amount of the vehicle selected in S25 to S29 as the movement amount of the vehicle from the check point that passed last.

上記したように、学習時(オフライン時)及び自己位置推定時(オンライン時)において、自己位置推定装置は、フレーム(画像)間で特徴点のマッチング処理を行うことにより、前方カメラ移動量及び後方カメラ移動量を算出する。よって、フレーム(画像)から抽出される特徴点の数、又はマッチング処理に成功する特徴点の数が多い方が、カメラ移動量の精度は高くなる。   As described above, at the time of learning (offline) and at the time of self-position estimation (on-line), the self-position estimation device performs feature point matching processing between frames (images), thereby moving the front camera movement amount and the rear The amount of camera movement is calculated. Therefore, the accuracy of the camera movement amount increases as the number of feature points extracted from the frame (image) or the number of feature points that succeed in the matching process increases.

しかし、抽出される特徴点の数やマッチング処理に成功する特徴点の数、マッチングの尤度は、太陽の影響を強く受ける。図4Aに示すように、カメラ(12a、12b)の撮影方向が太陽40に対向している場合、カメラの撮像素子に入射する光の輝度が撮像素子のダイナミックレンジを超えてしまい、輝度分布の少ない画像となってしまう。このため、輝度分布の少ない画像から抽出される特徴点の数や、マッチング処理に成功する特徴点の数が大幅に減ってしまい、カメラ移動量の算出精度が低下してしまう。   However, the number of feature points to be extracted, the number of feature points successfully matched, and the likelihood of matching are strongly influenced by the sun. As shown in FIG. 4A, when the shooting direction of the camera (12a, 12b) faces the sun 40, the luminance of the light incident on the imaging element of the camera exceeds the dynamic range of the imaging element, and the luminance distribution There will be fewer images. For this reason, the number of feature points extracted from an image having a small luminance distribution and the number of feature points that succeed in the matching process are greatly reduced, and the calculation accuracy of the camera movement amount is lowered.

更に、太陽光の影響を受けていなくても、元々の風景において輝度分布が少なければ、輝度分布の少ない画像となってしまう。このため、特徴点の数を基準とした場合には、太陽光と平坦な風景とを判別できない。   Furthermore, even if not affected by sunlight, if the luminance distribution is small in the original landscape, the image has a small luminance distribution. For this reason, when the number of feature points is used as a reference, it is not possible to distinguish between sunlight and a flat landscape.

そこで、図4Bに示すように、前方カメラ移動量41及び後方カメラ移動量42を独立して算出すると同時に、オドメトリ移動量43を算出する。オドメトリ移動量43(関数)に対して、前方カメラ移動量41及び後方カメラ移動量42をフィッティングする。オドメトリ移動量43との一致度が高いカメラ移動量(41、42)を選択する。   Therefore, as shown in FIG. 4B, the front camera movement amount 41 and the rear camera movement amount 42 are calculated independently, and at the same time, the odometry movement amount 43 is calculated. The front camera movement amount 41 and the rear camera movement amount 42 are fitted to the odometry movement amount 43 (function). A camera movement amount (41, 42) having a high degree of coincidence with the odometry movement amount 43 is selected.

図4Aに示すように、車両39が走行軌跡38に沿って走行するシーンを考える。出発地点において、前方カメラ12aは太陽40とは逆方向の車両39の周囲を撮像する。一方、後方カメラ12bは太陽40に向かって車両39の周囲を撮像する。車両39は、走行軌跡38に沿って180°だけ左旋回する。到達地点においては、前方カメラ12aは太陽40に向かって車両39の周囲を撮像し、後方カメラ12bは太陽40とは逆方向の車両39の周囲を撮像する。   As shown in FIG. 4A, consider a scene in which a vehicle 39 travels along a travel locus 38. At the departure point, the front camera 12 a captures an image around the vehicle 39 in the direction opposite to the sun 40. On the other hand, the rear camera 12 b images the surroundings of the vehicle 39 toward the sun 40. The vehicle 39 turns left by 180 ° along the travel locus 38. At the arrival point, the front camera 12 a images the surroundings of the vehicle 39 toward the sun 40, and the rear camera 12 b images the surroundings of the vehicle 39 in the direction opposite to the sun 40.

よって、図4Bに示すように、出発地点において、前方カメラ移動量41とオドメトリ移動量43との差は、後方カメラ移動量42とオドメトリ移動量43との差よりも小さい。よって、出発地点において、より精度が高い前方カメラ移動量41を選択することができる。   Therefore, as shown in FIG. 4B, at the departure point, the difference between the front camera movement amount 41 and the odometry movement amount 43 is smaller than the difference between the rear camera movement amount 42 and the odometry movement amount 43. Therefore, it is possible to select the front camera movement amount 41 with higher accuracy at the departure point.

その後、90°左旋回した時に、前方カメラ12a及び後方カメラ12bは、共に太陽40の影響を受けにくくなり、前方カメラ移動量41及び後方カメラ移動量42は共に、オドメトリ移動量43との差が小さくなる。   Thereafter, when turning left by 90 °, both the front camera 12a and the rear camera 12b are less affected by the sun 40, and both the front camera movement amount 41 and the rear camera movement amount 42 are different from the odometry movement amount 43. Get smaller.

そして、更に90°左旋回した到達地点において、前方カメラ移動量41とオドメトリ移動量43との差は、後方カメラ移動量42とオドメトリ移動量43との差よりも大きくなる。よって、到達地点において、より精度が高い後方カメラ移動量42を選択することができる。   Then, at the arrival point that has further turned left by 90 °, the difference between the front camera movement amount 41 and the odometry movement amount 43 is larger than the difference between the rear camera movement amount 42 and the odometry movement amount 43. Therefore, the rear camera movement amount 42 with higher accuracy can be selected at the arrival point.

以上説明したように、実施形態によれば、以下の作用効果が得られる。   As described above, according to the embodiment, the following operational effects can be obtained.

自己位置推定装置は、前方カメラ移動量とオドメトリ移動量とを比較し、後方カメラ移動量とオドメトリ移動量とを比較し、これらの比較の結果に基づいて、前方カメラ移動量、後方カメラ移動量及びオドメトリ移動量のうち、いずれかの移動量を選択し、選択した移動量を用いて車両の位置を推定する。よって、自己位置推定装置は、車両の移動量を安定して精度よく算出することにより、車両の自己位置の推定精度を向上させることができる。換言すれば、太陽光、輝度変化の少ない平坦な風景などの車両の周囲の影響に対するロバスト性を高めることができる。   The self-position estimation device compares the amount of movement of the front camera and the amount of odometry, compares the amount of movement of the rear camera and the amount of odometry, and based on the result of the comparison, the amount of movement of the front camera and the amount of movement of the rear camera Then, one of the odometry movement amounts is selected, and the position of the vehicle is estimated using the selected movement amount. Therefore, the self-position estimation apparatus can improve the self-position estimation accuracy of the vehicle by calculating the amount of movement of the vehicle stably and accurately. In other words, it is possible to improve the robustness against the influence of the surroundings of the vehicle such as sunlight and a flat landscape with little luminance change.

自己位置推定装置は、前方カメラ移動量とオドメトリ移動量との差を算出し、後方カメラ移動量とオドメトリ移動量との差を算出し、前方カメラ移動量及び後方カメラ移動量のうち、オドメトリ移動量との差が小さい移動量を選択する。オドメトリ移動量を参照値(リファレンス)として、前方カメラ移動量及び後方カメラ移動量の各々の誤差の大きさを評価することができる。局所的に見ると、車両信号に基づいて算出されるオドメトリ移動量の精度は、安定して高い。よって、誤差の小さいカメラ移動量を選択することができる。   The self-position estimation device calculates a difference between the front camera movement amount and the odometry movement amount, calculates a difference between the rear camera movement amount and the odometry movement amount, and among the front camera movement amount and the rear camera movement amount, the odometry movement is calculated. Select a movement amount with a small difference from the amount. Using the odometry movement amount as a reference value (reference), the magnitude of each error of the front camera movement amount and the rear camera movement amount can be evaluated. When viewed locally, the accuracy of the odometry movement amount calculated based on the vehicle signal is stable and high. Therefore, it is possible to select a camera movement amount with a small error.

自己位置推定装置は、図4Bに示すように、予め定めた局所領域における前方カメラ移動量41、後方カメラ移動量42及びオドメトリ移動量43を算出し、前方カメラ移動量41及び後方カメラ移動量42の各々をオドメトリ移動量からなる関数43に対してフィッティングし、前方カメラ移動量41及び後方カメラ移動量42のうち、関数43との一致が高い移動量を選択する。オドメトリ移動量を関数43として用いて、前方カメラ移動量41及び後方カメラ移動量42との一致度を評価することができる。局所領域におけるオドメトリ移動量の精度は、安定して高い。よって、誤差の小さいカメラ移動量を選択することができる。   As shown in FIG. 4B, the self-position estimation apparatus calculates a front camera movement amount 41, a rear camera movement amount 42, and an odometry movement amount 43 in a predetermined local region, and the front camera movement amount 41 and the rear camera movement amount 42. Are fitted to the function 43 including the odometry movement amount, and the movement amount having a high match with the function 43 is selected from the front camera movement amount 41 and the rear camera movement amount 42. The degree of coincidence between the front camera movement amount 41 and the rear camera movement amount 42 can be evaluated using the odometry movement amount as the function 43. The accuracy of the odometry movement amount in the local region is stable and high. Therefore, it is possible to select a camera movement amount with a small error.

自己位置推定装置は、前方カメラ移動量とオドメトリ移動量との差、後方カメラ移動量とオドメトリ移動量との差のいずれも、所定の範囲以内に収まらない場合は、オドメトリ移動量を選択する。前方カメラ移動量及び後方カメラ移動量のいずれも大きな誤差を有している場合、リファレンスとして用いたオドメトリ移動量が、いずれのカメラ移動量よりも精度が高い車両の移動量であると判断できる。よって、誤差の小さい車両の移動量を選択することができる。   The self-position estimation apparatus selects the odometry movement amount when the difference between the front camera movement amount and the odometry movement amount and the difference between the rear camera movement amount and the odometry movement amount are not within the predetermined range. When both the front camera movement amount and the rear camera movement amount have a large error, it can be determined that the odometry movement amount used as a reference is a vehicle movement amount with higher accuracy than any camera movement amount. Therefore, the movement amount of the vehicle with a small error can be selected.

以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。   Although the contents of the present invention have been described according to the embodiments, the present invention is not limited to these descriptions, and it is obvious to those skilled in the art that various modifications and improvements can be made.

車両の移動距離と車両の移動方向をまとめて車両の移動量として説明した。これに限らず、車両の移動距離と車両の移動方向の各々について、前方カメラ移動量、後方カメラ移動量、及びオドメトリ移動量を比較し、車両の移動距離と車両の移動方向の各々を個別に選択しても構わない。或いは、車両の移動量を、車両の移動距離と車両の移動方向のいずれか一方に置き換えて実施しても構わない。   The movement distance of the vehicle and the movement direction of the vehicle are collectively described as the movement amount of the vehicle. Not limited to this, the front camera movement amount, the rear camera movement amount, and the odometry movement amount are compared for each of the vehicle movement distance and the vehicle movement direction, and each of the vehicle movement distance and the vehicle movement direction is individually determined. You can choose. Alternatively, the movement amount of the vehicle may be replaced with one of the movement distance of the vehicle and the movement direction of the vehicle.

図2及び図3のフローチャートにおいて、可能な限りにおいて、順番を変更して実施してもよい。例えば、図3において、ステップS03〜S09と、ステップS11〜S17と、ステップS19とは、互いに順番を入れ替えて実施しても構わない。或いは、同時に実施しても構わない。   In the flowcharts of FIGS. 2 and 3, the order may be changed as much as possible. For example, in FIG. 3, steps S03 to S09, steps S11 to S17, and step S19 may be performed with the order reversed. Or you may implement simultaneously.

尚、本実施形態における自己位置推定装置は、ドライバーの介入なしに車両を走行させる自動運転、ドライバーの介入に基づいて車両を走行させる手動運転に用いることができる。自動運転に用いる場合は、本実施形態における自己位置推定装置によって求めた自己位置を用いて、車両の走行軌跡を設定し、走行軌跡に基づいて車両を制御する。手動運転に用いる場合は、本実施形態における自己位置推定装置によって求めた自己位置を用いて、乗員に自己位置を知らせることや、いわゆるナビゲーション装置により走行計画を設定することができる。また、本実施形態における自己位置推定装置は、対象物(例えば、物標、白線、道路形状)を学習する、地図を生成する際に用いることができる。   In addition, the self-position estimation apparatus in this embodiment can be used for automatic driving for driving the vehicle without driver intervention and manual driving for driving the vehicle based on driver intervention. When used for automatic driving, a travel locus of the vehicle is set using the self-position obtained by the self-position estimation apparatus in the present embodiment, and the vehicle is controlled based on the travel locus. When used for manual operation, it is possible to notify the occupant of the self position using the self position obtained by the self position estimating apparatus in the present embodiment, or to set a travel plan using a so-called navigation device. Moreover, the self-position estimation apparatus in this embodiment can be used when learning a target object (for example, a target, a white line, a road shape) and generating a map.

12a 第1のカメラ
12b 第2のカメラ
21 画像取得部(画像取得回路)
22 前方カメラ移動量算出部(第1の移動量算出回路)
23 後方カメラ移動量算出部(第2の移動量算出回路)
24 車両オドメトリ算出部(第3の移動量算出回路)
25 移動量差算出部(移動量比較回路)
26 移動量選択部(移動量選択回路)
28 自己位置推定部(自己位置推定回路)
39 車両
41 前方カメラ移動量(第1の移動量)
42 後方カメラ移動量(第2の移動量)
43 オドメトリ移動量(第3の移動量)
12a 1st camera 12b 2nd camera 21 Image acquisition part (image acquisition circuit)
22 Front camera movement amount calculation unit (first movement amount calculation circuit)
23 Rear camera movement amount calculation unit (second movement amount calculation circuit)
24 vehicle odometry calculation unit (third movement amount calculation circuit)
25 Movement amount difference calculation unit (movement amount comparison circuit)
26 Movement amount selection section (movement amount selection circuit)
28 Self-position estimation unit (self-position estimation circuit)
39 Vehicle 41 Front camera movement amount (first movement amount)
42 Rear camera travel (second travel)
43 Odometry travel (third travel)

Claims (5)

車両に搭載された第1のカメラ及び第2のカメラを用いて、前記車両の位置を推定する自己位置推定装置の自己位置推定方法であって、
前記第1のカメラを用いて第1の方向の前記車両の周囲を撮像して第1の画像を取得し、
前記第2のカメラを用いて前記第1の方向とは異なる第2の方向の前記車両の周囲を撮像して第2の画像を取得し、
前記第1の画像を用いて前記車両の第1の移動量を算出し、
前記第2の画像を用いて前記車両の第2の移動量を算出し、
前記車両から出力される車両信号を用いて前記車両の第3の移動量を算出し、
前記第1の移動量と前記第3の移動量とを比較し、
前記第2の移動量と前記第3の移動量とを比較し、
前記比較の結果に基づいて、前記第1の移動量、前記第2の移動量及び前記第3の移動量のうち、いずれかの移動量を選択し、
選択した前記移動量を用いて、前記車両の位置を推定する
自己位置推定方法。
A self-position estimation method of a self-position estimation apparatus that estimates the position of the vehicle using a first camera and a second camera mounted on the vehicle,
Using the first camera to capture a first image by imaging the surroundings of the vehicle in a first direction;
Using the second camera to obtain a second image by imaging the periphery of the vehicle in a second direction different from the first direction;
A first movement amount of the vehicle is calculated using the first image;
A second movement amount of the vehicle is calculated using the second image;
A third movement amount of the vehicle is calculated using a vehicle signal output from the vehicle;
Comparing the first movement amount and the third movement amount;
Comparing the second movement amount and the third movement amount;
Based on the result of the comparison, select one of the first movement amount, the second movement amount, and the third movement amount,
A self-position estimation method for estimating the position of the vehicle using the selected amount of movement.
請求項1記載の自己位置推定方法であって、
前記第1の移動量と前記第3の移動量との差を算出し、
前記第2の移動量と前記第3の移動量との差を算出し、
前記第1の移動量及び前記第2の移動量のうち、前記第3の移動量との前記差が小さい移動量を選択する
自己位置推定方法。
The self-position estimation method according to claim 1,
Calculating a difference between the first movement amount and the third movement amount;
Calculating a difference between the second movement amount and the third movement amount;
A self-position estimation method for selecting a movement amount having a small difference from the third movement amount from the first movement amount and the second movement amount.
請求項1記載の自己位置推定方法であって、
予め定めた局所領域における前記第1の移動量、前記第2の移動量及び前記第3の移動量を算出し、
前記第1の移動量及び前記第2の移動量の各々を第3の移動量からなる関数に対してフィッティングし、
前記第1の移動量及び前記第2の移動量のうち、前記関数との一致が高い移動量を選択する
自己位置推定方法。
The self-position estimation method according to claim 1,
Calculating the first movement amount, the second movement amount and the third movement amount in a predetermined local region;
Fitting each of the first movement amount and the second movement amount to a function consisting of a third movement amount;
A self-position estimation method for selecting a movement amount having a high match with the function from the first movement amount and the second movement amount.
請求項2に記載の自己位置推定方法であって、
前記第1の移動量と前記第3の移動量との差、前記第2の移動量と前記第3の移動量との差のいずれも、所定の基準範囲内に収まらない場合は、前記第3の移動量を選択する
自己位置推定方法。
The self-position estimation method according to claim 2,
If neither the difference between the first movement amount and the third movement amount nor the difference between the second movement amount and the third movement amount falls within a predetermined reference range, A self-position estimation method for selecting a movement amount of 3.
車両に搭載された第1のカメラ及び第2のカメラを用いて、前記車両の位置を推定する自己位置推定装置であって、
前記第1のカメラを用いて第1の方向の前記車両の周囲を撮像して第1の画像を取得し、前記第2のカメラを用いて前記第1の方向とは異なる第2の方向の前記車両の周囲を撮像して第2の画像を取得する画像取得回路と、
前記第1の画像を用いて前記車両の第1の移動量を算出する第1の移動量算出回路と、
前記第2の画像を用いて前記車両の第2の移動量を算出する第2の移動量算出回路と、
前記車両から出力される車両信号を用いて前記車両の第3の移動量を算出する第3の移動量算出回路と、
前記第1の移動量と前記第3の移動量とを比較し、前記第2の移動量と前記第3の移動量とを比較する移動量比較回路と、
前記移動量比較回路の比較結果に基づいて、前記第1の移動量、前記第2の移動量及び前記第3の移動量のうち、いずれかの移動量を選択する移動量選択回路と、
選択した前記移動量を用いて、前記車両の位置を推定する自己位置推定回路と
を有する自己位置推定装置。
A self-position estimation device that estimates the position of the vehicle using a first camera and a second camera mounted on the vehicle,
The first camera is used to capture an image of the periphery of the vehicle in a first direction to obtain a first image, and the second camera is used to obtain a second direction different from the first direction. An image acquisition circuit that captures an image of the periphery of the vehicle to acquire a second image;
A first movement amount calculation circuit for calculating a first movement amount of the vehicle using the first image;
A second movement amount calculation circuit for calculating a second movement amount of the vehicle using the second image;
A third movement amount calculation circuit for calculating a third movement amount of the vehicle using a vehicle signal output from the vehicle;
A movement amount comparison circuit that compares the first movement amount and the third movement amount and compares the second movement amount and the third movement amount;
A movement amount selection circuit that selects any one of the first movement amount, the second movement amount, and the third movement amount based on a comparison result of the movement amount comparison circuit;
A self-position estimation apparatus comprising a self-position estimation circuit that estimates the position of the vehicle using the selected amount of movement.
JP2017120503A 2017-06-20 2017-06-20 Self position estimation method and self position estimation device Pending JP2019007739A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017120503A JP2019007739A (en) 2017-06-20 2017-06-20 Self position estimation method and self position estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017120503A JP2019007739A (en) 2017-06-20 2017-06-20 Self position estimation method and self position estimation device

Publications (1)

Publication Number Publication Date
JP2019007739A true JP2019007739A (en) 2019-01-17

Family

ID=65028710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017120503A Pending JP2019007739A (en) 2017-06-20 2017-06-20 Self position estimation method and self position estimation device

Country Status (1)

Country Link
JP (1) JP2019007739A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110866482A (en) * 2019-11-08 2020-03-06 广东工业大学 Dynamic selection method, device and equipment for odometer data source
WO2021065594A1 (en) * 2019-10-01 2021-04-08 ソニーセミコンダクタソリューションズ株式会社 Self-position estimation device, autonomous moving body, self-position estimation method and program
US11461928B2 (en) 2019-09-06 2022-10-04 Kabushiki Kaisha Toshiba Location estimation apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04151562A (en) * 1990-10-15 1992-05-25 Mazda Motor Corp Yaw-motion detecting apparatus for vehicle
JP2007163223A (en) * 2005-12-12 2007-06-28 Sharp Corp Travel sensing system
JP2008175717A (en) * 2007-01-19 2008-07-31 Xanavi Informatics Corp System for computing current position, and method for computing current position
JP2012173874A (en) * 2011-02-18 2012-09-10 Fujitsu Ltd Distance calculation program, distance calculation method, and distance calculation apparatus
JP2015111336A (en) * 2013-12-06 2015-06-18 トヨタ自動車株式会社 Mobile robot
WO2017010268A1 (en) * 2015-07-13 2017-01-19 トヨタ自動車株式会社 Estimation device and estimation program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04151562A (en) * 1990-10-15 1992-05-25 Mazda Motor Corp Yaw-motion detecting apparatus for vehicle
JP2007163223A (en) * 2005-12-12 2007-06-28 Sharp Corp Travel sensing system
JP2008175717A (en) * 2007-01-19 2008-07-31 Xanavi Informatics Corp System for computing current position, and method for computing current position
JP2012173874A (en) * 2011-02-18 2012-09-10 Fujitsu Ltd Distance calculation program, distance calculation method, and distance calculation apparatus
JP2015111336A (en) * 2013-12-06 2015-06-18 トヨタ自動車株式会社 Mobile robot
WO2017010268A1 (en) * 2015-07-13 2017-01-19 トヨタ自動車株式会社 Estimation device and estimation program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11461928B2 (en) 2019-09-06 2022-10-04 Kabushiki Kaisha Toshiba Location estimation apparatus
WO2021065594A1 (en) * 2019-10-01 2021-04-08 ソニーセミコンダクタソリューションズ株式会社 Self-position estimation device, autonomous moving body, self-position estimation method and program
CN110866482A (en) * 2019-11-08 2020-03-06 广东工业大学 Dynamic selection method, device and equipment for odometer data source
CN110866482B (en) * 2019-11-08 2022-09-16 广东工业大学 Dynamic selection method, device and equipment for odometer data source

Similar Documents

Publication Publication Date Title
EP2933790B1 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
JP4962581B2 (en) Lane marking detector
CN109716062B (en) Posture estimation device
JP7096053B2 (en) Methods and equipment for calibrating the vehicle camera of the vehicle
JP6776202B2 (en) In-vehicle camera calibration device and method
JP4670528B2 (en) Imaging device deviation detection method, imaging device deviation correction method, and imaging device
JP2019007739A (en) Self position estimation method and self position estimation device
JP6773223B2 (en) Travel control method and travel control device
EP4001844A1 (en) Method and apparatus with localization
KR101894052B1 (en) Apparatus for calculating velocity of vehicle of video recording system using vehicle and method thereof
US20110304734A1 (en) Method and apparatus for operating a video-based driver assistance system in a vehicle
JP7234840B2 (en) position estimator
JP5425500B2 (en) Calibration apparatus and calibration method
KR20140138635A (en) Inertial sensor enhancement
JP5193148B2 (en) Vehicle imaging device
JP2019132762A (en) Vehicle position estimating device
KR20220150164A (en) Object detecting apparatus, object detecting method, and autonomous vehicle
KR101199940B1 (en) Apparatus for image tracking
CN111326012A (en) Image processing apparatus and image processing method
US11410288B2 (en) Image processing apparatus
JP5056436B2 (en) 3D map generation apparatus and program
WO2016207934A1 (en) Characteristic selecting device, moving state measuring device, moving state measuring system, work machine, and vehicle
CN115471565A (en) Non-target calibration of camera and inertial sensor in vehicle
JP5962331B2 (en) Speed estimation apparatus and speed estimation method
CN117723055A (en) Low-cost positioning method and system for autonomous passenger parking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220510