JP2020076580A - Axial deviation estimation device - Google Patents

Axial deviation estimation device Download PDF

Info

Publication number
JP2020076580A
JP2020076580A JP2018208319A JP2018208319A JP2020076580A JP 2020076580 A JP2020076580 A JP 2020076580A JP 2018208319 A JP2018208319 A JP 2018208319A JP 2018208319 A JP2018208319 A JP 2018208319A JP 2020076580 A JP2020076580 A JP 2020076580A
Authority
JP
Japan
Prior art keywords
sensor
axis deviation
vehicle
lane
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018208319A
Other languages
Japanese (ja)
Inventor
史明 長瀬
Fumiaki Nagase
史明 長瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2018208319A priority Critical patent/JP2020076580A/en
Publication of JP2020076580A publication Critical patent/JP2020076580A/en
Pending legal-status Critical Current

Links

Images

Abstract

To increase estimation accuracy of an axial deviation amount of a sensor mounted in a vehicle.SOLUTION: A first sensor and a second sensor mounted in a vehicle recognize a situation around the vehicle, and their visual fields at least partially overlap. An axial deviation estimation device estimates an axial deviation amount between the first sensor and the second sensor by contrasting a result of object recognition by the first sensor with a result of object recognition by the second sensor. At that time, the axial deviation estimation device sets as a mask area an area in which there is a high likelihood of presence of an object which causes decrease in estimation accuracy of the axial deviation amount. The mask area includes an area in a lane, for example. Also, the axial deviation estimation device extracts an object present in an area other than the mask area. The axial deviation estimation device estimates the axial deviation amount on the basis of the result of recognition of the object thus extracted.SELECTED DRAWING: Figure 8

Description

本発明は、車両に搭載されるセンサの軸ずれ量を推定する軸ずれ推定装置に関する。   The present invention relates to an axis deviation estimating device for estimating an axis deviation amount of a sensor mounted on a vehicle.

特許文献1は、複数のセンサ情報を組み合わせて障害物の認識を行う障害物認識装置を開示している。より詳細には、障害物認識装置は、カメラ、レーダ、及び補正手段を備えている。カメラは、障害物を撮像し、撮像結果を示す第1パラメータ情報を取得する。レーダは、障害物を計測し、計測結果を示す第2パラメータ情報を取得する。補正手段は、第1パラメータ情報と第2パラメータ情報に基づいて、カメラ又はレーダの方位角の軸ずれ量を算出する。そして、補正手段は、算出された軸ずれ量に基づいて、カメラ又はレーダの軸ずれを補正する。   Patent Document 1 discloses an obstacle recognition device that recognizes an obstacle by combining a plurality of pieces of sensor information. More specifically, the obstacle recognition device includes a camera, a radar, and a correction unit. The camera images the obstacle and acquires first parameter information indicating the imaging result. The radar measures an obstacle and acquires second parameter information indicating the measurement result. The correction means calculates the axial shift amount of the azimuth angle of the camera or the radar based on the first parameter information and the second parameter information. Then, the correction unit corrects the axis deviation of the camera or the radar based on the calculated axis deviation amount.

特開2010−249613号公報JP, 2010-249613, A

特許文献1によれば、カメラ及びレーダのそれぞれによって障害物が認識される。しかしながら、障害物の認識精度が低いと、軸ずれ量の推定精度も低くなる。推定される軸ずれ量が安定しない場合、信頼度の高い軸ずれ量を決定するまでの時間が長くなる。   According to Patent Document 1, the obstacle is recognized by each of the camera and the radar. However, when the recognition accuracy of the obstacle is low, the estimation accuracy of the axis deviation amount is also low. If the estimated axis deviation amount is not stable, it takes a long time to determine a highly reliable axis deviation amount.

本発明の1つの目的は、車両に搭載されるセンサの軸ずれ量の推定精度を向上させることができる技術を提供することにある。   An object of the present invention is to provide a technique capable of improving the estimation accuracy of the amount of axial deviation of a sensor mounted on a vehicle.

本発明の1つの観点は、軸ずれ推定装置に関する。
軸ずれ推定装置は、車両に搭載される第1センサと第2センサとの間の軸ずれ量を推定する。
第1センサと第2センサは、車両の周囲の状況を認識し、且つ、それぞれの視野は少なくとも部分的に重なっている。
軸ずれ推定装置は、
第1センサによる認識結果を示す第1認識情報と、第2センサによる認識結果を示す第2認識情報と、車両の周囲の車線の配置を示す車線情報と、が格納される記憶装置と、
第1センサと第2センサとの間の軸ずれ量を推定するプロセッサと
を備える。
プロセッサは、
車線情報に基づいて、車線内の領域と車線の方向から導き出される領域のうち少なくとも一方を、マスク領域として設定し、
第1認識情報及び第2認識情報に基づいて、マスク領域以外の領域に存在する物体を抽出し、
第1センサによる物体の認識結果と第2センサによる物体の認識結果とを対比することによって、軸ずれ量を推定する。
One aspect of the present invention relates to an axis deviation estimating device.
The axis deviation estimation device estimates the axis deviation amount between the first sensor and the second sensor mounted on the vehicle.
The first sensor and the second sensor recognize a situation around the vehicle, and their respective visual fields at least partially overlap.
The axis deviation estimation device is
A storage device that stores first recognition information indicating a recognition result by the first sensor, second recognition information indicating a recognition result by the second sensor, and lane information indicating an arrangement of lanes around the vehicle,
A processor that estimates the amount of axis deviation between the first sensor and the second sensor.
The processor is
Based on the lane information, set at least one of the area within the lane and the area derived from the direction of the lane as the mask area,
An object existing in a region other than the mask region is extracted based on the first recognition information and the second recognition information,
The amount of axis deviation is estimated by comparing the recognition result of the object by the first sensor and the recognition result of the object by the second sensor.

本発明によれば、第1センサによる物体の認識結果と第2センサによる物体の認識結果とを対比することによって、軸ずれ量が推定される。但し、全ての物体が無条件に用いられるわけではない。軸ずれ量の推定精度の低下を招く物体が存在する可能性が高い領域が、マスク領域として設定される。そして、マスク領域以外の領域に存在する物体が軸ずれ量の推定に用いられる。その結果、軸ずれ量の推定精度が向上する。推定される軸ずれ量が安定するため、信頼度の高い軸ずれ量を早期に決定することが可能となる。   According to the present invention, the axis deviation amount is estimated by comparing the object recognition result by the first sensor and the object recognition result by the second sensor. However, not all objects are used unconditionally. A region in which there is a high possibility that there is an object that causes a decrease in the accuracy of estimating the amount of axis deviation is set as the mask region. Then, the object existing in the area other than the mask area is used for estimating the amount of misalignment. As a result, the accuracy of estimating the amount of misalignment is improved. Since the estimated axis deviation amount is stable, it is possible to quickly determine the axis deviation amount with high reliability.

本発明の実施の形態に係る車両に搭載されるセンサを説明するための概念図である。It is a conceptual diagram for explaining the sensor mounted on the vehicle according to the embodiment of the present invention. 比較例に係る軸ずれ推定処理の概要を説明するための概念図である。It is a conceptual diagram for demonstrating the outline of the axis shift estimation process which concerns on a comparative example. 比較例に係る軸ずれ推定処理の概要を説明するための概念図である。It is a conceptual diagram for demonstrating the outline of the axis shift estimation process which concerns on a comparative example. 比較例に係る軸ずれ推定処理の概要を説明するための概念図である。It is a conceptual diagram for demonstrating the outline of the axis shift estimation process which concerns on a comparative example. 本発明の実施の形態に係るマスク領域の第1の例を説明するための概念図である。It is a conceptual diagram for explaining the 1st example of the mask area | region which concerns on embodiment of this invention. 本発明の実施の形態に係るマスク領域の第2の例を説明するための概念図である。It is a conceptual diagram for demonstrating the 2nd example of the mask area | region which concerns on embodiment of this invention. 本発明の実施の形態に係るマスク領域の第2の例を説明するための概念図である。It is a conceptual diagram for demonstrating the 2nd example of the mask area | region which concerns on embodiment of this invention. 本発明の実施の形態に係る軸ずれ推定処理を説明するための概念図である。It is a conceptual diagram for demonstrating the axis shift estimation process which concerns on embodiment of this invention. 本発明の実施の形態に係る軸ずれ推定処理を説明するための概念図である。It is a conceptual diagram for demonstrating the axis shift estimation process which concerns on embodiment of this invention. 本発明の実施の形態に係る軸ずれ推定装置の構成例を示すブロック図である。It is a block diagram showing an example of composition of an axis gap estimating device concerning an embodiment of the invention. 本発明の実施の形態に係る運転環境取得装置と運転環境情報の例を示すブロック図である。It is a block diagram which shows the example of driving environment acquisition apparatus and driving environment information which concern on embodiment of this invention. 本発明の実施の形態に係る軸ずれ推定装置のプロセッサによる処理を示すフローチャートである。It is a flowchart which shows the process by the processor of the axis shift estimation apparatus which concerns on embodiment of this invention.

添付図面を参照して、本発明の実施の形態を説明する。   Embodiments of the present invention will be described with reference to the accompanying drawings.

1.車両に搭載されるセンサ
図1は、本実施の形態に係る車両1に搭載されるセンサを説明するための概念図である。車両1は、自動運転を行う機能を有している。自動運転を行うためには、車両1の周囲の状況を認識する必要がある。そのために、車両1は、車両1の周囲の状況を認識(検出)するためのセンサを備えている。より詳細には、センサは、第1センサ10と第2センサ20を含んでいる。
1. Sensor Mounted on Vehicle FIG. 1 is a conceptual diagram for explaining a sensor mounted on the vehicle 1 according to the present embodiment. The vehicle 1 has a function of performing automatic driving. In order to perform automatic driving, it is necessary to recognize the situation around the vehicle 1. Therefore, the vehicle 1 is provided with a sensor for recognizing (detecting) the situation around the vehicle 1. More specifically, the sensor includes a first sensor 10 and a second sensor 20.

第1センサ10は、カメラ、ライダー(LIDAR: Laser Imaging Detection and Ranging)、及びレーダのうちのいずれかである。カメラは、車両1の周囲を撮像する。カメラは、例えばステレオカメラである。ライダー及びレーダは、電磁波(レーザ光、電波)を照射し、その反射波に基づいて物体を検出するアクティブセンサである。例えば、ライダーは、複数の方向に向けてレーザ光を順次出力(走査)し、反射光の受光状態に基づいて反射点の距離及び方向を算出することができる。   The first sensor 10 is one of a camera, a lidar (LIDAR: Laser Imaging Detection and Ranging), and a radar. The camera images the surroundings of the vehicle 1. The camera is, for example, a stereo camera. The lidar and the radar are active sensors that emit electromagnetic waves (laser light, radio waves) and detect an object based on the reflected waves. For example, the rider can sequentially output (scan) the laser light in a plurality of directions and calculate the distance and direction of the reflection point based on the light receiving state of the reflected light.

第2センサ20も、カメラ、ライダー、及びレーダのうちいずれかである。但し、第1センサ10と第2センサ20は、一体ではなく、別々に設置されている。   The second sensor 20 is also one of a camera, a rider, and a radar. However, the first sensor 10 and the second sensor 20 are not integrated but installed separately.

第1センサ10と第2センサ20のそれぞれの視野は、少なくとも部分的に重なっている。従って、第1センサ10と第2センサ20によって同一の物体が認識される場合もある。第1センサ10と第2センサ20によって認識される2つの物体が所定の条件を満たす場合、それら2つの物体は同一物体として統合される。このような処理は、「フュージョン処理」と呼ばれる。フュージョン処理は、自動運転制御において利用される。   The respective fields of view of the first sensor 10 and the second sensor 20 at least partially overlap. Therefore, the same object may be recognized by the first sensor 10 and the second sensor 20. When the two objects recognized by the first sensor 10 and the second sensor 20 satisfy a predetermined condition, the two objects are integrated as the same object. Such processing is called "fusion processing". The fusion process is used in automatic driving control.

ここで、座標系について定義する。「第1座標系」は、第1センサ10に固定されたセンサ座標系である。第1座標系は、互いに直交するX1軸、Y1軸、及びZ1軸で表される。例えば、X1軸は、車両1の前後方向と平行である。典型的には、X1軸は、カメラの場合はその光軸、ライダーやレーダの場合は走査範囲の中心軸と一致する。Y1軸は、車両1の横方向と平行である。Z1軸は、鉛直方向と平行である。   Here, the coordinate system will be defined. The “first coordinate system” is a sensor coordinate system fixed to the first sensor 10. The first coordinate system is represented by the X1, Y1, and Z1 axes that are orthogonal to each other. For example, the X1 axis is parallel to the front-back direction of the vehicle 1. Typically, the X1 axis coincides with its optical axis in the case of a camera and the central axis of the scanning range in the case of a lidar or radar. The Y1 axis is parallel to the lateral direction of the vehicle 1. The Z1 axis is parallel to the vertical direction.

「第2座標系」は、第2センサ20に固定されたセンサ座標系である。第2座標系は、互いに直交するX2軸、Y2軸、及びZ2軸で表される。例えば、X2軸は、車両1の前後方向と平行である。典型的には、X2軸は、カメラの場合はその光軸、ライダーやレーダの場合は走査範囲の中心軸と一致する。Y2軸は、車両1の横方向と平行である。Z2軸は、鉛直方向と平行である。   The “second coordinate system” is a sensor coordinate system fixed to the second sensor 20. The second coordinate system is represented by an X2 axis, a Y2 axis, and a Z2 axis that are orthogonal to each other. For example, the X2 axis is parallel to the front-back direction of the vehicle 1. Typically, the X2 axis coincides with its optical axis for cameras and the central axis of the scanning range for lidar and radar. The Y2 axis is parallel to the lateral direction of the vehicle 1. The Z2 axis is parallel to the vertical direction.

第1センサ10の姿勢が変化すると、第1座標系の方向が変化する。第2センサ20の姿勢が変化すると、第2座標系の方向が変化する。このような変化は、以下「軸ずれ」と呼ばれる。軸ずれは、経年変化、センサと物体との接触、等によって発生し得る。軸ずれ量は、軸ずれの大きさである。本実施の形態では、軸ずれ量は、第1座標系と第2座標系との間の方向のずれの大きさで表される。物体認識処理やフュージョン処理を精度良く実施するためには、軸ずれ量を把握しておく必要がある。   When the attitude of the first sensor 10 changes, the direction of the first coordinate system changes. When the attitude of the second sensor 20 changes, the direction of the second coordinate system changes. Such a change is hereinafter referred to as "axis deviation". The axis misalignment may occur due to aging, contact between the sensor and an object, or the like. The amount of misalignment is the amount of misalignment. In the present embodiment, the axis deviation amount is represented by the magnitude of the deviation in the direction between the first coordinate system and the second coordinate system. In order to carry out the object recognition processing and the fusion processing with high accuracy, it is necessary to know the amount of axis deviation.

本実施の形態は、第1センサ10(第1座標系)と第2センサ20(第2座標系)との間の軸ずれ量を精度良く推定するための手法を提案する。軸ずれ量を推定する処理は、以下「軸ずれ推定処理」と呼ばれる。以下、軸ずれ推定処理について詳しく説明する。   The present embodiment proposes a method for accurately estimating the amount of axis deviation between the first sensor 10 (first coordinate system) and the second sensor 20 (second coordinate system). The process of estimating the amount of axis deviation will be referred to as "axis deviation estimation process" below. Hereinafter, the axis deviation estimation processing will be described in detail.

2.軸ずれ推定処理
2−1.比較例
まず、比較例について説明する。図2は、比較例に係る軸ずれ推定処理の概要を説明するための概念図である。車両1は、車線LA内に存在している。車線LAは、車両が走行する走路である。車線境界LBは、車線LAと路肩との間の境界である。車線LAは、左側と右側の車線境界LBに挟まれた領域である。
2. Axis deviation estimation process 2-1. Comparative Example First, a comparative example will be described. FIG. 2 is a conceptual diagram for explaining the outline of the axis deviation estimation process according to the comparative example. The vehicle 1 is in the lane LA. The lane LA is a track on which the vehicle travels. The lane boundary LB is a boundary between the lane LA and the road shoulder. The lane LA is an area sandwiched between the left and right lane boundaries LB.

軸ずれ推定処理には、第1センサ10と第2センサ20のそれぞれによる物体認識(物体検出)の結果が利用される。図2には、認識される物体として、他車両2と道路構造物3が例示されている。他車両2は、車線LA内を走行している。道路構造物3としては、ガードレールや壁が例示される。典型的には、道路構造物3は、車線LAの外側の領域において車線LA(車線境界LB)に沿って配置されている。図3に示される例では、車両1の左側と右側に道路構造物3L、3Rがそれぞれ存在している。   The results of object recognition (object detection) by the first sensor 10 and the second sensor 20 are used for the axis deviation estimation process. In FIG. 2, the other vehicle 2 and the road structure 3 are illustrated as the recognized objects. The other vehicle 2 is traveling in the lane LA. Examples of the road structure 3 include guardrails and walls. Typically, the road structure 3 is arranged along the lane LA (lane boundary LB) in a region outside the lane LA. In the example shown in FIG. 3, road structures 3L and 3R are present on the left side and the right side of the vehicle 1, respectively.

図3は、第1センサ10と第2センサ20のそれぞれによる物体認識の結果の例を概念的に示している。第1点群PC1は、第1センサ10によって検出される物体の表面上の点群である。第1点群PC1の位置は、第1座標系において定義される。第2点群PC2は、第2センサ20によって検出される物体の表面上の点群である。第2点群PC2の位置は、第2座標系において定義される。そして、第1点群PC1と第2点群PC2との間の位置誤差が最小となるように、第1座標系と第2座標系の少なくとも一方の座標変換が行われる。位置誤差が最小となる場合の第1座標系と第2座標系との間の方向のずれは、角度δで表される。この角度δが軸ずれ量δとして推定される。   FIG. 3 conceptually shows an example of the result of object recognition by each of the first sensor 10 and the second sensor 20. The first point group PC1 is a point group on the surface of the object detected by the first sensor 10. The position of the first point group PC1 is defined in the first coordinate system. The second point group PC2 is a point group on the surface of the object detected by the second sensor 20. The position of the second point group PC2 is defined in the second coordinate system. Then, coordinate conversion of at least one of the first coordinate system and the second coordinate system is performed so that the positional error between the first point group PC1 and the second point group PC2 is minimized. The deviation in the direction between the first coordinate system and the second coordinate system when the position error is the minimum is represented by an angle δ. This angle δ is estimated as the axis deviation amount δ.

但し、軸ずれ推定処理に用いるには不適切な物体も存在する。例えば、図2で示された他車両2等の移動物体が用いられる場合、軸ずれ量δの推定精度が低下するおそれがある。何故なら、移動物体が移動すると、第1センサ10と第2センサ20との間の計測タイミングの差分だけ、移動物体の検出位置がずれるからである。   However, some objects are unsuitable for use in the axis deviation estimation process. For example, when the moving object such as the other vehicle 2 shown in FIG. 2 is used, the estimation accuracy of the axis deviation amount δ may decrease. This is because when the moving object moves, the detection position of the moving object shifts by the difference in the measurement timing between the first sensor 10 and the second sensor 20.

他の例として、第1センサ10と第2センサ20の少なくとも一方が、アクティブセンサ(ライダー、レーダ)である場合を考える。アクティブセンサの場合、反射波の強度が弱くなるほど、検出物体の位置精度は低下する。つまり、反射率の低い反射点の位置精度は低い。例えば、図2中の右側の道路構造物3R上の点PXについて考える。アクティブセンサから照射された電磁波の点PXに対する入射角は小さく、点PXでの反射率は低い。そのため、点PXの位置精度は低い。そのような点PXが軸ずれ推定処理に用いられると、軸ずれ量δの推定精度が低下する。   As another example, consider a case where at least one of the first sensor 10 and the second sensor 20 is an active sensor (rider, radar). In the case of the active sensor, the weaker the intensity of the reflected wave, the lower the position accuracy of the detected object. That is, the positional accuracy of the reflection point having a low reflectance is low. For example, consider the point PX on the right road structure 3R in FIG. The incident angle of the electromagnetic wave emitted from the active sensor with respect to the point PX is small, and the reflectance at the point PX is low. Therefore, the position accuracy of the point PX is low. When such a point PX is used in the axis deviation estimation process, the accuracy of estimating the axis deviation amount δ is reduced.

このように、不適切な物体が軸ずれ推定処理に用いられると、軸ずれ量δの推定精度が低下する。推定される軸ずれ量δが安定しない場合、信頼度の高い軸ずれ量δを決定するまでの時間が長くなる。   In this way, when an inappropriate object is used in the axis deviation estimation process, the accuracy of estimating the axis deviation amount δ is reduced. If the estimated axis deviation amount δ is not stable, it takes a long time to determine the highly reliable axis deviation amount δ.

図4は、軸ずれ量δの推定精度が低い場合を示している。横軸は、時間を表し、縦軸は、推定される軸ずれ量δを表している。信頼度の高い軸ずれ量δを決定するために、軸ずれ量δは、繰り返し推定され、蓄積される。図4には、一定期間において推定された複数の軸ずれ量δの平均値μ及び標準偏差σも示されている。   FIG. 4 shows a case where the estimation accuracy of the axis deviation amount δ is low. The horizontal axis represents time, and the vertical axis represents the estimated axis deviation amount δ. In order to determine the highly reliable axis deviation amount δ, the axis deviation amount δ is repeatedly estimated and accumulated. FIG. 4 also shows the average value μ and standard deviation σ of the plurality of axis deviation amounts δ estimated in a certain period.

図4に示される例では、推定される軸ずれ量δは安定しておらず、そのばらつきは大きい。推定される軸ずれ量δが安定しない状況では、軸ずれ量δを1つに確定することもできない。例えば、軸ずれ量δを確定するための確定条件が、「一定期間における分散σが閾値未満になること」であるとする。図4に示されるような状況では、確定条件が成立するまでの時間は長くなる。最悪の場合、確定条件がいつまでも成立せず、その結果、軸ずれ量δもいつまでも確定しない。軸ずれ量δが確定しないと、車両1の自動運転を開始することもできない。 In the example shown in FIG. 4, the estimated axis deviation amount δ is not stable and its variation is large. In a situation where the estimated axis deviation amount δ is not stable, the axis deviation amount δ cannot be fixed as one. For example, it is assumed that the determination condition for determining the amount of axis deviation δ is “the variance σ 2 in a certain period is less than a threshold value”. In the situation as shown in FIG. 4, the time until the definite condition is established becomes long. In the worst case, the definite condition is not established forever, and as a result, the axis deviation amount δ is not established forever. If the axis deviation amount δ is not fixed, the automatic operation of the vehicle 1 cannot be started.

2−2.本実施の形態に係る軸ずれ推定処理
そこで、本実施の形態によれば、推定精度の低下を招く物体が軸ずれ推定処理から除外される。そのために、「マスク領域MSK」という概念が導入される。マスク領域MSKは、推定精度の低下を招く物体が存在する可能性が高い領域である。マスク領域MSKに含まれる物体を用いずに軸ずれ推定処理を実行することによって、軸ずれ量δの推定精度の低下が防止される。
2-2. Therefore, according to the present embodiment, an object causing deterioration in estimation accuracy is excluded from the axial deviation estimation process according to the present embodiment. Therefore, the concept of "mask area MSK" is introduced. The mask region MSK is a region in which there is a high possibility that an object that causes a decrease in estimation accuracy will exist. By executing the axial deviation estimation process without using the object included in the mask region MSK, it is possible to prevent the estimation accuracy of the axial deviation amount δ from decreasing.

図5は、マスク領域MSKの第1の例を説明するための概念図である。マスク領域MSKの第1の例は、車線LA内の領域である。車線LA内には、他車両2等の移動物体が存在する可能性が高い。従って、車線LA内の領域をマスク領域MSKとして設定することによって、移動物体をマスクすることが可能となる。その結果、移動物体に起因する推定精度の低下が防止される。車線LA内の領域を、以下、便宜上、「第1マスク領域MSK1」と呼ぶ。   FIG. 5 is a conceptual diagram for explaining the first example of the mask region MSK. A first example of the mask area MSK is an area in the lane LA. There is a high possibility that a moving object such as another vehicle 2 exists in the lane LA. Therefore, the moving object can be masked by setting the area in the lane LA as the mask area MSK. As a result, it is possible to prevent the estimation accuracy from deteriorating due to the moving object. The area in the lane LA is hereinafter referred to as “first mask area MSK1” for convenience.

図6は、マスク領域MSKの第2の例を説明するための概念図である。マスク領域MSKの第2の例を、以下、便宜上、「第2マスク領域MSK2」と呼ぶ。第2マスク領域MSK2も、車線LAに関連しており、特に車線LAの方向から導き出される。   FIG. 6 is a conceptual diagram for explaining the second example of the mask region MSK. Hereinafter, the second example of the mask region MSK will be referred to as a “second mask region MSK2” for convenience. The second mask area MSK2 is also associated with the lane LA and is particularly derived from the direction of the lane LA.

より詳細には、車線LAの方向として、車線LAと路肩との間の境界である車線境界LBの方向を考える。図6に示されるように、車線境界LB上の点PL毎に角度θが定義される。角度θは、視線方向と接線方向とのなす角度である。視線方向は、第1センサ10あるいは第2センサ20から点PLへの方向である。接線方向は、点PLにおける車線境界LBの接線の方向である。マスク区間MSは、角度θが閾値θth未満である区間である。そして、第2マスク領域MSK2は、マスク区間MSの車線境界LBに沿った領域であって、車線境界LBからみて路肩側に位置する領域である。   More specifically, the direction of the lane LA is the direction of the lane boundary LB which is the boundary between the lane LA and the road shoulder. As shown in FIG. 6, the angle θ is defined for each point PL on the lane boundary LB. The angle θ is an angle formed by the line-of-sight direction and the tangential direction. The line-of-sight direction is the direction from the first sensor 10 or the second sensor 20 to the point PL. The tangent direction is the tangent direction of the lane boundary LB at the point PL. The mask section MS is a section in which the angle θ is less than the threshold value θth. The second mask area MSK2 is an area along the lane boundary LB of the mask section MS and is an area located on the road shoulder side as viewed from the lane boundary LB.

図6から分かるように、上記のように定義された第2マスク領域MSK2は、反射率の低い道路構造物3(例えば、図2中の点PXを参照)をマスクすることができる可能性が高い。反射率の低い道路構造物3がマスクされると、推定精度の低下が防止される。   As can be seen from FIG. 6, the second mask region MSK2 defined as described above may be able to mask the road structure 3 having a low reflectance (for example, see the point PX in FIG. 2). high. When the road structure 3 having a low reflectance is masked, deterioration of estimation accuracy is prevented.

図7は、直線道路の場合の第2マスク領域MSK2の設定例を示している。図7に示される例では、第2マスク領域MSK2は、車両1から遠い位置の道路構造物3をマスクする。この場合も同様に、反射率の低い道路構造物3がマスクされ、推定精度の低下が防止される。   FIG. 7 shows a setting example of the second mask area MSK2 in the case of a straight road. In the example shown in FIG. 7, the second mask region MSK2 masks the road structure 3 located far from the vehicle 1. In this case as well, the road structure 3 having a low reflectance is masked and the estimation accuracy is prevented from being lowered.

尚、第2マスク領域MSK2は、第1センサ10と第2センサ20とで異なっていてもよい。例えば、第1センサ10に関する第2マスク領域MSK2は、第1センサ10から点PLへの方向を視線方向として用いることにより定義される。第2センサ20に関する第2マスク領域MSK2は、第2センサ20から点PLへの方向を視線方向として用いることにより定義される。また、第1センサ10と第2センサ20とで閾値θthが異なっていてもよい。   The second mask region MSK2 may be different between the first sensor 10 and the second sensor 20. For example, the second mask region MSK2 regarding the first sensor 10 is defined by using the direction from the first sensor 10 to the point PL as the line-of-sight direction. The second mask region MSK2 regarding the second sensor 20 is defined by using the direction from the second sensor 20 to the point PL as the line-of-sight direction. Further, the first sensor 10 and the second sensor 20 may have different threshold values θth.

図8は、図2で示された状況に第1マスク領域MSK1及び第2マスク領域MSK2が適用された場合を示している。第1マスク領域MSK1によって、車線LA内の移動物体がマスクされる。また、第2マスク領域MSK2によって、反射率の低い道路構造物3がマスクされる。すなわち、推定精度の低下を招く物体が軸ずれ推定処理から除外される。その結果、軸ずれ量δの推定精度が向上する。   FIG. 8 shows a case where the first mask region MSK1 and the second mask region MSK2 are applied to the situation shown in FIG. The moving object in the lane LA is masked by the first mask area MSK1. Further, the road structure 3 having a low reflectance is masked by the second mask area MSK2. That is, an object that causes a decrease in estimation accuracy is excluded from the axis deviation estimation process. As a result, the estimation accuracy of the axis deviation amount δ is improved.

本実施の形態によれば、第1マスク領域MSK1と第2マスク領域MSK2のうち少なくとも一方が、マスク領域MSKとして設定される。第1マスク領域MSK1と第2マスク領域MSK2のいずれか一方だけがマスク領域MSKとして設定される場合であっても、軸ずれ量δの推定精度が向上するという効果は得られる。   According to the present embodiment, at least one of first mask region MSK1 and second mask region MSK2 is set as mask region MSK. Even when only one of the first mask region MSK1 and the second mask region MSK2 is set as the mask region MSK, the effect of improving the estimation accuracy of the axis deviation amount δ can be obtained.

更に、第1センサ10の視野外の領域及び第2センサ20の視野外の領域が、マスク領域MSKとして設定されてもよい。   Further, the area outside the visual field of the first sensor 10 and the area outside the visual field of the second sensor 20 may be set as the mask area MSK.

図9は、本実施の形態の効果を説明するための図であり、そのフォーマットは既出の図4と同じである。本実施の形態によれば、軸ずれ量δの推定精度が向上する。従って、推定される軸ずれ量δは安定し、そのばらつきは小さい。推定される軸ずれ量δが安定するため、信頼度の高い軸ずれ量δを早期に確定することが可能となる。その結果、車両1の自動運転を開始することができるまでの時間が短縮される。   FIG. 9 is a diagram for explaining the effect of the present embodiment, and its format is the same as that of FIG. 4 already described. According to the present embodiment, the estimation accuracy of the axis deviation amount δ is improved. Therefore, the estimated axis deviation amount δ is stable and its variation is small. Since the estimated axis deviation amount δ is stable, it is possible to quickly determine the axis deviation amount δ with high reliability. As a result, the time until the automatic driving of the vehicle 1 can be started is shortened.

以下、本実施の形態に係る軸ずれ推定処理を実現する軸ずれ推定装置について説明する。   Hereinafter, an axis deviation estimation device that realizes the axis deviation estimation process according to the present embodiment will be described.

3.軸ずれ推定装置
3−1.構成例
図10は、本実施の形態に係る軸ずれ推定装置100の構成例を示すブロック図である。軸ずれ推定装置100は、例えば、車両1に搭載されている。軸ずれ推定装置100は、第1センサ10による認識結果を示す第1認識情報D10を、第1センサ10から受け取る。また、軸ずれ推定装置100は、第2センサ20による認識結果を示す第2認識情報D20を、第2センサ20から受け取る。
3. Axis deviation estimation device 3-1. Configuration Example FIG. 10 is a block diagram showing a configuration example of the axis deviation estimating device 100 according to the present embodiment. The axis deviation estimating device 100 is mounted in, for example, the vehicle 1. The axis deviation estimating device 100 receives, from the first sensor 10, the first recognition information D10 indicating the recognition result by the first sensor 10. Further, the axis deviation estimating device 100 receives, from the second sensor 20, the second recognition information D20 indicating the recognition result by the second sensor 20.

軸ずれ推定装置100は、第1認識情報D10及び第2認識情報D20に基づいて、軸ずれ推定処理を行う。より詳細には、軸ずれ推定装置100は、プロセッサ110、記憶装置120、及び運転環境取得装置130を備えている。   The axis deviation estimation device 100 performs the axis deviation estimation process based on the first recognition information D10 and the second recognition information D20. More specifically, the axis deviation estimation device 100 includes a processor 110, a storage device 120, and a driving environment acquisition device 130.

プロセッサ110は、軸ずれ推定処理を含む各種処理を実行する。例えば、プロセッサ110は、車両1の自動運転を制御するコントローラ(ECU: Electronic Control Unit)に含まれている。プロセッサ110が記憶装置120に格納された制御プログラムを実行することにより、プロセッサ110による各種処理が実現される。   The processor 110 executes various processes including an axis deviation estimation process. For example, the processor 110 is included in a controller (ECU: Electronic Control Unit) that controls automatic driving of the vehicle 1. Various processes by the processor 110 are realized by the processor 110 executing the control programs stored in the storage device 120.

記憶装置120には、第1認識情報D10、第2認識情報D20、車線情報D30、及び運転環境情報D130が格納される。第1認識情報D10は、第1センサ10による認識結果を示す。第2認識情報D20は、第2センサ20による認識結果を示す。車線情報D30は、車両1の周囲の車線LAの配置を示す。車線LAの配置とは、車線LAの位置、形状、幅、等を含む概念である。運転環境情報D130は、車両1の運転環境を示す。   The storage device 120 stores the first recognition information D10, the second recognition information D20, the lane information D30, and the driving environment information D130. The first recognition information D10 indicates the recognition result by the first sensor 10. The second recognition information D20 indicates the recognition result by the second sensor 20. The lane information D30 indicates the arrangement of the lane LA around the vehicle 1. The arrangement of the lane LA is a concept including the position, shape, width, etc. of the lane LA. The driving environment information D130 indicates the driving environment of the vehicle 1.

運転環境取得装置130は、運転環境情報D130を取得する運転環境取得処理を行う。運転環境取得処理を行うプロセッサは、上記のプロセッサ110と同じであってもよいし、別であってもよい。   The driving environment acquisition device 130 performs a driving environment acquisition process for acquiring the driving environment information D130. The processor that performs the driving environment acquisition process may be the same as or different from the processor 110 described above.

図11は、運転環境取得装置130と運転環境情報D130の例を示している。運転環境取得装置130は、車両位置センサ131、周辺状況センサ132、地図データベース133、及び通信装置134を含んでいる。運転環境情報D130は、車両位置情報D131、周辺状況情報D132、及び地図情報D133を含んでいる。   FIG. 11 shows an example of the driving environment acquisition device 130 and the driving environment information D130. The driving environment acquisition device 130 includes a vehicle position sensor 131, a surrounding condition sensor 132, a map database 133, and a communication device 134. The driving environment information D130 includes vehicle position information D131, surrounding situation information D132, and map information D133.

車両位置センサ131は、車両1の位置及び方位を検出し、車両1の位置及び方位を示す車両位置情報D131を取得する。例えば、車両位置センサ131は、GPS(Global Positioning System)センサを含む。GPSセンサは、複数のGPS衛星から送信される信号を受信し、受信信号に基づいて車両1の位置及び方位を算出する。   The vehicle position sensor 131 detects the position and direction of the vehicle 1 and acquires vehicle position information D131 indicating the position and direction of the vehicle 1. For example, the vehicle position sensor 131 includes a GPS (Global Positioning System) sensor. The GPS sensor receives signals transmitted from a plurality of GPS satellites and calculates the position and azimuth of the vehicle 1 based on the received signals.

周辺状況センサ132は、車両1の周囲の状況を検出し、車両1の周囲の状況を示す周辺状況情報D132を取得する。例えば、周辺状況センサ132は、カメラ、ライダー、及びレーダのうち少なくとも1つを含んでいる。周辺状況センサ132は、第1センサ10や第2センサ20と同じであってもよい。周辺状況情報D132は、カメラによる撮像結果を示す撮像情報、ライダーやレーダによる計測結果を示す計測情報のうち少なくとも一方を含んでいる。   The surrounding situation sensor 132 detects the surrounding situation of the vehicle 1 and acquires the surrounding situation information D132 indicating the surrounding situation of the vehicle 1. For example, the ambient condition sensor 132 includes at least one of a camera, a rider, and a radar. The ambient condition sensor 132 may be the same as the first sensor 10 and the second sensor 20. The peripheral situation information D132 includes at least one of image pickup information indicating the image pickup result by the camera and measurement information indicating the measurement result by the rider or radar.

地図データベース133には、地図情報D133が記録されている。地図情報D133は、車線LAの配置に関する情報を含んでいる。運転環境取得装置130は、必要な範囲の地図情報D133を地図データベース133から取得する。地図データベース133が車両1の外部の管理サーバに格納されている場合、運転環境取得装置130は、通信装置134を介して管理サーバと通信を行い、管理サーバから必要な範囲の地図情報D133を取得する。   The map information 133 is recorded in the map database 133. The map information D133 includes information on the arrangement of the lane LA. The driving environment acquisition device 130 acquires the necessary range of map information D133 from the map database 133. When the map database 133 is stored in the management server outside the vehicle 1, the driving environment acquisition device 130 communicates with the management server via the communication device 134 and acquires the map information D133 of the necessary range from the management server. To do.

尚、地図情報D133が道路上の特徴物(例:白線、看板、ポール)の位置を含んでいる場合、運転環境取得装置130は、運転環境情報D130に基づいて周知の自己位置推定処理(localization)を行ってもよい。自己位置推定処理により、車両位置情報D131の精度が向上する。   In addition, when the map information D133 includes the position of the characteristic object (eg, white line, signboard, pole) on the road, the driving environment acquisition device 130 performs a known self-position estimation process (localization) based on the driving environment information D130. ) May be performed. The self-position estimation process improves the accuracy of the vehicle position information D131.

3−2.処理フロー
図12は、本実施の形態に係る軸ずれ推定装置100のプロセッサ110による処理を示すフローチャートである。図12に示される処理は、一定サイクル毎に繰り返し実行される。
3-2. Processing Flow FIG. 12 is a flowchart showing processing by the processor 110 of the axis deviation estimating device 100 according to this embodiment. The process shown in FIG. 12 is repeatedly executed every fixed cycle.

ステップS10において、プロセッサ110は、第1センサ10から第1認識情報D10を取得する。また、プロセッサ110は、第2センサ20から第2認識情報D20を取得する。また、プロセッサ110は、運転環境取得装置130から運転環境情報D130を取得する。プロセッサ110は、取得した情報を記憶装置120に格納する。   In step S10, the processor 110 acquires the first recognition information D10 from the first sensor 10. Further, the processor 110 acquires the second recognition information D20 from the second sensor 20. Further, the processor 110 acquires the driving environment information D130 from the driving environment acquisition device 130. The processor 110 stores the acquired information in the storage device 120.

ステップS20において、プロセッサ110は、車両1の周囲の車線LAの配置を示す車線情報D30を取得する。より詳細には、プロセッサ110は、運転環境情報D130に基づいて車線情報D30を取得する。   In step S20, the processor 110 acquires the lane information D30 indicating the arrangement of the lane LA around the vehicle 1. More specifically, the processor 110 acquires the lane information D30 based on the driving environment information D130.

例えば、地図情報D133は、車線LAの配置に関する情報を含んでいる。従って、プロセッサ110は、車両位置情報D131に基づいて車両1の周辺の地図情報D133を取得し、その地図情報D133から車線情報D30を取得することができる。   For example, the map information D133 includes information on the arrangement of the lane LA. Therefore, the processor 110 can acquire the map information D133 around the vehicle 1 based on the vehicle position information D131, and can acquire the lane information D30 from the map information D133.

他の例として、プロセッサ110は、周辺状況情報D132(撮像情報や計測情報)に基づいて、車両1の周囲の白線を認識してもよい。この場合、プロセッサ110は、認識された白線の位置から車線LAの配置を推定し、車線情報D30を取得する。   As another example, the processor 110 may recognize the white line around the vehicle 1 based on the surrounding situation information D132 (imaging information and measurement information). In this case, the processor 110 estimates the arrangement of the lane LA from the recognized position of the white line, and acquires the lane information D30.

ステップS30において、プロセッサ110は、車線情報D30に基づいて、車線LAに関連するマスク領域MSKの設定を行う。マスク領域MSKは、第1マスク領域MSK1(図5参照)と第2マスク領域MSK2(図6、図7参照)のうち少なくとも一方を含む。   In step S30, the processor 110 sets the mask area MSK related to the lane LA based on the lane information D30. The mask region MSK includes at least one of the first mask region MSK1 (see FIG. 5) and the second mask region MSK2 (see FIGS. 6 and 7).

ステップS40において、プロセッサ110は、マスク領域MSK以外の第1認識情報D10及び第2認識情報D20に基づいて、軸ずれ量δを推定する。   In step S40, the processor 110 estimates the axis deviation amount δ based on the first recognition information D10 and the second recognition information D20 other than the mask area MSK.

より詳細には、プロセッサ110は、第1認識情報D10及び第2認識情報D20に基づいて、マスク領域MSK以外の領域に存在する物体を抽出する。つまり、プロセッサ110は、物体抽出範囲からマスク領域MSKを除外することによって、物体抽出範囲を限定する。   More specifically, the processor 110 extracts an object existing in a region other than the mask region MSK based on the first recognition information D10 and the second recognition information D20. That is, the processor 110 limits the object extraction range by excluding the mask area MSK from the object extraction range.

そして、プロセッサ110は、第1センサ10による物体認識結果と第2センサ20による物体認識結果とを対比することによって、軸ずれ量δを推定する。例えば、図3で示されたように、第1点群PC1と第2点群PC2との間の位置誤差が最小となるように、第1座標系と第2座標系の少なくとも一方の座標変換が行われる。位置誤差が最小となる場合の第1座標系と第2座標系との間の角度が、軸ずれ量δとして推定される。   Then, the processor 110 estimates the axis deviation amount δ by comparing the object recognition result by the first sensor 10 and the object recognition result by the second sensor 20. For example, as shown in FIG. 3, coordinate conversion of at least one of the first coordinate system and the second coordinate system is performed so that the positional error between the first point group PC1 and the second point group PC2 is minimized. Is done. The angle between the first coordinate system and the second coordinate system when the position error is the minimum is estimated as the axis deviation amount δ.

ステップS50において、プロセッサ110は、所定の確定条件が成立するか否かを判定する。例えば、確定条件は、一定期間において推定された複数の軸ずれ量δの分散σが閾値未満になることである。確定条件が成立しない場合(ステップS50;No)、今回のサイクルにおける処理は終了する。確定条件が成立する場合(ステップS50;Yes)、処理はステップS60に進む。 In step S50, the processor 110 determines whether or not a predetermined confirmation condition is satisfied. For example, the definite condition is that the variance σ 2 of the plurality of axis deviation amounts δ estimated in a certain period is less than the threshold value. When the definite condition is not satisfied (step S50; No), the process in this cycle ends. When the definite condition is satisfied (step S50; Yes), the process proceeds to step S60.

ステップS60において、プロセッサ110は、軸ずれ量δを決定する。例えば、プロセッサ110は、一定期間において推定された複数の軸ずれ量δの平均値μを、軸ずれ量δとして決定する。   In step S60, the processor 110 determines the axis deviation amount δ. For example, the processor 110 determines the average value μ of the plurality of axis deviation amounts δ estimated in a certain period as the axis deviation amount δ.

1 車両
2 他車両
3、3L、3R 道路構造物
10 第1センサ
20 第2センサ
100 軸ずれ推定装置
110 プロセッサ
120 記憶装置
130 運転環境取得装置
131 車両位置センサ
132 周辺状況センサ
133 地図データベース
134 通信装置
D10 第1認識情報
D20 第2認識情報
D30 車線情報
D130 運転環境情報
D131 車両位置情報
D132 周辺状況情報
D133 地図情報
LA 車線(走路)
LB 車線境界
MSK マスク領域
MSK1 第1マスク領域
MSK2 第2マスク領域
1 vehicle 2 other vehicle 3, 3L, 3R road structure 10 first sensor 20 second sensor 100 axis deviation estimation device 110 processor 120 storage device 130 driving environment acquisition device 131 vehicle position sensor 132 peripheral condition sensor 133 map database 134 communication device D10 1st recognition information D20 2nd recognition information D30 Lane information D130 Driving environment information D131 Vehicle position information D132 Surrounding situation information D133 Map information LA lane (runway)
LB lane boundary MSK Mask area MSK1 1st mask area MSK2 2nd mask area

Claims (1)

車両に搭載される第1センサと第2センサとの間の軸ずれ量を推定する軸ずれ推定装置であって、
前記第1センサと前記第2センサは、前記車両の周囲の状況を認識し、且つ、それぞれの視野は少なくとも部分的に重なっており、
前記軸ずれ推定装置は、
前記第1センサによる認識結果を示す第1認識情報と、前記第2センサによる認識結果を示す第2認識情報と、前記車両の周囲の車線の配置を示す車線情報と、が格納される記憶装置と、
前記軸ずれ量を推定するプロセッサと
を備え、
前記プロセッサは、
前記車線情報に基づいて、前記車線内の領域と前記車線の方向から導き出される領域のうち少なくとも一方を、マスク領域として設定し、
前記第1認識情報及び前記第2認識情報に基づいて、前記マスク領域以外の領域に存在する物体を抽出し、
前記第1センサによる前記物体の認識結果と前記第2センサによる前記物体の認識結果とを対比することによって、前記軸ずれ量を推定する
軸ずれ推定装置。
An axis deviation estimating device for estimating an axis deviation amount between a first sensor and a second sensor mounted on a vehicle,
The first sensor and the second sensor recognize a situation around the vehicle, and their respective visual fields at least partially overlap,
The axis deviation estimating device,
A storage device that stores first recognition information indicating a recognition result by the first sensor, second recognition information indicating a recognition result by the second sensor, and lane information indicating an arrangement of lanes around the vehicle. When,
And a processor that estimates the amount of axis deviation,
The processor is
Based on the lane information, at least one of the area in the lane and the area derived from the direction of the lane is set as a mask area,
An object existing in a region other than the mask region is extracted based on the first recognition information and the second recognition information,
An axis deviation estimating device for estimating the axis deviation amount by comparing a recognition result of the object by the first sensor and a recognition result of the object by the second sensor.
JP2018208319A 2018-11-05 2018-11-05 Axial deviation estimation device Pending JP2020076580A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018208319A JP2020076580A (en) 2018-11-05 2018-11-05 Axial deviation estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018208319A JP2020076580A (en) 2018-11-05 2018-11-05 Axial deviation estimation device

Publications (1)

Publication Number Publication Date
JP2020076580A true JP2020076580A (en) 2020-05-21

Family

ID=70725008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018208319A Pending JP2020076580A (en) 2018-11-05 2018-11-05 Axial deviation estimation device

Country Status (1)

Country Link
JP (1) JP2020076580A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020530555A (en) * 2017-07-26 2020-10-22 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Devices and methods for recognizing the position of an object
WO2022071315A1 (en) * 2020-09-30 2022-04-07 学校法人明治大学 Autonomous moving body control device, autonomous moving body control method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020530555A (en) * 2017-07-26 2020-10-22 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Devices and methods for recognizing the position of an object
US11313961B2 (en) 2017-07-26 2022-04-26 Robert Bosch Gmbh Method and device for identifying the height of an object
WO2022071315A1 (en) * 2020-09-30 2022-04-07 学校法人明治大学 Autonomous moving body control device, autonomous moving body control method, and program

Similar Documents

Publication Publication Date Title
Levinson et al. Automatic online calibration of cameras and lasers.
US10140526B2 (en) Object detecting device
CN108692719B (en) Object detection device
US20200042803A1 (en) Information processing method, information processing apparatus, and recording medium
US10422871B2 (en) Object recognition apparatus using a plurality of object detecting means
KR102103944B1 (en) Distance and position estimation method of autonomous vehicle using mono camera
JP6458651B2 (en) Road marking detection device and road marking detection method
US11538241B2 (en) Position estimating device
JP4052291B2 (en) Image processing apparatus for vehicle
CA2994652C (en) Step detection device and step detection method
US10338211B2 (en) Apparatus for measuring distance
JP2020076580A (en) Axial deviation estimation device
KR102343020B1 (en) Apparatus for calibrating position signal of autonomous vehicle using road surface image information
US11914028B2 (en) Object detection device for vehicle
JP2023068009A (en) Map information creation method
WO2019151110A1 (en) Road surface information acquisition method
US20180225526A1 (en) Step Detection Device and Step Detection Method
EP3288260B1 (en) Image processing device, imaging device, equipment control system, equipment, image processing method, and carrier means
EP3435286A1 (en) Imaging control device and imaging control method
US11935256B1 (en) Remote distance estimation system and method
US11538252B2 (en) Object recognition device
WO2019151109A1 (en) Road surface information acquisition method
CN114137563B (en) Locomotive and locomotive positioning method, device, equipment and storage medium
JP7325296B2 (en) Object recognition method and object recognition system
US9972098B1 (en) Remote distance estimation system and method