JP2018194417A - Position estimation device, mobile device - Google Patents

Position estimation device, mobile device Download PDF

Info

Publication number
JP2018194417A
JP2018194417A JP2017098006A JP2017098006A JP2018194417A JP 2018194417 A JP2018194417 A JP 2018194417A JP 2017098006 A JP2017098006 A JP 2017098006A JP 2017098006 A JP2017098006 A JP 2017098006A JP 2018194417 A JP2018194417 A JP 2018194417A
Authority
JP
Japan
Prior art keywords
distance
road surface
value
position estimation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017098006A
Other languages
Japanese (ja)
Other versions
JP6959032B2 (en
Inventor
咲子 西野
Sakiko Nishino
咲子 西野
ホセイン テヘラニニキネジャド
Tehrani Niknejad Hossein
ホセイン テヘラニニキネジャド
和寿 石丸
Kazuhisa Ishimaru
和寿 石丸
ユーチュエン シュー
Yuquan Xu
ユーチュエン シュー
ジョン ヴィジャイ
Vijay Cornelius Kirubakaran John
ジョン ヴィジャイ
誠一 三田
Seiichi Mita
誠一 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Toyota Gauken
Original Assignee
Denso Corp
Soken Inc
Toyota Gauken
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc, Toyota Gauken filed Critical Denso Corp
Priority to JP2017098006A priority Critical patent/JP6959032B2/en
Publication of JP2018194417A publication Critical patent/JP2018194417A/en
Application granted granted Critical
Publication of JP6959032B2 publication Critical patent/JP6959032B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

To achieve highly accurate position estimation without using an expensive instrument.SOLUTION: A self-driving vehicle 1 comprises: a camera 22; and the other camera. Two cameras are comprised of a stereo cameras, and are used for measuring a distance to each position of forward road surfaces. The distance to the road surface is measured, and thereby an approximation expression of the road surface with a camera coordinate system set as a reference is obtained. A posture of the self-driving vehicle 1 can be estimated using this approximation expression. The stereo camera is virtually arranged on three-dimensional map data by the estimated posture, and distance data is obtained that is acquired by the virtually arranged stereo camera. Distance data generated by photographing and the distance data generated based on the three-dimensional map data are caused to match with each other, thereby estimating a position.SELECTED DRAWING: Figure 6

Description

本開示は、位置推定に関する。   The present disclosure relates to position estimation.

特許文献1は、車載カメラを利用した実時間測位の技術について開示している。この技術では、実画像の領域から、直線や角点などの特徴部を抽出し、地図データとマッチングさせることによって、自車の位置を測定している。   Patent Document 1 discloses a technique for real-time positioning using an in-vehicle camera. This technique measures the position of the vehicle by extracting features such as straight lines and corner points from the real image area and matching them with map data.

特開2012−185011号公報JP 2012-185011 A

上記先行技術の場合、マッチングに用いられる物理量が輝度値のみであるため、測定精度が低い。高精度な測位が可能な技術としては、例えばRTK−GPSが知られているものの、受信機が高価である。本開示は、上記を踏まえ、高価な機器を用いずに、高精度な位置推定を実現することを解決課題とする。   In the case of the above prior art, since the physical quantity used for matching is only the luminance value, the measurement accuracy is low. For example, RTK-GPS is known as a technique capable of highly accurate positioning, but the receiver is expensive. Based on the above, it is an object of the present disclosure to realize highly accurate position estimation without using expensive equipment.

本開示の一形態は、路面上を移動する機能と、路面を含む周辺の物標までの距離値を取得するための測距装置(21,22)とを有する移動装置(1,2)の位置を推定する位置推定装置(10,10a)であって;周辺の路面に対する前記移動装置の姿勢を、前記移動装置周辺の路面までの距離値の集合である距離データに基づき決定する姿勢決定部(S200)と;前記姿勢決定部によって決定された姿勢を用いて、3次元地図データによって定義される空間に仮想的に配置された前記測距装置による測定を模擬することによって得られる距離値の集合である距離データを、複数の候補位置それぞれについて算出する算出部(S310,S320)と;前記複数の候補位置の中から前記移動装置の位置として尤もらしいものを、前記測距装置による測定結果と、前記算出部による算出結果とのマッチングに基づき選択する選択部(S400)と;を備える位置推定装置である。この形態によれば、通常の測距装置を用いることで、高精度な位置推定が可能になる。   One form of the present disclosure is a mobile device (1, 2) having a function of moving on a road surface and a distance measuring device (21, 22) for acquiring a distance value to a surrounding target including the road surface. A position estimation device (10, 10a) for estimating a position; an attitude determination unit that determines an attitude of the moving device with respect to a surrounding road surface based on distance data that is a set of distance values to the road surface around the moving device. (S200); using the posture determined by the posture determination unit, the distance value obtained by simulating the measurement by the distance measuring device virtually arranged in the space defined by the three-dimensional map data A calculation unit (S310, S320) that calculates distance data that is a set for each of a plurality of candidate positions; from among the plurality of candidate positions; A position estimation device comprising: a measurement result by the location selection unit that selects based on the matching between the calculated results by the calculating section and (S400). According to this embodiment, it is possible to estimate the position with high accuracy by using a normal distance measuring device.

自動運転車のブロック構成図。The block block diagram of an autonomous vehicle. 位置推定処理を示すフローチャート。The flowchart which shows a position estimation process. 姿勢決定処理を示すフローチャート。The flowchart which shows an attitude | position determination process. 撮像画像の一例。An example of a captured image. 各y値に沿った距離値を示すグラフ。The graph which shows the distance value along each y value. 基準状態の場合の路面におけるy値と距離値との関係を示すグラフ。The graph which shows the relationship between y value and distance value in the road surface in the case of a reference state. ピッチングした場合の路面におけるy値と距離値との関係を示すグラフ。The graph which shows the relationship between y value and distance value in the road surface at the time of pitching. マッチングの準備処理を示すフローチャート。The flowchart which shows the preparation process of matching. 低位領域の値が除去された様子を示す図。The figure which shows a mode that the value of the low-order area | region was removed. 高位領域の距離値が除去された様子を示す図。The figure which shows a mode that the distance value of the high level area | region was removed. 位置推定装置と、複数の自動運転車とが通信する様子を示す図。The figure which shows a mode that a position estimation apparatus and several autonomous driving vehicles communicate. 実施形態2の自動運転車のブロック構成図。FIG. 3 is a block diagram of an automatic driving vehicle according to a second embodiment.

実施形態1を説明する。図1に示す自動運転車1は、レベル1以上の自動運転車である。具体的には、自動運転車1は、少なくとも操舵を自動で実施できる機能を有している。   Embodiment 1 will be described. An automatic driving vehicle 1 shown in FIG. 1 is an automatic driving vehicle of level 1 or higher. Specifically, the autonomous driving vehicle 1 has a function that can automatically perform at least steering.

自動運転車1は、ECU10を搭載する。ECU10は、カメラECUである。ECU10は、カメラ21とカメラ22とから撮像データとして各ピクセルのRGB値を取得し、後述する位置推定処理を実行する。   The automatic driving vehicle 1 is equipped with an ECU 10. The ECU 10 is a camera ECU. ECU10 acquires the RGB value of each pixel as imaging data from the camera 21 and the camera 22, and performs the position estimation process mentioned later.

カメラ21,22は、自動運転車1の前方が撮像範囲内となるように搭載されている。カメラ21,22は、各ピクセルの輝度値を取得し、ECU10に入力する。カメラ21,22は、視差を利用した距離測定のために、車幅方向に並んで配置されたステレオカメラを構成している。ECU10は、カメラ21,22の焦点距離、及び基線長を用いることで、撮像された各ピクセルについて距離値を取得することができる。距離値とは、カメラ21,22から、撮像された物体までの距離を示す値のことである。   The cameras 21 and 22 are mounted so that the front of the autonomous driving vehicle 1 is within the imaging range. The cameras 21 and 22 acquire the luminance value of each pixel and input it to the ECU 10. The cameras 21 and 22 constitute a stereo camera arranged side by side in the vehicle width direction for distance measurement using parallax. The ECU 10 can acquire a distance value for each imaged pixel by using the focal length and the base line length of the cameras 21 and 22. The distance value is a value indicating the distance from the cameras 21 and 22 to the imaged object.

図1に示すように、自動運転車1は、ヨーレートセンサ30と、車速センサ40と、GNSS受信機50と、地図データ記憶装置60とを備える。ヨーレートセンサ30は、自動運転車1のヨーレートを計測して、ECU10に入力する。車速センサ40は、自動運転車1の車速を計測して、ECU10に入力する。   As shown in FIG. 1, the autonomous driving vehicle 1 includes a yaw rate sensor 30, a vehicle speed sensor 40, a GNSS receiver 50, and a map data storage device 60. The yaw rate sensor 30 measures the yaw rate of the autonomous driving vehicle 1 and inputs it to the ECU 10. The vehicle speed sensor 40 measures the vehicle speed of the autonomous driving vehicle 1 and inputs it to the ECU 10.

GNSS受信機50は、GNSS測量を実施するために航法信号を受信する。GNSSは、Global Navigation Satellite Systemの頭字語であり、全地球航法衛星システムのことである。   The GNSS receiver 50 receives navigation signals to perform GNSS surveying. GNSS is an acronym for Global Navigation Satellite System, which is a global navigation satellite system.

地図データ記憶装置60は、3次元地図データを記憶している。ここでいう3次元地図データは、3次元の各格子点に対して物標の有無が対応付けられており、物標が有りと対応付けられた格子点には、さらに輝度値が対応付けられたデータ構造を有している。3次元の各格子点の位置は、緯度、経度、標高の各値によって定義されている。   The map data storage device 60 stores 3D map data. In the three-dimensional map data here, the presence or absence of a target is associated with each three-dimensional lattice point, and a luminance value is further associated with the lattice point associated with the presence of the target. Data structure. The position of each three-dimensional grid point is defined by each value of latitude, longitude, and altitude.

ここでいう物標とは、レーダや画像等によるデータ収集によって、何かしらの物体が有ると認められた全ての物体のことを意味する。物標には、路面が含まれる。本実施形態では位置推定の対象が自動運転車1であるので、ここでいう路面は、車道の表面である。輝度値のデータは、概ね昼間に撮像された撮像データに基づき、3次元地図データに格納する値が決定されている。   The target mentioned here means all objects that are recognized as having some object by data collection using radar, images, or the like. The target includes a road surface. In this embodiment, since the position estimation target is the autonomous driving vehicle 1, the road surface here is the surface of the roadway. As the luminance value data, values to be stored in the three-dimensional map data are determined based on image data captured in the daytime.

地図データ記憶装置60は、GNSS受信機50から入力される信号を利用して、3次元地図データから一部のデータを抜粋し、ECU10に入力する。   The map data storage device 60 extracts a part of data from the three-dimensional map data using the signal input from the GNSS receiver 50 and inputs the extracted data to the ECU 10.

ECU10は、カメラ21,22による撮像データ、ヨーレート、車速、3次元地図データを用いて、図2に示す位置推定処理を実行するによって、自動運転車1の位置を推定する。このため、本実施形態における位置推定処理は、自己位置推定処理である。   The ECU 10 estimates the position of the autonomous driving vehicle 1 by executing the position estimation process shown in FIG. 2 using the image data obtained by the cameras 21 and 22, the yaw rate, the vehicle speed, and the three-dimensional map data. For this reason, the position estimation process in this embodiment is a self-position estimation process.

ECU10は、位置推定処理を、自動運転機能がオンに設定されている間、繰り返し実行する。ECU10は、推定した位置を、自動運転を制御するECUに入力する。なお、自動運転を制御するECUは、図示されていない。   The ECU 10 repeatedly executes the position estimation process while the automatic driving function is set to ON. The ECU 10 inputs the estimated position to the ECU that controls automatic driving. Note that the ECU that controls the automatic operation is not shown.

図2に示すように、ECU10は、位置推定処理を開始すると、S100として、撮像データから、距離データと輝度データとを取得する。距離データとは、各ピクセルに距離値が対応付けられた構造を有するデータのことである。輝度データとは、各ピクセルに輝度値が対応付けられた構造を有するデータのことである。   As shown in FIG. 2, when the position estimation process is started, the ECU 10 acquires distance data and luminance data from the imaging data as S100. The distance data is data having a structure in which a distance value is associated with each pixel. Luminance data is data having a structure in which a luminance value is associated with each pixel.

続いて、ECU10は、S200として姿勢決定処理を実行する。ECU10は、姿勢決定処理を開始すると、S210として、路面の推定を実行する。以下、図4に示された撮像画像を例にとって、S210を説明する。図4に示すように、撮像範囲の水平方向をx方向、垂直方向をy方向と定義する。   Subsequently, the ECU 10 executes a posture determination process as S200. When the posture determination process is started, the ECU 10 executes road surface estimation in S210. Hereinafter, S210 will be described by taking the captured image shown in FIG. 4 as an example. As shown in FIG. 4, the horizontal direction of the imaging range is defined as the x direction and the vertical direction is defined as the y direction.

S210は、距離データを元に、路面を表す式を決定するステップである。ここで決定される式は、カメラ座標系との変換関係が既知である座標系において定義される。このため、S210は、カメラ座標系において定義される路面の式を求めていることと等価である。   S210 is a step of determining an expression representing the road surface based on the distance data. The formula determined here is defined in a coordinate system whose conversion relationship with the camera coordinate system is known. For this reason, S210 is equivalent to calculating | requiring the formula of the road surface defined in a camera coordinate system.

図4に示すように、y0〜y8に沿って取得された距離値を抜粋して説明に用いる。y0は撮像範囲の下辺に相当する値であり、y8は撮像範囲の上辺に相当する値である。   As shown in FIG. 4, the distance values acquired along y0 to y8 are extracted and used for the description. y0 is a value corresponding to the lower side of the imaging range, and y8 is a value corresponding to the upper side of the imaging range.

図5は、縦軸を距離値z、横軸を水平方向xにしたグラフに、y0〜y8それぞれの場合について距離値をプロットした様子を示す。y7については、空と、遠方に位置する高層ビルとを対象にしており、図5に示されたz軸の範囲外であるため、図5に示されていない。y8についても、空を対象にしており、図5に示されたz軸の範囲外であるため、図5に示されていない。   FIG. 5 shows a state in which distance values are plotted for each of y0 to y8 on a graph in which the vertical axis is the distance value z and the horizontal axis is the horizontal direction x. y7 is not shown in FIG. 5 because it covers the sky and a high-rise building located far away and is outside the range of the z-axis shown in FIG. y8 is not shown in FIG. 5 because it covers the sky and is outside the range of the z-axis shown in FIG.

図6は、基準状態の場合に、y値と距離値zとの関係を、或るx値について示すグラフである。基準状態とは、自動運転車1が全くピッチングやローリングをしておらず、且つ、水平な路面上を走行または停止している状態のことである。   FIG. 6 is a graph showing the relationship between the y value and the distance value z for a certain x value in the reference state. The reference state is a state in which the autonomous driving vehicle 1 is not pitching or rolling at all and is running or stopped on a horizontal road surface.

路面が水平に限らず平坦であれば、図6に示すように、y値と距離値zとの関係は、直線になる。一方、前方に坂があることによって、路面が平坦でない場合については、y値と距離値zとの関係は、曲線で近似される。以下、y値と距離値zとの関係において曲線といえば、直線を含むものとする。   If the road surface is flat as well as horizontal, as shown in FIG. 6, the relationship between the y value and the distance value z is a straight line. On the other hand, when the road surface is not flat due to a slope ahead, the relationship between the y value and the distance value z is approximated by a curve. Hereinafter, a curve in the relationship between the y value and the distance value z includes a straight line.

路面に該当する領域内であれば、各x値について同様な関係を得ることができる。従って、距離データを用いることによって、カメラ21,22を基準とした座標系における路面を近似する面の方程式を得ることができる。   A similar relationship can be obtained for each x value within an area corresponding to the road surface. Therefore, by using the distance data, an equation of a surface that approximates the road surface in the coordinate system with the cameras 21 and 22 as a reference can be obtained.

但し、本実施形態では、幅方向については、路面は平坦であると仮定する。幅方向とは、路面上に沿った方向であって、車線によって規定される進行方向と直交する方向のことである。このように仮定すれば、路面を2次元空間における曲線で表すことができる。そこで本実施形態においては、各y値について、距離値zの代表値を定め、1つの近似曲線を求める。本実施形態における代表値は、最頻値によって決定する。   However, in this embodiment, it is assumed that the road surface is flat in the width direction. The width direction is a direction along the road surface and a direction orthogonal to the traveling direction defined by the lane. With this assumption, the road surface can be represented by a curve in a two-dimensional space. Therefore, in this embodiment, a representative value of the distance value z is determined for each y value, and one approximate curve is obtained. The representative value in this embodiment is determined by the mode value.

なお、幅方向およびx方向は、常に平行である訳ではない。例えば、自動運転車1が実際に走行している方向と、路面の進行方向とにずれがある場合や、自動運転車1がローリングしている場合には、x方向は、幅方向に対して平行でなくなる。このようなずれを考慮して補正をしたり、3次元空間における曲線を求めたりしてもよいのだが、本実施形態では演算負荷の軽減のため、このようなずれを無視して、2次元空間における曲線を求める。   Note that the width direction and the x direction are not always parallel. For example, when there is a difference between the direction in which the autonomous driving vehicle 1 is actually traveling and the traveling direction of the road surface, or when the autonomous driving vehicle 1 is rolling, the x direction is relative to the width direction. It is not parallel. The correction may be performed in consideration of such a shift, or a curve in a three-dimensional space may be obtained. However, in this embodiment, such a shift is ignored in order to reduce the calculation load. Find a curve in space.

また、図4,図5に示す例の場合、y4〜y8の領域については、路面が含まれていない。このため、y4〜y8の領域については、路面の推定に用いない方がよい。但し、y4〜y8の領域を含めたとしても、路面の推定結果に大きな影響は無いことが多いので、本実施形態では、全y値を演算の対象にして路面を推定する。なお、y4〜y8の領域におけるy値と距離値zとの関係は、y0〜y4の領域におけるy値と距離値zとの関係から大きく変化するので、両者を切り分けることは可能である。そこで、他の実施形態においては、y値が小さい領域と比較して、y値と距離値zとの関係が大きく変化した領域を除外した上で、路面を表す曲線を求める。   In the case of the example shown in FIGS. 4 and 5, the road surface is not included in the regions y4 to y8. For this reason, it is better not to use the region y4 to y8 for estimating the road surface. However, even if the region of y4 to y8 is included, the road surface estimation result often does not have a great influence. Therefore, in this embodiment, the road surface is estimated using all y values as objects of calculation. It should be noted that the relationship between the y value and the distance value z in the y4 to y8 region varies greatly from the relationship between the y value and the distance value z in the y0 to y4 region, so that it is possible to separate them. Therefore, in another embodiment, a curve representing a road surface is obtained after excluding an area where the relationship between the y value and the distance value z has changed significantly compared to an area where the y value is small.

次に、ECU10は、S220として、カメラ21,22の高さhとピッチ角θとを算出する。図6に示すように、本実施形態では、y値がy3となる視線を基準とし、この視線と路面とがなす角度をピッチ角と定義する。基準状態において、y値がy3である場合の距離値zは既知であり、図6には距離値z3として示されている。基準状態における高さhも、予め測定されているので既知である。   Next, the ECU 10 calculates the height h and the pitch angle θ of the cameras 21 and 22 as S220. As shown in FIG. 6, in the present embodiment, a line of sight where the y value is y3 is used as a reference, and an angle formed by the line of sight and the road surface is defined as a pitch angle. In the reference state, the distance value z when the y value is y3 is known, and is shown as the distance value z3 in FIG. The height h in the reference state is also known because it is measured in advance.

上記の既知の値、並びにy値および距離値zの近似式を用いることによって、高さh及びピッチ角θが求まる。なお、本実施形態における高さは、路面と直交する方向に沿った距離のことである。従って、坂を走行中の場合などにおいては、高さの方向は、鉛直方向と異なる。   The height h and the pitch angle θ are obtained by using the above known values and the approximate expression of the y value and the distance value z. In addition, the height in this embodiment is a distance along the direction orthogonal to the road surface. Accordingly, the height direction is different from the vertical direction, for example, when traveling on a hill.

最後に、S230として、ロール角を推定する。ロール角の推定には、距離データを用いる。S230には、予め学習した関係を用いる。予め学習した関係とは、ローリングが発生している多数の場合について、距離値の分布がどのような特徴を有するのかを調べることによって得られる関係である。   Finally, a roll angle is estimated as S230. Distance data is used for estimating the roll angle. The relationship learned in advance is used for S230. The relationship learned in advance is a relationship obtained by examining what characteristics the distribution of distance values has in many cases where rolling has occurred.

ECU10は、姿勢決定処理を終えると、S300として、マッチングの準備処理を実行する。図8に示すように、ECU10は、まず、S310として、候補位置を決定する。候補位置とは、自動運転車1の現在位置の候補となる複数の位置のことである。本実施形態において、自動運転車1の位置という場合、緯度および経度に加え、ヨー角が含まれる。ヨー角は、自動運転車1の前方がどの方角を向いているかを示す角度のことである。   After completing the posture determination process, the ECU 10 executes a matching preparation process in S300. As shown in FIG. 8, the ECU 10 first determines a candidate position as S310. The candidate positions are a plurality of positions that are candidates for the current position of the autonomous driving vehicle 1. In the present embodiment, the position of the autonomous driving vehicle 1 includes the yaw angle in addition to the latitude and longitude. The yaw angle is an angle indicating which direction the front of the autonomous driving vehicle 1 is facing.

図7には、候補位置として、候補位置ta,tbの2つが示されている。実際には、もっと多い数の候補位置が決定される。候補位置の決定は、前回の位置推定処理において推定した推定位置t−1、車速およびヨーレートを考慮して、或る程度の範囲に絞り込んだ上で、ランダムに実行される。   FIG. 7 shows two candidate positions ta and tb as candidate positions. In practice, a larger number of candidate positions are determined. The candidate positions are determined at random after narrowing down to a certain range in consideration of the estimated position t-1, the vehicle speed, and the yaw rate estimated in the previous position estimation process.

次に、ECU10は、S320として、決定した候補位置それぞれに対応する距離データを作成する。S320には、地図データ記憶装置60に記憶された3次元地図データを用いる。具体的には、或る候補位置に対応する距離データを作成する場合、3次元地図データ上において、カメラ21,22をその候補位置に仮想的に配置する。この仮想的な配置には、姿勢決定処理によって決定した姿勢を適用する。そして、仮想的に配置されたカメラ21,22による撮像を模擬して、距離データを3次元地図データから作成する。   Next, ECU10 produces the distance data corresponding to each determined candidate position as S320. In S320, the 3D map data stored in the map data storage device 60 is used. Specifically, when creating distance data corresponding to a certain candidate position, the cameras 21 and 22 are virtually arranged at the candidate position on the three-dimensional map data. The posture determined by the posture determination process is applied to this virtual arrangement. Then, distance data is created from the three-dimensional map data by simulating imaging by the virtually arranged cameras 21 and 22.

次に、ECU10は、S330として、決定した候補位置それぞれに対応する輝度データを作成する。S330は、距離値と輝度値との違いを除けば、S320と同様な内容である。   Next, the ECU 10 creates luminance data corresponding to each determined candidate position in S330. S330 has the same contents as S320 except for the difference between the distance value and the luminance value.

次に、ECU10は、S340として、距離データから、低位領域に属する値を除去する。S340において対象にするデータは、S100としての撮像によって作成されたデータと、S320によって作成された距離データとである。低位領域とは、所定の高さよりも低い領域のことである。但し、路面を示す距離値が除去されないように、路面すれすれよりも低い領域は、低位領域から除外されている。   Next, ECU10 removes the value which belongs to a low-order field from distance data as S340. The data targeted in S340 are data created by imaging as S100 and distance data created by S320. The lower region is a region lower than a predetermined height. However, the region lower than the road surface is excluded from the lower region so that the distance value indicating the road surface is not removed.

次に、ECU10は、S350として、輝度データから、低位領域に属する値を除去する。S340において対象にするデータは、S100としての撮像によって作成されたデータと、S330によって作成された輝度データとである。低位領域の定義は、S340の説明で述べた通りである。   Next, ECU10 removes the value which belongs to a low-order field from luminance data as S350. The data to be targeted in S340 are data created by imaging as S100 and luminance data created in S330. The definition of the low level region is as described in the description of S340.

図9に示すように、低位領域が除去されることによって、前方車や歩行者に対応する値が除去される。このように、低位領域を除去する目的は、撮像によって作成されるデータには含まれる一方、3次元地図データには含まれない物標を、マッチングの対象から除外することである。このため、本実施形態においては、低位領域の基準となる所定の高さは、路面上や路面付近を移動する物標が除外されるように定められている。具体的には、トラック等の大型自動車の車高よりも少し高い程度に定められている。   As shown in FIG. 9, the value corresponding to the preceding vehicle or the pedestrian is removed by removing the lower region. As described above, the purpose of removing the low-order region is to exclude a target that is included in the data created by the imaging but is not included in the three-dimensional map data from the target of matching. For this reason, in the present embodiment, the predetermined height that serves as a reference for the low-level region is determined such that a target moving on or near the road surface is excluded. Specifically, it is determined to be slightly higher than the vehicle height of a large vehicle such as a truck.

最後に、ECU10は、S360として、距離データから、高位領域に属する値を除去する。S360において対象にするデータは、S340と同様、S100としての撮像によって作成された距離データと、S320によって作成された距離データとである。高位領域とは、鉛直方向について、所定の高さよりも高い領域のことである。ここでいう所定の高さは、低位領域についての所定の高さよりも高い。   Finally, ECU10 removes the value which belongs to a high-order field from distance data as S360. The data to be targeted in S360 are the distance data created by imaging as S100 and the distance data created by S320, as in S340. The high level area is an area higher than a predetermined height in the vertical direction. The predetermined height here is higher than the predetermined height for the lower region.

図10に示すように、高位領域が除去されることによって、遠方に位置する物標の値が除去される。なお、図9と図10とを見比べた場合に、遠方に位置する高層ビルのみが除去されたように見えるが、実際には、空に対応する領域についても、高位領域に属するので、距離データから除去される。   As shown in FIG. 10, the value of the target located far away is removed by removing the high-level region. When comparing FIG. 9 and FIG. 10, it seems that only a high-rise building located far away has been removed, but in reality, the area corresponding to the sky also belongs to the high-order area, so the distance data Removed from.

距離データから高位領域に属する値を除去する目的は、測定精度が低い距離値を除去することである。空を対象に距離を測定しても、測定自体が難しい。空でなくても、遠すぎる物標は、視差の値が小さいので、高精度な測定は難しい。このため、マッチングの対象からは、遠すぎる領域を除外することが好ましい。但し、遠すぎるか否かを距離値で判定しようとすると、距離値そのものの精度が低いので、その判定自体の精度が低くなる可能性がある。そこで、本実施形態においては、高さを基準に用いる。これは、撮像される範囲において、或る程度、高い領域は、遠い領域であると推定できることを利用している。   The purpose of removing the value belonging to the higher region from the distance data is to remove the distance value with low measurement accuracy. Even if the distance is measured against the sky, the measurement itself is difficult. Even if it is not empty, a target that is too far away has a small parallax value, so that it is difficult to measure with high accuracy. For this reason, it is preferable to exclude regions that are too far from the target of matching. However, if it is attempted to determine whether the distance is too far or not by the distance value, the accuracy of the distance value itself is low, and therefore the accuracy of the determination itself may be lowered. Therefore, in this embodiment, the height is used as a reference. This is based on the fact that it is possible to estimate that a certain high region is a far region in the imaged range.

なお、輝度データについては、距離データにとっては遠すぎる領域であっても、さほど精度に影響が出る訳ではないので、除去の対象としない。例えば、図9に示される遠方の高層ビルは、輝度データについてのマッチングの対象として、十分な精度を得ることができる。   Note that the luminance data is not subject to removal even if it is an area that is too far for the distance data, because it does not affect the accuracy so much. For example, a distant high-rise building shown in FIG. 9 can obtain sufficient accuracy as a target for matching luminance data.

ECU10は、マッチングの準備処理を終えると、S400としてマッチングを実行する。つまり、輝度データ及び距離データそれぞれの一致度に基づき、候補位置の中から、現在位置として最も尤もらしいものを選択する。   When finishing the matching preparation process, the ECU 10 executes matching as S400. That is, the most likely current position is selected from the candidate positions based on the degree of coincidence between the luminance data and the distance data.

S400は、コスト計算に基づき実施される。具体的には、距離データ、輝度データそれぞれについて差分を算出し、差分が小さいほど尤もらしいと判断する。なお、撮像データに基づき作成される輝度データは、時間帯や気象状態などに大きく依存するため、輝度値そのものではなく輝度値の勾配(エッジともいう)を、差分の算出の対象にする。   S400 is performed based on cost calculation. Specifically, the difference is calculated for each of the distance data and the luminance data, and it is determined that the difference is more likely as the difference is smaller. Note that the luminance data created based on the imaging data largely depends on the time zone, weather conditions, and the like, and therefore the gradient of the luminance value (also referred to as an edge) is used as a difference calculation target instead of the luminance value itself.

本実施形態においては、さらに、候補位置とオドメトリによる位置との差分も、コスト計算に加味する。オドメトリとは、車速およびヨーレートから位置を推定する手法のことである。   In the present embodiment, the difference between the candidate position and the position by odometry is also added to the cost calculation. Odometry is a method for estimating the position from the vehicle speed and the yaw rate.

続いて、ECU10は、S500として、フィルタリングを実行する。S500には、時系列で尤もらしい自己位置を推定するために、パーティクルフィルタを用いる。   Then, ECU10 performs filtering as S500. In S500, a particle filter is used in order to estimate a likely self-position in time series.

最後に、ECU10は、S600として、上記したステップによる結果から、自己位置を推定する。   Finally, as S600, the ECU 10 estimates the self position from the result of the above-described steps.

以上に説明した実施形態によれば、特に高価な機器を用いることなく、高精度な自己位置推定が実現できる。高精度な推定が実現される主な理由としては、路面に対する姿勢を決定してマッチングに利用している点、距離データ及び輝度データという2種類のデータをマッチングの対象にしている点、距離データから低位領域および高位領域を除去している点、輝度データから低位領域を除去している点が挙げられる。   According to the embodiment described above, high-precision self-position estimation can be realized without using a particularly expensive device. The main reasons for achieving high-precision estimation are that the posture with respect to the road surface is determined and used for matching, and that two types of data, distance data and luminance data, are used for matching, and distance data The lower region and the higher region are removed from the image data, and the lower region is removed from the luminance data.

さらに、本実施形態によれば、位置推定処理のための処理負荷が軽減される。位置推定処理は、自動運転に利用されるため、短い周期で繰り返される処理である。このため、処理負荷が軽いことは、重要な効果である。処理負荷が軽減される主な理由は、路面の推定において、路面を2次元化している点である。   Furthermore, according to the present embodiment, the processing load for the position estimation process is reduced. Since the position estimation process is used for automatic driving, it is a process that is repeated in a short cycle. For this reason, a light processing load is an important effect. The main reason for reducing the processing load is that the road surface is two-dimensionalized in the estimation of the road surface.

路面を2次元化することは、方程式における独立変数を減らすことができることに加え、本実施形態の手法によれば、次の利点もある。その利点とは、x方向あるいは幅方向について、どこからどこまでが路面であるのかを特定する必要がなくなるという点である。このため、路面の2次元化は、処理負荷の軽減に大きく貢献する。   Making the road surface two-dimensional has the following advantages in addition to being able to reduce the independent variables in the equations, and according to the method of the present embodiment. The advantage is that it is not necessary to specify where the road surface is in the x direction or the width direction. For this reason, the two-dimensional road surface greatly contributes to the reduction of the processing load.

しかも、路面の2次元化をしても、路面の推定精度はさほど悪化しない。なぜなら、路面は、4輪自動車によって走行しやすいように幅方向について概ね平坦に造られていることが多いため、幅方向について情報を圧縮しても、実質的な情報としては殆ど同じだからである。本実施形態では、x方向に沿って最頻値を取っており、厳密には幅方向についての圧縮とは異なるものの、x方向に沿って情報を圧縮しても、実用上、問題のない精度で推定ができる。   Moreover, even if the road surface is two-dimensionalized, the estimation accuracy of the road surface does not deteriorate so much. This is because the road surface is often made almost flat in the width direction so that it can be easily driven by a four-wheeled vehicle, so even if the information is compressed in the width direction, the substantial information is almost the same. . In the present embodiment, the mode value is taken along the x direction. Although strictly different from the compression in the width direction, even if information is compressed along the x direction, there is practically no problem. Can be estimated.

実施形態2を説明する。実施形態2の説明は、実施形態1と異なる点を主な対象にする。特に説明しない点については実施形態1と同じである。   A second embodiment will be described. The description of the second embodiment mainly focuses on differences from the first embodiment. Points that are not particularly described are the same as those in the first embodiment.

実施形態2では、位置推定装置10aと複数の自動運転車2とによって、位置推定システムが構成される。   In the second embodiment, a position estimation system is configured by the position estimation device 10a and the plurality of autonomous driving vehicles 2.

複数の自動運転車2それぞれは、位置推定装置を搭載しておらず、その代わりに、図11に示すように位置推定装置10aと通信する。位置推定装置10aは、処理部12と、地図データ記憶装置60と、通信インタフェース70とを備える。   Each of the plurality of autonomous driving vehicles 2 is not equipped with a position estimation device, and instead communicates with the position estimation device 10a as shown in FIG. The position estimation device 10 a includes a processing unit 12, a map data storage device 60, and a communication interface 70.

図12に示すように、自動運転車2は、ECU80を備える。ECU80は、カメラ21,22、車速センサ40、GNSS受信機50から取得した情報を、通信インタフェース90を介して、位置推定装置10aに送信する。   As shown in FIG. 12, the autonomous driving vehicle 2 includes an ECU 80. The ECU 80 transmits information acquired from the cameras 21 and 22, the vehicle speed sensor 40, and the GNSS receiver 50 to the position estimation device 10 a via the communication interface 90.

処理部12は、通信インタフェース70を介して、自動運転車2から情報を取得する。処理部12は、自動運転車2から取得した情報と、地図データ記憶装置60の記憶された情報とを用い、実施形態1で説明した位置推定処理を実行する。処理部12は、位置推定処理によって推定した位置情報を、自動運転車2に送信する。   The processing unit 12 acquires information from the autonomous driving vehicle 2 via the communication interface 70. The processing unit 12 executes the position estimation process described in the first embodiment using information acquired from the autonomous driving vehicle 2 and information stored in the map data storage device 60. The processing unit 12 transmits the position information estimated by the position estimation process to the autonomous driving vehicle 2.

ECU80は、通信インタフェース90を介して位置推定装置10aから取得した位置情報を、自動操舵に利用する。   The ECU 80 uses position information acquired from the position estimation apparatus 10a via the communication interface 90 for automatic steering.

実施形態と、特許請求の範囲との対応を説明する。自動運転車1,2は移動装置に、ECU10,10aは位置推定装置に、カメラ21は測距装置および撮像装置に、カメラ22は測距装置および撮像装置に、S200は姿勢決定部に、S310,S320は算出部に、S310,S330は取得部に、S340,S360は距離値除去部に、S350は輝度値除去部に、S400は選択部に対応する。路面すれすれの高さは、第1輝度用高さ及び第1距離用高さに対応する。低位領域についての所定の高さは、第2輝度用高さ及び第2距離用高さに対応する。高位領域についての所定の高さは、予め定められた高さに対応する。   A correspondence between the embodiment and the claims will be described. The autonomous vehicles 1 and 2 are mobile devices, the ECUs 10 and 10a are position estimation devices, the camera 21 is a distance measurement device and an imaging device, the camera 22 is a distance measurement device and an imaging device, S200 is an attitude determination unit, and S310. , S320 correspond to a calculation unit, S310 and S330 correspond to an acquisition unit, S340 and S360 correspond to a distance value removal unit, S350 corresponds to a luminance value removal unit, and S400 corresponds to a selection unit. The height of the grazing on the road corresponds to the first brightness height and the first distance height. The predetermined height for the lower region corresponds to the second luminance height and the second distance height. The predetermined height for the higher region corresponds to a predetermined height.

本開示は、本明細書の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現できる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、先述の課題の一部又は全部を解決するために、或いは、先述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせができる。その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除できる。例えば、以下のものが例示される。   The present disclosure is not limited to the embodiments, examples, and modifications of the present specification, and can be realized with various configurations without departing from the spirit of the present disclosure. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in the embodiments described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects described above, replacement or combination can be performed as appropriate. If the technical feature is not described as essential in this specification, it can be deleted as appropriate. For example, the following are exemplified.

姿勢決定処理における路面の推定に失敗した場合、直近に推定した路面を、現在の路面として取り扱ってもよい。   If the estimation of the road surface in the posture determination process fails, the most recently estimated road surface may be handled as the current road surface.

位置推定装置の推定対象となるのは、自動車に限られず、路面を移動する移動装置であればよい。例えば、他の輸送用機器(例えば、二輪車)でもよいし、ロボットでもよい。ロボットの場合、例えば、自動車のように車輪で路面に接地してもよいし、2足歩行するタイプでもよい。   An object to be estimated by the position estimation device is not limited to an automobile, but may be a moving device that moves on a road surface. For example, another transportation device (for example, a two-wheeled vehicle) or a robot may be used. In the case of a robot, for example, it may be grounded on the road surface with wheels like an automobile, or may be a type that walks on two legs.

測距装置は、ステレオカメラでなくてもよい。例えば、LIDARやミリ波レーダを用いてもよい。LIDARは、Light Detection And Ranging又はLaser Imaging Detection And Rangingの頭字語である。   The distance measuring device may not be a stereo camera. For example, LIDAR or millimeter wave radar may be used. LIDAR is an acronym for Light Detection And Ranging or Laser Imaging Detection And Ranging.

輝度値をマッチングに用いなくてもよい。この場合、3次元地図データにおいても、輝度値のデータは不要になる。   The luminance value may not be used for matching. In this case, luminance value data is not required even in the three-dimensional map data.

路面を推定するための前提条件は、適宜、変更してもよい。例えば、路面を、3次元空間における曲面として求めてもよい。   The preconditions for estimating the road surface may be changed as appropriate. For example, the road surface may be obtained as a curved surface in a three-dimensional space.

ロール角の推定には、輝度データを用いてもよい。輝度データを用いる場合でも、距離データを用いる場合と同様、予め学習した関係を用いてもよい。   Luminance data may be used for estimating the roll angle. Even in the case of using luminance data, a previously learned relationship may be used as in the case of using distance data.

上記実施形態において、ソフトウエアによって実現された機能及び処理の一部又は全部は、ハードウエアによって実現されてもよい。また、ハードウエアによって実現された機能及び処理の一部又は全部は、ソフトウエアによって実現されてもよい。ハードウエアとしては、例えば、集積回路、ディスクリート回路、または、それらの回路を組み合わせた回路モジュールなど、各種回路を用いてもよい。   In the above embodiment, some or all of the functions and processes realized by software may be realized by hardware. In addition, some or all of the functions and processes realized by hardware may be realized by software. As the hardware, for example, various circuits such as an integrated circuit, a discrete circuit, or a circuit module obtained by combining these circuits may be used.

1 自動運転車、2 自動運転車、10 ECU、10a ECU、21 カメラ、22 カメラ 1 automatic driving vehicle, 2 automatic driving vehicle, 10 ECU, 10a ECU, 21 camera, 22 camera

Claims (12)

路面上を移動する機能と、路面を含む周辺の物標までの距離値を取得するための測距装置(21,22)とを有する移動装置(1,2)の位置を推定する位置推定装置(10,10a)であって、
周辺の路面に対する前記移動装置の姿勢を、前記移動装置周辺の路面までの距離値の集合である距離データに基づき決定する姿勢決定部(S200)と、
前記姿勢決定部によって決定された姿勢を用いて、3次元地図データによって定義される空間に仮想的に配置された前記測距装置による測定を模擬することによって得られる距離値の集合である距離データを、複数の候補位置それぞれについて算出する算出部(S310,S320)と、
前記複数の候補位置の中から前記移動装置の位置として尤もらしいものを、前記測距装置による測定結果と、前記算出部による算出結果とのマッチングに基づき選択する選択部(S400)と、
を備える位置推定装置。
Position estimating device for estimating the position of a moving device (1, 2) having a function of moving on a road surface and a distance measuring device (21, 22) for acquiring distance values to surrounding targets including the road surface (10, 10a),
An attitude determination unit (S200) that determines an attitude of the mobile device with respect to a surrounding road surface based on distance data that is a set of distance values to the road surface around the mobile device;
Distance data that is a set of distance values obtained by simulating measurements by the distance measuring device virtually arranged in the space defined by the three-dimensional map data using the posture determined by the posture determining unit Calculating unit (S310, S320) for calculating each of a plurality of candidate positions;
A selection unit (S400) that selects a plausible position as the position of the mobile device from the plurality of candidate positions based on matching between a measurement result by the distance measuring device and a calculation result by the calculation unit;
A position estimation apparatus comprising:
前記移動装置は、周辺の物標の輝度値を測定するための撮像装置(21,22)を有し、
前記3次元地図データには、3次元位置の輝度値が格納されており、
前記姿勢決定部によって決定された姿勢を用いて、3次元地図データ上に仮想的に配置された前記撮像装置による撮像を模擬することによって得られる輝度値を、前記複数の候補位置それぞれについて取得する取得部(S310,S330)を更に備え、
前記選択部は、前記選択を、前記撮像装置による測定結果と、前記取得部による取得結果とのマッチングを加味して実行する
請求項1に記載の位置推定装置。
The moving device has an imaging device (21, 22) for measuring a luminance value of a surrounding target
In the three-dimensional map data, a luminance value at a three-dimensional position is stored,
Using the attitude determined by the attitude determination unit, obtain a luminance value obtained by simulating imaging by the imaging device virtually arranged on three-dimensional map data for each of the plurality of candidate positions. It further includes an acquisition unit (S310, S330),
The position estimation device according to claim 1, wherein the selection unit performs the selection in consideration of matching between a measurement result obtained by the imaging device and an acquisition result obtained by the acquisition unit.
前記取得部によって取得された輝度値、及び前記撮像装置によって測定された輝度値の中から、前記マッチングに使用しない領域に属する値を除去する輝度値除去部(S350)を備える
請求項2に記載の位置推定装置。
The luminance value removing unit (S350) for removing a value belonging to an area not used for the matching from the luminance value acquired by the acquiring unit and the luminance value measured by the imaging device. Position estimation device.
前記輝度値除去部は、路面を基準に、第1輝度用高さから第2輝度用高さまでの領域を対象に、前記除去を実行する
請求項3に記載の位置推定装置。
The position estimation apparatus according to claim 3, wherein the luminance value removing unit performs the removal on a region from a first luminance height to a second luminance height with reference to a road surface.
前記測距装置による測定された距離値、及び前記算出部によって算出された距離値の中から、前記マッチングに使用しない領域に属する値を除去する距離値除去部(S340,S360)を備える
請求項1から請求項4までの何れか一項に記載の位置推定装置。
The distance value removal part (S340, S360) which removes the value which belongs to the area | region which is not used for the said matching from the distance value measured by the said ranging device, and the distance value computed by the said calculation part. The position estimation apparatus according to any one of claims 1 to 4.
前記距離値除去部(S340)は、路面を基準に、第1距離用高さから第2距離用高さまでの領域を対象に、前記除去を実行する
請求項5に記載の位置推定装置。
The position estimation device according to claim 5, wherein the distance value removal unit (S340) performs the removal on a region from a first distance height to a second distance height on the basis of a road surface.
前記距離値除去部(S360)は、予め定められた高さ以上の領域を対象に、前記除去を実行する
請求項5から請求項6までの何れか一項に記載の位置推定装置。
The position estimation device according to any one of claims 5 to 6, wherein the distance value removal unit (S360) performs the removal on a region having a predetermined height or more.
前記姿勢決定部は、所定方向を代表する値を定めることによって前記測距装置の測定による距離データを2次元化し、前記測距装置に対する路面の相対位置を前記2次元化した距離データに基づき決定することによって前記姿勢を決定する
請求項1から請求項7までの何れか一項に記載の位置推定装置。
The attitude determination unit determines a value representative of a predetermined direction to two-dimensionally measure distance data measured by the distance measuring device, and determines a relative position of the road surface with respect to the distance measuring device based on the two-dimensional distance data. The position estimation apparatus according to any one of claims 1 to 7, wherein the posture is determined.
前記測距装置は、ステレオカメラとして構成された撮像装置であり、
前記所定方向は、撮像における水平方向であり、
前記姿勢決定部は、前記移動装置のピッチ角と前記撮像装置の路面からの高さとを、前記姿勢として決定する
請求項8に記載の位置推定装置。
The distance measuring device is an imaging device configured as a stereo camera,
The predetermined direction is a horizontal direction in imaging,
The position estimation device according to claim 8, wherein the posture determination unit determines a pitch angle of the moving device and a height from a road surface of the imaging device as the posture.
前記姿勢決定部は、前記路面の相対位置の決定に失敗した場合、過去に決定した位置を用いて、前記姿勢の決定を実行する
請求項8から請求項9までの何れか一項に記載の位置推定装置。
The posture determination unit executes the determination of the posture using a position determined in the past when the determination of the relative position of the road surface fails. Position estimation device.
前記移動装置は、自動運転車(1)である
請求項1から請求項10までの何れか一項に記載の位置推定装置。
The position estimating device according to any one of claims 1 to 10, wherein the moving device is an autonomous driving vehicle (1).
請求項1から請求項11までの何れか一項に記載の移動装置(1)であって、
請求項1から請求項11までの何れか一項に記載の位置推定装置(10)を備える
移動装置。
A mobile device (1) according to any one of claims 1 to 11, comprising:
A movement apparatus comprising the position estimation device (10) according to any one of claims 1 to 11.
JP2017098006A 2017-05-17 2017-05-17 Position estimation device, moving device Active JP6959032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017098006A JP6959032B2 (en) 2017-05-17 2017-05-17 Position estimation device, moving device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017098006A JP6959032B2 (en) 2017-05-17 2017-05-17 Position estimation device, moving device

Publications (2)

Publication Number Publication Date
JP2018194417A true JP2018194417A (en) 2018-12-06
JP6959032B2 JP6959032B2 (en) 2021-11-02

Family

ID=64571667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017098006A Active JP6959032B2 (en) 2017-05-17 2017-05-17 Position estimation device, moving device

Country Status (1)

Country Link
JP (1) JP6959032B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109883432A (en) * 2019-02-21 2019-06-14 百度在线网络技术(北京)有限公司 Location determining method, device, equipment and computer readable storage medium
KR20220087688A (en) * 2020-12-18 2022-06-27 한국과학기술원 Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0939297A2 (en) * 1998-02-27 1999-09-01 Hitachi, Ltd. Vehicle position information displaying apparatus and method
WO2009107430A1 (en) * 2008-02-26 2009-09-03 トヨタ自動車株式会社 Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map data structure
JP2012185011A (en) * 2011-03-04 2012-09-27 Kumamoto Univ Mobile position measuring apparatus
WO2013133129A1 (en) * 2012-03-06 2013-09-12 日産自動車株式会社 Moving-object position/attitude estimation apparatus and method for estimating position/attitude of moving object

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0939297A2 (en) * 1998-02-27 1999-09-01 Hitachi, Ltd. Vehicle position information displaying apparatus and method
JPH11250396A (en) * 1998-02-27 1999-09-17 Hitachi Ltd Device and method for displaying vehicle position information
WO2009107430A1 (en) * 2008-02-26 2009-09-03 トヨタ自動車株式会社 Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map data structure
US20110010033A1 (en) * 2008-02-26 2011-01-13 Toyota Jidosha Kabushiki Kaisha Autonomous mobile robot, self position estimation method, environmental map generation method, environmental map generation apparatus, and data structure for environmental map
JP2012185011A (en) * 2011-03-04 2012-09-27 Kumamoto Univ Mobile position measuring apparatus
WO2013133129A1 (en) * 2012-03-06 2013-09-12 日産自動車株式会社 Moving-object position/attitude estimation apparatus and method for estimating position/attitude of moving object
US20150015702A1 (en) * 2012-03-06 2015-01-15 Nissan Motor Co., Ltd. Moving-Object Position/Attitude Estimation Apparatus and Moving-Object Position/Attitude Estimation Method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109883432A (en) * 2019-02-21 2019-06-14 百度在线网络技术(北京)有限公司 Location determining method, device, equipment and computer readable storage medium
CN109883432B (en) * 2019-02-21 2020-12-29 百度在线网络技术(北京)有限公司 Position determination method, device, equipment and computer readable storage medium
KR20220087688A (en) * 2020-12-18 2022-06-27 한국과학기술원 Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof
KR102454073B1 (en) 2020-12-18 2022-10-14 한국과학기술원 Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof

Also Published As

Publication number Publication date
JP6959032B2 (en) 2021-11-02

Similar Documents

Publication Publication Date Title
TWI705263B (en) Vehicle positioning system using lidar
TWI693422B (en) Integrated sensor calibration in natural scenes
TW202001924A (en) Systems and methods for updating a high-resolution map based on binocular images
US20180307922A1 (en) Method of detecting obstacle around vehicle
CN105300403B (en) A kind of vehicle mileage calculating method based on binocular vision
US20180316905A1 (en) Camera parameter set calculation method, recording medium, and camera parameter set calculation apparatus
US20140300732A1 (en) Motion estimation utilizing range detection-enhanced visual odometry
US20200355513A1 (en) Systems and methods for updating a high-definition map
CN111448478A (en) System and method for correcting high-definition maps based on obstacle detection
JP6201148B2 (en) CALIBRATION APPARATUS, CALIBRATION METHOD, MOBILE BODY CAMERA HAVING CALIBRATION FUNCTION, AND PROGRAM
CN110764110B (en) Path navigation method, device and computer readable storage medium
JPWO2018061084A1 (en) Self-position estimation method and self-position estimation apparatus
US20190362512A1 (en) Method and Apparatus for Estimating a Range of a Moving Object
JP6959032B2 (en) Position estimation device, moving device
JP6398218B2 (en) Self-position calculation device and self-position calculation method
CN112528719A (en) Estimation device, estimation method, and storage medium
EP3435286A1 (en) Imaging control device and imaging control method
JP2021193340A (en) Self-position estimation device
WO2020223868A1 (en) Terrain information processing method and apparatus, and unmanned vehicle
KR20210102953A (en) Methods for detecting and modeling objects on the road surface
JP2021043486A (en) Position estimating device
JP2018096935A (en) Own vehicle position estimation device, program, recording medium, and own vehicle position estimation method
JP2018004435A (en) Movement amount calculation device and movement amount calculation method
CN114868150A (en) Information processing device, sensing device, moving object, and information processing method
CN117808870A (en) Position estimation system, position estimation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211007

R150 Certificate of patent or registration of utility model

Ref document number: 6959032

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150