JP2018194417A - Position estimation device, mobile device - Google Patents
Position estimation device, mobile device Download PDFInfo
- Publication number
- JP2018194417A JP2018194417A JP2017098006A JP2017098006A JP2018194417A JP 2018194417 A JP2018194417 A JP 2018194417A JP 2017098006 A JP2017098006 A JP 2017098006A JP 2017098006 A JP2017098006 A JP 2017098006A JP 2018194417 A JP2018194417 A JP 2018194417A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- road surface
- value
- position estimation
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
Abstract
Description
本開示は、位置推定に関する。 The present disclosure relates to position estimation.
特許文献1は、車載カメラを利用した実時間測位の技術について開示している。この技術では、実画像の領域から、直線や角点などの特徴部を抽出し、地図データとマッチングさせることによって、自車の位置を測定している。
上記先行技術の場合、マッチングに用いられる物理量が輝度値のみであるため、測定精度が低い。高精度な測位が可能な技術としては、例えばRTK−GPSが知られているものの、受信機が高価である。本開示は、上記を踏まえ、高価な機器を用いずに、高精度な位置推定を実現することを解決課題とする。 In the case of the above prior art, since the physical quantity used for matching is only the luminance value, the measurement accuracy is low. For example, RTK-GPS is known as a technique capable of highly accurate positioning, but the receiver is expensive. Based on the above, it is an object of the present disclosure to realize highly accurate position estimation without using expensive equipment.
本開示の一形態は、路面上を移動する機能と、路面を含む周辺の物標までの距離値を取得するための測距装置(21,22)とを有する移動装置(1,2)の位置を推定する位置推定装置(10,10a)であって;周辺の路面に対する前記移動装置の姿勢を、前記移動装置周辺の路面までの距離値の集合である距離データに基づき決定する姿勢決定部(S200)と;前記姿勢決定部によって決定された姿勢を用いて、3次元地図データによって定義される空間に仮想的に配置された前記測距装置による測定を模擬することによって得られる距離値の集合である距離データを、複数の候補位置それぞれについて算出する算出部(S310,S320)と;前記複数の候補位置の中から前記移動装置の位置として尤もらしいものを、前記測距装置による測定結果と、前記算出部による算出結果とのマッチングに基づき選択する選択部(S400)と;を備える位置推定装置である。この形態によれば、通常の測距装置を用いることで、高精度な位置推定が可能になる。 One form of the present disclosure is a mobile device (1, 2) having a function of moving on a road surface and a distance measuring device (21, 22) for acquiring a distance value to a surrounding target including the road surface. A position estimation device (10, 10a) for estimating a position; an attitude determination unit that determines an attitude of the moving device with respect to a surrounding road surface based on distance data that is a set of distance values to the road surface around the moving device. (S200); using the posture determined by the posture determination unit, the distance value obtained by simulating the measurement by the distance measuring device virtually arranged in the space defined by the three-dimensional map data A calculation unit (S310, S320) that calculates distance data that is a set for each of a plurality of candidate positions; from among the plurality of candidate positions; A position estimation device comprising: a measurement result by the location selection unit that selects based on the matching between the calculated results by the calculating section and (S400). According to this embodiment, it is possible to estimate the position with high accuracy by using a normal distance measuring device.
実施形態1を説明する。図1に示す自動運転車1は、レベル1以上の自動運転車である。具体的には、自動運転車1は、少なくとも操舵を自動で実施できる機能を有している。
自動運転車1は、ECU10を搭載する。ECU10は、カメラECUである。ECU10は、カメラ21とカメラ22とから撮像データとして各ピクセルのRGB値を取得し、後述する位置推定処理を実行する。
The
カメラ21,22は、自動運転車1の前方が撮像範囲内となるように搭載されている。カメラ21,22は、各ピクセルの輝度値を取得し、ECU10に入力する。カメラ21,22は、視差を利用した距離測定のために、車幅方向に並んで配置されたステレオカメラを構成している。ECU10は、カメラ21,22の焦点距離、及び基線長を用いることで、撮像された各ピクセルについて距離値を取得することができる。距離値とは、カメラ21,22から、撮像された物体までの距離を示す値のことである。
The
図1に示すように、自動運転車1は、ヨーレートセンサ30と、車速センサ40と、GNSS受信機50と、地図データ記憶装置60とを備える。ヨーレートセンサ30は、自動運転車1のヨーレートを計測して、ECU10に入力する。車速センサ40は、自動運転車1の車速を計測して、ECU10に入力する。
As shown in FIG. 1, the autonomous
GNSS受信機50は、GNSS測量を実施するために航法信号を受信する。GNSSは、Global Navigation Satellite Systemの頭字語であり、全地球航法衛星システムのことである。
The GNSS
地図データ記憶装置60は、3次元地図データを記憶している。ここでいう3次元地図データは、3次元の各格子点に対して物標の有無が対応付けられており、物標が有りと対応付けられた格子点には、さらに輝度値が対応付けられたデータ構造を有している。3次元の各格子点の位置は、緯度、経度、標高の各値によって定義されている。
The map
ここでいう物標とは、レーダや画像等によるデータ収集によって、何かしらの物体が有ると認められた全ての物体のことを意味する。物標には、路面が含まれる。本実施形態では位置推定の対象が自動運転車1であるので、ここでいう路面は、車道の表面である。輝度値のデータは、概ね昼間に撮像された撮像データに基づき、3次元地図データに格納する値が決定されている。
The target mentioned here means all objects that are recognized as having some object by data collection using radar, images, or the like. The target includes a road surface. In this embodiment, since the position estimation target is the autonomous
地図データ記憶装置60は、GNSS受信機50から入力される信号を利用して、3次元地図データから一部のデータを抜粋し、ECU10に入力する。
The map
ECU10は、カメラ21,22による撮像データ、ヨーレート、車速、3次元地図データを用いて、図2に示す位置推定処理を実行するによって、自動運転車1の位置を推定する。このため、本実施形態における位置推定処理は、自己位置推定処理である。
The ECU 10 estimates the position of the
ECU10は、位置推定処理を、自動運転機能がオンに設定されている間、繰り返し実行する。ECU10は、推定した位置を、自動運転を制御するECUに入力する。なお、自動運転を制御するECUは、図示されていない。
The
図2に示すように、ECU10は、位置推定処理を開始すると、S100として、撮像データから、距離データと輝度データとを取得する。距離データとは、各ピクセルに距離値が対応付けられた構造を有するデータのことである。輝度データとは、各ピクセルに輝度値が対応付けられた構造を有するデータのことである。
As shown in FIG. 2, when the position estimation process is started, the
続いて、ECU10は、S200として姿勢決定処理を実行する。ECU10は、姿勢決定処理を開始すると、S210として、路面の推定を実行する。以下、図4に示された撮像画像を例にとって、S210を説明する。図4に示すように、撮像範囲の水平方向をx方向、垂直方向をy方向と定義する。
Subsequently, the
S210は、距離データを元に、路面を表す式を決定するステップである。ここで決定される式は、カメラ座標系との変換関係が既知である座標系において定義される。このため、S210は、カメラ座標系において定義される路面の式を求めていることと等価である。 S210 is a step of determining an expression representing the road surface based on the distance data. The formula determined here is defined in a coordinate system whose conversion relationship with the camera coordinate system is known. For this reason, S210 is equivalent to calculating | requiring the formula of the road surface defined in a camera coordinate system.
図4に示すように、y0〜y8に沿って取得された距離値を抜粋して説明に用いる。y0は撮像範囲の下辺に相当する値であり、y8は撮像範囲の上辺に相当する値である。 As shown in FIG. 4, the distance values acquired along y0 to y8 are extracted and used for the description. y0 is a value corresponding to the lower side of the imaging range, and y8 is a value corresponding to the upper side of the imaging range.
図5は、縦軸を距離値z、横軸を水平方向xにしたグラフに、y0〜y8それぞれの場合について距離値をプロットした様子を示す。y7については、空と、遠方に位置する高層ビルとを対象にしており、図5に示されたz軸の範囲外であるため、図5に示されていない。y8についても、空を対象にしており、図5に示されたz軸の範囲外であるため、図5に示されていない。 FIG. 5 shows a state in which distance values are plotted for each of y0 to y8 on a graph in which the vertical axis is the distance value z and the horizontal axis is the horizontal direction x. y7 is not shown in FIG. 5 because it covers the sky and a high-rise building located far away and is outside the range of the z-axis shown in FIG. y8 is not shown in FIG. 5 because it covers the sky and is outside the range of the z-axis shown in FIG.
図6は、基準状態の場合に、y値と距離値zとの関係を、或るx値について示すグラフである。基準状態とは、自動運転車1が全くピッチングやローリングをしておらず、且つ、水平な路面上を走行または停止している状態のことである。
FIG. 6 is a graph showing the relationship between the y value and the distance value z for a certain x value in the reference state. The reference state is a state in which the
路面が水平に限らず平坦であれば、図6に示すように、y値と距離値zとの関係は、直線になる。一方、前方に坂があることによって、路面が平坦でない場合については、y値と距離値zとの関係は、曲線で近似される。以下、y値と距離値zとの関係において曲線といえば、直線を含むものとする。 If the road surface is flat as well as horizontal, as shown in FIG. 6, the relationship between the y value and the distance value z is a straight line. On the other hand, when the road surface is not flat due to a slope ahead, the relationship between the y value and the distance value z is approximated by a curve. Hereinafter, a curve in the relationship between the y value and the distance value z includes a straight line.
路面に該当する領域内であれば、各x値について同様な関係を得ることができる。従って、距離データを用いることによって、カメラ21,22を基準とした座標系における路面を近似する面の方程式を得ることができる。
A similar relationship can be obtained for each x value within an area corresponding to the road surface. Therefore, by using the distance data, an equation of a surface that approximates the road surface in the coordinate system with the
但し、本実施形態では、幅方向については、路面は平坦であると仮定する。幅方向とは、路面上に沿った方向であって、車線によって規定される進行方向と直交する方向のことである。このように仮定すれば、路面を2次元空間における曲線で表すことができる。そこで本実施形態においては、各y値について、距離値zの代表値を定め、1つの近似曲線を求める。本実施形態における代表値は、最頻値によって決定する。 However, in this embodiment, it is assumed that the road surface is flat in the width direction. The width direction is a direction along the road surface and a direction orthogonal to the traveling direction defined by the lane. With this assumption, the road surface can be represented by a curve in a two-dimensional space. Therefore, in this embodiment, a representative value of the distance value z is determined for each y value, and one approximate curve is obtained. The representative value in this embodiment is determined by the mode value.
なお、幅方向およびx方向は、常に平行である訳ではない。例えば、自動運転車1が実際に走行している方向と、路面の進行方向とにずれがある場合や、自動運転車1がローリングしている場合には、x方向は、幅方向に対して平行でなくなる。このようなずれを考慮して補正をしたり、3次元空間における曲線を求めたりしてもよいのだが、本実施形態では演算負荷の軽減のため、このようなずれを無視して、2次元空間における曲線を求める。
Note that the width direction and the x direction are not always parallel. For example, when there is a difference between the direction in which the
また、図4,図5に示す例の場合、y4〜y8の領域については、路面が含まれていない。このため、y4〜y8の領域については、路面の推定に用いない方がよい。但し、y4〜y8の領域を含めたとしても、路面の推定結果に大きな影響は無いことが多いので、本実施形態では、全y値を演算の対象にして路面を推定する。なお、y4〜y8の領域におけるy値と距離値zとの関係は、y0〜y4の領域におけるy値と距離値zとの関係から大きく変化するので、両者を切り分けることは可能である。そこで、他の実施形態においては、y値が小さい領域と比較して、y値と距離値zとの関係が大きく変化した領域を除外した上で、路面を表す曲線を求める。 In the case of the example shown in FIGS. 4 and 5, the road surface is not included in the regions y4 to y8. For this reason, it is better not to use the region y4 to y8 for estimating the road surface. However, even if the region of y4 to y8 is included, the road surface estimation result often does not have a great influence. Therefore, in this embodiment, the road surface is estimated using all y values as objects of calculation. It should be noted that the relationship between the y value and the distance value z in the y4 to y8 region varies greatly from the relationship between the y value and the distance value z in the y0 to y4 region, so that it is possible to separate them. Therefore, in another embodiment, a curve representing a road surface is obtained after excluding an area where the relationship between the y value and the distance value z has changed significantly compared to an area where the y value is small.
次に、ECU10は、S220として、カメラ21,22の高さhとピッチ角θとを算出する。図6に示すように、本実施形態では、y値がy3となる視線を基準とし、この視線と路面とがなす角度をピッチ角と定義する。基準状態において、y値がy3である場合の距離値zは既知であり、図6には距離値z3として示されている。基準状態における高さhも、予め測定されているので既知である。
Next, the
上記の既知の値、並びにy値および距離値zの近似式を用いることによって、高さh及びピッチ角θが求まる。なお、本実施形態における高さは、路面と直交する方向に沿った距離のことである。従って、坂を走行中の場合などにおいては、高さの方向は、鉛直方向と異なる。 The height h and the pitch angle θ are obtained by using the above known values and the approximate expression of the y value and the distance value z. In addition, the height in this embodiment is a distance along the direction orthogonal to the road surface. Accordingly, the height direction is different from the vertical direction, for example, when traveling on a hill.
最後に、S230として、ロール角を推定する。ロール角の推定には、距離データを用いる。S230には、予め学習した関係を用いる。予め学習した関係とは、ローリングが発生している多数の場合について、距離値の分布がどのような特徴を有するのかを調べることによって得られる関係である。 Finally, a roll angle is estimated as S230. Distance data is used for estimating the roll angle. The relationship learned in advance is used for S230. The relationship learned in advance is a relationship obtained by examining what characteristics the distribution of distance values has in many cases where rolling has occurred.
ECU10は、姿勢決定処理を終えると、S300として、マッチングの準備処理を実行する。図8に示すように、ECU10は、まず、S310として、候補位置を決定する。候補位置とは、自動運転車1の現在位置の候補となる複数の位置のことである。本実施形態において、自動運転車1の位置という場合、緯度および経度に加え、ヨー角が含まれる。ヨー角は、自動運転車1の前方がどの方角を向いているかを示す角度のことである。
After completing the posture determination process, the
図7には、候補位置として、候補位置ta,tbの2つが示されている。実際には、もっと多い数の候補位置が決定される。候補位置の決定は、前回の位置推定処理において推定した推定位置t−1、車速およびヨーレートを考慮して、或る程度の範囲に絞り込んだ上で、ランダムに実行される。 FIG. 7 shows two candidate positions ta and tb as candidate positions. In practice, a larger number of candidate positions are determined. The candidate positions are determined at random after narrowing down to a certain range in consideration of the estimated position t-1, the vehicle speed, and the yaw rate estimated in the previous position estimation process.
次に、ECU10は、S320として、決定した候補位置それぞれに対応する距離データを作成する。S320には、地図データ記憶装置60に記憶された3次元地図データを用いる。具体的には、或る候補位置に対応する距離データを作成する場合、3次元地図データ上において、カメラ21,22をその候補位置に仮想的に配置する。この仮想的な配置には、姿勢決定処理によって決定した姿勢を適用する。そして、仮想的に配置されたカメラ21,22による撮像を模擬して、距離データを3次元地図データから作成する。
Next, ECU10 produces the distance data corresponding to each determined candidate position as S320. In S320, the 3D map data stored in the map
次に、ECU10は、S330として、決定した候補位置それぞれに対応する輝度データを作成する。S330は、距離値と輝度値との違いを除けば、S320と同様な内容である。
Next, the
次に、ECU10は、S340として、距離データから、低位領域に属する値を除去する。S340において対象にするデータは、S100としての撮像によって作成されたデータと、S320によって作成された距離データとである。低位領域とは、所定の高さよりも低い領域のことである。但し、路面を示す距離値が除去されないように、路面すれすれよりも低い領域は、低位領域から除外されている。 Next, ECU10 removes the value which belongs to a low-order field from distance data as S340. The data targeted in S340 are data created by imaging as S100 and distance data created by S320. The lower region is a region lower than a predetermined height. However, the region lower than the road surface is excluded from the lower region so that the distance value indicating the road surface is not removed.
次に、ECU10は、S350として、輝度データから、低位領域に属する値を除去する。S340において対象にするデータは、S100としての撮像によって作成されたデータと、S330によって作成された輝度データとである。低位領域の定義は、S340の説明で述べた通りである。 Next, ECU10 removes the value which belongs to a low-order field from luminance data as S350. The data to be targeted in S340 are data created by imaging as S100 and luminance data created in S330. The definition of the low level region is as described in the description of S340.
図9に示すように、低位領域が除去されることによって、前方車や歩行者に対応する値が除去される。このように、低位領域を除去する目的は、撮像によって作成されるデータには含まれる一方、3次元地図データには含まれない物標を、マッチングの対象から除外することである。このため、本実施形態においては、低位領域の基準となる所定の高さは、路面上や路面付近を移動する物標が除外されるように定められている。具体的には、トラック等の大型自動車の車高よりも少し高い程度に定められている。 As shown in FIG. 9, the value corresponding to the preceding vehicle or the pedestrian is removed by removing the lower region. As described above, the purpose of removing the low-order region is to exclude a target that is included in the data created by the imaging but is not included in the three-dimensional map data from the target of matching. For this reason, in the present embodiment, the predetermined height that serves as a reference for the low-level region is determined such that a target moving on or near the road surface is excluded. Specifically, it is determined to be slightly higher than the vehicle height of a large vehicle such as a truck.
最後に、ECU10は、S360として、距離データから、高位領域に属する値を除去する。S360において対象にするデータは、S340と同様、S100としての撮像によって作成された距離データと、S320によって作成された距離データとである。高位領域とは、鉛直方向について、所定の高さよりも高い領域のことである。ここでいう所定の高さは、低位領域についての所定の高さよりも高い。 Finally, ECU10 removes the value which belongs to a high-order field from distance data as S360. The data to be targeted in S360 are the distance data created by imaging as S100 and the distance data created by S320, as in S340. The high level area is an area higher than a predetermined height in the vertical direction. The predetermined height here is higher than the predetermined height for the lower region.
図10に示すように、高位領域が除去されることによって、遠方に位置する物標の値が除去される。なお、図9と図10とを見比べた場合に、遠方に位置する高層ビルのみが除去されたように見えるが、実際には、空に対応する領域についても、高位領域に属するので、距離データから除去される。 As shown in FIG. 10, the value of the target located far away is removed by removing the high-level region. When comparing FIG. 9 and FIG. 10, it seems that only a high-rise building located far away has been removed, but in reality, the area corresponding to the sky also belongs to the high-order area, so the distance data Removed from.
距離データから高位領域に属する値を除去する目的は、測定精度が低い距離値を除去することである。空を対象に距離を測定しても、測定自体が難しい。空でなくても、遠すぎる物標は、視差の値が小さいので、高精度な測定は難しい。このため、マッチングの対象からは、遠すぎる領域を除外することが好ましい。但し、遠すぎるか否かを距離値で判定しようとすると、距離値そのものの精度が低いので、その判定自体の精度が低くなる可能性がある。そこで、本実施形態においては、高さを基準に用いる。これは、撮像される範囲において、或る程度、高い領域は、遠い領域であると推定できることを利用している。 The purpose of removing the value belonging to the higher region from the distance data is to remove the distance value with low measurement accuracy. Even if the distance is measured against the sky, the measurement itself is difficult. Even if it is not empty, a target that is too far away has a small parallax value, so that it is difficult to measure with high accuracy. For this reason, it is preferable to exclude regions that are too far from the target of matching. However, if it is attempted to determine whether the distance is too far or not by the distance value, the accuracy of the distance value itself is low, and therefore the accuracy of the determination itself may be lowered. Therefore, in this embodiment, the height is used as a reference. This is based on the fact that it is possible to estimate that a certain high region is a far region in the imaged range.
なお、輝度データについては、距離データにとっては遠すぎる領域であっても、さほど精度に影響が出る訳ではないので、除去の対象としない。例えば、図9に示される遠方の高層ビルは、輝度データについてのマッチングの対象として、十分な精度を得ることができる。 Note that the luminance data is not subject to removal even if it is an area that is too far for the distance data, because it does not affect the accuracy so much. For example, a distant high-rise building shown in FIG. 9 can obtain sufficient accuracy as a target for matching luminance data.
ECU10は、マッチングの準備処理を終えると、S400としてマッチングを実行する。つまり、輝度データ及び距離データそれぞれの一致度に基づき、候補位置の中から、現在位置として最も尤もらしいものを選択する。
When finishing the matching preparation process, the
S400は、コスト計算に基づき実施される。具体的には、距離データ、輝度データそれぞれについて差分を算出し、差分が小さいほど尤もらしいと判断する。なお、撮像データに基づき作成される輝度データは、時間帯や気象状態などに大きく依存するため、輝度値そのものではなく輝度値の勾配(エッジともいう)を、差分の算出の対象にする。 S400 is performed based on cost calculation. Specifically, the difference is calculated for each of the distance data and the luminance data, and it is determined that the difference is more likely as the difference is smaller. Note that the luminance data created based on the imaging data largely depends on the time zone, weather conditions, and the like, and therefore the gradient of the luminance value (also referred to as an edge) is used as a difference calculation target instead of the luminance value itself.
本実施形態においては、さらに、候補位置とオドメトリによる位置との差分も、コスト計算に加味する。オドメトリとは、車速およびヨーレートから位置を推定する手法のことである。 In the present embodiment, the difference between the candidate position and the position by odometry is also added to the cost calculation. Odometry is a method for estimating the position from the vehicle speed and the yaw rate.
続いて、ECU10は、S500として、フィルタリングを実行する。S500には、時系列で尤もらしい自己位置を推定するために、パーティクルフィルタを用いる。 Then, ECU10 performs filtering as S500. In S500, a particle filter is used in order to estimate a likely self-position in time series.
最後に、ECU10は、S600として、上記したステップによる結果から、自己位置を推定する。
Finally, as S600, the
以上に説明した実施形態によれば、特に高価な機器を用いることなく、高精度な自己位置推定が実現できる。高精度な推定が実現される主な理由としては、路面に対する姿勢を決定してマッチングに利用している点、距離データ及び輝度データという2種類のデータをマッチングの対象にしている点、距離データから低位領域および高位領域を除去している点、輝度データから低位領域を除去している点が挙げられる。 According to the embodiment described above, high-precision self-position estimation can be realized without using a particularly expensive device. The main reasons for achieving high-precision estimation are that the posture with respect to the road surface is determined and used for matching, and that two types of data, distance data and luminance data, are used for matching, and distance data The lower region and the higher region are removed from the image data, and the lower region is removed from the luminance data.
さらに、本実施形態によれば、位置推定処理のための処理負荷が軽減される。位置推定処理は、自動運転に利用されるため、短い周期で繰り返される処理である。このため、処理負荷が軽いことは、重要な効果である。処理負荷が軽減される主な理由は、路面の推定において、路面を2次元化している点である。 Furthermore, according to the present embodiment, the processing load for the position estimation process is reduced. Since the position estimation process is used for automatic driving, it is a process that is repeated in a short cycle. For this reason, a light processing load is an important effect. The main reason for reducing the processing load is that the road surface is two-dimensionalized in the estimation of the road surface.
路面を2次元化することは、方程式における独立変数を減らすことができることに加え、本実施形態の手法によれば、次の利点もある。その利点とは、x方向あるいは幅方向について、どこからどこまでが路面であるのかを特定する必要がなくなるという点である。このため、路面の2次元化は、処理負荷の軽減に大きく貢献する。 Making the road surface two-dimensional has the following advantages in addition to being able to reduce the independent variables in the equations, and according to the method of the present embodiment. The advantage is that it is not necessary to specify where the road surface is in the x direction or the width direction. For this reason, the two-dimensional road surface greatly contributes to the reduction of the processing load.
しかも、路面の2次元化をしても、路面の推定精度はさほど悪化しない。なぜなら、路面は、4輪自動車によって走行しやすいように幅方向について概ね平坦に造られていることが多いため、幅方向について情報を圧縮しても、実質的な情報としては殆ど同じだからである。本実施形態では、x方向に沿って最頻値を取っており、厳密には幅方向についての圧縮とは異なるものの、x方向に沿って情報を圧縮しても、実用上、問題のない精度で推定ができる。 Moreover, even if the road surface is two-dimensionalized, the estimation accuracy of the road surface does not deteriorate so much. This is because the road surface is often made almost flat in the width direction so that it can be easily driven by a four-wheeled vehicle, so even if the information is compressed in the width direction, the substantial information is almost the same. . In the present embodiment, the mode value is taken along the x direction. Although strictly different from the compression in the width direction, even if information is compressed along the x direction, there is practically no problem. Can be estimated.
実施形態2を説明する。実施形態2の説明は、実施形態1と異なる点を主な対象にする。特に説明しない点については実施形態1と同じである。 A second embodiment will be described. The description of the second embodiment mainly focuses on differences from the first embodiment. Points that are not particularly described are the same as those in the first embodiment.
実施形態2では、位置推定装置10aと複数の自動運転車2とによって、位置推定システムが構成される。
In the second embodiment, a position estimation system is configured by the position estimation device 10a and the plurality of
複数の自動運転車2それぞれは、位置推定装置を搭載しておらず、その代わりに、図11に示すように位置推定装置10aと通信する。位置推定装置10aは、処理部12と、地図データ記憶装置60と、通信インタフェース70とを備える。
Each of the plurality of
図12に示すように、自動運転車2は、ECU80を備える。ECU80は、カメラ21,22、車速センサ40、GNSS受信機50から取得した情報を、通信インタフェース90を介して、位置推定装置10aに送信する。
As shown in FIG. 12, the
処理部12は、通信インタフェース70を介して、自動運転車2から情報を取得する。処理部12は、自動運転車2から取得した情報と、地図データ記憶装置60の記憶された情報とを用い、実施形態1で説明した位置推定処理を実行する。処理部12は、位置推定処理によって推定した位置情報を、自動運転車2に送信する。
The
ECU80は、通信インタフェース90を介して位置推定装置10aから取得した位置情報を、自動操舵に利用する。
The
実施形態と、特許請求の範囲との対応を説明する。自動運転車1,2は移動装置に、ECU10,10aは位置推定装置に、カメラ21は測距装置および撮像装置に、カメラ22は測距装置および撮像装置に、S200は姿勢決定部に、S310,S320は算出部に、S310,S330は取得部に、S340,S360は距離値除去部に、S350は輝度値除去部に、S400は選択部に対応する。路面すれすれの高さは、第1輝度用高さ及び第1距離用高さに対応する。低位領域についての所定の高さは、第2輝度用高さ及び第2距離用高さに対応する。高位領域についての所定の高さは、予め定められた高さに対応する。
A correspondence between the embodiment and the claims will be described. The
本開示は、本明細書の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現できる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、先述の課題の一部又は全部を解決するために、或いは、先述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせができる。その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除できる。例えば、以下のものが例示される。 The present disclosure is not limited to the embodiments, examples, and modifications of the present specification, and can be realized with various configurations without departing from the spirit of the present disclosure. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in the embodiments described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects described above, replacement or combination can be performed as appropriate. If the technical feature is not described as essential in this specification, it can be deleted as appropriate. For example, the following are exemplified.
姿勢決定処理における路面の推定に失敗した場合、直近に推定した路面を、現在の路面として取り扱ってもよい。 If the estimation of the road surface in the posture determination process fails, the most recently estimated road surface may be handled as the current road surface.
位置推定装置の推定対象となるのは、自動車に限られず、路面を移動する移動装置であればよい。例えば、他の輸送用機器(例えば、二輪車)でもよいし、ロボットでもよい。ロボットの場合、例えば、自動車のように車輪で路面に接地してもよいし、2足歩行するタイプでもよい。 An object to be estimated by the position estimation device is not limited to an automobile, but may be a moving device that moves on a road surface. For example, another transportation device (for example, a two-wheeled vehicle) or a robot may be used. In the case of a robot, for example, it may be grounded on the road surface with wheels like an automobile, or may be a type that walks on two legs.
測距装置は、ステレオカメラでなくてもよい。例えば、LIDARやミリ波レーダを用いてもよい。LIDARは、Light Detection And Ranging又はLaser Imaging Detection And Rangingの頭字語である。 The distance measuring device may not be a stereo camera. For example, LIDAR or millimeter wave radar may be used. LIDAR is an acronym for Light Detection And Ranging or Laser Imaging Detection And Ranging.
輝度値をマッチングに用いなくてもよい。この場合、3次元地図データにおいても、輝度値のデータは不要になる。 The luminance value may not be used for matching. In this case, luminance value data is not required even in the three-dimensional map data.
路面を推定するための前提条件は、適宜、変更してもよい。例えば、路面を、3次元空間における曲面として求めてもよい。 The preconditions for estimating the road surface may be changed as appropriate. For example, the road surface may be obtained as a curved surface in a three-dimensional space.
ロール角の推定には、輝度データを用いてもよい。輝度データを用いる場合でも、距離データを用いる場合と同様、予め学習した関係を用いてもよい。 Luminance data may be used for estimating the roll angle. Even in the case of using luminance data, a previously learned relationship may be used as in the case of using distance data.
上記実施形態において、ソフトウエアによって実現された機能及び処理の一部又は全部は、ハードウエアによって実現されてもよい。また、ハードウエアによって実現された機能及び処理の一部又は全部は、ソフトウエアによって実現されてもよい。ハードウエアとしては、例えば、集積回路、ディスクリート回路、または、それらの回路を組み合わせた回路モジュールなど、各種回路を用いてもよい。 In the above embodiment, some or all of the functions and processes realized by software may be realized by hardware. In addition, some or all of the functions and processes realized by hardware may be realized by software. As the hardware, for example, various circuits such as an integrated circuit, a discrete circuit, or a circuit module obtained by combining these circuits may be used.
1 自動運転車、2 自動運転車、10 ECU、10a ECU、21 カメラ、22 カメラ 1 automatic driving vehicle, 2 automatic driving vehicle, 10 ECU, 10a ECU, 21 camera, 22 camera
Claims (12)
周辺の路面に対する前記移動装置の姿勢を、前記移動装置周辺の路面までの距離値の集合である距離データに基づき決定する姿勢決定部(S200)と、
前記姿勢決定部によって決定された姿勢を用いて、3次元地図データによって定義される空間に仮想的に配置された前記測距装置による測定を模擬することによって得られる距離値の集合である距離データを、複数の候補位置それぞれについて算出する算出部(S310,S320)と、
前記複数の候補位置の中から前記移動装置の位置として尤もらしいものを、前記測距装置による測定結果と、前記算出部による算出結果とのマッチングに基づき選択する選択部(S400)と、
を備える位置推定装置。 Position estimating device for estimating the position of a moving device (1, 2) having a function of moving on a road surface and a distance measuring device (21, 22) for acquiring distance values to surrounding targets including the road surface (10, 10a),
An attitude determination unit (S200) that determines an attitude of the mobile device with respect to a surrounding road surface based on distance data that is a set of distance values to the road surface around the mobile device;
Distance data that is a set of distance values obtained by simulating measurements by the distance measuring device virtually arranged in the space defined by the three-dimensional map data using the posture determined by the posture determining unit Calculating unit (S310, S320) for calculating each of a plurality of candidate positions;
A selection unit (S400) that selects a plausible position as the position of the mobile device from the plurality of candidate positions based on matching between a measurement result by the distance measuring device and a calculation result by the calculation unit;
A position estimation apparatus comprising:
前記3次元地図データには、3次元位置の輝度値が格納されており、
前記姿勢決定部によって決定された姿勢を用いて、3次元地図データ上に仮想的に配置された前記撮像装置による撮像を模擬することによって得られる輝度値を、前記複数の候補位置それぞれについて取得する取得部(S310,S330)を更に備え、
前記選択部は、前記選択を、前記撮像装置による測定結果と、前記取得部による取得結果とのマッチングを加味して実行する
請求項1に記載の位置推定装置。 The moving device has an imaging device (21, 22) for measuring a luminance value of a surrounding target
In the three-dimensional map data, a luminance value at a three-dimensional position is stored,
Using the attitude determined by the attitude determination unit, obtain a luminance value obtained by simulating imaging by the imaging device virtually arranged on three-dimensional map data for each of the plurality of candidate positions. It further includes an acquisition unit (S310, S330),
The position estimation device according to claim 1, wherein the selection unit performs the selection in consideration of matching between a measurement result obtained by the imaging device and an acquisition result obtained by the acquisition unit.
請求項2に記載の位置推定装置。 The luminance value removing unit (S350) for removing a value belonging to an area not used for the matching from the luminance value acquired by the acquiring unit and the luminance value measured by the imaging device. Position estimation device.
請求項3に記載の位置推定装置。 The position estimation apparatus according to claim 3, wherein the luminance value removing unit performs the removal on a region from a first luminance height to a second luminance height with reference to a road surface.
請求項1から請求項4までの何れか一項に記載の位置推定装置。 The distance value removal part (S340, S360) which removes the value which belongs to the area | region which is not used for the said matching from the distance value measured by the said ranging device, and the distance value computed by the said calculation part. The position estimation apparatus according to any one of claims 1 to 4.
請求項5に記載の位置推定装置。 The position estimation device according to claim 5, wherein the distance value removal unit (S340) performs the removal on a region from a first distance height to a second distance height on the basis of a road surface.
請求項5から請求項6までの何れか一項に記載の位置推定装置。 The position estimation device according to any one of claims 5 to 6, wherein the distance value removal unit (S360) performs the removal on a region having a predetermined height or more.
請求項1から請求項7までの何れか一項に記載の位置推定装置。 The attitude determination unit determines a value representative of a predetermined direction to two-dimensionally measure distance data measured by the distance measuring device, and determines a relative position of the road surface with respect to the distance measuring device based on the two-dimensional distance data. The position estimation apparatus according to any one of claims 1 to 7, wherein the posture is determined.
前記所定方向は、撮像における水平方向であり、
前記姿勢決定部は、前記移動装置のピッチ角と前記撮像装置の路面からの高さとを、前記姿勢として決定する
請求項8に記載の位置推定装置。 The distance measuring device is an imaging device configured as a stereo camera,
The predetermined direction is a horizontal direction in imaging,
The position estimation device according to claim 8, wherein the posture determination unit determines a pitch angle of the moving device and a height from a road surface of the imaging device as the posture.
請求項8から請求項9までの何れか一項に記載の位置推定装置。 The posture determination unit executes the determination of the posture using a position determined in the past when the determination of the relative position of the road surface fails. Position estimation device.
請求項1から請求項10までの何れか一項に記載の位置推定装置。 The position estimating device according to any one of claims 1 to 10, wherein the moving device is an autonomous driving vehicle (1).
請求項1から請求項11までの何れか一項に記載の位置推定装置(10)を備える
移動装置。 A mobile device (1) according to any one of claims 1 to 11, comprising:
A movement apparatus comprising the position estimation device (10) according to any one of claims 1 to 11.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017098006A JP6959032B2 (en) | 2017-05-17 | 2017-05-17 | Position estimation device, moving device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017098006A JP6959032B2 (en) | 2017-05-17 | 2017-05-17 | Position estimation device, moving device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018194417A true JP2018194417A (en) | 2018-12-06 |
JP6959032B2 JP6959032B2 (en) | 2021-11-02 |
Family
ID=64571667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017098006A Active JP6959032B2 (en) | 2017-05-17 | 2017-05-17 | Position estimation device, moving device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6959032B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109883432A (en) * | 2019-02-21 | 2019-06-14 | 百度在线网络技术(北京)有限公司 | Location determining method, device, equipment and computer readable storage medium |
KR20220087688A (en) * | 2020-12-18 | 2022-06-27 | 한국과학기술원 | Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0939297A2 (en) * | 1998-02-27 | 1999-09-01 | Hitachi, Ltd. | Vehicle position information displaying apparatus and method |
WO2009107430A1 (en) * | 2008-02-26 | 2009-09-03 | トヨタ自動車株式会社 | Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map data structure |
JP2012185011A (en) * | 2011-03-04 | 2012-09-27 | Kumamoto Univ | Mobile position measuring apparatus |
WO2013133129A1 (en) * | 2012-03-06 | 2013-09-12 | 日産自動車株式会社 | Moving-object position/attitude estimation apparatus and method for estimating position/attitude of moving object |
-
2017
- 2017-05-17 JP JP2017098006A patent/JP6959032B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0939297A2 (en) * | 1998-02-27 | 1999-09-01 | Hitachi, Ltd. | Vehicle position information displaying apparatus and method |
JPH11250396A (en) * | 1998-02-27 | 1999-09-17 | Hitachi Ltd | Device and method for displaying vehicle position information |
WO2009107430A1 (en) * | 2008-02-26 | 2009-09-03 | トヨタ自動車株式会社 | Autonomous mobile robot, self-position estimation method, environment map generation method, environment map generating device, and environment map data structure |
US20110010033A1 (en) * | 2008-02-26 | 2011-01-13 | Toyota Jidosha Kabushiki Kaisha | Autonomous mobile robot, self position estimation method, environmental map generation method, environmental map generation apparatus, and data structure for environmental map |
JP2012185011A (en) * | 2011-03-04 | 2012-09-27 | Kumamoto Univ | Mobile position measuring apparatus |
WO2013133129A1 (en) * | 2012-03-06 | 2013-09-12 | 日産自動車株式会社 | Moving-object position/attitude estimation apparatus and method for estimating position/attitude of moving object |
US20150015702A1 (en) * | 2012-03-06 | 2015-01-15 | Nissan Motor Co., Ltd. | Moving-Object Position/Attitude Estimation Apparatus and Moving-Object Position/Attitude Estimation Method |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109883432A (en) * | 2019-02-21 | 2019-06-14 | 百度在线网络技术(北京)有限公司 | Location determining method, device, equipment and computer readable storage medium |
CN109883432B (en) * | 2019-02-21 | 2020-12-29 | 百度在线网络技术(北京)有限公司 | Position determination method, device, equipment and computer readable storage medium |
KR20220087688A (en) * | 2020-12-18 | 2022-06-27 | 한국과학기술원 | Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof |
KR102454073B1 (en) | 2020-12-18 | 2022-10-14 | 한국과학기술원 | Geo-spacial data estimation method of moving object based on 360 camera and digital twin and the system thereof |
Also Published As
Publication number | Publication date |
---|---|
JP6959032B2 (en) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI705263B (en) | Vehicle positioning system using lidar | |
TWI693422B (en) | Integrated sensor calibration in natural scenes | |
TW202001924A (en) | Systems and methods for updating a high-resolution map based on binocular images | |
US20180307922A1 (en) | Method of detecting obstacle around vehicle | |
CN105300403B (en) | A kind of vehicle mileage calculating method based on binocular vision | |
US20180316905A1 (en) | Camera parameter set calculation method, recording medium, and camera parameter set calculation apparatus | |
US20140300732A1 (en) | Motion estimation utilizing range detection-enhanced visual odometry | |
US20200355513A1 (en) | Systems and methods for updating a high-definition map | |
CN111448478A (en) | System and method for correcting high-definition maps based on obstacle detection | |
JP6201148B2 (en) | CALIBRATION APPARATUS, CALIBRATION METHOD, MOBILE BODY CAMERA HAVING CALIBRATION FUNCTION, AND PROGRAM | |
CN110764110B (en) | Path navigation method, device and computer readable storage medium | |
JPWO2018061084A1 (en) | Self-position estimation method and self-position estimation apparatus | |
US20190362512A1 (en) | Method and Apparatus for Estimating a Range of a Moving Object | |
JP6959032B2 (en) | Position estimation device, moving device | |
JP6398218B2 (en) | Self-position calculation device and self-position calculation method | |
CN112528719A (en) | Estimation device, estimation method, and storage medium | |
EP3435286A1 (en) | Imaging control device and imaging control method | |
JP2021193340A (en) | Self-position estimation device | |
WO2020223868A1 (en) | Terrain information processing method and apparatus, and unmanned vehicle | |
KR20210102953A (en) | Methods for detecting and modeling objects on the road surface | |
JP2021043486A (en) | Position estimating device | |
JP2018096935A (en) | Own vehicle position estimation device, program, recording medium, and own vehicle position estimation method | |
JP2018004435A (en) | Movement amount calculation device and movement amount calculation method | |
CN114868150A (en) | Information processing device, sensing device, moving object, and information processing method | |
CN117808870A (en) | Position estimation system, position estimation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200416 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210414 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210914 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211007 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6959032 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |