JP5821275B2 - Moving body position detection device - Google Patents
Moving body position detection device Download PDFInfo
- Publication number
- JP5821275B2 JP5821275B2 JP2011113227A JP2011113227A JP5821275B2 JP 5821275 B2 JP5821275 B2 JP 5821275B2 JP 2011113227 A JP2011113227 A JP 2011113227A JP 2011113227 A JP2011113227 A JP 2011113227A JP 5821275 B2 JP5821275 B2 JP 5821275B2
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- moving
- position detecting
- current position
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、移動体位置検出装置に関するものである。 The present invention relates to a moving body position detection device.
GPS(Global Positioning System)を用いたナビゲーションシステムにおいては、GPSの測位誤差等を考慮して、表示装置における地図上の道路上に自車両を表示するべく、特許文献1に示すように、走行軌跡と道路形状によりマップマッチングが行われている。 In a navigation system using a GPS (Global Positioning System), as shown in Patent Document 1, in order to display a host vehicle on a road on a map in a display device in consideration of a GPS positioning error, etc. Map matching is performed by road shape.
ところで、近時は、ナビゲーションシステムと移動体の走行制御等とを関連づけて移動体の運転支援を高める等のことが考えられており、このため移動体の位置情報に関してマップマッチングを行っている場合の誤差数m程度の精度では足りず、より高精度な位置情報が求められるようになっている。 By the way, recently, it has been considered that the navigation system and the traveling control of the moving body are associated with each other to improve driving support of the moving body. For this reason, map matching is performed on the position information of the moving body. However, the accuracy of the error number m is not sufficient, and more accurate position information is required.
特許文献2には、絶対位置が既知とされた外部の固定対象物に対する自己の相対位置を検出手段により検出して、その検出結果に基づいてGPS検出に基づく自己の位置を補正するものが提案されている。
ところで、移動体の位置情報は、移動体を上方から見た平面図上の位置つまり直交座標系によって示すことが一般的である。この一方、移動体としての例えば車両において、レーダやカメラによって道路周辺に存在する固定物までの距離と方位とを検出して、この固定物の地図データ上での位置情報に基づいて、車両の現在位置と方位を精度よく検出することが可能となる。 By the way, the position information of the moving body is generally indicated by a position on a plan view of the moving body as viewed from above, that is, an orthogonal coordinate system. On the other hand, in a vehicle as a moving body, for example, the distance and azimuth to a fixed object existing around the road are detected by a radar or a camera, and based on the position information on the map data of the fixed object, It is possible to accurately detect the current position and direction.
しかしながら、移動体としての例えば車両の進行方向が道路に対して左右方向にずれていると、つまり車両の向きと道路の方向とが相違していると、例えば車両の中心位置においての現在位置が同じであっても、道路周辺に存在する固定物(のある特定位置)までの距離および方位が相違してしまうことになる。このことは、車両の向きの相違に応じて、地図データを利用したマップマッチングによって得られる車両の現在位置に誤差を生じさせる原因となる。このため、現在位置をマップマッチングにより精度よく検出するには、直交座標系におけるX軸方向とY軸方向の誤差に加えて、進行方向の誤差をも勘案してマップマッチングを行わなければならず、その演算処理が制御系の大きな負担となる。 However, if the traveling direction of the vehicle as the moving body is shifted in the left-right direction with respect to the road, that is, if the direction of the vehicle and the direction of the road are different, for example, the current position at the center position of the vehicle is Even if they are the same, the distance and direction to a fixed object (a specific position) around the road will be different. This causes an error in the current position of the vehicle obtained by map matching using map data in accordance with the difference in vehicle orientation. Therefore, in order to accurately detect the current position by map matching, map matching must be performed in consideration of errors in the traveling direction in addition to errors in the X-axis direction and the Y-axis direction in the orthogonal coordinate system. The calculation process is a heavy burden on the control system.
本発明は以上のような事情を勘案してなされたもので、その目的は、マップマッチングによる移動体の現在位置の測位を、車両の進行方向を加味しつつ簡便かつ精度よく行えるようにした移動体位置検出装置を提供することにある。 The present invention has been made in view of the above circumstances, and its purpose is to make it possible to easily and accurately determine the current position of a moving body by map matching while taking the traveling direction of the vehicle into account. The object is to provide a body position detecting device.
前記目的を達成するため、本発明にあっては次のような解決手法を採択してある。すなわち、特許請求の範囲における請求項1に記載のように、
移動体に周囲の物体を検出する物体検出手段が設けられ、
固定物の位置情報を含む3次元の地図データと前記物体検出手段で検出された検出データとをマッチングさせることにより移動体の現在位置の測位を行う移動体位置検出装置であって、
移動体の現在位置の測位に先立って、前記物体検出手段によって検出される道路周辺の所定の固定物の検出データと地図データとをマッチングさせることにより移動体の進行方向の補正を行ない、
補正された後の移動体の進行方向に基づいて、移動体の現在位置の測位のためのマッチングが行われる、
ようにしてある。上記解決手法によれば、あらかじめ移動体の進行方向の補正が行われるので、その後の現在位置の測位のためのマップマッチングの処理を簡単にかつ精度よく行うことができる。
In order to achieve the above object, the following solution is adopted in the present invention. That is, as described in claim 1 in the claims,
Object detection means for detecting surrounding objects on the moving body is provided,
A moving body position detecting device that measures the current position of a moving body by matching three-dimensional map data including position information of a fixed object with detection data detected by the object detection means,
Prior to positioning of the current position of the moving body, the traveling direction of the moving body is corrected by matching the detection data of a predetermined fixed object around the road detected by the object detection means and map data,
Based on the traveling direction of the mobile object after correction, matching for positioning of the current position of the mobile object is performed.
It is like that. According to the above solution, since the moving direction of the moving body is corrected in advance, map matching processing for subsequent positioning of the current position can be performed easily and accurately.
上記解決手法を前提とした好ましい態様は、特許請求の範囲における請求項2以下に記載のとおりである。すなわち、
前記移動体の進行方向の補正が、あらかじめ設定された所定条件を満足したことを条件として行われる、ようにしてある(請求項2対応)。この場合、極力不必要に進行方向の補正を行なわないようにして、制御系の負担を軽減する上で好ましいものとなる。
A preferred mode based on the above solution is as described in
The correction of the moving direction of the moving body is performed on condition that a predetermined condition set in advance is satisfied (corresponding to claim 2). In this case, it is preferable to reduce the load on the control system by correcting the traveling direction unnecessarily as much as possible.
前記移動体の進行方向の補正が、所定エリアにおける地図データの線分方向と検出データの線分方向とを対比させて行われる、ようにしてある(請求項3対応)。この場合、線分部分、つまり例えばガードレール等の長く伸びる部分を対比させるので、進行方向の補正そのものを精度よく行って、現在位置の測位も精度よく行うことができる。 The traveling direction of the moving body is corrected by comparing the line segment direction of the map data and the line segment direction of the detection data in a predetermined area (corresponding to claim 3). In this case, since the line segment part, that is, a part extending long, such as a guard rail, is compared, the correction of the traveling direction itself can be performed with high accuracy, and the current position can be determined with high accuracy.
前記所定エリアが移動体の前方領域とされている、ようにしてある(請求項4対応)。この場合、レーダやカメラ等によって移動体の前方領域にある物体(特に障害物)を検出することが一般的に行われているので、この前方領域にある物体を検出する検出手段を有効に利用して、進行方向の補正を行うことができる。 The predetermined area is a front area of the moving body (corresponding to claim 4). In this case, since it is common to detect objects (especially obstacles) in the front area of the moving body with a radar or a camera, the detection means for detecting the objects in the front area is effectively used. Thus, the traveling direction can be corrected.
前記所定エリアが、前回現在位置の測位に用いた地図データのエリアとされ、
前回現在位置測位のためにマッチングしたデータを用いて、移動体の進行方向の補正ためのマッチングが行われる、
ようにしてある(請求項5対応)。この場合、用いるデータ量を極力少なくしつつ進行方向の補正を精度よく行うことができる。
The predetermined area is an area of map data used for positioning the current position last time,
Matching is performed to correct the traveling direction of the moving object using the data matched for the previous current position measurement.
(Corresponding to claim 5). In this case, it is possible to accurately correct the traveling direction while minimizing the amount of data used.
移動体の進行方向の補正を行うための前記所定の固定物が、移動体が移動している道路レーンと平行な平行物とされている、ようにしてある(請求項6対応)。この場合、進行方向の補正を精度よく行うことができ、かつ、道路に沿って平行な固定物が多く存在するので、進行方向の補正を行う機会を極力多く確保する上でも好ましいものとなる。 The predetermined fixed object for correcting the traveling direction of the moving body is a parallel object parallel to the road lane on which the moving body is moving (corresponding to claim 6). In this case, the traveling direction can be accurately corrected, and there are many fixed objects parallel to the road, which is preferable in securing as many opportunities for correcting the traveling direction as possible.
前記平行物のうち、前記物体検出手段によって該平行物までの距離と方位とが検出可能な範囲内のものが前記進行方向の補正に用いる、ようにしてある(請求項7対応)。この場合、平行物のうちある長さ範囲に限定された状態で距離と方位とを検出するので、つまり平行物を無限延長したようなデータを利用しないので、進行方向の補正のための処理が簡便となり、しかもカーブを移動しているようなときでも平行物を利用した進行方向の補正を行うことが可能となる。 Among the parallel objects, those within the range in which the distance and direction to the parallel object can be detected by the object detection means are used for correcting the traveling direction (corresponding to claim 7). In this case, since the distance and direction are detected in a state limited to a certain length range among the parallel objects, that is, data such as infinite extension of the parallel object is not used, so the process for correcting the traveling direction is not performed. It becomes simple, and it is possible to correct the traveling direction using a parallel object even when moving along a curve.
前記平行物を用いて、移動体の現在位置の測位のためのマッチングが行われる、ようにしてある(請求項8対応)。この場合、道路に沿って平行な固定物が多く存在するので、現在位置の測位を行う機会を極力多く確保する上で好ましいものとなる。 Matching for positioning of the current position of the moving object is performed using the parallel object (corresponding to claim 8). In this case, since there are many fixed objects along the road, it is preferable to secure as many opportunities as possible to determine the current position.
同一の前記検出データを用いて、移動体の現在位置の測位と移動体の進行方向の補正とが行われる、ようにしてある(請求項9対応)。この場合、用いるデータ量を極力少なくして制御系の負担を軽減しつつ、進行方向の補正に用いられたデータを用いて現在位置の測位が行われるので、現在位置の測位をより精度よく行う上でも好ましいものとなる。 Using the same detection data, positioning of the current position of the moving body and correction of the traveling direction of the moving body are performed (corresponding to claim 9). In this case, the current position is measured using the data used for the correction of the traveling direction while reducing the burden on the control system by reducing the amount of data to be used as much as possible. This is also preferable.
前記固定物が、ガードレール、車線を区画する車線ライン、建物のうち少なくとも1つとされている、ようにしてある(請求項10対応)。この場合、道路に沿って多く存在する車線ライン、ガードレール、建物を有効に利用して、進行方向の補正やこれに引き続く現在位置の測位を行う機会を増大させる上で好ましいものとなる。 The fixed object is at least one of a guard rail, a lane line that divides a lane, and a building (corresponding to claim 10). In this case, it is preferable to effectively use the lane lines, guardrails, and buildings existing along the road to increase the opportunity to correct the traveling direction and subsequently determine the current position.
前記移動体が自動車とされている、ようにしてある(請求項11対応)。この場合、GPSの利用度が極めて高くしかも衝突回避等の安全が要求される自動車について、現在位置を精度よく測位して、種々の運転支援等の上で好ましいものとなる。 The mobile body is an automobile (corresponding to claim 11). In this case, it is preferable for various driving support and the like to accurately measure the current position of an automobile that has extremely high GPS utilization and requires safety such as collision avoidance.
本発明によれば、マップマッチングによる移動体の現在位置の測位を簡便かつ精度よく行なうことができる。 ADVANTAGE OF THE INVENTION According to this invention, positioning of the present position of the moving body by map matching can be performed simply and accurately.
図1において、Vは、移動体としての車両(実施形態では自動車)である。車両Vは、左右4隅にそれぞれ、レーダ(例えばレーザレーダ)あるいはカメラの少なくとも一方からなる物体検出センサ1が装備されている。前2個の物体検出センサ1は、車両前部側方から前方に渡って周囲の物体の方位と相対距離を検出するものであり、後ろ2個の物体検出センサ1は車両の後部側方から後方に渡って物体の方位と距離を検出するものである。車両Vは、前後左右の車輪の速度を検出する車輪速センサ2を装備している。各車輪速センサ2で検出された車輪速の平均値が車速とされる。車両Vは、ナビゲーション装置を有しており、ナビゲーション装のGPS(GPSセンサ)が符号3で示され、地図データベースが符号4で示され、表示画面が符号5で示される。コントローラUによる制御によって、表示画面5に表示された地図上に、GPS3で検出された車両Vの現在位置が表示される。車両Vはさらに、ジャイロ6,舵角センサ7を有する。
In FIG. 1, V is a vehicle (automobile in the embodiment) as a moving body. The vehicle V is equipped with object detection sensors 1 composed of at least one of a radar (for example, a laser radar) or a camera at each of the four left and right corners. The two front object detection sensors 1 detect the azimuth and relative distance of surrounding objects from the front side of the vehicle to the front, and the two rear object detection sensors 1 from the rear side of the vehicle. This is to detect the azimuth and distance of the object across the back. The vehicle V is equipped with a
車両Vは、マイクロコンピュータを利用して構成されたコントローラ(制御ユニット)Uを有する。コントローラUは、後述するように、車両Vの現在位置と進行方向とを精度よくマップマッチングする機能と、衝突回避のための運転支援等の制御を行う。このため、コントローラUには、図2に示すように、前述の各種センサ等1〜7からの信号が入力される一方、表示画面5、警報装置8,車両制御装置9を制御するようになっている。コントローラUは、表示画面5に対して、車両Vの現在位置を表示する制御を行う。物体検出センサ1で検出された物体が車両Vに接触する可能性があると判断したときに、警報装置8を作動させて、例えば音声によって運転者に警報を行う。また、コントローラUは、物体検出センサ1によって、警報装置8が作動するよりもより近い距離にある物体を検出して衝突の危険性が極めて高いと判断したときに、車両制御装置9を作動させて、例えば自動操舵を行ったり自動ブレーキを行う等によって、衝突を回避する制御を行うようになっている。
The vehicle V has a controller (control unit) U configured using a microcomputer. As will be described later, the controller U performs a function of accurately performing map matching between the current position and the traveling direction of the vehicle V and control such as driving support for collision avoidance. Therefore, as shown in FIG. 2, the controller U receives signals from the above-described various sensors 1 to 7 and controls the display screen 5, the
また、コントローラUは、車車間通信によって、車両Vの現在位置と進行方向とを前方付近に存在する他車両に知らせて、他車両との衝突等を未然に防止するようになっている。さらに、コントローラUは、車両Vが車線を逸脱して危険である場合に、自動操舵を行って車線逸脱を防止するようになっている。コントローラUは、この他、例えば車両Vと、停止線位置、交差点位置、死角域のガードレールとの距離に応じて車両Vについての適正な制御を行う。なお、車両Vの位置に応じたコントローラUによる各種の制御は種々想定されるが、位置検出そのものとは直接関係ないので、これ以上の説明は省略する。 Further, the controller U notifies the other vehicle existing near the front of the current position and the traveling direction of the vehicle V through inter-vehicle communication, thereby preventing a collision with the other vehicle. Further, when the vehicle V departs from the lane and is dangerous, the controller U performs automatic steering to prevent the lane departure. In addition, the controller U performs appropriate control on the vehicle V in accordance with, for example, the distance between the vehicle V and the stop line position, the intersection position, and the guard rail in the blind spot area. Although various types of control by the controller U according to the position of the vehicle V are assumed, since it is not directly related to the position detection itself, further explanation is omitted.
車両Vの現在位置と進行方向とを精度よく検出するために、次のような制御が行われる。まず、車両Vの現在位置は、車両Vを上方から見た平面図上、つまり例えば前後方向をX軸、左右方向をY軸とする直交座標系で示される。また、車両Vの進行方向は、車両Vの左右方向(ヨー方向)となるものであって、例えば直交座標系における1次直線の傾きとして示すことができる。 In order to accurately detect the current position and the traveling direction of the vehicle V, the following control is performed. First, the current position of the vehicle V is indicated on a plan view when the vehicle V is viewed from above, that is, for example, in an orthogonal coordinate system having the front-rear direction as the X axis and the left-right direction as the Y axis. Further, the traveling direction of the vehicle V is the left-right direction (yaw direction) of the vehicle V, and can be represented as, for example, the slope of a linear line in an orthogonal coordinate system.
地図データベース4には、三次元地図データとしてのボクセルデータが記憶されている。表示画面5上に表示される地図は、実際の地形を上方から見た平面図であり、地図上の各位置は実際の地形に応じて精度よく設定されている。また、ボクセルデータは、三次元空間を例えば一辺50cmの立方体に分割したものであり、この分割された多数のボクセルには、ボクセルの中心位置の位置座や、ボクセル内に含まれる物体(固定地物)、例えば電柱、ガードレール、建物、電源ボックス、道路の車線等の正確な位置情報が位置データとして含まれる。なお、以下の説明では、三次元地図データを単に地図データと称する。そして、車両Vの位置決定等のために用いられる地図データ中の位置情報は、物体検出センサ1でのセンシング平面と同じ高さ位置でのデータが用いられることになる。
The
図3は、車両Vの周囲にある実際の固定物の一例が示される。この図3中、11はガードレール、12は建物、13は塀、14は建物である。また、車両Vが走行している道路の車線のうち、中央車線が符号21で示され、左右の側方車線が符号22,23で示される。また、中央車線21と側方車線22の間の走行レーンが符号24で示され、中央車線21と側方車線23の間の走行レーンが符号25で示される。そして、車両Vは、走行レーン24を走行している状態が示される。なお、物体検出センサ1は、各車線21、22、23や、走行レーン24、25をも検出可能であり、各車線21〜23は、ガードレール11等と同様に、物体検出センサ1での検出対象となる固定物(地物)とされる。なお、以下の説明では、符号11〜14あるいは21〜23を固定物として総称する場合がある。
FIG. 3 shows an example of an actual fixed object around the vehicle V. In FIG. 3, 11 is a guardrail, 12 is a building, 13 is a fence, and 14 is a building. Of the lanes on the road on which the vehicle V is traveling, the central lane is indicated by
図4は、図3の状態において、固定物11〜14について物体検出センサ1が検出したときの検出データが示される。この検出データにおいては、各固定物11〜14は、道路に面した部分の形状として把握される。この図4において、固定物11〜14に対応したデータ部分が、「A」の符号を付して示される。すなわち、例えばガードレール11に対応したデータが符号11Aで示される。
FIG. 4 shows detection data when the object detection sensor 1 detects the fixed objects 11 to 14 in the state of FIG. In this detection data, each fixed object 11-14 is grasped | ascertained as the shape of the part which faced the road. In FIG. 4, the data portion corresponding to the fixed objects 11 to 14 is shown with the symbol “A”. That is, for example, data corresponding to the guard rail 11 is indicated by
図5は、図4に対応した所定エリアでのセンシング平面と同じ高さの地図データを示す。この図5において、四角形の1つ1つのマス目は、ボクセルである。この図5において、固定物11〜14に対応したデータ部分が、「B」の符号を付して示される。すなわち、例えばガードレール11に対応したデータが符号11Bで示される。
FIG. 5 shows map data having the same height as the sensing plane in a predetermined area corresponding to FIG. In FIG. 5, each square cell is a voxel. In FIG. 5, data portions corresponding to the fixed objects 11 to 14 are shown with a symbol “B”. That is, for example, data corresponding to the guard rail 11 is indicated by
図4での直交座標系の方向と図5での直交座標系の方向とが一致しているときは、図7に示すように、図4の検出データ上の固定物11A〜14Aと図5の地図データ上の固定物11B〜14Bとが完全に一致させることが可能となる。すなわち、11Aと11Bとが一致する等、全ての固定物のデータ同士を一致させることができる。
When the direction of the orthogonal coordinate system in FIG. 4 and the direction of the orthogonal coordinate system in FIG. 5 coincide with each other, as shown in FIG. 7, the fixed
一方、図4での直交座標系の方向と図5での直交座標系の方向とが一致していないときは、図6に示すように、一部の固定物のデータ同士は一致可能であっても、データ同士が一致されない固定物も存在することになる。特に、車両Vの遠方にある固定物14Aと14Bとが一致しないことになる。このため、従来は、直交座標系におけるX軸方向のずれと、Y軸方向のずれと、検出データと地図データとの間での直交座標系の向きのずれ(つまり車両Vの進行方向のずれ)との3つのずれ要素を考慮して、マップマッチングさせる必要があり、その演算量が膨大となって、制御系の大きな負担となっていた。
On the other hand, when the direction of the orthogonal coordinate system in FIG. 4 and the direction of the orthogonal coordinate system in FIG. 5 do not match, as shown in FIG. 6, the data of some fixed objects can be matched. However, there are fixed objects in which the data are not matched. In particular, the fixed
次に、図8を参照しつつ、車両Vの進行方向のずれ補正の点について説明する。まず、図8において、符号21〜25は、図3で示すのと同様の車線あるいは走行レーンを示す。そして、走行レーン24の中心線が符号24aで示され、走行レーン25の中心線が符号25aで示される。また、道路の周辺に位置すると共に道路と平行な固定物として、ガードレール31,32と建物33とが示される。そして、このガードレール31,32,建物33のうち、道路に臨む側でかつ道路と平行な面にハッチングが付されている。
Next, with reference to FIG. 8, the point of deviation correction in the traveling direction of the vehicle V will be described. First, in FIG. 8,
図8では、車両Vは、走行レーン24の中心線24aに対して、右方向に角度δだけずれた状態となっている。ここで、ガードレール31,32,建物33が道路と平行であることは、例えば地図データを参照することにより、あるいは検出データから例えば側方車線22とガードレール31,32や建物33との間の位置関係をみることにより知ることができる。したがって、物体検出センサ1によって平行な固定物を検出したときの検出データから、車両Vが走行レーン24の中心線24aとなす角度δおよび車両Vと平行固定物との間の距離Lを知ることができる。
In FIG. 8, the vehicle V is in a state shifted by an angle δ in the right direction with respect to the
平行固定物31〜33の位置および方位は地図データによって精度よく設定されていることから、車両Vの平行固定物31〜33からの離間距離Lと中心線24aに対してなす角度δとから、車両Vの進行方向(絶対的な方位)を精度よく知ることができる。このようにして、車両Vの進行方向の補正(進行方向の絶対的な方位の決定)が行われる。
Since the positions and orientations of the parallel
ここで、位置ずれと方位ずれの両方を含む場合に、そのずれ量を演算する手法例について説明する。まず、地図データ上での固定物体の位置を(xi,yi)とし、検出データ上での固定物体の位置を(ui、vi)とし、位置ずれをqx、qyとし、方位のずれをθとすると、数1が成立する。そして、n個のデータを使用すると、数2が成立する。
Here, a description will be given of an example of a technique for calculating the amount of deviation when both positional deviation and azimuth deviation are included. First, the position of the fixed object on the map data is (xi, yi), the position of the fixed object on the detection data is (ui, vi), the position deviation is qx, qy, and the direction deviation is θ. Then, Formula 1 is materialized. When n pieces of data are used,
数2に示す方程式群は、数3の行列として置くことができる。
The equation group shown in
ここで、Aの転置行列をAt としたときに、数4を解いて、qx、qy、θを求める。そして、求められたqx、qy、θが所定値以下の場合(ずれが小さい場合に)に、精度が十分とされる。なお、数4中の「AtA」、「AtY」を展開すると、数5になる。
Here, when A is a transposed matrix of A,
上述のように、方位ずれθを加味したずれ量の決定には、演算量が多くなり、制御系の大きな負担となる。しかしながら、前述のように、あらかじめ方位ずれが補正されて精度よいものに決定されていれば、前述した演算において方位ずれθを既知の一定値とみなして行えばよく、位置ずれを補正すること、つまりマップマッチングによる車両Vの現在位置の測位が簡便かつ精度よく行うことができる。 As described above, the amount of calculation increases in determining the amount of deviation in consideration of the azimuth deviation θ, which is a heavy burden on the control system. However, as described above, if the azimuth deviation is corrected in advance and determined to be accurate, the azimuth deviation θ may be regarded as a known constant value in the above-described calculation, and the positional deviation is corrected. That is, positioning of the current position of the vehicle V by map matching can be performed easily and accurately.
また、方位ずれが補正された後の状態において、地図データの直交座標系と検出データの直交座標系とをマッチングさせる際に、次のような手法で行うこともできる。すなわち、図11において、黒塗り部分が、地図データと検出データとの比較対象される固定物体(の部分)であり、四角形の枠体が要求位置精度に対応したメッシュ(升目)である(例えば10cm四方)。なお、図11では、抽出された特徴部分(領域)としては、特に、道路に沿って直線状に長く伸びる(例えば5m〜10m)固定物(例えば建物やガードレール)を含むようにするのが好ましく、線分としての直線状であれば建物やガードレールの一部であってもよい。 Further, when the cartesian coordinate system of the map data and the cartesian coordinate system of the detection data are matched in the state after the azimuth deviation is corrected, the following method can be used. That is, in FIG. 11, a black portion is a fixed object (portion) to be compared between map data and detection data, and a rectangular frame is a mesh (mesh) corresponding to the required position accuracy (for example, 10cm square). In FIG. 11, it is preferable that the extracted feature portion (region) includes a fixed object (for example, a building or a guardrail) that extends in a straight line along the road (for example, 5 m to 10 m). If it is a straight line as a line segment, it may be a part of a building or a guardrail.
地図データと検出データとの抽出された各特徴部分同士を、例えば地図データ上の特徴部分を固定しつつ、検出データ上の特徴部分をX軸方向およびY軸方向に1メッシュづつ移動させて、その一致度合が判定される。すなわち、地図データ上の抽出特徴部分に対して、検出データ上の抽出特徴部分をX軸方向およびY軸方向に1メッシュ移動させる毎に、その一致度合をみて、最終的に、もっとも一致度合が高い状態が、地図データと検出データとの直交座標系での位置ずれ量となる。このような手法によって、地図データと検出データとの位置ずれ量を簡便に知ることができる。この位置ずれ量に基づいて、地図データ上の車両Vの位置を補正することによって、直交座標系における車両Vの絶対位置が精度よく測位されることになる。 For example, while fixing the feature portions on the map data, the feature portions on the detection data are moved one mesh at a time in the X-axis direction and the Y-axis direction. The degree of coincidence is determined. That is, each time the extracted feature part on the map data is moved by one mesh in the X-axis direction and the Y-axis direction with respect to the extracted feature part on the map data, the degree of coincidence is finally seen. A high state is a positional deviation amount in the orthogonal coordinate system between the map data and the detection data. By such a method, it is possible to easily know the amount of positional deviation between the map data and the detection data. By correcting the position of the vehicle V on the map data based on the amount of positional deviation, the absolute position of the vehicle V in the Cartesian coordinate system is accurately measured.
次に、コントローラUの詳細な制御内容について、図9,図10のフローチャートを参照しつつ説明する。なお、以下の説明でQはステップを示す。まず、図9のQ1において、図2に示す各種センサ等からの信号が入力される。この後、Q2において、GPS3での検出結果に基づいて、車両Vの暫定の現在位置が決定されると共に、この暫定現在位置の道路情報が地図データ4から読み込まれる。
Next, detailed control contents of the controller U will be described with reference to the flowcharts of FIGS. In the following description, Q indicates a step. First, in Q1 of FIG. 9, signals from various sensors shown in FIG. 2 are input. Thereafter, in
Q2の後、Q3において、物体検出センサ1の検出範囲内で、車両Vの周辺の所定エリア(例えば車両Vを中心とする25m四方)が設定される。この後、Q4において、物体検出センサ1での検出結果に基づいて、周辺エリア内における検出データ(図4に示すようなセンサ地図データ)が作成される。 After Q2, in Q3, a predetermined area around the vehicle V (for example, 25 m square centered on the vehicle V) is set within the detection range of the object detection sensor 1. Thereafter, in Q4, based on the detection result of the object detection sensor 1, detection data (sensor map data as shown in FIG. 4) in the peripheral area is created.
Q4の後、Q5において、方向判定を行なう必要があるか否か、つまり車両Vの進行方向の補正が必要なときであるか否かが判別される。実施形態では、方向判定する必要がある場合の所定条件が、次のように設定されている。すなわち、(1)エンジン始動後でGPSデータの取得時、(2)所定距離走行したとき(速度×時間が所定値に達したとき)、(3)操舵角度が所定角度以上のとき、(4)左右の車輪速の差が所定値以上のとき、(5)ウインカが作動されたとき、(6)地図データに記憶された所定の特徴点(道路に平行な固定物が存在するとき)に位置したとき、とされている。 After Q4, in Q5, it is determined whether or not it is necessary to determine the direction, that is, whether or not it is necessary to correct the traveling direction of the vehicle V. In the embodiment, the predetermined condition when the direction needs to be determined is set as follows. That is, (1) when GPS data is acquired after engine startup, (2) when traveling a predetermined distance (when speed x time reaches a predetermined value), (3) when the steering angle is equal to or greater than a predetermined angle, (4 ) When the difference between the left and right wheel speed is greater than or equal to the predetermined value, (5) When the blinker is activated, (6) When the predetermined feature point stored in the map data (when there is a fixed object parallel to the road) When it is located.
上記Q5の判別でYESのときは、Q6において、後述するように、方向判定が実行される。Q6の後、あるいはQ5の判別でNOのときは、Q7において、方向判定された結果に基づいて(進行方向の補正が行われた状態で)、車両Vの現在位置の算出が行われる。Q7の後、Q8において、現在位置の算出が可能であったか否かが判別される。このQ8の判別でYESのときは、Q9において、Q7で算出された現在位置が、最終的な現在位置として決定される。また、Q8の判別でNOのときは、Q9を経ることなくリターンされる。なお、Q8の判別でNOのときは、現在位置として、Q2での暫定現在位置をそのまま用いたり、あるいは前回決定された現在位置と車速と舵角とヨーレートに基づいて現在位置を推定する等のことが行われる。 When the determination in Q5 is YES, a direction determination is executed in Q6, as will be described later. After Q6 or when NO is determined in Q5, the current position of the vehicle V is calculated based on the result of the direction determination in Q7 (with the traveling direction corrected). After Q7, it is determined in Q8 whether the current position can be calculated. If the determination in Q8 is YES, in Q9, the current position calculated in Q7 is determined as the final current position. If NO in Q8, the process returns without passing through Q9. If NO in Q8, the temporary current position in Q2 is used as it is as the current position, or the current position is estimated based on the previously determined current position, vehicle speed, steering angle, and yaw rate. Is done.
図6のQ6の詳細が図10に示される。すなわち、まずQ21において、道路レーンと平行な固定物が抽出される。この後、Q22において、抽出された平行な固定物に対する角度と距離が算出される。この後、Q23において、Q22で算出された角度と距離とを用いて、検出データの方向補正が行われる。Q23の処理は、つまるところ、図6の向きアンマッチングを図7の向きマッチング状態にすることになる。 Details of Q6 in FIG. 6 are shown in FIG. That is, first, in Q21, a fixed object parallel to the road lane is extracted. Thereafter, in Q22, an angle and a distance with respect to the extracted parallel fixed object are calculated. Thereafter, in Q23, the direction of the detection data is corrected using the angle and distance calculated in Q22. After all, the process of Q23 is to change the orientation unmatching in FIG. 6 into the orientation matching state in FIG.
以上実施形態について説明したが、本発明は、実施形態に限定されるものではなく、特許請求の範囲の記載された範囲において適宜の変更が可能であり、例えば次のような場合をも含むものである。移動体としては、自動車、二輪車等の車両や、歩行者等、道路を移動する任意のものを含むものである。検出データで切り出す所定エリアを、前回の現在位置の測位に用いた地図データのエリアとして、前回現在位置の測位のためにマッチングしたデータを用いて移動体の進行方向の補正のためのマッチングを行うのが、使用するデータ量の軽減する等の上で好ましいものとなる。車両Vの後方にある固定物を検出データとして用いるようにしてもよい。勿論、本発明の目的は、明記されたものに限らず、実質的に好ましいあるいは利点として表現されたものを提供することをも暗黙的に含むものである。 Although the embodiment has been described above, the present invention is not limited to the embodiment, and can be appropriately changed within the scope described in the scope of claims. For example, the invention includes the following cases. . Examples of the moving object include vehicles such as automobiles and two-wheeled vehicles, and pedestrians that move arbitrarily on the road. The predetermined area cut out from the detection data is used as the map data area used for positioning the previous current position, and matching for correcting the moving direction of the moving object is performed using data matched for positioning the previous current position. This is preferable for reducing the amount of data to be used. A fixed object behind the vehicle V may be used as detection data. Of course, the object of the present invention is not limited to what is explicitly stated, but also implicitly includes providing what is substantially preferred or expressed as an advantage.
本発明によれば、車両等の現在位置の測位を簡便に精度よく行う上で好ましいものとなる。 According to the present invention, it is preferable to easily and accurately determine the current position of a vehicle or the like.
V:車両
U:コントローラ
1:物体検出センサ
2:車輪速センサ
3:GPS
4:地図データ
5:表示画面
6:ジャイロ
7:舵角センサ
V: Vehicle U: Controller 1: Object detection sensor 2: Wheel speed sensor 3: GPS
4: Map data 5: Display screen 6: Gyro 7: Rudder angle sensor
Claims (11)
固定物の位置情報を含む3次元の地図データと前記物体検出手段で検出された検出データとをマッチングさせることにより移動体の現在位置の測位を行う移動体位置検出装置であって、
移動体の現在位置の測位に先立って、前記物体検出手段によって検出される道路周辺の所定の固定物の検出データと地図データとをマッチングさせることにより移動体の進行方向の補正を行ない、
補正された後の移動体の進行方向に基づいて、移動体の現在位置の測位のためのマッチングが行われる、
ことを特徴とする移動体位置検出装置。 Object detection means for detecting surrounding objects on the moving body is provided,
A moving body position detecting device that measures the current position of a moving body by matching three-dimensional map data including position information of a fixed object with detection data detected by the object detection means,
Prior to positioning of the current position of the moving body, the traveling direction of the moving body is corrected by matching the detection data of a predetermined fixed object around the road detected by the object detection means and map data,
Based on the traveling direction of the mobile object after correction, matching for positioning of the current position of the mobile object is performed.
A moving body position detecting device characterized by the above.
前記移動体の進行方向の補正が、あらかじめ設定された所定条件を満足したことを条件として行われる、ことを特徴とする移動体位置検出装置。 In claim 1,
The moving body position detecting apparatus according to claim 1, wherein correction of the moving direction of the moving body is performed on condition that a predetermined condition set in advance is satisfied.
前記移動体の進行方向の補正が、所定エリアにおける地図データの線分方向と検出データの線分方向とを対比させて行われる、ことを特徴とする移動体位置検出装置。 In claim 1,
The moving body position detecting device, wherein the moving direction of the moving body is corrected by comparing a line segment direction of map data and a line segment direction of detection data in a predetermined area.
前記所定エリアが移動体の前方領域とされている、ことを特徴とする移動体位置検出装置。 In claim 3,
The moving body position detecting device, wherein the predetermined area is a front area of the moving body.
前記所定エリアが、前回現在位置の測位に用いた地図データのエリアとされ、
前回現在位置測位のためにマッチングしたデータを用いて、移動体の進行方向の補正ためのマッチングが行われる、
ことを特徴とする移動体位置検出装置。 In claim 3,
The predetermined area is an area of map data used for positioning the current position last time,
Matching is performed to correct the traveling direction of the moving object using the data matched for the previous current position measurement.
A moving body position detecting device characterized by the above.
移動体の進行方向の補正を行うための前記所定の固定物が、移動体が移動している道路レーンと平行な平行物とされている、ことを特徴とする移動体位置検出装置。 In claim 1,
The moving body position detecting device, wherein the predetermined fixed object for correcting the traveling direction of the moving body is a parallel object parallel to a road lane on which the moving body is moving.
前記平行物のうち、前記物体検出手段によって該平行物までの距離と方位とが検出可能な範囲内のものが前記進行方向の補正に用いる、ことを特徴とする移動体位置検出装置。 In claim 6,
Among the parallel objects, a moving object position detecting device in which a distance and a direction to the parallel object can be detected by the object detection means is used for correcting the traveling direction.
前記平行物を用いて、移動体の現在位置の測位のためのマッチングが行われる、ことを特徴とする移動体位置検出装置。 In claim 6,
A moving object position detecting device, wherein matching for positioning of the current position of the moving object is performed using the parallel object.
同一の前記検出データを用いて、移動体の現在位置の測位と移動体の進行方向の補正とが行われる、ことを特徴とする移動体位置検出装置。 In claim 1,
A moving body position detecting apparatus characterized in that positioning of the current position of the moving body and correction of the traveling direction of the moving body are performed using the same detection data.
前記固定物が、ガードレール、車線を区画する車線ライン、建物のうち少なくとも1つとされている、ことを特徴とする移動体位置検出装置。 In any one of Claims 1 thru | or 9,
The moving object position detecting device, wherein the fixed object is at least one of a guard rail, a lane line that divides a lane, and a building.
前記移動体が自動車とされている、ことを特徴とする移動体位置検出装置。
In any one of Claims 1 thru | or 10,
The moving body position detecting device, wherein the moving body is an automobile.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011113227A JP5821275B2 (en) | 2011-05-20 | 2011-05-20 | Moving body position detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011113227A JP5821275B2 (en) | 2011-05-20 | 2011-05-20 | Moving body position detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012242262A JP2012242262A (en) | 2012-12-10 |
JP5821275B2 true JP5821275B2 (en) | 2015-11-24 |
Family
ID=47464125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011113227A Active JP5821275B2 (en) | 2011-05-20 | 2011-05-20 | Moving body position detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5821275B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015155292A1 (en) * | 2014-04-09 | 2015-10-15 | Continental Teves Ag & Co. Ohg | Position correction of a vehicle by referencing to objects in the surroundings |
JP6354556B2 (en) * | 2014-12-10 | 2018-07-11 | 株式会社デンソー | POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, POSITION ESTIMATION PROGRAM |
JP6528641B2 (en) * | 2015-10-26 | 2019-06-12 | トヨタ自動車株式会社 | Self-position estimation method |
JP6654977B2 (en) * | 2016-07-04 | 2020-02-26 | 株式会社Soken | Own vehicle position specifying device and own vehicle position specifying method |
JP6616257B2 (en) * | 2016-07-13 | 2019-12-04 | 株式会社Soken | Position estimation device |
EP3516422A1 (en) * | 2016-09-29 | 2019-07-31 | The Charles Stark Draper Laboratory, Inc. | Autonomous vehicle: vehicle localization |
KR101866075B1 (en) | 2016-10-20 | 2018-06-08 | 현대자동차주식회사 | Apparatus and method for estmating lane |
KR101935512B1 (en) * | 2016-11-03 | 2019-04-03 | 현대자동차주식회사 | Vehicle and controlling method for the same |
US10101745B1 (en) | 2017-04-26 | 2018-10-16 | The Charles Stark Draper Laboratory, Inc. | Enhancing autonomous vehicle perception with off-vehicle collected data |
JP6859927B2 (en) | 2017-11-06 | 2021-04-14 | トヨタ自動車株式会社 | Vehicle position estimation device |
EP3517996B1 (en) * | 2018-01-25 | 2022-09-07 | Aptiv Technologies Limited | Method for determining the position of a vehicle |
CN111307163B (en) * | 2018-12-11 | 2022-07-22 | 北京地平线机器人技术研发有限公司 | Positioning method and positioning device of movable equipment and electronic equipment |
JP7336753B2 (en) * | 2018-12-28 | 2023-09-01 | パナソニックIpマネジメント株式会社 | Positioning device and moving body |
US11249184B2 (en) | 2019-05-07 | 2022-02-15 | The Charles Stark Draper Laboratory, Inc. | Autonomous collision avoidance through physical layer tracking |
JP2020190415A (en) * | 2019-05-17 | 2020-11-26 | アイシン・エィ・ダブリュ株式会社 | Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program |
-
2011
- 2011-05-20 JP JP2011113227A patent/JP5821275B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012242262A (en) | 2012-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5821275B2 (en) | Moving body position detection device | |
US9880558B2 (en) | Travel control device | |
US10551509B2 (en) | Methods and systems for vehicle localization | |
US10486593B2 (en) | In-vehicle alert apparatus | |
US10162363B1 (en) | Using obstacle clearance to measure precise lateral gap | |
US10124730B2 (en) | Vehicle lane boundary position | |
US9849878B2 (en) | System and method for providing a corrected lane following path through a curve for trailering vehicles | |
EP3470789A1 (en) | Autonomous driving support apparatus and method | |
US11313976B2 (en) | Host vehicle position estimation device | |
CN102975716B (en) | The system and method that override detects is turned to for the speed adaptive during automatization's track centering | |
KR101880013B1 (en) | Magnetic position estimating apparatus and magnetic position estimating method | |
US20210207977A1 (en) | Vehicle position estimation device, vehicle position estimation method, and computer-readable recording medium for storing computer program programmed to perform said method | |
US9129523B2 (en) | Method and system for obstacle detection for vehicles using planar sensor data | |
JP2018536572A (en) | Control system for steering means of motor-driven vehicles in a situation where collision with an obstacle is imminent | |
CN110867132B (en) | Environment sensing method, device, electronic equipment and computer readable storage medium | |
CN111066071A (en) | Position error correction method and position error correction device for driving assistance vehicle | |
JP2011191239A (en) | Mobile object position detecting device | |
JP5821276B2 (en) | Detection device for position and traveling direction of moving body | |
US10107631B2 (en) | Methods and systems for vehicle positioning feedback | |
KR20140104611A (en) | Apparatus for automatic parking of vehicle and method using the same | |
JP2010146177A (en) | Method for determining relative position of vehicle | |
GB2556427A (en) | Vehicle with environmental context analysis | |
JP2013052754A (en) | Parking support device | |
JP6834914B2 (en) | Object recognition device | |
EP3705385B1 (en) | Method and unit for autonomous parking of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140312 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150106 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150908 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150921 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5821275 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |