JP5821275B2 - Moving body position detection device - Google Patents

Moving body position detection device Download PDF

Info

Publication number
JP5821275B2
JP5821275B2 JP2011113227A JP2011113227A JP5821275B2 JP 5821275 B2 JP5821275 B2 JP 5821275B2 JP 2011113227 A JP2011113227 A JP 2011113227A JP 2011113227 A JP2011113227 A JP 2011113227A JP 5821275 B2 JP5821275 B2 JP 5821275B2
Authority
JP
Japan
Prior art keywords
moving body
moving
position detecting
current position
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011113227A
Other languages
Japanese (ja)
Other versions
JP2012242262A (en
Inventor
忍 加藤
忍 加藤
悟 松岡
悟 松岡
耕二 岩瀬
耕二 岩瀬
吉田 誠
吉田  誠
久美子 前橋
久美子 前橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2011113227A priority Critical patent/JP5821275B2/en
Publication of JP2012242262A publication Critical patent/JP2012242262A/en
Application granted granted Critical
Publication of JP5821275B2 publication Critical patent/JP5821275B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動体位置検出装置に関するものである。 The present invention relates to a moving body position detection device.

GPS(Global Positioning System)を用いたナビゲーションシステムにおいては、GPSの測位誤差等を考慮して、表示装置における地図上の道路上に自車両を表示するべく、特許文献1に示すように、走行軌跡と道路形状によりマップマッチングが行われている。 In a navigation system using a GPS (Global Positioning System), as shown in Patent Document 1, in order to display a host vehicle on a road on a map in a display device in consideration of a GPS positioning error, etc. Map matching is performed by road shape.

ところで、近時は、ナビゲーションシステムと移動体の走行制御等とを関連づけて移動体の運転支援を高める等のことが考えられており、このため移動体の位置情報に関してマップマッチングを行っている場合の誤差数m程度の精度では足りず、より高精度な位置情報が求められるようになっている。 By the way, recently, it has been considered that the navigation system and the traveling control of the moving body are associated with each other to improve driving support of the moving body. For this reason, map matching is performed on the position information of the moving body. However, the accuracy of the error number m is not sufficient, and more accurate position information is required.

特許文献2には、絶対位置が既知とされた外部の固定対象物に対する自己の相対位置を検出手段により検出して、その検出結果に基づいてGPS検出に基づく自己の位置を補正するものが提案されている。 Patent Document 2 proposes a method in which a detection unit detects a relative position of itself relative to an external fixed object whose absolute position is known, and corrects its position based on GPS detection based on the detection result. Has been.

特開平6−102052号公報Japanese Patent Laid-Open No. 6-102052 特開2007−218848号公報JP 2007-218848 A

ところで、移動体の位置情報は、移動体を上方から見た平面図上の位置つまり直交座標系によって示すことが一般的である。この一方、移動体としての例えば車両において、レーダやカメラによって道路周辺に存在する固定物までの距離と方位とを検出して、この固定物の地図データ上での位置情報に基づいて、車両の現在位置と方位を精度よく検出することが可能となる。 By the way, the position information of the moving body is generally indicated by a position on a plan view of the moving body as viewed from above, that is, an orthogonal coordinate system. On the other hand, in a vehicle as a moving body, for example, the distance and azimuth to a fixed object existing around the road are detected by a radar or a camera, and based on the position information on the map data of the fixed object, It is possible to accurately detect the current position and direction.

しかしながら、移動体としての例えば車両の進行方向が道路に対して左右方向にずれていると、つまり車両の向きと道路の方向とが相違していると、例えば車両の中心位置においての現在位置が同じであっても、道路周辺に存在する固定物(のある特定位置)までの距離および方位が相違してしまうことになる。このことは、車両の向きの相違に応じて、地図データを利用したマップマッチングによって得られる車両の現在位置に誤差を生じさせる原因となる。このため、現在位置をマップマッチングにより精度よく検出するには、直交座標系におけるX軸方向とY軸方向の誤差に加えて、進行方向の誤差をも勘案してマップマッチングを行わなければならず、その演算処理が制御系の大きな負担となる。 However, if the traveling direction of the vehicle as the moving body is shifted in the left-right direction with respect to the road, that is, if the direction of the vehicle and the direction of the road are different, for example, the current position at the center position of the vehicle is Even if they are the same, the distance and direction to a fixed object (a specific position) around the road will be different. This causes an error in the current position of the vehicle obtained by map matching using map data in accordance with the difference in vehicle orientation. Therefore, in order to accurately detect the current position by map matching, map matching must be performed in consideration of errors in the traveling direction in addition to errors in the X-axis direction and the Y-axis direction in the orthogonal coordinate system. The calculation process is a heavy burden on the control system.

本発明は以上のような事情を勘案してなされたもので、その目的は、マップマッチングによる移動体の現在位置の測位を、車両の進行方向を加味しつつ簡便かつ精度よく行えるようにした移動体位置検出装置を提供することにある。 The present invention has been made in view of the above circumstances, and its purpose is to make it possible to easily and accurately determine the current position of a moving body by map matching while taking the traveling direction of the vehicle into account. The object is to provide a body position detecting device.

前記目的を達成するため、本発明にあっては次のような解決手法を採択してある。すなわち、特許請求の範囲における請求項1に記載のように、
移動体に周囲の物体を検出する物体検出手段が設けられ、
固定物の位置情報を含む3次元の地図データと前記物体検出手段で検出された検出データとをマッチングさせることにより移動体の現在位置の測位を行う移動体位置検出装置であって、
移動体の現在位置の測位に先立って、前記物体検出手段によって検出される道路周辺の所定の固定物の検出データと地図データとをマッチングさせることにより移動体の進行方向の補正を行ない、
補正された後の移動体の進行方向に基づいて、移動体の現在位置の測位のためのマッチングが行われる、
ようにしてある。上記解決手法によれば、あらかじめ移動体の進行方向の補正が行われるので、その後の現在位置の測位のためのマップマッチングの処理を簡単にかつ精度よく行うことができる。
In order to achieve the above object, the following solution is adopted in the present invention. That is, as described in claim 1 in the claims,
Object detection means for detecting surrounding objects on the moving body is provided,
A moving body position detecting device that measures the current position of a moving body by matching three-dimensional map data including position information of a fixed object with detection data detected by the object detection means,
Prior to positioning of the current position of the moving body, the traveling direction of the moving body is corrected by matching the detection data of a predetermined fixed object around the road detected by the object detection means and map data,
Based on the traveling direction of the mobile object after correction, matching for positioning of the current position of the mobile object is performed.
It is like that. According to the above solution, since the moving direction of the moving body is corrected in advance, map matching processing for subsequent positioning of the current position can be performed easily and accurately.

上記解決手法を前提とした好ましい態様は、特許請求の範囲における請求項2以下に記載のとおりである。すなわち、
前記移動体の進行方向の補正が、あらかじめ設定された所定条件を満足したことを条件として行われる、ようにしてある(請求項2対応)。この場合、極力不必要に進行方向の補正を行なわないようにして、制御系の負担を軽減する上で好ましいものとなる。
A preferred mode based on the above solution is as described in claim 2 and the following claims. That is,
The correction of the moving direction of the moving body is performed on condition that a predetermined condition set in advance is satisfied (corresponding to claim 2). In this case, it is preferable to reduce the load on the control system by correcting the traveling direction unnecessarily as much as possible.

前記移動体の進行方向の補正が、所定エリアにおける地図データの線分方向と検出データの線分方向とを対比させて行われる、ようにしてある(請求項3対応)。この場合、線分部分、つまり例えばガードレール等の長く伸びる部分を対比させるので、進行方向の補正そのものを精度よく行って、現在位置の測位も精度よく行うことができる。   The traveling direction of the moving body is corrected by comparing the line segment direction of the map data and the line segment direction of the detection data in a predetermined area (corresponding to claim 3). In this case, since the line segment part, that is, a part extending long, such as a guard rail, is compared, the correction of the traveling direction itself can be performed with high accuracy, and the current position can be determined with high accuracy.

前記所定エリアが移動体の前方領域とされている、ようにしてある(請求項4対応)。この場合、レーダやカメラ等によって移動体の前方領域にある物体(特に障害物)を検出することが一般的に行われているので、この前方領域にある物体を検出する検出手段を有効に利用して、進行方向の補正を行うことができる。   The predetermined area is a front area of the moving body (corresponding to claim 4). In this case, since it is common to detect objects (especially obstacles) in the front area of the moving body with a radar or a camera, the detection means for detecting the objects in the front area is effectively used. Thus, the traveling direction can be corrected.

前記所定エリアが、前回現在位置の測位に用いた地図データのエリアとされ、
前回現在位置測位のためにマッチングしたデータを用いて、移動体の進行方向の補正ためのマッチングが行われる、
ようにしてある(請求項5対応)。この場合、用いるデータ量を極力少なくしつつ進行方向の補正を精度よく行うことができる。
The predetermined area is an area of map data used for positioning the current position last time,
Matching is performed to correct the traveling direction of the moving object using the data matched for the previous current position measurement.
(Corresponding to claim 5). In this case, it is possible to accurately correct the traveling direction while minimizing the amount of data used.

移動体の進行方向の補正を行うための前記所定の固定物が、移動体が移動している道路レーンと平行な平行物とされている、ようにしてある(請求項6対応)。この場合、進行方向の補正を精度よく行うことができ、かつ、道路に沿って平行な固定物が多く存在するので、進行方向の補正を行う機会を極力多く確保する上でも好ましいものとなる。   The predetermined fixed object for correcting the traveling direction of the moving body is a parallel object parallel to the road lane on which the moving body is moving (corresponding to claim 6). In this case, the traveling direction can be accurately corrected, and there are many fixed objects parallel to the road, which is preferable in securing as many opportunities for correcting the traveling direction as possible.

前記平行物のうち、前記物体検出手段によって該平行物までの距離と方位とが検出可能な範囲内のものが前記進行方向の補正に用いる、ようにしてある(請求項7対応)。この場合、平行物のうちある長さ範囲に限定された状態で距離と方位とを検出するので、つまり平行物を無限延長したようなデータを利用しないので、進行方向の補正のための処理が簡便となり、しかもカーブを移動しているようなときでも平行物を利用した進行方向の補正を行うことが可能となる。   Among the parallel objects, those within the range in which the distance and direction to the parallel object can be detected by the object detection means are used for correcting the traveling direction (corresponding to claim 7). In this case, since the distance and direction are detected in a state limited to a certain length range among the parallel objects, that is, data such as infinite extension of the parallel object is not used, so the process for correcting the traveling direction is not performed. It becomes simple, and it is possible to correct the traveling direction using a parallel object even when moving along a curve.

前記平行物を用いて、移動体の現在位置の測位のためのマッチングが行われる、ようにしてある(請求項8対応)。この場合、道路に沿って平行な固定物が多く存在するので、現在位置の測位を行う機会を極力多く確保する上で好ましいものとなる。   Matching for positioning of the current position of the moving object is performed using the parallel object (corresponding to claim 8). In this case, since there are many fixed objects along the road, it is preferable to secure as many opportunities as possible to determine the current position.

同一の前記検出データを用いて、移動体の現在位置の測位と移動体の進行方向の補正とが行われる、ようにしてある(請求項9対応)。この場合、用いるデータ量を極力少なくして制御系の負担を軽減しつつ、進行方向の補正に用いられたデータを用いて現在位置の測位が行われるので、現在位置の測位をより精度よく行う上でも好ましいものとなる。   Using the same detection data, positioning of the current position of the moving body and correction of the traveling direction of the moving body are performed (corresponding to claim 9). In this case, the current position is measured using the data used for the correction of the traveling direction while reducing the burden on the control system by reducing the amount of data to be used as much as possible. This is also preferable.

前記固定物が、ガードレール、車線を区画する車線ライン、建物のうち少なくとも1つとされている、ようにしてある(請求項10対応)。この場合、道路に沿って多く存在する車線ライン、ガードレール、建物を有効に利用して、進行方向の補正やこれに引き続く現在位置の測位を行う機会を増大させる上で好ましいものとなる。   The fixed object is at least one of a guard rail, a lane line that divides a lane, and a building (corresponding to claim 10). In this case, it is preferable to effectively use the lane lines, guardrails, and buildings existing along the road to increase the opportunity to correct the traveling direction and subsequently determine the current position.

前記移動体が自動車とされている、ようにしてある(請求項11対応)。この場合、GPSの利用度が極めて高くしかも衝突回避等の安全が要求される自動車について、現在位置を精度よく測位して、種々の運転支援等の上で好ましいものとなる。   The mobile body is an automobile (corresponding to claim 11). In this case, it is preferable for various driving support and the like to accurately measure the current position of an automobile that has extremely high GPS utilization and requires safety such as collision avoidance.

本発明によれば、マップマッチングによる移動体の現在位置の測位を簡便かつ精度よく行なうことができる。 ADVANTAGE OF THE INVENTION According to this invention, positioning of the present position of the moving body by map matching can be performed simply and accurately.

本発明が適用された車両の簡略平面図。1 is a simplified plan view of a vehicle to which the present invention is applied. 本発明の制御系統例をブロック図的に示す図。The figure which shows the example of a control system of this invention in a block diagram. 車両が走行している道路の周辺にある固定物の例を示す平面図。The top view which shows the example of the fixed object in the periphery of the road where the vehicle is drive | working. 図3に対応した固定物を車両に搭載した物体検出センサによって検出した検出データの一例を示す図。The figure which shows an example of the detection data detected by the object detection sensor which mounted the fixed object corresponding to FIG. 図3に対応した固定物の地図データ上での状態を示す図。The figure which shows the state on the map data of the fixed object corresponding to FIG. 車両の進行方向のずれによって、マップマッチングに誤差を与えている状態をAn error is given to map matching due to a deviation in the direction of travel of the vehicle. 車両の進行方向のずれが補正されて、マップマッチングが精度よく行われれちる状態を示す図。The figure which shows the state by which the shift | offset | difference of the advancing direction of a vehicle is correct | amended and map matching will be performed accurately. 道路に沿って平行に伸びる固定物を利用して車両の進行方向のずれ補正を説明するための平面図。The top view for demonstrating the deviation correction of the advancing direction of a vehicle using the fixed object extended in parallel along a road. 本発明の制御例を示すフローチャート。The flowchart which shows the example of control of this invention. 本発明の制御例を示すフローチャート。The flowchart which shows the example of control of this invention. マップマッチングの一例を示す図。The figure which shows an example of map matching.

図1において、Vは、移動体としての車両(実施形態では自動車)である。車両Vは、左右4隅にそれぞれ、レーダ(例えばレーザレーダ)あるいはカメラの少なくとも一方からなる物体検出センサ1が装備されている。前2個の物体検出センサ1は、車両前部側方から前方に渡って周囲の物体の方位と相対距離を検出するものであり、後ろ2個の物体検出センサ1は車両の後部側方から後方に渡って物体の方位と距離を検出するものである。車両Vは、前後左右の車輪の速度を検出する車輪速センサ2を装備している。各車輪速センサ2で検出された車輪速の平均値が車速とされる。車両Vは、ナビゲーション装置を有しており、ナビゲーション装のGPS(GPSセンサ)が符号3で示され、地図データベースが符号4で示され、表示画面が符号5で示される。コントローラUによる制御によって、表示画面5に表示された地図上に、GPS3で検出された車両Vの現在位置が表示される。車両Vはさらに、ジャイロ6,舵角センサ7を有する。 In FIG. 1, V is a vehicle (automobile in the embodiment) as a moving body. The vehicle V is equipped with object detection sensors 1 composed of at least one of a radar (for example, a laser radar) or a camera at each of the four left and right corners. The two front object detection sensors 1 detect the azimuth and relative distance of surrounding objects from the front side of the vehicle to the front, and the two rear object detection sensors 1 from the rear side of the vehicle. This is to detect the azimuth and distance of the object across the back. The vehicle V is equipped with a wheel speed sensor 2 that detects the speeds of front, rear, left and right wheels. The average value of the wheel speeds detected by each wheel speed sensor 2 is the vehicle speed. The vehicle V has a navigation device, the GPS (GPS sensor) of the navigation device is indicated by reference numeral 3, the map database is indicated by reference numeral 4, and the display screen is indicated by reference numeral 5. Under the control of the controller U, the current position of the vehicle V detected by the GPS 3 is displayed on the map displayed on the display screen 5. The vehicle V further includes a gyro 6 and a steering angle sensor 7.

車両Vは、マイクロコンピュータを利用して構成されたコントローラ(制御ユニット)Uを有する。コントローラUは、後述するように、車両Vの現在位置と進行方向とを精度よくマップマッチングする機能と、衝突回避のための運転支援等の制御を行う。このため、コントローラUには、図2に示すように、前述の各種センサ等1〜7からの信号が入力される一方、表示画面5、警報装置8,車両制御装置9を制御するようになっている。コントローラUは、表示画面5に対して、車両Vの現在位置を表示する制御を行う。物体検出センサ1で検出された物体が車両Vに接触する可能性があると判断したときに、警報装置8を作動させて、例えば音声によって運転者に警報を行う。また、コントローラUは、物体検出センサ1によって、警報装置8が作動するよりもより近い距離にある物体を検出して衝突の危険性が極めて高いと判断したときに、車両制御装置9を作動させて、例えば自動操舵を行ったり自動ブレーキを行う等によって、衝突を回避する制御を行うようになっている。 The vehicle V has a controller (control unit) U configured using a microcomputer. As will be described later, the controller U performs a function of accurately performing map matching between the current position and the traveling direction of the vehicle V and control such as driving support for collision avoidance. Therefore, as shown in FIG. 2, the controller U receives signals from the above-described various sensors 1 to 7 and controls the display screen 5, the alarm device 8, and the vehicle control device 9. ing. The controller U performs control to display the current position of the vehicle V on the display screen 5. When it is determined that there is a possibility that an object detected by the object detection sensor 1 may come into contact with the vehicle V, the alarm device 8 is activated to alert the driver by voice, for example. Further, the controller U activates the vehicle control device 9 when the object detection sensor 1 detects an object at a closer distance than the alarm device 8 is activated and determines that the risk of collision is extremely high. Thus, for example, control for avoiding a collision is performed by performing automatic steering or automatic braking.

また、コントローラUは、車車間通信によって、車両Vの現在位置と進行方向とを前方付近に存在する他車両に知らせて、他車両との衝突等を未然に防止するようになっている。さらに、コントローラUは、車両Vが車線を逸脱して危険である場合に、自動操舵を行って車線逸脱を防止するようになっている。コントローラUは、この他、例えば車両Vと、停止線位置、交差点位置、死角域のガードレールとの距離に応じて車両Vについての適正な制御を行う。なお、車両Vの位置に応じたコントローラUによる各種の制御は種々想定されるが、位置検出そのものとは直接関係ないので、これ以上の説明は省略する。 Further, the controller U notifies the other vehicle existing near the front of the current position and the traveling direction of the vehicle V through inter-vehicle communication, thereby preventing a collision with the other vehicle. Further, when the vehicle V departs from the lane and is dangerous, the controller U performs automatic steering to prevent the lane departure. In addition, the controller U performs appropriate control on the vehicle V in accordance with, for example, the distance between the vehicle V and the stop line position, the intersection position, and the guard rail in the blind spot area. Although various types of control by the controller U according to the position of the vehicle V are assumed, since it is not directly related to the position detection itself, further explanation is omitted.

車両Vの現在位置と進行方向とを精度よく検出するために、次のような制御が行われる。まず、車両Vの現在位置は、車両Vを上方から見た平面図上、つまり例えば前後方向をX軸、左右方向をY軸とする直交座標系で示される。また、車両Vの進行方向は、車両Vの左右方向(ヨー方向)となるものであって、例えば直交座標系における1次直線の傾きとして示すことができる。 In order to accurately detect the current position and the traveling direction of the vehicle V, the following control is performed. First, the current position of the vehicle V is indicated on a plan view when the vehicle V is viewed from above, that is, for example, in an orthogonal coordinate system having the front-rear direction as the X axis and the left-right direction as the Y axis. Further, the traveling direction of the vehicle V is the left-right direction (yaw direction) of the vehicle V, and can be represented as, for example, the slope of a linear line in an orthogonal coordinate system.

地図データベース4には、三次元地図データとしてのボクセルデータが記憶されている。表示画面5上に表示される地図は、実際の地形を上方から見た平面図であり、地図上の各位置は実際の地形に応じて精度よく設定されている。また、ボクセルデータは、三次元空間を例えば一辺50cmの立方体に分割したものであり、この分割された多数のボクセルには、ボクセルの中心位置の位置座や、ボクセル内に含まれる物体(固定地物)、例えば電柱、ガードレール、建物、電源ボックス、道路の車線等の正確な位置情報が位置データとして含まれる。なお、以下の説明では、三次元地図データを単に地図データと称する。そして、車両Vの位置決定等のために用いられる地図データ中の位置情報は、物体検出センサ1でのセンシング平面と同じ高さ位置でのデータが用いられることになる。 The map database 4 stores voxel data as 3D map data. The map displayed on the display screen 5 is a plan view of the actual terrain viewed from above, and each position on the map is accurately set according to the actual terrain. The voxel data is obtained by dividing a three-dimensional space into, for example, a cube having a side of 50 cm, and the divided voxels include the position of the center position of the voxel and the object (fixed ground) included in the voxel. Object), for example, accurate position information such as utility poles, guardrails, buildings, power supply boxes, road lanes, etc. is included as position data. In the following description, the three-dimensional map data is simply referred to as map data. As the position information in the map data used for determining the position of the vehicle V, data at the same height position as the sensing plane of the object detection sensor 1 is used.

図3は、車両Vの周囲にある実際の固定物の一例が示される。この図3中、11はガードレール、12は建物、13は塀、14は建物である。また、車両Vが走行している道路の車線のうち、中央車線が符号21で示され、左右の側方車線が符号22,23で示される。また、中央車線21と側方車線22の間の走行レーンが符号24で示され、中央車線21と側方車線23の間の走行レーンが符号25で示される。そして、車両Vは、走行レーン24を走行している状態が示される。なお、物体検出センサ1は、各車線21、22、23や、走行レーン24、25をも検出可能であり、各車線21〜23は、ガードレール11等と同様に、物体検出センサ1での検出対象となる固定物(地物)とされる。なお、以下の説明では、符号11〜14あるいは21〜23を固定物として総称する場合がある。 FIG. 3 shows an example of an actual fixed object around the vehicle V. In FIG. 3, 11 is a guardrail, 12 is a building, 13 is a fence, and 14 is a building. Of the lanes on the road on which the vehicle V is traveling, the central lane is indicated by reference numeral 21, and the left and right side lanes are indicated by reference numerals 22 and 23. In addition, a travel lane between the central lane 21 and the side lane 22 is denoted by reference numeral 24, and a travel lane between the central lane 21 and the side lane 23 is denoted by reference numeral 25. A state in which the vehicle V is traveling on the traveling lane 24 is shown. The object detection sensor 1 can also detect the lanes 21, 22, and 23 and the traveling lanes 24 and 25. The lanes 21 to 23 are detected by the object detection sensor 1 in the same manner as the guardrail 11 and the like. It is considered as a fixed object (feature). In the following description, reference numerals 11 to 14 or 21 to 23 may be collectively referred to as fixed objects.

図4は、図3の状態において、固定物11〜14について物体検出センサ1が検出したときの検出データが示される。この検出データにおいては、各固定物11〜14は、道路に面した部分の形状として把握される。この図4において、固定物11〜14に対応したデータ部分が、「A」の符号を付して示される。すなわち、例えばガードレール11に対応したデータが符号11Aで示される。 FIG. 4 shows detection data when the object detection sensor 1 detects the fixed objects 11 to 14 in the state of FIG. In this detection data, each fixed object 11-14 is grasped | ascertained as the shape of the part which faced the road. In FIG. 4, the data portion corresponding to the fixed objects 11 to 14 is shown with the symbol “A”. That is, for example, data corresponding to the guard rail 11 is indicated by reference numeral 11A.

図5は、図4に対応した所定エリアでのセンシング平面と同じ高さの地図データを示す。この図5において、四角形の1つ1つのマス目は、ボクセルである。この図5において、固定物11〜14に対応したデータ部分が、「B」の符号を付して示される。すなわち、例えばガードレール11に対応したデータが符号11Bで示される。 FIG. 5 shows map data having the same height as the sensing plane in a predetermined area corresponding to FIG. In FIG. 5, each square cell is a voxel. In FIG. 5, data portions corresponding to the fixed objects 11 to 14 are shown with a symbol “B”. That is, for example, data corresponding to the guard rail 11 is indicated by reference numeral 11B.

図4での直交座標系の方向と図5での直交座標系の方向とが一致しているときは、図7に示すように、図4の検出データ上の固定物11A〜14Aと図5の地図データ上の固定物11B〜14Bとが完全に一致させることが可能となる。すなわち、11Aと11Bとが一致する等、全ての固定物のデータ同士を一致させることができる。 When the direction of the orthogonal coordinate system in FIG. 4 and the direction of the orthogonal coordinate system in FIG. 5 coincide with each other, as shown in FIG. 7, the fixed objects 11A to 14A on the detection data in FIG. It is possible to completely match the fixed objects 11B to 14B on the map data. That is, the data of all the fixed objects can be matched such that 11A and 11B match.

一方、図4での直交座標系の方向と図5での直交座標系の方向とが一致していないときは、図6に示すように、一部の固定物のデータ同士は一致可能であっても、データ同士が一致されない固定物も存在することになる。特に、車両Vの遠方にある固定物14Aと14Bとが一致しないことになる。このため、従来は、直交座標系におけるX軸方向のずれと、Y軸方向のずれと、検出データと地図データとの間での直交座標系の向きのずれ(つまり車両Vの進行方向のずれ)との3つのずれ要素を考慮して、マップマッチングさせる必要があり、その演算量が膨大となって、制御系の大きな負担となっていた。 On the other hand, when the direction of the orthogonal coordinate system in FIG. 4 and the direction of the orthogonal coordinate system in FIG. 5 do not match, as shown in FIG. 6, the data of some fixed objects can be matched. However, there are fixed objects in which the data are not matched. In particular, the fixed objects 14A and 14B far from the vehicle V do not match. For this reason, conventionally, a deviation in the X-axis direction, a deviation in the Y-axis direction, and a deviation in the direction of the orthogonal coordinate system between the detection data and the map data (that is, a deviation in the traveling direction of the vehicle V). )) In consideration of the three shift elements, and the amount of calculation is enormous, which places a heavy burden on the control system.

次に、図8を参照しつつ、車両Vの進行方向のずれ補正の点について説明する。まず、図8において、符号21〜25は、図3で示すのと同様の車線あるいは走行レーンを示す。そして、走行レーン24の中心線が符号24aで示され、走行レーン25の中心線が符号25aで示される。また、道路の周辺に位置すると共に道路と平行な固定物として、ガードレール31,32と建物33とが示される。そして、このガードレール31,32,建物33のうち、道路に臨む側でかつ道路と平行な面にハッチングが付されている。 Next, with reference to FIG. 8, the point of deviation correction in the traveling direction of the vehicle V will be described. First, in FIG. 8, reference numerals 21 to 25 denote lanes or traveling lanes similar to those shown in FIG. 3. The center line of the travel lane 24 is denoted by reference numeral 24a, and the center line of the travel lane 25 is denoted by reference numeral 25a. Further, guardrails 31 and 32 and a building 33 are shown as fixed objects that are located around the road and parallel to the road. Of the guardrails 31 and 32 and the building 33, the side facing the road and parallel to the road is hatched.

図8では、車両Vは、走行レーン24の中心線24aに対して、右方向に角度δだけずれた状態となっている。ここで、ガードレール31,32,建物33が道路と平行であることは、例えば地図データを参照することにより、あるいは検出データから例えば側方車線22とガードレール31,32や建物33との間の位置関係をみることにより知ることができる。したがって、物体検出センサ1によって平行な固定物を検出したときの検出データから、車両Vが走行レーン24の中心線24aとなす角度δおよび車両Vと平行固定物との間の距離Lを知ることができる。 In FIG. 8, the vehicle V is in a state shifted by an angle δ in the right direction with respect to the center line 24 a of the travel lane 24. Here, the fact that the guardrails 31 and 32 and the building 33 are parallel to the road is, for example, a position between the side lane 22 and the guardrails 31 and 32 or the building 33 by referring to the map data or from the detection data. You can find out by looking at the relationship. Therefore, the angle δ formed by the vehicle V with the center line 24a of the traveling lane 24 and the distance L between the vehicle V and the parallel fixed object are known from the detection data obtained when the object detection sensor 1 detects the parallel fixed object. Can do.

平行固定物31〜33の位置および方位は地図データによって精度よく設定されていることから、車両Vの平行固定物31〜33からの離間距離Lと中心線24aに対してなす角度δとから、車両Vの進行方向(絶対的な方位)を精度よく知ることができる。このようにして、車両Vの進行方向の補正(進行方向の絶対的な方位の決定)が行われる。 Since the positions and orientations of the parallel fixed objects 31 to 33 are accurately set by the map data, the distance L from the parallel fixed objects 31 to 33 of the vehicle V and the angle δ formed with respect to the center line 24a, The traveling direction (absolute direction) of the vehicle V can be known with high accuracy. In this way, correction of the traveling direction of the vehicle V (determination of the absolute direction of the traveling direction) is performed.

ここで、位置ずれと方位ずれの両方を含む場合に、そのずれ量を演算する手法例について説明する。まず、地図データ上での固定物体の位置を(xi,yi)とし、検出データ上での固定物体の位置を(ui、vi)とし、位置ずれをqx、qyとし、方位のずれをθとすると、数1が成立する。そして、n個のデータを使用すると、数2が成立する。 Here, a description will be given of an example of a technique for calculating the amount of deviation when both positional deviation and azimuth deviation are included. First, the position of the fixed object on the map data is (xi, yi), the position of the fixed object on the detection data is (ui, vi), the position deviation is qx, qy, and the direction deviation is θ. Then, Formula 1 is materialized. When n pieces of data are used, Equation 2 is established.

Figure 0005821275
Figure 0005821275

Figure 0005821275
Figure 0005821275

数2に示す方程式群は、数3の行列として置くことができる。 The equation group shown in Equation 2 can be placed as a matrix of Equation 3.

Figure 0005821275
Figure 0005821275

ここで、Aの転置行列をAt としたときに、数4を解いて、qx、qy、θを求める。そして、求められたqx、qy、θが所定値以下の場合(ずれが小さい場合に)に、精度が十分とされる。なお、数4中の「AtA」、「AtY」を展開すると、数5になる。 Here, when A is a transposed matrix of A, Equation 4 is solved to obtain qx, qy, and θ. Then, when the obtained qx, qy, and θ are equal to or smaller than a predetermined value (when the deviation is small), the accuracy is sufficient. When “AtA” and “AtY” in Expression 4 are expanded, Expression 5 is obtained.

Figure 0005821275
Figure 0005821275

Figure 0005821275
Figure 0005821275

上述のように、方位ずれθを加味したずれ量の決定には、演算量が多くなり、制御系の大きな負担となる。しかしながら、前述のように、あらかじめ方位ずれが補正されて精度よいものに決定されていれば、前述した演算において方位ずれθを既知の一定値とみなして行えばよく、位置ずれを補正すること、つまりマップマッチングによる車両Vの現在位置の測位が簡便かつ精度よく行うことができる。 As described above, the amount of calculation increases in determining the amount of deviation in consideration of the azimuth deviation θ, which is a heavy burden on the control system. However, as described above, if the azimuth deviation is corrected in advance and determined to be accurate, the azimuth deviation θ may be regarded as a known constant value in the above-described calculation, and the positional deviation is corrected. That is, positioning of the current position of the vehicle V by map matching can be performed easily and accurately.

また、方位ずれが補正された後の状態において、地図データの直交座標系と検出データの直交座標系とをマッチングさせる際に、次のような手法で行うこともできる。すなわち、図11において、黒塗り部分が、地図データと検出データとの比較対象される固定物体(の部分)であり、四角形の枠体が要求位置精度に対応したメッシュ(升目)である(例えば10cm四方)。なお、図11では、抽出された特徴部分(領域)としては、特に、道路に沿って直線状に長く伸びる(例えば5m〜10m)固定物(例えば建物やガードレール)を含むようにするのが好ましく、線分としての直線状であれば建物やガードレールの一部であってもよい。 Further, when the cartesian coordinate system of the map data and the cartesian coordinate system of the detection data are matched in the state after the azimuth deviation is corrected, the following method can be used. That is, in FIG. 11, a black portion is a fixed object (portion) to be compared between map data and detection data, and a rectangular frame is a mesh (mesh) corresponding to the required position accuracy (for example, 10cm square). In FIG. 11, it is preferable that the extracted feature portion (region) includes a fixed object (for example, a building or a guardrail) that extends in a straight line along the road (for example, 5 m to 10 m). If it is a straight line as a line segment, it may be a part of a building or a guardrail.

地図データと検出データとの抽出された各特徴部分同士を、例えば地図データ上の特徴部分を固定しつつ、検出データ上の特徴部分をX軸方向およびY軸方向に1メッシュづつ移動させて、その一致度合が判定される。すなわち、地図データ上の抽出特徴部分に対して、検出データ上の抽出特徴部分をX軸方向およびY軸方向に1メッシュ移動させる毎に、その一致度合をみて、最終的に、もっとも一致度合が高い状態が、地図データと検出データとの直交座標系での位置ずれ量となる。このような手法によって、地図データと検出データとの位置ずれ量を簡便に知ることができる。この位置ずれ量に基づいて、地図データ上の車両Vの位置を補正することによって、直交座標系における車両Vの絶対位置が精度よく測位されることになる。 For example, while fixing the feature portions on the map data, the feature portions on the detection data are moved one mesh at a time in the X-axis direction and the Y-axis direction. The degree of coincidence is determined. That is, each time the extracted feature part on the map data is moved by one mesh in the X-axis direction and the Y-axis direction with respect to the extracted feature part on the map data, the degree of coincidence is finally seen. A high state is a positional deviation amount in the orthogonal coordinate system between the map data and the detection data. By such a method, it is possible to easily know the amount of positional deviation between the map data and the detection data. By correcting the position of the vehicle V on the map data based on the amount of positional deviation, the absolute position of the vehicle V in the Cartesian coordinate system is accurately measured.

次に、コントローラUの詳細な制御内容について、図9,図10のフローチャートを参照しつつ説明する。なお、以下の説明でQはステップを示す。まず、図9のQ1において、図2に示す各種センサ等からの信号が入力される。この後、Q2において、GPS3での検出結果に基づいて、車両Vの暫定の現在位置が決定されると共に、この暫定現在位置の道路情報が地図データ4から読み込まれる。 Next, detailed control contents of the controller U will be described with reference to the flowcharts of FIGS. In the following description, Q indicates a step. First, in Q1 of FIG. 9, signals from various sensors shown in FIG. 2 are input. Thereafter, in Q 2, the provisional current position of the vehicle V is determined based on the detection result in the GPS 3, and the road information of the provisional current position is read from the map data 4.

Q2の後、Q3において、物体検出センサ1の検出範囲内で、車両Vの周辺の所定エリア(例えば車両Vを中心とする25m四方)が設定される。この後、Q4において、物体検出センサ1での検出結果に基づいて、周辺エリア内における検出データ(図4に示すようなセンサ地図データ)が作成される。 After Q2, in Q3, a predetermined area around the vehicle V (for example, 25 m square centered on the vehicle V) is set within the detection range of the object detection sensor 1. Thereafter, in Q4, based on the detection result of the object detection sensor 1, detection data (sensor map data as shown in FIG. 4) in the peripheral area is created.

Q4の後、Q5において、方向判定を行なう必要があるか否か、つまり車両Vの進行方向の補正が必要なときであるか否かが判別される。実施形態では、方向判定する必要がある場合の所定条件が、次のように設定されている。すなわち、(1)エンジン始動後でGPSデータの取得時、(2)所定距離走行したとき(速度×時間が所定値に達したとき)、(3)操舵角度が所定角度以上のとき、(4)左右の車輪速の差が所定値以上のとき、(5)ウインカが作動されたとき、(6)地図データに記憶された所定の特徴点(道路に平行な固定物が存在するとき)に位置したとき、とされている。 After Q4, in Q5, it is determined whether or not it is necessary to determine the direction, that is, whether or not it is necessary to correct the traveling direction of the vehicle V. In the embodiment, the predetermined condition when the direction needs to be determined is set as follows. That is, (1) when GPS data is acquired after engine startup, (2) when traveling a predetermined distance (when speed x time reaches a predetermined value), (3) when the steering angle is equal to or greater than a predetermined angle, (4 ) When the difference between the left and right wheel speed is greater than or equal to the predetermined value, (5) When the blinker is activated, (6) When the predetermined feature point stored in the map data (when there is a fixed object parallel to the road) When it is located.

上記Q5の判別でYESのときは、Q6において、後述するように、方向判定が実行される。Q6の後、あるいはQ5の判別でNOのときは、Q7において、方向判定された結果に基づいて(進行方向の補正が行われた状態で)、車両Vの現在位置の算出が行われる。Q7の後、Q8において、現在位置の算出が可能であったか否かが判別される。このQ8の判別でYESのときは、Q9において、Q7で算出された現在位置が、最終的な現在位置として決定される。また、Q8の判別でNOのときは、Q9を経ることなくリターンされる。なお、Q8の判別でNOのときは、現在位置として、Q2での暫定現在位置をそのまま用いたり、あるいは前回決定された現在位置と車速と舵角とヨーレートに基づいて現在位置を推定する等のことが行われる。 When the determination in Q5 is YES, a direction determination is executed in Q6, as will be described later. After Q6 or when NO is determined in Q5, the current position of the vehicle V is calculated based on the result of the direction determination in Q7 (with the traveling direction corrected). After Q7, it is determined in Q8 whether the current position can be calculated. If the determination in Q8 is YES, in Q9, the current position calculated in Q7 is determined as the final current position. If NO in Q8, the process returns without passing through Q9. If NO in Q8, the temporary current position in Q2 is used as it is as the current position, or the current position is estimated based on the previously determined current position, vehicle speed, steering angle, and yaw rate. Is done.

図6のQ6の詳細が図10に示される。すなわち、まずQ21において、道路レーンと平行な固定物が抽出される。この後、Q22において、抽出された平行な固定物に対する角度と距離が算出される。この後、Q23において、Q22で算出された角度と距離とを用いて、検出データの方向補正が行われる。Q23の処理は、つまるところ、図6の向きアンマッチングを図7の向きマッチング状態にすることになる。 Details of Q6 in FIG. 6 are shown in FIG. That is, first, in Q21, a fixed object parallel to the road lane is extracted. Thereafter, in Q22, an angle and a distance with respect to the extracted parallel fixed object are calculated. Thereafter, in Q23, the direction of the detection data is corrected using the angle and distance calculated in Q22. After all, the process of Q23 is to change the orientation unmatching in FIG. 6 into the orientation matching state in FIG.

以上実施形態について説明したが、本発明は、実施形態に限定されるものではなく、特許請求の範囲の記載された範囲において適宜の変更が可能であり、例えば次のような場合をも含むものである。移動体としては、自動車、二輪車等の車両や、歩行者等、道路を移動する任意のものを含むものである。検出データで切り出す所定エリアを、前回の現在位置の測位に用いた地図データのエリアとして、前回現在位置の測位のためにマッチングしたデータを用いて移動体の進行方向の補正のためのマッチングを行うのが、使用するデータ量の軽減する等の上で好ましいものとなる。車両Vの後方にある固定物を検出データとして用いるようにしてもよい。勿論、本発明の目的は、明記されたものに限らず、実質的に好ましいあるいは利点として表現されたものを提供することをも暗黙的に含むものである。 Although the embodiment has been described above, the present invention is not limited to the embodiment, and can be appropriately changed within the scope described in the scope of claims. For example, the invention includes the following cases. . Examples of the moving object include vehicles such as automobiles and two-wheeled vehicles, and pedestrians that move arbitrarily on the road. The predetermined area cut out from the detection data is used as the map data area used for positioning the previous current position, and matching for correcting the moving direction of the moving object is performed using data matched for positioning the previous current position. This is preferable for reducing the amount of data to be used. A fixed object behind the vehicle V may be used as detection data. Of course, the object of the present invention is not limited to what is explicitly stated, but also implicitly includes providing what is substantially preferred or expressed as an advantage.

本発明によれば、車両等の現在位置の測位を簡便に精度よく行う上で好ましいものとなる。 According to the present invention, it is preferable to easily and accurately determine the current position of a vehicle or the like.

V:車両
U:コントローラ
1:物体検出センサ
2:車輪速センサ
3:GPS
4:地図データ
5:表示画面
6:ジャイロ
7:舵角センサ
V: Vehicle U: Controller 1: Object detection sensor 2: Wheel speed sensor 3: GPS
4: Map data 5: Display screen 6: Gyro 7: Rudder angle sensor

Claims (11)

移動体に周囲の物体を検出する物体検出手段が設けられ、
固定物の位置情報を含む3次元の地図データと前記物体検出手段で検出された検出データとをマッチングさせることにより移動体の現在位置の測位を行う移動体位置検出装置であって、
移動体の現在位置の測位に先立って、前記物体検出手段によって検出される道路周辺の所定の固定物の検出データと地図データとをマッチングさせることにより移動体の進行方向の補正を行ない、
補正された後の移動体の進行方向に基づいて、移動体の現在位置の測位のためのマッチングが行われる、
ことを特徴とする移動体位置検出装置。
Object detection means for detecting surrounding objects on the moving body is provided,
A moving body position detecting device that measures the current position of a moving body by matching three-dimensional map data including position information of a fixed object with detection data detected by the object detection means,
Prior to positioning of the current position of the moving body, the traveling direction of the moving body is corrected by matching the detection data of a predetermined fixed object around the road detected by the object detection means and map data,
Based on the traveling direction of the mobile object after correction, matching for positioning of the current position of the mobile object is performed.
A moving body position detecting device characterized by the above.
請求項1において、
前記移動体の進行方向の補正が、あらかじめ設定された所定条件を満足したことを条件として行われる、ことを特徴とする移動体位置検出装置。
In claim 1,
The moving body position detecting apparatus according to claim 1, wherein correction of the moving direction of the moving body is performed on condition that a predetermined condition set in advance is satisfied.
請求項1において、
前記移動体の進行方向の補正が、所定エリアにおける地図データの線分方向と検出データの線分方向とを対比させて行われる、ことを特徴とする移動体位置検出装置。
In claim 1,
The moving body position detecting device, wherein the moving direction of the moving body is corrected by comparing a line segment direction of map data and a line segment direction of detection data in a predetermined area.
請求項3において、
前記所定エリアが移動体の前方領域とされている、ことを特徴とする移動体位置検出装置。
In claim 3,
The moving body position detecting device, wherein the predetermined area is a front area of the moving body.
請求項3において、
前記所定エリアが、前回現在位置の測位に用いた地図データのエリアとされ、
前回現在位置測位のためにマッチングしたデータを用いて、移動体の進行方向の補正ためのマッチングが行われる、
ことを特徴とする移動体位置検出装置。
In claim 3,
The predetermined area is an area of map data used for positioning the current position last time,
Matching is performed to correct the traveling direction of the moving object using the data matched for the previous current position measurement.
A moving body position detecting device characterized by the above.
請求項1において、
移動体の進行方向の補正を行うための前記所定の固定物が、移動体が移動している道路レーンと平行な平行物とされている、ことを特徴とする移動体位置検出装置。
In claim 1,
The moving body position detecting device, wherein the predetermined fixed object for correcting the traveling direction of the moving body is a parallel object parallel to a road lane on which the moving body is moving.
請求項6において、
前記平行物のうち、前記物体検出手段によって該平行物までの距離と方位とが検出可能な範囲内のものが前記進行方向の補正に用いる、ことを特徴とする移動体位置検出装置。
In claim 6,
Among the parallel objects, a moving object position detecting device in which a distance and a direction to the parallel object can be detected by the object detection means is used for correcting the traveling direction.
請求項6において、
前記平行物を用いて、移動体の現在位置の測位のためのマッチングが行われる、ことを特徴とする移動体位置検出装置。
In claim 6,
A moving object position detecting device, wherein matching for positioning of the current position of the moving object is performed using the parallel object.
請求項1において、
同一の前記検出データを用いて、移動体の現在位置の測位と移動体の進行方向の補正とが行われる、ことを特徴とする移動体位置検出装置。
In claim 1,
A moving body position detecting apparatus characterized in that positioning of the current position of the moving body and correction of the traveling direction of the moving body are performed using the same detection data.
請求項1ないし請求項9のいずれか1項において、
前記固定物が、ガードレール、車線を区画する車線ライン、建物のうち少なくとも1つとされている、ことを特徴とする移動体位置検出装置。
In any one of Claims 1 thru | or 9,
The moving object position detecting device, wherein the fixed object is at least one of a guard rail, a lane line that divides a lane, and a building.
請求項1ないし請求項10のいずれか1項において、
前記移動体が自動車とされている、ことを特徴とする移動体位置検出装置。
In any one of Claims 1 thru | or 10,
The moving body position detecting device, wherein the moving body is an automobile.
JP2011113227A 2011-05-20 2011-05-20 Moving body position detection device Active JP5821275B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011113227A JP5821275B2 (en) 2011-05-20 2011-05-20 Moving body position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011113227A JP5821275B2 (en) 2011-05-20 2011-05-20 Moving body position detection device

Publications (2)

Publication Number Publication Date
JP2012242262A JP2012242262A (en) 2012-12-10
JP5821275B2 true JP5821275B2 (en) 2015-11-24

Family

ID=47464125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011113227A Active JP5821275B2 (en) 2011-05-20 2011-05-20 Moving body position detection device

Country Status (1)

Country Link
JP (1) JP5821275B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015155292A1 (en) * 2014-04-09 2015-10-15 Continental Teves Ag & Co. Ohg Position correction of a vehicle by referencing to objects in the surroundings
JP6354556B2 (en) * 2014-12-10 2018-07-11 株式会社デンソー POSITION ESTIMATION DEVICE, POSITION ESTIMATION METHOD, POSITION ESTIMATION PROGRAM
JP6528641B2 (en) * 2015-10-26 2019-06-12 トヨタ自動車株式会社 Self-position estimation method
JP6654977B2 (en) * 2016-07-04 2020-02-26 株式会社Soken Own vehicle position specifying device and own vehicle position specifying method
JP6616257B2 (en) * 2016-07-13 2019-12-04 株式会社Soken Position estimation device
EP3516422A1 (en) * 2016-09-29 2019-07-31 The Charles Stark Draper Laboratory, Inc. Autonomous vehicle: vehicle localization
KR101866075B1 (en) 2016-10-20 2018-06-08 현대자동차주식회사 Apparatus and method for estmating lane
KR101935512B1 (en) * 2016-11-03 2019-04-03 현대자동차주식회사 Vehicle and controlling method for the same
US10101745B1 (en) 2017-04-26 2018-10-16 The Charles Stark Draper Laboratory, Inc. Enhancing autonomous vehicle perception with off-vehicle collected data
JP6859927B2 (en) 2017-11-06 2021-04-14 トヨタ自動車株式会社 Vehicle position estimation device
EP3517996B1 (en) * 2018-01-25 2022-09-07 Aptiv Technologies Limited Method for determining the position of a vehicle
CN111307163B (en) * 2018-12-11 2022-07-22 北京地平线机器人技术研发有限公司 Positioning method and positioning device of movable equipment and electronic equipment
JP7336753B2 (en) * 2018-12-28 2023-09-01 パナソニックIpマネジメント株式会社 Positioning device and moving body
US11249184B2 (en) 2019-05-07 2022-02-15 The Charles Stark Draper Laboratory, Inc. Autonomous collision avoidance through physical layer tracking
JP2020190415A (en) * 2019-05-17 2020-11-26 アイシン・エィ・ダブリュ株式会社 Vehicle state estimating system, vehicle state estimating method, and vehicle state estimating program

Also Published As

Publication number Publication date
JP2012242262A (en) 2012-12-10

Similar Documents

Publication Publication Date Title
JP5821275B2 (en) Moving body position detection device
US9880558B2 (en) Travel control device
US10551509B2 (en) Methods and systems for vehicle localization
US10486593B2 (en) In-vehicle alert apparatus
US10162363B1 (en) Using obstacle clearance to measure precise lateral gap
US10124730B2 (en) Vehicle lane boundary position
US9849878B2 (en) System and method for providing a corrected lane following path through a curve for trailering vehicles
EP3470789A1 (en) Autonomous driving support apparatus and method
US11313976B2 (en) Host vehicle position estimation device
CN102975716B (en) The system and method that override detects is turned to for the speed adaptive during automatization's track centering
KR101880013B1 (en) Magnetic position estimating apparatus and magnetic position estimating method
US20210207977A1 (en) Vehicle position estimation device, vehicle position estimation method, and computer-readable recording medium for storing computer program programmed to perform said method
US9129523B2 (en) Method and system for obstacle detection for vehicles using planar sensor data
JP2018536572A (en) Control system for steering means of motor-driven vehicles in a situation where collision with an obstacle is imminent
CN110867132B (en) Environment sensing method, device, electronic equipment and computer readable storage medium
CN111066071A (en) Position error correction method and position error correction device for driving assistance vehicle
JP2011191239A (en) Mobile object position detecting device
JP5821276B2 (en) Detection device for position and traveling direction of moving body
US10107631B2 (en) Methods and systems for vehicle positioning feedback
KR20140104611A (en) Apparatus for automatic parking of vehicle and method using the same
JP2010146177A (en) Method for determining relative position of vehicle
GB2556427A (en) Vehicle with environmental context analysis
JP2013052754A (en) Parking support device
JP6834914B2 (en) Object recognition device
EP3705385B1 (en) Method and unit for autonomous parking of a vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150908

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150921

R150 Certificate of patent or registration of utility model

Ref document number: 5821275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150