JP6976050B2 - Posture estimation method of parking control device and posture estimation device - Google Patents

Posture estimation method of parking control device and posture estimation device Download PDF

Info

Publication number
JP6976050B2
JP6976050B2 JP2016217306A JP2016217306A JP6976050B2 JP 6976050 B2 JP6976050 B2 JP 6976050B2 JP 2016217306 A JP2016217306 A JP 2016217306A JP 2016217306 A JP2016217306 A JP 2016217306A JP 6976050 B2 JP6976050 B2 JP 6976050B2
Authority
JP
Japan
Prior art keywords
vehicle
feature points
posture
parking
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016217306A
Other languages
Japanese (ja)
Other versions
JP2018077566A (en
Inventor
一郎 山口
泰久 早川
孝彦 沖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2016217306A priority Critical patent/JP6976050B2/en
Publication of JP2018077566A publication Critical patent/JP2018077566A/en
Application granted granted Critical
Publication of JP6976050B2 publication Critical patent/JP6976050B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、駐車制御装置の姿勢推定方法、及び姿勢推定装置に関する。 The present invention relates to a posture estimation method for a parking control device and a posture estimation device.

従来より特許文献1に記載されているように、車輪の回転数及び車両の操舵角に基づいて推定した自己の位置と姿勢、及び環境マップに基づいて推定した自己の位置及び姿勢に基づいて、最終的な自己の位置及び姿勢を決定する方法が知られている。 Conventionally, as described in Patent Document 1, based on the self-position and posture estimated based on the rotation speed of the wheel and the steering angle of the vehicle, and the self-position and posture estimated based on the environment map. A method of determining the final self-position and posture is known.

環境マップ(例えば、3次元マップ)は、過去に走行した車両で取得したデータにより作成され、道路標識や構造物等の複数の特徴点、特徴物が記憶されている。そして、車両に搭載されるカメラやレーザレーダ等の周囲検出センサで取得した物体の形状やテクスチャー等の環境情報と環境マップの特徴点、特徴物を照合することによって、環境マップにおける車両の位置及び姿勢を推定する。 The environment map (for example, a three-dimensional map) is created from data acquired by a vehicle that has traveled in the past, and a plurality of feature points and features such as road signs and structures are stored. Then, by collating the environmental information such as the shape and texture of the object acquired by the surrounding detection sensor such as the camera or laser radar mounted on the vehicle with the feature points and features of the environmental map, the position of the vehicle and the position of the vehicle on the environmental map and the features are collated. Estimate the posture.

特開2009−149194号公報Japanese Unexamined Patent Publication No. 2009-149194

しかしながら、上述した特許文献1に開示された従来例は、車両からの距離を考慮せず特徴点を記憶していたため、環境マップにおける車両の姿勢を高精度に推定できないことがあった。 However, in the conventional example disclosed in Patent Document 1 described above, since the feature points are stored without considering the distance from the vehicle, the posture of the vehicle on the environment map may not be estimated with high accuracy.

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、車両の姿勢を高精度に推定することができる駐車制御装置の姿勢推定方法、及び姿勢推定装置を提供することにある。 The present invention has been made to solve such a conventional problem, and an object thereof is a posture estimation method of a parking control device capable of estimating the posture of a vehicle with high accuracy, and a posture. The purpose is to provide an estimation device.

上記目的を達成するため、本願発明は、自車両から駐車目標位置までの距離が、予め設定した閾値距離未満の領域である近傍領域に達したか否かを判断し、自車両から駐車目標位置までの距離が近傍領域に達したと判断した場合に、環境マップに含まれる特徴点のうち、駐車目標位置から所定距離以上離れた特徴点を選択し、その特徴点と、自車両の周囲における特徴点とを照合して、車両の姿勢を推定る。 In order to achieve the above object, the present invention determines whether or not the distance from the own vehicle to the parking target position has reached a nearby area which is a region less than a preset threshold distance, and the parking target position from the own vehicle is determined. If the distance to is judged to have reached the vicinity area of the feature points included in the environment map, the target parking position or we choose a predetermined distance or more away feature points, and its feature points, the area around the vehicle collating the feature points definitive to be, we estimate the posture of the vehicle.

本発明によれば、車両の姿勢を高精度に推定することができ、駐車目標位置に対して、正しい位置、姿勢で車両を駐車させることが可能となる。 According to the present invention, the posture of the vehicle can be estimated with high accuracy, and the vehicle can be parked at the correct position and posture with respect to the parking target position.

図1は、本発明の実施形態に係る姿勢推定装置及びその周辺機器の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a posture estimation device and its peripheral devices according to an embodiment of the present invention. 図2は、本発明の第1実施形態に係る姿勢推定装置の処理手順を示すフローチャートである。FIG. 2 is a flowchart showing a processing procedure of the posture estimation device according to the first embodiment of the present invention. 図3は、本発明の第1実施形態に係る姿勢推定装置で設定される目標経路を示す説明図である。FIG. 3 is an explanatory diagram showing a target route set by the posture estimation device according to the first embodiment of the present invention. 図4は、本発明の第1実施形態に係り、駐車目標位置から離れた特徴点を選択する様子を示す説明図である。FIG. 4 is an explanatory diagram showing a state of selecting a feature point away from a parking target position according to the first embodiment of the present invention. 図5は、車両の姿勢が変化したときの、カメラで撮像される画像の変化を示す説明図である。FIG. 5 is an explanatory diagram showing a change in an image captured by a camera when the posture of the vehicle changes. 図6は、本発明の第2実施形態に係る姿勢推定装置の処理手順を示すフローチャートである。FIG. 6 is a flowchart showing a processing procedure of the posture estimation device according to the second embodiment of the present invention. 図7は、本発明の第2実施形態に係り、駐車目標位置から離れた遠い特徴点、及び近い特徴点を選択する様子を示す説明図である。FIG. 7 is an explanatory diagram showing how to select a feature point far away from the parking target position and a feature point near the parking target position according to the second embodiment of the present invention. 図8は、本発明の第3実施形態に係る姿勢推定装置の処理手順を示すフローチャートである。FIG. 8 is a flowchart showing a processing procedure of the posture estimation device according to the third embodiment of the present invention. 図9は、本発明の第3実施形態に係り、駐車目標位置から離れた特徴点、及び平面状、直線状の特徴物を選択する様子を示す説明図である。FIG. 9 is an explanatory diagram showing how a feature point away from the parking target position and a planar or linear feature are selected according to the third embodiment of the present invention.

以下、本発明の実施形態を図面に基づいて説明する。
[第1実施形態の説明]
図1は、本発明の第1実施形態に係る姿勢推定装置、及びその周辺機器の構成を示すブロック図である。図1に示すように、本実施形態に係る姿勢推定装置100は、車両の周囲環境を撮像するカメラ11(周囲検出部)と、車両周囲の三次元データ及び三次元データに含まれる特徴点、特徴物を記憶する環境マップ12と、車両のオドメトリを検出するオドメトリセンサ13と、車両の姿勢に応じた制御信号を出力する制御部15を備えている。制御部15は、車両に搭載されるステアリング、アクセル、ブレーキ、シフト、パーキング等を制御するアクチュエータ16に接続され、該アクチュエータ16に制御信号を出力する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Explanation of the first embodiment]
FIG. 1 is a block diagram showing a configuration of a posture estimation device and a peripheral device thereof according to the first embodiment of the present invention. As shown in FIG. 1, the posture estimation device 100 according to the present embodiment includes a camera 11 (peripheral detection unit) that captures an image of the surrounding environment of the vehicle, and three-dimensional data around the vehicle and feature points included in the three-dimensional data. It includes an environment map 12 for storing features, an odometry sensor 13 for detecting the odometry of the vehicle, and a control unit 15 for outputting a control signal according to the posture of the vehicle. The control unit 15 is connected to an actuator 16 that controls steering, accelerator, brake, shift, parking, etc. mounted on the vehicle, and outputs a control signal to the actuator 16.

環境マップ12は、車両周囲の二次元データを記憶するものであっても良い。また、車両に搭載される場合以外に、ネットワークを経由して接続する構成であってもよい。また、車両の周囲の状況を検出するセンサとしてカメラ11を用いる場合を例に挙げて説明するが、レーザレーダ、ソナー、ビーコン、WiFi通信を用いて車両の周囲状況を検出することも可能である。 The environment map 12 may store two-dimensional data around the vehicle. In addition to the case where it is mounted on a vehicle, it may be configured to be connected via a network. Further, although the case where the camera 11 is used as a sensor for detecting the surrounding condition of the vehicle will be described as an example, it is also possible to detect the surrounding condition of the vehicle by using a laser radar, sonar, a beacon, and WiFi communication. ..

環境マップ12上の自車両の姿勢は、特徴点との距離と角度を検出して推定する。一般的に、車両と特徴点との距離が遠くなるほど、車両の姿勢は推定し易くなる。例えば、車両の前方に特徴点が存在する場合、車両の姿勢の角度が1度変化すれば、車両と特徴点との距離が大きいほど、特徴点の位置は大きくずれて検出されることになる。これとは反対に、車両と特徴点との距離が小さい場合は、車両の姿勢の角度が1度変化したとしても、特徴点の位置のずれが小さく、検出することが難しい。 The posture of the own vehicle on the environment map 12 is estimated by detecting the distance and the angle from the feature points. In general, the farther the vehicle is from the feature point, the easier it is to estimate the posture of the vehicle. For example, when a feature point exists in front of the vehicle, if the angle of the posture of the vehicle changes by one degree, the larger the distance between the vehicle and the feature point, the larger the position of the feature point will be detected. .. On the contrary, when the distance between the vehicle and the feature point is small, even if the angle of the posture of the vehicle changes by 1 degree, the deviation of the position of the feature point is small and it is difficult to detect.

従って、本実施形態では、車両V1が駐車目標位置21に接近した場合(後述する図3の近傍領域R1内に進入した場合)に、駐車目標位置21からより離れた特徴点を用いて姿勢を推定することにより、姿勢の推定精度を高める。なお、車両V1と駐車目標位置21との距離が小さいほど車両V1の姿勢の精度が求められる理由は、車両V1が駐車目標位置21に近づくほど、乗員が車両V1の姿勢に敏感になる傾向にあるためである。例えば、駐車目標位置21に車両V1を駐車するとき、駐車目標位置21に対する車両V1の姿勢がずれていた場合、乗員に違和感を与えることになり、更には、駐車をし直すことも考えられる。従って、車両V1と駐車目標位置21との距離が小さいほど車両V1の姿勢の精度が求められる。 Therefore, in the present embodiment, when the vehicle V1 approaches the parking target position 21 (when the vehicle V1 enters the vicinity region R1 in FIG. 3, which will be described later), the posture is determined by using the feature points farther from the parking target position 21. By estimating, the estimation accuracy of the posture is improved. The reason why the accuracy of the posture of the vehicle V1 is required as the distance between the vehicle V1 and the parking target position 21 is smaller is that the closer the vehicle V1 is to the parking target position 21, the more sensitive the occupant is to the posture of the vehicle V1. Because there is. For example, when the vehicle V1 is parked at the parking target position 21, if the posture of the vehicle V1 with respect to the parking target position 21 is deviated, the occupant may feel uncomfortable, and further, it is conceivable to re-park. Therefore, the smaller the distance between the vehicle V1 and the parking target position 21, the more accurate the posture of the vehicle V1 is required.

一方で、環境マップ12上の車両V1の位置は、車両V1からの距離が近い特徴点ほど、推定精度が向上する。例えば、車両V1の前方に特徴点が存在する場合、車両V1が10cm側方に移動すれば、車両V1からの距離が近い特徴点ほど、特徴点の位置は大きくずれて検出されることとなる。これとは反対に車両V1と特徴点との距離が大きい場合は、車両V1が10cm側方に移動したとしても、特徴点の位置のずれが小さく、特徴点の位置のずれを検出することが難しい。 On the other hand, the estimation accuracy of the position of the vehicle V1 on the environment map 12 is improved as the distance from the vehicle V1 is shorter. For example, when a feature point exists in front of the vehicle V1, if the vehicle V1 moves to the side by 10 cm, the feature point that is closer to the vehicle V1 will be detected with a large deviation in the position of the feature point. .. On the contrary, when the distance between the vehicle V1 and the feature point is large, even if the vehicle V1 moves to the side by 10 cm, the deviation of the position of the feature point is small, and the deviation of the position of the feature point can be detected. difficult.

制御部15は、環境マップ12を参照し後述する条件に基づいて該環境マップ12に含まれる特徴点、或いは特徴物を選択する特徴点/特徴物選択部151を備える。更に、カメラ11で撮像された画像から車両周囲の特徴点、或いは特徴物を検出する特徴点/特徴物検出部152(特徴点検出回路)を備えている。 The control unit 15 includes a feature point / feature selection unit 151 that selects a feature point or a feature included in the environment map 12 based on the conditions described later with reference to the environment map 12. Further, the feature point / feature object detection unit 152 (feature point detection circuit) for detecting the feature points around the vehicle or the feature objects from the image captured by the camera 11 is provided.

また、特徴点/特徴物選択部151で選択した特徴点或いは特徴物と、これに対応する特徴点/特徴物検出部152で検出した特徴点或いは特徴物を照合して、車両の姿勢を推定する姿勢推定部153(姿勢推定回路)を備えている。 Further, the posture of the vehicle is estimated by collating the feature point or feature selected by the feature point / feature selection unit 151 with the feature point or feature detected by the corresponding feature point / feature detection unit 152. It is provided with a posture estimation unit 153 (posture estimation circuit).

本実施形態で示す各機能は、1又は複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置を含む。処理装置は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。そして、本実施形態に係る姿勢推定装置100は、車両が駐車目標位置(例えば、駐車場の駐車スペース)に接近したときに車両の姿勢を高精度に検出し、駐車目標位置に対して正しい姿勢で車両が停車するように、車両を制御する。 Each function shown in this embodiment may be implemented by one or more processing circuits. The processing circuit includes a processing device including an electric circuit. Processing devices also include devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments. Then, the posture estimation device 100 according to the present embodiment detects the posture of the vehicle with high accuracy when the vehicle approaches the parking target position (for example, the parking space of the parking lot), and the posture is correct with respect to the parking target position. Control the vehicle so that it stops at.

以下、本実施形態に係る姿勢推定装置100の処理手順を、図2に示すフローチャートを参照して説明する。この制御は、図1に示す制御部15によって実行される。 Hereinafter, the processing procedure of the posture estimation device 100 according to the present embodiment will be described with reference to the flowchart shown in FIG. This control is executed by the control unit 15 shown in FIG.

初めに、ステップS11において、制御部15は、車両が駐車目標位置21に接近したか否かを判断する。この処理は、例えば、車両が駐車目標位置21に接近したことを該車両の乗員が判断し、操作スイッチ(図示省略)を押下されたときに、接近したものと判断することができる。或いは、ナビゲーション装置(図示省略)が搭載されている車両では、該ナビゲーション装置に予め駐車目標位置21を登録しておき、GPSの車両位置に基づいて車両が駐車目標位置21に対して第1閾値距離内に接近したことを判断することも可能である。駐車目標位置21の基準点は、例えば、車両が駐車目標位置21内に正しく駐車したときの、中心位置(例えば、図3の符号Q1の位置)とする。また、第1閾値距離は、例えば20mとすることができる。即ち、車両が符号Q1の地点から半径20mの範囲内に達したときに、車両が駐車目標位置21に接近したものと判断することができる。また、車両が半径20mの範囲内に達したときに、音や光を発することにより乗員に報知し、乗員によるスイッチの操作を促すようにしてもよい。なお、車両が駐車目標位置21内に正しく停車したときの、カメラ11の位置を基準位置に設定することも可能である。 First, in step S11, the control unit 15 determines whether or not the vehicle has approached the parking target position 21. In this process, for example, when the occupant of the vehicle determines that the vehicle has approached the parking target position 21, and the operation switch (not shown) is pressed, it can be determined that the vehicle has approached. Alternatively, in a vehicle equipped with a navigation device (not shown), a parking target position 21 is registered in advance in the navigation device, and the vehicle has a first threshold value with respect to the parking target position 21 based on the GPS vehicle position. It is also possible to determine that the vehicle has approached within a distance. The reference point of the parking target position 21 is, for example, the center position (for example, the position of reference numeral Q1 in FIG. 3) when the vehicle is correctly parked in the parking target position 21. Further, the first threshold distance can be set to, for example, 20 m. That is, when the vehicle reaches a radius of 20 m from the point of reference numeral Q1, it can be determined that the vehicle has approached the parking target position 21. Further, when the vehicle reaches a radius of 20 m, the occupant may be notified by emitting a sound or light to encourage the occupant to operate the switch. It is also possible to set the position of the camera 11 as the reference position when the vehicle is correctly stopped within the parking target position 21.

ステップS12において、制御部15は、カメラ11で撮像される画像に含まれる特徴点、特徴物、障害物と、環境マップ12の特徴点、特徴物、障害物とを照合して、駐車目標位置に対する車両の位置、姿勢を推定する。特徴点は、例えば道路標識や建造物等の任意の点である。特徴物は、例えば路面に敷設された白線、建造物の壁等である。障害物は、路面に設置されて車両走行の妨げとなる物体等である。 In step S12, the control unit 15 collates the feature points, features, and obstacles included in the image captured by the camera 11 with the feature points, features, and obstacles of the environment map 12, and the parking target position. Estimate the position and attitude of the vehicle with respect to. The feature points are arbitrary points such as road signs and buildings. Features are, for example, white lines laid on the road surface, walls of buildings, and the like. Obstacles are objects that are installed on the road surface and hinder the running of the vehicle.

なお、本実施形態では、周囲検出部としてカメラ11を用い、該カメラ11で撮像した画像を用いて車両周囲の特徴点、特徴物、障害物を検出する例について説明するが、周囲検出部の他の例としてレーザレーダ等を用いることも可能である。また、同時にオドメトリセンサ13により、車輪速パルスやヨーレートセンサ等のオドメトリ情報を取得するとなお良い。 In this embodiment, an example in which a camera 11 is used as a peripheral detection unit and feature points, features, and obstacles around the vehicle are detected using an image captured by the camera 11 will be described. As another example, it is also possible to use a laser radar or the like. At the same time, it is better to acquire the odometry information such as the wheel speed pulse and the yaw rate sensor by the odometry sensor 13.

ステップS13において、制御部15は、車両の位置、姿勢の情報、及びカメラ11で撮像される画像中に含まれる障害物の情報を参照し、車両が現在位置から駐車目標位置21に至るまでの目標経路を生成する。例えば、図3に示すように、車両V1が駐車目標位置21に接近した場合には、該車両V1を駐車目標位置21に駐車させるための好適な目標経路L1を生成する。この際、車両V1は、例えば、路側構造物31を基準として、位置及び姿勢を認識する。 In step S13, the control unit 15 refers to the vehicle position, posture information, and obstacle information included in the image captured by the camera 11, and the vehicle reaches the parking target position 21 from the current position. Generate a target route. For example, as shown in FIG. 3, when the vehicle V1 approaches the parking target position 21, a suitable target route L1 for parking the vehicle V1 at the parking target position 21 is generated. At this time, the vehicle V1 recognizes the position and the posture with reference to, for example, the roadside structure 31.

ステップS14において、制御部15は、車両V1が上記の目標経路L1に沿って走行するように、アクチュエータ16に制御信号を出力して、駐車制御を実行する。 In step S14, the control unit 15 outputs a control signal to the actuator 16 so that the vehicle V1 travels along the target path L1 and executes parking control.

ステップS15において、制御部15は、車両V1から駐車目標位置21までの距離が、予め設定した第2閾値距離未満の領域(これを、「近傍領域R1」とする)に達したか否かを判断する。第2閾値距離は、例えば10mに設定する。例えば、図3に示す駐車目標位置21の中心点Q1を基準とし、半径10mの範囲を近傍領域R1に設定する。車両V1が近傍領域R1内に進入した場合には、ステップS16に処理を進める。 In step S15, the control unit 15 determines whether or not the distance from the vehicle V1 to the parking target position 21 has reached a region equal to or less than a preset second threshold distance (this is referred to as a “nearby region R1”). to decide. The second threshold distance is set to, for example, 10 m. For example, a range having a radius of 10 m is set in the vicinity region R1 with reference to the center point Q1 of the parking target position 21 shown in FIG. When the vehicle V1 enters the vicinity region R1, the process proceeds to step S16.

ステップS16において、制御部15は、環境マップ12から特徴点を検出する。更に、カメラ11で撮像された画像を取得し、画像を解析して車両周囲に存在する物体や建造物等に含まれる特徴点を検出する。 In step S16, the control unit 15 detects a feature point from the environment map 12. Further, an image captured by the camera 11 is acquired, and the image is analyzed to detect feature points included in an object or a building existing around the vehicle.

ステップS17において、制御部15は、環境マップ12に含まれる特徴点のうち、中心点Q1から所定距離以上離れた特徴点を選択する。具体的には、図4に示すように、中心点Q1から所定距離未満の領域R2を設定し、この領域R2の外側に存在する特徴点を選択する。例えば、図4に示す特徴点p1を選択する。中心点Q1から所定距離以上離れた特徴点を選択することにより、環境マップ12における車両の姿勢の推定精度を向上させることができる。更には、中心点Q1から最も遠い位置に存在する特徴点を選択することにより、自車両の姿勢の推定精度をより一層向上させることが可能となる。 In step S17, the control unit 15 selects a feature point included in the environment map 12 that is separated from the center point Q1 by a predetermined distance or more. Specifically, as shown in FIG. 4, a region R2 less than a predetermined distance from the center point Q1 is set, and feature points existing outside the region R2 are selected. For example, the feature point p1 shown in FIG. 4 is selected. By selecting a feature point that is separated from the center point Q1 by a predetermined distance or more, it is possible to improve the estimation accuracy of the posture of the vehicle on the environment map 12. Further, by selecting the feature point located at the position farthest from the center point Q1, it is possible to further improve the estimation accuracy of the posture of the own vehicle.

ステップS18において、制御部15は、ステップS17の処理で選択した特徴点の情報を、駐車制御時に選択した特徴点の情報として環境マップ12に記憶する。該環境マップ12に記憶した特徴点の情報は、次回以降に車両V1を駐車目標位置21に駐車する際に用いることができる。 In step S18, the control unit 15 stores the information of the feature points selected in the process of step S17 in the environment map 12 as the information of the feature points selected at the time of parking control. The information of the feature points stored in the environment map 12 can be used when the vehicle V1 is parked at the parking target position 21 from the next time onward.

ステップS19において、制御部15は、環境マップ12で選択した特徴点と、これに対応するカメラ11で撮像した画像上の特徴点を照合して、環境マップ12での車両V1の姿勢を推定する。具体的には、図4に示したように、特徴点p1が選択された場合には、この特徴点p1と画像上の特徴点を照合して、環境マップ12での車両V1の姿勢を推定する。こうすることにより、車両V1が駐車目標位置21に接近した場合に、該車両V1の駐車目標位置21に対する姿勢の推定精度を高めることができる。 In step S19, the control unit 15 collates the feature points selected on the environment map 12 with the feature points on the image captured by the corresponding camera 11, and estimates the posture of the vehicle V1 on the environment map 12. .. Specifically, as shown in FIG. 4, when the feature point p1 is selected, the feature point p1 is collated with the feature point on the image to estimate the posture of the vehicle V1 on the environment map 12. do. By doing so, when the vehicle V1 approaches the parking target position 21, the estimation accuracy of the posture of the vehicle V1 with respect to the parking target position 21 can be improved.

以下、車両の姿勢を推定する際に、駐車目標位置21から遠くに存在する特徴点を選択する理由について詳細に説明する。 Hereinafter, the reason for selecting a feature point far from the parking target position 21 when estimating the posture of the vehicle will be described in detail.

図5は、車両に搭載されるカメラ11で撮像される周囲画像を模式的に示す説明図である。画像D1は、車両が姿勢F1のときに撮像した画像を示し、画像D2は車両の姿勢角度が姿勢F1に対して若干変化した姿勢F2のときに撮像した画像を示している。姿勢F1では撮像領域がf1となり、姿勢F2では撮像領域がf2となる。そして、姿勢F1のときにカメラ11で撮像した画像D1には、車両の近傍に存在する物体B1(例えば、道路標識)、及び遠方に存在する物体B2(例えば、山)が含まれている。また、姿勢F2のときにカメラ11で撮像した画像D2にも同様に物体B1、B2が含まれている。 FIG. 5 is an explanatory diagram schematically showing a surrounding image captured by a camera 11 mounted on a vehicle. The image D1 shows an image taken when the vehicle is in the posture F1, and the image D2 shows an image taken when the posture angle of the vehicle is slightly changed with respect to the posture F1. In the posture F1, the imaging region is f1, and in the posture F2, the imaging region is f2. The image D1 captured by the camera 11 in the posture F1 includes an object B1 (for example, a road sign) existing in the vicinity of the vehicle and an object B2 (for example, a mountain) existing in the distance. Further, the images D2 captured by the camera 11 in the posture F2 also include the objects B1 and B2.

そして、画像D1、D2を対比すると、車両から遠くに存在する物体ほど、姿勢変化に対して大きく移動して表示されることが理解される。具体的には、画像D1の物体B1と画像D2の物体B1の変化に対して、画像D1の物体B2と画像D2の物体B2の変化の方が大きくなっている。つまり、車両から遠い物体ほど、姿勢変化の影響を大きく受ける。また、上述したように、車両から近い物体ほど、位置変化の影響を大きく受ける。 Then, when the images D1 and D2 are compared, it is understood that the farther the object is from the vehicle, the larger it moves and is displayed in response to the change in posture. Specifically, the change of the object B2 of the image D1 and the change of the object B2 of the image D2 is larger than the change of the object B1 of the image D1 and the object B1 of the image D2. That is, the farther the object is from the vehicle, the greater the influence of the posture change. Further, as described above, the closer the object is to the vehicle, the greater the influence of the position change.

上記のことから、カメラ11で撮像可能な範囲内で、車両からより遠くに存在する特徴点を用いれば、車両の姿勢をより高精度に推定できることが判る。従って、ステップS17の処理では、駐車目標位置21から最も遠くに存在する特徴点p1を選択して車両の姿勢を推定する。 From the above, it can be seen that the posture of the vehicle can be estimated with higher accuracy by using the feature points existing farther from the vehicle within the range that can be captured by the camera 11. Therefore, in the process of step S17, the feature point p1 existing farthest from the parking target position 21 is selected and the posture of the vehicle is estimated.

次いで、図2のステップS20において、制御部15は、目標経路L1に沿って車両V1が走行するように制御し、車両V1を駐車目標位置21に移動させる。 Next, in step S20 of FIG. 2, the control unit 15 controls the vehicle V1 to travel along the target route L1 and moves the vehicle V1 to the parking target position 21.

ステップS21において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。 In step S21, the control unit 15 determines whether or not the vehicle V1 has reached the parking target position 21 and the parking operation is completed, and if it is completed, the control unit 15 ends this process. When parking is completed, it is possible to detect that the occupant has put the shift position into parking or operated the parking brake and recognize that the vehicle V1 has been parked at the parking target position 21.

このようにして、第1実施形態に係る姿勢推定装置100では、車両V1を駐車目標位置21に駐車する際に、環境マップ12の特徴点とカメラ11で撮像される画像の特徴点を照合して環境マップ12での駐車目標位置21に対する車両V1の姿勢を推定する。この際、駐車目標位置21から所定距離以上離れた特徴点(図4の領域R2の外側の特徴点)、或いは、中心点Q1から最も離れた特徴点を選択し、記憶する。これにより、車両V1が駐車目標位置21へ環境マップ12を用いて駐車するに際し、駐車目標位置21から遠い位置に存在する特徴点を用いることができるようになるため、車両V1の姿勢を高精度に推定でき、駐車目標位置21に対して正しい位置に車両を駐車することができる。 In this way, in the posture estimation device 100 according to the first embodiment, when the vehicle V1 is parked at the parking target position 21, the feature points of the environment map 12 and the feature points of the image captured by the camera 11 are collated. The posture of the vehicle V1 with respect to the parking target position 21 on the environment map 12 is estimated. At this time, a feature point separated from the parking target position 21 by a predetermined distance or more (a feature point outside the region R2 in FIG. 4) or a feature point farthest from the center point Q1 is selected and stored. As a result, when the vehicle V1 parks at the parking target position 21 using the environment map 12, the feature points existing at a position far from the parking target position 21 can be used, so that the posture of the vehicle V1 can be accurately determined. It can be estimated that the vehicle can be parked in the correct position with respect to the parking target position 21.

更に、選択した特徴点の情報は環境マップ12に記憶されるので、次回以降に車両V1を同一の駐車目標位置21に駐車させる場合には、環境マップ12に記憶されている特徴点を選択することができる。従って、新たに特徴点を選択する処理が必要無く、演算負荷を軽減することが可能となる。 Further, since the information of the selected feature points is stored in the environment map 12, when the vehicle V1 is parked at the same parking target position 21 from the next time onward, the feature points stored in the environment map 12 are selected. be able to. Therefore, there is no need for a new process of selecting a feature point, and the calculation load can be reduced.

また、前述した中心点Q1に代えて、車両V1が駐車目標位置21に駐車したときの、カメラ11の取り付け位置を基準点として、特徴点までの距離を演算するようにすれば、より正確に特徴点までの距離を判別することができ、姿勢の推定精度を向上させることができる。 Further, instead of the center point Q1 described above, the distance to the feature point can be calculated more accurately by using the mounting position of the camera 11 as a reference point when the vehicle V1 is parked at the parking target position 21. The distance to the feature point can be determined, and the posture estimation accuracy can be improved.

[第2実施形態の説明]
次に、本発明の第2実施形態について説明する。装置構成は、図1に示したブロック図と同様であるので説明を省略する。
[Explanation of the second embodiment]
Next, a second embodiment of the present invention will be described. Since the device configuration is the same as the block diagram shown in FIG. 1, the description thereof will be omitted.

第2実施形態では、環境マップ12の特徴点のうち、駐車目標位置21から所定距離以上離れた特徴点に加え、所定距離未満に存在する特徴点を選択し、双方の特徴点とカメラ11で撮像された画像に含まれる特徴点を照合して、車両V1の位置、及び姿勢を高精度に推定する。以下、図6に示すフローチャートを参照して、第2実施形態に係る姿勢推定装置の処理手順について説明する。 In the second embodiment, among the feature points of the environment map 12, in addition to the feature points separated from the parking target position 21 by a predetermined distance or more, the feature points existing below the predetermined distance are selected, and both feature points and the camera 11 are used. The position and posture of the vehicle V1 are estimated with high accuracy by collating the feature points included in the captured image. Hereinafter, the processing procedure of the posture estimation device according to the second embodiment will be described with reference to the flowchart shown in FIG.

図6に示すステップS51〜56の処理は、図2に示したステップS11〜S16の処理と同様であるので、説明を省略する。 Since the processing of steps S51 to 56 shown in FIG. 6 is the same as the processing of steps S11 to S16 shown in FIG. 2, the description thereof will be omitted.

ステップS57において、制御部15は、環境マップ12の特徴点のうち、駐車目標位置21から所定距離以上離れた特徴点(図4の領域R2の外側の特徴点)に加えて、所定距離未満の特徴点(領域R2の内側の特徴点)を選択する。具体的には、図7に示すように、駐車目標位置21から遠い特徴点p1と、近い特徴点p2(白線の隅の点)を選択する。 In step S57, among the feature points of the environment map 12, the control unit 15 is less than a predetermined distance in addition to the feature points separated from the parking target position 21 by a predetermined distance or more (the feature points outside the region R2 in FIG. 4). Select a feature point (feature point inside region R2). Specifically, as shown in FIG. 7, a feature point p1 far from the parking target position 21 and a feature point p2 near the parking target position 21 (points at the corners of the white line) are selected.

ステップS58において、制御部15は、選択した特徴点を駐車制御に使用する特徴点として環境マップ12に記憶する。その後、ステップS59において、制御部15は、選択した特徴点p1及びp2と、カメラ11で撮像した画像に含まれる特徴点とを照合して、車両V1の位置、姿勢を推定する。駐車目標位置21から近い位置に存在する特徴点p2を選択することにより、駐車目標位置21に対する車両V1の位置を高精度に推定でき、結果として車両V1の位置、及び姿勢を高精度に推定できることになる。 In step S58, the control unit 15 stores the selected feature points in the environment map 12 as feature points used for parking control. After that, in step S59, the control unit 15 collates the selected feature points p1 and p2 with the feature points included in the image captured by the camera 11 and estimates the position and posture of the vehicle V1. By selecting the feature point p2 that exists near the parking target position 21, the position of the vehicle V1 with respect to the parking target position 21 can be estimated with high accuracy, and as a result, the position and posture of the vehicle V1 can be estimated with high accuracy. become.

ステップS60において、制御部15は、目標経路に沿って車両V1が走行するように制御し、車両V1を駐車目標位置21に移動させる。 In step S60, the control unit 15 controls the vehicle V1 to travel along the target path, and moves the vehicle V1 to the parking target position 21.

ステップS61において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。 In step S61, the control unit 15 determines whether or not the vehicle V1 has reached the parking target position 21 and the parking operation is completed, and if it is completed, the control unit 15 ends this process. When parking is completed, it is possible to detect that the occupant has put the shift position into parking or operated the parking brake and recognize that the vehicle V1 has been parked at the parking target position 21.

このようにして、第2実施形態に係る姿勢推定装置では、環境マップ12の特徴点のうち、駐車目標位置21から所定距離以上離れた特徴点、及び所定距離未満の特徴点の双方を選択して車両V1の位置、姿勢を推定する。所定距離以上離れた特徴点を用いることにより、環境マップ12での車両V1の姿勢の推定精度を向上させることができる。所定距離未満の特徴点を用いることにより、環境マップ12での車両V1の位置の推定精度を向上させることができる。従って、車両V1を駐車目標位置21内に駐車する際の位置、及び姿勢を高精度に推定し、駐車目標位置21の正しい位置に、且つ正しい姿勢で車両V1を駐車することが可能となる。 In this way, in the posture estimation device according to the second embodiment, both the feature points separated from the parking target position 21 by a predetermined distance or more and the feature points less than a predetermined distance are selected from the feature points of the environment map 12. The position and posture of the vehicle V1 are estimated. By using the feature points separated by a predetermined distance or more, the estimation accuracy of the posture of the vehicle V1 on the environment map 12 can be improved. By using feature points less than a predetermined distance, it is possible to improve the estimation accuracy of the position of the vehicle V1 on the environment map 12. Therefore, the position and posture when the vehicle V1 is parked in the parking target position 21 can be estimated with high accuracy, and the vehicle V1 can be parked at the correct position of the parking target position 21 and in the correct posture.

[第3実施形態の説明]
次に、本発明の第3実施形態について説明する。装置構成は、図1に示したブロック図と同様であるので説明を省略する。
[Explanation of the third embodiment]
Next, a third embodiment of the present invention will be described. Since the device configuration is the same as the block diagram shown in FIG. 1, the description thereof will be omitted.

第3実施形態では、環境マップ12内の特徴点のうち、所定距離以上離れた特徴点に加え、環境マップ12に含まれる平面状、直線状の特徴物を選択し、選択した特徴点、特徴物とカメラ11で撮像された画像に含まれる特徴点、特徴物を照合して、車両V1の位置、及び姿勢を高精度に推定する。以下、図8に示すフローチャートを参照して、第3実施形態に係る姿勢推定装置の処理手順について説明する。 In the third embodiment, among the feature points in the environment map 12, in addition to the feature points separated by a predetermined distance or more, the planar and linear feature points included in the environment map 12 are selected, and the selected feature points and features are selected. The position and posture of the vehicle V1 are estimated with high accuracy by collating the feature points and features included in the image captured by the camera 11 with the object. Hereinafter, the processing procedure of the posture estimation device according to the third embodiment will be described with reference to the flowchart shown in FIG.

図8に示すステップS71〜76の処理は、図2に示したステップS11〜S16の処理と同様であるので、説明を省略する。 Since the processing of steps S71 to 76 shown in FIG. 8 is the same as the processing of steps S11 to S16 shown in FIG. 2, the description thereof will be omitted.

ステップS77において、制御部15は、環境マップ12に存在する特徴点のうち、駐車目標位置21から所定距離以上離れた特徴点を選択する。具体的には、図9に示すように、領域R2の外側の特徴点p1を選択する。更に、ステップS78において、制御部15は、車両V1の周囲に存在する平面状、或いは直線状の特徴物を選択する。例えば、図9に示すように、白線22を選択する。この際、特徴物(白線22)の位置は、領域R2の外部、内部を問わない。 In step S77, the control unit 15 selects, among the feature points existing in the environment map 12, the feature points that are separated from the parking target position 21 by a predetermined distance or more. Specifically, as shown in FIG. 9, the feature point p1 outside the region R2 is selected. Further, in step S78, the control unit 15 selects a planar or linear feature existing around the vehicle V1. For example, as shown in FIG. 9, the white line 22 is selected. At this time, the position of the feature (white line 22) may be outside or inside the region R2.

ステップS79において、制御部15は、選択した特徴点、及び特徴物を、駐車制御に用いる特徴点として記憶部14に記憶する。その後、ステップS80において、制御部15は、選択した特徴点p1及び特徴物(白線22)と、カメラ11で撮像した画像に含まれる特徴点及び特徴物を照合して、車両の位置、姿勢を推定する。 In step S79, the control unit 15 stores the selected feature points and features in the storage unit 14 as feature points used for parking control. After that, in step S80, the control unit 15 collates the selected feature points p1 and the feature (white line 22) with the feature points and features included in the image captured by the camera 11 to determine the position and posture of the vehicle. presume.

ステップS81において、制御部15は、目標経路に沿って車両V1が走行するように制御し、車両V1を駐車目標位置21に移動させる。 In step S81, the control unit 15 controls the vehicle V1 to travel along the target path, and moves the vehicle V1 to the parking target position 21.

ステップS82において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。 In step S82, the control unit 15 determines whether or not the vehicle V1 has reached the parking target position 21 and the parking operation is completed, and if it is completed, the control unit 15 ends this process. When parking is completed, it is possible to detect that the occupant has put the shift position into parking or operated the parking brake and recognize that the vehicle V1 has been parked at the parking target position 21.

このようにして、第3実施形態に係る姿勢推定装置では、環境マップ12の特徴点のうち、駐車目標位置21から遠い位置に存在する特徴点、及び平面状、或いは直線状の特徴物を選択して車両V1の位置、姿勢を推定している。駐車目標位置21から遠い特徴点を用いることにより、環境マップ12での車両V1の姿勢の推定精度を向上させることができる。また、平面状、直線状の特徴物を用いることにより、環境マップ12での車両の位置、姿勢の推定精度を向上させることができる。従って、駐車目標位置21に対する車両V1の位置、及び姿勢を高精度に推定することが可能となり、駐車目標位置21の正しい位置に、且つ正しい姿勢で車両V1を駐車することが可能となる。 In this way, in the posture estimation device according to the third embodiment, among the feature points of the environment map 12, the feature points existing at a position far from the parking target position 21 and the planar or linear feature are selected. Then, the position and posture of the vehicle V1 are estimated. By using the feature points far from the parking target position 21, it is possible to improve the estimation accuracy of the posture of the vehicle V1 on the environment map 12. Further, by using the planar and linear features, it is possible to improve the estimation accuracy of the position and posture of the vehicle on the environment map 12. Therefore, the position and posture of the vehicle V1 with respect to the parking target position 21 can be estimated with high accuracy, and the vehicle V1 can be parked at the correct position and the correct posture of the parking target position 21.

以上、本発明の駐車制御装置の姿勢推定方法、姿勢推定装置を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。 Although the posture estimation method and the posture estimation device of the parking control device of the present invention have been described above based on the illustrated embodiment, the present invention is not limited to this, and the configuration of each part has the same function. It can be replaced with any configuration.

11 カメラ
12 環境マップ
13 オドメトリセンサ
14 記憶部
15 制御部
16 アクチュエータ
21 駐車目標位置
22 白線
31 路側構造物
100 姿勢推定装置
151 特徴点/特徴物選択部
152 特徴点/特徴物検出部(特徴点検出回路)
153 姿勢推定部(姿勢推定回路)
p1、p2 特徴点
V1 車両
R1 近傍領域
11 Camera 12 Environment map 13 Odometry sensor 14 Storage unit 15 Control unit 16 Actuator 21 Parking target position 22 White line 31 Roadside structure 100 Posture estimation device 151 Feature point / feature selection unit 152 Feature point / feature detection unit (feature point detection) circuit)
153 Posture estimation unit (posture estimation circuit)
p1, p2 Feature point V1 Vehicle R1 neighborhood area

Claims (5)

駐車目標位置への駐車に際し、前記駐車目標位置の周囲状況を示す環境マップを記憶するものであって、前記環境マップに特徴点を記憶し、前記特徴点に基づいて前記環境マップにおける自車両の姿勢を推定する姿勢推定方法であって、
前記自車両の周囲における特徴点を検出し、
前記自車両から前記駐車目標位置までの距離が、予め設定した閾値距離未満の領域である近傍領域に達したか否かを判断し、
前記自車両から前記駐車目標位置までの距離が前記近傍領域に達したと判断した場合に、前記環境マップに含まれる特徴点のうち、前記駐車目標位置から所定距離以上離れた特徴点を選択し、
前記所定距離以上離れた特徴点と、当該特徴点に対応する前記自車両の周囲における特徴点と、を照合して、前記環境マップにおける自車両の姿勢を推定ること
を特徴とする駐車制御装置の姿勢推定方法。
When parking at the parking target position, an environment map showing the surrounding situation of the parking target position is stored, feature points are stored in the environment map, and the own vehicle in the environment map is stored based on the feature points. It is a posture estimation method that estimates the posture.
Detecting the feature points around the own vehicle,
It is determined whether or not the distance from the own vehicle to the parking target position has reached a nearby region, which is a region less than a preset threshold distance.
When the distance from the vehicle to the parking target position is determined to have reached the vicinity region of the feature points included in the environment map, select the target parking position or al a predetermined distance or more away feature points death,
Parking wherein the predetermined distance or more away feature points, and compares the feature points, the at the periphery of the vehicle corresponding to the feature point, characterized that you estimate the posture of the vehicle in the environment map Control device attitude estimation method.
前記自車両の周囲における特徴点の中から、自車両から最も距離の離れた特徴点を選択し、
前記最も距離の離れた特徴点と、当該特徴点に対応する前記環境マップの特徴点と、を照合して前記環境マップにおける自車両の姿勢を推定すること
を特徴とする請求項1に記載の駐車制御装置の姿勢推定方法。
From the feature points around the own vehicle, select the feature point farthest from the own vehicle.
The first aspect of claim 1, wherein the posture of the own vehicle in the environment map is estimated by collating the feature points at the farthest distance with the feature points of the environment map corresponding to the feature points. Posture estimation method for parking control device.
前記自車両の周囲における特徴点の中から、更に、自車両から所定距離未満の特徴点を選択し、
前記所定距離未満の特徴点と、当該特徴点に対応する前記環境マップの特徴点と、を照合して、前記環境マップにおける自車両の位置を推定すること
を特徴とする請求項1または2に記載の駐車制御装置の姿勢推定方法。
From the feature points around the own vehicle, a feature point less than a predetermined distance from the own vehicle is further selected.
Claim 1 or 2 is characterized in that the position of the own vehicle on the environment map is estimated by collating the feature points less than the predetermined distance with the feature points of the environment map corresponding to the feature points. The method of estimating the attitude of the parking control device according to the above.
前記自車両の周囲における特徴点の中から、平面状或いは直線状となる特徴物を選択し、
前記平面状或いは直線状となる特徴物と、当該特徴物に対応する前記環境マップの特徴物と、を照合して自車両の姿勢を推定すること
を特徴とする請求項1乃至3の何れか一項に記載の駐車制御装置の姿勢推定方法。
From the feature points around the own vehicle, select a feature that is flat or linear, and select it.
Any of claims 1 to 3, wherein the posture of the own vehicle is estimated by collating the flat or linear feature with the feature of the environment map corresponding to the feature. The posture estimation method for the parking control device according to claim 1.
駐車目標位置への駐車に際し、前記駐車目標位置の周囲状況を示す環境マップを記憶するものであって、前記環境マップに特徴点を記憶し、前記特徴点に基づいて前記環境マップにおける自車両の姿勢を推定する姿勢推定装置であって、
前記自車両の周囲における特徴点を検出する特徴点検出回路と、
前記自車両から前記駐車目標位置までの距離が、予め設定した閾値距離未満の領域である近傍領域に達したか否かを判断し、前記自車両から前記駐車目標位置までの距離が前記近傍領域に達したと判断した場合に、前記環境マップに含まれる特徴点のうち、前記目標駐車位置から所定距離以上離れた特徴点を選択する姿勢推定回路と、を備え、
前記姿勢推定回路は、前記所定距離以上離れた特徴点と、当該特徴点に対応する前記自車両の周囲における特徴点と、を照合して、前記環境マップにおける自車両の姿勢を推定ること
を特徴とする姿勢推定装置。
When parking at the parking target position, an environment map showing the surrounding situation of the parking target position is stored, feature points are stored in the environment map, and the own vehicle in the environment map is stored based on the feature points. It is a posture estimation device that estimates the posture.
The feature point detection circuit that detects the feature points around the own vehicle, and the feature point detection circuit.
It is determined whether or not the distance from the own vehicle to the parking target position has reached a neighborhood region which is a region less than a preset threshold distance, and the distance from the own vehicle to the parking target position is the neighborhood region. A posture estimation circuit that selects a feature point that is separated from the target parking position by a predetermined distance or more from the feature points included in the environment map when it is determined that the parking position has been reached is provided.
The posture estimation circuit comprises a predetermined distance or more away feature point, and feature points in the surrounding of the vehicle corresponding to the feature point, by matching, we estimate the posture of the vehicle in the environment map A posture estimation device characterized by this.
JP2016217306A 2016-11-07 2016-11-07 Posture estimation method of parking control device and posture estimation device Active JP6976050B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016217306A JP6976050B2 (en) 2016-11-07 2016-11-07 Posture estimation method of parking control device and posture estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016217306A JP6976050B2 (en) 2016-11-07 2016-11-07 Posture estimation method of parking control device and posture estimation device

Publications (2)

Publication Number Publication Date
JP2018077566A JP2018077566A (en) 2018-05-17
JP6976050B2 true JP6976050B2 (en) 2021-12-01

Family

ID=62150686

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016217306A Active JP6976050B2 (en) 2016-11-07 2016-11-07 Posture estimation method of parking control device and posture estimation device

Country Status (1)

Country Link
JP (1) JP6976050B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109682368B (en) * 2018-11-30 2021-07-06 上海肇观电子科技有限公司 Robot, map construction method, positioning method, electronic device and storage medium

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198211A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP2006338272A (en) * 2005-06-01 2006-12-14 Nissan Motor Co Ltd Vehicle behavior detector and vehicle behavior detection method
JP5187805B2 (en) * 2006-10-03 2013-04-24 独立行政法人産業技術総合研究所 Method for measuring relative angle and position of moving object to index position, and parking assist method and system using the same
JP2010163103A (en) * 2009-01-16 2010-07-29 Denso Corp Parking support apparatus and vehicle parking assistance system
JP5699670B2 (en) * 2011-02-18 2015-04-15 日産自動車株式会社 Travel route generation device and travel route generation method
JP5966747B2 (en) * 2012-08-08 2016-08-10 日産自動車株式会社 Vehicle travel control apparatus and method
JP2014106739A (en) * 2012-11-27 2014-06-09 Clarion Co Ltd In-vehicle image processing device
JP6044334B2 (en) * 2012-12-27 2016-12-14 日産自動車株式会社 Parking assistance device, parking assistance system, and parking assistance method
JP2015116899A (en) * 2013-12-18 2015-06-25 株式会社ゼンリンデータコム Simple type parking assist device, parking assist method, and parking assist program
CN104260722B (en) * 2014-09-23 2017-06-06 北京理工大学 A kind of automated parking system
DE102014223363B4 (en) * 2014-11-17 2021-04-29 Volkswagen Aktiengesellschaft Method and device for localizing a motor vehicle in a fixed reference map

Also Published As

Publication number Publication date
JP2018077566A (en) 2018-05-17

Similar Documents

Publication Publication Date Title
US11738779B2 (en) Autonomous driving vehicle system
US9714034B2 (en) Vehicle control device
CN108688660B (en) Operating range determining device
JP6078116B2 (en) Vehicle driving support device
JP5782708B2 (en) Driving support device
JP5786941B2 (en) Autonomous driving control system for vehicles
EP3477614B1 (en) Vehicle control method and vehicle control device
US9896098B2 (en) Vehicle travel control device
KR20200014931A (en) Vehicle information storage method, vehicle driving control method, and vehicle information storage device
JP2016007954A (en) Lane merging assist system
KR20200049869A (en) Driving support method and driving support device
US20220253065A1 (en) Information processing apparatus, information processing method, and information processing program
JP7043765B2 (en) Vehicle driving control method and equipment
JP6658968B2 (en) Driving support method and driving support device
WO2020148561A1 (en) Driving assistance method and driving assistance device
KR20180012128A (en) Apparatus for estimating 3d position of vehicle and method thereof
JP5109950B2 (en) Parking assistance device
JP6943005B2 (en) Lane change judgment method and lane change judgment device
JP6976050B2 (en) Posture estimation method of parking control device and posture estimation device
JP7202982B2 (en) Driving support method and driving support device
JP7087896B2 (en) Driving lane estimation device, driving lane estimation method, and control program
JP6804268B2 (en) Posture estimation method of parking control device and posture estimation device
WO2019188209A1 (en) Vehicle, display control device, and recording medium
KR20230173401A (en) Method and system for sensor fusion in vehicel
KR20210056501A (en) Vehicle lane change assistance system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211012

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211109

R150 Certificate of patent or registration of utility model

Ref document number: 6976050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150