JP2018075866A - Attitude estimation method for parking control apparatus, and attitude estimation apparatus - Google Patents

Attitude estimation method for parking control apparatus, and attitude estimation apparatus Download PDF

Info

Publication number
JP2018075866A
JP2018075866A JP2016217302A JP2016217302A JP2018075866A JP 2018075866 A JP2018075866 A JP 2018075866A JP 2016217302 A JP2016217302 A JP 2016217302A JP 2016217302 A JP2016217302 A JP 2016217302A JP 2018075866 A JP2018075866 A JP 2018075866A
Authority
JP
Japan
Prior art keywords
vehicle
feature
target position
posture
parking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016217302A
Other languages
Japanese (ja)
Other versions
JP6804268B2 (en
Inventor
山口 一郎
Ichiro Yamaguchi
一郎 山口
早川 泰久
Yasuhisa Hayakawa
泰久 早川
沖 孝彦
Takahiko Oki
孝彦 沖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Nissan Motor Co Ltd
Original Assignee
Renault SAS
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS, Nissan Motor Co Ltd filed Critical Renault SAS
Priority to JP2016217302A priority Critical patent/JP6804268B2/en
Publication of JP2018075866A publication Critical patent/JP2018075866A/en
Application granted granted Critical
Publication of JP6804268B2 publication Critical patent/JP6804268B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an attitude estimation method for a parking control apparatus and an attitude estimation apparatus, which are capable of accurately estimating a vehicular attitude.SOLUTION: An attitude estimation apparatus includes: a feature point-feature article selection part 151 for selecting a number of feature points, the number increasing proportionately as a distance from a parking target position nears, by referring to an environment map 12; a feature point-feature article detection part 152 for detecting a feature point in surroundings of a vehicle; and an attitude estimation part 153 for estimating an attitude of the vehicle by collating the feature point selected by the feature point-feature article selection part 151 with the feature point detected by the feature point-feature article detection part 152.SELECTED DRAWING: Figure 1

Description

本発明は、駐車制御装置の姿勢推定方法、及び姿勢推定装置に関する。   The present invention relates to a posture estimation method for a parking control device and a posture estimation device.

従来より特許文献1に記載されているように、車輪の回転数及び車両の操舵角に基づいて推定した自己の位置と姿勢、及び環境マップに基づいて推定した自己の位置及び姿勢に基づいて、最終的な自己の位置及び姿勢を決定する方法が知られている。   As described in Patent Document 1 from the past, based on the position and posture of the person estimated based on the rotation speed of the wheel and the steering angle of the vehicle, and the position and posture of the person estimated based on the environment map, Methods for determining the final self position and posture are known.

環境マップ(例えば、3次元マップ)は、過去に走行した車両で取得したデータにより作成され、道路標識や構造物等の複数の特徴点、特徴物が記憶されている。そして、車両に搭載されるカメラやレーザレーダ等の周囲検出センサで取得した物体の形状やテクスチャー等の環境情報と環境マップの特徴点、特徴物を照合することによって、環境マップにおける車両の位置及び姿勢を推定する。   An environment map (for example, a three-dimensional map) is created from data acquired by a vehicle that has traveled in the past, and stores a plurality of feature points and feature objects such as road signs and structures. Then, by comparing environmental information such as the shape and texture of an object acquired by a surrounding detection sensor such as a camera or a laser radar mounted on the vehicle with the feature points and features of the environment map, the position of the vehicle in the environment map and Estimate posture.

特開2009−149194号公報JP 2009-149194 A

しかしながら、上述した特許文献1に開示された従来例は、車両からの距離を考慮せず特徴点を記憶していたため、環境マップにおける車両の姿勢を高精度に推定できないことがあった。   However, since the conventional example disclosed in Patent Document 1 described above stores feature points without considering the distance from the vehicle, the posture of the vehicle in the environment map may not be estimated with high accuracy.

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、車両の姿勢を高精度に推定することができる駐車制御装置の姿勢推定方法、及び姿勢推定装置を提供することにある。   The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a posture estimation method and posture of a parking control device capable of estimating the posture of a vehicle with high accuracy. It is to provide an estimation device.

上記目的を達成するため、駐車目標位置からの距離が近いほど、より多くの特徴点を記憶し車両の姿勢を推定する。   In order to achieve the above object, the closer the distance from the parking target position is, the more feature points are stored and the posture of the vehicle is estimated.

本発明によれば、車両の姿勢を高精度に推定することができ、駐車目標位置に対して、正しい位置、姿勢で車両を駐車させることが可能となる。   According to the present invention, the posture of the vehicle can be estimated with high accuracy, and the vehicle can be parked at the correct position and posture with respect to the parking target position.

図1は、本発明の実施形態に係る姿勢推定方法が適用される姿勢推定装置及びその周辺機器の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of an attitude estimation apparatus to which an attitude estimation method according to an embodiment of the present invention is applied and peripheral devices thereof. 図2は、本発明の第1実施形態に係る姿勢推定装置の処理手順を示すフローチャートである。FIG. 2 is a flowchart showing a processing procedure of the posture estimation apparatus according to the first embodiment of the present invention. 図3は、本発明の第1実施形態に係る姿勢推定装置で設定される目標経路を示す説明図である。FIG. 3 is an explanatory diagram showing a target route set by the posture estimation apparatus according to the first embodiment of the present invention. 図4Aは、本発明の第1実施形態に係り、近傍領域の外側に存在する特徴点を選択する様子を示す説明図である。FIG. 4A is an explanatory diagram illustrating a state in which feature points existing outside the neighborhood region are selected according to the first embodiment of the present invention. 図4Bは、本発明の第1実施形態に係り、近傍領域の内側に存在する2つの特徴点を選択する様子を示す説明図である。FIG. 4B is an explanatory diagram illustrating a state in which two feature points existing inside the neighborhood region are selected according to the first embodiment of the present invention. 図5は、車両の姿勢が変化したときの、カメラで撮像される画像の変化を示す説明図である。FIG. 5 is an explanatory diagram illustrating a change in an image captured by the camera when the posture of the vehicle changes. 図6は、本発明の第2実施形態に係る姿勢推定装置の処理手順を示すフローチャートである。FIG. 6 is a flowchart showing a processing procedure of the posture estimation apparatus according to the second embodiment of the present invention. 図7は、本発明の第2実施形態に係り、環境マップの三次元データに存在する直線状の特徴物を選択する様子を示す説明図である。FIG. 7 is an explanatory diagram showing a state of selecting a linear feature existing in the three-dimensional data of the environment map according to the second embodiment of the present invention. 図8は、本発明の第2実施形態に係り、環境マップの三次元データに存在する2つの特徴点を選択する様子を示す説明図である。FIG. 8 is an explanatory diagram showing a state of selecting two feature points existing in the three-dimensional data of the environment map according to the second embodiment of the present invention.

以下、本発明の実施形態を図面に基づいて説明する。
[第1実施形態の説明]
図1は、本発明の第1実施形態に係る姿勢推定装置及びその周辺機器の構成を示すブロック図である。図1に示すように、本実施形態に係る姿勢推定装置100は、車両の周囲環境を撮像するカメラ11(周囲検出部)と、車両周囲の三次元データ及び三次元データに含まれる特徴点、特徴物を記憶する環境マップ12と、車両のオドメトリを検出するオドメトリセンサ13と、特徴点の情報を記憶する記憶部14(特徴点記憶回路)と、車両の姿勢に応じた制御信号を出力する制御部15を備えている。制御部15は、車両に搭載されるステアリング、アクセル、ブレーキ、シフト、パーキング等を制御するアクチュエータ16に接続され、該アクチュエータ16に制御信号を出力する。なお、記憶部14を設けずに、特徴点の情報を環境マップ12に記憶するようにしてもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Description of First Embodiment]
FIG. 1 is a block diagram showing the configuration of the posture estimation apparatus and its peripheral devices according to the first embodiment of the present invention. As shown in FIG. 1, the posture estimation apparatus 100 according to this embodiment includes a camera 11 (ambient detection unit) that captures an environment around a vehicle, three-dimensional data around the vehicle, and feature points included in the three-dimensional data, An environment map 12 for storing feature objects, an odometry sensor 13 for detecting vehicle odometry, a storage unit 14 (feature point storage circuit) for storing feature point information, and a control signal corresponding to the attitude of the vehicle is output. A control unit 15 is provided. The control unit 15 is connected to an actuator 16 that controls steering, accelerator, brake, shift, parking, and the like mounted on the vehicle, and outputs a control signal to the actuator 16. Note that the feature point information may be stored in the environment map 12 without providing the storage unit 14.

環境マップ12は、車両周囲の二次元データを記憶するものであっても良い。また、車両に搭載される場合以外に、ネットワークを経由して接続する構成であってもよい。また、車両の周囲の状況を検出するセンサとしてカメラ11を用いる場合を例に挙げて説明するが、レーザレーダ、ソナー、ビーコン、WiFi通信を用いて車両の周囲状況を検出することも可能である。   The environment map 12 may store two-dimensional data around the vehicle. Moreover, the structure connected via a network other than the case where it mounts in a vehicle may be sufficient. Although the case where the camera 11 is used as a sensor for detecting the situation around the vehicle will be described as an example, it is also possible to detect the situation around the vehicle using laser radar, sonar, beacon, and WiFi communication. .

制御部15は、環境マップ12を参照し後述する条件に基づいて該環境マップ12に含まれる特徴点、或いは特徴物を選択する特徴点/特徴物選択部151を備える。更に、カメラ11で撮像された画像から車両周囲の特徴点、或いは特徴物を検出する特徴点/特徴物検出部152を備えている。   The control unit 15 includes a feature point / feature selection unit 151 that selects a feature point or a feature included in the environment map 12 based on conditions described later with reference to the environment map 12. Further, a feature point / feature object detection unit 152 that detects a feature point around the vehicle or a feature object from an image captured by the camera 11 is provided.

また、特徴点/特徴物選択部151で選択した特徴点或いは特徴物と、特徴点/特徴物検出部152で検出した特徴点或いは特徴物を照合して、車両の姿勢を推定する姿勢推定部153を備えている。   Also, a posture estimation unit that estimates the posture of the vehicle by collating the feature point or feature selected by the feature point / feature selection unit 151 with the feature point or feature detected by the feature point / feature detection unit 152 153.

環境マップ12上の自車両の姿勢は、特徴点との距離と角度を検出して推定する。一般的に、車両と特徴点との距離が遠くなるほど、車両の姿勢は推定しやすくなる。例えば、車両の前方に特徴点が存在する場合、車両の姿勢の角度が1度変化すれば、車両と特徴点との距離が大きいほど、特徴点の位置は大きくずれて検出されることになる。これとは反対に、車両と特徴点との距離が小さい場合は、車両の姿勢の角度が1度変化したとしても、特徴点の位置のずれが小さく、検出することが難しい。このように、車両V1と特徴点との距離が小さい場合は、車両V1の姿勢の推定が難しいため、本実施形態では、車両V1の姿勢の精度が求められる、駐車目標位置付近(駐車目標位置からの距離が小さいほど)多くの特徴点を記憶するようにする。これにより、複数の特徴点を参照することができるようになるため、車両の姿勢を高精度に推定できるようになる。なお、駐車目標位置からの距離が小さいほど車両V1の姿勢の精度が求められる理由は、駐車目標位置に近づくほど、乗員が車両の姿勢に敏感になる傾向にあるためである。例えば、駐車目標位置に駐車した場合、駐車目標位置に対する車両V1の姿勢がずれていた場合、乗員に違和感を与えることになり、更には、駐車をし直すことも考えられる。従って、駐車目標位置からの距離が小さいほど車両V1の姿勢の精度が求められる。   The posture of the host vehicle on the environment map 12 is estimated by detecting the distance and angle with the feature point. Generally, as the distance between the vehicle and the feature point increases, the posture of the vehicle becomes easier to estimate. For example, when there is a feature point in front of the vehicle, if the angle of the vehicle posture changes by 1 degree, the position of the feature point is detected with a larger deviation as the distance between the vehicle and the feature point increases. . On the other hand, when the distance between the vehicle and the feature point is small, even if the angle of the posture of the vehicle changes by 1 degree, the displacement of the feature point is small and difficult to detect. Thus, since it is difficult to estimate the posture of the vehicle V1 when the distance between the vehicle V1 and the feature point is small, in this embodiment, the vicinity of the parking target position (parking target position) where the accuracy of the posture of the vehicle V1 is required. (The smaller the distance from), the more feature points are memorized. Thereby, since a plurality of feature points can be referred to, the posture of the vehicle can be estimated with high accuracy. The reason why the accuracy of the posture of the vehicle V1 is required as the distance from the parking target position is smaller is that the occupant tends to be more sensitive to the posture of the vehicle as it approaches the parking target position. For example, when the vehicle is parked at the parking target position, if the posture of the vehicle V1 is deviated from the parking target position, the occupant may feel uncomfortable, and it may be possible to park again. Therefore, the accuracy of the posture of the vehicle V1 is required as the distance from the parking target position is smaller.

本実施形態で示す各機能は、1又は複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置を含む。処理装置は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。   Each function shown in the present embodiment can be implemented by one or a plurality of processing circuits. The processing circuit includes a processing device including an electric circuit. Processing devices also include devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments.

そして、本実施形態に係る姿勢推定装置100は、車両が駐車目標位置(例えば、駐車場の駐車スペース)に接近したときに車両の姿勢を高精度に検出し、駐車目標位置に対して正しい姿勢で車両が停車するように、車両を制御する。   Then, the posture estimation device 100 according to the present embodiment detects the posture of the vehicle with high accuracy when the vehicle approaches a parking target position (for example, a parking space in a parking lot), and correct posture with respect to the parking target position. The vehicle is controlled so that the vehicle stops.

以下、本実施形態に係る姿勢推定装置100の処理手順を、図2に示すフローチャートを参照して説明する。この制御は、図1に示す制御部15によって実行される。   Hereinafter, the processing procedure of the posture estimation apparatus 100 according to the present embodiment will be described with reference to the flowchart shown in FIG. This control is executed by the control unit 15 shown in FIG.

初めに、ステップS11において、制御部15は、車両が駐車目標位置21に接近したか否かを判断する。この処理は、例えば、車両が駐車目標位置21に接近したことを該車両の乗員が判断し、操作スイッチ(図示省略)を押下されたときに、接近したものと判断することができる。或いは、ナビゲーション装置(図示省略)が搭載されている車両では、該ナビゲーション装置に予め駐車目標位置21を登録しておき、GPSの車両位置に基づいて車両が駐車目標位置21に対して所定距離内に接近したことを判断することも可能である。駐車目標位置21の基準点は、例えば、車両が駐車目標位置21内に正しく駐車したときの、中心位置(例えば、図3の符号Q1の位置)とする。また、所定距離は、例えば20mとすることができる。即ち、車両が符号Q1の地点から半径20mの範囲内に達したときに、車両が駐車目標位置21に接近したものと判断することができる。また、車両が半径20mの範囲内に達したときに、音や光を発することにより乗員に報知し、乗員によるスイッチの操作を促すようにしてもよい。なお、上記の中心位置Q1に代えて、車両が駐車目標位置21内に正しく停車したときの、カメラ11の位置を基準位置に設定することも可能である。   First, in step S <b> 11, the control unit 15 determines whether or not the vehicle has approached the parking target position 21. In this process, for example, when an occupant of the vehicle determines that the vehicle has approached the parking target position 21 and an operation switch (not shown) is pressed, it can be determined that the vehicle has approached. Alternatively, in a vehicle equipped with a navigation device (not shown), the parking target position 21 is registered in advance in the navigation device, and the vehicle is within a predetermined distance from the parking target position 21 based on the GPS vehicle position. It is also possible to determine that the vehicle has approached. The reference point of the parking target position 21 is, for example, the center position (for example, the position indicated by the symbol Q1 in FIG. 3) when the vehicle is correctly parked in the parking target position 21. Further, the predetermined distance can be set to 20 m, for example. That is, it can be determined that the vehicle has approached the parking target position 21 when the vehicle has reached a radius of 20 m from the point indicated by the symbol Q1. Further, when the vehicle reaches a radius of 20 m, the passenger may be notified by emitting a sound or light so as to prompt the passenger to operate the switch. In addition, it can replace with said center position Q1 and can also set the position of the camera 11 when a vehicle stops correctly in the parking target position 21 to a reference position.

ステップS12において、制御部15は、カメラ11で撮像される画像に含まれる特徴点、特徴物、障害物と、環境マップ12に記憶されている特徴点、特徴物、障害物とを照合して、駐車目標位置に対する車両の位置、姿勢を推定する。特徴点は、例えば道路標識や建造物等の任意の点である。特徴物は、例えば路面に敷設された白線、建造物の壁等である。障害物は、路面に設置されて車両走行の妨げとなる物体等である。   In step S <b> 12, the control unit 15 collates the feature points, features, and obstacles included in the image captured by the camera 11 with the feature points, features, and obstacles stored in the environment map 12. The position and posture of the vehicle with respect to the parking target position are estimated. The feature point is an arbitrary point such as a road sign or a building. The characteristic object is, for example, a white line laid on a road surface, a wall of a building, or the like. The obstacle is an object or the like that is installed on the road surface and hinders vehicle travel.

なお、本実施形態では、周囲検出部としてカメラ11を用い、該カメラ11で撮像した画像を用いて車両周囲の特徴点、特徴物、障害物を検出する例について説明するが、周囲検出部の他の例としてレーザレーダ等を用いることも可能である。また、同時にオドメトリセンサ13により、車輪速パルスやヨーレートセンサ等のオドメトリ情報を取得するとなお良い。   In this embodiment, the camera 11 is used as the surrounding detection unit, and an example in which feature points, features, and obstacles around the vehicle are detected using an image captured by the camera 11 will be described. As another example, a laser radar or the like can be used. At the same time, it is better to acquire odometry information such as a wheel speed pulse and a yaw rate sensor by the odometry sensor 13.

ステップS13において、制御部15は、車両の位置、姿勢の情報、及びカメラ11で撮像される画像中に含まれる障害物の情報を参照し、車両が現在位置から駐車目標位置に至るまでの目標経路を生成する。例えば、図3に示すように、車両V1が駐車目標位置21に接近した場合には、該車両V1を駐車目標位置21に駐車させるための好適な目標経路L1を生成する。この際、車両V1は、例えば、路側構造物31を基準として、位置及び姿勢を認識する。   In step S <b> 13, the control unit 15 refers to information on the position and orientation of the vehicle and information on obstacles included in the image captured by the camera 11, and sets the target until the vehicle reaches the parking target position from the current position. Generate a route. For example, as shown in FIG. 3, when the vehicle V1 approaches the parking target position 21, a suitable target route L1 for parking the vehicle V1 at the parking target position 21 is generated. At this time, for example, the vehicle V1 recognizes the position and posture with reference to the roadside structure 31.

ステップS14において、制御部15は、車両V1が上記の目標経路L1に沿って走行するように、アクチュエータ16に制御信号を出力して、駐車制御を実行する。   In step S14, the control unit 15 outputs a control signal to the actuator 16 so that the vehicle V1 travels along the target route L1, and executes parking control.

ステップS15において、制御部15は、車両V1から駐車目標位置21までの距離が、予め設定した閾値距離未満の領域(これを、「近傍領域」とする)に達したか否かを判断する。閾値距離は、例えば10mに設定する。例えば、図4Aに示すように、駐車目標位置21の中心点Q1を基準とし、半径10mの範囲を近傍領域R1に設定する。車両V1が図4Aに示す近傍領域R1内に進入した場合には、ステップS16に処理を進める。   In step S <b> 15, the control unit 15 determines whether or not the distance from the vehicle V <b> 1 to the parking target position 21 has reached an area that is less than a preset threshold distance (this is referred to as “neighboring area”). The threshold distance is set to 10 m, for example. For example, as shown in FIG. 4A, a range with a radius of 10 m is set in the vicinity region R1 with the center point Q1 of the parking target position 21 as a reference. If the vehicle V1 enters the vicinity region R1 shown in FIG. 4A, the process proceeds to step S16.

ステップS16において、制御部15は、カメラ11で撮像された画像を取得し、画像を解析して車両周囲に存在する物体や建造物等に含まれる特徴点を検出する。更に、環境マップ12の特徴点との対応関係から、環境マップ12での自車両の位置、姿勢を推定する。このとき使用する特徴点は、以下のステップS17〜S19の処理に従って選択する。   In step S <b> 16, the control unit 15 acquires an image captured by the camera 11, analyzes the image, and detects a feature point included in an object or a building that exists around the vehicle. Further, the position and posture of the host vehicle on the environment map 12 are estimated from the correspondence with the feature points of the environment map 12. The feature points to be used at this time are selected according to the following steps S17 to S19.

ステップS17において、制御部15は、環境マップ12の近傍領域R1の外側に特徴点が存在するか否かを判断する。図4Aに示すように、近傍領域R1の外側で、且つカメラ11で撮像する画像の検出範囲R2の内側領域に特徴点p1が存在する場合には(ステップS17でYES)、ステップS18に処理を進める。一方、図4Bに示すように、近傍領域R1の外側に特徴点が存在しない場合には(ステップS17でNO)、ステップS19に処理を進める。   In step S <b> 17, the control unit 15 determines whether or not a feature point exists outside the vicinity region R <b> 1 of the environment map 12. As shown in FIG. 4A, when the feature point p1 exists outside the vicinity region R1 and inside the detection range R2 of the image captured by the camera 11 (YES in step S17), the process is performed in step S18. Proceed. On the other hand, as shown in FIG. 4B, if there is no feature point outside the neighboring region R1 (NO in step S17), the process proceeds to step S19.

ステップS18において、制御部15は、近傍領域R1の外側に存在する1つの特徴点(唯一の特徴点)を選択する。具体的には、図4Aに示すように、近傍領域R1の外側に特徴点p1が存在する場合には、この特徴点p1のみを選択する。その後、ステップS20に処理を進める。   In step S18, the control unit 15 selects one feature point (unique feature point) existing outside the neighboring region R1. Specifically, as shown in FIG. 4A, when a feature point p1 exists outside the neighboring region R1, only the feature point p1 is selected. Thereafter, the process proceeds to step S20.

ステップS19において、制御部15は、近傍領域R1の内側に存在する2つの特徴点を選択する。具体的には、図4Bに示すように、近傍領域R1の内側に存在する特徴点p2、p3を選択する。その後、ステップS20に処理を進める。   In step S19, the control unit 15 selects two feature points existing inside the neighborhood region R1. Specifically, as shown in FIG. 4B, feature points p2 and p3 existing inside the neighboring region R1 are selected. Thereafter, the process proceeds to step S20.

ステップS20において、制御部15は、ステップS18、或いはS19の処理で選択した特徴点の情報を、記憶部14に記憶する。記憶部14に記憶した特徴点の情報は、次回以降に車両V1を駐車目標位置21に駐車する際に用いることができる。   In step S <b> 20, the control unit 15 stores information on the feature points selected in the process of step S <b> 18 or S <b> 19 in the storage unit 14. The feature point information stored in the storage unit 14 can be used when the vehicle V1 is parked at the parking target position 21 from the next time onward.

ステップS21において、制御部15は、環境マップ12で選択した特徴点に基づいて環境マップ12における車両V1の姿勢を推定する。具体的には、図4Aに示したように、領域R1の外側の特徴点p1が選択された場合には、この特徴点p1に基づいて車両V1の姿勢を推定する。また、図4Bに示したように、領域R1の内側の特徴点p1、p2が選択された場合には、これらの特徴点p2、p3に基づいて車両V1の姿勢を推定する。こうすることにより、車両V1が駐車目標位置21に接近した場合に、該車両V1の駐車目標位置21に対する姿勢の推定精度を高めることができる。   In step S <b> 21, the control unit 15 estimates the attitude of the vehicle V <b> 1 on the environment map 12 based on the feature points selected on the environment map 12. Specifically, as shown in FIG. 4A, when the feature point p1 outside the region R1 is selected, the posture of the vehicle V1 is estimated based on the feature point p1. As shown in FIG. 4B, when the feature points p1 and p2 inside the region R1 are selected, the posture of the vehicle V1 is estimated based on these feature points p2 and p3. By doing so, when the vehicle V1 approaches the parking target position 21, it is possible to improve the estimation accuracy of the posture of the vehicle V1 with respect to the parking target position 21.

以下、車両の姿勢を推定する際に、近傍領域R1の外側に特徴点が存在する場合には外側の1つの特徴点を用い、近傍領域R1の外側に特徴点が存在しない場合には近傍領域R1の内側の2つの特徴点を用いて車両の姿勢を推定する理由について詳細に説明する。   Hereinafter, when estimating the posture of the vehicle, if a feature point exists outside the neighborhood region R1, one feature point outside is used, and if no feature point exists outside the neighborhood region R1, the neighborhood region The reason why the posture of the vehicle is estimated using two feature points inside R1 will be described in detail.

図5は、車両に搭載されるカメラ11で撮像される周囲画像を模式的に示す説明図である。画像D1は、車両が姿勢F1のときに撮像した画像を示し、画像D2は車両の姿勢角度が姿勢F1に対して若干変化した姿勢F2のときに撮像した画像を示している。姿勢F1では撮像領域がf1となり、姿勢F2では撮像領域がf2となる。そして、姿勢F1のときにカメラ11で撮像した画像D1には、車両の近傍に存在する物体B1(例えば、道路標識)、及び遠方に存在する物体B2(例えば、山)が含まれている。また、姿勢F2のときにカメラ11で撮像した画像D2にも同様に物体B1、B2が含まれている。   FIG. 5 is an explanatory diagram schematically showing a surrounding image captured by the camera 11 mounted on the vehicle. An image D1 indicates an image captured when the vehicle is in the posture F1, and an image D2 indicates an image captured when the vehicle is in a posture F2 in which the posture angle of the vehicle is slightly changed with respect to the posture F1. In the posture F1, the imaging region is f1, and in the posture F2, the imaging region is f2. The image D1 captured by the camera 11 in the posture F1 includes an object B1 (for example, a road sign) that exists in the vicinity of the vehicle and an object B2 (for example, a mountain) that exists in the distance. Similarly, the image D2 captured by the camera 11 in the posture F2 includes the objects B1 and B2.

そして、画像D1、D2を対比すると、車両から遠くに存在する物体ほど、姿勢変化に対して大きく移動して表示されることが理解される。具体的には、画像D1の物体B1と画像D2の物体B1の変化に対して、画像D1の物体B2と画像D2の物体B2の変化の方が大きくなっている。つまり、車両から遠い物体ほど、姿勢変化の影響を大きく受ける。   When the images D1 and D2 are compared, it is understood that an object that is farther away from the vehicle is displayed with a greater movement with respect to the posture change. Specifically, the change of the object B2 of the image D1 and the object B2 of the image D2 is larger than the change of the object B1 of the image D1 and the object B1 of the image D2. That is, an object farther from the vehicle is greatly affected by the posture change.

上記のことから、車両からより遠くに存在する特徴点を用いれば、車両の姿勢をより高精度に推定できることが判る。従って、ステップS17〜S19の処理では、車両の近傍領域R1を設定し、この近傍領域R1の外側(即ち、遠い位置)に特徴点が存在する場合には、高精度な姿勢の推定が可能になるので、この一つの特徴点を用いて車両の姿勢を推定する。一方、近傍領域R1の外側に特徴点が存在しない場合には、姿勢の推定精度を高めるために、2つの特徴点を用いて車両の姿勢を推定する。   From the above, it can be seen that the posture of the vehicle can be estimated with higher accuracy by using feature points that are located farther from the vehicle. Accordingly, in the processing of steps S17 to S19, a vehicle vicinity region R1 is set, and when a feature point exists outside (ie, far from) the vicinity region R1, it is possible to estimate the posture with high accuracy. Therefore, the posture of the vehicle is estimated using this one feature point. On the other hand, when there is no feature point outside the neighboring region R1, the posture of the vehicle is estimated using two feature points in order to improve posture estimation accuracy.

こうすることにより、近傍領域R1の外側に特徴点が存在する場合には、選択する特徴点の個数を1つとすることにより特徴点を冗長に選択することを回避し、近傍領域R1の外側に特徴点が存在しない場合には、選択する特徴点の個数を2つとすることにより、高精度に車両の姿勢を推定する。その結果、車両が近傍領域R1内に進入した場合には、車両の、駐車目標位置21に対する姿勢をより高精度に推定できる。   By doing this, when there are feature points outside the neighboring region R1, it is possible to avoid selecting feature points redundantly by setting the number of feature points to be one, and outside the neighboring region R1. When there are no feature points, the number of feature points to be selected is set to two, so that the posture of the vehicle is estimated with high accuracy. As a result, when the vehicle enters the vicinity region R1, the posture of the vehicle with respect to the parking target position 21 can be estimated with higher accuracy.

次いで、図2のステップS22において、制御部15は、目標経路L1(図3参照)に沿って車両が走行するように制御し、車両V1を駐車目標位置21に移動させる。   Next, in step S <b> 22 of FIG. 2, the control unit 15 controls the vehicle to travel along the target route L <b> 1 (see FIG. 3), and moves the vehicle V <b> 1 to the parking target position 21.

ステップS23において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。   In step S23, the control unit 15 determines whether or not the vehicle V1 has reached the parking target position 21 and the parking operation has been completed. If the parking operation has been completed, the process ends. When the parking is completed, it is possible to recognize that the vehicle V1 is parked at the parking target position 21 by detecting that the occupant puts the shift position into parking or operated the parking brake.

なお、上記した実施形態では、駐車目標位置21の点(図3のQ1)を中心として近傍領域R1を設定し、近傍領域R1の外側に特徴点が存在する場合には1つの特徴点を選択し、近傍領域R1の外側に特徴点が存在しない場合には、近傍領域R1の内側に2つの特徴点を選択する例について説明した。本発明はこれに限定されるものではなく、駐車目標位置21から特徴点までの距離が近づくにつれて、選択する特徴点の個数が多くすることにより、同様の効果を達成することができる。例えば、駐車目標位置21からの距離を3段階に区分し、それぞれの領域で駐車目標位置21に近づくにつれて徐々に選択する特徴点の個数を増加するようにすることも可能である。   In the above-described embodiment, the neighborhood region R1 is set around the point of the parking target position 21 (Q1 in FIG. 3), and one feature point is selected when the feature point exists outside the neighborhood region R1. In the case where no feature point exists outside the neighboring region R1, an example in which two feature points are selected inside the neighboring region R1 has been described. The present invention is not limited to this, and the same effect can be achieved by increasing the number of feature points to be selected as the distance from the parking target position 21 to the feature points approaches. For example, the distance from the parking target position 21 can be divided into three stages, and the number of feature points to be selected gradually increases as the parking target position 21 is approached in each region.

このようにして、第1実施形態に係る姿勢推定装置100では、車両V1を駐車目標位置21内に駐車する際に、環境マップ12の特徴点とカメラ11で撮像される画像の特徴点を照合して環境マップにおける車両V1の姿勢を推定する。この際、駐車目標位置21からの距離が近いほど、より多くの特徴点を記憶する。これにより、車両V1が駐車目標位置21へ環境マップを用いて駐車するに際し、駐車目標位置へ近づくほど複数の特徴点を用いることができるようになるため、車両V1の姿勢を高精度に推定でき、駐車目標位置21に対して正しい位置に車両を駐車することができる。   Thus, in the posture estimation apparatus 100 according to the first embodiment, when the vehicle V1 is parked in the parking target position 21, the feature points of the environment map 12 and the feature points of the image captured by the camera 11 are collated. Then, the attitude of the vehicle V1 in the environment map is estimated. At this time, as the distance from the parking target position 21 is shorter, more feature points are stored. As a result, when the vehicle V1 is parked at the parking target position 21 using the environment map, a plurality of feature points can be used as the vehicle V1 approaches the parking target position, so that the attitude of the vehicle V1 can be estimated with high accuracy. The vehicle can be parked at a correct position with respect to the parking target position 21.

また、駐車目標位置21を基準として閾値距離未満の範囲を近傍領域R1とし、該近傍領域R1の外側に特徴点が存在する場合には、1つの特徴点を用いて車両の姿勢を推定し、近傍領域R1の外側に特徴点が存在しない場合には、該近傍領域R1の内側に存在する2つ(複数)の特徴点を用いて車両の姿勢を推定する。   Further, when the parking target position 21 is used as a reference and the range less than the threshold distance is set as the neighboring region R1, and the feature point exists outside the neighboring region R1, the posture of the vehicle is estimated using one feature point, If there is no feature point outside the neighboring region R1, the posture of the vehicle is estimated using two (plural) feature points existing inside the neighboring region R1.

従って、近傍領域R1の外側に特徴点が存在する場合には、1つの特徴点のみにより姿勢を推定するので、複数の特徴点を用いる場合と対比して演算が容易であり、演算負荷を軽減できる。また、近傍領域R1の外側に特徴点が存在しない場合には、内側に存在する2つの特徴点を用いて車両の姿勢を推定する。従って、駐車目標位置21からの距離が近い特徴点であっても、2つ(複数)の特徴点を用いることにより高精度な姿勢の推定が可能となる。   Therefore, when a feature point exists outside the neighborhood region R1, the posture is estimated using only one feature point, so that the calculation is easier and the calculation load is reduced as compared with the case of using a plurality of feature points. it can. Further, when no feature point exists outside the neighborhood region R1, the posture of the vehicle is estimated using two feature points existing inside. Therefore, even if the feature point is close to the parking target position 21, it is possible to estimate the posture with high accuracy by using two (plural) feature points.

更に、選択した特徴点の情報は記憶部14に記憶されるので、次回以降に車両V1を同一の駐車目標位置21に駐車させる場合には、記憶部14に記憶されている特徴点を採用すれば良い。従って、次回以降の駐車時には、使用する特徴点が特定されるので、姿勢の推定に好適な特徴点を選択する処理が不要となり、演算負荷を軽減することが可能となる。   Furthermore, since the information of the selected feature point is stored in the storage unit 14, when the vehicle V1 is parked at the same parking target position 21 after the next time, the feature point stored in the storage unit 14 is adopted. It ’s fine. Therefore, since the feature point to be used is specified at the time of parking after the next time, it is not necessary to select a feature point suitable for posture estimation, and the calculation load can be reduced.

また、車両V1が駐車目標位置21に駐車したときの、カメラ11の取り付け位置を基準点として、特徴点までの距離を演算するので、より正確に特徴点までの距離を判別することができ、姿勢角の推定精度を向上させることができる。   Further, since the distance to the feature point is calculated using the attachment position of the camera 11 when the vehicle V1 is parked at the parking target position 21 as a reference point, the distance to the feature point can be determined more accurately. The accuracy of estimating the posture angle can be improved.

[第2実施形態の説明]
次に、本発明の第2実施形態について説明する。装置構成は、図1に示したブロック図と同様であるので説明を省略する。
[Description of Second Embodiment]
Next, a second embodiment of the present invention will be described. The apparatus configuration is the same as the block diagram shown in FIG.

第2実施形態では、環境マップ12に、直線状の物体による直線状の特徴物が存在するか否かを判断し、直線状の特徴物が存在する場合には、この特徴物を用いて駐車目標位置21に対する車両V1の姿勢を推定する。以下、図6に示すフローチャートを参照して、第2実施形態に係る姿勢推定装置の処理手順について説明する。   In the second embodiment, it is determined whether or not a linear feature by a linear object exists in the environment map 12, and if there is a linear feature, parking is performed using this feature. The attitude of the vehicle V1 with respect to the target position 21 is estimated. Hereinafter, the processing procedure of the posture estimation apparatus according to the second embodiment will be described with reference to the flowchart shown in FIG.

図6に示すステップS31〜35の処理は、図2に示したステップS11〜S15の処理と同様であるので、説明を省略する。   Since the process of step S31-35 shown in FIG. 6 is the same as the process of step S11-S15 shown in FIG. 2, description is abbreviate | omitted.

ステップS36において、制御部15は、カメラ11で撮像された画像を取得し、車両周囲に存在する物体や白線などの特徴点、特徴物を検出する。更に、環境マップ12の特徴物との対応関係から、環境マップ12での自車両の位置、姿勢を推定する。「直線状の特徴物」とは、平面上で直線をなす物標、物体であり、例えば、路面に敷設された白線、直線状の縁石、建物の直線的な壁、建物に描かれている直線状の図柄、等である。   In step S <b> 36, the control unit 15 acquires an image captured by the camera 11 and detects a feature point such as an object, a white line, or the like existing around the vehicle. Further, the position and posture of the host vehicle on the environment map 12 are estimated from the correspondence relationship with the characteristic objects of the environment map 12. A “linear feature” is a target or object that forms a straight line on a plane, such as a white line laid on the road, a straight curb, a straight wall of a building, or a building. A linear pattern, etc.

ステップS37において、制御部15は、環境マップ12に直線状の特徴物が存在するか否かを判断する。直線状の特徴物が存在する場合には(ステップS37でYES)、ステップS38に処理を進め、直線状の特徴物が存在しない場合には(ステップS37でNO)、ステップS39に処理を進める。   In step S <b> 37, the control unit 15 determines whether or not a linear feature exists in the environment map 12. If a linear feature exists (YES in step S37), the process proceeds to step S38. If a linear feature does not exist (NO in step S37), the process proceeds to step S39.

ステップS38において、制御部15は、環境マップ12に存在する直線状の特徴物を選択する。例えば、図7に示すように、駐車目標位置21の周囲に、駐車スペースを区切るための直線状の白線22が敷設され、この白線22が特徴物として環境マップ12に存在する場合には、この白線22を特徴物として優先的に選択する。その後、ステップS40に処理を進める。   In step S <b> 38, the control unit 15 selects a linear feature existing in the environment map 12. For example, as shown in FIG. 7, a linear white line 22 for dividing the parking space is laid around the parking target position 21, and this white line 22 exists in the environment map 12 as a feature object. The white line 22 is preferentially selected as a feature. Thereafter, the process proceeds to step S40.

ステップS39において、制御部15は、環境マップ12の2つの特徴点を選択する。例えば、図8に示すように、カメラ11で撮像する画像の検出範囲R2内で、駐車目標位置21の周囲に存在する2つの特徴点p4、p5を選択する。その後、ステップS40に処理を進める。   In step S39, the control unit 15 selects two feature points of the environment map 12. For example, as shown in FIG. 8, two feature points p4 and p5 existing around the parking target position 21 are selected within the detection range R2 of the image captured by the camera 11. Thereafter, the process proceeds to step S40.

ステップS40において、制御部15は、ステップS38、或いはS39の処理で選択した特徴物、特徴点の情報を記憶部14に記憶する。記憶部14に記憶した特徴物、特徴点の情報は、次回以降に車両を駐車目標位置21に駐車する際に用いることができる。   In step S <b> 40, the control unit 15 stores in the storage unit 14 information about the feature object and feature point selected in the process of step S <b> 38 or S <b> 39. Information on the feature and feature points stored in the storage unit 14 can be used when the vehicle is parked at the parking target position 21 from the next time onward.

ステップS41において、制御部15は、環境マップ12で選択した特徴物或いは特徴点に基づいて車両V1の姿勢を推定する。   In step S <b> 41, the control unit 15 estimates the posture of the vehicle V <b> 1 based on the feature or feature point selected on the environment map 12.

直線状の特徴物が存在する場合には、環境マップ12における直線の向きと、カメラ11で撮像した特徴物の直線の向きを照合することにより、駐車目標位置21に対する車両V1の姿勢を高精度に推定することができる。一方、直線状の特徴物が存在しない場合には、環境マップ12の2つの特徴点を照合して車両V1の姿勢を推定する。   When there is a linear feature, the orientation of the vehicle V1 with respect to the parking target position 21 is highly accurate by checking the direction of the straight line in the environment map 12 and the direction of the straight line of the feature captured by the camera 11. Can be estimated. On the other hand, when there is no linear feature, the posture of the vehicle V1 is estimated by collating the two feature points of the environment map 12.

その後、ステップS42において、制御部15は、目標経路に沿って車両V1が走行するように制御し、車両V1を駐車目標位置21に移動させる。   Thereafter, in step S42, the control unit 15 controls the vehicle V1 to travel along the target route, and moves the vehicle V1 to the parking target position 21.

ステップS43において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。   In step S43, the control unit 15 determines whether or not the vehicle V1 has reached the parking target position 21 and the parking operation has been completed. If the parking operation has been completed, the process ends. When the parking is completed, it is possible to recognize that the vehicle V1 is parked at the parking target position 21 by detecting that the occupant puts the shift position into parking or operated the parking brake.

このようにして、第2実施形態に係る姿勢推定装置では、環境マップ12に直線状の特徴物が存在する場合にはこの特徴物と、カメラ11で撮像された画像に含まれる特徴物を照合して環境マップにおける車両V1の姿勢を推定する。そして、この特徴物を記憶する。これにより、車両V1が駐車目標位置21へ環境マップを用いて駐車するに際し、位置、及び姿勢を特定し易い直線状の特徴物を用いることができるようになるため、車両V1の姿勢を高精度に推定でき、駐車目標位置21に対して正しい位置に車両を駐車することができる。   As described above, in the posture estimation apparatus according to the second embodiment, when a linear feature exists in the environment map 12, this feature is collated with the feature included in the image captured by the camera 11. Then, the attitude of the vehicle V1 in the environment map is estimated. Then, this feature is stored. As a result, when the vehicle V1 is parked at the parking target position 21 using the environmental map, it is possible to use a linear feature that is easy to specify the position and orientation, so that the orientation of the vehicle V1 is highly accurate. The vehicle can be parked at a correct position with respect to the parking target position 21.

また、環境マップ12に直線状の特徴物が存在しない場合には、2つの特徴点を選択してカメラ11で撮像された画像に含まれる特徴点と照合して車両V1の姿勢を推定し、更にこの特徴点を記憶する。これにより、車両V1が駐車目標位置21へ環境マップを用いて駐車するに際し、2つ(複数)の特徴点を用いることができるようになるため、車両V1の姿勢を高精度に推定でき、駐車目標位置21に対して正しい位置に車両を駐車することができる。   If there is no linear feature in the environment map 12, two feature points are selected and collated with the feature points included in the image captured by the camera 11 to estimate the posture of the vehicle V 1. Further, this feature point is stored. As a result, when the vehicle V1 is parked at the parking target position 21 using the environment map, two (plurality) feature points can be used, so that the attitude of the vehicle V1 can be estimated with high accuracy, and parking is performed. The vehicle can be parked at a correct position with respect to the target position 21.

以上、本発明の姿勢推定装置、駐車制御装置の姿勢推定方法を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   As mentioned above, although the attitude | position estimation apparatus of this invention and the attitude | position estimation method of the parking control apparatus were demonstrated based on embodiment of illustration, this invention is not limited to this, The structure of each part has the same function. It can be replaced with any configuration.

11 カメラ
12 環境マップ
13 オドメトリセンサ
14 記憶部(特徴点記憶回路)
15 制御部
16 アクチュエータ
21 駐車目標位置
22 白線
31 路側構造物
100 姿勢推定装置
151 特徴点/特徴物選択部
152 特徴点/特徴物検出部
153 姿勢推定部
p1〜p5 特徴点
R1 近傍領域
R2 検出範囲
V1 車両
11 Camera 12 Environmental Map 13 Odometry Sensor 14 Storage Unit (Feature Point Storage Circuit)
DESCRIPTION OF SYMBOLS 15 Control part 16 Actuator 21 Parking target position 22 White line 31 Roadside structure 100 Attitude estimation apparatus 151 Feature point / feature object selection part 152 Feature point / feature object detection part 153 Attitude estimation part p1-p5 Feature point R1 Neighborhood area R2 Detection range V1 vehicle

Claims (9)

駐車目標位置への駐車に際し、前記駐車目標位置の周囲状況を示す環境マップを記憶するものであって、前記環境マップにおける特徴点を記憶し、前記特徴点に基づいて前記環境マップにおける車両の姿勢を推定する姿勢推定方法において、
前記駐車目標位置からの距離が近いほど多くの特徴点を記憶すること
を特徴とする駐車制御装置の姿勢推定方法。
When parking at a parking target position, an environment map indicating a surrounding situation of the parking target position is stored, a feature point in the environment map is stored, and a posture of the vehicle in the environment map based on the feature point In a posture estimation method for estimating
The attitude estimation method for a parking control device, wherein more feature points are stored as the distance from the parking target position is shorter.
前記駐車目標位置を基準として閾値距離を設定し、
前記駐車目標位置からの距離が前記閾値距離未満の領域では、複数の特徴点を記憶すること
を特徴とする請求項1に記載の駐車制御装置の姿勢推定方法。
Set a threshold distance based on the parking target position,
The posture estimation method for a parking control device according to claim 1, wherein a plurality of feature points are stored in an area where the distance from the parking target position is less than the threshold distance.
前記駐車目標位置を基準として閾値距離を設定し、
前記駐車目標位置からの距離が前記閾値距離以上の領域に特徴点がない場合は、前記前記駐車目標位置からの距離が前記閾値距離未満の領域において、複数の特徴点を記憶すること
を特徴とする請求項1又は2に記載の駐車制御装置の姿勢推定方法。
Set a threshold distance based on the parking target position,
When there is no feature point in an area where the distance from the parking target position is equal to or greater than the threshold distance, a plurality of feature points are stored in an area where the distance from the parking target position is less than the threshold distance. The attitude | position estimation method of the parking control apparatus of Claim 1 or 2 to do.
前記駐車目標位置を基準として閾値距離を設定し、
前記駐車目標位置からの距離が前記閾値距離未満の領域では、前記駐車目標位置からの距離が前記閾値距離以上の領域より、多くの特徴点を記憶すること
を特徴とする請求項1または2に記載の駐車制御装置の姿勢推定方法。
Set a threshold distance based on the parking target position,
3. The feature point according to claim 1, wherein in the area where the distance from the parking target position is less than the threshold distance, more feature points are stored than in the area where the distance from the parking target position is equal to or greater than the threshold distance. The attitude | position estimation method of the parking control apparatus of description.
前記環境マップにおける前記駐車目標位置を記憶し、
前記駐車目標位置は、周囲検出部の取り付け位置に基づいて設定すること
を特徴とする請求項1乃至4の何れか一項に記載の駐車制御装置の姿勢推定方法。
Storing the parking target position in the environment map;
The said parking target position is set based on the attachment position of the circumference | surroundings detection part. The attitude | position estimation method of the parking control apparatus as described in any one of Claim 1 thru | or 4 characterized by these.
直線状の特徴物を検出した場合は、これを前記特徴物として記憶することを特徴とする請求項1乃至5の何れか一項に記載の駐車制御装置の姿勢推定方法。   6. The method for estimating a posture of a parking control device according to claim 1, wherein when a linear feature is detected, the feature is stored as the feature. 前記特徴点を複数記憶し、前記直線状の特徴物が記憶されている場合は、前記直線状の特徴物を優先的に用いて車両の姿勢を推定すること
を特徴とする請求項6に記載の駐車制御装置の姿勢推定方法。
7. The posture of the vehicle is estimated by preferentially using the linear feature object when a plurality of the feature points are stored and the linear feature object is stored. Attitude estimation method for the parking control device of the present invention.
前記特徴点を複数記憶している場合は、前記駐車目標位置から近いほど多くの特徴点を用いて環境マップにおける車両の姿勢を推定すること
を特徴とする請求項1乃至7の何れか一項に記載の駐車制御装置の姿勢推定方法。
8. The posture of the vehicle in the environment map is estimated using more feature points as it is closer to the parking target position when a plurality of the feature points are stored. 8. The attitude | position estimation method of the parking control apparatus of description.
駐車目標位置への駐車に際し、前記駐車目標位置の周囲状況を示す環境マップを記憶するものであって、前記環境マップにおける特徴点を記憶し、前記特徴点に基づいて前記環境マップにおける車両の姿勢を推定する姿勢推定装置において、
前記駐車目標位置からの距離が近いほど多くの特徴点を記憶する特徴点記憶回路
を備えたことを特徴とする姿勢推定装置。
When parking at a parking target position, an environment map indicating a surrounding situation of the parking target position is stored, a feature point in the environment map is stored, and a posture of the vehicle in the environment map based on the feature point In the posture estimation device for estimating
A posture estimation device comprising: a feature point storage circuit that stores more feature points as the distance from the parking target position is shorter.
JP2016217302A 2016-11-07 2016-11-07 Posture estimation method of parking control device and posture estimation device Active JP6804268B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016217302A JP6804268B2 (en) 2016-11-07 2016-11-07 Posture estimation method of parking control device and posture estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016217302A JP6804268B2 (en) 2016-11-07 2016-11-07 Posture estimation method of parking control device and posture estimation device

Publications (2)

Publication Number Publication Date
JP2018075866A true JP2018075866A (en) 2018-05-17
JP6804268B2 JP6804268B2 (en) 2020-12-23

Family

ID=62150072

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016217302A Active JP6804268B2 (en) 2016-11-07 2016-11-07 Posture estimation method of parking control device and posture estimation device

Country Status (1)

Country Link
JP (1) JP6804268B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101473A (en) * 2018-12-25 2020-07-02 クラリオン株式会社 On-vehicle processing device and control method of on-vehicle processing device
JP2020113134A (en) * 2019-01-15 2020-07-27 株式会社アトラックラボ Unmanned moving object, unmanned moving object control method and unmanned moving program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007055378A (en) * 2005-08-23 2007-03-08 Nissan Motor Co Ltd Apparatus and method for supporting parking
JP2008097448A (en) * 2006-10-13 2008-04-24 Toyota Motor Corp Parking support device for vehicle
JP2009149194A (en) * 2007-12-20 2009-07-09 Mitsubishi Heavy Ind Ltd Tracking system and method therefor, and vehicle
JP2009167645A (en) * 2008-01-14 2009-07-30 Toyota Motor Corp Parking supporting system and building
JP2013220802A (en) * 2012-04-19 2013-10-28 Toyota Motor Corp Parking support device, parking support method and parking support program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007055378A (en) * 2005-08-23 2007-03-08 Nissan Motor Co Ltd Apparatus and method for supporting parking
JP2008097448A (en) * 2006-10-13 2008-04-24 Toyota Motor Corp Parking support device for vehicle
JP2009149194A (en) * 2007-12-20 2009-07-09 Mitsubishi Heavy Ind Ltd Tracking system and method therefor, and vehicle
JP2009167645A (en) * 2008-01-14 2009-07-30 Toyota Motor Corp Parking supporting system and building
JP2013220802A (en) * 2012-04-19 2013-10-28 Toyota Motor Corp Parking support device, parking support method and parking support program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020101473A (en) * 2018-12-25 2020-07-02 クラリオン株式会社 On-vehicle processing device and control method of on-vehicle processing device
JP7218172B2 (en) 2018-12-25 2023-02-06 フォルシアクラリオン・エレクトロニクス株式会社 In-vehicle processing device and control method for in-vehicle processing device
JP2020113134A (en) * 2019-01-15 2020-07-27 株式会社アトラックラボ Unmanned moving object, unmanned moving object control method and unmanned moving program

Also Published As

Publication number Publication date
JP6804268B2 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
US11738779B2 (en) Autonomous driving vehicle system
US10005391B2 (en) Information presentation system
CN108688660B (en) Operating range determining device
JP5782708B2 (en) Driving support device
US9896098B2 (en) Vehicle travel control device
CN112046501A (en) Automatic driving device and method
WO2018047223A1 (en) Obstacle determination method, parking support method, dispatch support method, and obstacle determination device
JPWO2020025991A1 (en) Travel locus correction method, travel control method, and travel locus correction device
JP2007309670A (en) Vehicle position detector
CN112046481B (en) Automatic driving device and method
CN112498347A (en) Method and apparatus for real-time lateral control and steering actuation evaluation
KR20210037791A (en) Autonomous driving apparatus and method
CN110869867B (en) Method, apparatus and storage medium for verifying digital map of vehicle
WO2021033632A1 (en) Vehicle control method and vehicle control device
JP6705270B2 (en) Automatic operation control system for mobile
JP6804268B2 (en) Posture estimation method of parking control device and posture estimation device
JP2020004144A (en) Obstacle map generation device and autonomous mobile body
US20210327113A1 (en) Method and arrangement for producing a surroundings map of a vehicle, textured with image information, and vehicle comprising such an arrangement
US20220324387A1 (en) Display control system, display control method, and non-transitory storage medium
JP2020203587A (en) Automatic driving system
JP6976050B2 (en) Posture estimation method of parking control device and posture estimation device
WO2019188209A1 (en) Vehicle, display control device, and recording medium
JP6705271B2 (en) Automatic operation control system for mobile
KR20200133850A (en) Autonomous driving apparatus and method
KR20200133857A (en) Autonomous driving apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201202

R150 Certificate of patent or registration of utility model

Ref document number: 6804268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150