JP6976050B2 - Posture estimation method of parking control device and posture estimation device - Google Patents
Posture estimation method of parking control device and posture estimation device Download PDFInfo
- Publication number
- JP6976050B2 JP6976050B2 JP2016217306A JP2016217306A JP6976050B2 JP 6976050 B2 JP6976050 B2 JP 6976050B2 JP 2016217306 A JP2016217306 A JP 2016217306A JP 2016217306 A JP2016217306 A JP 2016217306A JP 6976050 B2 JP6976050 B2 JP 6976050B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- feature points
- posture
- parking
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、駐車制御装置の姿勢推定方法、及び姿勢推定装置に関する。 The present invention relates to a posture estimation method for a parking control device and a posture estimation device.
従来より特許文献1に記載されているように、車輪の回転数及び車両の操舵角に基づいて推定した自己の位置と姿勢、及び環境マップに基づいて推定した自己の位置及び姿勢に基づいて、最終的な自己の位置及び姿勢を決定する方法が知られている。 Conventionally, as described in Patent Document 1, based on the self-position and posture estimated based on the rotation speed of the wheel and the steering angle of the vehicle, and the self-position and posture estimated based on the environment map. A method of determining the final self-position and posture is known.
環境マップ(例えば、3次元マップ)は、過去に走行した車両で取得したデータにより作成され、道路標識や構造物等の複数の特徴点、特徴物が記憶されている。そして、車両に搭載されるカメラやレーザレーダ等の周囲検出センサで取得した物体の形状やテクスチャー等の環境情報と環境マップの特徴点、特徴物を照合することによって、環境マップにおける車両の位置及び姿勢を推定する。 The environment map (for example, a three-dimensional map) is created from data acquired by a vehicle that has traveled in the past, and a plurality of feature points and features such as road signs and structures are stored. Then, by collating the environmental information such as the shape and texture of the object acquired by the surrounding detection sensor such as the camera or laser radar mounted on the vehicle with the feature points and features of the environmental map, the position of the vehicle and the position of the vehicle on the environmental map and the features are collated. Estimate the posture.
しかしながら、上述した特許文献1に開示された従来例は、車両からの距離を考慮せず特徴点を記憶していたため、環境マップにおける車両の姿勢を高精度に推定できないことがあった。 However, in the conventional example disclosed in Patent Document 1 described above, since the feature points are stored without considering the distance from the vehicle, the posture of the vehicle on the environment map may not be estimated with high accuracy.
本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、車両の姿勢を高精度に推定することができる駐車制御装置の姿勢推定方法、及び姿勢推定装置を提供することにある。 The present invention has been made to solve such a conventional problem, and an object thereof is a posture estimation method of a parking control device capable of estimating the posture of a vehicle with high accuracy, and a posture. The purpose is to provide an estimation device.
上記目的を達成するため、本願発明は、自車両から駐車目標位置までの距離が、予め設定した閾値距離未満の領域である近傍領域に達したか否かを判断し、自車両から駐車目標位置までの距離が近傍領域に達したと判断した場合に、環境マップに含まれる特徴点のうち、駐車目標位置から所定距離以上離れた特徴点を選択し、その特徴点と、自車両の周囲における特徴点とを照合して、車両の姿勢を推定する。 In order to achieve the above object, the present invention determines whether or not the distance from the own vehicle to the parking target position has reached a nearby area which is a region less than a preset threshold distance, and the parking target position from the own vehicle is determined. If the distance to is judged to have reached the vicinity area of the feature points included in the environment map, the target parking position or we choose a predetermined distance or more away feature points, and its feature points, the area around the vehicle collating the feature points definitive to be, we estimate the posture of the vehicle.
本発明によれば、車両の姿勢を高精度に推定することができ、駐車目標位置に対して、正しい位置、姿勢で車両を駐車させることが可能となる。 According to the present invention, the posture of the vehicle can be estimated with high accuracy, and the vehicle can be parked at the correct position and posture with respect to the parking target position.
以下、本発明の実施形態を図面に基づいて説明する。
[第1実施形態の説明]
図1は、本発明の第1実施形態に係る姿勢推定装置、及びその周辺機器の構成を示すブロック図である。図1に示すように、本実施形態に係る姿勢推定装置100は、車両の周囲環境を撮像するカメラ11(周囲検出部)と、車両周囲の三次元データ及び三次元データに含まれる特徴点、特徴物を記憶する環境マップ12と、車両のオドメトリを検出するオドメトリセンサ13と、車両の姿勢に応じた制御信号を出力する制御部15を備えている。制御部15は、車両に搭載されるステアリング、アクセル、ブレーキ、シフト、パーキング等を制御するアクチュエータ16に接続され、該アクチュエータ16に制御信号を出力する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Explanation of the first embodiment]
FIG. 1 is a block diagram showing a configuration of a posture estimation device and a peripheral device thereof according to the first embodiment of the present invention. As shown in FIG. 1, the
環境マップ12は、車両周囲の二次元データを記憶するものであっても良い。また、車両に搭載される場合以外に、ネットワークを経由して接続する構成であってもよい。また、車両の周囲の状況を検出するセンサとしてカメラ11を用いる場合を例に挙げて説明するが、レーザレーダ、ソナー、ビーコン、WiFi通信を用いて車両の周囲状況を検出することも可能である。
The
環境マップ12上の自車両の姿勢は、特徴点との距離と角度を検出して推定する。一般的に、車両と特徴点との距離が遠くなるほど、車両の姿勢は推定し易くなる。例えば、車両の前方に特徴点が存在する場合、車両の姿勢の角度が1度変化すれば、車両と特徴点との距離が大きいほど、特徴点の位置は大きくずれて検出されることになる。これとは反対に、車両と特徴点との距離が小さい場合は、車両の姿勢の角度が1度変化したとしても、特徴点の位置のずれが小さく、検出することが難しい。
The posture of the own vehicle on the
従って、本実施形態では、車両V1が駐車目標位置21に接近した場合(後述する図3の近傍領域R1内に進入した場合)に、駐車目標位置21からより離れた特徴点を用いて姿勢を推定することにより、姿勢の推定精度を高める。なお、車両V1と駐車目標位置21との距離が小さいほど車両V1の姿勢の精度が求められる理由は、車両V1が駐車目標位置21に近づくほど、乗員が車両V1の姿勢に敏感になる傾向にあるためである。例えば、駐車目標位置21に車両V1を駐車するとき、駐車目標位置21に対する車両V1の姿勢がずれていた場合、乗員に違和感を与えることになり、更には、駐車をし直すことも考えられる。従って、車両V1と駐車目標位置21との距離が小さいほど車両V1の姿勢の精度が求められる。
Therefore, in the present embodiment, when the vehicle V1 approaches the parking target position 21 (when the vehicle V1 enters the vicinity region R1 in FIG. 3, which will be described later), the posture is determined by using the feature points farther from the
一方で、環境マップ12上の車両V1の位置は、車両V1からの距離が近い特徴点ほど、推定精度が向上する。例えば、車両V1の前方に特徴点が存在する場合、車両V1が10cm側方に移動すれば、車両V1からの距離が近い特徴点ほど、特徴点の位置は大きくずれて検出されることとなる。これとは反対に車両V1と特徴点との距離が大きい場合は、車両V1が10cm側方に移動したとしても、特徴点の位置のずれが小さく、特徴点の位置のずれを検出することが難しい。
On the other hand, the estimation accuracy of the position of the vehicle V1 on the
制御部15は、環境マップ12を参照し後述する条件に基づいて該環境マップ12に含まれる特徴点、或いは特徴物を選択する特徴点/特徴物選択部151を備える。更に、カメラ11で撮像された画像から車両周囲の特徴点、或いは特徴物を検出する特徴点/特徴物検出部152(特徴点検出回路)を備えている。
The
また、特徴点/特徴物選択部151で選択した特徴点或いは特徴物と、これに対応する特徴点/特徴物検出部152で検出した特徴点或いは特徴物を照合して、車両の姿勢を推定する姿勢推定部153(姿勢推定回路)を備えている。
Further, the posture of the vehicle is estimated by collating the feature point or feature selected by the feature point /
本実施形態で示す各機能は、1又は複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置を含む。処理装置は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。そして、本実施形態に係る姿勢推定装置100は、車両が駐車目標位置(例えば、駐車場の駐車スペース)に接近したときに車両の姿勢を高精度に検出し、駐車目標位置に対して正しい姿勢で車両が停車するように、車両を制御する。
Each function shown in this embodiment may be implemented by one or more processing circuits. The processing circuit includes a processing device including an electric circuit. Processing devices also include devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments. Then, the
以下、本実施形態に係る姿勢推定装置100の処理手順を、図2に示すフローチャートを参照して説明する。この制御は、図1に示す制御部15によって実行される。
Hereinafter, the processing procedure of the
初めに、ステップS11において、制御部15は、車両が駐車目標位置21に接近したか否かを判断する。この処理は、例えば、車両が駐車目標位置21に接近したことを該車両の乗員が判断し、操作スイッチ(図示省略)を押下されたときに、接近したものと判断することができる。或いは、ナビゲーション装置(図示省略)が搭載されている車両では、該ナビゲーション装置に予め駐車目標位置21を登録しておき、GPSの車両位置に基づいて車両が駐車目標位置21に対して第1閾値距離内に接近したことを判断することも可能である。駐車目標位置21の基準点は、例えば、車両が駐車目標位置21内に正しく駐車したときの、中心位置(例えば、図3の符号Q1の位置)とする。また、第1閾値距離は、例えば20mとすることができる。即ち、車両が符号Q1の地点から半径20mの範囲内に達したときに、車両が駐車目標位置21に接近したものと判断することができる。また、車両が半径20mの範囲内に達したときに、音や光を発することにより乗員に報知し、乗員によるスイッチの操作を促すようにしてもよい。なお、車両が駐車目標位置21内に正しく停車したときの、カメラ11の位置を基準位置に設定することも可能である。
First, in step S11, the
ステップS12において、制御部15は、カメラ11で撮像される画像に含まれる特徴点、特徴物、障害物と、環境マップ12の特徴点、特徴物、障害物とを照合して、駐車目標位置に対する車両の位置、姿勢を推定する。特徴点は、例えば道路標識や建造物等の任意の点である。特徴物は、例えば路面に敷設された白線、建造物の壁等である。障害物は、路面に設置されて車両走行の妨げとなる物体等である。
In step S12, the
なお、本実施形態では、周囲検出部としてカメラ11を用い、該カメラ11で撮像した画像を用いて車両周囲の特徴点、特徴物、障害物を検出する例について説明するが、周囲検出部の他の例としてレーザレーダ等を用いることも可能である。また、同時にオドメトリセンサ13により、車輪速パルスやヨーレートセンサ等のオドメトリ情報を取得するとなお良い。
In this embodiment, an example in which a
ステップS13において、制御部15は、車両の位置、姿勢の情報、及びカメラ11で撮像される画像中に含まれる障害物の情報を参照し、車両が現在位置から駐車目標位置21に至るまでの目標経路を生成する。例えば、図3に示すように、車両V1が駐車目標位置21に接近した場合には、該車両V1を駐車目標位置21に駐車させるための好適な目標経路L1を生成する。この際、車両V1は、例えば、路側構造物31を基準として、位置及び姿勢を認識する。
In step S13, the
ステップS14において、制御部15は、車両V1が上記の目標経路L1に沿って走行するように、アクチュエータ16に制御信号を出力して、駐車制御を実行する。
In step S14, the
ステップS15において、制御部15は、車両V1から駐車目標位置21までの距離が、予め設定した第2閾値距離未満の領域(これを、「近傍領域R1」とする)に達したか否かを判断する。第2閾値距離は、例えば10mに設定する。例えば、図3に示す駐車目標位置21の中心点Q1を基準とし、半径10mの範囲を近傍領域R1に設定する。車両V1が近傍領域R1内に進入した場合には、ステップS16に処理を進める。
In step S15, the
ステップS16において、制御部15は、環境マップ12から特徴点を検出する。更に、カメラ11で撮像された画像を取得し、画像を解析して車両周囲に存在する物体や建造物等に含まれる特徴点を検出する。
In step S16, the
ステップS17において、制御部15は、環境マップ12に含まれる特徴点のうち、中心点Q1から所定距離以上離れた特徴点を選択する。具体的には、図4に示すように、中心点Q1から所定距離未満の領域R2を設定し、この領域R2の外側に存在する特徴点を選択する。例えば、図4に示す特徴点p1を選択する。中心点Q1から所定距離以上離れた特徴点を選択することにより、環境マップ12における車両の姿勢の推定精度を向上させることができる。更には、中心点Q1から最も遠い位置に存在する特徴点を選択することにより、自車両の姿勢の推定精度をより一層向上させることが可能となる。
In step S17, the
ステップS18において、制御部15は、ステップS17の処理で選択した特徴点の情報を、駐車制御時に選択した特徴点の情報として環境マップ12に記憶する。該環境マップ12に記憶した特徴点の情報は、次回以降に車両V1を駐車目標位置21に駐車する際に用いることができる。
In step S18, the
ステップS19において、制御部15は、環境マップ12で選択した特徴点と、これに対応するカメラ11で撮像した画像上の特徴点を照合して、環境マップ12での車両V1の姿勢を推定する。具体的には、図4に示したように、特徴点p1が選択された場合には、この特徴点p1と画像上の特徴点を照合して、環境マップ12での車両V1の姿勢を推定する。こうすることにより、車両V1が駐車目標位置21に接近した場合に、該車両V1の駐車目標位置21に対する姿勢の推定精度を高めることができる。
In step S19, the
以下、車両の姿勢を推定する際に、駐車目標位置21から遠くに存在する特徴点を選択する理由について詳細に説明する。
Hereinafter, the reason for selecting a feature point far from the
図5は、車両に搭載されるカメラ11で撮像される周囲画像を模式的に示す説明図である。画像D1は、車両が姿勢F1のときに撮像した画像を示し、画像D2は車両の姿勢角度が姿勢F1に対して若干変化した姿勢F2のときに撮像した画像を示している。姿勢F1では撮像領域がf1となり、姿勢F2では撮像領域がf2となる。そして、姿勢F1のときにカメラ11で撮像した画像D1には、車両の近傍に存在する物体B1(例えば、道路標識)、及び遠方に存在する物体B2(例えば、山)が含まれている。また、姿勢F2のときにカメラ11で撮像した画像D2にも同様に物体B1、B2が含まれている。
FIG. 5 is an explanatory diagram schematically showing a surrounding image captured by a
そして、画像D1、D2を対比すると、車両から遠くに存在する物体ほど、姿勢変化に対して大きく移動して表示されることが理解される。具体的には、画像D1の物体B1と画像D2の物体B1の変化に対して、画像D1の物体B2と画像D2の物体B2の変化の方が大きくなっている。つまり、車両から遠い物体ほど、姿勢変化の影響を大きく受ける。また、上述したように、車両から近い物体ほど、位置変化の影響を大きく受ける。 Then, when the images D1 and D2 are compared, it is understood that the farther the object is from the vehicle, the larger it moves and is displayed in response to the change in posture. Specifically, the change of the object B2 of the image D1 and the change of the object B2 of the image D2 is larger than the change of the object B1 of the image D1 and the object B1 of the image D2. That is, the farther the object is from the vehicle, the greater the influence of the posture change. Further, as described above, the closer the object is to the vehicle, the greater the influence of the position change.
上記のことから、カメラ11で撮像可能な範囲内で、車両からより遠くに存在する特徴点を用いれば、車両の姿勢をより高精度に推定できることが判る。従って、ステップS17の処理では、駐車目標位置21から最も遠くに存在する特徴点p1を選択して車両の姿勢を推定する。
From the above, it can be seen that the posture of the vehicle can be estimated with higher accuracy by using the feature points existing farther from the vehicle within the range that can be captured by the
次いで、図2のステップS20において、制御部15は、目標経路L1に沿って車両V1が走行するように制御し、車両V1を駐車目標位置21に移動させる。
Next, in step S20 of FIG. 2, the
ステップS21において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。
In step S21, the
このようにして、第1実施形態に係る姿勢推定装置100では、車両V1を駐車目標位置21に駐車する際に、環境マップ12の特徴点とカメラ11で撮像される画像の特徴点を照合して環境マップ12での駐車目標位置21に対する車両V1の姿勢を推定する。この際、駐車目標位置21から所定距離以上離れた特徴点(図4の領域R2の外側の特徴点)、或いは、中心点Q1から最も離れた特徴点を選択し、記憶する。これにより、車両V1が駐車目標位置21へ環境マップ12を用いて駐車するに際し、駐車目標位置21から遠い位置に存在する特徴点を用いることができるようになるため、車両V1の姿勢を高精度に推定でき、駐車目標位置21に対して正しい位置に車両を駐車することができる。
In this way, in the
更に、選択した特徴点の情報は環境マップ12に記憶されるので、次回以降に車両V1を同一の駐車目標位置21に駐車させる場合には、環境マップ12に記憶されている特徴点を選択することができる。従って、新たに特徴点を選択する処理が必要無く、演算負荷を軽減することが可能となる。
Further, since the information of the selected feature points is stored in the
また、前述した中心点Q1に代えて、車両V1が駐車目標位置21に駐車したときの、カメラ11の取り付け位置を基準点として、特徴点までの距離を演算するようにすれば、より正確に特徴点までの距離を判別することができ、姿勢の推定精度を向上させることができる。
Further, instead of the center point Q1 described above, the distance to the feature point can be calculated more accurately by using the mounting position of the
[第2実施形態の説明]
次に、本発明の第2実施形態について説明する。装置構成は、図1に示したブロック図と同様であるので説明を省略する。
[Explanation of the second embodiment]
Next, a second embodiment of the present invention will be described. Since the device configuration is the same as the block diagram shown in FIG. 1, the description thereof will be omitted.
第2実施形態では、環境マップ12の特徴点のうち、駐車目標位置21から所定距離以上離れた特徴点に加え、所定距離未満に存在する特徴点を選択し、双方の特徴点とカメラ11で撮像された画像に含まれる特徴点を照合して、車両V1の位置、及び姿勢を高精度に推定する。以下、図6に示すフローチャートを参照して、第2実施形態に係る姿勢推定装置の処理手順について説明する。
In the second embodiment, among the feature points of the
図6に示すステップS51〜56の処理は、図2に示したステップS11〜S16の処理と同様であるので、説明を省略する。 Since the processing of steps S51 to 56 shown in FIG. 6 is the same as the processing of steps S11 to S16 shown in FIG. 2, the description thereof will be omitted.
ステップS57において、制御部15は、環境マップ12の特徴点のうち、駐車目標位置21から所定距離以上離れた特徴点(図4の領域R2の外側の特徴点)に加えて、所定距離未満の特徴点(領域R2の内側の特徴点)を選択する。具体的には、図7に示すように、駐車目標位置21から遠い特徴点p1と、近い特徴点p2(白線の隅の点)を選択する。
In step S57, among the feature points of the
ステップS58において、制御部15は、選択した特徴点を駐車制御に使用する特徴点として環境マップ12に記憶する。その後、ステップS59において、制御部15は、選択した特徴点p1及びp2と、カメラ11で撮像した画像に含まれる特徴点とを照合して、車両V1の位置、姿勢を推定する。駐車目標位置21から近い位置に存在する特徴点p2を選択することにより、駐車目標位置21に対する車両V1の位置を高精度に推定でき、結果として車両V1の位置、及び姿勢を高精度に推定できることになる。
In step S58, the
ステップS60において、制御部15は、目標経路に沿って車両V1が走行するように制御し、車両V1を駐車目標位置21に移動させる。
In step S60, the
ステップS61において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。
In step S61, the
このようにして、第2実施形態に係る姿勢推定装置では、環境マップ12の特徴点のうち、駐車目標位置21から所定距離以上離れた特徴点、及び所定距離未満の特徴点の双方を選択して車両V1の位置、姿勢を推定する。所定距離以上離れた特徴点を用いることにより、環境マップ12での車両V1の姿勢の推定精度を向上させることができる。所定距離未満の特徴点を用いることにより、環境マップ12での車両V1の位置の推定精度を向上させることができる。従って、車両V1を駐車目標位置21内に駐車する際の位置、及び姿勢を高精度に推定し、駐車目標位置21の正しい位置に、且つ正しい姿勢で車両V1を駐車することが可能となる。
In this way, in the posture estimation device according to the second embodiment, both the feature points separated from the
[第3実施形態の説明]
次に、本発明の第3実施形態について説明する。装置構成は、図1に示したブロック図と同様であるので説明を省略する。
[Explanation of the third embodiment]
Next, a third embodiment of the present invention will be described. Since the device configuration is the same as the block diagram shown in FIG. 1, the description thereof will be omitted.
第3実施形態では、環境マップ12内の特徴点のうち、所定距離以上離れた特徴点に加え、環境マップ12に含まれる平面状、直線状の特徴物を選択し、選択した特徴点、特徴物とカメラ11で撮像された画像に含まれる特徴点、特徴物を照合して、車両V1の位置、及び姿勢を高精度に推定する。以下、図8に示すフローチャートを参照して、第3実施形態に係る姿勢推定装置の処理手順について説明する。
In the third embodiment, among the feature points in the
図8に示すステップS71〜76の処理は、図2に示したステップS11〜S16の処理と同様であるので、説明を省略する。 Since the processing of steps S71 to 76 shown in FIG. 8 is the same as the processing of steps S11 to S16 shown in FIG. 2, the description thereof will be omitted.
ステップS77において、制御部15は、環境マップ12に存在する特徴点のうち、駐車目標位置21から所定距離以上離れた特徴点を選択する。具体的には、図9に示すように、領域R2の外側の特徴点p1を選択する。更に、ステップS78において、制御部15は、車両V1の周囲に存在する平面状、或いは直線状の特徴物を選択する。例えば、図9に示すように、白線22を選択する。この際、特徴物(白線22)の位置は、領域R2の外部、内部を問わない。
In step S77, the
ステップS79において、制御部15は、選択した特徴点、及び特徴物を、駐車制御に用いる特徴点として記憶部14に記憶する。その後、ステップS80において、制御部15は、選択した特徴点p1及び特徴物(白線22)と、カメラ11で撮像した画像に含まれる特徴点及び特徴物を照合して、車両の位置、姿勢を推定する。
In step S79, the
ステップS81において、制御部15は、目標経路に沿って車両V1が走行するように制御し、車両V1を駐車目標位置21に移動させる。
In step S81, the
ステップS82において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。
In step S82, the
このようにして、第3実施形態に係る姿勢推定装置では、環境マップ12の特徴点のうち、駐車目標位置21から遠い位置に存在する特徴点、及び平面状、或いは直線状の特徴物を選択して車両V1の位置、姿勢を推定している。駐車目標位置21から遠い特徴点を用いることにより、環境マップ12での車両V1の姿勢の推定精度を向上させることができる。また、平面状、直線状の特徴物を用いることにより、環境マップ12での車両の位置、姿勢の推定精度を向上させることができる。従って、駐車目標位置21に対する車両V1の位置、及び姿勢を高精度に推定することが可能となり、駐車目標位置21の正しい位置に、且つ正しい姿勢で車両V1を駐車することが可能となる。
In this way, in the posture estimation device according to the third embodiment, among the feature points of the
以上、本発明の駐車制御装置の姿勢推定方法、姿勢推定装置を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。 Although the posture estimation method and the posture estimation device of the parking control device of the present invention have been described above based on the illustrated embodiment, the present invention is not limited to this, and the configuration of each part has the same function. It can be replaced with any configuration.
11 カメラ
12 環境マップ
13 オドメトリセンサ
14 記憶部
15 制御部
16 アクチュエータ
21 駐車目標位置
22 白線
31 路側構造物
100 姿勢推定装置
151 特徴点/特徴物選択部
152 特徴点/特徴物検出部(特徴点検出回路)
153 姿勢推定部(姿勢推定回路)
p1、p2 特徴点
V1 車両
R1 近傍領域
11
153 Posture estimation unit (posture estimation circuit)
p1, p2 Feature point V1 Vehicle R1 neighborhood area
Claims (5)
前記自車両の周囲における特徴点を検出し、
前記自車両から前記駐車目標位置までの距離が、予め設定した閾値距離未満の領域である近傍領域に達したか否かを判断し、
前記自車両から前記駐車目標位置までの距離が前記近傍領域に達したと判断した場合に、前記環境マップに含まれる特徴点のうち、前記駐車目標位置から所定距離以上離れた特徴点を選択し、
前記所定距離以上離れた特徴点と、当該特徴点に対応する前記自車両の周囲における特徴点と、を照合して、前記環境マップにおける自車両の姿勢を推定すること
を特徴とする駐車制御装置の姿勢推定方法。 When parking at the parking target position, an environment map showing the surrounding situation of the parking target position is stored, feature points are stored in the environment map, and the own vehicle in the environment map is stored based on the feature points. It is a posture estimation method that estimates the posture.
Detecting the feature points around the own vehicle,
It is determined whether or not the distance from the own vehicle to the parking target position has reached a nearby region, which is a region less than a preset threshold distance.
When the distance from the vehicle to the parking target position is determined to have reached the vicinity region of the feature points included in the environment map, select the target parking position or al a predetermined distance or more away feature points death,
Parking wherein the predetermined distance or more away feature points, and compares the feature points, the at the periphery of the vehicle corresponding to the feature point, characterized that you estimate the posture of the vehicle in the environment map Control device attitude estimation method.
前記最も距離の離れた特徴点と、当該特徴点に対応する前記環境マップの特徴点と、を照合して前記環境マップにおける自車両の姿勢を推定すること
を特徴とする請求項1に記載の駐車制御装置の姿勢推定方法。 From the feature points around the own vehicle, select the feature point farthest from the own vehicle.
The first aspect of claim 1, wherein the posture of the own vehicle in the environment map is estimated by collating the feature points at the farthest distance with the feature points of the environment map corresponding to the feature points. Posture estimation method for parking control device.
前記所定距離未満の特徴点と、当該特徴点に対応する前記環境マップの特徴点と、を照合して、前記環境マップにおける自車両の位置を推定すること
を特徴とする請求項1または2に記載の駐車制御装置の姿勢推定方法。 From the feature points around the own vehicle, a feature point less than a predetermined distance from the own vehicle is further selected.
Claim 1 or 2 is characterized in that the position of the own vehicle on the environment map is estimated by collating the feature points less than the predetermined distance with the feature points of the environment map corresponding to the feature points. The method of estimating the attitude of the parking control device according to the above.
前記平面状或いは直線状となる特徴物と、当該特徴物に対応する前記環境マップの特徴物と、を照合して自車両の姿勢を推定すること
を特徴とする請求項1乃至3の何れか一項に記載の駐車制御装置の姿勢推定方法。 From the feature points around the own vehicle, select a feature that is flat or linear, and select it.
Any of claims 1 to 3, wherein the posture of the own vehicle is estimated by collating the flat or linear feature with the feature of the environment map corresponding to the feature. The posture estimation method for the parking control device according to claim 1.
前記自車両の周囲における特徴点を検出する特徴点検出回路と、
前記自車両から前記駐車目標位置までの距離が、予め設定した閾値距離未満の領域である近傍領域に達したか否かを判断し、前記自車両から前記駐車目標位置までの距離が前記近傍領域に達したと判断した場合に、前記環境マップに含まれる特徴点のうち、前記目標駐車位置から所定距離以上離れた特徴点を選択する姿勢推定回路と、を備え、
前記姿勢推定回路は、前記所定距離以上離れた特徴点と、当該特徴点に対応する前記自車両の周囲における特徴点と、を照合して、前記環境マップにおける自車両の姿勢を推定すること
を特徴とする姿勢推定装置。 When parking at the parking target position, an environment map showing the surrounding situation of the parking target position is stored, feature points are stored in the environment map, and the own vehicle in the environment map is stored based on the feature points. It is a posture estimation device that estimates the posture.
The feature point detection circuit that detects the feature points around the own vehicle, and the feature point detection circuit.
It is determined whether or not the distance from the own vehicle to the parking target position has reached a neighborhood region which is a region less than a preset threshold distance, and the distance from the own vehicle to the parking target position is the neighborhood region. A posture estimation circuit that selects a feature point that is separated from the target parking position by a predetermined distance or more from the feature points included in the environment map when it is determined that the parking position has been reached is provided.
The posture estimation circuit comprises a predetermined distance or more away feature point, and feature points in the surrounding of the vehicle corresponding to the feature point, by matching, we estimate the posture of the vehicle in the environment map A posture estimation device characterized by this.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016217306A JP6976050B2 (en) | 2016-11-07 | 2016-11-07 | Posture estimation method of parking control device and posture estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016217306A JP6976050B2 (en) | 2016-11-07 | 2016-11-07 | Posture estimation method of parking control device and posture estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018077566A JP2018077566A (en) | 2018-05-17 |
JP6976050B2 true JP6976050B2 (en) | 2021-12-01 |
Family
ID=62150686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016217306A Active JP6976050B2 (en) | 2016-11-07 | 2016-11-07 | Posture estimation method of parking control device and posture estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6976050B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109682368B (en) * | 2018-11-30 | 2021-07-06 | 上海肇观电子科技有限公司 | Robot, map construction method, positioning method, electronic device and storage medium |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004198211A (en) * | 2002-12-18 | 2004-07-15 | Aisin Seiki Co Ltd | Apparatus for monitoring vicinity of mobile object |
JP2006338272A (en) * | 2005-06-01 | 2006-12-14 | Nissan Motor Co Ltd | Vehicle behavior detector and vehicle behavior detection method |
JP5187805B2 (en) * | 2006-10-03 | 2013-04-24 | 独立行政法人産業技術総合研究所 | Method for measuring relative angle and position of moving object to index position, and parking assist method and system using the same |
JP2010163103A (en) * | 2009-01-16 | 2010-07-29 | Denso Corp | Parking support apparatus and vehicle parking assistance system |
JP5699670B2 (en) * | 2011-02-18 | 2015-04-15 | 日産自動車株式会社 | Travel route generation device and travel route generation method |
JP5966747B2 (en) * | 2012-08-08 | 2016-08-10 | 日産自動車株式会社 | Vehicle travel control apparatus and method |
JP2014106739A (en) * | 2012-11-27 | 2014-06-09 | Clarion Co Ltd | In-vehicle image processing device |
JP6044334B2 (en) * | 2012-12-27 | 2016-12-14 | 日産自動車株式会社 | Parking assistance device, parking assistance system, and parking assistance method |
JP2015116899A (en) * | 2013-12-18 | 2015-06-25 | 株式会社ゼンリンデータコム | Simple type parking assist device, parking assist method, and parking assist program |
CN104260722B (en) * | 2014-09-23 | 2017-06-06 | 北京理工大学 | A kind of automated parking system |
DE102014223363B4 (en) * | 2014-11-17 | 2021-04-29 | Volkswagen Aktiengesellschaft | Method and device for localizing a motor vehicle in a fixed reference map |
-
2016
- 2016-11-07 JP JP2016217306A patent/JP6976050B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018077566A (en) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11738779B2 (en) | Autonomous driving vehicle system | |
US9714034B2 (en) | Vehicle control device | |
CN108688660B (en) | Operating range determining device | |
JP6078116B2 (en) | Vehicle driving support device | |
JP5782708B2 (en) | Driving support device | |
JP5786941B2 (en) | Autonomous driving control system for vehicles | |
EP3477614B1 (en) | Vehicle control method and vehicle control device | |
US9896098B2 (en) | Vehicle travel control device | |
KR20200014931A (en) | Vehicle information storage method, vehicle driving control method, and vehicle information storage device | |
JP2016007954A (en) | Lane merging assist system | |
KR20200049869A (en) | Driving support method and driving support device | |
US20220253065A1 (en) | Information processing apparatus, information processing method, and information processing program | |
JP7043765B2 (en) | Vehicle driving control method and equipment | |
JP6658968B2 (en) | Driving support method and driving support device | |
WO2020148561A1 (en) | Driving assistance method and driving assistance device | |
KR20180012128A (en) | Apparatus for estimating 3d position of vehicle and method thereof | |
JP5109950B2 (en) | Parking assistance device | |
JP6943005B2 (en) | Lane change judgment method and lane change judgment device | |
JP6976050B2 (en) | Posture estimation method of parking control device and posture estimation device | |
JP7202982B2 (en) | Driving support method and driving support device | |
JP7087896B2 (en) | Driving lane estimation device, driving lane estimation method, and control program | |
JP6804268B2 (en) | Posture estimation method of parking control device and posture estimation device | |
WO2019188209A1 (en) | Vehicle, display control device, and recording medium | |
KR20230173401A (en) | Method and system for sensor fusion in vehicel | |
KR20210056501A (en) | Vehicle lane change assistance system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200706 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200811 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211012 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6976050 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |