JP2014034251A - Vehicle traveling control device and method thereof - Google Patents

Vehicle traveling control device and method thereof Download PDF

Info

Publication number
JP2014034251A
JP2014034251A JP2012175547A JP2012175547A JP2014034251A JP 2014034251 A JP2014034251 A JP 2014034251A JP 2012175547 A JP2012175547 A JP 2012175547A JP 2012175547 A JP2012175547 A JP 2012175547A JP 2014034251 A JP2014034251 A JP 2014034251A
Authority
JP
Japan
Prior art keywords
vehicle
position estimation
vehicle position
estimation
landmark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012175547A
Other languages
Japanese (ja)
Other versions
JP5966747B2 (en
Inventor
Hikari Nishira
西羅  光
Noriaki Fujiki
教彰 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012175547A priority Critical patent/JP5966747B2/en
Publication of JP2014034251A publication Critical patent/JP2014034251A/en
Application granted granted Critical
Publication of JP5966747B2 publication Critical patent/JP5966747B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a vehicle traveling control device capable of obtaining stable estimation accuracy during traveling in a highly difficult section.SOLUTION: A ground own vehicle position estimation unit 3 estimates estimated values of own vehicle position and a posture and estimation accuracy on a ground fixed coordinate system. A relative own vehicle position estimation unit 4 integrates the changing amounts of the own vehicle position to estimate a relative positional relationship between a reference point, an azimuth, and the own vehicle position. An own vehicle position difficult section estimation unit 8 estimates a section where the difficulty of position estimation on a target traveling route by the ground own vehicle position estimation unit is high. A landmark retrieval unit 9 retrieves a landmark highly likely to be within the photographing range of an ambient environment photographing unit 1 in a region before the section estimated to be high in difficulty from map information. An own vehicle position estimation switching unit 11 switches from the ground own vehicle position estimation unit to the relative own vehicle position estimation unit during traveling in the section where the position estimation difficulty is high on the basis of the landmark. An own vehicle traveling control unit 7 subjects the own vehicle to traveling control on the basis of the output of the relative own vehicle position estimation unit during traveling in the section where the position estimation difficulty is high, and subjects the own vehicle to traveling control on the basis of the output of the ground own vehicle position estimation unit in sections other than the section where the position estimation difficulty is high.

Description

本発明は、車両を目標走行経路に追従させる車両走行制御装置及びその方法に関し、特に、駐車・狭路通過等の高難度区間を走行する際にも、安定した推定精度を得る車両走行制御装置及びその方法に関する。   The present invention relates to a vehicle travel control apparatus and method for causing a vehicle to follow a target travel route, and in particular, a vehicle travel control apparatus that obtains stable estimation accuracy even when traveling in a highly difficult section such as parking and passing through a narrow road. And its method.

従来、この種の技術として、例えば特許文献1に記載された駐車支援装置が知られている。この駐車支援装置は、駐車位置に設置されたマークを撮影するカメラを備え、検出されたマークと自車現在位置との相対位置関係を画像処理によって認識して駐車支援を行う。   Conventionally, as this type of technology, for example, a parking assistance device described in Patent Document 1 is known. The parking assist device includes a camera that captures a mark placed at a parking position, and performs parking support by recognizing a relative positional relationship between the detected mark and the current position of the vehicle by image processing.

駐車支援装置は、駐車開始位置から駐車完了位置までの理想走行経路を予め車両を走行させることで記録する。理想走行経路を記録した後に、設定された駐車位置に駐車する場合に、駐車開始時に設置されたマークをカメラで検出して自車位置を算出する。算出された自車位置と駐車開始位置との誤差を推定し、推定された誤差に基づき理想走行経路を補正して駐車誘導経路を算出して自動駐車を実行する。   The parking assist device records the ideal travel route from the parking start position to the parking completion position by causing the vehicle to travel in advance. When parking at the set parking position after recording the ideal travel route, the vehicle position is calculated by detecting the mark installed at the start of parking with a camera. An error between the calculated own vehicle position and the parking start position is estimated, an ideal travel route is corrected based on the estimated error, a parking guidance route is calculated, and automatic parking is executed.

特開2008-174000号公報JP 2008-174000

しかしながら、特許文献1に記載された駐車支援装置においては、予め駐車位置にマークを設置する必要があった。また、過去に一度、駐車した場所でないと、自動駐車させることができなかった。また、マークがカメラ視野内に入るまでは、ドライバーが運転するか、あるいは別の方法で車両を誘導する必要があった。   However, in the parking assistance device described in Patent Document 1, it is necessary to previously install a mark at the parking position. In addition, automatic parking was not possible unless the vehicle was parked once in the past. Also, until the mark enters the camera field of view, the driver has to drive or otherwise guide the vehicle.

即ち、駐車・狭路通過等の高難度区間を走行する際には、安定した推定精度を得ることができず、高精度に自動駐車させることができなかった。   That is, when traveling in a highly difficult section such as parking and passing through a narrow road, stable estimation accuracy cannot be obtained, and automatic parking cannot be performed with high accuracy.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、駐車・狭路通過等の高難度区間を走行する際にも、安定した推定精度を得ることができる車両走行制御装置及びその方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above situation, and a vehicle travel control device capable of obtaining stable estimation accuracy even when traveling in a highly difficult section such as parking and passing through a narrow road, and the like An object is to provide such a method.

本発明は、第1の自車位置推定部により自車の周囲環境の画像に基づき地上固定座標系上での自車の位置と姿勢の推定値及び推定精度を推定する。第2の自車位置推定部により自車の操作量及び運動状態に基づき推定される自車位置の変化量を積算することで基準点及び方位と自車位置との相対的な位置関係を推定し、目標走行経路上で第1の自車位置推定部による位置推定の難度が高い区間を推定する。難度が高いと推定された区間の手前側領域内で周囲環境撮影部の撮影範囲に入る可能性が高いランドマークを地図情報から検出する。検出されたランドマークに基づき位置推定難度の高い区間を走行中、自車位置推定切替部により第1の自車位置推定部から第2の自車位置推定部に切り替える。位置推定難度の高い区間を走行中、自車位置推定切替部の結果に基づく第2の自車位置推定部の出力に基づき自車の走行制御を実行し、位置推定難度の高い区間以外の区間では自車位置推定切替部の結果に基づく第1の自車位置推定部の出力に基づき自車の走行制御を実行する。   In the present invention, the estimated value and estimation accuracy of the position and orientation of the vehicle on the ground fixed coordinate system are estimated by the first vehicle position estimation unit based on the surrounding environment image of the vehicle. The relative position relationship between the reference point and direction and the vehicle position is estimated by integrating the amount of change in the vehicle position estimated based on the operation amount and the movement state of the vehicle by the second vehicle position estimation unit. Then, a section having a high degree of difficulty in position estimation by the first vehicle position estimation unit is estimated on the target travel route. A landmark having a high possibility of entering the shooting range of the surrounding environment shooting unit in the near side area of the section estimated to have a high degree of difficulty is detected from the map information. Based on the detected landmark, the vehicle position estimation switching unit switches from the first vehicle position estimation unit to the second vehicle position estimation unit while traveling in a section where the position estimation difficulty is high. While traveling in a section with a high degree of position estimation difficulty, a section other than the section with a high position estimation difficulty is executed by executing travel control of the own vehicle based on the output of the second vehicle position estimation section based on the result of the own vehicle position estimation switching section. Then, the traveling control of the host vehicle is executed based on the output of the first host vehicle position estimation unit based on the result of the host vehicle position estimation switching unit.

本発明によれば、位置推定難度の高い区間を走行中、第1の自車位置推定部から第2の自車位置推定部に切り替え、位置推定難度の高い区間を走行中、自車位置推定切替部の結果に基づく第2の自車位置推定部の出力に基づき自車の走行制御を実行する。位置推定難度の高い区間以外の区間では自車位置推定切替部の結果に基づく第1の自車位置推定部の出力に基づき自車の走行制御を実行する。従って、駐車・狭路通過等の高難度区間を走行する際にも、安定した推定精度を得ることができる   According to the present invention, the vehicle position estimation is switched from the first vehicle position estimation unit to the second vehicle position estimation unit while traveling in a section with high position estimation difficulty, and the vehicle position estimation is performed while traveling in a section with high position estimation difficulty. Based on the output of the second host vehicle position estimation unit based on the result of the switching unit, the travel control of the host vehicle is executed. In a section other than the section where the position estimation difficulty is high, travel control of the host vehicle is executed based on the output of the first host vehicle position estimation unit based on the result of the host vehicle position estimation switching unit. Therefore, stable estimation accuracy can be obtained even when traveling in highly difficult sections such as parking and passing through narrow roads.

本発明の第1の実施形態の車両走行制御装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle travel control apparatus of the 1st Embodiment of this invention. 本発明の第1の実施形態の車両走行制御装置が適用される例を示す図である。It is a figure which shows the example to which the vehicle travel control apparatus of the 1st Embodiment of this invention is applied. 図2に示す第1の実施形態の車両走行制御装置が適用される例において性質の異なる2つの自己位置推定方法をランドマークの検出により使い分ける例を示す図である。It is a figure which shows the example which uses properly two self-position estimation methods from which a property differs in the example to which the vehicle travel control apparatus of 1st Embodiment shown in FIG. 2 is applied. 本発明の第1の実施形態の車両走行制御装置の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the vehicle travel control apparatus of the 1st Embodiment of this invention. 本発明の第2の実施形態の自車位置姿勢推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the own vehicle position and orientation estimation apparatus of the 2nd Embodiment of this invention. (a)は撮影画像、(b)は(a)のエッジ画像、(c)は仮想画像、(d)は(c)の仮想位置が右方向にずれた場合の仮想画像である。(A) is a photographed image, (b) is an edge image of (a), (c) is a virtual image, and (d) is a virtual image when the virtual position of (c) is shifted to the right. 本発明の第2の実施形態の自車位置姿勢推定装置の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the own vehicle position and orientation estimation apparatus of the 2nd Embodiment of this invention. 本発明の第2の実施形態の自車位置姿勢推定装置においてパーティクルを移動させる動作を説明する説明図である。It is explanatory drawing explaining the operation | movement which moves a particle in the own vehicle position and orientation estimation apparatus of the 2nd Embodiment of this invention. 本発明の第2の実施形態の自車位置姿勢推定装置において、車両からの距離と尤度like_pとの関係を示す図である。It is a figure which shows the relationship between the distance from a vehicle, and likelihood like_p in the own vehicle position and orientation estimation apparatus of the 2nd Embodiment of this invention. 本発明の第2の実施形態の自車位置姿勢推定装置において、車両からの距離と尤度like_aとの関係を示す図である。It is a figure which shows the relationship between the distance from a vehicle, and likelihood like_a in the own vehicle position and orientation estimation apparatus of the 2nd Embodiment of this invention.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

〔第1の実施形態〕
図1は、本発明の第1の実施形態の車両走行制御装置の構成を示すブロック図である。車両走行制御装置は、周囲環境撮影部1、自車状態検出部2、対地自車位置推定部3、相対自車位置推定部4、地図データベース(地図DB)5、走行経路算出部6を備える。また、車両走行制御装置は、自動走行制御部7、自車位置難度区間推定部8、ランドマーク検索部9、ランドマーク検出走行制御部10、自車位置推定切替部11を備える。
[First Embodiment]
FIG. 1 is a block diagram showing the configuration of the vehicle travel control apparatus according to the first embodiment of the present invention. The vehicle travel control device includes an ambient environment photographing unit 1, a vehicle state detection unit 2, a ground vehicle position estimation unit 3, a relative vehicle position estimation unit 4, a map database (map DB) 5, and a travel route calculation unit 6. . In addition, the vehicle travel control device includes an automatic travel control unit 7, a host vehicle position difficulty interval estimation unit 8, a landmark search unit 9, a landmark detection travel control unit 10, and a host vehicle position estimation switching unit 11.

周囲環境撮影部1は、自車の周囲環境の画像を撮影し、撮影された画像を対地自車位置推定部3に出力するもので、カメラ等である。自車状態検出部2は、自車の操作量及び運動状態を検出し、検出値を相対自車位置推定部4に出力するもので、エンコーダ、速度センサ等である。   The ambient environment photographing unit 1 captures an image of the surrounding environment of the host vehicle and outputs the captured image to the ground host vehicle position estimating unit 3 and is a camera or the like. The own vehicle state detection unit 2 detects an operation amount and a movement state of the own vehicle, and outputs a detected value to the relative own vehicle position estimation unit 4, and is an encoder, a speed sensor, or the like.

対地自車位置推定部3は、第1の自車位置推定手段に対応し、カメラを用いたVMM(Visual Map Matching)で実現され、高難度区間として駐車エリアやランドマークが乏しい狭路区間を想定する。対地自車位置推定部3は、周囲環境撮影部1で検出された自車の周囲環境の画像に基づき、地上固定座標系上での自車の位置と姿勢の推定値及び推定精度を算出する。対地自車位置推定部3は、地図データが利用可能な走行区間では、継続的に自車位置を推定できるが、高難度区間では位置推定精度が低下する。   The ground vehicle position estimation unit 3 corresponds to the first vehicle position estimation means, and is realized by a VMM (Visual Map Matching) using a camera. Suppose. The ground vehicle position estimation unit 3 calculates the estimated value and estimation accuracy of the position and posture of the vehicle on the ground fixed coordinate system based on the image of the surrounding environment of the vehicle detected by the ambient environment photographing unit 1. . The ground vehicle position estimation unit 3 can continuously estimate the vehicle position in a travel section where map data is available, but the position estimation accuracy decreases in a high difficulty section.

相対自車位置推定部4は、第2の自車位置推定手段に対応し、自車状態検出部2の検出値に基づき推定される自車位置の変化量を積算することで、基準点及び方位と自車位置との相対的な位置関係を推定する。相対自車位置推定部4は、場所によらず高い位置推定精度が期待できるが、走行距離とともに誤差が積算されるので、継続的な使用が困難である。   The relative vehicle position estimation unit 4 corresponds to the second vehicle position estimation unit, and integrates the amount of change in the vehicle position estimated based on the detection value of the vehicle state detection unit 2, thereby The relative positional relationship between the bearing and the vehicle position is estimated. Although the relative vehicle position estimation unit 4 can be expected to have high position estimation accuracy regardless of the location, since the error is integrated with the travel distance, continuous use is difficult.

地図DB5は、自車が走行可能な道路の線形情報及び道路周辺の構造物の位置情報を地図情報として取得して記憶するもので、ハードディスク、メモリなどの記憶媒体からなる。走行経路算出部6は、地図DB5に記憶された地図情報に基づき、自車の出発地点から移動目標地点に至る目標走行経路を算出するもので、ナビゲーション等である。   The map DB 5 acquires and stores linear information of a road on which the vehicle can travel and position information of structures around the road as map information, and includes a storage medium such as a hard disk or a memory. The travel route calculation unit 6 calculates a target travel route from the departure point of the own vehicle to the movement target point based on the map information stored in the map DB 5, and is a navigation or the like.

自動走行制御部7は、走行経路算出部6で算出された目標走行経路に自車が追従するように操舵系及び制駆動系を自動で制御する。自車位置難度区間推定部8は、走行経路算出部6で算出された目標走行経路上で対地自車位置推定部3による位置推定の難度が高い区間を推定する。   The automatic travel control unit 7 automatically controls the steering system and the braking / driving system so that the host vehicle follows the target travel route calculated by the travel route calculation unit 6. The own vehicle position difficulty level section estimation unit 8 estimates a section on the target travel route calculated by the travel route calculation unit 6 where the position estimation difficulty by the ground vehicle position estimation unit 3 is high.

ランドマーク検索部9は、ランドマーク検出手段に対応し、自車位置難度区間推定部8で難度が高いと推定された区間の手前側領域内で、周囲環境撮影部1の撮影範囲に入る可能性が高いランドマークを地図DB5の地図情報から検出する。   The landmark search unit 9 corresponds to the landmark detection means, and can enter the shooting range of the surrounding environment shooting unit 1 within the area on the near side of the section estimated to be high by the own vehicle position difficulty section estimation unit 8. A highly characteristic landmark is detected from the map information in the map DB 5.

ランドマーク検出走行制御部10は、ランドマーク検出手段に対応し、対地自車位置推定部3による自車位置推定精度が所定の水準になるまで、検出されたランドマークが周囲環境撮影部1の撮影範囲内に入るように自車位置を補正するように制御する。   The landmark detection travel control unit 10 corresponds to the landmark detection means, and the detected landmarks of the surrounding environment photographing unit 1 are detected until the vehicle position estimation accuracy by the ground vehicle position estimation unit 3 reaches a predetermined level. Control is performed so as to correct the vehicle position so as to be within the shooting range.

自車位置推定切替部11は、ランドマーク検出走行制御部10が起動された状態で対地自車位置推定部3の位置推定精度が所定の水準以上になった場合には、ランドマーク検出走行制御部10の起動を解除する。自車位置推定切替部11は、位置推定難度の高い区間を走行中、対地自車位置推定部3から相対自車位置推定部4に切り替える。   The own vehicle position estimation switching unit 11 performs landmark detection travel control when the position estimation accuracy of the ground vehicle position estimation unit 3 exceeds a predetermined level with the landmark detection travel control unit 10 activated. The activation of the unit 10 is canceled. The own vehicle position estimation switching unit 11 switches from the ground own vehicle position estimation unit 3 to the relative own vehicle position estimation unit 4 while traveling in a section where the position estimation difficulty is high.

自動走行制御部7は、位置推定難度の高い区間を走行中、自車位置推定切替部11の結果に基づく相対自車位置推定部4の出力に基づき自車を走行制御し、位置推定難度の高い区間以外の区間では自車位置推定切替部11の結果に基づく対地自車位置推定部3の出力に基づき自車を走行制御する。   The automatic travel control unit 7 travels the vehicle based on the output of the relative vehicle position estimation unit 4 based on the result of the vehicle position estimation switching unit 11 while traveling in a section where the position estimation difficulty is high. In a section other than the high section, the host vehicle is travel-controlled based on the output of the ground host vehicle position estimation unit 3 based on the result of the host vehicle position estimation switching unit 11.

対地自車位置推定部3、相対自車位置推定部4、走行経路算出部6、自動走行制御部7、自車位置難度区間推定部8、ランドマーク検索部9、ランドマーク検出走行制御部10、自車位置推定切替部11はECUが自動走行制御用プログラムを実行して実現される。   Ground vehicle position estimation unit 3, relative vehicle position estimation unit 4, travel route calculation unit 6, automatic travel control unit 7, own vehicle position difficulty section estimation unit 8, landmark search unit 9, landmark detection travel control unit 10 The own vehicle position estimation switching unit 11 is realized by the ECU executing an automatic traveling control program.

次にこのように構成された第1の実施形態の車両走行制御装置の動作を図2乃至図4を参照しながら詳細に説明する。図2は、本発明の第1の実施形態の車両走行制御装置が適用される例を示す図である。図3は、図2に示す第1の実施形態の車両走行制御装置が適用される例において性質の異なる2つの自己位置推定方法をランドマークの検出により使い分ける例を示す図である。図4は、本発明の第1の実施形態の車両走行制御装置の動作手順を示すフローチャートである。   Next, the operation of the vehicle travel control apparatus of the first embodiment configured as described above will be described in detail with reference to FIGS. FIG. 2 is a diagram illustrating an example to which the vehicle travel control device of the first embodiment of the present invention is applied. FIG. 3 is a diagram illustrating an example in which two self-position estimation methods having different properties are selectively used by detecting a landmark in the example to which the vehicle travel control device of the first embodiment illustrated in FIG. 2 is applied. FIG. 4 is a flowchart showing an operation procedure of the vehicle travel control apparatus according to the first embodiment of the present invention.

まず、ステップS1において、操作部により目的地が入力される。ステップS2において、走行経路算出部6は、入力された目的地と、地図DB5からの地図情報とに基づき、自車の出発地から目的地に至る目標走行経路を算出する。   First, in step S1, a destination is input by the operation unit. In step S2, the travel route calculation unit 6 calculates a target travel route from the departure point of the host vehicle to the destination based on the input destination and the map information from the map DB 5.

次に、ステップS3において、自車位置難度区間推定部8は、走行経路算出部6で算出された目標走行経路上で対地自車位置推定部3による位置推定の難度が高い区間を推定して抽出する。ステップS4において、ランドマーク検索部9は、自車位置難度区間推定部8で難度が高いと推定された区間の手前側領域内で、周囲環境撮影部1の撮影範囲に入る可能性が高いランドマークを地図DB5から地図情報から検出する。ステップS5において、自車の走行を開始する。   Next, in step S <b> 3, the own vehicle position difficulty section estimation unit 8 estimates a section on which the position estimation difficulty by the ground host vehicle position estimation unit 3 is high on the target travel route calculated by the travel route calculation unit 6. Extract. In step S4, the landmark search unit 9 has a high possibility of entering the shooting range of the surrounding environment shooting unit 1 in the near side area of the section estimated as having a high difficulty level by the own vehicle position difficulty section estimation unit 8. The mark is detected from the map information from the map DB 5. In step S5, the vehicle starts to travel.

次に、対地自車位置推定部3は、周囲環境撮影部1で検出された自車の周囲環境の画像に基づき、地上固定座標系上での自車の位置と姿勢の推定値及び推定精度を算出する。相対自車位置推定部4は、自車状態検出部2の検出値に基づき推定される自車位置の変化量を積算することで、基準点及び方位と自車位置との相対的な位置関係を推定する。ステップS6において、ECUは、対地自車位置推定部3及び相対自車位置推定部4の自車位置推定結果を取得する。   Next, the ground vehicle position estimation unit 3 estimates the position and orientation of the vehicle on the ground fixed coordinate system and the estimation accuracy based on the surrounding environment image detected by the ambient environment photographing unit 1. Is calculated. The relative vehicle position estimation unit 4 accumulates the amount of change in the vehicle position estimated based on the detection value of the vehicle state detection unit 2, so that the relative positional relationship between the reference point and direction and the vehicle position is calculated. Is estimated. In step S <b> 6, the ECU acquires the vehicle position estimation results of the ground vehicle position estimation unit 3 and the relative vehicle position estimation unit 4.

次に、ステップS7において、ECUは自車が目的地に到着したかどうかを判定し、ステップS8において、自車が目的地に到着していない場合には、ECUは自車が高難度区間を走行中かどうかを判定する。   Next, in step S7, the ECU determines whether or not the vehicle has arrived at the destination. In step S8, if the vehicle has not arrived at the destination, the ECU Determine if you are driving.

ステップS9において、ECUは自車が高難度区間を走行中でない場合には、自車位置推定切替部11は、相対自車位置推定部4から対地自車位置推定部3に切り替える。ステップS10において、自動走行制御部7は、自車位置推定切替部11により切り替えられた対地自車位置推定部3からの自車位置に基づき、自車の自動走行を制御するための走行制御指令値を算出する。   In step S <b> 9, when the host vehicle is not traveling in the high difficulty section, the host vehicle position estimation switching unit 11 switches from the relative host vehicle position estimation unit 4 to the ground host vehicle position estimation unit 3. In step S10, the automatic travel control unit 7 controls the automatic travel of the vehicle based on the vehicle position from the ground vehicle position estimation unit 3 switched by the vehicle position estimation switching unit 11. Calculate the value.

図2に示す適用例では、自車13が道路12a上を走行しているときには(図3の時刻t1前)、対地自車位置推定部3により、それなりの推定位置精度で自車位置が推定される。   In the application example shown in FIG. 2, when the host vehicle 13 is traveling on the road 12a (before time t1 in FIG. 3), the host vehicle position estimation unit 3 estimates the host vehicle position with reasonable estimated position accuracy. Is done.

一方、ステップS8において、ECUは自車が高難度区間を走行中である場合には、ステップS11において、前方に高難度区間が接近したかどうかを判定する。ステップS12において、高難度区間が接近した場合には、ランドマーク検出走行制御部10に切り替えられて、ランドマーク検出走行制御部10が起動する。   On the other hand, in step S8, when the vehicle is traveling in the high difficulty section, in step S11, the ECU determines whether or not the high difficulty section has approached forward. In step S12, when the high difficulty section approaches, it is switched to the landmark detection travel control unit 10, and the landmark detection travel control unit 10 is activated.

ステップS13において、ランドマーク検出走行制御部10は、ランドマーク検索部9で検索されたランドマークを検出したかどうかを判定する。ステップS14において、ランドマーク検出走行制御部10は、ランドマークが検出された場合、対地自車位置推定部3による自車位置推定精度が所定水準以上がどうかを判定する。即ち自車位置推定精度が良好かどうかを判定する。   In step S <b> 13, the landmark detection travel control unit 10 determines whether the landmark searched by the landmark search unit 9 has been detected. In step S14, when a landmark is detected, the landmark detection travel control unit 10 determines whether the vehicle position estimation accuracy by the ground vehicle position estimation unit 3 is equal to or higher than a predetermined level. That is, it is determined whether the vehicle position estimation accuracy is good.

このとき、ランドマーク検出走行制御部10は、対地自車位置推定部3による自車位置推定精度が所定水準になるまで、ランドマークが周囲環境撮影部1の撮影範囲内に入るように自車位置を補正するように制御する。   At this time, the landmark detection travel control unit 10 makes the own vehicle so that the landmark falls within the photographing range of the surrounding environment photographing unit 1 until the own vehicle position estimation accuracy by the ground own vehicle position estimating unit 3 reaches a predetermined level. Control to correct the position.

この場合には、図3の時刻t1において、図2に示すように、ランドマーク14の手前で減速制御し、自車13がランドマーク14を検出すると、ランドマーク検出走行制御部10は、自車13を一時停止させる。そして、時刻t1〜t2において、検出されたランドマーク14に基づき自車位置を補正する。そして、自車位置推定精度が所定水準以上になった時刻t2で自車13を再発進させる。   In this case, at time t1 in FIG. 3, as shown in FIG. 2, when deceleration control is performed in front of the landmark 14 and the vehicle 13 detects the landmark 14, the landmark detection travel control unit 10 The vehicle 13 is temporarily stopped. Then, at time t1 to t2, the vehicle position is corrected based on the detected landmark 14. Then, the host vehicle 13 is restarted at time t2 when the host vehicle position estimation accuracy is equal to or higher than a predetermined level.

また、ステップS15において、自車位置推定精度が所定水準以上になると、自車位置推定切替部11は、対地自車位置推定部3から相対自車位置推定部4に切り替える。   In step S15, when the vehicle position estimation accuracy becomes a predetermined level or higher, the vehicle position estimation switching unit 11 switches from the ground vehicle position estimation unit 3 to the relative vehicle position estimation unit 4.

この場合には、時刻t2以降において、難度が高い区間を走行中、即ち、自車13が道路12bの駐車場15周辺を走行中、自車位置推定切替部11は、対地自車位置推定部3から相対自車位置推定部4に切り替え、相対自車位置推定部4が自車13を制御する。相対自車位置推定部4は、短距離では安定して高精度で自車の走行を制御することができる。   In this case, after the time t2, the vehicle position estimation switching unit 11 is traveling to the ground vehicle position estimation unit while traveling in a highly difficult section, that is, the vehicle 13 is traveling around the parking lot 15 of the road 12b. 3 to switch to the relative vehicle position estimation unit 4, and the relative vehicle position estimation unit 4 controls the vehicle 13. The relative host vehicle position estimation unit 4 can control the traveling of the host vehicle stably at a short distance with high accuracy.

このように第1の実施形態の車両走行制御装置によれば、地図DB5の地図情報が利用可能な走行区間では、対地自車位置推定部3により継続的に自車位置を推定し、高難度区間の手前でランドマークによる自車位置を補正する。そして、位置推定精度が高い区間を走行中、対地自車位置推定部3から相対自車位置推定部4に切り替えるので、駐車・狭路通過等の高難度区間も安定した自車位置推定精度で走行制御を継続できる。   As described above, according to the vehicle travel control apparatus of the first embodiment, in the travel section in which the map information of the map DB 5 can be used, the host vehicle position estimation unit 3 continuously estimates the host vehicle position, and the degree of difficulty is high. Correct the position of the vehicle by the landmark before the section. Since the vehicle position estimation unit 3 switches to the relative vehicle position estimation unit 4 while traveling in a section with high position estimation accuracy, the vehicle position estimation accuracy is stable even in highly difficult sections such as parking and passing through narrow roads. Travel control can be continued.

また、対地自車位置推定部3による自車位置推定精度が所定水準になるまで、検出されたランドマークがカメラ視野角に入るように自車位置を補正するので、確実に自車位置推定精度を改善することができる。   In addition, the vehicle position is corrected so that the detected landmark falls within the camera viewing angle until the vehicle position estimation accuracy by the ground vehicle position estimation unit 3 reaches a predetermined level. Can be improved.

また、対地自車位置推定部3は、周囲環境撮影部1で撮影された自車の周囲環境の撮影画像と、地図DB5の地図情報を仮想位置及び仮想姿勢角から撮影した仮想画像とを比較する。これにより、実際の車両の姿勢角及び位置を推定することもでき、撮影画像だけを用いて継続的に位置推定結果を得ることができる。   The ground vehicle position estimation unit 3 compares a captured image of the surrounding environment of the host vehicle captured by the ambient environment capturing unit 1 with a virtual image obtained by capturing the map information of the map DB 5 from the virtual position and the virtual attitude angle. To do. Thereby, the attitude angle and position of the actual vehicle can also be estimated, and the position estimation result can be obtained continuously using only the captured image.

また、ランドマーク検出走行制御部10は、ランドマーク検索部9により検索されたランドマークを検出したときには、自車を一時停止させるので、ランドマークによる補正が行え、自車位置推定精度を高くすることができる。   Further, when the landmark detection travel control unit 10 detects the landmark searched by the landmark search unit 9, the landmark detection travel control unit 10 temporarily stops the vehicle, so that the correction by the landmark can be performed and the vehicle position estimation accuracy is increased. be able to.

また、ランドマーク検索部9は、地図DB5から所定の条件を満たす複数のランドマークを検索し、検索された複数のランドマークから交通状況から検出可能性の高いランドマークを選択する。選択されたランドマークをランドマーク検出走行制御部10の目標ランドマークとして使用する。これにより、ランドマークが他の車両等によつて自車の視界から遮蔽されている場合でも代替物を用いて補正を行うことで、対環境ロバスト性を向上することができる。   The landmark search unit 9 searches the map DB 5 for a plurality of landmarks that satisfy a predetermined condition, and selects a landmark that is highly likely to be detected from traffic conditions from the searched plurality of landmarks. The selected landmark is used as the target landmark of the landmark detection travel control unit 10. Thereby, even when the landmark is shielded from the field of view of the own vehicle by another vehicle or the like, the robustness to the environment can be improved by performing the correction using the substitute.

また、本発明は、自車の前方に存在する障害物の位置と大きさを検出する障害物検出部を備えても良い。この場合には、抽出されたランドマークのうち障害物検出部で検出された障害物で遮蔽される可能性が高いランドマークを除外した上で適切なランドマークを選択することで、ランドマーク検出走行制御部10の処理を実行することができる。   The present invention may also include an obstacle detection unit that detects the position and size of an obstacle present in front of the host vehicle. In this case, the landmark detection is performed by selecting an appropriate landmark after excluding those landmarks that are likely to be shielded by the obstacle detected by the obstacle detection unit. The process of the traveling control unit 10 can be executed.

また、ランドマーク近傍で十分な位置推定精度が達成されていると判断された場合には、ランドマーク検出走行制御部10の処理をスキップして、直ちに相対自車位置推定部4への切り替えを実行しても良い。   Further, when it is determined that sufficient position estimation accuracy is achieved in the vicinity of the landmark, the process of the landmark detection travel control unit 10 is skipped and the switching to the relative vehicle position estimation unit 4 is immediately performed. May be executed.

また、自車位置難度区間推定部8は、設定された目的地が複数の駐車枠から構成される駐車場である場合には、駐車場内を自車位置推定難度が高い区間として設定しても良い。同じような駐車枠が連続しているためにカメラによる位置推定精度が上がり難い駐車エリアでの位置推定精度を安定して改善できる。   In addition, when the set destination is a parking lot composed of a plurality of parking frames, the own vehicle position difficulty level section estimation unit 8 may set the parking lot as a section with a high own vehicle position estimation difficulty level. good. Since the same parking frame is continuous, the position estimation accuracy in the parking area where the position estimation accuracy by the camera is difficult to increase can be stably improved.

また、自車位置難度区間推定部8は、道路幅が所定値よりも小さい区間で、区間内に道路上から検出可能なランドマークが地図情報に記録されていない場合には、その区間を自車位置推定難度が高い区間として設定しても良い。   In addition, the vehicle position difficulty level section estimation unit 8 is a section where the road width is smaller than a predetermined value, and a landmark that can be detected from the road is not recorded in the map information. You may set as a section with a high vehicle position estimation difficulty.

また、ランドマーク検出走行制御部10は、現在の自車位置推定精度の水準に基づき自車の目標走行速度を変更して良い。また、抽出されたランドマークのうち、最初に周囲環境撮影部1で検出されたランドマークを選択しても良い。   Further, the landmark detection travel control unit 10 may change the target travel speed of the vehicle based on the current level of the vehicle position estimation accuracy. Also, among the extracted landmarks, a landmark first detected by the ambient environment photographing unit 1 may be selected.

また、対地自車位置推定部3は、カメラを用いたVMMに代えて、高精度のGPS(Global Positioning System)で実現してもよく、高難度区間としてトンネル内、ビルの谷間、屋内駐車場等を想定しても良い。   The ground vehicle position estimation unit 3 may be realized by a high-precision GPS (Global Positioning System) instead of the VMM using the camera, and as a high-difficulty section, the tunnel, the valley of the building, the indoor parking lot Etc. may be assumed.

〔第2の実施形態〕
本発明の第2の実施形態の自車位置姿勢推定装置は、第1の実施形態の車両走行制御装置において説明した対地自車位置推定部3の具体的な構成を示すもので、例えば、図5に示すように構成される。
[Second Embodiment]
The own vehicle position / posture estimation apparatus according to the second embodiment of the present invention shows a specific configuration of the ground own vehicle position estimation unit 3 described in the vehicle travel control apparatus according to the first embodiment. As shown in FIG.

この自車位置姿勢推定装置は、ECU21、カメラ(撮影手段)22、3次元地図データベース23、及び、車両センサ群40を含む。車両センサ群40は、GPS受信機41、アクセルセンサ42、ステアリングセンサ43、ブレーキセンサ44、車速センサ45、加速度センサ46、車輪速センサ47、及び、ヨーレートセンサ等のその他センサ48を含む。なお、ECU21は、実際にはROM、RAM、演算回路等にて構成されている。ECU21がROMに格納された自車位置姿勢推定用のプログラムに従って処理をすることによって、後述する機能(仮想画像取得手段、尤度設定手段、自車位置姿勢推定手段)を実現する。   This own vehicle position / posture estimation apparatus includes an ECU 21, a camera (imaging means) 22, a three-dimensional map database 23, and a vehicle sensor group 40. The vehicle sensor group 40 includes a GPS receiver 41, an accelerator sensor 42, a steering sensor 43, a brake sensor 44, a vehicle speed sensor 45, an acceleration sensor 46, a wheel speed sensor 47, and other sensors 48 such as a yaw rate sensor. The ECU 21 is actually composed of a ROM, a RAM, an arithmetic circuit, and the like. The ECU 21 performs processing according to the vehicle position / posture estimation program stored in the ROM, thereby realizing functions (virtual image acquisition means, likelihood setting means, own vehicle position / posture estimation means) described later.

カメラ22は、例えばCCD等の固体撮影素子を用いたものである。カメラ22は、例えば車両のフロント部分に設置され、車両前方を撮影可能な方向に設置される。カメラ22は、所定時間毎に周辺を撮影して撮影画像を取得し、ECU21に供給する。   The camera 22 uses a solid imaging element such as a CCD. The camera 22 is installed, for example, in the front portion of the vehicle, and is installed in a direction in which the front of the vehicle can be photographed. The camera 22 captures the periphery at predetermined time intervals to acquire a captured image and supplies it to the ECU 21.

3次元地図データベース23は、例えば路面表示を含む周囲環境のエッジ等の三次元位置情報が記憶されている。本実施形態において、3次元地図データベース23には、白線、停止線、横断歩道、路面マーク等の路面表示の他に、縁石、建物等の構造物のエッジ情報も含まれる。白線などの各地図情報は、エッジの集合体で定義される。エッジが長い直線の場合には、例えば1m毎に区切られるため、極端に長いエッジは存在しない。直線の場合には、各エッジは、直線の両端点を示す3次元位置情報を持っている。曲線の場合には、各エッジは、曲線の両端点と中央点を示す3次元位置情報を持っている。   The three-dimensional map database 23 stores, for example, three-dimensional position information such as edges of the surrounding environment including road surface display. In the present embodiment, the 3D map database 23 includes edge information of structures such as curbs and buildings in addition to road surface displays such as white lines, stop lines, pedestrian crossings, and road surface marks. Each map information such as a white line is defined by an aggregate of edges. In the case where the edge is a long straight line, for example, since it is divided every 1 m, there is no extremely long edge. In the case of a straight line, each edge has three-dimensional position information indicating both end points of the straight line. In the case of a curve, each edge has three-dimensional position information indicating both end points and a center point of the curve.

車両センサ群40は、ECU21に接続される。車両センサ群40は、各センサ41〜48により検出した各種のセンサ値をECU21に供給する。ECU21は、車両センサ群40の出力値を用いることで、車両の概位置の算出、単位時間に車両が進んだ移動量を示すオドメトリを算出する。   The vehicle sensor group 40 is connected to the ECU 21. The vehicle sensor group 40 supplies various sensor values detected by the sensors 41 to 48 to the ECU 21. The ECU 21 uses the output value of the vehicle sensor group 40 to calculate the approximate position of the vehicle and the odometry that indicates the amount of movement of the vehicle per unit time.

また、ECU21は、カメラ22により撮影された撮影画像と3次元地図データベース23に記憶された3次元位置情報とを用いて自車両の位置及び姿勢角の推定を行う電子制御ユニットである。なお、ECU21は、他の制御に用いるECUと兼用しても良い。
特に、この自車位置姿勢推定装置は、カメラ22により撮影した撮影画像と、三次元地図データを仮想位置及び仮想姿勢角から撮影した画像に変換した仮想画像とを比較して、自車両の位置及び姿勢角を推定する。ここで、図6(a)に示すような撮影画像が得られ、図6(b)のようなエッジ画像が得られたとする。一方、3次元位置情報をカメラ22の位置及び姿勢角に投影した仮想画像が図6(c)のようになったとする。図6(b)の撮影画像と図6(c)の仮想画像とを比較すると、遠方位置(A)及び近傍位置(B)の双方で一致しているため、仮想画像を生成した仮想位置及び仮想姿勢角が、自車両の位置及び姿勢角に相当すると推定できる。しかし、仮想位置が右方向に位置ずれした場合には、仮想画像は、図6(d)に示すようになる。この場合、図6(a)の撮影画像と図6(d)の撮影画像とを比較すると、遠方位置(A)は一致しているが、近傍位置(B)は大きくずれてしまう。逆に、図6(c)の仮想画像の仮想姿勢角をずらし(図示せず)、図6(a)の撮影画像と比較すると、近傍位置(B)は一致するが、遠方位置(A)は大きくずれる。
The ECU 21 is an electronic control unit that estimates the position and posture angle of the host vehicle using the captured image captured by the camera 22 and the three-dimensional position information stored in the three-dimensional map database 23. Note that the ECU 21 may also be used as an ECU used for other controls.
In particular, the vehicle position / orientation estimation apparatus compares a captured image captured by the camera 22 with a virtual image obtained by converting 3D map data into an image captured from a virtual position and a virtual attitude angle. And the posture angle is estimated. Here, it is assumed that a captured image as shown in FIG. 6A is obtained and an edge image as shown in FIG. 6B is obtained. On the other hand, assume that a virtual image obtained by projecting the three-dimensional position information onto the position and posture angle of the camera 22 is as shown in FIG. When the captured image of FIG. 6B and the virtual image of FIG. 6C are compared, both the far position (A) and the near position (B) match, so the virtual position where the virtual image is generated and It can be estimated that the virtual posture angle corresponds to the position and posture angle of the host vehicle. However, when the virtual position is displaced in the right direction, the virtual image is as shown in FIG. In this case, comparing the captured image of FIG. 6A and the captured image of FIG. 6D, the distant position (A) is coincident, but the nearby position (B) is greatly shifted. Conversely, when the virtual posture angle of the virtual image in FIG. 6C is shifted (not shown) and compared with the captured image in FIG. 6A, the near position (B) matches, but the far position (A) Deviates greatly.

このような現象に着目して、自車位置姿勢推定装置は、撮影画像内の近傍位置画素と仮想画像内の近傍位置画素とが一致した場合には仮想画像の仮想位置が尤もらしいと判断する。逆に、自車位置姿勢推定装置は、撮影画像内の遠方位置画素と仮想画像内の遠方位置画素とが一致した場合には仮想画像の仮想姿勢角が尤もらしいと判断する。   Paying attention to such a phenomenon, the vehicle position / orientation estimation apparatus determines that the virtual position of the virtual image is likely when the neighboring position pixel in the captured image matches the neighboring position pixel in the virtual image. . Conversely, the host vehicle position / posture estimation apparatus determines that the virtual posture angle of the virtual image is likely when the far position pixel in the captured image matches the far position pixel in the virtual image.

以下、この自車位置姿勢推定装置の動作について、図7の位置姿勢推定アルゴリズムを参照して説明する。なお、本実施形態は、車両の6自由度の位置(前後方向,横方向,上下方向)及び姿勢角(ロール,ピッチ,ヨー)を推定するものとする。また、この図7の位置姿勢推定アルゴリズムは、ECU21によって、例えば100msec程度の間隔で連続的に行われる。   Hereinafter, the operation of the vehicle position / orientation estimation apparatus will be described with reference to the position / orientation estimation algorithm of FIG. In this embodiment, it is assumed that the position of six degrees of freedom (front-rear direction, lateral direction, vertical direction) and posture angle (roll, pitch, yaw) of the vehicle are estimated. Further, the position / orientation estimation algorithm of FIG. 7 is continuously performed by the ECU 21 at intervals of, for example, about 100 msec.

先ずステップS51において、ECU21は、カメラ22により撮影された映像を取得し、当該映像に含まれる撮影画像から、エッジ画像を算出する。本実施形態におけるエッジとは、画素の輝度が鋭敏に変化している箇所を指す。エッジ検出方法としては、例えばCanny法を用いることができる。これに限らず、エッジ検出手法は、他にも微分エッジ検出など様々な手法を使用してもよい。   First, in step S51, the ECU 21 acquires a video image captured by the camera 22, and calculates an edge image from the captured image included in the video image. An edge in the present embodiment refers to a location where the luminance of a pixel changes sharply. For example, the Canny method can be used as the edge detection method. The edge detection method is not limited to this, and various other methods such as differential edge detection may be used.

また、ECU21は、カメラ22の撮影画像から、エッジの輝度変化の方向やエッジ近辺のカラーなど抽出することが望ましい。これにより、後述するステップS55及びステップS56において、3次元地図データベース23にも記録しておいた、これらエッジ以外の情報も用いて位置推定用尤度、姿勢角推定用尤度を設定して、自車両の位置及び姿勢角を推定してもよい。   Further, it is desirable for the ECU 21 to extract from the captured image of the camera 22 the direction of edge brightness change, the color near the edge, and the like. Thereby, in step S55 and step S56 described later, the position estimation likelihood and the posture angle estimation likelihood are set using information other than the edges recorded in the three-dimensional map database 23, The position and posture angle of the host vehicle may be estimated.

次のステップS52において、ECU21は、車両センサ群40から得られるセンサ値から、1ループ前の位置姿勢推定アルゴリズムのステップS52にて算出した時からの車両の移動量であるオドメトリを算出する。なお、位置姿勢推定アルゴリズムを開始して最初のループの場合は、オドメトリをゼロとして算出する。   In the next step S52, the ECU 21 calculates an odometry that is the amount of movement of the vehicle from the sensor value obtained from the vehicle sensor group 40 after the calculation in step S52 of the position and orientation estimation algorithm before one loop. In the case of the first loop after starting the position / orientation estimation algorithm, the odometry is calculated as zero.

ECU21は、車両センサ群40から得られる各種センサ値を用いて、車両が単位時間に進んだ移動量であるオドメトリを算出する。このオドメトリ算出方法としては、例えば、車両運動を平面上に限定した上で、各車輪の車輪速とヨーレートセンサから、単位時間での移動量と回転量を算出すれば良い。また、ECU21は、車輪速を車速やGPS受信機41の測位値の差分で代用してもよく、ヨーレートセンサを操舵角で代用してもよい。なお、オドメトリの算出方法は、様々な算出手法が考えられるが、オドメトリが算出できればどの手法を用いても良い。   The ECU 21 uses various sensor values obtained from the vehicle sensor group 40 to calculate odometry that is the amount of movement of the vehicle per unit time. As the odometry calculation method, for example, the movement amount and the rotation amount per unit time may be calculated from the wheel speed of each wheel and the yaw rate sensor after limiting the vehicle motion to a plane. Further, the ECU 21 may substitute the wheel speed by the difference between the vehicle speed and the positioning value of the GPS receiver 41, or may substitute the yaw rate sensor by the steering angle. Various calculation methods can be considered as a method for calculating odometry, but any method may be used as long as odometry can be calculated.

次のステップS53において、ECU21は、ステップS52にて算出したオドメトリから、複数の仮想(予測)位置及び仮想(予測)姿勢角の候補を算出する。複数の仮想位置及び仮想姿勢角の候補は、自車位置及び姿勢角の候補である。このとき、ECU21は、1ループ前のステップS56にて推定された車両位置から、今回のステップS52で算出したオドメトリ分だけ移動させる。ECU21は、移動させた車両位置の近傍で、複数の仮想位置及び仮想姿勢角の候補を算出する。ただし、位置姿勢推定アルゴリズムを開始して初めてのループの場合には、ECU21は前回の車両位置情報を持っていない。このため、ECU21は、車両センサ群40に含まれるGPS受信機41からのデータを初期位置情報とする。又は、ECU21は、前回に停車時に最後に算出した車両位置及び姿勢角を記憶しておき、初期位置及び姿勢角情報にしてもよい。   In the next step S53, the ECU 21 calculates a plurality of virtual (predicted) position and virtual (predicted) posture angle candidates from the odometry calculated in step S52. The plurality of virtual position and virtual posture angle candidates are candidates for the vehicle position and the posture angle. At this time, the ECU 21 moves from the vehicle position estimated in the previous step S56 by the odometry calculated in the current step S52. The ECU 21 calculates a plurality of virtual position and virtual attitude angle candidates in the vicinity of the moved vehicle position. However, in the case of the first loop after starting the position / orientation estimation algorithm, the ECU 21 does not have the previous vehicle position information. Therefore, the ECU 21 uses the data from the GPS receiver 41 included in the vehicle sensor group 40 as initial position information. Or ECU21 memorize | stores the vehicle position and attitude | position angle which were calculated at the last time at the time of a stop last time, and may make it into initial position and attitude | position angle information.

このとき、ECU21は、車両センサ群40の測定誤差や通信遅れにより生じるオドメトリの誤差や、オドメトリで考慮できない車両の動特性を考慮に入れ、車両の位置や姿勢角の真値が取り得る可能性がある複数の仮想位置及び仮想姿勢角の候補を複数個生成する。この仮想位置及び仮想姿勢角の候補は、位置及び姿勢角の6自由度のパラメータに対してそれぞれ誤差の上下限を設定し、この誤差の上下限の範囲内で乱数表等を用いてランダムに設定する。   At this time, the ECU 21 takes into account measurement errors of the vehicle sensor group 40, odometry errors caused by communication delays, and vehicle dynamics that cannot be taken into account by the odometry, so that the true value of the vehicle position and attitude angle can be taken. A plurality of candidates for a plurality of virtual positions and virtual posture angles are generated. The candidates for the virtual position and the virtual attitude angle set the upper and lower limits of the error with respect to the 6-degree-of-freedom parameters of the position and attitude angle, and randomly use a random number table or the like within the upper and lower limits of the error. Set.

なお、本実施形態では、仮想位置及び仮想姿勢角の候補を500個作成する。また、位置及び姿勢角の6自由度のパラメータに対する誤差の上下限は、前後方向,横方向,上下方向、ロール,ピッチ,ヨーの順に±0.05[m],±0.05[m],±0.05[m],±0.5[deg] ,±0.5[deg],±0.5[deg]とする。この仮想位置及び仮想姿勢角の候補を作成する数や、位置及び姿勢角の6自由度のパラメータに対する誤差の上下限は、車両の運転状態や路面の状況を検出或いは推定して、適宜変更することが望ましい。例えば、急旋回やスリップなどが発生している場合には、平面方向(前後方向,横方向,ヨー)の誤差が大きくなる可能性が高いので、この3つのパラメータの誤差の上下限を大きくし、且つ仮想位置及び仮想姿勢角の候補の作成数を増やすことが望ましい。   In the present embodiment, 500 candidates for the virtual position and the virtual posture angle are created. The upper and lower limits of the error for the 6-degree-of-freedom parameters of position and posture angle are ± 0.05 [m], ± 0.05 [m], ± 0.05 [ m], ± 0.5 [deg], ± 0.5 [deg], ± 0.5 [deg]. The number of virtual position and virtual attitude angle candidates to be created and the upper and lower limits of the error with respect to the 6-degree-of-freedom parameters of position and attitude angle are changed as appropriate by detecting or estimating the driving state of the vehicle and the road surface condition. It is desirable. For example, when a sudden turn or slip occurs, the error in the plane direction (front / rear direction, lateral direction, yaw) is likely to increase, so the upper and lower limits of the error of these three parameters are increased. In addition, it is desirable to increase the number of virtual position and virtual attitude angle candidates created.

また、ステップS53において、ECU21は、所謂パーティクルフィルタを用いて複数の仮想位置及び仮想姿勢角の候補を設定してもよい。このとき、ECU21は、1ループ前のステップS56で生成された複数の仮想位置及び仮想姿勢角の候補である各パーティクル(候補点)の位置及び姿勢角を、オドメトリ分だけ移動させる。具体的には、図8に示すように、1ループ前に推定されていた車両V(t1)の位置及び姿勢角のパーティクルPと周囲のパーティクルP1〜P5を、オドメトリ分だけ移動させる。この結果、ECU21は、新たな車両V(t2)の位置及び姿勢角を推定するためのパーティクルP10〜15を設定する。これにより、ECU21は、今回における複数の仮想位置及び仮想姿勢角の候補を算出する。すなわち、各パーティクルの位置及び姿勢角を、複数の仮想位置及び仮想姿勢角の候補とする。なお、車両センサ群40の測定誤差や通信遅れによって生じるオドメトリの誤差や、オドメトリで考慮できない車両の動特性を考慮に入れて、各パーティクルの位置情報及び姿勢角情報をオドメトリ分だけ移動させる。その後に、上記のように位置及び姿勢角の6自由度のパラメータに対する誤差の上下限の範囲内で乱数表等を用いてランダムに変化させるとなおよい。   In step S53, the ECU 21 may set a plurality of virtual position and virtual attitude angle candidates using a so-called particle filter. At this time, the ECU 21 moves the position and posture angle of each of the particles (candidate points) that are candidates for the plurality of virtual positions and virtual posture angles generated in step S56 one loop before by odometry. Specifically, as shown in FIG. 8, the particle P and the surrounding particles P <b> 1 to P <b> 5 of the position and posture angle of the vehicle V (t <b> 1) estimated one loop before are moved by the odometry. As a result, the ECU 21 sets the particles P10 to 15 for estimating the position and posture angle of the new vehicle V (t2). Thereby, the ECU 21 calculates a plurality of virtual position and virtual attitude angle candidates at this time. That is, the position and posture angle of each particle are set as candidates for a plurality of virtual positions and virtual posture angles. The position information and attitude angle information of each particle are moved by the odometry, taking into account measurement errors of the vehicle sensor group 40, odometry errors caused by communication delays, and vehicle dynamics that cannot be taken into account by odometry. Thereafter, as described above, it is more preferable to change the position and orientation angle randomly using a random number table or the like within the range of the upper and lower limits of the error with respect to the 6-degree-of-freedom parameter.

ただし、位置姿勢推定アルゴリズムを開始して初めてのループの場合には、各パーティクルは位置情報及び姿勢角情報を持っていない。このため、車両センサ群40に含まれるGPS受信機41の検出データを初期位置情報としてもよい。又は、前回停車時に最後に推定した車両位置から、各パーティクルの位置情報及び姿勢角情報を設定してもよい。本実施形態では、初めてのループの場合、前回停車時に最後に推定した車両位置から、位置及び姿勢角の6自由度のパラメータに対して位置及び姿勢角の6自由度のパラメータに対する誤差の上下限を設定する。この誤差の上下限の範囲内で乱数表等を用いてランダムに各パーティクルの位置情報及び姿勢角を設定する。本実施形態では、初めてのループの場合はパーティクルを500個作成する。また、各パーティクルの6自由度のパラメータに対する誤差の上下限は、前後方向,横方向,上下方向、ロール,ピッチ,ヨーの順に±0.05[m],±0.05[m],±0.05[m],±0.5[deg] ,±0.5[deg],±0.5[deg]とする。   However, in the case of the first loop after starting the position / orientation estimation algorithm, each particle does not have position information and attitude angle information. For this reason, it is good also considering the detection data of the GPS receiver 41 contained in the vehicle sensor group 40 as initial position information. Alternatively, the position information and attitude angle information of each particle may be set from the vehicle position estimated last when the vehicle stopped last time. In the present embodiment, in the case of the first loop, the upper and lower limits of the error with respect to the 6-degree-of-freedom parameter of position and posture angle from the vehicle position estimated last when the vehicle stopped last time, with respect to the 6-degree-of-freedom parameter of position and posture angle Set. Within the upper and lower limits of this error, the position information and posture angle of each particle are set at random using a random number table or the like. In the present embodiment, 500 particles are created in the case of the first loop. In addition, the upper and lower limits of the error with respect to the 6-degree-of-freedom parameter of each particle are ± 0.05 [m], ± 0.05 [m], ± 0.05 [m] in the order of the front and rear direction, the horizontal direction, the vertical direction, the roll, the pitch, and the yaw. , ± 0.5 [deg], ± 0.5 [deg], ± 0.5 [deg].

次のステップS54において、ECU21は、ステップS53で作成した複数の仮想位置及び仮想姿勢角の候補のそれぞれについて仮想(投影)画像を作成する。このとき、ECU21は、例えば3次元地図データベース23に記憶されたエッジ等の三次元位置情報を、仮想位置及び仮想姿勢角から撮影したカメラ画像となるよう投影変換して、仮想画像を作成する。この仮想画像は、各仮想位置及び仮想姿勢角の候補が実際の自車両の位置及び姿勢角と合致しているかを評価する評価用画像である。投影変換では、カメラ22の位置を示す外部パラメータと、カメラ22の内部パラメータが必要となる。外部パラメータは、車両位置(例えば中心位置)からカメラ22までの相対位置を予め計測しておくことで、仮想位置及び仮想姿勢角の候補から算出すればよい。また内部パラメータは、予めキャリブレーションをしておけばよい。   In the next step S54, the ECU 21 creates a virtual (projection) image for each of the plurality of virtual positions and virtual attitude angle candidates created in step S53. At this time, the ECU 21 creates a virtual image by projecting and converting, for example, three-dimensional position information such as an edge stored in the three-dimensional map database 23 into a camera image taken from the virtual position and the virtual attitude angle. This virtual image is an image for evaluation that evaluates whether each virtual position and virtual posture angle candidate matches the actual position and posture angle of the host vehicle. In projection conversion, an external parameter indicating the position of the camera 22 and an internal parameter of the camera 22 are required. The external parameter may be calculated from the virtual position and the virtual attitude angle candidate by measuring in advance the relative position from the vehicle position (for example, the center position) to the camera 22. The internal parameters may be calibrated in advance.

なお、ステップS51においてカメラ22で撮影した撮影画像からエッジの輝度変化の方向やエッジ近辺のカラーなどについてもカメラ画像から抽出できる場合、それらについても三次元位置情報を3次元地図データベース23に記録し、仮想画像を作成しても良い。   In addition, when it can extract from a camera image also about the direction of the brightness | luminance change of an edge, the color of the edge vicinity, etc. from the picked-up image image | photographed with the camera 22 in step S51, three-dimensional position information is also recorded on the 3D map database 23 about them. A virtual image may be created.

ステップS55において、ECU21は、ステップS53で設定した複数の仮想位置及び仮想姿勢角の候補それぞれにおいて、ステップS51で作成したエッジ画像と、ステップS54で作成した仮想画像とを比較する。ECU21は、比較した結果に基づき、各仮想位置及び仮想姿勢角の候補ごとに、位置推定用尤度及び姿勢角推定用尤度を設定する。この尤度とは、仮想位置及び仮想姿勢角の候補が、どれぐらい実際の車両の位置及び姿勢角に対して尤もらしいかを示す指標である。ECU21は、仮想画像とエッジ画像との一致度が高いほど、尤度が高くなるように設定する。なお、尤度の求め方については後述する。   In step S55, the ECU 21 compares the edge image created in step S51 with the virtual image created in step S54 for each of the plurality of virtual position and virtual attitude angle candidates set in step S53. The ECU 21 sets the position estimation likelihood and the posture angle estimation likelihood for each virtual position and virtual posture angle candidate based on the comparison result. The likelihood is an index indicating how likely the virtual position and virtual attitude angle candidates are to the actual vehicle position and attitude angle. The ECU 21 sets the likelihood to be higher as the matching degree between the virtual image and the edge image is higher. The method for obtaining the likelihood will be described later.

特に、ECU21は、撮影画像と仮想画像とを比較し、撮影画像内の遠方位置画素と仮想画像内の遠方位置画素とが一致した場合には仮想画像の姿勢角尤度を高くする(尤度設定手段)。ECU21は、撮影画像と仮想画像とを比較し、撮影画像内の近傍位置画素と仮想画像内の近傍位置画素とが一致した場合には仮想画像の位置尤度を高くする(尤度設定手段)。遠方位置画素及び近傍位置画素は、例えば、撮影画像及び仮想画像の位置によって設定してもよい。例えば、撮影画像及び仮想画像内の縦方向における中間位置より所定幅だけ下方向の範囲を、遠方位置画素が存在する画像領域に設定してもよい。また、撮影画像及び仮想画像内の縦方向における底面位置より所定幅だけ上方向の範囲を、近傍位置画素が存在する画像領域に設定してもよい。この距離は、三次元地図をカメラ22に投影したときの仮想映像を求める際、カメラ22の位置を仮定しているため求めることが可能である。   In particular, the ECU 21 compares the captured image with the virtual image, and increases the attitude angle likelihood of the virtual image when the far position pixel in the captured image matches the far position pixel in the virtual image (likelihood. Setting means). The ECU 21 compares the captured image with the virtual image, and increases the position likelihood of the virtual image when the neighboring position pixel in the photographed image matches the neighboring position pixel in the virtual image (likelihood setting means). . The far position pixel and the near position pixel may be set according to the positions of the captured image and the virtual image, for example. For example, a range that is lower than the intermediate position in the vertical direction in the captured image and the virtual image by a predetermined width may be set as the image area in which the far position pixel exists. In addition, a range upward by a predetermined width from the bottom surface position in the vertical direction in the captured image and the virtual image may be set as an image region in which the neighboring position pixel exists. This distance can be obtained because the position of the camera 22 is assumed when the virtual image when the three-dimensional map is projected onto the camera 22 is obtained.

具体的には、ECU21は、仮想画像上とエッジ画像上のエッジ部が一致するか否か、すなわち、仮想画像上のエッジが存在する画素座標位置に、エッジ画像上のエッジが存在しているかを判断する。仮想画像上とエッジ画像上のエッジ部が一致する場合には、その一致したエッジ部分について3次元地図データベース23を参照して、その一致したエッジ部の三次元空間上での位置を求める。そして、位置推定用尤度を求めている仮想位置及び仮想姿勢角の候補の位置情報と、その一致したエッジ部との距離L(単位:m)を求め、その距離Lの逆数を尤度like_p(単位:なし)とする。なお、仮想画像上とエッジ画像上のエッジ部が一致しない場合には尤度like_pに0を設定する。   Specifically, the ECU 21 determines whether or not the edge portion on the virtual image matches the edge portion on the edge image, that is, whether the edge on the edge image exists at the pixel coordinate position where the edge on the virtual image exists. Judging. When the edge portions on the virtual image and the edge image match, the three-dimensional map database 23 is referred to for the matching edge portion, and the position of the matching edge portion in the three-dimensional space is obtained. Then, the distance L (unit: m) between the position information of the candidate of the virtual position and the virtual attitude angle for which the position estimation likelihood is obtained and the matching edge portion is obtained, and the reciprocal of the distance L is the likelihood like_p (Unit: None) When the edge portion on the virtual image and the edge image do not match, 0 is set in the likelihood like_p.

ECU21は、この処理を仮想画像上の全画素に対して実施する。ECU21は、車両から近い部分でエッジ画像と仮想画像とが一致していた場合、当該画素に大きい尤度like_pを設定する。ECU21は、逆に、車両から遠い部分でエッジ画像と仮想画像とが一致していた場合、当該画素に小さい尤度like_pを設定する。ECU21は、全画素の尤度like_pの総和を、仮想画像についての位置推定用尤度LIKE_P(単位:なし)とする。   The ECU 21 performs this process for all the pixels on the virtual image. ECU21 sets large likelihood like_p to the said pixel, when an edge image and a virtual image correspond in the part close | similar to a vehicle. Conversely, when the edge image and the virtual image coincide with each other at a portion far from the vehicle, the ECU 21 sets a small likelihood like_p for the pixel. The ECU 21 sets the sum of the likelihoods like_p of all the pixels as the position estimation likelihood LIKE_P (unit: none) for the virtual image.

また、ECU21は、尤度like_pを求めるときに、図9に示すように、車両からの距離に応じて上限値を設けてもよい。ECU21は、所定距離Lthp以上の近傍でエッジ画像(撮影画像)の画素と仮想画像の画素が一致した場合には、所定の上限値lthpとなるように尤度like_pを設定する。又は、ECU21は、車両からの距離が近くなるほど、尤度like_pの増加幅を少なくしてもよい。なお、本実施形態では距離Lthpは1.0[m]が設定される。   Moreover, when calculating | requiring likelihood like_p, ECU21 may provide an upper limit according to the distance from a vehicle, as shown in FIG. The ECU 21 sets the likelihood like_p so that the predetermined upper limit value lthp is obtained when the pixel of the edge image (captured image) matches the pixel of the virtual image in the vicinity of the predetermined distance Lthp or more. Or ECU21 may reduce the increase width of likelihood like_p, so that the distance from a vehicle becomes near. In this embodiment, the distance Lthp is set to 1.0 [m].

具体的には、ECU21は、予め車両からの距離と尤度like_pとの関係を記述した位置尤度設定マップを用意しておく。ECU21は、位置尤度設定マップを参照して、エッジ画像と仮想画像とが一致した車両からの距離に応じて尤度like_pを設定する。   Specifically, the ECU 21 prepares a position likelihood setting map that describes the relationship between the distance from the vehicle and the likelihood like_p in advance. The ECU 21 refers to the position likelihood setting map and sets the likelihood like_p according to the distance from the vehicle where the edge image and the virtual image match.

これにより、極端に車両(カメラ22)からの距離が近い部分に対して抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、位置推定誤差を小さくすることができる。   As a result, even if there is noise or an error in the edge extracted for a portion that is extremely close to the vehicle (camera 22), the influence can be suppressed, and the position estimation error can be reduced.

ECU21は、姿勢角推定用尤度も求める。ECU21は、仮想画像上とエッジ画像上のエッジ部が一致する場合には、位置推定用尤度LIKE_Pを求めた時と同様に、一致した画素の車両からの距離L(単位:m)を求める。ECU21は、当該車両からの距離Lを10で除した値を尤度like_a(単位:なし)とする。なお、仮想画像上とエッジ画像上のエッジ部が一致しない場合には尤度like_aに0を設定する。   The ECU 21 also determines the likelihood for posture angle estimation. When the edge part on the virtual image and the edge image match, the ECU 21 calculates the distance L (unit: m) from the vehicle of the matched pixel as in the case of determining the position estimation likelihood LIKE_P. . The ECU 21 sets the value obtained by dividing the distance L from the vehicle by 10 as the likelihood like_a (unit: none). Note that if the edge portion on the virtual image and the edge portion on the edge image do not match, 0 is set in the likelihood like_a.

ECU21は、この処理を仮想画像上の全画素に対して実施する。ECU21は、車両から遠い部分でエッジ画像と仮想画像とが一致していた場合、当該画素に大きい尤度like_aを設定する。ECU21は、逆に、車両から近い部分でエッジ画像と仮想画像とが一致していた場合、当該画素に小さい尤度like_aを設定する。ECU21は、全画素の尤度like_aの総和を、仮想画像についての姿勢角推定用尤度LIKE_A(単位:なし)とする。   The ECU 21 performs this process for all the pixels on the virtual image. ECU21 sets large likelihood like_a to the said pixel, when an edge image and a virtual image correspond in the part far from a vehicle. Conversely, when the edge image and the virtual image coincide with each other in a portion close to the vehicle, the ECU 21 sets a small likelihood like_a for the pixel. The ECU 21 sets the sum of the likelihoods like_a of all the pixels as the posture angle estimation likelihood LIKE_A (unit: none) for the virtual image.

また、ECU21は、尤度like_aを求めるときに、図10に示すように、車両からの距離に応じて上限値を設けてもよい。ECU21は、所定距離Ltha以上の遠方でエッジ画像(撮影画像)の画素と仮想画像の画素が一致した場合には、所定の上限値lthaとなるように尤度尤度like_aを設定する。又は、ECU21は、車両からの距離が遠くなるほど、尤度like_aの増加幅を少なくしてもよい。なお、本実施形態では距離Lthaは30.0[m]が設定される。   Moreover, when calculating | requiring likelihood like_a, ECU21 may provide an upper limit according to the distance from a vehicle, as shown in FIG. The ECU 21 sets the likelihood likelihood like_a so that the predetermined upper limit value ltha is obtained when the pixel of the edge image (captured image) and the pixel of the virtual image coincide with each other at a distance greater than or equal to the predetermined distance Ltha. Or ECU21 may reduce the increase width of likelihood like_a, so that the distance from a vehicle becomes far. In this embodiment, the distance Ltha is set to 30.0 [m].

具体的には、ECU21は、予め車両からの距離と尤度like_aとの関係を記述した位置尤度設定マップを用意しておく。ECU21は、位置尤度設定マップを参照して、エッジ画像と仮想画像とが一致した車両からの距離に応じて尤度like_aを設定する。   Specifically, the ECU 21 prepares a position likelihood setting map that describes the relationship between the distance from the vehicle and the likelihood like_a in advance. The ECU 21 refers to the position likelihood setting map and sets the likelihood like_a according to the distance from the vehicle where the edge image and the virtual image match.

これにより、極端に車両(カメラ22)からの距離が遠い部分に対して抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、姿勢角推定誤差を小さくすることができる。   As a result, even if there is noise or an error in the edge extracted for a part that is extremely far from the vehicle (camera 22), the influence can be suppressed, and the attitude angle estimation error can be reduced. .

ECU21は、各仮想画像について位置推定用尤度LIKE_P及び姿勢角推定用尤度LIKE_Aを求め、更に、仮想位置及び仮想姿勢角の候補について位置推定用尤度LIKE_P及び姿勢角推定用尤度LIKE_Aを算出する。ECU21は、複数の仮想位置及び仮想姿勢角の候補についての全結果を用いて、位置推定用尤度LIKE_P、姿勢角推定用尤度LIKE_Aのそれぞれの合計値が1になるよう正規化する。   The ECU 21 obtains the position estimation likelihood LIKE_P and the posture angle estimation likelihood LIKE_A for each virtual image, and further calculates the position estimation likelihood LIKE_P and the posture angle estimation likelihood LIKE_A for the virtual position and virtual posture angle candidates. calculate. The ECU 21 normalizes the total value of the position estimation likelihood LIKE_P and the attitude angle estimation likelihood LIKE_A to 1 using all the results for the plurality of virtual position and virtual attitude angle candidates.

次のステップS56において、ECU21は、ステップS55にて位置推定用尤度LIKE_P及び姿勢角推定用尤度LIKE_Aが求められた複数の仮想位置及び仮想姿勢角の候補を用いて、最終的な自車両の位置及び姿勢角を算出する。ECU21は、仮想画像の姿勢角推定用尤度LIKE_Aに基づき当該仮想画像の仮想姿勢角に対する実際の車両の姿勢角を推定する(自車位置姿勢推定手段)。ECU21は、仮想画像の位置推定用尤度LIKE_Pに基づき当該仮想画像の仮想位置に対する実際の車両の位置を推定する(自車位置姿勢推定手段)。   In the next step S56, the ECU 21 uses the plurality of virtual position and virtual attitude angle candidates for which the position estimation likelihood LIKE_P and the attitude angle estimation likelihood LIKE_A were obtained in step S55, to determine the final own vehicle. Is calculated. The ECU 21 estimates the actual posture angle of the vehicle with respect to the virtual posture angle of the virtual image based on the likelihood LIKE_A for posture angle estimation of the virtual image (own vehicle position and posture estimation means). The ECU 21 estimates the actual vehicle position relative to the virtual position of the virtual image based on the position estimation likelihood LIKE_P of the virtual image (own vehicle position / posture estimation means).

このとき、ECU21は、例えば、位置推定用尤度LIKE_Pが最も高い仮想位置及び仮想姿勢角の候補を用いて、当該仮想位置及び仮想姿勢角を、車両の実際の位置及び姿勢角として算出してもよい。又は、ECU21は、姿勢角推定用尤度LIKE_Aが最も高い仮想位置及び仮想姿勢角の候補を用いて、当該仮想位置及び仮想姿勢角を、車両の実際の位置及び姿勢角として算出してもよい。又は、ECU21は、位置推定用尤度LIKE_Pと姿勢角推定用尤度LIKE_Aとの和が最も高い仮想位置及び仮想姿勢角の候補を用いて、当該仮想位置及び仮想姿勢角を、車両の実際の位置及び姿勢角として算出してもよい。又は、ECU21は、複数の仮想位置及び仮想姿勢角の候補に対して、各仮想画像の位置推定用尤度LIKE_Pに応じた重み付き平均を取って車両の実際の位置及び姿勢角を算出してもよい。又は、ECU21は、複数の仮想位置及び仮想姿勢角の候補に対して、各仮想画像の姿勢角推定用尤度LIKE_Aに応じた重み付き平均を取って車両の実際の位置及び姿勢角を算出してもよい。又は、ECU21は、各仮想画像の位置推定用尤度LIKE_Pと姿勢角推定用尤度LIKE_Aの和に応じた重み付き平均を取って車両の実際の位置及び姿勢角を算出してもよい。   At this time, for example, the ECU 21 calculates the virtual position and the virtual attitude angle as the actual position and attitude angle of the vehicle by using the virtual position and virtual attitude angle candidate having the highest position estimation likelihood LIKE_P. Also good. Alternatively, the ECU 21 may calculate the virtual position and the virtual attitude angle as the actual position and attitude angle of the vehicle using the virtual position and virtual attitude angle candidate having the highest attitude angle estimation likelihood LIKE_A. . Alternatively, the ECU 21 uses the virtual position and the virtual attitude angle candidate having the highest sum of the position estimation likelihood LIKE_P and the attitude angle estimation likelihood LIKE_A to obtain the virtual position and the virtual attitude angle from the actual vehicle position. You may calculate as a position and a posture angle. Alternatively, the ECU 21 calculates the actual position and posture angle of the vehicle by taking a weighted average corresponding to the position estimation likelihood LIKE_P of each virtual image for a plurality of virtual position and virtual posture angle candidates. Also good. Alternatively, the ECU 21 calculates the actual position and posture angle of the vehicle by taking a weighted average corresponding to the posture angle estimation likelihood LIKE_A of each virtual image for a plurality of virtual position and virtual posture angle candidates. May be. Alternatively, the ECU 21 may calculate the actual position and posture angle of the vehicle by taking a weighted average corresponding to the sum of the position estimation likelihood LIKE_P and the posture angle estimation likelihood LIKE_A of each virtual image.

また、ステップS53においてパーティクルフィルタを用いた場合、ステップS56において、先ず各パーティクルの重みに、位置推定用尤度LIKE_P及び姿勢角推定用尤度LIKE_Aの2つを設定すればよい。そして、ECU21は、位置推定用尤度LIKE_Pが最も高いパーティクルの位置情報を、実際の車両の位置とする。又は、ECU21は、複数のパーティクルの位置情報に対して位置推定用尤度LIKE_Pに応じた重み付き平均を取って実際の車両の位置を算出してもよい。又は、ECU21は、姿勢角推定用尤度LIKE_Aが最も高いパーティクルの姿勢角情報を、実際の車両の姿勢角としてもよい。又は、ECU21は、複数のパーティクルの姿勢角情報に対して姿勢角推定用尤度LIKE_Aに応じた重み付き平均を取って実際の車両の姿勢角としてもよい。   When a particle filter is used in step S53, first, in step S56, two weights for position estimation likelihood LIKE_P and posture angle estimation likelihood LIKE_A may be set as the weight of each particle. The ECU 21 sets the position information of the particles having the highest position estimation likelihood LIKE_P as the actual vehicle position. Alternatively, the ECU 21 may calculate the actual vehicle position by taking a weighted average corresponding to the position estimation likelihood LIKE_P for the position information of the plurality of particles. Alternatively, the ECU 21 may use the posture angle information of the particles having the highest posture angle estimation likelihood LIKE_A as the actual posture angle of the vehicle. Alternatively, the ECU 21 may take the weighted average corresponding to the attitude angle estimation likelihood LIKE_A with respect to the attitude angle information of a plurality of particles, and obtain the actual attitude angle of the vehicle.

更に、ECU21は、各パーティクルのリサンプリングを、位置推定用尤度LIKE_Pと姿勢角推定用尤度LIKE_Aに基づき行う。すなわち、複数の仮想画像の姿勢角尤度及び複数の仮想画像の位置尤度に基づき、複数の仮想位置及び仮想姿勢角を再設定する。   Furthermore, the ECU 21 performs resampling of each particle based on the position estimation likelihood LIKE_P and the posture angle estimation likelihood LIKE_A. That is, the plurality of virtual positions and the virtual posture angles are reset based on the posture angle likelihood of the plurality of virtual images and the position likelihood of the plurality of virtual images.

具体的には、ECU21は、位置推定用尤度LIKE_Pと姿勢角推定用尤度LIKE_Aの和が最も高いパーティクルを中心として、各パーティクルのリサンプリングを行う。又は、ECU21は、各パーティクルの位置情報と姿勢角情報とを一旦分離し、位置情報のみのパーティクルについては位置推定用尤度LIKE_Pに基づきリサンプリングを行う。姿勢角情報のみのパーティクルについては姿勢角推定用尤度LIKE_Aに基づきリサンプリングを行う。その後、ECU21は、ランダムに、位置情報のみのパーティクルと姿勢角情報のみのパーティクルの位置情報と姿勢角情報を組み合わせて、新たに位置情報と姿勢角情報を持ったパーティクルを再構成してもよい。   Specifically, the ECU 21 resamples each particle around the particle having the highest sum of the position estimation likelihood LIKE_P and the posture angle estimation likelihood LIKE_A. Alternatively, the ECU 21 once separates the position information and the posture angle information of each particle, and performs resampling on the particles having only the position information based on the position estimation likelihood LIKE_P. For particles having only posture angle information, resampling is performed based on posture angle estimation likelihood LIKE_A. Thereafter, the ECU 21 may randomly reconstruct particles having position information and posture angle information by randomly combining the position information and posture angle information of particles having only position information and particles having only posture angle information. .

ECU21は、以上のようなステップS51乃至ステップS56を繰り返して行うことによって、逐次、車両の位置と姿勢角を算出できる。   The ECU 21 can sequentially calculate the position and posture angle of the vehicle by repeatedly performing steps S51 to S56 as described above.

以上詳細に説明したように、第2の実施形態として示した自車位置姿勢推定装置によれば、撮影画像と仮想画像とを比較し、撮影画像内の遠方位置画素と仮想画像内の遠方位置画素とが一致した場合には仮想画像の姿勢角尤度を高くする。一方、撮影画像内の近傍位置画素と仮想画像内の近傍位置画素とが一致した場合には仮想画像の位置尤度を高くする。そして、自車位置姿勢推定装置は、仮想画像の姿勢角尤度に基づき当該仮想画像の仮想姿勢角に対する実際の自車の姿勢角を推定する。一方、仮想画像の位置尤度に基づき当該仮想画像の仮想位置に対する実際の自車の位置を推定する。   As described above in detail, according to the vehicle position / posture estimation apparatus shown as the second embodiment, the captured image and the virtual image are compared, and the far position pixel in the captured image and the far position in the virtual image are compared. When the pixel matches, the attitude angle likelihood of the virtual image is increased. On the other hand, if the neighboring position pixel in the captured image matches the neighboring position pixel in the virtual image, the position likelihood of the virtual image is increased. Then, the own vehicle position / posture estimation apparatus estimates the actual posture angle of the own vehicle with respect to the virtual posture angle of the virtual image based on the posture angle likelihood of the virtual image. On the other hand, the actual position of the host vehicle with respect to the virtual position of the virtual image is estimated based on the position likelihood of the virtual image.

したがって、この自車位置姿勢推定装置によれば、位置と姿勢角に対して別々の尤度を考え、現実の映像と仮想映像とが一致した場所までの距離に応じて、位置と姿勢角を別々に調整して推定することができる。具体的には、カメラ22から遠い場所でこの2つの映像が一致していた場合には、仮想画像の姿勢角は真値に近いが仮想画像の位置情報の誤差が大きい可能性があるので、姿勢角情報の尤度をより大きく設定できる。逆に、位置情報の尤度はあまり大きく設定しない。一方、カメラ22から近い場所でこの2つの映像が一致していた場合には、位置情報の尤度をより大きく設定し、逆に、姿勢角情報の尤度はあまり大きく設定しない。   Therefore, according to this own vehicle position / posture estimation apparatus, different likelihoods are considered for the position and the posture angle, and the position and posture angle are set according to the distance to the place where the real image and the virtual image match. It can be adjusted separately and estimated. Specifically, if these two images match at a location far from the camera 22, the attitude angle of the virtual image is close to the true value, but there may be a large error in the position information of the virtual image. The likelihood of posture angle information can be set larger. Conversely, the likelihood of position information is not set too large. On the other hand, when the two images match at a location close to the camera 22, the likelihood of the position information is set larger, and conversely, the likelihood of the posture angle information is not set too large.

2つの映像が一致した場所がカメラ22から遠い場合には位置の誤差が大きい場合がある。逆に、2つの映像が一致した位置がカメラ22から近い場合には姿勢角の誤差が大きい場合があるが、この自車位置姿勢推定装置によれば、精度良く自車の位置及び姿勢角を推定することができる。   When the place where the two images match is far from the camera 22, the position error may be large. Conversely, when the position where the two images match is close to the camera 22, there may be a large error in the posture angle. However, according to this vehicle position and posture estimation device, the position and posture angle of the vehicle can be accurately determined. Can be estimated.

また、この自車位置姿勢推定装置によれば、所定距離以上の遠方で撮影画像の画素と仮想画像の画素が一致した場合には、尤度の増加幅を少なく又は所定の上限値となるように仮想画像の姿勢角尤度を設定する。これにより、自車位置姿勢推定装置によれば、一致させる映像の中に極端にカメラ22からの距離が遠い部分が含まれていた時に、この部分での一致度合いによって姿勢角情報の尤度が決定されないようにできる。このため、極端にカメラ22からの距離が遠い部分に対して抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、姿勢角の推定誤差を小さくすることができる。   Further, according to this vehicle position / posture estimation apparatus, when the pixel of the captured image and the pixel of the virtual image coincide with each other at a distance of a predetermined distance or more, the likelihood increase is reduced or becomes a predetermined upper limit value. Is set to the attitude angle likelihood of the virtual image. Thus, according to the vehicle position / posture estimation apparatus, when a portion that is extremely far from the camera 22 is included in the video to be matched, the likelihood of the posture angle information depends on the degree of matching in this portion. It can be prevented from being determined. For this reason, even if there is noise or an error in the edge extracted for a part that is extremely far from the camera 22, the influence can be suppressed, and the estimation error of the posture angle can be reduced.

更に、この自車位置姿勢推定装置によれば、所定距離以上の近傍で撮影画像の画素と仮想画像の画素が一致した場合には、尤度の増加幅を少なく又は所定の上限値となるように仮想画像の位置尤度を設定する。これにより、カメラ22から一定距離以内で2つの映像が一致していた場合に位置情報の尤度を大きくしすぎないようにする。したがって、この自車位置姿勢推定装置によれば、極端にカメラ22からの距離が近い部分に対して抽出したエッジにノイズや誤差があっても、その影響を抑制することができ、位置の推定誤差を小さくすることができる。   Furthermore, according to this vehicle position / posture estimation apparatus, when the pixel of the captured image and the pixel of the virtual image coincide in the vicinity of a predetermined distance or more, the increase in likelihood is reduced or becomes a predetermined upper limit value. Is set to the position likelihood of the virtual image. This prevents the likelihood of the position information from becoming too large when the two videos match within a certain distance from the camera 22. Therefore, according to this own vehicle position / posture estimation apparatus, even if there is noise or an error in the extracted edge with respect to a portion where the distance from the camera 22 is extremely close, the influence can be suppressed and the position estimation can be performed. The error can be reduced.

更にまた、この自車位置姿勢推定装置によれば、複数のパーティクル(候補点)を設定して各パーティクルについての位置推定用尤度LIKE_P及び姿勢角推定用尤度LIKE_Aを設定して車両の位置及び姿勢角を求める。当該位置推定用尤度LIKE_P及び姿勢角推定用尤度LIKE_Aに基づきパーティクルをリサンプリングできる。   Furthermore, according to this vehicle position / posture estimation apparatus, a plurality of particles (candidate points) are set, and the position estimation likelihood LIKE_P and the posture angle estimation likelihood LIKE_A for each particle are set to determine the position of the vehicle. And determine the attitude angle. Particles can be resampled based on the position estimation likelihood LIKE_P and the posture angle estimation likelihood LIKE_A.

ここで、パーティクルフィルタでは、推定する次数がnとした場合、推定精度をa倍とするためには、散布するパーティクルの数も原理的にaのn乗倍に増やす必要がある(確率ロボティクス・第4章3節((著)Sebastian Thrun/Wolfram Burgard/Dieter Fox,(訳)上田隆一,(発行)(株)毎日コミュニケーションズ))。既存技術では、例えば三次元での位置情報と姿勢角情報を同時に推定する場合、その次数は6次となり、推定精度を2倍に上げようとすると演算時間は64倍となり、推定精度を3倍に上げようとすると演算時間は729倍に増加してしまう。   Here, in the particle filter, when the estimated order is n, in order to increase the estimation accuracy by a times, it is necessary to increase the number of particles to be scattered to a power of n times in principle (probability robotics Chapter 4 Section 3 ((Author) Sebastian Thrun / Wolfram Burgard / Dieter Fox, (Translated) Ryuichi Ueda, (Published) Mainichi Communications Inc.). In the existing technology, for example, when estimating position information and posture angle information in three dimensions at the same time, the order becomes 6th order, and if the estimation accuracy is to be doubled, the calculation time is 64 times and the estimation accuracy is tripled. However, the computation time increases by a factor of 729.

これに対し、自車位置姿勢推定装置によれば、位置情報と姿勢角情報とを別々に扱うことができる。したがって、原理的に推定精度を2倍に上げようとした場合には演算時間は23×2=16倍となり、推定精度を3倍に上げようとした場合で演算時間は33×2=54倍となるため、演算負荷を大きく低減できる。   On the other hand, according to the own vehicle position / posture estimation apparatus, position information and posture angle information can be handled separately. Therefore, in principle, the calculation time is 23 × 2 = 16 times when the estimation accuracy is to be doubled, and the calculation time is 33 × 2 = 54 times when the estimation accuracy is to be tripled. Therefore, the calculation load can be greatly reduced.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

上述した実施形態では車両を例にしたが、少なくとも1台以上のカメラを搭載した移動体であれば、航空機や船舶などにも適用可能である。   In the above-described embodiment, a vehicle is taken as an example. However, any vehicle that has at least one camera mounted thereon can be applied to an aircraft, a ship, and the like.

また、上述した実施形態では車両の6自由度の位置(前後方向,横方向,上下方向)及び姿勢角(ロール,ピッチ,ヨー)を求めているが、これに限らない。例えば、サスペンション等を有さない、工場などで用いられる無人搬送車などのように3自由度での位置(前後方向,横方向)及び姿勢角(ヨー)を推定する場合にも、本実施形態が適用可能である。具体的には、このような車両であれば、上下方向の位置と、ロール及びピッチといった姿勢角は固定であるので、予めこれらのパラメータを計測しておいたり、3次元地図データベース23を参照して求めるようにすればよい。   In the above-described embodiment, the position (front-rear direction, lateral direction, vertical direction) and posture angle (roll, pitch, yaw) of the six degrees of freedom of the vehicle are obtained, but the present invention is not limited to this. For example, this embodiment is also used when estimating a position (front-rear direction, lateral direction) and posture angle (yaw) with three degrees of freedom, such as an automatic guided vehicle used in a factory without a suspension or the like. Is applicable. Specifically, in such a vehicle, the vertical position and the posture angle such as roll and pitch are fixed, so these parameters are measured in advance or the 3D map database 23 is referred to. And ask for it.

1 周囲環境撮影部
2 自車状態検出部
3 対地自車位置推定部
4 相対自車位置推定部
5 地図DB(地図データベース)
6 走行経路算出部
7 自動走行制御部
8 自車位置難度区間推定部
9 ランドマーク検索部
10 ランドマーク検出走行制御部
11 自車位置推定切替部
12a,12b 道路
13 自車
14 ランドマーク
15 駐車場
21 ECU
22 カメラ
23 次元地図データベース
40 車両センサ群
41 GPS受信機
42 アクセルセンサ
43 ステアリングセンサ
44 ブレーキセンサ
45 車速センサ
46 加速度センサ
47 車輪速センサ
48 その他センサ
DESCRIPTION OF SYMBOLS 1 Surrounding environment imaging | photography part 2 Own vehicle state detection part 3 Ground own vehicle position estimation part 4 Relative own vehicle position estimation part 5 Map DB (map database)
6 travel route calculation unit 7 automatic travel control unit 8 own vehicle position difficulty section estimation unit 9 landmark search unit 10 landmark detection travel control unit 11 own vehicle position estimation switching unit 12a, 12b road 13 own vehicle 14 landmark 15 parking lot 21 ECU
22 camera 23 dimensional map database 40 vehicle sensor group 41 GPS receiver 42 accelerator sensor 43 steering sensor 44 brake sensor 45 vehicle speed sensor 46 acceleration sensor 47 wheel speed sensor 48 other sensors

Claims (7)

自車の周囲環境の画像を撮影する周囲環境撮影手段と、
自車の操作量及び運動状態を検出する自車状態検出手段と、
自車が走行可能な道路の線形情報及び道路周辺の構造物の位置情報が取得された地図情報に基づき、自車の出発地点から移動目標地点に至る目標走行経路を算出する走行経路算出手段と、
前記周囲環境撮影手段の出力に基づき地上固定座標系上での自車の位置と姿勢の推定値及び推定精度を算出する第1の自車位置推定手段と、
前記自車状態検出手段の出力に基づき推定される自車位置の変化量を積算することで基準点及び方位と自車位置との相対的な位置関係を推定する第2の自車位置推定手段と、
前記目標走行経路上で前記第1の自車位置推定手段による位置推定の難度が高い区間を推定する自車位置難度区間推定手段と、
前記自車位置難度区間推定手段で難度が高いと推定された区間の手前側領域内で、前記周囲環境撮影手段の撮影範囲に入る可能性が高いランドマークを前記地図情報から検出するランドマーク検出手段と、
前記ランドマーク検出手段で検出されたランドマークに基づき位置推定難度の高い区間を走行中、前記第1の自車位置推定手段から前記第2の自車位置推定手段に切り替える自車位置推定切替手段と、
位置推定難度の高い区間を走行中、前記自車位置推定切替手段の結果に基づく前記第2の自車位置推定手段の出力に基づき自車の走行制御を実行し、位置推定難度の高い区間以外の区間では前記自車位置推定切替手段の結果に基づく前記第1の自車位置推定手段の出力に基づき自車の走行制御を実行する自動走行制御手段と、
を備えることを特徴とする車両走行制御装置。
Ambient environment photographing means for photographing an image of the surrounding environment of the own vehicle,
Own vehicle state detection means for detecting an operation amount and a movement state of the own vehicle;
A travel route calculating means for calculating a target travel route from the departure point of the own vehicle to the movement target point based on the linear information of the road on which the host vehicle can travel and the map information obtained from the position information of the structures around the road; ,
First vehicle position estimation means for calculating an estimated value and estimation accuracy of the position and posture of the vehicle on the ground fixed coordinate system based on the output of the ambient environment photographing means;
Second vehicle position estimation means for estimating a relative positional relationship between the reference point and direction and the vehicle position by integrating the amount of change in the vehicle position estimated based on the output of the vehicle state detection means When,
Own vehicle position difficulty section estimation means for estimating a section on which the position of the first vehicle position estimation means is high on the target travel route;
Landmark detection for detecting, from the map information, a landmark that is highly likely to be in the photographing range of the surrounding environment photographing means within the near side region of the section that is estimated to be difficult by the own vehicle position difficulty section estimating means. Means,
Vehicle position estimation switching means for switching from the first vehicle position estimation means to the second vehicle position estimation means while traveling in a section with a high position estimation difficulty based on the landmark detected by the landmark detection means When,
While traveling in a section with a high degree of position estimation difficulty, the travel control of the own vehicle is executed based on the output of the second vehicle position estimation means based on the result of the own vehicle position estimation switching means. Automatic travel control means for executing travel control of the vehicle based on the output of the first vehicle position estimation means based on the result of the vehicle position estimation switching means;
A vehicle travel control device comprising:
前記ランドマーク検出手段は、前記第1の自車位置推定手段の位置推定精度が所定の水準になるまで、検出されたランドマークが前記周囲環境撮影手段の撮影範囲内に入るように自車位置を補正し、
前記自車位置推定切替手段は、前記ランドマーク検出手段が起動された状態で前記第1の自車位置推定手段の位置推定精度が前記所定の水準以上である場合には、前記ランドマーク検出手段の起動を解除し、位置推定難度の高い区間を走行中、前記第1の自車位置推定手段から前記第2の自車位置推定手段に切り替えることを特徴とする請求項1記載の車両走行制御装置。
The landmark detection means detects the vehicle position so that the detected landmark falls within the shooting range of the surrounding environment shooting means until the position estimation accuracy of the first vehicle position estimation means reaches a predetermined level. To correct
If the position estimation accuracy of the first vehicle position estimation means is equal to or higher than the predetermined level in a state where the landmark detection means is activated, the vehicle position estimation switching means 2. The vehicle travel control according to claim 1, wherein the vehicle travel control is switched from the first vehicle position estimation means to the second vehicle position estimation means while traveling in a section having a high position estimation difficulty. apparatus.
前記第1の自車位置推定手段は、前記周囲環境撮影手段で撮影された自車の周囲環境の撮影画像と、前記地図情報を仮想位置及び仮想姿勢角から撮影した仮想画像とを比較することにより、実際の車両の姿勢角及び位置を推定することを特徴とする請求項1又は請求項2記載の車両走行制御装置。   The first vehicle position estimation means compares a photographed image of the surrounding environment of the vehicle photographed by the surrounding environment photographing means with a virtual image obtained by photographing the map information from a virtual position and a virtual attitude angle. The vehicle travel control device according to claim 1, wherein an actual attitude angle and position of the vehicle are estimated by the following. 前記第1の自車位置推定手段は、前記撮影画像と前記仮想画像とを比較し、前記撮影画像内の遠方位置画素と前記仮想画像内の遠方位置画素とが一致した場合には前記仮想画像の姿勢角尤度を高くし、前記撮影画像内の近傍位置画素と前記仮想画像内の近傍位置画素とが一致した場合には前記仮想画像の位置尤度を高くする尤度設定手段と、
前記尤度設定手段により設定された前記仮想画像の姿勢角尤度に基づき当該仮想画像の仮想姿勢角に対する実際の自車の姿勢角を推定し、前記尤度設定手段により設定された前記仮想画像の位置尤度に基づき当該仮想画像の仮想位置に対する実際の自車の位置を推定する自車位置姿勢推定手段と、
を備えることを特徴とする請求項3記載の車両走行制御装置。
The first vehicle position estimation means compares the captured image with the virtual image, and if the far position pixel in the captured image matches the far position pixel in the virtual image, the virtual image The likelihood angle setting means for increasing the position likelihood of the virtual image when the position angle likelihood of the virtual image coincides with the vicinity position pixel in the captured image and the vicinity position pixel in the virtual image,
Based on the attitude angle likelihood of the virtual image set by the likelihood setting means, an actual attitude angle of the own vehicle with respect to the virtual attitude angle of the virtual image is estimated, and the virtual image set by the likelihood setting means Vehicle position and orientation estimation means for estimating the actual position of the vehicle relative to the virtual position of the virtual image based on the position likelihood;
The vehicle travel control device according to claim 3, further comprising:
前記ランドマーク検出手段は、前記ランドマークを検出したときには、自車を一時停止させることを特徴とする請求項1乃至請求項4のいずれか1項記載の車両走行制御装置。   The vehicle travel control device according to any one of claims 1 to 4, wherein the landmark detection means temporarily stops the own vehicle when the landmark is detected. 前記ランドマーク検索手段は、前記地図情報から所定の条件を満たす複数のランドマークを検索し、検索された複数のランドマークから状況に適したランドマークを選択し、選択されたランドマークを前記ランドマーク検出走行制御手段の目標ランドマークとして使用することを特徴とする請求項1乃至請求項5のいずれか1項記載の車両走行制御装置。   The landmark search means searches a plurality of landmarks satisfying a predetermined condition from the map information, selects a landmark suitable for the situation from the plurality of searched landmarks, and selects the selected landmark as the landmark. The vehicle travel control device according to any one of claims 1 to 5, wherein the vehicle travel control device is used as a target landmark of a mark detection travel control means. 周囲環境撮影手段により自車の周囲環境の画像を撮影するステップと、
自車状態検出手段により自車の操作量及び運動状態を検出するステップと、
自車が走行可能な道路の線形情報及び道路周辺の構造物の位置情報が取得された地図情報に基づき自車の出発地点から移動目標地点に至る目標走行経路を算出するステップと、
第1の自車位置推定手段により前記周囲環境撮影手段の出力に基づき地上固定座標系上での自車の位置と姿勢の推定値及び推定精度を推定するステップと、
第2の自車位置推定手段により前記自車状態検出手段の出力に基づき推定される自車位置の変化量を積算することで基準点及び方位と自車位置との相対的な位置関係を推定するステップと、
前記目標走行経路上で前記第1の自車位置推定手段による位置推定の難度が高い区間を推定するステップと、
難度が高いと推定された区間の手前側領域内で前記周囲環境撮影手段の撮影範囲に入る可能性が高いランドマークを前記地図情報から検出するステップと、
検出されたランドマークに基づき位置推定難度の高い区間を走行中、前記第1の自車位置推定手段から前記第2の自車位置推定手段に切り替える自車位置推定切替ステップと、
位置推定難度の高い区間を走行中、前記自車位置推定切替ステップの結果に基づく前記第2の自車位置推定手段の出力に基づき自車の走行制御を実行し、位置推定難度の高い区間以外の区間では前記自車位置推定切替ステップの結果に基づく前記第1の自車位置推定手段の出力に基づき自車の走行制御を実行するステップと、
を含むことを特徴とする車両走行制御方法。
Photographing an image of the surrounding environment of the vehicle by the surrounding environment photographing means;
Detecting the operation amount and the movement state of the own vehicle by the own vehicle state detecting means;
Calculating a target travel route from the departure point of the host vehicle to the moving target point based on the map information obtained by acquiring linear information of the road on which the host vehicle can travel and position information of structures around the road; and
Estimating an estimated value and estimation accuracy of the position and orientation of the vehicle on the ground fixed coordinate system based on the output of the surrounding environment photographing unit by the first vehicle position estimation unit;
A relative positional relationship between the reference point and direction and the vehicle position is estimated by integrating the amount of change in the vehicle position estimated based on the output of the vehicle state detection unit by the second vehicle position estimation unit. And steps to
Estimating a section having a high degree of difficulty in position estimation by the first vehicle position estimating means on the target travel route;
Detecting from the map information landmarks that are likely to be in the shooting range of the surrounding environment shooting means in the near side area of the section estimated to be high in difficulty;
A vehicle position estimation switching step for switching from the first vehicle position estimation means to the second vehicle position estimation means while traveling in a section having a high position estimation difficulty based on the detected landmark;
While traveling in a section where the position estimation difficulty is high, the vehicle is controlled based on the output of the second vehicle position estimation means based on the result of the vehicle position estimation switching step. In the section, executing the running control of the own vehicle based on the output of the first own vehicle position estimating means based on the result of the own vehicle position estimation switching step;
The vehicle travel control method characterized by including.
JP2012175547A 2012-08-08 2012-08-08 Vehicle travel control apparatus and method Active JP5966747B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012175547A JP5966747B2 (en) 2012-08-08 2012-08-08 Vehicle travel control apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012175547A JP5966747B2 (en) 2012-08-08 2012-08-08 Vehicle travel control apparatus and method

Publications (2)

Publication Number Publication Date
JP2014034251A true JP2014034251A (en) 2014-02-24
JP5966747B2 JP5966747B2 (en) 2016-08-10

Family

ID=50283514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012175547A Active JP5966747B2 (en) 2012-08-08 2012-08-08 Vehicle travel control apparatus and method

Country Status (1)

Country Link
JP (1) JP5966747B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015111386A (en) * 2013-10-29 2015-06-18 株式会社デンソー Automatic operation device
JP2015230190A (en) * 2014-06-03 2015-12-21 日産自動車株式会社 Position detection apparatus and position detection method
WO2016059904A1 (en) * 2014-10-15 2016-04-21 シャープ株式会社 Moving body
JP2016188806A (en) * 2015-03-30 2016-11-04 シャープ株式会社 Mobile entity and system
JP2017100562A (en) * 2015-12-02 2017-06-08 株式会社デンソーアイティーラボラトリ Drive control device, drive control method and program
JP2017102907A (en) * 2015-10-20 2017-06-08 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Method of selecting optimized rail track
JP2017116363A (en) * 2015-12-24 2017-06-29 アイシン・エィ・ダブリュ株式会社 Vehicle position estimation system, method, and program
JP2017213950A (en) * 2016-05-30 2017-12-07 株式会社デンソー Wiping body control device
JP2018021832A (en) * 2016-08-04 2018-02-08 三菱電機株式会社 Vehicle travel controller and vehicle travel control method
JP2018136700A (en) * 2017-02-21 2018-08-30 トヨタ自動車株式会社 Vehicle control device
JP2018138929A (en) * 2014-03-12 2018-09-06 日産自動車株式会社 Vehicle operation device
WO2018221453A1 (en) * 2017-05-31 2018-12-06 パイオニア株式会社 Output device, control method, program, and storage medium
CN109313847A (en) * 2016-06-07 2019-02-05 罗伯特·博世有限公司 Method, apparatus and system for wrong road driver identification
US10310508B2 (en) 2016-08-25 2019-06-04 Toyota Jidosha Kabushiki Kaisha Vehicle control apparatus
EP3674831A1 (en) * 2018-12-28 2020-07-01 Hyundai Motor Company System, method, infrastructure facility, and vehicle for automated valet parking
WO2020144844A1 (en) * 2019-01-11 2020-07-16 三菱電機株式会社 Host position correction device of mobile body
WO2021100865A1 (en) 2019-11-22 2021-05-27 愛知製鋼株式会社 Location estimation method and location estimation system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6759175B2 (en) 2017-10-27 2020-09-23 株式会社東芝 Information processing equipment and information processing system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6412218A (en) * 1987-07-03 1989-01-17 Daihatsu Motor Co Ltd Present position detection system for automobile
JP2000310541A (en) * 1999-04-28 2000-11-07 Daihatsu Motor Co Ltd Navigation system for automobile
JP2003279361A (en) * 2002-03-26 2003-10-02 Clarion Co Ltd Car navigation system and method and program for navigation
JP2004286518A (en) * 2003-03-20 2004-10-14 Alpine Electronics Inc On-vehicle navigation device
JP2005265494A (en) * 2004-03-17 2005-09-29 Hitachi Ltd Car location estimation system and drive support device using car location estimation system and drive support device using this
JP2005313710A (en) * 2004-04-27 2005-11-10 Toyota Motor Corp Parking assist device
JP2012127896A (en) * 2010-12-17 2012-07-05 Kumamoto Univ Mobile object position measurement device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6412218A (en) * 1987-07-03 1989-01-17 Daihatsu Motor Co Ltd Present position detection system for automobile
JP2000310541A (en) * 1999-04-28 2000-11-07 Daihatsu Motor Co Ltd Navigation system for automobile
JP2003279361A (en) * 2002-03-26 2003-10-02 Clarion Co Ltd Car navigation system and method and program for navigation
JP2004286518A (en) * 2003-03-20 2004-10-14 Alpine Electronics Inc On-vehicle navigation device
JP2005265494A (en) * 2004-03-17 2005-09-29 Hitachi Ltd Car location estimation system and drive support device using car location estimation system and drive support device using this
JP2005313710A (en) * 2004-04-27 2005-11-10 Toyota Motor Corp Parking assist device
JP2012127896A (en) * 2010-12-17 2012-07-05 Kumamoto Univ Mobile object position measurement device

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015111386A (en) * 2013-10-29 2015-06-18 株式会社デンソー Automatic operation device
JP2018138929A (en) * 2014-03-12 2018-09-06 日産自動車株式会社 Vehicle operation device
JP2015230190A (en) * 2014-06-03 2015-12-21 日産自動車株式会社 Position detection apparatus and position detection method
WO2016059904A1 (en) * 2014-10-15 2016-04-21 シャープ株式会社 Moving body
JP2016188806A (en) * 2015-03-30 2016-11-04 シャープ株式会社 Mobile entity and system
CN107010053A (en) * 2015-10-20 2017-08-04 罗伯特·博世有限公司 Method for selecting optimization track
JP2017102907A (en) * 2015-10-20 2017-06-08 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Method of selecting optimized rail track
JP2017100562A (en) * 2015-12-02 2017-06-08 株式会社デンソーアイティーラボラトリ Drive control device, drive control method and program
JP2017116363A (en) * 2015-12-24 2017-06-29 アイシン・エィ・ダブリュ株式会社 Vehicle position estimation system, method, and program
JP2017213950A (en) * 2016-05-30 2017-12-07 株式会社デンソー Wiping body control device
CN109313847A (en) * 2016-06-07 2019-02-05 罗伯特·博世有限公司 Method, apparatus and system for wrong road driver identification
JP2019519040A (en) * 2016-06-07 2019-07-04 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Method, apparatus and system for detecting reverse running driver
US11315417B2 (en) 2016-06-07 2022-04-26 Robert Bosch Gmbh Method, device and system for wrong-way driver detection
JP2018021832A (en) * 2016-08-04 2018-02-08 三菱電機株式会社 Vehicle travel controller and vehicle travel control method
US11175661B2 (en) 2016-08-04 2021-11-16 Mitsubishi Electric Corporation Vehicle traveling control device and vehicle traveling control method
US10310508B2 (en) 2016-08-25 2019-06-04 Toyota Jidosha Kabushiki Kaisha Vehicle control apparatus
JP2018136700A (en) * 2017-02-21 2018-08-30 トヨタ自動車株式会社 Vehicle control device
WO2018221453A1 (en) * 2017-05-31 2018-12-06 パイオニア株式会社 Output device, control method, program, and storage medium
JPWO2018221453A1 (en) * 2017-05-31 2020-03-26 パイオニア株式会社 Output device, control method, program, and storage medium
US11512962B2 (en) 2017-05-31 2022-11-29 Pioneer Corporation Output device, control method, program and storage medium
EP3674831A1 (en) * 2018-12-28 2020-07-01 Hyundai Motor Company System, method, infrastructure facility, and vehicle for automated valet parking
US11378969B2 (en) 2018-12-28 2022-07-05 Hyundai Motor Company System, method, infrastructure facility, and vehicle for automated valet parking
WO2020144844A1 (en) * 2019-01-11 2020-07-16 三菱電機株式会社 Host position correction device of mobile body
JPWO2020144844A1 (en) * 2019-01-11 2021-09-30 三菱電機株式会社 Self-position correction device for moving objects
JP7107392B2 (en) 2019-01-11 2022-07-27 三菱電機株式会社 Self-positioning device for moving body
WO2021100865A1 (en) 2019-11-22 2021-05-27 愛知製鋼株式会社 Location estimation method and location estimation system

Also Published As

Publication number Publication date
JP5966747B2 (en) 2016-08-10

Similar Documents

Publication Publication Date Title
JP5966747B2 (en) Vehicle travel control apparatus and method
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
US11433880B2 (en) In-vehicle processing apparatus
US10384679B2 (en) Travel control method and travel control apparatus
RU2668459C1 (en) Position evaluation device and method
JP5782708B2 (en) Driving support device
JP5747787B2 (en) Lane recognition device
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
US10267640B2 (en) Vehicle position estimation device, vehicle position estimation method
KR102086270B1 (en) Control method and traveling control device of the traveling control device
US20220012509A1 (en) Overhead-view image generation device, overhead-view image generation system, and automatic parking device
WO2021056841A1 (en) Positioning method, path determining method and apparatus, robot, and storage medium
JP7077910B2 (en) Bound line detection device and lane marking method
JP5949955B2 (en) Road environment recognition system
JP6911312B2 (en) Object identification device
KR101100827B1 (en) A method of recognizing self-localization for a road-driving robot
US20190331496A1 (en) Locating a vehicle
KR20150112536A (en) Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same
JP6834401B2 (en) Self-position estimation method and self-position estimation device
JP6044084B2 (en) Moving object position and orientation estimation apparatus and method
JPWO2018179616A1 (en) Vehicle position estimation device
US20200193184A1 (en) Image processing device and image processing method
JP6790951B2 (en) Map information learning method and map information learning device
JP2018084960A (en) Self-position estimation method and self-position estimation device
JP6943127B2 (en) Position correction method, vehicle control method and position correction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160620

R151 Written notification of patent or utility model registration

Ref document number: 5966747

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151