JP7240886B2 - SELF-LOCATION ERROR ESTIMATION METHOD AND SELF-LOCATION ERROR ESTIMATION DEVICE - Google Patents

SELF-LOCATION ERROR ESTIMATION METHOD AND SELF-LOCATION ERROR ESTIMATION DEVICE Download PDF

Info

Publication number
JP7240886B2
JP7240886B2 JP2019018453A JP2019018453A JP7240886B2 JP 7240886 B2 JP7240886 B2 JP 7240886B2 JP 2019018453 A JP2019018453 A JP 2019018453A JP 2019018453 A JP2019018453 A JP 2019018453A JP 7240886 B2 JP7240886 B2 JP 7240886B2
Authority
JP
Japan
Prior art keywords
self
targets
vehicle
error
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019018453A
Other languages
Japanese (ja)
Other versions
JP2020125975A (en
Inventor
博幸 ▲高▼野
祐一 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019018453A priority Critical patent/JP7240886B2/en
Publication of JP2020125975A publication Critical patent/JP2020125975A/en
Application granted granted Critical
Publication of JP7240886B2 publication Critical patent/JP7240886B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、自己位置誤差推定方法及び自己位置誤差推定装置に関する。 The present invention relates to a self-position error estimation method and a self-position error estimation device.

従来より、自車両に設けられた撮像手段で自車両周囲の複数の物標(ランドマークとも言う)を撮像し、撮像した画像上の複数の物標の位置と、予め地図上に記憶された複数の物標の位置とをマッチングすることによって自己位置を推定する自己位置検出装置が知られている。(特許文献1)。 Conventionally, a plurality of targets (also called landmarks) around the vehicle are imaged by an imaging means provided in the vehicle, and the positions of the plurality of targets on the imaged image and the positions of the targets stored in advance on the map are captured. A self-position detecting device is known that estimates its own position by matching the positions of a plurality of targets. (Patent document 1).

特開2012-127896号公報JP 2012-127896 A

しかしながら、特許文献1に記載された技術のように、画像上の物標位置を用いた自己位置検出装置においては自己位置の推定誤差の発生が避けられない。このため、撮像した複数の物標の位置に基づいて自己位置を推定する自己位置検出装置においては、正確な自己位置の検出誤差の推定が望まれていた。 However, as in the technique described in Patent Literature 1, self-position estimation errors inevitably occur in a self-position detecting device that uses target positions on an image. Therefore, in a self-position detection device that estimates the self-position based on the positions of a plurality of picked-up targets, accurate estimation of the self-position detection error has been desired.

本発明は、上記問題に鑑みて成されたものであり、その目的は、自己位置の検出誤差の推定精度が向上しうる自己位置誤差推定方法及び自己位置誤差推定装置を提供することである。 An object of the present invention is to provide a self-position error estimation method and a self-position error estimation device capable of improving the accuracy of self-position detection error estimation.

本発明の一態様に係る自己位置誤差推定方法は、自車両が、少なくとも2つの物標を検出可能な道路上の所定の領域を通過するコースを設定し、自車両がコースに沿って領域を通過する際に検出されるカメラ画像上の2つの物標の間の画素数に基づいて自己位置の検出誤差を推定する。 A self-position error estimation method according to an aspect of the present invention sets a course in which a vehicle passes through a predetermined area on a road on which at least two targets can be detected, and the vehicle moves through the area along the course. A self-position detection error is estimated based on the number of pixels between the two targets on the camera image detected when they pass.

本発明によれば、自己位置の検出誤差の推定精度は向上しうる。 According to the present invention, the accuracy of estimating self-location detection errors can be improved.

図1は、本発明の実施形態に係る自己位置誤差推定装置の概略構成図である。FIG. 1 is a schematic configuration diagram of a self-position error estimation device according to an embodiment of the present invention. 図2は、自己位置の誤差の推定方法の一実施例について説明する図である。FIG. 2 is a diagram illustrating an embodiment of a self-location error estimation method. 図3は、物標と物標との間の画素数について説明する図である。FIG. 3 is a diagram for explaining the number of pixels between targets. 図4は、本発明の実施形態に係る自己位置誤差推定装置の一動作例を説明するフローチャートである。FIG. 4 is a flow chart explaining an operation example of the self-position error estimation device according to the embodiment of the present invention. 図5は、自己位置の誤差の推定方法の一実施例について説明する図である。FIG. 5 is a diagram for explaining an embodiment of a self-position error estimation method. 図6は、物標と物標との間の画素数について説明する図である。FIG. 6 is a diagram for explaining the number of pixels between targets. 図7は、自己位置の誤差の推定方法の一実施例について説明する図である。FIG. 7 is a diagram for explaining an embodiment of a self-position error estimation method.

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same parts are denoted by the same reference numerals, and the description thereof is omitted.

(自己位置誤差推定装置の構成)
図1を参照して、自己位置誤差推定装置100の構成を説明する。図1に示すように、自己位置誤差推定装置100は、自己位置検出部10と、地図データベース20と、カメラ30と、コントローラ40と、記憶装置50と、を備える。
(Configuration of self-position error estimation device)
The configuration of self-position error estimation device 100 will be described with reference to FIG. As shown in FIG. 1, the self-position error estimation device 100 includes a self-position detection unit 10, a map database 20, a camera 30, a controller 40, and a storage device 50.

自己位置誤差推定装置100は、自動運転機能を有する車両に搭載されてもよく、自動運転機能を有しない車両に搭載されてもよい。また、自己位置誤差推定装置100は、自動運転と手動運転とを切り替えることが可能な車両に搭載されてもよい。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリングなどのアクチュエータの内、少なくとも何れかのアクチュエータが乗員の操作なしに制御されている状態を指す。そのため、その他のアクチュエータが乗員の操作により作動していたとしても構わない。また、自動運転とは、加減速制御、横位置制御などのいずれかの制御が実行されている状態であればよい。また、本実施形態における手動運転とは、例えば、ブレーキ、アクセル、ステアリングを乗員が操作している状態を指す。 The self-position error estimation device 100 may be installed in a vehicle having an automatic driving function, or may be installed in a vehicle without an automatic driving function. In addition, the self-position error estimation device 100 may be installed in a vehicle capable of switching between automatic driving and manual driving. Note that automatic driving in this embodiment refers to, for example, a state in which at least one of actuators such as a brake, an accelerator, and a steering is controlled without being operated by a passenger. Therefore, other actuators may be operated by the passenger's operation. Further, automatic operation may be a state in which any control such as acceleration/deceleration control or lateral position control is being executed. Further, manual driving in this embodiment refers to a state in which the driver is operating the brake, accelerator, and steering, for example.

地図データベース20は、カーナビゲーション装置などに記憶されているデータベースであって、道路情報、施設情報など経路案内に必要となる各種データが記憶されている。また、地図データベース20には、道路の車線数、道路境界線を含む道路情報、物標(ランドマーク)の位置情報を含む物標情報などを含む地図情報が記憶されている。地図データベース20は、コントローラ40の要求に応じて地図情報をコントローラ40に出力する。なお、道路情報、物標情報などの各種データは必ずしも車載された地図データベース20から取得されるものに限定されず、車車間通信、路車間通信を用いて取得されてもよい。すなわち、道路情報、物標情報などの各種データが外部に設置されたサーバに記憶されている場合、コントローラ40は、通信により随時これらのデータをサーバから取得してもよい。また、コントローラ40は、外部に設置されたサーバから定期的に最新の地図情報を入手して、保有する地図情報を更新してもよい。 The map database 20 is a database stored in a car navigation device or the like, and stores various data necessary for route guidance, such as road information and facility information. The map database 20 also stores map information including the number of lanes of roads, road information including road boundaries, target information including position information of targets (landmarks), and the like. The map database 20 outputs map information to the controller 40 in response to requests from the controller 40 . Various data such as road information and target information are not necessarily acquired from the onboard map database 20, and may be acquired using vehicle-to-vehicle communication or road-to-vehicle communication. That is, when various data such as road information and target information are stored in an externally installed server, the controller 40 may acquire these data from the server at any time through communication. Also, the controller 40 may periodically acquire the latest map information from an externally installed server and update the map information it holds.

カメラ30は、自車両に搭載され、自車両の周囲を撮影する。カメラ30は、CCD(charge-coupled device)やCMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ30は、画像処理機能を有しており、撮像した画像(カメラ画像)から白線や道路端、物標などを検出する。物標とは、例えば道路、歩道に設けられる物体であり、例えば信号機、電柱、交通標識などである。なお、物標はこれらに限らず位置が固定された、移動物体以外の物体で有ればよく、例えば建物等であってもよい。カメラ30は、撮像した画像、画像の解析結果などをコントローラ40に出力する。 The camera 30 is mounted on the own vehicle and photographs the surroundings of the own vehicle. The camera 30 has an imaging device such as a CCD (charge-coupled device) or a CMOS (complementary metal oxide semiconductor). The camera 30 has an image processing function, and detects white lines, roadsides, targets, etc. from captured images (camera images). A target is, for example, an object provided on a road or sidewalk, such as a traffic light, a utility pole, or a traffic sign. Note that the target is not limited to these, and may be any object other than a moving object whose position is fixed, such as a building. The camera 30 outputs captured images, image analysis results, and the like to the controller 40 .

自己位置検出部10は、カメラ30で撮像した画像(以下ではカメラ画像もしくは単に画像と言う)と地図データベース20に記憶された物標情報とから自車両の位置である自己位置を検出する。具体的にはカメラ画像から少なくとも2つの物標(ランドマーク)を抽出すると共に、地図データベース20に記憶された複数の物標から上記抽出した物標に対応する物標である特定物標を特定する。そして、抽出した物標の画像上の位置と、地図データベース20に記憶された物標情報に含まれる特定物標の位置とに基づいて、地図上における自己位置を検出する。なお、自己位置検出部10における自己位置の検出方法はこれに限定されるものでは無い。例えば、過去自車両が同一地点を走行した際に抽出した少なくとも2つの物標の画像上の位置と、抽出した物標の画像上の位置を用いて検出した自己位置を対応させて記憶しておき、次回同一地点を走行した際には物標の画像上の位置のみに基づいて自己位置を検出してもよい。すなわち、自己位置検出部10はカメラ30で撮像した少なくとも2つ以上の物標の画像上の位置に基づいて自己位置を検出するものである限りは、自己位置の検出方法は適宜変更可能である。 The self-position detection unit 10 detects the self-position, which is the position of the vehicle, from images captured by the camera 30 (hereinafter referred to as camera images or simply images) and target information stored in the map database 20 . Specifically, at least two targets (landmarks) are extracted from the camera image, and a specific target corresponding to the above-extracted targets is identified from a plurality of targets stored in the map database 20. do. Based on the position of the extracted target on the image and the position of the specific target included in the target information stored in the map database 20, the self-position on the map is detected. Note that the method of detecting the self-position in the self-position detecting section 10 is not limited to this. For example, the positions on the image of at least two targets extracted when the own vehicle traveled the same point in the past and the self-position detected using the extracted positions on the image of the target are stored in association with each other. Then, the next time the vehicle travels at the same point, the self-position may be detected based only on the position of the target on the image. That is, as long as the self-position detection unit 10 detects the self-position based on the positions of at least two target images captured by the camera 30, the method of detecting the self-position can be changed as appropriate. .

コントローラ40は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、自己位置誤差推定装置100として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは、自己位置誤差推定装置100が備える複数の情報処理回路として機能する。なお、ここでは、ソフトウェアによって自己位置誤差推定装置100が備える複数の情報処理回路を実現する例を示すが、もちろん、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路を構成することも可能である。また、複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ40は、複数の情報処理回路として、領域設定部41と、コース設定部42と、通過時間計算部43と、通過誤差推定部44と、自己位置誤差推定部45と、誤差総量計算部46と、を備える。 The controller 40 is a general-purpose microcomputer having a CPU (Central Processing Unit), memory, and an input/output unit. A computer program for functioning as the self-position error estimation device 100 is installed in the microcomputer. By executing the computer program, the microcomputer functions as a plurality of information processing circuits included in self-position error estimation device 100 . Here, an example of realizing a plurality of information processing circuits provided in the self-position error estimation device 100 by software will be shown. It is also possible to construct an information processing circuit. Also, a plurality of information processing circuits may be configured by individual hardware. The controller 40 includes a plurality of information processing circuits including an area setting unit 41, a course setting unit 42, a passing time calculating unit 43, a passing error estimating unit 44, a self-position error estimating unit 45, and a total error amount calculating unit 46. And prepare.

領域設定部41は、自車両の走行データを用いて、自車両が車線の中央を走行する場合と比較して、画像上における物標間の画素数を多く取得可能な領域を設定する。本実施形態において、この領域は、オフライン時に設定される。オフライン時とは、自動運転が実行されていない時をいう。領域設定部41によって設定された領域は、記憶装置50に記憶される。なお、領域設定部41によって設定される領域は、1つでもよく複数でもよい。領域設定部41によって設定される複数の領域は、後述のコース設定部42にて設定されるコースに沿って連続的に設定されてもよい。 The area setting unit 41 uses the travel data of the own vehicle to set an area in which a larger number of pixels between targets on the image can be obtained than when the own vehicle travels in the center of the lane. In this embodiment, this area is set when offline. Off-line means a time when automatic driving is not being executed. The area set by the area setting unit 41 is stored in the storage device 50 . The number of areas set by the area setting unit 41 may be one or plural. A plurality of areas set by the area setting unit 41 may be set continuously along a course set by the course setting unit 42, which will be described later.

コース設定部42は、オンライン時に記憶装置50から領域を読み出す。次に、コース設定部42は、自車両が領域を通過するコース(経路)を設定する。オンライン時とは、自動運転が実行されている時をいう。通過時間計算部43は、自車両が領域を通過する際に要する時間(通過時間)を計算する。通過誤差推定部44は、自車両が領域を通過する際の自己位置の検出誤差(以下では、自己位置の誤差とも記載する)を推定する。自己位置誤差推定部45は、自車両が領域を通過するまでの自己位置の誤差を推定する。誤差総量計算部46は、自己位置の誤差の総量を計算する。なお、コース設定部42によって設定されるコースは、少なくとも2つの物標を検出可能な道路上の所定の領域を通過するコースである。 The course setting unit 42 reads the area from the storage device 50 when online. Next, the course setting unit 42 sets a course (route) along which the vehicle passes through the area. The online time refers to the time when automatic driving is being performed. The passage time calculator 43 calculates the time required for the vehicle to pass through the area (passage time). The passage error estimator 44 estimates a self-position detection error (hereinafter also referred to as a self-position error) when the vehicle passes through the area. The self-position error estimator 45 estimates the self-position error until the vehicle passes through the area. The total error calculator 46 calculates the total error of the self-position. The course set by the course setting unit 42 is a course passing through a predetermined area on the road where at least two targets can be detected.

次に、図2~4を参照して自動運転時における自己位置の誤差の推定方法について説明する。 Next, a method of estimating the self-position error during automatic operation will be described with reference to FIGS.

自動運転では一般的に車線の中央を走行するように車両が制御される。一例として、図2のコース1に示すように、自動運転において自車両60は、車線の中央を走行するように制御される。コース1は、図2に示す車線の中央を通る経路である。 In autonomous driving, the vehicle is generally controlled to run in the center of the lane. As an example, as shown in Course 1 in FIG. 2, the own vehicle 60 is controlled to run in the center of the lane during automatic driving. Course 1 is a route passing through the center of the lane shown in FIG.

自動運転において自己位置を精度よく検出することが求められる。自己位置の検出方法の一例として、図2に示す物標70、71を用いる方法が挙げられる。物標70、71の地図上の位置は固定であるため、自車両60から物標70、71までの距離及び方向を用いることにより、自己位置が検出される。すなわち、画像上の物標70、71と、地図上の物標70、71とをマッチングすることにより自己位置を検出することができる。 Accurate self-position detection is required in automatic driving. As an example of the self-position detection method, there is a method using targets 70 and 71 shown in FIG. Since the positions of the targets 70 and 71 on the map are fixed, the self-position is detected by using the distance and direction from the own vehicle 60 to the targets 70 and 71 . That is, the self position can be detected by matching the targets 70, 71 on the image with the targets 70, 71 on the map.

具体的には、例えば画像上の物標70、71の位置から、カメラ30の撮像方向に対する物標70、71の方向(自車両に対する物標70、71の方向)が特定される。すなわち、自車両と物標70とを結ぶ線分と自車両と物標71を結ぶ線分との成す角度は、画像上の物標70と物標71との間の距離(画素数)に対応する。このため、画像上の物標70と物標71との間の距離から、カメラ30の撮像方向に対する物標70、71の方向(自車両に対する物標70、71の方向)が特定される。従って、地図上における物標70、71を特定すれば、物標70、71の地図上における位置と自車両に対する方向とから、例えば周知の三角測量によって自己位置が検出される。このようなカメラ画像上の物標70、71の位置を用いて検出された自己位置には、誤差が含まれる。なお、自己位置の誤差は、カメラ30の計測誤差を正規分布にあてはめたときの共分散行列で表現されてもよい。また、自己位置の誤差は、白線検出結果と地図データとをマッチングさせたときの尤度分布で表現されてもよい。 Specifically, for example, from the positions of the targets 70 and 71 on the image, the directions of the targets 70 and 71 with respect to the imaging direction of the camera 30 (directions of the targets 70 and 71 with respect to the own vehicle) are specified. That is, the angle formed by the line segment connecting the own vehicle and the target 70 and the line segment connecting the own vehicle and the target 71 is the distance (the number of pixels) between the target 70 and the target 71 on the image. handle. Therefore, the directions of the targets 70 and 71 with respect to the imaging direction of the camera 30 (the directions of the targets 70 and 71 with respect to the own vehicle) are specified from the distance between the targets 70 and 71 on the image. Therefore, if the targets 70 and 71 are specified on the map, the self-position is detected by known triangulation, for example, from the positions of the targets 70 and 71 on the map and the direction of the vehicle. The self-position detected using the positions of the targets 70 and 71 on such camera images contains an error. The self-position error may be represented by a covariance matrix obtained by applying the measurement error of the camera 30 to a normal distribution. Also, the self-location error may be represented by a likelihood distribution when matching the white line detection result and the map data.

自己位置の誤差は、車線上の自車両60の通過位置に応じて変化する可能性がある。ここでいう自車両60の通過位置とは、自車両60(カメラ30)が物標70、71を検出する位置を含む。 The self-position error may change according to the passing position of the vehicle 60 on the lane. The passing position of the own vehicle 60 here includes the position where the own vehicle 60 (camera 30 ) detects the targets 70 and 71 .

自車両60が図2に示すコース1に沿って走行した場合と、自車両60が図2に示すコース2に沿って走行した場合とでは、自己位置の誤差は変化する可能性がある。この点について、図3を参照して説明する。図3に示す画像90は、図2に示すコース1上の位置P1において、カメラ30が物標70、71を撮像した画像である。図3に示す画像91は、図2に示すコース2上の位置P2において、カメラ30が物標70、71を撮像した画像である。 There is a possibility that the self-position error will change between when the vehicle 60 runs along the course 1 shown in FIG. 2 and when the vehicle 60 runs along the course 2 shown in FIG. This point will be described with reference to FIG. An image 90 shown in FIG. 3 is an image of the targets 70 and 71 captured by the camera 30 at the position P1 on the course 1 shown in FIG. An image 91 shown in FIG. 3 is an image of targets 70 and 71 captured by camera 30 at position P2 on course 2 shown in FIG.

画像90、91から分かるように、物標70と物標71との間の画素数は、画像90より、画像91のほうが多い。上述したように、物標70、71の位置を用いて自己位置を検出する際に、物標70と物標71との間の画像上の距離に応じた誤差が含まれる。ここでいう、物標70と物標71との間の距離とは、画像上の横方向における物標70と物標71との間の距離である。画像上の横方向における物標70と物標71との間の距離は、画像上の横方向における物標70と物標71との間の画素数が多いほど、精度よく計算される。すなわち、自車両60が図2に示すコース1に沿って走行した場合と、自車両60が図2に示すコース2に沿って走行した場合とでは、自車両60がコース2に沿って走行した場合のほうが、物標70と物標71との間の距離が精度よく計算される。これにより、自車両60がコース2に沿って走行した場合のほうが、自車両60がコース1に沿って走行した場合よりも、自己位置の誤差は小さくなる。 As can be seen from images 90 and 91 , image 91 has more pixels between target 70 and target 71 than image 90 . As described above, when detecting the self-position using the positions of the targets 70 and 71, an error is included according to the distance between the targets 70 and 71 on the image. The distance between the targets 70 and 71 referred to here is the distance between the targets 70 and 71 in the horizontal direction on the image. The distance between the target 70 and the target 71 in the horizontal direction on the image is calculated with higher accuracy as the number of pixels between the target 70 and the target 71 in the horizontal direction on the image increases. That is, when own vehicle 60 runs along course 1 shown in FIG. 2 and when own vehicle 60 runs along course 2 shown in FIG. In the case, the distance between the target 70 and the target 71 is calculated more accurately. As a result, the self-position error is smaller when the vehicle 60 travels along the course 2 than when the vehicle 60 travels along the course 1 .

図4に示すフローチャートを参照して、自動運転時における自己位置の誤差の推定方法の詳細について説明する。ステップS101において、領域設定部41は、自車両60の走行データを用いて、自車両60が車線の中央を走行する場合と比較して、画像上の横方向における物標70と物標71との間の画素数を多く取得可能な領域(図2の領域80)を設定する。図2に示す領域80において、自車両60が車線の中央を走行する場合と比較して、画像上の横方向における物標70と物標71との間の画素数は多く取得される。なお、上述したように、領域80は、オフライン時に設定され、記憶装置50に記憶される。領域80の設定の際に、他車両の走行データが用いられてもよい。他車両の走行データを含むより多くの走行データが用いられることにより、適切な領域80が設定される。また、領域80は、図2に示す位置P1を過去に走行した際に推定した誤差データに基づいて、カメラ30によって撮像された物標70、71に係る画像上の位置の誤差が所定値(第1所定値)以下となる領域であってもよい。これにより、領域80は、所定の範囲を持つことができ、自己位置の誤差を小さい状態で維持することができる。なお、図2に示す物標70、71は電柱であるが、これに限定されない。物標70、71は、道路標識であってもよい。また、領域80は、図2に示す位置P1においてカメラ30によって撮像された物標70、71に係る画像上の面積が所定値(第2所定値)以上となる領域であってもよい。これにより、領域80は、所定の範囲を持つことができ、自己位置の誤差を小さい状態で維持するための行動の選択肢が増える。 The details of the method for estimating the self-position error during automatic operation will be described with reference to the flowchart shown in FIG. In step S101, the region setting unit 41 uses the travel data of the vehicle 60 to compare the targets 70 and 71 in the lateral direction on the image with respect to the case where the vehicle 60 travels in the center of the lane. A region (region 80 in FIG. 2) in which a large number of pixels can be obtained is set. In the area 80 shown in FIG. 2, a larger number of pixels are acquired between the target 70 and the target 71 in the horizontal direction on the image than when the vehicle 60 runs in the center of the lane. As described above, the area 80 is set and stored in the storage device 50 when offline. When setting the area 80, travel data of other vehicles may be used. An appropriate region 80 is set by using more travel data including travel data of other vehicles. In the area 80, the error in the positions of the targets 70 and 71 captured by the camera 30 is a predetermined value ( (first predetermined value) or less. Thereby, the area 80 can have a predetermined range, and the self-position error can be kept small. Note that the targets 70 and 71 shown in FIG. 2 are utility poles, but are not limited to this. The targets 70, 71 may be road signs. Also, the area 80 may be an area in which the areas of the images of the targets 70 and 71 captured by the camera 30 at the position P1 shown in FIG. 2 are equal to or larger than a predetermined value (second predetermined value). This allows the region 80 to have a predetermined range and increases the action options for keeping the self-position error small.

処理はステップS103に進み、コース設定部42は、オンライン時に記憶装置50から領域80を読み出す。次に、コース設定部42は例えば、図2に示すように領域80を通過するコース2を設定する。なお、コース2は、例えばナビゲーション装置などによって設定される経路であり、任意の経路である。 The process proceeds to step S103, and the course setting unit 42 reads the area 80 from the storage device 50 when online. Next, the course setting unit 42 sets a course 2 passing through the area 80 as shown in FIG. 2, for example. Note that the course 2 is a route set by, for example, a navigation device, and is an arbitrary route.

処理はステップS105に進み、通過時間計算部43は、自車両60がコース2に沿って領域80を通過する際に要する時間(通過時間)を計算する。一例として、通過時間計算部43は、自車両60の速度に基づいて通過時間を計算する。自車両60の速度が速い場合は、通過時間は短くなる。一方、自車両60の速度が遅い場合は、通過時間は長くなる。通過時間が長いほど、通過の際に取得される画像は多くなる。通過の際に取得される画像が多くなるほど、画像の解析精度は向上するため、自己位置の誤差も小さくなりうる。したがって、自己位置誤差推定装置100は、自己位置の誤差を小さくするために、自車両60がコース2に沿って領域80を通過する際に、自車両60を減速させてもよい。これにより、自車両60がコース2に沿って領域80を通過する際に要する時間が長くなり、より多くの画像が取得される。 The process proceeds to step S<b>105 , and the passage time calculator 43 calculates the time (passage time) required for the own vehicle 60 to pass through the area 80 along the course 2 . As an example, the passage time calculator 43 calculates the passage time based on the speed of the own vehicle 60 . When the speed of the own vehicle 60 is fast, the passage time becomes short. On the other hand, when the speed of own vehicle 60 is slow, the passage time is long. The longer the transit time, the more images acquired during the transit. The more images acquired during a pass, the more accurate the analysis of the images, and thus the smaller the self-location error. Therefore, self-position error estimation device 100 may decelerate self-vehicle 60 when self-vehicle 60 passes region 80 along course 2 in order to reduce self-position error. As a result, the time required for the vehicle 60 to pass through the area 80 along the course 2 is increased, and more images are acquired.

処理はステップS107に進み、通過誤差推定部44は、自車両60がコース2に沿って領域80を走行する際の自己位置の誤差を推定する。推定方法の一例として、通過誤差推定部44は、予め画像と自己位置の誤差との関係をモデル化した誤差モデルを作成して記憶しておき、この誤差モデルとコース2上の各地点において撮像された画像とを比較することにより各地点ごとに発生する誤差を算出し、算出した誤差を領域80を走行している間の時間分積算することで、自車両60がコース2に沿って領域80を走行する際の自己位置の誤差を推定する。誤差モデルとは、図2に示す物標70、71の形状、位置情報などを含むモデルである。 The process proceeds to step S<b>107 , and the passing error estimator 44 estimates the self-position error when the own vehicle 60 travels along the course 2 in the region 80 . As an example of the estimation method, the passing error estimating unit 44 creates and stores in advance an error model that models the relationship between the image and the error of the self-position. By comparing the image with the obtained image, the error generated at each point is calculated, and the calculated error is integrated for the time during which the vehicle 60 travels in the area 80, so that the vehicle 60 can move along the course 2 to the area. Estimate self-position error when driving 80 . The error model is a model including the shapes, positional information, etc. of the targets 70 and 71 shown in FIG.

すなわち、上述した通り画像上の物標70、71の位置に基づいて自己位置を検出する場合、画像上の物標70と物標71との間の距離(画素数)が自己位置の検出精度に影響する。このため、予め2つの物標(物標70、71)間の画像上の距離と自己位置の誤差とを含むモデル式を記憶しておき、領域80内のコース2上における各地点での物標70と物標71間の距離と記憶したモデル式とから、各地点における自己位置の誤差を推定して積算することにより、自車両60がコース2に沿って領域80を通過する間に発生する自己位置の誤差を推定する。なお、上述の通り領域80を通過する時間、すなわち領域80を走行する際の速度が遅いほど自己位置誤差は小さくなるため誤差モデルは、走行速度(あるいは通過時間)をパラメータとして含み、走行速度が遅いほど(あるいは通過時間が長いほど)誤差が小さくなるモデルとして作成してもよい。自車両60がコース2に沿って領域80を通過する際の自己位置の誤差を、以下では第1誤差と表現する場合がある。なお、通過誤差推定部44は、カメラ30の計測誤差を正規分布にあてはめたときの共分散行列でモデル化した後、共分散行列の固有値を足して第1誤差を推定してもよい。 That is, when the self-position is detected based on the positions of the targets 70 and 71 on the image as described above, the distance (the number of pixels) between the target 70 and the target 71 on the image determines the detection accuracy of the self-position. affects For this reason, a model formula including the distance on the image between the two targets (targets 70 and 71) and the error of the self-position is stored in advance, and the object at each point on the course 2 within the area 80 is stored. From the distance between target 70 and target 71 and the stored model formula, the error of the self-position at each point is estimated and integrated. Estimate the self-position error. As described above, the slower the time to pass through the region 80, that is, the slower the speed when traveling through the region 80, the smaller the self-position error. A model may be created in which the slower (or the longer the passing time) the smaller the error. The error of the self-position when the host vehicle 60 passes through the region 80 along the course 2 may hereinafter be expressed as a first error. Note that the passing error estimating unit 44 may model the measurement error of the camera 30 with a covariance matrix when fitted to a normal distribution, and then add the eigenvalues of the covariance matrix to estimate the first error.

処理はステップS109に進み、自己位置誤差推定部45は、自車両60が領域80を走行する前までの自己位置の誤差を推定する。自車両60は、領域80を走行する前にも、自己位置の誤差を推定しており、誤差が蓄積されている。したがって、自車両60が領域80を走行する前において推定した自己位置の誤差を積算して記憶しておき、これを読み出すことで自車両60が領域80を通過走行する前までに発生した自己位置の誤差を推定することができる。自車両60が領域80を走行する前の自己位置の誤差を、以下では第2誤差と表現する場合がある。自己位置誤差推定部45は、このような第2誤差を推定する。 The process proceeds to step S<b>109 , and the self-position error estimator 45 estimates the self-position error before the vehicle 60 travels through the area 80 . The self-vehicle 60 estimates the error of its own position even before traveling in the area 80, and the error is accumulated. Therefore, by accumulating and storing errors in the estimated self-position before the vehicle 60 runs through the area 80, the self-position generated before the vehicle 60 runs through the area 80 can be read out. can be estimated. The self-position error before the vehicle 60 travels through the area 80 may hereinafter be referred to as a second error. The self-position error estimator 45 estimates such a second error.

処理はステップS111に進み、誤差総量計算部46は、第1誤差と第2誤差との合計を計算する。換言すれば、誤差総量計算部46は、自己位置の誤差の総量を計算する。なお、自己位置の誤差が、カメラ30の計測誤差を正規分布にあてはめたときの共分散行列で表現された場合、自己位置の誤差の総量は固有値の和の逆数となる。 The process proceeds to step S111, and the error total amount calculator 46 calculates the sum of the first error and the second error. In other words, the total error calculator 46 calculates the total error of the self-position. When the self-position error is represented by a covariance matrix obtained by applying the measurement error of the camera 30 to a normal distribution, the total self-position error is the reciprocal of the sum of the eigenvalues.

図5に示すコース3上の位置P3において、図6に示すように、物標70と物標71との間の画素数は、画像90、91より、画像92のほうが多い。すなわち、自車両60が図5に示すコース1に沿って走行した場合と、自車両60が図5に示すコース2に沿って走行した場合と、自車両60が図5に示すコース3に沿って走行した場合とでは、自車両60がコース3に沿って走行した場合のほうが、物標70と物標71との間の距離がもっとも精度よく計算される。つまり、自車両60がコース3に沿って走行した場合のほうが、自車両60がコース1及びコース2に沿って走行した場合よりも、自己位置の誤差は小さくなる。 At position P3 on course 3 shown in FIG. 5, image 92 has more pixels between targets 70 and 71 than images 90 and 91, as shown in FIG. That is, when own vehicle 60 runs along course 1 shown in FIG. 5, when own vehicle 60 runs along course 2 shown in FIG. The distance between the target 70 and the target 71 is calculated most accurately when the own vehicle 60 runs along the course 3, compared to the case where the vehicle 60 runs along the course. In other words, the self-position error is smaller when the vehicle 60 travels along the course 3 than when the vehicle 60 travels along the courses 1 and 2 .

このようにして、領域80を走行する複数のコースごとに領域80を走行する際の自己位置の誤差を推定すれば、例えば領域80を自動運転によって走行する際に、最も自己位置の誤差が小さいコースを選択して走行するなど、自動運転にとって有意義に利用することができる。 In this way, by estimating the self-position error when traveling in the region 80 for each of a plurality of courses in which the region 80 is traveled, for example, when traveling in the region 80 by automatic driving, the self-position error is the smallest. It can be used meaningfully for autonomous driving, such as selecting a course and driving.

以上説明したように、本実施形態に係る自己位置誤差推定装置100によれば、以下の作用効果が得られる。 As described above, according to the self-position error estimation device 100 according to the present embodiment, the following effects are obtained.

自己位置検出部10は、カメラ30で撮像した画像から少なくとも2つの物標(物標70、71)を抽出すると共に、抽出した物標の画像上の位置に基づいて自己位置を検出する。自己位置誤差推定装置100は、自車両60がコースに沿って領域80を走行する際に、コース上の各地点において撮像された画像上における2つの物標の距離に基づいて、コース上の各地点における自己位置の誤差を推定することにより、自車両60がコースに沿って領域80を走行する際の自己位置の誤差である第1誤差を推定する。 The self-position detection unit 10 extracts at least two targets (targets 70 and 71) from the image captured by the camera 30, and detects the self-position based on the positions of the extracted targets on the image. When self-position error estimation device 100 travels along course in area 80, self-position error estimating device 100 calculates the distance between two targets on the image captured at each point on the course. By estimating the self-position error at the points, a first error, which is the self-position error as the vehicle 60 travels along the course in the region 80, is estimated.

画像上の物標70と物標71との間の距離は、画像上の物標70と物標71との間の画素数が多いほど、精度よく計算される。すなわち、自車両60が図2に示すコース1に沿って走行した場合と、自車両60が図2に示すコース2に沿って走行した場合とでは、自車両60がコース2に沿って走行した場合のほうが、物標70と物標71との間の距離が精度よく計算される。 The distance between the target 70 and the target 71 on the image is calculated with higher accuracy as the number of pixels between the target 70 and the target 71 on the image increases. That is, when own vehicle 60 runs along course 1 shown in FIG. 2 and when own vehicle 60 runs along course 2 shown in FIG. In the case, the distance between the target 70 and the target 71 is calculated more accurately.

したがって、自己位置誤差推定装置100によれば、自車両60が予め定められたコースに沿って領域80を走行する際に、コース上の各地点において撮像された画像上における2つの物標の画像上の距離に基づいて自己位置の検出誤差を推定することにより、自己位置の誤差を精度よく推定できる。 Therefore, according to the self-position error estimation device 100, when the own vehicle 60 travels along the predetermined course in the area 80, two images of the target on the image taken at each point on the course By estimating the self-position detection error based on the above distance, the self-position error can be estimated with high accuracy.

上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。また、自己位置誤差推定装置100は、コンピュータの機能を改善しうる。 Each function described in the above embodiments may be implemented by one or more processing circuits. Processing circuitry includes programmed processing devices, such as processing devices that include electrical circuitry. Processing circuitry also includes devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions. Also, the self-position error estimation device 100 can improve the functionality of a computer.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 While embodiments of the present invention have been described above, the discussion and drawings forming part of this disclosure should not be construed as limiting the invention. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.

図2に示す例では、領域80から観測される物標は2つとして説明したが、これに限定されない。領域80から観測される物標は3つ以上でもよい。物標の数が多いほうが、自己位置の誤差の推定精度が向上しうる。 In the example shown in FIG. 2, two targets are observed from the area 80, but the number is not limited to this. Three or more targets may be observed from the area 80 . As the number of targets increases, the estimation accuracy of the self-position error can be improved.

なお、自己位置検出部10(自己位置検出装置)は、コントローラ40と同様にCPU、メモリ、及び入出力部を備える汎用のマイクロコンピュータで構成されてもよく、コントローラ40に組み込まれてもよい。 Note that the self-position detection unit 10 (self-position detection device) may be configured by a general-purpose microcomputer having a CPU, memory, and input/output unit, like the controller 40 , or may be incorporated in the controller 40 .

10 自己位置検出部
20 地図データベース
30 カメラ
40 コントローラ
41 領域設定部
42 コース設定部
43 通過時間計算部
44 通過誤差推定部
45 自己位置誤差推定部
46 誤差総量計算部
50 記憶装置
70、71 物標
80 領域
90、91、92 画像
100 自己位置誤差推定装置
10 self-position detector 20 map database 30 camera 40 controller 41 area setting unit 42 course setting unit 43 passage time calculator 44 passage error estimator 45 self-position error estimator 46 total error calculator 50 storage devices 70 and 71 target 80 Regions 90, 91, 92 Image 100 Self-position error estimator

Claims (4)

自車両に搭載されるカメラによって撮像した画像から少なくとも2つの物標を抽出すると共に、抽出した物標の画像上の位置に基づいて自己位置を検出する自己位置検出方法における、自己位置の検出誤差推定方法であって、
前記自車両が、少なくとも2つの物標を検出可能な道路上の所定の領域を通過するコースを設定し
前記自車両が前記コースに沿って前記領域を通過する際に検出される前記カメラ画像上の前記2つの物標の間の画素数に基づいて前記自己位置の検出誤差を推定する
ことを特徴とする自己位置誤差推定方法。
Self-position detection error in a self-position detection method that extracts at least two targets from an image captured by a camera mounted on the vehicle and detects the self-position based on the positions of the extracted targets on the image. An estimation method comprising:
setting a course in which the own vehicle passes through a predetermined area on a road on which at least two targets can be detected;
and estimating a detection error of the self-position based on the number of pixels between the two targets on the camera image detected when the vehicle passes through the area along the course. self-position error estimation method.
前記領域は、3つ以上の物標を検出可能な領域である
ことを特徴とする請求項1に自己位置誤差推定方法。
2. The self-position error estimation method according to claim 1, wherein said area is an area in which three or more targets can be detected.
前記領域は、前記カメラ画像上の前記2つの物標に係る面積が第2所定値以上となる領域である
ことを特徴とする請求項1に自己位置誤差推定方法。
2. A self-position error estimation method according to claim 1, wherein said area is an area of said two targets on said camera image having an area equal to or larger than a second predetermined value.
自車両に搭載されるカメラによって撮像した画像から少なくとも2つの物標を抽出すると共に、抽出した物標の画像上の位置に基づいて自己位置を検出する自己位置検出装置における、前記自己位置の検出誤差を推定する自己位置誤差推定装置であって、
少なくとも2つの物標を検出可能な道路上の所定の領域を設定するコントローラを備え、
前記コントローラは、
前記自車両が、前記領域を通過するコースを設定し
前記自車両が前記コースに沿って前記領域を通過する際に検出される前記カメラ画像上の前記2つの物標の間の画素数に基づいて前記自己位置の検出誤差を推定する
ことを特徴とする自己位置誤差推定装置。
Detecting the self-position in a self-position detection device that extracts at least two targets from an image taken by a camera mounted on the vehicle and detects the self-position based on the positions of the extracted targets on the image. A self-position error estimation device for estimating an error,
a controller for setting a predetermined area on the road where at least two targets can be detected;
The controller is
setting a course for the own vehicle to pass through the area;
and estimating a detection error of the self-position based on the number of pixels between the two targets on the camera image detected when the vehicle passes through the area along the course. self-position error estimator.
JP2019018453A 2019-02-05 2019-02-05 SELF-LOCATION ERROR ESTIMATION METHOD AND SELF-LOCATION ERROR ESTIMATION DEVICE Active JP7240886B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019018453A JP7240886B2 (en) 2019-02-05 2019-02-05 SELF-LOCATION ERROR ESTIMATION METHOD AND SELF-LOCATION ERROR ESTIMATION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019018453A JP7240886B2 (en) 2019-02-05 2019-02-05 SELF-LOCATION ERROR ESTIMATION METHOD AND SELF-LOCATION ERROR ESTIMATION DEVICE

Publications (2)

Publication Number Publication Date
JP2020125975A JP2020125975A (en) 2020-08-20
JP7240886B2 true JP7240886B2 (en) 2023-03-16

Family

ID=72083822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019018453A Active JP7240886B2 (en) 2019-02-05 2019-02-05 SELF-LOCATION ERROR ESTIMATION METHOD AND SELF-LOCATION ERROR ESTIMATION DEVICE

Country Status (1)

Country Link
JP (1) JP7240886B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271966A (en) 2009-05-22 2010-12-02 Fuji Heavy Ind Ltd Lane recognition device
JP2012127896A (en) 2010-12-17 2012-07-05 Kumamoto Univ Mobile object position measurement device
JP2017009553A (en) 2015-06-26 2017-01-12 日産自動車株式会社 Vehicle location determination device and vehicle location determination method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271966A (en) 2009-05-22 2010-12-02 Fuji Heavy Ind Ltd Lane recognition device
JP2012127896A (en) 2010-12-17 2012-07-05 Kumamoto Univ Mobile object position measurement device
JP2017009553A (en) 2015-06-26 2017-01-12 日産自動車株式会社 Vehicle location determination device and vehicle location determination method

Also Published As

Publication number Publication date
JP2020125975A (en) 2020-08-20

Similar Documents

Publication Publication Date Title
JP6637400B2 (en) Vehicle control device
US9283967B2 (en) Accurate curvature estimation algorithm for path planning of autonomous driving vehicle
EP3358545B1 (en) Travel control method and travel control device
CN108688660B (en) Operating range determining device
KR102086270B1 (en) Control method and traveling control device of the traveling control device
CN110621541B (en) Method and system for generating trajectories for operating an autonomous vehicle
KR20220033477A (en) Appratus and method for estimating the position of an automated valet parking system
KR20190008292A (en) Object detection method and object detection apparatus
US20160224027A1 (en) Autonomous Mobile System
KR20190135051A (en) Motion prediction method and motion prediction device of the driving support device
JP6610799B2 (en) Vehicle traveling control method and traveling control apparatus
US20190065838A1 (en) Vehicle control apparatus, vehicle, vehicle control method, and storage medium
CN112513955A (en) Travel track generation method and travel track generation device
JP7037956B2 (en) Vehicle course prediction method, vehicle travel support method, and vehicle course prediction device
JP6943127B2 (en) Position correction method, vehicle control method and position correction device
JP7334795B2 (en) Vehicle control method and vehicle control device
EP3912877B1 (en) Driving assistance method and driving assistance device
JP2018181036A (en) Lane change determination method and lane change determination device
JP7240886B2 (en) SELF-LOCATION ERROR ESTIMATION METHOD AND SELF-LOCATION ERROR ESTIMATION DEVICE
JP6819441B2 (en) Target position estimation method and target position estimation device
JP6804268B2 (en) Posture estimation method of parking control device and posture estimation device
CN113821022A (en) Speed planning for buffer based on relative speed
JP7169892B2 (en) Driving support method and driving support device
WO2020031295A1 (en) Self-location estimation method and self-location estimation device
JP7470584B2 (en) Driving support method and driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230306

R150 Certificate of patent or registration of utility model

Ref document number: 7240886

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150