JP2024025040A - Vehicle location estimation device and vehicle location estimation method - Google Patents
Vehicle location estimation device and vehicle location estimation method Download PDFInfo
- Publication number
- JP2024025040A JP2024025040A JP2022128137A JP2022128137A JP2024025040A JP 2024025040 A JP2024025040 A JP 2024025040A JP 2022128137 A JP2022128137 A JP 2022128137A JP 2022128137 A JP2022128137 A JP 2022128137A JP 2024025040 A JP2024025040 A JP 2024025040A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- road
- map data
- driving
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title description 58
- 238000012544 monitoring process Methods 0.000 claims abstract description 31
- 230000002093 peripheral effect Effects 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
Description
本開示は、道路上における自車の走行位置を推定するための自車位置推定装置及び自車位置推定方法に関するものである。 The present disclosure relates to a vehicle position estimating device and a vehicle position estimation method for estimating the traveling position of a vehicle on a road.
経路案内に用いる地図よりも詳細な高精度地図を用いて自動運転を行う技術が知られている。高精度地図が整備された道路(以下、地図整備済道路)と高精度地図が整備されていない道路(以下、地図未整備道路)とは、混在することが考えられる。地図整備済道路と地図未整備道路とが互いに近くに沿って位置する場合、自車がどちらの道路に位置するか誤判断しやすくなる。また、この誤判断が生じると、自動運転を精度良く行うことが難しくなる。 BACKGROUND ART There is a known technology for autonomous driving using high-precision maps that are more detailed than maps used for route guidance. It is conceivable that roads with high-definition maps (hereinafter referred to as mapped roads) and roads without high-definition maps (hereinafter referred to as unmapped roads) coexist. When a mapped road and an unmapped road are located close to each other, it is easy to misjudge which road the vehicle is located on. Moreover, when this misjudgment occurs, it becomes difficult to perform automatic driving with high accuracy.
これに対して、特許文献1には、自車両の走行路が高架道路か高架下道路かを正しく判定することを試みた技術が開示されている。特許文献1には、区画線の不連続区間の長さが閾値以上か否かで、自車両の走行路が高架道路か高架下道路かを判定することが開示されている。区画線の不連続区間の長さは、交差点で撮影した画像データからパターン認識処理によって判定する。また、特許文献1には、交差点の標識の一致性に基づいて、自車両の走行路が高架道路か高架下道路かを判定することが開示されている。交差点の標識の一致性は、交差点の路上の標識のパターンと、交差点で撮影された画像データとをマッチングすることで判定する。
On the other hand,
特許文献1に開示の技術では、交差点に特徴的な要素を利用するので、交差点以外では、自車両の走行路が高架道路か高架下道路かの判定精度が低下してしまう。
Since the technique disclosed in
この開示の1つの目的は、交差点以外の場所であっても、道路上における自車の走行位置をより精度良く推定することを可能にする自車位置推定装置及び自車位置推定方法を提供することにある。 One purpose of this disclosure is to provide a vehicle position estimating device and a vehicle position estimation method that enable more accurate estimation of the traveling position of a vehicle on a road even at locations other than intersections. There is a particular thing.
上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、開示の更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、1つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。 The object is achieved by the combination of features recited in the independent claims, and the subclaims define further advantageous embodiments of the disclosure. The numerals in parentheses described in the claims indicate correspondence with specific means described in the embodiments described later as one aspect, and do not limit the technical scope of the present disclosure. .
上記目的を達成するために、本開示の第1の自車位置推定装置は、車両で用いられ、車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、車両の走路の車線数を含む走行環境を認識する走行環境認識部(102)と、領域別の道路の車線数を含む地図データを取得する地図データ取得部(104)と、走行環境認識部で認識する車両の走路の車線数と、地図データ取得部で取得する、車両の走行領域と推定される領域の車線数との、類似度合いをもとに、道路上の車両の走行位置を推定する位置推定部(107)とを備える。 In order to achieve the above object, a first vehicle position estimating device of the present disclosure calculates the number of lanes of the vehicle's driving route from the sensing results of a surroundings monitoring sensor (50) used in the vehicle to monitor the surroundings of the vehicle. a driving environment recognition unit (102) that recognizes the driving environment including the number of road lanes; a map data acquisition unit (104) that acquires map data including the number of road lanes for each region; a position estimation unit (107) that estimates the driving position of the vehicle on the road based on the degree of similarity between the number of lanes and the number of lanes in the area estimated to be the driving area of the vehicle acquired by the map data acquisition unit; Equipped with.
上記目的を達成するために、本開示の第1の自車位置推定方法は、車両で用いられ、少なくとも1つのプロセッサにより実行される、車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、車両の走路の車線数を含む走行環境を認識する第1走行環境認識工程と、領域別の道路の車線数を含む地図データを取得する第1地図データ取得工程と、第1走行環境認識工程で認識する車両の走路の車線数と、第1地図データ取得工程で取得する、車両の走行領域と推定される領域の車線数との、類似度合いをもとに、道路上の車両の走行位置を推定する第1位置推定工程とを含む。 In order to achieve the above object, a first self-vehicle position estimating method of the present disclosure includes sensing using a surroundings monitoring sensor (50) that is used in a vehicle and is executed by at least one processor and that monitors the surroundings of the vehicle. A first driving environment recognition step that recognizes the driving environment including the number of lanes on the road on which the vehicle travels based on the results; a first map data acquisition step that acquires map data including the number of lanes on the road for each area; and a first driving environment. Based on the degree of similarity between the number of lanes on the vehicle's driving path recognized in the recognition process and the number of lanes in the area estimated to be the vehicle's driving area acquired in the first map data acquisition process, the number of lanes on the road is determined. and a first position estimation step of estimating the traveling position.
車線数は、交差点に限らない要素である。よって、周辺監視センサでのセンシング結果から認識した車線数と、地図データに含まれる領域別の車線数との類似度合いをもとに車両の走行位置を推定することで、交差点以外の場所であっても、自車の道路上における走行位置をより精度良く推定することが可能になる。 The number of lanes is a factor not limited to intersections. Therefore, by estimating the vehicle's driving position based on the degree of similarity between the number of lanes recognized from the sensing results of the surrounding monitoring sensor and the number of lanes for each area included in the map data, it is possible to estimate the vehicle's driving position at a location other than an intersection. This makes it possible to more accurately estimate the driving position of the own vehicle on the road.
上記目的を達成するために、本開示の第2の自車位置推定装置は、車両で用いられ、車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、車両の走路の道路標示を含む走行環境を認識する走行環境認識部(102a)と、領域別の道路標示を含む地図データを取得する地図データ取得部(104a)と、走行環境認識部で認識する車両の走路の道路標示と、地図データ取得部で取得する、車両の走行領域と推定される領域の道路標示との、類似度合いをもとに、道路上の車両の走行位置を推定する位置推定部(107a)とを備える。 In order to achieve the above object, a second own vehicle position estimating device of the present disclosure detects road markings on the route of the vehicle based on sensing results from a surroundings monitoring sensor (50) used in the vehicle to monitor the surroundings of the vehicle. a driving environment recognition unit (102a) that recognizes a driving environment including road markings, a map data acquisition unit (104a) that acquires map data including road markings for each region, and road markings of a vehicle running route recognized by the driving environment recognition unit. and a position estimating unit (107a) that estimates the driving position of the vehicle on the road based on the degree of similarity between the road marking in the area estimated to be the driving area of the vehicle, which is acquired by the map data acquisition unit. Be prepared.
上記目的を達成するために、本開示の第2の自車位置推定方法は、車両で用いられ、少なくとも1つのプロセッサにより実行される、車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、車両の走路の路面標示を含む走行環境を認識する第2走行環境認識工程と、領域別の道路標示を含む地図データを取得する第2地図データ取得工程と、第2走行環境認識工程で認識する車両の走路の道路標示と、第2地図データ取得工程で取得する、車両の走行領域と推定される領域の道路標示との、類似度合いをもとに、道路上の車両の走行位置を推定する第2位置推定工程とを含む。 In order to achieve the above object, a second self-vehicle position estimation method of the present disclosure includes sensing using a surroundings monitoring sensor (50) that is used in a vehicle and is executed by at least one processor and that monitors the surroundings of the vehicle. A second driving environment recognition step that recognizes the driving environment including road markings of the vehicle's route from the results, a second map data acquisition step that acquires map data including road markings for each area, and a second driving environment recognition step. The driving position of the vehicle on the road is determined based on the degree of similarity between the road markings on the route of the vehicle recognized in the second map data acquisition step and the road markings in the area estimated to be the driving area of the vehicle acquired in the second map data acquisition step. and a second position estimating step of estimating the position.
道路標示は、交差点に限らない要素である。よって、周辺監視センサでのセンシング結果から認識した道路標示と、地図データに含まれる領域別の道路標示との類似度合いをもとに車両の走行位置を推定することで、交差点以外の場所であっても、車両の道路上における走行位置をより精度良く推定することが可能になる。 Road markings are elements that are not limited to intersections. Therefore, by estimating the vehicle's driving position based on the degree of similarity between the road markings recognized from the sensing results of the surrounding monitoring sensor and the road markings for each area included in the map data, it is possible to estimate the driving position of the vehicle based on the degree of similarity between the road markings recognized from the sensing results of the surrounding monitoring sensor and the road markings for each area included in the map data. Therefore, it becomes possible to estimate the driving position of the vehicle on the road with higher accuracy.
上記目的を達成するために、本開示の第3の自車位置推定装置は、車両で用いられ、車両の周辺を撮影する周辺監視カメラでの撮影画像から、車両の走路における撮影画像内の空の領域の割合である空領域率及び撮像画像内の構造物の割合である構造物率の少なくともいずれかである対象比率を含む走行環境を認識する走行環境認識部(102b)と、領域別の対象比率を含む地図データを取得する地図データ取得部(104b)と、走行環境認識部で認識する車両の対象比率と、地図データ取得部で取得する、車両の走行領域と推定される領域の対象比率との、類似度合いをもとに、道路上の車両の走行位置を推定する位置推定部(107b)とを備える。 In order to achieve the above object, a third self-vehicle position estimating device of the present disclosure is used in a vehicle, and calculates the sky in the captured image on the running route of the vehicle from the captured image with a surrounding surveillance camera that captures the surroundings of the vehicle. a driving environment recognition unit (102b) that recognizes a driving environment that includes a target ratio that is at least one of a sky area ratio that is the ratio of the area in the captured image and a structure ratio that is the ratio of the structures in the captured image; A map data acquisition unit (104b) that acquires map data including the target ratio, the target ratio of the vehicle recognized by the driving environment recognition unit, and the target of the area estimated to be the vehicle driving area acquired by the map data acquisition unit. The vehicle includes a position estimating unit (107b) that estimates the traveling position of the vehicle on the road based on the degree of similarity with the ratio.
上記目的を達成するために、本開示の第3の自車位置推定方法は、車両で用いられ、少なくとも1つのプロセッサにより実行される、車両の周辺を撮影する周辺監視カメラでの撮影画像から、車両の走路における撮影画像内の空の領域の割合である空領域率及び撮像画像内の構造物の割合である構造物率の少なくともいずれかである対象比率を含む走行環境を認識する第3走行環境認識工程と、領域別の対象比率を含む地図データを取得する第3地図データ取得工程と、第3走行環境認識工程で認識する車両の対象比率と、第3地図データ取得工程で取得する、車両の走行領域と推定される領域の対象比率との、類似度合いをもとに、道路上の車両の走行位置を推定する第3位置推定工程とを含む。 In order to achieve the above object, a third self-vehicle position estimating method of the present disclosure uses images captured by a surroundings monitoring camera that is used in a vehicle and executed by at least one processor, and captures images of the surroundings of the vehicle. A third run that recognizes a driving environment that includes a target ratio that is at least one of the empty area ratio that is the ratio of the sky area in the captured image on the vehicle travel path and the structure ratio that is the ratio of structures in the captured image. an environment recognition step, a third map data acquisition step for acquiring map data including target ratios for each area, target ratios of vehicles recognized in the third driving environment recognition step, and acquired in the third map data acquisition step; and a third position estimating step of estimating the driving position of the vehicle on the road based on the degree of similarity between the driving area of the vehicle and the target ratio of the estimated area.
空領域率及び構造物率の少なくともいずれかである対象比率は、交差点に限らない要素である。よって、周辺監視センサでのセンシング結果から認識した対象比率と、地図データに含まれる領域別の対象比率との類似度合いをもとに車両の走行位置を推定することで、交差点以外の場所であっても、車両の道路上における走行位置をより精度良く推定することが可能になる。また、撮像画像そのものでなく、画像内の割合である対象比率を用いるので、記憶量及び処理量を削減することも可能になる。 The target ratio, which is at least one of the empty area ratio and the structure ratio, is a factor that is not limited to intersections. Therefore, by estimating the vehicle's driving position based on the degree of similarity between the target ratio recognized from the sensing results of the surrounding monitoring sensor and the target ratio for each area included in the map data, it is possible to estimate the vehicle's driving position at a location other than an intersection. Therefore, it becomes possible to estimate the traveling position of the vehicle on the road with higher accuracy. Furthermore, since the target ratio, which is the ratio within the image, is used instead of the captured image itself, it is also possible to reduce the amount of storage and processing.
図面を参照しながら、開示のための複数の実施形態を説明する。なお、説明の便宜上、複数の実施形態の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態における説明を参照することができる。 Several embodiments for disclosure will be described with reference to the drawings. For convenience of explanation, parts having the same functions as those shown in the figures used in the previous explanations are given the same reference numerals in multiple embodiments, and the explanation thereof may be omitted. be. For parts with the same reference numerals, the descriptions in other embodiments can be referred to.
(実施形態1)
<車両用システム1の概略構成>
以下、本開示の実施形態1について図面を用いて説明する。図1に示す車両用システム1は、運転者の運転操作を支援する運転支援機能を備える車両で用いられる。ここで言うところの運転支援機能には、運転者の運転操作を代行する自動運転の機能も含まれる構成としてもよい。運転支援の一例としては、車線維持のためのステアリング補正等が挙げられる。以下では、車両用システム1が、運転支援機能として自動運転機能を有する自動運転車両で用いられる場合を例に挙げて説明する。
(Embodiment 1)
<Schematic configuration of
車両用システム1は、図1に示すように、自車位置推定装置10、GNSS受信機20、車両状態センサ30、通信モジュール40、周辺監視センサ50、及び自動運転ECU60を含んでいる。自車位置推定装置10は、車両用システム1に含まれる他の機器と、車内LANを介して接続されてもよい。以下では、車両用システム1を用いる車両を自車と呼ぶ。車両用システム1を用いる車両は、必ずしも自動車に限るものではないが、以下では自動車に用いる場合を例に挙げて説明を行う。
As shown in FIG. 1, the
GNSS受信機20は、複数の測位衛星からの測位信号を受信する。GNSS受信機20は、この測位信号をもとに、自車の現在位置を示す座標情報を逐次特定する。GNSS受信機20は、特定した座標情報を自車位置推定装置10に出力する。座標情報としては、緯度,経度,高度を示す座標情報とすればよい。
The
車両状態センサ30は、自車の各種状態を検出するためのセンサ群である。車両状態センサ30としては、車速センサ,ヨーレートセンサ等が挙げられる。車速センサは、自車の車速を検出する。ヨーレートセンサは、自車の垂直軸周りの回転角速度であるヨーレートを検出する。
The
通信モジュール40は、自車の外部のサーバとの間で公衆通信網を介して情報の送受信を行う。通信モジュール40は、地図データが格納されたサーバ(以下、地図サーバ)から地図データをダウンロードする。通信モジュール40は、地図データとして、いわゆる高精度地図データを取得すればよい。ここで言うところの高精度地図データとは、道路構造及び道路沿いに配置されている地物についての位置座標等を、自動運転に利用可能な精度で示す地図データである。
The
高精度地図データは、例えば、道路の3次元形状データ,車線データ等を備える。道路の3次元形状データには、複数の道路が交差,合流,分岐する地点(以下、ノード)に関するノードデータが含まれる。道路の3次元形状データには、そのノード間を結ぶ道路区間(以下、リンク)に関するリンクデータが含まれる。リンクデータには、道路の幅員等の情報を含むものとする。車線データは、車線数,車線ごとの区画線の設置位置情報、車線ごとの進行方向,車線レベルでの分岐/合流地点等の情報を含むものとする。区画線及び道路端の位置情報は、座標群(つまり点群)として表現されているものとすればよい。なお、他の態様として、区画線及び道路端の位置情報が多項式表現されている構成としてもよい。 The high-precision map data includes, for example, three-dimensional shape data of roads, lane data, and the like. The three-dimensional shape data of roads includes node data regarding points (hereinafter referred to as nodes) where a plurality of roads intersect, merge, or diverge. The three-dimensional shape data of a road includes link data regarding road sections (hereinafter referred to as links) connecting the nodes. The link data shall include information such as road width. The lane data includes information such as the number of lanes, information on the installation position of partition lines for each lane, the direction of travel for each lane, and branching/merging points at the lane level. The positional information of the lane markings and road edges may be expressed as a coordinate group (that is, a point group). In addition, as another aspect, the position information of the lane markings and road edges may be expressed as polynomials.
周辺監視センサ50は、自車の周辺を監視する自律センサである。周辺監視センサ50は、周辺監視カメラ,ミリ波レーダ,ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等とすればよい。周辺監視カメラは、自車周囲の所定範囲を撮像する。ミリ波レーダ,ソナー,LIDARは、自車周囲の所定範囲に探査波を送信する。以下では、ミリ波レーダ,ソナー,LIDARを探査波センサと呼ぶ。周辺監視カメラは、逐次撮像する撮像画像をセンシング情報として自車位置推定装置10へ逐次出力する。探査波センサは、障害物によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果をセンシング情報として自車位置推定装置10へ逐次出力する。本実施形態では、周辺監視センサ50が、周辺監視カメラである場合を例に挙げて説明する。例えば周辺監視センサ50は、撮像範囲に自車前方の路面を含む前方カメラとすればよい。
The
自動運転ECU60は、自動運転に関する処理を実行する電子制御装置である。自動運転ECU60は、自車位置推定装置10で推定する自車の詳細位置を用いて、自動運転に関する処理を実行する。自動運転に関する処理の一例として、自車を自動で走行車線に沿って走行させる処理が挙げられる。
The
自車位置推定装置10は、例えばプロセッサ、メモリ、I/O、これらを接続するバスを備える。自車位置推定装置10は、メモリに記憶された制御プログラムを実行することで自車の詳細位置の推定に関する処理(以下、詳細位置推定関連処理)を実行する。ここで言うところのメモリは、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、半導体メモリ又は磁気ディスクなどによって実現される。以下で、自車位置推定装置10について詳述する。
The own vehicle
<自車位置推定装置10の概略構成>
続いて、自車位置推定装置10の概略構成の一例を説明する。自車位置推定装置10は、図1に示すように、周辺情報取得部101、走行環境認識部102、測位部103、地図データ取得部104、マップマッチング(以下、MM)部105、信頼度特定部106、及び位置推定部107を機能ブロックとして備えている。コンピュータによって自車位置推定装置10の各機能ブロックの処理が実行されることが、自車位置推定方法が実行されることに相当する。なお、自車位置推定装置10が実行する機能の一部又は全部を、1つ或いは複数のIC等によりハードウェア的に構成してもよい。また、自車位置推定装置10が備える機能ブロックの一部又は全部は、プロセッサによるソフトウェアの実行とハードウェア部材の組み合わせによって実現されてもよい。
<Schematic configuration of vehicle
Next, an example of a schematic configuration of the own vehicle
周辺情報取得部101は、周辺監視センサ50で検出したセンシング情報を取得する。本実施形態の例では、周辺監視カメラで撮影された撮影画像を取得する。走行環境認識部102は、周辺情報取得部101で取得したセンシング情報から、自車周辺の走行環境を認識する。走行環境認識部102は、周辺情報取得部101で取得したセンシング情報から、自車の走路の障害物を認識する。障害物には、静止物体,移動体を含む。静止物体には、ビル等の建造物,街灯といった構造物を含む。走行環境認識部102は、周辺情報取得部101で取得したセンシング情報から、自車周辺の走行区画線,道路標示等の路面標示を認識する。
The surrounding
走行環境認識部102は、周辺監視カメラで撮影された撮像画像に対して、パターン認識処理を行うことで、路面標示を認識すればよい。走行環境認識部102は、走行区画線を認識することで、自車の走路の車線数も認識するものとすればよい。走行環境認識部102は、走行区画線を認識することで、自車の走路における道路幅も認識することが好ましい。道路幅は、いわゆる道路幅員にあたる。道路幅とは、道路に複数車線が存在する場合には、複数車線からなる道路の幅にあたる。この走行環境認識部102での処理が、第1走行環境認識工程に相当する。走行環境認識部102は、走行区画線を認識することで、自車の走路における車線別の車線幅も認識することが好ましい。道路に複数車線が存在しない場合には、車線幅は道路幅と同じとすればよい。
The driving
測位部103は、グローバル座標系における自車の大まかな現在位置を推定する。グローバル座標系における自車の大まかな現在位置を、以下では概略位置と呼ぶ。測位部103は、GNSS受信機20から取得する座標情報と、車両状態センサ30から取得する自車の車速,ヨーレート等から、概略位置を推定すればよい。なお、測位部103は、自車位置推定装置10に含まれない構成であっても構わない。この構成を採用する場合には、自車位置推定装置10の外部に設けられた、測位部103の機能を有するユニットから、自車位置推定装置10が概略位置を取得する構成とすればよい。
The
地図データ取得部104は、領域別の道路の車線数を含む地図データを取得する。領域別とは、リンク別等とすればよい。この地図データ取得部104での処理が第1地図データ取得工程に相当する。地図データ取得部104は、領域別の道路幅も含む地図データを取得することが好ましい。地図データ取得部104は、領域別の車線ごとの車線幅も含む地図データを取得することが好ましい。
The map
地図データ取得部104は、通信モジュール40を介して、自車周辺の地図データを地図サーバから取得すればよい。地図データ取得部104は、測位部103で測位した概略位置から所定距離内の地図データを取得すればよい。また、地図データが区画単位で区分して管理されるものである場合には、自車の概略位置が含まれる区画についての地図データを取得してもよい。例えば、自車に地図データを格納するデータベースを搭載している場合には、地図データ取得部104は、地図データをこのデータベースから取得してもよい。
The map
MM部105は、測位部103で推定した概略位置と、地図データ取得部104で取得した地図データとをもとに、マップマッチング処理を行う。マップマッチング処理では、時系列に並んだ概略位置から特定される走行軌跡を、電子地図の道路上にマッチングさせる。そして、電子地図の道路上に位置するように概略位置を校正し、道路上の自車の候補位置を決定する。マップマッチング処理では、互いに近くに沿って位置する道路が存在する場合、誤った道路上に自車の候補位置を決定するおそれがある。互いに近くに沿って位置する道路としては、高架道路と高架下道路とが挙げられる。他にも、高速道路,幹線道路とその側道とが挙げられる。
The
信頼度特定部106は、道路上の自車の走行位置の信頼度を特定する。一例として、MM部105でのマッチング処理で候補となった、道路上の自車の走行位置の信頼度を特定する。なお、地図データ取得部104で取得した地図データに含まれない道路が存在する場合もある。つまり、高精度地図が整備されていない道路(以下、地図未整備道路)が存在する場合もある。よって、信頼度特定部106は、未整備道路が存在する場合も仮定し、この未整備道路上の自車の走行位置の信頼度も特定する。信頼度は、例えば確率として表せばよい。
The
信頼度特定部106は、走行環境認識部102で認識する自車の走路の車線数と、地図データ取得部104で取得する自車の走路の車線数との、類似度合いを特定する。そして、特定した類似度合いをもとに、道路上の自車の走行位置の信頼度を特定する。以下では、走行環境認識部102で認識する自車の走路の車線数を、認識車線数と呼ぶ。以下では、地図データ取得部104で取得する自車の走路の車線数を、地図車線数と呼ぶ。地図データ取得部104で取得する自車の走路の車線数とは、地図データ取得部104で取得する、自車の走行領域と推定される領域の車線数である。自車の走行領域と推定される領域とは、MM部105で決定される候補位置とすればよい。信頼度特定部106は、認識車線数と地図車線数との類似度合いが高くなるのに応じて、信頼度を高く特定する。
The
ここで、図2,図3を用いて、信頼度特定部106での信頼度の特定について説明する。図2,図3の例では、MM部105で2車線の道路R2と3車線の道路R3とのいずれも候補となっているものとする。道路R2と道路R3とは、高精度地図が整備されている道路(以下、地図整備済道路)にあたる。また、信頼度特定部106は、1車線の地図未整備道路R1も仮の候補に含ませるものとする。図2は、認識車線数が2車線の場合の例である。図3は、認識車線数が1車線の場合の例である。
Here, identification of reliability by the
図2に示すように、認識車線数が2車線の場合、信頼度特定部106は、2車線の道路R2の信頼度を最も高く特定する。信頼度特定部106は、3車線の道路R3の信頼度を次に高く特定する。これは、認識車線数が2車線の場合であっても、区画線のかすれ等による3車線の誤認識の可能性があることによる。信頼度特定部106は、認識車線数が2車線の場合、1車線の地図未整備道路R1の信頼度を最も低く特定する。図3に示すように、認識車線数が1車線の場合、信頼度特定部106は、1車線の地図未整備道路R1の信頼度を最も高く特定する。一方、信頼度特定部106は、複数車線である2車線の道路R2及び3車線の道路R3の信頼度を低く特定する。
As shown in FIG. 2, when the number of recognized lanes is two, the
信頼度特定部106は、走行環境認識部102で認識する自車の走路の道路幅と、地図データ取得部104で取得する自車の走路の道路幅との、類似度合いも特定すればよい。そして、特定した類似度合いも用いて、道路上の自車の走行位置の信頼度を特定することが好ましい。以下では、走行環境認識部102で認識する自車の走路の道路幅を、認識道路幅と呼ぶ。以下では、地図データ取得部104で取得する自車の走路の道路幅を、地図道路幅と呼ぶ。地図データ取得部104で取得する自車の走路の道路幅とは、地図データ取得部104で取得する、自車の走行領域と推定される領域の道路幅である。信頼度特定部106は、認識道路幅と地図道路幅との類似度合いが高くなるのに応じて、信頼度をより高く補正すればよい。
The
信頼度特定部106は、走行環境認識部102で認識する自車の走路の車線ごとの車線幅のパターンと、地図データ取得部104で取得する自車の走路の車線ごとの車線幅のパターンとの、類似度合いも特定すればよい。車線ごとの車線幅のパターンとは、車線ごとの車線幅の値とその並び順とすればよい。そして、特定した類似度合いも用いて、道路上の自車の走行位置の信頼度を特定することが好ましい。以下では、走行環境認識部102で認識する自車の走路の車線ごとの車線幅のパターンを、認識車線幅パターンと呼ぶ。以下では、地図データ取得部104で取得する自車の走路の車線ごとの車線幅のパターンを、地図車線幅パターンと呼ぶ。地図データ取得部104で取得する自車の走路の車線ごとの車線幅のパターンとは、自車の走行領域と推定される領域の車線ごとの車線幅のパターンである。信頼度特定部106は、認識車線幅パターンと地図車線幅パターンとの類似度合いが高くなるのに応じて、信頼度をより高く補正すればよい。
The
なお、信頼度特定部106は、複数車線の道路上のどの車線に自車が位置するかの信頼度を車線ごとにまで細分化して特定してもよい。この場合には、走行環境認識部102で認識する自車周辺の走行区画線の配置をもとに、車線ごとの信頼度を特定すればよい。
Note that the
位置推定部107は、認識車線数と地図車線数との類似度合いをもとに、道路上の自車の走行位置を推定する。この位置推定部107での処理が、第1位置推定工程に相当する。車線数は、交差点に限らない要素である。よって、車線数を利用することで、交差点以外の場所であっても、自車の道路上における走行位置をより精度良く推定することが可能になる。また、車線数は、自動運転で一般的に利用される、周辺監視センサ50での路面を含んだセンシング範囲のセンシング結果から認識可能である。よって、一般的なセンシング範囲以外をセンシング範囲にする技術に比べ、汎用性が高くなる。位置推定部107は、図2の例であれば、道路R2上にマッチングした候補位置を、道路上の自車の走行位置と推定すればよい。位置推定部107は、図3の例であれば、地図未整備道路R1上にあると仮定した候補位置を、道路上の自車の走行位置と推定すればよい。言い換えると、地図未整備道路R1上に自車が位置すると推定すればよい。
The
位置推定部107は、認識道路幅と地図道路幅との類似度合いも用いて、道路上の自車の走行位置を推定することが好ましい。これによれば、車線数だけでは1つの走行位置に絞り込むことが難しい場合であっても、車線幅を用いることで、1つの走行位置に絞りこみやすくなる。また、車線幅は、交差点に限らない要素である。従って、以上の構成によれば、交差点以外の場所であっても、道路上における自車の走行位置をさらに精度良く推定することが可能になる。
Preferably, the
位置推定部107は、認識車線幅パターンと地図車線幅パターンとの類似度合いも用いて、道路上の自車の走行位置を推定することが好ましい。これによれば、車線数に加えて車線幅を用いることで、1つの走行位置に絞りこみやすくなる。また、車線ごとの車線幅のパターンは、交差点に限らない要素である。従って、以上の構成によれば、交差点以外の場所であっても、道路上における自車の走行位置を非常に精度良く推定することが可能になる。
Preferably, the
位置推定部107は、信頼度特定部106で特定した信頼度を用いて、道路上の自車の走行位置を推定することが好ましい。これは、信頼度を、自車の走行位置を確定するか否かの判断に利用することが可能になるためである。
Preferably, the
自動運転ECU60は、この位置推定部107で推定する自車の走行位置を用いて、自動運転に関する処理を実行する。自動運転ECU60は、地図整備済道路上に自車の走行位置を推定した場合には、この走行位置を用いた自動運転を行わせればよい。自動運転ECU60は、地図未整備道路上に自車の走行位置を推定した場合には、例えば実行可能な自動運転のレベルを下げたり、自動運転を中止させたりすればよい。
The
なお、位置推定部107は、複数車線の道路上のどの車線に自車が位置するかまで推定してもよい。この場合には、信頼度特定部106で特定する、複数車線の道路上のどの車線に自車が位置するかの信頼度を用いて、推定すればよい。具体的には、自車が位置する信頼度が最も高い車線に自車が位置すると推定すればよい。
Note that the
<自車位置推定装置10での位置推定関連処理>
続いて、図4を用いて、自車位置推定装置10での、道路上における自車の走行位置に関する処理(以下、位置推定関連処理)の流れの一例について説明を行う。図4のフローチャートは、例えば、自車のパワースイッチがオンになった場合に開始する構成とすればよい。パワースイッチとは、自車の内燃機関又はモータジェネレータを始動させるためのスイッチである。他にも、自車の自動運転機能がオンに設定されていることも条件に加えてもよい。
<Position estimation related processing in own vehicle
Next, an example of the flow of processing related to the traveling position of the own vehicle on the road (hereinafter referred to as position estimation related processing) in the own vehicle
まず、ステップS1では、測位部103が、概略位置を推定する。ステップS2では、MM部105が、S1で推定した概略位置と、地図データ取得部104で取得した地図データとをもとに、マップマッチング処理を行う。ステップS3では、信頼度特定部106が、道路上の自車の走行位置の信頼度を特定する。信頼度特定部106は、S2でのマッチング処理で候補となった、道路上の自車の走行位置の信頼度を特定する。また、信頼度特定部106は、未整備道路が存在する場合も仮定し、この未整備道路上の自車の走行位置の信頼度も特定する。
First, in step S1, the
ステップS4では、位置推定部107が、認識車線数と地図車線数との類似度合いをもとに、道路上の自車の走行位置を絞り込む。ステップS5では、S4で1つの走行位置に絞り込めた場合(S5でYES)には、ステップS9に移る。一方、S4で1つの走行位置に絞り込めなかった場合(S5でNO)には、ステップS6に移る。
In step S4, the
ステップS6では、位置推定部107が、認識道路幅と地図道路幅との類似度合いをもとに、道路上の自車の走行位置をさらに絞り込む。ステップS7では、S6で1つの走行位置に絞り込めた場合(S7でYES)には、ステップS9に移る。一方、S6で1つの走行位置に絞り込めなかった場合(S7でNO)には、ステップS8に移る。
In step S6, the
ステップS8では、位置推定部107が、認識車線幅パターンと地図車線幅パターンとの類似度合いをもとに、道路上の自車の走行位置をさらに絞り込む。S8で1つの走行位置に絞り込めなかった場合でも、信頼度の最も高い道路上の走行位置に絞り込めばよい。ステップS9では、それまでの処理で1つに絞り込んだ道路上の自車の走行位置を、自車の走行位置と推定する。
In step S8, the
ステップS10では、位置推定関連処理の終了タイミングであった場合(S10でYES)には、位置推定関連処理を終了する。一方、位置推定関連処理の終了タイミングでなかった場合(S10でNO)には、S1に戻って処理を繰り返す。位置推定関連処理の終了タイミングの一例としては、自車のパワースイッチがオフになったことが挙げられる。位置推定関連処理の終了タイミングの一例としては、自動運転機能がオフに切り替わったことも挙げられる。 In step S10, if it is the end timing of the position estimation related process (YES in S10), the position estimation related process is ended. On the other hand, if it is not the end timing of the position estimation related process (NO in S10), the process returns to S1 and repeats the process. An example of the end timing of the position estimation related process is when the power switch of the own vehicle is turned off. An example of the end timing of the position estimation related process is when the automatic driving function is turned off.
図4の例では、車線数,道路幅,車線幅パターンの類似度合いで自車の走行位置を順次絞り込んでいく構成を示したが、必ずしもこれに限らない。例えば、車線数の類似度合いと、道路幅の類似度合いと、車線幅パターンの類似度合いとを総合して、自車の走行位置を絞り込んで推定してもよい。車線数,道路幅,車線幅パターンの類似度合いで自車の走行位置を順次絞り込んでいく構成によれば、まとめて処理を行う場合に比べ、無駄な処理を省略しやすくなる。 In the example of FIG. 4, a configuration is shown in which the driving position of the own vehicle is sequentially narrowed down based on the number of lanes, road width, and degree of similarity of lane width patterns, but this is not necessarily the case. For example, the driving position of the own vehicle may be narrowed down and estimated by integrating the degree of similarity in the number of lanes, the degree of similarity in road width, and the degree of similarity in lane width patterns. According to a configuration in which the driving position of the vehicle is sequentially narrowed down based on the number of lanes, road width, and degree of similarity of lane width patterns, unnecessary processing can be more easily omitted than when processing is performed all at once.
(実施形態2)
実施形態1の構成に限らず、以下の実施形態2の構成としてもよい。以下では、実施形態2の構成の一例について図を用いて説明する。
(Embodiment 2)
The configuration is not limited to the configuration of the first embodiment, but may be the configuration of the second embodiment below. An example of the configuration of Embodiment 2 will be described below with reference to the drawings.
<車両用システム1aの概略構成>
車両用システム1aは、図5に示すように、自車位置推定装置10a、GNSS受信機20、車両状態センサ30、通信モジュール40、周辺監視センサ50、及び自動運転ECU60を含んでいる。車両用システム1aは、自車位置推定装置10の代わりに、自車位置推定装置10aを含む点を除けば、実施形態1の車両用システム1と同様である。
<Schematic configuration of
As shown in FIG. 5, the
<自車位置推定装置10aの概略構成>
続いて、自車位置推定装置10aの概略構成の一例を説明する。自車位置推定装置10aは、図5に示すように、周辺情報取得部101、走行環境認識部102a、測位部103、地図データ取得部104a、MM部105、信頼度特定部106a、及び位置推定部107aを機能ブロックとして備えている。自車位置推定装置10aは、走行環境認識部102の代わりに走行環境認識部102aを備える。自車位置推定装置10aは、地図データ取得部104の代わりに地図データ取得部104aを備える。自車位置推定装置10aは、信頼度特定部106の代わりに信頼度特定部106aを備える。自車位置推定装置10aは、位置推定部107の代わりに位置推定部107aを備える。自車位置推定装置10aは、これらの点を除けば、実施形態1の自車位置推定装置10と同様である。コンピュータによって自車位置推定装置10aの各機能ブロックの処理が実行されることも、自車位置推定方法が実行されることに相当する。
<Schematic configuration of vehicle
Next, an example of a schematic configuration of the own vehicle
走行環境認識部102aは、車線数を認識することが必須である代わりに、道路標示を認識することが必須である点を除けば、実施形態1の走行環境認識部102と同様である。道路標示は、実施形態1で説明した路面標示に含まれる。道路標示は、路面に路面標示用塗料、道路鋲等によって描かれる。道路標示には、規制標示と指示標示とが含まれる。規制標示は、特定の通行方法を制限または指定するものである。指示標示は、特定の通行方法ができること、その区間若しくは場所の道路交通法上の意味、及び通行すべき道路の部分等を示すものである。この走行環境認識部102aでの処理が、第2走行環境認識工程に相当する。走行環境認識部102aで認識する道路標示は、交差点に限らない道路標示が好ましい。このような道路標示として、例えば最高速度の規制表示等が挙げられる。
The driving
地図データ取得部104aは、領域別の道路標示を含む地図データを取得する。地図データ取得部104aは、地図データに領域別の道路標示が含まれることが必須である点を除けば、実施形態1の地図データ取得部104と同様である。領域別とは、リンク別,セグメント別等とすればよい。セグメントとは、リンクを形状点で分割した単位である。この地図データ取得部104aでの処理が第2地図データ取得工程に相当する。地図データに含まれる道路標示は、走行環境認識部102aで認識する道路標示と同様の種類のものとする。
The map
信頼度特定部106aは、車線数の類似度合いの代わりに、道路標示の類似度合いを用いる点を除けば、実施形態1の信頼度特定部106と同様である。信頼度特定部106aは、走行環境認識部102aで認識する自車の走路の道路標示と、地図データ取得部104aで取得する自車の走路の道路標示との、類似度合いを特定する。そして、特定した類似度合いをもとに、道路上の自車の走行位置の信頼度を特定する。以下では、走行環境認識部102aで認識する自車の走路の道路標示を、認識道路標示と呼ぶ。以下では、地図データ取得部104aで取得する自車の走路の道路標示を、地図道路標示と呼ぶ。地図データ取得部104aで取得する自車の走路の道路標示とは、地図データ取得部104aで取得する、自車の走行領域と推定される領域の道路標示である。自車の走行領域と推定される領域とは、MM部105で決定される候補位置とすればよい。信頼度特定部106aは、認識道路標示と地図道路標示との類似度が高くなるのに応じて、信頼度を高く特定する。
The
位置推定部107aは、認識車線数と地図車線数との類似度合いの代わりに、認識道路標示と地図道路標示との類似度合いを用いる点を除けば、実施形態1の位置推定部107と同様である。この位置推定部107aでの処理が、第2位置推定工程に相当する。道路標示は、交差点以外にも配置されやすい要素である。よって、道路標示を利用することで、交差点以外の場所であっても、自車の道路上における走行位置をより精度良く推定することが可能になる。また、道路標示は、自動運転で一般的に利用される、周辺監視センサ50での路面を含んだセンシング範囲のセンシング結果から認識可能である。よって、一般的なセンシング範囲以外をセンシング範囲にする技術に比べ、汎用性が高くなる。
The
位置推定部107aは、信頼度特定部106aで特定した信頼度を用いて、道路上の自車の走行位置を推定することが好ましい。これは、信頼度を、自車の走行位置を確定するか否かの判断に利用することが可能になるためである。なお、位置推定部107aは、位置推定部107と同様に、複数車線の道路上のどの車線に自車が位置するかまで推定してもよい。
It is preferable that the
<自車位置推定装置10aでの位置推定関連処理>
続いて、図6のフローチャートを用いて、自車位置推定装置10aでの位置推定関連処理の流れの一例について説明を行う。図6のフローチャートは、例えば、自車のパワースイッチがオンになった場合に開始する構成とすればよい。他にも、自車の自動運転機能がオンに設定されていることも条件に加えてもよい。
<Position estimation related processing in own vehicle
Next, an example of the flow of position estimation related processing in the own vehicle
ステップS21~ステップS23では、S1~S3と同様の処理を行う。ステップS24では、位置推定部107aが、認識道路標示と地図道路標示との類似度合いをもとに、道路上の自車の走行位置を絞り込む。S24で1つの走行位置に絞り込めなかった場合でも、信頼度の最も高い道路上の走行位置に絞り込めばよい。ステップS25では、S24で1つに絞り込んだ道路上の自車の走行位置を、自車の走行位置と推定する。
In steps S21 to S23, processes similar to those in S1 to S3 are performed. In step S24, the
ステップS26では、位置推定関連処理の終了タイミングであった場合(S26でYES)には、位置推定関連処理を終了する。一方、位置推定関連処理の終了タイミングでなかった場合(S26でNO)には、S21に戻って処理を繰り返す。 In step S26, if it is the end timing of the position estimation related process (YES in S26), the position estimation related process is ended. On the other hand, if it is not the end timing of the position estimation related process (NO in S26), the process returns to S21 and repeats the process.
(実施形態3)
前述の実施形態の構成に限らず、以下の実施形態3の構成としてもよい。以下では、実施形態3の構成の一例について図を用いて説明する。
(Embodiment 3)
The present invention is not limited to the configuration of the above-described embodiment, but may be the configuration of Embodiment 3 below. An example of the configuration of Embodiment 3 will be described below with reference to the drawings.
<車両用システム1bの概略構成>
車両用システム1bは、図7に示すように、自車位置推定装置10b、GNSS受信機20、車両状態センサ30、通信モジュール40、周辺監視センサ50、及び自動運転ECU60を含んでいる。車両用システム1bは、自車位置推定装置10の代わりに、自車位置推定装置10bを含む点を除けば、実施形態1の車両用システム1と同様である。
<Schematic configuration of vehicle system 1b>
As shown in FIG. 7, the vehicle system 1b includes a vehicle
<自車位置推定装置10bの概略構成>
続いて、自車位置推定装置10bの概略構成の一例を説明する。自車位置推定装置10bは、図7に示すように、周辺情報取得部101b、走行環境認識部102b、測位部103、地図データ取得部104b、MM部105、信頼度特定部106b、及び位置推定部107bを機能ブロックとして備えている。自車位置推定装置10bは、周辺情報取得部101の代わりに周辺情報取得部101bを備える。自車位置推定装置10bは、走行環境認識部102の代わりに走行環境認識部102bを備える。自車位置推定装置10bは、地図データ取得部104の代わりに地図データ取得部104bを備える。自車位置推定装置10bは、信頼度特定部106の代わりに信頼度特定部106bを備える。自車位置推定装置10bは、位置推定部107の代わりに位置推定部107bを備える。自車位置推定装置10bは、これらの点を除けば、実施形態1の自車位置推定装置10と同様である。コンピュータによって自車位置推定装置10bの各機能ブロックの処理が実行されることも、自車位置推定方法が実行されることに相当する。
<Schematic configuration of vehicle
Next, an example of a schematic configuration of the own vehicle
周辺情報取得部101bは、周辺監視カメラで撮影された撮影画像を取得することが必須である点を除けば、実施形態1の周辺情報取得部101と同様である。
The surrounding
走行環境認識部102bは、車線数を認識することが必須である代わりに、空領域率及び構造物率の少なくともいずれかである対象比率を認識することが必須である。走行環境認識部102bは、この点を除けば、実施形態1の走行環境認識部102と同様である。空領域率は、撮影画像内の空(そら)の領域の割合である。構造物率は、撮像画像内の構造物の割合である。走行環境認識部102bは、ディープラーニング,機械学習で空,構造物を認識するように学習した学習器を用いて、撮影画像内の空,構造物を認識すればよい。続いて、走行環境認識部102bは、撮影画像内の、認識した空,構造物の割合を、空領域率,構造物率として算出する。そして、算出した走行環境認識部102bは、算出した空領域率,構造物率を対象比率として認識すればよい。対象比率としては、空領域率及び構造物率のいずれか一方としてもよい。この走行環境認識部102bでの処理が、第3走行環境認識工程に相当する。
The driving
地図データ取得部104bは、領域別の対象比率を含む地図データを取得する。地図データ取得部104bは、地図データに領域別の対象比率が含まれることが必須である点を除けば、実施形態1の地図データ取得部104と同様である。この対象比率は、走行環境認識部102bで認識する対象比率と同じ種類に揃える。例えば、走行環境認識部102bで認識する対象比率が空領域率の場合には、地図データ取得部104bでも対象比率として空領域率を取得すればよい。領域別とは、セグメント別,地点別等とすればよい。地図データには、同じ領域に対して、道路の上りと下りとの進行方向別の対象比率がそれぞれ含まれる構成とすればよい。この地図データ取得部104bでの処理が第3地図データ取得工程に相当する。
The map
信頼度特定部106bは、車線数の類似度合いの代わりに、対象比率の類似度合いを用いる点を除けば、実施形態1の信頼度特定部106と同様である。信頼度特定部106bは、走行環境認識部102bで認識する自車の走路の対象比率と、地図データ取得部104bで取得する自車の走路の対象比率との類似度合いを特定する。地図データ取得部104bで取得する対象比率は、自車の進行方向と同じ進行方向についての対象比率とする。自車の進行方向は、概略位置の時間変化等から特定すればよい。そして、信頼度特定部106bは、特定した類似度合いをもとに、道路上の自車の走行位置の信頼度を特定する。以下では、走行環境認識部102bで認識する自車の走路の対象比率を、認識対象比率と呼ぶ。以下では、地図データ取得部104bで取得する自車の走路の対象比率を、地図対象比率と呼ぶ。地図データ取得部104bで取得する自車の走路の対象比率とは、地図データ取得部104bで取得する、自車の走行領域と推定される領域の対象比率である。自車の走行領域と推定される領域とは、MM部105で決定される候補位置とすればよい。信頼度特定部106bは、認識対象比率と地図対象比率との類似度が高くなるのに応じて、信頼度を高く特定する。
The
信頼度特定部106bは、走行環境認識部102bで逐次認識する自車の走路の構造物率の変化と、地図データ取得部104bで取得する自車の経由路の構造物率の変化との、類似度合いも特定すればよい。自車の経由路とは、自車が経由してきたと推定される領域群である。領域群は、セグメント群,地点群とすればよい。自車の経由路は、測位部103で逐次推定する概略位置から特定すればよい。そして、信頼度特定部106bは、特定した類似度合いも用いて、道路上の自車の走行位置の信頼度を特定することが好ましい。以下では、走行環境認識部102bで逐次認識する自車の走路の構造物率の変化を、認識構造物率変化と呼ぶ。以下では、地図データ取得部104bで取得する自車の経由路の構造物率の変化を、地図構造物率変化と呼ぶ。信頼度特定部106bは、認識構造物率変化と地図構造物率変化との類似度合いが高くなるのに応じて、信頼度をより高く補正すればよい。
The
位置推定部107bは、認識車線数と地図車線数との類似度合いの代わりに、認識対象比率と地図対象比率との類似度合いを用いる。位置推定部107bは、この点を除けば、実施形態1の位置推定部107と同様である。この位置推定部107bでの処理が、第3位置推定工程に相当する。空領域率,構造物率といった対象比率は、交差点に限らない要素である。よって、対象比率を利用することで、交差点以外の場所であっても、自車の道路上における走行位置をより精度良く推定することが可能になる。
The
位置推定部107bは、認識構造物率変化と地図構造物率変化との類似度合いも用いて、道路上の自車の走行位置を推定することが好ましい。構造物率の変化は、例えば周期的に配置された構造物の有無等で異なる。周期的に配置された構造物としては、等間隔に並んだ街灯等が挙げられる。以上の構成によれば、対象比率だけでは1つの走行位置に絞り込むことが難しい場合であっても、構造物率の経時的な変化を用いることで、1つの走行位置に絞りこみやすくなる。
Preferably, the
位置推定部107bは、信頼度特定部106bで特定した信頼度を用いて、道路上の自車の走行位置を推定することが好ましい。これは、信頼度を、自車の走行位置を確定するか否かの判断に利用することが可能になるためである。なお、位置推定部107bは、位置推定部107と同様に、複数車線の道路上のどの車線に自車が位置するかまで推定してもよい。
It is preferable that the
<自車位置推定装置10bでの位置推定関連処理>
続いて、図8のフローチャートを用いて、自車位置推定装置10bでの位置推定関連処理の流れの一例について説明を行う。図8のフローチャートは、例えば、自車のパワースイッチがオンになった場合に開始する構成とすればよい。他にも、自車の自動運転機能がオンに設定されていることも条件に加えてもよい。
<Position estimation related processing in own vehicle
Next, an example of the flow of position estimation related processing in the own vehicle
ステップS41~ステップS43では、S1~S3と同様の処理を行う。ステップS44では、位置推定部107bが、認識対象比率と地図対象比率との類似度合いをもとに、道路上の自車の走行位置を絞り込む。ステップS45では、S44で1つの走行位置に絞り込めた場合(S45でYES)には、ステップS47に移る。一方、S44で1つの走行位置に絞り込めなかった場合(S45でNO)には、ステップS46に移る。
In steps S41 to S43, processes similar to those in S1 to S3 are performed. In step S44, the
ステップS46では、位置推定部107bが、認識構造物率変化と地図構造物率変化との類似度合いをもとに、道路上の自車の走行位置をさらに絞り込む。S46で1つの走行位置に絞り込めなかった場合でも、信頼度の最も高い道路上の走行位置に絞り込めばよい。ステップS47では、それまでの処理で1つに絞り込んだ道路上の自車の走行位置を、自車の走行位置と推定する。
In step S46, the
ステップS48では、位置推定関連処理の終了タイミングであった場合(S48でYES)には、位置推定関連処理を終了する。一方、位置推定関連処理の終了タイミングでなかった場合(S48でNO)には、S41に戻って処理を繰り返す。 In step S48, if it is the end timing of the position estimation related process (YES in S48), the position estimation related process is ended. On the other hand, if it is not the end timing of the position estimation related process (NO in S48), the process returns to S41 and repeats the process.
図8の例では、対象比率,道路構造率の変化の類似度合いで自車の走行位置を順次絞り込んでいく構成を示したが、必ずしもこれに限らない。例えば、対象比率の類似度合いと、道路構造率の変化の類似度合いとを総合して、自車の走行位置を絞り込んで推定してもよい。対象比率,道路構造率の変化の類似度合いで自車の走行位置を順次絞り込んでいく構成によれば、まとめて処理を行う場合に比べ、無駄な処理を省略しやすくなる。 In the example of FIG. 8, a configuration is shown in which the driving position of the own vehicle is sequentially narrowed down based on the degree of similarity of changes in the target ratio and road structure ratio, but the present invention is not necessarily limited to this. For example, the driving position of the own vehicle may be narrowed down and estimated by combining the degree of similarity of target ratios and the degree of similarity of changes in road structure ratio. According to a configuration that sequentially narrows down the driving position of the own vehicle based on the degree of similarity of changes in the target ratio and road structure ratio, unnecessary processing can be more easily omitted than when processing is performed all at once.
なお、本開示は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。また、本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された1つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウェア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと1つ以上のハードウェア論理回路との組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 Note that the present disclosure is not limited to the embodiments described above, and various changes can be made within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. The embodiments are also included in the technical scope of the present disclosure. Further, the control unit and the method described in the present disclosure may be implemented by a dedicated computer constituting a processor programmed to perform one or more functions embodied by a computer program. Alternatively, the apparatus and techniques described in this disclosure may be implemented with dedicated hardware logic circuits. Alternatively, the apparatus and techniques described in this disclosure may be implemented by one or more special purpose computers configured by a combination of a processor executing a computer program and one or more hardware logic circuits. The computer program may also be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium.
1,1a,1b 車両用システム、10,10a,10b 自車位置推定装置、50 周辺監視センサ、102,102a,102b 走行環境認識部、104,104a,104b 地図データ取得部、106,106a,106b 信頼度特定部、107,107a,107b 位置推定部 1, 1a, 1b vehicle system, 10, 10a, 10b vehicle position estimation device, 50 surroundings monitoring sensor, 102, 102a, 102b driving environment recognition unit, 104, 104a, 104b map data acquisition unit, 106, 106a, 106b Reliability identification unit, 107, 107a, 107b Position estimation unit
Claims (10)
前記車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、前記車両の走路の車線数を含む走行環境を認識する走行環境認識部(102)と、
領域別の道路の車線数を含む地図データを取得する地図データ取得部(104)と、
前記走行環境認識部で認識する前記車両の走路の車線数と、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の車線数との、類似度合いをもとに、道路上の前記車両の走行位置を推定する位置推定部(107)とを備える自車位置推定装置。 used in vehicles,
a driving environment recognition unit (102) that recognizes a driving environment including the number of lanes on a running route of the vehicle from sensing results from a surroundings monitoring sensor (50) that monitors the surroundings of the vehicle;
a map data acquisition unit (104) that acquires map data including the number of road lanes for each region;
The road is determined based on the degree of similarity between the number of lanes of the vehicle's driving route recognized by the driving environment recognition unit and the number of lanes of the area estimated to be the vehicle's driving area acquired by the map data acquisition unit. An own vehicle position estimating device comprising: a position estimating section (107) for estimating a traveling position of the vehicle.
前記走行環境認識部は、道路幅も含む前記走行環境を認識し、
前記地図データ取得部は、領域別の道路幅も含む前記地図データを取得し、
前記位置推定部は、前記走行環境認識部で認識する前記車両の走路の道路幅と、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の道路幅との、類似度合いも用いて、道路上の前記車両の走行位置を推定する自車位置推定装置。 The own vehicle position estimation device according to claim 1,
The driving environment recognition unit recognizes the driving environment including road width,
The map data acquisition unit acquires the map data including road width by area,
The position estimating unit determines the degree of similarity between the road width of the vehicle's driving route recognized by the driving environment recognition unit and the road width of the area estimated to be the vehicle's driving area acquired by the map data acquiring unit. A self-vehicle position estimating device that estimates the traveling position of the vehicle on a road using the following information.
前記走行環境認識部は、車線別の車線幅も含む前記走行環境を認識し、
前記地図データ取得部は、領域別の車線ごとの車線幅も含む前記地図データを取得し、
前記位置推定部は、前記走行環境認識部で認識する前記車両の走路の車線別の車線幅のパターンと、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の車線ごとの車線幅のパターンとの、類似度合いも用いて、道路上の前記車両の走行位置を推定する自車位置推定装置。 The own vehicle position estimation device according to claim 2,
The driving environment recognition unit recognizes the driving environment including the lane width of each lane,
The map data acquisition unit acquires the map data including lane widths for each lane in each region,
The position estimating unit is configured to use a lane width pattern for each lane of the vehicle's driving route recognized by the driving environment recognition unit and a lane-by-lane pattern of an area estimated to be a driving area of the vehicle, which is acquired by the map data acquiring unit. A self-vehicle position estimating device that estimates a traveling position of the vehicle on a road using a degree of similarity with a lane width pattern.
前記車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、前記車両の走路の道路標示を含む走行環境を認識する走行環境認識部(102a)と、
領域別の道路標示を含む地図データを取得する地図データ取得部(104a)と、
前記走行環境認識部で認識する前記車両の走路の道路標示と、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の道路標示との、類似度合いをもとに、道路上の前記車両の走行位置を推定する位置推定部(107a)とを備える自車位置推定装置。 used in vehicles,
a driving environment recognition unit (102a) that recognizes a driving environment including road markings on the route of the vehicle from sensing results from a surroundings monitoring sensor (50) that monitors the surroundings of the vehicle;
a map data acquisition unit (104a) that acquires map data including road markings for each area;
Based on the degree of similarity between the road markings on the route of the vehicle recognized by the driving environment recognition unit and the road markings in the area estimated to be the driving area of the vehicle acquired by the map data acquisition unit, A vehicle position estimating device comprising: a position estimating section (107a) for estimating a traveling position of the vehicle.
前記車両の周辺を撮影する周辺監視カメラでの撮影画像から、前記車両の走路における前記撮影画像内の空の領域の割合である空領域率及び撮像画像内の構造物の割合である構造物率の少なくともいずれかである対象比率を含む走行環境を認識する走行環境認識部(102b)と、
領域別の前記対象比率を含む地図データを取得する地図データ取得部(104b)と、
前記走行環境認識部で認識する前記車両の前記対象比率と、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の前記対象比率との、類似度合いをもとに、道路上の前記車両の走行位置を推定する位置推定部(107b)とを備える自車位置推定装置。 used in vehicles,
From images taken by a surrounding surveillance camera that photographs the surroundings of the vehicle, a sky area ratio, which is the ratio of the sky area in the photographed image on the running route of the vehicle, and a structure ratio, which is the ratio of structures in the photographed image. a driving environment recognition unit (102b) that recognizes a driving environment including a target ratio that is at least one of the following;
a map data acquisition unit (104b) that acquires map data including the target ratio for each area;
Based on the degree of similarity between the target ratio of the vehicle recognized by the driving environment recognition unit and the target ratio of the area estimated to be the driving area of the vehicle acquired by the map data acquisition unit, road An own vehicle position estimating device comprising: a position estimating section (107b) for estimating a traveling position of the vehicle.
前記走行環境認識部は、前記対象比率として少なくとも前記構造物率を含む走行環境を認識し、
前記地図データ取得部は、領域別の前記対象比率として少なくとも領域別の前記構造物率を含む地図データを取得し、
前記位置推定部は、前記走行環境認識部で逐次認識する前記車両の前記構造物率の変化と、前記地図データ取得部で取得する前記構造物率をもとにした、前記車両が経由してきたと推定される領域群での前記構造物率の変化との、類似度合いも用いて、道路上の前記車両の走行位置を推定する自車位置推定装置。 The own vehicle position estimation device according to claim 5,
The driving environment recognition unit recognizes a driving environment including at least the structure ratio as the target ratio,
The map data acquisition unit acquires map data including at least the structure ratio by area as the target ratio by area,
The position estimating unit determines whether the vehicle is passing through based on changes in the structure ratio of the vehicle sequentially recognized by the driving environment recognition unit and the structure ratio acquired by the map data acquisition unit. A self-vehicle position estimating device that estimates a traveling position of the vehicle on a road using a degree of similarity with a change in the structure ratio in a group of regions to be estimated.
前記類似度合いをもとに、道路上の前記車両の走行位置の信頼度を特定する信頼度特定部(106,106a,106b)を備え、
前記位置推定部は、前記信頼度特定部で特定した前記信頼度を用いて、道路上の前記車両の走行位置を推定する自車位置推定装置。 The own vehicle position estimation device according to claim 1, 4, or 5,
a reliability identifying unit (106, 106a, 106b) that identifies the reliability of the traveling position of the vehicle on the road based on the degree of similarity;
The position estimating unit is a self-vehicle position estimating device that estimates the traveling position of the vehicle on the road using the reliability specified by the reliability specifying unit.
少なくとも1つのプロセッサにより実行される、
前記車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、前記車両の走路の車線数を含む走行環境を認識する第1走行環境認識工程と、
領域別の道路の車線数を含む地図データを取得する第1地図データ取得工程と、
前記第1走行環境認識工程で認識する前記車両の走路の車線数と、前記第1地図データ取得工程で取得する、前記車両の走行領域と推定される領域の車線数との、類似度合いをもとに、道路上の前記車両の走行位置を推定する第1位置推定工程とを含む自車位置推定方法。 used in vehicles,
executed by at least one processor;
a first driving environment recognition step of recognizing a driving environment including the number of lanes on a running route of the vehicle from sensing results from a surroundings monitoring sensor (50) that monitors the surroundings of the vehicle;
a first map data acquisition step of acquiring map data including the number of road lanes for each area;
The degree of similarity between the number of lanes of the vehicle's driving route recognized in the first driving environment recognition step and the number of lanes of the area estimated to be the vehicle's driving area acquired in the first map data acquiring step is also determined. and a first position estimation step of estimating a traveling position of the vehicle on a road.
少なくとも1つのプロセッサにより実行される、
前記車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、前記車両の走路の路面標示を含む走行環境を認識する第2走行環境認識工程と、
領域別の道路標示を含む地図データを取得する第2地図データ取得工程と、
前記第2走行環境認識工程で認識する前記車両の走路の道路標示と、前記第2地図データ取得工程で取得する、前記車両の走行領域と推定される領域の道路標示との、類似度合いをもとに、道路上の前記車両の走行位置を推定する第2位置推定工程とを含む自車位置推定方法。 used in vehicles,
executed by at least one processor;
a second driving environment recognition step of recognizing a driving environment including road markings on a running path of the vehicle from sensing results from a surroundings monitoring sensor (50) that monitors the surroundings of the vehicle;
a second map data acquisition step of acquiring map data including road markings for each area;
The degree of similarity between the road markings on the route of the vehicle recognized in the second driving environment recognition step and the road markings in the area estimated to be the driving area of the vehicle acquired in the second map data acquisition step is also determined. and a second position estimation step of estimating the traveling position of the vehicle on the road.
少なくとも1つのプロセッサにより実行される、
前記車両の周辺を撮影する周辺監視カメラでの撮影画像から、前記車両の走路における前記撮影画像内の空の領域の割合である空領域率及び撮像画像内の構造物の割合である構造物率の少なくともいずれかである対象比率を含む走行環境を認識する第3走行環境認識工程と、
領域別の前記対象比率を含む地図データを取得する第3地図データ取得工程と、
前記第3走行環境認識工程で認識する前記車両の前記対象比率と、前記第3地図データ取得工程で取得する、前記車両の走行領域と推定される領域の前記対象比率との、類似度合いをもとに、道路上の前記車両の走行位置を推定する第3位置推定工程とを含む自車位置推定方法。 used in vehicles,
executed by at least one processor;
From images captured by a surrounding monitoring camera that captures the surroundings of the vehicle, an empty area ratio, which is the ratio of the empty area in the captured image on the running route of the vehicle, and a structure ratio, which is the ratio of structures in the captured image. a third driving environment recognition step of recognizing a driving environment including a target ratio that is at least one of the following;
a third map data acquisition step of acquiring map data including the target ratio for each area;
The degree of similarity between the target ratio of the vehicle recognized in the third driving environment recognition step and the target ratio of the area estimated to be the driving area of the vehicle acquired in the third map data acquisition step is also determined. and a third position estimation step of estimating the traveling position of the vehicle on the road.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022128137A JP2024025040A (en) | 2022-08-10 | 2022-08-10 | Vehicle location estimation device and vehicle location estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022128137A JP2024025040A (en) | 2022-08-10 | 2022-08-10 | Vehicle location estimation device and vehicle location estimation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024025040A true JP2024025040A (en) | 2024-02-26 |
Family
ID=90010702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022128137A Pending JP2024025040A (en) | 2022-08-10 | 2022-08-10 | Vehicle location estimation device and vehicle location estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024025040A (en) |
-
2022
- 2022-08-10 JP JP2022128137A patent/JP2024025040A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10431094B2 (en) | Object detection method and object detection apparatus | |
JP6036371B2 (en) | Vehicle driving support system and driving support method | |
JP6859927B2 (en) | Vehicle position estimation device | |
JP2019099138A (en) | Lane-keep auxiliary method and device | |
JP2007316025A (en) | Own vehicle positioning system | |
US11928871B2 (en) | Vehicle position estimation device and traveling position estimation method | |
JP2005257314A (en) | Vehicle position detector | |
US11959752B2 (en) | Vehicular position specification apparatus and vehicular position specification method | |
JP7321035B2 (en) | OBJECT POSITION DETECTION METHOD AND OBJECT POSITION DETECTION DEVICE | |
JP2020057146A (en) | Traveling lane estimation device, traveling lane estimation method, and control program | |
US20210048819A1 (en) | Apparatus and method for determining junction | |
JP6790951B2 (en) | Map information learning method and map information learning device | |
JP2021148581A (en) | Vehicle position identification device and vehicle position identification method | |
JP7435513B2 (en) | Vehicle control device and vehicle control method | |
EP3835724B1 (en) | Self-location estimation method and self-location estimation device | |
JP2024025040A (en) | Vehicle location estimation device and vehicle location estimation method | |
KR20230018005A (en) | Device and Method for Generating Lane Information | |
JP7572980B2 (en) | Roadside estimation device, roadside estimation method, and computer program for roadside estimation | |
JP7540455B2 (en) | Vehicle control device, vehicle control method, and vehicle control computer program | |
RU2777308C1 (en) | Method for estimating one's own location and apparatus for estimating one's own location | |
US20230086589A1 (en) | Vehicle position estimation device | |
JP2023169631A (en) | Vehicle control device, vehicle control method and computer program for vehicle control | |
JP7241582B2 (en) | MOBILE POSITION DETECTION METHOD AND MOBILE POSITION DETECTION SYSTEM | |
US20240067211A1 (en) | Method and apparatus for operating a vehicle for highly automated driving, and vehicle for highly automated driving | |
JP2023118462A (en) | Road end estimation device, road end estimation method, and road end estimation computer program |