JP2024025040A - Vehicle location estimation device and vehicle location estimation method - Google Patents

Vehicle location estimation device and vehicle location estimation method Download PDF

Info

Publication number
JP2024025040A
JP2024025040A JP2022128137A JP2022128137A JP2024025040A JP 2024025040 A JP2024025040 A JP 2024025040A JP 2022128137 A JP2022128137 A JP 2022128137A JP 2022128137 A JP2022128137 A JP 2022128137A JP 2024025040 A JP2024025040 A JP 2024025040A
Authority
JP
Japan
Prior art keywords
vehicle
road
map data
driving
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022128137A
Other languages
Japanese (ja)
Inventor
俊也 熊野
Toshiya Kumano
健 式町
Takeshi Shikimachi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2022128137A priority Critical patent/JP2024025040A/en
Publication of JP2024025040A publication Critical patent/JP2024025040A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

To enable more accurate estimation of a traveling position of an own vehicle on a road even at locations other than intersections.SOLUTION: A vehicle location estimation device includes: a traveling environment recognition unit 102 that is used in a vehicle to recognize a traveling environment including the number of lanes on a travel path for a vehicle from sensing results of a peripheral monitoring sensor 50 that monitors the periphery of the vehicle; a map data acquiring unit 104 that acquires map data including the number of lanes on a road for each area; and a position estimation unit 107 that estimates a traveling position of the vehicle on the road on the basis of the degree of similarity between the number of lanes on the travel path of the vehicle recognized by the traveling environment recognition unit 102 and the number of lanes in the area estimated to be a traveling area of the vehicle acquired by the map data acquiring unit 104.SELECTED DRAWING: Figure 1

Description

本開示は、道路上における自車の走行位置を推定するための自車位置推定装置及び自車位置推定方法に関するものである。 The present disclosure relates to a vehicle position estimating device and a vehicle position estimation method for estimating the traveling position of a vehicle on a road.

経路案内に用いる地図よりも詳細な高精度地図を用いて自動運転を行う技術が知られている。高精度地図が整備された道路(以下、地図整備済道路)と高精度地図が整備されていない道路(以下、地図未整備道路)とは、混在することが考えられる。地図整備済道路と地図未整備道路とが互いに近くに沿って位置する場合、自車がどちらの道路に位置するか誤判断しやすくなる。また、この誤判断が生じると、自動運転を精度良く行うことが難しくなる。 BACKGROUND ART There is a known technology for autonomous driving using high-precision maps that are more detailed than maps used for route guidance. It is conceivable that roads with high-definition maps (hereinafter referred to as mapped roads) and roads without high-definition maps (hereinafter referred to as unmapped roads) coexist. When a mapped road and an unmapped road are located close to each other, it is easy to misjudge which road the vehicle is located on. Moreover, when this misjudgment occurs, it becomes difficult to perform automatic driving with high accuracy.

これに対して、特許文献1には、自車両の走行路が高架道路か高架下道路かを正しく判定することを試みた技術が開示されている。特許文献1には、区画線の不連続区間の長さが閾値以上か否かで、自車両の走行路が高架道路か高架下道路かを判定することが開示されている。区画線の不連続区間の長さは、交差点で撮影した画像データからパターン認識処理によって判定する。また、特許文献1には、交差点の標識の一致性に基づいて、自車両の走行路が高架道路か高架下道路かを判定することが開示されている。交差点の標識の一致性は、交差点の路上の標識のパターンと、交差点で撮影された画像データとをマッチングすることで判定する。 On the other hand, Patent Document 1 discloses a technique that attempts to correctly determine whether the vehicle is traveling on an elevated road or an elevated road. Patent Document 1 discloses that it is determined whether the vehicle is traveling on an elevated road or a road under an elevated road based on whether the length of a discontinuous section of a marking line is equal to or greater than a threshold value. The length of the discontinuous section of the marking line is determined by pattern recognition processing from image data taken at an intersection. Further, Patent Document 1 discloses that it is determined whether the vehicle is traveling on an elevated road or an elevated road based on the consistency of intersection signs. The consistency of the intersection signs is determined by matching the pattern of the signs on the road at the intersection with the image data taken at the intersection.

特開2008-164506号公報Japanese Patent Application Publication No. 2008-164506

特許文献1に開示の技術では、交差点に特徴的な要素を利用するので、交差点以外では、自車両の走行路が高架道路か高架下道路かの判定精度が低下してしまう。 Since the technique disclosed in Patent Document 1 utilizes elements characteristic of intersections, the accuracy of determining whether the vehicle is traveling on an elevated road or an elevated road outside the intersection is reduced.

この開示の1つの目的は、交差点以外の場所であっても、道路上における自車の走行位置をより精度良く推定することを可能にする自車位置推定装置及び自車位置推定方法を提供することにある。 One purpose of this disclosure is to provide a vehicle position estimating device and a vehicle position estimation method that enable more accurate estimation of the traveling position of a vehicle on a road even at locations other than intersections. There is a particular thing.

上記目的は独立請求項に記載の特徴の組み合わせにより達成され、また、下位請求項は、開示の更なる有利な具体例を規定する。特許請求の範囲に記載した括弧内の符号は、1つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。 The object is achieved by the combination of features recited in the independent claims, and the subclaims define further advantageous embodiments of the disclosure. The numerals in parentheses described in the claims indicate correspondence with specific means described in the embodiments described later as one aspect, and do not limit the technical scope of the present disclosure. .

上記目的を達成するために、本開示の第1の自車位置推定装置は、車両で用いられ、車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、車両の走路の車線数を含む走行環境を認識する走行環境認識部(102)と、領域別の道路の車線数を含む地図データを取得する地図データ取得部(104)と、走行環境認識部で認識する車両の走路の車線数と、地図データ取得部で取得する、車両の走行領域と推定される領域の車線数との、類似度合いをもとに、道路上の車両の走行位置を推定する位置推定部(107)とを備える。 In order to achieve the above object, a first vehicle position estimating device of the present disclosure calculates the number of lanes of the vehicle's driving route from the sensing results of a surroundings monitoring sensor (50) used in the vehicle to monitor the surroundings of the vehicle. a driving environment recognition unit (102) that recognizes the driving environment including the number of road lanes; a map data acquisition unit (104) that acquires map data including the number of road lanes for each region; a position estimation unit (107) that estimates the driving position of the vehicle on the road based on the degree of similarity between the number of lanes and the number of lanes in the area estimated to be the driving area of the vehicle acquired by the map data acquisition unit; Equipped with.

上記目的を達成するために、本開示の第1の自車位置推定方法は、車両で用いられ、少なくとも1つのプロセッサにより実行される、車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、車両の走路の車線数を含む走行環境を認識する第1走行環境認識工程と、領域別の道路の車線数を含む地図データを取得する第1地図データ取得工程と、第1走行環境認識工程で認識する車両の走路の車線数と、第1地図データ取得工程で取得する、車両の走行領域と推定される領域の車線数との、類似度合いをもとに、道路上の車両の走行位置を推定する第1位置推定工程とを含む。 In order to achieve the above object, a first self-vehicle position estimating method of the present disclosure includes sensing using a surroundings monitoring sensor (50) that is used in a vehicle and is executed by at least one processor and that monitors the surroundings of the vehicle. A first driving environment recognition step that recognizes the driving environment including the number of lanes on the road on which the vehicle travels based on the results; a first map data acquisition step that acquires map data including the number of lanes on the road for each area; and a first driving environment. Based on the degree of similarity between the number of lanes on the vehicle's driving path recognized in the recognition process and the number of lanes in the area estimated to be the vehicle's driving area acquired in the first map data acquisition process, the number of lanes on the road is determined. and a first position estimation step of estimating the traveling position.

車線数は、交差点に限らない要素である。よって、周辺監視センサでのセンシング結果から認識した車線数と、地図データに含まれる領域別の車線数との類似度合いをもとに車両の走行位置を推定することで、交差点以外の場所であっても、自車の道路上における走行位置をより精度良く推定することが可能になる。 The number of lanes is a factor not limited to intersections. Therefore, by estimating the vehicle's driving position based on the degree of similarity between the number of lanes recognized from the sensing results of the surrounding monitoring sensor and the number of lanes for each area included in the map data, it is possible to estimate the vehicle's driving position at a location other than an intersection. This makes it possible to more accurately estimate the driving position of the own vehicle on the road.

上記目的を達成するために、本開示の第2の自車位置推定装置は、車両で用いられ、車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、車両の走路の道路標示を含む走行環境を認識する走行環境認識部(102a)と、領域別の道路標示を含む地図データを取得する地図データ取得部(104a)と、走行環境認識部で認識する車両の走路の道路標示と、地図データ取得部で取得する、車両の走行領域と推定される領域の道路標示との、類似度合いをもとに、道路上の車両の走行位置を推定する位置推定部(107a)とを備える。 In order to achieve the above object, a second own vehicle position estimating device of the present disclosure detects road markings on the route of the vehicle based on sensing results from a surroundings monitoring sensor (50) used in the vehicle to monitor the surroundings of the vehicle. a driving environment recognition unit (102a) that recognizes a driving environment including road markings, a map data acquisition unit (104a) that acquires map data including road markings for each region, and road markings of a vehicle running route recognized by the driving environment recognition unit. and a position estimating unit (107a) that estimates the driving position of the vehicle on the road based on the degree of similarity between the road marking in the area estimated to be the driving area of the vehicle, which is acquired by the map data acquisition unit. Be prepared.

上記目的を達成するために、本開示の第2の自車位置推定方法は、車両で用いられ、少なくとも1つのプロセッサにより実行される、車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、車両の走路の路面標示を含む走行環境を認識する第2走行環境認識工程と、領域別の道路標示を含む地図データを取得する第2地図データ取得工程と、第2走行環境認識工程で認識する車両の走路の道路標示と、第2地図データ取得工程で取得する、車両の走行領域と推定される領域の道路標示との、類似度合いをもとに、道路上の車両の走行位置を推定する第2位置推定工程とを含む。 In order to achieve the above object, a second self-vehicle position estimation method of the present disclosure includes sensing using a surroundings monitoring sensor (50) that is used in a vehicle and is executed by at least one processor and that monitors the surroundings of the vehicle. A second driving environment recognition step that recognizes the driving environment including road markings of the vehicle's route from the results, a second map data acquisition step that acquires map data including road markings for each area, and a second driving environment recognition step. The driving position of the vehicle on the road is determined based on the degree of similarity between the road markings on the route of the vehicle recognized in the second map data acquisition step and the road markings in the area estimated to be the driving area of the vehicle acquired in the second map data acquisition step. and a second position estimating step of estimating the position.

道路標示は、交差点に限らない要素である。よって、周辺監視センサでのセンシング結果から認識した道路標示と、地図データに含まれる領域別の道路標示との類似度合いをもとに車両の走行位置を推定することで、交差点以外の場所であっても、車両の道路上における走行位置をより精度良く推定することが可能になる。 Road markings are elements that are not limited to intersections. Therefore, by estimating the vehicle's driving position based on the degree of similarity between the road markings recognized from the sensing results of the surrounding monitoring sensor and the road markings for each area included in the map data, it is possible to estimate the driving position of the vehicle based on the degree of similarity between the road markings recognized from the sensing results of the surrounding monitoring sensor and the road markings for each area included in the map data. Therefore, it becomes possible to estimate the driving position of the vehicle on the road with higher accuracy.

上記目的を達成するために、本開示の第3の自車位置推定装置は、車両で用いられ、車両の周辺を撮影する周辺監視カメラでの撮影画像から、車両の走路における撮影画像内の空の領域の割合である空領域率及び撮像画像内の構造物の割合である構造物率の少なくともいずれかである対象比率を含む走行環境を認識する走行環境認識部(102b)と、領域別の対象比率を含む地図データを取得する地図データ取得部(104b)と、走行環境認識部で認識する車両の対象比率と、地図データ取得部で取得する、車両の走行領域と推定される領域の対象比率との、類似度合いをもとに、道路上の車両の走行位置を推定する位置推定部(107b)とを備える。 In order to achieve the above object, a third self-vehicle position estimating device of the present disclosure is used in a vehicle, and calculates the sky in the captured image on the running route of the vehicle from the captured image with a surrounding surveillance camera that captures the surroundings of the vehicle. a driving environment recognition unit (102b) that recognizes a driving environment that includes a target ratio that is at least one of a sky area ratio that is the ratio of the area in the captured image and a structure ratio that is the ratio of the structures in the captured image; A map data acquisition unit (104b) that acquires map data including the target ratio, the target ratio of the vehicle recognized by the driving environment recognition unit, and the target of the area estimated to be the vehicle driving area acquired by the map data acquisition unit. The vehicle includes a position estimating unit (107b) that estimates the traveling position of the vehicle on the road based on the degree of similarity with the ratio.

上記目的を達成するために、本開示の第3の自車位置推定方法は、車両で用いられ、少なくとも1つのプロセッサにより実行される、車両の周辺を撮影する周辺監視カメラでの撮影画像から、車両の走路における撮影画像内の空の領域の割合である空領域率及び撮像画像内の構造物の割合である構造物率の少なくともいずれかである対象比率を含む走行環境を認識する第3走行環境認識工程と、領域別の対象比率を含む地図データを取得する第3地図データ取得工程と、第3走行環境認識工程で認識する車両の対象比率と、第3地図データ取得工程で取得する、車両の走行領域と推定される領域の対象比率との、類似度合いをもとに、道路上の車両の走行位置を推定する第3位置推定工程とを含む。 In order to achieve the above object, a third self-vehicle position estimating method of the present disclosure uses images captured by a surroundings monitoring camera that is used in a vehicle and executed by at least one processor, and captures images of the surroundings of the vehicle. A third run that recognizes a driving environment that includes a target ratio that is at least one of the empty area ratio that is the ratio of the sky area in the captured image on the vehicle travel path and the structure ratio that is the ratio of structures in the captured image. an environment recognition step, a third map data acquisition step for acquiring map data including target ratios for each area, target ratios of vehicles recognized in the third driving environment recognition step, and acquired in the third map data acquisition step; and a third position estimating step of estimating the driving position of the vehicle on the road based on the degree of similarity between the driving area of the vehicle and the target ratio of the estimated area.

空領域率及び構造物率の少なくともいずれかである対象比率は、交差点に限らない要素である。よって、周辺監視センサでのセンシング結果から認識した対象比率と、地図データに含まれる領域別の対象比率との類似度合いをもとに車両の走行位置を推定することで、交差点以外の場所であっても、車両の道路上における走行位置をより精度良く推定することが可能になる。また、撮像画像そのものでなく、画像内の割合である対象比率を用いるので、記憶量及び処理量を削減することも可能になる。 The target ratio, which is at least one of the empty area ratio and the structure ratio, is a factor that is not limited to intersections. Therefore, by estimating the vehicle's driving position based on the degree of similarity between the target ratio recognized from the sensing results of the surrounding monitoring sensor and the target ratio for each area included in the map data, it is possible to estimate the vehicle's driving position at a location other than an intersection. Therefore, it becomes possible to estimate the traveling position of the vehicle on the road with higher accuracy. Furthermore, since the target ratio, which is the ratio within the image, is used instead of the captured image itself, it is also possible to reduce the amount of storage and processing.

車両用システム1の概略的な構成の一例を示す図である。1 is a diagram showing an example of a schematic configuration of a vehicle system 1. FIG. 信頼度特定部106での信頼度の特定について説明する図である。FIG. 3 is a diagram illustrating the identification of reliability by the reliability identification unit 106. FIG. 信頼度特定部106での信頼度の特定について説明する図である。FIG. 3 is a diagram illustrating the identification of reliability by the reliability identification unit 106. FIG. 自車位置推定装置10での位置推定関連処理の流れの一例を示すフローチャートである。3 is a flowchart illustrating an example of the flow of position estimation related processing in the own vehicle position estimation device 10. FIG. 車両用システム1aの概略的な構成の一例を示す図である。It is a figure showing an example of rough composition of system 1a for vehicles. 自車位置推定装置10aでの位置推定関連処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of position estimation related processing in self-vehicle position estimation device 10a. 車両用システム1bの概略的な構成の一例を示す図である。It is a diagram showing an example of a schematic configuration of a vehicle system 1b. 自車位置推定装置10bでの位置推定関連処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of position estimation related processing in self-vehicle position estimation device 10b.

図面を参照しながら、開示のための複数の実施形態を説明する。なお、説明の便宜上、複数の実施形態の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態における説明を参照することができる。 Several embodiments for disclosure will be described with reference to the drawings. For convenience of explanation, parts having the same functions as those shown in the figures used in the previous explanations are given the same reference numerals in multiple embodiments, and the explanation thereof may be omitted. be. For parts with the same reference numerals, the descriptions in other embodiments can be referred to.

(実施形態1)
<車両用システム1の概略構成>
以下、本開示の実施形態1について図面を用いて説明する。図1に示す車両用システム1は、運転者の運転操作を支援する運転支援機能を備える車両で用いられる。ここで言うところの運転支援機能には、運転者の運転操作を代行する自動運転の機能も含まれる構成としてもよい。運転支援の一例としては、車線維持のためのステアリング補正等が挙げられる。以下では、車両用システム1が、運転支援機能として自動運転機能を有する自動運転車両で用いられる場合を例に挙げて説明する。
(Embodiment 1)
<Schematic configuration of vehicle system 1>
Embodiment 1 of the present disclosure will be described below with reference to the drawings. A vehicle system 1 shown in FIG. 1 is used in a vehicle equipped with a driving support function that supports a driver's driving operations. The driving support function referred to here may also include an automatic driving function that performs driving operations for the driver. An example of driving support includes steering correction for lane maintenance. Below, the case where the vehicle system 1 is used in an automatic driving vehicle having an automatic driving function as a driving support function will be described as an example.

車両用システム1は、図1に示すように、自車位置推定装置10、GNSS受信機20、車両状態センサ30、通信モジュール40、周辺監視センサ50、及び自動運転ECU60を含んでいる。自車位置推定装置10は、車両用システム1に含まれる他の機器と、車内LANを介して接続されてもよい。以下では、車両用システム1を用いる車両を自車と呼ぶ。車両用システム1を用いる車両は、必ずしも自動車に限るものではないが、以下では自動車に用いる場合を例に挙げて説明を行う。 As shown in FIG. 1, the vehicle system 1 includes a vehicle position estimation device 10, a GNSS receiver 20, a vehicle condition sensor 30, a communication module 40, a surrounding monitoring sensor 50, and an automatic driving ECU 60. The vehicle position estimation device 10 may be connected to other devices included in the vehicle system 1 via an in-vehicle LAN. Hereinafter, the vehicle using the vehicle system 1 will be referred to as the own vehicle. Although the vehicle using the vehicle system 1 is not necessarily limited to an automobile, the following description will be given using an example of use in an automobile.

GNSS受信機20は、複数の測位衛星からの測位信号を受信する。GNSS受信機20は、この測位信号をもとに、自車の現在位置を示す座標情報を逐次特定する。GNSS受信機20は、特定した座標情報を自車位置推定装置10に出力する。座標情報としては、緯度,経度,高度を示す座標情報とすればよい。 The GNSS receiver 20 receives positioning signals from multiple positioning satellites. Based on this positioning signal, the GNSS receiver 20 sequentially identifies coordinate information indicating the current position of the own vehicle. The GNSS receiver 20 outputs the specified coordinate information to the own vehicle position estimation device 10. The coordinate information may be coordinate information indicating latitude, longitude, and altitude.

車両状態センサ30は、自車の各種状態を検出するためのセンサ群である。車両状態センサ30としては、車速センサ,ヨーレートセンサ等が挙げられる。車速センサは、自車の車速を検出する。ヨーレートセンサは、自車の垂直軸周りの回転角速度であるヨーレートを検出する。 The vehicle condition sensor 30 is a group of sensors for detecting various conditions of the own vehicle. Examples of the vehicle condition sensor 30 include a vehicle speed sensor, a yaw rate sensor, and the like. The vehicle speed sensor detects the vehicle speed of the own vehicle. The yaw rate sensor detects the yaw rate, which is the rotational angular velocity of the own vehicle around the vertical axis.

通信モジュール40は、自車の外部のサーバとの間で公衆通信網を介して情報の送受信を行う。通信モジュール40は、地図データが格納されたサーバ(以下、地図サーバ)から地図データをダウンロードする。通信モジュール40は、地図データとして、いわゆる高精度地図データを取得すればよい。ここで言うところの高精度地図データとは、道路構造及び道路沿いに配置されている地物についての位置座標等を、自動運転に利用可能な精度で示す地図データである。 The communication module 40 transmits and receives information to and from a server external to the own vehicle via a public communication network. The communication module 40 downloads map data from a server storing map data (hereinafter referred to as a map server). The communication module 40 may acquire so-called high-precision map data as the map data. The high-precision map data referred to here is map data that indicates the road structure and the position coordinates of features arranged along the road with an accuracy that can be used for automatic driving.

高精度地図データは、例えば、道路の3次元形状データ,車線データ等を備える。道路の3次元形状データには、複数の道路が交差,合流,分岐する地点(以下、ノード)に関するノードデータが含まれる。道路の3次元形状データには、そのノード間を結ぶ道路区間(以下、リンク)に関するリンクデータが含まれる。リンクデータには、道路の幅員等の情報を含むものとする。車線データは、車線数,車線ごとの区画線の設置位置情報、車線ごとの進行方向,車線レベルでの分岐/合流地点等の情報を含むものとする。区画線及び道路端の位置情報は、座標群(つまり点群)として表現されているものとすればよい。なお、他の態様として、区画線及び道路端の位置情報が多項式表現されている構成としてもよい。 The high-precision map data includes, for example, three-dimensional shape data of roads, lane data, and the like. The three-dimensional shape data of roads includes node data regarding points (hereinafter referred to as nodes) where a plurality of roads intersect, merge, or diverge. The three-dimensional shape data of a road includes link data regarding road sections (hereinafter referred to as links) connecting the nodes. The link data shall include information such as road width. The lane data includes information such as the number of lanes, information on the installation position of partition lines for each lane, the direction of travel for each lane, and branching/merging points at the lane level. The positional information of the lane markings and road edges may be expressed as a coordinate group (that is, a point group). In addition, as another aspect, the position information of the lane markings and road edges may be expressed as polynomials.

周辺監視センサ50は、自車の周辺を監視する自律センサである。周辺監視センサ50は、周辺監視カメラ,ミリ波レーダ,ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)等とすればよい。周辺監視カメラは、自車周囲の所定範囲を撮像する。ミリ波レーダ,ソナー,LIDARは、自車周囲の所定範囲に探査波を送信する。以下では、ミリ波レーダ,ソナー,LIDARを探査波センサと呼ぶ。周辺監視カメラは、逐次撮像する撮像画像をセンシング情報として自車位置推定装置10へ逐次出力する。探査波センサは、障害物によって反射された反射波を受信した場合に得られる受信信号に基づく走査結果をセンシング情報として自車位置推定装置10へ逐次出力する。本実施形態では、周辺監視センサ50が、周辺監視カメラである場合を例に挙げて説明する。例えば周辺監視センサ50は、撮像範囲に自車前方の路面を含む前方カメラとすればよい。 The surroundings monitoring sensor 50 is an autonomous sensor that monitors the surroundings of the own vehicle. The surrounding monitoring sensor 50 may be a surrounding monitoring camera, millimeter wave radar, sonar, LIDAR (Light Detection and Ranging/Laser Imaging Detection and Ranging), or the like. The surrounding surveillance camera images a predetermined area around the vehicle. Millimeter wave radar, sonar, and LIDAR transmit search waves to a predetermined range around the vehicle. Hereinafter, millimeter wave radar, sonar, and LIDAR will be referred to as exploration wave sensors. The surrounding surveillance camera sequentially outputs captured images that are captured one after another to the own vehicle position estimation device 10 as sensing information. The search wave sensor sequentially outputs a scanning result based on a received signal obtained when receiving a reflected wave reflected by an obstacle to the own vehicle position estimating device 10 as sensing information. In this embodiment, a case where the surroundings monitoring sensor 50 is a surroundings monitoring camera will be described as an example. For example, the surroundings monitoring sensor 50 may be a front camera whose imaging range includes the road surface in front of the vehicle.

自動運転ECU60は、自動運転に関する処理を実行する電子制御装置である。自動運転ECU60は、自車位置推定装置10で推定する自車の詳細位置を用いて、自動運転に関する処理を実行する。自動運転に関する処理の一例として、自車を自動で走行車線に沿って走行させる処理が挙げられる。 The automatic driving ECU 60 is an electronic control device that executes processes related to automatic driving. The automatic driving ECU 60 uses the detailed position of the own vehicle estimated by the own vehicle position estimating device 10 to execute processing related to automatic driving. An example of a process related to automatic driving is a process of automatically driving the own vehicle along a driving lane.

自車位置推定装置10は、例えばプロセッサ、メモリ、I/O、これらを接続するバスを備える。自車位置推定装置10は、メモリに記憶された制御プログラムを実行することで自車の詳細位置の推定に関する処理(以下、詳細位置推定関連処理)を実行する。ここで言うところのメモリは、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、半導体メモリ又は磁気ディスクなどによって実現される。以下で、自車位置推定装置10について詳述する。 The own vehicle position estimating device 10 includes, for example, a processor, a memory, an I/O, and a bus that connects these. The own vehicle position estimating device 10 performs processing related to estimating the detailed position of the own vehicle (hereinafter referred to as detailed position estimation related processing) by executing a control program stored in a memory. Memory as used herein is a non-transitory tangible storage medium that non-temporarily stores computer-readable programs and data. Further, the non-transitional physical storage medium is realized by a semiconductor memory, a magnetic disk, or the like. The vehicle position estimation device 10 will be described in detail below.

<自車位置推定装置10の概略構成>
続いて、自車位置推定装置10の概略構成の一例を説明する。自車位置推定装置10は、図1に示すように、周辺情報取得部101、走行環境認識部102、測位部103、地図データ取得部104、マップマッチング(以下、MM)部105、信頼度特定部106、及び位置推定部107を機能ブロックとして備えている。コンピュータによって自車位置推定装置10の各機能ブロックの処理が実行されることが、自車位置推定方法が実行されることに相当する。なお、自車位置推定装置10が実行する機能の一部又は全部を、1つ或いは複数のIC等によりハードウェア的に構成してもよい。また、自車位置推定装置10が備える機能ブロックの一部又は全部は、プロセッサによるソフトウェアの実行とハードウェア部材の組み合わせによって実現されてもよい。
<Schematic configuration of vehicle position estimation device 10>
Next, an example of a schematic configuration of the own vehicle position estimating device 10 will be explained. As shown in FIG. 1, the own vehicle position estimation device 10 includes a surrounding information acquisition unit 101, a driving environment recognition unit 102, a positioning unit 103, a map data acquisition unit 104, a map matching (hereinafter referred to as MM) unit 105, and a reliability identification unit. The unit 106 and the position estimation unit 107 are provided as functional blocks. Executing the processing of each functional block of the own vehicle position estimating device 10 by the computer corresponds to executing the own vehicle position estimation method. Note that some or all of the functions executed by the own vehicle position estimating device 10 may be configured in hardware using one or more ICs. Further, some or all of the functional blocks included in the own vehicle position estimating device 10 may be realized by a combination of software execution by a processor and hardware components.

周辺情報取得部101は、周辺監視センサ50で検出したセンシング情報を取得する。本実施形態の例では、周辺監視カメラで撮影された撮影画像を取得する。走行環境認識部102は、周辺情報取得部101で取得したセンシング情報から、自車周辺の走行環境を認識する。走行環境認識部102は、周辺情報取得部101で取得したセンシング情報から、自車の走路の障害物を認識する。障害物には、静止物体,移動体を含む。静止物体には、ビル等の建造物,街灯といった構造物を含む。走行環境認識部102は、周辺情報取得部101で取得したセンシング情報から、自車周辺の走行区画線,道路標示等の路面標示を認識する。 The surrounding information acquisition unit 101 obtains sensing information detected by the surrounding monitoring sensor 50. In the example of this embodiment, a captured image captured by a surroundings monitoring camera is acquired. The driving environment recognition unit 102 recognizes the driving environment around the own vehicle from the sensing information acquired by the surrounding information acquisition unit 101. The driving environment recognition unit 102 recognizes obstacles on the driving path of the own vehicle from the sensing information acquired by the surrounding information acquisition unit 101. Obstacles include stationary objects and moving objects. Stationary objects include structures such as buildings and street lights. The driving environment recognition unit 102 recognizes road markings such as driving markings and road markings around the vehicle from the sensing information acquired by the surrounding information acquisition unit 101.

走行環境認識部102は、周辺監視カメラで撮影された撮像画像に対して、パターン認識処理を行うことで、路面標示を認識すればよい。走行環境認識部102は、走行区画線を認識することで、自車の走路の車線数も認識するものとすればよい。走行環境認識部102は、走行区画線を認識することで、自車の走路における道路幅も認識することが好ましい。道路幅は、いわゆる道路幅員にあたる。道路幅とは、道路に複数車線が存在する場合には、複数車線からなる道路の幅にあたる。この走行環境認識部102での処理が、第1走行環境認識工程に相当する。走行環境認識部102は、走行区画線を認識することで、自車の走路における車線別の車線幅も認識することが好ましい。道路に複数車線が存在しない場合には、車線幅は道路幅と同じとすればよい。 The driving environment recognition unit 102 may recognize road markings by performing pattern recognition processing on a captured image taken by a surrounding monitoring camera. The driving environment recognition unit 102 may recognize the number of lanes on the road on which the vehicle is traveling by recognizing the lane markings. It is preferable that the driving environment recognition unit 102 also recognizes the width of the road on which the vehicle is traveling by recognizing the lane markings. The road width corresponds to the so-called road width. Road width corresponds to the width of a road consisting of multiple lanes when multiple lanes exist on the road. This process in the driving environment recognition unit 102 corresponds to a first driving environment recognition step. It is preferable that the driving environment recognition unit 102 also recognizes the lane width of each lane on the driving path of the own vehicle by recognizing the driving lane markings. If a road does not have multiple lanes, the lane width may be the same as the road width.

測位部103は、グローバル座標系における自車の大まかな現在位置を推定する。グローバル座標系における自車の大まかな現在位置を、以下では概略位置と呼ぶ。測位部103は、GNSS受信機20から取得する座標情報と、車両状態センサ30から取得する自車の車速,ヨーレート等から、概略位置を推定すればよい。なお、測位部103は、自車位置推定装置10に含まれない構成であっても構わない。この構成を採用する場合には、自車位置推定装置10の外部に設けられた、測位部103の機能を有するユニットから、自車位置推定装置10が概略位置を取得する構成とすればよい。 The positioning unit 103 estimates the approximate current position of the own vehicle in the global coordinate system. The approximate current position of the own vehicle in the global coordinate system is hereinafter referred to as the approximate position. The positioning unit 103 may estimate the approximate position from the coordinate information obtained from the GNSS receiver 20 and the vehicle speed, yaw rate, etc. of the own vehicle obtained from the vehicle state sensor 30. Note that the positioning unit 103 may be configured not to be included in the own vehicle position estimation device 10. When adopting this configuration, the vehicle position estimation device 10 may acquire the approximate position from a unit provided outside the vehicle position estimation device 10 and having the function of the positioning section 103.

地図データ取得部104は、領域別の道路の車線数を含む地図データを取得する。領域別とは、リンク別等とすればよい。この地図データ取得部104での処理が第1地図データ取得工程に相当する。地図データ取得部104は、領域別の道路幅も含む地図データを取得することが好ましい。地図データ取得部104は、領域別の車線ごとの車線幅も含む地図データを取得することが好ましい。 The map data acquisition unit 104 acquires map data including the number of road lanes for each area. By area, it may be by link, etc. This process in the map data acquisition unit 104 corresponds to a first map data acquisition step. It is preferable that the map data acquisition unit 104 acquires map data that also includes road widths for each region. It is preferable that the map data acquisition unit 104 acquires map data that also includes lane widths for each lane in each region.

地図データ取得部104は、通信モジュール40を介して、自車周辺の地図データを地図サーバから取得すればよい。地図データ取得部104は、測位部103で測位した概略位置から所定距離内の地図データを取得すればよい。また、地図データが区画単位で区分して管理されるものである場合には、自車の概略位置が含まれる区画についての地図データを取得してもよい。例えば、自車に地図データを格納するデータベースを搭載している場合には、地図データ取得部104は、地図データをこのデータベースから取得してもよい。 The map data acquisition unit 104 may acquire map data around the vehicle from the map server via the communication module 40 . The map data acquisition unit 104 may acquire map data within a predetermined distance from the approximate position determined by the positioning unit 103. Furthermore, if the map data is managed by dividing it into sections, map data about the section including the approximate position of the own vehicle may be acquired. For example, if the vehicle is equipped with a database that stores map data, the map data acquisition unit 104 may acquire the map data from this database.

MM部105は、測位部103で推定した概略位置と、地図データ取得部104で取得した地図データとをもとに、マップマッチング処理を行う。マップマッチング処理では、時系列に並んだ概略位置から特定される走行軌跡を、電子地図の道路上にマッチングさせる。そして、電子地図の道路上に位置するように概略位置を校正し、道路上の自車の候補位置を決定する。マップマッチング処理では、互いに近くに沿って位置する道路が存在する場合、誤った道路上に自車の候補位置を決定するおそれがある。互いに近くに沿って位置する道路としては、高架道路と高架下道路とが挙げられる。他にも、高速道路,幹線道路とその側道とが挙げられる。 The MM unit 105 performs map matching processing based on the approximate position estimated by the positioning unit 103 and the map data acquired by the map data acquisition unit 104. In the map matching process, a travel trajectory identified from approximate positions arranged in chronological order is matched with roads on an electronic map. Then, the approximate position is calibrated so that it is located on the road on the electronic map, and a candidate position for the own vehicle on the road is determined. In the map matching process, if there are roads located close to each other, there is a risk that the candidate position of the vehicle will be determined on the wrong road. Examples of roads that are located close to each other include elevated roads and roads under elevated roads. Other examples include expressways, main roads, and their side roads.

信頼度特定部106は、道路上の自車の走行位置の信頼度を特定する。一例として、MM部105でのマッチング処理で候補となった、道路上の自車の走行位置の信頼度を特定する。なお、地図データ取得部104で取得した地図データに含まれない道路が存在する場合もある。つまり、高精度地図が整備されていない道路(以下、地図未整備道路)が存在する場合もある。よって、信頼度特定部106は、未整備道路が存在する場合も仮定し、この未整備道路上の自車の走行位置の信頼度も特定する。信頼度は、例えば確率として表せばよい。 The reliability specifying unit 106 specifies the reliability of the driving position of the own vehicle on the road. As an example, the reliability of the driving position of the own vehicle on the road, which has become a candidate in the matching process in the MM unit 105, is specified. Note that there may be roads that are not included in the map data acquired by the map data acquisition unit 104. In other words, there may be roads for which high-precision maps have not been developed (hereinafter referred to as unmapped roads). Therefore, the reliability specifying unit 106 assumes that an undeveloped road exists, and also specifies the reliability of the driving position of the own vehicle on this undeveloped road. The reliability may be expressed as a probability, for example.

信頼度特定部106は、走行環境認識部102で認識する自車の走路の車線数と、地図データ取得部104で取得する自車の走路の車線数との、類似度合いを特定する。そして、特定した類似度合いをもとに、道路上の自車の走行位置の信頼度を特定する。以下では、走行環境認識部102で認識する自車の走路の車線数を、認識車線数と呼ぶ。以下では、地図データ取得部104で取得する自車の走路の車線数を、地図車線数と呼ぶ。地図データ取得部104で取得する自車の走路の車線数とは、地図データ取得部104で取得する、自車の走行領域と推定される領域の車線数である。自車の走行領域と推定される領域とは、MM部105で決定される候補位置とすればよい。信頼度特定部106は、認識車線数と地図車線数との類似度合いが高くなるのに応じて、信頼度を高く特定する。 The reliability specifying unit 106 specifies the degree of similarity between the number of lanes on the road on which the vehicle is running, which is recognized by the driving environment recognition unit 102, and the number of lanes on the road on which the vehicle is running, which is acquired by the map data acquisition unit 104. Then, based on the identified degree of similarity, the reliability of the driving position of the own vehicle on the road is determined. Hereinafter, the number of lanes on the road on which the host vehicle is traveling, which is recognized by the driving environment recognition unit 102, will be referred to as the number of recognized lanes. Hereinafter, the number of lanes on the road on which the host vehicle is traveling, which is acquired by the map data acquisition unit 104, will be referred to as the number of map lanes. The number of lanes on the driving path of the own vehicle acquired by the map data acquisition unit 104 is the number of lanes in the area estimated to be the driving area of the own vehicle, acquired by the map data acquisition unit 104. The area estimated to be the driving area of the own vehicle may be a candidate position determined by the MM unit 105. The reliability specifying unit 106 specifies a high degree of reliability as the degree of similarity between the number of recognized lanes and the number of map lanes increases.

ここで、図2,図3を用いて、信頼度特定部106での信頼度の特定について説明する。図2,図3の例では、MM部105で2車線の道路R2と3車線の道路R3とのいずれも候補となっているものとする。道路R2と道路R3とは、高精度地図が整備されている道路(以下、地図整備済道路)にあたる。また、信頼度特定部106は、1車線の地図未整備道路R1も仮の候補に含ませるものとする。図2は、認識車線数が2車線の場合の例である。図3は、認識車線数が1車線の場合の例である。 Here, identification of reliability by the reliability identification unit 106 will be explained using FIGS. 2 and 3. In the examples shown in FIGS. 2 and 3, it is assumed that the MM unit 105 has both a two-lane road R2 and a three-lane road R3 as candidates. Road R2 and road R3 correspond to roads on which high-precision maps have been prepared (hereinafter referred to as map-prepared roads). Furthermore, the reliability specifying unit 106 also includes a one-lane unmapped road R1 as a temporary candidate. FIG. 2 is an example where the number of recognized lanes is two. FIG. 3 is an example where the number of recognized lanes is one.

図2に示すように、認識車線数が2車線の場合、信頼度特定部106は、2車線の道路R2の信頼度を最も高く特定する。信頼度特定部106は、3車線の道路R3の信頼度を次に高く特定する。これは、認識車線数が2車線の場合であっても、区画線のかすれ等による3車線の誤認識の可能性があることによる。信頼度特定部106は、認識車線数が2車線の場合、1車線の地図未整備道路R1の信頼度を最も低く特定する。図3に示すように、認識車線数が1車線の場合、信頼度特定部106は、1車線の地図未整備道路R1の信頼度を最も高く特定する。一方、信頼度特定部106は、複数車線である2車線の道路R2及び3車線の道路R3の信頼度を低く特定する。 As shown in FIG. 2, when the number of recognized lanes is two, the reliability identifying unit 106 identifies the two-lane road R2 as having the highest reliability. The reliability specifying unit 106 specifies that the reliability of the three-lane road R3 is the next highest. This is because even if the number of recognized lanes is two, there is a possibility of erroneous recognition of three lanes due to blurred lane markings or the like. When the number of recognized lanes is two, the reliability identifying unit 106 identifies the one-lane unmapped road R1 as having the lowest reliability. As shown in FIG. 3, when the number of recognized lanes is one, the reliability identifying unit 106 identifies the one-lane unmapped road R1 as having the highest reliability. On the other hand, the reliability specifying unit 106 specifies that the reliability of the two-lane road R2 and the three-lane road R3, which are multiple lanes, is low.

信頼度特定部106は、走行環境認識部102で認識する自車の走路の道路幅と、地図データ取得部104で取得する自車の走路の道路幅との、類似度合いも特定すればよい。そして、特定した類似度合いも用いて、道路上の自車の走行位置の信頼度を特定することが好ましい。以下では、走行環境認識部102で認識する自車の走路の道路幅を、認識道路幅と呼ぶ。以下では、地図データ取得部104で取得する自車の走路の道路幅を、地図道路幅と呼ぶ。地図データ取得部104で取得する自車の走路の道路幅とは、地図データ取得部104で取得する、自車の走行領域と推定される領域の道路幅である。信頼度特定部106は、認識道路幅と地図道路幅との類似度合いが高くなるのに応じて、信頼度をより高く補正すればよい。 The reliability specifying unit 106 may also specify the degree of similarity between the road width of the road the own vehicle is running on, which is recognized by the driving environment recognition unit 102, and the road width of the road the own vehicle is running on, which is acquired by the map data obtaining unit 104. It is also preferable to use the identified degree of similarity to identify the reliability of the vehicle's traveling position on the road. Hereinafter, the road width of the road on which the host vehicle is running, which is recognized by the driving environment recognition unit 102, will be referred to as the recognized road width. Hereinafter, the road width of the road on which the host vehicle is traveling, which is obtained by the map data obtaining unit 104, will be referred to as a map road width. The road width of the driving path of the own vehicle acquired by the map data acquisition unit 104 is the road width of the area estimated to be the driving area of the own vehicle, acquired by the map data acquisition unit 104. The reliability specifying unit 106 may correct the reliability to be higher as the degree of similarity between the recognized road width and the map road width increases.

信頼度特定部106は、走行環境認識部102で認識する自車の走路の車線ごとの車線幅のパターンと、地図データ取得部104で取得する自車の走路の車線ごとの車線幅のパターンとの、類似度合いも特定すればよい。車線ごとの車線幅のパターンとは、車線ごとの車線幅の値とその並び順とすればよい。そして、特定した類似度合いも用いて、道路上の自車の走行位置の信頼度を特定することが好ましい。以下では、走行環境認識部102で認識する自車の走路の車線ごとの車線幅のパターンを、認識車線幅パターンと呼ぶ。以下では、地図データ取得部104で取得する自車の走路の車線ごとの車線幅のパターンを、地図車線幅パターンと呼ぶ。地図データ取得部104で取得する自車の走路の車線ごとの車線幅のパターンとは、自車の走行領域と推定される領域の車線ごとの車線幅のパターンである。信頼度特定部106は、認識車線幅パターンと地図車線幅パターンとの類似度合いが高くなるのに応じて、信頼度をより高く補正すればよい。 The reliability identification unit 106 uses the lane width pattern for each lane on the road the own vehicle is running on, which is recognized by the driving environment recognition unit 102, and the lane width pattern for each lane on the road the own vehicle is running on, which is acquired by the map data acquisition unit 104. It is sufficient to specify the degree of similarity between the two. The lane width pattern for each lane may be the lane width value for each lane and the order in which they are arranged. It is also preferable to use the identified degree of similarity to identify the reliability of the vehicle's traveling position on the road. Hereinafter, the lane width pattern for each lane of the road on which the host vehicle is traveling, which is recognized by the driving environment recognition unit 102, will be referred to as a recognized lane width pattern. Hereinafter, the lane width pattern for each lane of the road on which the host vehicle is traveling, which is acquired by the map data acquisition unit 104, will be referred to as a map lane width pattern. The lane width pattern for each lane on the driving path of the own vehicle acquired by the map data acquisition unit 104 is the lane width pattern for each lane in the area estimated to be the driving area of the own vehicle. The reliability specifying unit 106 may correct the reliability to be higher as the degree of similarity between the recognized lane width pattern and the map lane width pattern increases.

なお、信頼度特定部106は、複数車線の道路上のどの車線に自車が位置するかの信頼度を車線ごとにまで細分化して特定してもよい。この場合には、走行環境認識部102で認識する自車周辺の走行区画線の配置をもとに、車線ごとの信頼度を特定すればよい。 Note that the reliability specifying unit 106 may specify the reliability of which lane the vehicle is located on a multi-lane road by dividing it into individual lanes. In this case, the reliability level for each lane may be specified based on the arrangement of the lane markings around the vehicle recognized by the driving environment recognition unit 102.

位置推定部107は、認識車線数と地図車線数との類似度合いをもとに、道路上の自車の走行位置を推定する。この位置推定部107での処理が、第1位置推定工程に相当する。車線数は、交差点に限らない要素である。よって、車線数を利用することで、交差点以外の場所であっても、自車の道路上における走行位置をより精度良く推定することが可能になる。また、車線数は、自動運転で一般的に利用される、周辺監視センサ50での路面を含んだセンシング範囲のセンシング結果から認識可能である。よって、一般的なセンシング範囲以外をセンシング範囲にする技術に比べ、汎用性が高くなる。位置推定部107は、図2の例であれば、道路R2上にマッチングした候補位置を、道路上の自車の走行位置と推定すればよい。位置推定部107は、図3の例であれば、地図未整備道路R1上にあると仮定した候補位置を、道路上の自車の走行位置と推定すればよい。言い換えると、地図未整備道路R1上に自車が位置すると推定すればよい。 The position estimation unit 107 estimates the driving position of the own vehicle on the road based on the degree of similarity between the number of recognized lanes and the number of map lanes. This process in the position estimating unit 107 corresponds to a first position estimating step. The number of lanes is a factor not limited to intersections. Therefore, by using the number of lanes, it is possible to estimate the driving position of the own vehicle on the road with higher accuracy even at locations other than intersections. Further, the number of lanes can be recognized from the sensing results of the sensing range including the road surface by the surrounding monitoring sensor 50, which is generally used in automatic driving. Therefore, it has higher versatility than a technology that uses a sensing range other than the general sensing range. In the example of FIG. 2, the position estimation unit 107 may estimate the matching candidate position on the road R2 as the driving position of the own vehicle on the road. In the example of FIG. 3, the position estimating unit 107 may estimate a candidate position, which is assumed to be on the map-undeveloped road R1, as the driving position of the own vehicle on the road. In other words, it is sufficient to estimate that the vehicle is located on the map-undeveloped road R1.

位置推定部107は、認識道路幅と地図道路幅との類似度合いも用いて、道路上の自車の走行位置を推定することが好ましい。これによれば、車線数だけでは1つの走行位置に絞り込むことが難しい場合であっても、車線幅を用いることで、1つの走行位置に絞りこみやすくなる。また、車線幅は、交差点に限らない要素である。従って、以上の構成によれば、交差点以外の場所であっても、道路上における自車の走行位置をさらに精度良く推定することが可能になる。 Preferably, the position estimating unit 107 estimates the driving position of the own vehicle on the road by also using the degree of similarity between the recognized road width and the map road width. According to this, even if it is difficult to narrow down to one driving position based only on the number of lanes, by using the lane width, it becomes easier to narrow down to one driving position. Furthermore, lane width is an element not limited to intersections. Therefore, according to the above configuration, it is possible to estimate the traveling position of the own vehicle on the road with higher accuracy even at a place other than an intersection.

位置推定部107は、認識車線幅パターンと地図車線幅パターンとの類似度合いも用いて、道路上の自車の走行位置を推定することが好ましい。これによれば、車線数に加えて車線幅を用いることで、1つの走行位置に絞りこみやすくなる。また、車線ごとの車線幅のパターンは、交差点に限らない要素である。従って、以上の構成によれば、交差点以外の場所であっても、道路上における自車の走行位置を非常に精度良く推定することが可能になる。 Preferably, the position estimating unit 107 estimates the driving position of the own vehicle on the road by also using the degree of similarity between the recognized lane width pattern and the map lane width pattern. According to this, by using the lane width in addition to the number of lanes, it becomes easier to narrow down to one driving position. Furthermore, the lane width pattern for each lane is an element not limited to intersections. Therefore, according to the above configuration, it is possible to estimate the traveling position of the own vehicle on the road with high accuracy even at a place other than an intersection.

位置推定部107は、信頼度特定部106で特定した信頼度を用いて、道路上の自車の走行位置を推定することが好ましい。これは、信頼度を、自車の走行位置を確定するか否かの判断に利用することが可能になるためである。 Preferably, the position estimating unit 107 uses the reliability specified by the reliability specifying unit 106 to estimate the traveling position of the own vehicle on the road. This is because the reliability can be used to determine whether or not to determine the driving position of the own vehicle.

自動運転ECU60は、この位置推定部107で推定する自車の走行位置を用いて、自動運転に関する処理を実行する。自動運転ECU60は、地図整備済道路上に自車の走行位置を推定した場合には、この走行位置を用いた自動運転を行わせればよい。自動運転ECU60は、地図未整備道路上に自車の走行位置を推定した場合には、例えば実行可能な自動運転のレベルを下げたり、自動運転を中止させたりすればよい。 The automatic driving ECU 60 uses the driving position of the own vehicle estimated by the position estimation unit 107 to execute processes related to automatic driving. When the automatic driving ECU 60 estimates the driving position of the own vehicle on the map-prepared road, the automatic driving ECU 60 may perform automatic driving using this driving position. When the automatic driving ECU 60 estimates the driving position of the own vehicle on a road without a map, the automatic driving ECU 60 may, for example, lower the level of executable automatic driving or cancel the automatic driving.

なお、位置推定部107は、複数車線の道路上のどの車線に自車が位置するかまで推定してもよい。この場合には、信頼度特定部106で特定する、複数車線の道路上のどの車線に自車が位置するかの信頼度を用いて、推定すればよい。具体的には、自車が位置する信頼度が最も高い車線に自車が位置すると推定すればよい。 Note that the position estimating unit 107 may even estimate in which lane on a multi-lane road the own vehicle is located. In this case, the estimation may be made using the reliability of which lane on the multi-lane road the vehicle is located in, which is specified by the reliability identification unit 106. Specifically, it may be estimated that the vehicle is located in the lane with the highest reliability.

<自車位置推定装置10での位置推定関連処理>
続いて、図4を用いて、自車位置推定装置10での、道路上における自車の走行位置に関する処理(以下、位置推定関連処理)の流れの一例について説明を行う。図4のフローチャートは、例えば、自車のパワースイッチがオンになった場合に開始する構成とすればよい。パワースイッチとは、自車の内燃機関又はモータジェネレータを始動させるためのスイッチである。他にも、自車の自動運転機能がオンに設定されていることも条件に加えてもよい。
<Position estimation related processing in own vehicle position estimation device 10>
Next, an example of the flow of processing related to the traveling position of the own vehicle on the road (hereinafter referred to as position estimation related processing) in the own vehicle position estimation device 10 will be explained using FIG. 4. The flowchart of FIG. 4 may be configured to start, for example, when the power switch of the host vehicle is turned on. The power switch is a switch for starting the internal combustion engine or motor generator of the vehicle. Another condition may be that the self-driving function of the own vehicle is set to on.

まず、ステップS1では、測位部103が、概略位置を推定する。ステップS2では、MM部105が、S1で推定した概略位置と、地図データ取得部104で取得した地図データとをもとに、マップマッチング処理を行う。ステップS3では、信頼度特定部106が、道路上の自車の走行位置の信頼度を特定する。信頼度特定部106は、S2でのマッチング処理で候補となった、道路上の自車の走行位置の信頼度を特定する。また、信頼度特定部106は、未整備道路が存在する場合も仮定し、この未整備道路上の自車の走行位置の信頼度も特定する。 First, in step S1, the positioning unit 103 estimates an approximate position. In step S2, the MM unit 105 performs map matching processing based on the approximate position estimated in S1 and the map data acquired by the map data acquisition unit 104. In step S3, the reliability specifying unit 106 specifies the reliability of the driving position of the own vehicle on the road. The reliability specifying unit 106 specifies the reliability of the driving position of the own vehicle on the road that became a candidate in the matching process in S2. The reliability specifying unit 106 also assumes that an undeveloped road exists, and also specifies the reliability of the driving position of the own vehicle on this undeveloped road.

ステップS4では、位置推定部107が、認識車線数と地図車線数との類似度合いをもとに、道路上の自車の走行位置を絞り込む。ステップS5では、S4で1つの走行位置に絞り込めた場合(S5でYES)には、ステップS9に移る。一方、S4で1つの走行位置に絞り込めなかった場合(S5でNO)には、ステップS6に移る。 In step S4, the position estimation unit 107 narrows down the driving position of the own vehicle on the road based on the degree of similarity between the number of recognized lanes and the number of map lanes. In step S5, if the driving position can be narrowed down to one in S4 (YES in S5), the process moves to step S9. On the other hand, if the driving position cannot be narrowed down to one in S4 (NO in S5), the process moves to step S6.

ステップS6では、位置推定部107が、認識道路幅と地図道路幅との類似度合いをもとに、道路上の自車の走行位置をさらに絞り込む。ステップS7では、S6で1つの走行位置に絞り込めた場合(S7でYES)には、ステップS9に移る。一方、S6で1つの走行位置に絞り込めなかった場合(S7でNO)には、ステップS8に移る。 In step S6, the position estimating unit 107 further narrows down the driving position of the own vehicle on the road based on the degree of similarity between the recognized road width and the map road width. In step S7, if the travel position can be narrowed down to one in S6 (YES in S7), the process moves to step S9. On the other hand, if the driving position cannot be narrowed down to one in S6 (NO in S7), the process moves to step S8.

ステップS8では、位置推定部107が、認識車線幅パターンと地図車線幅パターンとの類似度合いをもとに、道路上の自車の走行位置をさらに絞り込む。S8で1つの走行位置に絞り込めなかった場合でも、信頼度の最も高い道路上の走行位置に絞り込めばよい。ステップS9では、それまでの処理で1つに絞り込んだ道路上の自車の走行位置を、自車の走行位置と推定する。 In step S8, the position estimation unit 107 further narrows down the driving position of the own vehicle on the road based on the degree of similarity between the recognized lane width pattern and the map lane width pattern. Even if it is not possible to narrow down the driving position to one in S8, the driving position can be narrowed down to the driving position on the road with the highest reliability. In step S9, the running position of the own vehicle on the road narrowed down to one in the processing up to that point is estimated as the running position of the own vehicle.

ステップS10では、位置推定関連処理の終了タイミングであった場合(S10でYES)には、位置推定関連処理を終了する。一方、位置推定関連処理の終了タイミングでなかった場合(S10でNO)には、S1に戻って処理を繰り返す。位置推定関連処理の終了タイミングの一例としては、自車のパワースイッチがオフになったことが挙げられる。位置推定関連処理の終了タイミングの一例としては、自動運転機能がオフに切り替わったことも挙げられる。 In step S10, if it is the end timing of the position estimation related process (YES in S10), the position estimation related process is ended. On the other hand, if it is not the end timing of the position estimation related process (NO in S10), the process returns to S1 and repeats the process. An example of the end timing of the position estimation related process is when the power switch of the own vehicle is turned off. An example of the end timing of the position estimation related process is when the automatic driving function is turned off.

図4の例では、車線数,道路幅,車線幅パターンの類似度合いで自車の走行位置を順次絞り込んでいく構成を示したが、必ずしもこれに限らない。例えば、車線数の類似度合いと、道路幅の類似度合いと、車線幅パターンの類似度合いとを総合して、自車の走行位置を絞り込んで推定してもよい。車線数,道路幅,車線幅パターンの類似度合いで自車の走行位置を順次絞り込んでいく構成によれば、まとめて処理を行う場合に比べ、無駄な処理を省略しやすくなる。 In the example of FIG. 4, a configuration is shown in which the driving position of the own vehicle is sequentially narrowed down based on the number of lanes, road width, and degree of similarity of lane width patterns, but this is not necessarily the case. For example, the driving position of the own vehicle may be narrowed down and estimated by integrating the degree of similarity in the number of lanes, the degree of similarity in road width, and the degree of similarity in lane width patterns. According to a configuration in which the driving position of the vehicle is sequentially narrowed down based on the number of lanes, road width, and degree of similarity of lane width patterns, unnecessary processing can be more easily omitted than when processing is performed all at once.

(実施形態2)
実施形態1の構成に限らず、以下の実施形態2の構成としてもよい。以下では、実施形態2の構成の一例について図を用いて説明する。
(Embodiment 2)
The configuration is not limited to the configuration of the first embodiment, but may be the configuration of the second embodiment below. An example of the configuration of Embodiment 2 will be described below with reference to the drawings.

<車両用システム1aの概略構成>
車両用システム1aは、図5に示すように、自車位置推定装置10a、GNSS受信機20、車両状態センサ30、通信モジュール40、周辺監視センサ50、及び自動運転ECU60を含んでいる。車両用システム1aは、自車位置推定装置10の代わりに、自車位置推定装置10aを含む点を除けば、実施形態1の車両用システム1と同様である。
<Schematic configuration of vehicle system 1a>
As shown in FIG. 5, the vehicle system 1a includes a vehicle position estimation device 10a, a GNSS receiver 20, a vehicle status sensor 30, a communication module 40, a surrounding monitoring sensor 50, and an automatic driving ECU 60. The vehicle system 1a is the same as the vehicle system 1 of the first embodiment except that it includes a vehicle position estimation device 10a instead of the vehicle position estimation device 10.

<自車位置推定装置10aの概略構成>
続いて、自車位置推定装置10aの概略構成の一例を説明する。自車位置推定装置10aは、図5に示すように、周辺情報取得部101、走行環境認識部102a、測位部103、地図データ取得部104a、MM部105、信頼度特定部106a、及び位置推定部107aを機能ブロックとして備えている。自車位置推定装置10aは、走行環境認識部102の代わりに走行環境認識部102aを備える。自車位置推定装置10aは、地図データ取得部104の代わりに地図データ取得部104aを備える。自車位置推定装置10aは、信頼度特定部106の代わりに信頼度特定部106aを備える。自車位置推定装置10aは、位置推定部107の代わりに位置推定部107aを備える。自車位置推定装置10aは、これらの点を除けば、実施形態1の自車位置推定装置10と同様である。コンピュータによって自車位置推定装置10aの各機能ブロックの処理が実行されることも、自車位置推定方法が実行されることに相当する。
<Schematic configuration of vehicle position estimation device 10a>
Next, an example of a schematic configuration of the own vehicle position estimating device 10a will be explained. As shown in FIG. 5, the vehicle position estimation device 10a includes a surrounding information acquisition section 101, a driving environment recognition section 102a, a positioning section 103, a map data acquisition section 104a, an MM section 105, a reliability identification section 106a, and a position estimation section. The unit 107a is provided as a functional block. The own vehicle position estimation device 10a includes a driving environment recognition section 102a instead of the driving environment recognition section 102. The own vehicle position estimation device 10a includes a map data acquisition section 104a instead of the map data acquisition section 104. The own vehicle position estimating device 10a includes a reliability specifying section 106a instead of the reliability specifying section 106. The own vehicle position estimating device 10a includes a position estimating section 107a instead of the position estimating section 107. The own vehicle position estimating device 10a is the same as the own vehicle position estimating device 10 of the first embodiment except for these points. Executing the processing of each functional block of the own vehicle position estimating device 10a by the computer also corresponds to executing the own vehicle position estimation method.

走行環境認識部102aは、車線数を認識することが必須である代わりに、道路標示を認識することが必須である点を除けば、実施形態1の走行環境認識部102と同様である。道路標示は、実施形態1で説明した路面標示に含まれる。道路標示は、路面に路面標示用塗料、道路鋲等によって描かれる。道路標示には、規制標示と指示標示とが含まれる。規制標示は、特定の通行方法を制限または指定するものである。指示標示は、特定の通行方法ができること、その区間若しくは場所の道路交通法上の意味、及び通行すべき道路の部分等を示すものである。この走行環境認識部102aでの処理が、第2走行環境認識工程に相当する。走行環境認識部102aで認識する道路標示は、交差点に限らない道路標示が好ましい。このような道路標示として、例えば最高速度の規制表示等が挙げられる。 The driving environment recognition unit 102a is similar to the driving environment recognition unit 102 of the first embodiment, except that it is required to recognize road markings instead of recognizing the number of lanes. The road markings are included in the road markings described in the first embodiment. Road markings are drawn on the road surface using road marking paint, road studs, or the like. Road markings include regulation markings and instruction markings. A restriction sign restricts or specifies a specific way of travel. Directional signs indicate that a particular way of travel is allowed, the meaning of the section or location under the Road Traffic Act, and the part of the road that should be traveled. This process in the driving environment recognition unit 102a corresponds to a second driving environment recognition step. The road markings recognized by the driving environment recognition unit 102a are preferably road markings that are not limited to intersections. Examples of such road markings include maximum speed regulation displays.

地図データ取得部104aは、領域別の道路標示を含む地図データを取得する。地図データ取得部104aは、地図データに領域別の道路標示が含まれることが必須である点を除けば、実施形態1の地図データ取得部104と同様である。領域別とは、リンク別,セグメント別等とすればよい。セグメントとは、リンクを形状点で分割した単位である。この地図データ取得部104aでの処理が第2地図データ取得工程に相当する。地図データに含まれる道路標示は、走行環境認識部102aで認識する道路標示と同様の種類のものとする。 The map data acquisition unit 104a acquires map data including road markings for each area. The map data acquisition unit 104a is similar to the map data acquisition unit 104 of the first embodiment, except that the map data must include road markings for each area. By area, it may be by link, by segment, etc. A segment is a unit in which a link is divided by shape points. This process in the map data acquisition unit 104a corresponds to a second map data acquisition step. The road markings included in the map data are of the same type as the road markings recognized by the driving environment recognition unit 102a.

信頼度特定部106aは、車線数の類似度合いの代わりに、道路標示の類似度合いを用いる点を除けば、実施形態1の信頼度特定部106と同様である。信頼度特定部106aは、走行環境認識部102aで認識する自車の走路の道路標示と、地図データ取得部104aで取得する自車の走路の道路標示との、類似度合いを特定する。そして、特定した類似度合いをもとに、道路上の自車の走行位置の信頼度を特定する。以下では、走行環境認識部102aで認識する自車の走路の道路標示を、認識道路標示と呼ぶ。以下では、地図データ取得部104aで取得する自車の走路の道路標示を、地図道路標示と呼ぶ。地図データ取得部104aで取得する自車の走路の道路標示とは、地図データ取得部104aで取得する、自車の走行領域と推定される領域の道路標示である。自車の走行領域と推定される領域とは、MM部105で決定される候補位置とすればよい。信頼度特定部106aは、認識道路標示と地図道路標示との類似度が高くなるのに応じて、信頼度を高く特定する。 The reliability specifying unit 106a is the same as the reliability specifying unit 106 of the first embodiment, except that the degree of similarity of road markings is used instead of the degree of similarity of the number of lanes. The reliability identifying unit 106a identifies the degree of similarity between the road markings on the route of the own vehicle recognized by the driving environment recognition unit 102a and the road markings on the route of the own vehicle acquired by the map data acquisition unit 104a. Then, based on the identified degree of similarity, the reliability of the driving position of the own vehicle on the road is determined. Hereinafter, the road markings of the driving route of the own vehicle recognized by the driving environment recognition unit 102a will be referred to as recognized road markings. Hereinafter, the road markings of the driving route of the own vehicle obtained by the map data obtaining unit 104a will be referred to as map road markings. The road marking of the driving route of the own vehicle acquired by the map data acquisition unit 104a is the road marking of the area estimated to be the driving area of the own vehicle, acquired by the map data acquisition unit 104a. The area estimated to be the driving area of the own vehicle may be a candidate position determined by the MM unit 105. The reliability specifying unit 106a specifies a higher reliability as the degree of similarity between the recognized road marking and the map road marking increases.

位置推定部107aは、認識車線数と地図車線数との類似度合いの代わりに、認識道路標示と地図道路標示との類似度合いを用いる点を除けば、実施形態1の位置推定部107と同様である。この位置推定部107aでの処理が、第2位置推定工程に相当する。道路標示は、交差点以外にも配置されやすい要素である。よって、道路標示を利用することで、交差点以外の場所であっても、自車の道路上における走行位置をより精度良く推定することが可能になる。また、道路標示は、自動運転で一般的に利用される、周辺監視センサ50での路面を含んだセンシング範囲のセンシング結果から認識可能である。よって、一般的なセンシング範囲以外をセンシング範囲にする技術に比べ、汎用性が高くなる。 The position estimating unit 107a is similar to the position estimating unit 107 of the first embodiment, except that the degree of similarity between the recognized road markings and the map road markings is used instead of the degree of similarity between the number of recognized lanes and the number of map lanes. be. This process in the position estimating section 107a corresponds to a second position estimating step. Road markings are elements that are likely to be placed at locations other than intersections. Therefore, by using road markings, it is possible to estimate the driving position of the own vehicle on the road with higher accuracy even at locations other than intersections. Further, the road markings can be recognized from the sensing results of the sensing range including the road surface by the surrounding monitoring sensor 50, which is generally used in automatic driving. Therefore, it has higher versatility than a technology that uses a sensing range other than the general sensing range.

位置推定部107aは、信頼度特定部106aで特定した信頼度を用いて、道路上の自車の走行位置を推定することが好ましい。これは、信頼度を、自車の走行位置を確定するか否かの判断に利用することが可能になるためである。なお、位置推定部107aは、位置推定部107と同様に、複数車線の道路上のどの車線に自車が位置するかまで推定してもよい。 It is preferable that the position estimating unit 107a estimates the traveling position of the own vehicle on the road using the reliability specified by the reliability specifying unit 106a. This is because the reliability can be used to determine whether or not to determine the driving position of the own vehicle. Note that, similarly to the position estimation unit 107, the position estimation unit 107a may also estimate in which lane on a multi-lane road the own vehicle is located.

<自車位置推定装置10aでの位置推定関連処理>
続いて、図6のフローチャートを用いて、自車位置推定装置10aでの位置推定関連処理の流れの一例について説明を行う。図6のフローチャートは、例えば、自車のパワースイッチがオンになった場合に開始する構成とすればよい。他にも、自車の自動運転機能がオンに設定されていることも条件に加えてもよい。
<Position estimation related processing in own vehicle position estimation device 10a>
Next, an example of the flow of position estimation related processing in the own vehicle position estimation device 10a will be explained using the flowchart of FIG. The flowchart of FIG. 6 may be configured to start, for example, when the power switch of the host vehicle is turned on. Another condition may be that the self-driving function of the own vehicle is set to on.

ステップS21~ステップS23では、S1~S3と同様の処理を行う。ステップS24では、位置推定部107aが、認識道路標示と地図道路標示との類似度合いをもとに、道路上の自車の走行位置を絞り込む。S24で1つの走行位置に絞り込めなかった場合でも、信頼度の最も高い道路上の走行位置に絞り込めばよい。ステップS25では、S24で1つに絞り込んだ道路上の自車の走行位置を、自車の走行位置と推定する。 In steps S21 to S23, processes similar to those in S1 to S3 are performed. In step S24, the position estimation unit 107a narrows down the driving position of the own vehicle on the road based on the degree of similarity between the recognized road marking and the map road marking. Even if it is not possible to narrow down the driving position to one in S24, the driving position can be narrowed down to the driving position on the road with the highest reliability. In step S25, the driving position of the own vehicle on the road narrowed down to one in S24 is estimated as the driving position of the own vehicle.

ステップS26では、位置推定関連処理の終了タイミングであった場合(S26でYES)には、位置推定関連処理を終了する。一方、位置推定関連処理の終了タイミングでなかった場合(S26でNO)には、S21に戻って処理を繰り返す。 In step S26, if it is the end timing of the position estimation related process (YES in S26), the position estimation related process is ended. On the other hand, if it is not the end timing of the position estimation related process (NO in S26), the process returns to S21 and repeats the process.

(実施形態3)
前述の実施形態の構成に限らず、以下の実施形態3の構成としてもよい。以下では、実施形態3の構成の一例について図を用いて説明する。
(Embodiment 3)
The present invention is not limited to the configuration of the above-described embodiment, but may be the configuration of Embodiment 3 below. An example of the configuration of Embodiment 3 will be described below with reference to the drawings.

<車両用システム1bの概略構成>
車両用システム1bは、図7に示すように、自車位置推定装置10b、GNSS受信機20、車両状態センサ30、通信モジュール40、周辺監視センサ50、及び自動運転ECU60を含んでいる。車両用システム1bは、自車位置推定装置10の代わりに、自車位置推定装置10bを含む点を除けば、実施形態1の車両用システム1と同様である。
<Schematic configuration of vehicle system 1b>
As shown in FIG. 7, the vehicle system 1b includes a vehicle position estimation device 10b, a GNSS receiver 20, a vehicle status sensor 30, a communication module 40, a surrounding monitoring sensor 50, and an automatic driving ECU 60. The vehicle system 1b is the same as the vehicle system 1 of the first embodiment except that it includes a vehicle position estimation device 10b instead of the vehicle position estimation device 10.

<自車位置推定装置10bの概略構成>
続いて、自車位置推定装置10bの概略構成の一例を説明する。自車位置推定装置10bは、図7に示すように、周辺情報取得部101b、走行環境認識部102b、測位部103、地図データ取得部104b、MM部105、信頼度特定部106b、及び位置推定部107bを機能ブロックとして備えている。自車位置推定装置10bは、周辺情報取得部101の代わりに周辺情報取得部101bを備える。自車位置推定装置10bは、走行環境認識部102の代わりに走行環境認識部102bを備える。自車位置推定装置10bは、地図データ取得部104の代わりに地図データ取得部104bを備える。自車位置推定装置10bは、信頼度特定部106の代わりに信頼度特定部106bを備える。自車位置推定装置10bは、位置推定部107の代わりに位置推定部107bを備える。自車位置推定装置10bは、これらの点を除けば、実施形態1の自車位置推定装置10と同様である。コンピュータによって自車位置推定装置10bの各機能ブロックの処理が実行されることも、自車位置推定方法が実行されることに相当する。
<Schematic configuration of vehicle position estimation device 10b>
Next, an example of a schematic configuration of the own vehicle position estimating device 10b will be explained. As shown in FIG. 7, the own vehicle position estimation device 10b includes a surrounding information acquisition section 101b, a driving environment recognition section 102b, a positioning section 103, a map data acquisition section 104b, an MM section 105, a reliability identification section 106b, and a position estimation section. The unit 107b is provided as a functional block. The own vehicle position estimation device 10b includes a surrounding information acquisition section 101b instead of the surrounding information acquisition section 101. The own vehicle position estimation device 10b includes a driving environment recognition section 102b instead of the driving environment recognition section 102. The own vehicle position estimation device 10b includes a map data acquisition section 104b instead of the map data acquisition section 104. The vehicle position estimating device 10b includes a reliability specifying section 106b instead of the reliability specifying section 106. The own vehicle position estimating device 10b includes a position estimating section 107b instead of the position estimating section 107. The own vehicle position estimating device 10b is the same as the own vehicle position estimating device 10 of the first embodiment except for these points. Executing the processing of each functional block of the own vehicle position estimating device 10b by the computer also corresponds to executing the own vehicle position estimation method.

周辺情報取得部101bは、周辺監視カメラで撮影された撮影画像を取得することが必須である点を除けば、実施形態1の周辺情報取得部101と同様である。 The surrounding information acquisition unit 101b is the same as the surrounding information acquisition unit 101 of the first embodiment, except that it is essential to acquire a photographed image taken by a surrounding monitoring camera.

走行環境認識部102bは、車線数を認識することが必須である代わりに、空領域率及び構造物率の少なくともいずれかである対象比率を認識することが必須である。走行環境認識部102bは、この点を除けば、実施形態1の走行環境認識部102と同様である。空領域率は、撮影画像内の空(そら)の領域の割合である。構造物率は、撮像画像内の構造物の割合である。走行環境認識部102bは、ディープラーニング,機械学習で空,構造物を認識するように学習した学習器を用いて、撮影画像内の空,構造物を認識すればよい。続いて、走行環境認識部102bは、撮影画像内の、認識した空,構造物の割合を、空領域率,構造物率として算出する。そして、算出した走行環境認識部102bは、算出した空領域率,構造物率を対象比率として認識すればよい。対象比率としては、空領域率及び構造物率のいずれか一方としてもよい。この走行環境認識部102bでの処理が、第3走行環境認識工程に相当する。 The driving environment recognition unit 102b is required to recognize the target ratio, which is at least one of the empty area ratio and the structure ratio, instead of recognizing the number of lanes. The driving environment recognition unit 102b is similar to the driving environment recognition unit 102 of the first embodiment except for this point. The sky area ratio is the ratio of the sky area in the photographed image. The structure ratio is the ratio of structures in the captured image. The driving environment recognition unit 102b may recognize the sky and structures in the captured image using a learning device that has learned to recognize the sky and structures through deep learning and machine learning. Next, the driving environment recognition unit 102b calculates the proportions of the recognized sky and structures in the photographed image as the sky area ratio and the structure ratio. Then, the calculated driving environment recognition unit 102b may recognize the calculated empty area ratio and structure ratio as the target ratio. The target ratio may be either the empty area ratio or the structure ratio. This process in the driving environment recognition unit 102b corresponds to a third driving environment recognition step.

地図データ取得部104bは、領域別の対象比率を含む地図データを取得する。地図データ取得部104bは、地図データに領域別の対象比率が含まれることが必須である点を除けば、実施形態1の地図データ取得部104と同様である。この対象比率は、走行環境認識部102bで認識する対象比率と同じ種類に揃える。例えば、走行環境認識部102bで認識する対象比率が空領域率の場合には、地図データ取得部104bでも対象比率として空領域率を取得すればよい。領域別とは、セグメント別,地点別等とすればよい。地図データには、同じ領域に対して、道路の上りと下りとの進行方向別の対象比率がそれぞれ含まれる構成とすればよい。この地図データ取得部104bでの処理が第3地図データ取得工程に相当する。 The map data acquisition unit 104b acquires map data including target ratios for each region. The map data acquisition unit 104b is similar to the map data acquisition unit 104 of the first embodiment, except that the map data must include the target ratio for each area. This target ratio is set to the same type as the target ratio recognized by the driving environment recognition unit 102b. For example, if the target ratio recognized by the driving environment recognition unit 102b is a sky area ratio, the map data acquisition unit 104b may also acquire the sky area ratio as the target ratio. By area, it may be by segment, by point, etc. The map data may include target ratios for the uphill and downhill directions of the road, respectively, for the same area. This process by the map data acquisition unit 104b corresponds to a third map data acquisition step.

信頼度特定部106bは、車線数の類似度合いの代わりに、対象比率の類似度合いを用いる点を除けば、実施形態1の信頼度特定部106と同様である。信頼度特定部106bは、走行環境認識部102bで認識する自車の走路の対象比率と、地図データ取得部104bで取得する自車の走路の対象比率との類似度合いを特定する。地図データ取得部104bで取得する対象比率は、自車の進行方向と同じ進行方向についての対象比率とする。自車の進行方向は、概略位置の時間変化等から特定すればよい。そして、信頼度特定部106bは、特定した類似度合いをもとに、道路上の自車の走行位置の信頼度を特定する。以下では、走行環境認識部102bで認識する自車の走路の対象比率を、認識対象比率と呼ぶ。以下では、地図データ取得部104bで取得する自車の走路の対象比率を、地図対象比率と呼ぶ。地図データ取得部104bで取得する自車の走路の対象比率とは、地図データ取得部104bで取得する、自車の走行領域と推定される領域の対象比率である。自車の走行領域と推定される領域とは、MM部105で決定される候補位置とすればよい。信頼度特定部106bは、認識対象比率と地図対象比率との類似度が高くなるのに応じて、信頼度を高く特定する。 The reliability specifying unit 106b is similar to the reliability specifying unit 106 of the first embodiment, except that the degree of similarity of target ratios is used instead of the degree of similarity of the number of lanes. The reliability identifying unit 106b identifies the degree of similarity between the target ratio of the vehicle's route recognized by the driving environment recognition unit 102b and the target ratio of the vehicle's route acquired by the map data acquisition unit 104b. The target ratio acquired by the map data acquisition unit 104b is the target ratio for the same traveling direction as the own vehicle's traveling direction. The traveling direction of the own vehicle may be specified based on changes in the approximate position over time. Then, the reliability specifying unit 106b specifies the reliability of the driving position of the own vehicle on the road based on the specified degree of similarity. Hereinafter, the target ratio of the driving route of the own vehicle recognized by the driving environment recognition unit 102b will be referred to as a recognition target ratio. Hereinafter, the target ratio of the driving route of the own vehicle acquired by the map data acquisition unit 104b will be referred to as a map target ratio. The target ratio of the driving route of the own vehicle acquired by the map data acquiring unit 104b is the target ratio of the area estimated to be the driving area of the own vehicle, acquired by the map data acquiring unit 104b. The area estimated to be the driving area of the own vehicle may be a candidate position determined by the MM unit 105. The reliability specifying unit 106b specifies a high reliability as the similarity between the recognition target ratio and the map target ratio increases.

信頼度特定部106bは、走行環境認識部102bで逐次認識する自車の走路の構造物率の変化と、地図データ取得部104bで取得する自車の経由路の構造物率の変化との、類似度合いも特定すればよい。自車の経由路とは、自車が経由してきたと推定される領域群である。領域群は、セグメント群,地点群とすればよい。自車の経由路は、測位部103で逐次推定する概略位置から特定すればよい。そして、信頼度特定部106bは、特定した類似度合いも用いて、道路上の自車の走行位置の信頼度を特定することが好ましい。以下では、走行環境認識部102bで逐次認識する自車の走路の構造物率の変化を、認識構造物率変化と呼ぶ。以下では、地図データ取得部104bで取得する自車の経由路の構造物率の変化を、地図構造物率変化と呼ぶ。信頼度特定部106bは、認識構造物率変化と地図構造物率変化との類似度合いが高くなるのに応じて、信頼度をより高く補正すればよい。 The reliability specifying unit 106b determines the change in the structure ratio of the route of the own vehicle, which is sequentially recognized by the driving environment recognition unit 102b, and the change in the structure ratio of the route of the own vehicle, which is acquired by the map data acquisition unit 104b. The degree of similarity may also be specified. The route taken by the own vehicle is a group of areas through which the own vehicle is presumed to have traveled. The area group may be a segment group or a point group. The route of the own vehicle may be specified from the approximate position sequentially estimated by the positioning unit 103. Preferably, the reliability specifying unit 106b also uses the specified degree of similarity to specify the reliability of the driving position of the own vehicle on the road. Hereinafter, the change in the structure ratio of the driving path of the own vehicle that is sequentially recognized by the driving environment recognition unit 102b will be referred to as a recognized structure ratio change. Hereinafter, the change in the structure ratio of the route taken by the host vehicle acquired by the map data acquisition unit 104b will be referred to as a map structure ratio change. The reliability specifying unit 106b may correct the reliability higher as the degree of similarity between the recognized structure rate change and the map structure rate change becomes higher.

位置推定部107bは、認識車線数と地図車線数との類似度合いの代わりに、認識対象比率と地図対象比率との類似度合いを用いる。位置推定部107bは、この点を除けば、実施形態1の位置推定部107と同様である。この位置推定部107bでの処理が、第3位置推定工程に相当する。空領域率,構造物率といった対象比率は、交差点に限らない要素である。よって、対象比率を利用することで、交差点以外の場所であっても、自車の道路上における走行位置をより精度良く推定することが可能になる。 The position estimation unit 107b uses the degree of similarity between the recognition target ratio and the map target ratio instead of the degree of similarity between the number of recognized lanes and the number of map lanes. The position estimating unit 107b is similar to the position estimating unit 107 of the first embodiment except for this point. This process in the position estimating unit 107b corresponds to a third position estimating step. Target ratios such as empty area ratio and structure ratio are factors not limited to intersections. Therefore, by using the target ratio, it becomes possible to estimate the driving position of the own vehicle on the road with higher accuracy even at a place other than an intersection.

位置推定部107bは、認識構造物率変化と地図構造物率変化との類似度合いも用いて、道路上の自車の走行位置を推定することが好ましい。構造物率の変化は、例えば周期的に配置された構造物の有無等で異なる。周期的に配置された構造物としては、等間隔に並んだ街灯等が挙げられる。以上の構成によれば、対象比率だけでは1つの走行位置に絞り込むことが難しい場合であっても、構造物率の経時的な変化を用いることで、1つの走行位置に絞りこみやすくなる。 Preferably, the position estimating unit 107b estimates the driving position of the own vehicle on the road by also using the degree of similarity between the change in the recognized structure ratio and the map structure ratio change. The change in the structure ratio differs depending on, for example, the presence or absence of periodically arranged structures. Examples of periodically arranged structures include streetlights arranged at equal intervals. According to the above configuration, even if it is difficult to narrow down to one running position using only the target ratio, it becomes easier to narrow down to one running position by using the change over time in the structure ratio.

位置推定部107bは、信頼度特定部106bで特定した信頼度を用いて、道路上の自車の走行位置を推定することが好ましい。これは、信頼度を、自車の走行位置を確定するか否かの判断に利用することが可能になるためである。なお、位置推定部107bは、位置推定部107と同様に、複数車線の道路上のどの車線に自車が位置するかまで推定してもよい。 It is preferable that the position estimating unit 107b estimates the traveling position of the own vehicle on the road using the reliability specified by the reliability specifying unit 106b. This is because the reliability can be used to determine whether or not to determine the driving position of the own vehicle. Note that, similarly to the position estimation unit 107, the position estimation unit 107b may also estimate in which lane on a multi-lane road the own vehicle is located.

<自車位置推定装置10bでの位置推定関連処理>
続いて、図8のフローチャートを用いて、自車位置推定装置10bでの位置推定関連処理の流れの一例について説明を行う。図8のフローチャートは、例えば、自車のパワースイッチがオンになった場合に開始する構成とすればよい。他にも、自車の自動運転機能がオンに設定されていることも条件に加えてもよい。
<Position estimation related processing in own vehicle position estimation device 10b>
Next, an example of the flow of position estimation related processing in the own vehicle position estimation device 10b will be explained using the flowchart of FIG. 8. The flowchart of FIG. 8 may be configured to start, for example, when the power switch of the host vehicle is turned on. Another condition may be that the self-driving function of the own vehicle is set to on.

ステップS41~ステップS43では、S1~S3と同様の処理を行う。ステップS44では、位置推定部107bが、認識対象比率と地図対象比率との類似度合いをもとに、道路上の自車の走行位置を絞り込む。ステップS45では、S44で1つの走行位置に絞り込めた場合(S45でYES)には、ステップS47に移る。一方、S44で1つの走行位置に絞り込めなかった場合(S45でNO)には、ステップS46に移る。 In steps S41 to S43, processes similar to those in S1 to S3 are performed. In step S44, the position estimation unit 107b narrows down the driving position of the own vehicle on the road based on the degree of similarity between the recognition target ratio and the map target ratio. In step S45, if the driving position can be narrowed down to one in S44 (YES in S45), the process moves to step S47. On the other hand, if the driving position cannot be narrowed down to one in S44 (NO in S45), the process moves to step S46.

ステップS46では、位置推定部107bが、認識構造物率変化と地図構造物率変化との類似度合いをもとに、道路上の自車の走行位置をさらに絞り込む。S46で1つの走行位置に絞り込めなかった場合でも、信頼度の最も高い道路上の走行位置に絞り込めばよい。ステップS47では、それまでの処理で1つに絞り込んだ道路上の自車の走行位置を、自車の走行位置と推定する。 In step S46, the position estimating unit 107b further narrows down the driving position of the own vehicle on the road based on the degree of similarity between the change in the recognized structure ratio and the map structure ratio change. Even if it is not possible to narrow down the driving position to one in S46, the driving position can be narrowed down to the driving position on the road with the highest reliability. In step S47, the running position of the own vehicle on the road narrowed down to one in the processing up to that point is estimated as the running position of the own vehicle.

ステップS48では、位置推定関連処理の終了タイミングであった場合(S48でYES)には、位置推定関連処理を終了する。一方、位置推定関連処理の終了タイミングでなかった場合(S48でNO)には、S41に戻って処理を繰り返す。 In step S48, if it is the end timing of the position estimation related process (YES in S48), the position estimation related process is ended. On the other hand, if it is not the end timing of the position estimation related process (NO in S48), the process returns to S41 and repeats the process.

図8の例では、対象比率,道路構造率の変化の類似度合いで自車の走行位置を順次絞り込んでいく構成を示したが、必ずしもこれに限らない。例えば、対象比率の類似度合いと、道路構造率の変化の類似度合いとを総合して、自車の走行位置を絞り込んで推定してもよい。対象比率,道路構造率の変化の類似度合いで自車の走行位置を順次絞り込んでいく構成によれば、まとめて処理を行う場合に比べ、無駄な処理を省略しやすくなる。 In the example of FIG. 8, a configuration is shown in which the driving position of the own vehicle is sequentially narrowed down based on the degree of similarity of changes in the target ratio and road structure ratio, but the present invention is not necessarily limited to this. For example, the driving position of the own vehicle may be narrowed down and estimated by combining the degree of similarity of target ratios and the degree of similarity of changes in road structure ratio. According to a configuration that sequentially narrows down the driving position of the own vehicle based on the degree of similarity of changes in the target ratio and road structure ratio, unnecessary processing can be more easily omitted than when processing is performed all at once.

なお、本開示は、上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。また、本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された1つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウェア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと1つ以上のハードウェア論理回路との組み合わせにより構成された1つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 Note that the present disclosure is not limited to the embodiments described above, and various changes can be made within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. The embodiments are also included in the technical scope of the present disclosure. Further, the control unit and the method described in the present disclosure may be implemented by a dedicated computer constituting a processor programmed to perform one or more functions embodied by a computer program. Alternatively, the apparatus and techniques described in this disclosure may be implemented with dedicated hardware logic circuits. Alternatively, the apparatus and techniques described in this disclosure may be implemented by one or more special purpose computers configured by a combination of a processor executing a computer program and one or more hardware logic circuits. The computer program may also be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium.

1,1a,1b 車両用システム、10,10a,10b 自車位置推定装置、50 周辺監視センサ、102,102a,102b 走行環境認識部、104,104a,104b 地図データ取得部、106,106a,106b 信頼度特定部、107,107a,107b 位置推定部 1, 1a, 1b vehicle system, 10, 10a, 10b vehicle position estimation device, 50 surroundings monitoring sensor, 102, 102a, 102b driving environment recognition unit, 104, 104a, 104b map data acquisition unit, 106, 106a, 106b Reliability identification unit, 107, 107a, 107b Position estimation unit

Claims (10)

車両で用いられ、
前記車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、前記車両の走路の車線数を含む走行環境を認識する走行環境認識部(102)と、
領域別の道路の車線数を含む地図データを取得する地図データ取得部(104)と、
前記走行環境認識部で認識する前記車両の走路の車線数と、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の車線数との、類似度合いをもとに、道路上の前記車両の走行位置を推定する位置推定部(107)とを備える自車位置推定装置。
used in vehicles,
a driving environment recognition unit (102) that recognizes a driving environment including the number of lanes on a running route of the vehicle from sensing results from a surroundings monitoring sensor (50) that monitors the surroundings of the vehicle;
a map data acquisition unit (104) that acquires map data including the number of road lanes for each region;
The road is determined based on the degree of similarity between the number of lanes of the vehicle's driving route recognized by the driving environment recognition unit and the number of lanes of the area estimated to be the vehicle's driving area acquired by the map data acquisition unit. An own vehicle position estimating device comprising: a position estimating section (107) for estimating a traveling position of the vehicle.
請求項1に記載の自車位置推定装置であって、
前記走行環境認識部は、道路幅も含む前記走行環境を認識し、
前記地図データ取得部は、領域別の道路幅も含む前記地図データを取得し、
前記位置推定部は、前記走行環境認識部で認識する前記車両の走路の道路幅と、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の道路幅との、類似度合いも用いて、道路上の前記車両の走行位置を推定する自車位置推定装置。
The own vehicle position estimation device according to claim 1,
The driving environment recognition unit recognizes the driving environment including road width,
The map data acquisition unit acquires the map data including road width by area,
The position estimating unit determines the degree of similarity between the road width of the vehicle's driving route recognized by the driving environment recognition unit and the road width of the area estimated to be the vehicle's driving area acquired by the map data acquiring unit. A self-vehicle position estimating device that estimates the traveling position of the vehicle on a road using the following information.
請求項2に記載の自車位置推定装置であって、
前記走行環境認識部は、車線別の車線幅も含む前記走行環境を認識し、
前記地図データ取得部は、領域別の車線ごとの車線幅も含む前記地図データを取得し、
前記位置推定部は、前記走行環境認識部で認識する前記車両の走路の車線別の車線幅のパターンと、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の車線ごとの車線幅のパターンとの、類似度合いも用いて、道路上の前記車両の走行位置を推定する自車位置推定装置。
The own vehicle position estimation device according to claim 2,
The driving environment recognition unit recognizes the driving environment including the lane width of each lane,
The map data acquisition unit acquires the map data including lane widths for each lane in each region,
The position estimating unit is configured to use a lane width pattern for each lane of the vehicle's driving route recognized by the driving environment recognition unit and a lane-by-lane pattern of an area estimated to be a driving area of the vehicle, which is acquired by the map data acquiring unit. A self-vehicle position estimating device that estimates a traveling position of the vehicle on a road using a degree of similarity with a lane width pattern.
車両で用いられ、
前記車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、前記車両の走路の道路標示を含む走行環境を認識する走行環境認識部(102a)と、
領域別の道路標示を含む地図データを取得する地図データ取得部(104a)と、
前記走行環境認識部で認識する前記車両の走路の道路標示と、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の道路標示との、類似度合いをもとに、道路上の前記車両の走行位置を推定する位置推定部(107a)とを備える自車位置推定装置。
used in vehicles,
a driving environment recognition unit (102a) that recognizes a driving environment including road markings on the route of the vehicle from sensing results from a surroundings monitoring sensor (50) that monitors the surroundings of the vehicle;
a map data acquisition unit (104a) that acquires map data including road markings for each area;
Based on the degree of similarity between the road markings on the route of the vehicle recognized by the driving environment recognition unit and the road markings in the area estimated to be the driving area of the vehicle acquired by the map data acquisition unit, A vehicle position estimating device comprising: a position estimating section (107a) for estimating a traveling position of the vehicle.
車両で用いられ、
前記車両の周辺を撮影する周辺監視カメラでの撮影画像から、前記車両の走路における前記撮影画像内の空の領域の割合である空領域率及び撮像画像内の構造物の割合である構造物率の少なくともいずれかである対象比率を含む走行環境を認識する走行環境認識部(102b)と、
領域別の前記対象比率を含む地図データを取得する地図データ取得部(104b)と、
前記走行環境認識部で認識する前記車両の前記対象比率と、前記地図データ取得部で取得する、前記車両の走行領域と推定される領域の前記対象比率との、類似度合いをもとに、道路上の前記車両の走行位置を推定する位置推定部(107b)とを備える自車位置推定装置。
used in vehicles,
From images taken by a surrounding surveillance camera that photographs the surroundings of the vehicle, a sky area ratio, which is the ratio of the sky area in the photographed image on the running route of the vehicle, and a structure ratio, which is the ratio of structures in the photographed image. a driving environment recognition unit (102b) that recognizes a driving environment including a target ratio that is at least one of the following;
a map data acquisition unit (104b) that acquires map data including the target ratio for each area;
Based on the degree of similarity between the target ratio of the vehicle recognized by the driving environment recognition unit and the target ratio of the area estimated to be the driving area of the vehicle acquired by the map data acquisition unit, road An own vehicle position estimating device comprising: a position estimating section (107b) for estimating a traveling position of the vehicle.
請求項5に記載の自車位置推定装置であって、
前記走行環境認識部は、前記対象比率として少なくとも前記構造物率を含む走行環境を認識し、
前記地図データ取得部は、領域別の前記対象比率として少なくとも領域別の前記構造物率を含む地図データを取得し、
前記位置推定部は、前記走行環境認識部で逐次認識する前記車両の前記構造物率の変化と、前記地図データ取得部で取得する前記構造物率をもとにした、前記車両が経由してきたと推定される領域群での前記構造物率の変化との、類似度合いも用いて、道路上の前記車両の走行位置を推定する自車位置推定装置。
The own vehicle position estimation device according to claim 5,
The driving environment recognition unit recognizes a driving environment including at least the structure ratio as the target ratio,
The map data acquisition unit acquires map data including at least the structure ratio by area as the target ratio by area,
The position estimating unit determines whether the vehicle is passing through based on changes in the structure ratio of the vehicle sequentially recognized by the driving environment recognition unit and the structure ratio acquired by the map data acquisition unit. A self-vehicle position estimating device that estimates a traveling position of the vehicle on a road using a degree of similarity with a change in the structure ratio in a group of regions to be estimated.
請求項1、4、又は5に記載の自車位置推定装置であって、
前記類似度合いをもとに、道路上の前記車両の走行位置の信頼度を特定する信頼度特定部(106,106a,106b)を備え、
前記位置推定部は、前記信頼度特定部で特定した前記信頼度を用いて、道路上の前記車両の走行位置を推定する自車位置推定装置。
The own vehicle position estimation device according to claim 1, 4, or 5,
a reliability identifying unit (106, 106a, 106b) that identifies the reliability of the traveling position of the vehicle on the road based on the degree of similarity;
The position estimating unit is a self-vehicle position estimating device that estimates the traveling position of the vehicle on the road using the reliability specified by the reliability specifying unit.
車両で用いられ、
少なくとも1つのプロセッサにより実行される、
前記車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、前記車両の走路の車線数を含む走行環境を認識する第1走行環境認識工程と、
領域別の道路の車線数を含む地図データを取得する第1地図データ取得工程と、
前記第1走行環境認識工程で認識する前記車両の走路の車線数と、前記第1地図データ取得工程で取得する、前記車両の走行領域と推定される領域の車線数との、類似度合いをもとに、道路上の前記車両の走行位置を推定する第1位置推定工程とを含む自車位置推定方法。
used in vehicles,
executed by at least one processor;
a first driving environment recognition step of recognizing a driving environment including the number of lanes on a running route of the vehicle from sensing results from a surroundings monitoring sensor (50) that monitors the surroundings of the vehicle;
a first map data acquisition step of acquiring map data including the number of road lanes for each area;
The degree of similarity between the number of lanes of the vehicle's driving route recognized in the first driving environment recognition step and the number of lanes of the area estimated to be the vehicle's driving area acquired in the first map data acquiring step is also determined. and a first position estimation step of estimating a traveling position of the vehicle on a road.
車両で用いられ、
少なくとも1つのプロセッサにより実行される、
前記車両の周辺を監視する周辺監視センサ(50)でのセンシング結果から、前記車両の走路の路面標示を含む走行環境を認識する第2走行環境認識工程と、
領域別の道路標示を含む地図データを取得する第2地図データ取得工程と、
前記第2走行環境認識工程で認識する前記車両の走路の道路標示と、前記第2地図データ取得工程で取得する、前記車両の走行領域と推定される領域の道路標示との、類似度合いをもとに、道路上の前記車両の走行位置を推定する第2位置推定工程とを含む自車位置推定方法。
used in vehicles,
executed by at least one processor;
a second driving environment recognition step of recognizing a driving environment including road markings on a running path of the vehicle from sensing results from a surroundings monitoring sensor (50) that monitors the surroundings of the vehicle;
a second map data acquisition step of acquiring map data including road markings for each area;
The degree of similarity between the road markings on the route of the vehicle recognized in the second driving environment recognition step and the road markings in the area estimated to be the driving area of the vehicle acquired in the second map data acquisition step is also determined. and a second position estimation step of estimating the traveling position of the vehicle on the road.
車両で用いられ、
少なくとも1つのプロセッサにより実行される、
前記車両の周辺を撮影する周辺監視カメラでの撮影画像から、前記車両の走路における前記撮影画像内の空の領域の割合である空領域率及び撮像画像内の構造物の割合である構造物率の少なくともいずれかである対象比率を含む走行環境を認識する第3走行環境認識工程と、
領域別の前記対象比率を含む地図データを取得する第3地図データ取得工程と、
前記第3走行環境認識工程で認識する前記車両の前記対象比率と、前記第3地図データ取得工程で取得する、前記車両の走行領域と推定される領域の前記対象比率との、類似度合いをもとに、道路上の前記車両の走行位置を推定する第3位置推定工程とを含む自車位置推定方法。
used in vehicles,
executed by at least one processor;
From images captured by a surrounding monitoring camera that captures the surroundings of the vehicle, an empty area ratio, which is the ratio of the empty area in the captured image on the running route of the vehicle, and a structure ratio, which is the ratio of structures in the captured image. a third driving environment recognition step of recognizing a driving environment including a target ratio that is at least one of the following;
a third map data acquisition step of acquiring map data including the target ratio for each area;
The degree of similarity between the target ratio of the vehicle recognized in the third driving environment recognition step and the target ratio of the area estimated to be the driving area of the vehicle acquired in the third map data acquisition step is also determined. and a third position estimation step of estimating the traveling position of the vehicle on the road.
JP2022128137A 2022-08-10 2022-08-10 Vehicle location estimation device and vehicle location estimation method Pending JP2024025040A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022128137A JP2024025040A (en) 2022-08-10 2022-08-10 Vehicle location estimation device and vehicle location estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022128137A JP2024025040A (en) 2022-08-10 2022-08-10 Vehicle location estimation device and vehicle location estimation method

Publications (1)

Publication Number Publication Date
JP2024025040A true JP2024025040A (en) 2024-02-26

Family

ID=90010702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022128137A Pending JP2024025040A (en) 2022-08-10 2022-08-10 Vehicle location estimation device and vehicle location estimation method

Country Status (1)

Country Link
JP (1) JP2024025040A (en)

Similar Documents

Publication Publication Date Title
US10431094B2 (en) Object detection method and object detection apparatus
JP6036371B2 (en) Vehicle driving support system and driving support method
JP6859927B2 (en) Vehicle position estimation device
JP2019099138A (en) Lane-keep auxiliary method and device
JP2007316025A (en) Own vehicle positioning system
US11928871B2 (en) Vehicle position estimation device and traveling position estimation method
JP2005257314A (en) Vehicle position detector
US11959752B2 (en) Vehicular position specification apparatus and vehicular position specification method
JP7321035B2 (en) OBJECT POSITION DETECTION METHOD AND OBJECT POSITION DETECTION DEVICE
JP2020057146A (en) Traveling lane estimation device, traveling lane estimation method, and control program
US20210048819A1 (en) Apparatus and method for determining junction
JP6790951B2 (en) Map information learning method and map information learning device
JP2021148581A (en) Vehicle position identification device and vehicle position identification method
JP7435513B2 (en) Vehicle control device and vehicle control method
EP3835724B1 (en) Self-location estimation method and self-location estimation device
JP2024025040A (en) Vehicle location estimation device and vehicle location estimation method
KR20230018005A (en) Device and Method for Generating Lane Information
JP7572980B2 (en) Roadside estimation device, roadside estimation method, and computer program for roadside estimation
JP7540455B2 (en) Vehicle control device, vehicle control method, and vehicle control computer program
RU2777308C1 (en) Method for estimating one&#39;s own location and apparatus for estimating one&#39;s own location
US20230086589A1 (en) Vehicle position estimation device
JP2023169631A (en) Vehicle control device, vehicle control method and computer program for vehicle control
JP7241582B2 (en) MOBILE POSITION DETECTION METHOD AND MOBILE POSITION DETECTION SYSTEM
US20240067211A1 (en) Method and apparatus for operating a vehicle for highly automated driving, and vehicle for highly automated driving
JP2023118462A (en) Road end estimation device, road end estimation method, and road end estimation computer program