WO2020145053A1 - 走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体 - Google Patents
走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体 Download PDFInfo
- Publication number
- WO2020145053A1 WO2020145053A1 PCT/JP2019/049546 JP2019049546W WO2020145053A1 WO 2020145053 A1 WO2020145053 A1 WO 2020145053A1 JP 2019049546 W JP2019049546 W JP 2019049546W WO 2020145053 A1 WO2020145053 A1 WO 2020145053A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- unit
- distance measuring
- road boundary
- estimation
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/28—Details of pulse systems
- G01S7/285—Receivers
- G01S7/292—Extracting wanted echo-signals
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/4802—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4041—Position
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/40—High definition maps
Abstract
車両周辺の物体で反射される反射波を受信することで、物体の表面を検出する測距センサ(71)から測距点の位置を取得し、測距点群の、前記車両の左右方向における分布状況を示す度数分布での最頻値から道路境界の横位置を推定し、前記度数分布での度数が所定値以上となるピークが、左右両側のうちの片側に複数存在する場合に、前記道路境界の推定が不安定な状態か否かを判定し、車線数情報を含む地図データを取得し、地図上の車両位置を特定し、前記車線数情報と前記道路境界の位置関係とを用いて、前記車両の走行車線を推定する一方、前記道路境界の横位置のうちの、推定が不安定な状態と判定される推定結果は用いずに、前記車両の走行車線を推定する。
Description
本出願は、2019年1月10日に出願された日本特許出願番号2019-2929号に基づくもので、ここにその記載内容を援用する。
本開示は、自車の走行車線を推定するための走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体に関するものである。
特許文献1には、リアカメラの映像を入力とする画像認識処理部によって、高速道路での走行中において自車の現在の走行車線を区分する白線を抽出してその種別までを認識し、自車の走行車線を推定する技術が開示されている。また、特許文献1には、自車が白線を跨いだか否か、跨いだ白線の種別、及び地図データに含ませる分岐種別を用いて、分岐部においても自車の現在の走行車線を推定する技術が開示されている。さらに、特許文献1には、自車が車線変更しないかぎりは左右の白線の種別はそれ以前の白線種別と変わることはないと仮定して、白線種別が不明である場合に、走行履歴データとして記憶されている過去の白線種別情報から現在の左側または右側の白線の種別を推定する技術が開示されている。
特許文献1に開示の技術では、白線種別が不明である場合に、走行履歴データとして記憶されている過去の白線種別情報から現在の左側または右側の白線の種別を推定する。しかしながら、分岐部等の車線数が増減する区間では、白線に連続性がないため、過去の白線種別情報から現在の左右の白線の種別まで推定することは難しい。よって、特許文献1に開示の技術では、白線がなかったり、白線の種別までを認識できなかったりした場合に、自車の走行車線を精度良く推定することが困難であった。
本開示は、カメラ画像の画像認識処理からは走行区画線の種別までを認識することが困難な区間であっても、自車の走行車線をより精度良く推定することを可能にする走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体を提供することを目的とする。
本開示のある態様において、車両で用いられる走行車線推定装置は、前記車両の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の前記車両に対する位置を検出する測距センサで検出する前記測距点の位置を取得する測距点取得部と、前記測距点取得部で位置を逐次取得する前記測距点の群である測距点群の、前記車両の左右方向における位置別の分布状況を示す度数分布での、前記車両を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す前記車両の左右方向における位置を道路境界の横位置と推定する道路境界推定部と、前記度数分布での度数が所定値以上となるピークが、前記車両を中心とする左右両側のうちの片側に複数存在する場合に、それらのピークについての情報を用いて、前記道路境界推定部での前記道路境界の横位置の推定が不安定な状態か否かを判定する安定性判定部と、車線数情報を含む地図データを取得する地図データ取得部と、前記地図データ取得部で取得する前記地図データを用いて、地図上の前記車両の車両位置を特定する車両位置特定部と、前記地図データ取得部で取得する前記地図データに含まれる、前記車両位置特定部で特定する車両位置に対応する前記車線数情報と、その車両位置に対する前記道路境界推定部で推定する前記道路境界の横位置の位置関係とを用いて、前記車両の走行車線を推定する走行車線推定部とを備える。前記走行車線推定部は、前記道路境界推定部で推定する前記道路境界の横位置のうちの、前記安定性判定部で推定が不安定な状態と判定される推定結果は用いずに、前記車両の走行車線を推定する。
本開示のある態様において、車両で用いられる走行車線推定方法は、前記車両の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の前記車両に対する位置を検出する測距センサで検出する前記測距点の位置を取得し、位置を逐次取得する前記測距点の群である測距点群の、前記車両の左右方向における位置別の分布状況を示す度数分布での、前記車両を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す前記車両の左右方向における位置を道路境界の横位置と推定し、前記度数分布での度数が所定値以上となるピークが、前記車両を中心とする左右両側のうちの片側に複数存在する場合に、それらのピークについての情報を用いて、前記道路境界の横位置の推定が不安定な状態か否かを判定し、 車線数情報を含む地図データを取得し、取得する前記地図データを用いて、地図上の前記車両の車両位置を特定し、取得する前記地図データに含まれる、特定する車両位置に対応する前記車線数情報と、その車両位置に対する、推定する前記道路境界の横位置の位置関係とを用いて、前記車両の走行車線を推定する一方、推定する前記道路境界の横位置のうちの、推定が不安定な状態と判定される推定結果は用いずに、前記車両の走行車線を推定する。
本開示のある態様において、制御プログラムは、コンピュータを、車両の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の前記車両に対する位置を検出する測距センサで検出する前記測距点の位置を取得する測距点取得部と、前記測距点取得部で位置を逐次取得する前記測距点の群である測距点群の、前記車両の左右方向における位置別の分布状況を示す度数分布での、前記車両を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す前記車両の左右方向における位置を道路境界の横位置と推定する道路境界推定部と、前記度数分布での度数が所定値以上となるピークが、前記車両を中心とする左右両側のうちの片側に複数存在する場合に、それらのピークについての情報を用いて、前記道路境界推定部での前記道路境界の横位置の推定が不安定な状態か否かを判定する安定性判定部と、車線数情報を含む地図データを取得する地図データ取得部と、前記地図データ取得部で取得する前記地図データを用いて、地図上の前記車両の車両位置を特定する車両位置特定部と、前記地図データ取得部で取得する前記地図データに含まれる、前記車両位置特定部で特定する車両位置に対応する前記車線数情報と、その車両位置に対する前記道路境界推定部で推定する前記道路境界の横位置の位置関係とを用いて、前記車両の走行車線を推定する一方、前記道路境界推定部で推定する前記道路境界の横位置のうちの、前記安定性判定部で推定が不安定な状態と判定される推定結果は用いずに、前記車両の走行車線を推定する走行車線推定部として機能させる。
本開示のある態様において、コンピュータにより実行されるインストラクションを含むコンピュータ読み出し可能持続的記録媒体において、当該インストラクションは、車両の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の前記車両に対する位置を検出する測距センサで検出する前記測距点の位置を取得し、位置を逐次取得する前記測距点の群である測距点群の、前記車両の左右方向における位置別の分布状況を示す度数分布での、前記車両を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す前記車両の左右方向における位置を道路境界の横位置と推定し、前記度数分布での度数が所定値以上となるピークが、前記車両を中心とする左右両側のうちの片側に複数存在する場合に、それらのピークについての情報を用いて、前記道路境界の横位置の推定が不安定な状態か否かを判定し、車線数情報を含む地図データを取得し、取得する前記地図データを用いて、地図上の前記車両の車両位置を特定し、取得する前記地図データに含まれる、特定する車両位置に対応する前記車線数情報と、その車両位置に対する、推定する前記道路境界の横位置の位置関係とを用いて、前記車両の走行車線を推定する一方、推定する前記道路境界の横位置のうちの、推定が不安定な状態と判定される推定結果は用いずに、前記車両の走行車線を推定することを有する。
車両の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の、車両に対する位置を検出する測距センサで検出する測距点には、道路上の車両についてのものであったり、道路境界を定める構造物のものであったりが含まれる。これらの測距点の群である測距点群の、車両の左右方向における位置別の分布状況を示す度数分布は、道路境界の位置で最頻値を示す可能性が高い。これは、道路境界を定める構造物は、車線に対して一定の横位置に存在し続ける可能性が高いため、測距点群の、車両の左右方向における位置別の分布状況は、道路境界の位置に偏る可能性が高いためである。よって、測距点群の、車両の左右方向における位置別の分布状況を示す度数分布での最頻値から、その最頻値が示す車両の左右方向における位置を道路境界の横位置と推定することで、道路境界の横位置をより精度良く推定することが可能になる。
また、度数分布での度数が所定値以上となるピークが、車両を中心とする左右両側のうちの片側に複数存在する場合には、車両の左右方向における位置別の分布状況を示す度数分布が、道路境界の位置で最頻値を示さないおそれがある。これに対して、度数分布での度数が所定値以上となるピークについての情報を用いれば、複数のピークが拮抗しているか否か等によって、道路境界の位置で最頻値を示す可能性が高いか否かを判別することが可能になり、道路境界の横位置の推定が不安定な状態か否かを判定することが可能になる。
車両位置に対応する車線数情報と、その車両位置に対する、推定する道路境界の横位置の位置関係とを用いれば、自車の左右に他の車線があるか否かを特定することが可能になる。よって、自車の走行車線が、複数存在する車線のいずれであるかを推定することが可能になる。さらに、自車の走行車線の推定に、測距センサで検出する測距点をもとに前述のように推定する道路境界の横位置を用いるので、カメラ画像の画像認識処理からは走行区画線の種別までを認識することが困難な区間であっても、自車の走行車線を推定することが可能になる。さらに、推定が不安定な状態と判定される横位置の推定結果は走行車線の推定に用いないので、不安定な横位置の推定結果を用いることによる自車の走行車線の推定精度の低下を抑制することが可能になる。その結果、カメラ画像の画像認識処理からは走行区画線の種別までを認識することが困難な区間であっても、自車の走行車線をより精度良く推定することが可能になる。
本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
運転支援システムの概略的な構成の一例を示す図であり、
自動運転ECUの概略的な構成の一例を示す図であり、
自車線推定部の概略的な構成の一例を示す図であり、
測距点群データの集合の一例を説明するための図であり、
図4のArで示す範囲について生成したセルマップの一例を説明するための図であり、
図5のセルマップの左右方向度数分布の一例を示す図であり、
左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に複数存在する場合の一例について説明を行うための図であり、
対象車線数情報と横位置関係とを用いる自車の走行車線の推定の一例を説明するための図であり、
自車線推定部での走行車線推定処理の流れの一例を示すフローチャートであり、
自車線推定部の概略的な構成の一例を示す図であり、
自車線推定部の概略的な構成の一例を示す図であり、
渋滞車列に含まれる車両を移動可能物体認識部で周辺車両と認識できない場合の例について説明するための図であり、
自車線推定部の概略的な構成の一例を示す図である。
図面を参照しながら、開示のための複数の実施形態を説明する。なお、説明の便宜上、複数の実施形態の間において、それまでの説明に用いた図に示した部分と同一の機能を有する部分については、同一の符号を付し、その説明を省略する場合がある。同一の符号を付した部分については、他の実施形態における説明を参照することができる。
(実施形態1)
<運転支援システム1の概略構成>
以下、本開示の実施形態1について図面を用いて説明する。図1に示す運転支援システム1は、自動車といった車両で用いられるものであり、自動運転ECU2、通信端末3、ロケータ4、車両状態センサ5、車両制御ECU6、及び周辺監視センサ7を含んでいる。自動運転ECU2、通信端末3、ロケータ4、車両状態センサ5、及び車両制御ECU6は、例えば車内LANに接続されているものとする。以下では、運転支援システム1を用いる車両を自車と呼ぶ。
<運転支援システム1の概略構成>
以下、本開示の実施形態1について図面を用いて説明する。図1に示す運転支援システム1は、自動車といった車両で用いられるものであり、自動運転ECU2、通信端末3、ロケータ4、車両状態センサ5、車両制御ECU6、及び周辺監視センサ7を含んでいる。自動運転ECU2、通信端末3、ロケータ4、車両状態センサ5、及び車両制御ECU6は、例えば車内LANに接続されているものとする。以下では、運転支援システム1を用いる車両を自車と呼ぶ。
通信端末3は、公衆通信網を介して地図データを配信するサーバと通信を行い、このサーバから配信される地図データを受信する。地図データは、リンクデータ、ノードデータ等である。リンクデータは、リンクを特定するリンクID、リンクの長さを示すリンク長、リンク方位、リンク旅行時間、リンクの形状情報(以下、リンク形状)、リンクの始端と終端とのノード座標(緯度/経度)、及び道路属性等の各データから構成される。一例として、リンク形状は、リンクの両端とその間の形状を表す形状補間点の座標位置を示す座標列からなるものとすればよい。道路属性としては、道路名称,道路種別,道路幅員,車線数を表す車線数情報,速度規制値等がある。ノードデータは、地図上のノード毎に固有の番号を付したノードID、ノード座標、ノード名称、ノード種別、ノードに接続するリンクのリンクIDが記述される接続リンクID等の各データから構成される。車線数情報は、例えば上り下りの各リンク方位別である構成とすればよい。つまり、片側何車線かの情報とすればよい。
なお、リンクデータは、道路区間別である構成としてもよいが、本実施形態では、道路区間別よりも細分化された車線別である場合を例に挙げて説明を行う。つまり、リンクデータは、同一の道路区間であっても、車線(つまり、走行レーン)が複数存在する場合には、その複数の車線別に存在することになる。なお、リンクデータが車線別の場合には、車線数情報に、複数車線のうちのどの車線かを示すレーン番号を含ませる等すればよい。
ロケータ4は、GNSS(Global Navigation Satellite System)受信機及び慣性センサを備えている。GNSS受信機は、複数の測位衛星からの測位信号を受信する。慣性センサは、例えばジャイロセンサ及び加速度センサを備える。ロケータ4は、GNSS受信機で受信する測位信号と、慣性センサの計測結果とを組み合わせることにより、ロケータ4を搭載した自車の車両位置(以下、自車位置)を逐次測位する。自車位置は、例えば緯度経度の座標で表されるものとする。なお、自車位置の測位には、自車に搭載された車速センサから逐次出力される信号から求めた走行距離を用いる構成としてもよい。
車両状態センサ5は、自車の各種状態を検出するためのセンサ群であって、自車の挙動に関する物理状態量を検出する挙動センサ,自車の操作状態を検出するための操作状態センサを含む。挙動センサとしては、自車の車速を検出する車速センサ,自車の操舵角を検出する操舵センサ,自車のヨーレートを検出するヨーレートセンサ等がある。なお、ヨーレートを検出するセンサとしては、ロケータ4の慣性センサを利用する構成としてもよい。操作状態センサとしては、自車のアクセルペダルの開度を検出するアクセルポジションセンサ,自車のブレーキペダルの踏み込み量を検出するブレーキ踏力センサ等がある。車両状態センサ5は、検出したセンシング情報を車内LANへ出力する。なお、車両状態センサ5で検出したセンシング情報は、自車に搭載されるECUを介して車内LANへ出力される構成であってもよい。
車両制御ECU6は、自車の加減速制御及び/又は操舵制御を行う電子制御装置である。車両制御ECU6としては、操舵制御を行う操舵ECU、加減速制御を行うパワーユニット制御ECU及びブレーキECU等がある。車両制御ECU6は、自車に搭載されたアクセルポジションセンサ、ブレーキ踏力センサ、舵角センサ、車速センサ等の各センサから出力される検出信号を取得し、電子制御スロットル、ブレーキアクチュエータ、EPS(Electric Power Steering)モータ等の各走行制御デバイスへ制御信号を出力する。また、車両制御ECU6は、上述の各センサでのセンシング情報を車内LANへ出力可能である。
周辺監視センサ7は、自車の周辺環境を監視する自律センサである。一例として、周辺監視センサ7は、歩行者,人間以外の動物、自車以外の車両等の移動する移動物体、及びガードレール、縁石、及び樹木等の静止している静止物体といった自車周辺の物体の認識に用いられる。他にも、自車周辺の走行区画線等の路面標示の認識にも用いられる。
例えば周辺監視センサ7としては、ミリ波レーダ、ソナー、LIDAR(Light Detection and Ranging/Laser Imaging Detect ion and Ranging)等の測距センサがある。測距センサは、自車の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の位置を検出する。そして、検出結果をセンシング情報として車内LANへ逐次出力する。より詳しくは、測距センサは、探査波を送信してから、物体の表面上の測距点で反射される反射波を受信するまでにかかった時間をもとに、測距センサから測距点までの距離を測定する。また、測距センサは、例えば探査波を走査することで、反射波を受信する際の探査波の送信角度から、測距センサに対する測距点の方位を測定する。そして、この測距点までの距離と測距点の方位とから、自車に対する測距点の位置を検出する。
また、周辺監視センサ7としては、周辺監視カメラがある。周辺監視カメラは、自車周囲の所定範囲を撮像する。周辺監視カメラは、逐次撮像する撮像画像をセンシング情報として車内LANへ逐次出力する。
本実施形態では、周辺監視センサ7として、自車の前方の所定範囲を測定範囲とするLIDAR71と自車の前方の所定範囲を撮像範囲とする前方カメラ72とを用いる場合を例に挙げて以降の説明を行う。
LIDAR71は、レーザ光を複数の方向に照射し、その反射光を受光した方向と時間とに基づいて、反射点毎の位置を検出する装置である。本実施形態では、LIDAR71は、レーザ光を水平方向に走査することで、測距点毎の2次元位置を検出するものとする。一例として、測距点毎の位置情報は、例えばLIDAR71の位置を原点とする2次元直交座標系によって表現される構成とすればよい。この2次元直交座標系のX軸は自車の幅方向の軸,Y軸は自車の前後方向の軸とする。なお、LIDAR71は、垂直方向に配された複数ラインのレーザ光を水平方向に走査することで、測距点毎の3次元位置を検出する構成としてもよいが、以下では説明の簡略化のため、上述の2次元位置を検出する場合を例に挙げて説明を行う。
なお、ここでの垂直方向及び水平方向とはLIDAR71にとっての垂直方向及び水平方向であって、LIDAR71に対して予め設定されている。LIDAR71は、垂直方向が自車の高さ方向と平行となり、且つ、水平方向が自車水平面と平行となる姿勢で取り付けられている。自車水平面は自車の高さ方向に垂直な平面である。垂直方向においてレーザ光を照射する角度範囲が、垂直方向におけるLIDAR71の検出範囲に相当する。また、水平方向においてレーザ光を照射する角度範囲が、水平方向におけるLIDAR71の検出範囲に相当する。垂直方向及び水平方向のそれぞれにおけるレーザ光の照射範囲が、LIDAR71の視野角(つまり、検出範囲)を定める。本実施形態では、水平方向におけるLIDAR71の検出範囲がLIDAR71の検出範囲であるものとして以降の説明を行う。
検出範囲を構成する多数のレーザ光の照射方向は、水平方向の角度によって特定される。水平方向においてレーザ光を照射する数(以降、方位数)は適宜設計されればよい。LIDAR71の検出範囲を一定とした場合、方位数が多いほど解像度が高いことを意味する。
LIDAR71は、所定の検出周期(例えば、100ミリ秒毎)で動作することで、検出範囲内の測距点の群についての測距点群データを逐次生成する。測距点群データは、測距点の群における測距点毎の位置情報を示すものとする。LIDAR71が生成した測距点群データは、自動運転ECU2に出力される。つまり、検出周期ごとに、検出範囲内の測距点の群についての測距点群データが自動運転ECU2に出力される。
なお、本実施形態では、LIDAR71はレーザ光を掃引照射することで所望の検出範囲を形成するスキャン型のLIDARとするが、これに限らない。LIDAR71は、レーザ光を広範囲に照射し、自車の周辺にある物体によって反射したレーザ光を三次元距離画像素子で撮像し、所定のアルゴリズムで解析することで測距点群データを生成するフラッシュ型のLIDARであってもよい。また、レーザ光は、赤外線を用いて実現されていても良い。
自動運転ECU2は、例えばプロセッサ、メモリ、I/O、これらを接続するバスを備え、メモリに記憶された制御プログラムを実行することで自動運転に関する各種の処理を実行する。自動運転に関する各種の処理には、自車の走行車線を推定する処理(以下、走行車線推定処理)も含まれる。ここで言うところのメモリは、コンピュータによって読み取り可能なプログラム及びデータを非一時的に格納する非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。また、非遷移的実体的記憶媒体は、半導体メモリ又は磁気ディスクなどによって実現される。この自動運転ECU2が車載装置に相当する。なお、自動運転ECU2の詳細については、以下で述べる。
<自動運転ECU2の概略構成>
続いて、図2を用いて、自動運転ECU2の概略構成を説明する。図2に示すように、自動運転ECU2は、走行環境認識部20、計画生成部21、及び自動運転機能部22を機能ブロックとして備えている。
続いて、図2を用いて、自動運転ECU2の概略構成を説明する。図2に示すように、自動運転ECU2は、走行環境認識部20、計画生成部21、及び自動運転機能部22を機能ブロックとして備えている。
走行環境認識部20は、通信端末3から取得する地図データ、ロケータ4から取得する自車位置、周辺監視センサ7から取得するセンシング情報、車両状態センサ5から取得するセンシング情報等から、自車の走行環境を認識する。一例として、走行環境認識部20は、これらの情報を用いて、自車の周囲の物体の位置、形状、及び移動状態を認識し、実際の走行環境を再現した仮想空間を生成する。また、自車の走行環境の認識では、走行環境認識部20に含まれる自車線推定部200が、自車が走行中の走行車線を推定する走行車線推定処理を行う。この自車線推定部200が走行車線推定装置に相当する。また、プロセッサが走行車線推定処理についての制御プログラムを実行することが、制御プログラムに対応する走行車線推定方法が実行されることに相当する。
自車線推定部200は、周辺監視センサ7から取得するセンシング情報から走行区画線が認識できる場合には、認識する走行区画線の数であったり、これらの走行区画線に対する自車位置であったりを用いて、自車の走行車線を推定する。周辺監視センサ7から取得するセンシング情報から走行区画線が認識できる場合とは、前方カメラ72の撮像画像に対して画像認識処理を行うことで走行区画線若しくは走行区画線とその種別とを認識できる場合が挙げられる。周辺監視センサ7から取得するセンシング情報から走行区画線が認識できない場合における処理については、後に詳述する。
計画生成部21は、走行環境認識部20で認識する走行環境を用いて、自動運転によって自車を走行させるための走行計画を生成する。例えば、中長期の走行計画として、経路探索処理を行って、自車位置から目的地へ向かわせるための推奨経路を生成する。また、中長期の走行計画に沿った走行を行うための短期の走行計画として、車線変更のための操舵、速度調整のための加減速、及び障害物回避のための操舵及び制動等の実行が決定される。
自動運転機能部22は、計画生成部21から出力される走行計画に従い、自車の加速、制動、及び/又は操舵を車両制御ECU6に自動で行わせることで、ドライバによる運転操作の代行を行う。この運転操作の代行を自動運転と呼ぶ。
<自車線推定部200の概略構成>
ここで、図3を用いて自車線推定部200の概略構成についての説明を行う。自車線推定部200は、図3に示すように、区画線認識部201、地図データ取得部202、車両位置特定部203、測距点取得部204、セルマップ生成部205、セルマップ記憶部206、挙動取得部207、移動量算出部208、状態判別部209、状態特定部210、道路境界推定部211、安定性判定部212、及び走行車線推定部213を機能ブロックとして備える。
ここで、図3を用いて自車線推定部200の概略構成についての説明を行う。自車線推定部200は、図3に示すように、区画線認識部201、地図データ取得部202、車両位置特定部203、測距点取得部204、セルマップ生成部205、セルマップ記憶部206、挙動取得部207、移動量算出部208、状態判別部209、状態特定部210、道路境界推定部211、安定性判定部212、及び走行車線推定部213を機能ブロックとして備える。
区画線認識部201は、前方カメラ72から逐次出力されてくる撮像画像に対してエッジ検出,パターン認識等の画像認識処理を行うことで、走行区画線若しくは走行区画線とその種別とを認識する。なお、区画線認識部201は、機械学習による画像認識処理によって、走行区画線若しくは走行区画線とその種別とを認識する構成としてもよい。
地図データ取得部202は、通信端末3で受信する地図データを取得する。なお、本実施形態では、自車の外部のサーバから地図データを通信端末3で受信する構成を示したが、必ずしもこれに限らない。例えば、自車に搭載される不揮発性メモリに地図データを予め格納しておき、この不揮発性メモリから地図データ取得部202が地図データを取得する構成としてもよい。
車両位置特定部203は、ロケータ4から取得する自車位置と、地図データ取得部202で取得する地図データとから、地図上の自車位置を特定する。一例としては、マップマッチング処理によって道路上に自車位置をマッチングさせて、地図上の自車位置を特定する。車両位置特定部203は、ロケータ4から逐次取得する自車位置から特定できる進行方向をもとにリンク方向も特定して道路上に自車位置をマッチングさせればよい。また、車慮位置特定部203は、片側複数車線の道路の場合に、例えばロケータ4から取得する自車位置が車線別のリンクのいずれに最も近いか等によって、走行車線も仮特定して道路上にマッチングさせればよい。
測距点取得部204は、LIDAR71で検出する測距点の位置を取得する。一例として、測距点取得部204は、LIDAR71の検出周期ごとに検出される、検出範囲内の測距点の群についての測距点群データを逐次取得する。
セルマップ生成部205は、測距点取得部204で位置を逐次取得する測距点を、所定のセルごとに振り分けたセルマップを生成し、セルマップ記憶部206に記憶する。セルマップ記憶部206としては、例えば不揮発性メモリを用いればよい。一例としては、測距点取得部204で逐次取得する、LIDAR71の検出周期ごとの、検出範囲内の測距点の群についての測距点群データの集合(図4参照)を、セルごとに振り分けてセルマップを生成する。図4では、縦軸であるY軸が自車の前後方向の軸を示し、横軸であるX軸が自車の左右方向の軸を示す。自車の左右方向は車幅方向と言い換えることもできる。一例として、本実施形態のLIDAR71では、検出周期ごとに3200個の測距点が検出されるものとする。
セルマップ生成部205は、測距点取得部204で逐次取得する測距点群データの集合のうち、所定範囲(図4のAr参照)について、セルマップ(図5参照)を生成する。一例として、セルマップの範囲は、自車の前後左右12mの矩形状の範囲とし、セルはこの範囲を30cmごとに区切る矩形状の単位とする。図5のVpが自車位置にあたる。セルの単位は、所定の区画単位に相当し、LIDAR71の検出範囲を複数に分割できる単位であればよいものとする。セルマップでは、セルの範囲に複数の測距点が存在する場合であっても、セルごとにまとめて1つの測距点に置き換えることで、測距点の点数を削減する。よって、このセルマップ生成部205が点群削減部に相当する。セルマップを生成することで、以降の処理に用いる測距点数を削減し、処理負荷を軽減することが可能になる。
なお、セルの単位は、処理負荷の観点から、LIDAR71の検出範囲のうちの自車の左右方向の範囲を方位数で除算した値未満となることが好ましい。一例として、セルの単位は、数十cm~数cmのオーダーであることが好ましい。
セルマップ生成部205は、測距点取得部204で新たな検出周期の測距点群データを取得するごとに、測距点群データを追加していくことで、自車の後方についての測距点も含むセルマップを生成すればよい。また、セルマップ生成部205は、前述の所定範囲を外れる測距点は逐次消去してセルマップを生成していくことでセルマップを更新すればよい。
挙動取得部207は、車両状態センサ5のうちの挙動センサでのセンシング結果を取得する。車速センサから自車の車速のセンシング結果を取得したり、ヨーレートセンサから自車のヨーレートのセンシング結果を取得したりする。ヨーレートの代わりに、操舵センサから自車の操舵角のセンシング結果を取得してもよい。
移動量算出部208は、挙動取得部207で逐次取得する挙動センサでのセンシング結果をもとに、自車の移動量を算出する。一例として、移動量算出部208は、ヨーレートセンサで逐次検出する自車のヨーレートと、車速センサで逐次検出する自車の車速とから、自車の移動量を算出する。一例として、移動量算出部208は、測距点取得部204で新たなLIDAR71の検出周期についての測距点の位置を取得するごとに、前回の検出周期から今回の検出周期までの間での自車の移動量(以下、検出周期間移動量)を算出する。
状態判別部209は、今回のLIDAR71の検出周期についての測距点取得部204で取得する測距点の位置が、前回の検出周期についての測距点取得部204で取得した測距点の位置から、検出周期移動量分ずれた位置である場合に、その測距点を静止物体の測距点と判別する。一方、その検出周期移動量分ずれた位置でない場合には、その測距点を移動物体の測距点と判別する。一例として、状態判別部209は、セルマップ中の測距点について、今回の検出周期についての位置が、前回の検出周期についての位置から、検出周期移動量分ずれた位置である場合か否かで、静止物体の測距点か移動物体の測距点かを判別すればよい。
状態特定部210は、状態判別部209で静止物体の測距点と判別することをもとに、その測距点を静止物体の測距点と特定する一方、状態判別部209で移動物体の測距点と判別する測距点を移動物体の測距点と特定する。一例として、状態特定部210は、セルマップ記憶部206に記憶しているセルマップのうちの、状態判別部209で静止物体の測距点と判別する測距点に、静止物体の属性を付与し、静止物体の測距点と特定する。一方、状態特定部210は、セルマップ記憶部206に記憶しているセルマップのうちの、状態判別部209で移動物体の測距点と判別する測距点に、移動物体の属性を付与し、移動物体の測距点と特定する。
道路境界推定部211は、測距点取得部204で位置を逐次取得する測距点の群である測距点群の、自車の左右方向における位置別の分布状況を示す度数分布(以下、左右方向度数分布)から、道路境界の横位置を推定する。詳しくは、左右方向度数分布における自車を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す自車の左右方向における位置を道路境界の横位置と推定する。本実施形態では、道路境界推定部211は、セルマップ記憶部206に記憶しているセルマップの、左右方向度数分布における自車を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す自車の左右方向における位置を道路境界の横位置と推定する。
道路境界推定部211は、道路境界の横位置の推定精度を向上させるため、明らかに道路境界を定める構造物でない移動物体の測距点を左右方向度数分布に用いない構成とすることが好ましい。詳しくは、道路境界推定部211は、状態特定部210で静止物体の測距点と特定する測距点については、左右方向度数分布に用いる一方、状態特定部210で移動物体の測距点と特定する測距点については、左右方向度数分布に用いない。
ここで、図6を用いて、図5のセルマップの左右方向度数分布の図(つまり、ヒストグラム)の一例を示す。自車の左右方向における位置において、自車の前後方向にわたって長く存在し続ける物体ほど、左右方向度数分布の度数が大きくなる。よって、図6に示すように、セルマップの自車の左右方向における位置のうち、前後方向の測距点の多い位置ほど、左右方向度数分布の度数が大きくなる。図6のVpLRが自車の左右方向における自車位置を示している。図6のMvLが、左右方向度数分布の自車よりも左側における最頻値を示している。図6のMvRが、左右方向度数分布の自車よりも右側における最頻値を示している。図6を例に挙げると、道路境界推定部211は、MvLで示す自車の左右方向における位置を自車の左側の道路境界の横位置と推定する。また、道路境界推定部211は、MvRで示す自車の左右方向における位置を自車の右側の道路境界の横位置と推定する。
自車の左右方向における位置において、自車の前後方向にわたって長く存在し続ける物体ほど、左右方向度数分布の度数が大きくなる。道路境界を定める縁石,ガードレール,路側壁,車線分離標としてのポール等の構造物(以下、道路境界構造物)は、車線に対して一定の横位置に存在し続ける可能性が高いため、左右方向度数分布は、道路境界の位置に偏る可能性が高い。よって、左右方向度数分布の自車を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す自車の左右方向における位置を道路境界の横位置と推定することで、道路境界の横位置をより精度良く推定することが可能になる。
安定性判定部212は、左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に最頻値以外にも存在する場合に、それらのピークについての情報を用いて、道路境界推定部211での道路境界の横位置の推定が不安定な状態か否かを判定する。ここで言うところの所定値とは、明らかに道路境界構造物でないものを除外できる程度の値とすればよく、任意に設定可能である。
左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に最頻値以外にも存在する場合とは、以下のような状況において生じると考えられる。例えば、自車を中心とする左右両側のうちの片側に、道路境界構造物以外にも、渋滞車列が存在する状況である。このような状況では、渋滞車列が、自車の左右方向における一定の位置において、自車の前後方向にわたって長く存在し続ける静止物体となるため、左右方向度数分布において、道路境界構造物の位置以外にも、大きなピークが生じる可能性がある。
ここで、図7を用いて、左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に最頻値以外にも存在する場合の一例について説明を行う。図7のAが、路側壁の他に渋滞車列が存在する場合のセルマップの一例を示しており、Htcが渋滞車列による測距点群を示している。渋滞車列は自車の右側に存在しているものとする。図7のBが、図7のAの自車位置Vpよりも右側の一部のセルマップについての左右方向度数分布を示すヒストグラムであり、HtcPが渋滞車列の測距点群によるピークを示している。
自車の右側に渋滞車列が存在する場合、図7のAに示すように、自車位置Vpよりも右側に、路側壁についての測距点群以外に、渋滞車列についての測距点群(図7のHtc参照)が、自車の前後方向にわたって長く存在することになる。渋滞車列の車両は停止していることも多いため、渋滞車列についての測距点は、静止物体の測距点として左右方向度数分布に用いられる。よって、図7のBに示すように、左右方向度数分布において、渋滞車列の測距点群によるピーク(図7のHtcP参照)が最頻値となってしまう場合がある。この場合、道路境界推定部211は、道路境界でない位置を道路境界の横位置と推定してしまうことになる。
これに対して、安定性判定部212は、左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に最頻値以外にも存在する場合に、最頻値の度数に対するそのピークの度数の比率、最頻値についての測距点数、最頻値についての測距点数の経時的な変動量、最頻値が示す位置とそのピークが示す位置との距離、及び最頻値の位置の経時的な変動量の少なくともいずれかを用いて、道路境界推定部211での道路境界の横位置の推定が不安定な状態か否かを判定する。以下では、自車を中心とする左右両側のうちの片側に複数存在する、左右方向度数分布の度数が所定値以上となるピークのうち、最頻値にあたるピークを最頻値と呼び、最頻値以外のピークを、候補ピークと呼ぶ。
候補ピークが存在する場合、最頻値の度数に対する候補ピークの度数の比率が大きければ、最頻値が道路境界構造物によるものか否かがはっきりしない。一方、最頻値の度数に対する他の候補ピークの度数の比率が十分に小さければ、最頻値が道路境界構造物によるものである可能性が高い。よって、安定性判定部212での判定に最頻値の度数に対する候補ピークの度数の比率を用いる際には、この比率が閾値以上の場合に道路境界の横位置の推定が不安定な状態と判定する一方、この比率が閾値未満の場合に道路境界の横位置の推定が不安定な状態でないと判定すればよい。ここで言うところの閾値とは、最頻値が道路境界構造物によるものである可能性が高いか低いかを区分するための値であればよく、任意に設定可能である。
道路境界構造物以外にも、自車の前後方向にわたって長く存在し続ける静止物体が存在する場合、道路境界構造物について得られる測距点数は減るものと考えられる。よって、安定性判定部212での判定に最頻値についての測距点数を用いる際には、この測距点数が閾値未満の場合に道路境界の横位置の推定が不安定な状態と判定する一方、この測距点数が閾値以上の場合に道路境界の横位置の推定が不安定な状態でないと判定すればよい。ここで言うところの閾値とは、最頻値が道路境界構造物によるものである可能性が高いか低いかを区分するための値であればよく、任意に設定可能である。なお、左右方向度数分布のピークについての測距点数は、セルマップの生成による削減後の測距点数と等しい度数を用いる構成としてもよいし、セルマップの生成によって削減する前の測距点数を用いる構成としてもよい。以降についても同様である。
道路境界構造物であれば、自車の左右方向の似たような位置に安定して測距点が得られる一方、渋滞車列であれば、車両間のスペースが存在する分だけ安定して測距点を得ることができないと考えられる。よって、安定性判定部212での判定に最頻値についての測距点数の経時的な変動量を用いる際には、この変動量が閾値以上の場合に道路境界の横位置の推定が不安定な状態と判定する一方、この変動量が閾値未満の場合に道路境界の横位置の推定が不安定な状態でないと判定すればよい。ここで言うところの閾値とは、最頻値が道路境界構造物によるものである可能性が高いか低いかを区分するための値であればよく、任意に設定可能である。
いずれも道路境界構造物である縁石とガードレールとが同時に存在する場合には、最頻値が示す位置と候補ピークが示す位置との距離が近くなると考えられる。一方、道路境界構造物と渋滞車列とが同時に存在する場合には、最頻値が示す位置と候補ピークが示す位置との距離が遠くなると考えられる。よって、安定性判定部212での判定に最頻値が示す位置と候補ピークが示す位置との距離を用いる際には、この距離が閾値以上の場合に道路境界の横位置の推定が不安定な状態と判定する一方、この距離が閾値未満の場合に道路境界の横位置の推定が不安定な状態でないと判定すればよい。ここで言うところの閾値とは、最頻値が道路境界構造物によるものである可能性が高いか低いかを区分するための値であればよく、任意に設定可能である。
道路境界構造物であれば、自車の左右方向の似たような位置に安定して測距点が得られる一方、渋滞車列であれば、車両の形状,車両間のスペースに合わせて測距点の位置が変動すると考えられる。よって、安定性判定部212での判定に最頻値の位置の経時的な変動量を用いる際には、この変動量が閾値以上の場合に道路境界の横位置の推定が不安定な状態と判定する一方、この変動量が閾値未満の場合に道路境界の横位置の推定が不安定な状態でないと判定すればよい。ここで言うところの閾値とは、最頻値が道路境界構造物によるものである可能性が高いか低いかを区分するための値であればよく、任意に設定可能である。
なお、道路境界推定部211での道路境界の横位置の推定が不安定な状態か否かを判定可能であれば、安定性判定部212での判定に、上述した以外の情報を用いる構成としてもよい。また、自車を中心とする左右両側のうちの、左右方向度数分布の度数が所定値以上となるピークが複数存在しない側については、道路境界推定部211での道路境界の横位置の推定が不安定な状態か否かを判定しない構成としてもよいし、道路境界推定部211での道路境界の横位置の推定が不安定な状態でないと判定する構成としてもよい。
走行車線推定部213は、区画線認識部201で走行区画線を認識できる場合には、区画線認識部201で認識する走行区画線を用いて、自車の走行車線を推定する。一例として、車線数情報が示す車線数分の走行区画線が認識できている場合には、それらの走行区画線に対する自車の位置関係から自車の走行車線を推定すればよい。車線数情報が示す車線数分の走行区画線が認識できていない場合にも、走行区画線の種別をもとに、車線数情報が示す車線のうちのどの車線の走行区画線かを推定し、それらの走行区画線に対する自車の位置関係から自車の走行車線を推定すればよい。
一方、走行車線推定部213は、区画線認識部201で走行区画線を認識できない場合には、それまで認識していた走行区画線と、地図データ取得部202で取得する地図データに含まれる、車両位置特定部203で特定する自車位置に対応する車線数情報(以下、対象車線数情報)と、その自車位置に対する道路境界推定部211で推定する道路境界の横位置の位置関係(以下、横位置関係)とを用いて、自車の走行車線を推定する。走行車線推定部213は、対象車線数情報が片側複数車線の場合に、この処理を行う構成とすればよい。走行車線推定部213は、対象車線数情報が片側1車線の場合には、その片側1車線を自車の走行車線と推定すればよい。以下では、対象車線数情報が片側複数車線の場合の処理について説明を行う。
道路境界は車線に対して固定されている。よって、対象車線数情報と横位置関係とを用いれば、自車の走行車線をより精度良く推定することが可能になる。一例として、図8に示すように、片側2車線の場合には、自車が右よりも左の道路境界に近い場合には左側の車線を自車の走行車線と推定すればよい。一方、自車が左よりも右の道路境界に近い場合には右側の車線を自車の走行車線と推定すればよい。なお、図8のVpが自車位置,LAが左側の車線,LBが右側の車線,LRRが左側の道路境界,RRRが右側の道路境界を示している。片側3車線以上の場合には、左右の道路境界の間の領域を車線数で分割した分割領域のいずれに自車位置が含まれるかによって、自車の走行車線を推定すればよい。
なお、左右の道路境界のそれぞれの横位置関係を用いる構成に限らず、一方のみを用いる構成としてもよい。この場合には、その道路境界と自車との距離に応じて、対象車線数情報が示す車線数の車線のうちから、自車の走行車線を推定する構成とすればよい。
また、走行車線推定部213は、道路境界推定部211で推定する道路境界の横位置のうちの、安定性判定部212で推定が不安定な状態と判定される推定結果は用いずに、自車の走行車線を推定する。これは、安定性判定部212で推定が不安定な状態と判定される推定結果を用いて自車の走行車線を推定する場合、実際は道路境界の横位置でない位置を道路境界の横位置として自車の走行車線を誤推定してしまう可能性が高くなるためである。
走行車線推定部213は、左右の道路境界のうちの一方についての推定結果しか用いない場合には、その一方についての横位置の推定結果を用いて自車の走行車線を推定すればよい。また、左右の道路境界のいずれについての推定結果も用いない場合は、区画線認識部201でそれまで認識できていた走行区画線を用いて、自車の走行車線を推定すればよい。一例としては、それまで認識できていた走行区画線が継続していると仮定して、その走行区画線に対する自車の位置関係から自車の走行車線を推定すればよい。
<自車線推定部200での走行車線推定処理>
ここで、図9のフローチャートを用いて、区画線認識部201で走行区画線を認識できない場合における、自車線推定部200での走行車線推定処理の流れの一例について説明を行う。図9のフローチャートは、自車の内燃機関又はモータジェネレータを始動させるためのスイッチ(以下、パワースイッチ)がオンになった場合に開始する構成とすればよい。他にも、自車の手動運転と自動運転との設定を切り替えることができる構成の場合には、自車の自動運転を行う設定となっていることも条件に加える構成とすればよい。
ここで、図9のフローチャートを用いて、区画線認識部201で走行区画線を認識できない場合における、自車線推定部200での走行車線推定処理の流れの一例について説明を行う。図9のフローチャートは、自車の内燃機関又はモータジェネレータを始動させるためのスイッチ(以下、パワースイッチ)がオンになった場合に開始する構成とすればよい。他にも、自車の手動運転と自動運転との設定を切り替えることができる構成の場合には、自車の自動運転を行う設定となっていることも条件に加える構成とすればよい。
まず、ステップS1では、測距点取得部204が、直近のLIDAR71の検出周期に検出された測距点の群についての測距点群データを取得する。ステップS2では、セルマップ生成部205が、S1で取得した測距点群データの集合を、セルごとに振り分けてセルマップを生成する。また、状態特定部210が、セルマップ中の測距点について、状態判別部209での判別結果をもとに、移動物体の測距点か静止物体の測距点かを特定する。
ステップS3では、道路境界推定部211が、S2で生成したセルマップの左右方向度数分布における、自車を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す自車の左右方向における位置を道路境界の横位置と推定する。道路境界推定部211は、S2で移動物体の測距点と特定した測距点を左右方向度数分布に用いないことが好ましい。
ステップS4では、左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に最頻値以外にも存在する場合、つまり片側に複数ピークが存在する場合(S4でYES)には、ステップS5に移る。一方、左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のいずれにも複数存在しない場合(S4でNO)には、ステップS6に移る。
ステップS5では、安定性判定部212が、S3での道路境界の横位置の推定が不安定な状態か否かを判定する。ステップS6では、走行車線推定部213が、S5で不安定な状態と判定した推定結果は用いずに、自車の走行車線を推定する。S6では、S3で推定した道路境界の横位置のうち、S5で不安定な状態と判定した推定結果がなかった場合には、この推定結果を用いて自車の走行車線を推定する。
ステップS7では、走行車線推定処理の終了タイミングであった場合(S7でYES)には、走行車線推定処理を終了する。一方、走行車線推定処理の終了タイミングでなかった場合(S7でNO)には、S1に戻って処理を繰り返す。走行車線推定処理の終了タイミングの一例としては、自車のパワースイッチがオフになった場合等がある。
<実施形態1のまとめ>
実施形態1の構成によれば、LIDAR71で得られる測距点から、道路境界の横位置をより精度良く推定することが可能になる。また、対象車線数情報及び自車位置とこの道路境界の横位置との横位置関係を用いることで、自車の走行車線が、複数存在する車線のいずれであるかを推定することが可能になる。ここで、LIDAR71で得られる測距点から推定する道路境界の横位置を用いるので、カメラ画像の画像認識処理からは走行区画線の種別までを認識することが困難な区間であっても、自車の走行車線を推定することが可能になる。さらに、推定が不安定な状態と判定される横位置の推定結果は走行車線の推定に用いないので、不安定な横位置の推定結果を用いることによる自車の走行車線の推定精度の低下を抑制することが可能になる。その結果、カメラ画像の画像認識処理からは走行区画線の種別までを認識することが困難な区間であっても、自車の走行車線をより精度良く推定することが可能になる。
実施形態1の構成によれば、LIDAR71で得られる測距点から、道路境界の横位置をより精度良く推定することが可能になる。また、対象車線数情報及び自車位置とこの道路境界の横位置との横位置関係を用いることで、自車の走行車線が、複数存在する車線のいずれであるかを推定することが可能になる。ここで、LIDAR71で得られる測距点から推定する道路境界の横位置を用いるので、カメラ画像の画像認識処理からは走行区画線の種別までを認識することが困難な区間であっても、自車の走行車線を推定することが可能になる。さらに、推定が不安定な状態と判定される横位置の推定結果は走行車線の推定に用いないので、不安定な横位置の推定結果を用いることによる自車の走行車線の推定精度の低下を抑制することが可能になる。その結果、カメラ画像の画像認識処理からは走行区画線の種別までを認識することが困難な区間であっても、自車の走行車線をより精度良く推定することが可能になる。
(実施形態2)
実施形態1では、状態特定部210が、状態判別部209で静止物体の測距点と判別する測距点に、静止物体の属性を付与し、静止物体の測距点と特定する構成を示したが、必ずしもこれに限らない。例えば、状態判別部209で静止物体の測距点と判別する測距点であっても、移動物体の測距点に変更して特定する構成(以下、実施形態2)としてもよい。
実施形態1では、状態特定部210が、状態判別部209で静止物体の測距点と判別する測距点に、静止物体の属性を付与し、静止物体の測距点と特定する構成を示したが、必ずしもこれに限らない。例えば、状態判別部209で静止物体の測距点と判別する測距点であっても、移動物体の測距点に変更して特定する構成(以下、実施形態2)としてもよい。
実施形態2の運転支援システム1は、自車線推定部200の代わりに自車線推定部200aを含む点を除けば、実施形態1の運転支援システム1と同様である。ここで、図10を用いて、自車線推定部200aの概略構成についての説明を行う。自車線推定部200aは、図10に示すように、区画線認識部201、地図データ取得部202、車両位置特定部203、測距点取得部204、セルマップ生成部205、セルマップ記憶部206、挙動取得部207、移動量算出部208、状態判別部209、状態特定部210a、道路境界推定部211、安定性判定部212、走行車線推定部213、及び移動可能物体認識部214を機能ブロックとして備える。自車線推定部200aは、状態特定部210の代わりに状態特定部210aを備える点と、移動可能物体認識部214を備える点とを除けば、実施形態1の自車線推定部200と同様である。
移動可能物体認識部214は、自車の前方の所定範囲を撮像する前方カメラ72での撮像画像から、移動し得る物体(以下、移動可能物体)を認識する。移動可能物体としては、自動車といった車両,歩行者が挙げられる。移動可能物体認識部214は、前方カメラ72から逐次出力されてくる撮像画像に対してエッジ検出,パターン認識等の画像認識処理を行うことで、移動可能物体を認識する。また、移動可能物体認識部214は、前方カメラ72のカメラパラメータ及び撮像画像中の移動可能物体の領域から、自車に対する移動可能物体が占める領域の位置座標も特定する。なお、移動可能物体認識部214は、機械学習による画像認識処理によって、前方カメラ72から逐次出力されてくる撮像画像から移動可能物体を認識する構成としてもよい。
状態特定部210aは、実施形態1の状態特定部210と同様に、状態判別部209で静止物体の測距点と判別することをもとに、その測距点を静止物体の測距点と特定する一方、状態判別部209で移動物体の測距点と判別する測距点を移動物体の測距点と特定する。
また、状態特定部210aは、状態判別部209で静止物体の測距点と判別する測距点であっても、移動可能物体認識部214で移動可能物体を認識する領域に位置する測距点については、移動物体の測距点と特定する。一例としては、状態特定部210aは、セルマップ記憶部206に記憶しているセルマップのうちの、状態判別部209で静止物体の測距点と判別する測距点に、静止物体の属性を付与した場合であっても、移動可能物体認識部214で移動可能物体を認識する領域に位置する測距点については、移動物体の属性に変更し、移動物体の測距点と特定する。そして、道路境界推定部211は、状態特定部210aで移動物体の測距点と特定した測距点については、左右方向度数分布に用いずに、道路境界の横位置を推定する。
駐車車両,一時的に停車している渋滞車列の車両といった周辺車両についての測距点をLIDAR71で得る場合、周辺車両が停止していると状態判別部209で静止物体の測距点と判別されてしまう。よって、駐車車両が車線に沿って複数台並んでいたり、渋滞車列が並んでいたりする場合に、図7に示すように、左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に路側壁の位置以外にも生じてしまうことになる。
これに対して、実施形態2の構成によれば、前方カメラ72での撮像画像から、移動可能物体を認識した領域に位置する測距点については、状態特定部210aが移動物体の測距点と特定する。そして、道路境界推定部211は、状態特定部210aで移動物体の測距点と特定した測距点については、左右方向度数分布に用いずに、道路境界の横位置を推定する。
よって、周辺車両が停止していた場合であっても、周辺車両についての測距点が左右方向度数分布に用いられず、左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に路側壁の位置以外にも生じてしまうことを抑える。従って、実施形態2の構成によれば、駐車車両が車線に沿って複数台並んでいたり、渋滞車列が並んでいたりする場合であっても、道路境界推定部211が、これらの車両の位置を道路境界の横位置と誤推定しないようにすることが可能になる。なお、移動可能物体認識部214で認識する移動可能物体を、自車の周辺車両に限定する構成としてもよい。
(実施形態3)
また、以下の実施形態3の構成としてもよい。実施形態3の運転支援システム1は、自車線推定部200aの代わりに自車線推定部200bを含む点を除けば、実施形態2の運転支援システム1と同様である。
また、以下の実施形態3の構成としてもよい。実施形態3の運転支援システム1は、自車線推定部200aの代わりに自車線推定部200bを含む点を除けば、実施形態2の運転支援システム1と同様である。
ここで、図11を用いて自車線推定部200bの概略構成についての説明を行う。自車線推定部200bは、図11に示すように、区画線認識部201、地図データ取得部202、車両位置特定部203、測距点取得部204、セルマップ生成部205、セルマップ記憶部206、挙動取得部207、移動量算出部208、状態判別部209、状態特定部210b、道路境界推定部211、安定性判定部212、走行車線推定部213、移動可能物体認識部214b、軌跡推定部215、及び車列領域推定部216を機能ブロックとして備える。自車線推定部200bは、状態特定部210a及び移動可能物体認識部214の代わりに状態特定部210b及び移動可能物体認識部214bを備える点と、軌跡推定部215及び車列領域推定部216を備える点とを除けば、実施形態2の自車線推定部200aと同様である。
移動可能物体認識部214bは、前方カメラ72から逐次出力されてくる撮像画像から自車の周辺車両を認識する点を除けば、実施形態1の移動可能物体認識部214と同様である。
軌跡推定部215は、移動可能物体認識部214bで逐次認識する周辺車両をもとにその周辺車両の走行軌跡を推定する。一例としては、移動可能物体認識部214bで逐次認識する周辺車両の位置座標の点群をもとに、カーブフィッティングのための回帰分析を行うことで得られる回帰曲線を周辺車両の走行軌跡と推定すればよい。他にも、移動可能物体認識部214bで逐次認識する周辺車両の位置座標をもとにカルマンフィルタで道路形状モデルを推定することで、周辺車両の走行軌跡を推定してもよい。周辺車両の位置座標としては、例えば自車に対する周辺車両の位置を、自車位置を用いて緯度経度の座標に変換したものを用いる構成とすればよい。周辺車両の走行軌跡の推定は、移動可能物体認識部214bで認識できる周辺車両ごとに行う。
車列領域推定部216は、移動可能物体認識部214bで複数の周辺車両を認識できる場合に、移動可能物体認識部214bで認識できている周辺車両についての、軌跡推定部215で推定する走行軌跡を用いて、複数の周辺車両が含まれる車列の領域を推定する。一例としては、複数の周辺車両のお互いの走行軌跡の横位置間の距離が区分距離未満の場合に、同じ車列の走行軌跡とし、同じ車列の走行軌跡のうちの1台の周辺車両の走行軌跡を中心として左右に周辺車両の車幅分拡張した領域を車列の領域と推定する。ここで言うところの区分距離とは、同一車線内の走行軌跡と別車線の走行軌跡とを区分するための距離であって、任意に設定可能である。例えば、道路幅員未満且つ道路幅員の半値以上の距離とすればよい。道路幅員については、地図データから特定すればよい。また、周辺車両の車幅は、移動可能物体認識部214bで認識した周辺車両の車幅から特定してもよいし、平均的な車両の車幅を仮想的に用いる構成としてもよい。
状態特定部210bは、実施形態2の状態特定部210aと同様に、状態判別部209で静止物体の測距点と判別することをもとに、その測距点を静止物体の測距点と特定する一方、状態判別部209で移動物体の測距点と判別する測距点を移動物体の測距点と特定する。また、状態特定部210bは、状態判別部209で静止物体の測距点と判別する測距点であっても、移動可能物体認識部214bで周辺車両を認識する領域に位置する測距点については、移動物体の測距点と特定する。
さらに、状態特定部210bは、状態判別部209で静止物体の測距点と判別する測距点であっても、車列領域推定部216で車列の領域と推定する領域に位置する測距点については、移動物体の測距点と特定する。一例としては、状態特定部210bは、セルマップ記憶部206に記憶しているセルマップのうちの、状態判別部209で静止物体の測距点と判別する測距点に、静止物体の属性を付与した場合であっても、車列領域推定部216で車列の領域と推定する領域に位置する測距点については、移動物体の属性に変更し、移動物体の測距点と特定する。そして、道路境界推定部211は、状態特定部210bで移動物体の測距点と特定した測距点については、左右方向度数分布に用いずに、道路境界の横位置を推定する。
渋滞車列に含まれる車両は、渋滞車列に含まれる他の車両の陰になることで、前方カメラ72の撮像画像からではパターン認識を行うことができず、移動可能物体認識部214bで周辺車両と認識できない場合が考えられる。ここで、図12を例に挙げて説明を行う。図12のSva,Svb,Sbc,Svdが渋滞車列に含まれる周辺車両を示し、Hvが自車を示す。図12のSwが路側壁を示し、破線が周辺車両Svaの走行軌跡,点線が周辺車両Svdの走行軌跡を示す。また、矩形の枠で囲まれた周辺車両が、移動可能物体認識部214bで周辺車両と認識できる周辺車両を示す。渋滞車列に含まれる周辺車両のうち、周辺車両Svb,Svcは、周辺車両Svdに遮られることで、自車Hvの前方カメラ72の撮像画像からは周辺車両と認識できないものとする。
図12の周辺車両Svb,Svcのように、前方カメラ72の撮像画像からは周辺車両と認識できない周辺車両についての測距点は、その周辺車両が一時的に停車していると、状態判別部209で静止物体の測距点と判別されてしまう。また、前方カメラ72の撮像画像からは周辺車両と認識できないため、実施形態2の構成の場合、移動物体の測距点に変更されず、静止物体の測距点と特定されてしまう。よって、渋滞車列に含まれる周辺車両のうちに、前方カメラ72の撮像画像からは周辺車両と認識できない周辺車両が存在すると、左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に路側壁の位置以外にも生じてしまうことになる。
これに対して、実施形態3の構成によれば、移動可能物体認識部214bで複数の周辺車両Sva,Svdを認識できる場合に、認識できている周辺車両Sva,Svdについての走行軌跡を用いて、車列領域推定部216が、複数の周辺車両Sva,Svdが含まれる車列の領域を推定する。そして、状態特定部210bは、状態判別部209で静止物体の測距点と判別する測距点であっても、車列領域推定部216で車列の領域と推定する領域に位置する測距点については、移動物体の測距点と特定する。そして、道路境界推定部211は、状態特定部210bで移動物体の測距点と特定した測距点については、左右方向度数分布に用いずに、道路境界の横位置を推定する。
よって、移動可能物体認識部214bで認識できない周辺車両Svc,Svbが一時的に停止していた場合であっても、車列領域推定部216で周辺車両Sva,Svdが含まれる車列の領域と推定される領域に周辺車両Svc,Svbについての測距点が位置する場合には、状態特定部210bで静止物体の測距点と特定されず、移動体の測距点と特定される。これにより、移動可能物体認識部214bで認識できない周辺車両Svc,Svbについての測距点が左右方向度数分布に用いられず、左右方向度数分布の度数が所定値以上となるピークが、自車を中心とする左右両側のうちの片側に路側壁Swの位置以外にも生じてしまうことを抑える。従って、実施形態3の構成によれば、渋滞車列に含まれる周辺車両のうちに、前方カメラ72の撮像画像からは周辺車両と認識できない周辺車両が存在する場合であっても、道路境界推定部211が、これらの車両の位置を道路境界の横位置と誤推定しないようにすることが可能になる。
(実施形態4)
また、以下の実施形態4の構成としてもよい。実施形態4の運転支援システム1は、自車線推定部200bの代わりに自車線推定部200cを含む点を除けば、実施形態3の運転支援システム1と同様である。
また、以下の実施形態4の構成としてもよい。実施形態4の運転支援システム1は、自車線推定部200bの代わりに自車線推定部200cを含む点を除けば、実施形態3の運転支援システム1と同様である。
ここで、図13を用いて自車線推定部200cの概略構成についての説明を行う。自車線推定部200cは、図13に示すように、区画線認識部201、地図データ取得部202、車両位置特定部203、測距点取得部204、セルマップ生成部205、セルマップ記憶部206、挙動取得部207、移動量算出部208、状態判別部209、状態特定部210c、道路境界推定部211、安定性判定部212、走行車線推定部213、移動可能物体認識部214b、車列領域推定部216c、及びリンク形状推定部217を機能ブロックとして備える。自車線推定部200cは、状態特定部210b及び車列領域推定部216の代わりに状態特定部210c及び車列領域推定部216cを備える点と、リンク形状推定部217を備える点とを除けば、実施形態3の自車線推定部200bと同様である。
リンク形状推定部217は、移動可能物体認識部214bで認識する周辺車両の位置と地図データ取得部202で取得するリンク形状情報とをもとにその周辺車両の位置に沿ったリンク形状を推定する。一例としては、移動可能物体認識部214bで認識する自車に対する周辺車両の位置を、車両位置特定部203で特定する自車位置と、地図データ取得部202で取得する地図データとから、地図上の位置に変換する。そして、地図データ取得部202で取得するリンク形状情報が示すリンク形状のうち、地図上の周辺車両の位置に最も近いリンク形状を、周辺車両の位置に沿ったリンク形状と推定する。つまり、リンク形状推定部217は、周辺車両の走行する車線のリンク形状を推定する。
車列領域推定部216cは、移動可能物体認識部214bで複数の周辺車両を認識できる場合に、移動可能物体認識部214bで認識できている周辺車両についての、リンク形状推定部217で推定するリンク形状を用いて、複数の周辺車両が含まれる車列の領域を推定する。一例としては、周辺車両について推定したリンク形状の座標列を結ぶ近似曲線を中心として左右に周辺車両の車幅分拡張した領域を車列の領域と推定する。なお、周辺車両の車幅は、移動可能物体認識部214bで認識した周辺車両の車幅から特定してもよいし、平均的な車両の車幅を仮想的に用いる構成としてもよい。周辺車両は車線に沿って走行していることから、周辺車両の位置に沿ったリンク形状も、実施形態3の周辺車両の走行軌跡と同様に用いて車列の領域を推定することができる。
状態特定部210cは、実施形態2の状態特定部210aと同様に、状態判別部209で静止物体の測距点と判別することをもとに、その測距点を静止物体の測距点と特定する一方、状態判別部209で移動物体の測距点と判別する測距点を移動物体の測距点と特定する。また、状態特定部210cは、状態判別部209で静止物体の測距点と判別する測距点であっても、移動可能物体認識部214bで周辺車両を認識する領域に位置する測距点については、移動物体の測距点と特定する。
さらに、状態特定部210cは、実施形態3の状態特定部210bと同様に、状態判別部209で静止物体の測距点と判別する測距点であっても、車列領域推定部216cで車列の領域と推定する領域に位置する測距点については、移動物体の測距点と特定する。そして、道路境界推定部211は、状態特定部210cで移動物体の測距点と特定した測距点については、左右方向度数分布に用いずに、道路境界の横位置を推定する。
実施形態4の構成によっても、実施形態3の構成と同様に、移動可能物体認識部214bで認識できない周辺車両が一時的に停止していた場合であっても、車列領域推定部216cで周辺車両が含まれる車列の領域と推定される領域に周辺車両についての測距点が位置する場合には、状態特定部210cで静止物体の測距点と特定されず、移動体の測距点と特定される。よって、渋滞車列に含まれる周辺車両のうちに、前方カメラ72の撮像画像からは周辺車両と認識できない周辺車両が存在する場合であっても、道路境界推定部211が、これらの車両の位置を道路境界の横位置と誤推定しないようにすることが可能になる。
(実施形態5)
前述の実施形態では、道路境界推定部211が、状態特定部210,210a,210b,210cで移動物体の測距点と特定した測距点については、左右方向度数分布に用いずに、道路境界の横位置を推定する構成を示したが、必ずしもこれに限らない。例えば、運転支援システム1に状態判別部209及び状態特定部210,210a,210b,210cを備えず、測距点が移動物体の測距点か静止物体の測距点かにかかわらず、左右方向度数分布に用いる構成としてもよい。
前述の実施形態では、道路境界推定部211が、状態特定部210,210a,210b,210cで移動物体の測距点と特定した測距点については、左右方向度数分布に用いずに、道路境界の横位置を推定する構成を示したが、必ずしもこれに限らない。例えば、運転支援システム1に状態判別部209及び状態特定部210,210a,210b,210cを備えず、測距点が移動物体の測距点か静止物体の測距点かにかかわらず、左右方向度数分布に用いる構成としてもよい。
(実施形態6)
前述の実施形態では、セルマップ生成部205が、測距点取得部204で取得した測距点群データの集合を、セルごとに振り分けてセルマップを生成する構成を示したが、必ずしもこれに限らない。例えば、このセルマップを生成しない構成としてもよい。この場合、道路境界推定部211は、セルマップを生成せずに、測距点取得部204で位置を逐次取得する測距点群の左右方向度数分布から、道路境界の横位置を推定する構成とすればよい。
前述の実施形態では、セルマップ生成部205が、測距点取得部204で取得した測距点群データの集合を、セルごとに振り分けてセルマップを生成する構成を示したが、必ずしもこれに限らない。例えば、このセルマップを生成しない構成としてもよい。この場合、道路境界推定部211は、セルマップを生成せずに、測距点取得部204で位置を逐次取得する測距点群の左右方向度数分布から、道路境界の横位置を推定する構成とすればよい。
(実施形態7)
前述の実施形態では、区画線認識部201で走行区画線を認識できない場合に、道路境界推定部211で推定する道路境界の横位置を用いて自車の走行車線を推定する場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、区画線認識部201で走行区画線を認識できる場合にも、道路境界推定部211で推定する道路境界の横位置を用いて自車の走行車線を推定する構成としてもよい。この場合、お互いを補強的に用いることで自車の走行車線の推定精度を向上させる等すればよい。
前述の実施形態では、区画線認識部201で走行区画線を認識できない場合に、道路境界推定部211で推定する道路境界の横位置を用いて自車の走行車線を推定する場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、区画線認識部201で走行区画線を認識できる場合にも、道路境界推定部211で推定する道路境界の横位置を用いて自車の走行車線を推定する構成としてもよい。この場合、お互いを補強的に用いることで自車の走行車線の推定精度を向上させる等すればよい。
(実施形態8)
前述の実施形態では、区画線認識部201で認識する走行区画線を用いて自車の走行車線を推定する場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、区画線認識部201で認識する走行区画線を用いない構成としてもよい。この構成においては、対象車線数情報と横位置関係とからでは、自車の走行車線を推定することができない場合には、車両位置特定部203で仮特定した走行車線に自車が位置すると一時的に仮定すればよい。そして、対象車線数情報と横位置関係とから、自車の走行車線を推定することが可能になった場合に、自車の走行車線の推定結果を更新すればよい。
前述の実施形態では、区画線認識部201で認識する走行区画線を用いて自車の走行車線を推定する場合を例に挙げて説明を行ったが、必ずしもこれに限らない。例えば、区画線認識部201で認識する走行区画線を用いない構成としてもよい。この構成においては、対象車線数情報と横位置関係とからでは、自車の走行車線を推定することができない場合には、車両位置特定部203で仮特定した走行車線に自車が位置すると一時的に仮定すればよい。そして、対象車線数情報と横位置関係とから、自車の走行車線を推定することが可能になった場合に、自車の走行車線の推定結果を更新すればよい。
本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
ここで、この出願に記載されるフローチャート、あるいは、フローチャートの処理は、複数のセクション(あるいはステップと言及される)から構成され、各セクションは、たとえば、S1と表現される。さらに、各セクションは、複数のサブセクションに分割されることができる、一方、複数のセクションが合わさって一つのセクションにすることも可能である。さらに、このように構成される各セクションは、デバイス、モジュール、ミーンズとして言及されることができる。
本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。
Claims (10)
- 車両で用いられ、
前記車両の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の前記車両に対する位置を検出する測距センサ(71)で検出する前記測距点の位置を取得する測距点取得部(204)と、
前記測距点取得部で位置を逐次取得する前記測距点の群である測距点群の、前記車両の左右方向における位置別の分布状況を示す度数分布での、前記車両を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す前記車両の左右方向における位置を道路境界の横位置と推定する道路境界推定部(211)と、
前記度数分布での度数が所定値以上となるピークが、前記車両を中心とする左右両側のうちの片側に複数存在する場合に、それらのピークについての情報を用いて、前記道路境界推定部での前記道路境界の横位置の推定が不安定な状態か否かを判定する安定性判定部(212)と、
車線数情報を含む地図データを取得する地図データ取得部(202)と、
前記地図データ取得部で取得する前記地図データを用いて、地図上の前記車両の車両位置を特定する車両位置特定部(203)と、
前記地図データ取得部で取得する前記地図データに含まれる、前記車両位置特定部で特定する車両位置に対応する前記車線数情報と、その車両位置に対する前記道路境界推定部で推定する前記道路境界の横位置の位置関係とを用いて、前記車両の走行車線を推定する走行車線推定部(213)とを備え、
前記走行車線推定部は、前記道路境界推定部で推定する前記道路境界の横位置のうちの、前記安定性判定部で推定が不安定な状態と判定される推定結果は用いずに、前記車両の走行車線を推定する走行車線推定装置。 - 前記安定性判定部は、前記度数分布での度数が所定値以上となるピークが前記車両を中心とする左右両側のうちの片側に最頻値以外にも存在する場合に、最頻値の度数に対するそのピークの度数の比率、最頻値についての測距点数、最頻値についての測距点数の経時的な変動量、最頻値が示す位置とそのピークが示す位置との距離、及び最頻値の位置の経時的な変動量の少なくともいずれかを用いて、前記道路境界推定部での前記道路境界の横位置の推定が不安定な状態か否かを判定する請求項1に記載の走行車線推定装置。
- 前記測距点取得部で位置を逐次取得する前記測距点を、前記測距センサの検出範囲を複数に分割できる単位の所定の区画単位ごとに振り分け、前記区画単位ごとにまとめて1つの測距点に置き換える点群削減部(205)を備え、
前記道路境界推定部は、前記測距点取得部で位置を逐次取得する前記測距点をもとに前記点群削減部で前記区画単位ごとにまとめて1つの測距点に置き換えた前記測距点群の前記度数分布での、前記車両を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す前記車両の左右方向における位置を道路境界の横位置と推定する請求項1又は2に記載の走行車線推定装置。 - 前記車両の挙動に関する物理状態量を検出する挙動センサ(5)でのセンシング結果を取得する挙動取得部(207)と、
前記挙動取得部で逐次取得する前記挙動センサでのセンシング結果をもとに、前記車両の移動量を算出する移動量算出部(208)と、
今回の前記測距センサの検出周期についての前記測距点取得部で取得する前記測距点の位置が、前回の前記測距センサの検出周期についての前記測距点取得部で取得した前記測距点の位置から、前記移動量算出部で算出される、前回の前記測距センサの検出周期から今回の前記測距センサの検出周期までの間での前記車両の移動量分ずれた位置である場合に、その測距点を静止物体の測距点と判別する一方、その移動量分ずれた位置でない場合には、その測距点を移動物体の測距点と判別する状態判別部(209)と、
前記状態判別部で静止物体の測距点と判別することをもとに前記測距点を静止物体の測距点と特定する一方、前記状態判別部で移動物体の測距点と判別する前記測距点を移動物体の測距点と特定する状態特定部(210,210a,210b,210c)とを備え、
前記状態特定部で静止物体の測距点と特定する前記測距点については、前記度数分布に用いる一方、前記状態特定部で移動物体の測距点と特定する前記測距点については、前記度数分布に用いない請求項1~3のいずれか1項に記載の走行車線推定装置。 - 前記車両の周辺を撮像するカメラ(72)での撮像画像から移動し得る物体である移動可能物体を認識する移動可能物体認識部(214,214b)を備え、
前記状態特定部(210a,210b,210c)は、前記状態判別部で静止物体の測距点と判別する前記測距点であっても、前記移動可能物体認識部で前記移動可能物体を認識する領域に位置する前記測距点については、移動物体の測距点と特定する請求項4に記載の走行車線推定装置。 - 前記移動可能物体認識部(214b)で認識する前記移動物体は、前記車両の周辺車両であり、
前記移動可能物体認識部で逐次認識する前記周辺車両をもとにその周辺車両の走行軌跡を推定する軌跡推定部(215)と、
前記移動可能物体認識部で複数の前記周辺車両を認識できる場合に、前記移動可能物体認識部で認識できている前記周辺車両についての、前記軌跡推定部で推定する前記走行軌跡を用いて、複数の前記周辺車両が含まれる車列の領域を推定する車列領域推定部(216)を備え、
前記状態特定部(210b)は、前記状態判別部で静止物体の測距点と判別する前記測距点であっても、前記車列領域推定部で車列の領域と推定する領域に位置する前記測距点については、移動物体の測距点と特定する請求項5に記載の走行車線推定装置。 - 前記移動可能物体認識部(214b)で認識する前記移動物体は、前記車両の周辺車両であり、
前記地図データ取得部は、リンク形状情報も含む地図データを取得するものであり、
前記移動可能物体認識部で認識する前記周辺車両の位置と前記地図データ取得部で取得するリンク形状情報とをもとにその周辺車両の位置に沿ったリンク形状を推定するリンク形状推定部(217)と、
前記移動可能物体認識部で複数の前記周辺車両を認識できる場合に、前記移動可能物体認識部で認識できている前記周辺車両についての、前記リンク形状推定部で推定する前記リンク形状を用いて、複数の前記周辺車両が含まれる車列の領域を推定する車列領域推定部(216c)を備え、
前記状態特定部(210c)は、前記状態判別部で静止物体の測距点と判別する前記測距点であっても、前記車列領域推定部で車列の領域と推定する領域に位置する前記測距点については、移動物体の測距点と特定する請求項5に記載の走行車線推定装置。 - 車両で用いられ、
前記車両の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の前記車両に対する位置を検出する測距センサ(71)で検出する前記測距点の位置を取得し、
位置を逐次取得する前記測距点の群である測距点群の、前記車両の左右方向における位置別の分布状況を示す度数分布での、前記車両を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す前記車両の左右方向における位置を道路境界の横位置と推定し、
前記度数分布での度数が所定値以上となるピークが、前記車両を中心とする左右両側のうちの片側に複数存在する場合に、それらのピークについての情報を用いて、前記道路境界の横位置の推定が不安定な状態か否かを判定し、
車線数情報を含む地図データを取得し、
取得する前記地図データを用いて、地図上の前記車両の車両位置を特定し、
取得する前記地図データに含まれる、特定する車両位置に対応する前記車線数情報と、その車両位置に対する、推定する前記道路境界の横位置の位置関係とを用いて、前記車両の走行車線を推定する一方、推定する前記道路境界の横位置のうちの、推定が不安定な状態と判定される推定結果は用いずに、前記車両の走行車線を推定する走行車線推定方法。 - コンピュータを、
車両の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の前記車両に対する位置を検出する測距センサ(71)で検出する前記測距点の位置を取得する測距点取得部(204)と、
前記測距点取得部で位置を逐次取得する前記測距点の群である測距点群の、前記車両の左右方向における位置別の分布状況を示す度数分布での、前記車両を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す前記車両の左右方向における位置を道路境界の横位置と推定する道路境界推定部(211)と、
前記度数分布での度数が所定値以上となるピークが、前記車両を中心とする左右両側のうちの片側に複数存在する場合に、それらのピークについての情報を用いて、前記道路境界推定部での前記道路境界の横位置の推定が不安定な状態か否かを判定する安定性判定部(212)と、
車線数情報を含む地図データを取得する地図データ取得部(202)と、
前記地図データ取得部で取得する前記地図データを用いて、地図上の前記車両の車両位置を特定する車両位置特定部(203)と、
前記地図データ取得部で取得する前記地図データに含まれる、前記車両位置特定部で特定する車両位置に対応する前記車線数情報と、その車両位置に対する前記道路境界推定部で推定する前記道路境界の横位置の位置関係とを用いて、前記車両の走行車線を推定する一方、前記道路境界推定部で推定する前記道路境界の横位置のうちの、前記安定性判定部で推定が不安定な状態と判定される推定結果は用いずに、前記車両の走行車線を推定する走行車線推定部(213)として機能させるための制御プログラム。 - コンピュータにより実行されるインストラクションを含むコンピュータ読み出し可能持続的記録媒体において、当該インストラクションは、
車両の周辺に探査波を送信して物体で反射されるその探査波の反射波を受信することで、その探査波を反射したその物体の表面上の点である測距点の前記車両に対する位置を検出する測距センサ(71)で検出する前記測距点の位置を取得し、
位置を逐次取得する前記測距点の群である測距点群の、前記車両の左右方向における位置別の分布状況を示す度数分布での、前記車両を中心とする左右両側のそれぞれの最頻値から、その最頻値が示す前記車両の左右方向における位置を道路境界の横位置と推定し、
前記度数分布での度数が所定値以上となるピークが、前記車両を中心とする左右両側のうちの片側に複数存在する場合に、それらのピークについての情報を用いて、前記道路境界の横位置の推定が不安定な状態か否かを判定し、
車線数情報を含む地図データを取得し、
取得する前記地図データを用いて、地図上の前記車両の車両位置を特定し、
取得する前記地図データに含まれる、特定する車両位置に対応する前記車線数情報と、その車両位置に対する、推定する前記道路境界の横位置の位置関係とを用いて、前記車両の走行車線を推定する一方、推定する前記道路境界の横位置のうちの、推定が不安定な状態と判定される推定結果は用いずに、前記車両の走行車線を推定することを有する、
コンピュータ読み出し可能持続的記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/370,720 US20210331671A1 (en) | 2019-01-10 | 2021-07-08 | Travel lane estimation device, travel lane estimation method, and computer-readable non-transitory storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019-002929 | 2019-01-10 | ||
JP2019002929A JP7077967B2 (ja) | 2019-01-10 | 2019-01-10 | 走行車線推定装置、走行車線推定方法、及び制御プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US17/370,720 Continuation US20210331671A1 (en) | 2019-01-10 | 2021-07-08 | Travel lane estimation device, travel lane estimation method, and computer-readable non-transitory storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020145053A1 true WO2020145053A1 (ja) | 2020-07-16 |
Family
ID=71521341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/049546 WO2020145053A1 (ja) | 2019-01-10 | 2019-12-18 | 走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20210331671A1 (ja) |
JP (1) | JP7077967B2 (ja) |
WO (1) | WO2020145053A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7303684B2 (ja) * | 2019-07-24 | 2023-07-05 | 株式会社Subaru | 車両の自動運転支援装置 |
JP7347358B2 (ja) | 2020-07-28 | 2023-09-20 | 株式会社Soken | 車両用位置推定装置及び車両用位置推定方法 |
US11967159B2 (en) * | 2022-01-26 | 2024-04-23 | Motional Ad Llc | Semantic annotation of sensor data with overlapping physical features |
WO2023162560A1 (ja) * | 2022-02-22 | 2023-08-31 | 株式会社デンソー | 運転支援装置および運転支援プログラム |
JP7441258B2 (ja) | 2022-03-25 | 2024-02-29 | 本田技研工業株式会社 | 制御装置 |
CN117058647B (zh) * | 2023-10-13 | 2024-01-23 | 腾讯科技(深圳)有限公司 | 车道线处理方法、装置和设备及计算机存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06333192A (ja) * | 1993-05-21 | 1994-12-02 | Mitsubishi Electric Corp | 自動車用白線検出装置 |
WO2014017317A1 (ja) * | 2012-07-27 | 2014-01-30 | 日産自動車株式会社 | 立体物検出装置及び異物検出装置 |
JP2017010078A (ja) * | 2015-06-16 | 2017-01-12 | 日産自動車株式会社 | 路面標示検出装置及び路面標示検出方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5363920B2 (ja) * | 2009-08-31 | 2013-12-11 | 富士重工業株式会社 | 車両用白線認識装置 |
DE102010033729B4 (de) * | 2010-08-07 | 2014-05-08 | Audi Ag | Verfahren und Vorrichtung zum Bestimmen der Position eines Fahrzeugs auf einer Fahrbahn sowie Kraftwagen mit einer solchen Vorrichtung |
JP6333192B2 (ja) | 2015-02-19 | 2018-05-30 | トヨタ自動車株式会社 | 熱電材料の製造方法 |
KR101694347B1 (ko) * | 2015-08-31 | 2017-01-09 | 현대자동차주식회사 | 차량 및 차선인지방법 |
-
2019
- 2019-01-10 JP JP2019002929A patent/JP7077967B2/ja active Active
- 2019-12-18 WO PCT/JP2019/049546 patent/WO2020145053A1/ja active Application Filing
-
2021
- 2021-07-08 US US17/370,720 patent/US20210331671A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06333192A (ja) * | 1993-05-21 | 1994-12-02 | Mitsubishi Electric Corp | 自動車用白線検出装置 |
WO2014017317A1 (ja) * | 2012-07-27 | 2014-01-30 | 日産自動車株式会社 | 立体物検出装置及び異物検出装置 |
JP2017010078A (ja) * | 2015-06-16 | 2017-01-12 | 日産自動車株式会社 | 路面標示検出装置及び路面標示検出方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2020112417A (ja) | 2020-07-27 |
JP7077967B2 (ja) | 2022-05-31 |
US20210331671A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020145053A1 (ja) | 走行車線推定装置、走行車線推定方法、制御プログラム、およびコンピュータ読み出し可能持続的記録媒体 | |
CN110389586B (zh) | 用于地面和自由空间探测的系统和方法 | |
JP5094658B2 (ja) | 走行環境認識装置 | |
CN110471406B (zh) | 自动驾驶系统 | |
JP7059888B2 (ja) | 支援制御システム | |
CN109426261B (zh) | 自动驾驶装置 | |
US11092442B2 (en) | Host vehicle position estimation device | |
JP2004531424A (ja) | 車用の感知装置 | |
JP7147442B2 (ja) | 地図情報システム | |
CN113997950A (zh) | 车辆控制装置和车辆控制方法 | |
US11780436B2 (en) | On-board sensor system | |
CN112498347A (zh) | 用于实时横向控制和转向致动评估的方法和装置 | |
US11420632B2 (en) | Output device, control method, program and storage medium | |
JP7043765B2 (ja) | 車両走行制御方法及び装置 | |
WO2020070996A1 (ja) | 走行車線推定装置、走行車線推定方法、制御プログラム、及びコンピュータ読み取り可能な非一時的な記憶媒体 | |
CN111688682B (zh) | 驾驶控制系统 | |
US11760345B2 (en) | Vehicle traveling control apparatus | |
JP2019070895A (ja) | 走路認識装置 | |
JP7152848B2 (ja) | 車外環境認識装置 | |
US11920949B2 (en) | Map generation apparatus | |
JP7416114B2 (ja) | 表示制御装置および表示制御プログラム | |
US11867526B2 (en) | Map generation apparatus | |
US20220268596A1 (en) | Map generation apparatus | |
US20230314165A1 (en) | Map generation apparatus | |
US20220262138A1 (en) | Division line recognition apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19908634 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19908634 Country of ref document: EP Kind code of ref document: A1 |