JPWO2020008221A1 - 走行支援方法及び走行支援装置 - Google Patents

走行支援方法及び走行支援装置 Download PDF

Info

Publication number
JPWO2020008221A1
JPWO2020008221A1 JP2020528523A JP2020528523A JPWO2020008221A1 JP WO2020008221 A1 JPWO2020008221 A1 JP WO2020008221A1 JP 2020528523 A JP2020528523 A JP 2020528523A JP 2020528523 A JP2020528523 A JP 2020528523A JP WO2020008221 A1 JPWO2020008221 A1 JP WO2020008221A1
Authority
JP
Japan
Prior art keywords
boundary line
vehicle
lane
lane boundary
traveling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020528523A
Other languages
English (en)
Other versions
JP6973964B2 (ja
Inventor
忠久 宮川
忠久 宮川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Publication of JPWO2020008221A1 publication Critical patent/JPWO2020008221A1/ja
Application granted granted Critical
Publication of JP6973964B2 publication Critical patent/JP6973964B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • G01C21/3819Road shape data, e.g. outline of a route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • G01C21/32Structuring or formatting of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

センサにより車両の周囲に存在する車線境界線を検出し(S2)、車両の自己位置を算出し(S1)、自己位置に基づき、検出した車線境界線の座標系を、記憶装置に記憶された地図データと同じ座標系に変換し(S3)、地図データに含まれる車線境界線の形状情報と、座標系を変換した車線境界線とを統合して統合データを生成する(S4〜6)走行支援方法において、車線境界線が、互いに異なる曲率を有する複数の部分、及び互いに異なる方向を有する複数の直線部分の少なくとも一方を含むように、形状情報と、座標系を変換した車線境界線とを統合する際の統合範囲を決定し(S4)、決定した統合範囲を少なくとも含むように、形状情報と、座標系を変換した車線境界線とを対応付けて統合データを生成する(S5,S6)。

Description

本発明は、走行支援方法及び走行支援装置に関する。
特許文献1には、センサによって取得された実世界の観測情報と、周囲環境のリファレンスとなる地図との間の不整合を判定する技術が記載されている。
特開2017−181870号公報
しかしながら、特許文献1に記載の技術では、観測情報と地図とのマッチングを行う範囲の道路形状が考慮されていない。このため、マッチングを行う範囲内の道路形状が直線又は一定の曲率を有するカーブのみであって道路形状に特徴が無い場合、マッチングのずれが生じる場合がある。
本発明は、地図データの道路の形状情報と、センサにより検出された道路の形状情報とのマッチングを適切に行うことができる走行支援方法及び走行支援装置を提供することを目的とする。
本発明の一態様では、センサにより車両の周囲に存在する車線境界線を検出し、車両の自己位置を算出し、自己位置に基づき、検出した車線境界線の座標系を、記憶装置に記憶された地図データと同じ座標系に変換し、地図データに含まれる車線境界線の形状情報と、座標系を変換した車線境界線とを統合して統合データを生成する走行支援方法において、車線境界線が、互いに異なる曲率を有する複数の部分、及び互いに異なる方向を有する複数の直線部分の少なくとも一方を含むように、形状情報と、座標系を変換した車線境界線とを統合する際の統合範囲を決定し、決定した統合範囲を少なくとも含むように、形状情報と、座標系を変換した車線境界線とを対応付けて統合データを生成する。
本発明の一態様によれば、地図データの道路の形状情報と、センサにより検出された道路の形状情報とのマッチングを適切に行うことができる走行支援方法及び走行支援装置を提供することができる。
なお、本発明の目的及び利点は、特許請求の範囲に示した要素及びその組合せを用いて具現化され達成される。前述の一般的な記述及び以下の詳細な記述の両方は、単なる例示及び説明であり、特許請求の範囲のように本発明を限定するものでないと解するべきである。
本発明の実施形態に係る走行支援装置の一例の概略構成例を示す図である。 マッチング処理の一例の説明図である マッチング結果の一例の説明図である。 統合範囲の決定処理の一例を示す説明図である。 車線進行方向の角度の算出処理の一例の説明図である。 車線進行方向の角度の算出処理の一例の説明図である。 車線進行方向の角度の分布を示すグラフである。 統合範囲の決定処理の一例を示す説明図である。 車線進行方向の角度の分布を示すグラフである。 本発明の実施形態に係る走行支援方法の一例のフローチャートである。 統合範囲の決定処理の一例のフローチャートである。 統合範囲の決定処理の一例を示す説明図である。 統合範囲の決定処理の一例を示す説明図である。 統合範囲の決定処理の一例を示す説明図である。
以下において、図面を参照して、本発明の実施形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を貼付している。
(走行支援装置)
本発明の実施形態に係る走行支援装置は、車両に搭載可能である(以下、本発明の実施形態に係る走行支援装置が搭載された車両を「自車両」という)。図1に示すように、本発明の実施形態に係る走行支援装置1は、記憶装置2、地球測位システム(GPS)受信機(GPSセンサ)3、車両センサ4、周囲センサ5、処理回路6、ディスプレイ7、車両制御装置8及びアクチュエータ9を備える。処理回路6と、記憶装置2、GPS受信機3、車両センサ4、周囲センサ5、ディスプレイ7及び車両制御装置8とは、コントローラエリアネットワーク(CAN)バス等の有線又は無線でデータや信号を送受信可能である。
記憶装置2は、例えば、半導体記憶装置、磁気記憶装置又は光学記憶装置等であってよい。記憶装置2は、処理回路6に内蔵されていてもよい。記憶装置2は、地図データを記憶する地図記憶部10を備える。地図記憶部10に記憶されている地図データには、本発明の実施形態に係る走行支援装置1によって、周囲センサ5により取得した点データが統合される。地図記憶部10に記憶されている地図データは、例えば高精度地図データ(以下、単に「高精度地図」という)であってよい。
高精度地図は自動運転用の地図として好適である。高精度地図は、ナビゲーション用の地図データ(以下、単に「ナビ地図」という)よりも高精度の地図データであり、道路単位の情報よりも詳細な車線単位の情報を含む。例えば、高精度地図は車線単位の情報として、車線基準線(例えば車線内の中央の線)上の基準点を示す車線ノードの情報と、車線ノード間の車線の区間態様を示す車線リンクの情報を含む。車線ノードの情報は、その車線ノードの識別番号、位置座標、接続される車線リンク数、接続される車線リンクの識別番号を含む。車線リンクの情報は、その車線リンクの識別番号、車線の種類、車線の幅員、車線の形状、車線境界線の種類、車線境界線の形状、車線基準線の形状等の情報を含む。
高精度地図は更に、車線上又はその近傍に存在する信号機、停止線、標識、建物、電柱、縁石、横断歩道等の地物の種類及び位置座標と、地物の位置座標に対応する車線ノードの識別番号及び車線リンクの識別番号等の、地物の情報を含む。高精度地図は、車線単位のノード及びリンク情報を含むため、走行経路において自車両が走行する車線を特定可能である。高精度地図は、車線の延伸方向及び幅方向における位置を表現可能な座標を有する。高精度地図は、3次元空間における位置を表現可能な座標(例えば経度、緯度及び高度)を有し、車線や上記地物は3次元空間における形状として記述され得る。
例えば、高精度地図は、車線境界線を構成する構成点(境界点)の点群データを有してよい。なお、走行支援装置1によって周囲センサ5により取得した車両境界線のデータと統合される地図データは、必ずしも高精度地図でなくてよく、車線境界線を構成する構成点の点群データを含む地図データであればよい。
なお、走行支援装置1とは別のサーバで地図データのデータベースを管理し、更新された地図データの差分データを、例えばテレマティクスサービスを通じて取得し、地図記憶部10に記憶された地図データの更新を行ってもよい。また、地図データを自車両が走行している位置に合わせて、車車間通信や路車間通信等のテレマティクスサービスにより取得するようにしてもよい。テレマティクスサービスを用いることにより、自車両では、データ容量が大きい地図データを有しておく必要がなく、メモリの容量の抑制することができる。また、テレマティクスサービスを用いることにより、更新された地図データを取得できるため、道路構造の変化、工事現場の有無等、実際の走行状況を正確に把握できる。更に、テレマティクスサービスを用いることにより、自車両以外の複数の他車両から集められたデータに基づき作成された地図データを用いることができるため、正確な情報を把握できる。
GPS受信機3は、複数の航法衛星から電波を受信して自車両の現在位置(自己位置)を取得し、取得した自車両の現在位置を処理回路6に出力する。なお、GPS受信機3以外の他の全地球型測位システム(GNSS)受信機を有していてもよい。
車両センサ4は、自車両の現在位置及び走行状態(挙動)等を検出するセンサである。車両センサ4は、例えば車速センサ、加速度センサ、ジャイロセンサ及びヨーレートセンサであってよいが、車両センサ4の種類及び個数はこれに限定されない。車速センサは、自車両の車輪速に基づき車速を検出し、検出された車速を処理回路6に出力してよい。加速度センサは、自車両の前後方向及び車幅方向等の加速度を検出し、検出された加速度を処理回路6にしてよい。ジャイロセンサは、自車両の角速度を検出し、検出された角速度を処理回路6に出力してよい。例えば、ヨーレートセンサは、自車両の重心点を通る鉛直軸まわりの回転角速度(ヨーレート)を検出し、検出されたヨーレートを処理回路6に出力してよい。
周囲センサ5は、自車両の周囲環境(周囲状況)を検出するセンサである。周囲センサ5は、例えばカメラ、レーダ及び通信機等であってよいが、周囲センサ5の種類や個数はこれに限定されない。周囲センサ5として使用されるカメラは、例えばCCDカメラ等であってよい。カメラは単眼カメラであってもよく、ステレオカメラであってもよい。カメラは、自車両の周囲環境を撮像し、撮像画像から他車両、歩行者又は自転車等の物体と自車両との相対位置、物体と自車両との距離、道路上の車線境界線(白線)や縁石等の道路構造等を自車両の周囲環境のデータとして検出し、検出された周囲環境のデータを処理回路6に出力する。
周囲センサ5として使用されるレーダは、例えばミリ波レーダや超音波レーダ、レーザ車線ジファインダ(LRF)等であってよい。レーダは、物体と自車両との相対位置、物体と自車両との距離、物体と自車両との相対速度等を自車両の周囲環境のデータとして検出し、検出された周囲環境のデータを処理回路6に出力する。
周囲センサ5として使用される通信機は、他車両との車車間通信、路側機との路車間通信、又は交通情報センタ等との通信等を行うことにより、自車両の自己位置を含む、自車両の周囲環境のデータを受信し、受信した周囲環境のデータを処理回路6に出力してよい。本明細書においては、GPS受信機3、車両センサ4、周囲センサ5のそれぞれを、自車両の周囲の実際(現実)の道路構造等を検出可能なセンサとして使用できる。
処理回路6は、自車両の走行支援に必要な処理の算術論理演算を行う電子制御ユニット(ECU)等のコントローラである。例えば処理回路6は、例えば、プロセッサ、記憶装置及び入出力I/Fを備えてもよい。プロセッサは、算術論理演算装置(ALU)、制御回路(制御装置)、各種レジスタ等を含む中央演算処理装置(CPU)等や、これと等価なマイクロプロセッサであってよい。処理回路6に内蔵又は外付けされる記憶装置は、半導体メモリやディスクメディア等であってよく、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM及びRAM等の記憶媒体を含んでいてもよい。例えば、処理回路6のプロセッサは、記憶装置に予め記憶されたプログラムを実行することにより、以下に説明する走行支援装置1による情報処理を実行する。
例えば、処理回路6は、地図記憶部10に記憶されている地図データに基づく案内情報をディスプレイ7や他のスピーカ等の情報提示装置から出力して、乗員に対して提示してよい。また、例えば処理回路6は、自車両の走行支援を実施してよい。例えば走行支援は、乗員(例えば運転者)が関与せずに自動的に自車両が運転する完全自動運転であってもよく、駆動、制動、操舵の少なくとも一つを制御する運転支援であってもよい。すなわち、本明細書において走行支援は、乗員が関与せずに自車両の駆動、制動及び操舵の全ての制御を実行する場合を含み、自車両の駆動、制動及び操舵の少なくとも1つの制御を実行する場合も含む。
走行支援を実施する際に、処理回路6は、地図記憶部10に記憶されている地図データに基づき自車両を走行させる走行経路を生成する。走行経路には、自車両の現在地から目的地までの道路単位の走行経路の他に、車線単位の走行軌跡も含む。走行軌跡は、速度プロファイル等の走行制御プロファイルも含んでいてもよい。例えば、処理回路6は、地図データ上の自車両の位置を特定し、自車両の位置を基準にして、車線内に引かれるように走行経路(走行軌跡)を生成する。走行経路(走行軌跡)は、例えば車線内の中央を通るように生成されてもよい。
走行経路を生成する際に、処理回路6は、地図記憶部10に記憶されている地図データを参照するが、周囲センサ5からも高精度の周囲環境の位置情報を取得できる。したがって、地図データだけでなく、地図データと周囲センサ5からの周囲環境のデータとを統合した統合データを作成し、統合データを用いて走行経路を生成することが望ましい。処理回路6は、生成した走行経路を車両制御装置8へ出力する。
車両制御装置8は、自車両の走行制御を行うECUである。車両制御装置8は、プロセッサと、記憶装置等の周辺部品とを含む。プロセッサは、例えばCPUや、これと等価なマイクロプロセッサであってよい。記憶装置は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶装置は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM及びRAM等のメモリを含んでよい。なお、汎用の半導体集積回路中に設定される機能的な論理回路で車両制御装置8を実現してもよい。例えば、車両制御装置8はフィールド・プログラマブル・ゲート・アレイ(FPGA)等のプログラマブル・ロジック・デバイス(PLD)等を有していてもよい。
車両制御装置8は、処理回路6が生成した走行経路を自車両が走行するようにアクチュエータ9の制御量を算出する。車両制御装置8は、算出した制御量をアクチュエータ9へ送信する。アクチュエータ9は、車両制御装置8からの制御信号に応じて自車両の走行を制御する。アクチュエータ9は、例えば駆動アクチュエータ、ブレーキアクチュエータ及びステアリングアクチュエータであってよい。駆動アクチュエータは、例えば電子制御スロットルバルブであってよく、車両制御装置8からの制御信号に基づき自車両のアクセル開度を制御する。ブレーキアクチュエータは、例えば油圧回路であってよく、車両制御装置8からの制御信号に基づき自車両のブレーキの制動動作を制御する。ステアリングアクチュエータは、車両制御装置8からの制御信号に基づき自車両のステアリングを制御する。
ここで、図2及び図3を参照して、本発明の実施形態に係る走行支援装置1が有効となる走行シーンを説明する。図2に示すように、地図データは、自車両100が走行する車線L0を区画する一方の車線境界線L1を構成する複数の構成点P1の位置座標と、車線L0を区画する他方の車線境界線L2を構成する複数の構成点P2の位置座標を記憶する。周囲センサ5は、自車両100の走行中に車線境界線L1,L2に相当する実世界の車線境界線を検出することにより、車線境界線L1に相当する実世界の車線境界線を検出したときの複数の検出点p1の位置座標と、車線境界線L2に相当する実世界の車線境界線を検出したときの複数の検出点p2の位置座標とを検出する。図2において、自車両100の進行方向D0、車線L0の進行方向D1をそれぞれ矢印で示している。
ここで、一定の統合範囲(マッチング範囲)A1において、地図データの車線境界線L1,L2の形状情報である構成点P1,P2と、周囲センサ5により検出された検出点p1,p2とをマッチング(照合)により対応付けて、統合データを生成することを考える。この場合、統合範囲A1内の車線L0は道路形状が一直線のみであり、道路形状に特徴がないため、車線L0の進行方向D1においてデータの拘束力が無く、車線L0の進行方向D1においてマッチングにずれが生じる。このため、例えば検出点p1,p2との誤差を小さくするように地図データの構成点P1,P2を補正したとする。この場合、図3に示すように、道路形状が直線からカーブに変化した後の範囲A2において、補正後の構成点P3,P4で構成する車線境界線L3、L4が、実世界の車線境界線L5,L6とずれる場合がある。
また、道路形状が一直線の場合も同様に、一定の曲率のカーブのみの場合も道路形状に特徴がないため、車線の進行方向においてマッチングにずれが生じる。これに対して、本発明の実施形態に係る走行支援装置1は、道路形状に特徴を考慮してマッチングを含む統合データ生成時の適切な統合範囲を決定し、マッチングのずれを抑制して、適切な統合データを生成可能とするものである。
図1に示すように、本発明の実施形態に係る走行支援装置1の処理回路6は、自己位置算出部11、境界線認識部12と、統合範囲決定部13と、マッチング部14と、統合部15と、走行経路演算部16等の論理ブロックを機能的若しくは物理的なハードウェア資源として備える。自己位置算出部11、境界線認識部12、統合範囲決定部13、マッチング部14、統合部15、及び走行経路演算部16は、FPGA等のPLD等の物理的な論理回路であってもよく、汎用の半導体集積回路中にソフトウェアによる処理で等価的に設定される機能的な論理回路でもよい。
また、自己位置算出部11、境界線認識部12、統合範囲決定部13、マッチング部14、統合部15、及び走行経路演算部16は、単一のハードウェアで実現されてもよく、それぞれ別個のハードウェアで実現されてもよい。例えば、自己位置算出部11、境界線認識部12、統合範囲決定部13、マッチング部14、統合部15及び走行経路演算部16を、車載インフォテイメント(IVI)システム等のカーナビゲーションシステムで実現してもよく、車両制御装置8を、先進走行支援システム(ADAS)等の走行支援システムで実現してもよい。
自己位置算出部11は、GPS受信機3や路車間通信又は車車間通信等から自車両の自己位置の履歴(点列)を取得する。自己位置算出部11は、実世界の自車両の自己位置の座標系を、地図データと同じ座標系に変換し、地図データ上の自車両の自己位置を算出してもよい。例えば、GPS受信機3から得られる実世界の自車両の自己位置の位置座標を地図座標系の位置座標に変換する。自己位置算出部11は、車両センサ4により検出された自車両の車輪速及びヨーレート等の車両情報(オドメトリ情報)から自車両の移動量及び移動方向を算出すること、即ちオドメトリにより、自己位置の履歴を算出してもよい。自己位置算出部11は、自己位置の履歴を構成する点を曲線近似することにより自車両の走行軌跡を算出してもよい。
境界線認識部12は、周囲センサ5が検出した周囲環境のデータに基づき、車線境界線を認識する。境界線認識部12は、例えば白線等の車線マーカを車線境界線として認識する。なお、車線境界線の種類は特に限定されず、地図データに車線境界線として含まれている物標であればよい。例えば、境界線認識部12は、側溝、縁石、ガードレール、柱等の構造物を車線境界線として認識してもよい。
更に、境界線認識部12は、自己位置算出部11により算出された自己位置に基づき、認識した車線境界線の座標系を、地図データと同じ座標系に変換する。境界線認識部12は、例えば自己位置算出部11により取得された、GPS受信機3からの自車両の自己位置に基づき、自己位置を原点とするローカル座標系である車線境界線の検出点の座標系を、地図データが準拠する地図座標系へ変換する。なお、位置合わせができるフォーマットであれば、地図座標系でなくともよく、例えば相対座標系に変換してもよい。
例えば図4に示すように、地図データは、自車両100が走行する車線L9を区切る一方の車線境界線L7を構成する複数の構成点P11,P12,P13,P14,P15の位置座標と、他方の車線境界線L8を構成する複数の構成点P31,P32,P33,P34,P35の位置座標を記憶する。車線境界線L7,L8を示す破線は、構成点P11〜P15,P31〜P35をそれぞれ曲線で補間して求められたものとする。図4において、X方向を地図座標系の東西方向の東向きを正とする方向とし、Y方向を地図座標系の南北方向の北向きを正とする方向とする。
車線境界線L7は、車線L9の進行方向D2に延伸する部分(直線部分)L71と、直線部分L71に接続し、左カーブである部分(曲線部分)L72と、曲線部分L72に接続し、進行方向D2と直交する方向の車線L9の進行方向D3に延伸する部分(直線部分)L73を有する。車線境界線L8は、進行方向D2に延伸する部分(直線部分)L81と、直線部分L81に接続し、左カーブである部分(曲線部分)L82と、曲線部分L82に接続し、進行方向D2と直交する方向の進行方向D3に延伸する部分(直線部分)L83を有する。
周囲センサ5は、自車両100が走行中に車線境界線L7,L8に相当する実世界の車線境界線を検出する。境界線認識部12は、周囲センサ5による検出結果から車線境界線L7,L8に相当する実世界の車線境界線を認識し、車線境界線L7に相当する実世界の車線境界線を検出したときの複数の検出点p11〜p19の位置座標と、車線境界線L8に相当する実世界の車線境界線を検出したときの複数の検出点p21〜p29の位置座標とを算出する。なお、図4では、一対の車線境界線L7,L8に相当する実世界の車線境界線を認識する場合を例示するが、車線境界線L7,L8のいずれか一方に相当する実世界の車線境界線のみを認識してもよい。また、図4では自車両100の後方の検出点p11〜p19,p21〜p29を示すが、自車両100が走行中に、自車両100の前方及び側方で車線境界線L7,L8を検出し、検出点を取得してもよい。
統合範囲決定部13は、地図データに含まれる車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とを統合する際の統合範囲(マッチング範囲)を決定する。例えば、統合範囲決定部13は、車線境界線が互いに異なる曲率又は曲率半径を有する複数の部分を含むように統合範囲を決定する。曲率半径は、例えば、車線境界線の曲線部分を円弧に近似して求めることができ、曲率は、曲率半径の逆数として求めることができる。複数の部分のそれぞれは、直線部分であってもよく、曲線部分であってもよい。即ち、複数の部分は、2つ以上の互いに異なる曲率を有する曲線部分の組み合わせであってもよく、直線部分と曲線部分との組み合わせであってもよい。
例えば図4に示すように、車線境界線L7の直線部分71,L73の曲率は0であり、曲線部分72の曲率とは異なる。このため、統合範囲決定部13は、車線境界線L7の2つの部分L71,L72を含むように統合範囲を決定してもよく、2つの部分L72,L73を含むように統合範囲を決定してもよい。或いは、統合範囲決定部13は、車線境界線L7の3つの部分L71,L72,L73を含むように統合範囲を決定してもよい。
統合範囲決定部13は、車線境界線が互いに異なる方向を有する複数の直線部分を含むように統合範囲を決定してもよい。更に、統合範囲決定部13は、互いになす角度(角度差)が所定の閾値(例えば30°)以上、且つ所定の閾値(例えば90°)以下である複数の直線部分を含むように統合範囲を決定してもよい。換言すれば、統合範囲決定部13は、車線境界線が、所定の方向(例えば図4のX方向)に対して互いに異なる角度を有する複数の直線部分を含むように統合範囲を決定してもよい。例えば図4に示すように、統合範囲決定部13は、車線境界線L7の互いに直交する方向を有する2つの直線部分L71,L73を含むように統合範囲を決定してもよい。
例えば、統合範囲決定部13は、地図データの車線境界線を構成する構成点の点群データから、周囲センサ5により車線境界線を検出した各検出点に対応する構成点をそれぞれ特定する。構成点は、地図データに記憶された構成点でもよく、地図データに記憶された構成点間を曲線で補間してその曲線上に設定した仮想的な構成点でもよい。統合範囲決定部13は、特定された各構成点において、所定の方向と車線の進行方向とがなす角度をそれぞれ評価する。車線の進行方向は、自車両の姿勢や地図データに含まれるリンク情報等から求めることができる。統合範囲決定部13は、各構成点で評価した角度のばらつきが所定の閾値以上となるように統合範囲を決定する。角度のばらつきとしては、例えば各構成点で評価した角度のデータとその平均値との差分値を求め、差分値をそれぞれ2乗し、平均を取ることにより分散を求めてもよい。
また、統合範囲決定部13は、周囲センサ5により車線境界線を検出した各検出点に対応する構成点を特定した後、各構成点間を曲線で補間し、各検出点に対する曲線上の最近傍点を算出してもよい。そして、統合範囲決定部13が、各最近傍点において、所定の方向と車線の進行方向とがなす角度をそれぞれ評価し、各最近傍点で評価した角度のばらつきが所定の閾値以上となるように統合範囲を決定してもよい。
例えば図4に示すように、統合範囲決定部13は、周囲センサ5により車線境界線を検出した各検出点p11〜p19,p21〜p29に対応する地図データの構成点を各検出点p11〜p19,p21〜p29から所定の距離閾値内でそれぞれ探索する。この結果、統合範囲決定部13は、検出点p13,p17,p23,p27に対応する構成点P11,P15,P31,P35を特定する。
更に、統合範囲決定部13は、構成点P11,P15を含む構成点P11〜P15間を曲線L7で補間すると共に、構成点P31,P35を含む構成点P31〜P35間を曲線L8で補間する。更に、統合範囲決定部13は、対応する構成点が特定されていない各検出点p11,p12,p14,p15,p16,p17,p18,p19に対応する曲線L7上の最近傍点P21〜P27を仮想的な構成点として算出すると共に、検出点p21,p22,p24,p25,p26,p27,p28,p29に対応する曲線L8上の最近傍点P41〜P47を仮想的な構成点として算出する。
各検出点p11〜p19,p21〜p29、各構成点P11〜P15,P31〜35及び最近傍点P21〜27,P41〜47の位置座標や、各検出点p11〜p19,p21〜p29と各構成点P11〜P15,P31〜35及び最近傍点P21〜27,P41〜47とを対応付けた情報は、記憶装置2の地図記憶部10等に記憶され、統合範囲を拡大する際等に適宜使用可能である。
更に、統合範囲決定部13は、各構成点P11〜P15及び最近傍点P21〜27において、所定の方向と車線の進行方向とがなす角度をそれぞれ評価する。例えば図5に示すように、構成点P11において、X方向を0°とし、自車両の進行方向D2がX方向に対して反時計回りに測った角度θ1=180°を算出する。一方、図6に示すように、構成点P15において、自車両の進行方向D3がX方向に対して反時計回りに測った角度θ1=90°を算出する。各構成点P12〜P14及び最近傍点P21〜27においても同様にして角度を算出する。なお、各構成点P31〜P35及び最近傍点P41〜47においても同様にして角度を算出する。
更に、統合範囲決定部13は、統合範囲の初期値を設定し、統合範囲内の各構成点及び最近傍点で評価した角度のばらつき(分散)が所定の閾値以上か否かを判定する。統合範囲決定部13は、角度のばらつき(分散)が所定の閾値未満の場合には、所定の閾値以上となるまで統合範囲を拡大していくことで、統合範囲を決定する。例えば図4に示すように、車線境界線L7が直線部分L71のみを含み、且つ車線境界線L8が直線部分L81のみを含むように統合範囲A1を決定した場合、図7に示すように、統合範囲A1内の各構成点P11,P12及び最近傍点P21〜P24での角度のばらつきd1が僅かである。統合範囲決定部13は、角度のばらつきd1が所定の閾値未満と判定する。
このため、統合範囲決定部13は、図8に示すように、車線境界線L7が3つの部分L71,L72,L73を含み、車線境界線L8が3つの部分L81,L82,L83を含むように統合範囲A1を拡大する。この結果、拡大した統合範囲A1内の各構成点P11〜P15及び最近傍点P21〜27の角度のばらつきd2は、例えば図9に示すように大きくなる。統合範囲決定部13は、角度のばらつきが所定の閾値以上と判定し、図8に示した統合範囲A1で決定する。なお、図8では、統合範囲A1を自車両100の後方で決定しているが、自車両100の前方まで含む領域で統合範囲を決定してもよい。
なお、統合範囲決定部13は、例えば周囲センサ5により検出点を連続して検出可能な場合には、各検出点において所定の方向と車線の進行方向とがなす角度をそれぞれ評価してもよい。そして、統合範囲決定部13は、各検出点で評価した角度のばらつき(分散)が所定の閾値以上となるように統合範囲を決定してもよい。
マッチング部14は、統合範囲決定部13により決定した統合範囲を少なくとも含むように、地図データに含まれる車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とをマッチング(照合)する。マッチングには、ICP(Iterative Closest Point)等の公知の手法を採用可能である。本明細書において「マッチング」とは、地図データに含まれる車線境界線の形状情報の構成点と、周囲センサ5により検出された車線境界線を検出した検出点とを対応付ける(換言すれば、検出点と、この検出点に対応する構成点との組合せを決定する)ことを意味する。マッチング部14は、検出点と構成点とを対応付けた対応付け情報(マッチング結果)を出力する。
マッチング部14は、例えば図8に示すように、地図データに含まれる車線境界線L7の構成点P11,P15及び最近傍点P21〜27と、周囲センサ5により検出された検出点p11〜p17とを対応付ける。更に、マッチング部14は、地図データに含まれる車線境界線L8の構成点P31,P35及び最近傍点P41〜47と、周囲センサ5により検出された検出点p21〜p27とを対応付ける。
統合部15は、マッチング部14によるマッチング結果に基づき、周囲センサ5により検出され、地図データと同じ座標系へ変換された車線境界線の情報と、地図データに含まれる車線境界線の形状情報とを統合することにより、統合データを生成する。本明細書において「統合する」とは、マッチングによって組み合わされた、周囲センサ5により検出された検出点と地図データの構成点とが対応付けられた状態で、周囲センサ5により検出された検出点のデータと、地図データの構成点のデータとを結合する処理を意味する。統合データは、例えば走行計画を生成するために使用することができる。生成された統合データは記憶装置2の地図記憶部10又はその他の記憶装置に記憶に記憶される。
統合部15は、周囲センサ5により検出された車線境界線の情報と、地図データに含まれる車線境界線の形状情報とをそのまま統合し、周囲センサ5により検出された検出点の位置座標と、この検出点と対応付けられた地図データに含まれる構成点の位置座標とを含む統合データを生成してもよい。或いは、統合部15は、マッチング部14によるマッチング結果に基づき、地図データに含まれる車線境界線の形状情報を補正し、補正後の車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とを統合データとして生成してもよい。
統合部15は、マッチングにより対応付けられた、地図データに含まれる車線境界線の構成点と、周囲センサ5により検出された検出点との間の位置誤差が最小になるように、地図データに含まれる車線境界線の構成点の位置座標を最適化してもよい。例えば、統合部15は、地図データに含まれる車線境界線の構成点と、周囲センサ5により検出された検出点との差分(誤差)の2乗の総和を算出し、算出した総和を最小化してもよい。統合部15は、統合範囲内の周囲センサ5により検出された検出点の点群データ全体と、統合範囲内の地図データに含まれる車線境界線の構成点の点群データ全体との誤差が最小となるように、周囲センサ5により検出されたデータと地図データと統合してもよい。
統合部15は、例えば図8に示した地図データに含まれる車線境界線L7の構成点P11,P15及び最近傍点P21〜27の位置座標を同じ方向及び同じ距離だけ移動させて位置誤差の合計が最小となるような移動量を算出することにより、地図データに含まれる車線境界線L7の構成点P11,P15及び最近傍点P21〜27と、周囲センサ5により検出された検出点p11〜p17とを位置合わせする。そして、統合部15は、地図記憶部10に記憶されている地図データに含まれている構成点の位置座標を、移動量Mだけ移動するように修正(更新)する。統合部15は、地図データに含まれている構成点の全てを修正してもよく、自車両周囲の所定の範囲内の構成点のみを修正してもよい。
統合範囲決定部13は、自車両が移動する毎に所定の周期で、統合範囲を繰り返し決定してもよい。更に、マッチング部14は、自車両が移動する毎に所定の周期で、統合範囲決定部13により決定された統合範囲で検出点と構成点とを繰り返しマッチングしてもよい。統合部15は、マッチング部14によるマッチング結果を用いて、地図データを繰り返し補正する等の統合処理を実行してもよい。
走行経路演算部16は、統合部15により生成された統合データに基づき、自車両を走行させる走行経路を生成する。走行経路演算部16は、生成した走行経路を車両制御装置8へ出力する。
(走行支援方法)
次に、図10のフローチャートを参照しながら、本発明の実施形態に係る走行支援装置1の動作(走行支援方法)の一例を説明する。
ステップS1において、自己位置算出部11は、GPS受信機3等から自車両の自己位置を算出する。ステップS2において、境界線認識部12は、周囲センサ5が検出した周囲環境のデータに基づき、自車両の周囲に存在する車線境界線を検出する。ステップS3において、統合範囲決定部13は、境界線認識部12により検出された車線境界線の座標系を地図データと同じ座標系へ変換する。
ステップS4において、統合範囲決定部13は、記憶装置2の地図記憶部10に記憶された地図データに含まれる車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とを統合する際の統合範囲を決定する。例えば、統合範囲決定部13は、車線境界線が互いに異なる曲率を有する複数の部分、及び互いに異なる方向を有する複数の直線部分の少なくとも一方を含むように統合範囲を決定する。
ステップS4の統合範囲の決定処理の一例を図11のフローチャートを参照して説明する。ステップS41において、統合範囲決定部13は、車線境界線を検出した各検出点に対して、地図データ上の車線境界線上の最近傍点を算出する。ステップS42において、統合範囲決定部13は、各最近傍点において、所定の方向に対する車線の進行方向の角度を算出する。ステップS43において、統合範囲決定部13は、統合範囲内の各最近傍点での角度のばらつき(分散)が所定の閾値以上か否かを判定する。角度のばらつき(分散)が所定の閾値未満と判定された場合、ステップS44に移行し、車両の進行方向とは反対側に統合範囲を拡大する処理を行い、ステップS43に戻る。一方、ステップS43において、角度のばらつき(分散)が所定の閾値以上と判定された場合、統合範囲決定部13は、統合範囲を決定して、ステップS4の統合範囲の決定処理を完了する。
図10に戻り、ステップS5において、マッチング部14は、統合範囲決定部13により決定された統合範囲を少なくとも含むように、地図データに含まれる道路形状の情報と、周囲センサ5により検出され、地図データと同じ座標系へ座標変換された道路形状の情報とをマッチングする。ステップS6において、統合部15は、マッチング部14によるマッチング結果に基づき、統地図データに含まれる道路形状の情報と、周囲センサ5により検出され、地図データと同じ座標系へ座標変換された道路形状の情報とを統合することで統合データを生成する。統合部15は、生成した統合データを地図記憶部10に記憶する。
ステップS7において、走行経路演算部16は、統合部15により生成された統合データに基づき、自車両を走行させる走行経路を生成する。ステップS8において、車両制御装置8は、走行経路演算部16により生成された走行経路を自車両が走行するようにアクチュエータ9を駆動して自車両の車両制御を実施する。
ステップS9において、処理回路6は、自車両のイグニッションスイッチ(IGN)がオフになったか否かを判断する。イグニッションスイッチがオフになったと判断された場合に処理は終了する。一方、イグニッションスイッチがオフでないと判断された場合に処理はステップS1へ戻る。
(実施形態の効果)
本発明の実施形態によれば、地図データに含まれる車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とを統合して統合データを生成する際に、統合範囲決定部13が、車線境界線が互いに異なる曲率又は方向を含むように統合範囲を決定する。そして、決定した統合範囲を少なくとも含むように、地図データに含まれる車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とを対応付けて統合して統合データを生成する。
これにより、統合範囲内の車線の道路形状が特徴を有するように統合範囲を適切に決定することができる。このため、地図データに含まれる車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とのマッチングの精度を向上させ、マッチングを適切に行うことができる。したがって、地図データに含まれる車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とを適切に対応付けて、必要に応じて正確に位置合わせしたうえで、統合データを適切に生成することができる。
更に、統合範囲決定部13が、車線境界線が所定の方向に対して互いに異なる角度を有する複数の直線部分を含むように統合範囲を決定する。これにより、一直線の車線のみでのマッチングによる車線の進行方向のマッチングのずれを改善し、マッチングの精度を向上させることができる。
更に、統合範囲決定部13が、各検出点に対応する構成点をそれぞれ算出し、各構成点において所定の方向と車線の進行方向とがなす角度をそれぞれ評価し、評価した角度のばらつき(分散)が所定の閾値以上となるように統合範囲を決定する。これにより、一直線の車線のみでのマッチングによる車線の進行方向のマッチングのずれを改善し、マッチングの精度を向上させることができる。
更に、統合範囲決定部13が、各検出点に対応する構成点をそれぞれ算出し、各構成点間を曲線で補間し、各検出点に対する曲線上の最近傍点を算出する。そして、統合範囲決定部13が、各最近傍点において所定の方向と車線の進行方向とがなす角度をそれぞれ評価し、角度のばらつきが所定の閾値以上となるように統合範囲を決定する。これにより、最近傍点において車線の進行方向を正確に算出することができる。
更に、統合範囲決定部13が、各検出点において所定の方向と車線の進行方向とがなす角度をそれぞれ評価し、評価した角度のばらつき(分散)が所定の閾値以上となるように統合範囲を決定する。これにより、例えば検出点が連続して検出可能な場合には、検出点における車線の進行方向のばらつき(分散)を評価することによっても、一直線の道路のみでのマッチングによる車線の進行方向のマッチングのずれを改善し、マッチング精度を向上させることができる。
更に、自車両が移動する毎に、統合範囲決定部13が、統合範囲を繰り返し決定し、マッチング部14が、統合範囲決定部13により決定された統合範囲内で検出点と構成点とを繰り返しマッチングし、統合部15が、マッチング結果を用いて、地図データを繰り返し補正する。これにより、マッチングを行う際には前回のマッチング結果を用いて地図データの補正が予め行われているため、統合範囲を決定する際に、各検出点に対応する構成点を正確に検出することができる。
更に、統合部15が、統合範囲外の統合範囲よりも自車両の進行方向の前方の領域を含むように統合データを生成する。これにより、マッチング部14によりマッチングを行った統合範囲内だけでなく、自車両が走行していない領域でも事前に統合データを生成することができる。
なお、本発明の実施形態に係る走行支援装置1は、種々の道路形状に対して適用可能である。例えば図12に示すように、車線L9が直角に曲がる道路形状の場合を考える。車線境界線L7は、進行方向D2に延伸する直線部分L71と、直線部分L71に接続し、進行方向D2と直交する方向の進行方向D3に延伸する直線部分L72を有する。車線境界線L8は、進行方向D2に延伸する直線部分L81と、直線部分L81に接続し、進行方向D2と直交する方向の進行方向D3に延伸する直線部分L82を有する。
車線境界線L7の直線部分L71,L72は、互いに曲率は0であるが、互いに異なる方向を有する。また、車線境界線L8の直線部分L81,L82は、互いに曲率は0であるが、互いに異なる方向を有する。このため、統合範囲決定部13は、車線境界線L7の2つの直線部分L71,L72及び車線境界線L8の2つの直線部分L81,L82を含むように統合範囲A1を決定する。なお、統合範囲決定部13が統合範囲A1を決定する際には、車線境界線L7,L8のいずれかの情報にのみ基づき統合範囲A1を決定してもよい。
(第1変形例)
本発明の実施形態の第1の変形例として、統合範囲決定部13が統合範囲を決定する際に、自車両の進行方向のばらつきに基づき統合範囲を決定する場合を説明する。
自己位置算出部11は、自車両の走行軌跡に沿って自己位置のサンプリングを順次行い、例えば図13に示すように、周囲センサ5が車線境界線を検出できたときの自己位置P51〜P56の点列を算出する。
統合範囲決定部13は、自己位置算出部11により算出された各自己位置P51〜P56において、自車両100の進行方向を評価する。例えば、統合範囲決定部13は、GPS受信機3により取得される自車両100の姿勢を自車両100の進行方向として使用してもよい。或いは、統合範囲決定部13は、自己位置P51〜P56の履歴(点列)を曲線L10で補間し、各自己位置P51〜P56において曲線L10の接線を求めることにより、自車両100の進行方向を算出してもよい。或いは、統合範囲決定部13は、地図データのリンク情報等に、車線の形状や種類等の、自車両100が属する車線の情報が含まれている場合には、自車両100が属する車線の情報を用いて、自車両100の進行方向を算出してもよい。
統合範囲決定部13は、各自己位置P51〜P56における自車両100の進行方向のばらつき(分散)が所定の閾値以上となるように統合範囲を決定する。
本発明の実施形態の第1の変形例によれば、車線境界線を検出したときの自己位置を算出し、自己位置における自車両の進行方向を評価し、自車両の進行方向のばらつきが所定の閾値以上となるように統合範囲を決定する。これにより、車線境界線を検出した検出点よりも少ない点数の自己位置の情報を参照することができるので、より少ない計算負荷で、マッチングのずれを改善することができる。
更に、GPS受信機3を用いて自車両の進行方向を検出することにより、自車両の進行方向を容易に算出できる。
更に、自車両の自己位置を曲線で補間し、曲線の接線を求めることにより、自車両の進行方向を算出することにより、自車両の進行方向を精度良く算出することができる。
更に、GPS受信機3を使用せずに、地図データに含まれる自車両が属する車線の情報を用いて、自車両の進行方向を算出することにより、GPS受信機3の精度の変動を受けずに、自車両の進行方向を正確に算出することができる。
(第2変形例)
本発明の実施形態の第2の変形例として、統合範囲決定部13が統合範囲を決定する際に、車線の曲率のばらつきに基づき統合範囲を決定する場合を説明する。
例えば、統合範囲決定部13は、地図データに含まれる車線境界線の形状情報を構成する構成点から、周囲センサ5により検出された各検出点に対応する構成点を特定し、特定された各構成点において車線の曲率又は曲率半径を評価する。例えば、対象とする構成点の位置座標と、対象とする構成点に隣接する2つの構成点の位置座標との外接円の半径を求めることにより、対象とする構成点における車線の曲率半径を算出することができる。各構成点での車線の曲率又は曲率半径のばらつきが所定の閾値以上となるように、統合範囲を決定する。
或いは、統合範囲決定部13は、地図データに含まれる車線境界線の形状情報を構成する構成点から、周囲センサ5により検出された各検出点に対応する構成点を特定し、特定された各構成点間を曲線で補間し、各検出点に対する曲線上の最近傍点を算出してもよい。更に、統合範囲決定部13は、算出された各最近傍点において、車線の曲率又は曲率半径を評価し、例えば、対象とする最近傍点の位置座標と、対象とする最近傍点に隣接する2つの最近傍点の位置座標とに基づき、対象とする最近傍点における車線の曲率又は曲率半径を算出することができる。統合範囲決定部13は、各最近傍点での車線の曲率又は曲率半径のばらつきが所定の閾値以上となるように、統合範囲を決定してもよい。
例えば図8に示すように、統合範囲決定部13は、車線境界線L7の構成点P11において、車線境界線L7の最近傍点P22、構成点P11及び最近傍点P23の位置座標に基づき、車線境界線L7の直線部分L71の曲率を、車線L9の曲率として算出する。また、統合範囲決定部13は、車線境界線L7の構成点P13において、車線境界線L7の構成点P12,P13,P14の位置座標に基づき、車線境界線L7の曲線部分L72の曲率を、車線L9の曲率として算出する。
本発明の実施形態の第2の変形例によれば、車線境界線を検出した各検出点に対応する各構成点において車線の曲率又は曲率半径を評価し、車線の曲率又は曲率半径のばらつき(分散)が所定の閾値以上となるように統合範囲を決定する。これにより、車線の曲率又は曲率半径のばらつき(分散)を評価するため、一定の曲率又は曲率半径のカーブのみでマッチングを行うことによる、車線進行方向のマッチングのずれを改善し、マッチング精度を向上させることができる。
更に、車線境界線を検出した各検出点に対応する各構成点間を曲線で補間し、各検出点に対する曲線上の最近傍点を算出し、各最近傍点において車線の曲率又は曲率半径を評価し、車線の曲率又は曲率半径のばらつきが所定の閾値以上となるように統合範囲を決定する。これにより、車線の曲率又は曲率半径を正確に算出することができる。
(第3変形例)
本発明の実施形態の第3の変形例として、統合範囲決定部13が統合範囲を決定する際に、自車両の走行軌跡の曲率又は曲率半径のばらつきに基づき統合範囲を決定する場合を説明する。
自己位置算出部11は、自車両の走行軌跡に沿って自己位置のサンプリングを順次行い、例えば図13に示すように、周囲センサ5が車線境界線を検出できたときの自己位置P51〜P56の点列を算出する。
統合範囲決定部13は、算出された各自己位置において自車両の走行軌跡の曲率又は曲率半径を評価する。自車両の走行軌跡の曲率又は曲率半径は、自車両に搭載された周囲センサ5であるヨーレートセンサにより検出されるヨーレートに基づき算出してもよい。例えば、自車両の車速をV[m/s]、自車両の走行軌跡の曲率半径をR[m]、自車両のヨーレートをY[rad/s]として、R=V/Yの関係式を用いて曲率半径を算出可能である。
統合範囲決定部13は、自己位置の点列を曲線で補間することにより、自車両の走行軌跡の曲率又は曲率半径を算出してもよい。統合範囲決定部13は、地図データのリンク情報等に含まれる車線の情報に、車線の種類又は形状の情報が含まれている場合には、自車両が属する車線の情報を用いて、自車両の走行軌跡の曲率又は曲率半径を算出してもよい。
統合範囲決定部13は、各自己位置での自車両の走行軌跡の曲率又は曲率半径のばらつきが所定の閾値以上となるように、統合範囲を決定する。
本発明の実施形態の第3の変形例によれば、車線境界線を検出したときの自己位置を順次算出し、各自己位置において自車両の走行軌跡の曲率を評価し、自車両の走行軌跡の曲率のばらつきが所定の閾値以上となるように統合範囲を決定する。これにより、検出点よりも少ない点数の自己位置の情報を参照するため、より少ない計算負荷で、マッチングのずれを改善することができる。
更に、自車両に搭載された周囲センサ5であるヨーレートセンサにより検出されるヨーレートに基づき、走行軌跡の曲率又は曲率半径を算出することにより、自車両の走行軌跡の曲率又は曲率半径を容易に算出できる。
更に、自己位置の点列を曲線で補間することにより、自車両の走行軌跡の曲率又は曲率半径を算出することにより、自車両の走行軌跡の曲率又は曲率半径を精度良く算出することができる。
更に、GPS受信機3又はヨーレートセンサを使用せずに、地図データに含まれる自車両が属する車線の情報を用いて走行軌跡の曲率又は曲率半径を算出することにより、GPS受信機3又はヨーレートセンサの精度の変動を受けずに、自車両の走行軌跡の曲率又は曲率半径を正確に算出することができる。
(第4変形例)
本発明の実施形態の第4の変形例として、統合範囲決定部13が統合範囲を拡大する際に、統合範囲内の検出点又は自己位置を間引く場合を説明する。
例えば、統合範囲決定部13は、統合範囲を初期設定し、設定した統合範囲において、車線境界線が互いに異なる曲率を有する複数の部分、及び互いに異なる方向を有する複数の直線部分のうちのいずれも含まない場合、自車両の進行方向の逆方向(後方)に統合範囲を拡大していく。この際、統合範囲決定部13は、統合範囲内の検出点又は自己位置を間引く。間引く間隔は適宜設定可能であり、例えば1点おき又は複数点おきであってもよく、所定の距離毎であってもよく、不規則な間隔であってもよい。間引かれた検出点又は自己位置については、マッチング部14によるマッチングの際に不使用とし、残存した検出点又は自己位置を使用してマッチングを行う。
統合範囲決定部13は、地図データ上の車線の曲率に応じて、検出点又は自己位置を間引く間隔を変化させてもよい。例えば、統合範囲決定部13は、車線の曲率が大きいほど(換言すれば、車線の曲率半径が小さいほど)、道路形状の特徴は少なくなることが想定されるため、検出点又は自己位置を間引く間隔を大きくし、細かくサンプリングを行う。逆に、車線の曲率が小さいほど(換言すれば、車線の曲率半径が大きいほど)、検出点又は自己位置を間引く間隔を小さくし、粗くサンプリングを行う。
或いは、統合範囲決定部13は、地図データ上の車線の長さに応じて、検出点又は自己位置を間引く間隔を変化させてもよい。例えば、統合範囲決定部13は、車線が長いほど、道路形状が少ない部分が多いことが想定されるため、検出点又は自己位置を間引く間隔を小さくし、粗くサンプリングを行う。逆に、車線が短いほど、検出点又は自己位置を間引く間隔を小さくすることで、細かくサンプリングを行う。
例えば図4に示すように、初期設定した統合範囲A1において、車線境界線L7,L8がそれぞれ1つの直線部分L71,L81しか含まないため、自車両100の進行方向の逆方向(後方)に統合範囲A1を拡大していく。そして、図8に示すように統合範囲A1を拡大した際に、車線境界線L7に対応する検出点p11〜19のうち、1点おきに検出点p12,p14,p16,p18を間引く。車線境界線L8に対応する検出点p21〜p29についても、車線境界線L7に対応する検出点p11〜19と同様に間引くことができる。
本発明の実施形態の第4の変形例によれば、統合範囲を拡大する際に、統合範囲内の検出点又は自己位置を間引くことにより、マッチングの際の処理の効率を高め、計算負荷を低減することができる。
更に、地図データ上の車線の曲率に応じて、検出点又は自己位置を間引く間隔を変化させることにより、例えば道路形状の特徴が少ない、長い直線の車線については、間引く間隔を大きくし、粗くサンプリングを行うことで、マッチング精度を低下させずに、効率的に計算負荷を低減することができる。一方、道路形状の特徴が大きい、曲率の大きいカーブについては、間引く間隔を小さくして、より細かくサンプリングを行うことで、マッチングの精度を向上させることができる。
更に、地図データ上の車線の長さに応じて、検出点又は自己位置を間引く間隔を変化させることにより、例えば道路形状に特徴の少ない、長い直線の車線については、より粗くサンプリングを行うことで、マッチング精度を低下させずに、効率的に計算負荷を低減させることができる。
(その他の実施形態)
上記のように、本発明は実施形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替の実施形態、実施例及び運用技術が明らかとなろう。
例えば、統合部15が、地図データに含まれる車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とを統合して統合データを生成する範囲は、統合範囲内に限定されない。統合部15は、統合範囲外の領域を含む範囲において、地図データに含まれる車線境界線の形状情報と、周囲センサ5により検出された車線境界線の情報とを統合してもよい。例えば図14に示すように、統合部15が、統合範囲A1外の統合範囲A1よりも自車両100の進行方向の前方の領域も含む範囲A3において、統合データを生成してもよい。これにより、自車両100が走行前であり検出点が未検出の領域についても事前に統合データを生成することができる。
また、統合部15は、統合範囲内の地図データに含まれる車線境界線の形状情報の全部と、周囲センサ5により検出された車線境界線の情報の全部とを統合してもよい。或いは、統合部15は、統合範囲内の地図データに含まれる車線境界線の形状情報の一部と、周囲センサ5により検出された車線境界線の情報の全部とを統合してもよい。逆に、統合部15は、統合範囲内の地図データに含まれる車線境界線の形状情報の全部と、周囲センサ5により検出された車線境界線の情報の一部とを統合してもよい。
ここに記載されている全ての例及び条件的な用語は、読者が、本発明と技術の進展のために発明者により与えられる概念とを理解する際の助けとなるように、教育的な目的を意図したものであり、具体的に記載されている上記の例及び条件、並びに本発明の優位性及び劣等性を示すことに関する本明細書における例の構成に限定されることなく解釈されるべきものである。本発明の実施例は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であると解すべきである。
1…走行支援装置、2…記憶装置、3…地球測位システム受信機、4…車両センサ、5…周囲センサ、6…処理回路、7…ディスプレイ、8…車両制御装置、9…アクチュエータ、10…地図記憶部、11…自己位置算出部、12…境界線認識部、13…統合範囲決定部、14…マッチング部、15…統合部、16…走行経路演算部、100…自車両
【0003】
度)を有し、車線や上記地物は3次元空間における形状として記述され得る。
[0015]
例えば、高精度地図は、車線境界線を構成する構成点(境界点)の点群データを有してよい。なお、走行支援装置1によって周囲センサ5により取得した車両境界線のデータと統合される地図データは、必ずしも高精度地図でなくてよく、車線境界線を構成する構成点の点群データを含む地図データであればよい。
[0016]
なお、走行支援装置1とは別のサーバで地図データのデータベースを管理し、更新された地図データの差分データを、例えばテレマティクスサービスを通じて取得し、地図記憶部10に記憶された地図データの更新を行ってもよい。また、地図データを自車両が走行している位置に合わせて、車車間通信や路車間通信等のテレマティクスサービスにより取得するようにしてもよい。テレマティクスサービスを用いることにより、自車両では、データ容量が大きい地図データを有しておく必要がなく、メモリの容量の抑制することができる。また、テレマティクスサービスを用いることにより、更新された地図データを取得できるため、道路構造の変化、工事現場の有無等、実際の走行状況を正確に把握できる。更に、テレマティクスサービスを用いることにより、自車両以外の複数の他車両から集められたデータに基づき作成された地図データを用いることができるため、正確な情報を把握できる。
[0017]
GPS受信機3は、複数の航法衛星から電波を受信して自車両の現在位置(自己位置)を取得し、取得した自車両の現在位置を処理回路6に出力する。なお、GPS受信機3以外の他の全地球型測位システム(GNSS)受信機を有していてもよい。
[0018]
車両センサ4は、自車両の現在位置及び走行状態(挙動)等を検出するセンサである。車両センサ4は、例えば車速センサ、加速度センサ、ジャイロセンサ及びヨーレートセンサであってよいが、車両センサ4の種類及び個数はこれに限定されない。車速センサは、自車両の車輪速に基づき車速を検出し、検出された車速を処理回路6に出力してよい。加速度センサは、自車両の前後方向及び車幅方向等の加速度を検出し、検出された加速度を処理回路6にしてよい。ジャイロセンサは、自車両の角速度を検出し、検出された角速度を処理回路6に出力してよい。例えば、ヨーレートセンサは、自車両の重心点を通る鉛直軸まわりの回転角速度(ヨーレート)を検出し、検出されたヨーレートを処理回路6に出力してよい。
[0019]
周囲センサ5は、自車両の周囲環境(周囲状況)を検出するセンサである。周囲センサ5は、例えばカメラ、レーダ及び通信機等であってよいが、周囲センサ5の種類や個数はこれに限定されない。周囲センサ5として使用されるカメラは、例えばCCDカメラ等であってよい。カメラは単眼カメラであってもよく、ステレオカメラであってもよい。カメラは、自車両の周囲環境を撮像し、撮像画像から他車両、歩行者又は自転車等の物体と自車両との相対位置、物体と自車両との距離、道路上の車線境界線(白線)や縁石等の道路構造等を自車両の周囲環境のデータとして検出し、検出された周囲環境のデータを処理回路6に出力する。
[0020]
周囲センサ5として使用されるレーダは、例えばミリ波レーダや超音波レーダ、レーザレンジファインダ(LRF)等であってよい。レーダは、物体と自車両との相対位置、物体と自車両との距離、物体と自車両との相対速度等を自車両の周囲環境のデータとして検出し、検出された周囲環境のデータを処理回路6に出力する。
[0021]
周囲センサ5として使用される通信機は、他車両との車車間通信、路側機との路車間通信、又は交通情報センタ等との通信等を行うことにより、自車両の自己位置を含む、自車
例えば、高精度地図は、車線境界線を構成する構成点(境界点)の点群データを有してよい。なお、走行支援装置1によって周囲センサ5により取得した車境界線のデータと統合される地図データは、必ずしも高精度地図でなくてよく、車線境界線を構成する構成点の点群データを含む地図データであればよい。
車両センサ4は、自車両の現在位置及び走行状態(挙動)等を検出するセンサである。車両センサ4は、例えば車速センサ、加速度センサ、ジャイロセンサ及びヨーレートセンサであってよいが、車両センサ4の種類及び個数はこれに限定されない。車速センサは、自車両の車輪速に基づき車速を検出し、検出された車速を処理回路6に出力してよい。加速度センサは、自車両の前後方向及び車幅方向等の加速度を検出し、検出された加速度を処理回路6に出力してよい。ジャイロセンサは、自車両の角速度を検出し、検出された角速度を処理回路6に出力してよい。例えば、ヨーレートセンサは、自車両の重心点を通る鉛直軸まわりの回転角速度(ヨーレート)を検出し、検出されたヨーレートを処理回路6に出力してよい。
また、道路形状が一直線の場合同様に、一定の曲率のカーブのみの場合も道路形状に特徴がないため、車線の進行方向においてマッチングにずれが生じる。これに対して、本発明の実施形態に係る走行支援装置1は、道路形状特徴を考慮してマッチングを含む統合データ生成時の適切な統合範囲を決定し、マッチングのずれを抑制して、適切な統合データを生成可能とするものである。
例えば図4に示すように、車線境界線L7の直線部分71,L73の曲率は0であり、曲線部分72の曲率とは異なる。このため、統合範囲決定部13は、車線境界線L7の2つの部分L71,L72を含むように統合範囲を決定してもよく、2つの部分L72,L73を含むように統合範囲を決定してもよい。或いは、統合範囲決定部13は、車線境界線L7の3つの部分L71,L72,L73を含むように統合範囲を決定してもよい。
更に、統合範囲決定部13は、構成点P11,P15を含む構成点P11〜P15間を曲線L7で補間すると共に、構成点P31,P35を含む構成点P31〜P35間を曲線L8で補間する。更に、統合範囲決定部13は、対応する構成点が特定されていない各検出点p11,p12,p14,p15,p16p18,p19に対応する曲線L7上の最近傍点P21〜P27を仮想的な構成点として算出すると共に、検出点p21,p22,p24,p25,p26p28,p29に対応する曲線L8上の最近傍点P41〜P47を仮想的な構成点として算出する。
更に、統合範囲決定部13は、各構成点P11〜P15及び最近傍点P21〜27において、所定の方向と車線の進行方向とがなす角度をそれぞれ評価する。例えば図5に示すように、構成点P11において、X方向を0°とし、自車両の進行方向D2がX方向に対して反時計回りに測った角度θ1=180°を算出する。一方、図6に示すように、構成点P15において、自車両の進行方向D3がX方向に対して反時計回りに測った角度θ=90°を算出する。各構成点P12〜P14及び最近傍点P21〜27においても同様にして角度を算出する。なお、各構成点P31〜P35及び最近傍点P41〜47においても同様にして角度を算出する。
統合部15は、マッチング部14によるマッチング結果に基づき、周囲センサ5により検出され、地図データと同じ座標系へ変換された車線境界線の情報と、地図データに含まれる車線境界線の形状情報とを統合することにより、統合データを生成する。本明細書において「統合する」とは、マッチングによって組み合わされた、周囲センサ5により検出された検出点と地図データの構成点とが対応付けられた状態で、周囲センサ5により検出された検出点のデータと、地図データの構成点のデータとを結合する処理を意味する。統合データは、例えば走行計画を生成するために使用することができる。生成された統合データは記憶装置2の地図記憶部10又はその他の記憶装置記憶される。
図10に戻り、ステップS5において、マッチング部14は、統合範囲決定部13により決定された統合範囲を少なくとも含むように、地図データに含まれる道路形状の情報と、周囲センサ5により検出され、地図データと同じ座標系へ座標変換された道路形状の情報とをマッチングする。ステップS6において、統合部15は、マッチング部14によるマッチング結果に基づき、図データに含まれる道路形状の情報と、周囲センサ5により検出され、地図データと同じ座標系へ座標変換された道路形状の情報とを統合することで統合データを生成する。統合部15は、生成した統合データを地図記憶部10に記憶する。
統合範囲決定部13は、地図データ上の車線の曲率に応じて、検出点又は自己位置を間引く間隔を変化させてもよい。例えば、統合範囲決定部13は、車線の曲率が大きいほど(換言すれば、車線の曲率半径が小さいほど)、道路形状の特徴は大きくなることが想定されるため、検出点又は自己位置を間引く間隔を大きくし、細かくサンプリングを行う。逆に、車線の曲率が小さいほど(換言すれば、車線の曲率半径が大きいほど)、検出点又は自己位置を間引く間隔を小さくし、粗くサンプリングを行う。
或いは、統合範囲決定部13は、地図データ上の車線の長さに応じて、検出点又は自己位置を間引く間隔を変化させてもよい。例えば、統合範囲決定部13は、車線が長いほど、道路形状の特徴が少ない部分が多いことが想定されるため、検出点又は自己位置を間引く間隔を小さくし、粗くサンプリングを行う。逆に、車線が短いほど、検出点又は自己位置を間引く間隔を大きくすることで、細かくサンプリングを行う。
更に、地図データ上の車線の曲率に応じて、検出点又は自己位置を間引く間隔を変化させることにより、例えば道路形状の特徴が少ない、長い直線の車線については、間引く間隔を小さくし、粗くサンプリングを行うことで、マッチング精度を低下させずに、効率的に計算負荷を低減することができる。一方、道路形状の特徴が大きい、曲率の大きいカーブについては、間引く間隔を大きくして、より細かくサンプリングを行うことで、マッチングの精度を向上させることができる。

Claims (21)

  1. センサにより車両の周囲に存在する車線境界線を検出し、
    前記車両の自己位置を算出し、
    前記自己位置に基づき、前記検出した車線境界線の座標系を、記憶装置に記憶された地図データと同じ座標系に変換し、
    前記地図データに含まれる前記車線境界線の形状情報と、前記座標系を変換した車線境界線とを統合して統合データを生成する走行支援方法において、
    前記車線境界線が、互いに異なる曲率を有する複数の部分、及び互いに異なる方向を有する複数の直線部分の少なくとも一方を含むように、前記形状情報と、前記座標系を変換した車線境界線とを統合する際の統合範囲を決定し、
    前記決定した統合範囲を少なくとも含むように、前記形状情報と、前記座標系を変換した車線境界線とを対応付けて前記統合データを生成する
    ことを特徴とする走行支援方法。
  2. 前記複数の直線部分が、所定の方向に対して互いに異なる角度を有することを特徴とする請求項1に記載の走行支援方法。
  3. 前記車線境界線を検出した各検出点に対応する、前記形状情報を構成する構成点を特定し、
    前記特定された各構成点において、前記所定の方向と、前記車線境界線で区画される車線の進行方向とがなす角度を評価し、
    前記角度のばらつきが所定の閾値以上となるように、前記統合範囲を決定する
    ことを特徴とする請求項2に記載の走行支援方法。
  4. 前記車線境界線を検出した各検出点に対応する、前記形状情報を構成する構成点を特定し、
    前記特定された各構成点間を曲線で補間し、
    前記各検出点に対する前記曲線上の最近傍点を算出し、
    前記算出された各最近傍点において、前記所定の方向と、前記車線境界線で区画される車線の進行方向とがなす角度を評価し、
    前記角度のばらつきが所定の閾値以上となるように、前記統合範囲を決定する
    ことを特徴とする請求項2に記載の走行支援方法。
  5. 前記車線境界線を検出した各検出点において、前記所定の方向と、前記車線境界線で区画される車線の進行方向とがなす角度を評価し、
    前記角度のばらつきが所定の閾値以上となるように、前記統合範囲を決定する
    ことを特徴とする請求項2に記載の走行支援方法。
  6. 前記車線境界線を検出したときの前記自己位置の点列を算出し、
    前記算出された各自己位置において前記車両の進行方向を評価し、
    前記車両の進行方向のばらつきが所定の閾値以上となるように、前記統合範囲を決定する
    ことを特徴とする請求項1又は2に記載の走行支援方法。
  7. 前記車両に搭載された地球測位システム受信機により前記車両の進行方向を検出することを特徴とする請求項6に記載の走行支援方法。
  8. 前記算出された各自己位置間を曲線で補間し、
    前記曲線の接線を求めることにより、前記車両の進行方向を算出する
    ことを特徴とする請求項6に記載の走行支援方法。
  9. 前記地図データに含まれる前記車両が属する車線の情報を用いて、前記車両の進行方向を算出することを特徴とする請求項6に記載の走行支援方法。
  10. 前記車線境界線を検出した各検出点に対応する、前記形状情報を構成する構成点を特定し、
    前記特定された各構成点において、前記車線境界線で区画される車線の曲率を評価し、
    前記車線の曲率のばらつきが所定の閾値以上となるように、前記統合範囲を決定する
    ことを特徴とする請求項1に記載の走行支援方法。
  11. 前記車線境界線を検出した各検出点に対応する、前記形状情報を構成する構成点を特定し、
    前記特定された各構成点間を曲線で補間し、
    前記各検出点に対する前記曲線上の最近傍点を算出し、
    前記算出された各最近傍点において、前記車線境界線で区画される車線の曲率を評価し、
    前記車線の曲率のばらつきが所定の閾値以上となるように、前記統合範囲を決定する
    ことを特徴とする請求項1に記載の走行支援方法。
  12. 前記車線境界線を検出したときの前記自己位置の点列を算出し、
    前記算出された各自己位置において前記車両の走行軌跡の曲率を評価し、
    前記走行軌跡の曲率のばらつきが所定の閾値以上となるように、前記統合範囲を決定する
    ことを特徴とする請求項1に記載の走行支援方法。
  13. 前記車両に搭載されたヨーレートセンサにより検出されるヨーレートに基づき、前記走行軌跡の曲率を算出することを特徴とする請求項12に記載の走行支援方法。
  14. 前記自己位置の点列を曲線で補間することにより、前記走行軌跡の曲率を算出することを特徴とする請求項12に記載の走行支援方法。
  15. 前記地図データに含まれる前記車両が属する車線の情報を用いて前記走行軌跡の曲率を算出することを特徴とする請求項12に記載の走行支援方法。
  16. 前記車両が移動する毎に、前記形状情報と、前記座標系を変換した車線境界線とを対応付け、
    前記対応付けた結果を用いて、前記地図データを繰り返し補正する
    ことを特徴とする請求項1〜15のいずれか1項に記載の走行支援方法。
  17. 前記統合範囲を拡大する際に、前記統合範囲内の前記車線境界線を検出した各検出点、又は前記車線境界線を検出したときに算出された前記自己位置を間引くことを特徴とする請求項1に記載の走行支援方法。
  18. 前記統合範囲内の前記車線境界線で区画される車線の曲率に応じて、前記間引く間隔を変化させることを特徴とする請求項17に記載の走行支援方法。
  19. 前記統合範囲内の前記車線境界線で区画される車線の長さに応じて、前記間引く間隔を変化させることを特徴とする請求項17又は18に記載の走行支援方法。
  20. 前記決定した統合範囲外の前記車両の進行方向の前方の領域を含むように、前記統合データを生成することを特徴とする請求項1〜19のいずれか1項に記載の走行支援方法。
  21. 車両の周囲に存在する車線境界線を検出するセンサと、
    地図データを記憶する記憶装置と、
    前記車両の自己位置を算出し、前記自己位置に基づき、前記検出した車線境界線の座標系を、前記地図データと同じ座標系に変換し、前記地図データに含まれる前記車線境界線の形状情報と、前記座標系を変換した車線境界線とを統合して統合データを生成するコントローラとを備え、
    前記コントローラが、前記車線境界線が、互いに異なる曲率を有する複数の部分、及び互いに異なる方向を有する複数の直線部分の少なくとも一方を含むように、前記形状情報と、前記座標系を変換した車線境界線とを統合する際の統合範囲を決定し、前記決定した統合範囲を少なくとも含むように、前記形状情報と、前記座標系を変換した車線境界線とを対応付けて前記統合データを生成することを特徴とする走行支援装置。
JP2020528523A 2018-07-04 2018-07-04 走行支援方法及び走行支援装置 Active JP6973964B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2018/000830 WO2020008221A1 (ja) 2018-07-04 2018-07-04 走行支援方法及び走行支援装置

Publications (2)

Publication Number Publication Date
JPWO2020008221A1 true JPWO2020008221A1 (ja) 2021-07-15
JP6973964B2 JP6973964B2 (ja) 2021-12-01

Family

ID=69060134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020528523A Active JP6973964B2 (ja) 2018-07-04 2018-07-04 走行支援方法及び走行支援装置

Country Status (6)

Country Link
US (1) US20210262825A1 (ja)
EP (1) EP3819594B1 (ja)
JP (1) JP6973964B2 (ja)
KR (1) KR102611507B1 (ja)
CN (1) CN112673230A (ja)
WO (1) WO2020008221A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7377143B2 (ja) 2020-03-17 2023-11-09 本田技研工業株式会社 走行制御装置、車両、走行制御方法及びプログラム
CN111611958B (zh) * 2020-05-28 2023-08-22 武汉四维图新科技有限公司 确定众包数据中车道线形状的方法、装置和设备
EP4160154A1 (en) * 2021-09-30 2023-04-05 Aptiv Technologies Limited Methods and systems for estimating lanes for a vehicle

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2702529B2 (ja) * 1988-12-05 1998-01-21 株式会社デンソー 車両走行位置表示装置
JP2923664B2 (ja) * 1990-02-07 1999-07-26 本田技研工業株式会社 自動走行装置
JP4659631B2 (ja) * 2005-04-26 2011-03-30 富士重工業株式会社 車線認識装置
EP2544941B1 (de) * 2010-03-06 2014-09-10 Continental Teves AG & Co. oHG Spurhaltesystem für ein kraftfahrzeug
DE102010033729B4 (de) * 2010-08-07 2014-05-08 Audi Ag Verfahren und Vorrichtung zum Bestimmen der Position eines Fahrzeugs auf einer Fahrbahn sowie Kraftwagen mit einer solchen Vorrichtung
JP5749359B2 (ja) * 2013-01-24 2015-07-15 アイサンテクノロジー株式会社 道路地図生成システム、道路地図生成装置、道路地図生成方法、及びナビゲーションシステム
JP6229523B2 (ja) * 2014-02-12 2017-11-15 株式会社デンソー 自車走行位置特定装置及び自車走行位置特定プログラム
JP2016045144A (ja) * 2014-08-26 2016-04-04 アルパイン株式会社 走行中レーン検出装置及び運転支援システム
EP3324152B1 (en) * 2015-07-13 2019-04-03 Nissan Motor Co., Ltd. Own-position estimating device and own-position estimating method
CA2999816A1 (en) * 2015-09-30 2017-04-06 Nissan Motor Co., Ltd. Travel control method and travel control apparatus
JP6790417B2 (ja) 2016-03-31 2020-11-25 ソニー株式会社 情報処理装置及び情報処理サーバ
JP6838285B2 (ja) * 2016-04-28 2021-03-03 日立Astemo株式会社 レーンマーカ認識装置、自車両位置推定装置
JP6637400B2 (ja) * 2016-10-12 2020-01-29 本田技研工業株式会社 車両制御装置
JP6690510B2 (ja) * 2016-11-24 2020-04-28 トヨタ自動車株式会社 物体認識装置
JP7213809B2 (ja) 2016-12-09 2023-01-27 トムトム グローバル コンテント ベスローテン フエンノートシャップ ビデオベースの位置決め及びマッピングの方法及びシステム
US10794711B2 (en) * 2016-12-30 2020-10-06 DeepMap Inc. High definition map updates based on sensor data collected by autonomous vehicles
CN106767853B (zh) * 2016-12-30 2020-01-21 中国科学院合肥物质科学研究院 一种基于多信息融合的无人驾驶车辆高精度定位方法
CN110167813B (zh) * 2017-01-10 2022-05-03 三菱电机株式会社 行驶路径识别装置及行驶路径识别方法
US11254329B2 (en) * 2017-04-24 2022-02-22 Mobileye Vision Technologies Ltd. Systems and methods for compression of lane data
JP6799150B2 (ja) * 2017-05-25 2020-12-09 本田技研工業株式会社 車両制御装置

Also Published As

Publication number Publication date
CN112673230A (zh) 2021-04-16
WO2020008221A1 (ja) 2020-01-09
KR20210027458A (ko) 2021-03-10
EP3819594A4 (en) 2021-07-28
EP3819594A1 (en) 2021-05-12
JP6973964B2 (ja) 2021-12-01
US20210262825A1 (en) 2021-08-26
EP3819594B1 (en) 2023-07-26
KR102611507B1 (ko) 2023-12-07

Similar Documents

Publication Publication Date Title
CN108628300B (zh) 路径决定装置、车辆控制装置、路径决定方法及存储介质
EP3358302B1 (en) Travel control method and travel control device
WO2020012208A1 (ja) 走行環境情報の生成方法、運転制御方法、走行環境情報生成装置
CN109426256A (zh) 自动驾驶车辆的基于驾驶员意图的车道辅助系统
JP6601696B2 (ja) 予測装置、予測方法、およびプログラム
JP7154025B2 (ja) 地図補正方法及び地図補正装置
JP7123154B2 (ja) 走行支援方法及び走行支援装置
JP6956268B2 (ja) 走行環境情報の生成方法、運転制御方法、走行環境情報生成装置
WO2018123019A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
EP4134627A1 (en) Map information correction method, driving assistance method, and map information correction device
JP6973964B2 (ja) 走行支援方法及び走行支援装置
JPWO2018066133A1 (ja) 車両判定方法、走行経路補正方法、車両判定装置、及び走行経路補正装置
WO2019021437A1 (ja) 走行支援方法及び走行支援装置
RU2721436C1 (ru) Способ помощи вождению и устройство помощи вождению
CN114987529A (zh) 地图生成装置
JP2019056953A (ja) 車両制御装置、車両制御方法、およびプログラム
JP4957021B2 (ja) 車両用地図データ作成装置、及び、車両用地図データ更新装置
CN114973644A (zh) 道路信息生成装置
JP2022139009A (ja) 運転支援装置、運転支援方法及びプログラム
RU2776105C1 (ru) Способ помощи в движении и устройство помощи в движении
JP2019056951A (ja) 周辺監視装置、周辺監視方法、およびプログラム
CN114987493A (zh) 车辆位置识别装置
CN114972662A (zh) 地图生成装置
CN115050203A (zh) 地图生成装置以及车辆位置识别装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A5211

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211102

R150 Certificate of patent or registration of utility model

Ref document number: 6973964

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150