JP2022137534A - 地図生成装置および車両位置認識装置 - Google Patents

地図生成装置および車両位置認識装置 Download PDF

Info

Publication number
JP2022137534A
JP2022137534A JP2021037060A JP2021037060A JP2022137534A JP 2022137534 A JP2022137534 A JP 2022137534A JP 2021037060 A JP2021037060 A JP 2021037060A JP 2021037060 A JP2021037060 A JP 2021037060A JP 2022137534 A JP2022137534 A JP 2022137534A
Authority
JP
Japan
Prior art keywords
map
vehicle
recognized
unit
lane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021037060A
Other languages
English (en)
Inventor
直樹 森
Naoki Mori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021037060A priority Critical patent/JP2022137534A/ja
Priority to US17/676,738 priority patent/US20220291015A1/en
Priority to CN202210178470.1A priority patent/CN115050203B/zh
Publication of JP2022137534A publication Critical patent/JP2022137534A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams

Abstract

Figure 2022137534000001
【課題】地図のデータ量を十分に低減する。
【解決手段】地図生成装置50は、走行中の自車両の周囲の状況を検出するカメラ1aと、カメラ1aにより取得された撮像画像に基づいて道路の区画線を認識する区画線認識部141と、区画線認識部141により区画線が認識されている間、認識された区画線に基づいて第1地図を生成する第1地図生成部171と、撮像画像から特徴点を抽出し、抽出された特徴点を用いて第2地図を生成する第2地図生成部172と、を備える。第2地図生成部172は、区画線認識部141により区画線が認識されている間に生成された第2地図のうち、自車両から所定距離以上後方の位置に対応する前記第2地図を削除する。
【選択図】図2

Description

本発明は、地図を生成する地図生成装置および地図生成装置により生成された地図を用いて自車両の位置を認識する車両位置認識装置に関する。
この種の装置として、従来、複数の地点に対応する部分地図を1つの地図座標上に配置して全体地図を生成するようにした装置が知られている(例えば特許文献1参照)。特許文献1記載の装置では、互いに重複する部分地図が存在するとき相対的に古い部分地図を記憶部から削除することで地図のデータ量を低減する。
特開2020-135579号公報
しかしながら、地図の精度が高くなるにつれて、また、地図の対象領域が拡大されるにつれて地図自体のデータ量は増大する。したがって、特許文献1記載の装置のように重複する部分地図を削除するようにしただけでは、地図のデータ量を十分に低減できない可能性がある。
本発明の一態様である地図生成装置は、自車両の位置の取得に用いられる地図を生成する地図生成装置であって、走行中の自車両の周囲の状況を検出する車載検出器と、車載検出器により取得された検出データに基づいて道路の区画線を認識する区画線認識部と、区画線認識部により区画線が認識されている間、認識された区画線に基づいて第1地図を生成する第1地図生成部と、検出データから特徴点を抽出し、抽出された特徴点を用いて第2地図を生成する第2地図生成部と、を備える。第2地図生成部は、区画線認識部により区画線が認識されている間に生成された第2地図のうち、自車両から所定距離以上後方の位置に対応する第2地図を削除する。
本発明の他の態様である車両位置認識装置は、上記の地図生成装置と、走行中の自車両の位置を認識する位置認識部と、を備える。位置認識部131は、区画線認識部141により区画線が認識されるとき、検出データと第1地図とに基づいて第1地図上の自車両の位置を認識し、区画線認識部141により区画線が認識されないとき、検出データと第2地図とに基づいて第2地図上の自車両の位置を認識する。
本発明によれば、地図のデータ量を十分に低減することができる。
本発明の実施形態に係る車両制御システムの全体構成を概略的に示すブロック図。 本発明の実施形態に係る地図生成装置を有する車両位置認識装置の要部構成を示すブロック図。 自車両が環境地図を生成しながら道路を走行する様子を示す図。 自車両が図3Aの地点を自動運転モードで走行する様子を示す図。 図2のコントローラのCPUで実行される処理の一例を示すフローチャート。 図4の処理により生成された地図に基づいて自車両が自動運転モードで走行する様子を示す図。
以下、図1~図5を参照して本発明の実施形態について説明する。本発明の実施形態に係る地図生成装置は、自動運転機能を有する車両、すなわち自動運転車両に適用することができる。なお、本実施形態に係る地図生成装置が適用される車両を、他車両と区別して自車両と呼ぶことがある。自車両は、内燃機関(エンジン)を走行駆動源として有するエンジン車両、走行モータを走行駆動源として有する電気自動車、エンジンと走行モータとを走行駆動源として有するハイブリッド車両のいずれであってもよい。自車両は、ドライバによる運転操作が不要な自動運転モードでの走行だけでなく、ドライバの運転操作による手動運転モードでの走行も可能である。
まず、自動運転に係る概略構成について説明する。図1は、本発明の実施形態に係る地図生成装置を有する車両制御システム100の全体構成を概略的に示すブロック図である。図1に示すように、車両制御システム100は、コントローラ10と、コントローラ10にそれぞれ通信可能に接続された外部センサ群1と、内部センサ群2と、入出力装置3と、測位ユニット4と、地図データベース5と、ナビゲーション装置6と、通信ユニット7と、走行用のアクチュエータACとを主に有する。
外部センサ群1は、自車両の周辺情報である外部状況を検出する複数のセンサ(外部センサ)の総称である。例えば外部センサ群1には、自車両の全方位の照射光に対する散乱光を測定して自車両から周辺の障害物までの距離を測定するライダ、電磁波を照射し反射波を検出することで自車両の周辺の他車両や障害物等を検出するレーダ、自車両に搭載され、CCDやCMOS等の撮像素子を有して自車両の周辺(前方、後方および側方)を撮像するカメラなどが含まれる。
内部センサ群2は、自車両の走行状態を検出する複数のセンサ(内部センサ)の総称である。例えば内部センサ群2には、自車両の車速を検出する車速センサ、自車両の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、走行駆動源の回転数を検出する回転数センサ、自車両の重心の鉛直軸回りの回転角速度を検出するヨーレートセンサなどが含まれる。手動運転モードでのドライバの運転操作、例えばアクセルペダルの操作、ブレーキペダルの操作、ステアリングホイールの操作等を検出するセンサも内部センサ群2に含まれる。
入出力装置3は、ドライバから指令が入力されたり、ドライバに対し情報が出力されたりする装置の総称である。例えば入出力装置3には、操作部材の操作によりドライバが各種指令を入力する各種スイッチ、ドライバが音声で指令を入力するマイク、ドライバに表示画像を介して情報を提供するディスプレイ、ドライバに音声で情報を提供するスピーカなどが含まれる。
測位ユニット(GNSSユニット)4は、測位衛星から送信された測位用の信号を受信する測位センサを有する。測位衛星は、GPS衛星や準天頂衛星などの人工衛星である。測位ユニット4は、測位センサが受信した測位情報を利用して、自車両の現在位置(緯度、経度、高度)を測定する。
地図データベース5は、ナビゲーション装置6に用いられる一般的な地図情報を記憶する装置であり、例えばハードディスクや半導体素子により構成される。地図情報には、道路の位置情報、道路形状(曲率など)の情報、交差点や分岐点の位置情報、道路に設定された制限速度の情報が含まれる。なお、地図データベース5に記憶される地図情報は、コントローラ10の記憶部12に記憶される高精度な地図情報とは異なる。
ナビゲーション装置6は、ドライバにより入力された目的地までの道路上の目標経路を探索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置3を介して行われる。目標経路は、測位ユニット4により測定された自車両の現在位置と、地図データベース5に記憶された地図情報とに基づいて演算される。外部センサ群1の検出値を用いて自車両の現在位置を測定することもでき、この現在位置と記憶部12に記憶される高精度な地図情報とに基づいて目標経路を演算するようにしてもよい。
通信ユニット7は、インターネット網や携帯電話網等に代表される無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報、走行履歴情報および交通情報などを定期的に、あるいは任意のタイミングでサーバから取得する。ネットワークには、公衆無線通信網だけでなく、所定の管理地域ごとに設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。取得した地図情報は、地図データベース5や記憶部12に出力され、地図情報が更新される。
アクチュエータACは、自車両の走行を制御するための走行用アクチュエータである。走行駆動源がエンジンである場合、アクチュエータACには、エンジンのスロットルバルブの開度(スロットル開度)を調整するスロットル用アクチュエータが含まれる。走行駆動源が走行モータである場合、走行モータがアクチュエータACに含まれる。自車両の制動装置を作動するブレーキ用アクチュエータと転舵装置を駆動する転舵用アクチュエータもアクチュエータACに含まれる。
コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU(マイクロプロセッサ)等の演算部11と、ROM,RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。なお、エンジン制御用ECU、走行モータ制御用ECU、制動装置用ECU等、機能の異なる複数のECUを別々に設けることができるが、図1では、便宜上、これらECUの集合としてコントローラ10が示される。
記憶部12には、高精度の詳細な地図情報(高精度地図情報と呼ぶ)が記憶される。高精度地図情報には、道路の位置情報、道路形状(曲率など)の情報、道路の勾配の情報、交差点や分岐点の位置情報、車線数の情報、車線の幅員および車線毎の位置情報(車線の中央位置や車線位置の境界線の情報)、地図上の目印としてのランドマーク(信号機、標識、建物等)の位置情報、路面の凹凸などの路面プロファイルの情報が含まれる。記憶部12に記憶される高精度地図情報には、通信ユニット7を介して取得した自車両の外部から取得した地図情報、例えばクラウドサーバを介して取得した地図(クラウド地図と呼ぶ)の情報と、外部センサ群1による検出値を用いて自車両自体で作成される地図、例えばSLAM(Simultaneous Localization and Mapping)等の技術を用いてマッピングにより生成される点群データからなる地図(環境地図と呼ぶ)の情報とが含まれる。記憶部12には、各種制御のプログラム、プログラムで用いられる閾値等の情報についての情報も記憶される。
演算部11は、機能的構成として、自車位置認識部13と、外界認識部14と、行動計画生成部15と、走行制御部16と、地図生成部17とを有する。
自車位置認識部13は、測位ユニット4で得られた自車両の位置情報および地図データベース5の地図情報に基づいて、地図上の自車両の位置(自車位置)を認識する。記憶部12に記憶された地図情報と、外部センサ群1が検出した自車両の周辺情報とを用いて自車位置を認識してもよく、これにより自車位置を高精度に認識することができる。なお、道路上や道路脇の外部に設置されたセンサで自車位置を測定可能であるとき、そのセンサと通信ユニット7を介して通信することにより、自車位置を認識することもできる。
外界認識部14は、ライダ、レーダ、カメラ等の外部センサ群1からの信号に基づいて自車両の周囲の外部状況を認識する。例えば自車両の周辺を走行する周辺車両(前方車両や後方車両)の位置や走行速度や加速度、自車両の周囲に停車または駐車している周辺車両の位置、および他の物体の位置や状態などを認識する。他の物体には、標識、信号機、道路の区画線や停止線等の標示(路面標示)、建物、ガードレール、電柱、看板、歩行者、自転車等が含まれる。他の物体の状態には、信号機の色(赤、青、黄)、歩行者や自転車の移動速度や向きなどが含まれる。他の物体のうち静止している物体の一部は、地図上の位置の指標となるランドマークを構成し、外界認識部14は、ランドマークの位置と種別も認識する。
行動計画生成部15は、例えばナビゲーション装置6で演算された目標経路と、自車位置認識部13で認識された自車位置と、外界認識部14で認識された外部状況とに基づいて、現時点から所定時間先までの自車両の走行軌道(目標軌道)を生成する。目標経路上に目標軌道の候補となる複数の軌道が存在するときには、行動計画生成部15は、その中から法令を順守し、かつ効率よく安全に走行する等の基準を満たす最適な軌道を選択し、選択した軌道を目標軌道とする。そして、行動計画生成部15は、生成した目標軌道に応じた行動計画を生成する。行動計画生成部15は、先行車両を追い越すための追い越し走行、走行車線を変更する車線変更走行、先行車両に追従する追従走行、走行車線を逸脱しないように車線を維持するレーンキープ走行、減速走行または加速走行等の走行態様に対応した種々の行動計画を生成する。行動計画生成部15は、目標軌道を生成する際に、まず走行態様を決定し、走行態様に基づいて目標軌道を生成する。
走行制御部16は、自動運転モードにおいて、行動計画生成部15で生成された目標軌道に沿って自車両が走行するように各アクチュエータACを制御する。より具体的には、走行制御部16は、自動運転モードにおいて道路勾配などにより定まる走行抵抗を考慮して、行動計画生成部15で算出された単位時間毎の目標加速度を得るための要求駆動力を算出する。そして、例えば内部センサ群2により検出された実加速度が目標加速度となるようにアクチュエータACをフィードバック制御する。すなわち、自車両が目標車速および目標加速度で走行するようにアクチュエータACを制御する。なお、手動運転モードでは、走行制御部16は、内部センサ群2により取得されたドライバからの走行指令(ステアリング操作等)に応じて各アクチュエータACを制御する。
地図生成部17は、手動運転モードで走行しながら、外部センサ群1により検出された検出値を用いて、3次元の点群データからなる環境地図を生成する。具体的には、カメラ1aにより取得された撮像画像から、画素ごとの輝度や色の情報に基づいて物体の輪郭を示すエッジを抽出するとともに、そのエッジ情報を用いて特徴点を抽出する。特徴点は例えばエッジの交点であり、建物の角や道路標識の角などに対応する。地図生成部17は、抽出された特徴点を順次、環境地図上にプロットし、これにより自車両が走行した道路周辺の環境地図が生成される。カメラに代えて、レーダやライダにより取得されたデータを用いて自車両の周囲の物体の特徴点を抽出し、環境地図を生成するようにしてもよい。また、地図生成部17は、環境地図を生成する際に、地図上の目印としての信号機、標識、建物等のランドマークがカメラにより取得された撮像画像に含まれているか否かを、例えばパターンマッチングの処理により判定する。そして、ランドマークが含まれていると判定すると、撮像画像に基づいて、環境地図上におけるランドマークの位置および種別を認識する。これらランドマーク情報は環境地図に含まれ、記憶部12に記憶される。
自車位置認識部13は、地図生成部17による地図作成処理と並行して、自車両の位置推定処理を行う。すなわち、特徴点の時間経過に伴う位置の変化に基づいて、自車両の位置を推定して取得する。また、自車位置認識部13は、自車両の周囲のランドマークおよび自車両の周囲の物体の特徴点との相対的な位置関係に基づいて自車位置を推定して取得する。地図作成処理と位置推定処理とは、例えばSLAMのアルゴリズムにしたがって同時に行われる。地図生成部17は、手動運転モードで走行するときだけでなく、自動運転モードで走行するときにも同様に環境地図を生成することができる。既に環境地図が生成されて記憶部12に記憶されている場合、地図生成部17は、新たに得られた特徴点により環境地図を更新してもよい。
ところで、点群データからなる環境地図はデータ量が大きく、地図作成の対象となるエリアが広域になるほどそのデータ量は増大する。したがって、広域エリアを対象とする環境地図を作成しようとすると、記憶部12の容量が大きく奪われるおそれがある。そこで、データ量の増大を抑制しつつ広域の環境地図を作成可能なように、本実施形態では、以下のように地図生成装置を構成する。
図2は、本発明の実施形態に係る地図生成装置を有する車両位置認識装置の要部構成を示すブロック図である。この車両位置認識装置60は、自車両101の車両の現在位置を取得するものであり、図1の車両制御システム100の一部を構成する。図2に示すように、車両位置認識装置60は、コントローラ10と、カメラ1aと、レーダ1bと、ライダ1cとを有する。また、車両位置認識装置60は、車両位置認識装置60の一部を構成する地図生成装置50を有する。地図生成装置50は、カメラ1aの撮像画像に基づいて地図(後述する、区画線地図および環境地図)を生成するものである。
カメラ1aは、CCDやCMOS等の撮像素子(イメージセンサ)を有する単眼カメラであり、図1の外部センサ群1の一部を構成する。カメラ1aはステレオカメラであってもよい。カメラ1aは、自車両の周囲を撮像する。カメラ1aは、例えば自車両の前部の所定位置に取り付けられ、自車両の前方空間を連続的に撮像し、対象物の画像データ(以下、撮像画像データまたは単に撮像画像と呼ぶ)を取得する。カメラ1aは、撮像画像をコントローラ10に出力する。レーダ1bは、自車両に搭載され、電磁波を照射し反射波を検出することで自車両の周辺の他車両や障害物等を検出する。レーダ1bは、検出値(検出データ)をコントローラ10に出力する。ライダ1cは、自車両に搭載され、自車両の全方位の照射光に対する散乱光を測定して自車両から周辺の障害物までの距離を検出する。ライダ1cは、検出値(検出データ)をコントローラ10に出力する。
コントローラ10は、演算部11(図1)が担う機能的構成として、位置認識部131と、区画線認識部141と、第1地図生成部171と、第2地図生成部172とを有する。なお、区画線認識部141と第1地図生成部171と第2地図生成部172とは、地図生成装置50に含まれる。位置認識部131は、例えば、自車位置認識部13により構成される。区画線認識部141は、例えば図1の外界認識部14により構成される。第1地図生成部171と、第2地図生成部172は、例えば図1の地図生成部17により構成される。
区画線認識部141は、カメラ1aにより取得された撮像画像に基づいて道路の区画線を認識する。第1地図生成部171は、区画線認識部141により区画線が認識されている間、認識された区画線の位置に基づいて地図を生成する。以下、第1地図生成部171により生成される地図を区画線地図または第1地図と呼ぶ。
第2地図生成部172は、カメラ1aにより取得された撮像画像から特徴点を抽出し、抽出された特徴点を用いて環境地図を生成する。以下、第2地図生成部172により生成される環境地図を第2地図と呼ぶ。図3Aは、自車両101が環境地図を生成しながら道路を走行する様子を示す図である。図3Aに示す例では、自車両101は、左側通行の片側1車線の道路RD1を交差点ISに向かって走行中である。図3Aには、時刻t1、時刻t1よりも後の時刻t2、時刻t2よりも後の時刻t3のそれぞれの時点における自車両101が模式的に示されている。図3Aに示すように、時刻t1では、自車両101の車載カメラ(カメラ1a)の撮像範囲には、建物BL1と道路標識RS1とが含まれる。時刻t2では、建物BL2と電信柱UPと対向車線の信号機SG2とが含まれるものとする。時刻t3では、自車両が走行する車線の信号機SG1と建物BL3が含まれるものとする。第2地図生成部172は、カメラ1aの撮像画像からそれらの物体の特徴点を抽出する。図中の丸い枠で囲われた物体は、時刻t1,t2,t3のそれぞれの時点において第2地図生成部172により特徴点が抽出された物体を表している。なお、時刻t1~t3のすべての時点においてカメラ1aの撮像範囲には道路の区画線(中央線CLおよび車道外側線OL)が含まれ、第2地図生成部172は、カメラ1aの撮像画像から道路の区画線の特徴点も抽出する。このように、環境地図(第2地図)には、道路周辺の物体や道路の区画線に関する情報(特徴点)が含まれるため、道路の区画線以外の情報を含まない区画線地図に比べてデータ量が多くなる。
位置認識部131は、自車両101が自動運転モードで走行中、カメラ1aの撮像画像と、第1地図生成部171により生成された区画線地図および第2地図生成部172により生成された第2地図の少なくとも一方とに基づいて自車両の位置を認識する。
図3Bは、自車両101が図3Aの地点を自動運転モードで走行する様子を示す図である。図3Bの自車両101の位置は、図3Aの時刻t2における自車両101の位置と同じであるものとする。したがって、図3Bの自車両101の車載カメラ(カメラ1a)の撮像範囲には、建物BL2や、電信柱UP、対向車線の信号機SG2、道路の中央線CLおよび車道外側線OLが含まれる。
位置認識部131は、区画線地図に基づいて自車両101の位置を認識するとき、まず、カメラ1aの撮像画像に含まれる区画線(中央線CLや車道外側線OL)をパターンマッチングの処理などにより認識する。そして、位置認識部131は、認識した区画線と区画線地図とを照合して、認識した区画線と一致する地点が区画線地図上に存在するとき、その地点を自車両101の位置として認識する。
一方、環境地図に基づいて自車両101の位置を認識するとき、位置認識部131は、まず、カメラ1aの撮像画像から抽出される区画線や建物BL2などの物体の特徴点と環境地図とを照合する。そして、それらの物体の特徴点と一致する特徴点が環境地図上に認識されるとき、位置認識部131は、認識された特徴点の環境地図上における位置に基づいて、環境地図上における自車両101の位置を認識する。図3Bにおいて破線の丸い枠で囲われた物体は、図3Bの時点において位置認識部131により特徴点が抽出された物体を表している。
なお、自車両101が走行する道路に区画線が存在しないときや、自車両101が走行する道路の区画線がかすれているときには、カメラ1aの撮像画像から区画線が認識されない。そのようなとき、位置認識部131は、区画線地図上の自車両101の位置を認識することができない。一方、カメラ1aの撮像画像から区画線の特徴点が抽出されなくても他の物体の特徴点が抽出されれば、位置認識部131は、それらの特徴点に基づいて環境地図上における自車両101の位置を認識することができる。
したがって、位置認識部131は、区画線認識部141により区画線が認識されない区間では、カメラ1aの撮像画像と環境地図とに基づいて環境地図上の自車両101の位置を認識する。一方、位置認識部131は、区画線認識部141により区画線が認識される区間では、カメラ1aの撮像画像と区画線地図とに基づいて区画線地図上の自車両101の位置を認識する。このように、区画線地図と環境地図とのどちらに基づいても自車両101の位置を認識可能な区間においては、区画線地図を優先して用いるようにする。これにより、区画線を認識可能な区間では環境地図が必要なくなるので、環境地図のデータ量を低減することができる。
図4は、予め定められたプログラムに従い図2のコントローラ10で実行される処理(地図生成処理)の一例、特に地図生成に関する処理の一例を示すフローチャートである。図4のフローチャートに示す処理は、自車両が自動運転モードで走行している間、所定周期で繰り返される。
まず、ステップS11で、カメラ1aの撮像画像から区画線が認識されたか否かを判定する。ステップS11で肯定されると、ステップS12で、区画線地図を生成して記憶部12に記憶する。すでに記憶部12に区画線地図が記憶されているときには、ステップS11で認識された区画線の情報を、記憶部12に記憶された区画線地図に付加して、区画線地図を更新する。これにより、自車両101が走行する道路の区画線地図が形成されていく。ステップS13で、カメラ1aの撮像画像から抽出された特徴点群に基づいて環境地図を生成して記憶部12に記憶する。すでに記憶部12に環境地図が記憶されているときには、抽出された特徴点群で環境地図を更新する。
なお、環境地図には、カメラ1aにより取得された撮像画像から抽出された特徴点のデータ(点群データ)と、ポーズグラフとが含まれる。ポーズグラフは、ノードとエッジとから構成される。ノードは、点群データが取得された時点の自車両101の位置と姿勢を表し、エッジは、ノード間の相対的な位置(距離)と姿勢の関係を表す。姿勢は、環境地図が3次元地図である場合、ピッチ角や、ヨー角、ロール角で表現される。環境地図の更新では、自車両101の現在位置で取得された点群データが新たに追加されるとともに、追加された点群データに対応するノードと、該ノードと既存ノードとの関係を表すエッジとがポーズグラフに追加される。
ステップS14で、所定距離以上区画線が継続して認識されているか否かを判定する。具体的には、ステップS11で認識された区画線が認識され始めた地点(以下、区画線開始地点と呼ぶ)から自車両101の現在位置までの距離が所定距離以上であるか否かを判定する。ステップS14で否定されると処理を終了する。ステップS14で肯定されると、ステップS14で、環境地図の一部を削除する。具体的には、区画線開始地点から、自車両101の現在位置から所定距離後方の所定地点までの、環境地図を記憶部12から削除する。
一方、ステップS11で否定されると、カメラ1aの撮像画像から抽出された特徴点群に基づいて環境地図を生成して記憶部12に記憶する。すでに記憶部12に環境地図が記憶されているときには、抽出された特徴点群で環境地図を更新する。
図5は、図4の地図生成処理により生成された地図(区画線地図と環境地図)に基づいて、自車両101が自動運転モードで走行する様子を示す図である。図5に示す例では、自車両101は、左側通行の片側1車線の道路RD2を走行中である。図5には、時刻t11、時刻t11よりも後の時刻t12、時刻t12よりも後の時刻t13のそれぞれの時点における自車両101が模式的に示されている。道路RD2には、区間Aと区間Bとの間に区画線が存在しない区間Bが存在する。自車両101が区間Aおよび区間Bを走行するときには、位置認識部131は、カメラ1aの撮像画像に基づいて認識された区画線CL,OLと、区間Aおよび区間Cに対応する区画線地図に基づいて自車両101の区画線地図上の位置を認識する。一方、自車両101が区間Bを走行するときには、位置認識部131は、カメラ1aの撮像画像から抽出された建物BL4,BL5や、道路標識RS2の特徴点と、区間Bに対応する環境地図とに基づいて、自車両101の環境地図上の位置を認識する。また、区間Aと区間Bとの境界において、環境地図に基づく自車位置の認識を開始するとき、位置認識部131は、直前に認識された区画線地図上の自車両101の位置に基づいて、環境地図上における自車両101の位置を算出する。
通常、環境地図に基づく自車位置認識が開始されるとき、環境地図上における自車位置(初期位置)の探索が行われる。その探索は、複雑な演算処理を伴うため演算部11の処理負荷を増大させる。しかし、上述したように、直前に認識された区画線地図上の自車両101の位置に基づいて環境地図上における自車両101の初期位置を算出することにより、初期位置の探索が必要なくなるので、演算部11の処理負荷を低減できる。これにより、区間Aと区間Bとの境界において、環境地図に基づく自車位置の認識をスムーズに開始することができる。
本発明の実施形態によれば以下のような作用効果を奏することができる。
(1)地図生成装置50は、自車両の位置の取得に用いられる地図を生成する地図生成装置である。地図生成装置50は、走行中の自車両の周囲の状況を検出するカメラ1aと、カメラ1aにより取得された検出データ(撮像画像)に基づいて道路の区画線を認識する区画線認識部141と、区画線認識部141により区画線が認識されている間、認識された区画線に基づいて第1地図(区画線地図)を生成する第1地図生成部171と、カメラ1aの撮像画像から特徴点を抽出し、抽出された特徴点を用いて第2地図(環境地図)を生成する第2地図生成部と、を備える。第2地図生成部172は、区画線認識部141により区画線が認識されている間に生成された第2地図のうち、自車両101から所定距離以上後方の位置に対応する第2地図を削除する。これにより、地図のデータ量を低減することができる。
(2)車両位置認識装置60は、地図生成装置50と、走行中の自車両の位置を認識する位置認識部131と、を備える。位置認識部131は、区画線認識部141により区画線が認識されるとき、カメラ1aの撮像画像と第1地図とに基づいて第1地図上の自車両101の位置を認識し、区画線認識部141により区画線が認識されないとき、カメラ1aの撮像画像と第2地図とに基づいて第2地図上の自車両101の位置を認識する。これにより、区画線が存在する区間では区画線地図があれば自車位置を認識することが可能となり、そのような区間の環境地図を生成しておく必要がなくなる。したがって、地図のデータ量を低減することができる。
(3)位置認識部131は、区画線認識部141により区画線が認識されなくなると、第1地図上の自車両の位置に基づき第2地図上の自車両の初期位置を算出し、算出した初期位置に基づいて第2地図上の自車両の位置の認識を開始する。これにより、自車両101が、区画線が存在する区間(例えば、図5の区間A)から区画線がない区間(例えば、図5の区間B)に移動するとき、第2地図上の自車両の位置(初期位置)を探索する必要がなくなる。したがって、第2地図に基づく自車位置の認識を開始するときの処理負荷を軽減できるとともに、第2地図に基づく自車位置の認識をスムーズに開始することができる。
上記実施形態は種々の形態に変形することができる。以下、いくつかの変形例について説明する。上記実施形態では、カメラ1aにより自車両の周囲の状況を検出するようにしたが、自車両の周囲の状況を検出するのであれば、車載検出器の構成はいかなるものでもよい。例えば、車載検出器は、レーダ1bやライダ1cであってもよい。また、上記実施形態では、手動運転モードで走行しながら図4に示す処理を実行するようにしたが、自動運転モードで走行しながら図4に示す処理を実行してもよい。
また、上記実施形態では、第1地図を区画線地図とした場合を例にして説明したが、第1地図は区画線地図に限定されない。第1地図は、車載検出器の検出データに基づいて自車両の位置を認識可能な地図であって、且つ、第2地図よりデータ量が少ない地図であれば、区画線地図以外の地図であってもよい。さらに、上記実施形態では、地図生成装置50を自動運転車両に適用したが、地図生成装置50は、自動運転車両以外の車両にも適用可能である。例えば、ADAS(Advanced driver-assistance systems)を備える手動運転車両にも地図生成装置50を適用することができる。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の一つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
1a カメラ、1b レーダ、1c ライダ、10 コントローラ、50 地図生成装置、60 車両位置認識装置、141 区画線認識部、171 第1地図生成部、172 第2地図生成部、100 車両制御システム

Claims (3)

  1. 自車両の位置の取得に用いられる地図を生成する地図生成装置であって、
    走行中の自車両の周囲の状況を検出する車載検出器と、
    前記車載検出器により取得された検出データに基づいて道路の区画線を認識する区画線認識部と、
    前記区画線認識部により区画線が認識されている間、認識された区画線に基づいて第1地図を生成する第1地図生成部と、
    前記検出データから特徴点を抽出し、抽出された特徴点を用いて第2地図を生成する第2地図生成部と、を備え、
    前記第2地図生成部は、前記区画線認識部により区画線が認識されている間に生成された前記第2地図のうち、自車両から所定距離以上後方の位置に対応する前記第2地図を削除することを特徴とする地図生成装置。
  2. 請求項1に記載の地図生成装置と、
    走行中の自車両の位置を認識する位置認識部と、を備える車両位置認識装置であって、
    前記位置認識部は、前記区画線認識部により区画線が認識されるとき、前記検出データと前記第1地図とに基づいて前記第1地図上の自車両の位置を認識し、前記区画線認識部により区画線が認識されないとき、前記検出データと前記第2地図とに基づいて前記第2地図上の自車両の位置を認識することを特徴とする車両位置認識装置。
  3. 請求項2に記載の車両位置認識装置において、
    前記位置認識部は、前記区画線認識部により区画線が認識されなくなると、前記第1地図上の自車両の位置に基づき前記第2地図上の自車両の初期位置を算出し、算出した初期位置に基づいて前記第2地図上の自車両の位置の認識を開始することを特徴とする車両位置認識装置。
JP2021037060A 2021-03-09 2021-03-09 地図生成装置および車両位置認識装置 Pending JP2022137534A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021037060A JP2022137534A (ja) 2021-03-09 2021-03-09 地図生成装置および車両位置認識装置
US17/676,738 US20220291015A1 (en) 2021-03-09 2022-02-21 Map generation apparatus and vehicle position recognition apparatus
CN202210178470.1A CN115050203B (zh) 2021-03-09 2022-02-25 地图生成装置以及车辆位置识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021037060A JP2022137534A (ja) 2021-03-09 2021-03-09 地図生成装置および車両位置認識装置

Publications (1)

Publication Number Publication Date
JP2022137534A true JP2022137534A (ja) 2022-09-22

Family

ID=83158327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021037060A Pending JP2022137534A (ja) 2021-03-09 2021-03-09 地図生成装置および車両位置認識装置

Country Status (3)

Country Link
US (1) US20220291015A1 (ja)
JP (1) JP2022137534A (ja)
CN (1) CN115050203B (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5067847B2 (ja) * 2007-07-23 2012-11-07 アルパイン株式会社 車線認識装置及びナビゲーション装置
JP6130809B2 (ja) * 2014-04-25 2017-05-17 本田技研工業株式会社 車線認識装置
KR101866075B1 (ko) * 2016-10-20 2018-06-08 현대자동차주식회사 차선 추정 장치 및 방법
US11761790B2 (en) * 2016-12-09 2023-09-19 Tomtom Global Content B.V. Method and system for image-based positioning and mapping for a road network utilizing object detection
JP6627153B2 (ja) * 2017-09-11 2020-01-08 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP6966626B2 (ja) * 2018-03-02 2021-11-17 本田技研工業株式会社 車両制御装置、車両制御方法、及びプログラム
JP7119985B2 (ja) * 2018-12-21 2022-08-17 トヨタ自動車株式会社 地図生成装置、地図生成システム、地図生成方法、及び地図生成プログラム
WO2020133088A1 (zh) * 2018-12-27 2020-07-02 驭势科技(北京)有限公司 一种可用于自动驾驶的地图更新系统与方法
CN112069856A (zh) * 2019-06-10 2020-12-11 商汤集团有限公司 地图生成方法、驾驶控制方法、装置、电子设备及系统

Also Published As

Publication number Publication date
CN115050203A (zh) 2022-09-13
US20220291015A1 (en) 2022-09-15
CN115050203B (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
US11874135B2 (en) Map generation apparatus
US20220266824A1 (en) Road information generation apparatus
US20220258737A1 (en) Map generation apparatus and vehicle control apparatus
JP2022142825A (ja) 地図情報生成装置および自車位置推定装置
JP2022142826A (ja) 自車位置推定装置
US20220291015A1 (en) Map generation apparatus and vehicle position recognition apparatus
JP7141480B2 (ja) 地図生成装置
JP7141479B2 (ja) 地図生成装置
JP7141477B2 (ja) 地図生成装置
JP7141478B2 (ja) 地図生成装置
JP7301897B2 (ja) 地図生成装置
US20220268587A1 (en) Vehicle position recognition apparatus
US11867526B2 (en) Map generation apparatus
US20220291016A1 (en) Vehicle position recognition apparatus
WO2023188262A1 (ja) 地図生成装置
US20220307861A1 (en) Map generation apparatus
JP2022150534A (ja) 走行制御装置
JP2022152051A (ja) 走行制御装置
JP2022123238A (ja) 区画線認識装置
JP2022137532A (ja) 地図生成装置および位置認識装置
JP2022123239A (ja) 区画線認識装置
JP2022123940A (ja) 車両制御装置
JP2022123988A (ja) 区画線認識装置
JP2023149511A (ja) 地図生成装置
JP2022121835A (ja) 距離算出装置および車両位置推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128