JP2022151012A - 地図生成装置 - Google Patents
地図生成装置 Download PDFInfo
- Publication number
- JP2022151012A JP2022151012A JP2021053872A JP2021053872A JP2022151012A JP 2022151012 A JP2022151012 A JP 2022151012A JP 2021053872 A JP2021053872 A JP 2021053872A JP 2021053872 A JP2021053872 A JP 2021053872A JP 2022151012 A JP2022151012 A JP 2022151012A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- map
- vehicle
- estimating
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3837—Data obtained from a single source
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/3867—Geometry of map features, e.g. shape points, polygons or for simplified maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3807—Creation or updating of map data characterised by the type of data
- G01C21/3815—Road data
- G01C21/3822—Road feature data, e.g. slope data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3863—Structures of map data
- G01C21/387—Organisation of map data, e.g. version management or database structures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3885—Transmission of map data to client devices; Reception of map data by client devices
- G01C21/3889—Transmission of selected map data, e.g. depending on route
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0002—Automatic control, details of type of controller or control system architecture
- B60W2050/0004—In digital systems, e.g. discrete-time systems involving sampling
- B60W2050/0005—Processor details or data handling, e.g. memory registers or chip architecture
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
- Instructional Devices (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
Abstract
【課題】地図の精度を低下させることなく地図のデータ量を低減する。【解決手段】地図生成装置50は、自車両の周囲の外界状況を検出するカメラ1aと、カメラ1aにより取得された撮像画像データによって示される画像から特徴点を抽出する抽出部171と、撮像画像データによって示される画像に基づいて、自車両の移動に伴うカメラ1aの移動量を推定する移動量推定部172と、移動量推定部172による移動量の推定に用いられた画像内における領域を特定する特定部173と、抽出部171により抽出された特徴点のうち、特定部173により特定された領域に対応する特徴点を用いて地図情報を生成する生成部174と、を備える。【選択図】図2
Description
本発明は、自車両の周辺の地図を生成する地図生成装置に関する。
この種の装置として、従来、高精度の地図を生成することを目的として、複数の車両の車載カメラにより取得された撮像画像に基づいて特徴点地図を生成し、この生成された特徴点地図を重ね合わせて広域地図を生成するようにした装置が知られている(例えば特許文献1参照)。
しかしながら、上記特許文献1記載の装置のように、高精度の地図を生成しようとすると、それに伴って地図のデータ量が増大し、地図を記憶する記憶装置の容量が大きく奪われる可能性がある。
本発明の一態様である地図生成装置は、自車両の周囲の外界状況を検出する外界検出器と、外界検出器の検出データによって示される画像から特徴点を抽出する抽出部と、検出データによって示される画像に基づいて、自車両の移動に伴う外界検出器の移動量を推定する移動量推定部と、移動量推定部による移動量の推定に用いられた画像内における領域を特定する特定部と、抽出部により抽出された特徴点のうち、特定部により特定された領域に対応する特徴点を用いて地図情報を生成する生成部と、を備える。
本発明によれば、地図のデータ量の増大を抑制しつつ、地図の精度を向上させることができる。
以下、図1~図4Dを参照して本発明の実施形態について説明する。本発明の実施形態に係る地図生成装置は、自動運転機能を有する車両、すなわち自動運転車両に適用することができる。なお、本実施形態に係る地図生成装置が適用される車両を、他車両と区別して自車両と呼ぶことがある。自車両は、内燃機関(エンジン)を走行駆動源として有するエンジン車両、走行モータを走行駆動源として有する電気自動車、エンジンと走行モータとを走行駆動源として有するハイブリッド車両のいずれであってもよい。自車両は、ドライバによる運転操作が不要な自動運転モードでの走行だけでなく、ドライバの運転操作による手動運転モードでの走行も可能である。
まず、自動運転に係る概略構成について説明する。図1は、本発明の実施形態に係る地図生成装置を有する車両制御システム100の全体構成を概略的に示すブロック図である。図1に示すように、車両制御システム100は、コントローラ10と、コントローラ10にそれぞれ通信可能に接続された外部センサ群1と、内部センサ群2と、入出力装置3と、測位ユニット4と、地図データベース5と、ナビゲーション装置6と、通信ユニット7と、走行用のアクチュエータACとを主に有する。
外部センサ群1は、自車両の周辺情報である外部状況を検出する複数のセンサ(外部センサ)の総称である。例えば外部センサ群1には、自車両の全方位の照射光に対する散乱光を測定して自車両から周辺の障害物までの距離を測定するライダ、電磁波を照射し反射波を検出することで自車両の周辺の他車両や障害物等を検出するレーダ、自車両に搭載され、CCDやCMOS等の撮像素子を有して自車両の周辺(前方、後方および側方)を撮像するカメラなどが含まれる。
内部センサ群2は、自車両の走行状態を検出する複数のセンサ(内部センサ)の総称である。例えば内部センサ群2には、自車両の車速を検出する車速センサ、自車両の前後方向の加速度および左右方向の加速度(横加速度)をそれぞれ検出する加速度センサ、走行駆動源の回転数を検出する回転数センサ、自車両の重心の鉛直軸回りの回転角速度を検出するヨーレートセンサなどが含まれる。手動運転モードでのドライバの運転操作、例えばアクセルペダルの操作、ブレーキペダルの操作、ステアリングホイールの操作等を検出するセンサも内部センサ群2に含まれる。
入出力装置3は、ドライバから指令が入力されたり、ドライバに対し情報が出力されたりする装置の総称である。例えば入出力装置3には、操作部材の操作によりドライバが各種指令を入力する各種スイッチ、ドライバが音声で指令を入力するマイク、ドライバに表示画像を介して情報を提供するディスプレイ、ドライバに音声で情報を提供するスピーカなどが含まれる。
測位ユニット(GNSSユニット)4は、測位衛星から送信された測位用の信号を受信する測位センサを有する。測位衛星は、GPS衛星や準天頂衛星などの人工衛星である。測位ユニット4は、測位センサが受信した測位情報を利用して、自車両の現在位置(緯度、経度、高度)を測定する。
地図データベース5は、ナビゲーション装置6に用いられる一般的な地図情報を記憶する装置であり、例えばハードディスクや半導体素子により構成される。地図情報には、道路の位置情報、道路形状(曲率など)の情報、交差点や分岐点の位置情報、道路に設定された制限速度の情報が含まれる。なお、地図データベース5に記憶される地図情報は、コントローラ10の記憶部12に記憶される高精度な地図情報とは異なる。
ナビゲーション装置6は、ドライバにより入力された目的地までの道路上の目標経路を探索するとともに、目標経路に沿った案内を行う装置である。目的地の入力および目標経路に沿った案内は、入出力装置3を介して行われる。目標経路は、測位ユニット4により測定された自車両の現在位置と、地図データベース5に記憶された地図情報とに基づいて演算される。外部センサ群1の検出値を用いて自車両の現在位置を測定することもでき、この現在位置と記憶部12に記憶される高精度な地図情報とに基づいて目標経路を演算するようにしてもよい。
通信ユニット7は、インターネット網や携帯電話網等に代表される無線通信網を含むネットワークを介して図示しない各種サーバと通信し、地図情報、走行履歴情報および交通情報などを定期的に、あるいは任意のタイミングでサーバから取得する。ネットワークには、公衆無線通信網だけでなく、所定の管理地域ごとに設けられた閉鎖的な通信網、例えば無線LAN、Wi-Fi(登録商標)、Bluetooth(登録商標)等も含まれる。取得した地図情報は、地図データベース5や記憶部12に出力され、地図情報が更新される。
アクチュエータACは、自車両の走行を制御するための走行用アクチュエータである。走行駆動源がエンジンである場合、アクチュエータACには、エンジンのスロットルバルブの開度(スロットル開度)を調整するスロットル用アクチュエータが含まれる。走行駆動源が走行モータである場合、走行モータがアクチュエータACに含まれる。自車両の制動装置を作動するブレーキ用アクチュエータと転舵装置を駆動する転舵用アクチュエータもアクチュエータACに含まれる。
コントローラ10は、電子制御ユニット(ECU)により構成される。より具体的には、コントローラ10は、CPU(マイクロプロセッサ)等の演算部11と、ROM,RAM等の記憶部12と、I/Oインターフェース等の図示しないその他の周辺回路とを有するコンピュータを含んで構成される。なお、エンジン制御用ECU、走行モータ制御用ECU、制動装置用ECU等、機能の異なる複数のECUを別々に設けることができるが、図1では、便宜上、これらECUの集合としてコントローラ10が示される。
記憶部12には、高精度の詳細な地図情報(高精度地図情報と呼ぶ)が記憶される。高精度地図情報には、道路の位置情報、道路形状(曲率など)の情報、道路の勾配の情報、交差点や分岐点の位置情報、車線数の情報、車線の幅員および車線毎の位置情報(車線の中央位置や車線位置の境界線の情報)、地図上の目印としてのランドマーク(信号機、標識、建物等)の位置情報、路面の凹凸などの路面プロファイルの情報が含まれる。記憶部12に記憶される高精度地図情報には、通信ユニット7を介して取得した自車両の外部から取得した地図情報、例えばクラウドサーバを介して取得した地図(クラウド地図と呼ぶ)の情報と、外部センサ群1による検出値を用いて自車両自体で作成される地図、例えばSLAM(Simultaneous Localization and Mapping)等の技術を用いてマッピングにより生成される点群データからなる地図(環境地図と呼ぶ)の情報とが含まれる。記憶部12には、各種制御のプログラム、プログラムで用いられる閾値等の情報についての情報も記憶される。
演算部11は、機能的構成として、自車位置認識部13と、外界認識部14と、行動計画生成部15と、走行制御部16と、地図生成部17とを有する。
自車位置認識部13は、測位ユニット4で得られた自車両の位置情報および地図データベース5の地図情報に基づいて、地図上の自車両の位置(自車位置)を認識する。記憶部12に記憶された地図情報と、外部センサ群1が検出した自車両の周辺情報とを用いて自車位置を認識してもよく、これにより自車位置を高精度に認識することができる。なお、道路上や道路脇の外部に設置されたセンサで自車位置を測定可能であるとき、そのセンサと通信ユニット7を介して通信することにより、自車位置を認識することもできる。
外界認識部14は、ライダ、レーダ、カメラ等の外部センサ群1からの信号に基づいて自車両の周囲の外部状況を認識する。例えば自車両の周辺を走行する周辺車両(前方車両や後方車両)の位置や走行速度や加速度、自車両の周囲に停車または駐車している周辺車両の位置、および他の物体の位置や状態などを認識する。他の物体には、標識、信号機、道路の区画線や停止線等の標示(路面標示)、建物、ガードレール、電柱、看板、歩行者、自転車等が含まれる。他の物体の状態には、信号機の色(赤、青、黄)、歩行者や自転車の移動速度や向きなどが含まれる。他の物体のうち静止している物体の一部は、地図上の位置の指標となるランドマークを構成し、外界認識部14は、ランドマークの位置と種別も認識する。
行動計画生成部15は、例えばナビゲーション装置6で演算された目標経路と、自車位置認識部13で認識された自車位置と、外界認識部14で認識された外部状況とに基づいて、現時点から所定時間T先までの自車両の走行軌道(目標軌道)を生成する。目標経路上に目標軌道の候補となる複数の軌道が存在するときには、行動計画生成部15は、その中から法令を順守し、かつ効率よく安全に走行する等の基準を満たす最適な軌道を選択し、選択した軌道を目標軌道とする。そして、行動計画生成部15は、生成した目標軌道に応じた行動計画を生成する。行動計画生成部15は、先行車両を追い越すための追い越し走行、走行車線を変更する車線変更走行、先行車両に追従する追従走行、走行車線を逸脱しないように車線を維持するレーンキープ走行、減速走行または加速走行等の走行態様に対応した種々の行動計画を生成する。行動計画生成部15は、目標軌道を生成する際に、まず走行態様を決定し、走行態様に基づいて目標軌道を生成する。
走行制御部16は、自動運転モードにおいて、行動計画生成部15で生成された目標軌道に沿って自車両が走行するように各アクチュエータACを制御する。より具体的には、走行制御部16は、自動運転モードにおいて道路勾配などにより定まる走行抵抗を考慮して、行動計画生成部15で算出された単位時間毎の目標加速度を得るための要求駆動力を算出する。そして、例えば内部センサ群2により検出された実加速度が目標加速度となるようにアクチュエータACをフィードバック制御する。すなわち、自車両が目標車速および目標加速度で走行するようにアクチュエータACを制御する。なお、手動運転モードでは、走行制御部16は、内部センサ群2により取得されたドライバからの走行指令(ステアリング操作等)に応じて各アクチュエータACを制御する。
地図生成部17は、手動運転モードで走行しながら、外部センサ群1により検出された検出値を用いて、3次元の点群データからなる環境地図を生成する。具体的には、カメラ1aにより取得された撮像画像データ(以下、単に撮像画像と呼ぶ場合がある)から、画素ごとの輝度や色の情報に基づいて物体の輪郭を示すエッジを抽出するとともに、そのエッジ情報を用いて特徴点を抽出する。特徴点は例えばエッジの交点であり、建物の角や道路標識の角などに対応する。地図生成部17は、抽出された特徴点を順次、環境地図上にプロットし、これにより自車両が走行した道路周辺の環境地図が生成される。カメラに代えて、レーダやライダにより取得されたデータを用いて自車両の周囲の物体の特徴点を抽出し、環境地図を生成するようにしてもよい。また、地図生成部17は、環境地図を生成する際に、地図上の目印としての信号機、標識、建物等のランドマークがカメラにより取得された撮像画像に含まれているか否かを、例えばパターンマッチングの処理により判定する。そして、ランドマークが含まれていると判定すると、撮像画像に基づいて、環境地図上におけるランドマークの位置および種別を認識する。これらランドマーク情報は環境地図に含まれ、記憶部12に記憶される。
自車位置認識部13は、地図生成部17による地図作成処理と並行して、自車両の位置推定処理を行う。すなわち、特徴点の時間経過に伴う位置の変化に基づいて、自車両の位置を推定して取得する。また、自車位置認識部13は、自車両の周囲のランドマークとの相対的な位置関係に基づいて環境地図上の自車位置を推定して取得する。地図作成処理と位置推定処理とは、例えばSLAMのアルゴリズムにしたがって同時に行われる。地図生成部17は、手動運転モードで走行するときだけでなく、自動運転モードで走行するときにも同様に環境地図を生成することができる。既に環境地図が生成されて記憶部12に記憶されている場合、地図生成部17は、新たに得られた特徴点により環境地図を更新してもよい。
ところで、自車両の位置推定処理では、カメラ1aの撮像画像から抽出された特徴点と、記憶部12に記憶された環境地図とが照合(マッチング)され、環境地図上の自車両の位置が推定される。その際、環境地図を構成する特徴点のうち、信号機や道路上の区画線や道路の境界など、地図上の目印としてのランドマークに対応する特徴点に基づいて、自車両の位置が推定される。したがって、それらの特徴点以外の特徴点は自車両の位置推定処理においては不要なデータとなり環境地図のデータ量を必要以上に増大させる。一方で、環境地図のデータ量を低減しようとして特徴点の数を削減すると、特徴点のマッチング精度が低下し、それに伴って自車両の位置の推定精度が低下するおそれがある。そこで、この点を考慮し、本実施形態では、以下のように地図生成装置50を構成する。
図2は、本発明の実施形態に係る地図生成装置50の要部構成を示すブロック図である。この地図生成装置50は、図1の車両制御システム100の一部を構成する。図2に示すように、地図生成装置50は、コントローラ10と、カメラ1aと、レーダ1bと、ライダ1cと、アクチュエータACとを有する。
カメラ1aは、CCDやCMOS等の撮像素子(イメージセンサ)を有する単眼カメラであり、図1の外部センサ群1の一部を構成する。カメラ1aはステレオカメラであってもよい。カメラ1aは、自車両の周囲を撮像する。カメラ1aは、例えば自車両の前部の所定位置に取り付けられ、自車両の前方空間を連続的に撮像し、対象物の画像データ(以下、撮像画像データまたは単に撮像画像と呼ぶ)を取得する。カメラ1aは、撮像画像をコントローラ10に出力する。レーダ1bは、自車両に搭載され、電磁波を照射し反射波を検出することで自車両の周辺の他車両や障害物等を検出する。レーダ1bは、検出値(検出データ)をコントローラ10に出力する。ライダ1cは、自車両に搭載され、自車両の全方位の照射光に対する散乱光を測定して自車両から周辺の障害物までの距離を検出する。ライダ1cは、検出値(検出データ)をコントローラ10に出力する。
コントローラ10は、演算部11(図1)が担う機能的構成として、位置推定部131と、抽出部171と、移動量推定部172と、特定部173と、生成部174とを有する。なお、位置推定部131は、例えば図1の自車位置認識部13により構成される。また、抽出部171と移動量推定部172と特定部173と生成部174とは、例えば図1の地図生成部17により構成される。
抽出部171は、カメラ1aにより取得された撮像画像から特徴点を抽出する。移動量推定部172は、カメラ1aにより取得された撮像画像に基づいて、自車両の移動に伴うカメラ1aの移動量を推定する。なお、移動量推定部172は、この移動量の推定を、ポーズCNN(poseCNN:ポーズ畳み込みニューラルネットワーク)を用いて行う。より詳細には、移動量推定部172は、カメラ1aにより取得された撮像時点が異なる複数の撮像画像をポーズCNNに入力し、ポーズCNNがそれらの撮像画像に基づき推定したカメラ1aの移動(並進移動および回転)の量を取得する。ポーズCNNは、入力された複数の画像に基づいて、その複数の画像を撮像したカメラの移動量を推定する畳み込みニューラルネットワークである。
特定部173は、移動量推定部172による移動量の推定に用いられた撮像画像内における領域を特定する。具体的には、特定部173は、カメラ1aにより取得された撮像画像の領域のうち、ポーズCNNが移動量を推定したときに注視した注視領域を特定する。特定部173は、ABN(Attention Branch Network)をポーズCNNに適用して注視領域を特定する。ABNは、ポーズCNNの畳み込み層から得られる画像特徴量に基づいて、注視領域を示す注視マップ(Attention map)を生成して出力する手法である。特定部173は、移動量推定部172においてポーズCNNによる移動量の推定が行われるときに、ポーズCNNの畳み込み層から出力される画像特徴量を取得し、その画像特徴量をABNに入力して、ABNにより出力される注視マップを取得する。そして、特定部173は、その注視マップに基づいて注視領域を特定する。
生成部174は、抽出部171により抽出された特徴点のうち、特定部173により特定された注視領域に対応する特徴点を、記憶部12に記憶されている環境地図上にプロットする。これにより自車両が走行した道路周辺の環境地図が順次生成される。
位置推定部131は、移動量推定部172により推定された移動量を所定の位置から積算することで、自車両の位置を推定する。また、位置推定部131は、抽出部171により抽出された特徴点と、記憶部120に記憶された環境地図とに基づいて、自車両の位置を推定する。なお、生成部174による地図情報の生成処理と、位置推定部131による自車両の位置推定処理とは、並行して行われる。
図3は、予め定められたプログラムに従い図2のコントローラ10で実行される処理の一例を示すフローチャートである。このフローチャートに示す処理は、例えば、自車両が手動運転モードで走行中に所定周期ごとに繰り返される。
図3に示すように、まず、ステップS11で、カメラ1aの撮像画像を取得すると、ステップS12で、その撮像画像と、現時点より所定時間手前の時点において取得されたカメラ1aの撮像画像とを、ポーズCNNに入力する。ポーズCNNでは、入力された撮像画像に基づきカメラ1aの移動量(すなわち、自車両の移動量)が推定される。ステップS13で、ポーズCNNによる移動量の推定時にポーズCNNの畳み込み層から出力される画像特徴量を取得し、その画像特徴量をABNに入力する。ABNでは、ステップS11で取得されたカメラ1aの撮像画像と、入力された画像特徴量とに基づいて、ポーズCNNの推定時に注視された領域(注視領域)を示す注視マップが生成される。ABNにより生成された注視マップに基づいて注視領域を特定する。ステップS14で、ステップS11でカメラ1aにより取得された撮像画像から特徴点を抽出し、抽出された特徴点のうち、ステップS13で特定された注視領域に対応する特徴点を、記憶部12に記憶された環境地図にプロットする。これにより、環境地図が順次生成される。ステップS15で、ステップS14で抽出された特徴点と、記憶部120に記憶された環境地図とに基づいて、自車両の位置を推定して取得する。このとき、ポーズCNNの推定結果であるカメラ1aの移動量と、前回推定された自車両の位置とに基づいて、現在の自車両の位置を推定することもできる。
本実施形態に係る地図生成装置50による地図生成の動作をより具体的に説明する。図4Aは、カメラ1aの撮像画像の一例を示す図である。図4Aの撮像画像IMには、自車両の周辺の建物BL1,BL2,BL3や信号機SG、縁石CU、自車両の前方を走行する他車両V1,V2等が含まれる。図4Aの撮像画像IMと、現時点より所定時間手前の時点において取得されたカメラ1aの撮像画像とが、ポーズCNNに入力され、自車両の移動量が推定される(ステップS12)。このとき、ポーズCNNの畳み込み層から出力される画像特徴量がABNに入力され、ABNにより注視マップが生成される(ステップS13)。図4Bは、注視マップを模式的に示す図である。図4Bの注視マップでは、信号機SGや建物BL1,BL2の一部を含む領域が注視領域AR1,AR2,AR3として強調表示されている。注視マップでは、注視領域内において注視度が高い画素ほど高い濃度で表示される。図4Cは、図4Aの撮像画像から抽出された特徴点を模式的に示す図である。図4Cに示す特徴点のうち、図4Bに示す注視領域に対応する特徴点が、環境地図にプロットされる(ステップS14)。図4Dは、注視領域に対応する特徴点を模式的に示す図である。
本発明の実施形態によれば以下のような作用効果を奏することができる。
(1)地図生成装置50は、自車両の周囲の外界状況を検出するカメラ1aと、カメラ1aにより取得された撮像画像から特徴点を抽出する抽出部171と、その撮像画像に基づいて、自車両の移動に伴うカメラ1aの移動量を推定する移動量推定部172と、移動量推定部172による移動量の推定に用いられた撮像画像内における領域を特定する特定部173と、抽出部171により抽出された特徴点のうち、特定部173により特定された領域に対応する特徴点を用いて地図情報を生成する生成部174と、を備える。これにより、環境地図のデータ量の増大を抑制しつつ、環境地図の精度を向上させることができる。
(1)地図生成装置50は、自車両の周囲の外界状況を検出するカメラ1aと、カメラ1aにより取得された撮像画像から特徴点を抽出する抽出部171と、その撮像画像に基づいて、自車両の移動に伴うカメラ1aの移動量を推定する移動量推定部172と、移動量推定部172による移動量の推定に用いられた撮像画像内における領域を特定する特定部173と、抽出部171により抽出された特徴点のうち、特定部173により特定された領域に対応する特徴点を用いて地図情報を生成する生成部174と、を備える。これにより、環境地図のデータ量の増大を抑制しつつ、環境地図の精度を向上させることができる。
(2)移動量推定部172は、ポーズ畳み込みニューラルネットワークを用いて、カメラ1aにより取得された検出時点(撮像時点)が異なる複数の撮像画像に基づいてカメラ1aの移動量を推定し、特定部173は、ポーズ畳み込みニューラルネットワークの畳み込み層から出力される画像特徴量に基づいて、ポーズ畳み込みニューラルネットワークがカメラ1aの移動量を推定するときに注視した、撮像画像内における領域(注視領域)を特定する。このようにニューラルネットワークを用いることで、移動量の推定に必要となる領域を自動的にかつ精度よく特定することができる。よって、移動量の推定に不要な領域、例えば移動体(図4Aの他車両V1,V2)の領域や遠方の物体の領域(図4Aの建物BL3)が注視領域として特定されることを抑制できる。また、移動体と認識された物体であっても動いていない移動体の場合には移動量の推定に必要な注視領域として自動的に特定(算出)されるため、例えば道路上に停車した車両の側方を通過するような場合により精度の高いSLAM(環境地図)生成が人手を介さずに実現できる。
(3)地図生成装置50は、生成部174により生成された地図情報を記憶する記憶部12と、抽出部171により抽出された特徴点と、記憶部12に記憶された地図情報とに基づいて、自車両の位置を推定して取得する位置推定部131と、をさらに備える。生成部174による地図情報の生成と、位置推定部131による自車両の位置の推定とは、並行して行われる。これにより、高精度な環境地図を構築しながら、その環境地図に基づき自車位置を高精度に推定することができる。
上記実施形態は種々の形態に変形することができる。以下、いくつかの変形例について説明する。上記実施形態では、カメラ1aにより自車両の周囲の状況を検出するようにしたが、自車両の周囲の状況を検出するのであれば、外界検出器の構成はいかなるものでもよい。例えば、外界検出器は、レーダ1bやライダ1cであってもよい。また、上記実施形態では、抽出部171が、カメラ1aにより取得された撮像画像データによって示される画像から特徴点を抽出するようにしたが、抽出部は、レーダ1bやライダ1cの検出データにより示される画像から特徴点を抽出してもよい。
また、上記実施形態では、移動量推定部172が、カメラ1aにより取得された撮像画像データによって示される画像に基づいて、自車両の移動に伴うカメラ1aの移動量を推定するようにしたが、移動量推定部は、レーダ1bやライダ1cの検出データにより示される画像に基づいて、自車両の移動に伴うレーダ1bやライダ1cの移動量を推定してもよい。また、上記実施形態では、生成部174が、抽出部171により抽出された特徴点のうち、特定部173により特定された領域に対応する特徴点を用いて地図情報を生成するようにした。しかし、生成部は、注視領域内の各画素に対する注視度に応じて、各画素を重み付けし、注視領域内の特徴点のうち、その重みが所定値以上である領域、すなわち注視度が所定程度以上である領域に対応する特徴点を用いて地図情報を生成してもよい。例えば、図4Bに示す例において、注視領域AR1,AR2,AR3内の濃度が最も高い領域(最も内側の領域)に対応する特徴点を用いて地図情報を生成してもよい。
また、上記実施形態では、地図生成装置50を自動運転車両に適用したが、地図生成装置50は、自動運転車両以外の車両にも適用可能である。例えば、ADAS(Advanced driver-assistance systems)を備える手動運転車両にも地図生成装置50を適用することができる。さらに、上記実施形態では、手動運転モードで走行しながら図3に示す処理を実行するようにしたが、自動運転モードで走行しているときに図3に示す処理を実行してもよい。
以上の説明はあくまで一例であり、本発明の特徴を損なわない限り、上述した実施形態および変形例により本発明が限定されるものではない。上記実施形態と変形例の一つまたは複数を任意に組み合わせることも可能であり、変形例同士を組み合わせることも可能である。
1a カメラ、1b レーダ、1c ライダ、10 コントローラ、50 地図生成装置、131 位置推定部、171 抽出部、172 移動量推定部、173 特定部、174 生成部、AC アクチュエータ、100 車両制御システム
Claims (4)
- 自車両の周囲の外界状況を検出する外界検出器と、
前記外界検出器の検出データによって示される画像から特徴点を抽出する抽出部と、
前記検出データによって示される画像に基づいて、前記自車両の移動に伴う前記外界検出器の移動量を推定する移動量推定部と、
前記移動量推定部による移動量の推定に用いられた前記画像内における領域を特定する特定部と、
前記抽出部により抽出された特徴点のうち、前記特定部により特定された領域に対応する特徴点を用いて地図情報を生成する生成部と、を備えることを特徴とする地図生成装置。 - 請求項1に記載の地図生成装置において、
前記移動量推定部は、ニューラルネットワークを用いて、検出時点が異なる複数の前記検出データによって示される複数の前記画像に基づいて前記外界検出器の移動量を推定し、
前記特定部は、前記ニューラルネットワークが前記外界検出器の移動量を推定するときに注視した、前記画像内における領域を特定することを特徴とする地図生成装置。 - 請求項2に記載の地図生成装置において、
前記ニューラルネットワークは、ポーズ畳み込みニューラルネットワークであり、
前記特定部は、前記ニューラルネットワークの畳み込み層から出力される画像特徴量に基づいて、前記ニューラルネットワークが前記外界検出器の移動量を推定するときに注視した、前記画像内における領域を特定することを特徴とする地図生成装置。 - 請求項1から3のうちのいずれか1項に記載の地図生成装置において、
前記生成部により生成された地図情報を記憶する記憶部と、
前記抽出部により抽出された特徴点と、前記記憶部に記憶された地図情報とに基づいて、前記自車両の位置を推定して取得する位置推定部と、をさらに備え、
前記生成部による地図情報の生成と、前記位置推定部による前記自車両の位置の推定とは並行して行われることを特徴とする地図生成装置。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021053872A JP2022151012A (ja) | 2021-03-26 | 2021-03-26 | 地図生成装置 |
US17/676,756 US20220307861A1 (en) | 2021-03-26 | 2022-02-21 | Map generation apparatus |
CN202210178456.1A CN115195746A (zh) | 2021-03-26 | 2022-02-25 | 地图生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021053872A JP2022151012A (ja) | 2021-03-26 | 2021-03-26 | 地図生成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022151012A true JP2022151012A (ja) | 2022-10-07 |
Family
ID=83364519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021053872A Pending JP2022151012A (ja) | 2021-03-26 | 2021-03-26 | 地図生成装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220307861A1 (ja) |
JP (1) | JP2022151012A (ja) |
CN (1) | CN115195746A (ja) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6618767B2 (ja) * | 2015-10-27 | 2019-12-11 | 株式会社デンソーテン | 画像処理装置および画像処理方法 |
KR20200071293A (ko) * | 2018-12-11 | 2020-06-19 | 삼성전자주식회사 | 3차원 컬러 맵 기반의 측위 방법 및 장치 |
JPWO2021181861A1 (ja) * | 2020-03-10 | 2021-09-16 | ||
WO2022024593A1 (ja) * | 2020-07-31 | 2022-02-03 | 富士フイルム株式会社 | 情報処理装置、情報処理方法、プログラム、及び情報処理システム |
JP2022087914A (ja) * | 2020-12-02 | 2022-06-14 | 本田技研工業株式会社 | 車両位置推定装置 |
JP7062747B1 (ja) * | 2020-12-25 | 2022-05-06 | 楽天グループ株式会社 | 情報処理装置、情報処理方法およびプログラム |
-
2021
- 2021-03-26 JP JP2021053872A patent/JP2022151012A/ja active Pending
-
2022
- 2022-02-21 US US17/676,756 patent/US20220307861A1/en active Pending
- 2022-02-25 CN CN202210178456.1A patent/CN115195746A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220307861A1 (en) | 2022-09-29 |
CN115195746A (zh) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12054144B2 (en) | Road information generation apparatus | |
CN115050203B (zh) | 地图生成装置以及车辆位置识别装置 | |
CN114926805B (zh) | 划分线识别装置 | |
US11874135B2 (en) | Map generation apparatus | |
US20220268587A1 (en) | Vehicle position recognition apparatus | |
US20220258737A1 (en) | Map generation apparatus and vehicle control apparatus | |
US20220291016A1 (en) | Vehicle position recognition apparatus | |
CN114954508A (zh) | 车辆控制装置 | |
US20220307861A1 (en) | Map generation apparatus | |
JP7141479B2 (ja) | 地図生成装置 | |
JP7141477B2 (ja) | 地図生成装置 | |
US11867526B2 (en) | Map generation apparatus | |
JP7301897B2 (ja) | 地図生成装置 | |
JP7141480B2 (ja) | 地図生成装置 | |
JP7141478B2 (ja) | 地図生成装置 | |
JP7543196B2 (ja) | 走行制御装置 | |
US20230314162A1 (en) | Map generation apparatus | |
JP2022152051A (ja) | 走行制御装置 | |
JP2022123988A (ja) | 区画線認識装置 | |
JP2022123238A (ja) | 区画線認識装置 | |
JP2024085978A (ja) | 地図評価装置 | |
JP2022121835A (ja) | 距離算出装置および車両位置推定装置 | |
JP2022137532A (ja) | 地図生成装置および位置認識装置 | |
JP2023149356A (ja) | 地図生成装置 |