JP2022132882A - ナビゲーションシステム、ナビゲーション方法およびプログラム - Google Patents
ナビゲーションシステム、ナビゲーション方法およびプログラム Download PDFInfo
- Publication number
- JP2022132882A JP2022132882A JP2021031599A JP2021031599A JP2022132882A JP 2022132882 A JP2022132882 A JP 2022132882A JP 2021031599 A JP2021031599 A JP 2021031599A JP 2021031599 A JP2021031599 A JP 2021031599A JP 2022132882 A JP2022132882 A JP 2022132882A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- road
- unit
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3647—Guidance involving output of stored or live camera images or video streams
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
【課題】移動体の現在位置を精度よく推定してナビゲーション情報を提供する。【解決手段】本開示のナビゲーションシステムは、移動体の走行路を含む領域を撮像する撮像装置と、地図情報を取得する地図情報取得部と、前記移動体の位置情報を取得する位置情報取得部と、前記撮像装置によって撮像された複数の画像を、それぞれ前記移動体の走行路を示す走行路データに変換する走行路変換部と、前記走行路データに含まれる前記走行路の特徴点を用いて、前記複数の画像に対応する前記走行路データを合成した合成データを生成する走行路合成部と、前記合成データと、前記地図情報に含まれる走行路とのマッチング処理を行って前記移動体の現在位置を推定するマッチング処理部と、移動体のナビゲーション情報を生成する生成部と、撮像画像とナビゲーション情報の合成画像を生成する合成部と、合成画像を表示する表示部とを有する。【選択図】図1
Description
本開示は、車両用のナビゲーションシステム、ナビゲーション方法およびプログラムに関する
車両用のナビゲーションシステムにおいて、車両の現在位置を検出する際に、車両の走行路と地図情報とを比較するマップマッチング処理によって検出精度を向上させることが知られている。また、マップマッチング処理の精度は、マッチング対象の走行路が長いほど精度が向上することも知られている。
一方で、車両の走行距離が長くなるほど、車両情報の取得に用いるセンサの出力誤差が累積するため、実際の車両の走行路と、センサの出力を基に推定した走行路とが一致しない可能性がある。
特許文献1には、マップマッチング処理の精度を向上させるために、道路沿いの構造物を認識して車両位置を補正する方法について記載されている。しかしながら、特許文献1に記載の方法を用いても、自車両位置を構造物の位置に合わせて補正することはできても、構造物から地図上の自車両の現在位置を特定することはできず、マッチング精度を有意に向上させることができない可能性がある。
そこで、本開示は、上記課題に鑑みて、移動体の現在位置を精度よく推定してナビゲーション情報を提供することを目的とする。
上記目的を達成するために、本開示に係るナビゲーションシステムは、
移動体に配置され、前記移動体の走行路を含む領域を撮像する撮像装置と、
地図情報を取得する地図情報取得部と、
前記移動体の位置情報を取得する位置情報取得部と、
前記撮像装置によって撮像された前記領域の複数の画像を、それぞれ前記移動体の走行路を示す走行路データに変換する走行路変換部と、
前記走行路データに含まれる前記走行路の特徴点を用いて、前記複数の画像に対応する前記走行路データを合成した合成データを生成する走行路合成部と、
前記合成データと、前記地図情報に含まれる走行路とのマッチング処理を行って前記移動体の現在位置を推定するマッチング処理部と、
前記マッチング処理部によって推定された前記移動体の現在位置を基に前記移動体のナビゲーション情報を生成するナビゲーション情報生成部と、
前記撮像装置によって撮像された前記領域の画像と前記ナビゲーション情報生成部によって生成された前記ナビゲーション情報とを合成した合成画像を生成する画像合成部と、
前記画像合成部によって生成された前記合成画像を表示する表示部と
を有することを特徴とするナビゲーションシステムを含む。
移動体に配置され、前記移動体の走行路を含む領域を撮像する撮像装置と、
地図情報を取得する地図情報取得部と、
前記移動体の位置情報を取得する位置情報取得部と、
前記撮像装置によって撮像された前記領域の複数の画像を、それぞれ前記移動体の走行路を示す走行路データに変換する走行路変換部と、
前記走行路データに含まれる前記走行路の特徴点を用いて、前記複数の画像に対応する前記走行路データを合成した合成データを生成する走行路合成部と、
前記合成データと、前記地図情報に含まれる走行路とのマッチング処理を行って前記移動体の現在位置を推定するマッチング処理部と、
前記マッチング処理部によって推定された前記移動体の現在位置を基に前記移動体のナビゲーション情報を生成するナビゲーション情報生成部と、
前記撮像装置によって撮像された前記領域の画像と前記ナビゲーション情報生成部によって生成された前記ナビゲーション情報とを合成した合成画像を生成する画像合成部と、
前記画像合成部によって生成された前記合成画像を表示する表示部と
を有することを特徴とするナビゲーションシステムを含む。
また、本件開示のナビゲーション方法は、
移動体に配置された撮像装置による、前記移動体の走行路を含む領域の撮像と、
地図情報の取得と、
前記移動体の位置情報の取得と、
前記撮像装置によって撮像された前記領域の複数の画像それぞれの前記移動体の走行路を示す走行路データへの変換と、
前記走行路データに含まれる前記走行路の特徴点を用いた、前記複数の画像に対応する前記走行路データを合成した合成データの生成と、
前記合成データと、前記地図情報に含まれる走行路とのマッチング処理を行うことによる前記移動体の現在位置の推定と、
推定された前記移動体の前記現在位置に基づく前記移動体のナビゲーション情報の生成と、
前記撮像装置によって撮像された前記領域の画像と生成された前記ナビゲーション情報とを合成した合成画像の生成と、
生成された前記合成画像の表示と
を含むナビゲーション方法を含む。
また、本開示のプログラムは、コンピュータに上記のナビゲーション方法を実行させるプログラムを含む。
移動体に配置された撮像装置による、前記移動体の走行路を含む領域の撮像と、
地図情報の取得と、
前記移動体の位置情報の取得と、
前記撮像装置によって撮像された前記領域の複数の画像それぞれの前記移動体の走行路を示す走行路データへの変換と、
前記走行路データに含まれる前記走行路の特徴点を用いた、前記複数の画像に対応する前記走行路データを合成した合成データの生成と、
前記合成データと、前記地図情報に含まれる走行路とのマッチング処理を行うことによる前記移動体の現在位置の推定と、
推定された前記移動体の前記現在位置に基づく前記移動体のナビゲーション情報の生成と、
前記撮像装置によって撮像された前記領域の画像と生成された前記ナビゲーション情報とを合成した合成画像の生成と、
生成された前記合成画像の表示と
を含むナビゲーション方法を含む。
また、本開示のプログラムは、コンピュータに上記のナビゲーション方法を実行させるプログラムを含む。
本開示によれば、移動体の現在位置をより精度よく推定し、移動体のユーザに適切なナビゲーション情報を提供することができる。
以下、本開示の実施形態について図面を用いて説明する。なお、本開示は以下の実施形態に限定されるものではなく、その要旨を逸脱しない範囲において適宜変更可能である。また、以下で説明する図面において、同じ機能を有するものは同一の符号を付し、その説明を省略又は簡潔にすることもある。
(第1の実施形態)
図1は、本実施形態に係るナビゲーションシステム100を概略的に示す機能ブロック図である。また、本実施形態では、ナビゲーションシステム100は、移動体の一例である車両に搭載される。図1に示すように、ナビゲーションシステム100は、撮像装置101、画像処理部102、走行軌跡合成部103を有する。また、ナビゲーションシステム100は、地図データベース111、地図情報取得部112、GPS(Global Positioning System)受信部121、GPS情報取得部122を有する。さらに、ナビゲーショ
ンシステム100は、マップマッチング処理部131、ナビゲーション情報生成部132、画像合成部133、表示部134を有する。
図1は、本実施形態に係るナビゲーションシステム100を概略的に示す機能ブロック図である。また、本実施形態では、ナビゲーションシステム100は、移動体の一例である車両に搭載される。図1に示すように、ナビゲーションシステム100は、撮像装置101、画像処理部102、走行軌跡合成部103を有する。また、ナビゲーションシステム100は、地図データベース111、地図情報取得部112、GPS(Global Positioning System)受信部121、GPS情報取得部122を有する。さらに、ナビゲーショ
ンシステム100は、マップマッチング処理部131、ナビゲーション情報生成部132、画像合成部133、表示部134を有する。
撮像装置101は、車両に配置され、車両が走行している走行路を含む領域を連続して撮像する。画像処理部102は、撮像装置101によって連続して撮像された複数の画像を走行路データに変換する処理を行う。また、走行路合成部103は、後述する画像処理部102によって変換された走行路データを合成した合成データを生成する。
GPS受信部121は、GPS衛星からの信号を受信する。また、位置情報取得部であるGPS情報取得部122は、GPS受信部121によって受信された信号から、ナビゲーションシステム100を搭載した車両の現在位置に関する情報を取得する。
地図データベース111は、後述するマップマッチング処理部131によるマッチング処理に使用される地図情報を記憶する。なお、図1では地図データベース111はナビゲーションシステム100が有するが、地図データサーバ111はナビゲーションシステム100の外部に設けられていてもよい。また、地図情報取得部112は、GPS情報取得部122から車両の現在位置の情報を取得し、地図データベース111から車両の現在位置周辺の地図情報を取得する。なお、地図情報取得部112によるこれらの情報の取得は、車両の走行開始前に現在位置から目的地までの情報を一括して行ってもよいし、車両の走行中に逐次行ってもよい。
マップマッチング処理部131は、走行路合成部103によって合成された車両の走行路と地図情報取得部112によって取得された車両の現在位置周辺の地図情報とを用いたマッチング処理により、車両の現在位置を推定する。
ナビゲーション情報生成部132は、マップマッチング処理部131によって推定された車両の現在位置から目的地までのナビゲーションに関する情報を生成する。また、画像合成部133は、ナビゲーション情報生成部132によって生成された目的地までのナビゲーションに関する情報と、撮像装置101によって撮像された画像とを合成する。なお、撮像装置101によって撮像された画像は、ナビゲーションシステム100の図示しない記憶部に記憶し、画像合成部133が当該記憶部から画像を取得してもよい。表示部134は、画像合成部133によって合成された画像を表示する。
次に、ナビゲーションシステム100の画像処理部102の処理の詳細について説明する。
図2を参照しながら、画像処理部102の処理について説明する。図2に示すように、画像処理部102は、走行路判定部201と走行路変換部202とを有する。走行路判定部201は、撮像装置101が出力する画像を入力とし、当該画像を基に走行路判定処理を行う。走行路判定部201は、走行路判定処理の結果を走行路変換部202に出力する。
走行路変換部202は、走行路判定部201の走行路判定処理の処理結果を入力とし、当該処理結果を基に走行路変換処理を行う。走行路変換部202は、走行路変換処理の結果を走行路合成部103に出力する。
次に、図3のフローチャートを参照しながら、画像処理部102が実行する上記の各処理について説明する。なお、以下に説明する、ナビゲーションシステム100において実行される各処理は、コンピュータであるナビゲーションシステム100のCPUが各種プログラムをメモリに展開して実行することで実現される。
ステップS301において、撮像装置101が、車両の走行中の走行路を含む領域を撮
像し、画像処理部102が撮像装置101によって撮像された画像を取得する。画像処理部102において、取得された画像は走行路判定部201に入力される。
像し、画像処理部102が撮像装置101によって撮像された画像を取得する。画像処理部102において、取得された画像は走行路判定部201に入力される。
ステップS302において、走行路判定部201は、撮像装置101によって撮像された画像を複数の領域に分割し、分割した領域ごとに領域内の画像が走行路(道路)であるか否かを判定する。なお、走行路判定部201による画像の走行路判定処理の詳細については後述する。
ステップS303において、走行路変換部202は、走行路判定部201による走行路判定処理の結果と地図データベース111に記憶されている地図情報とを基に、ステップS302の判定処理において走行路と判定された部分を走行路に変換する。ここで、走行路とは、地図データベース111に記憶されている地図情報の地図種類に対応する走行路(道路)である。そして、ステップS304において、ステップS303で走行路変換部202によって変換された走行路のデータを走行路合成部103に出力する。なお、本実施形態において、走行路のデータとしては、道路形状に変換された道路パターンのデータが挙げられる。
図4は、撮像装置101によって取得される車両の周囲の画像の一例である。図4に示す例では、撮像装置101は、車両の進行方向の道路を撮像できるように車両に取り付けられている。図4に示す画像には、走行中の道路401と、道路401に十字に交差する道路402と、道路401沿いの建物403とが含まれている。
また、図5は、走行路判定部201が、図4に示す画像に対して走行路判定処理を行った場合の処理結果の一例を示す。走行路判定部201は、画像を複数の領域に分割し、分割された領域ごとに走行路である道路と判定された領域501(図中黒色で塗りつぶされた四角形部分)と道路ではないと判定された領域502(図中白色で塗りつぶされた四角形部分)とに分ける。なお、図5に示す例では、一例として画像を所定サイズの四角形により複数の領域に分割し、分割された領域を領域501または領域502とに2分化している。ただし、走行路判定部201による画像の走行路判定処理では、必ずしも画像全体を同じ四角形で均等に分割する必要はない。例えば、車両の位置により近い画像下部の領域をより小さい四角形で分割し、車両の位置により遠い画像上部の領域をより大きい四角形で分割してもよい。これにより、車両の位置からの距離に応じて画像を分割する領域のサイズを変更し、車両により近い位置の領域に対する走行路判定の精度を高めることができる。
本実施形態では、走行路判定部201は、学習モデルを用いて走行路判定処理を行う。より具体的には、あらかじめ撮像装置101によって取得された画像に対して、走行路の領域と走行路以外の領域とに分けて領域をラベル付けした正解データを用意し、教師あり学習により学習モデルを作成する。なお、学習モデルの学習に用いられる学習アルゴリズムは、公知の機械学習エンジンによって実現可能であり、例えば、SVM(Support Vector Machine)を学習アルゴリズムとして採用することができる。
次に、走行路変換部202を実現するために用いられる学習モデルの一例について説明する。走行路変換部202は、走行路判定部201によって判定された走行路の領域と走行路以外の領域のラベル付けがされた画像を入力とし、撮像装置101によって取得された画像を走行路に変換したデータを出力する。学習モデルとして、図5のように走行路である道路の領域と道路以外の領域のラベル付けがされた画像に対して、正しい道路形状を示す画像を正解データとする教師あり学習を行う。また、学習モデルの学習に使用する入力画像として、ナビゲーションシステム100の撮像装置101によって取得した画像を用いることで、撮像装置101の画角やレンズのひずみなどの撮像装置の特徴を学習する
こともできる。
こともできる。
次に、走行路合成部103によって実行される処理について説明する。図6に示すように、走行路合成部103は、走行路演算部601と走行路記憶部602を有する。
走行路演算部601は、画像処理部102によって出力される走行路のデータと走行路記憶部602に記憶されている走行路のデータとを用いて走行路の合成を行う。また、走行路演算部601によって合成された走行路のデータは、走行路記憶部602に記憶される。そして、走行路演算部601は、画像処理部102からの走行路のデータと走行路記憶部602に記憶されている走行路のデータを用いた合成を繰り返し実行する。この結果、走行路記憶部602に走行路のデータの合成結果が累積されていくことで、車両の走行軌跡を含む走行路のデータが得られる。走行路記憶部602に記憶される合成後の走行路のデータは、マップマッチング処理部131に出力される。
次に、図7に示すフローチャートを参照しながら走行路合成部103によって実行される処理について説明する。
ステップS701において、走行路合成部103の走行路演算部601は、画像処理部102による走行路変換処理の結果である走行路のデータを取得する。
ステップS702において、走行路演算部601は、走行路記憶部602に記憶されている走行路のデータを取得する。そして、走行路演算部601は、ステップS701において画像処理部102から取得した走行路のデータと、走行路記憶部602に記憶されている走行路のデータとを用いて、走行路の合成を行う。なお、この合成処理は、画像処理部102が走行路のデータを走行路合成部103に出力するたびに実行される。
ステップS703において、走行路演算部601よって合成された走行路のデータが走行路記憶部602に記憶される。そして、ステップS704において、走行路合成部103は、ステップS703において走行路記憶部602に記憶された走行路のデータを、マップマッチング処理部131に出力する。
図8A~図8Cは、走行路合成部103による走行路(道路)の合成処理の一例を示す図である。図8A~図8Cに示す例では、図8A(時刻A)、図8B(時刻B)の順に時間が経過している。図8Aは時刻AにおけるステップS701の走行路変換処理の結果(道路パターン)を示し、図8Bは時刻BにおけるステップS701の走行路変換処理の結果(道路パターン)を示す。そして、図8Cは、時刻Aと時刻Bのそれぞれの走行路を合成した結果(道路パターン)を示す。
時刻Aにおいて、走行路合成部103は、画像処理部102から走行路データとしての道路データ801を取得する。道路データ801には、道路の特徴点の領域811と時刻Aにおける車両の位置を示す指標812とが含まれている。そして、走行路演算部601は、道路データ801を走行路記憶部602に記憶する。次いで、時刻Aから時間が経過した時刻Bにおいて、走行路合成部103は、画像処理部102から道路データ802を取得する。道路データ802には、道路の特徴点の領域813と時刻Bにおける車両の位置を示す指標814とが含まれている。
そして、走行路合成部103は、走行路記憶部602に記憶されている道路データ801を取得し、道路データ801と道路データ802を合成した道路データ803を生成する。走行路合成部103は、道路データ801、802それぞれに含まれる道路の特徴点を用いて道路データ801、802を合成する。例えば、走行路演算部602は、走行路
記憶部602に記憶されている時刻Aの道路データ801の特徴点の領域811と、時刻Bの道路データ802の特徴点の領域813とが重なり合うように道路データ801、802を合成して道路データ803を生成する。図8Cに示すように、道路データ803には、道路の特徴点の領域811、813が合致するように合成された道路の特徴点の領域815と時刻Bにおける車両の位置を示す指標816とが含まれている。
記憶部602に記憶されている時刻Aの道路データ801の特徴点の領域811と、時刻Bの道路データ802の特徴点の領域813とが重なり合うように道路データ801、802を合成して道路データ803を生成する。図8Cに示すように、道路データ803には、道路の特徴点の領域811、813が合致するように合成された道路の特徴点の領域815と時刻Bにおける車両の位置を示す指標816とが含まれている。
次に、マップマッチング処理部131、ナビゲーション情報生成部132、画像合成部133、表示部134が実行するについて、図9のフローチャートを参照しながら説明する。
ステップS901において、マップマッチング処理部131は、走行路合成部103が生成した合成データに含まれる走行路と、地図情報取得部112が地図データベース111から取得した地図情報に含まれる走行路とのマッチング処理を実行する。マップマッチング処理部131は、このマッチング処理により車両の現在位置を推定する。
図10は、マップマッチング処理部131が図8Cに示す道路データ803を用いて生成する車両位置のデータの一例を示す図である。
図10に示す車両位置のデータにおいて、車両周辺の地図1001は、地図情報取得部121が地図情報記憶部である地図データベース111から取得したデータを用いて生成される。また、道路1002および車両位置を示す指標1003は、走行路合成部103が上記のステップS702の処理を実行することによって合成した走行路データが示す走行路および指標である。
本実施形態では、マップマッチング処理部131は、地図1001のデータと道路1002のデータに対してパターンマッチング処理を行うことで車両の現在位置を推定する。ここで、パターンマッチング処理とは、特定のパターンが合致する特徴位置を特定する処理である。
本実施形態のパターンマッチング処理では、幾何学形状のマッチングを行うことで、地図1001内の道路と走行路データが示す道路1002とが合致する箇所を特定することで車両の現在位置を特定する。ここで、パターンマッチング処理は、地図1001内の道路のパターンと道路1002のパターンとのマッチングが一度成功すればよく、2度目以降のマッチングは、地図1001と道路1002との始点座標の重ね合わせによって車両の現在位置が推定できる。上記パターンマッチング処理により、地図上における車両の現在位置を精度よく特定することができる。また、撮像装置101が画像を取得する度に、取得画像を用いて上記パターンマッチング処理を逐次処理することにより、リアルタイムで地図上における車両の現在位置を精度よく特定することができる。
図9に戻り、ステップS902において、ナビゲーション情報生成部132は、ステップS901において推定された車両の現在位置を基に車両の目的地までのナビゲーション情報を生成する。次に、ステップS903において、画像合成部133は、撮像装置101によって撮像された車両の周囲の画像と、ステップS902において生成されたナビゲーション情報とを合成した合成画像を生成する。そして、ステップS904において、表示部134が、ステップS903において生成された合成画像を表示する。これにより、車両に乗車しているユーザに、車両の現在位置を精度よく推定した情報と車両の目的地までのナビゲーション情報とを提供することができる。
本実施形態のパターンマッチング処理において着目すべき点は、以下の2点である。
まず、1つ目は、車両に搭載された撮像装置101が取得する車両の周囲の画像から車両の走行路を特定する点である。従来技術では、速度センサや方位センサなどの各種センサを車両に搭載し、これらのセンサを用いて車両の走行路を特定する。しかしながら、これら各種センサが出力するデータには誤差があるため、特定される車両の現在位置が、実際に車両が走行している走行路とは異なる走行路に示される可能性がある。また、センサごとの出力の誤差が累積して、車両の走行距離が長距離になるほど車両の現在位置の推定精度が低下する可能性がある。
本実施形態では、撮像装置101から出力される画像から車両の周囲の道路パターンを取得し、地図の道路パターンとのパターンマッチングを基に車両の現在位置が推定される。このため、センサの出力誤差による影響を受けることなく、車両の現在位置の推定を行うことができ、車両の走行距離が長くなっても精度よく車両の現在位置を推定できる。これにより、本実施形態のナビゲーションシステム100によれば、精度よく合成された車両の走行路と地図とのマップマッチングにより、正確な車両の現在位置を推定することができる。
そして、2つ目は、車両が走行中の道路以外の周囲の道路パターンもマッチング処理に用いられる点である。従来技術では、GPS情報やアナログセンサの出力を用いて、車両が走行した道路のみが車両の道路情報として得られる。一方、本実施形態では、撮像装置101によって撮像された画像には、車両が現在走行中である道路だけでなく、車両の周囲にある建物や道路も含まれる。この画像を用いることで、車両が走行している道路だけでなく、周囲の道路パターンも車両の道路を特定するための特徴点として使用し、より精度よく車両の現在位置を推定することができる。
より具体的には、撮像装置101の撮像画像に描画される道路のうち、車両が走行しない道路を基に、十字路や曲がり道などの特徴的な道路が特徴点として得られる。これにより、上記のパターンマッチング処理に用いられる特徴点が増えるため、マップマッチング処理の精度が高まることが期待できる。
また、従来技術によるナビゲーションシステムでは、速度センサや方位センサを用いることで、車両の直近の走行路の情報を取得し、マップマッチングによって車両の現在位置の推定が行われる。一方、本実施形態のナビゲーションシステム100では、撮像装置101の撮像画像を基に、車両の周囲にある走行路を特定することで、車両が長距離走行する場合でも走行路の情報が精度よく得られる。このため、上記のマップマッチング処理よって、従来技術では実現できない高い精度の車両の現在位置推定を行うことができる。
以上が本開示の実施形態に係るナビゲーションシステムに関する説明であるが、本開示のナビゲーションシステムは上記の形態に限られず、本開示の技術的思想の範囲内において種々の変更が可能である。
例えば、走行路のデータをより正確に取得することを目的として、ナビゲーションシステム100に複数の撮像装置101が設けられていてもよい。この場合、それぞれの撮像装置101は、車両の前方(進行方向)の走行路の画像だけでなく、車両の後方(進行方向の反対方向)の走行路の画像を取得するように車両に配置することができる。これにより、車両の前方だけでなく後方の走行路の画像を基にパターンマッチング処理を行うことで、車両周辺の走行路パターンをより広範囲に特定することができる。この結果、ナビゲーションシステム100は、車両の走行路に関する情報量が増え、パターンマッチング処理をより高速に実行することができる。
また、上記の実施形態において、ナビゲーションシステム100は車両に限らず、種々
の移動体に適用することができる。例えば、災害救助用ロボットに上記のナビゲーションシステム100を搭載することで、上記の処理によって道路と判定された領域を走行するようロボットをプログラムすることができる。これにより、ロボットが走行不能な領域に移動する可能性を低下させることが期待できる。
の移動体に適用することができる。例えば、災害救助用ロボットに上記のナビゲーションシステム100を搭載することで、上記の処理によって道路と判定された領域を走行するようロボットをプログラムすることができる。これにより、ロボットが走行不能な領域に移動する可能性を低下させることが期待できる。
また、上記の学習モデルに加えて、移動体の大きさや重量等を基に走行可能な走行路と走行不可能な走行路のラベル付けをした正解データを用いた学習を行って得られる学習モデルを用いてもよい。これにより、例えば緊急時などに目的地に向かう場合に、移動体の仕様に応じて目的地に到着するのに最適な走行ルートを特定することができる。
100 ナビゲーションシステム、101 撮像装置、103 走行路合成部、112 地図情報取得部、122 GPS情報取得部、131 マップマッチング処理部、132
ナビゲーション情報生成部、133 画像合成部、134 表示部、202 走行路変換部
ナビゲーション情報生成部、133 画像合成部、134 表示部、202 走行路変換部
Claims (6)
- 移動体に配置され、前記移動体の走行路を含む領域を撮像する撮像装置と、
地図情報を取得する地図情報取得部と、
前記移動体の位置情報を取得する位置情報取得部と、
前記撮像装置によって撮像された前記領域の複数の画像を、それぞれ前記移動体の走行路を示す走行路データに変換する走行路変換部と、
前記走行路データに含まれる前記走行路の特徴点を用いて、前記複数の画像に対応する前記走行路データを合成した合成データを生成する走行路合成部と、
前記合成データと、前記地図情報に含まれる走行路とのマッチング処理を行って前記移動体の現在位置を推定するマッチング処理部と、
前記マッチング処理部によって推定された前記移動体の現在位置を基に前記移動体のナビゲーション情報を生成するナビゲーション情報生成部と、
前記撮像装置によって撮像された前記領域の画像と前記ナビゲーション情報生成部によって生成された前記ナビゲーション情報とを合成した合成画像を生成する画像合成部と、
前記画像合成部によって生成された前記合成画像を表示する表示部と
を有することを特徴とするナビゲーションシステム。 - 前記走行路変換部は、前記撮像装置によって撮像された画像を複数の領域に分割し、分割した領域ごとに前記移動体の走行路であるか否かの判定を基に、前記複数の画像を前記走行路データに変換することを特徴とする請求項1に記載のナビゲーションシステム。
- 前記走行路変換部は、前記移動体の走行路の領域と走行路以外の領域のラベル付けがされた画像を正解データとして用いる機械学習により得られる学習モデルを用いて、前記撮像装置によって撮像された画像を走行路データに変換することを特徴とする請求項1または2に記載のナビゲーションシステム。
- 前記移動体に複数の前記撮像装置が配置され、
前記複数の撮像装置の1つの撮像装置は、前記移動体の前方にある走行路を含む領域を撮像し、前記複数の撮像装置の別の撮像装置は、前記移動体の後方にある走行路を含む領域を撮像する
ことを特徴とする請求項1から3のいずれか1項に記載のナビゲーションシステム。 - 移動体に配置された撮像装置による、前記移動体の走行路を含む領域の撮像と、
地図情報の取得と、
前記移動体の位置情報の取得と、
前記撮像装置によって撮像された前記領域の複数の画像それぞれの前記移動体の走行路を示す走行路データへの変換と、
前記走行路データに含まれる前記走行路の特徴点を用いた、前記複数の画像に対応する前記走行路データを合成した合成データの生成と、
前記合成データと、前記地図情報に含まれる走行路とのマッチング処理を行うことによる前記移動体の現在位置の推定と、
推定された前記移動体の前記現在位置に基づく前記移動体のナビゲーション情報の生成と、
前記撮像装置によって撮像された前記領域の画像と生成された前記ナビゲーション情報とを合成した合成画像の生成と、
生成された前記合成画像の表示と
を含むナビゲーション方法。 - コンピュータに、
移動体に配置された撮像装置による、前記移動体の走行路を含む領域の撮像と、
地図情報の取得と、
前記移動体の位置情報の取得と、
前記撮像装置によって撮像された前記領域の複数の画像それぞれの前記移動体の走行路を示す走行路データへの変換と、
前記走行路データに含まれる前記走行路の特徴点を用いた、前記複数の画像に対応する前記走行路データを合成した合成データの生成と、
前記合成データと、前記地図情報に含まれる走行路とのマッチング処理を行うことによる前記移動体の現在位置の推定と、
推定された前記移動体の前記現在位置に基づく前記移動体のナビゲーション情報の生成と、
前記撮像装置によって撮像された前記領域の画像と生成された前記ナビゲーション情報とを合成した合成画像の生成と、
生成された前記合成画像の表示と
を含むナビゲーション方法を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021031599A JP2022132882A (ja) | 2021-03-01 | 2021-03-01 | ナビゲーションシステム、ナビゲーション方法およびプログラム |
US17/678,355 US20220276059A1 (en) | 2021-03-01 | 2022-02-23 | Navigation system and navigation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021031599A JP2022132882A (ja) | 2021-03-01 | 2021-03-01 | ナビゲーションシステム、ナビゲーション方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022132882A true JP2022132882A (ja) | 2022-09-13 |
Family
ID=83006348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021031599A Pending JP2022132882A (ja) | 2021-03-01 | 2021-03-01 | ナビゲーションシステム、ナビゲーション方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220276059A1 (ja) |
JP (1) | JP2022132882A (ja) |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4871909B2 (ja) * | 2008-04-25 | 2012-02-08 | 日立オートモティブシステムズ株式会社 | 物体認識装置、および物体認識方法 |
JP5830876B2 (ja) * | 2011-02-18 | 2015-12-09 | 富士通株式会社 | 距離算出プログラム、距離算出方法及び距離算出装置 |
US9080885B2 (en) * | 2012-06-05 | 2015-07-14 | Apple Inc. | Determining to display designations of points of interest within a map view |
US9418478B2 (en) * | 2012-06-05 | 2016-08-16 | Apple Inc. | Methods and apparatus for building a three-dimensional model from multiple data sets |
US9200919B2 (en) * | 2012-06-05 | 2015-12-01 | Apple Inc. | Method, system and apparatus for selectively obtaining map image data according to virtual camera velocity |
KR101610502B1 (ko) * | 2014-09-02 | 2016-04-07 | 현대자동차주식회사 | 자율주행차량의 주행환경 인식장치 및 방법 |
CN105783917B (zh) * | 2014-12-18 | 2019-05-07 | 阿里巴巴集团控股有限公司 | 基于地磁的移动终端定位方法及其装置 |
US9483700B1 (en) * | 2015-05-13 | 2016-11-01 | Honda Motor Co., Ltd. | System and method for lane vehicle localization with lane marking detection and likelihood scoring |
US20170270139A1 (en) * | 2016-03-17 | 2017-09-21 | CM marketing Co., Ltd. | Location-Based On-The-Spot Image Provision System and Method |
US10127461B2 (en) * | 2016-08-12 | 2018-11-13 | Here Global B.V. | Visual odometry for low illumination conditions using fixed light sources |
US10282861B2 (en) * | 2016-12-12 | 2019-05-07 | Here Global B.V. | Pose error estimation and localization using static features |
US10296828B2 (en) * | 2017-04-05 | 2019-05-21 | Here Global B.V. | Learning a similarity measure for vision-based localization on a high definition (HD) map |
US10209083B2 (en) * | 2017-06-09 | 2019-02-19 | Here Global B.V. | Method and apparatus for providing node-based map matching |
US10360686B2 (en) * | 2017-06-13 | 2019-07-23 | TuSimple | Sparse image point correspondences generation and correspondences refinement system for ground truth static scene sparse flow generation |
JP6808586B2 (ja) * | 2017-07-05 | 2021-01-06 | クラリオン株式会社 | 車両用外界認識装置 |
US11093760B2 (en) * | 2017-08-26 | 2021-08-17 | Here Global B.V. | Predicting features on a road network with repeating geometry patterns |
US10515458B1 (en) * | 2017-09-06 | 2019-12-24 | The United States Of America, As Represented By The Secretary Of The Navy | Image-matching navigation method and apparatus for aerial vehicles |
CN110622213B (zh) * | 2018-02-09 | 2022-11-15 | 百度时代网络技术(北京)有限公司 | 利用3d语义地图进行深度定位和分段的系统和方法 |
JP7190261B2 (ja) * | 2018-04-27 | 2022-12-15 | 日立Astemo株式会社 | 位置推定装置 |
US11578982B2 (en) * | 2018-08-09 | 2023-02-14 | Here Global B.V. | Method and apparatus for map matching trace points to a digital map |
US20200110817A1 (en) * | 2018-10-04 | 2020-04-09 | Here Global B.V. | Method, apparatus, and system for providing quality assurance for map feature localization |
JP7135690B2 (ja) * | 2018-10-04 | 2022-09-13 | ソニーグループ株式会社 | 情報処理装置および方法、プログラム、並びに移動体制御システム |
US10870351B2 (en) * | 2018-12-12 | 2020-12-22 | Here Global B.V. | Method and apparatus for augmented reality based on localization and environmental conditions |
US11428537B2 (en) * | 2019-03-28 | 2022-08-30 | Nexar, Ltd. | Localization and mapping methods using vast imagery and sensory data collected from land and air vehicles |
US10997740B2 (en) * | 2019-07-15 | 2021-05-04 | Here Global B.V. | Method, apparatus, and system for providing real-world distance information from a monocular image |
US11906309B2 (en) * | 2019-09-27 | 2024-02-20 | Here Global B.V. | Method and apparatus for providing a map matcher tolerant to wrong map features |
WO2021163306A1 (en) * | 2020-02-13 | 2021-08-19 | Magic Leap, Inc. | Cross reality system with accurate shared maps |
US11232582B2 (en) * | 2020-04-21 | 2022-01-25 | Here Global B.V. | Visual localization using a three-dimensional model and image segmentation |
DE112021003371T8 (de) * | 2020-06-23 | 2023-06-07 | Denso Corporation | Fahrzeugpositionsschätzvorrichtung und Fahrpositionsschätzverfahren |
US11691648B2 (en) * | 2020-07-24 | 2023-07-04 | SafeAI, Inc. | Drivable surface identification techniques |
JP7468254B2 (ja) * | 2020-08-28 | 2024-04-16 | 富士通株式会社 | 位置姿勢算出方法および位置姿勢算出プログラム |
JP2022039187A (ja) * | 2020-08-28 | 2022-03-10 | 富士通株式会社 | 位置姿勢算出方法および位置姿勢算出プログラム |
US20220121691A1 (en) * | 2020-10-20 | 2022-04-21 | Here Global B.V. | Method, apparatus, and system for machine learning-based persistence filtering |
JP7424269B2 (ja) * | 2020-10-23 | 2024-01-30 | トヨタ自動車株式会社 | 位置把握システム、位置把握方法及び位置把握プログラム |
US20220201256A1 (en) * | 2020-12-22 | 2022-06-23 | Here Global B.V. | Method, apparatus, and system for capturing an image sequence for a visual positioning service request |
JP2023066699A (ja) * | 2021-10-29 | 2023-05-16 | 株式会社アイシン | 重畳画像表示装置 |
-
2021
- 2021-03-01 JP JP2021031599A patent/JP2022132882A/ja active Pending
-
2022
- 2022-02-23 US US17/678,355 patent/US20220276059A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220276059A1 (en) | 2022-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6763448B2 (ja) | 視覚強化ナビゲーション | |
US10900793B2 (en) | Vehicle path guiding apparatus and method | |
US11841437B2 (en) | Automatic lidar calibration based on pre-collected static reflection map for autonomous driving | |
CN111830953B (zh) | 车辆自定位方法、装置及系统 | |
CN110388931A (zh) | 将对象的二维边界框转换成自动驾驶车辆的三维位置的方法 | |
JP2008309529A (ja) | ナビゲーション装置、ナビゲーション方法、及びナビゲーション用プログラム | |
JP6656886B2 (ja) | 情報処理装置、制御方法、プログラム及び記憶媒体 | |
JP6520740B2 (ja) | 物体検出方法、物体検出装置、およびプログラム | |
EP3137850A1 (en) | Method and system for determining a position relative to a digital map | |
JP6669059B2 (ja) | 位置算出装置 | |
JP5028662B2 (ja) | 道路白線検出方法、道路白線検出プログラムおよび道路白線検出装置 | |
CN111351502B (zh) | 用于从透视图生成环境的俯视图的方法,装置和计算机程序产品 | |
CN103717999A (zh) | 行驶轨迹存储装置 | |
JP2009009209A (ja) | 画像認識装置および画像認識処理方法 | |
JP5286653B2 (ja) | 静止物地図生成装置 | |
JP4596566B2 (ja) | 自車情報認識装置及び自車情報認識方法 | |
JP2011052960A (ja) | ナビゲーション装置 | |
JP2009205403A (ja) | 道路標示認識装置、および道路標示認識方法 | |
JP2008298699A (ja) | 自車位置認識装置及び自車位置認識方法 | |
CN112447058A (zh) | 泊车方法、装置、计算机设备及存储介质 | |
JP7010535B2 (ja) | 情報処理装置 | |
CN113240750A (zh) | 三维空间信息测算方法及装置 | |
JP2019203750A (ja) | 車輌位置補正装置、ナビゲーションシステム、及び、車輌位置補正プログラム | |
JP2022132882A (ja) | ナビゲーションシステム、ナビゲーション方法およびプログラム | |
JP2007071539A (ja) | 車載ナビゲーション装置 |