JP2023106163A - 自己位置推定方法、自己位置推定プログラム及び自己位置推定装置 - Google Patents
自己位置推定方法、自己位置推定プログラム及び自己位置推定装置 Download PDFInfo
- Publication number
- JP2023106163A JP2023106163A JP2022007330A JP2022007330A JP2023106163A JP 2023106163 A JP2023106163 A JP 2023106163A JP 2022007330 A JP2022007330 A JP 2022007330A JP 2022007330 A JP2022007330 A JP 2022007330A JP 2023106163 A JP2023106163 A JP 2023106163A
- Authority
- JP
- Japan
- Prior art keywords
- self
- landmark
- space
- imaging
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000003384 imaging method Methods 0.000 claims abstract description 42
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 230000009466 transformation Effects 0.000 claims description 7
- 238000012545 processing Methods 0.000 description 59
- 238000013507 mapping Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 238000012937 correction Methods 0.000 description 15
- 238000000605 extraction Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 8
- 239000000284 extract Substances 0.000 description 6
- 238000005457 optimization Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】自己位置の推定の精度がより高い自己位置推定方法、自己位置推定プログラム及びこの自己位置推定プログラムを使って自己位置を推定する自己位置推定装置を提供する。【解決手段】方法は、複数のフレーム画像に基づいて設定されるSLAM空間において検出され、位置が推定された検出物体を、SLAM空間の座標と異なる他のGPS座標によって規定される実空間において位置が既知であるランドマークと対応付ける工程S301と、ランドマークに対応付けられた検出物体のフレーム画像において撮像されるはずの位置である再投影位置を決定する工程S302と、再投影位置と、フレーム画像におけるランドマークに対応付けられた検出物体の実際の位置との差分を最小化することにより、少なくともフレーム画像の撮像位置及び撮像角度を含む撮像情報を推定する工程S303とS304、により自己位置を推定する。【選択図】図10
Description
本発明は、自己の位置を推定する自己位置推定方法、自己位置推定プログラム及び、この自己位置推定プログラムを使って自己位置を推定する自己位置推定装置に関する。
移動しながら画像を撮像し、この画像に基づいて移動体周辺の三次元空間の環境(空間の形状や障害物に関する情報)を推定する技術がマップの作成やロボットの自動走行等に使用されている。このような技術には、例えば、SfM(Structure from Motion)やv-SLAM(visual-Simultaneous Localization And Mapping)がある。SfMとv-SLAMとは、多くの場合、実時間性を前提とするか否かによって相違し、SfMは、撮像された順番に依らない複数の画像を処理することに多く適用され、v-SLAMは、動画として撮像された複数のフレーム画像を処理することに多く適用される。このような技術は、例えば、特許文献1、特許文献2に記載されている。
特許文献1には、移動するカメラが車両周辺の画像を逐次撮像し、この画像に基づいてマップ情報を作成することが記載されている。マップ情報とは、キーフレームテーブルとマップ点テーブルとで表現され、マップ点は特徴点の三次元座標をいう。特徴点は、対象領域に存在する物体の形状を表す画像内のエッジ点等をいう。特許文献1に記載の情報処理装置等は、撮像されたグレースケール画像に投影されたマップ点と、特徴点との距離が最小にするようなカメラの位置及び姿勢を、非線形最適化アルゴリズムを使って算出し、カメラの位置姿勢を推定する。また、特許文献2には、v-SLAMによって推定された自己の位置姿勢を、例えばAMCL(Adaptive Monte Carlo Localization)等の他のアルゴリズムで推定、または特定した自己位置を使って補正することが記載されている。
しかしながら、上記した特許文献1に記載のv-SLAMによる自己位置推定は、最初に2視点から撮像されたグレースケール画像間で特徴点の対応付けを行う。そして、1視点目に対応するカメラの位置及び姿勢を世界(グローバル)座標の原点に設定し、2視点目に対応するカメラの位置及び姿勢の初期値を設定し、三角測量によりカメラの位置及び姿勢の初期値を設定する。特許文献1に記載の情報処理装置は、このようにして、車両の移動に合わせてカメラが移動する際に、マップ点を用いてカメラの位置及び姿勢を逐次推定している。特許文献1に記載の手順は、車両を基準にしたローカル座標をグローバル座標の原点に設定しているため、原点にずれが生じた場合、このずれが推定されたカメラの位置及び姿勢に影響し、推定の精度を高めることに不利である。また、特許文献2に記載のAMCLは、測距データと移動環境のマップデータとを使って自己位置を推定し、マップデータに二次元の格子マップを用いている。このような手法は、v-SLAMによる自己位置推定と同様に、相対的な基準によって自己位置を推定するため、のv-SLAMによる自己位置推定の精度を高めるには不十分であると考えられる。
本発明は、上記の点に鑑みてなされたものであり、自己位置の推定の精度がより高い自己位置推定方法、自己位置推定プログラム及び自己位置推定装置に関する。
上記目的を達成するために本発明の一形態の自己位置推定方法は、撮像画像に基づいて設定された第1の空間において検出され、位置が推定された検出物体を、前記第1の空間の座標と異なる他の座標によって規定される第2の空間において位置が既知であるランドマークと対応付ける対応付け工程と、前記ランドマークの前記既知の位置に基づいて、前記ランドマークに対応付けられた前記検出物体が前記撮像画像において撮像される予定の位置である再投影位置を決定する決定工程と、前記再投影位置と、前記撮像画像に撮像された前記検出物体の実際の位置との差分を最小化することにより、少なくとも前記撮像画像の撮像位置及び撮像角度を含む撮像情報を推定する撮像推定工程と、を含む。
本発明の自己位置推定プログラムは、撮像画像に基づいて設定された第1の空間において検出され、位置が推定された検出物体を、前記第1の空間の座標と異なる他の座標によって規定される第2の空間において位置が既知であるランドマークと対応付ける対応付け機能と、前記ランドマークの前記既知の位置に基づいて、前記ランドマークに対応付けられた前記検出物体が前記撮像画像において撮像される予定の位置である再投影位置を決定する決定機能と、前記再投影位置と、前記撮像画像に撮像された前記検出物体の実際の位置との差分を最小化することにより、少なくとも前記撮像画像の撮像位置及び撮像角度を含む撮像情報を推定する撮像推定機能と、を、コンピュータに実行させる。
本発明の一形態の自己位置推定装置は、撮像画像に基づいて設定された第1の空間において検出され、位置が推定された検出物体を、前記第1の空間の座標と異なる他の座標によって規定される第2の空間において位置が既知であるランドマークと対応付ける対応付け部と、前記ランドマークの前記既知の位置に基づいて、前記ランドマークに対応付けられた前記検出物体が前記撮像画像において撮像される予定の位置である再投影位置を決定する決定部と、前記再投影位置と、前記撮像画像に撮像された前記検出物体の実際の位置との差分を最小化することにより、少なくとも前記撮像画像の撮像位置及び撮像角度を含む撮像情報を推定する撮像推定部と、を含む。
以上の発明の態様によれば、自己位置の推定の精度がより高い自己位置推定方法、自己位置推定プログラム及び自己位置推定装置を提供することができる。
以下、本発明の一実施形態の自己位置推定方法、この自己位置推定方法をコンピュータ上で実行する自己位置推定プログラム及び、自己位置推定方法を実行する自己位置推定装置を説明する。本実施形態においては、ORB(Oriented FAST and Rotated BRIEF)-SLAMを使って屋外の地図(以下、「マップ」と記す)を作成する例を挙げて説明する。また、本実施形態は、例えば車両等の移動体にカメラを搭載し、このカメラを使って撮像された動画を連続する複数のフレーム画像として取得する例を説明する。本明細書でいう「自己位置」は、カメラの撮像位置であり、撮像位置は、二次元、または三次元で示される座標で表される位置をいい、撮像角度はカメラの被写体に向かう高さ方向及び平面方向の角度をも含む。また、本明細書では、カメラのうちのレンズが被写体に向かう角度を「姿勢」とも記す。なお、角度は、例えば、レンズの中心点を通る水平な中心軸と、レンズの中心点と被写体の基準点(例えば中心)とを通る軸とがなす角度により規定してもよい。
[自己位置推定装置]
図1は、本実施形態の自己位置推定装置1を説明するための機能ブロック図である。図1は、自己位置推定装置1の他、ランドマークデータベース(DB)55、フレーム画像データベース(DB)56、検出物体データベース(DB)57を含むシステムを示している。ランドマークDB55は、マップ作成の対象となる環境のランドマークとなる地物の精度の高い測位情報を保存する。測位情報は、測位によって得られたものであればよく、緯度や経度を使ったGPS座標で表される地物の座標であってもよいし、緯度や経度を用いない平面直角座標であってもよい。また、本実施形態は、測位情報の他、ランドマークの種別や名称といった属性をランドマークDB55に保存する。さらに、図1に示すシステムは、作成されたマップを保存するマップデータベース(DB)59を備えている。
図1は、本実施形態の自己位置推定装置1を説明するための機能ブロック図である。図1は、自己位置推定装置1の他、ランドマークデータベース(DB)55、フレーム画像データベース(DB)56、検出物体データベース(DB)57を含むシステムを示している。ランドマークDB55は、マップ作成の対象となる環境のランドマークとなる地物の精度の高い測位情報を保存する。測位情報は、測位によって得られたものであればよく、緯度や経度を使ったGPS座標で表される地物の座標であってもよいし、緯度や経度を用いない平面直角座標であってもよい。また、本実施形態は、測位情報の他、ランドマークの種別や名称といった属性をランドマークDB55に保存する。さらに、図1に示すシステムは、作成されたマップを保存するマップデータベース(DB)59を備えている。
フレーム画像DB56は、車両等に搭載された図示しないカメラによって撮像された動画から抽出された複数の画像(以下、「フレーム画像」と記す)を保存する。フレーム画像の抽出は、例えば、動画を一定の時間ごとに切り出して複数の静止画像を生成することによって行うことができる。動画を撮像するカメラとしては、単眼カメラ、RGB-Dカメラ、ステレオカメラが使用される。検出物体DB57は、予めフレーム画像から検出された物体のフレーム画像上での検出ボックスの範囲を示す二次元座標を保存する。検出ボックスの範囲は矩形またはポリゴンで囲まれたものであればよく、画像解析によって検出されたものであってもよいし、機械学習による物体検出やセグメンテーションモデルで推定したものでもよい。本実施形態では、物体として、信号機や標識といった複数のフレーム画像中に共通して写り込むものが好ましい。物体の位置は、物体上の特徴点の位置により記録され、位置は、SLAM空間上で定義されるSLAM座標、またはGPS座標によって規定される。さらに、本実施形態は、記録された物体によりカメラによって撮影された環境のマップを作成、あるいは補正(更新)する。作成、あるいは補正されたマップは、マップDB59に保存される。マップDB59に保存されたマップは、後述するように、順次撮影されたフレーム画像のうちのキーフレーム画像によって補正され、その精度が高められる。
図1に示すように、自己位置推定装置1は、演算処理部10と、受信部2と、自己位置推定の処理の結果を出力する出力部3を有している。受信部2は、GPS衛星Gから測位情報を受信するユーザセグメントである。受信部2は、特徴点のSLAM座標をGPS座標に変換するためのGPS座標を取得することに使用される。出力部3は、ディスプレイ画面であってもよいし、結果を印字するプリンタ、あるいは音声出力するスピーカであってもよい。
演算処理部10は、撮像によって生成された複数のフレーム画像から、フレーム画像の少なくとも一部に表示されている共通の複数の特徴点を順次抽出する抽出部を有している。ORB-SLAMを用いる本実施形態では、特徴点を抽出する特徴点抽出部14が抽出部として機能する。また、演算処理部10は、複数のフレーム画像に基づいて設定される第1の空間における特徴点の位置を推定する特徴点位置推定部11と、特徴点位置推定部11において位置が推定された特徴点を、第1の空間の座標と異なる他の座標によって規定される第2の空間における位置が既知であるランドマークと対応付けるマッチング部12(対応付け部)と、を備えている。本実施形態では、第1の空間を相対的な座標により表されるSLAM空間とし、この座標をSLAM座標とする。また、第2の空間を測地系に基づく実空間とし、この座標をGPS座標とする。ただし、実空間は、環境の測位に基づいて規定される空間であればよく、GPSを使って測位された情報に基づくことに限定されるものではない。
また、演算処理部10は、ランドマークの既知の位置に基づいて、ランドマークに対応付けられた特徴点が撮像画像において撮像されるはずの位置である再投影位置を決定する決定部、及び再投影位置と、ランドマークに対応付けられた特徴点のフレーム画像における実際の位置との差分を最小化することにより、少なくともフレーム画像の撮像位置及び撮像角度を含む撮像情報を推定する自己位置推定部13を備えている。演算処理部10は、例えば、汎用的なパーソナルコンピュータ上で自己位置推定のプログラムを実行することによって実現される。演算処理部10の特徴点抽出部14、特徴点位置推定部11、マッチング部12及び自己位置推定部13の各構成は、プログラムと、このプログラムの実行に使用されるメモリ、CPU(Central Processing Unit)及びユーザインターフェース等とによって実現される。
図1に示す自己位置推定装置1は、マップを作成するための構成の全てを含んでいる。自己位置推定装置1は、複数の構成に分割され、各構成が異なる場所にあって、それぞれの処理を行ってもよい。このような場合、自己推定装置1の構成はどのような組み合わせで分割されてもよく、また、自己推定位置1に含まれる図1に示す機能が複数あって、機能は分割された複数の構成の各々にあってもよい。また、本実施形態は、自己位置推定装置1の全体が複数の場所にあってそれぞれ処理を行ってもよい。このような構成は、例えば、複数の場所にある汎用的なコンピュータの各々で本実施形態の自己推定位置プログラムを動作させることによって簡易に実現することができる。本実施形態は、複数の場所にある自己推定装置1がそれぞれ機能し、マップ作成の全体の処理を分担して行う例を説明する。ただし、本実施形態は、このような構成に限定されるものでなく、図1に示すシステムが移動しながらフレーム画像を取得し、リアルタイムでマップを作成してもよい。
(特徴点抽出部)
図2は、フレーム画像における特徴点pを説明するための図である。本実施形態において、特徴点pの抽出は、例えば、ORBの手法によって行われる。特徴点は、連続するフレーム画像において位置が変化せず、抽出し易いものが選択される。図2に示す例は、窓やドアの四角部分、あるいは角部分のコーナーを特徴点として抽出したフレーム画像を示している。
図2は、フレーム画像における特徴点pを説明するための図である。本実施形態において、特徴点pの抽出は、例えば、ORBの手法によって行われる。特徴点は、連続するフレーム画像において位置が変化せず、抽出し易いものが選択される。図2に示す例は、窓やドアの四角部分、あるいは角部分のコーナーを特徴点として抽出したフレーム画像を示している。
図3は、ORBを物体としての信号機及び標識に適用して特徴点を抽出することを説明するための模式図である。本実施形態は、車両に搭載されたカメラが移動しながら信号機100、300及び標識200を撮像する。このため、図3に示すように、位置の異なる複数のカメラによって信号機100及び標識200が撮像される場合と同様の画像を得ることができる。図3においては、異なる3つの撮像位置にある例えば1つのカメラによって撮像される3枚のフレーム画像を、それぞれfN-1、fN、fN+1とする。図3に示す例では、フレーム画像fN-1、fNには信号機100と標識200とが映り込み、フレーム画像fN+1には標識200と信号機300とが映り込んでいる。なお、以降の説明において、フレーム画像fN-1、fN、fN+1を区別する必要がない場合、単にフレーム画像fと記す。
特徴点抽出部14は、フレーム画像fN-1において、映り込んだ信号機100の複数のコーナーC100を特徴点pN-1,1として、標識200の複数のコーナーC200を特徴点pN-1,2としてそれぞれ抽出する。また、特徴点抽出部14は、フレーム画像fNから信号機100のコーナーC100を特徴点pN,1として、標識200のコーナーC200を特徴点pN,2として抽出し、フレーム画像fN+1から標識200のコーナーC200を特徴点pN+1,1として、標識200のコーナーC200を特徴点pN+1,2として抽出する。ORBによる特徴点の抽出は、FAST(Features from Accelerated Segment Test)とBRIF(Binary Robust Independent Elementary Features)とを組み合わせて行われる。すなわち、特徴点抽出部14は、フレーム画像の注目点の周囲の複数の点(例えば16点)のうち、注目点より閾値以上に明るい点が所定の数(例えば12点)以上存在する場合、注目点を特徴点に採用する。さらに、特徴点抽出部14は、採用された特徴点の周辺領域からランダムにピクセルペアをとり、その輝度に応じて0、または1を決定する処理を行っている。
以上の処理において、本実施形態では、複数の特徴点pN-1,1、pN-1,2がそれぞれ検出ボックスb1、b2に内包される特徴点として認識される。また、同様に、フレーム画像fN+1の特徴点pN+1,3が検出ボックスb3に内包される特徴点と認識される。検出ボックスb1、b2、b3に内包される特徴点は、図1の検出物体DB57に検出物体の座標の一部分として保存される。保存される座標はSLAM座標である。なお、検出ボックスb1、b2、b3間の画像は物体の背景であると推定することができる。
また、本実施形態では、特徴点抽出部14が、検出ボックスb1、b2、b3によって規定される信号機100等の検出物体に対し、各物体を識別するためのID(IDentity)情報を付与する。IDの付与は、複数のフレーム画像fに映り込んでいる物体に対して行われ、1つのフレーム画像fにのみ映り込んでいる物体に対しては行われない。つまり、図4(a)、図4(b)、図4(c)に示す例においては、2つのフレーム画像fN-1、fNに映り込んでいる信号機100、3つのフレーム画像fN-1、fN、fN+1に映り込んでいる標識200に対してID情報が付与される。そして、フレーム画像fN+1にのみ映り込んでいる信号機300にはID情報が付与されない。
(特徴点位置推定部)
図4(a)、図4(b)及び図4(c)は、特徴点位置推定部11によって行われる、抽出された特徴点の位置の推定を説明するための図である。図4(a)から図4(c)においては、1つのカメラの異なる撮像位置の3つをそれぞれカメラN-1、N、N+1と記し、各撮像位置において撮像されるフレーム画像を、それぞれフレーム画像fN-1、フレーム画像fN、フレーム画像fN+1と記す。特徴点位置推定部11は、先ず、以前に行ったマップ作成処理において位置を特定した特徴点を特定する。既知のマップは相対的なSLAM座標を使って表される。
図4(a)、図4(b)及び図4(c)は、特徴点位置推定部11によって行われる、抽出された特徴点の位置の推定を説明するための図である。図4(a)から図4(c)においては、1つのカメラの異なる撮像位置の3つをそれぞれカメラN-1、N、N+1と記し、各撮像位置において撮像されるフレーム画像を、それぞれフレーム画像fN-1、フレーム画像fN、フレーム画像fN+1と記す。特徴点位置推定部11は、先ず、以前に行ったマップ作成処理において位置を特定した特徴点を特定する。既知のマップは相対的なSLAM座標を使って表される。
次に、特徴点位置推定部11は、既知のマップ中のマップポイントの位置を基準にし、フレーム画像fN-1を撮像したカメラN-1、カメラNの姿勢及び自己位置を推定する。なお、本明細書でいう「マップポイント」は、マップに配置された特徴点を指す。自己位置の推定により、カメラN-1、カメラNの自己位置は、既知の位置となる。特徴点位置推定部11は、カメラN-1、カメラNの自己位置に基づいて、位置が既知でない(未知である)特徴点の位置を推定する。さらに、特徴点位置推定部11は、推定によって位置が得られた特徴点を既知のマップポイントとし、マップポイントの位置に基づいてカメラN+1の姿勢及び位置、すなわち、自己位置を推定する。本実施形態は、特徴点位置推定部11によるこのような処理をフレーム画像fが入力される度に実行する。そして、フレーム画像のうち、キーフレームと判定されるフレーム画像fが入力されたタイミングでSLAM空間内に特徴点が配置されたマップを作成する。
次に、SLAM空間のマップは、GPS座標で表される実空間へマッピングされる。SLAM座標系とGPS座標系は、それぞれ直交座標系であり、相似変換(Similarity Transformation)によって互いに変換可能である。なお、変換に用いられるパラメータは、例えば、公知の手法であるumeyama法を用いて推定することができる。umeyama法については、例えば、S-Umeyama(1991).”Least-squares estimation of transformation parameters between two point patterns”, Umeyama, (1991),IEEE volume13,Page(s):376-380に開示されている。受信部2によって得られる測位情報は、umeyama法による変換のパラメータの推定に使用される。
(マッチング部)
マッチング部12は、複数の特徴点の相対的な位置関係と、複数のランドマークの実空間における位置の相対的な関係との類似性に基づいて、検出物体とランドマークとを対応付ける、対応付け工程を実行する。また、この際、マッチング部12において実行される対応付け工程においては、SLAM空間と実空間とをそれぞれ座標変換し、その類似性が判断される。
マッチング部12は、複数の特徴点の相対的な位置関係と、複数のランドマークの実空間における位置の相対的な関係との類似性に基づいて、検出物体とランドマークとを対応付ける、対応付け工程を実行する。また、この際、マッチング部12において実行される対応付け工程においては、SLAM空間と実空間とをそれぞれ座標変換し、その類似性が判断される。
すなわち、マッチング部12は、図1に示すランドマークDB55に保存されている測位情報を読み出し、測位情報に基づいて検出された特徴点とランドマークとなる地物とを対応付けるマッチングの処理を実行する。図5から図7は、マッチングの処理を説明するための概念図である。図5等により説明するマッチングは、Geometric Hashingを用いる例を説明している。ただし、本実施形態は、このような構成に限定されるものでなく、任意の手法によって検出物体とランドマークとをマッチングするようにしてもよい。
図5は、ランドマークDB55に保存されている測位情報のベイシス対(Basis pair)の作成について説明するための図である。図6は、ベイシス対を共通のハッシュテーブルにマッピングした例を示している。図7は、特徴点の群を図5、図6で説明した処理と同様に処理し、共通のハッシュテーブルにマッピングすることを説明するための図である。本実施形態は、特徴点の群を予め設定された条件により地物と判断する。この条件は、例えば、図3に示すように、特徴点が複数存在する検出ボックスの範囲を地物と判断し、これを検出物体としてもよい。また、本実施形態では、以降、ランドマークと検出物体とを「オブジェクト」と総称する場合もある。
図5から図7は、処理を説明するために、複数のマップ61から66及びハッシュテーブル71を示している。マップ61から66において、ドットの黒、白、網掛け(以下、「濃度」とも記す)の別はオブジェクトの種別に対応し、本実施形態において濃度が異なるドットはそれぞれ異なる種別のオブジェクトに対応する。本実施形態では、黒のドットで表される種別を第1種、白のドットで表される種別を第2種、網掛けのドットで表される種別を第3種とする。また、ハッシュテーブル71においては、オブジェクトの別が括弧の種別によって表される。本実施形態の説明において、丸括弧()は第1種、山括弧<>は第2種、角括弧[]は第3種に対応する。ここで、オブジェクトの種別とは、例えば、信号機や標識を指し、図4の例のように、信号機及び標識にID情報を付与した例ではオブジェクトの種別は「2」である。
マッチング部12は、図5のマップ61に示すように、先ず、ランドマークDB55から複数のランドマークを選択する。図5の例では、マップ61において、ランドマークL1、L2、L3、L4、L5が選択されている。ランドマークL1からランドマークL5のうち、ランドマークL1、L4、L5は種別が同一であり、ランドマークL2、L3は、いずれも種別が他と相違している。
次に、マッチング部12は、選択されたランドマークのうち、2つのランドマークをベイシス対として選択する。マップ62は、ランドマークL4とランドマークL1とをベイシス対に選択した例を示し、マップ63は、ランドマークL3とランドマークL1とをベイシス対に選択した例を示している。マップ62において、ランドマークL1からL5に対応する各ドット間の距離は、ベイシス対となるランドマークL4、L1の距離に応じて拡大、または縮小される。また、マップ63において、各ドット間の距離は、ベイシス対となるランドマークL3、L1の距離に応じて拡大、または縮小される。
次に、マッチング部12は、拡大または縮小されたマップ62、63を共通のx-y座標に変換する。x-y座標変換は、ベイシス対の一方を原点(0,0)に、他方を座標(1,0)にマッピングすることによって行われる。マップ64においては、ランドマークL4に対応するドットが原点(0,0)にマッピングされ、ランドマークL1に対応するドットが座標(1,0)にマッピングされている。また、マップ65においては、ランドマークL3に対応するドットが原点(0,0)にマッピングされ、ランドマークL1に対応するドットが座標(1,0)にマッピングされている。このようなマッピングは、マップ62、63を回転させることによって行われる。
次に、マッチング部12は、図6に示すように、マップ64、65で得られた各ドットの位置関係をハッシュテーブル71にマッピングする。マッピングは、ベイシス対と、オブジェクトの種別との関係が分かるように行われる。マップ64では、ランドマークL4、L1をベイシス対とする場合、ランドマークL2が座標(3/2,0)に、ランドマークL3が座標(1,1/2)に、ランドマークL5が座標(3/2,-1)にマッピングされている。本実施形態では、座標(3/2,0)に該当するハッシュテーブル71の欄にランドマークL2の種別を示す山括弧を使ってベイシス対<4,1>を示す。また、本実施形態は、座標(1,1/2)に該当するハッシュテーブル71の欄に、ランドマークL3の種別を示す丸括弧を使ってベイシス対(4,1)を示し、座標(3/2,-1)に該当するハッシュテーブル71の欄に、ランドマークL5の種別を示す角括弧を使ってベイシス対[4,1]を示す。さらに、本実施形態は、ベイシス対を構成するランドマークL4を、座標(0,0)に該当するハッシュテーブル71の欄に[4,1]と示し、ランドマークL1を座標(0,1)に該当するハッシュテーブル71の欄に[4,1]と示す。
また、マッチング部12は、マップ65に示すベイシス対とランドマークの種別との関係をハッシュテーブル71にマッピングする。すなわち、マップ65に示すように、ランドマークL3、L1をベイシス対とする場合、ランドマークL2が座標(1/2,1/2)に、ランドマークL4が座標(1,-3/2)に、ランドマークL5が座標(3/2,1/2)にマッピングされている。本実施形態は、座標(1/2,1/2)に該当するハッシュテーブル71の欄にランドマークL2の種別を示す山括弧を使ってベイシス対<3,1>を示し、座標(1,-3/2)に該当するハッシュテーブル71の欄にランドマークL4の種別を示す角括弧を使ってベイシス対[3,1]を示す。また、本実施形態は、ハッシュテーブル71の座標(3/2,1/2)に該当する欄に、ランドマークL5の種別を示す角括弧を使ってベイシス対[3,1]を示し、ベイシス対を構成するランドマークL3を、座標(0,0)に該当するハッシュテーブル71の欄に(3,1)と示し、ランドマークL1を座標(0,1)に該当するハッシュテーブル71の欄に[3,1]と示す。
次に、マッチング部12は、検出物体DB57から所定の範囲にある複数の検出物体の座標を読み出す。所定の範囲は、先にランドマークDBから読みだされたランドマークが存在する範囲を含む。図7に示すように、本実施形態は、5つの検出物体Da、Db、Dc、Dd、Deを検出物体DB57から読み出す。そして、ランドマークについて処理したのと同様に、2つの検出物体によりベイシス対を複数生成する。図7のマップ66においては、検出物体Da、Dbがベイシス対を生成し、検出物体Daに対応するドットが原点(0,0)に、検出物体に対応するドットが座標(1,0)にマッピングされている。本実施形態は、他の検出物体についてもベイシス対を作成し、適宜拡大、縮小、あるいは回転させて座標にマッピングする。そして、マッチング部12は、ランドマークと同様に、マッピングされた検出物体に対応するドットを、座標に該当するハッシュテーブル71の欄にマッピングする。
以上の処理によれば、図7のハッシュテーブル71に示すように、同一の欄にマッピングされるランドマークと検出物体とが存在するようになる。マッチング部12は、同一の欄にマッピングされる回数が最も多く、かつオブジェクトの種別が同一のランドマークと検出物体とが一致すると推測する。本実施形態においては、ランドマークL4、L1のベイシス対と、検出物体Da、Dbのベイシス対とがマッピングされている欄が5か所あり、この5か所のいずれにおいてもランドマークL4、L1のベイシス対と、検出物体Da、Dbのベイシス対の種別は一致する。これに対し、ランドマークL3、L1のベイシス対と、検出物体Da、Dbのベイシス対とがマッピングされている欄は2か所である。この2か所のいずれにおいても、ランドマークL3、L1のベイシス対と検出物体Da、Dbのベイシス対との種別は一致するものの、共にマッピングされる欄の数がランドマークL4、L1のベイシス対及び検出物体Da、Dbのベイシス対よりも少なくなっている。このような場合、マッチング部12は、ランドマークL4が検出物体Daに一致し、ランドマークL1が検出物体Dbに一致すると推測する。
さらに、マッチング部12は、検出物体DcがランドマークL5に一致し、検出物体DdがランドマークL2に一致し、検出物体DeがランドマークL3に一致すると推定する。このような推定は、例えば、先に推定された検出物体DaとランドマークL4との一致、及び検出物体DbとランドマークL1との一致を基準にして行ってもよい。また、推定は、他のオブジェクトを使ってさらにベイシス対を作成し、作成されたベイシス対をハッシュテーブルにマッピングして行ってもよい。
(自己位置推定部)
検出物体とランドマークとの対応付けの終了後、自己位置推定部13は、撮像されたフレーム画像のうちのキーフレーム画像から推定される自己の位置を補正する。補正は、キーフレーム画像内にランドマークが実際に撮像された位置と、本来撮像されるであろう再投影位置との差分を算出し、算出された差分である再投影誤差が減少するように、カメラの位置及び角度に係る撮像情報を補正(最適化)することによって行われる。本実施形態の撮像情報は、少なくともカメラの角度及び位置に関する情報を含んでいればよく、適宜他の情報を含んでいてもよい。なお、再投影位置は、キーフレーム画像にランドマークの実位置を投影することによって決定される。再投影位置の補正は、SLAM空間において行われる。
検出物体とランドマークとの対応付けの終了後、自己位置推定部13は、撮像されたフレーム画像のうちのキーフレーム画像から推定される自己の位置を補正する。補正は、キーフレーム画像内にランドマークが実際に撮像された位置と、本来撮像されるであろう再投影位置との差分を算出し、算出された差分である再投影誤差が減少するように、カメラの位置及び角度に係る撮像情報を補正(最適化)することによって行われる。本実施形態の撮像情報は、少なくともカメラの角度及び位置に関する情報を含んでいればよく、適宜他の情報を含んでいてもよい。なお、再投影位置は、キーフレーム画像にランドマークの実位置を投影することによって決定される。再投影位置の補正は、SLAM空間において行われる。
式(1)は、本実施形態の自己位置の補正に用いられる演算式であって、バンドル調整を採用している。式(1)は、フレーム位置t、カメラの角度r、ランドマーク(点群)の位置pのコスト関数である。フレーム位置tは並進座標系で表され、カメラの角度rは回転座標系で表される。式(1)の右辺は第1項及び第2項を含み、第1項は公知のバンドル調整にも含まれるORB-SLAMの基本項であり、マップポイントの再投影誤差を示している。第2項は、本実施形態のランドマーク補正項であり、ランドマークの再投影誤差を示している。式(1)中のiはキーフレーム画像の番号を示し(何番目のキーフレーム画像か)、jはキーフレーム画像内の特徴点の番号(何番目の点か)を示す。ijの添え字は、i番目のキーフレーム画像に撮像されたj番目の特徴点を意味している。
(出力部)
出力部3は、上記の処理によって推定された自己位置、すなわちカメラの位置を出力する。自己位置の出力にあたり、本実施形態は、SLAM空間で表される補正後の自己位置を相似変換等によってGPS空間に置き換えて、実空間のマップに重ねるデータを生成するようにしてもよい。そして、生成されたデータをコンピュータ等のディスプレイ画面に表示するようにしてもよい。このような処理によれば、実空間を走行する車両の正確な走行ルートを視認することが可能になる。また、以上の処理を車両を走行させながらリアルタイムで行う場合には、走行中の車両のルートを正確に推定し、例えば、カーナビゲーションや車両の自動運転、あるいは遠隔操作等に利用することができる。また、出力部3は、カメラを搭載した車両の位置を音声で出力してもよい。さらに、出力部3は、推定された自己位置をテキスト情報や座標により記録し、所望のタイミングで出力可能な構成であってもよい。このようにすれば、本実施形態の自己位置推定装置を車両のレコーダとして利用することが可能になる。
出力部3は、上記の処理によって推定された自己位置、すなわちカメラの位置を出力する。自己位置の出力にあたり、本実施形態は、SLAM空間で表される補正後の自己位置を相似変換等によってGPS空間に置き換えて、実空間のマップに重ねるデータを生成するようにしてもよい。そして、生成されたデータをコンピュータ等のディスプレイ画面に表示するようにしてもよい。このような処理によれば、実空間を走行する車両の正確な走行ルートを視認することが可能になる。また、以上の処理を車両を走行させながらリアルタイムで行う場合には、走行中の車両のルートを正確に推定し、例えば、カーナビゲーションや車両の自動運転、あるいは遠隔操作等に利用することができる。また、出力部3は、カメラを搭載した車両の位置を音声で出力してもよい。さらに、出力部3は、推定された自己位置をテキスト情報や座標により記録し、所望のタイミングで出力可能な構成であってもよい。このようにすれば、本実施形態の自己位置推定装置を車両のレコーダとして利用することが可能になる。
次に、以上説明した処理を実行する機能をスレッドの観点から説明する。図8は、図1の機能ブロック図の演算処理部10を処理のスレッド毎に表現した図である。図8に示すように、図1の演算処理部10の処理は、トラッキング部41、ローカルマッピング部42及びループクロージャ―部43、ランドマーク補正部44の4つのスレッドに分けられる。トラッキング部41は、複数のフレーム画像fを順次入力する。そして、例えば図3で説明したように、入力されたフレーム画像fから特徴点を抽出する。また、図4(a)、図4(b)、図4(c)に示したように、移動中のカメラから送られてくるフレーム画像を、直前に入力された特徴点とマッチングし、特徴点の検出とマッチングを繰り返しながらマップポイントの位置とカメラの自己位置及び姿勢を推定する。
このような処理の過程において、トラッキング部41は、複数のフレーム画像fからマップの修正に用いられるキーフレーム画像fkを抽出する。抽出されたキーフレーム画像fkは、ローカルマッピング部42に入力される。ローカルマッピング部42は、作成されるマップに記録されるマップポイントを作成する。次に、マップポイントをキーフレーム画像fkに投影して再投影位置を求める。さらに、算出された再投影誤差を式(1)を使って最小値化し、カメラの姿勢及び位置を補正する。ローカルマッピング部42によって算出される再投影誤差は、式(1)における右辺の第1項によって表される。
上記処理を実行することにより、本実施形態は、カメラの自己位置と、この自己位置において撮像されるマップポイントとの位置とを対応付け、処理を繰り返すことによって対応付けの精度を高めることができるようになる。つまり、本実施形態は、より多くのキーフレーム画像fkの間で自己位置を再計算し、再投影誤差を次第に小さくして自己位置の精度を高めることができる。ループクロージャ―部43は、キーフレームから画像fkからループ閉じ込めを検出し、ループ閉じ込めがあった場合、フレーム画像DBに保存されている全てのフレーム画像fkから自己位置を推定し、カメラ姿勢及び作成中のマップを最適化する。
トラッキング部41、ローカルマッピング部42及びループクロージャ―部43は、以上の処理を別スレッドで並列に実行する。トラッキング部41で行われる処理は、3つのスレッドの中で計算量が相対的に少なく、処理頻度が高い。一方、ローカルマッピング部42によって行われる処理は計算量がトラッキング部41よりも大きく、処理の頻度が低くなる。また、ループクロージャ―部43において行われる処理は、3つのスレッドのうち計算量が最も大きく、処理の頻度が低くなる。このようにスレッドを分けて並列に処理を行うことにより、本実施形態は、いずれかの処理に係る負荷が大きくなって他の処理に支障がでることを抑え、自己位置推定装置1におけるメモリの利用効率を高めることができる。
以上の処理によって生成されたマップは、ランドマーク補正部44によってさらに補正され、その精度が高められる。ランドマーク補正部44は、図5から図7で説明したように、検出物体とランドマークとをマッチングする。そして、ランドマーク補正部44は、検出物体とランドマークとの対応付けの終了後、撮像されたフレーム画像のうちのキーフレーム画像から推定されるカメラの位置及び姿勢を補正する。補正は、式(1)の右辺の第2項の値が最小値となるようにカメラの並進座標系で表される位置及び回転座標系で表される角度を微調整することによって行われる。
以上説明した処理は、公知のバンドル調整を使ってマップの作成及び最適化を実行し、この後、さらにランドマークの補正を行う例である。ランドマークによる補正をマップの作成と並行してリアルタイムで行う場合、例えば、ローカルマッピング部42の最後端において行ってもよい。このような場合、ローカルマッピング部42は、再投影誤差を最小値化してカメラの姿勢及び位置を補正した後、特徴点によって決定される検出物体をランドマークに対応付けて補正する。このような場合、ループクロージャ―部43は、バンドル調整とランドマーク補正の両方が行われたマップからループを検出し、カメラの姿勢を最適化し、マップをさらに最適化する。
[自己位置推定方法及びプログラム]
次に、以上説明した自己位置推定装置において動作するプログラムにより実行される自己位置推定方法について説明する。図9から図11は、自己位置推定装置1において実行される処理を説明するためのフローチャートである。図9に示すように、自己位置推定装置1は、車両に搭載された図示しないカメラによって撮影された動画から、一定の間隔で静止画像を抽出することによって順次フレーム画像を取得する(ステップS201)。取得されたフレーム画像は、フレーム画像DB56に保存される。
次に、以上説明した自己位置推定装置において動作するプログラムにより実行される自己位置推定方法について説明する。図9から図11は、自己位置推定装置1において実行される処理を説明するためのフローチャートである。図9に示すように、自己位置推定装置1は、車両に搭載された図示しないカメラによって撮影された動画から、一定の間隔で静止画像を抽出することによって順次フレーム画像を取得する(ステップS201)。取得されたフレーム画像は、フレーム画像DB56に保存される。
次に、特徴点抽出部14は、例えば、図3により説明したように、フレーム画像に注目点を設定し、この注目点の周囲に閾値以上の明るい点が所定の数以上あるか否か判断する(ステップS202)。そして、明るい点が所定の数以上ある場合、この注目点が特徴点として認識される(ステップS202:YES)。特徴点がフレーム画像中にない場合(ステップS202:NO)、特徴点抽出部14は、このフレーム画像の以降の処理を行わず、次のフレーム画像を取得する。そして、特徴点抽出部14は、特徴点があるフレーム画像の中からキーフレームと判定されるフレーム画像を決定する(ステップS203)。キーフレーム画像は、推定によって得られた位置に特徴点が配置されるSLAM空間のマップを作成、あるいは補正することに使用される。
次に、特徴点抽出部14は、特徴点のうちの図3に示す検出ボックスに内包されると認識されるものを抽出する(ステップS204)。抽出された特徴点は、検出物体DB57に検出物体の座標の一部分として保存される(ステップS205)。
特徴点位置推定部11は、図4(a)から図4(c)により説明したように、SLAM座標等と共に既知のマップ中の特徴点を基準にし、各フレーム画像を撮影した際の自己位置を推定する。さらに、推定された自己位置を既知として、既知でない特徴点の3次元の位置を推定する(ステップS206)。特徴点位置推定部11は、特徴点及び自己位置の一方を既知として他方を推定する処理を交互に繰り返し、特徴点の位置をマップDB59に保存する(ステップS207)。
次に、自己位置推定部13は、キーフレーム画像内にマップポイントが本来撮像されるであろう再投影位置を算出する(ステップS208)。そして、このマップポイントが撮像された位置と再投影位置との差分をとり、再投影誤差を算出する(ステップS209)。さらに、自己位置推定部13は、例えば式(1)を使い、算出された再投影誤差が小さくなるように、ステップS206において推定された自己位置を繰り返し補正する。補正の結果、再投影誤差が最小値をとると、カメラ姿勢を含む自己位置の最適化が終了する(ステップS210)。さらに、演算処理部10は、例えばフレーム画像の入力の有無、あるいは処理のスイッチオフ等によって処理の終了を判定する(ステップS211)。ステップS211において、処理が終了しないと判断されなかった場合(ステップS211:NO)、特徴点抽出部14が次のフレーム画像を取得して処理が続けられる。一方、処理が終了したと判断された場合には処理は終了される(ステップS211:YES)。
図10は、図9により説明した処理の後に行われる、ランドマークとのマッチングを含む処理を説明するためのフローチャートである。図11は、図10中にサブルーチンとして示す検出物体とランドマークとのマッチングを説明するためのフローチャートである。
先ず、図10のステップS301のマッチング処理を説明する。図11に示すように、マッチング部12は、ランドマークDB55から複数のデータを読み出し、このうちベイシス対となる2つのランドマークを選択する(ステップS401)。そして、ベイシス対を構成する2つのランドマークの一方の測位情報が原点(0,0)に、他方の測位情報が(1,0)にマッピングされるように複数のランドマークの座標を変換する(ステップS402)。座標変換後の各ランドマークは、ハッシュテーブルにマッピングされる(ステップS403)。
次に、マッチング部12は、ランドマークDB55からデータを読み出した複数のランドマークの全ての組み合わせでベイシス対を作成し、ハッシュテーブルへのマッピングが完了したか否かを判断する(ステップS404)。この判断の結果、全てのベイシス対の組み合わせでマッピングが完了している場合(ステップS404:YES)、マッチング部12は、検出物体のマッピングの処理に移行する。また、マッピングが完了していない場合(ステップS404:NO)、マッチング部12は、ベイシス対を構成する2つのランドマークを変更し(ステップS401)、他のランドマークのベイシス対を使ってステップS402からS403の処理を繰り返す。
ステップS404においてYESと判断された場合、マッチング部12は、検出物体DBから複数の検出物体のデータを読み出し、ランドマークと同様に、ベイシス対となる2つの検出物体を選択する(ステップS405)。そして、複数のランドマークの座標を変換し(ステップS406)、座標変換後の各検出物体を、ランドマークがマッピングされているハッシュテーブルにマッピングする(ステップS407)。このような処理は、読みだされた検出物体の全ての組み合わせのベイシス対に基づくマッピングが終了するまで繰り返される(ステップS408:NO)。
ステップS408においてYESと判断された場合、マッチング部12は、図7に示すように、ハッシュテーブルの同一の欄にマッピングされる回数が最も多く、かつ種別が同一のランドマークと検出物体の組み合わせを検出する。そして、検出された組み合わせの検出物体とランドマークとを対応付ける(ステップS409)。マッチングの終了後、ランドマークのGPS座標は、SLAM座標に変換され、マッチングの処理が終了する(ステップS410)。
ランドマークとのマッチング終了後、図10に示すように、自己位置推定部13は、キーフレーム画像内にランドマークが本来撮像されるであろう再投影位置を算出する(ステップS302)。そして、ランドマークが実際に撮像された位置と再投影位置との差分をとり、再投影誤差を算出する(ステップS303)。さらに、自己位置推定部13は、例えば式(1)を使い、算出された再投影誤差が小さくなるように、図9のステップS210において最適化された自己位置を繰り返し補正する。補正の結果、再投影誤差が最小値をとると、カメラ姿勢及び自己位置の最適化が終了する(ステップS304)。
以上の処理の後、自己位置推定部13は、最適化された自己位置を基準にして検出物体のSLAM座標を算出し(ステップS305)、SLAM座標をさらにGPS座標に変換する(ステップS306)。さらに、演算処理部10は、処理の終了を判定し(ステップS307)、ステップS307において、処理が終了しないと判断されなかった場合(ステップS307:NO)、マッチング部13による検出物体とランドマークとの対応が続けられる。一方、処理が終了したと判断された場合には、処理は終了される(ステップS307:YES)。以上の処理により、本実施形態は、カメラが移動しながら動画を撮影した環境の実空間のマップを高い精度で作成することができる。
以上説明した本実施形態は、SLAM空間において推定された自己位置を再投影誤差に基づいて補正することに加え、ランドマークとなる事物の実空間の座標により自己位置を補正している。このような構成により、本実施形の自己位置推定方法等は、実空間に即した自己位置を高い精度で取得し、この自己位置に基づいて地物の位置を正確に判定することができる。このような本実施形態は、特に屋外における実空間のマップを作成することに有効である。
さらに、本発明の実施形態は、作成されたマップの精度が十分に高まった後、自己位置とフレーム画像とを対応付けてデータベース化しておいてもよい。このようにすれば、撮影されたフレーム画像を順次このデータベースのフレーム画像と対照し、撮影されたフレーム画像と一致するデータベースのフレーム画像に対応付けられた自己位置を、フレーム画像を撮像した際のカメラの自己位置と判定するように運用することが可能となる。
1 自己位置推定装置
2 受信部
3 出力部
10 演算処理部
12 マッチング部
13 自己位置推定部
14 特徴点抽出部
41 トラッキング部
42 ローカルマッピング部
43 ループクロージャ―部
44 ランドマーク補正部
55 ランドマークデータDB
56 フレーム画像DB
57 検出物体DB
59 マップDB
61,62,63,64,65,66 マップ
71 ハッシュテーブル
100,300 信号機
200 標識
2 受信部
3 出力部
10 演算処理部
12 マッチング部
13 自己位置推定部
14 特徴点抽出部
41 トラッキング部
42 ローカルマッピング部
43 ループクロージャ―部
44 ランドマーク補正部
55 ランドマークデータDB
56 フレーム画像DB
57 検出物体DB
59 マップDB
61,62,63,64,65,66 マップ
71 ハッシュテーブル
100,300 信号機
200 標識
Claims (8)
- 撮像画像に基づいて設定された第1の空間において検出され、位置が推定された検出物体を、前記第1の空間の座標と異なる他の座標によって規定される第2の空間において位置が既知であるランドマークと対応付ける対応付け工程と、
前記ランドマークの前記既知の位置に基づいて、前記ランドマークに対応付けられた前記検出物体が前記撮像画像において撮像される予定の位置である再投影位置を決定する決定工程と、
前記再投影位置と、前記撮像画像に撮像された前記検出物体の実際の位置との差分を最小化することにより、少なくとも前記撮像画像の撮像位置及び撮像角度を含む撮像情報を推定する撮像推定工程と、を含む、自己位置推定方法。 - 前記第1の空間における前記検出物体の検出は、撮像によって生成された複数の前記撮像画像から、前記撮像画像の少なくとも一部に表示されている共通の複数の前記検出物体を順次検出することによって行われる、請求項1に記載の自己位置推定方法。
- 前記撮像推定工程においては、算出された前記差分の値が減少するように、前記撮像情報を補正する、請求項1または2に記載の自己位置推定方法。
- 前記対応付け工程においては、複数の前記検出物体の相対的な位置関係と、複数の前記ランドマークの前記第2の空間における位置の相対的な関係との類似性に基づいて、前記検出物体と前記ランドマークとを対応付ける、請求項1から3のいずれか一項に記載の自己位置推定方法。
- 前記対応付け工程においては、複数の前記検出物体の相対的な位置関係と、複数の前記ランドマークの前記第2の空間における位置の相対的な関係との類似性に基づいて、前記検出物体と前記ランドマークとを対応付けて、
前記対応付けは、前記第1の空間と前記第2の空間とを座標変換して前記類似性を判断する、請求項1から3のいずれか一項に記載の自己位置推定方法。 - 前記第1の空間は、相対的な座標により表される空間であり、前記第2の空間は測地系に基づく実空間である、請求項1から5のいずれか一項に記載の自己位置推定方法。
- 撮像画像に基づいて設定された第1の空間において検出され、位置が推定された検出物体を、前記第1の空間の座標と異なる他の座標によって規定される第2の空間において位置が既知であるランドマークと対応付ける対応付け機能と、
前記ランドマークの前記既知の位置に基づいて、前記ランドマークに対応付けられた前記検出物体が前記撮像画像において撮像される予定の位置である再投影位置を決定する決定機能と、
前記再投影位置と、前記撮像画像に撮像された前記検出物体の実際の位置との差分を最小化することにより、少なくとも前記撮像画像の撮像位置及び撮像角度を含む撮像情報を推定する撮像推定機能と、を、コンピュータに実行させる自己位置推定プログラム。 - 撮像画像に基づいて設定された第1の空間において検出され、位置が推定された検出物体を、前記第1の空間の座標と異なる他の座標によって規定される第2の空間において位置が既知であるランドマークと対応付ける対応付け部と、
前記ランドマークの前記既知の位置に基づいて、前記ランドマークに対応付けられた前記検出物体が前記撮像画像において撮像される予定の位置である再投影位置を決定する決定部と、
前記再投影位置と、前記撮像画像に撮像された前記検出物体の実際の位置との差分を最小化することにより、少なくとも前記撮像画像の撮像位置及び撮像角度を含む撮像情報を推定する撮像推定部と、を含む、自己位置推定装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022007330A JP2023106163A (ja) | 2022-01-20 | 2022-01-20 | 自己位置推定方法、自己位置推定プログラム及び自己位置推定装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022007330A JP2023106163A (ja) | 2022-01-20 | 2022-01-20 | 自己位置推定方法、自己位置推定プログラム及び自己位置推定装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023106163A true JP2023106163A (ja) | 2023-08-01 |
Family
ID=87473122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022007330A Pending JP2023106163A (ja) | 2022-01-20 | 2022-01-20 | 自己位置推定方法、自己位置推定プログラム及び自己位置推定装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023106163A (ja) |
-
2022
- 2022-01-20 JP JP2022007330A patent/JP2023106163A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111325796B (zh) | 用于确定视觉设备的位姿的方法和装置 | |
US10268201B2 (en) | Vehicle automated parking system and method | |
CN105096386B (zh) | 大范围复杂城市环境几何地图自动生成方法 | |
CN108898676B (zh) | 一种虚实物体之间碰撞及遮挡检测方法及系统 | |
CN110568447A (zh) | 视觉定位的方法、装置及计算机可读介质 | |
WO2017057041A1 (ja) | 信号処理装置、信号処理方法、およびプログラム | |
CN110428490B (zh) | 构建模型的方法和装置 | |
CN111462207A (zh) | 一种融合直接法与特征法的rgb-d同时定位与地图创建方法 | |
CN109300143B (zh) | 运动向量场的确定方法、装置、设备、存储介质和车辆 | |
JP2018124787A (ja) | 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム | |
CN112700486B (zh) | 对图像中路面车道线的深度进行估计的方法及装置 | |
CN115388902B (zh) | 室内定位方法和系统、ar室内定位导航方法和系统 | |
KR20140054710A (ko) | 3차원 지도 생성 장치 및 3차원 지도 생성 방법 | |
CN110634138A (zh) | 一种基于视觉感知的桥梁变形的监测方法、装置及设备 | |
KR20180059188A (ko) | 딥 러닝을 이용한 동적 장애물이 없는 배경 위주의 3차원 지도 생성 방법 | |
KR102490521B1 (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
CN110567441A (zh) | 基于粒子滤波的定位方法、定位装置、建图及定位的方法 | |
Agrawal et al. | PCE-SLAM: A real-time simultaneous localization and mapping using LiDAR data | |
JP6922348B2 (ja) | 情報処理装置、方法、及びプログラム | |
Mejia et al. | Vehicle speed estimation using computer vision and evolutionary camera calibration | |
CN117593650B (zh) | 基于4d毫米波雷达与sam图像分割的动点滤除视觉slam方法 | |
CN110909620A (zh) | 车辆检测方法、装置、电子设备及存储介质 | |
US20230281862A1 (en) | Sampling based self-supervised depth and pose estimation | |
CN117367404A (zh) | 基于动态场景下slam的视觉定位建图方法及系统 | |
Buck et al. | Capturing uncertainty in monocular depth estimation: Towards fuzzy voxel maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20230817 |