JP6129981B2 - 移動体位置推定装置および移動体位置推定方法 - Google Patents
移動体位置推定装置および移動体位置推定方法 Download PDFInfo
- Publication number
- JP6129981B2 JP6129981B2 JP2015540282A JP2015540282A JP6129981B2 JP 6129981 B2 JP6129981 B2 JP 6129981B2 JP 2015540282 A JP2015540282 A JP 2015540282A JP 2015540282 A JP2015540282 A JP 2015540282A JP 6129981 B2 JP6129981 B2 JP 6129981B2
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- predetermined
- image
- moving body
- feature points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Description
本発明は、移動体位置推定装置および移動体位置推定方法に関する。
ロボットや自動車などの移動体の位置を推定する装置は、従来から知られている。従来技術では、移動体に、エンコーダやジャイロセンサなどの内界センサと、カメラや測位衛星信号受信機(GPS)やレーザ距離センサなどの外界センサとを搭載し、これらセンサからの検出値をもとに、移動体の位置を推定する。
第1の特許文献は、移動体の前方視野の画像を取得する画像取得手段と、画像取得手段と同一の視野を有し、画像取得手段が画像を取得するのと同時に距離画像を取得する距離画像取得手段と、少なくとも連続する2フレームの画像からそれぞれ特徴点を抽出する特徴点抽出手段と、特徴点抽出手段によって抽出された特徴点の2フレーム間の位置の変位量を距離画像に基づいて算出し、当該変位量から自己位置を算出するための基準特徴点を選択する基準特徴点選択手段とを備える。第1の特許文献では、連続する2フレームの画像から同一の静止物体を抽出し、静止物体の変位量から移動体の移動量を求め、移動体の位置を検出する。
第2の特許文献では、局所地図と大域地図を備え、外界センサの観測結果から抽出したランドマーク候補と大域地図に登録されたランドマークとの照合結果を局所地図に保存して次回のランドマーク照合に利用する。第2の特許文献では、大域地図に登録されたランドマークと一致しないが、局所地図に登録したランドマーク候補と一致するランドマーク候補を新たにランドマークとして大域地図に登録する。さらに第2の特許文献では、登録されているランドマークであっても長期間にわたって観測されないものは削除する。第2の特許文献の記載の従来技術によれば、ランドマーク候補と大域地図に登録されたランドマークとの照合結果を利用することで、ランドマーク候補と大域地図に登録されたランドマークとを直接照合する数を減らし、計算量を削減できる。また、第2の特許文献に記載の従来技術によれば、ランドマーク候補の照合結果に基づいて大域地図を逐次更新するため、環境の変化に柔軟に対応することができる。
従来のカメラを用いる位置推定方法では、画像から検出した特徴点の変位量を基にして移動体の移動量を算出し、前回算出した位置に移動量を加算することで移動体の現在位置を推定する。しかし、この方法では、絶対位置が変動するような特徴点が検出された場合、移動体の移動量の誤差が累積する。
第1の特許文献では、ステレオ視しながらトラッキングした全特徴点の並進移動量を基に静止物体を判別し、静止物体の位置を基準とするため、自己位置の累積誤差を低減することができる。しかし、移動体が回転したときの特徴点の並進移動量は、移動体から特徴点までの距離に依存する。このため第1の特許文献では、移動体から各物体までの距離が均一でない場合に、それらの物体が静止物体であるかを判別するのは難しい。また、第1の特許文献では、特徴の少ない環境下では、必要十分な数の特徴点を抽出することができないため、静止物体の判別は難しい。
そこで、変動しない特徴点の位置が登録された地図を予め用意する手法や、エンコーダなどの内界センサとカメラを併用することで、周囲環境に依存せずに位置の累積誤差を低減する手法(第2の特許文献)が提案されている。
第2の特許文献では、位置が変動しないランドマークの地図を用意し、レーザ距離センサやカメラなどの外界センサによりランドマーク候補を検出する。第2の特許文献では、エンコーダなどの内界センサ値から算出した暫定の位置を基に、ランドマーク候補の位置を算出し、ランドマーク候補と地図を照合する。ランドマーク候補と地図を毎回照合する処理は高負荷であるため、第2の特許文献では、前回に地図と照合した前ランドマーク候補と現ランドマーク候補とを対応付けることにより、現ランドマーク候補と地図とを直接照合する数を減らしている。しかし、ランドマーク候補が同時に多数検出される環境下では、前ランドマーク候補と現ランドマーク候補との対応付けの処理負荷が増大する。
さらに、移動体の位置を推定する場合、推定処理の計算時間中に移動体が移動した量だけ位置推定精度は悪化する。特に、自動車などの高速移動体は、1回の計算時間内に移動する量が大きいため、処理負荷を低減してできるだけ高速に計算できるようにすることが肝要である。
本発明は上記課題に鑑みてなされたもので、その目的は、移動体の位置推定に要する処理の負荷を低減することができるようにした移動体位置推定装置および移動体位置推定方法を提供することにある。本発明の他の目的は、所定の基準を満たす所定の特徴点を規定数だけ確保し、それら規定数の所定の特徴点だけを追跡することで、移動体の位置を比較的少ない処理負荷で推定できるようにした移動体位置推定装置および移動体位置推定方法を提供することにある。
上記課題を解決すべく、本発明の一つの観点に従う移動体位置推定装置は、移動体に取り付けられ、周囲環境を撮像する撮像部と、周囲環境を撮像した画像から抽出される特徴点の座標を地図に対応付けて管理する地図管理部と、撮像部で撮像した画像から抽出される特徴点のうち所定の基準で選択される所定の特徴点を追跡する特徴点追跡部と、特徴点追跡部が追跡する所定の特徴点の数が規定数となるように管理する特徴点数管理部と、特徴点追跡部が追跡する所定の特徴点の座標と地図管理部の管理する地図とから位置を推定する位置推定部と、を備える。
移動体の内部状態を検出する内界状態検出部の検出値と位置推定部が推定した位置とに基づいて、移動体の暫定位置と姿勢を算出する暫定位置算出部を設け、特徴点追跡部は、暫定位置算出部で算出した暫定位置および姿勢と撮像部で撮像した画像とを用いて、所定の特徴点を追跡してもよい。
地図管理部は、周囲環境の画像と、画像を撮影したときの撮像位置および姿勢と、画像から抽出される特徴点の画像上における画像上座標と、特徴点の移動体座標系における三次元座標とを、地図に対応付けて管理することができる。
特徴点追跡部は、所定の特徴点が画像上に出現すると見込まれる出現予定座標を、暫定位置算出部の算出した暫定位置に基づいて算出し、出現予定座標を含んで設定される所定領域内の画像から特徴点を抽出し、抽出した特徴点と所定の特徴点とのマッチング尤度を算出し、所定領域内で抽出した特徴点のうちマッチング尤度が最大となる特徴点を所定の特徴点として使用することができる。
特徴点数管理部は、所定の特徴点の数が規定数に満たないと判定した場合、地図管理部で管理された周囲環境の画像と撮像部で撮像した画像とをマッチング処理することで、マッチング尤度が所定の閾値以上であり、かつ、所定の基準を満たす特徴点を、新たな所定の特徴点として追加することもできる。
特徴点数管理部は、所定の特徴点の数が規定数であると判定した場合、各所定の特徴点が所定の基準を満たしているか確認し、所定の基準を満たしていない特徴点は所定の特徴点ではないと判断して特徴点追跡部による追跡対象から除外し、地図管理部で管理された周囲環境の画像と撮像部で撮像した画像とをマッチング処理することで、マッチング尤度が所定の閾値以上であり、かつ、所定の基準を満たす特徴点を新たな所定の特徴点として追加することもできる。
本発明によれば、規定数の所定の特徴点だけを追跡すればよいため、処理負荷を軽減して移動体の位置を推定することができる。
以下、図面に基づいて、本発明の実施の形態を説明する。本実施形態では、以下に詳述する通り、撮像部で撮像した画像から所定の基準を満たす所定の特徴点だけを追跡対象として選択し、規定数の所定の特徴点の座標に基づいて移動体の位置を推定する。これにより、本実施形態によれば、移動体の位置推定に必要な所定の特徴点の処理負荷を低減できる。また、本実施形態によれば、処理負荷の低減により処理速度を高速化できるため、自動車などの高速移動体の位置も推定できる。
図1〜図7を用いて第1実施例を説明する。本実施例では、以下に述べるように、自動車やロボットなどの移動体10の上部に、広域範囲を撮像可能な広角カメラ101を上向きに搭載する。移動体10に搭載された位置推定装置100は、広域範囲内の多数の特徴点の中から、移動体10の位置を推定するために必要な規定数の特徴点だけを抽出して追跡することで、比較的低処理負荷で移動体10の位置を推定する。
ここで、以下に述べる「特徴点」とは、画像処理における不変特徴量である。例えば建物や窓などの輪郭を形成するコーナやエッジのような、近傍画素の輝度値の勾配が大きい方向がある、点または線を形成する点群が不変特徴量である。特徴点のうち、位置推定のためのトラッキング対象となる特徴点を所定の特徴点と呼ぶ。
「画像上座標」とは、画像の縦方向と横方向で張られる2次元の直交座標であり、画像の最小単位である1ピクセルを1目盛とする。さらに、「3D座標」とは、任意点をゼロ点とするカーテシアン座標である。「移動体座標系」とは、移動体の前方向をX軸、移動体の左右方向をY軸、移動体の高さ方向をZ軸とする座標系である。なお、移動体10の位置を推定するための位置推定装置100は、移動体10に搭載されるため、位置推定を「自己位置推定」と表現することもできる。
図1は、移動体10の機能構成と位置推定装置100の機能構成とを示すブロック図である。移動体10は、例えば、乗用車などの自動車、移動機能を有するロボット、建設機械などの移動する物体である。
移動体10の車体11には、例えばその下側に、タイヤなどから構成される移動機構12が設けられている。移動機構12は、車体11を移動させるための機構であればよく、ホイール、クローラ、歩行用脚部などでもよい。
移動体10は、例えば、位置推定装置100のほかに、カメラ101、内界センサ102、移動体制御装置103を搭載している。位置推定装置100は、後述のように、例えば撮像部110、暫定位置算出部111、トラッキング部112、特徴点数管理部113、地図管理部114、位置推定部115を含む。
カメラ101は、移動体10の周囲の特徴点をできるだけ広範囲から検出するために、広角レンズを搭載した広角カメラであることが望ましい。さらに、歩行者や他の移動体などの位置が変動する各種物体が混在する環境の中で位置が変動しない特徴点を検出するために、カメラ101は移動体10上部に上向きに設置することが望ましい。ただし、移動体10の周囲から複数の特徴点を抽出可能であるならば、カメラ101の種類や設置位置は特に問わない。また、カメラ1台を利用した単眼カメラであってもよいし、複数台のカメラを利用した複眼カメラであってもよい。
カメラ101は、撮像部110と通信するための通信手段を搭載する。その通信手段としては、例えば、USB(Universal Serial Bus)接続により画像を転送する通信プロトコルPTP(Picture Transfer Protocol)や、LAN(Local Area Network)接続により画像を転送する通信プロトコルPTP/IP(Internet Protocol)などがある。画像を転送できる手段であればよく、上記の通信手段に限定されない。
撮像部110は、カメラ101を用いて周囲環境の画像を検出し、検出した画像を後述のトラッキング部112に渡す。周囲環境の画像とは、移動体の周囲に存在する建物や窓枠、家具などの物体の画像である。移動体10は、屋外のみならず屋内も走行可能であるため、周囲環境の画像には屋内の物体の画像も含まれる。画像としては、各ピクセルに例えば256階調の輝度値を埋め込んだグレースケール画像や、色調を埋め込んだカラー画像を用いることができる。
カラー画像を使用する場合は、例えば公知のグレースケール変換とよばれるビット変換手法を用いて、カラー画像をグレースケール画像に変換する。グレースケール変換には、例えば、それぞれ256階調ある3原色のうちの1色の階調を輝度値とする手法や、NTSC(National Television System Committee)加重平均法とよばれる三原色の階調の加重平均を輝度値とする手法がある。色調を輝度値に変換する手法であれば、どの手法を用いてもよい。
本実施例では、屋内外の暗所および明所で画像処理を行うため、各ピクセルの輝度値を標準化または256階調に正規化することが望ましい。ただし、輝度値の標準化または正規化を行わなくても、画像を処理して特徴点を抽出できればよく、輝度値の標準化または正規化は必ずしも必要ではない。
また、サブピクセル化とよばれる処理を行ってもよい。サブピクセル化とは、1ピクセルよりも細かい仮想的な単位(サブピクセル)を設け、補間した色調または輝度値をサブピクセルに埋め込む画像処理である。これにより、以降の処理精度を向上できる。
内界センサ102は、移動体10の内部状態を検出して出力するセンサであり、「内部状態検出部」に該当する。内界センサ102は、例えば、移動体10の移動量を検出するモジュールとして構成することができる。内界センサ102としては、例えば、車輪の回転数を検出するエンコーダや、移動体10の状態を検出するジャイロセンサ、加速度計、ジャイロセンサと加速度計を組み合わせたIMU(Inertial Measurement Unit)などを用いることができる。なお、IMUは、地磁気センサを内蔵している。
移動体制御装置103は、移動体10の移動や運転室内の環境などを制御する。移動体制御装置103は、運転室内に配置された運転装置からの信号に基づいて、移動体10を移動させることができる。また、移動体制御装置103は、内界センサ102からの信号と位置推定装置100からの演算結果とに基づいて、移動体10を自動的に移動させることもできる。
暫定位置算出部111は、内界センサ102で検出した値を基に、移動体10の暫定位置および姿勢を算出する。暫定位置および姿勢の算出手法として、例えば、公知のデッドレコニングとよばれる相対位置推定手法を用いることができる。デッドレコニングは、前回算出した位置から見た相対位置および相対姿勢を内界センサ値から算出し、前回算出した位置および姿勢に前記相対位置および前記相対姿勢を加算することにより、今回の位置および姿勢を推定する手法である。この手法では相対位置を加算していくため、暫定位置の誤差が蓄積する。しかし、本実施例では、後述する位置推定部115により、暫定位置および姿勢を修正するため、誤差は蓄積しない。
地図管理部114は、撮影点における移動体10の位置および姿勢と、撮影点で撮像部110が撮像した周囲の画像とを対応付けて地図データベースに登録し、管理する。地図データベースを作成する移動体と地図データベースを利用する移動体とは同一である必要はない。例えば、複数の移動体10の位置推定装置100と通信ネットワークCNを介して接続される地図管理サーバ20を介して、或る移動体の位置推定装置100で収集したデータ(位置、姿勢、画像)を他の移動体の位置推定装置100で利用できる。地図管理サーバ20は、各移動体の位置推定装置100からのデータを管理する地図データベースを保持しており、位置推定装置100からの要求に応じて、その位置推定装置100の地図管理部114に所定範囲の地図データベースを送信することができる。
地図データベースに登録する地図画像データM(図3参照)の作成例を説明する。地図画像データMの構成例は図3で後述する。
例えば、地図管理部114は、暫定位置算出部111または位置推定部115または三角測量または衛星測位などの計測手段により移動体10の位置と姿勢とが既知であるときに、撮像部110で検出した画像を、画像ID(識別子)を付けて地図データベースに登録する。さらに、地図管理部114は、その登録した画像を撮像したときの位置および姿勢も、画像IDを付けて地図データベースに登録する。
さらに、地図管理部114は、地図データベースに登録した画像の中から、撮影位置が近い画像を少なくとも2枚取り出し、それぞれの画像から特徴点を検出する。地図管理部114は、取り出した各画像の撮像位置と姿勢とを基に、検出した特徴点同士をマッチング処理し、取り出した各画像の撮像位置と姿勢と同一特徴点の視差とを基に、同一であると判断する特徴点の地図上の3D座標(三次元座標)を算出する。地図管理部114は、このようにして検出した特徴点が地図データベースに登録されていない場合、その特徴点の3D座標を特徴点ID付きで地図データベースに登録する。さらに、前記取り出した各画像上の特徴点の画像上座標を、画像IDおよび特徴点IDに対応付けて地図データベースに登録する。
前記特徴点の3D座標が既に地図データベースに登録されている場合は、前記の取り出した各画像上の前記特徴点の画像上座標を画像IDと前記特徴点ID付で地図データベースに登録する。これにより、地図データベースにおいて、画像と、撮像時の位置および姿勢と、その画像から検出される特徴点の画像上座標と、その特徴点の3D座標とが、画像IDと特徴点IDに対応付けられて地図データベースに登録される。
前記特徴点の3D座標が既に地図データベースに登録されている場合は、前記の取り出した各画像上の前記特徴点の画像上座標を画像IDと前記特徴点ID付で地図データベースに登録する。これにより、地図データベースにおいて、画像と、撮像時の位置および姿勢と、その画像から検出される特徴点の画像上座標と、その特徴点の3D座標とが、画像IDと特徴点IDに対応付けられて地図データベースに登録される。
なお、地図データベースには、事前に撮像部110で周囲環境から検出した画像を用い、オフラインで登録してもよいし、移動体10が移動しながらオンラインで登録してもよい。地図データベースには、オフライン式、オンライン式のいずれでも登録できる。オフライン式とは、事前に撮影した画像から特徴点などを検出して地図データベースに登録する方法である。オンライン式とは、移動体10が移動しながら周囲の画像を取得し、取得した画像からほぼリアルタイムで特徴点などを検出して地図データベースに登録する方法である。
オンライン式で地図データベースにデータ(画像や特徴点等)を登録する場合、地図管理部114は、暫定位置算出部111または位置推定部115で算出した位置の近傍で登録された画像があるか確認する。もし無ければトラッキング部112または特徴点数管理部113で特徴点を検出し、または、画像全体から特徴点を検出して地図データベースに登録することができる。
「特徴点追跡部」としてのトラッキング部112は、暫定位置算出部111で算出した暫定位置および姿勢を基に、特徴点数管理部113で管理された前回の特徴点の画像上座標を、今回の撮像部110で検出した画像の画像上座標に変換する。トラッキング部112は、今回の撮像部110で検出した画像の画像上座標付近から特徴点を検出し、検出した特徴点と前回の特徴点とをマッチングすることで、特徴点数管理部113で管理された前回の特徴点を今回の撮像部110で検出した画像上で追跡(トラッキング)する。トラッキング処理の詳細は後述する。
特徴点数管理部113は、トラッキング部112によりトラッキング対象となった特徴点の数を確認し、特徴点数が予め設定される規定数となるように管理する。トラッキング対象の特徴点は、トラッキング対象点と呼ぶこともできる。特徴点数管理部113は、トラッキング対象の特徴点の数が規定数未満の場合、地図管理部114で管理された地図データベースから特徴点を抽出し、トラッキング対象の特徴点が規定数になるように調整する。また、トラッキング対象の特徴点の数が規定数の場合でも、それぞれの特徴点の配置が位置推定精度を悪化させるような配置である場合は、地図データベースから位置推定精度向上に寄与する特徴点を抽出し、トラッキング対象の特徴点を入れ替える。詳細は後述で説明する。
位置推定部115は、特徴点数管理部113で管理された特徴点の画像上座標を用いて、その特徴点が移動体座標系において見える方向を算出する。位置推定部115は、方向と特徴点の3D座標とから算出した方向が一致するように、暫定位置算出部111で算出した暫定位置および姿勢を修正する。
暫定位置および姿勢の修正方法の例を説明する。例えば、特徴点数管理部113で管理された特徴点(特徴点ID(i))の3D座標をベクトルp(i)、特徴点の画像上2D座標から算出した特徴点の見える方向をベクトルm(i)、移動体10の真の位置をベクトルt、移動体10の真の姿勢を回転行列Rとして、次の数1で示す評価関数が最小になるように、位置を表すベクトルtと姿勢を表すRとを算出する。
上記の数1は、特徴点の見える方向を線分とし、線分と特徴点の3D座標のユークリッド(Euclid)距離の2乗和を表す。ユークリッド距離に代えて、マハラノビス(Mahalanobis)距離などのその他の距離を用いてもよい。
数1で示す評価関数を最小化する手法として、例えば、公知の非線形最小化手法であるレーベンバーグ・マーカート法を用いことができる。それに限らず、例えば、公知の最急降下法などのその他の最小化法を用いてもよい。
なお、最小化手法を適用する際の、位置を表すベクトルtと姿勢を表すRの初期値として、暫定位置算出部111で算出した暫定位置および姿勢を用いるのがよい。また、最小化手法を適用するためには、少なくとも3点の特徴点が必要である。よって、本実施例では、特徴点数管理部113で管理する特徴点の規定数を「3」以上に設定する。
図2は、撮像部110で撮影した画像と特徴点の例を示す説明図である。広角レンズを有するカメラ101で移動体10の上部から上向きに屋外の風景を撮影すると、図2(a)に示すように、移動体10の周囲に存在する建物などの各種物体の画像GP1〜GP9を撮影することができる。
画像GP1〜GP8は建物の全部または一部などを示す構造物の画像であり、画像GP09は太陽の画像である。トラッキング対象となり得る画像GP1〜GP8は広角レンズの周辺部に位置し、太陽GP9は内部寄りに位置する。このため、各種物体の輪郭などは比較的明かである。本実施例では、各種物体の画像GP1〜GP8の輪郭から特徴点Pを検出する。
図2(b)は、移動体10の位置を推定する方法の概要を示す。移動体10は、符号10(1)、符号10(2)、符号10(3)の順番で移動するものとする。最初、移動体10(1)の位置で、撮影した画像TG1から特徴点Pを抽出し、地図管理部114で管理している地図画像についての特徴点とマッチング処理する。
第1位置で撮影した画像TG1から検出した特徴点のうち、その第1位置近傍で管理済みの地図画像データM1から検出された特徴点とのマッチング尤度が最大の特徴点を、トラッキング対象の特徴点TPとして選択する。トラッキング対象の特徴点TPは「所定の特徴点」に該当し、例えば周方向に所定角度以上離れるようにして、規定数N(例えば3)だけ選択される。
位置推定装置100は、移動体10が第2位置10(2)に移動したときの画像TG2を撮影し、その画像TG2から検出する特徴点とトラッキング対象の特徴点TPをマッチング処理して、トラッキングする。
位置推定装置100は、移動体10が第2位置10(2)から第3位置10(3)にさらに移動したときも周囲環境の画像TG3を撮影して、トラッキング対象の特徴点を検出する。このとき、トラッキング対象の特徴点が規定数未満である場合、位置推定装置100は、地図管理部114で管理している地図画像データM3から新たなトラッキング対象の特徴点TP(new)を補充する。地図画像データM3は、第3位置10(3)の近傍で撮影されて保存されたデータであり、複数の特徴点Pを含んでいる。位置推定装置100は、トラッキング対象の特徴点の数が規定数となるように、地図画像データM3から新たなトラッキング対象となる特徴点を選択する。これにより、位置推定装置100は、トラッキング対象の特徴点TPを規定数だけ持つ画像TG3aを得る。このように、本実施例の位置推定装置100は、トラッキング対象の特徴点を規定数だけトラッキングすることにより、比較的低負荷で位置を推定できるようになっている。
図3は、地図管理部114で管理する地図画像データMの構成例を示す。地図画像データMは、例えば、画像を撮影したときの移動体の位置情報、画像を撮影したときの移動体の姿勢、撮影した画像から検出した特徴点に関する情報とを対応付けている。特徴点に関する情報は、例えば、特徴点を識別するための特徴点ID、特徴点の画像上の座標、特徴点の3D座標、撮影した画像データの格納先アドレスなどを含む。
図4は、トラッキング部112が実行するトラッキング処理を示す。図5は、トラッキング処理の概要を示す。図4では、トラッキング部112を動作の主体として述べるが、位置推定装置100を動作主体として述べることもできる。
まず、トラッキング部112は、前回の特徴点数管理処理(図6で後述)で管理された特徴点が1つ以上あったか判定する(S100)。前回の特徴点が1つも無い場合(S100:NO)、トラッキング対象が無いため本処理は終了する。
前回の特徴点が1つ以上有る場合(S100:YES)、トラッキング部112は、特徴点をトラッキングするために、ループ変数iに「0」を設定して(i=0)、ループ処理(S102〜S109)に入る(S101)。
トラッキング部112は、iループ目の処理開始時に、暫定位置算出部111で今回算出した暫定位置および姿勢と、特徴点数管理部113で管理された前回の特徴点(特徴点IDをID(i)とする)の3D座標とを用いて、撮像部110で今回検出した画像上における特徴点ID(i)の特徴点の暫定の画像上座標を算出する(S102)。
ステップS102の処理を図5を用いて説明する。ステップS102では、前回の画像上の特徴点P[ID(1)]を、内界センサ値から算出した移動量ΔLを用いて画像上座標Cに移動させ、画像上座標Cを今回の画像上の特徴点の暫定の画像上座標とする。
トラッキング部112は、ステップS102で算出した特徴点ID(i)を有する特徴点の暫定の画像上座標の近傍領域で、特徴点を検出する(S103)。
ここで、近傍領域とは「所定領域」に該当し、前回の特徴点が今回出現すると見込まれる出現予定座標を含む領域である。近傍領域は、ステップS102において、暫定位置および姿勢を微小変化させたときに、特徴点ID(i)の特徴点が取り得る画像上座標の領域を算出して用いる。これに限らず、暫定の画像上座標を中心とする四角形や円などの領域を近隣領域として設定してもよい。近傍領域で特徴点を検出できなかった場合、近傍領域を拡張して、再度特徴点の検出を行っても良い。
図5を用いてステップS103の処理を説明する。暫定の画像上座標Cを中心に今回の画像上で近傍領域NAを設け、近傍領域NAの中から特徴点群Pgrpを検出し、特徴点群Pgrpと前回の画像上の特徴点P[ID(1)]とでマッチング処理を行う。
トラッキング部112は、ステップS103で特徴点ID(i)を持つ特徴点に対応する特徴点が検出されたか判定する(S103)。一つも検出されなかった場合、トラッキング部112は、特徴点ID(i)を持つ特徴点をトラッキング対象から除外する(S103:NO)。
トラッキング部112は、トラッキング対象の特徴点が1つ以上検出された場合(S104:YES)、検出した特徴点群と、特徴点ID(i)を持つ前回検出した特徴点とをそれぞれマッチング処理し、それぞれのマッチング尤度を算出する(S105)。
マッチング処理の手法として、例えば、特徴点の近傍画素の輝度値パターンなどを表した特徴量のユークリッド距離の逆数をマッチング尤度とするパターンマッチングや、特徴点近傍にテンプレート窓を用意し、テンプレート窓内の各画素の相関をマッチング尤度とするテンプレートマッチング等が知られている。本実施例では、マッチング尤度を算出できる手法であれば、どのようなマッチング手法を採用してもよい。
トラッキング部112は、マッチングできたかを判断するための基準となる閾値MLを予め設定しており、ステップS105でマッチング処理した特徴点のうち、マッチング尤度が最大で、かつ閾値MLより大きい特徴点を選択する(S106)。マッチング尤度の最大値が閾値ML以下の場合(S106:NO)、特徴点ID(i)を持つ特徴点をトラッキング対象から除外する。
トラッキング部112は、前回の特徴点ID(i)の特徴点の画像上座標を、ステップS106で選択した特徴点の画像上座標に更新する(S107)。さらに、トラッキング部112は、ステップS107において、特徴点ID(i)の特徴点の連続トラッキング回数に「1」を足す。
トラッキング部112は、ステップS107で更新した特徴点ID(i)の特徴点の画像上座標と、連続トラッキング回数と、ステップS105で算出したマッチング尤度の最大値とを保存する(S108)。
トラッキング部112は、前回の特徴点数管理処理で管理された全特徴点に対して、ステップS102からS108までの処理が完了した場合はトラッキング処理を終了する(S109:YES)。
前回の特徴点数管理処理で管理された全特徴点に対してステップS102からS108までの処理が完了していない場合(S109:NO)、トラッキング部112は、未処理の特徴点の中から処理対象の特徴点を1つ選択し(S110)、その選択した特徴点に対してステップS102からS108までの処理を適用する。
図6は、特徴点数管理部113の実行する特徴点数管理処理を示す。また、図7は、特徴点の規定数を3点としたときの、特徴点数管理処理の概要を示す。
特徴点数管理部113は、トラッキング部112でトラッキングできた特徴点の数NTPが1点または0点の場合(S200:NO)、後述するステップS205の処理を行い、トラッキング部112でトラッキングできた特徴点の数NTPが2点以上の場合(S200:YES)、後述のステップS201〜S203のループ処理を行う。
特徴点数管理部113は、トラッキング部112でトラッキングできた特徴点のうちの1点に注目し、その注目点の近傍領域を設定する(S201)。本実施例において近傍領域は、撮像部110で検出した画像上における注目点の偏角±360゜/(4×(特徴点規定数N))の領域とする。
注目点の近傍領域に含まれるトラッキングできた特徴点のうち、トラッキング処理で保存したマッチング尤度が最大の特徴点以外の特徴点を、次回のトラッキング処理でのトラッキング対象から除外する。
ここで、マッチング尤度が最大の特徴点が2つ以上ある場合は、トラッキング処理(トラッキング部112)で保存した連続トラッキング回数が最も多い特徴点以外の特徴点を、トラッキング対象から除外する。
ここで、図7を参照して説明する。図7の左側に示すように、特徴点PbとPcとの2点の特徴点が近接する画像TG10の場合、処理過程の画像TG11に示すように、2点の特徴点Pb、Pcのいずれからも離れた特徴点Paを選択すると、その特徴点Paの近傍領域NA1には他の特徴点が存在しない。このため、その選択した特徴点Paは、トラッキング対象の特徴点TP1として残る。
そして、次の処理過程を示す画像TG12では、選択した特徴点Pbの近傍領域NA2に他の特徴点Pcが含まれるため、特徴点数管理部113は、マッチング尤度と連続トラッキング回数とを基に、トラッキング対象から除外する特徴点を決定する。
図6に戻る。特徴点数管理部113は、前回のトラッキング処理でトラッキングできた全特徴点に対してステップS201〜S203が完了した場合、または、次回のトラッキング処理でのトラッキング対象の特徴点が1点になった場合のいずれかであると判定すると(S202:YES)、ループ処理(S201〜S203)を抜ける。例えば、図7では、処理過程の画像TG12の終了直後と、右側に示す処理過程の画像TG21の終了直後とは、処理S202でYESと判定される場合に相当する。
特徴点数管理部113は、次回のトラッキング処理においてトラッキング対象から除外されていない、トラッキングできた他の特徴点の中から1つを注目点として選択し、ループ処理(S201〜S203)を行う(S203)。
特徴点数管理部113は、次回のトラッキング処理でのトラッキング対象となっている特徴点の数が規定数あるか確認し(S204)、トラッキング対象の特徴点数が規定数に達している場合(S204:NO)、特徴点数管理処理を終了する。
トラッキング対象の特徴点数が規定数に達していない場合(S204:YES)、特徴点数管理部113は、この時点における、次回のトラッキング処理でのトラッキング対象点の画像上の近傍領域外で、特徴点を補充する(S205)。トラッキング対象の特徴点の近傍領域以外の領域は、「所定領域以外の他の領域」に対応する。
すなわち、特徴点数管理部113は、地図管理部114で管理された地図データベースの画像のうち、暫定位置算出部111で算出した暫定位置に最も近い位置で撮像した画像を選択する。特徴点数管理部113は、現時点で残っているトラッキング対象の特徴点の画像上の近傍領域外において、選択した画像とのマッチング処理を行い、マッチング尤度が最大となる特徴点をトラッキング対象として追加する(S205)。
ここで、近傍領域は、ステップS201で述べたと同様の手法で設定できる。また、マッチング手法は、マッチング尤度を算出できる手法であれば、どのマッチング手法を採用してもよい。図7において、例えば、処理過程の画像TG13や処理過程の画像TG23が、ステップ205に相当する。
特徴点数管理部113は、マッチング尤度の最大値が閾値ML以上とならない場合、マッチング処理に失敗したものと判断し(S206:YES)、新たな特徴点をトラッキング対象に追加せずに、特徴点数管理処理を終了する。一方、マッチング尤度の最大値が閾値MLより大きい場合(S206:NO)、特徴点数管理部113は、マッチング尤度が最大の特徴点をトラッキング対象に追加し、再度トラッキング対象点数を確認する(S204)。
図7は、トラッキング対象の特徴点を決定し、規定数に足りない場合はトラッキング対象の特徴点を補充する様子を模式的に示す。
一方の処理過程の画像TG10〜TG13には、近接する2つの特徴点Pb、Pcと1つだけ離れた場所にある特徴点Paとが含まれている(TG10)。
上述の通り、1つだけ離れた特徴点Paに着目すると、その特徴点Paの近傍領域NA1には他の特徴点が存在しない。このため、特徴点Paは、トラッキング対象として選択される(TG11)。
次の特徴点Pbに注目すると、その特徴点Pbの近傍領域NA2内には他の特徴点Pcが存在する。そこで、特徴点Pb、Pcのうち、マッチング尤度が最大の特徴点(ここではPbとする)をトラッキング対象の特徴点TP2として選択する(TG12)。
本実施例では、規定数Nを3としており、3個の特徴点をトラッキングする。しかし、未だ2個の特徴点しか選択していない。そこで、トラッキング対象として選択した特徴点TP1(Pa)、TP2(Pb)の近傍領域NA1、NA2以外の他の領域A3a、A3bに存在する他の特徴点の中から、3番目の特徴点を選択する。特徴点数管理部113は、他の領域A3a、A3bに存在する他の特徴点のうち、暫定位置に対応する地図画像データMに含まれている特徴点とのマッチング尤度が最大の特徴点を1つ選択し、トラッキング対象の特徴点TP3として追加する。
他方の処理過程(TG20〜TG23)では、或る特徴点の近傍領域NA4内に3つの特徴点Pe、Pd、Pfが近接して存在している(TG20)。そこで、特徴点数管理部113は、3つの特徴点の中から、マッチング尤度が最大の特徴点Pdをトラッキング対象の特徴点TP4として選択する(TG21)。
トラッキング対象の特徴点TP4の近傍領域NA4以外の他の領域A4から、上述の方法に従って2番目の特徴点TP5を選択する(TG22)。さらに、特徴点数管理部113は、トラッキング対象の特徴点TP4、TP5の近傍領域NA4、NA5以外の他の領域A5a、A5bから、3番目の特徴点TP6を選択する(TG23)。
このように構成される本実施例によれば、規定数の特徴点だけをトラッキングすればよいため、比較的低い処理負荷で、移動体10の位置を推定することができる。
本実施例では、位置の推定に必要な特徴点(トラッキング対象の特徴点)を、所定の幾何条件に基づいて選択するため、位置の推定精度を高めることができる。幾何条件の一例として、本実施例では、特徴点を周方向に所定角度離れるようにして選択するため、3つの特徴点と移動体10との距離および方向から、移動体10の位置を比較的高精度に推定することができる。さらに、一例として、本実施例では、或るトラッキング対象の特徴点に設定する近傍領域以外の領域から他のトラッキング対象の特徴点を選択するため、各トラッキング対象の特徴点同士は、近傍領域の大きさに応じて離れている。さらに、本実施例では、近傍領域をトラッキング対象の特徴点(注目点)の偏角±360゜/(4×(規定数N))の領域として定義するため、規定数Nが「3」の場合、各トラッキング対象の特徴点同士は少なくとも30度以上離れている。
このように本実施例によれば、比較的簡素なアルゴリズムに従ってトラッキング対象の特徴点を規定数に管理することができるため、種々変化する移動状況に速やかに対応して移動体10の位置を推定することができる。
図8〜図9を用いて第2実施例を説明する。本実施例は、第1実施例の変形例に該当し、第1実施例で述べたよりもトラッキング対象の特徴点(トラッキング対象点)をよりロバストに抽出する。
図8は、本実施例による特徴点数管理処理のフローチャートを示す。図9、図10は、特徴点の規定数Nを3としたときの、本実施例による特徴点数管理処理の概要を示す説明図である。図8に示す特徴点管理処理のうちステップS300、S301、S302、S303、S306、S307、S308は、図6で述べたステップS200、S201、S202、S203、S204、S205、S206に対応する。ただし、近傍領域の構成などは第1実施例と異なる。
特徴点数管理部113は、トラッキング処理でトラッキングできた特徴点数が1つまたは0の場合(S300:NO)、ステップS305の処理を行い、トラッキングできた特徴点数が2つ以上の場合(S300:YES)、ステップS301〜S305のループ処理を行う。
ステップS301において、特徴点数管理部113は、トラッキング処理でトラッキングできた特徴点のうちの1点に注目し、その注目点の近傍領域を設定する。ループ開始時の近傍領域は、撮像部110で検出した画像上における注目点の偏角±360゜/(2×(特徴点規定数N))の領域とする。
注目点の近傍領域に含まれる、トラッキングできた特徴点のうち、トラッキング処理で保存したマッチング尤度が最大の特徴点以外を、次回のトラッキング処理でのトラッキング対象から除外する(S301)。ここで、マッチング尤度が最大の特徴点が2点以上ある場合は、トラッキング部112で保存した連続トラッキング回数が最も多い特徴点以外の特徴点をトラッキング対象から除外する。
ステップS302において、特徴点数管理部113は、前回のトラッキング処理でトラッキングできた全特徴点に対して、ステップS301〜S303が完了した場合、または、次回のトラッキング処理でのトラッキング対象の特徴点が1点になった場合、のいずれかである場合(S302:YES)、ループ処理(S301〜S303)を抜ける。
ステップS303において、特徴点数管理部113は、次回のトラッキング処理でのトラッキング対象から除外されていない、他の特徴点の中から注目点を選択し、ループ処理(S301〜S303)を行う。図9の処理過程の画像TG31、TG32、TG33、TG34と、図10の処理過程の画像TG41、TG42、TG43、TG44とが、ループ処理S301〜S303に相当する。
特徴点数管理部113は、設定した近傍領域でループ処理(S301〜S303)を行った結果、トラッキング対象点の数NTPが規定数Nだけある場合、または、ループ処理S301〜S305の3回目を終了した場合、のいずれかである場合(S304:YES)、ループ処理(S301〜S305)を抜け、そうでない場合(S304:NO)、ステップS305に進む。
S305において、特徴点数管理部113は、トラッキング対象点を特徴点数管理処理の開始時の状態(初期状態)に戻し、近傍領域のサイズを縮小した後、ループ処理(S301〜S303)に進む。
近傍領域は、1回目のループ処理S301〜S303の終了時に、注目点の偏角±360゜/(4×(特徴点規定数N))となり、2回目のループ処理S301〜S303の終了時に、注目点の偏角±360゜/(8×(特徴点規定数N))となるように、段階的に縮小するように設定されている。図9の処理過程の画像TG32から画像TG33への移行、図10の処理過程の画像TG41からTG42への移行、TG42からTG43への移行が、ステップS305に相当する。
S306において、特徴点数管理部113は、現時点で、次回のトラッキング処理でのトラッキング対象となっている特徴点の数NTPが規定数Nに一致する場合(S306:YES)、本処理を終了する。
S307において、特徴点数管理部113は、現時点で、次回のトラッキング処理でのトラッキング対象点の画像上の近傍領域外で、地図管理部114で管理された地図データベースの画像のうち、暫定位置に最も近い位置で撮像した画像を選択する。特徴点数管理部113は、ステップS307の時点で残っているトラッキング対象点の画像上の近傍領域外で、選択した画像とのマッチング処理を行い、マッチング尤度が最大となる特徴点をトラッキング対象に追加する。
ここで、ステップS307における近傍領域は、ループ処理(S301〜S305)を抜けたときの、ステップS305で設定したサイズの近傍領域とする。また、マッチング手法は、マッチング尤度を算出できる手法であれば、どのマッチング手法を採用してもよい。図10の処理過程の画像TG45がステップS307に相当する。
ステップS308において、特徴点数管理部113は、マッチング尤度の最大値が閾値ML以上とならない場合(S308:YES)、マッチング処理に失敗したものと判断し、新たな特徴点をトラッキング対象に追加せずに、特徴点数管理処理を終了する。一方、マッチング尤度の最大値が閾値MLより大きい場合(S308:NO)、特徴点数管理部113は、マッチング尤度が最大の特徴点をトラッキング対象として追加し、再度トラッキング対象点数を確認する(S306)。
このように構成される本実施例も第1実施例と同様の作用効果を奏する。さらに本実施例では、トラッキング対象の特徴点を探すための探索領域である近傍領域のサイズを可変とし、段階的に小さくする構成としたため、撮影した画像に含まれる特徴点が少ない場合であっても、位置推定に必要な数の特徴点をトラッキング対象として選択することができ、位置推定の信頼性および精度が向上する。
なお、本発明は、上述した実施例に限定されない。当業者であれば、本発明の範囲内で、種々の追加や変更等を行うことができる。例えば、撮像した画像を中心角が所定角度の領域に分割し、各領域の中で最もマッチング尤度の高い特徴点をトラッキング対象として選択する構成であってもよい。ただし、この場合は、利用可能な特徴点の存在しない領域がある場合、その領域ではトラッキング対象の特徴点を選択することができないため、位置の推定精度が低下する可能性がある。
また、前記各実施例では、トラッキング対象の特徴点の規定数を「3」とした場合を例に挙げて説明したが、これに限らず、規定数は4以上の値であってもよい。また、近傍領域のサイズも例示である。
10:移動体、100:位置推定装置、101:カメラ、102:内界センサ、103:移動体制御装置、110:撮像部、111:暫定位置算出部、112:トラッキング部、113:特徴点数管理部、114:地図管理部、115:位置推定部
Claims (8)
- 移動体の位置を推定する移動体位置推定装置であって、
移動体に取り付けられ、周囲環境を撮像する撮像部と、
周囲環境の画像と、前記画像を撮影したときの撮像位置および姿勢と、前記周囲環境を撮像した画像から抽出される特徴点の画像上における画像上座標と、前記特徴点の移動体座標系における三次元座標とを、地図に対応付けて管理する地図管理部と、
前記撮像部で撮像した画像から抽出される特徴点のうち所定の基準で選択される所定の特徴点を追跡する特徴点追跡部と、
前記特徴点追跡部が追跡する前記所定の特徴点の数が規定数となるように管理する特徴点数管理部と、
前記特徴点追跡部が追跡する前記所定の特徴点の座標と前記地図管理部の管理する地図とから位置を推定する位置推定部と、
前記移動体の内部状態を検出する内界状態検出部の検出値と前記位置推定部が推定した位置とに基づいて、前記移動体の暫定位置と姿勢を算出する暫定位置算出部とを備え、
前記特徴点追跡部は、前記暫定位置算出部で算出した暫定位置および姿勢と前記撮像部で撮像した画像とを用いて、前記所定の特徴点を追跡し、
前記特徴点数管理部は、
前記所定の特徴点の数が前記規定数に満たないと判定した場合、前記地図管理部で管理された周囲環境の画像と前記撮像部で撮像した画像とをマッチング処理することで、マッチング尤度が所定の閾値以上であり、かつ、前記所定の基準を満たす特徴点を、新たな所定の特徴点として追加し、
前記所定の特徴点の数が前記規定数であると判定した場合、
前記各所定の特徴点が前記所定の基準を満たしているか確認し、
前記所定の基準を満たしていない特徴点は前記所定の特徴点ではないと判断して前記特徴点追跡部による追跡対象から除外し、
前記地図管理部で管理された周囲環境の画像と前記撮像部で撮像した画像とをマッチング処理することで、マッチング尤度が所定の閾値以上であり、かつ、前記所定の基準を満たす特徴点を新たな所定の特徴点として追加する、
移動体位置推定装置。
- 前記特徴点追跡部は、
所定の特徴点が画像上に出現すると見込まれる出現予定座標を、前記暫定位置算出部の算出した暫定位置に基づいて算出し、
前記出現予定座標を含んで設定される所定領域内の画像から特徴点を抽出し、
抽出した特徴点と前記所定の特徴点とのマッチング尤度を算出し、
前記所定領域内で抽出した前記特徴点のうち前記マッチング尤度が最大となる特徴点を前記所定の特徴点として使用する、
請求項1に記載の移動体位置推定装置。
- 前記所定の基準とは、前記規定数の所定の特徴点の三次元座標から位置を推定するために必要な所定の幾何条件として定義される、
請求項1または2のいずれか一項に記載の移動体位置推定装置。
- 前記所定の幾何条件とは、前記規定数の前記所定の特徴点が前記画像の中心を基準として周方向に所定角度以上分散していることである、
請求項3に記載の移動体位置推定装置。
- 前記所定の幾何条件とは、前記所定の特徴点を含むようにして設定される所定領域以外の他の領域に存在する特徴点を選択することである、
請求項4に記載の移動体位置推定装置。
- 前記所定の特徴点に関する前記所定領域のサイズは、可変である、
請求項5に記載の移動体位置推定装置。
- 撮像部は、前記移動体の上面に上向きに設置されている、
請求項1〜6のいずれか一項に記載の移動体位置推定装置。
- 移動体の位置をコンピュータを用いて推定する移動体位置推定方法であって、
前記コンピュータは、移動体に取り付けられ、周囲環境を撮像する撮像部に接続されており、
前記撮像部で撮像した画像から抽出される特徴点のうち所定の基準で選択される所定の特徴点を追跡する追跡ステップと、
前記所定の特徴点の数が規定数となるように管理する特徴点管理ステップと、
前記周囲環境を撮像した画像から抽出される特徴点の座標が地図に対応付けられた所定の地図データと前記所定の特徴点の座標とから位置を推定する位置推定ステップと、
前記移動体の内部状態を検出する内界状態検出部の検出値と前記位置推定ステップが推定した位置とに基づいて、前記移動体の暫定位置と姿勢を算出する暫定位置算出ステップと、を前記コンピュータで実行し、
さらに前記追跡ステップは、前記暫定位置および姿勢と前記撮像部で撮像した画像とを用いて、前記所定の特徴点を追跡し、
前記特徴点管理ステップは、
前記所定の特徴点の数と前記規定数とを比較し、
前記所定の特徴点の数が前記規定数に満たないと判定した場合、前記所定の地図データで管理された周囲環境の画像と前記撮像部で撮像した画像とをマッチング処理することで、マッチング尤度が所定の閾値以上であり、かつ、前記所定の基準を満たす特徴点を、新たな所定の特徴点として追加し、
前記所定の特徴点の数が前記規定数であると判定した場合、前記各所定の特徴点が前記所定の基準を満たしているか確認し、
前記所定の基準を満たしていない特徴点は前記所定の特徴点ではないと判断して前記追跡ステップによる追跡対象から除外し、
前記所定の地図データで管理された周囲環境の画像と前記撮像部で撮像した画像とをマッチング処理することで、マッチング尤度が所定の閾値以上であり、かつ、前記所定の基準を満たす特徴点を新たな所定の特徴点として追加する、
移動体位置推定方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2013/076673 WO2015049717A1 (ja) | 2013-10-01 | 2013-10-01 | 移動体位置推定装置および移動体位置推定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015049717A1 JPWO2015049717A1 (ja) | 2017-03-09 |
JP6129981B2 true JP6129981B2 (ja) | 2017-05-17 |
Family
ID=52778332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015540282A Active JP6129981B2 (ja) | 2013-10-01 | 2013-10-01 | 移動体位置推定装置および移動体位置推定方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20160238394A1 (ja) |
JP (1) | JP6129981B2 (ja) |
WO (1) | WO2015049717A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020144860A1 (ja) * | 2019-01-11 | 2021-10-07 | 三菱電機株式会社 | 移動体管理装置および移動体システム |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6207343B2 (ja) * | 2013-10-30 | 2017-10-04 | 京セラ株式会社 | 電子機器、判定方法、及びプログラム |
JP6234635B2 (ja) * | 2015-04-23 | 2017-11-22 | 三菱電機株式会社 | 評価情報収集装置 |
JP6658001B2 (ja) * | 2016-01-27 | 2020-03-04 | 株式会社リコー | 位置推定装置、プログラム、位置推定方法 |
WO2017168899A1 (ja) * | 2016-03-30 | 2017-10-05 | ソニー株式会社 | 情報処理方法および情報処理装置 |
JP2019139642A (ja) * | 2018-02-14 | 2019-08-22 | 清水建設株式会社 | 位置検出装置、位置検出システム、及び位置検出方法 |
JP6947659B2 (ja) * | 2018-02-16 | 2021-10-13 | 株式会社神戸製鋼所 | 建設機械の位置推定装置 |
JP7118717B2 (ja) * | 2018-04-18 | 2022-08-16 | 日立Astemo株式会社 | 画像処理装置およびステレオカメラ装置 |
FR3085489B1 (fr) * | 2018-08-30 | 2021-01-29 | Second Bridge Inc | Procédés d’optimisation de géolocalisation à l’aide d’un équipement électronique de mesure de distance |
EP3905213B1 (en) * | 2018-12-28 | 2023-04-26 | Panasonic Intellectual Property Management Co., Ltd. | Positioning apparatus and moving body |
JP7173471B2 (ja) * | 2019-01-31 | 2022-11-16 | 株式会社豊田中央研究所 | 3次元位置推定装置及びプログラム |
CN112179358B (zh) * | 2019-07-05 | 2022-12-20 | 东元电机股份有限公司 | 地图数据比对辅助定位系统及其方法 |
JP7283378B2 (ja) | 2019-12-26 | 2023-05-30 | 株式会社豊田自動織機 | 自己位置推定装置、移動体、自己位置推定方法、及び自己位置推定プログラム |
KR102312531B1 (ko) * | 2020-11-05 | 2021-10-14 | (주)케이넷 이엔지 | 위치 추적 시스템 및 이를 수행하기 위한 컴퓨팅 장치 |
JP7301897B2 (ja) * | 2021-03-09 | 2023-07-03 | 本田技研工業株式会社 | 地図生成装置 |
CN113990101B (zh) * | 2021-11-19 | 2023-04-07 | 深圳市捷顺科技实业股份有限公司 | 一种禁停区域车辆检测方法及其系统和处理装置 |
CN114750147B (zh) * | 2022-03-10 | 2023-11-24 | 深圳甲壳虫智能有限公司 | 机器人的空间位姿确定方法、装置和机器人 |
CN115908475B (zh) * | 2023-03-09 | 2023-05-19 | 四川腾盾科技有限公司 | 一种机载光电侦察吊舱图像预跟踪功能的实现方法及系统 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4672175B2 (ja) * | 2000-05-26 | 2011-04-20 | 本田技研工業株式会社 | 位置検出装置、位置検出方法、及び位置検出プログラム |
JP2004110802A (ja) * | 2002-08-26 | 2004-04-08 | Sony Corp | 環境同定装置、環境同定方法、プログラム及び記録媒体、並びにロボット装置 |
JP2004198211A (ja) * | 2002-12-18 | 2004-07-15 | Aisin Seiki Co Ltd | 移動体周辺監視装置 |
KR100776215B1 (ko) * | 2005-01-25 | 2007-11-16 | 삼성전자주식회사 | 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체 |
JP4753103B2 (ja) * | 2006-03-31 | 2011-08-24 | 村田機械株式会社 | 移動体位置の推定装置と推定方法及び推定プログラム |
JP4984650B2 (ja) * | 2006-05-30 | 2012-07-25 | トヨタ自動車株式会社 | 移動装置及び移動装置の自己位置推定方法 |
JP2008165275A (ja) * | 2006-12-27 | 2008-07-17 | Yaskawa Electric Corp | 自己位置同定装置を備えた移動体 |
KR100926783B1 (ko) * | 2008-02-15 | 2009-11-13 | 한국과학기술연구원 | 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법 |
JP2010033447A (ja) * | 2008-07-30 | 2010-02-12 | Toshiba Corp | 画像処理装置および画像処理方法 |
CN102596517B (zh) * | 2009-07-28 | 2015-06-17 | 悠进机器人股份公司 | 移动机器人定位和导航控制方法及使用该方法的移动机器人 |
JP2011203823A (ja) * | 2010-03-24 | 2011-10-13 | Sony Corp | 画像処理装置、画像処理方法及びプログラム |
JP2012002734A (ja) * | 2010-06-18 | 2012-01-05 | Kddi Corp | 位置検出装置、方法及びプログラム |
WO2012145819A1 (en) * | 2011-04-25 | 2012-11-01 | Magna International Inc. | Image processing method for detecting objects using relative motion |
WO2013071437A1 (en) * | 2011-11-15 | 2013-05-23 | Macdonald Dettwiler & Associates Inc. | Method of real-time tracking of moving/flexible surfaces |
KR101926563B1 (ko) * | 2012-01-18 | 2018-12-07 | 삼성전자주식회사 | 카메라 추적을 위한 방법 및 장치 |
CN103365063B (zh) * | 2012-03-31 | 2018-05-22 | 北京三星通信技术研究有限公司 | 三维图像拍摄方法和设备 |
JP5926645B2 (ja) * | 2012-08-03 | 2016-05-25 | クラリオン株式会社 | カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法 |
US9420275B2 (en) * | 2012-11-01 | 2016-08-16 | Hexagon Technology Center Gmbh | Visual positioning system that utilizes images of a working environment to determine position |
US9037396B2 (en) * | 2013-05-23 | 2015-05-19 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
-
2013
- 2013-10-01 US US15/024,687 patent/US20160238394A1/en not_active Abandoned
- 2013-10-01 JP JP2015540282A patent/JP6129981B2/ja active Active
- 2013-10-01 WO PCT/JP2013/076673 patent/WO2015049717A1/ja active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2020144860A1 (ja) * | 2019-01-11 | 2021-10-07 | 三菱電機株式会社 | 移動体管理装置および移動体システム |
JP7036232B2 (ja) | 2019-01-11 | 2022-03-15 | 三菱電機株式会社 | 移動体管理装置および移動体システム |
Also Published As
Publication number | Publication date |
---|---|
WO2015049717A1 (ja) | 2015-04-09 |
US20160238394A1 (en) | 2016-08-18 |
JPWO2015049717A1 (ja) | 2017-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6129981B2 (ja) | 移動体位置推定装置および移動体位置推定方法 | |
CN108171733B (zh) | 使两个或更多个三维3d点云配准的方法 | |
CN109360245B (zh) | 无人驾驶车辆多相机系统的外参数标定方法 | |
US8428344B2 (en) | System and method for providing mobile range sensing | |
WO2021046716A1 (zh) | 目标对象的检测方法、系统、设备及存储介质 | |
JP5804185B2 (ja) | 移動物体位置姿勢推定装置及び移動物体位置姿勢推定方法 | |
JP4363295B2 (ja) | ステレオ画像による平面推定方法 | |
JP4132068B2 (ja) | 画像処理装置及び三次元計測装置並びに画像処理装置用プログラム | |
KR101880185B1 (ko) | 이동체 포즈 추정을 위한 전자 장치 및 그의 이동체 포즈 추정 방법 | |
JP6932058B2 (ja) | 移動体の位置推定装置及び位置推定方法 | |
CN111161337A (zh) | 一种动态环境下的陪护机器人同步定位与构图方法 | |
WO2018159398A1 (ja) | 移動体の位置推定装置及び方法 | |
Ruotsalainen et al. | Heading change detection for indoor navigation with a smartphone camera | |
JP6858681B2 (ja) | 距離推定装置及び方法 | |
JP5086824B2 (ja) | 追尾装置及び追尾方法 | |
JP6410231B2 (ja) | 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム | |
JP2018173882A (ja) | 情報処理装置、方法、及びプログラム | |
JP2881193B1 (ja) | 3次元物体認識装置および方法 | |
JP2003329448A (ja) | 現場の3次元情報生成システム | |
WO2020230410A1 (ja) | 移動体 | |
JPWO2019087581A1 (ja) | 情報処理装置と情報処理方法およびプログラム | |
JP2018116147A (ja) | 地図作成装置、地図作成方法及び地図作成用コンピュータプログラム | |
JP2004020398A (ja) | 空間情報獲得方法、空間情報獲得装置、空間情報獲得プログラム、及びそれを記録した記録媒体 | |
CN113011212A (zh) | 图像识别方法、装置及车辆 | |
JP2008097444A (ja) | 画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6129981 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |