JP6411917B2 - 自己位置推定装置および移動体 - Google Patents

自己位置推定装置および移動体 Download PDF

Info

Publication number
JP6411917B2
JP6411917B2 JP2015037623A JP2015037623A JP6411917B2 JP 6411917 B2 JP6411917 B2 JP 6411917B2 JP 2015037623 A JP2015037623 A JP 2015037623A JP 2015037623 A JP2015037623 A JP 2015037623A JP 6411917 B2 JP6411917 B2 JP 6411917B2
Authority
JP
Japan
Prior art keywords
self
image
position estimation
moving body
current image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015037623A
Other languages
English (en)
Other versions
JP2016162013A (ja
Inventor
太紀 飯村
太紀 飯村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2015037623A priority Critical patent/JP6411917B2/ja
Priority to US15/052,166 priority patent/US9881379B2/en
Publication of JP2016162013A publication Critical patent/JP2016162013A/ja
Application granted granted Critical
Publication of JP6411917B2 publication Critical patent/JP6411917B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Description

本発明は、カメラを搭載した移動体が自己位置推定するときの、自己位置推定技術に関する。
従来から、ロボットや自動車などの移動体にロータリエンコーダやジャイロセンサなどの内界センサ、カメラやレーザ距離センサなどの外界センサを搭載し、それらのセンサから取得した情報をもとに、移動体の自己位置を推定する装置が種々提案されている。ロータリエンコーダやジャイロセンサなどの内界センサで取得した移動体の移動量の積算により基準点からの相対的な自己位置を推定する手法はデットレコニングといい、計算処理が低負荷でありリアルタイム性に優れるが、移動量に応じて位置誤差が蓄積する。一方、カメラやレーザレンジファインダなどの外界センサを用い、自己位置の目印となる周囲走行環境の特徴を検出し、地図参照(マップマッチング)により把握した前記特徴の絶対位置をもとに自己位置を推定する手法があり、位置精度を向上するが、計算処理が高負荷である。このように、デットレコニングを用いた手法とマップマッチングを用いた手法は各々精度と処理負荷のトレードオフとなっており、高精度かつ低処理負荷な自己位置推定を実現するため、デットレコニングとマップマッチングを時系列で複合的に利用し、さらに屋外ではGPS(Global Positioning System)に代表される衛星測位も複合的に利用する装置も種々提案されている。
例えば、下記特許文献1(特開2008−165275)では、位置が変動しないランドマークの地図を用意し、カメラやレーザ距離センサなどの外界センサによりランドマーク候補を検出する。また、ランドマーク候補と地図を毎回照合するのは高処理負荷であるため、前回に地図と照合した前ランドマーク候補と現ランドマーク候補とを対応付けることにより、現ランドマーク候と地図とを直接照合する数を減らしている。
例えば、下記特許文献2(特開2004−5593)では、自己位置推定用の環境情報を取得し、取得した環境情報と地図情報に含まれる環境情報とを照合し、照合結果にもとづいて自己位置推定値の修正を行う。環境情報と地図情報に含まれる環境情報との照合に際し、自己位置推定値にもとづいて、予め設定されている所定範囲内で地図との照合を行い、この照合で自己位置の修正情報を得られない時は、前記所定範囲を広げて再度地図との照合を行うことで、自己位置の見失いを回避している。
特開2008−165275号公報 特開2004−5593号公報
以上のように、自己位置を推定する手法として、内界センサを利用したデットレコニングや、外界センサによるマップマッチングを利用した手法、GPSなどの衛星測位がある。さらに、特許文献1のように、これらの自己位置推定手法を時系列で複合的に利用することにより、自己位置推定を精度よく、かつ低処理負荷で実施することができる。
しかし、デットレコニングやマップマッチングを利用した手法や衛星測位は、いずれも自己位置推定の確度を保障するものではないため、これらの自己位置推定手法を複合的に利用しても、自己位置推定の確度は向上しない。そのため、しばしば推定自己位置の誤差増大による自己位置の見失いが起きる。すなわち特許文献1に代表されるような、デットレコニングとマップマッチングを時系列で複合的に利用する従来装置の場合、過去の自己位置の推定誤差が現在の自己位置推定結果に反映されるため、移動量が増大するほどマップマッチングの確度が低下し、やがて自己位置を見失うことがある。また、屋外ではGPSなどの衛星測位が利用可能であるが、衛星測位は天候や時間帯により精度劣化や測位信号を受信できず測位できないことがあるため、自己位置を見失ったときの代替手段となりにくい。
これに対して特許文献2は、自己位置の見失いを回避するため、マップマッチングに成功するまで地図の走査範囲を徐々に広げている。しかし、マップマッチングの際の地図の捜査範囲を広げるほど、地図の照合対象が増加するため、照合対象が明示的なマーカでない限りマップマッチングの確度は向上せず、よって、自己位置推定の確度は向上しない。
このように、明示的なマーカが存在しない任意の走行環境において、天候や時間帯により精度が容易に変動する衛星測位に頼らずに、自己位置推定の確度を向上することが課題となっている。
本発明は、カメラを搭載する移動体において、処理負荷の増加を抑えつつ自己位置を見失った状態から回復し、自己位置推定の確度を向上できる自己位置推定装置等を提供することを目的とする。
上記課題を解決するために、代表的な本発明の自己位置推定装置等の1つは、複数の参照用画像と、前記複数の参照用画像それぞれの撮像位置とを対応して記憶する記憶部と、移動体に備えるセンサから得られた情報に基づき、周期的に前記移動体の自己位置を推定する演算部と、を備え、前記演算部は、自己位置の推定に失敗すると、当該失敗以前に自己位置の推定に成功した最新自己位置から移動距離を、前記センサからの情報を用いて求め、前記最新自己位置から前記移動距離の範囲内に属する前記参照用画像を複数抽出し、抽出した複数の前記参照用画像から、前記移動体に備える撮像装置によって撮像された現在画像と類似する前記参照用画像を複数検索し、検索した複数の前記参照用画像に対応付けられた撮像位置の分布をもとに撮像位置の集合から外れた点を除去して、前記移動体の自己位置を推定するものである。
上記態様の自己位置推定装置等によれば、処理負荷の増加を抑えつつ自己位置を見失った状態から回復し、自己位置推定の確度を向上することができる。
実施例1の形態による移動体の構成を示すブロック図である。 実施例1の形態による自己位置推定装置のフローチャートである。 実施例1の形態による類似画像検索部のフローチャートである。 実施例1の形態による暫定自己位置推定部のフローチャートである。 実施例1の形態による自己位置推定装置の内容を示す図である。 実施例1の形態による自己位置推定装置の内容を示す図である。 実施例1の形態による自己位置推定装置の内容を示す図である。 実施例1の形態による自己位置推定装置の内容を示す図である。 実施例1の形態による自己位置推定装置の内容を示す図である。
以下、図面を用いて実施例を説明する。
本実施例では、自己位置推定する自動車やロボットなどの移動体において、カメラを搭載し、自己位置を見失ったとき、本発明の自己位置推定装置により、自己位置を見失った状態から回復する。
図1は、本実施例による移動体100の構成を示し、移動体100は、内外界センサ200と、本発明の自己位置推定装置で利用するカメラ201、さらに、CPU101と記憶装置102を搭載している。尚、図1ではCPU101が実行するプログラムとして通常自己位置推定部202と、自己位置推定部204を機能ブロック図として示している。
内外界センサ200は、デットレコニングを実施するためのロータリエンコーダやジャイロセンサや慣性計測装置(IMU:Inertial Measurement Unit)、マップマッチングを実施するためのレーザ距離センサやカメラやレーザレーダ、衛星測位のためのGPSセンサなど、後述の通常自己位置推定部202で実施する自己位置推定手法に必要となるセンサである。後述の通常自己位置推定部202がカメラ画像を用いた処理を実施する場合は、本発明で利用するカメラ201を内外界センサ200としても良い。
カメラ201は、走行環境を広く撮像するため、複数の標準カメラを搭載したり、広角カメラや超広角カメラを搭載したりするのが望ましい。さらに、夜間などの暗所を走行する場合は、赤外カメラを搭載するのが望ましい。また、複数の標準カメラを搭載する場合は、移動体の周囲を満遍なく撮像できるような位置に搭載するのが望ましい。広角カメラや超広角カメラを搭載する場合は、移動体の頂点に上向きに搭載するのが望ましい。さらに、搭載時はカメラの姿勢が動かないように固定するのが望ましいが、カメラの姿勢を常に把握するシステムを搭載している場合は、カメラの姿勢を固定しなくても良い。さらに、カメラ201で撮像する画像はカラー画像でもグレースケール画像でもよい。 通常自己位置推定部202は、内外界センサ200で取得した情報をもとに、自己位置を推定する。内界センサ200がロータリエンコーダやジャイロセンサ、または慣性計測装置である場合は、デットレコニングにより自己位置を推定する。内外界センサ200がレーザ距離センサやカメラやレーザレーダの場合は、内外界センサ200で検出した走行環境の特徴情報と地図205とを照合するマップマッチングを利用し、自己位置を推定する。通常自己位置推定部202により推定される自己位置の精度向上および処理負荷低減のため、様々な内外界センサ200を搭載し、前記デットレコニングとマップマッチング、さらに屋外の場合は、GPSなどの衛星測位を時系列で複合的に利用するのが望ましい。デットレコニングやマップマッチングを利用した手法や衛星測位の結果を時系列で複合的に利用する手法として、例えば、拡張カルマンフィルタやパーティクルフィルタがあるが、それ以外の手法を用いても良い。
条件分岐203では、通常自己位置推定部202で自己位置推定に成功した場合、通常自己位置推定部202で推定した自己位置を最新自己位置206として記憶装置102に記憶させ、通常自己位置推定部202に移動する。通所自己位置推定部202で自己位置推定に失敗した場合、本発明の自己位置推定部204に移動する。
自己位置推定部204は、通常自己位置推定部202で自己位置推定に失敗し、自己位置を見失ったとき、自己位置を見失った状態から回復するために参照する自己位置推定回復用DB207と、地図205と、通常自己位置推定部202で自己位置推定に成功した最新自己位置206をもとに、自己位置を推定し、その結果を通常自己位置推定部202に返す。自己位置推定部204の処理の詳細は後述する。
地図205は、過去に撮像した走行環境の画像(参照用画像)と、前記参照用画像の撮像位置姿勢の情報を含んでいる。前記参照用画像を撮像するカメラは、移動体100に搭載したカメラ201が標準カメラであれば標準カメラが望ましく、カメラ201が広角カメラであれば広角カメラが望ましく、超広角カメラであれば超広角カメラが望ましい。また、カメラ201と地図205の参照用画像を撮像するカメラの解像度に違いがあっても良い。すなわち、地図205には、複数の参照用画像と、それぞれの参照用画像の撮像位置が対応させて記憶されており、カメラで撮像した画像と参照用画像を照合して、類似するものを検索することで移動体の自己位置を推定することができる。
図2は、図1の自己位置推定部204のフローチャートを示している。図3は、図2の類似画像検索部S102の詳細を示している。図4は、図2の暫定自己位置推定部S104の詳細を示している。図5、図6、図7、図8および図9は、本発明の自己位置推定部204の処理内容を示している。
撮像部S100は、通常自己位置推定部202で最新自己位置206(図5のD100)を更新できなくなり、自己位置を見失った地点(図5のD101)において、移動体100に搭載したカメラ201で走行環境を撮像し、撮像した前記画像を現在画像208として記憶装置102に記憶させる。
デットレコニング部S101は、最新自己位置206(図5のD100)からの移動体100の移動量(図5のD103)を算出し、移動距離209を記憶装置102に記憶させる。デットレコニングには、移動体100の車輪の回転数を取得するロータリエンコーダを利用したホイールオドメトリや、移動体100の移動加速度や角加速度を取得するジャイロセンサや慣性計測装置を利用した慣性航法装置(INS:Inertial Navigation System)、さらに、カメラで走行環境を継続的に撮像し、撮像した画像の変化分から移動体100の移動量を算出するビジュアルオドメトリなどがあり、それぞれの手法を複合的に利用しても良く、どれか1つの手法のみ利用してもよい。ホイールオドメトリを利用する場合、車輪の回転数から即座に移動量が算出できるため低処理負荷でありリアルタイム処理に向いているが、路面が未舗装または起伏が大きい環境では、車輪のスリップや車輪径の変動の影響を受けやすいため、精度は低い。慣性航法装置を利用する場合、路面の舗装状態やその他の環境外乱の影響を受けにくい、ホイールオドメトリより精度は高いが、移動体100がサスペンションを搭載している場合は、坂道などで移動体が揺れると、移動体100の3方向姿勢の角加速度が変化するため、精度は悪化する。また、慣性航法装置はホイールオドメトリに比べ、高処理負荷である。ビジュアルオドメトリを利用する場合、路面の舗装状態の影響を受けにくいが、視野の開けた環境ではカメラを路面に向け、できるだけ多くの特徴点を検出する必要がある。いずれの手法も移動量を積算するため、本発明の自己位置推定装置が開始した時点では移動距離209はゼロであるが、本発明の自己位置推定装置が終了するまで、移動距離209は積算され続ける。さらに、いずれの手法も基準地点からの相対的な並進移動量と回転量を算出する手法であるが、並進移動量が大きいほど、基準地点からの相対位置は回転量の誤差の影響を受けるため、デットレコニングにより算出した基準地点からの移動方向は移動距離よりも誤差が増大しやすい。
類似画像検索部S102は、デットレコニング部S101で算出した移動体100の移動距離209をもとに、移動体100の記憶装置に記憶された地図102の中から現在画像208の類似画像を検索する。
まず、図3のS300では、地図205(図5のD102)の中から現在画像208の類似画像を検索する領域(図6のD200)を設定する。類似画像の検索領域D200は、最新自己位置206(D100)を中心とし、移動距離209の2倍の値を半径とする領域とする。デットレコニング部S101で算出した移動量のうち、移動方向の情報を検索領域D200の設定に用いない理由は、先述のように、
次に、図3のS301では、地図205(D102)に記憶された撮像位置が既知の参照用画像D102のうち、前記検索領域D200に含まれる参照用画像D102を検索対象画像(図6のD201)とし、撮像部S100で撮像した現在画像208の類似画像(図6のD202)を前記検索対象画像D201から検索する。このとき、現在画像208と検索した類似画像D202との画像類似度M(i)(i=1、2、・・・)を算出する。類似画像検索の手法として、Bag of Keypoints(words)や特徴点マッチングなどがあるが、類似画像D202の前記画像類似度を定量化できる手法であれば、それ以外の手法でも良い。例えば、Bag of Keypoints(words)は予め地図に登録された参照用画像205群をもとに輝度値を数種の基底(ボキャブラリ)に分解し、画像検索時、現在画像208の各ボキャブラリの出現頻度(ヒストグラム)と検索対象画像D201の前記ヒストグラムの距離を算出することにより、画像類似度M(i)が得られる。このように画像類似度を算出することで、自己位置を推定するための情報が増えるため、より精確な自己位置推定を可能とする。
条件分岐S103では、類似画像検索部S102で類似画像が検索されなかった場合、撮像部S100に移動し、類似画像撮像部S102で類似画像が検索された場合、暫定自己位置推定部S104に移動する。このように、類似画像が検索されるまで繰り返し処理を行うため、より高確度な自己位置推定を可能とする。
暫定自己位置推定部S104は、類似画像D202の撮像位置の分布と類似画像D202の前記画像類似度M(i)をもとに、自己位置存在エリアを算出し、前記自己位置存在エリアを暫定自己位置210として記憶装置102に記憶させる。
まず、図4のS400では、類似画像検索部S102で検索された類似画像D202のうち、撮像位置が外れている不要類似画像(図7のD300)を取り除き、取り除かなかった類似画像を要類似画像(図7のD301)とし以降の処理で利用する。位置が集合から外れた点を抽出する手法として、K平均法などのデータクラスタリングや、独立成分分析などの成分分析法、スミノルフ・グラブス検定などの仮説検定があるが、どの手法を用いても良い。データクラスタリングの場合は、非常に高速であるためリアルタイム性に優れるが、初期値の設定によっては1つの集合が複数の集合に分割されることがあるため、クラスタの統合処理が必要である。成分分析の場合は、主成分分析であれば低処理負荷であるが直交性の拘束条件により正確な外れ値除去ができない可能性があり、独立成分分析であれば直交性の拘束条件がないため、より正確な外れ値除去が可能であるが、非線形最小化処理のため、値の収束に時間を要することがある。仮説検定は、データクラスタリングと同等の処理負荷であり、外れ値除去の確度が最も高いが、データ数が少ない場合は利用することができない。
次に、図4のS401では、類似画像検索部S102の処理S301で算出したそれぞれの要類似画像D301の周りに自己位置存在尤度(図8のD400)を設定する。前記存在尤度D400は、要類似画像D301を中心(図8のD401)とする半径R(i)(図8のD402)の円として設定する。ここで、画像類似度M(i)(i=1、2、3・・・)の逆数1/M(i)を前記半径R(i)とする。
図4のS402では、それぞれの要類似画像D301の周辺に設定した前記自己位置存在尤度D400を融合し、自己位置の平均と分散共分散行列で表される誤差楕円(図9のD500)を算出し、前記平均(図9のD501)を自己位置の最良推定値(μx、μy)とする。前記最良推定値は、要類似画像D301の座標(x(i)、y(i))と前記画像類似度M(i)を用いて、μx=(Σx(i)(i))/(Σ(i))、μy=(Σy(i)(i))/(Σ(i))で算出する。つまり、(i)/(Σ(i))を重みとする重み付き平均が前記最良推定値となる。よって、前記分散共分散行列は、要類似画像D301の座標(x(i)、y(i))に(i)/(Σ(i))の重みを付けたときの分散を対角成分に、共分散を非対角成分にもつ。前記誤差楕円D500は、まず信頼区間χ2を設定し、前記分散共分散行列の2つの固有ベクトルを軸とし、それぞれの固有値と前記信頼区間χ2の積の2乗根をとった値を、長軸および短軸の長さとして算出する。前記誤差楕円における中心(μx、μy)が暫定自己位置210の最良推定値であり、前記誤差楕円で表されるエリアが暫定自己位置210の存在エリアとなる。このように画像類似度の逆数を撮像位置に重み付けし、重み付けした撮像位置の平均と分散共分散行列を算出することで、自己位置の存在エリアを確定することができる。これによって、確率過程を考慮した自己位置推定システムに組み込むことが可能となり、また、従来の自己位置推定システムのような非線形最適化を一切実施しないため、低処理負荷で自己位置推定が可能となる。
以上のような構成により、本発明の自己位置推定装置および移動体は、最新自己位置を中心に地図参照エリアを設定し、前記エリア内で現在の画像の類似画像を地図中の画像から検索し、その分布をもとに自己位置を推定することで、任意の走行環境において、自己位置推定の確度を向上し、処理負荷を低減できる。そのため、自己位置を見失うことが多い自己位置推定装置に組み込むことで、自己位置を見失った状態から回復できる。
すなわち、本実施例に記載の自己位置推定装置は、カメラを搭載し、撮像位置が既知の参照用画像を地図として持つ移動体が自己位置推定するための自己位置推定装置であって、自己位置推定装置は、現在の走行環境の画像(現在画像)を前記カメラで撮像する撮像部と、最後に推定した最新自己位置からの移動距離を算出するデットレコニング部と、前記最新自己位置を中心とし、前記移動距離を半径とするエリアにある参照用画像を地図から取り出し、前記の現在画像の類似画像を前記参照用画像から検索する類似画像検索部と、前記類似画像の撮像位置の分布をもとに自己位置を推定する暫定自己位置推定部と、を有することを特徴とする。これによって、従来の自己位置推定の確度を向上できる。また、高精度ゆえに自己位置を見失いやすい自己位置推定システムに組み込むことで、自己位置を見失っても、その状態から回復することができる。
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
100 移動体
201 カメラ
202 通常自己位置推定部
204 自己位置推定装置
205 地図
206 最新自己位置

Claims (5)

  1. 複数の参照用画像と、前記複数の参照用画像それぞれの撮像位置とを対応して記憶する記憶部と、
    移動体に備えるセンサから得られた情報に基づき、周期的に前記移動体の自己位置を推定する演算部と、を備え、
    前記演算部は、
    自己位置の推定に失敗すると、当該失敗以前に自己位置の推定に成功した最新自己位置から移動距離を、前記センサからの情報を用いて求め、
    前記最新自己位置から前記移動距離の範囲内に属する前記参照用画像を複数抽出し、抽出した複数の前記参照用画像から、前記移動体に備える撮像装置によって撮像された現在画像と類似する前記参照用画像を複数検索し、検索した複数の前記参照用画像に対応付けられた撮像位置の分布をもとに撮像位置の集合から外れた点を除去して、前記移動体の自己位置を推定する
    自己位置推定装置。
  2. 請求項において、
    前記演算部は、前記現在画像と類似する前記参照用画像を検索する際、前記現在画像と前記参照用画像の画像類似度を算出する
    自己位置推定装置。
  3. 請求項において、
    前記演算部は、算出した前記画像類似度を前記参照用画像の撮像位置に重み付けし、重み付けした撮像位置の平均と分散共分散行列を算出して自己位置を推定する
    自己位置推定装置。
  4. 請求項1において、
    前記演算部は、前記現在画像と類似する前記参照用画像が検索されなかったとき、前記撮像装置で再度撮像した、前記現在画像とは異なる現在画像を用いて自己位置推定を行う
    自己位置推定装置。
  5. 請求項1の自己位置推定装置を備えた移動体。
JP2015037623A 2015-02-27 2015-02-27 自己位置推定装置および移動体 Active JP6411917B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015037623A JP6411917B2 (ja) 2015-02-27 2015-02-27 自己位置推定装置および移動体
US15/052,166 US9881379B2 (en) 2015-02-27 2016-02-24 Self-localization device and movable body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015037623A JP6411917B2 (ja) 2015-02-27 2015-02-27 自己位置推定装置および移動体

Publications (2)

Publication Number Publication Date
JP2016162013A JP2016162013A (ja) 2016-09-05
JP6411917B2 true JP6411917B2 (ja) 2018-10-24

Family

ID=56799033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015037623A Active JP6411917B2 (ja) 2015-02-27 2015-02-27 自己位置推定装置および移動体

Country Status (2)

Country Link
US (1) US9881379B2 (ja)
JP (1) JP6411917B2 (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019531560A (ja) 2016-07-05 2019-10-31 ナウト, インコーポレイテッドNauto, Inc. 自動運転者識別システムおよび方法
EP3497405B1 (en) * 2016-08-09 2022-06-15 Nauto, Inc. System and method for precision localization and mapping
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
US10246014B2 (en) 2016-11-07 2019-04-02 Nauto, Inc. System and method for driver distraction determination
US10444347B2 (en) * 2016-11-30 2019-10-15 GM Global Technology Operations LLC Accurate self localization using automotive radar synthetic aperture radar
JP6969131B2 (ja) * 2017-03-27 2021-11-24 株式会社Ihi 移動体の移動予測方法および移動予測システム
US20180276842A1 (en) * 2017-03-27 2018-09-27 Blackberry Limited System and method for image based confirmation
KR20180121244A (ko) * 2017-04-28 2018-11-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2018229550A1 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for adverse vehicle event determination
JP7353747B2 (ja) * 2018-01-12 2023-10-02 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム
US11392131B2 (en) 2018-02-27 2022-07-19 Nauto, Inc. Method for determining driving policy
JP7016276B2 (ja) * 2018-03-05 2022-02-04 株式会社日立製作所 列車位置推定装置
CN110567468A (zh) * 2018-06-06 2019-12-13 百度在线网络技术(北京)有限公司 道路轨迹获取方法、设备及存储介质
CN108897830B (zh) * 2018-06-22 2022-04-29 北京邮电大学 一种定位方法及装置
CN109074408B (zh) * 2018-07-16 2022-04-08 达闼机器人有限公司 一种地图加载的方法、装置、电子设备和可读存储介质
EP3824365B1 (en) 2018-07-17 2023-06-28 Crown Equipment Corporation System for vehicle position calibration using rack leg identification
JP7302966B2 (ja) * 2018-12-12 2023-07-04 株式会社日立製作所 移動体
MX2021009136A (es) 2019-02-06 2021-12-10 Crown Equip Corp Sistemas y metodos para la localizacion fuera del pasillo y calibracion de posicion de vehiculo mediante la identificacion de pata de rejilla.
KR102243179B1 (ko) 2019-03-27 2021-04-21 엘지전자 주식회사 이동 로봇 및 그 제어방법
JP7146686B2 (ja) * 2019-03-29 2022-10-04 株式会社日立製作所 列車制御システム及び当該システムを搭載した鉄道車両
JP7227879B2 (ja) * 2019-09-02 2023-02-22 株式会社日立製作所 周辺観測システム、周辺観測プログラムおよび周辺観測方法
JP7273696B2 (ja) 2019-11-15 2023-05-15 株式会社東芝 位置推定装置及びシステム
JP2021081850A (ja) * 2019-11-15 2021-05-27 株式会社東芝 位置推定装置、位置推定方法およびプログラム
CN112101378A (zh) * 2020-08-20 2020-12-18 上海姜歌机器人有限公司 机器人重定位方法、装置及设备
KR102225093B1 (ko) * 2020-09-01 2021-03-09 주식회사 맥스트 카메라 포즈 추정 장치 및 방법
JP7382915B2 (ja) * 2020-09-28 2023-11-17 株式会社日立製作所 自走式点検ロボット
CN112991443B (zh) * 2021-01-13 2022-09-27 哈尔滨工业大学(深圳) 基于视觉编码器融合的悬挂负载状态估计器及估计方法
US20230359224A1 (en) * 2021-02-22 2023-11-09 Sony Group Corporation Moving body, information processing method, and program
GB202117123D0 (en) * 2021-11-26 2022-01-12 Ocado Innovation Ltd Detecting a transport device in a workspace

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4175165B2 (ja) 2002-04-17 2008-11-05 松下電工株式会社 自律移動装置
JP4369439B2 (ja) * 2006-03-17 2009-11-18 富士通株式会社 ロボット位置制御装置およびロボット自己位置回復方法
JP2007316966A (ja) * 2006-05-26 2007-12-06 Fujitsu Ltd 移動ロボット、その制御方法及びプログラム
JP2008165275A (ja) 2006-12-27 2008-07-17 Yaskawa Electric Corp 自己位置同定装置を備えた移動体
JP4788722B2 (ja) * 2008-02-26 2011-10-05 トヨタ自動車株式会社 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
WO2012086029A1 (ja) * 2010-12-22 2012-06-28 株式会社日立製作所 自律移動システム
DE102012201870A1 (de) * 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
KR20160002178A (ko) * 2014-06-30 2016-01-07 현대자동차주식회사 자차 위치 인식 장치 및 방법

Also Published As

Publication number Publication date
US9881379B2 (en) 2018-01-30
US20160253806A1 (en) 2016-09-01
JP2016162013A (ja) 2016-09-05

Similar Documents

Publication Publication Date Title
JP6411917B2 (ja) 自己位置推定装置および移動体
KR101572851B1 (ko) 동적 환경에서 모바일 플랫폼의 지도 작성방법
JP6760114B2 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
US11525682B2 (en) Host vehicle position estimation device
US9025825B2 (en) System and method for visual motion based object segmentation and tracking
CN108426576B (zh) 基于标识点视觉导航与sins的飞行器路径规划方法及系统
JP6343670B2 (ja) 自律移動装置及び自己位置推定方法
WO2020048623A1 (en) Estimation of a pose of a robot
KR102627453B1 (ko) 위치 추정 장치 및 방법
KR102226846B1 (ko) Imu 센서와 카메라를 이용한 하이브리드 실내 측위 시스템
EP2175237B1 (en) System and methods for image-based navigation using line features matching
JP5286653B2 (ja) 静止物地図生成装置
CN113544758B (zh) 车辆控制装置
US11615711B2 (en) Precision localization and geofencing governance system and method for light electric vehicles
CN111595344B (zh) 一种基于地图信息辅助的多姿态下行人行位推算方法
CN116097128A (zh) 用于对车辆位置进行确定的方法和设备
Venable et al. Large scale image aided navigation
CN114842224A (zh) 一种基于地理底图的单目无人机绝对视觉匹配定位方案
JP2018128386A (ja) 位置推定装置
Kang et al. A Visual SLAM Algorithm Based on Dynamic Feature Point Filtering
Chathuranga et al. Aerial image matching based relative localization of a uav in urban environments
Li et al. Indoor Localization for an Autonomous Model Car: A Marker-Based Multi-Sensor Fusion Framework
Kim et al. Loosely-coupled vision/INS integrated navigation system
KR102370826B1 (ko) 보행자 측위 제어장치 및 보행자 측위 제어방법
CN114660641B (zh) 一种自适应gps融合定位系统、方法及介质

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170111

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180927

R150 Certificate of patent or registration of utility model

Ref document number: 6411917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150