JP4996745B2 - 平行投影モデルを利用した自己位置認識方法 - Google Patents

平行投影モデルを利用した自己位置認識方法 Download PDF

Info

Publication number
JP4996745B2
JP4996745B2 JP2010524765A JP2010524765A JP4996745B2 JP 4996745 B2 JP4996745 B2 JP 4996745B2 JP 2010524765 A JP2010524765 A JP 2010524765A JP 2010524765 A JP2010524765 A JP 2010524765A JP 4996745 B2 JP4996745 B2 JP 4996745B2
Authority
JP
Japan
Prior art keywords
self
distance
orientation
plane
reference object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010524765A
Other languages
English (en)
Other versions
JP2010539581A (ja
Inventor
ユンヨン ナム
ヨンテ キョン
スンハン ジョ
サンジン ホン
イトク ジョ
Original Assignee
アジョン ユニバーシティ インダストリー コーポレーション ファウンデーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アジョン ユニバーシティ インダストリー コーポレーション ファウンデーション filed Critical アジョン ユニバーシティ インダストリー コーポレーション ファウンデーション
Publication of JP2010539581A publication Critical patent/JP2010539581A/ja
Application granted granted Critical
Publication of JP4996745B2 publication Critical patent/JP4996745B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Description

本発明は、自己位置認識に係り、特に、ナビゲーションアプリケーションで、モバイルセンサー用の平行投影モデル(parallel projection model)を用いて自己位置を認識する方法に関する。
一般的に、自己位置認識可視情報は、光度測定法(photometry)と関連がある。自己位置認識の通常のプロセスは、2つのプロセスを含む。最初のプロセスは、イメージから特徴を抽出することであり、二番目のプロセスは、位置認識のために、これら抽出された情報を利用することである。客体上に位置された知られた特徴ポイントの2次元イメージに基づいてカメラと関連した客体の3次元位置と方位とを決定する一般的な方法が非特許文献1に開示されている。見える客体の4一致(four correspondence of scene objects)に対するn−ポイント遠近法(PnP:perspective n−point)の問題が非特許文献2で扱われた。
自己位置認識は、ロボットナビゲーションのためのアルゴリズムへの適用に焦点が合わせられて発展して来た。ロボットが、一つのイメージ内で単一ランドマークビューを有するその絶対位置を決定させる可視位置認識のための簡単な方法が非特許文献3に開示されている。このアルゴリズムでイメージ平面は、光軸と垂直であり、焦点距離と呼ばれる距離fで光軸と整列される。ランドマークモデルをトラッキングするために、傾度降下(gradient descent)を用いてLucas−Kanade光学フローアルゴリズム(Lucas−Kanade optical flow algorithm)が適用される。このアルゴリズムは、室内環境で高信頼性のリアルタイム性能を有する。しかし、このアプローチ方法は、ピンホール(pinhole)カメラモデルでは、単に一つの一致(correspondence)のみ成立される限界がある。
前方から獲得されたイメージとナビゲーションする間に獲得されたイメージとを比較する方法に基づく他の位置認識アルゴリズムが非特許文献4に開示されている。この方法では、イメージの形状と座標とが速い検索と比較とに効果的なフォーマットでメモリに保存される。このアルゴリズムは、ランドマークの形状に制限があり、開かれた領域では適しない。平面ランドマークが、室内環境でモバイルロボットの可視位置認識に使われる類似した方法が非特許文献5に開示されている。
非特許文献6では、客体認識アプリケーションでイメージ特徴生成のために開発されたサイズ不変特徴変換(SIFT:scale invariant feature transform)が、ロボット位置認識のために使われる。SIFTの変わらない特徴は、3つのイメージによって獲得され、ステレオ整合されて、以後ロボットと関係した3次元の世界座標の計算に使われるランドマークを選択する。このアルゴリズムは、高度な計算力を必要とする3台のカメラを使う。
図1は、座標が、モバイルセンサーに既知の多重基準客体を有するモバイルセンサーの自己位置認識の問題点を説明するための図である。本明細書で、‘モバイルセンサー’は、可視センサー(visual sensor)を有するモバイルロボットと定義される。モバイルセンサーは、基準客体を識別することができ、その座標は(例えば、データベースに保存されて)知られたと仮定する。本明細書では、各客体を認識する方法については考慮せず、自己位置認識の問題のみを議論する。モバイルセンサーは、自らナビゲーションし、可視イメージは、周期的に獲得される。この獲得されたイメージデータに基づいて、自己位置認識は、モバイルセンサーの座標と位置いずれもを決定することを含む。
本明細書では、原点は任意に選択されるが、基準ポイントの座標とモバイルセンサーを表わすのに使われるグローバル座標システムとが利用される。その目的は、モバイルセンサーの位置を決定するために投影された(projected)基準ポイントを使うことである。本明細書では、提案される方法の2つの側面に焦点が合わせられる。最初の側面は、自己位置認識の正確度を維持することであり、二番目の側面は、計算効率を維持することである。
本発明の方法は、通常のデジタルイメージ装置によって獲得されたイメージデータを利用するために、複数種のエラーソースが発生することがある。提案されるアプローチ方法は、基準客体の投影イメージであるピクセルの領域から選択されるポイントに依存するために、客体イメージの領域から一つのポイントを選択するイメージプロセッシングからの固有のエラーが発生することがある。このようなエラーは、モバイルセンサーから基準客体までの距離、基準客体の間の距離などのような多くの要因によって変わるりうる。。また、基準ポイントまでの距離が知られていない場合、イメージ装置のレンズの非線形性によって投影されたポイントの遷移(shifting)が発生することもある。また、補償がなされない場合、このような遷移は、自己位置認識の忠実度に影響を及ぼす。
モバイルセンサーは、その位置と方位とが連続的に変わるために、これにより、基準ポイントも変わりうる。使うことができる基準ポイントを効率的に使うことによって、自己位置認識方法は計算において、効率的ではなければならない。本明細書で後述されるように、基準ポイントを選択することは、自己位置認識のエラーに影響を及ぼす。三つ以上の基準ポイントが同時にモバイルセンサーの可視領域内にある場合、モバイルセンサーは、このようなエラーを最小化する方式で基準客体を自在に選択することができる。
したがって、多重基準客体は、それぞれのモバイルセンサーの自己位置認識を利用できるように、戦略的に分散されなければならず、基準ポイントの位置の間の関係を用いて、計算において、効率的でありながらも、反復的なアルゴリズムが提案される必要がある。
前記技術的課題を解決するための本発明の実施形態による自己位置認識方法は、少なくとも2つの基準客体の映像を獲得して、映像獲得機器の自己位置を認識し、イメージ平面、少なくとも2つの基準客体平面、及び前記イメージ平面と前記基準客体平面との間に位置する少なくとも2つの仮想可視平面を設定する段階と、前記基準客体を対応する前記仮想可視平面に投影する段階と、前記映像獲得機器の視野軸と前記基準客体との距離と、前記視野軸と前記基準客体に対応する前記イメージ平面上のイメージとの距離を計算する段階と、前記映像獲得機器の方位とズームファクター、及び前記基準客体の座標を用いて、前記自己位置を認識する段階と、を含む。この際、前記ズームファクターは、前記基準客体平面の長さと、前記基準客体平面と仮想可視平面との距離の比であり、前記イメージ平面、前記仮想可視平面、及び前記基準客体平面は、前記視野軸に垂直である。
好ましくは、本発明の実施形態による自己位置認識方法は、補正テーブルを用いて、前記自己位置を補償する段階をさらに含むことができ、この際、前記自己位置を補償する段階は、無限距離に対応するズームファクターを用いて、前記自己位置と前記方位とを推定する段階と、前記推定された自己位置と方位とによって、前記基準客体平面と、対応する仮想可視平面との距離を計算する段階と、前記補正テーブルから選択される距離を利用したズームファクターを用いて、前記自己位置と前記方位とを再計算する段階と、を含む。
前記技術的課題を果たすための本発明の他の実施形態による自己位置認識方法は、少なくとも3つの基準客体の映像を獲得して、映像獲得機器の自己位置を認識し、イメージ平面、少なくとも3つの基準客体平面、及び前記イメージ平面と前記基準客体平面との間に位置する少なくとも3つの仮想可視平面を設定する段階と、前記基準客体を対応する前記仮想可視平面に投影する段階と、前記映像獲得機器の視野軸と前記基準客体との距離と、前記視野軸と前記基準客体に対応する前記イメージ平面上のイメージとの距離を計算する段階と、2対の基準ポイントを用いて、エラー距離が最小化されるように初期方位を選択し、前記初期方位と前記エラー距離とを用いて、前記映像獲得機器の方位を反復的に計算する方式で、前記映像獲得装置の方位を計算する段階と、前記方位とズームファクター、及び前記基準客体の座標を用いて、前記自己位置を認識する段階と、を含む。この際、前記ズームファクターは、前記基準客体平面の長さと、前記基準客体平面と仮想可視平面との距離の比であり、前記イメージ平面、前記仮想可視平面、及び前記基準客体平面は、前記視野軸に垂直である。
好ましくは、前記映像獲得機器の方位を計算する段階は、前記2対の基準ポイントを用いて、前記エラー距離が最小になる方位を初期方位に選択する段階と、前記初期方位に対応するエラー距離と、前記初期方位より90°大きな方位に対応するエラー距離のうち、より小さなエラー距離を初期エラー距離に選択する段階と、前記初期方位から微小方位を減算して、近接方位を計算し、前記近接方位に対応する近接エラー距離を計算し、前記初期エラー距離と前記近接方位に対応するエラー距離との差と前記微小方位との比を用いて、前記初期方位に対応する位置での傾斜を計算する段階と、前記傾斜が正数であれば、反復の方向を負の方向に、前記近接エラー距離を現在エラー距離に設定し、前記傾斜が正数でなければ、前記反復の方向を正の方向に設定する段階(1)と、前記傾斜の絶対値を初期傾斜に、前記現在エラー距離と現在傾斜との比を次の微小方位に、反復の方向と微小方位との積を現在方位に加算した値を次の方位に、そして、現在方位に対応するエラー距離を新たな現在エラー距離に設定する段階(2)と、前記微小方位が所定の臨界方位以下になるまで前記設定する段階(2)を反復し、現在エラー距離と、現在エラー距離と以前エラー距離との和との比と、現在微小方位の積を次の方位として反復的に計算する段階と、前記微小方位が所定の臨界方位以下である場合、前記反復的に計算された前記次の方位を前記映像獲得機器の方位に決定する段階と、を含む。
さらに好ましくは、本発明の他の実施形態による自己位置認識方法は、補正テーブルを用いて、前記自己位置を補償する段階をさらに含むことができ、この際、前記自己位置を補償する段階は、無限距離に対応するズームファクターを用いて、前記自己位置と前記方位とを推定する段階と、前記推定された自己位置と方位とによって、前記基準客体平面と、対応する仮想可視平面との距離を計算する段階と、前記補正テーブルから選択される距離を利用したズームファクターを用いて、前記自己位置と前記方位とを再計算する段階と、を含む。
本発明の実施形態による自己位置認識方法は、単一の映像獲得装置によって獲得される単一映像を用いて自己位置を認識することができるので、位置認識のための構成を簡素化し、コストを節減することができる。
また、本発明の実施形態による自己位置認識方法は、簡単な計算を反復的に行って映像獲得装置の方位を計算するので、方位が分かるのに必要な計算量を大きく減らすことができる。
また、本発明の実施形態による自己位置認識方法は、映像獲得装置の非線形性による歪曲を補償するので、自己位置をさらに正確に認識することができる。
座標がモバイルセンサーに既知の多重基準客体を有するモバイルセンサーの自己位置認識の問題点を説明するための図である。 カメラで、可視センサー上に投影された実際イメージとの関係と平行投影モデルを説明するための図である。 仮想可視平面上でズーミング効果を説明するための図である。 仮想可視平面上でズーミング効果を説明するための図である。 他の客体平面上の、すなわち、他の距離で、2つの客体P1とP2とが実際イメージ平面上で一つのポイントとして見える場合を示す図である。 2つの基準ポイントを有する自己位置認識を説明するための図である。 方位エラーの関数としての距離エラー関数を説明するための図である。 反復アルゴリズムの収斂段階を説明するための図である。 反復の回数の関数としての反復アルゴリズムの収斂を説明するための図である。 方位エラーの関数としての変位エラーを説明するための図である。 方位エラーの関数としての変位エラーを説明するための図である。 レンズ歪曲によって惹起される実際のズーミングモデルを説明するための図である。 カメラからの距離の関数上にズーミング歪曲と多様な実際ズーミングファクターが利用されることを説明するための図である。 推定エラーに及ぼすレンズの非線形効果を説明するために使われたイメージである。 投影された測定エラーの関数としての方位エラーを説明するための図である。 投影された測定エラーの関数としての方位エラーを説明するための図である。 投影された測定エラーの関数としての変位エラーを説明するための図である。 投影された測定エラーの関数としての変位エラーを説明するための図である。 本発明の実施形態による自己位置認識方法を実験するための環境を説明するための図である。 方位が知られた場合、それぞれのモバイルセンサー位置での変位エラーを説明するための図であって、補償された座標と補償されていない座標のいぞれもが実際座標と比較される。 方位が知られた場合、それぞれのモバイルセンサー位置での変位エラーを説明するための図であって、補償された座標と補償されていない座標のいぞれもが実際座標と比較される。 他の測定エラーに対する変位エラーを説明するための図である。 他の測定エラーに対する変位エラーを説明するための図である。 他の測定エラーに対する変位エラーを説明するための図である。 他の方位エラーに対する変位エラーを説明するための図である。 方位が知られていない場合、それぞれのモバイルセンサー位置での変位エラーを説明するための図である。 方位が知られていない場合、それぞれのモバイルセンサー位置での変位エラーを説明するための図である。 方位が知られていない場合、他の測定エラーに対する変位エラーを説明するための図である。 方位が知られていない場合、他の測定エラーに対する変位エラーを説明するための図である。 測定エラーの関数としての変位エラーと対応する方位エラーとを説明するための図である。 測定エラーの関数としての変位エラーと対応する方位エラーとを説明するための図である。
以下、添付図面を参照して、本発明の望ましい実施形態を説明することによって、本発明を詳しく説明する。各図面に付された同じ参照符号は、同じ部材を表わす。
1.概要
本発明は、ナビゲーションアプリケーションで、モバイルセンサー用の平行投影モデル(parallel projection model)を用いて自己位置を認識する新たな技法に関するものである。
本発明の実施形態によるアルゴリズムは、可視(visual)イメージ上に投影された基準(projected references)を用いてモバイルセンサーの座標と方位とを測定する。本発明で提案される方法は、レンズ視野(view)歪曲の非線形性を考慮して、補正(calibration)テーブルを用いて歪曲を補償する。本発明で提案される方法は、計算しなければならない量が少ないながらも、非常に正確な反復過程を用いて座標と方位とを決定する。
本発明で提案される方法によって、座標と方位測定値での多様な誤差原因が識別され、アルゴリズムの静寂な感度分析とモバイルセンサーの動的な行動いずれもが表われる。このアルゴリズムは、モバイルロボットナビゲーションだけではなく、正確な自己位置認識が必要な位置制御アプリケーションに利用されうる。
自己位置認識は、モバイルロボット(または、モバイルセンサー)ナビゲーションアプリケーションにおいて、重要な動作である。一般的に、二つのアプローチが可能である。一つのアプローチ方法は、モバイルセンサーによって内部的な動きヒストリー(履歴)を維持する方法である。しかし、この方法では、ナビゲーションを行う間にエラーが蓄積されて、位置と方位とが正確にトラッキング(tracking)されない。
他のアプローチ方法は、周期的に外部の情報を利用する方法である。この方法では、位置認識のために範囲測定器(range finder)と音波探知機(sonar)とが使われるが、レーダーや音波探知機の電波が人々によってよく妨害を受けるので、センサーが容易に混同される動的な環境では、範囲測定器と音波探知機とは適しない。また、範囲測定器と音波探知機は、制限された動作範囲のために広い領域での位置認識には適しない。
また、音波探知機のような能動型センサーは、環境の変更を必要とするビーコンタイプランドマーク(beacon type landmarks)を必要とするので、特に、外の環境では実用的ではない。また、いくつかのモバイルセンサー間の干渉は、センサー位置の適切な認識を不可能にする。
これに対して、可視情報基盤の位置認識アプローチ方法(visual information based localization approach)は、環境の変化を要しない。可視情報基盤位置認識は、動的な環境でさらに効果的であり、信頼し得る方法である。可視基盤位置認識(visual based localization)は、人工的なランドマークまたは自然的なランドマークいずれもに基づくことができる。
ロボットの座標は、地域的(local)であり、位相的な(topological)情報に基づくが、またはグローバル基準システム(global reference system)に基づくこともできる。後者の場合、ランドマークまたは基準客体のグローバル座標は、ナビゲーションする時にモバイルロボットによって学習される。
本明細書では、通常のデジタルイメージ装置から獲得された単一可視イメージを用いて自己位置を認識する方法が提案される。ここで、ランドマークや基準客体は、通常のイメージプロセッシングによって信頼し得る程度に識別されて抽出されうる。いくつかの基準ポイント(points)は、平行投影モデルが、このようなポイントを解釈して一連の知られた地理的関係を形成することができる、ランドマークから誘導されうる。このような関係を用いて、モバイルセンサーの座標や方位が効果的に決定されうる。平行投影モデルは、計算の複雑さを簡単にし、光学レンズ歪曲に起因する非線形性を補償する。提案された方法は、座標と方位とを反復的に決定する。座標が知られるか、アイデンティティー(正体)が信頼し得る程度に識別可能である限り、この方法は、人工的であるか、または自然的な基準を用いて広い範囲で利用されうる。
2.可視イメージの特性化
A.平行投影モデルの基本概念
本セクションでは、平行投影モデル(parallel projection model)が紹介される。カメラ装置上に投影されたイメージに対するプロセスを簡素化するために、図2に示されたように、客体平面(object plane)、仮想可視平面(virtual viewable plane)、そして、実際カメラ平面(actual camera plane)の3つの平面が定義される。モバイルセンサーの可視平面にある客体Pは、客体平面と見なされる。
通常のカメラのモデルとは異なって、平行投影モデルで客体Pは、仮想可視平面上に平行に投影され、この投影されたポイントはpで表示される。仮想可視平面は、距離dを維持しながら、客体平面と平行である。Lは、客体平面の長さを表示し、これは、距離dでの可視領域の長さである。Lは、投影されたイメージの測定がなされる実際カメラ平面の長さを表示する。仮想可視平面と実際カメラ平面上に投影された客体との位置は、それぞれuppとuとで表示される。
平行投影モデルで、客体平面上に位置する実際客体は、仮想可視平面を通じて実際カメラ平面に投影される。したがって、式(1)で公式化されるように、uppは、仮想可視平面と実際カメラ平面との長さの比を用いてL、L、そして、uとして表示される。
式(1)
Figure 0004996745
一旦、Lとdとの比が知られれば、実際客体の位置は、uppとdとから得られる。この比は、イメージ装置の特性であるズームファクター(zoom factor)zと定義される。
式(2)
Figure 0004996745
図3及び図4は、仮想可視平面上でズーミング効果を説明するための図である。たとえ実際カメラ平面上のup1とup2との位置が異なるズームファクターz1がz2と異なっても、仮想可視平面上のupp1とupp2との位置は、同様に維持される。式(1)から、upp1はup1(Lc1=Ls)で表示され、upp2はup2(Lc2=Ls)で表示される。upp1とupp2との位置が同一であるので、up1は、up2(Lc2=Lc1)で表示されうる。また、式(2)から、z1=dp=Lc1であり、z1=dp=Lc1であるので、一つのズームファクターを有し、実際カメラ平面上に投影された客体は、他のズームファクターを有する位置で表示されうる。
式(3)
Figure 0004996745
図5は、他の客体平面上の、すなわち、他の距離で、二つの客体P1とP2とが実際イメージ平面上で一つのポイントで見える場合を示す図である。客体は、2つの他の仮想可視平面上でupp1とupp2とに投影されるが、実際カメラ平面上では、同一なポイントで合うと見なされる。式(1)から、upp1はup(Lc1=Ls)で表示され、upp2はup(Lc2=Ls)で表示される、この場合、次の条件が満足されなければならない。
式(4)
Figure 0004996745
ここでは、式(2)から、ズームファクターの定義、Lc1=d1=z、そして、Lc2=d2=zが使われた。
B.他の平面上の基準ポイントの関係
可視センサー(visual sensor)のパラメータである、zとLsとが与えられた時、仮想可視平面上に投影された基準ポイントと、各平面の原点(origin)までの距離を有する実際カメラ平面上の一ポイントとの間の関係が誘導されうる。各平面の原点は、平面と、平面の垂直ラインとの交差点と定義され、また、モバイルセンサーの位置を横切る視野軸(view axis)になる。特に、実際カメラ平面の原点は、回転(panning)の軸である。図6で、実際カメラ平面上の原点は、Ocで表示され、仮想可視平面の原点は、それぞれOv1とOv2とで表示される。たとえ平面が、可視センサーの回転によって回転しないとしても、各平面上位距離に基づいた関係は変化せずに維持される。p1とp2が、各仮想平面上の視野軸までの距離を表示する時、i1とi2は、実際イメージ平面上での対応する測定値を表わし、式(1)と式(2)とを用いて、次の式が誘導されうる。
式(5)
Figure 0004996745
ここで、z1とz2は、各基準ポイントに対する実際カメラ平面から客体平面までの距離D1とD2とに対応するモバイルセンサーのズームファクターである。Lsは、i1とi2とが測定されるイメージのサイズである。
実際に、イメージ装置上に投影されたポイントの位置は、エッジ検出及び/または特徴抽出のようなターゲット(target)客体に対するイメージプロセッシングから獲得されうる。したがって、イメージ装置上に投影されたポイントは、度々或る不確実性を含む。次のセクションでは、このような不確実性が自己位置認識アルゴリズムに如何に影響を及ぼすかについて詳しく論議される。
3.自己位置認識アルゴリズム
A.方位が知られた場合の自己位置認識
本セクションでは、2つの基準ポイントの座標が知られ、可視センサーの方位の角度が知られた場合、自己位置を認識する方法が説明される。以下の説明で、θは、カメラ平面とグローバル(global)x軸との角度と定義される。uは、カメラ平面方向の単位ベクトルと定義され、nは、可視センサーが合う方位である、視野軸方向による単位ベクトルと定義される。したがって、θは、x軸とuとの角度である。次の式を用いて、式(5)のp1、p2、D1、そして、D2値が得られる。以前のセクションで、i1とi2は、カメラ平面上の視野軸までの距離として説明したが、今後、i1とi2は、投影された基準ポイントが視野軸の左側にある場合、負の値を有するようになる。p1とp2とが視野軸の左側にある場合、p1とp2とが負の値を有させることによって、以前のセクションで説明された距離関係は変更されない。
p1とp2とに対しては、次の式のようになる。
式(6)
Figure 0004996745
D1とD2とに対しては、次の式のようになる。
式(7)
Figure 0004996745
ここで、
Figure 0004996745

Figure 0004996745
は、各基準ポイントに対するモバイルセンサー、Ocの位置からのベクトルである。前記の2つセットの式で、
Figure 0004996745

Figure 0004996745
は、uとnコンポーネントで簡単に分解される。これにより、式(5)から次の式が得られる。
式(8)
Figure 0004996745
または、
式(9)
Figure 0004996745
ドットプロダクト(dot product)の最初のターム、
Figure 0004996745

Figure 0004996745
は、グローバルx−y座標システムでそれらのxとyコンポーネントで、次の式のように表現される。
式(10)
Figure 0004996745
ここで、P1xとP2xは、それぞれP1とP2のxコンポーネントであり、P1yとP2yは、それぞれP1とP2のyコンポーネントである。
ドットプロダクトの二番目のタームのxとyコンポーネントは、次の式のように表現される。
式(11)
Figure 0004996745
これにより、式(9)は、次の式と同一である。
Figure 0004996745
xcとxyに対する最終式を簡素化するために、媒介変数が導入される。媒介変数は、次の通りである。
Figure 0004996745
したがって、次の式のように表現されるモバイルセンサーの座標が得られる。
式(12)
Figure 0004996745
基準客体が、カメラ平面上に投影されるために、基準客体の座標は、基準客体の中心に対応する。これにより、式(12)を用いて、モバイルセンサーの座標が得られる。しかし、実際に基準ポイントの座標があらかじめ知られるとしても、イメージ上でのi1とi2測定は、真の基準ポイントに対応しないこともある。このような不確実性は、イメージ平面のピクセル解像度(pixel resolution)だけではなく、検出された基準形状の中心を誤って決定することから起因する。このような不確実性は、完璧なレンズ視野特性を有するにもかかわらず、確かに表われる。次のセクションでは、カメラレンズの非線形性の効果について説明する。
B.方位決定
したがって、今までは、方位が与えられた場合、モバイルセンサーの位置決めについて考慮した。しかし、モバイルセンサーの方位を決定することだけではなく、その位置を決定することも必要である。位置と方位とを同時に決定することは、第3の基準ポイントを必要とする。平行投影モデルから、式(5)を用いて、カメラ平面中心と基準ポイントとを横切るラインの角度が得られ、この角度は、ラインとカメラ平面との間に形成される。2つの基準ポイントを有し、カメラ平面に対する知られた角度を有する2つのラインが得られ、それぞれの基準ポイントは、それらのうち一つの上にあるということが分かる。このライン上にある頂点として2つの基準ポイントを有するラインセグメントの位置を定める多数の方法があるために、2つの基準ポイントだけでは、モバイルセンサーの位置と方位とを決定することができない。一つの基準ポイントをさらに有すれば、この問題は、知られた角度を有する3つのライン上への知られた長さを有する三角形の3つの頂点の位置を定めることになる。±180°の範囲でモバイルセンサーの方位を限定すれば、このような方法では、三角形の位置を定める唯一の方法がある。以上の説明から、基準ポイントの一般的な方位が知られた場合、モバイルセンサーの方位と位置認識とをいずれも決定するには、3つの基準ポイントがあれば、十分であるという結論が得られ、以下の説明でも、このような結論がそのまま適用される。
式(14)を用いて、3つの連立方程式を解くことで解法を探すことができるが、その非線形性のためにモバイルロボットのような資源制限的な装置に具現されるためには、非常に複雑な計算を必要とする。その代わりに、その解法が、式(14)に与えられ、単に2つの連立方程式を解くことを含む効率的な反復アルゴリズムが提案される。このような反復的なアプローチ方法で、モバイルセンサーの方位が決定される。一旦、方位が捜されれば、式(14)を用いてモバイルセンサーの位置が得られる。
与えられた方位角、θで、式(14)を用いて、3つのうち2つの基準ポイント2対を用いて2セットの座標、(xc1、yc1)と(xc2,yc2)とが得られる。自己位置認識のために3つの基準ポイント、P1、P2、及びP3が選択される時、P1とP2とを用いて、次の式が得られ、
式(13)
Figure 0004996745
他の対P2とP3とを用いて、次の式が得られる。
式(14)
Figure 0004996745
効率的な反復戦略を開発するために、方位の角度が変わる間に2つの座標の差、dcx=xc1−xc2及びdcy=yc1−yc2の行動を調査する。エラー距離(error distance)を次の式のように定義する。
式(15)
Figure 0004996745
ここで、θは、モバイルセンサーの方位の角度である。図7は、θが±0°から±180°まで変わることによる、この関数の動作を示す図である。図6は、モバイルセンサーの実際方位が±80°である時、この角度でエラー距離(θ)が0になる場合を示す図である。この角度を解法ポイント(solution point)と言う。このポイントの周りで、この関数は対称であり、±180°の周期を有することが分かる。
解法ポイントから±45°の範囲内で反復を始め、傾斜の下に沿って行けば、解法を捜すことが保証される。この範囲内で、このような初期反復ポイント、i0を探すために、±90°の間隔を有する2つの角度を任意に選択する。これらのうち一つは、解法ポイントから±45°の範囲以内であるものであり、他の一つは、範囲外であるものであるために、初期反復角度、θ0として、単純にさらに小さなエラー距離(θ)が出る角度を選択する。
一旦、初期ポイントが選択されれば、θとエラー距離(θ)とによって決定される初期反復ポイント、i0が得られる。このポイントで傾斜を測定するために、±0のように、θ0で非常に近くなるように選択されるθ1を用いて、他のエラー距離関数が推定される。このように推定された傾斜をslope0と言い、初期反復変数の関係は、次の式のようになる。
式(16)
Figure 0004996745
ここで、En=エラー距離(error distance)(θn)である。
推定された傾斜の符号によって、反復の方位、dirを選択する。slope0>0とすれば、dir0=−1に設定し、θ0をθ−1に、E0をE−1に交換する。そうではなければ、dir0=1である。
まず、初期ポイントでの傾斜が線形と仮定することによって、傾斜ラインがx軸と交差する所での次の角度を選択する。解法ポイントに近付くほど傾斜は増加するために、次の反復段階は、解法ポイントと非常に近接することはするが、オーバーシュートする。図7に示されたように、θ1で推定されたエラー距離関数は、解法ポイントの他側にある。
二番目の段階から、傾斜を利用する代わりに、以前の2つの角度とそれらによって推定されたエラー距離に基づいて、次の反復段階の角度を選択する。この場合、図8に示された2つの三角形が近似的に解法ポイントに比較的に近いために、次の段階の角度は、次の方程式によって推定される。
式(17)
Figure 0004996745
式(17)から、次の反復角度は、次の式のように計算される。
式(18)
Figure 0004996745
推定された方位の変化、Δθが臨界値、εより小くなるまで、反復し続けられる。そうではない場合、方位、dir=dir*−1に変えて続ける。アルゴリズム1は、アルゴリズムに対する擬似コード(pseudo code)である。図9は、アルゴリズムが非常に早く収斂することを示す図である。図9は、±10°、±40°、そして、±80°の3つの初期推定角度が使われる時、反復アルゴリズムが適用される場合を示す図である。各反復段階でのエラー距離(θ)の値が示されている。この際、反復は、2つの初期反復位置から始まることが分かる(すなわち、図面に示されたように、反復は、−1インデックスで始める)。
Figure 0004996745
図10及び図11は、位置認識において、方位誤差の重要性を説明するための図である。図示されたものなどは、いくつかの位置エラーに対する変位エラーを示す。本明細書で、変位エラーは、次の式のように定義される。
式(19)
Figure 0004996745
ここで、(xc、true、yc、true)は、実際座標であり、(xc、est、yc、est)は、推定された座標である。結果は、ΔPとDmaxの関数で示されており、ここで、ΔPは、基準ポイント間の(投影された平面と平行)間隔(separation)を表わし、Dmaxは、基準ポイントの(投影された平面と垂直)最大距離を示す。変位は、方位が決定された後に計算されるために、角度決定は、非常に重要な問題である。したがって、方位計算が正確ではなければ、位置認識は、座標を成功的に推定することができないこともある。
C.レンズ歪曲
図12は、点線と実線とがそれぞれズームファクター
Figure 0004996745

Figure 0004996745
とを有する理想的な可視角度と実際可視角度とを示す場合、レンズ歪曲によって惹起される実際(非理想的な)ズーミング(zooming)モデルを示す図である。したがって、レンズ視野が理想的であり、線形である場合には、z1=z2である。しかし、大部分の実際レンズ視野は、非線形ズームファクターを有する。
図13は、レンズからの距離の関数であるズーミング非線形性を示す図である。点線は、(例えば、無限距離モデルと仮定された)理想的なズームファクターであり、実線は、実際測定された(非理想的な)ズームファクターである場合、図13は、通常の商業レンズ(例えば、Tamron SP AF 17−50mm Zoom Lens)で獲得されたズーミングファクターを示す。[表1]は、補正された(calibrated)ズームファクターを示す。この際、ズームファクターは、イメージング装置からの距離だけではなく、レンズの軸からの距離にも依存するということが分かる。
Figure 0004996745
非理想的なレンズの非線形歪曲は、平行投影モデルでスケールに影響を及ぼす。モバイルセンサーと基準との距離が知られていないために、距離が大きな場合の値に対応するz値を用いてモバイルセンサーの座標を計算することができる(すなわち、z値が特定値に収斂する)。一旦、座標の初期値が得られれば、非線形性を補償してモバイルセンサーの最終座標を得るために、zの特定値を利用する(すなわち、一つは最初の基準に対して、他の一つは二番目の基準に対して)。アルゴリズム2は、この過程を記述している。
Figure 0004996745
図14は、座標決定において、非線形効果を説明するための図である。図面で、方位は0になるように選択される(すなわち、視野軸はx軸と垂直である)。カメラは、グローバル座標(0、0)に対して(4.8m、3.0m)に位置し、最初の基準P1は(4.5m、4.5m)に位置し、そして、二番目の基準P2は(5.1m、5.1m)に位置する。図12に示されたように、このような座標は、カメラ付近での激しい非線形性を表わすために使われる。レンズは、17mmズーム範囲で設定される。Lsの値は、18.4cmである(x方向へのイメージサイズ)。最初の基準i1の投影された位置は、イメージ中心から3.85cmであり、二番目の基準i2は、イメージ中心から2.45cmである。このような位置は、イメージ中心に対する基準客体の中心からの位置である。二つの基準客体は、それぞれΔi1=0:0087とΔi2=0:0065に対応する有限な幅0.16cmと0.12cmとを有する。本明細書で、Δiは、全体イメージサイズに対する不確定範囲または測定エラーと定義される(例えば、前記の例では、18.4cm)。基準ポイントの中心は、イメージから決定されるために、可能な測定エラーは、Δi内にある。最初の基準z1に対応する実際ズームファクターは0.8238であり、二番目の基準z2に対応するズームファクターは0.8119である。初期推定で、0.8の初期距離に対応するズームファクターが使われる。補償なしに推定された座標は、モバイルセンサーの位置から3.87cm外れた、(4.8017m、3.03815m)である。特定のズーム設定で、カメラに対するこのような実験的なズームファクターに対して測定されて表1に表化されている。表で、行のエントリーは、モバイルセンサーから基準ポイントまでの距離に対応し、列のエントリーは、視野軸から基準ポイントまでの水平距離に対応する。
D.基準測定不確実性の効果
以前のセクションで簡単に論議されたように、測定エラーは避けることができない要所である。また測定エラーは、方位を含んだ位置認識の正確度に直接的に影響を及ぼす。
基準客体は、度々イメージ上の領域として投影されるために、平行投影モデルを適用するために、一つのポイントがその領域から決定されなければならない。平行投影モデルでは、決定されたポイントの水平コンポーネントのみを取る。基準客体の座標をその中心として指示するならば、カメラ平面上のその位置、iを投影された領域の中心として選択することができる。しかし、基準客体の形状が対称である円状ではなければ、iを決定するに当たって、或る程度のエラーは常に存在する。このようなタイプのエラーは、度々投影された基準の境界を探すイメージプロセッシングによって影響を受ける。可視センサーの制限された解像度に起因する量子化エラー(quantization error)が正確度に影響を及ぼすこともあるが、このようなエラーがエラーの最も大きな原因ではない。
測定エラーの他の原因は、基準客体が中心水平ラインに投影されない時である(例えば、図14に示された点線参考)。このような原因は、レンズが投影された客体を歪曲させるためである。図面で、壁(wall)のエッジは、一つの座標値を有する。しかし、多重基準値は、壁のエッジに対して獲得されうる。例えば、hxで測定されるixとhyで測定されるiyいずれも同一の座標を表わさなければならないが、投影された値は異なる。ixとiyとの差は、位置認識でΔiとして寄与する。したがって、イメージ上で中心水平ラインに近い基準客体を抽出することが常にさらに良い方法である。
i1とi2とを誤って決定することに起因する方位エラーが、図15及び図16に示されている。図15と図16は、測定されたエラーの2つの他の値に対する結果を示す。方位エラーの平均は、5m格子(grid)上に位置する基準ポイントの可能なあらゆる組み合わせを用いて測定される。それぞれの基準ポイントは、小量の追加的なランダム変化を有する格子で、50cm間隔で位置する。i1とi2との偏差に起因して、測定された方位は、モバイルセンサーの真の方位と異なりうる。図面は、Δi=0.05である時よりΔi=0.03である時、エラーと標準偏差のあらゆる範囲がさらに大きくなることを示す。また、モバイルセンサーが基準ポイントにさらに近くなる時である。実際座標は、最初の方位計算によって獲得されるために、方位エラーは非常に重要な問題である。
類似した結果が、図17及び図18で変位エラー(displacement error)に対して獲得される。同様に、図17と図18は、測定エラーの2つの他の値に対する結果を示す。変位エラーは2つの変数、すなわち、モバイルセンサーから基準ポイントまでの最大距離であるDmaxと、モバイルセンサーの視野軸から測定された、最も遠く離れている2つの基準ポイント間の距離であるΔPの関数として作成されうる。図面に示されたように、あらゆるエラー範囲は、Δiが増加するほど増加する。
2つの結果いずれも、モバイルセンサーから基準ポイントまでの距離がさらに大きな時、そして、基準が互いにさらに近くある時、アルゴリズムがエラーよりさらに重要であることを示す。図15ないし図18から、カメラ平面に沿って基準客体の間の距離がさらに大きくなる時、推定エラーがさらに小くなることが分かる。本発明の反復アルゴリズムは、与えられた3つの基準ポイント、R1、R2、及びR3での3つの基準客体から作ることができる3つの対のうち二対の基準客体を利用するために、エラーを最小化するために、カメラ平面上で最大距離を提供する二対を選択することができる。このような選択基準(criterion)は、可視的な三つ以上の基準客体が存在して自己位置認識のために、それらのうち三つを選択する必要がある時にも、また適用可能である。
4.分析及びシミュレーション
A.実験環境設定
図19は、提案された方法の確認のための実験環境を示す図である。モバイルセンサーは、P1が開始位置である時、P1,P2,…,P6によって指示される位置に位置する。可視センサーの方位は、90°で回っている。いくつかの基準位置、R1,R2,…,R10は、あらかじめ明示されて測定される。それぞれの位置で、次の位置に移動する前にモバイルセンサーは提案されたアルゴリズム3を行う。図面の右側側面上のテーブルに、モバイルセンサーの位置と基準客体の位置とが羅列されている。
Figure 0004996745
ここで、2つの場合を推定されうる。最初の場合は、方位が知られてあると仮定し、変位エラーが獲得される。二番目の場合は、方位が先に計算され、変位エラーが方位から獲得される。
B.方位が知られた場合の自己位置認識の性能
まず、モバイル可視センサーが、その方位が分かると仮定する。この実験で、方位は90°で固定される。したがって、位置認識性能は、ただ基準ポイントの選択と測定エラーに依存する。
図20と図21は、モバイルセンサーの真の位置と、アルゴリズムを用いて獲得されたそれらの推定された軌道(trajectory)を、x方向とy方向に区分して示す。真の位置からの偏差は、モバイルセンサーの推定された位置に対する真の位置からの距離エラーである。2つの推定された位置が表示され、ズームファクター補償の効果を示す。補償されていない推定については、ズームファクターの平均値が表1に表われている。図20に示されたように、x方向での変位エラーが無視できるほどである一方、図21に示されたように、y方向での変位エラーは、補償されていない推定は、真の位置から0.5mも外れることを示す。これから、ズーミングファクターは、可視センサーから基準ポイントまでの距離に非常に敏感であるということが分かる。これは、ズームファクターが、ただy方向またはモバイルセンサーから基準客体までの距離によって非線形特性を有するためである。しかし、ズームファクターがアルゴリズム内で補償される場合、y方向での距離エラーは消える。
また、基準ポイントをペアリング(pairing)する効果は、測定エラー、Δiを含ませて調査される。効果を表わすために、最大間隔ペアリング(maximal separation pairing)からの結果と最小間隔ペアリング(minimalseparation pairing)からの結果とを比べる。Δiの値は、投影された基準ポイントであるiに加えられるか取り出されて、2つの基準ポイント間の間隔をさらに小さくするが、これにより、位置認識エラーは最大化される。
Δiの値は、0.005、0.01、0.03で選択される。この値は、投影された客体の範囲から一つのポイントを選択しなければならないことによって惹起される主要な測定エラーである。
図22、図23、図24は、それぞれ3つの他の測定エラーに対するシミュレーション結果を示す図である。示されたように、最大間隔ペアリングを有する平均変位エラーは、最小間隔ペアリングを有する場合より低い。この際、基準ポイントは、互いに近くて基準ポイントを識別する能力はさらに小さいために、P1に対して推定された座標は、他の座標よりさらに大きいことが分かる。また、その結果は、基準ポイント、ΔP間の距離がさらに縮まる場合、位置認識エラーがさらに大きくなる図17及び図18で示された知見に対応する。
以前の調査と同様に、方位エラーの効果は、図25に示されている。図面は、方位エラーによって変位エラーが如何に影響を受けるかどうかを示す。この際、シミュレーション結果は、方位が知られていると相変らず仮定する。方位エラーは、単純にアルゴリズムに含まれる。測定エラーなしに、方位エラーは、変位エラーに影響を与えない。次のセクションで、方位決定に測定エラーが含まれることに対して調査する。
C.方位が知られていない場合の自己位置認識の性能
実際に、モバイルセンサーは、方位だけではなく、座標も推定する。提案された位置認識アルゴリズムは、基準ポイントからセンサーの方位を決定することができる。モバイルセンサーの座標は、推定された方位から決定されるために、方位を推定することから発生するエラーを最小化することは、非常に重要な問題である。
図26と図27は、それぞれx方向とy方向での変位エラーを示す。前述したように、x方向とy方向での変位エラーは、補償がない場合にも、無視できるほどである。また、類似した結果がy方向でも表われる。知られた方位に対して得られた以前の図面と2つの図面との差は、方位が決定された後に変位エラーが計算されるということである。
図28及び図29は、モバイルセンサーの座標のエラーに対するΔiの効果を示す。このシミュレーションでは、基準客体の選択のために、最大間隔基準(maximal separation criterion)が利用された。モバイルセンサーが基準客体よりさらに遠い場合での図面に示されたように、座標エラーは、Δiに対してさらに敏感である。この実験設定で、モバイルセンサーは、位置P3で選択された基準ポイントに最も近い。図面で、P3で、座標エラーは、Δiにより少なく敏感である。モバイルセンサーが、基準客体までの距離が最も遠い地点であるP1にある場合、座標エラーは、Δiに非常に敏感である。特に、図29に示されたように、P1でy方向エラーは、y方向座標エラーのΔiに非常に敏感であることが分かる。これは、撮影されたイメージが如何なる深さ情報(depth information)も含まないためであり、iに対する変化は、y方向にモバイルセンサーの位置の広い範囲でマッピングされうる。イメージの実際寸法を考慮する時、Δi値として0.03は非現実的である。
最後に、図30及び図31は、Δiによって惹起される方位エラーを示す。図示のために、3個のΔi値が使われる。ここで、距離エラーは、モバイルセンサーの実際位置から推定された位置までの距離から計算される。図面に示されたように、投影された基準ポイント、Δiの不確実性は、座標と方位エラーに同じ程度に同時に影響を及ぼす。示されたように、モバイルセンサーが、基準客体から遠くなるほどエラーはΔiにさらに敏感である。
5.結論
本明細書で、ナビゲーション応用でのモバイルセンサーのための平行投影モデルを用いて、新たな自己位置認識方法が提案された。アルゴリズムは、単一の可視イメージに対して投影された基準を用いて、モバイルセンサーの座標と方位とを推定する。通常のレンズの非線形性と歪曲は、レンズ特性補正テーブル(lens specific calibration table)を用いて補償される。本発明の実施形態による方法は、単純な反復アルゴリズムを利用し、このアルゴリズムは、少ない計算であるにもかかわらず非常に正確である。推定正確度に影響を及ぼす多様な測定エラー原因も表われる。ロボットナビゲーションだけではなく、正確な自己位置認識が必要な位置認識応用に、本発明のアルゴリズムが利用されうるということを、例を通じて説明した。
一方、前述した本発明の実施形態は、コンピュータで実行可能なプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を用いて、前記プログラムを動作させる汎用デジタルコンピュータで具現可能である。また、前述した本発明の実施形態で使われたデータの構造は、コンピュータで読み取り可能な記録媒体に多様な手段を通じて記録されうる。
前記コンピュータで読み取り可能な記録媒体は、マグネチック記録媒体(例えば、ROM、フレキシブルディスク、ハードディスクなど)、光学的判読媒体(例えば、CD−ROM、DVDなど)及びキャリアウェーブ(例えば、インターネットを通じる伝送)のような記録媒体を含む。
以上、本発明の実施形態が詳細に開示されたが、当業者ならば、これより多様な変形及び均等な他実施形態が可能であるという点を理解できるであろう。したがって、本発明の真の技術的保護範囲は、特許請求の範囲の技術的思想によって決定されるべきである。
本発明は、ナビゲーションアプリケーションで、モバイルセンサー用の平行投影モデルを用いて自己位置を認識する方法に関するものであって、ナビゲーション製造分野または位置認識を利用したユビキタス産業分野に利用されうる。

Claims (5)

  1. 少なくとも2つの基準客体の映像を獲得して、映像獲得機器の自己位置を認識する方法において、
    イメージ平面、少なくとも2つの基準客体平面、及び前記イメージ平面と前記基準客体平面との間に位置する少なくとも2つの仮想可視平面を設定する段階と、
    前記基準客体を対応する前記仮想可視平面に投影する段階と、
    前記映像獲得機器の視野軸と前記基準客体との距離と、前記視野軸と前記基準客体に対応する前記イメージ平面上のイメージとの距離を計算する段階と、
    前記映像獲得機器の方位とズームファクター、及び前記基準客体の座標を用いて、前記自己位置を認識する段階と、を含み、
    前記ズームファクターは、前記基準客体平面の長さと、前記基準客体平面と仮想可視平面との距離の比であり、前記イメージ平面、前記仮想可視平面、及び前記基準客体平面は、前記視野軸に垂直であることを特徴とする自己位置認識方法。
  2. 補正テーブルを用いて、前記自己位置を補償する段階をさらに含み、
    前記自己位置を補償する段階は、
    無限距離に対応するズームファクターを用いて、前記自己位置と前記方位とを推定する段階と、
    前記推定された自己位置と方位とによって、前記基準客体平面と、対応する仮想可視平面との距離を計算する段階と、
    前記補正テーブルから選択される距離を利用したズームファクターを用いて、前記自己位置と前記方位とを再計算する段階と、
    を含むことを特徴とする請求項1に記載の自己位置認識方法。
  3. 少なくとも3つの基準客体の映像を獲得して、映像獲得機器の自己位置を認識する方法において、
    イメージ平面、少なくとも3つの基準客体平面、及び前記イメージ平面と前記基準客体平面との間に位置する少なくとも3つの仮想可視平面を設定する段階と、
    前記基準客体を対応する前記仮想可視平面に投影する段階と、
    前記映像獲得機器の視野軸と前記基準客体との距離と、前記視野軸と前記基準客体に対応する前記イメージ平面上のイメージとの距離を計算する段階と、
    2対の基準ポイントを用いて、エラー距離が最小化されるように初期方位を選択し、前記初期方位と前記エラー距離とを用いて、前記映像獲得機器の方位を反復的に計算する方式で、前記映像獲得装置の方位を計算する段階と、
    前記方位とズームファクター、及び前記基準客体の座標を用いて、前記自己位置を認識する段階と、を含み、
    前記ズームファクターは、前記基準客体平面の長さと、前記基準客体平面と仮想可視平面との距離の比であり、前記イメージ平面、前記仮想可視平面、及び前記基準客体平面は、前記視野軸に垂直であることを特徴とする自己位置認識方法。
  4. 前記映像獲得機器の方位を計算する段階は、
    前記2対の基準ポイントを用いて、前記エラー距離が最小になる方位を初期方位に選択する段階と、
    前記初期方位に対応するエラー距離と、前記初期方位より90°大きな方位に対応するエラー距離のうち、より小さなエラー距離を初期エラー距離に選択する段階と、
    前記初期方位から微小方位を減算して、近接方位を計算し、前記近接方位に対応する近接エラー距離を計算し、前記初期エラー距離と前記近接方位に対応するエラー距離との差と前記微小方位との比を用いて、前記初期方位に対応する位置での傾斜を計算する段階と、
    前記傾斜が正数であれば、反復の方向を負の方向に、前記近接エラー距離を現在エラー距離に設定し、前記傾斜が正数でなければ、前記反復の方向を正の方向に設定する段階(1)と、
    前記傾斜の絶対値を初期傾斜に、前記現在エラー距離と現在傾斜との比を次の微小方位に、反復の方向と微小方位との積を現在方位に加算した値を次の方位に、そして、現在方位に対応するエラー距離を新たな現在エラー距離に設定する段階(2)と、
    前記微小方位が所定の臨界方位以下になるまで前記設定する段階(2)を反復し、現在エラー距離と、現在エラー距離と以前エラー距離との和との比と、現在微小方位の積を次の方位として反復的に計算する段階と、
    前記微小方位が所定の臨界方位以下である場合、前記反復的に計算された前記次の方位を前記映像獲得機器の方位に決定する段階と、
    を含むことを特徴とする請求項3に記載の自己位置認識方法。
  5. 補正テーブルを用いて、前記自己位置を補償する段階をさらに含み、
    前記自己位置を補償する段階は、
    無限距離に対応するズームファクターを用いて、前記自己位置と前記方位とを推定する段階と、
    前記推定された自己位置と方位とによって、前記基準客体平面と、対応する仮想可視平面との距離を計算する段階と、
    前記補正テーブルから選択される距離を利用したズームファクターを用いて、前記自己位置と前記方位とを再計算する段階と、
    を含むことを特徴とする請求項3に記載の自己位置認識方法。
JP2010524765A 2007-09-12 2007-10-25 平行投影モデルを利用した自己位置認識方法 Active JP4996745B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2007-0092775 2007-09-12
KR1020070092775A KR100884904B1 (ko) 2007-09-12 2007-09-12 평행 투영 모델을 이용한 자기위치 인식 방법
PCT/KR2007/005274 WO2009035183A1 (en) 2007-09-12 2007-10-25 Method for self localization using parallel projection model

Publications (2)

Publication Number Publication Date
JP2010539581A JP2010539581A (ja) 2010-12-16
JP4996745B2 true JP4996745B2 (ja) 2012-08-08

Family

ID=40452168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010524765A Active JP4996745B2 (ja) 2007-09-12 2007-10-25 平行投影モデルを利用した自己位置認識方法

Country Status (4)

Country Link
US (1) US8432442B2 (ja)
JP (1) JP4996745B2 (ja)
KR (1) KR100884904B1 (ja)
WO (1) WO2009035183A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100927096B1 (ko) 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
FR2931277B1 (fr) * 2008-05-19 2010-12-31 Ecole Polytech Procede et dispositif de reconnaissance invariante-affine de formes
JP5294995B2 (ja) * 2009-06-03 2013-09-18 パナソニック株式会社 距離計測装置及び距離計測方法
US8744664B2 (en) * 2009-09-07 2014-06-03 Bae Systems Plc Path determination
JP5223062B2 (ja) * 2010-03-11 2013-06-26 株式会社ジオ技術研究所 3次元地図描画システム
US8768071B2 (en) 2011-08-02 2014-07-01 Toyota Motor Engineering & Manufacturing North America, Inc. Object category recognition methods and robots utilizing the same
TW201344510A (zh) * 2012-04-25 2013-11-01 Hon Hai Prec Ind Co Ltd 鐳射標注系統及標注方法
US9043181B2 (en) * 2012-06-05 2015-05-26 Freescale Semiconductor, Inc. Method for determining coordinates
US20140292998A1 (en) * 2013-04-02 2014-10-02 James Toga Managing Use of Resources in Mobile Devices
KR102604298B1 (ko) 2019-01-28 2023-11-17 에스케이텔레콤 주식회사 랜드마크 위치 추정 장치와 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체
CN111724483A (zh) * 2020-04-16 2020-09-29 北京诺亦腾科技有限公司 一种图像移植方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672175B2 (ja) * 2000-05-26 2011-04-20 本田技研工業株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
JP2002131016A (ja) * 2000-10-27 2002-05-09 Honda Motor Co Ltd 距離測定装置、及び距離測定方法
JP4268404B2 (ja) * 2002-12-13 2009-05-27 株式会社フジタ 移動体の自己位置計測方法
US7850912B2 (en) * 2003-05-14 2010-12-14 Dako Denmark A/S Method and apparatus for automated pre-treatment and processing of biological samples
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
KR100647285B1 (ko) 2003-08-20 2006-11-23 삼성전자주식회사 인공마크를 이용한 지능형 시스템의 자기위치인식장치 및방법과 이를 이용한 지능형 시스템
JP4264380B2 (ja) * 2004-04-28 2009-05-13 三菱重工業株式会社 自己位置同定方法及び該装置
KR100590210B1 (ko) * 2004-12-09 2006-06-19 한국전자통신연구원 Rfid 를 이용한 이동로봇 위치 인식 및 주행방법과,이를 적용한 이동로봇 시스템
JP4262196B2 (ja) * 2004-12-14 2009-05-13 本田技研工業株式会社 自律移動ロボット
WO2006068049A1 (ja) * 2004-12-21 2006-06-29 Matsushita Electric Industrial Co., Ltd. カメラ端末および撮影領域調整装置
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
KR100703882B1 (ko) * 2005-09-29 2007-04-06 전자부품연구원 단일 카메라 기반 포즈인식이 가능한 이동로봇 및 그 방법
KR100834761B1 (ko) * 2005-11-23 2008-06-05 삼성전자주식회사 이동 로봇의 자기 위치 인식 방법 및 장치
US8073564B2 (en) * 2006-07-05 2011-12-06 Battelle Energy Alliance, Llc Multi-robot control interface

Also Published As

Publication number Publication date
WO2009035183A1 (en) 2009-03-19
US20100245564A1 (en) 2010-09-30
KR100884904B1 (ko) 2009-02-19
US8432442B2 (en) 2013-04-30
JP2010539581A (ja) 2010-12-16

Similar Documents

Publication Publication Date Title
JP4996745B2 (ja) 平行投影モデルを利用した自己位置認識方法
Kümmerle et al. Large scale graph-based SLAM using aerial images as prior information
CN101960326B (zh) 使用具有参考坐标的视觉图像定位物体的方法
Hansen et al. Online continuous stereo extrinsic parameter estimation
Sibley et al. Bias reduction and filter convergence for long range stereo
Mehralian et al. EKFPnP: extended Kalman filter for camera pose estimation in a sequence of images
Martins et al. Monocular camera calibration for autonomous driving—a comparative study
Lin et al. A sparse visual odometry technique based on pose adjustment with keyframe matching
Zhang LILO: A Novel Lidar–IMU SLAM System With Loop Optimization
US20170091945A1 (en) Point and sensor estimation from images
Jang et al. Metric localization using a single artificial landmark for indoor mobile robots
Melbouci et al. Model based rgbd slam
Bunschoten et al. 3D scene reconstruction from cylindrical panoramic images
Thomas et al. A monocular SLAM method for satellite proximity operations
Ivanjko et al. Model based Kalman filter mobile robot self-localization
Ruotsalainen et al. Overview of methods for visual-aided pedestrian navigation
Ölmez et al. Metric scale and angle estimation in monocular visual odometry with multiple distance sensors
Tahri et al. Efficient decoupled pose estimation from a set of points
JPH07244735A (ja) 3次元形状復元方法および装置
Park et al. Iterative object localization algorithm using visual images with a reference coordinate
Rodrigo et al. Monocular vision for robot navigation
Forssén Updating camera location and heading using a sparse displacement field
Das et al. Sensor fusion in autonomous vehicle using LiDAR and camera sensor with Odometry
Kelly et al. Simultaneous mapping and stereo extrinsic parameter calibration using GPS measurements
Yamaguchi et al. 3D map-building from RGB-D data considering noise characteristics of Kinect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101014

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120511

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4996745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250