JP4996745B2 - 平行投影モデルを利用した自己位置認識方法 - Google Patents
平行投影モデルを利用した自己位置認識方法 Download PDFInfo
- Publication number
- JP4996745B2 JP4996745B2 JP2010524765A JP2010524765A JP4996745B2 JP 4996745 B2 JP4996745 B2 JP 4996745B2 JP 2010524765 A JP2010524765 A JP 2010524765A JP 2010524765 A JP2010524765 A JP 2010524765A JP 4996745 B2 JP4996745 B2 JP 4996745B2
- Authority
- JP
- Japan
- Prior art keywords
- self
- distance
- orientation
- plane
- reference object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 50
- 230000000007 visual effect Effects 0.000 claims description 17
- 238000012937 correction Methods 0.000 claims description 8
- 238000004422 calculation algorithm Methods 0.000 description 31
- 238000006073 displacement reaction Methods 0.000 description 31
- 238000005259 measurement Methods 0.000 description 28
- 241000219739 Lens Species 0.000 description 19
- 230000006870 function Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 6
- 101100428016 Caenorhabditis elegans upp-1 gene Proteins 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000004088 simulation Methods 0.000 description 4
- 230000004807 localization Effects 0.000 description 3
- 230000009022 nonlinear effect Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005375 photometry Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000010206 sensitivity analysis Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Navigation (AREA)
Description
本発明は、ナビゲーションアプリケーションで、モバイルセンサー用の平行投影モデル(parallel projection model)を用いて自己位置を認識する新たな技法に関するものである。
ロボットの座標は、地域的(local)であり、位相的な(topological)情報に基づくが、またはグローバル基準システム(global reference system)に基づくこともできる。後者の場合、ランドマークまたは基準客体のグローバル座標は、ナビゲーションする時にモバイルロボットによって学習される。
A.平行投影モデルの基本概念
本セクションでは、平行投影モデル(parallel projection model)が紹介される。カメラ装置上に投影されたイメージに対するプロセスを簡素化するために、図2に示されたように、客体平面(object plane)、仮想可視平面(virtual viewable plane)、そして、実際カメラ平面(actual camera plane)の3つの平面が定義される。モバイルセンサーの可視平面にある客体Pは、客体平面と見なされる。
可視センサー(visual sensor)のパラメータである、zとLsとが与えられた時、仮想可視平面上に投影された基準ポイントと、各平面の原点(origin)までの距離を有する実際カメラ平面上の一ポイントとの間の関係が誘導されうる。各平面の原点は、平面と、平面の垂直ラインとの交差点と定義され、また、モバイルセンサーの位置を横切る視野軸(view axis)になる。特に、実際カメラ平面の原点は、回転(panning)の軸である。図6で、実際カメラ平面上の原点は、Ocで表示され、仮想可視平面の原点は、それぞれOv1とOv2とで表示される。たとえ平面が、可視センサーの回転によって回転しないとしても、各平面上位距離に基づいた関係は変化せずに維持される。p1とp2が、各仮想平面上の視野軸までの距離を表示する時、i1とi2は、実際イメージ平面上での対応する測定値を表わし、式(1)と式(2)とを用いて、次の式が誘導されうる。
A.方位が知られた場合の自己位置認識
本セクションでは、2つの基準ポイントの座標が知られ、可視センサーの方位の角度が知られた場合、自己位置を認識する方法が説明される。以下の説明で、θは、カメラ平面とグローバル(global)x軸との角度と定義される。uは、カメラ平面方向の単位ベクトルと定義され、nは、可視センサーが合う方位である、視野軸方向による単位ベクトルと定義される。したがって、θは、x軸とuとの角度である。次の式を用いて、式(5)のp1、p2、D1、そして、D2値が得られる。以前のセクションで、i1とi2は、カメラ平面上の視野軸までの距離として説明したが、今後、i1とi2は、投影された基準ポイントが視野軸の左側にある場合、負の値を有するようになる。p1とp2とが視野軸の左側にある場合、p1とp2とが負の値を有させることによって、以前のセクションで説明された距離関係は変更されない。
と
は、各基準ポイントに対するモバイルセンサー、Ocの位置からのベクトルである。前記の2つセットの式で、
と
は、uとnコンポーネントで簡単に分解される。これにより、式(5)から次の式が得られる。
したがって、今までは、方位が与えられた場合、モバイルセンサーの位置決めについて考慮した。しかし、モバイルセンサーの方位を決定することだけではなく、その位置を決定することも必要である。位置と方位とを同時に決定することは、第3の基準ポイントを必要とする。平行投影モデルから、式(5)を用いて、カメラ平面中心と基準ポイントとを横切るラインの角度が得られ、この角度は、ラインとカメラ平面との間に形成される。2つの基準ポイントを有し、カメラ平面に対する知られた角度を有する2つのラインが得られ、それぞれの基準ポイントは、それらのうち一つの上にあるということが分かる。このライン上にある頂点として2つの基準ポイントを有するラインセグメントの位置を定める多数の方法があるために、2つの基準ポイントだけでは、モバイルセンサーの位置と方位とを決定することができない。一つの基準ポイントをさらに有すれば、この問題は、知られた角度を有する3つのライン上への知られた長さを有する三角形の3つの頂点の位置を定めることになる。±180°の範囲でモバイルセンサーの方位を限定すれば、このような方法では、三角形の位置を定める唯一の方法がある。以上の説明から、基準ポイントの一般的な方位が知られた場合、モバイルセンサーの方位と位置認識とをいずれも決定するには、3つの基準ポイントがあれば、十分であるという結論が得られ、以下の説明でも、このような結論がそのまま適用される。
式(13)
他の対P2とP3とを用いて、次の式が得られる。
式(14)
式(15)
推定された傾斜の符号によって、反復の方位、dirを選択する。slope0>0とすれば、dir0=−1に設定し、θ0をθ−1に、E0をE−1に交換する。そうではなければ、dir0=1である。
二番目の段階から、傾斜を利用する代わりに、以前の2つの角度とそれらによって推定されたエラー距離に基づいて、次の反復段階の角度を選択する。この場合、図8に示された2つの三角形が近似的に解法ポイントに比較的に近いために、次の段階の角度は、次の方程式によって推定される。
図12は、点線と実線とがそれぞれズームファクター
と
とを有する理想的な可視角度と実際可視角度とを示す場合、レンズ歪曲によって惹起される実際(非理想的な)ズーミング(zooming)モデルを示す図である。したがって、レンズ視野が理想的であり、線形である場合には、z1=z2である。しかし、大部分の実際レンズ視野は、非線形ズームファクターを有する。
以前のセクションで簡単に論議されたように、測定エラーは避けることができない要所である。また測定エラーは、方位を含んだ位置認識の正確度に直接的に影響を及ぼす。
基準客体は、度々イメージ上の領域として投影されるために、平行投影モデルを適用するために、一つのポイントがその領域から決定されなければならない。平行投影モデルでは、決定されたポイントの水平コンポーネントのみを取る。基準客体の座標をその中心として指示するならば、カメラ平面上のその位置、iを投影された領域の中心として選択することができる。しかし、基準客体の形状が対称である円状ではなければ、iを決定するに当たって、或る程度のエラーは常に存在する。このようなタイプのエラーは、度々投影された基準の境界を探すイメージプロセッシングによって影響を受ける。可視センサーの制限された解像度に起因する量子化エラー(quantization error)が正確度に影響を及ぼすこともあるが、このようなエラーがエラーの最も大きな原因ではない。
A.実験環境設定
図19は、提案された方法の確認のための実験環境を示す図である。モバイルセンサーは、P1が開始位置である時、P1,P2,…,P6によって指示される位置に位置する。可視センサーの方位は、90°で回っている。いくつかの基準位置、R1,R2,…,R10は、あらかじめ明示されて測定される。それぞれの位置で、次の位置に移動する前にモバイルセンサーは提案されたアルゴリズム3を行う。図面の右側側面上のテーブルに、モバイルセンサーの位置と基準客体の位置とが羅列されている。
まず、モバイル可視センサーが、その方位が分かると仮定する。この実験で、方位は90°で固定される。したがって、位置認識性能は、ただ基準ポイントの選択と測定エラーに依存する。
実際に、モバイルセンサーは、方位だけではなく、座標も推定する。提案された位置認識アルゴリズムは、基準ポイントからセンサーの方位を決定することができる。モバイルセンサーの座標は、推定された方位から決定されるために、方位を推定することから発生するエラーを最小化することは、非常に重要な問題である。
本明細書で、ナビゲーション応用でのモバイルセンサーのための平行投影モデルを用いて、新たな自己位置認識方法が提案された。アルゴリズムは、単一の可視イメージに対して投影された基準を用いて、モバイルセンサーの座標と方位とを推定する。通常のレンズの非線形性と歪曲は、レンズ特性補正テーブル(lens specific calibration table)を用いて補償される。本発明の実施形態による方法は、単純な反復アルゴリズムを利用し、このアルゴリズムは、少ない計算であるにもかかわらず非常に正確である。推定正確度に影響を及ぼす多様な測定エラー原因も表われる。ロボットナビゲーションだけではなく、正確な自己位置認識が必要な位置認識応用に、本発明のアルゴリズムが利用されうるということを、例を通じて説明した。
一方、前述した本発明の実施形態は、コンピュータで実行可能なプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を用いて、前記プログラムを動作させる汎用デジタルコンピュータで具現可能である。また、前述した本発明の実施形態で使われたデータの構造は、コンピュータで読み取り可能な記録媒体に多様な手段を通じて記録されうる。
Claims (5)
- 少なくとも2つの基準客体の映像を獲得して、映像獲得機器の自己位置を認識する方法において、
イメージ平面、少なくとも2つの基準客体平面、及び前記イメージ平面と前記基準客体平面との間に位置する少なくとも2つの仮想可視平面を設定する段階と、
前記基準客体を対応する前記仮想可視平面に投影する段階と、
前記映像獲得機器の視野軸と前記基準客体との距離と、前記視野軸と前記基準客体に対応する前記イメージ平面上のイメージとの距離を計算する段階と、
前記映像獲得機器の方位とズームファクター、及び前記基準客体の座標を用いて、前記自己位置を認識する段階と、を含み、
前記ズームファクターは、前記基準客体平面の長さと、前記基準客体平面と仮想可視平面との距離の比であり、前記イメージ平面、前記仮想可視平面、及び前記基準客体平面は、前記視野軸に垂直であることを特徴とする自己位置認識方法。 - 補正テーブルを用いて、前記自己位置を補償する段階をさらに含み、
前記自己位置を補償する段階は、
無限距離に対応するズームファクターを用いて、前記自己位置と前記方位とを推定する段階と、
前記推定された自己位置と方位とによって、前記基準客体平面と、対応する仮想可視平面との距離を計算する段階と、
前記補正テーブルから選択される距離を利用したズームファクターを用いて、前記自己位置と前記方位とを再計算する段階と、
を含むことを特徴とする請求項1に記載の自己位置認識方法。 - 少なくとも3つの基準客体の映像を獲得して、映像獲得機器の自己位置を認識する方法において、
イメージ平面、少なくとも3つの基準客体平面、及び前記イメージ平面と前記基準客体平面との間に位置する少なくとも3つの仮想可視平面を設定する段階と、
前記基準客体を対応する前記仮想可視平面に投影する段階と、
前記映像獲得機器の視野軸と前記基準客体との距離と、前記視野軸と前記基準客体に対応する前記イメージ平面上のイメージとの距離を計算する段階と、
2対の基準ポイントを用いて、エラー距離が最小化されるように初期方位を選択し、前記初期方位と前記エラー距離とを用いて、前記映像獲得機器の方位を反復的に計算する方式で、前記映像獲得装置の方位を計算する段階と、
前記方位とズームファクター、及び前記基準客体の座標を用いて、前記自己位置を認識する段階と、を含み、
前記ズームファクターは、前記基準客体平面の長さと、前記基準客体平面と仮想可視平面との距離の比であり、前記イメージ平面、前記仮想可視平面、及び前記基準客体平面は、前記視野軸に垂直であることを特徴とする自己位置認識方法。 - 前記映像獲得機器の方位を計算する段階は、
前記2対の基準ポイントを用いて、前記エラー距離が最小になる方位を初期方位に選択する段階と、
前記初期方位に対応するエラー距離と、前記初期方位より90°大きな方位に対応するエラー距離のうち、より小さなエラー距離を初期エラー距離に選択する段階と、
前記初期方位から微小方位を減算して、近接方位を計算し、前記近接方位に対応する近接エラー距離を計算し、前記初期エラー距離と前記近接方位に対応するエラー距離との差と前記微小方位との比を用いて、前記初期方位に対応する位置での傾斜を計算する段階と、
前記傾斜が正数であれば、反復の方向を負の方向に、前記近接エラー距離を現在エラー距離に設定し、前記傾斜が正数でなければ、前記反復の方向を正の方向に設定する段階(1)と、
前記傾斜の絶対値を初期傾斜に、前記現在エラー距離と現在傾斜との比を次の微小方位に、反復の方向と微小方位との積を現在方位に加算した値を次の方位に、そして、現在方位に対応するエラー距離を新たな現在エラー距離に設定する段階(2)と、
前記微小方位が所定の臨界方位以下になるまで前記設定する段階(2)を反復し、現在エラー距離と、現在エラー距離と以前エラー距離との和との比と、現在微小方位の積を次の方位として反復的に計算する段階と、
前記微小方位が所定の臨界方位以下である場合、前記反復的に計算された前記次の方位を前記映像獲得機器の方位に決定する段階と、
を含むことを特徴とする請求項3に記載の自己位置認識方法。 - 補正テーブルを用いて、前記自己位置を補償する段階をさらに含み、
前記自己位置を補償する段階は、
無限距離に対応するズームファクターを用いて、前記自己位置と前記方位とを推定する段階と、
前記推定された自己位置と方位とによって、前記基準客体平面と、対応する仮想可視平面との距離を計算する段階と、
前記補正テーブルから選択される距離を利用したズームファクターを用いて、前記自己位置と前記方位とを再計算する段階と、
を含むことを特徴とする請求項3に記載の自己位置認識方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2007-0092775 | 2007-09-12 | ||
KR1020070092775A KR100884904B1 (ko) | 2007-09-12 | 2007-09-12 | 평행 투영 모델을 이용한 자기위치 인식 방법 |
PCT/KR2007/005274 WO2009035183A1 (en) | 2007-09-12 | 2007-10-25 | Method for self localization using parallel projection model |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010539581A JP2010539581A (ja) | 2010-12-16 |
JP4996745B2 true JP4996745B2 (ja) | 2012-08-08 |
Family
ID=40452168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010524765A Active JP4996745B2 (ja) | 2007-09-12 | 2007-10-25 | 平行投影モデルを利用した自己位置認識方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8432442B2 (ja) |
JP (1) | JP4996745B2 (ja) |
KR (1) | KR100884904B1 (ja) |
WO (1) | WO2009035183A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100927096B1 (ko) | 2008-02-27 | 2009-11-13 | 아주대학교산학협력단 | 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법 |
FR2931277B1 (fr) * | 2008-05-19 | 2010-12-31 | Ecole Polytech | Procede et dispositif de reconnaissance invariante-affine de formes |
JP5294995B2 (ja) * | 2009-06-03 | 2013-09-18 | パナソニック株式会社 | 距離計測装置及び距離計測方法 |
US8744664B2 (en) * | 2009-09-07 | 2014-06-03 | Bae Systems Plc | Path determination |
JP5223062B2 (ja) * | 2010-03-11 | 2013-06-26 | 株式会社ジオ技術研究所 | 3次元地図描画システム |
US8768071B2 (en) | 2011-08-02 | 2014-07-01 | Toyota Motor Engineering & Manufacturing North America, Inc. | Object category recognition methods and robots utilizing the same |
TW201344510A (zh) * | 2012-04-25 | 2013-11-01 | Hon Hai Prec Ind Co Ltd | 鐳射標注系統及標注方法 |
US9043181B2 (en) * | 2012-06-05 | 2015-05-26 | Freescale Semiconductor, Inc. | Method for determining coordinates |
US20140292998A1 (en) * | 2013-04-02 | 2014-10-02 | James Toga | Managing Use of Resources in Mobile Devices |
KR102604298B1 (ko) | 2019-01-28 | 2023-11-17 | 에스케이텔레콤 주식회사 | 랜드마크 위치 추정 장치와 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체 |
CN111724483A (zh) * | 2020-04-16 | 2020-09-29 | 北京诺亦腾科技有限公司 | 一种图像移植方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4672175B2 (ja) * | 2000-05-26 | 2011-04-20 | 本田技研工業株式会社 | 位置検出装置、位置検出方法、及び位置検出プログラム |
JP2002131016A (ja) * | 2000-10-27 | 2002-05-09 | Honda Motor Co Ltd | 距離測定装置、及び距離測定方法 |
JP4268404B2 (ja) * | 2002-12-13 | 2009-05-27 | 株式会社フジタ | 移動体の自己位置計測方法 |
US7850912B2 (en) * | 2003-05-14 | 2010-12-14 | Dako Denmark A/S | Method and apparatus for automated pre-treatment and processing of biological samples |
JP3879848B2 (ja) * | 2003-03-14 | 2007-02-14 | 松下電工株式会社 | 自律移動装置 |
KR100647285B1 (ko) | 2003-08-20 | 2006-11-23 | 삼성전자주식회사 | 인공마크를 이용한 지능형 시스템의 자기위치인식장치 및방법과 이를 이용한 지능형 시스템 |
JP4264380B2 (ja) * | 2004-04-28 | 2009-05-13 | 三菱重工業株式会社 | 自己位置同定方法及び該装置 |
KR100590210B1 (ko) * | 2004-12-09 | 2006-06-19 | 한국전자통신연구원 | Rfid 를 이용한 이동로봇 위치 인식 및 주행방법과,이를 적용한 이동로봇 시스템 |
JP4262196B2 (ja) * | 2004-12-14 | 2009-05-13 | 本田技研工業株式会社 | 自律移動ロボット |
WO2006068049A1 (ja) * | 2004-12-21 | 2006-06-29 | Matsushita Electric Industrial Co., Ltd. | カメラ端末および撮影領域調整装置 |
JP2006220521A (ja) * | 2005-02-10 | 2006-08-24 | Hitachi Ltd | 自己位置計測装置及び自己位置計測方法を実行するためのプログラム |
KR100703882B1 (ko) * | 2005-09-29 | 2007-04-06 | 전자부품연구원 | 단일 카메라 기반 포즈인식이 가능한 이동로봇 및 그 방법 |
KR100834761B1 (ko) * | 2005-11-23 | 2008-06-05 | 삼성전자주식회사 | 이동 로봇의 자기 위치 인식 방법 및 장치 |
US8073564B2 (en) * | 2006-07-05 | 2011-12-06 | Battelle Energy Alliance, Llc | Multi-robot control interface |
-
2007
- 2007-09-12 KR KR1020070092775A patent/KR100884904B1/ko active IP Right Grant
- 2007-10-25 WO PCT/KR2007/005274 patent/WO2009035183A1/en active Application Filing
- 2007-10-25 JP JP2010524765A patent/JP4996745B2/ja active Active
- 2007-10-25 US US12/675,344 patent/US8432442B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2009035183A1 (en) | 2009-03-19 |
US20100245564A1 (en) | 2010-09-30 |
KR100884904B1 (ko) | 2009-02-19 |
US8432442B2 (en) | 2013-04-30 |
JP2010539581A (ja) | 2010-12-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4996745B2 (ja) | 平行投影モデルを利用した自己位置認識方法 | |
Kümmerle et al. | Large scale graph-based SLAM using aerial images as prior information | |
CN101960326B (zh) | 使用具有参考坐标的视觉图像定位物体的方法 | |
Hansen et al. | Online continuous stereo extrinsic parameter estimation | |
Sibley et al. | Bias reduction and filter convergence for long range stereo | |
Mehralian et al. | EKFPnP: extended Kalman filter for camera pose estimation in a sequence of images | |
Martins et al. | Monocular camera calibration for autonomous driving—a comparative study | |
Lin et al. | A sparse visual odometry technique based on pose adjustment with keyframe matching | |
Zhang | LILO: A Novel Lidar–IMU SLAM System With Loop Optimization | |
US20170091945A1 (en) | Point and sensor estimation from images | |
Jang et al. | Metric localization using a single artificial landmark for indoor mobile robots | |
Melbouci et al. | Model based rgbd slam | |
Bunschoten et al. | 3D scene reconstruction from cylindrical panoramic images | |
Thomas et al. | A monocular SLAM method for satellite proximity operations | |
Ivanjko et al. | Model based Kalman filter mobile robot self-localization | |
Ruotsalainen et al. | Overview of methods for visual-aided pedestrian navigation | |
Ölmez et al. | Metric scale and angle estimation in monocular visual odometry with multiple distance sensors | |
Tahri et al. | Efficient decoupled pose estimation from a set of points | |
JPH07244735A (ja) | 3次元形状復元方法および装置 | |
Park et al. | Iterative object localization algorithm using visual images with a reference coordinate | |
Rodrigo et al. | Monocular vision for robot navigation | |
Forssén | Updating camera location and heading using a sparse displacement field | |
Das et al. | Sensor fusion in autonomous vehicle using LiDAR and camera sensor with Odometry | |
Kelly et al. | Simultaneous mapping and stereo extrinsic parameter calibration using GPS measurements | |
Yamaguchi et al. | 3D map-building from RGB-D data considering noise characteristics of Kinect |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101014 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120223 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120413 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120511 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150518 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4996745 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |