JP4572240B2 - 移動ロボット及び移動ロボットの位置認識方法 - Google Patents

移動ロボット及び移動ロボットの位置認識方法 Download PDF

Info

Publication number
JP4572240B2
JP4572240B2 JP2008003868A JP2008003868A JP4572240B2 JP 4572240 B2 JP4572240 B2 JP 4572240B2 JP 2008003868 A JP2008003868 A JP 2008003868A JP 2008003868 A JP2008003868 A JP 2008003868A JP 4572240 B2 JP4572240 B2 JP 4572240B2
Authority
JP
Japan
Prior art keywords
node
mobile robot
correlation coefficient
correlation
nodes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008003868A
Other languages
English (en)
Other versions
JP2008229834A (ja
Inventor
碩 浚 尹
宇 燮 韓
丞 基 閔
慶 植 ▲ろ▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2008229834A publication Critical patent/JP2008229834A/ja
Application granted granted Critical
Publication of JP4572240B2 publication Critical patent/JP4572240B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

本発明は、移動ロボットの位置認識方法に関するもので、より詳細には、全方位映像を用いて移動ロボットの位置を正確に把握できる移動ロボットの位置認識方法に関するものである。
全方位カメラは、カメラ周囲の360゜映像を得られるカメラで、最近、上述した全方位カメラを移動ロボットに装着し、全方位カメラによって撮影された全方位映像を用いて移動ロボットの位置を認識する技術が紹介された。
上記のような技術は、特許文献1に記載されたように、全方位視野を有する全方位視覚センサを移動体に搭載し、移動体を特定の経路上に移動させながら、全方位視覚センサによって移動体周辺の画像を時系列的な標準パターンを用いて取得した。また、移動体が任意の経路上に移動すると、全方位視覚センサの取得画像と標準パターンの画像とを比較し、全方位視覚センサの取得画像が標準パターンの画像と一致すると、標準パターンの画像と関連する位置を検出結果として認定した。
日本公開特許平10―160463号公報
しかしながら、上記のような従来の移動体の位置認識方法は、移動体の正確な位置を認識せずに概略的な位置のみを推定するので、移動体の位置認識に限界があった。
また、従来の移動体の位置認識方法は、マッチング法としてダイナミック・プログラミング(dynamic programming)を使用したが、このマッチング法は、誤差に敏感であるので、移動体の位置認識の正確性を一層低下させた。
本発明は、上述した問題点を解決するためのもので、その目的は、移動ロボットの位置を正確に把握できる移動ロボットの位置認識方法を提供することにある。
上記の目的を達成するための本発明は、移動ロボットで第1全方位映像を撮影し、前記第1全方位映像と相関関係の高い第2全方位映像が撮影される少なくとも一つのノードを確認し、前記移動ロボットが前記少なくとも一つのノードのうち前記第1全方位映像と相関関係の最も高い第2全方位映像が撮影される第1ノードに到達するとき、前記移動ロボットが前記第1ノードに位置すると認識する。
また、前記第1ノードでの第2全方位映像と前記撮影された第1全方位映像との間の相関係数が基準値より高いとき、前記移動ロボットが前記第1ノードに到達すると判断する。
また、前記現在の第1ノードが以前の第1ノードから変更されず、前記第1ノードでの第2全方位映像と前記撮影された第1全方位映像との間の相関係数が徐々に増加してから減少するとき、前記移動ロボットが前記第1ノードに到達すると判断する。
また、前記第1ノードでの第2全方位映像と前記撮影された第1全方位映像との間の相関係数が徐々に増加してから減少しないとき、前記移動ロボットを前記第1ノードに継続的に移動させる。
また、前記第1ノードが以前の第1ノードから変更されるとき、前記移動ロボットを新しい第1ノードに移動させる。
また、前記移動ロボットは、前記第1ノードに移動するとき、前記少なくとも一つのノードのうち前記第1ノードを除いた残りのノードの有効可否を検査し、移動ロボットの移動方向は、有効なノードの数が0に設定されるときに維持され、前記有効なノードの数が1に設定される場合、移動ロボットを有効なノードから前記第1ノード方向に移動させ、前記有効なノードの数が2に設定される場合、移動ロボットを前記第1ノード及び2個の有効なノードからなる三角形の重心から前記第1ノード方向に移動させる。
また、前記相関関係は、二つの全方位映像の水平面線の間の相関関係である。
また、前記相関関係は、相関係数で表現され、前記相関係数は、下記の式で算出される。
(上記の式において、ρ(τ)は相関係数で、τは回転角で、Cxyは相互相関値で、Cxx及びCyyは自己相関値である。)
前記相互相関値は、高速フーリエ変換を用いて演算される。
また、移動ロボットで第1全方位映像を撮影し、前記第1全方位映像と相関関係の高い第2全方位映像が撮影される少なくとも一つのノードを確認し、前記移動ロボットが前記第1全方位映像と相関関係の最も高い第2全方位映像が撮影される第1ノードに到達するとき、前記移動ロボットが前記第1ノードに位置すると認識し、前記移動ロボットが前記第1ノードに到達しないとき、前記移動ロボットを前記第1ノードに移動させる。
また、前記少なくとも一つのノードのうち前記第1ノードを除いた残りのノードの有効可否を検査し、有効なノードの数によって決定されたヘッディング角に前記移動ロボットを移動させ、前記移動ロボットを前記第1ノードに接近させる。
また、前記少なくとも一つのノードは3個であり、前記有効なノードの数が0個であるとき、移動ロボットの移動方向がヘッディング角に設定され、前記有効なノードの数が1個であるとき、有効なノードから前記第1ノードへの方向がヘッディング角に設定され、前記有効なノードの数が2個であるとき、前記第1ノード及び2個の有効なノードからなる三角形の重心から前記第1ノードへの方向がヘッディング角に設定される。
また、前記相関関係は、二つの全方位映像の水平面線の間の相関関係を示す。
また、前記相関関係は相関係数で表現され、前記相関係数は下記の式で算出される。
(上記の式において、ρ(τ)は相関係数で、τは回転角で、Cxyは相互相関値で、Cxx及びCyyは自己相関値である。)
また、前記相互相関値は、高速フーリエ変換を用いて演算される。
また、前記第1ノードを除いた残りのノードが前記第1ノードの有効範囲内にあるとき、前記ノードが有効であると判断される。
また、本発明に係る移動ロボットは、前記移動ロボットによって全方位映像を撮影する全方位カメラと;前記撮影された全方位映像と、前記移動ロボットの移動可能な場所の少なくとも一つのノード位置として、複数のノード位置のうち最も高い相関係数を有するノード位置で撮影された少なくとも一つの第2全方位映像との間の相関係数を計算する相関係数演算部と;前記相関係数が基準値以下で、前記現在の第1ノード位置が以前の第1ノード位置と同一でないと前記相関係数演算部が演算するとき、前記移動ロボットを前記第1ノード位置に移動させ、前記相関係数が前記基準値以上であるとき、前記移動ロボットが前記第1ノード位置にあると判断する制御部とを含む。
また、前記制御部は、前記現在の第1ノード位置が以前の第1ノード位置と同一でないとき、前記移動ロボットを前記第1ノード位置に移動させる。
また、前記相関係数が前記基準値以下で、前記現在の第1ノード位置が前記以前の第1ノード位置と同一で、前記現在の第1ノード位置の相関係数が前記以前の第1ノード位置の相関係数未満であるとき、前記制御部は、前記移動ロボットが前記第1ノード位置にあると判断し、前記以前の第1ノード位置の相関係数は、前記以前の第1のノード位置より前の他の第1ノード位置の相関係数以上である。
また、前記相関係数が前記基準値以下で、前記現在の第1ノード位置が前記以前の第1ノード位置と同一で、前記現在の第1ノード位置の相関係数が前記以前の第1ノード位置の相関係数未満であるとき、前記制御部は、前記移動ロボットを前記第1ノード位置に移動させる。
本発明は、移動ロボットが任意のノードに到達していない場合、移動ロボットをそのノードに継続的に移動させ、移動ロボットが任意のノードに到達したと認定されるときのみに移動ロボットがそのノードにあると判断するので、移動ロボットの位置を正確に認識することができる。
また、本発明は、移動ロボットを任意のノードに接近させる過程でノードの有効可否を検査し、任意のノードに到達するまで移動ロボットのヘッディング角を複数回修正することで、各種の誤差が発生した場合にも、移動ロボットの位置を正確に把握することができる。
また、本発明は、移動ロボットの以前の位置データなしにも移動ロボットの位置を正確に認識できるので、移動ロボットの初期位置を認識するとき、または、移動ロボットの位置が突然に変わるキッドナップ(kidnap)発生時にも有用に使用される。
以下、本発明の好適な実施例を、図面を参照して詳細に説明する。
図1に示すように、本発明が適用される移動ロボット10は、ロボット本体12と、ロボット本体12に装着された全方位カメラ11とを含む。全方位カメラ11は、図2に示すように、全方位レンズ11a及びCCD素子11bで構成される。
図2に示すように、全方位カメラ11の前面部に曲面鏡が装着されることで、図3に示すような全方位カメラ周辺の360゜映像を得ることができる。すなわち、任意の空間上の点Xmirは、曲面鏡面の点Xmirで反射されてCCD素子11bに結像され、最終的に映像面の点Ximgで表れる。ここで、上述したXmirが全方位に分布するので、全方位カメラは、カメラ周囲の360゜映像を獲得することができる。
図4に示すように、本発明が適用される移動ロボット10は、図1または図2に示した構成要素の他に、ノードデータを保存するメモリ30と、移動ロボット10を制御する制御部20とを含む。
ノードデータは、図5に示すように、移動ロボットが移動可能な場所の各ノード位置を示したノードマップと、該当のノードでの全方位映像と、全方位映像での水平面線とを含む。ノードマップの各ノード位置は、座標値として保存される。また、各ノードでの全方位映像は、移動ロボット10が移動しながら、各ノードで全方位カメラ11が全方位映像を撮影することで得られる。ここで、各ノードで全方位映像を撮影するとき、全方位カメラ11は、同一のキャプチャー方向(capture direction)を指向することが好ましい。水平面線は、図6に示すように、全方位映像の表面(または底面)と平行な面を表示する線である。
制御部は、映像処理部22と、相関係数演算部21とを含む。映像処理部22は、全方位カメラ11で撮影した全方位映像の前処理を行うための構成要素で、図3の全方位映像から無意味な部分を切り出し、ドナーツ形態の円形にヒストグラム平滑化を行う方式で映像を処理する。
映像処理部22で映像処理が完了すると、制御部20は、上述した水平面線を抽出する。このとき、水平面線は、全方位映像の原点を基準に規定された位置に設定され、水平面線の解像度は、相関係数の演算時に使用される高速フーリエ変換の特性を勘案した上で、2の二乗であることが好ましい。
相関係数演算部21は、下記の式に基づいて、移動ロボット10で撮影された全方位映像の第1水平面線と各ノードから得られた全方位映像の第2水平面線との間の相関係数を算出する。
(上記の式において、ρ(τ)は相関係数で、τは回転角で、Cxyは相互相関値で、Cxx及びCyyは自己相関値である。)
上記の式において、相関係数の最高値は1であり、相関係数の絶対値が1に近いほど、比較される全方位映像の水平面線が互いに類似している。そして、Cxyは、高速フーリエ変換を用いて求める。
フーリエ変換(Fourier transform)は、周波数領域と時間領域との間に含まれた数値的連続列の表現を変換するために使用する数学的演算で、一連の時間サンプルを採取し、採取された時間サンプルの周波数要素を測定し、時間サンプル連続列にどれだけ多くのエネルギーが表れるかを多様な周波数を用いて計算する。上記のようなフーリエ変換を高速化したものが高速フーリエ変換である。フーリエ変換は、どの長さの解像度連続列も計算可能であるが、高速フーリエ変換の利点を最大限に活用するためには、上述したように、その水平面線の解像度が2の二乗になることが好ましい。
以下、図7及び図8を参照して、本発明の一実施例に係る移動ロボットの位置認識方法を説明する。移動ロボット10が空間上の任意の位置に置かれると、移動ロボット10の全方位カメラ11は全方位映像を撮影する(40段階)。撮影された全方位映像は、映像処理部22を経て相関係数演算部21に伝達され、相関係数演算部21は、撮影された全方位映像の水平面線と各ノードでの全方位映像の水平面線との間の相関係数を演算する(42段階)。
各ノードの相関係数演算が完了すると、制御部20は、撮影された全方位映像との相関関係が高い(すなわち、相関係数の絶対値が大きい)3個のノードを選択する(44段階)。次に、制御部20は、3個のノードのうち相関関係が最も高いノードを第1ノードに決定し、第1ノードの相関係数が基準値より大きいかどうかを判断する(46段階)。このとき、基準値は、全方位カメラ11の仕様を考慮して選択することが好ましく、1に近い値に設定する。
第1ノードの相関係数が基準値を越える場合、制御部20は、移動ロボット10が第1ノードに位置し、移動ロボット10で得た全方位映像と第1ノードの全方位映像との間の水平面線の相関関係が高いと見なし、移動ロボット10が第1ノードに位置すると認識する(52段階)。
その反対に、第1ノードの相関係数が基準値を越えない場合、制御部20は、現在の第1ノードが以前の第1ノードと同一であるかどうかを判断する。この段階は、移動ロボットが特定のノードと同一のノードに位置しなくても、特定のノードの周囲で継続的に移動するかどうかを判断するためのステップである。
現在の第1ノードが以前の第1ノードと同一である場合(48段階)、制御部20は、現在の第1ノードの相関係数(C[0])が以前の第1ノードの相関係数(C[1])より小さいかどうか、この第1ノードの相関係数(C[1])がそれより以前の第1ノードの相関係数(C[2])より大きいかどうか、この第1ノードの相関係数(C[2])がそれより以前の相関係数(C[3])より大きいかどうかを判断する(50段階)。ここで、C[n−1](ただし、nは自然数)は、現在または以前に演算された第1ノードの相関係数であり、後述する54段階で削除される前までメモリ30に保存されている。
上述した条件を満足すると、制御部20は、移動ロボット10が第1ノードに漸次接近しながら第1ノードから遠ざかると判断し、移動ロボット10が第1ノードに位置すると認識する(52段階)。しかし、メモリ30に保存されたC[n−1](ただし、nは自然数)の個数が4個未満であるか、C[n−1](ただし、nは自然数)が継続的に増加するなどのように、上述した条件を満足していない場合、制御部20は、移動ロボット10が第1ノードに到達していないと見なし、移動ロボットを第1ノードに継続的に移動させる(56段階)。
一方、48段階で現在の第1ノードが以前の第1ノードと異なる場合(48段階)、制御部20は、移動ロボット10が以前の第1ノードでない現在の第1ノードに移動すると見なし、以前の第1ノードへの接近可否を判断するために、メモリ30に保存されていたC[n−1](ただし、nは自然数)を削除する(54段階)。そして、移動ロボット10は、新しい第1ノードに移動する(56段階)。
図8に示すように、移動ロボット10は、第1ノードに移動するために、まず、先に選択された3個のノードのうち第1ノードを除いた残りの2個のノードの有効可否を検査する(56−1段階)。有効条件は、多様な方式で設定可能であるが、本発明では、第1ノードを基準にして3個以内のノードであると、有効なノードと判断する。例えば、図5の33番ノードが第1ノードであると、有効範囲は、図5の点線区域である。また、相関係数の大きい残りの2個のノードが41番及び42番であると、41番及び42番ノードは、全て有効範囲に含まれるので、有効なノードと認定される。
ノードの有効可否検査が終了すると、移動ロボット10の回転角を検出する(56−2段階)。移動ロボット10の回転角は、キャプチャー方向(例えば、図5の下部から上部方向)と移動ロボット10の進行方向との間角である。次に、移動ロボットのヘッディング角を決定する(56−3段階)。移動ロボット10のヘッディング角は、移動ロボット10が第1ノードに一層接近するように移動ロボット10が進行すべき方向とキャプチャー方向との間角である。
移動ロボット10のヘッディング角は、有効ノードの数によって異なる方式で設定される。すなわち、44段階で選択された3個のノードのうち第1ノードを除いた残りの2個のノードが全て有効でない場合、既存の移動ロボット進行方向をヘッディング角に設定する。また、残りの2個のノードのうち1個のノードのみが有効である場合、移動ロボット10が第1ノードと有効ノードとの間に位置すると見なし、移動ロボット10を第1ノード方向に移動させるために、移動ロボット10のヘッディング角を有効ノード方向の代わりに第1ノード方向に設定する。
最後に、残りの2個のノードが全て有効である場合、制御部20は、移動ロボット10が第1ノード及び2個の有効ノードからなる三角形の内部に位置すると見なし、移動ロボット10を第1ノードに接近させるために、三角形の重心から第1ノードに向かう方向を移動ロボット10のヘッディング角に設定する。
移動ロボット10のヘッディング角が抽出されると、制御部20は、移動ロボット10の進行方向を回転角からヘッディング角に変更し、移動ロボット10を移動させる(56−4段階)。そして、40段階にリターンし、図7のサイクルを再び行う。
本発明が適用される移動ロボットの外形図である。 図1の移動ロボットに設置された全方位カメラの断面図である。 図2の全方位カメラによって撮影された全方位映像を例示した図である。 本発明が適用される移動ロボットのブロック図である。 移動ロボットが移動可能な空間のノードを例示した図である。 図3の全方位映像での水平面線を例示した図である。 本発明の一実施例に係る移動ロボットの位置認識方法を示したフローチャートである。 図7の56段階を詳細に示したフローチャートである。
符号の説明
10 移動ロボット
11 全方位カメラ
20 制御部
21 相関係数演算部
22 映像処理部
30 メモリ

Claims (17)

  1. 移動ロボットで第1全方位映像を撮影し、
    前記第1全方位映像と相関関係の高い第2全方位映像が撮影される少なくとも一つのノードを確認し、
    前記移動ロボットが前記少なくとも一つのノードのうち前記第1全方位映像と相関関係の最も高い第2全方位映像が撮影される第1ノードに到達するとき、前記移動ロボットが前記第1ノードに位置すると認識し、
    前記第1ノードでの第2全方位映像と前記撮影された第1全方位映像との間の相関係数が徐々に増加してから減少しないとき、前記移動ロボットを前記第1ノードに継続的に移動させ、
    前記移動ロボットは、前記第1ノードに移動するとき、前記少なくとも一つのノードのうち前記第1ノードを除いた残りのノードの有効可否を検査し、
    移動ロボットの移動方向は、有効なノードの数が0に設定されるときに維持され、前記有効なノードの数が1に設定される場合、移動ロボットを有効なノードから前記第1ノード方向に移動させ、前記有効なノードの数が2に設定される場合、移動ロボットを前記第1ノード及び2個の有効なノードからなる三角形の重心から前記第1ノード方向に移動させることを特徴とする
    移動ロボットの位置認識方法。
  2. 前記第1ノードでの第2全方位映像と前記撮影された第1全方位映像との間の相関係数が基準値より高いとき、前記移動ロボットが前記第1ノードに到達すると判断することを特徴とする請求項1に記載の移動ロボットの位置認識方法。
  3. 前記現在の第1ノードが以前の第1ノードと異ならず、前記第1ノードでの第2全方位映像と前記撮影された第1全方位映像との間の相関係数が徐々に増加してから減少するとき、前記移動ロボットが前記第1ノードに到達すると判断することを特徴とする請求項1に記載の移動ロボットの位置認識方法。
  4. 前記第1ノードが以前の第1ノードと異なるとき、前記移動ロボットを新しい第1ノードに移動させることを特徴とする請求項3に記載の移動ロボットの位置認識方法。
  5. 前記相関関係は、二つの全方位映像の水平面線の間の相関関係であることを特徴とする請求項1に記載の移動ロボットの位置認識方法。
  6. 前記相関関係は、相関係数で表現され、前記相関係数は、下記の式で算出され
    ここで、ρ(τ)は相関係数であり、τは回転角であり、Cxyは相互相関値であり、Cxx及びCyyは自己相関値であることを特徴とする
    請求項1に記載の移動ロボットの位置認識方法。
  7. 前記相互相関値は、高速フーリエ変換を用いて演算されることを特徴とする請求項に記載の移動ロボットの位置認識方法。
  8. 移動ロボットで第1全方位映像を撮影し、
    前記第1全方位映像と相関関係の高い第2全方位映像が撮影される少なくとも一つのノードを確認し、
    前記移動ロボットが前記第1全方位映像と相関関係の最も高い第2全方位映像が撮影される第1ノードに到達するとき、前記移動ロボットが前記第1ノードに位置すると認識し、前記移動ロボットが前記第1ノードに到達しないとき、前記移動ロボットを前記第1ノードに移動させ
    前記少なくとも一つのノードのうち前記第1ノードを除いた残りのノードの有効可否を検査し、
    有効なノードの数によって決定されたヘッディング角に前記移動ロボットを移動させ、前記移動ロボットを前記第1ノードに接近させ、
    前記少なくとも一つのノードは3個であり、前記有効なノードの数が0個であるとき、移動ロボットの移動方向がヘッディング角に設定され、前記有効なノードの数が1個であるとき、有効なノードから前記第1ノードへの方向がヘッディング角に設定され、前記有効なノードの数が2個であるとき、前記第1ノード及び2個の有効なノードからなる三角形の重心から前記第1ノードへの方向がヘッディング角に設定されることを特徴とする
    移動ロボットの位置認識方法。
  9. 前記相関関係は、二つの全方位映像の水平面線の間の相関関係を示すことを特徴とする請求項に記載の移動ロボットの位置認識方法。
  10. 前記相関関係は相関係数で表現され、前記相関係数は下記の式で算出され
    ここで、ρ(τ)は相関係数であり、τは回転角であり、Cxyは相互相関値であり、Cxx及びCyyは自己相関値であることを特徴とする
    請求項に記載の移動ロボットの位置認識方法。
  11. 前記相互相関値は、高速フーリエ変換を用いて演算されることを特徴とする請求項10に記載の移動ロボットの位置認識方法。
  12. 前記移動ロボットは、前記新しい第1ノードに移動するとき、前記少なくとも一つのノードのうち前記新しい第1ノードを除いた残りのノードの有効可否を検査し、
    前記移動ロボットの移動方向は、有効なノードの数が0に設定されるときに維持され、前記有効なノードの数が1に設定されるとき、移動ロボットを有効なノードから前記新しい第1ノード方向に移動させ、前記有効なノードの数が2に設定されるとき、移動ロボットを前記新しい第1ノード及び2個の有効なノードからなる三角形の重心から前記新しい第1ノード方向に移動させることを特徴とする
    請求項11に記載の移動ロボットの位置認識方法。
  13. 前記第1ノードを除いた残りのノードが前記第1ノードの有効範囲内にあるとき、前記ノードが有効であると判断されることを特徴とする請求項10に記載の移動ロボットの位置認識方法。
  14. 当該移動ロボットによって全方位映像を撮影する全方位カメラと
    前記撮影された全方位映像と、当該移動ロボットの移動可能な場所の少なくとも一つのノード位置として、複数のノード位置のうち最も高い相関係数を有するノード位置で撮影された少なくとも一つの第2全方位映像との間の相関係数を演算する相関係数演算部と
    前記相関係数が基準値以下で、前記現在の第1ノード位置が以前の第1ノード位置と同一でないと前記相関係数演算部が演算するとき、当該移動ロボットを前記第1ノード位置に移動させ、前記相関係数が前記基準値以上であるとき、当該移動ロボットが前記第1ノード位置にあると判断する制御部とをみ、
    前記少なくとも一つのノードのうち前記第1ノードを除いた残りのノードの有効可否を検査し、
    有効なノードの数によって決定されたヘッディング角に当該移動ロボットを移動させ、当該移動ロボットを前記第1ノードに接近させ、
    前記少なくとも一つのノードは3個であり、前記有効なノードの数が0個であるとき、当該移動ロボットの移動方向がヘッディング角に設定され、前記有効なノードの数が1個であるとき、有効なノードから前記第1ノードへの方向がヘッディング角に設定され、前記有効なノードの数が2個であるとき、前記第1ノード及び2個の有効なノードからなる三角形の重心から前記第1ノードへの方向がヘッディング角に設定されることを特徴とする
    移動ロボット。
  15. 前記制御部は、前記現在の第1ノード位置が以前の第1ノード位置と同一でないとき、当該移動ロボットを前記第1ノード位置に移動させることを特徴とする請求項14に記載の移動ロボット。
  16. 前記相関係数が前記基準値以下で、前記現在の第1ノード位置が前記以前の第1ノード位置と同一で、前記現在の第1ノード位置の相関係数が前記以前の第1ノード位置の相関係数未満であるとき、前記制御部は、当該移動ロボットが前記第1ノード位置にあると判断し、前記以前の第1ノード位置の相関係数は、前記以前の第1のノード位置より前の他の第1ノード位置の相関係数以上であることを特徴とする請求項14に記載の移動ロボット。
  17. 前記相関係数が前記基準値以下で、前記現在の第1ノード位置が前記以前の第1ノード位置と同一で、前記現在の第1ノード位置の相関係数が前記以前の第1ノード位置の相関係数未満であるとき、前記制御部は、当該移動ロボットを前記第1ノード位置に移動させることを特徴とする請求項14に記載の移動ロボット。
JP2008003868A 2007-03-20 2008-01-11 移動ロボット及び移動ロボットの位置認識方法 Active JP4572240B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070027068A KR100941418B1 (ko) 2007-03-20 2007-03-20 이동 로봇의 위치 인식 방법

Publications (2)

Publication Number Publication Date
JP2008229834A JP2008229834A (ja) 2008-10-02
JP4572240B2 true JP4572240B2 (ja) 2010-11-04

Family

ID=39774744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008003868A Active JP4572240B2 (ja) 2007-03-20 2008-01-11 移動ロボット及び移動ロボットの位置認識方法

Country Status (4)

Country Link
US (1) US8588512B2 (ja)
JP (1) JP4572240B2 (ja)
KR (1) KR100941418B1 (ja)
CN (1) CN101271333B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8311285B2 (en) * 2009-06-30 2012-11-13 Mitsubishi Electric Research Laboratories, Inc. Method and system for localizing in urban environments from omni-direction skyline images
US8249302B2 (en) * 2009-06-30 2012-08-21 Mitsubishi Electric Research Laboratories, Inc. Method for determining a location from images acquired of an environment with an omni-directional camera
KR101739996B1 (ko) * 2010-11-03 2017-05-25 삼성전자주식회사 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법
CA2720886A1 (en) * 2010-11-12 2012-05-12 Crosswing Inc. Customizable virtual presence system
US9930252B2 (en) * 2012-12-06 2018-03-27 Toyota Motor Engineering & Manufacturing North America, Inc. Methods, systems and robots for processing omni-directional image data
CN103135551B (zh) * 2013-02-28 2015-05-06 上海大学 一种精确定位火灾搜救机器人
KR102087595B1 (ko) * 2013-02-28 2020-03-12 삼성전자주식회사 내시경 시스템 및 그 제어방법
DE102014226077A1 (de) * 2014-12-16 2016-06-16 Robert Bosch Gmbh Verfahren zum Erkennen eines Arbeitsbereichs eines autonomen Arbeitsgeräts sowie ein Arbeitsgerät
TWI570423B (zh) 2015-04-13 2017-02-11 國立交通大學 定位方法
US20200082262A1 (en) * 2016-12-21 2020-03-12 Intel Corporation Camera re-localization by enhanced neural regression using middle layer features in autonomous machines
JP7180612B2 (ja) * 2017-12-05 2022-11-30 ソニーグループ株式会社 制御装置、および制御方法、プログラム、並びに移動体
US11320828B1 (en) 2018-03-08 2022-05-03 AI Incorporated Robotic cleaner
US11254002B1 (en) 2018-03-19 2022-02-22 AI Incorporated Autonomous robotic device
CN110297697B (zh) * 2018-03-21 2022-02-18 北京猎户星空科技有限公司 机器人动作序列生成方法和装置
US11454981B1 (en) 2018-04-20 2022-09-27 AI Incorporated Versatile mobile robotic device
US11340079B1 (en) 2018-05-21 2022-05-24 AI Incorporated Simultaneous collaboration, localization, and mapping
US11548159B1 (en) 2018-05-31 2023-01-10 AI Incorporated Modular robot
US11199853B1 (en) 2018-07-11 2021-12-14 AI Incorporated Versatile mobile platform
EP3929613A1 (en) 2020-06-22 2021-12-29 Carnegie Robotics, LLC A method for navigating a movable device along an inclined surface
EP3929690A1 (en) 2020-06-22 2021-12-29 Carnegie Robotics, LLC A method and a system for analyzing a scene, room or venueby determining angles from imaging elements to visible navigation elements
CN111906765B (zh) * 2020-07-31 2022-07-12 平安科技(深圳)有限公司 应用于路径规划的空间采样方法、装置、设备及介质
US11511165B1 (en) * 2022-05-30 2022-11-29 Tennibot, Inc. Autonomous tennis assistant systems

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002296010A (ja) * 2001-03-29 2002-10-09 Fujitsu Ltd 画像を用いた自己位置同定方法
JP2004042148A (ja) * 2002-07-09 2004-02-12 Mitsubishi Heavy Ind Ltd 移動ロボット
JP2004133567A (ja) * 2002-10-09 2004-04-30 Hitachi Ltd 移動体およびその位置検出装置
JP2005315746A (ja) * 2004-04-28 2005-11-10 Mitsubishi Heavy Ind Ltd 自己位置同定方法及び該装置
JP2006004175A (ja) * 2004-06-17 2006-01-05 Toshiba Corp 自己位置同定装置および自己位置同定方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5961571A (en) * 1994-12-27 1999-10-05 Siemens Corporated Research, Inc Method and apparatus for automatically tracking the location of vehicles
JP3641335B2 (ja) 1996-12-03 2005-04-20 シャープ株式会社 全方位視覚センサを用いた位置検出方法
KR100632242B1 (ko) * 2000-11-22 2006-10-11 삼성광주전자 주식회사 모빌로봇의 경로보정방법
JP2003223633A (ja) * 2002-01-29 2003-08-08 Sharp Corp 全方位視覚システム
KR100485696B1 (ko) 2003-02-07 2005-04-28 삼성광주전자 주식회사 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기
KR100569181B1 (ko) * 2004-01-06 2006-04-07 김진오 실내 항법을 위한 좌표확인 시스템
KR100754385B1 (ko) * 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
US7228230B2 (en) * 2004-11-12 2007-06-05 Mitsubishi Denki Kabushiki Kaisha System for autonomous vehicle navigation with carrier phase DGPS and laser-scanner augmentation
US20100222925A1 (en) * 2004-12-03 2010-09-02 Takashi Anezaki Robot control apparatus
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
CN100489851C (zh) * 2006-04-29 2009-05-20 上海杰图软件技术有限公司 构建全景电子地图服务的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002296010A (ja) * 2001-03-29 2002-10-09 Fujitsu Ltd 画像を用いた自己位置同定方法
JP2004042148A (ja) * 2002-07-09 2004-02-12 Mitsubishi Heavy Ind Ltd 移動ロボット
JP2004133567A (ja) * 2002-10-09 2004-04-30 Hitachi Ltd 移動体およびその位置検出装置
JP2005315746A (ja) * 2004-04-28 2005-11-10 Mitsubishi Heavy Ind Ltd 自己位置同定方法及び該装置
JP2006004175A (ja) * 2004-06-17 2006-01-05 Toshiba Corp 自己位置同定装置および自己位置同定方法

Also Published As

Publication number Publication date
KR20080085472A (ko) 2008-09-24
JP2008229834A (ja) 2008-10-02
CN101271333A (zh) 2008-09-24
US20080232678A1 (en) 2008-09-25
US8588512B2 (en) 2013-11-19
KR100941418B1 (ko) 2010-02-11
CN101271333B (zh) 2010-12-15

Similar Documents

Publication Publication Date Title
JP4572240B2 (ja) 移動ロボット及び移動ロボットの位置認識方法
US9811742B2 (en) Vehicle-surroundings recognition device
KR100966875B1 (ko) 전방위 영상을 이용한 로봇의 위치 결정방법
EP2620907B1 (en) Pupil detection device and pupil detection method
JP4809291B2 (ja) 計測装置及びプログラム
KR101072876B1 (ko) 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
CN106960454B (zh) 景深避障方法、设备及无人飞行器
JP5894426B2 (ja) 計測対象抽出装置、顔形状推定装置、計測対象抽出方法および顔形状推定方法
EP2610783B1 (en) Object recognition method using an object descriptor
JP4361913B2 (ja) 動き量計算装置
JP2006090957A (ja) 移動体の周囲物体検出装置及び移動体の周囲物体検出方法
JP2015059808A (ja) 物体監視装置、および物体監視システム
JP5743935B2 (ja) 対象物検出装置および対象物検出方法
JPH07181024A (ja) 3次元形状計測方法および装置
KR101459522B1 (ko) 모바일 기반의 부가정보를 이용한 위치 보정 방법
KR101290517B1 (ko) 촬영장치 및 이의 대상 추적방법
JP4069919B2 (ja) 衝突判定装置、および方法
KR101997563B1 (ko) 이동 기기의 위치 인식 방법
KR20140011672A (ko) 로봇 제어 방법 및 장치
JP6950273B2 (ja) 飛行物体位置検知装置、飛行物体位置検知システム、飛行物体位置検知方法及びプログラム
JP5152144B2 (ja) 画像処理装置
JP6237117B2 (ja) 画像処理装置、ロボットシステム、画像処理方法、および画像処理プログラム
JP7019113B2 (ja) 相対位置検出装置、相対位置検出方法、及び相対位置検出プログラム
WO2019021393A1 (ja) 距離計測装置および距離計測方法
JP5614100B2 (ja) 画像処理装置及び移動体位置推定方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100630

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100727

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4572240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250