JP4798450B2 - ナビゲーション装置とその制御方法 - Google Patents
ナビゲーション装置とその制御方法 Download PDFInfo
- Publication number
- JP4798450B2 JP4798450B2 JP2006330338A JP2006330338A JP4798450B2 JP 4798450 B2 JP4798450 B2 JP 4798450B2 JP 2006330338 A JP2006330338 A JP 2006330338A JP 2006330338 A JP2006330338 A JP 2006330338A JP 4798450 B2 JP4798450 B2 JP 4798450B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- stored
- autonomous
- mobile body
- autonomous mobile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 30
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 2
- 239000002390 adhesive tape Substances 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Platform Screen Doors And Railroad Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
これら移動ロボットや無人搬送台車の移動手段として、磁気テープや光学式テープなどを用いたガイド式移動手段と、レーザーレンジファインダ(LRF)やRTK−GPSなどを用いた自律式移動手段とが既に提案されている(例えば、特許文献1、非特許文献1〜3)。
また、本発明と関連する技術として、非特許文献4が開示されている。
このため、特許文献1では、図7に示すように、被搬送物Pを載置する走行台車本体51を走行駆動する走行駆動装置52、搬送走行面上に敷設表示の軌条線53及び載置セットした制御コードマーク片54に表示のコマンドマーク夫々を視覚的に画像認識する視覚認識装置55、軌条線53に沿った走行方向を操舵する操舵装置56、視覚認識装置55で撮像・認識したコマンドコードで走行台車本体51の速度、走行方向、停止・発進・後退等を制御する制御装置を備える。軌条線53は粘着テープ体表面に目視可能に表示形成し、制御コードマーク片54はコマンドスタート部54a、コマンドコードを表示するコマンド部54b,54c、コマンドエンド部54d夫々を左右で対称表示し、制御内容を目視理解させる目視表示部57を連設してある。
しかし、製品サイクルの短縮化から搬送経路の多様化が要求され、無人搬送台車における移動手段にも経路変更が容易な自律式移動手段が求められるようになった。
この自律式移動手段として、上述した非特許文献1〜3のナビゲーション手段が開示されている。
非特許文献2,3のナビゲーション手段は、レーザーレンジファインダ(LRF)やRTK−GPSなど高価で複雑なセンサを用いるため、装置が複雑化し高価となるため、用途が限定される問題点がある。
自律移動体の移動方向の画像を一定間隔で撮影するカメラと、
記憶装置と演算装置を有し前記カメラの画像に基づき自律移動体を制御する制御装置とを備えたナビゲーション装置の制御方法であって、
自律移動体を所定の走行経路に沿って移動させて、前記記憶装置にカメラの画像と自律移動体に対するコマンドを含む所定のセンサ情報について、間隔を開けて記憶する教示走行ステップと、
記憶した前記センサ情報と現時点のセンサ情報とを比較して、自律移動体が前記走行経路を移動するように自律移動体を制御する自律走行ステップとを有し、
前記教示走行ステップにおいて、所定の走行経路上において前記カメラによって撮影された現在の外部画像Vと前記記憶装置に記憶されている直前の記憶画像V(i)(iは正の整数)とのマッチング誤差E(i)を演算し、そのマッチング誤差E(i)が所定の閾値e1を上回った場合に新しい画像V(i+1)と自律移動体に対する新しいコマンドM(i+1)を記憶する、ことを特徴とするナビゲーション装置の制御方法が提供される。
前記マッチング誤差E(i)は、記憶画像V(i)と現時点の外部画像Vの特徴点に対し、記憶画像V(i)中のある特徴点と、外部画像V中のすべての特徴点との距離を計算し、その中で最小のものを選択し、これをすべての特徴点に対して行い、それぞれの特徴点を1対1に対応させ、対応する2点間の距離が所定の閾値以下のものを小さい順に複数選択し、それらの距離の平均値を算出し、この平均値が最小になるように、記憶画像V(i)又は外部画像Vを相対的に移動させた際の最小平均距離であり、
前記最小平均距離が所定の閾値以下のときに2つの画像のマッチングが取れたものと判断する。
前記マッチング誤差E(i)が所定の閾値を超えるときにマッチングが取れないマッチングミスと判断し、既にマッチングが取れた走行経路上の最も近い位置及び方位までGPS端末と方位センサにより自律移動体を案内する。
この自律移動体1は、図示しない補助輪と、左右の独立した駆動輪2,3を有し、駆動輪2,3の同方向又は逆方向の回転により、直進(図で右方向)、右折、左折ができるようになっている。
カメラ12は、例えば安価なUSBカメラ又はウエブカメラであり、自律移動体1の前方の画像をリアルタイムに撮影し制御装置18に入力するようになっている。画像の視野角は、固定であるのが好ましいが可変であってもよい。画像は、少なくとも30万画素(640×480ピクセル)以上のモノクロ画像であるのがよい。
ここで「リアルタイム」とは、走行経路上のある位置を通過する瞬間と撮影時との時間差がほとんど0(例えば100msec以下)であることを意味する。なお、撮影自体は連続的ではなく、制御装置18による後述する画像処理に要する時間より長い一定時間間隔であってもよい。
方位センサ16は、自律移動体1の前方方位をリアルタイムに検出し制御装置18に入力する。
制御装置18は、記憶装置と演算装置を有するコンピュータであり、本発明によるナビゲーション方法を実施するためのプログラムが記憶装置にインストールされ、このプログラムにより自律移動体1を制御するようになっている。
制御装置18は、記憶装置に記憶された記憶画像と現時点の外部画像の特徴点を抽出する特徴点抽出手段、特徴点同士のマッチング誤差を計算する誤差計算手段、及びマッチング誤差が所定の閾値より小さい地点まで、自律移動体を案内する復帰手段として機能する。
これらの特徴点抽出手段、誤差計算手段及び復帰手段は、コンピュータの記憶装置にインストールされたプログラムと演算装置により実行される。
教示走行ステップS1は、人間が自律移動体1を操作する走行であり、その際制御装置18は、そのときの走行経路のセンサ情報を記憶する。自律移動体1の操作は、制御装置18に無線又は有線で任意のモータコマンド(回転方向、回転速度、等)を入力して行うのがよい。
一方、自律走行ステップS2は、記憶したセンサ情報と現在のセンサ情報とを比較して制御することにより走行する走行である。
本発明において、記憶するセンサ情報は、カメラ12による撮影画像、GPS端末14による位置情報、方位センサ16による方位、及び駆動輪2,3に対するモータコマンド(回転方向、回転速度、等)である。以下、記憶装置に記憶された画像を「記憶画像」、カメラ12による現在の撮影画像を「外部画像」と呼ぶ。
なお、本発明では屋外走行において、記憶する画像には明るさの変化に対してロバストな画像処理を行う必要がある。そこで、本発明では、取得画像に対して特徴点抽出を行い、抽出された点同士のマッチングをとる。特徴点抽出は色への依存度が低いため、多少色味が変わっても影響を受けることなく抽出できる利点がある。また画像全体が見えていないような場合でも、部分的な照合も可能である。
本発明では、画像特徴点の抽出・追跡手段として、非特許文献4に開示されている特徴点抽出(Good Features to Track)を用いた。以下、この方法を単に「特徴点抽出法」と呼ぶ。本発明では、マッチング可能な任意の特徴点抽出手法を用いることができ、有用である。
図3は、本発明による教示走行ステップS1におけるセンサ情報の記憶方法を示す模式図である。
本発明で用いるセンサ情報は、画像情報を基に生成する。スタート地点の記憶画像をV(i)(i=1、iは正の整数)として、現在の外部画像Vと前回記憶した記憶画像V(i)とのマッチング誤差E(i)を演算し、そのマッチング誤差E(i)が所定の閾値e1を上回った場合に新しい画像V(i+1)と新しいコマンドM(i+1)を記憶する。
これにより、自律移動体1の移動距離には依存せず、外部画像Vの特徴量の変化に依存した画像の記憶ができる。ここでのマッチング誤差E(i)の算出方法は、後述する自律走行時の方法と同じである。この画像情報にGPS端末14による位置情報G(i)と、その際のモータコマンドM(i)(直進、右折、左折など)を付加した時系列情報を教示データ(すなわちセンサ情報)とする。
自律走行は主に画像とモータコマンドをベースとして行う。画像によるナビゲーションは、現在の外部画像と記憶した記憶画像との照合度(後述する)を計算し、そこから記憶画像と外部画像の視野のずれを算出する。そして、そのずれを自律移動体のステアリングに反映することで自律移動体の軌道を随時修正し、ナビゲーションを実現する。
画像の照合は抽出した特徴点同士の距離の平均値が小さくなるように、片方の画像を上下左右に動かしながらマッチングをとる。このときの距離の平均値をマッチング誤差E(i)として、この値が小さいほど照合度が大きいとする。
この方法は輝度値など屋外では不安定な特徴を用いないこと、特徴点ごとではなく特徴点全体を考慮した照合方法であることなどから屋外においても有用な方法である。
領域基準マッチングは特徴量付近の局所相関に基づく方法であり、画素情報(輝度値など)に大きく依存するため、屋外画像の場合に誤対応が多くなる。これに対し、特徴量基準マッチングは特徴量を広い領域で比較する方法である。この方法は他の画素情報に依存しない対応付けができるので、誤対応が少ない特徴がある。
以下、本発明における画像マッチングのアルゴリズムについて説明する.
この図において、黒丸は記憶画像V(i)の特徴点、白丸は現在の外部画像Vの特徴点を示す。記憶画像V(i)と外部画像Vの特徴点抽出は、上述した非特許文献4の方法による。
次にこの図において、まず記憶画像V(i)中のある特徴点R1と、外部画像V中のすべての特徴点との距離を計算し,その中で最小のものを選択する(A)。これをすべての特徴点に対して行い、それぞれの特徴点を1対1の対応にする(B)。
次いで、1対1に対応した2点間の距離が所定の閾値以下のもの選択し、このとき条件を満たす特徴点の数をnとして、それらの距離の総和をnで割った平均値(平均距離)を算出する。
この計算を、記憶画像V(i)又は外部画像Vを上下左右に平行移動しながら行い(C)、平均距離がもっとも小さいときを2つの画像のマッチングが取れたものとする(D)。またこのときの平均距離(最小平均距離)を2つの画像のマッチング誤差E(i)とする。
この計算により2つの画像間における、マッチング誤差E(i)とそのときの2画像間の横方向,縦方向のずれが算出される。ここでマッチング誤差E(i)は平均距離の最小値(最小平均距離)なので、小さいほうが2つの画像は似ていると判断することができる。
図5は、本発明による自律走行ステップS2のフロー図である。自律走行ステップS2は、初期位置決定ステップS21,S22,S23とナビゲーションステップS24、S25,S26,S27,S28,S29からなる。
まずナビゲーション開始時は、記憶画像の最初の画像(i=1,iは画像のシーケンス番号)と照合度を計算しマッチングがとれるまで探索する。マッチングがとれたらそこに付加されている行動(モータコマンド)を実行する。
ステップS22でYESであれば、初期位置が決定され、ステップS23でi=1とし自律走行を開始し、ステップS24でモータコマンドM(1)を実行する。
なお、初期位置までは、GPS端末と方位センサにより自律移動体1を案内してもよい。また、初期位置の代わりに、既にマッチングが取れた走行経路上の任意の位置(i=k)までGPS端末と方位センサにより自律移動体を案内し、その位置から自律走行を開始してもよい。
また、次の画像へ近づくまでは、照合度の計算の際に算出した画像の横方向のずれdx(i)を式(1)で示すようにステアリング量STに反映することで目的の軌道に復帰する。ここでGainは比例係数である。
ST=Gain×dx(i)・・・(1)
ステップS26でNOであれば、ステップS28で誤差E(i)とE(i+1)が所定の閾値e2より小さいか否かを判断し、YESであれば、ステアリング量STを制御して軌道に復帰する。
ステップS28でNOの場合、所定の軌道から外れている可能性が高い。この場合、マッチングが取れないマッチングミスと判断し、既にマッチングが取れた走行経路上の最も近い位置(マッチング誤差が所定の閾値より小さい地点)及び方位までGPS端末14と方位センサ16により自律移動体を案内する。
上述した本発明の有効性を検証するために、屋外において画像情報のみを用いた直線走行実験を行った。この実験では、図1に示した自律移動体1にカメラ12と制御装置18からなるナビゲーション装置10を搭載し、GPS端末14と方位センサ16は省略した。
図6は、本発明の実施例を示す図であり、横軸は移動距離、縦軸はマッチング誤差、図中の黒丸と実線は、画像V(i)とのマッチング誤差E(i)、白丸と破線は画像V(i+1)とのマッチング誤差E(i+1)である。なお、両矢印の範囲において、iは左から順に1,2,3,4である。
この図から両矢印の各範囲において、範囲が切り替わる直前のみ、E(i+1)<E(i)となっていることがわかる。
すなわちマッチング誤差の計算により、予め取得した教示画像シーケンスに対する画像の遷移ができていることがわかる。従って各種パラメータの調整を行うことで長距離走行が可能になる。
すなわち、この実験のように画像情報のみのナビゲーションでは、似たような画像系列が続いた場合や、特徴点の極端に少ない場所でナビゲーションが継続できない場合がある。そのような場合に、上述したGPS端末14により記憶した位置情報と現在の位置情報を用いてナビゲーションに復帰することができる。
すなわちナビゲーションを失敗したと判断したら、現在の位置を基に教示データの中から、最も座標が近い画像を中心として、10枚前後の記憶画像を選択する。そのすべての画像と現在の画像とのマッチング誤差を計算し、その中でも最も照合度が大きいものを現在位置と判断する。
さらに、前回照合がとれた画像との間に右左折がある場合とない場合とで行動選択を変える。まず右左折がない場合、ロボットは照合がとれた点から再び画像によるナビゲーションを開始する。右左折があった場合には、最後に照合がとれた場所へ駆動輪の回転データを逆算してナビゲーションを行うのがよい。
10 ナビゲーション装置、12 カメラ、
14 GPS端末、16 方位センサ、18 制御装置
Claims (3)
- 移動可能な自律移動体に搭載され、
自律移動体の移動方向の画像を一定間隔で撮影するカメラと、
記憶装置と演算装置を有し前記カメラの画像に基づき自律移動体を制御する制御装置とを備えたナビゲーション装置の制御方法であって、
自律移動体を所定の走行経路に沿って移動させて、前記記憶装置にカメラの画像と自律移動体に対するコマンドを含む所定のセンサ情報について、間隔を開けて記憶する教示走行ステップと、
記憶した前記センサ情報と現時点のセンサ情報とを比較して、自律移動体が前記走行経路を移動するように自律移動体を制御する自律走行ステップとを有し、
前記教示走行ステップにおいて、所定の走行経路上において前記カメラによって撮影された現在の外部画像Vと前記記憶装置に記憶されている直前の記憶画像V(i)(iは正の整数)とのマッチング誤差E(i)を演算し、そのマッチング誤差E(i)が所定の閾値e1を上回った場合に新しい画像V(i+1)と自律移動体に対する新しいコマンドM(i+1)を記憶する、ことを特徴とするナビゲーション装置の制御方法。 - 前記自律走行ステップにおいて、所定の走行経路上において現在の外部画像Vと前記教示走行ステップにおいて前記記憶装置に記憶された記憶画像V(i)(iは正の整数)とのマッチング誤差E(i)と、外部画像Vと記憶画像V(i)との視野の水平ずれdx(i)を算出し、その水平ずれを自律移動体のステアリングに反映して軌道修正し、
前記マッチング誤差E(i)は、記憶画像V(i)と現時点の外部画像Vの特徴点に対し、記憶画像V(i)中のある特徴点と、外部画像V中のすべての特徴点との距離を計算し、その中で最小のものを選択し、これをすべての特徴点に対して行い、それぞれの特徴点を1対1に対応させ、対応する2点間の距離が所定の閾値以下のものを小さい順に複数選択し、それらの距離の平均値を算出し、この平均値が最小になるように、記憶画像V(i)又は外部画像Vを相対的に移動させた際の最小平均距離であり、
前記最小平均距離が所定の閾値以下のときに2つの画像のマッチングが取れたものと判断する、ことを特徴とする請求項1に記載のナビゲーション装置の制御方法。 - 前記自律走行ステップにおいて、所定の走行経路上において現在の外部画像Vと直前の記憶画像V(i)(iは正の整数)とのマッチング誤差E(i)と、外部画像Vと記憶画像V(i)との視野の水平ずれdx(i)を算出し、その水平ずれを自律移動体のステアリングに反映して軌道修正し、
前記マッチング誤差E(i)が所定の閾値を超えるときにマッチングが取れないマッチングミスと判断し、既にマッチングが取れた走行経路上の最も近い位置及び方位までGPS端末と方位センサにより自律移動体を案内する、ことを特徴とする請求項1に記載のナビゲーション装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006330338A JP4798450B2 (ja) | 2006-12-07 | 2006-12-07 | ナビゲーション装置とその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006330338A JP4798450B2 (ja) | 2006-12-07 | 2006-12-07 | ナビゲーション装置とその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008146197A JP2008146197A (ja) | 2008-06-26 |
JP4798450B2 true JP4798450B2 (ja) | 2011-10-19 |
Family
ID=39606337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006330338A Expired - Fee Related JP4798450B2 (ja) | 2006-12-07 | 2006-12-07 | ナビゲーション装置とその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4798450B2 (ja) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5381374B2 (ja) * | 2008-12-01 | 2014-01-08 | 株式会社安川電機 | 移動体の制御装置及び移動体システム |
US8738179B2 (en) | 2008-12-01 | 2014-05-27 | Kabushiki Kaisha Yaskawa Denki | Robot system |
JP5004031B2 (ja) * | 2008-12-09 | 2012-08-22 | 株式会社安川電機 | 移動体の制御方法及び制御装置並びに移動体システム |
JP4983783B2 (ja) * | 2008-12-18 | 2012-07-25 | 株式会社安川電機 | 移動体及び移動体システム |
US8473141B2 (en) | 2008-12-11 | 2013-06-25 | Kabushiki Kaisha Yaskawa Denki | Robot system |
JP4957920B2 (ja) * | 2008-12-18 | 2012-06-20 | 株式会社安川電機 | 移動体の教示方法及び移動体の制御装置並びに移動体システム |
JP5396983B2 (ja) * | 2009-04-14 | 2014-01-22 | 株式会社安川電機 | 移動体及び移動体の教示方法 |
JP5500449B2 (ja) * | 2010-09-21 | 2014-05-21 | 株式会社安川電機 | 移動体 |
FR3004570B1 (fr) * | 2013-04-11 | 2016-09-02 | Aldebaran Robotics | Procede d'estimation de la deviation angulaire d'un element mobile relativement a une direction de reference |
CN103676953B (zh) * | 2013-12-19 | 2017-06-16 | 深圳市朗驰欣创科技有限公司 | 变电站巡检机器人磁导航脱轨自动恢复方法 |
CN103863334B (zh) * | 2014-03-15 | 2016-06-29 | 西南交通大学 | 一种基于橡胶车轮和虚拟轨道技术的有轨电车 |
JP6630504B2 (ja) * | 2015-07-13 | 2020-01-15 | 株式会社日立システムズ | 作業行動支援ナビゲーションシステム及び方法、並びに作業行動支援ナビゲーション用コンピュータプログラム、作業行動支援ナビゲーション用プログラムを記憶した記憶媒体、作業行動支援ナビゲーションシステムを搭載した自走式ロボット、作業行動支援ナビゲーションシステムに用いられるインテリジェントヘルメット |
JP6745111B2 (ja) * | 2016-01-27 | 2020-08-26 | 株式会社ダイヘン | 移動体 |
JP6684108B2 (ja) * | 2016-02-17 | 2020-04-22 | 東芝ライフスタイル株式会社 | 電気掃除機 |
CA3020184A1 (en) * | 2016-04-08 | 2017-10-12 | A&K Robotics Inc. | Autoscrubber convertible between manual and autonomous operation |
CN106708052A (zh) * | 2017-01-16 | 2017-05-24 | 深圳大图科创技术开发有限公司 | 一种基于磁导航的多传感器融合智能车 |
CN107451593B (zh) * | 2017-07-07 | 2020-05-15 | 西安交通大学 | 一种基于图像特征点的高精度gps定位方法 |
JP6833296B2 (ja) * | 2018-02-26 | 2021-02-24 | 東芝三菱電機産業システム株式会社 | 無人飛行体、無人飛行体の飛行経路作成方法およびプラント制御システム |
CN110091887B (zh) * | 2019-03-25 | 2023-09-26 | 四川国软科技集团有限公司 | 一种胶轮电车转向架及胶轮电车系统 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6228614A (ja) * | 1985-07-31 | 1987-02-06 | Komatsu Ltd | 車両の画像ホ−ミング方法 |
JP3629317B2 (ja) * | 1995-10-13 | 2005-03-16 | 日立機電工業株式会社 | 自律制御の教示による無人搬送車の運転方法 |
-
2006
- 2006-12-07 JP JP2006330338A patent/JP4798450B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008146197A (ja) | 2008-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4798450B2 (ja) | ナビゲーション装置とその制御方法 | |
KR102367438B1 (ko) | 마커를 결합한 동시 위치결정과 지도작성 내비게이션 방법, 장치 및 시스템 | |
US10133278B2 (en) | Apparatus of controlling movement of mobile robot mounted with wide angle camera and method thereof | |
US10953545B2 (en) | System and method for autonomous navigation using visual sparse map | |
JP5966747B2 (ja) | 車両走行制御装置及びその方法 | |
Chen et al. | Qualitative vision-based path following | |
Hesch et al. | Descending-stair detection, approach, and traversal with an autonomous tracked vehicle | |
JP4753103B2 (ja) | 移動体位置の推定装置と推定方法及び推定プログラム | |
Zhang et al. | Robust appearance based visual route following for navigation in large-scale outdoor environments | |
US11846949B2 (en) | Systems and methods for calibration of a pose of a sensor relative to a materials handling vehicle | |
JP2009169845A (ja) | 自律移動ロボット及び地図更新方法 | |
JPH03201110A (ja) | 自律走行車の位置方位検出装置 | |
JP4171459B2 (ja) | 移動体の回転移動量利用方法とその装置、及びコンピュータプログラムを保存するコンピュータ読取り可能な記録媒体 | |
CN112183133A (zh) | 一种基于ArUco码引导的移动机器人自主充电方法 | |
KR101100827B1 (ko) | 도로주행 로봇의 자기 위치 인식방법 | |
CN108445882B (zh) | 具有跟踪功能的自动导引车 | |
Dall’Osto et al. | Fast and robust bio-inspired teach and repeat navigation | |
JP2020067698A (ja) | 区画線検出装置及び区画線検出方法 | |
KR20170009103A (ko) | 자율주행로봇 및 이의 네비게이션 방법 | |
Camara et al. | Accurate and robust teach and repeat navigation by visual place recognition: A cnn approach | |
Raj et al. | Appearance-based indoor navigation by IBVS using mutual information | |
KR102275083B1 (ko) | 이동 로봇 시스템 및 자동 충전을 위한 이동 로봇의 귀소 방법 | |
CN112462762A (zh) | 一种基于路侧二维码单元的机器人室外自主移动系统及其方法 | |
Nagai et al. | Path tracking by a mobile robot equipped with only a downward facing camera | |
JP2006252349A (ja) | 移動ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110707 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110720 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4798450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140812 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |