JP2005174040A - ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム - Google Patents

ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム Download PDF

Info

Publication number
JP2005174040A
JP2005174040A JP2003414118A JP2003414118A JP2005174040A JP 2005174040 A JP2005174040 A JP 2005174040A JP 2003414118 A JP2003414118 A JP 2003414118A JP 2003414118 A JP2003414118 A JP 2003414118A JP 2005174040 A JP2005174040 A JP 2005174040A
Authority
JP
Japan
Prior art keywords
learning
robot
orientation
information
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003414118A
Other languages
English (en)
Other versions
JP3826197B2 (ja
Inventor
Akira Date
章 伊達
Koji Kurata
耕治 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2003414118A priority Critical patent/JP3826197B2/ja
Publication of JP2005174040A publication Critical patent/JP2005174040A/ja
Application granted granted Critical
Publication of JP3826197B2 publication Critical patent/JP3826197B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Abstract

【課題】 ロボットの位置および向きの情報をロボットの視覚情報から分離・抽出するために自己組織化モデルにより学習する。
【解決手段】 視覚入力情報取得部11はロボットの視覚入力情報を入力する。位置および向き学習部15は、視覚入力情報から、SOMとニューラルガスの直積モデルの位置に対応する素子面(ニューラルガス)を用いて順位学習を行い、方向に対応する円環状の素子コラム(SOM)を用いて近傍学習を行うという2つの学習アルゴリズムを組み合わせて、各素子の位置および向きの選択性を学習する。
【選択図】 図1

Description

本発明は、ある空間を自由に移動できるロボットの位置ならびに向きの情報を当該ロボットの視覚的時系列信号から分離・抽出するために、当該ロボットの位置ならびに向きを自己組織化モデルにより学習する処理方法、前記処理方法を実行する処理システム、および前記処理システムとしてコンピュータを機能させるためのプログラムに関する。
外界の構造を自己組織的に獲得するメカニズムは、生物の研究においてもロボットの研究にとっても興味深いものである。人間は、普段、見慣れた場所であれば自分がどこにいて、どこを向いているかをわかっている。これは、人間が繰り返し与えられた視覚情報を学習した成果である。
視覚情報から自己の位置や自己が見ている方向(向き)を自己組織的に獲得する能力については様々な研究が行われている。特にラットの脳の海馬には、ある特定の場所にきたときに選択的に反応する「場所細胞」と呼ばれる神経細胞が存在することが知られている。
また、移動可能なロボットの誘導や行動生成のためには環境地図が有用であると考えられ、センサ情報から外界の構造を抽出する様々な手法が提案されている。ロボットが部屋の中の動き回る状況を考えてみると、ロボットの周囲の画像など視覚センサから入力される情報は、ロボットの位置と向きに依存して決まる。
図13に、移動可能なロボットが置かれたある部屋の平面図の例を示す。また図14に、図13に示す部屋に置いたロボットの視覚センサから入力されたロボット周囲の画像例を示す。図14(A)〜(E)は、それぞれ、ロボットが図13の平面図に示す(A)〜(E)の位置および矢印の向きに位置する場合に、ロボットの視覚センサから入力される周囲の画像(視覚画像)例である。
図14(A)および(B)は、ロボットの向きが同じで位置のみが異なる画像例であり、図14(C)〜(E)は、ロボットの位置が同じで向きのみが異なる画像例である。これらの画像から、同一方向で位置のみが異なる場合の視覚画像では、入力される範囲の広狭はあるが範囲そのものはあまり変わらず、一方で、同一位置で方向のみが異なる場合の視覚画像では、入力される範囲が大きく変化することがわかる。
このような視覚入力情報だけを使用してロボットの位置や向きを知るためには、入力画像という高次元の情報から部屋での位置(2次元)および向き(1次元)という2つの情報を分離する必要がある。
コホネンの自己組織化マップ(SOM:Self−Organizing Map)は、このような高次元のデータを要約し重要な変数を抽出することに利用できる。SOMは、例えば2次元に配列された素子からなり、大脳皮質の感覚野に見られる機能地図がある種の学習アルゴリズムにより形成されていくさまを説明する数理モデルである(例えば、非特許文献1参照)。SOMは、入力信号空間中で隣接する領域がSOM上でも隣接する素子に表現されるという特徴がある。なお、SOMの配列が2次元であることは本質的ではなく、必要に応じて1次元や3次元の配列を考えることができる。
一方、様々な位相構造を持つ入力信号に対応できる自己組織化モデルとしてニューラルガスが知られている(非特許文献2参照)。
図15に、SOMによる自己組織化およびニューラルガスによる自己組織化を説明するための図を示す。
SOMの各素子は、参照ベクトルmと呼ばれるn次元ベクトルを持つ。以下では、i番目の素子の参照ベクトルをmi とする。参照ベクトルmi の次元は、SOMに与えられる入力信号xの次元と同一である。
SOM1: 参照ベクトルmi (i=1,…,n)の初期値を設定する。nはSOMの素子数である。
SOM2: 入力信号(入力ベクトル)xを生成する。
SOM3: すべての素子の中で入力信号xに最も近い参照ベクトルmi を持つ素子(以後、勝者cと呼ぶ)
c=argmini ‖mi −x‖ 式(1)
を求める。
SOM4: 以下の式(2) および式(3) にしたがい参照ベクトルmi (i=1,…,n)の学習を行う。
i =mi + αhci(x−mi ) 式(2)
ci=exp−‖rc −ri 2 /2σ2 式(3)
ここで、ri はi番目の素子の配列上(神経場)での位置、αは学習の強さを表す正の定数である。
SOM5: SOM2にもどって処理を繰り返す。
SOMによる学習において、学習は勝者cの周囲でおこる。これを近傍学習といい、hciを近傍関数という。前記の式(3) で与えた近傍関数はガウス関数を使用している。σは近傍の広がりを決定する正の定数である。式(1) の絶対値は、入力信号空間内のユークリッド距離、式(3) の絶対値は、素子配列上のユークリッド距離である。
さらに、ニューラルガスによる学習を簡単に説明する。
GAS1: 参照ベクトルmi (i=1,…,n)の初期値を設定する。nは素子数である。
GAS2: 入力信号(入力ベクトル)xを生成する。
GAS3: 入力信号xに対し、参照ベクトルmi とのユークリッド距離をすべての素子について求め、距離の小さい順に素子を順位付けする。以下ではi番目の素子は第si 位にランクされたと仮定する。
GAS4: 以下の式(4) にしたがい参照ベクトルmi (i=1,…,n)の学習を行う。
i =mi +αg(si )(x−mi ) 式(4)
GAS5: GAS2に戻って処理を繰り返す。
ニューラルガスでは、学習は入力信号xに近い参照ベクトルmi を持つ素子ほど大きく、その大きさを決定する関数がg(s)である。例えば、R,0≦R<1として、
g(s)=Rs-1 (s=1,2,…,n) 式(5)
を用いる。
このように、SOMにおける学習が近傍学習であるのに対し、ニューラルガスでは順位学習が行われる。ニューラルガスでは素子間の隣接関係を順位学習後に定義するため、様々な形状を持つ信号空間に対応することができるという特徴がある。
T. Kohonen, "Self-organized formation of topology correct feature maps," Biological Cybernetics, vol.43, 1982, pp.59-69 T. Martinetz, S. Berkovich, K. Schulten, "Neural-gas network for vector quantization and its application to time-series prediction," IEEE Transactions on Neural Networks, 4, 1993, pp.558-567
本発明者らは、本発明に関連する技術として、SOMを注意深く利用することによって視覚入力情報からロボットの位置および向きの情報を分離して自己組織化できる手法を示した(参考文献1参照)。
[参考文献1:K. Kurata, N. Oshiro, "Information separation of position and direction of a robot by self-organizing map," Proceedings of the 8th International Symposium on Artificial Life and Robotics, 2003, pp641-644 ]
しかし、SOMは、入力信号空間中で隣接する領域がSOM上でも隣接する素子に表現されることから、障害物がある部屋や正方形ではない部屋の構造を自己組織的に獲得することは難しい。
あらかじめ部屋の形状がわかっていればSOMの構造をその部屋の形状に合わせることができるが、それでは自己組織化の意味の大半が失われてしまう。
一方、ニューラルガスは、様々な位相構造を持つ入力信号に対応することができるが、参照ベクトル数が増大すると計算量が増大してしまう。
本発明の目的は、障害物があるような未知の空間に置かれたロボットの位置および向きの情報を当該ロボットの視覚入力情報から分離・抽出するために、当該視覚入力情報を自己組織化モデルに与えることによってロボットの位置および向きを自己組織的に学習する処理方法、および前記処理方法を実施する処理システム、前記処理システムとしてコンピュータを機能させるためのプログラムを提供することである。
部屋の中に置かれたロボットの位置と向きの情報を考えた場合に、部屋の形状すなわちロボットが移動可能な範囲は未知であるが、ロボットの向きの情報が円環のトポロジーを持つことは明らかである。
そこで、本発明は、ロボットの位置および向きの情報を分離・抽出できるように、ロボットの向きについての学習ではSOMの特徴を、ロボットの位置についての学習ではニューラルガスの特徴をそれぞれ利用したSOMとニューラルガスの直積モデル(以下、直積モデルとする)によりロボットの位置の選択性および向きの選択性を学習する。
本発明は、ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理方法であって、前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルを備え、1)前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理過程と、2)前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について順位学習および近傍学習を組み合わせた学習を行い、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理過程とを、備える。
本発明では、ロボットの視覚入力情報を直積モデルに与えて、ロボットの向きの情報を自己組織化するためにロボットの方向に対応させた円環状のSOMとして構成された素子コラムを用いて近傍学習を行い、ロボットの位置の情報を自己組織化するためにニューラルガスとして構成された素子面を用いて順位学習を行うというSOMおよびニューラルガスの2つの学習アルゴリズムを組み合わせた学習モデルを用いて、ロボットの視覚入力信号からロボットの位置および向きの情報を分離・抽出できるように、各素子について位置および向きの選択性を取得する。
加えて、本発明は、さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理過程を備え、前記学習処理過程では、前記位置の変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子面から決定し、決定した勝者について順位学習および近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する。
または、本発明は、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理過程を備え、前記学習処理過程では、前記向きの変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子コラムから決定し、決定した勝者について順位学習および近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する。
本発明によれば、対象となる部屋に置いたロボットの視覚センサで入力された周囲の情報(視覚入力情報)から、その部屋におけるロボットの位置および向きの選択性を分離・抽出できるように直積モデルを用いて自己組織的に学習する。
これにより、範囲が未知な部屋であっても、あらかじめマーカなどを設定することなく、部屋内でロボットをランダムに移動させるだけで、ロボットの位置および向きの情報を分離・抽出できるようになる。
また、本発明では、2次元の情報である位置に対応する第1軸と第2軸で作られる面に素子が独立して配置された素子面(ニューラルガス)と、1次元の情報である向きに対応する第3軸の方向に各素子面の素子1つが属する素子コラム(SOM)との次元の構造を持ち、さらに向きの情報のトポロジーに対応するため素子コラムが円環上に構成された直積モデルにより学習する。
これにより、障害物があるような未知の形状の部屋であっても、ロボットの位置および向きの情報を、同時に分離・抽出することができる。
さらに、本発明は、前時刻でのロボットの状況から位置が変化した場合には前時刻での処理と同一の素子面から勝者を決定し、または、前時刻でのロボットの状況から向きが変化した場合には前時刻での処理と同一の素子コラムから勝者を決定して、近傍学習と順位学習とを組み合わせた学習を行う。これにより、ニューラルガスのみによる学習処理の計算量の増大を抑制しつつ、精度よく位置および向きを分離・抽出することができる。
図1に、本発明を実施するための最良の形態における、本発明の構成例を示す。本発明の自己組織的学習処理システム1は、視覚入力情報取得部11および位置および向き学習部15から構成される。
視覚入力情報取得部11は、ある空間を自由に移動できるロボットの視覚センサで入力されたロボットの周囲についての情報(視覚入力情報)を取得する処理手段である。
図2に、ロボットが置かれる部屋およびロボットの視覚センサの例を示す。図2は、ロボット2が四角形の部屋に置かれている状況を平面的に表した図である。部屋の四方の壁の色は、青、黒、白、赤と各面がそれぞれ異なっているとする。ロボット2の位置を、”(u,v),0≦u,v≦1”で表す。
ロボット2の筐体の周囲には全周を60等分するように60個の視覚センサssi (i=1,…,60)が付与されており、各視覚センサssi は、その正面の壁の色1ピクセルを識別できるものとする。各視覚センサssi からの情報を入力信号(青,黒,白,赤)の違いにより、
(ssi1,ssi2,ssi3,ssi4)=(1,0,0,0),青
(0,1,0,0),黒
(0,0,1,0),白
(0,0,0,1),赤 式(6)
と表す。入力情報は全体として240ビットの情報として表現される。
このような情報をそのまま入力信号として用いると次元が高すぎて学習処理に時間がかかりすぎるので、視覚入力情報取得部11は、視覚入力情報の次元を縮約する。すなわち、ロボット2の60個の視覚センサssi からの入力を15×4のブロックに分け、以下のような16次元の入力信号(入力ベクトル)x(x=x1 ,…,x16)を生成する。
4*(j-1)+1 =Σa ij(Σa はiが1から15までの総和)
4*(j-1)+2 =Σb ij(Σb はiが16から30までの総和)
4*(j-1)+3 =Σc ij(Σc はiが31から45までの総和)
4*(j-1)+4 =Σd ij(Σd はiが46から60までの総和)
(j=1,…,4) 式(6')
例えば、x1 は、1番目から15番目の視覚センサのうち青色の壁を見ているセンサの個数となる。
位置および向き学習部15は、ある部屋におけるロボット2の位置および向きの情報を分離するための学習モデルとして、SOMとニューラルガスの直積モデル(直積モデル)を用いて、その部屋内における位置および向きの選択性を自己組織的に学習する処理手段である。
直積モデルには、視覚入力情報取得部11で生成された入力信号、および位置変化または向きの変化信号が与えられる。変化信号とは、ロボット2が、その直前の処理におけるロボット2の位置だけが変化したか(位置変化)または同一位置で向きだけが変化したか(向き変化)を示す信号である。変化信号は、例えばロボット2の自律的な移動を制御する制御部(図示しない)で生成される。または、位置変化または向き変化をランダムに発生させる発生処理部(図示しない)で生成されてもよい。なお、変化信号は、視覚センサssi にも通知される。視覚センサssi は変化信号を受け取って視覚入力情報を入力する。
ロボット2は、学習中に部屋をくまなくランダムに動くことができるが、次の時刻には現在の状態から位置または向きのどちらか一方が変化し、ロボット2の位置と向きが同時に変化することはないとした。すなわち、位置および向き学習部15は、一回に位置変化または向き変化のいずれか一方の信号が与えられる。
図3に、位置および向き学習部15のSOMとニューラルガスの直積モデルの例を示す。図3の直積モデルの神経場は3次元構造を持つ。直積モデルを3次元構造とするのは、本例では16次元である入力信号xが本質的に3次元の構造を持つものであって、入力信号xから2次元の位置情報と1次元の向きの情報とを同時に分離できるようにするためである。
直積モデルの神経場は、r1 軸およびr2 軸が作る素子面(ユニットレイヤ)に49個の素子を配置し、r3 軸が作る素子コラムに20個の素子を配置し、合計980個の素子を持つように構成されている。各素子面の49個の素子は独立に存在するように構成される。素子コラムの20個の素子は、各ユニットレイヤに属する素子1つずつであって、それぞれ隣り合うユニットレイヤの素子同士で隣接するように構成される。
また、ロボット2の向き情報を埋め込むために、r3 軸の方向を環状となるようにし、r3 軸方向が周期境界条件を満たすようにした。ロボット2の位置の変化に比べて向きの変化は視覚入力情報への影響が大きいことから、本例の直積モデルは、r1 軸、r2 軸方向に対してr3 軸が長くなるように構成されている。
各素子は、参照ベクトルmと呼ばれるn次元ベクトルを持ち、i番目の素子の参照ベクトルをmi (i=1,2,…,980)とする。参照ベクトルmi の次元は、直積モデルに与えられる入力信号xの次元と同一である。
図4に、本発明の処理概要を示す。
ステップS10: 自己組織的学習処理システム1では、位置および向き学習部15により、直積モデルの参照ベクトルmi (i=1,2,…,980)を初期化する。
ステップS11: 視覚入力情報取得部11により、対象となるロボットの位置または向きをランダムに決定して取得した視覚入力情報から、16次元の入力信号xを生成する。
ステップS12: 位置および向き学習部15により、素子の中から入力信号xに最も近い参照ベクトルmi を持つ勝者cを求め、順位学習と近傍学習とを組み合わせた以下の学習を行う。
i =mi +αhci(x−mi ) 式(7)
ci=−exp(r3c−r3i2 /2σ2 ・Rs 式(8)
ここでは、r3iは、i番目の素子のr3 軸上の位置、Rs 中のsはi番目の素子が属するユニットレイヤ上での素子の順位である。
ステップS13: ロボット2の位置または向きのいずれかを変化させる。なお、位置または向きの変化はランダムに決定してよい。位置および向き学習部15は、位置変化または向き変化を取得する。そして、位置変化を取得した場合にはステップS14の処理へ、向き変化を取得した場合にはステップS16の処理へ進む。
ステップS14: 視覚入力情報取得部11により、位置が変化したロボット2の視覚入力情報から16次元の入力信号xを生成する。
ステップS15: そして、入力信号xに最も近い参照ベクトルmi を持つ勝者cを、前回の勝者cが属するユニットレイヤ、すなわち素子面(r3 =r3c)から決定し、式(7) および式(8) により順位学習および近傍学習を組み合わせた学習を行う。
ステップS16: または、視覚入力情報取得部11により、向きが変化したロボットの視覚入力情報から16次元の入力信号xを生成する。
ステップS17: そして、入力信号xに最も近い参照ベクトルmi を持つ勝者cを、前回の勝者cが属する素子コラム((r1 ,r2 )=(rc1,rc2))から決定し、式(7) および式(8) により順位学習および近傍学習を組み合わせた学習を行う。
その後、上記のステップS13の処理へ戻り、直積モデルが安定するまでステップS13〜ステップS17の学習処理を繰り返す。
本例で、入力信号xは16次元であるが、前述のように、位置(u,v)と向きθの関数であって、本質的には3次元の構造を持つ。直積モデルの各素子の参照ベクトルmi が、この16次元の入力信号を位置(2次元)と向き(1次元)の情報を分離するように組織化されているかどうかは、多数の入力信号に対する反応から調べることができる。
すなわち、i番目の素子が、ロボット2が移動する部屋のどの位置に対応するかという位置の選択性を求めるには、視覚入力情報の発生確率に従った入力信号xを直積モデルに多数与えて、SOMの場合にはそのときに得られるhci( hciは入力信号xの関数)で、ニューラルガスの場合にはg(si )で、それぞれ重み付けを行う。そして、i番目の素子の位置に対する選択性を、以下のように定義する。
Σu,v,th(u,v)hci(x)/Σu,v,th・hci(x) 式(9)
(ここでthはθを表す)
ここで、x=x(u,v,th)であり、具体的には、u,v,th(θ)を適当な間隔で刻んで求める。素子間の隣接関係は、直積モデルに多数の入力信号xを与えたときに、少なくとも一度、1位と2位との関係となった素子同士を隣接していると定義する。
以下に、本発明の具体例として、障害物のない四角形の部屋および障害物がある部屋に対する本発明の処理例およびその学習結果を説明する。
なお、本発明の効果を比較するため、3次元SOMモデルを用意した。r1 軸およびr2 軸が作る20枚の素子面に49個の素子を、r3 軸が作る素子コラムに20個の素子をそれぞれ配置し、合計980個の素子を用いた。3次元SOMモデルの素子面の49個の素子は7×7の格子状に配置されている。
3次元SOMでは、以下のような学習を行う。i番目の素子の神経場上の位置を(r1i,r2i,r3i)とする。
RN1: 参照ベクトルmi を初期化する。
RN2: ロボットの位置または向きをランダムに決定し、16次元の入力信号xを生成する。
RN3: 入力信号xに最も近い勝者を求め、近傍学習を行う。
RN4: 勝者の3次元の神経場上での位置を(r1c,r2c,r3c)とする。さらに、ロボットの位置を変化させる(RN5aの処理へ進む)。またはロボットの向きを変化させる(RN5bの処理へ進む)。
RN5a: ロボットの位置が変化した場合に、勝者cが属する素子面(r3 =r3c)から新たな勝者cを決定して近傍学習を行う。
RN5b: ロボットの向きが変化した場合に、勝者cが属する素子コラム((r1 ,r2 )=(rc1,rc2))から新たな勝者cを決定して近傍学習を行う。
そして、RN4の処理へ戻り、3次元SOMが安定するまで学習処理を繰り返す。
以下に本発明のSOMとニューラルガスの直積モデルによる学習と、3次元SOMによる学習との結果を説明する。
図5〜図7に、障害物がまったくおかれていない四角形の部屋でロボットをランダムに動かした場合に、直積モデルの自己組織化が進行するようすを示す。
近傍学習の学習係数αは、
αt =0.3(1.0−t/T)+0.01
のように時間と共に小さくなるようにした。ここで、tは学習時間、Tは総合学習時間である。また、順位学習のパラメータσは、
σt =1.414(1.0−t/T)+0.1
のように、σt >0.5を満たす限り時間と共に小さくなるようにした。これ以外の場合に、σt =0.5とした。
パラメータRi は、σt の関数として以下の値を用いた。
i =1.0−2.0exp(−2.0σt ) 式(10)
図5に、ある素子面の各素子の参照ベクトルmi の位置選択性を示す。
図5では、7番目の素子面(r3 =7)に存在する49個の素子の各参照ベクトルmi がロボット2が移動可能な部屋(u,v面)のどの位置に選択性を持つかを、点で表示した。また、隣接関係( 少なくとも一度、1位と2位となる関係)を持つと特定した素子間の結果を線で示した。外枠は、ロボットが移動可能な範囲である。具体的には、”u,v(0≦u,v≦1)”を、”u,v”とも0.05間隔で、θ(−π≦θ<π)はπ/18間隔で一様に入力信号xを生成し、素子の選択性を求めて、その結果を示した。
図5(A)にt=10の場合の位置の選択性、図5(B)にt=10,000の場合の位置の選択性、図5(C)にt=1,000,000の場合の位置の選択性のそれぞれの様子を示す。図5(A)〜(C)により、学習の進行にしたがって直積モデルにおいて位置選択性が構築されていく様子がわかる。
図5に示す7番目の素子面以外の素子面でも、図5(C)とほぼ同様な結果が得られる。異なった素子面の間でどの程度似たような場所選択性が組織化されているかどうかを示すため、図6に、980個すべての素子の位置選択性を示す。
図6(A)にt=10の場合の位置の選択性、図6(B)にt=10,000の場合の位置の選択性、図6(C)にt=1,000,000の場合の位置の選択性のそれぞれの様子を示す。図6では、各素子の参照ベクトルmi の位置選択性を点で示し、各素子コラムに属する隣り合う素子同士の位置選択性を線で結んだ。
学習が完了した段階になると、図5(C)および図6(C)に示すように、素子面上では異なる素子は分担して部屋をカバーする一方で、同じ素子コラムに属する素子は素子面が異なっても、すべての素子がほぼ同一の位置選択性を持つようになることがわかる。
図7に、各素子面(r3 = 定数) に存在する49個の素子の向きの選択性を示す。
図7に示すように、r3 軸の素子コラムにはロボット2の向きについての選択性が自己組織化された。図7(A)に示すように、学習の初期段階では、各素子面(r3 =定数)に属する49個の素子は、ばらばらな向きに選択性を持っていたが、図7(B)および(C)に示すように、学習が進むにしたがって、ある特定の向きに選択性を持つようになることがわかる。例えば、素子面r3 =5に属する49個の素子はすべて180度の向きに選択性を持っている。図7(C)では、学習の完了段階では、ほぼ49個の素子が重なってプロットされている。
図8〜図10に、障害物がまったくおかれていない四角形の部屋でロボットをランダムに動かした場合に3次元SOMモデルの自己組織化が進行するようすを示す。
学習係数αは、
αt =0.8(1.0−t/T)+0.01
のように時間と共に小さくなるようにした。ここで、tは学習時間、Tは総合学習時間である。図8〜図10に示すように、3次元SOMモデルでも、直積モデルの結果と同様に、学習終了後は、各素子は場所と向きの選択性を持つようになった。
図11に、それぞれ異なる障害物が置かれている四角形の部屋でロボット2をランダムに動かした場合に、直積モデルの自己組織化が進行するようすを示す。
図11(A)〜(C)の図において、外枠はロボットが移動できる範囲であり、四角形の中に示される矩形は障害物を示す。また、障害物がある領域にロボットは入ることができないが、障害物はロボット2の視覚センサssi の位置よりも低い位置にあって障害物自体は視覚センサssi には検出されないものと想定した。
図11(A)〜(C)の左側の図に、学習完了後の自己組織化の様子を、ある素子面における素子を点で、さらに隣接する素子間を線で示した。また、図11(A)〜(C)の中央の図に、学習完了後のすべての素子の場所選択性を、図11(A)〜(C)右側の図に、学習完了後のすべての素子の向き選択性をそれぞれ示した。
本発明の直積モデルによる学習によって、直積モデルは、素子の参照ベクトルmi が障害物がない領域をくまなくカバーするように自己組織化されることがわかる。
図12に、それぞれ異なる障害物が置かれている四角形の部屋でロボット2をランダムに動かした場合に、3次元SOMモデルの自己組織化が進行するようすを示す。
図12(A)〜(C)の左側の図に、学習完了後の自己組織化の様子を、ある素子面における素子を点で、さらに隣接関係を持つ素子間を線で示した。また、図12(A)〜(C)の中央の図に、学習完了後のすべての素子の場所選択性を示した。
3次元SOMモデルでは、素子の参照ベクトルmi が障害物の領域内へも配置され、障害物の領域をまたぐように素子間の隣接関係が生成されている。したがって、3次元SOMモデルによる自己組織化の結果を用いてロボット2を誘導する場合には、一般的に移動開始位置と目的位置に対応する素子の参照ベクトルmi 間の隣接関係をもとにした最短距離を利用するため、ロボットが障害物に衝突する状況が生じてしまう。
また、図12(A)〜(C)右側の図に、学習完了後のすべての素子の向き選択性を示したが、一部の素子では向きの選択性が収束できなかったことがわかる。
以上、本発明をその実施の形態により説明したが、本発明はその主旨の範囲において種々の変形が可能であることは当然である。
また、本発明は、コンピュータにより読み取られ実行されるプログラムとして実施することができる。本発明を実現するプログラムは、コンピュータが読み取り可能な、可搬媒体メモリ、半導体メモリ、ハードディスクなどの適当な記録媒体に格納することができ、これらの記録媒体に記録して提供され、または、通信インタフェースを介して種々の通信網を利用した送受信により提供されるものである。
本発明により、ある空間に置かれたロボットが、視覚入力情報からロボットの位置および向きの情報を自己組織的に学習して分離・抽出することができるようになるため、本発明は、ロボットの移動制御、誘導制御などの支援技術として利用することが可能である。
本発明を実施するための最良の形態における本発明の構成例を示す図である。 ロボットが置かれる部屋およびロボットの視覚センサの例を示す図である。 SOMとニューラルガスの直積モデルの例を示す図である。 SOMとニューラルガスの直積モデルによる学習処理の処理概要を示す図である。 障害物がない四角形の部屋についての直積モデルの位置選択性を示す図である。 障害物がない四角形の部屋についての直積モデルの位置選択性を示す図である。 障害物がない四角形の部屋についての直積モデルの向き選択性を示す図である。 障害物がない四角形の部屋についての3次元SOMの位置選択性を示す図である。 障害物がない四角形の部屋についての3次元SOMの位置選択性を示す図である。 障害物がない四角形の部屋についての3次元SOMの向き選択性を示す図である。 障害物がある部屋についての直積モデルの位置選択性および向き選択性を示す図である。 障害物がある部屋についての3次元SOMの位置選択性および向き選択性を示す図である。 ロボットが置かれた部屋の平面図の例を示す図である。 ロボットの視覚センサから入力されたロボット周囲の画像例を示す図である。 SOMまたはニューラルガスによる自己組織化を説明するための図である。
符号の説明
1 自己組織的学習処理システム
11 視覚入力情報取得部
15 位置および向き学習部
2 ロボット
ssi 視覚センサ

Claims (8)

  1. ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理方法であって、
    前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルを備え、
    前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理過程と、
    前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について順位学習および近傍学習を組み合わせた学習を行い、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理過程とを、備える
    ことを特徴とするロボットの位置および向きの情報の自己組織的学習処理方法。
  2. 前記学習処理過程では、前記勝者について前記素子面での順位学習と前記素子コラムでの近傍学習とを組み合わせた学習を行う
    ことを特徴とする請求項1記載のロボットの位置および向きの情報の自己組織的学習処理方法。
  3. さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理過程を備え、
    前記学習処理過程では、前記位置の変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子面から決定し、決定した勝者について順位学習および近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する
    ことを特徴とする請求項1記載のロボットの位置および向きの情報の自己組織的学習処理方法。
  4. さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理過程を備え、
    前記学習処理過程では、前記向きの変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子コラムから決定し、決定した勝者について順位学習および近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する
    ことを特徴とする請求項1記載のロボットの位置および向きの情報の自己組織的学習処理方法。
  5. ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理システムであって、
    前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルと、
    前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理手段と、
    前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について順位学習および近傍学習を組み合わせた学習を行い、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理手段とを、備える
    ことを特徴とするロボットの位置および向きの情報の自己組織的学習処理システム。
  6. 前記学習処理手段は、前記勝者について前記素子面での順位学習と前記素子コラムでの近傍学習とを組み合わせた学習を行う
    ことを特徴とする請求項5記載のロボットの位置および向きの情報の自己組織的学習処理システム。
  7. ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理システムとしてコンピュータを機能させるためのプログラムであって、
    前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルと、
    前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理手段と、
    前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について順位学習および近傍学習を組み合わせた学習を行い、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理手段とを、備える処理システムとして
    コンピュータを機能させるためのロボットの位置および向きの情報の自己組織的学習プログラム。
  8. 前記学習処理手段は、前記勝者について前記素子面での順位学習と前記素子コラムでの近傍学習とを組み合わせた学習を行う
    ことを特徴とする請求項7記載のロボットの位置および向きの情報の自己組織的学習プログラム。

JP2003414118A 2003-12-12 2003-12-12 ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム Expired - Lifetime JP3826197B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003414118A JP3826197B2 (ja) 2003-12-12 2003-12-12 ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003414118A JP3826197B2 (ja) 2003-12-12 2003-12-12 ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム

Publications (2)

Publication Number Publication Date
JP2005174040A true JP2005174040A (ja) 2005-06-30
JP3826197B2 JP3826197B2 (ja) 2006-09-27

Family

ID=34734017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003414118A Expired - Lifetime JP3826197B2 (ja) 2003-12-12 2003-12-12 ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム

Country Status (1)

Country Link
JP (1) JP3826197B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7725412B2 (en) 2006-04-06 2010-05-25 Sony Corporation Identifying temporal sequences using a recurrent self organizing map

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7725412B2 (en) 2006-04-06 2010-05-25 Sony Corporation Identifying temporal sequences using a recurrent self organizing map

Also Published As

Publication number Publication date
JP3826197B2 (ja) 2006-09-27

Similar Documents

Publication Publication Date Title
CN111587408B (zh) 机器人导航和对象跟踪
Shrestha et al. Learned map prediction for enhanced mobile robot exploration
EP3405845B1 (en) Object-focused active three-dimensional reconstruction
US10754351B2 (en) Observability grid-based autonomous environment search
Weerakoon et al. Terp: Reliable planning in uneven outdoor environments using deep reinforcement learning
Mandić et al. Underwater object tracking using sonar and USBL measurements
Tian et al. RGB-D based cognitive map building and navigation
Wu et al. Multi‐AUV motion planning for archeological site mapping and photogrammetric reconstruction
Dirafzoon et al. Mapping of unknown environments using minimal sensing from a stochastic swarm
Manjanna et al. Efficient terrain driven coral coverage using gaussian processes for mosaic synthesis
Kojima et al. To learn or not to learn: Analyzing the role of learning for navigation in virtual environments
CN111507161B (zh) 利用合并网络进行异质传感器融合的方法和装置
CN114981819A (zh) 用于斜率估计和地平面分割的小型激光雷达处理网络的神经网络架构
Chame et al. Neural network for black-box fusion of underwater robot localization under unmodeled noise
Clark et al. Archaeology via underwater robots: Mapping and localization within maltese cistern systems
Rodríguez-Teiles et al. Vision-based reactive autonomous navigation with obstacle avoidance: Towards a non-invasive and cautious exploration of marine habitat
JP3826197B2 (ja) ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム
Kaleci et al. Constructing topological map from metric map using spectral clustering
Kaeli et al. Online data summaries for semantic mapping and anomaly detection with autonomous underwater vehicles
Candeloro et al. Sensor-based autonomous path-planner for sea-bottom exploration and mosaicking
Jiang et al. Route optimizing and following for autonomous underwater vehicle ladder surveys
Kong et al. A dual-frequency data-driven coverage path planning algorithm for unknown large-scale marine area
Kang Autonomous unmanned aerial vehicles and deep learning-based damage detection
Hou et al. Frontier-based exploration on continuous radial basis function neural network map
Blumenkamp et al. See What the Robot Can't See: Learning Cooperative Perception for Visual Navigation

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060530

R150 Certificate of patent or registration of utility model

Ref document number: 3826197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term