JP2005174040A - ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム - Google Patents
ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム Download PDFInfo
- Publication number
- JP2005174040A JP2005174040A JP2003414118A JP2003414118A JP2005174040A JP 2005174040 A JP2005174040 A JP 2005174040A JP 2003414118 A JP2003414118 A JP 2003414118A JP 2003414118 A JP2003414118 A JP 2003414118A JP 2005174040 A JP2005174040 A JP 2005174040A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- robot
- orientation
- information
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims abstract description 77
- 230000001537 neural effect Effects 0.000 claims abstract description 28
- 239000013598 vector Substances 0.000 claims description 39
- 230000008859 change Effects 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 11
- 238000003062 neural network model Methods 0.000 claims description 4
- 101100277337 Arabidopsis thaliana DDM1 gene Proteins 0.000 description 2
- 101100367084 Caenorhabditis elegans such-1 gene Proteins 0.000 description 2
- 102100036685 Growth arrest-specific protein 2 Human genes 0.000 description 2
- 101001072710 Homo sapiens Growth arrest-specific protein 2 Proteins 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 101150101889 GAS4 gene Proteins 0.000 description 1
- 102100036683 Growth arrest-specific protein 1 Human genes 0.000 description 1
- 101001072723 Homo sapiens Growth arrest-specific protein 1 Proteins 0.000 description 1
- 101001000631 Homo sapiens Peripheral myelin protein 22 Proteins 0.000 description 1
- 102100035917 Peripheral myelin protein 22 Human genes 0.000 description 1
- 101150051432 SOM1 gene Proteins 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 210000003710 cerebral cortex Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 101150077246 gas5 gene Proteins 0.000 description 1
- 210000001320 hippocampus Anatomy 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Feedback Control In General (AREA)
Abstract
【解決手段】 視覚入力情報取得部11はロボットの視覚入力情報を入力する。位置および向き学習部15は、視覚入力情報から、SOMとニューラルガスの直積モデルの位置に対応する素子面(ニューラルガス)を用いて順位学習を行い、方向に対応する円環状の素子コラム(SOM)を用いて近傍学習を行うという2つの学習アルゴリズムを組み合わせて、各素子の位置および向きの選択性を学習する。
【選択図】 図1
Description
c=argmini ‖mi −x‖ 式(1)
を求める。
hci=exp−‖rc −ri ‖2 /2σ2 式(3)
ここで、ri はi番目の素子の配列上(神経場)での位置、αは学習の強さを表す正の定数である。
GAS5: GAS2に戻って処理を繰り返す。
ニューラルガスでは、学習は入力信号xに近い参照ベクトルmi を持つ素子ほど大きく、その大きさを決定する関数がg(s)である。例えば、R,0≦R<1として、
g(s)=Rs-1 (s=1,2,…,n) 式(5)
を用いる。
T. Kohonen, "Self-organized formation of topology correct feature maps," Biological Cybernetics, vol.43, 1982, pp.59-69 T. Martinetz, S. Berkovich, K. Schulten, "Neural-gas network for vector quantization and its application to time-series prediction," IEEE Transactions on Neural Networks, 4, 1993, pp.558-567
しかし、SOMは、入力信号空間中で隣接する領域がSOM上でも隣接する素子に表現されることから、障害物がある部屋や正方形ではない部屋の構造を自己組織的に獲得することは難しい。
(ssi1,ssi2,ssi3,ssi4)=(1,0,0,0),青
(0,1,0,0),黒
(0,0,1,0),白
(0,0,0,1),赤 式(6)
と表す。入力情報は全体として240ビットの情報として表現される。
x4*(j-1)+2 =Σb sij(Σb はiが16から30までの総和)
x4*(j-1)+3 =Σc sij(Σc はiが31から45までの総和)
x4*(j-1)+4 =Σd sij(Σd はiが46から60までの総和)
(j=1,…,4) 式(6')
例えば、x1 は、1番目から15番目の視覚センサのうち青色の壁を見ているセンサの個数となる。
hci=−exp(r3c−r3i)2 /2σ2 ・Rs 式(8)
ここでは、r3iは、i番目の素子のr3 軸上の位置、Rs 中のsはi番目の素子が属するユニットレイヤ上での素子の順位である。
(ここでthはθを表す)
ここで、x=x(u,v,th)であり、具体的には、u,v,th(θ)を適当な間隔で刻んで求める。素子間の隣接関係は、直積モデルに多数の入力信号xを与えたときに、少なくとも一度、1位と2位との関係となった素子同士を隣接していると定義する。
そして、RN4の処理へ戻り、3次元SOMが安定するまで学習処理を繰り返す。
αt =0.3(1.0−t/T)+0.01
のように時間と共に小さくなるようにした。ここで、tは学習時間、Tは総合学習時間である。また、順位学習のパラメータσは、
σt =1.414(1.0−t/T)+0.1
のように、σt >0.5を満たす限り時間と共に小さくなるようにした。これ以外の場合に、σt =0.5とした。
図5に、ある素子面の各素子の参照ベクトルmi の位置選択性を示す。
αt =0.8(1.0−t/T)+0.01
のように時間と共に小さくなるようにした。ここで、tは学習時間、Tは総合学習時間である。図8〜図10に示すように、3次元SOMモデルでも、直積モデルの結果と同様に、学習終了後は、各素子は場所と向きの選択性を持つようになった。
11 視覚入力情報取得部
15 位置および向き学習部
2 ロボット
ssi 視覚センサ
Claims (8)
- ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理方法であって、
前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルを備え、
前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理過程と、
前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について順位学習および近傍学習を組み合わせた学習を行い、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理過程とを、備える
ことを特徴とするロボットの位置および向きの情報の自己組織的学習処理方法。 - 前記学習処理過程では、前記勝者について前記素子面での順位学習と前記素子コラムでの近傍学習とを組み合わせた学習を行う
ことを特徴とする請求項1記載のロボットの位置および向きの情報の自己組織的学習処理方法。 - さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理過程を備え、
前記学習処理過程では、前記位置の変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子面から決定し、決定した勝者について順位学習および近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する
ことを特徴とする請求項1記載のロボットの位置および向きの情報の自己組織的学習処理方法。 - さらに、前記ロボットの直前の状態からの位置または向きのいずれか一つの変化を前記直積モデルに入力する変化入力処理過程を備え、
前記学習処理過程では、前記向きの変化を入力した場合に、前記視覚入力情報に最も近い参照ベクトルを持つ素子を前回の勝者が属する素子コラムから決定し、決定した勝者について順位学習および近傍学習を組み合わせた学習を行って、前記素子ごとに前記位置および前記向きの選択性を取得する
ことを特徴とする請求項1記載のロボットの位置および向きの情報の自己組織的学習処理方法。 - ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理システムであって、
前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルと、
前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理手段と、
前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について順位学習および近傍学習を組み合わせた学習を行い、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理手段とを、備える
ことを特徴とするロボットの位置および向きの情報の自己組織的学習処理システム。 - 前記学習処理手段は、前記勝者について前記素子面での順位学習と前記素子コラムでの近傍学習とを組み合わせた学習を行う
ことを特徴とする請求項5記載のロボットの位置および向きの情報の自己組織的学習処理システム。 - ある空間を自由に移動できるロボットの視覚センサが入力した視覚入力情報から当該空間における当該ロボットの位置および向きの情報を分離・抽出するために、当該視覚入力情報をニューラルネットワークモデルに与えて当該モデルを自己組織的に学習する処理システムとしてコンピュータを機能させるためのプログラムであって、
前記位置のための第1軸と第2軸で作られる面に複数の素子が独立して配置された素子面と前記向きのための第3軸の方向に各素子面の1つの素子が隣り合う関係を保持して属する素子コラムとにより構成される3次元構造であって、かつ前記素子コラムが前記向きの位相に対応して円環上に構成されるSOMとニューラルガスの直積モデルと、
前記直積モデルに前記視覚入力情報を入力する視覚情報入力処理手段と、
前記直積モデルにおいて、前記視覚入力情報に最も近い参照ベクトルを持つ素子を求めて勝者とし、前記勝者について順位学習および近傍学習を組み合わせた学習を行い、前記素子ごとに前記位置および前記向きの選択性を取得する学習処理手段とを、備える処理システムとして
コンピュータを機能させるためのロボットの位置および向きの情報の自己組織的学習プログラム。 - 前記学習処理手段は、前記勝者について前記素子面での順位学習と前記素子コラムでの近傍学習とを組み合わせた学習を行う
ことを特徴とする請求項7記載のロボットの位置および向きの情報の自己組織的学習プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003414118A JP3826197B2 (ja) | 2003-12-12 | 2003-12-12 | ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003414118A JP3826197B2 (ja) | 2003-12-12 | 2003-12-12 | ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005174040A true JP2005174040A (ja) | 2005-06-30 |
JP3826197B2 JP3826197B2 (ja) | 2006-09-27 |
Family
ID=34734017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003414118A Expired - Lifetime JP3826197B2 (ja) | 2003-12-12 | 2003-12-12 | ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3826197B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7725412B2 (en) | 2006-04-06 | 2010-05-25 | Sony Corporation | Identifying temporal sequences using a recurrent self organizing map |
-
2003
- 2003-12-12 JP JP2003414118A patent/JP3826197B2/ja not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7725412B2 (en) | 2006-04-06 | 2010-05-25 | Sony Corporation | Identifying temporal sequences using a recurrent self organizing map |
Also Published As
Publication number | Publication date |
---|---|
JP3826197B2 (ja) | 2006-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111587408B (zh) | 机器人导航和对象跟踪 | |
Shrestha et al. | Learned map prediction for enhanced mobile robot exploration | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
US10754351B2 (en) | Observability grid-based autonomous environment search | |
Weerakoon et al. | Terp: Reliable planning in uneven outdoor environments using deep reinforcement learning | |
Mandić et al. | Underwater object tracking using sonar and USBL measurements | |
Tian et al. | RGB-D based cognitive map building and navigation | |
Wu et al. | Multi‐AUV motion planning for archeological site mapping and photogrammetric reconstruction | |
Dirafzoon et al. | Mapping of unknown environments using minimal sensing from a stochastic swarm | |
Manjanna et al. | Efficient terrain driven coral coverage using gaussian processes for mosaic synthesis | |
Kojima et al. | To learn or not to learn: Analyzing the role of learning for navigation in virtual environments | |
CN111507161B (zh) | 利用合并网络进行异质传感器融合的方法和装置 | |
CN114981819A (zh) | 用于斜率估计和地平面分割的小型激光雷达处理网络的神经网络架构 | |
Chame et al. | Neural network for black-box fusion of underwater robot localization under unmodeled noise | |
Clark et al. | Archaeology via underwater robots: Mapping and localization within maltese cistern systems | |
Rodríguez-Teiles et al. | Vision-based reactive autonomous navigation with obstacle avoidance: Towards a non-invasive and cautious exploration of marine habitat | |
JP3826197B2 (ja) | ロボットの位置および向きの情報の自己組織的学習処理方法ならびにその学習処理システム、およびその学習プログラム | |
Kaleci et al. | Constructing topological map from metric map using spectral clustering | |
Kaeli et al. | Online data summaries for semantic mapping and anomaly detection with autonomous underwater vehicles | |
Candeloro et al. | Sensor-based autonomous path-planner for sea-bottom exploration and mosaicking | |
Jiang et al. | Route optimizing and following for autonomous underwater vehicle ladder surveys | |
Kong et al. | A dual-frequency data-driven coverage path planning algorithm for unknown large-scale marine area | |
Kang | Autonomous unmanned aerial vehicles and deep learning-based damage detection | |
Hou et al. | Frontier-based exploration on continuous radial basis function neural network map | |
Blumenkamp et al. | See What the Robot Can't See: Learning Cooperative Perception for Visual Navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060417 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060530 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3826197 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |