JPH10326265A - Learning method and device therefor and storage medium - Google Patents

Learning method and device therefor and storage medium

Info

Publication number
JPH10326265A
JPH10326265A JP9133381A JP13338197A JPH10326265A JP H10326265 A JPH10326265 A JP H10326265A JP 9133381 A JP9133381 A JP 9133381A JP 13338197 A JP13338197 A JP 13338197A JP H10326265 A JPH10326265 A JP H10326265A
Authority
JP
Japan
Prior art keywords
learning
landmark
data
neural network
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9133381A
Other languages
Japanese (ja)
Other versions
JP3827037B2 (en
Inventor
Atsushi Tani
淳 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP13338197A priority Critical patent/JP3827037B2/en
Publication of JPH10326265A publication Critical patent/JPH10326265A/en
Application granted granted Critical
Publication of JP3827037B2 publication Critical patent/JP3827037B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To quickly attain learning for a recurrent type neural net. SOLUTION: An initial value is inputted for a recurrent type neural net in a step S21, and a prescribed output is generated. An output is feedbacked to an input for operating rehearsal, and original learning data are recollected in a step S22. New learning data are inputted and learning is operated in a step S23, and the original learning data recollected in the step S22 are inputted and learning is operated in a step S24. The learning with the new learning data and the learning with the original learning data is alternately operated so that learning can be quickly completed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、学習方法および装
置、並びに記録媒体に関し、特に、リカレント型ニュー
ラルネットに対して、迅速に学習を行わせることができ
るようにした、学習方法および装置、並びに記録媒体に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a learning method, a learning method, and a recording medium, and more particularly, to a learning method, a learning method, a learning method, and a learning method for a recurrent neural network. It relates to a recording medium.

【0002】[0002]

【従来の技術】リカレント型ニューラルネットにより、
予測を行うことができる。例えば、図10に示すよう
に、ロボット11に、障害物10Aの周囲を反時計方向
に移動させるルートと、障害物10Aと障害物10Bの
周囲を反時計方向に移動させるルートを、ロボット11
の有するリカレント型ニューラルネットに記憶させるこ
とができる。このような記憶をさせておくと、ロボット
11は、例えば、障害物10Aの周囲を移動するとき、
ランドマークが、ランドマーク1、ランドマーク2、ラ
ンドマーク5の順序で表れることを記憶しており、ま
た、障害物10Aと障害物10Bの周囲を移動する場合
には、ランドマークが、ランドマーク1、ランドマーク
2、ランドマーク3、ランドマーク4、ランドマーク5
の順序で表れることを記憶しているので、これらのラン
ドマークを認識しながら、ロボット11は、障害物10
Aの周囲、または障害物10Aと障害物10Bの周囲を
移動することができる。
2. Description of the Related Art A recurrent neural network uses
You can make predictions. For example, as shown in FIG. 10, the robot 11 moves a route that moves around the obstacle 10A in the counterclockwise direction and a route that moves around the obstacles 10A and 10B in the counterclockwise direction.
Can be stored in a recurrent type neural net included in. If such a memory is stored, for example, when the robot 11 moves around the obstacle 10A,
It stores that landmarks appear in the order of landmark 1, landmark 2, and landmark 5. When moving around the obstacles 10A and 10B, the landmarks are displayed as landmarks. 1, landmark 2, landmark 3, landmark 4, landmark 5
, The robot 11 recognizes these landmarks and recognizes these landmarks.
It can move around A or around the obstacles 10A and 10B.

【0003】ところで、例えば、このような学習が既に
行われている状態において、ランドマーク1乃至ランド
マーク5のうち、ランドマーク4を削除したような場
合、ロボット11のリカレント型ニューラルネットに対
して、再び学習を行わせる必要が生じる。
By the way, for example, if the landmark 4 is deleted from the landmarks 1 to 5 in a state where such learning has already been performed, the recurrent neural network of the robot 11 is Then, it is necessary to perform learning again.

【0004】図11は、このような場合における、従来
の学習方法を表している。すなわち、最初にステップS
31において、新たな学習データを入力し、これをリカ
レント型ニューラルネットに学習させる。ステップS3
2において、学習結果を評価し、充分な評価が得られた
か否かを判定し、まだ充分な評価が得られない場合に
は、学習がまだできていないものと判定し、ステップS
31に戻り、再び、新たな学習データを入力し、学習さ
せる処理を実行する。
FIG. 11 shows a conventional learning method in such a case. That is, first, step S
At 31, new learning data is input and the new learning data is learned by a recurrent neural network. Step S3
In step 2, the learning result is evaluated, and it is determined whether or not sufficient evaluation has been obtained. If sufficient evaluation has not been obtained, it is determined that learning has not been performed yet, and step S
Returning to 31, the process of inputting new learning data and performing learning is executed again.

【0005】以上のようにして、ステップS32で、新
たな学習データが学習できたと判定されるまで、学習処
理が繰り返し実行される。
[0005] As described above, the learning process is repeatedly executed until it is determined in step S32 that new learning data has been learned.

【0006】[0006]

【発明が解決しようとする課題】従来の学習方法は、こ
のように、1つのランドマークを除去しただけの変化で
あるにも拘らず、学習処理を1からすべてやり直すよう
にしていた。その結果、ロボット11が、全く学習を行
っていない状態から学習させる場合と同様となり、学習
に長い時間がかかる課題があった。
As described above, in the conventional learning method, all the learning processes are restarted from 1 irrespective of a change in which only one landmark is removed. As a result, this is similar to the case where the robot 11 learns from a state in which learning is not performed at all, and there is a problem that learning takes a long time.

【0007】本発明はこのような状況に鑑みてなされた
ものであり、より迅速に、学習を完了することができる
ようにするものである。
[0007] The present invention has been made in view of such a situation, and aims to complete learning more quickly.

【0008】[0008]

【課題を解決するための手段】請求項1に記載の学習方
法は、初期値を取り込む取り込みステップと、リハーサ
ルにより元の学習データを想起させる想起ステップと、
新たな学習データと元の学習データを加算して、学習さ
せる学習ステップとを備えることを特徴とする。
According to a first aspect of the present invention, there is provided a learning method, comprising: a capturing step of capturing an initial value; and a recalling step of recalling original learning data by rehearsal.
A learning step of adding the new learning data and the original learning data to perform learning.

【0009】請求項3に記載の記録媒体は、初期値を取
り込む取り込みステップと、リハーサルにより元の学習
データを想起させる想起ステップと、新たな学習データ
と元の学習データを加算して、学習させる学習ステップ
とを備えるプログラムが記録されていることを特徴とす
る。
According to a third aspect of the present invention, there is provided a recording medium for acquiring an initial value, a recalling step for recalling original learning data by rehearsal, and adding new learning data to the original learning data for learning. A program including a learning step is recorded.

【0010】請求項4に記載の学習装置は、初期値を取
り込む取り込み手段と、リハーサルにより元の学習デー
タを想起させる想起手段と、新たな学習データと元の学
習データを加算して、学習させる学習手段とを備えるこ
とを特徴とする。
According to a fourth aspect of the present invention, there is provided a learning device for capturing an initial value, a recalling unit for recalling original learning data by rehearsal, and learning by adding new learning data and original learning data. Learning means.

【0011】請求項1に記載の学習方法、請求項3に記
載の記録媒体、および請求項4に記載の学習装置におい
ては、リハーサルにより元の学習データが想起され、こ
の元の学習データと新たな学習データとを加算して、学
習が行われる。
In the learning method according to the first aspect, the recording medium according to the third aspect, and the learning apparatus according to the fourth aspect, the original learning data is recalled by rehearsal, and the original learning data and the new learning data are recalled. Learning is performed by adding appropriate learning data.

【0012】[0012]

【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。但
し勿論この記載は、各手段を記載したものに限定するこ
とを意味するものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below. In order to clarify the correspondence between each means of the invention described in the claims and the following embodiments, each means is described. When the features of the present invention are described by adding the corresponding embodiment (however, an example) in parentheses after the parentheses, the result is as follows. However, of course, this description does not mean that each means is limited to those described.

【0013】請求項4に記載の学習装置は、初期値を取
り込む取り込み手段(例えば、図9のステップS21)
と、リハーサルにより元の学習データを想起させる想起
手段(例えば、図9のステップS22)と、新たな学習
データと元の学習データを加算して、学習させる学習手
段(例えば、図9のステップS23,24)とを備える
ことを特徴とする。
[0013] In the learning apparatus according to the present invention, a fetch means for fetching an initial value (for example, step S21 in FIG. 9).
Recalling means for recalling the original learning data by rehearsal (for example, step S22 in FIG. 9), and learning means for adding the new learning data to the original learning data for learning (for example, step S23 in FIG. 9). , 24).

【0014】図1は、本発明の学習方法を応用したロボ
ットの外観構成を示している。この実施の形態において
は、ロボット11の上部にテレビカメラ12が取り付け
られ、周囲の画像を撮像するようになされている。ロボ
ット11の下側には、車輪13が取り付けられ、任意の
位置に移動できるようになされている。また、ロボット
11の側面には、ディスプレイ14が取り付けられ、所
定の文字や画像が表示されるようになされている。
FIG. 1 shows an external configuration of a robot to which the learning method of the present invention is applied. In this embodiment, a television camera 12 is attached to an upper part of the robot 11 so as to capture a surrounding image. Wheels 13 are attached to the lower side of the robot 11 so that the robot 13 can move to an arbitrary position. A display 14 is attached to a side surface of the robot 11 so that predetermined characters and images are displayed.

【0015】図2は、ロボット11の内部の構成例を示
している。テレビカメラ12は、周囲の映像をカラー画
像として取り込み、取り込んだカラー画像データを制御
回路24と量子化回路25に出力している。量子化回路
25は入力されたカラー画像データを量子化し、ニュー
ラルネット認識装置23に出力するようになされてい
る。ニューラルネット認識装置23は、量子化回路25
より入力されたカラー画像データから、後述するランド
マークを認識し、認識結果を制御回路24に出力するよ
うになされている。例えば、マイクロコンピュータなど
よりなる制御回路24は、ニューラルネット認識装置2
3に対して、ロボットの移動方向を通知するとともに、
ニューラルネット認識装置23より供給された、次のラ
ンドマークの予測結果をCRT,LCDなどよりなるデ
ィスプレイ14に出力し、表示させるようになされてい
る。
FIG. 2 shows an example of the internal configuration of the robot 11. The television camera 12 captures the surrounding video as a color image, and outputs the captured color image data to the control circuit 24 and the quantization circuit 25. The quantization circuit 25 quantizes the input color image data and outputs it to the neural network recognition device 23. The neural network recognition device 23 includes a quantization circuit 25
A landmark described later is recognized from the input color image data, and the recognition result is output to the control circuit 24. For example, the control circuit 24 composed of a microcomputer or the like
3. Notify the moving direction of the robot to 3,
The prediction result of the next landmark supplied from the neural network recognizing device 23 is outputted to the display 14 composed of a CRT, an LCD or the like and displayed.

【0016】また、制御回路24は、モータ21を駆動
し、テレビカメラ12を所定の方向に指向させるように
なされている。さらに制御回路24は、モータ22を駆
動し、車輪13を回転して、ロボット11を所定の位置
に移動させるようになされている。
The control circuit 24 drives the motor 21 to direct the television camera 12 in a predetermined direction. Further, the control circuit 24 drives the motor 22, rotates the wheels 13, and moves the robot 11 to a predetermined position.

【0017】図3は、ロボット11の移動空間を平面的
に表している。この実施の形態においては、障害物10
Aと障害物10Bの回りに、ランドマーク1乃至ランド
マーク5が配置されている。この実施の形態の場合、ロ
ボット11は、ランドマーク1、ランドマーク2、ラン
ドマーク5の経路で、障害物10Aの周囲を反時計方向
に移動するか、またはランドマーク1、ランドマーク
2、ランドマーク3、ランドマーク4、ランドマーク5
の経路で、障害物10Aと障害物10Bの周囲を反時計
方向に移動するものとする。
FIG. 3 shows the moving space of the robot 11 in a plan view. In this embodiment, the obstacle 10
Landmarks 1 to 5 are arranged around A and the obstacle 10B. In the case of this embodiment, the robot 11 moves counterclockwise around the obstacle 10A on the route of the landmark 1, the landmark 2, and the landmark 5, or moves along the landmark 1, the landmark 2, and the land. Mark 3, Landmark 4, Landmark 5
It is assumed that the vehicle travels in the counterclockwise direction around the obstacles 10A and 10B along the route.

【0018】この場合、制御回路24は、図4に示す処
理を実行する。最初にステップS1において、制御回路
24は、ランドマークが発見されたか否かを判定する。
すなわち、テレビカメラ12は、周囲の画像を撮像し、
撮像した結果得られたカラー画像データを量子化回路2
5を介してニューラルネット認識装置23に出力してい
る。ニューラルネット認識装置23は、後述するよう
に、ランドマークを認識すると、その認識結果を制御回
路24に出力する。制御回路24は、ニューラルネット
認識装置23の出力をモニタし、ランドマークが発見さ
れたか否かを判定し、まだ発見されていない場合におい
ては、ステップS2に進み、モータ21を駆動して、テ
レビカメラ12を所定の方向に回動させたり、モータ2
2を駆動して、ロボット1が、図3において障害物10
A,10Bの周囲を反時計方向に移動するように車輪1
3を回転させる。このステップS1,S2の処理は、ス
テップS1において、ランドマークが発見されたと判定
されるまで繰り返し実行される。
In this case, the control circuit 24 executes the processing shown in FIG. First, in step S1, the control circuit 24 determines whether a landmark has been found.
That is, the television camera 12 captures the surrounding image,
The color image data obtained as a result of imaging is quantized by the quantization circuit 2
5 to the neural network recognition device 23. When the landmark is recognized, the neural network recognition device 23 outputs the recognition result to the control circuit 24 as described later. The control circuit 24 monitors the output of the neural network recognition device 23 to determine whether or not a landmark has been found. If a landmark has not been found yet, the process proceeds to step S2, in which the motor 21 is driven to When the camera 12 is rotated in a predetermined direction,
2, the robot 1 moves the obstacle 10 in FIG.
Wheel 1 so that it moves around A and 10B counterclockwise.
Rotate 3 The processes in steps S1 and S2 are repeatedly executed until it is determined in step S1 that a landmark has been found.

【0019】ステップS1において、ランドマークが発
見されたと判定された場合、ステップS3に進み、制御
回路24は、発見したランドマークの方向に障害物が存
在するか否かを判定する。すなわち、制御回路24は、
テレビカメラ12の出力から障害物の有無を判定し、障
害物が存在すると判定した場合においては、ステップS
4に進み、車輪13を右方向に回転する処理を実行す
る。すなわち、このとき制御回路24は、モータ22を
駆動し、車輪13を右方向(時計方向)に回転させる。
If it is determined in step S1 that a landmark has been found, the process proceeds to step S3, where the control circuit 24 determines whether an obstacle exists in the direction of the found landmark. That is, the control circuit 24
The presence or absence of an obstacle is determined from the output of the television camera 12, and if it is determined that an obstacle exists, the process proceeds to step S
Then, the process proceeds to step 4 in which the wheel 13 is rotated rightward. That is, at this time, the control circuit 24 drives the motor 22 to rotate the wheels 13 clockwise (clockwise).

【0020】その後、ステップS3に戻り、ロボット1
1が新たに指向した方向に、障害物が存在するか否かを
再び判定する。障害物が存在すると判定された場合、再
びステップS4に進み、ロボット11をさらに時計方向
に回転する処理が行われる。そして、ステップS3にお
いて、障害物が存在しないと判定された場合、ステップ
S5に進み、制御回路24は、ロボット11をステップ
S1で発見されたランドマークの方向に移動させる処理
を実行する。すなわち、このとき制御回路24は、モー
タ22を駆動し、車輪13を回転させ、ロボット11を
ランドマークの方向に移動させる。
Thereafter, the flow returns to step S3, and the robot 1
It is determined again whether or not an obstacle exists in the direction in which 1 has newly pointed. If it is determined that an obstacle exists, the process proceeds to step S4 again, and a process of rotating the robot 11 further clockwise is performed. If it is determined in step S3 that there is no obstacle, the process proceeds to step S5, and the control circuit 24 executes a process of moving the robot 11 in the direction of the landmark found in step S1. That is, at this time, the control circuit 24 drives the motor 22, rotates the wheel 13, and moves the robot 11 in the direction of the landmark.

【0021】次にステップS6に進み、制御回路24
は、ランドマークに到達したか否かを、テレビカメラ1
2の出力とニューラルネット認識装置23の出力から判
定する。すなわち、制御回路24は、ニューラルネット
認識装置23よりランドマークが検出されていることを
表す信号が入力されているとともに、テレビカメラ12
が充分大きなランドマークの画像を出力しているとき、
ランドマークに到達したものと判定する。ランドマーク
にまだ到達していない場合においては、ステップS3に
戻り、それ以降の処理を繰り返し実行し、ランドマーク
に到達したと判定された場合、ステップS1に戻り、新
たなランドマークを発見し、そのランドマークに向かっ
て、上述した場合と同様の処理が実行される。
Then, the process proceeds to a step S6, wherein the control circuit 24
Indicates whether or not a landmark has been reached
2 and the output of the neural network recognition device 23. That is, the control circuit 24 receives a signal indicating that a landmark has been detected from the neural network recognition device 23,
Is outputting a sufficiently large landmark image,
It is determined that the landmark has been reached. If the landmark has not been reached yet, the process returns to step S3, and the subsequent processing is repeatedly executed. If it is determined that the landmark has been reached, the process returns to step S1 to find a new landmark. The same processing as that described above is executed toward the landmark.

【0022】以上のようにして、ロボット11は、障害
物10Aに衝突しないように、ランドマーク1に向かっ
て走行し、ランドマーク1に到達したら、ランドマーク
1からランドマーク2に向かって走行する。ランドマー
ク2に到達したら、さらにランドマーク5に向かって走
行し、ランドマーク5に到達したら、そこからランドマ
ーク1に向かって走行する。
As described above, the robot 11 travels toward the landmark 1 so as not to collide with the obstacle 10A. When the robot 11 reaches the landmark 1, it travels from the landmark 1 toward the landmark 2. . When the vehicle reaches the landmark 2, the vehicle travels further toward the landmark 5. When the vehicle reaches the landmark 5, the vehicle travels toward the landmark 1 from there.

【0023】あるいはまた、ロボット11は、ランドマ
ーク2に到達したとき、ランドマーク5の方向でなく、
ランドマーク3の方向に移動し、ランドマーク3に到達
したら、そこからランドマーク4に進み、ランドマーク
4に到達したら、ランドマーク5に進む。
Alternatively, when the robot 11 reaches the landmark 2,
After moving in the direction of the landmark 3 and reaching the landmark 3, proceed to the landmark 4 from there, and proceed to the landmark 5 when reaching the landmark 4.

【0024】ロボット11が、2つのルートのうち、い
ずれのルートを移動するかは、制御回路24により予め
プログラムすることが可能である。
The control circuit 24 can program in advance which of the two routes the robot 11 moves.

【0025】ここで、ニューラルネット認識装置23の
構成について説明する。図5に示すように、ニューラル
ネット認識装置23は、ホップフィールド型ニューラル
ネットにより構成される相関記憶ネット41、ウィナー
テイクオール(winner-take-all)型ニューラルネット
42、およびリカレント型ニューラルネット43により
基本的に構成されている。
Here, the configuration of the neural network recognition device 23 will be described. As shown in FIG. 5, the neural network recognizing device 23 includes a correlation storage net 41 composed of a Hopfield neural network, a winner-take-all neural network 42, and a recurrent neural network 43. It is basically configured.

【0026】テレビカメラ12より出力されたカラー画
像データは、相関記憶ネット41に入力される前に、量
子化回路25に入力され、量子化される。すなわち、量
子化回路25は、図6に示すように、色相と彩度からな
る空間(テーブル)を有し、この所定の色相と彩度で規
定されるカラー画像データのうち、領域A1の範囲に属
するカラー画像データは、すべて例えば赤のデータとす
る。同様に、領域A2に属するカラー画像データは、す
べて緑のデータとして量子化し、さらに、領域A3に属
するカラー画像データは、すべて青のデータとして量子
化する。
The color image data output from the television camera 12 is input to the quantization circuit 25 and quantized before being input to the correlation storage network 41. That is, as shown in FIG. 6, the quantization circuit 25 has a space (table) composed of hue and saturation, and in the color image data defined by the predetermined hue and saturation, the area A1 Are all red data, for example. Similarly, all the color image data belonging to the area A2 is quantized as green data, and all the color image data belonging to the area A3 is quantized as blue data.

【0027】なお、ここにおける赤、緑、および青の名
称は、便宜的なものに過ぎず、それ以外の名称であって
もよい。すなわち、これらの名称は、各領域の単なるコ
ード(量子化データの名称)にすぎない。
It should be noted that the names of red, green and blue here are merely for convenience, and other names may be used. That is, these names are merely codes (names of quantized data) of each area.

【0028】色相と彩度により規定される空間上に存在
するカラー画像データは、無限に存在するのであるが、
これをこの実施の形態の場合、3個の量子化データに量
子化する。このように、多くの数のカラー画像データ
を、充分少ない数の量子化データに量子化することで、
ニューラルネットによる物体の学習と認識が可能とな
る。このように、量子化回路25によりカラー画像デー
タを量子化した量子化データが、ニューラルネット認識
装置23に供給される。従って、ニューラルネット認識
装置23に入力される量子化データは、図6に示した空
間により規定される3つのデータのいずれかにより表さ
れたデータとなる。
Although the color image data existing in the space defined by the hue and the saturation exists infinitely,
In the case of this embodiment, this is quantized into three pieces of quantized data. In this way, by quantizing a large number of color image data into a sufficiently small number of quantized data,
Learning and recognition of objects by neural networks are possible. As described above, the quantized data obtained by quantizing the color image data by the quantization circuit 25 is supplied to the neural network recognition device 23. Therefore, the quantized data input to the neural network recognition device 23 is data represented by any one of the three data defined by the space shown in FIG.

【0029】図5に示すように、相関記憶ネット41
は、図6に示した量子化ステップの数(この実施の形態
の場合3個)に対応する数のフィールドを有している。
フィールド41Rは、図6における領域A1の赤の量子
化データに対応するフィールドであり、フィールド41
Gは、図6の領域A2の緑の量子化データに対応するフ
ィールドであり、そして、フィールド41Bは、図6の
領域A3の青の量子化データに対応するフィールドであ
る。量子化回路25より出力された3つの量子化データ
により構成される入力パターンは、相関記憶ネット41
の、それぞれ対応するフィールドのニューロンに入力さ
れる(想起される)。
As shown in FIG. 5, the correlation storage net 41
Has a number of fields corresponding to the number of quantization steps (three in this embodiment) shown in FIG.
The field 41R is a field corresponding to the red quantized data in the area A1 in FIG.
G is a field corresponding to the green quantized data in the area A2 in FIG. 6, and the field 41B is a field corresponding to the blue quantized data in the area A3 in FIG. The input pattern composed of the three pieces of quantized data output from the quantization circuit 25 is stored in the correlation storage net 41.
Are input (recalled) to the neurons in the corresponding fields.

【0030】すなわち、各ニューロンの内部の状態をU
とするとき、次式が成立する。
That is, the internal state of each neuron is represented by U
Then, the following equation is established.

【0031】[0031]

【数1】 (Equation 1)

【0032】ここで、iはニューロンの番号を表し、t
は所定の時刻を表している。従って、Ui t+1は、i番目
のニューロンの時刻t+1におけるニューロンの内部の
状態を表している。
Here, i represents a neuron number, and t
Represents a predetermined time. Thus, U i t + 1 represents the internal state of the ith neuron at time t + 1.

【0033】ここで、kは、ダンパを表す定数であり、
αも所定の定数である。
Here, k is a constant representing a damper,
α is also a predetermined constant.

【0034】Wijは、i番目のニューロンからj番目の
ニューロンに対する結合重み係数を表している。a
j tは、j番目の時刻tにおけるニューロンの出力を表し
ている。この出力は、次式により規定される。
W ij represents a connection weight coefficient from the i-th neuron to the j-th neuron. a
j t represents the output of the neuron at the j-th time t. This output is defined by the following equation.

【0035】[0035]

【数2】 (Equation 2)

【0036】ここで、logistic(A)は、Aに
対してシグモイド関数を乗算することを表している。ま
た、Tは定数を表している。すなわち、上記式は、ニュ
ーロンの内部状態を定数Tで割算した結果にシグモイド
関数を乗算した結果が、ニューロンの出力となることを
意味している。
Here, logistic (A) indicates that A is multiplied by a sigmoid function. T represents a constant. That is, the above equation means that the result of multiplying the result of dividing the internal state of the neuron by the constant T by the sigmoid function is the output of the neuron.

【0037】以上のようにして、想起のダイナミクスが
行われるのに対し、学習のダイナミクスは、次の式によ
り表される。
While the recall dynamics are performed as described above, the learning dynamics are represented by the following equations.

【0038】[0038]

【数3】 (Equation 3)

【0039】上記式における0.5は、閾値として機能
する。すなわち、各ニューロンの出力は0乃至1の間の
値となるが、0.5より小さい値であるとき、結合重み
係数を負にし、0.5より大きい場合、結合重み係数を
正にする機能を有している。
0.5 in the above equation functions as a threshold. That is, the output of each neuron takes a value between 0 and 1, but when the value is smaller than 0.5, the connection weight coefficient is made negative, and when it is larger than 0.5, the function is made that the connection weight coefficient is made positive. have.

【0040】ニューラルネットにランドマーク1乃至ラ
ンドマーク5を認識の基準となる物体として学習させる
と、その学習の結果は、この結合重み係数Wijとして記
憶されることになる。
When the neural network is made to learn the landmarks 1 to 5 as objects to be recognized, the result of the learning is stored as the connection weight coefficient Wij .

【0041】ウィナーテイクオール型ニューラルネット
42は、少なくとも認識すべきランドマークの数に対応
する数のニューロン(この実施の形態の場合、5個のニ
ューロン)を有し、相関記憶ネット41の各フィールド
から所定の入力が行われたとき、5個のニューロンのう
ち、最も大きな値を出力する1個のニューロンの出力を
1.0とし、他の4個のニューロンの出力を0.0とす
る学習を行わせる。これにより、相関記憶ネット41の
3つのフィールドで規定されるパターンから1つのラン
ドマークが判定され、そのランドマークに対応するニュ
ーロンが発火することになる。
The winner-take-all type neural network 42 has at least the number of neurons (five neurons in this embodiment) corresponding to the number of landmarks to be recognized. When a predetermined input is made from among the five neurons, the output of one neuron that outputs the largest value is set to 1.0, and the output of the other four neurons is set to 0.0. Is performed. Thereby, one landmark is determined from the pattern defined by the three fields of the correlation storage net 41, and the neuron corresponding to the landmark is fired.

【0042】このように、ウィナーテイクオール型ニュ
ーラルネット42においては、発火するニューロンが1
つだけとなるので、その出力を処理する後段のリカレン
ト型ニューラルネット43の構成を簡単にすることがで
きる。
As described above, in the winner-take-all type neural network 42, one neuron fires.
Therefore, the configuration of the recurrent neural network 43 at the subsequent stage for processing the output can be simplified.

【0043】リカレント型ニューラルネット43は、入
力層51、中間層52、および出力層53により、基本
的に構成されている。入力層51は、ウィナーテイクオ
ール型ニューラルネット42に対応する5個のニューロ
ンを有するパターンノード51A、リカレント型ニュー
ラルネット43の内部状態を保持するニューロンを有す
るコンテックスノード51B、並びに制御回路24より
次に移動する方向が指令されるニューロンを有する方向
ノード51Cとにより構成されている。
The recurrent neural network 43 is basically composed of an input layer 51, an intermediate layer 52, and an output layer 53. The input layer 51 is composed of a pattern node 51A having five neurons corresponding to the winner-take-all neural network 42, a context node 51B having neurons holding the internal state of the recurrent neural network 43, and a control circuit 24. And a direction node 51C having a neuron whose direction of movement is specified.

【0044】出力層53は、5個のランドマークに対応
するニューロンを有するパターンノード53Aと、入力
層51におけるコンテックスノード51Bに対応するコ
ンテックスノード53Bを有している。中間層52の各
ニューロンは、入力層51と出力層53の各ノードを結
合している。また、出力層53のコンテックスノード5
3Bのニューロンの出力は、入力層51のコンテックス
ノード51Bのニューロンに帰還されている。
The output layer 53 has a pattern node 53A having neurons corresponding to five landmarks, and a context node 53B corresponding to the context node 51B in the input layer 51. Each neuron of the intermediate layer 52 connects each node of the input layer 51 and each node of the output layer 53. Also, the context node 5 of the output layer 53
The output of the 3B neuron is fed back to the neuron of the context node 51B of the input layer 51.

【0045】リカレント型ニューラルネット43は、ウ
ィナーテイクオール型ニューラルネット42から、入力
層51のパターンノード51Aに、1つのランドマーク
に対応する入力がなされると、次に現れるランドマーク
を予測し、出力層53から出力する。
When an input corresponding to one landmark is made from the winner-take-all type neural network 42 to the pattern node 51A of the input layer 51, the recurrent neural network 43 predicts a landmark that appears next. Output from the output layer 53.

【0046】ニューラルネット認識装置23は、量子化
回路25よりカラー画像データが入力されると、図7の
フローチャートに示す処理を実行する。
When color image data is input from the quantization circuit 25, the neural network recognition device 23 executes the processing shown in the flowchart of FIG.

【0047】最初にステップS11において、ランドマ
ークが探索されるまで待機する。この実施の形態の場
合、ランドマーク1乃至ランドマーク5は、いずれも所
定の色で着色されており、ニューラルネット認識装置2
3は、カラー画像データが入力されたとき、ステップS
11でYESの判定を行い、ステップS12に進む。
First, in step S11, the process waits until a landmark is searched. In the case of this embodiment, the landmarks 1 to 5 are all colored with a predetermined color, and the neural network recognition device 2
Step S3 is performed when color image data is input.
A determination of YES is made in step 11, and the process proceeds to step S12.

【0048】ステップS12においては、ニューラルネ
ット認識装置23は、いま探索されたランドマーク(現
ランドマーク)の認識処理を実行する。この認識処理
は、ニューラルネット認識装置23の相関記憶ネット4
1において実行される。
In step S12, the neural network recognizing device 23 executes a process of recognizing the landmark (current landmark) just searched. This recognition processing is performed by the correlation storage network 4 of the neural network recognition device 23.
1 is executed.

【0049】ステップS12の現ランドマークの認識処
理が終了したとき、次にステップS13に進み、ウィナ
ーテイクオール型ニューラルネット42において、ステ
ップS12で得られた認識結果の絞り込み処理を行う。
すなわち、5つのランドマークのうちのいずれが認識さ
れたのかを明確にする。そして、ステップS14に進
み、現在のランドマークの次に現れるランドマークをリ
カレント型ニューラルネット43において予測する処理
を行う。予測した結果は、ディスプレイ14に表示され
る。以上の処理は、ランドマークが探索されるごとに繰
り返し実行される。
When the current landmark recognition process in step S12 is completed, the process proceeds to step S13, where the winner-take-all type neural network 42 narrows down the recognition result obtained in step S12.
That is, it is clear which of the five landmarks has been recognized. Then, the process proceeds to step S14 to perform a process of predicting a landmark appearing next to the current landmark in the recurrent neural network 43. The predicted result is displayed on the display 14. The above processing is repeatedly executed each time a landmark is searched.

【0050】いま、ランドマーク1乃至ランドマーク5
の認識すべき基準の物体としての画像が、相関記憶ネッ
ト41における結合重み係数として記憶(学習)された
ものとする。この状態で、例えば、相関記憶ネット41
に、テレビカメラ12で撮影され、量子化回路25で量
子化されたランドマーク2のパターンが入力されると、
フィールド41R,41G,41Bには、それぞれラン
ドマーク2の量子化された赤のデータ、緑のデータ、お
よび青のデータが、それぞれ所定の位置に発火する。ウ
ィナーテイクオール型ニューラルネット42は、各フィ
ールドの発火状態から対応するランドマークを判定し、
判定結果に基づいて1つのランドマークに対応するニュ
ーロンを発火させる。いまの場合、ランドマーク2に対
応するニューロンが発火する。
Now, landmarks 1 to 5
Is stored (learned) as a connection weight coefficient in the correlation storage net 41. In this state, for example, the correlation storage net 41
Then, when the pattern of the landmark 2 captured by the television camera 12 and quantized by the quantization circuit 25 is input,
In the fields 41R, 41G, and 41B, quantized red data, green data, and blue data of the landmark 2 fire at predetermined positions, respectively. The winner-take-all type neural network 42 determines the corresponding landmark from the firing state of each field,
A neuron corresponding to one landmark is fired based on the determination result. In this case, the neuron corresponding to the landmark 2 fires.

【0051】そこで、リカレント型ニューラルネット4
3の入力層51のパターンノード51Aには、ウィナー
テイクオール型ニューラルネット42のニューロンに対
応して、ランドマーク2に対応するニューロンが発火す
る。また、このとき、制御回路24は、次に進むべき方
向は左であるのか右であるのかを判定し、その方向に対
応する信号を入力層51の方向ノード51Cに入力す
る。図5の実施の形態においては、左方向に対応するニ
ューロンが発火されている。このため、リカレント型ニ
ューラルネット43は、ランドマーク2の次に到来する
ランドマークを予測し、その予測結果を出力層53のパ
ターンノード53Aに出力する。図3に示すように、ラ
ンドマーク2が検出された状態において、次に移動する
方向が左方向である場合においては、次に現れるランド
マークは、ランドマーク5となる。従って、この場合、
図5に示すように、出力層53では、ランドマーク5に
対応する番号5のニューロンが発火する。
Therefore, the recurrent neural network 4
At the pattern node 51A of the input layer 51 of No. 3, a neuron corresponding to the landmark 2 fires corresponding to the neuron of the winner-take-all type neural network. At this time, the control circuit 24 determines whether the direction to go next is left or right, and inputs a signal corresponding to that direction to the direction node 51C of the input layer 51. In the embodiment of FIG. 5, the neuron corresponding to the left direction is fired. Therefore, the recurrent neural network 43 predicts a landmark arriving next to the landmark 2 and outputs the prediction result to the pattern node 53A of the output layer 53. As shown in FIG. 3, in a state where the landmark 2 is detected, when the next moving direction is the left direction, the landmark that appears next is the landmark 5. Therefore, in this case,
As shown in FIG. 5, in the output layer 53, a neuron of number 5 corresponding to the landmark 5 fires.

【0052】制御回路24は、ニューラルネット認識装
置23より、次のランドマークを予測するデータの入力
を受けたとき、これに対応する番号をディスプレイ14
に出力し、表示させる。いまの場合、例えば、番号5が
ディスプレイ14に表示される。これにより、使用者
は、次に現れるランドマークがランドマーク5であるこ
とを知ることができる。
When the control circuit 24 receives input of data for predicting the next landmark from the neural network recognition device 23, the control circuit 24 displays a number corresponding to the input data on the display 14.
And display it. In this case, for example, the number 5 is displayed on the display 14. Thereby, the user can know that the landmark that appears next is the landmark 5.

【0053】リカレント型ニューラルネット43の入力
層51のパターンノード51Aにおけるランドマーク2
に対応するニューロンが発火した状態において、方向ノ
ード51Cで右方向に対応するニューロンを発火させた
場合においては、図3に示すように、ランドマーク2か
ら右方向に移動したとき、次に現れるランドマークはラ
ンドマーク3であるので、出力層53のパターンノード
53Aにおいては、ランドマーク3に対応する番号3の
ニューロンが発火することになる。
The landmark 2 at the pattern node 51A of the input layer 51 of the recurrent neural network 43
When the neuron corresponding to the right direction is fired by the direction node 51C in the state where the neuron corresponding to is fired, as shown in FIG. Since the mark is the landmark 3, the neuron of the number 3 corresponding to the landmark 3 is fired at the pattern node 53A of the output layer 53.

【0054】また、例えばランドマーク4が、ランドマ
ーク1と近似した色彩のランドマークであったとする
と、ランドマーク1とランドマーク4のいずれが認識さ
れたのかが不明瞭となる。しかしながら、この実施の形
態の場合、リカレント型ニューラルネット43にコンテ
ックスノードが設けられているため、これにより、状態
の遷移も識別される。
For example, if the landmark 4 is a landmark having a color similar to that of the landmark 1, it becomes unclear which of the landmark 1 and the landmark 4 has been recognized. However, in the case of this embodiment, since the recurrent neural network 43 is provided with a context node, a state transition is also identified.

【0055】すなわち、図3に示すように、ランドマー
ク4はランドマーク3の次に表れるものであり、ランド
マーク1はランドマーク5の次に表れるものである。リ
カレント型ニューラルネット43においては、そのコン
テックスノード51B,53Bにより、現在の状態がど
の状態であるのかを識別できるため、直前に認識された
ランドマークがランドマーク3である場合においては、
次に入力されるランドマークは、ランドマーク1ではな
くランドマーク4であることが認識される。同様に、直
前に認識されていたランドマークが、ランドマーク5で
ある場合においては、次に予測されるランドマークは、
ランドマーク4ではなくランドマーク1であることを認
識することができる。
That is, as shown in FIG. 3, the landmark 4 appears next to the landmark 3, and the landmark 1 appears next to the landmark 5. In the recurrent neural network 43, since the current state is distinguished by the context nodes 51B and 53B, when the landmark recognized immediately before is the landmark 3,
It is recognized that the landmark to be input next is not the landmark 1 but the landmark 4. Similarly, when the landmark recognized immediately before is the landmark 5, the next predicted landmark is:
It is possible to recognize that the landmark 1 is not the landmark 4.

【0056】以上のようにして、ロボット11のリカレ
ント型ニューラルネット43に、ランドマーク1、ラン
ドマーク2、ランドマーク5の順序でランドマークを検
索することで、障害物10Aの周囲を反時計方向に移動
する経路と、ランドマーク1、ランドマーク2、ランド
マーク3、ランドマーク4、ランドマーク5の順序でラ
ンドマークを検索することで、障害物10Aと障害物1
0Bの周囲を反時計方向に移動する経路が既に学習され
ているものとする。このような状態で、例えば、図8に
示すように、ランドマーク4が削除されたものとする。
従って、このとき、ロボット11が移動するワークスペ
ースに存在するランドマークは、ランドマーク1、ラン
ドマーク2、ランドマーク3、およびランドマーク5の
4個のランドマークとなる。このような、わずかな変更
を加えたような場合、リカレント型ニューラルネット4
3に対して、図9のフローチャートに示すような学習を
行わせる。
As described above, the landmark is searched in the recurrent neural network 43 of the robot 11 in the order of the landmark 1, the landmark 2, and the landmark 5, so that the periphery of the obstacle 10A is counterclockwise. And the landmarks are searched in the order of landmark 1, landmark 2, landmark 3, landmark 4, and landmark 5, and the obstacle 10A and the obstacle 1 are searched.
It is assumed that a route that moves around 0B in the counterclockwise direction has already been learned. In this state, for example, it is assumed that the landmark 4 has been deleted as shown in FIG.
Therefore, at this time, the landmarks existing in the work space in which the robot 11 moves are four landmarks of the landmark 1, the landmark 2, the landmark 3, and the landmark 5. When such a slight change is made, the recurrent neural network 4
3 is made to perform learning as shown in the flowchart of FIG.

【0057】すなわち、最初にステップS21におい
て、リカレント型ニューラルネット43に対して、所定
の初期値を入力する。この初期値は、ランダムなもので
あってよい。初期値が入力されたリカレント型ニューラ
ルネット43には、各ニューロンに元の学習データに対
応する係数が学習されているので、何らかの出力がなさ
れる。
That is, first, in step S21, a predetermined initial value is input to the recurrent neural network 43. This initial value may be random. In the recurrent neural network 43 to which the initial value has been input, since each neuron has learned the coefficient corresponding to the original learning data, some output is made.

【0058】ステップS22においては、リカレント型
ニューラルネット43に、リハーサルにより、元の学習
データを想起させる。すなわち、リカレント型ニューラ
ルネット43において、初期値に基づいて生成された出
力を入力に帰還し、帰還された出力に基づいて、新たな
出力を想起させる動作を繰り返させる。このようなリハ
ーサル処理を何回か行うと、上述したように、リカレン
ト型ニューラルネット43のニューロンには、元の学習
データの係数が学習されているため、リカレント型ニュ
ーラルネット43に、元の学習データを想起させ、出力
させることができる。
In step S22, the recurrent neural network 43 recalls the original learning data by rehearsal. That is, in the recurrent type neural network 43, the output generated based on the initial value is fed back to the input, and the operation of recalling a new output is repeated based on the fed back output. When such a rehearsal process is performed several times, as described above, since the coefficients of the original learning data have been learned in the neurons of the recurrent neural network 43, the original learning data is added to the recurrent neural network 43. Recall and output data.

【0059】次に、ステップS23に進み、リカレント
型ニューラルネット43に対して、新たな学習データを
入力し、学習させる。すなわち、ランドマーク1、ラン
ドマーク2、ランドマーク5の順番による移動経路と、
ランドマーク1、ランドマーク2、ランドマーク3、ラ
ンドマーク5の順番による移動経路を学習させる。
Next, the process proceeds to step S23, in which new learning data is input to the recurrent type neural network 43 and learned. That is, a moving route in the order of the landmark 1, the landmark 2, and the landmark 5,
The moving route in the order of the landmark 1, the landmark 2, the landmark 3, and the landmark 5 is learned.

【0060】次に、ステップS24において、元の学習
データを入力し、学習させる。すなわち、ランドマーク
1、ランドマーク2、ランドマーク5の順番による移動
経路と、ランドマーク1、ランドマーク2、ランドマー
ク3、ランドマーク4、ランドマーク5の順番による移
動経路を学習させる。この元の学習データは、ステップ
S22のリハーサル処理により、リカレント型ニューラ
ルネット43に、自ら想起させたものを用いる。
Next, in step S24, the original learning data is input and learned. That is, the moving path in the order of the landmark 1, the landmark 2, and the landmark 5 and the moving path in the order of the landmark 1, the landmark 2, the landmark 3, the landmark 4, and the landmark 5 are learned. As the original learning data, the one recalled by the recurrent neural network 43 by the rehearsal processing in step S22 is used.

【0061】次に、ステップS25に進み、充分な学習
ができたか否かを判定する。まだ、充分な学習ができて
いないと判定された場合には、ステップS23に戻り、
それ以降の処理を繰り返し実行する。
Next, the process proceeds to step S25, where it is determined whether or not sufficient learning has been achieved. If it is determined that sufficient learning has not yet been performed, the process returns to step S23,
The subsequent processing is repeatedly executed.

【0062】以上のようにして、新たな学習データによ
る学習と、元の学習データによる学習を加算して(この
実施の形態の場合、交互に配置して)、学習させるよう
にすると、新たな学習データだけで学習させる場合に較
べて、短い時間で学習を完了させることができる。
As described above, the learning based on the new learning data and the learning based on the original learning data are added (in the case of this embodiment, alternately arranged) to perform learning. The learning can be completed in a shorter time than in the case where learning is performed using only learning data.

【0063】元の学習データは、ロボット11にメモリ
を具備させ、そこに記憶させておくことも可能である。
しかしながら、そのようにすると、それだけ余分な構成
を必要とし、装置が大型化するだけでなく、コスト高と
なる。従って、そのような方法は、あまり実用的ではな
い。
The original learning data may be stored in a memory provided in the robot 11.
However, doing so requires an extra configuration, which not only increases the size of the device but also increases the cost. Therefore, such a method is not very practical.

【0064】なお、図9の処理例において、新たな学習
データによる学習と元の学習データによる学習を、1回
ずつ交互に行うようにしたが、例えば、2回ずつ、ある
いは3回ずつ交互に行わせるようにすることも可能であ
る。但し、例えば、合計で3000回の学習を行わせる
ときに、最初に1500回、新たな学習データで学習さ
せた後、次の1500回、元の学習データで学習させる
ようにすると、新たな学習データによる学習結果と、元
の学習データによる学習結果の中間の学習結果が得られ
るようになり、あまり好ましくない。従って、比較的頻
繁に、新たな学習データによる学習と、元の学習データ
による学習を交替させることが望ましい。比較的頻繁に
交替されるので、新たな学習データによる学習と、元の
学習データによる学習のいずれを先に行ったとしても、
結果にそれほどの差異はない。
In the processing example of FIG. 9, the learning using the new learning data and the learning using the original learning data are alternately performed once each. However, for example, the learning is alternately performed twice or three times. It is also possible to make it happen. However, for example, when a total of 3,000 learnings are performed, the learning is first performed 1500 times with the new learning data, and then the next 1500 learnings are performed with the original learning data. A learning result intermediate between the learning result based on the data and the learning result based on the original learning data is obtained, which is not preferable. Therefore, it is desirable to alternate between learning with new learning data and learning with original learning data relatively frequently. Because it is changed relatively frequently, regardless of whether learning with new learning data or learning with the original learning data is performed first,
There is not much difference in the results.

【0065】但し、例えば、新たな学習データによる学
習と、元の学習データによる学習を交互に繰り返した
後、次第に元の学習データによる学習より、新たな学習
データによる学習の回数を増加させるようにしてもよ
い。
However, for example, after alternately repeating the learning with the new learning data and the learning with the original learning data, the number of times of learning with the new learning data is gradually increased as compared with the learning with the original learning data. You may.

【0066】なお、この学習方法は、リカレント型ニュ
ーラルネットをロボットに適用した場合に限らず、さま
ざまな装置に応用した場合にも適用が可能である。ただ
し、既に学習されている状態と、新たに学習する状態と
が、比較的近似した状態である場合に適用すると、より
効果を挙げることができる。
This learning method can be applied not only to the case where the recurrent neural network is applied to the robot but also to the case where it is applied to various devices. However, when applied when the state already learned and the state to be newly learned are relatively similar, a greater effect can be obtained.

【0067】[0067]

【発明の効果】以上の如く、請求項1に記載の学習方
法、請求項3に記載の記録媒体、および請求項4に記載
の学習装置によれば、新たな学習データと、元の学習デ
ータとを加算して、学習させるようにしたので、最初か
ら新たな学習データだけで学習させる場合に較べて、よ
り短い時間で学習を完了することが可能となる。
As described above, according to the learning method according to the first aspect, the recording medium according to the third aspect, and the learning apparatus according to the fourth aspect, the new learning data and the original learning data are obtained. Is added, and learning is performed, so that learning can be completed in a shorter time as compared with the case where learning is performed only with new learning data from the beginning.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の学習方法を応用したロボットの外観構
成を示す図である。
FIG. 1 is a diagram showing an external configuration of a robot to which a learning method of the present invention is applied.

【図2】図1の実施の形態の内部の構成を示すブロック
図である。
FIG. 2 is a block diagram showing an internal configuration of the embodiment of FIG.

【図3】図1の実施の形態の移動する空間を説明する図
である。
FIG. 3 is a diagram illustrating a moving space according to the embodiment of FIG. 1;

【図4】図2の制御回路の動作を説明するフローチャー
トである。
FIG. 4 is a flowchart illustrating an operation of the control circuit of FIG. 2;

【図5】図2のニューラルネット認識装置23の詳細な
構成例を示す図である。
FIG. 5 is a diagram showing a detailed configuration example of the neural network recognition device 23 in FIG. 2;

【図6】図2の量子化回路25の動作を説明する図であ
る。
FIG. 6 is a diagram for explaining the operation of the quantization circuit 25 of FIG. 2;

【図7】図2のニューラルネット認識装置23の動作を
説明するフローチャートである。
7 is a flowchart illustrating the operation of the neural network recognition device 23 of FIG.

【図8】図1の実施の形態の移動する他の空間を説明す
る図である。
FIG. 8 is a diagram illustrating another moving space in the embodiment of FIG. 1;

【図9】学習方法を説明するフローチャートである。FIG. 9 is a flowchart illustrating a learning method.

【図10】従来のロボットの移動する空間を説明する図
である。
FIG. 10 is a diagram illustrating a space in which a conventional robot moves.

【図11】従来の学習を方法を説明するフローチャート
である。
FIG. 11 is a flowchart illustrating a conventional learning method.

【符号の説明】[Explanation of symbols]

11 ロボット, 12 テレビカメラ, 13 車
輪, 14 ディスプレイ, 23 ニューラルネット
認識装置, 24 制御回路, 25 量子化回路,
41 相関記憶ネット, 42 ウィナーテイクオール
型ニューラルネット, 43 リカレント型ニューラル
ネット
11 robot, 12 television camera, 13 wheels, 14 display, 23 neural network recognition device, 24 control circuit, 25 quantization circuit,
41 Correlation memory net, 42 Wiener take-all type neural network, 43 Recurrent type neural network

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 リカレント型ニューラルネットの学習方
法において、 初期値を取り込む取り込みステップと、 リハーサルにより元の学習データを想起させる想起ステ
ップと、 新たな学習データと元の学習データを加算して、学習さ
せる学習ステップとを備えることを特徴とする学習方
法。
1. A learning method for a recurrent neural network, comprising the steps of: taking in an initial value; recalling original learning data by rehearsal; adding new learning data to the original learning data; And a learning step of causing the learning method.
【請求項2】 前記新たな学習データと元の学習データ
の加算は、前記新たな学習データによる学習と、前記元
の学習データによる学習を、交互に行うことにより行わ
れることを特徴とする請求項1に記載の学習方法。
2. The method according to claim 1, wherein the addition of the new learning data and the original learning data is performed by alternately performing learning using the new learning data and learning using the original learning data. Item 2. The learning method according to Item 1.
【請求項3】 リカレント型ニューラルネットを学習さ
せるプログラムが記録された記録媒体において、 初期値を取り込む取り込みステップと、 リハーサルにより元の学習データを想起させる想起ステ
ップと、 新たな学習データと元の学習データを加算して、学習さ
せる学習ステップとを備えるプログラムが記録されてい
ることを特徴とする記録媒体。
3. A recording medium on which a program for learning a recurrent neural network is recorded, a capturing step for capturing initial values, a recalling step for recalling original learning data by rehearsal, new learning data and original learning. A recording medium characterized by recording a program comprising a learning step of learning by adding data.
【請求項4】 リカレント型ニューラルネットの学習装
置において、 初期値を取り込む取り込み手段と、 リハーサルにより元の学習データを想起させる想起手段
と、 新たな学習データと元の学習データを加算して、学習さ
せる学習手段とを備えることを特徴とする学習装置。
4. A learning apparatus for a recurrent neural network, comprising: a fetching means for fetching an initial value; a recalling means for recalling original learning data by rehearsal; and adding new learning data and original learning data to perform learning. A learning device comprising: a learning unit for causing the learning device to perform the learning.
JP13338197A 1997-05-23 1997-05-23 Learning method and apparatus, robot, and recording medium Expired - Lifetime JP3827037B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13338197A JP3827037B2 (en) 1997-05-23 1997-05-23 Learning method and apparatus, robot, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13338197A JP3827037B2 (en) 1997-05-23 1997-05-23 Learning method and apparatus, robot, and recording medium

Publications (2)

Publication Number Publication Date
JPH10326265A true JPH10326265A (en) 1998-12-08
JP3827037B2 JP3827037B2 (en) 2006-09-27

Family

ID=15103409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13338197A Expired - Lifetime JP3827037B2 (en) 1997-05-23 1997-05-23 Learning method and apparatus, robot, and recording medium

Country Status (1)

Country Link
JP (1) JP3827037B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840508B2 (en) 2006-04-06 2010-11-23 Sony Corporation Information processing apparatus, information processing method, and program
JP2011085527A (en) * 2009-10-16 2011-04-28 Kyushu Institute Of Technology Time series learning system, method thereof, and program
JP2018160234A (en) * 2017-03-23 2018-10-11 三星電子株式会社Samsung Electronics Co.,Ltd. Training method, training apparatus, computer program, and storage medium for speech recognition
WO2018220700A1 (en) * 2017-05-30 2018-12-06 株式会社日立国際電気 New learning dataset generation method, new learning dataset generation device, and learning method using generated learning dataset
JP2020184341A (en) * 2019-05-08 2020-11-12 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Mechanical learning system, method for forming mechanical learning system, computer program, and device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840508B2 (en) 2006-04-06 2010-11-23 Sony Corporation Information processing apparatus, information processing method, and program
JP2011085527A (en) * 2009-10-16 2011-04-28 Kyushu Institute Of Technology Time series learning system, method thereof, and program
JP2018160234A (en) * 2017-03-23 2018-10-11 三星電子株式会社Samsung Electronics Co.,Ltd. Training method, training apparatus, computer program, and storage medium for speech recognition
WO2018220700A1 (en) * 2017-05-30 2018-12-06 株式会社日立国際電気 New learning dataset generation method, new learning dataset generation device, and learning method using generated learning dataset
JPWO2018220700A1 (en) * 2017-05-30 2020-01-23 株式会社日立国際電気 New learning data set generation method, new learning data set generation device, and learning method using generated learning data set
US11551080B2 (en) 2017-05-30 2023-01-10 Hitachi Kokusai Electric Inc. Learning dataset generation method, new learning dataset generation device and learning method using generated learning dataset
JP2020184341A (en) * 2019-05-08 2020-11-12 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Mechanical learning system, method for forming mechanical learning system, computer program, and device

Also Published As

Publication number Publication date
JP3827037B2 (en) 2006-09-27

Similar Documents

Publication Publication Date Title
US7082421B2 (en) Information processing apparatus and method, and recording medium
CN109682392B (en) Visual navigation method and system based on deep reinforcement learning
US10695911B2 (en) Robot navigation and object tracking
WO2020246834A1 (en) Method for recognizing object in image
CN111079561A (en) Robot intelligent grabbing method based on virtual training
KR102628898B1 (en) Method of processing image based on artificial intelligence and image processing device performing the same
CN112862828A (en) Semantic segmentation method, model training method and device
KR102391853B1 (en) System and Method for Processing Image Informaion
CN116523823A (en) System and method for robust pseudo tag generation for semi-supervised object detection
CN111242176A (en) Computer vision task processing method and device and electronic system
JPH08237535A (en) Tracking area setting device, motion vector detecting circuit and object tracking device using the same
JPH10326265A (en) Learning method and device therefor and storage medium
JP2022521881A (en) Systems for obtaining predictions of vehicle actions and corresponding methods
KR20190056873A (en) Apparatus for detecting object using multi neural network and method thereof, and method for learning detection of object
JPH1083455A (en) Object recognizing device and method
Delahoz et al. A deep-learning-based floor detection system for the visually impaired
CN114387612A (en) Human body weight recognition method and device based on bimodal feature fusion network
Wang et al. Learning latent object-centric representations for visual-based robot manipulation
Krodel et al. Reinforcement learning to drive a car by pattern matching
JPH0535710A (en) Learning method/device for neural network
Jeni et al. Hierarchical reinforcement learning for robot navigation using the intelligent space concept
JPWO2020049636A1 (en) Identification system, model provision method and model provision program
CN112686185B (en) Relation feature extraction method and device and electronic equipment
Bhavani et al. Real-time fire detection based on CNN and Inception V3 algorithms
Krodel et al. Pattern matching as the nucleus for either autonomous driving or driver assistance systems

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060628

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090714

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 4