JP2523151B2 - Robot control system - Google Patents

Robot control system

Info

Publication number
JP2523151B2
JP2523151B2 JP63007891A JP789188A JP2523151B2 JP 2523151 B2 JP2523151 B2 JP 2523151B2 JP 63007891 A JP63007891 A JP 63007891A JP 789188 A JP789188 A JP 789188A JP 2523151 B2 JP2523151 B2 JP 2523151B2
Authority
JP
Japan
Prior art keywords
robot
input
output
pattern
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63007891A
Other languages
Japanese (ja)
Other versions
JPH01183704A (en
Inventor
茂美 長田
和雄 浅川
実 関口
英樹 吉沢
信雄 渡部
隆 木本
旭 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63007891A priority Critical patent/JP2523151B2/en
Publication of JPH01183704A publication Critical patent/JPH01183704A/en
Application granted granted Critical
Publication of JP2523151B2 publication Critical patent/JP2523151B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概 要〕 センシングされた外界情報に基づいて2次元空間上で
自在に行動するロボットを制御するためのロボット制御
方式において, 障害物の出現といったような新たな状況の出現や環境
の変化が生じた場合においても,ロボットが尤もらしい
行動をとることができる“柔らかい”ロボット制御方式
の技術を実現することを目的としており, 制御信号を生成するロボット制御手段を重みを有する
階層ネットワークで構成するとともに,予め選択される
いくつかの好ましい制御内容が実現できるようにと学習
制御することでこの階層ネットワークの重みを設定し,
このようにして設定された重みを有する階層ネットワー
クに従って,光検出センサと音検出センサと障害物セン
サとにより検出される外界情報に応じた制御信号を生成
して2次元空間上でのロボットの自在な行動を制御する
ようにと構成するものである。
DETAILED DESCRIPTION [Overview] In a robot control method for controlling a robot that freely behaves in a two-dimensional space based on sensed external information, a new situation such as the appearance of obstacles The purpose is to realize a “soft” robot control technique that allows the robot to take a plausible action even when an appearance or a change in the environment occurs, and weights the robot control means that generates the control signal. The weight of this hierarchical network is set by learning control so that some preferred control contents selected in advance are realized while configuring the hierarchical network
In accordance with the hierarchical network having the weight set in this way, a control signal is generated according to the external information detected by the light detection sensor, the sound detection sensor, and the obstacle sensor to freely control the robot in the two-dimensional space. It is configured to control various behaviors.

〔産業上の利用分野〕[Industrial applications]

本発明は,複数のセンサ情報に基づいて行動するロボ
ットの制御方式に関する。
The present invention relates to a control method for a robot that acts based on a plurality of sensor information.

近年,人工知能(AI),ファクトリオートメーション
(FA),オフィスオートメーション(OA)の進展に伴
い,人間にとって使い易く,人間と共存できる知的な
“柔らかい”システムへの要求が高まっている。この期
待に応えるため,エキスパートシステム等を適用したシ
ステムや,パターン認識機能を備えたロボット等が提供
され始めているが,未だ“柔らかい”システムというに
は程遠い段階にある。これから,使用方法や環境の変化
に応じてロボットの行動を適応的に制御する“柔らか
い”ロボット制御方式の開発が望まれているのである。
In recent years, with the progress of artificial intelligence (AI), factory automation (FA), and office automation (OA), there is an increasing demand for an intelligent "soft" system that is easy for humans to use and can coexist with humans. In order to meet this expectation, systems to which expert systems and the like have been applied and robots with pattern recognition functions are beginning to be provided, but they are still far from being "soft" systems. From now on, it is desired to develop a “soft” robot control method that adaptively controls the behavior of the robot according to changes in usage and environment.

〔従来の技術〕[Conventional technology]

従来のロボット制御方式は,逐次処理コンピュータ
(ノイマン型コンピュータ)によって実現されている。
従って,複数のセンサ情報に基づいて行動するロボット
の制御方式についても,どのセンサがどういう情報をも
たらすかということを予め人間が考慮した上で,どのよ
うなセンサからの入力パターンが入ってきた時,どのよ
うな出力パターンを発生し,行動したらよいかをプログ
ラムの形で厳密に記述していくといったような構成によ
り実現されていた。
The conventional robot control method is realized by a sequential processing computer (Neumann type computer).
Therefore, in the control method of a robot that behaves based on multiple sensor information, when a human considers in advance which sensor will bring what kind of information, when the input pattern from which sensor comes in, This has been realized by a configuration in which what output pattern is generated and what action should be taken is strictly described in the form of a program.

〔発明が解決しようとする問題点〕[Problems to be solved by the invention]

従って,ロボットはこのプログラムに基づいて行動し
ているだけであり,当然,プログラムに記述されていな
い状況には対応できず,また,センサの特性が少しでも
変化したり,多数のセンサのうち1つでも壊れたりする
と,適切な行動をとることができない等といった問題点
があった。特に,ロボットが多数のセンサ群を備えてい
る場合,プログラムを作成すること自体が極めて困難,
或いは不可能になるといった問題点を生じていた。
Therefore, the robot is only acting on the basis of this program, and naturally cannot cope with situations not described in the program. If it breaks, there is a problem that it is not possible to take appropriate actions. In particular, if the robot has many sensors, it is extremely difficult to create a program itself.
Or, there was a problem that it became impossible.

本発明はかかる事情に鑑みてなされたものであって,
いかなる条件下にあってもロボットが例えば2次元空間
上で適切な行動をとれるようにする“柔らかい”システ
ムをなすロボット制御方式の提供を目的とするものであ
る。
The present invention has been made in view of such circumstances,
It is an object of the present invention to provide a robot control system that forms a "soft" system that enables a robot to take appropriate actions in a two-dimensional space under any conditions.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は,本発明の原理説明図である。 FIG. 1 is an explanatory view of the principle of the present invention.

図中,1はセンサ手段であり,ロボットを取囲む外界の
光情報を取り込むための対をなす2個の光検出センサ
と,外界の音情報を取り込むための対のなす2個の音検
出センサと,外界の障害物情報を取り込むための1つま
たは複数の接触センサとを少なくとも備える複数のセン
サからなるもの,2は行動パターン発生手段であり,2次元
空間上で自在に行動するロボットのための行動パターン
信号を発生させてこの行動パターン信号によりロボット
の行動パターンを規定するもの,3はロボット制御手段で
あり,重みを有する階層ネットワークから構成され,こ
の階層ネットワークに従ってセンサ手段1の検出パター
ンに応じた制御信号を生成して行動パターン発生手段2
を制御するもの,4は動作モード信号であり,ロボット制
御手段3の動作モードを学習モードか処理モードかのい
ずれかに設定するためのもの,5は基本制御動作格納手段
であり,予め選択されるセンサ手段1の1つまたは複数
個の特定の検出パターンに対してのロボット制御手段3
の生成すべき制御信号情報を格納するためのものであ
る。
In the figure, reference numeral 1 denotes a sensor means, which is a pair of two photodetection sensors for taking in optical information of the outside world surrounding the robot and two pair of sound detecting sensors for taking in sound information of the outside world. And a plurality of sensors including at least one or more contact sensors for taking in obstacle information of the outside world, 2 is an action pattern generating means for a robot that freely behaves in a two-dimensional space Of the action pattern signal for defining the action pattern of the robot by this action pattern signal, 3 is robot control means, which is composed of a hierarchical network having weights, and the detection pattern of the sensor means 1 is set in accordance with this hierarchical network. Action pattern generating means 2 for generating a corresponding control signal
4 is an operation mode signal, 4 is for setting the operation mode of the robot control means 3 to either the learning mode or the processing mode, and 5 is a basic control operation storage means, which is selected in advance. Robot control means 3 for one or more specific detection patterns of the sensor means 1
For storing the control signal information to be generated.

〔作 用〕[Work]

本発明では,ロボット制御手段3は,学習モードのと
きに,基本制御動作格納手段5に格納される格納情報が
実現できるようにと学習制御することで階層ネットワー
クの重みを設定するとともに,処理モードのときに,こ
のようにして設定された重みを有する階層ネットワーク
に従ってセンサ手段1の検出パターンに応じた制御信号
を生成して,行動パターン発生手段2を介してロボット
の行動を制御することになる。
According to the present invention, the robot control means 3 sets the weight of the hierarchical network by performing learning control so that the stored information stored in the basic control operation storage means 5 can be realized in the learning mode in the learning mode. At this time, a control signal according to the detection pattern of the sensor means 1 is generated according to the hierarchical network having the weight set in this way, and the behavior of the robot is controlled via the behavior pattern generating means 2. .

このように本発明によれば,予め,人間がすべての入
力パターンとそれに対応する行動パターンとの対を考慮
して,厳密なプログラミングを行う必要がなく,人間は
基本的の入出力パターンの対の数だけ,基本制御動作格
納手段5を通してロボット制御手段3に与えてやればよ
い。また,ロボット制御手段3は,ネットワークで構成
されており,入力層および中間層のユニット数が多けれ
ば,入力層の1つのユニット当たりの情報は中間層のユ
ニットの中に分散されてしまうので,入力層に多少の誤
差が混入しても出力層に影響を及ぼすことなく,誤差を
吸収することができるので,学習,訓練に用いた入力パ
ターン以外の未知のセンサ入力パターンが発生しても,
その入力パターンに近い学習,訓練に用いた入力パター
ンと連合された出力パターンを発生でき,2次元空間上で
障害物等があっても尤もらしい自在な行動をとることが
できる。同様の理由で,センサの特性変化や,故障にも
対応することも可能となる。
As described above, according to the present invention, it is not necessary for a human to perform strict programming in advance in consideration of all the input patterns and the corresponding action patterns, and the human has a basic input / output pattern pair. It is sufficient to give the same number to the robot control means 3 through the basic control operation storage means 5. Further, the robot control means 3 is composed of a network, and if the number of units in the input layer and the intermediate layer is large, the information per unit in the input layer will be dispersed in the units in the intermediate layer. Even if some error is mixed in the input layer, the error can be absorbed without affecting the output layer. Therefore, even if an unknown sensor input pattern other than the input pattern used for learning and training occurs,
It is possible to generate an output pattern associated with the input pattern used for learning and training, which is close to the input pattern, and to take a plausible free action even if there are obstacles in the two-dimensional space. For the same reason, it is possible to deal with sensor characteristic changes and failures.

〔実施例〕〔Example〕

以下,実施例に従って本発明を詳細に説明する。 Hereinafter, the present invention will be described in detail according to examples.

第2図は,第1図で説明したロボット制御手段3の詳
細な実施例構成図である。この図に示すように,本発明
のロボット制御手段3は,ユニットと呼ぶ一種のノード
と重みを持つ内部結合とからなる階層ネットワークによ
り構成されることになる。この構成は,基本的には,コ
ンピュータに適応機能を与えるデータ処理方式として提
唱されているバック・プロパゲーション法と呼ばれてい
る処理方式(D.E.Rumelhart,G.E.Hinton,and R.J.Willi
ams,“Learning Internal Representations by Error P
ropagation,"PARALLEL DISTRIBUTED PROCESSING,Vol.1,
pp.318−364,The MIT Press,1986)と同じものである。
FIG. 2 is a detailed configuration diagram of the robot control means 3 described in FIG. As shown in this figure, the robot control means 3 of the present invention is configured by a hierarchical network including a kind of node called a unit and an internal connection having a weight. This configuration is basically a processing method called a back-propagation method (DERumelhart, GEHinton, and RJWilli) that has been proposed as a data processing method that gives an adaptive function to a computer.
ams, “Learning Internal Representations by Error P
ropagation, "PARALLEL DISTRIBUTED PROCESSING, Vol.1,
pp.318-364, The MIT Press, 1986).

次に,このバック・プロパケージョン法の概要につい
て説明する。
Next, an outline of this back propagation method will be described.

バック・プロパケージョン法ではユニットと呼ぶ一種
のノードと重みを持つ内部結合とから階層ネットワーク
を構成している。第3図は,ユニットの内部構成を示し
たもので基本ユニット30と呼ぶ。この基本ユニット30
は,多入力一出力系となっている。このユニットでは,
複数の各々の入力に対し各々の内部結合の重みを乗じて
これらの全乗算結果を和算する累算部31と,さらに,閾
値処理を施して1つの出力を出す閾値処理部32とをもっ
ている。即ちバック・プロパゲーション法における基本
ユニット30でのデータ処理は,入力と重みとの積和演算
および閾値処理からなっている。ここで,バック・プロ
パゲーション法では閾値の関数として,式(2)で示さ
れるシグモイド関数を用いている。
In the back propagation method, a hierarchical network is composed of a kind of node called a unit and an internal connection with weight. FIG. 3 shows the internal structure of the unit and is called a basic unit 30. This basic unit 30
Is a multi-input, single-output system. In this unit,
It has an accumulator 31 that multiplies each input by a weight of each internal connection and sums the results of all multiplications, and a threshold processor 32 that performs threshold processing and outputs one output. . That is, the data processing in the basic unit 30 in the back propagation method consists of product-sum calculation of input and weight and threshold processing. Here, in the back propagation method, the sigmoid function represented by Expression (2) is used as a function of the threshold.

基本ユニットで行われる演算を数式で示すと以下のよ
うになる。
The calculation performed by the basic unit is shown below by mathematical expressions.

ypi=1/(1+exp(−xpi+θ)) 式(2) 但し, h:h層のユニット番号 i:i層のユニット番号 p:入力パターン番号 θi:i層のi番目のユニットの閾値 Wih:h−i層間の内部結合の重み xpi:h層の各ユニットからi層のi番目ユニットへの入
力の積和 yph:pパターン入力に対するh層の出力 ypi:pパターン入力に対するi層の出力 バック・プロパゲーション法では,この積和と閾値処
理を基本とする基本ユニット30を第2図のような誤差フ
ィードバックを持つ階層ネットワーク構造として,重み
と閾値とを誤差のフィードバックにより適応的に自動調
節するアルゴリズムを用い,所望のデータ処理方法(入
力パターンと出力パターンとの間の連合)をネットワー
クに学習させることにより適応的なデータ処理を実行す
る。
y pi = 1 / (1 + exp (-x pi + θ i )) Equation (2) where h: h layer unit number i: i layer unit number p: input pattern number θ i : i layer i unit Threshold value W ih : h-weight of internal coupling between i layers x pi : sum of products from each unit of layer i to i-th unit of layer y ph : p output of layer y for pattern input y pi : p In the i-layer output back-propagation method for the pattern input, the basic unit 30 based on this product sum and threshold processing has a hierarchical network structure having error feedback as shown in FIG. Using an algorithm that adaptively and automatically adjusts by feedback, the network learns a desired data processing method (association between an input pattern and an output pattern) to execute adaptive data processing.

ここで,式(1)および式(2)から,バック・プロ
パゲーション法では重みと閾値との調節が同時に実行さ
れる必要があるが,重みと閾値との設定は相互に干渉す
る難しい作業となる。従来のバック・プロパゲーション
法の方法では,ユニット毎に閾値を与えていたが,ユニ
ット数が多数となると各ユニット毎に閾値を与えること
が煩雑で面倒な作業となるため,閾値の自動設定が切望
されていたのである。そこで本発明のロボット制御手段
3では,第2図に示すように,入力層中に入力信号数の
入力ユニット3−hの外に,常に「1」が入力される閾
値調節用の閾値入力ユニット3′−hを設けるよう構成
するものである。
Here, from the equations (1) and (2), in the back propagation method, the adjustment of the weight and the threshold needs to be executed at the same time, but the setting of the weight and the threshold is a difficult task that interferes with each other. Become. In the conventional back-propagation method, a threshold is given to each unit. However, when the number of units is large, it is a complicated and troublesome task to give a threshold to each unit. It was a coveted one. Therefore, in the robot control means 3 of the present invention, as shown in FIG. 2, in addition to the input unit 3-h for the number of input signals, "1" is always input in the input layer, the threshold input unit for threshold adjustment. 3'-h is provided.

このように,閾値入力ユニット3′−hを設けたこと
によって中間層の各ユニット3−iの閾値を,中間層に
対する重みWihを設定することと同等の処理にて設定で
きる理由は次の如きものと考えてよい。即ち, 中間層の各ユニット3−iにおいては,入力層内の1
つの余分にもうけたユニット3′−hからの値yphが常
に「1」であることから,値xpiは式(1)から, ∴x′pi=xpi+Wih′ (ただしh′は入力層の閾値入力ユニットの番号) で与えられる。この結果からθ=−Wih′として式
(2)に代入すると, ypi=1/(1+exp(−xpi−Wih′)) となり,式(2)に示されている閾値θを実質的に−
Wihに設定変更したことに対応する。即ち,中間層にお
ける各ユニットの閾値をいちいち設定する煩雑さが解消
される。
As described above, the reason why the threshold value input unit 3'-h is provided so that the threshold value of each unit 3-i in the intermediate layer can be set by the same process as setting the weight W ih for the intermediate layer is as follows. You can think of it as such. That is, in each unit 3-i of the intermediate layer, 1 unit in the input layer
Since the value y ph from the three extra units 3′-h is always “1”, the value x pi is ∴x ′ pi = x pi + W ih ′ (where h ′ is the threshold input unit number of the input layer). From this result, when substituting θ i = −W ih ′ into equation (2), y pi = 1 / (1 + exp (−x pi −W ih ′)), which is the threshold θ i shown in equation (2). Is substantially −
Corresponds to the setting change to Wih . That is, the complexity of setting the threshold value of each unit in the intermediate layer is eliminated.

次に,第4図に示す具体例に従って,第1図で説明し
た基本制御動作格納手段5に格納されるところの格納情
報について説明する。例えば第2図に示すようにセンサ
出力が2値化モードで入力ユニット3−hが3個のとき
には,第4図にも示すようにロボット制御手段3への入
力パターンの数は8通りとなる。従って,ロボットの行
動パターンが例えば動状態か停止状態という2通りであ
るならば,これらの8通りの入力パターンの各々に対し
て「1」か「0」というロボットの行動パターンは定ま
ることになる。このように,センサ手段1の検出パター
ンに対してロボットが本来的にどういう行動をとるべき
かということは定まっているので,基本制御動作格納手
段5には,このような情報の内のいくつかが予め選択さ
れて格納されるよう構成されることになる。なお,第4
図に示したような8通りの入力パターンと数の少ないも
のにあってはそのすべてを格納することも可能である。
Next, the stored information stored in the basic control operation storage means 5 described with reference to FIG. 1 will be described according to the specific example shown in FIG. For example, as shown in FIG. 2, when the sensor output is in the binarization mode and the number of input units 3-h is three, the number of input patterns to the robot control means 3 is eight as shown in FIG. . Therefore, if the action pattern of the robot is, for example, two states of the moving state and the stopped state, the action pattern of the robot of "1" or "0" is determined for each of these eight input patterns. . As described above, it is already determined what kind of action the robot should take with respect to the detection pattern of the sensor means 1. Therefore, some of such information is stored in the basic control operation storage means 5. Would be preselected and stored. The fourth
It is also possible to store all eight input patterns and a small number of input patterns as shown in the figure.

第4図の例の内容についての理解を深めるために,第
5図に示すロボットの行動パターンの具体例について説
明する。第5図では具体的に,第5図(a)に示す3つ
の光センサと“右に旋回する”という行動をとるための
1つのモータを持つロボットを考えている。そして,こ
のロボットに,第5図(a)に示すようなロボットの周
りを回る発光源に追従するという行動をとらせたいと想
定する。このとき,ロボットのセンサ入力パターンとし
ては,第4図の入力パターンの欄に示す組み合わせが考
えられる。例えば,第4図の「0」の入力パターンは光
センサ,,が3つともOFFの状態,「4」の入力
パターンは光センサがON,光センサ,がOFFの状
態,「6」の入力パターンは光センサ,がON,光セ
ンサがOFFの状態である。ロボットを回転する発光源
に追従させるためには,このような入力パターンに応じ
て,第4図の教師信号欄に示す出力パターン(行動)が
ネットワークの学習,訓練により,実現できるようにす
ればよい。例えば,第4図の「0」の入力パターンは,
光センサ,,ともOFFの状態,即ち,発光源から
光が出ていない状態なので,この時の出力パターンは
“0",即ち,“モータをOFFにせよ”という制御を表して
いる。また,「6」の入力パターンは,光センサ,
がON,光センサがOFFの状態,即ち,まさに発光源を捉
えた状態(第5図(a))なので,“モータをOFFにせ
よ”という制御を表し,「4」の入力パターンは光セン
サがON,光センサ,がOFF状態,即ち,ロボットが
捉えた発光源がさらに移動した状態(第5図(b))な
ので,“モータをONにせよ(右に旋回せよ)”というこ
とを表している。すなわち,第4図に示すような教師信
号が得られれば,第5図で説明したようなロボットの行
動パターンは好ましく制御されることになる。
In order to deepen the understanding of the contents of the example of FIG. 4, a specific example of the action pattern of the robot shown in FIG. 5 will be described. FIG. 5 specifically considers a robot having three optical sensors shown in FIG. 5 (a) and one motor for performing the action of “turning to the right”. Then, it is assumed that the robot wants to take the action of following a light emitting source that revolves around the robot as shown in FIG. At this time, as the sensor input pattern of the robot, the combinations shown in the input pattern column of FIG. 4 can be considered. For example, the input pattern of "0" in Fig. 4 is the state where all three optical sensors are OFF, and the input pattern of "4" is the state where the optical sensor is ON and the optical sensor is OFF, input of "6". The pattern is that the optical sensor is ON and the optical sensor is OFF. In order to make the robot follow the rotating light source, the output pattern (behavior) shown in the teacher signal column of FIG. 4 can be realized by network learning and training according to such input pattern. Good. For example, the input pattern of "0" in Fig. 4 is
Since both the optical sensors are in the OFF state, that is, no light is emitted from the light emitting source, the output pattern at this time represents "0", that is, "turn off the motor". The input pattern of "6" is the optical sensor,
Is ON and the optical sensor is OFF, that is, the state where the light source is captured (Fig. 5 (a)), so the control "turn off the motor" is indicated, and the input pattern of "4" is the optical sensor. Is ON, the light sensor is OFF, that is, the light source captured by the robot has moved further (Fig. 5 (b)), so it means "turn on the motor (turn right)". ing. That is, if the teacher signal as shown in FIG. 4 is obtained, the action pattern of the robot as shown in FIG. 5 is preferably controlled.

このような好ましい制御を実現するために,本発明で
は,ロボット制御手段3の階層ネットワークの内部結合
の重みWih及びWjiを,基本制御動作格納手段5に格納さ
れる格納情報に従って学習的に決定していこうとするも
のである。すなわち,ロボット制御手段3の動作モード
を学習モードにセットし,基本制御動作格納手段5から
順次格納情報を読み出して,バック・プロパゲーション
法の学習アルゴリズムを用いて重みWih及びWjiの値を自
動決定するよう構成するものである。
In order to realize such preferable control, according to the present invention, the weights W ih and W ji of the internal connection of the hierarchical network of the robot control means 3 are learned in accordance with the storage information stored in the basic control operation storage means 5. It is a decision to make. That is, the operation mode of the robot control means 3 is set to the learning mode, the stored information is sequentially read from the basic control operation storage means 5, and the values of the weights W ih and W ji are determined by using the learning algorithm of the back propagation method. It is configured to automatically determine.

次に,この重みWih及びWjiの値を決定するための学習
手順について説明する。ここで,この学習手順の説明
は,第6図に示すようなロボット制御手段3の出力層が
複数の出力ユニット3−jをもつ更に一般化したもので
説明するものである。
Next, a learning procedure for determining the values of the weights W ih and W ji will be described. Here, the explanation of this learning procedure is given by further generalizing the output layer of the robot control means 3 as shown in FIG. 6 having a plurality of output units 3-j.

まず,内部結合の重みの初期値を決める。この初期値
は,1以下の乱数により決める。これは,重みの値が全て
同じか,あるいはユニットに関して対称となると,バッ
ク・プロパゲーション法では重みの変化が生ぜず,学習
が進行しなくなってしまうのでこれを避ける目的で乱数
を用いるのである。続いて,基本制御動作格納手段5に
格納されるところの入力パターンとその入力パターンと
対をなす所望の出力パターンのデータを順次読み出す。
例えば第4図に示すように,8個の格納情報があればこれ
らのすべてが順次読み出されることになる。
First, the initial value of the weight of the inner join is determined. This initial value is determined by a random number of 1 or less. This is because if the weight values are all the same or are symmetric with respect to the unit, the back propagation method does not change the weight and learning does not proceed, so random numbers are used to avoid this. Then, the data of the input pattern stored in the basic control operation storage means 5 and the data of the desired output pattern paired with the input pattern are sequentially read.
For example, as shown in FIG. 4, if there are eight pieces of stored information, all of these pieces of information will be sequentially read.

続いて,バック・プロパゲーション法に関わる制御パラ
メータを入力する。ここでは,インクリメンタルな繰り
返し学習の一回当たりの重みの変化量の係数である学習
率と収束時の振動を抑えるための学習速度を制御パラメ
ータとしている。そして,バック・プロパゲーション法
のアルゴリズムに従って出力層ユニット3−jの出力値
が所望の出力と一致するようにインクリメンタルに内部
結合の重みを学習し,最後に,出力層ユニットの出力値
と所望の出力値との誤差が全ての入力パターンに関して
所定の値より少なくなったら,学習を終了する。
Next, the control parameters related to the back propagation method are input. Here, the learning rate, which is the coefficient of the amount of change in weight per incremental iterative learning, and the learning speed for suppressing the oscillation at the time of convergence are used as control parameters. Then, according to the algorithm of the back propagation method, the weight of the inner coupling is incrementally learned so that the output value of the output layer unit 3-j matches the desired output, and finally, the output value of the output layer unit and the desired value are obtained. When the error from the output value becomes smaller than the predetermined value for all input patterns, the learning is finished.

具体的な階層ネットワークの重みの更新のアルゴリズ
ムを以下に説明する。式(1),式(2)からの類推に
よって次の式が得られる。即ち, ypi=1/(1+exp(−xpi+θ)) 式(4) ypj=1/(1+exp(−xpj+θ)) 式(6) 但し, yph:p番目パターン入力値に対するh層(ここでは入力
層)のh番目のユニットからの出力 ypi:p番目パターン入力値に対するi層(ここでは中間
層)のi番目のユニットからの出力 ypj:p番目パターン入力値に対するj層(ここでは出力
層)のj番目のユニットからの出力 xpi:i層のi番目のユニットへのp番目パターン入力に
対する総和 xpj:j層のj番目のユニットへのp番目パターン入力に
対する総和 Wih:h層h番目ユニットとi層i番目ユニット間の重み Wji:i層i番目ユニットとj層j番目ユニット間の重み 次に,これらの値から,教師入力ベクトルとネットワ
ークの出力ベクトルとの誤差の二乗和Epをネットワーク
の誤差として計算する。
A specific algorithm for updating the weight of the hierarchical network will be described below. The following equation is obtained by analogy with the equations (1) and (2). That is, y pi = 1 / (1 + exp (−x pi + θ i )) Expression (4) y pj = 1 / (1 + exp (−x pj + θ j )) Expression (6) where y ph : output from the h-th unit of the h-layer (input layer) to the p-th pattern input value y pi : p Output from the i-th unit of the i-th layer (here, the middle layer) for the p-th pattern input value y pj : Output from the j-th unit of the j-th layer (here, the output layer) for the p-th pattern input value x pi : i Sum of p-th pattern input to layer i-th unit x pj : Sum of p-th pattern input to layer j-th unit W ih : Weight W between h-layer h-th unit and i-th layer i-th unit ji : Weight between the i-th unit of the i-th layer and the j-th unit of the j-th layer Next, the sum of squares E p of the error between the teacher input vector and the output vector of the network is calculated as the error of the network from these values.

但し, Ep:p番目パターン入力に対する誤差ベクトル E:全パターン入力に対する誤差ベクトルの総和 dpj:p番目パターン入力に対するj層j番目ユニットへ
の教師信号 ここで誤差ベクトルと出力層ベクトルとの関係を求め
るため,式(7)をypjに関して偏微分すると, を得る。更に,誤差ベクトルとj層への入力との関係を
求めるため,誤差ベクトルをxpjで偏微分すると, を得る。但し,本実施例では入力層に1つの入力ユニッ
ト3′−hを設けこのユニット3′−hに常に「1」の
値を入力する方式を採用することで,他の各ユニットの
閾値θの自動調節を実現している。更に,誤差ベクトル
とi−j層間の重みとの関係をもとめるため,誤差ベク
トルをWjiで偏微分すると, の積和で表される解を得る。
Where E p : error vector for p-th pattern input E: sum of error vectors for all pattern inputs d pj : teacher signal to j-th layer j-th unit for p-th pattern input Here, the relationship between error vector and output layer vector In order to obtain Eq. (7) is partially differentiated with respect to y pj , Get. Further, in order to obtain the relationship between the error vector and the input to the j-th layer, when the error vector is partially differentiated by x pj , Get. However, in the present embodiment, one input unit 3'-h is provided in the input layer and a value of "1" is always input to this unit 3'-h. It realizes automatic adjustment. Furthermore, in order to obtain the relationship between the error vector and the weight between the ij layers, the error vector is partially differentiated with W ji , Get the solution represented by the sum of products of

次に,i層の出力ypiに対する誤差ベクトルEpの変化を
求めると, を得る。更に,i層入力ユニットへの総和xpiの変化に対
する誤差ベクトルEpの変化を計算すると, の積和で表される解を得る。更に,h−i層間の重みの変
化に対する誤差ベクトルの変化の関係を求めると, の積和で表される解を得る。
Next, when the change of the error vector E p with respect to the output y pi of the i layer is calculated , Get. Furthermore, when the change in the error vector E p with respect to the change in the sum x pi to the i-th layer input unit is calculated, Get the solution represented by the sum of products of Furthermore, when the relation of the change of the error vector with respect to the change of the weight between the h-i layers is obtained, Get the solution represented by the sum of products of

これらから,全入力パターンに対する誤差ベクトルと
i−j層間の重みとの関係を求めると以下のようにな
る。
From these, the relationship between the error vector for all input patterns and the weight between the i-j layers is obtained as follows.

また,全入力パターンに対する誤差ベクトルとh−i
層間の重みとの関係を求めると以下のようになる。
In addition, the error vector for all input patterns and h−i
The relationship with the weight between layers is calculated as follows.

式(14)および式(15)は,各層間の重みの変化に対
する誤差ベクトルの変化率を示していることから,この
値が常に負になるように重みを変化させると公知の勾配
法により,誤差の2乗和であるEを漸近的に0とするこ
とができる。そこで本実施例では,重みの一回当たりの
変化量ΔWjiを以下のように設定し,勾配法に基づき繰
り返しこの操作を行い,Eを零に収束させている。
Since equations (14) and (15) show the rate of change of the error vector with respect to the change of weight between layers, the weight is changed so that this value is always negative. E, which is the sum of squared errors, can be asymptotically set to zero. Therefore, in the present embodiment, the change amount ΔW ji per weight is set as follows, and this operation is repeated based on the gradient method to converge E to zero.

但し, ε:学習率(勾配法の勾配率と同じ機能) 更に,本発明では,勾配法における収束時の振動を抑
制する目的で学習速度を式(16)および式(17)に適用
して,ΔWihとΔWjiを以下のように設定している。
However, ε: learning rate (the same function as the gradient rate of the gradient method) Further, in the present invention, the learning speed is applied to the equations (16) and (17) for the purpose of suppressing the oscillation at the time of convergence in the gradient method. , ΔW ih and ΔW ji are set as follows.

但し, α:学習速度定数 t:回数 なお,上述の重みWihやWjiは各ユニット3−iや3−
jに夫々対応する記憶装置内に格納され,その内容が上
述の学習の間のフィードバックによって修正される。そ
して最終的に定まった学習結果の重みWih,Wjiが,これ
から説明する実際の処理に当って使われることになる。
この記憶装置としては,基本制御動作格納手段5を用い
ることも可能であるが,また別に設けるものであっても
よい。
However, α: learning rate constant t: number of times The above weights W ih and W ji are the units 3-i and 3-
It is stored in the storage device corresponding to each j, and the contents are modified by the feedback during the learning described above. Then, the finally determined learning result weights W ih and W ji will be used in the actual processing described below.
As this storage device, the basic control operation storage means 5 can be used, but it may be provided separately.

次に,このようにして決定された階層ネットワークの
内部結合の重みWih及びWjiを用いて実行されることにな
るロボットの制御について説明する。
Next, control of the robot to be executed using the weights W ih and W ji of the internal connection of the hierarchical network determined in this way will be described.

階層ネットワークの学習を終えると,ロボット制御手
段3の動作モードを処理モード,すなわち実際にロボッ
トの動作を制御するモードとに切換える。この処理モー
ドでは,複数のセンサからなるセンサ手段1により取り
込まれたセンサの検出信号からなる入力パターンは,ロ
ボット制御手段3の階層ネットワークの入力層にと入力
される。そして,ロボット制御手段3は,この入力パタ
ーンに対して学習モードで定まった重み値及び閾値を使
って積和演算と閾値処理を実行して出力パターンを求め
るとともに,この求めた出力パターンを制御信号として
行動パターン発生手段2にと送出する。そして,この制
御信号を受け取った行動パターン発生手段2は,その制
御信号に対応する行動パターン信号を発生してロボット
の行動パターンを規定することになる。従って,このよ
うな処理を繰返すことによって,ロボットは複数のセン
サの検出パターンに応じた適切な行動をとることができ
ることになる。
When the learning of the hierarchical network is completed, the operation mode of the robot control means 3 is switched to the processing mode, that is, the mode for actually controlling the operation of the robot. In this processing mode, the input pattern composed of the detection signals of the sensors captured by the sensor means 1 composed of a plurality of sensors is input to the input layer of the hierarchical network of the robot control means 3. Then, the robot control means 3 obtains an output pattern by performing a product-sum operation and threshold processing on the input pattern using the weight value and the threshold determined in the learning mode, and outputs the obtained output pattern as a control signal. To the action pattern generating means 2. Then, the action pattern generation means 2 that has received this control signal will generate an action pattern signal corresponding to the control signal to define the action pattern of the robot. Therefore, by repeating such processing, the robot can take appropriate actions according to the detection patterns of the plurality of sensors.

この処理の内容を第5図の例に従って具体的にみてみ
ることにすると,今,ロボットと発光源との関係が第5
図(a)の状態,即ち,ロボットの光センサ,がO
N,光センサがOFF,モータがOFFの状態にあるとする。
この時,発光源が第5図(b)のように,右側に動く
と,ロボットの光センサがON,光センサ,がOFFの
状態に変わる。これを第2図に示したネットワークに入
力すると,出力パターンとして“モータをONにせよ(右
に旋回せよ)”という制御を表す「1」という出力が発
生される。従って,ロボットは右旋回を行う。この右旋
回は,3つの光センサのうち2つがONになるまで続けられ
る。この場合では,第5図(c)のように,光センサ
,がON,光センサがOFFの状態になった時,ネット
ワークは“モータをOFFにせよ”という制御を表す
「0」を出すので,ロボットは停止する。このようにし
て,ロボットが,時々刻々と取り込んでくるセンサ入力
信号パターンを第2図に示したネットワークに入力し,
ネットワークがその入力パターンに対応して時々刻々と
出力する最適な出力パターンに従ってモータを制御する
ことにより,発光源の動きに追従することができる。こ
の例では,発光源が右に動く場合について述べたが,第
5図(d)のように発光源が左に動いても,同様にし
て,ロボットは追従することができる。
When the contents of this process are specifically examined according to the example of FIG. 5, the relationship between the robot and the light emitting source is now the fifth.
In the state of Fig. (A), that is, the optical sensor of the robot is O
N, optical sensor is OFF, motor is OFF.
At this time, when the light emitting source moves to the right as shown in FIG. 5B, the optical sensor of the robot is turned on and the optical sensor of the robot is turned off. When this is input to the network shown in FIG. 2, the output pattern "1" representing the control "turn the motor ON (turn right)" is generated. Therefore, the robot turns right. This right turn is continued until two of the three optical sensors are turned on. In this case, as shown in Fig. 5 (c), when the optical sensor is in the ON state and the optical sensor is in the OFF state, the network outputs "0" indicating the control "turn off the motor". , The robot stops. In this way, the robot inputs the sensor input signal pattern that is captured every moment into the network shown in FIG.
It is possible to follow the movement of the light emission source by controlling the motor according to the optimum output pattern that the network outputs every moment corresponding to the input pattern. In this example, the case where the light emitting source moves to the right has been described. However, even if the light emitting source moves to the left as shown in FIG. 5D, the robot can follow the same manner.

このようにして,ロボットが適切な行動をとるように
と制御されていくことになる。しかるに,センサの数や
制御信号の数が多いときには,基本制御動作格納手段5
に入力パターンとその入力パターンと対をなす所望の出
力パターンのデータのすべてを格納することができない
ので,基本的なものが格納されることになる。これか
ら,この基本的なデータを使った学習により求まる重み
値と閾値で出力パターンを求めていったときに,所望の
ロボットの行動が得られないことが生ずることがある。
このようなとき,本発明では,動作モードを学習モード
に切り換え,その段階でのネットワークの結合の重みを
初期値として,所望の得られなかった時点の入力パター
ンと所望の出力パターンとの対を基本制御動作格納手段
5に格納して,ロボット制御手段3に,それらの入出力
パターン対をさらに重ねて連合することができるように
結合の重みを自動的に微調整させることにより,ロボッ
トの制御性能を向上させることができる。したがって,
最終的には,ロボットの最適な制御を実現できるように
なる。
In this way, the robot is controlled to take appropriate actions. However, when the number of sensors and the number of control signals are large, the basic control operation storing means 5
Since it is not possible to store all of the data of the input pattern and the desired output pattern that makes a pair with the input pattern, the basic data is stored. From this, when the output pattern is obtained using the weight value and the threshold obtained by learning using this basic data, the desired robot behavior may not be obtained.
In such a case, in the present invention, the operation mode is switched to the learning mode, and the weight of the connection of the network at that stage is used as an initial value to set a pair of an input pattern and a desired output pattern at a time when a desired unobtainable time is obtained. Control of the robot by storing it in the basic control operation storage means 5 and automatically fine-adjusting the weight of the coupling so that the robot control means 3 can further combine and combine the input / output pattern pairs. The performance can be improved. Therefore,
Ultimately, optimal control of the robot will be realized.

第7図は,バック・プロパゲーション法により一種の
パリティチェック処理をネットワークに学習(重みと閾
値との自動調整)させた結果のネットワークを示してい
る。ここで第7図(A)図示のNet1と第7図(B)図示
のNet2とは夫々奇数パリティをチェックする同一の特
性,即ち,「0」または「1」をとる3つの入力に対し
て「1」の数が奇数個のとき出力層は「1」を出力する
ようになっている。第7図では,内部結合線の隣の数字
が重みであり,ユニットを表す○の中の数字が閾値であ
る。Net1とNet2とを比較すると,重みと閾値とが全く異
なることが分かる。これは,ネットワークに冗長性があ
るため,こうした差異が生ずることになる。この第7図
に示すように,基本ユニット30の出力を「1」と「0」
の状態しかとならないようにとネットワークを構成する
ことも可能である。
FIG. 7 shows a network obtained as a result of learning a kind of parity check processing in the network by the back propagation method (automatic adjustment of weight and threshold). Here, Net1 shown in FIG. 7 (A) and Net2 shown in FIG. 7 (B) have the same characteristics for checking odd parity, that is, for three inputs that take "0" or "1". When the number of "1" is an odd number, the output layer outputs "1". In FIG. 7, the number next to the internal connection line is the weight, and the number in the circles representing the unit is the threshold value. Comparing Net1 and Net2, it can be seen that the weight and the threshold are completely different. This is because of the network redundancy, which makes these differences. As shown in FIG. 7, the output of the basic unit 30 is set to "1" and "0".
It is also possible to configure the network so that only the state of.

次に,階層ネットワークを構成する中間層のユニット
数の冗長性について説明する。第8図は,排他OR機能を
実現するネットワークであり,中間層ユニット数の冗長
性を持たせない場合の例である。排他ORでは,第9図に
おいて,入力パターンの直線による識別(線形識別)に
関して,一本の直線では不可能で少なくとも第9図
(B)図示の如く二本の直線を要する。従って,この識
別には第9図(A)図示の如く2つの中間層ユニットが
最小限必要となっている。ところが,本発明では中間層
ユニットと出力層ユニットの閾値を自動調整するのに入
力層に常時「1」を入力信号として持つ閾値入力ユニッ
ト3′−hが設けられていることから,第8図図示のネ
ットワークにおいては,識別すべき数に対して中間層ユ
ニットの数に冗長性がない。この場合,2つの中間層ユニ
ット3−iは出力層ユニット3−jの閾値を含めた自動
調節をしなければならず,排他OR特性に適応するまでの
繰り返し学習回数が増大することになる。これに対して
第10図は冗長性をもつネットワークの例を示す。図に示
したように,中間層ユニット数に冗長性を持たせると,
余ったユニットが出力層のユニット3−jの閾値の調節
に専念できることから繰り返し学習回数は,冗長なユニ
ットがない場合に比し大幅に低減できる。
Next, the redundancy of the number of units in the middle layer that constitutes the hierarchical network will be described. FIG. 8 is a network that realizes the exclusive OR function, and is an example of the case where the redundancy of the number of intermediate layer units is not provided. In the exclusive OR, as shown in FIG. 9, the identification of the input pattern by the straight line (linear identification) is impossible with one straight line, and at least two straight lines are required as shown in FIG. 9 (B). Therefore, for this identification, as shown in FIG. 9 (A), at least two intermediate layer units are required. However, in the present invention, in order to automatically adjust the threshold values of the intermediate layer unit and the output layer unit, the input layer is provided with the threshold value input unit 3'-h having "1" as an input signal at all times. In the network shown, there is no redundancy in the number of hidden units relative to the number to be identified. In this case, the two middle layer units 3-i have to perform automatic adjustment including the threshold value of the output layer unit 3-j, and the number of times of repeated learning until the exclusive OR characteristic is adapted increases. On the other hand, Fig. 10 shows an example of a network with redundancy. As shown in the figure, if there is redundancy in the number of middle layer units,
Since the surplus units can be dedicated to the adjustment of the threshold value of the unit 3-j in the output layer, the number of times of repeated learning can be greatly reduced as compared with the case where there is no redundant unit.

次に内部結合の重みの具体的な計算例について説明す
る。
Next, a specific calculation example of the weight of the inner connection will be described.

奇数パリティチェック機能の学習を終了した時の各ユ
ニット間の内部結合重みを第11図および第13図に示す。
第11図ないし第13図の重みは異なるが機能は同じであ
る。これは,学習率と学習速度パラメータが異なること
と中間層ユニット数の冗長性とによる。第12図(A)
(B)(C)は夫々,第11図で示した学習終了後に,任
意のパターンを入力した場合の入力と出力を示してい
る。また第14図(A)(B)(C)は夫々,第13図で示
した学習終了後に,任意のパターンを入力した場合の入
力と出力を示している。ロボット制御手段3では,演算
をアナログ値で行うため,出力値は完全な1または0と
なっていないが,閾値を用いるなどすれば第12図および
第14図図示の出力値から1または0を判断することは容
易であることは明らかである。
11 and 13 show the internal connection weights between the units when learning of the odd parity check function is completed.
11 to 13 have different weights but the same function. This is because the learning rate and the learning speed parameter are different and the redundancy of the number of hidden layer units. Figure 12 (A)
(B) and (C) respectively show an input and an output when an arbitrary pattern is input after the learning shown in FIG. 11 is completed. Further, FIGS. 14 (A), (B) and (C) respectively show inputs and outputs when an arbitrary pattern is input after the learning shown in FIG. 13 is completed. In the robot control means 3, since the calculation is performed by an analog value, the output value is not completely 1 or 0. However, if a threshold value is used, 1 or 0 is output from the output value shown in FIGS. 12 and 14. Clearly, the decision is easy.

また,第15図は奇数パリティチェック機能を学習させ
たのと全く同じネットワークに偶数パリティチェック機
能を学習させた結果を示すものであり,各内部結合の重
みを示している。第16図(A)(B)(C)は夫々,第
15図で示した学習終了後に,任意のパターンを入力した
場合の入力と出力を示している。
In addition, Fig. 15 shows the result of learning the even parity check function on the same network as that on which the odd parity check function was learned, and shows the weight of each inner connection. 16 (A), (B) and (C) are respectively
Figure 15 shows the input and output when an arbitrary pattern is input after the learning shown in Fig. 15.

次に,移動物体を追尾する若しくは移動物体から逃走
するロボットの行動パターンを制御するための本発明の
実施例について説明する。このロボットは,光の発光源
及び超音波の発信源であるところの移動物体を障害物を
避けながら追尾していく,若しくは障害物を避けながら
移動物体から逃走していく行動をとるようにと制御され
るものであり,移動物体を追尾していく若しくは移動物
体から逃走していくための駆動源として,前後進の行動
をとるための2個の推進用モータと左右回転の行動をと
るための2個の操舵用モータとを装備するとともに,人
間の発声に相当する圧電ブザーを装備するものである。
そして,これらのモータと圧電ブザーは,実施例ではON
/OFFの2値化モードで制御されるものである。このロボ
ットは5種類の駆動源をもつことから,このロボットの
制御のために設けられるロボット制御手段3の階層ネッ
トワークの出力層のユニット数は5個となり,ロボット
の行動パターンは25通りあることになる。
Next, an embodiment of the present invention for controlling the action pattern of a robot that tracks a moving object or escapes from a moving object will be described. This robot is designed to follow a moving object, which is a light emitting source and an ultrasonic wave source, while avoiding an obstacle, or to escape from a moving object while avoiding an obstacle. It is controlled, and as a driving source for tracking a moving object or escaping from a moving object, to take two propulsion motors for taking forward and backward actions and for making left and right actions. In addition to being equipped with two steering motors, a piezoelectric buzzer corresponding to human speech is equipped.
The motor and the piezoelectric buzzer are turned on in the embodiment.
It is controlled in the binary mode of / OFF. That the robot from having a five driving source, number of units of the output layer of the robot control unit 3 of the hierarchical network that is provided for control of the robot becomes five, behavior patterns robot which There are two 5 become.

第17図に,このロボットが追尾,逃走のために装備す
るセンサの配置図を示す。この図に示すように,ロボッ
ト100は,頭部には両目に相当する2個の頭部光センサ1
01R,101Lと,両耳に相当する2個の頭部超音波センサ10
2R,102Lとを装備するとともに,胴体には両目に相当す
る2個の導体光センサ103R,103Lと,耳に相当する1個
の胴体超音波センサ(又は発信機)104と,障害物に接
触したことを感知するために120度の中心角度をもって
設けられる3個のタッチセンサ105F,105R,105Lとを装備
するものである。そしてロボット100は,更に自らが備
える操舵モータの回転によって,頭部及び胴体が限界の
回転角度まで回転したときに回転が例えば限度の180゜
に達した旨を検出するところの2個のリミットスイッチ
106R,106Lを装備するものである。この頭部光センサ101
R,101Lと胴体光センサ103R,103Lは,目標物となる移動
物体の発する光を検出し,頭部超音波センサ102R,102L
と胴体超音波センサ104は,目標物となる移動物体の発
する超音波を検出するよう動作する。ここで,頭部光セ
ンサ101R,101Lと胴体光センサ103R,103Lという人間の両
目に相当するセンサを2組設けているのは,移動物体の
発する光の波長が追尾時と逃走時で異なることになるよ
うにとなされていることから,この波長に感度を合わせ
た2種類の光検出センサを用意する必要があるからであ
る。また,ロボットの頭部と胴体は一体となってロボッ
トの基体に対して回転し,この回転に伴ってロボットの
車輪も頭部の正面に向くようにと構成されている。
Figure 17 shows the layout of the sensors that this robot uses to track and escape. As shown in this figure, the robot 100 has two head light sensors 1 corresponding to both eyes on the head.
01R, 101L and two head ultrasonic sensors 10 corresponding to both ears
Equipped with 2R and 102L, the body has two conductor light sensors 103R and 103L corresponding to both eyes, one body ultrasonic sensor (or transmitter) 104 corresponding to the ears, and contact with obstacles. It is equipped with three touch sensors 105F, 105R, 105L provided with a central angle of 120 degrees in order to detect the fact. The robot 100 further detects the fact that the rotation reaches, for example, the limit of 180 ° when the head and the body rotate to the limit rotation angle by the rotation of the steering motor included in the robot 100.
It is equipped with 106R and 106L. This head light sensor 101
R, 101L and body light sensor 103R, 103L detect light emitted from a moving object that is a target object, and head ultrasonic sensor 102R, 102L
The body ultrasonic sensor 104 operates so as to detect ultrasonic waves emitted by a moving object that is a target. Here, two sets of sensors corresponding to both eyes of the human being, head light sensors 101R and 101L and body light sensors 103R and 103L, are provided because the wavelength of light emitted by a moving object is different between tracking and flight. This is because it is necessary to prepare two types of photodetection sensors having sensitivity matched to this wavelength. Further, the head and body of the robot are integrally rotated with respect to the base of the robot, and the wheels of the robot are directed toward the front of the head in accordance with this rotation.

このように,このロボットは12個のセンサをもつこと
から,このロボットの制御のために設けられるロボット
制御手段3の階層ネットワークの入力層のユニット数は
12個(閾値ユニットを加えれば13個)となる。そして実
施例では,これらのセンサは2値化モードの出力を出す
ように構成されていることから212通りの検出パターン
が存在することになる。
As described above, since this robot has 12 sensors, the number of units in the input layer of the hierarchical network of the robot control means 3 provided for controlling this robot is
It becomes 12 (13 if the threshold unit is added). Further, in the embodiment, since these sensors are configured to output the binary mode output, there are 2 12 detection patterns.

この212通りの検出パターンに対して,ロボットが移
動物体を追尾するためにとる行動というのは本来的に定
まっているので,前述したように基本制御動作格納手段
5には,このような情報の内のいくつかが予め選択され
て格納されるよう構成されることになる。第18図にその
一例を示す。この例では,36通りのロボットセンサの検
出パターンに対してのロボット駆動源のとるべき駆動パ
ターンを,基本制御動作格納手段5にと格納する例を示
してある。ここで,図中の“HEAD,EAR"は頭部超音波セ
ンサ102R,Lを,“HEAD,EYE"は頭部光センサ101R,Lを,
“BODY,E"は胴体超音波センサ104を,“BODY,EYE"は胴
体光センサ103R,Lを,“BODY,TOUCH"はタッチセンサ105
F,R,Lを,“BODY,LIM"はリミットスイッチ106R,Lを表わ
し,“RIGHT"は右旋回操舵用モータを,“LEFT"は左旋
回操舵用モータを,“FWD"は前進推進モータを,“BWD"
は後進推進モータを,“BUZZ"は圧電ブザーを表わして
いる。
With respect to these 2 12 detection patterns, the action taken by the robot to track a moving object is inherently determined, and as described above, the basic control action storage means 5 stores such information. Will be configured to be preselected and stored. Figure 18 shows an example. In this example, the drive patterns to be taken by the robot drive source for the 36 detection patterns of the robot sensor are stored in the basic control operation storage means 5. Here, "HEAD, EAR" in the figure is the head ultrasonic sensor 102R, L, "HEAD, EYE" is the head optical sensor 101R, L,
“BODY, E” is the body ultrasonic sensor 104, “BODY, EYE” is the body light sensor 103R, L, and “BODY, TOUCH” is the touch sensor 105.
F, R, L, "BODY, LIM" represents the limit switch 106R, L, "RIGHT" is the right turn steering motor, "LEFT" is the left turn steering motor, and "FWD" is the forward drive Set the motor to "BWD"
Represents a reverse thrust motor and "BUZZ" represents a piezoelectric buzzer.

第18図の格納情報例についての理解を深めるために,
そのいくつかについて具体的に説明する。例えば,第18
図の5行目のセンサ検出パターンは,頭部の左目に相当
する頭部光センサ101LがONであることを示している。こ
のようなときには移動物体が左前方に存在している状態
なので,教師信号に示すように,操舵用モータLをONし
推進用モータFをONすることで,左に旋回しながら前進
して追尾が実行できることになる。8行目のセンサ検出
パターンは,頭部光センサ101LがONでロボットの右側に
設けられているタッチセンサ105RがONであることを示し
ている。このようなときにはロボットの右側面が障害物
に接触しているものの移動物体が左前方に存在している
状態なので,教師信号に示すように,同じく操舵用モー
タLをONし推進用モータFをONすることで左に旋回しな
がら前進して追尾が実行できることになる。また15行目
のセンサ検出パターンは,頭部光センサ101Lと頭部の右
目に相当する頭部光センサ101RがONであることを示して
いる。このようなときには移動物体が正面前方に存在し
ている状態なので,教師信号に示すように,推進用モー
タFをONすることで前進して追尾が実行できることにな
る。
To deepen the understanding of the example of stored information in Fig. 18,
Some of them will be specifically described. For example, the 18th
The sensor detection pattern on the fifth line in the figure indicates that the head optical sensor 101L corresponding to the left eye of the head is ON. In such a case, since the moving object is in the front left direction, as shown by the teacher signal, turning on the steering motor L and turning on the propulsion motor F causes the vehicle to turn left while moving forward to track. Can be executed. The sensor detection pattern on the eighth line indicates that the head light sensor 101L is ON and the touch sensor 105R provided on the right side of the robot is ON. In such a case, the right side surface of the robot is in contact with the obstacle, but the moving object is in the front left direction. Therefore, as shown by the teacher signal, the steering motor L is turned on and the propulsion motor F is turned on. By turning it ON, it will be possible to perform tracking while moving forward while turning to the left. Further, the sensor detection pattern on the 15th row indicates that the head light sensor 101L and the head light sensor 101R corresponding to the right eye of the head are ON. In such a case, since the moving object is present in front of the front, as shown by the teacher signal, turning on the propulsion motor F allows the vehicle to move forward and perform tracking.

ロボット制御手段3の階層ネットワークの内部結合の
重みWih及びWjiを,この基本制御動作格納手段5の格納
情報を使ってバック・プロパゲーション法の学習アルゴ
リズムにより自動決定することについては,第5図で説
明した実施例のロボットと基本的に変わるものではな
い。第19図に,このバック・プロパゲーション法の学習
アルゴリズムの実行により求められた重みWih,Wjiの計
算結果を示す。この計算結果は,ロボット制御手段3の
階層ネットワークの中間層のユニット数を5個とし,基
本制御動作格納手段5の格納情報としては第18図に示し
たものを用いて実行されたものである。そして,第5図
の実施例をロボットと同様に,このようにして決定され
た階層ネットワークの内部結合の重みWih及びWjiを用い
て移動物体を追尾していくロボットの制御が実行される
ことになるのである。
Regarding the automatic determination of the internal connection weights W ih and W ji of the hierarchical network of the robot control means 3 by the learning algorithm of the back propagation method using the storage information of this basic control operation storage means 5, It is basically the same as the robot of the embodiment described in the figure. Figure 19 shows the calculation results of the weights W ih and W ji obtained by executing the learning algorithm of this back propagation method. This calculation result is executed by using the number of units in the intermediate layer of the hierarchical network of the robot control means 3 as 5, and using the information stored in the basic control operation storage means 5 as shown in FIG. . Then, similarly to the robot in the embodiment of FIG. 5, the control of the robot for tracking the moving object is executed using the weights W ih and W ji of the internal connection of the hierarchical network determined in this way. It will be.

次に,このロボット制御の内容を第20図に示す説明図
に従って具体的に説明する。
Next, the contents of this robot control will be specifically described with reference to the explanatory diagram shown in FIG.

今,ロボットと発光源および発信源を備えた移動物体
との関係が第20図(a)の状態,即ち,頭部の左目に相
当する頭部光センサ101LがONの状態にあるとする。この
センサ入力信号を重みの求められた階層ネットワークに
入力すると,出力パターンとして“操舵用モータLをO
N,推進用モータFをONにせよ(左に旋回し,前進せ
よ)”という制御を表す出力ベクトル(0,1,1,0,0)が
発生される。従って,ロボットは左に旋回しながら前進
する。この時,第20図(b)に示すように,移動物体が
移動し,ロボットが追尾したとすると,ロボットのセン
サ入力信号は,頭部光センサ101LがON,タッチセンサ105
RがONの状態,即ち,ロボットの右側面が障害物にぶつ
かり,右前方に移動物体が見えている状態になる。この
センサ出力信号をネットワークに入力すると,今度は
“操舵用モータLをON,推進用モータFをONにせよ(左
に旋回し,前進せよ)”という制御を表す出力ベクトル
(0,1,1,0,0)が発生される。従って,ロボットは左に
旋回しながら前進する。この時,第20図(c)に示すよ
うに,移動物体が移動し,ロボットが追尾したとする
と,ロボットのセンサ入力信号は,頭部光センサ101R,
および頭部光センサ101LがともにONの状態,即ち,移動
物体を正面に捉えた状態になる。この場合,このセンサ
入力信号をネットワークに入力すると,“推進用モータ
をONにせよ(前進せよ)”という制御を表す出力ベクト
ル(0,0,1,0,0)が発生され,ロボットは第20図(d)
に示すように,移動物体に向かって前進する。このよう
にして,ロボットが,時々刻々と取り込んでくるセンサ
入力信号パターンをロボット制御手段3の階層ネットワ
ークに入力し,階層ネットワークがその入力パターンに
対応して時々刻々と出力する適切な出力パターンに従っ
てモータを制御することにより,移動物体を追尾するこ
とができる。
Now, it is assumed that the relationship between the robot and the moving object having the light emission source and the transmission source is as shown in FIG. 20 (a), that is, the head light sensor 101L corresponding to the left eye of the head is in the ON state. When this sensor input signal is input to the hierarchical network for which the weight has been obtained, the output pattern is "steering motor L
N, turn on the propulsion motor F (turn left, move forward) ", an output vector (0,1,1,0,0) representing the control is generated. Therefore, the robot turns left. At this time, if the moving object moves and the robot tracks, as shown in Fig. 20 (b), the sensor input signal of the robot is that the head light sensor 101L is ON, and the touch sensor 105 is
When R is ON, that is, the right side of the robot hits an obstacle and the moving object is visible to the front right. When this sensor output signal is input to the network, the output vector (0, 1, 1 indicating the control "turn on the steering motor L and turn on the propulsion motor F (turn left and move forward)" this time. , 0,0) is generated. Therefore, the robot moves forward while turning to the left. At this time, as shown in FIG. 20 (c), if the moving object moves and the robot tracks, the sensor input signal of the robot is the head light sensor 101R,
Both the head light sensor 101L and the head light sensor 101L are in the ON state, that is, the moving object is captured in front. In this case, when this sensor input signal is input to the network, an output vector (0,0,1,0,0) representing the control "Turn on the propulsion motor (move forward)" is generated, and the robot Figure 20 (d)
As shown in, move forward toward the moving object. In this way, the robot inputs the sensor input signal pattern that is captured moment by moment into the hierarchical network of the robot control means 3, and the hierarchical network responds to the input pattern according to an appropriate output pattern that is output momentarily. A moving object can be tracked by controlling the motor.

この第20図の説明にあたっては,説明の便宜上,第18
図で示した基本制御動作格納手段5に格納される制御情
報(第5行目,第8行目,第15行目)と同じものを使っ
て移動物体を追尾していくことを説明したが,センサ
が,基本制御動作格納手段5に格納されていない検出パ
ターンを検出したとしても,学習された階層ネットワー
クの重みにより移動物体を追尾していく出力パターンが
生成されるので,その出力パターンに従ってモータを制
御していくことで移動物体を追尾できることになる。も
ちろん,階層ネットワークの出力では移動物体を追尾し
ていけない事態になったときにおいては,第5図の実施
例のロボットと同様に階層ネットワークの重みを学習に
より変更していくことになる。
For the convenience of explanation, the explanation of FIG.
Although the same control information (fifth line, eighth line, fifteenth line) stored in the basic control operation storage means 5 shown in the figure is used to track a moving object, , Even if the sensor detects a detection pattern which is not stored in the basic control operation storage means 5, an output pattern for tracking a moving object is generated by the weight of the learned hierarchical network. A moving object can be tracked by controlling the motor. Of course, when it becomes impossible to track a moving object with the output of the hierarchical network, the weight of the hierarchical network is changed by learning as in the robot of the embodiment shown in FIG.

本発明においては,ロボット制御手段3の階層ネット
ワークの構造は同じでも基本制御動作格納手段5に異な
る制御内容の制御情報を格納すれば,その制御情報に従
って重みWih,Wjiが求まりこれによりその異なる制御内
容の制御が実行できることになる。第21図は,ロボット
が移動物体から逃走するための制御を実行するために,
基本制御動作格納手段5に格納されることになる基本制
御動作の一例である。この逃走の制御には,両目として
胴体光センサ103R,Lが用いられることになる。この第21
図の基本制御動作格納手段5の格納情報を使って求めら
れた重みWih,Wjiの計算結果を第22図に示す。階層ネッ
トワークの構造は追尾のものと全く同一である。この重
みを使って移動物体から逃走していくよう動作するロボ
ットの制御がそのまま実行できることになる。
In the present invention, even if the structure of the hierarchical network of the robot control means 3 is the same, if the control information of different control contents is stored in the basic control operation storage means 5, the weights W ih and W ji are obtained according to the control information, and the Control of different control contents can be executed. FIG. 21 shows that the robot executes control to escape from a moving object.
6 is an example of a basic control operation stored in a basic control operation storage unit 5. The body optical sensors 103R and 103L are used for both eyes to control this escape. This 21st
FIG. 22 shows the calculation results of the weights W ih and W ji obtained using the storage information of the basic control operation storage means 5 in the figure. The structure of the hierarchical network is exactly the same as that of the tracking. The control of the robot that moves to escape from the moving object using this weight can be executed as it is.

実際に第17図に示したロボットを2個使い,片方のロ
ボットを追尾側,残りの片方のロボットを逃走側にセッ
トして,障害物の中で鬼ごっこを実行させたところ,片
方は障害物を避けながらよく逃げ,片方は障害物を避け
ながらよくそれを追いかけていくということが実現でき
た。そして障害物の位置を変えたり,障害物を加えたり
しても,人間が何ら手をくださなくてもそれに十分対応
して鬼ごっこを実行していくことが確認されたのであ
る。
When two robots shown in Fig. 17 were actually used, one robot was set on the tracking side and the other one was set on the escape side, and when playing tag among the obstacles, one of them was an obstacle. It was possible to avoid the obstacles and escape well, while one avoids obstacles and often follows them. It was confirmed that even if the position of an obstacle is changed or an obstacle is added, humans can play tag even if they do not give their hands.

なお,この移動ロボットの備える光センサは,外乱光
の影響があるときにおいては変調された光を検出するも
のであれば好適であるが,外乱光の影響がなければ変調
なしの光を検出するものであってもよい。同様に超音波
センサを外乱音の存在を考慮して用いたが,外乱音の影
響がなければマイクロフォンのようなものでも十分であ
る。但し,このようなときには移動物体の発する光や音
もそれと整合するものが用いられることになる。また,
タッチセンサは,実施例にあっては接触タイプのものを
想定して説明したが,光電スイッチや近接スイッチのよ
うな非接触タイプのものであっても実装可能である。そ
して本発明は,ロボットの具体的な構成により何ら限定
されるものではなく,要するに2次元空間上を自在に動
ける機能を備えているロボットであれば実装することが
できるものである。
The optical sensor of this mobile robot is suitable as long as it detects modulated light when it is affected by ambient light, but it detects light that is not modulated if it is not affected by ambient light. It may be one. Similarly, an ultrasonic sensor was used in consideration of the presence of disturbance noise, but a microphone or the like is sufficient if there is no influence of disturbance noise. However, in such a case, the light and sound emitted by the moving object should be matched with that. Also,
In the embodiment, the touch sensor has been described on the assumption that it is a contact type, but a touch sensor such as a photoelectric switch or a proximity switch can also be mounted. The present invention is not limited to the specific configuration of the robot, and can be implemented as long as the robot has a function of freely moving in a two-dimensional space.

〔発明の効果〕〔The invention's effect〕

以上説明したように,本発明によれば,複数のセンサ
入力信号から成るパターンと,その入力パターンに対し
てとるべき最適な行動を規定する出力パターンとを階層
ネットワークの中にいわば連合させて記憶するので,人
間はすべてのセンサ入力パターンとそれに対する出力パ
ターンを洗い出して,厳密にプログラミングする必要は
なく,ただ,基本的な入出力パターン対を階層ネットワ
ークに教えるだけですむ。また,学習させた入出力パタ
ーン対以外の未知の入力パターンに対しても,その入力
パターンに近い学習した入力パターンに応じた出力パタ
ーンを発生できるので,センサの特性変化や,故障にも
柔軟に対応できる。さらに,基本的な入出力パターン対
で入力パターンと出力パターンとの連合を完了したネッ
トワークの結合の重みで,実際にロボットを制御した結
果,所望の行動が得られなかった場合,その段階でのネ
ットワークの結合の重みを初期値として,所望の得られ
なかった時点の入力パターンと所望の出力パターンとの
対をさらに重ねて連合することができるように結合の重
みを自動的に微調整させることにより,ロボットの制御
性能を向上させることができる。従って,最終的には,
ロボットの最適な制御を実現できるようになる。しか
も,階層ネットワークは並列処理アーキテクチャのマシ
ンに適した処理方式であり,センサ入力パターンを取り
込むと瞬時に出力パターンを発生できるので,ロボット
の柔軟なリアルタイム制御に寄与するところが大きい。
As described above, according to the present invention, a pattern composed of a plurality of sensor input signals and an output pattern that defines the optimum action to be taken with respect to the input pattern are stored in a hierarchical network so that they are associated with each other. Therefore, humans do not have to identify all the sensor input patterns and the output patterns corresponding to them, and program them precisely, but only teach basic hierarchical I / O pattern pairs to the hierarchical network. Further, even for unknown input patterns other than the learned input / output pattern pair, an output pattern corresponding to the learned input pattern that is close to the input pattern can be generated. Can handle. In addition, if the desired behavior was not obtained as a result of actually controlling the robot with the weight of the connection of the network that completed the association of the input pattern and the output pattern with the basic input / output pattern pair, at that stage Using network connection weights as initial values, automatically finely adjusting connection weights so that pairs of input patterns and desired output patterns at the time when a desired result cannot be obtained can be further overlapped and associated. As a result, the control performance of the robot can be improved. So in the end,
It becomes possible to realize optimal control of the robot. Moreover, the hierarchical network is a processing method suitable for a machine having a parallel processing architecture, and an output pattern can be instantly generated when a sensor input pattern is taken in, which greatly contributes to flexible real-time control of a robot.

更に,本発明によれば,階層ネットワークの入力層に
閾値ユニットをもうけ,また中間層のユニットの個数に
識別すべき数以上の冗長制御を持たせているいことか
ら,各ユニット間の内部結合の重みと各ユニットの閾値
との調節が自動的且つ簡単な方法で実行でき,閾値を全
く意識せず,またネットワークの適応性を低下させるこ
となく学習を遂行出来るのである。
Further, according to the present invention, since the threshold layer unit is provided in the input layer of the hierarchical network and the redundant control more than the number to be identified is provided in the number of the units in the intermediate layer, the internal coupling between the units is suppressed. The adjustment of the weight and the threshold value of each unit can be performed automatically and in a simple way, and the learning can be performed without being aware of the threshold value and without deteriorating the adaptability of the network.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の原理説明図, 第2図はロボット制御手段の実施例構成図, 第3図は基本ユニットの構成図, 第4図は基本制御動作格納手段の格納情報例, 第5図はロボットの行動パターンの具体例, 第6図はロボット制御手段の他の実施例構成図, 第7図は奇数パリティチェック機能をもつネットワーク
の例, 第8図は中間層の数が冗長性を持たない排他ORのネット
ワーク, 第9図は排他ORと中間層ユニットの役割を説明する説明
図, 第10図は中間層の数が冗長性を持つ排他ORのネットワー
ク, 第11図は学習結果を示す内部結合の重み(I)の説明
図, 第12図は第11図の重みに従った処理例, 第13図は学習結果を示す内部結合の重み(II)の説明
図, 第14図は第13図の重みに従った処理例, 第15図は学習結果を示す内部結合の重み(III)の説明
図, 第16図は第15図の重みに従った処理例, 第17図は移動ロボットが装備するセンサの説明図, 第18図は移動ロボットの基本制御動作格納手段の格納情
報例(I), 第19図は移動ロボットの学習結果を示す内部結合の重み
(I)の説明図, 第20図は移動物体を追尾していくときの説明図, 第21図は移動ロボットの基本制御動作格納手段の格納情
報例(II), 第22図は移動ロボットの学習結果を示す内部結合の重み
(II)の説明図である。 図中,1はセンサ手段,2は行動パターン発生手段,3はロボ
ット制御手段,3′−hは閾値入力ユニット,5は基本制御
動作格納手段,30は基本ユニット,31は累算部,32は閾値
処理部,101は頭部光センサ,102は頭部超音波センサ,103
は胴体光センサ,105はタッチセンサである。
FIG. 1 is a diagram for explaining the principle of the present invention, FIG. 2 is a block diagram of an embodiment of robot control means, FIG. 3 is a block diagram of a basic unit, FIG. 4 is an example of information stored in a basic control operation storage means, and a fifth example. FIG. 6 is a concrete example of the action pattern of the robot, FIG. 6 is a block diagram of another embodiment of the robot control means, FIG. 7 is an example of a network having an odd parity check function, and FIG. 8 is the number of intermediate layers is redundant. Exclusive-OR network without asterisk, Fig. 9 is an explanatory diagram for explaining the roles of exclusive-OR and middle tier units, Fig. 10 is an exclusive-OR network in which the number of middle tiers is redundant, and Fig. 11 is a learning result. Fig. 12 is an explanatory view of the weight of internal coupling (I), Fig. 12 is a processing example according to the weight of Fig. 11, Fig. 13 is an explanatory diagram of the weight of internal coupling (II) showing the learning result, Fig. 14 Shows an example of processing according to the weights in Fig. 13, and Fig. 15 shows the weights of the inner joins (III) showing the learning results. Explanatory diagram, FIG. 16 is a processing example according to the weight of FIG. 15, FIG. 17 is an explanatory diagram of a sensor equipped in the mobile robot, and FIG. 18 is an example of information stored in the basic control operation storage means of the mobile robot (I ), FIG. 19 is an explanatory diagram of the weight (I) of the internal coupling showing the learning result of the mobile robot, FIG. 20 is an explanatory diagram when tracking a moving object, and FIG. 21 is a basic control operation of the mobile robot. An example of information stored in the storage means (II), FIG. 22 is an explanatory diagram of the weight of internal coupling (II) showing the learning result of the mobile robot. In the figure, 1 is a sensor means, 2 is an action pattern generating means, 3 is a robot control means, 3'-h is a threshold value input unit, 5 is a basic control operation storing means, 30 is a basic unit, 31 is an accumulator, 32 Is a threshold processing unit, 101 is a head light sensor, 102 is a head ultrasonic sensor, 103
Is a body light sensor, and 105 is a touch sensor.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 吉沢 英樹 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 渡部 信雄 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 木本 隆 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (72)発明者 川村 旭 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 (56)参考文献 特開 平1−173202(JP,A) 特開 平1−177603(JP,A) FUJITSU Vol.39,No. 3(10.06.1988)PP.175−184 NIKKEI ELECTRONIC S No.427(10.08.1987)PP. 115−127 Neural Network Vo l.1(1988)PP.251−265 ─────────────────────────────────────────────────── ─── Continued Front Page (72) Inventor Hideki Yoshizawa 1015 Kamiodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture, Fujitsu Limited (72) Inventor Nobuo Watanabe 1015, Kamiodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Fujitsu Limited ( 72) Inventor Takashi Kimoto, 1015 Kamiodanaka, Nakahara-ku, Kawasaki-shi, Kanagawa, Fujitsu Limited (72) Inventor Asahi Kawamura, 1015, Kamikodanaka, Nakahara-ku, Kawasaki, Kanagawa (56) References 1-173202 (JP, A) JP-A-1-177603 (JP, A) FUJITSU Vol. 39, No. 3 (10.06.1988) PP. 175-184 NIKKEI ELECTRONIC S No. 427 (10.08.1987) PP. 115-127 Neural Network Vol. 1 (1988) PP. 251-265

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】センシングされた外界情報に基づいて2次
元空間上で自在に行動するロボットを制御するためのロ
ボット制御方式において, ロボットを取囲む外界情報を取り込むための複数のセン
サからなり,この複数のセンサが,少なくとも外界の光
情報を取り込む対をなす2個の光検出センサと,外界の
音情報を取り込む対をなす2個の音検出センサと,外界
の障害物情報を取り込む1つまたは複数の障害物センサ
とを含んでなるセンサ手段(1)と,2次元空間上で自在
な行動を実行するロボットの行動パターンを規定する行
動パターン信号を発生する行動パターン発生手段(2)
と, 上記センサ手段(1)の検出パターンに応じて上記行動
パターン発生手段(2)に制御信号を送出するロボット
制御手段(3)と,予め選択される上記センサ手段
(1)の1つまたは複数個の特定の検出パターンに対し
ての上記ロボット制御手段(3)の送出すべき制御信号
情報を格納する基本制御動作格納手段(5)とを備え, 上記ロボット制御手段(3)は,1つまたは複数の入力と
この入力に対して乗算されるべき重みとを受取って積和
を得る累算部(31)と,この累算部(31)からの出力を
閾値関数によって変換して最終出力を得る閾値処理部
(32)とを有する基本ユニット(30)を単位ユニットと
し,上記センサ手段(1)に接続される複数個の上記単
位ユニット(3−h)を入力層とし,かつ複数個の上記
単位ユニット(3−i)を中間層として1つまたは複数
段の中間層を備え,かつ上記行動パターン発生手段
(2)に接続される1つまたは複数個の上記単位ユニッ
ト(3−j)を出力層とし,上記入力層と最前段の中間
層との間,中間層相互間および最終段の中間層と出力層
との間で内部結合を構成することで階層ネットワークを
構成し, そして,上記ロボット制御手段(3)は,上記基本制御
動作格納手段(5)の格納情報が実現できるようにと学
習制御することで自らが備える上記階層ネットワークの
重みの値を設定するとともに,この重み値の設定された
上記階層ネットワークの出力層の出力値をもって上記行
動パターン発生手段(2)への制御信号としてなること
を, 特徴とするロボット制御方式。
1. A robot control method for controlling a robot that behaves freely in a two-dimensional space based on sensed external information, comprising a plurality of sensors for capturing external information surrounding the robot. A plurality of sensors form at least two pairs of light detection sensors that capture the external light information, two pairs of sound detection sensors that capture the external sound information, and one that captures the external obstacle information. A sensor means (1) including a plurality of obstacle sensors, and an action pattern generation means (2) for generating an action pattern signal that defines an action pattern of a robot performing a free action in a two-dimensional space.
A robot control means (3) for sending a control signal to the action pattern generation means (2) according to the detection pattern of the sensor means (1), and one of the sensor means (1) selected in advance or The robot control means (3) is provided with a basic control operation storage means (5) for storing control signal information to be sent by the robot control means (3) for a plurality of specific detection patterns. An accumulator (31) that receives one or a plurality of inputs and a weight to be multiplied with this input to obtain a sum of products, and an output from this accumulator (31) is converted by a threshold function to obtain a final value. A basic unit (30) having a threshold processing section (32) for obtaining an output is used as a unit unit, a plurality of the unit units (3-h) connected to the sensor means (1) are used as an input layer, and a plurality of units are used. Number of the above unit units (3-i As an intermediate layer, one or more intermediate layers are provided, and one or a plurality of the unit units (3-j) connected to the action pattern generating means (2) is used as an output layer, and the input layer is And the frontmost intermediate layer, between the intermediate layers, and between the final intermediate layer and the output layer to form an internal connection to form a hierarchical network, and the robot control means (3) The learning control is performed so that the stored information of the basic control operation storing means (5) can be realized, and the value of the weight of the hierarchical network provided by itself is set, and the hierarchical network of which the weight value is set is set. A robot control method characterized in that the output value of the output layer serves as a control signal to the action pattern generating means (2).
JP63007891A 1988-01-18 1988-01-18 Robot control system Expired - Fee Related JP2523151B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63007891A JP2523151B2 (en) 1988-01-18 1988-01-18 Robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63007891A JP2523151B2 (en) 1988-01-18 1988-01-18 Robot control system

Publications (2)

Publication Number Publication Date
JPH01183704A JPH01183704A (en) 1989-07-21
JP2523151B2 true JP2523151B2 (en) 1996-08-07

Family

ID=11678206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63007891A Expired - Fee Related JP2523151B2 (en) 1988-01-18 1988-01-18 Robot control system

Country Status (1)

Country Link
JP (1) JP2523151B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0589394A1 (en) * 1992-09-21 1994-03-30 Toyoda Koki Kabushiki Kaisha Method and apparatus for controlling a robot using a neural network
JP3986720B2 (en) 1999-11-20 2007-10-03 株式会社バンダイ Insect robot
JP4919995B2 (en) * 2008-03-13 2012-04-18 株式会社東芝 Control system, control device, and control method
CN113400297B (en) * 2020-12-02 2021-12-17 中国人民解放军63920部队 Method for planning mechanical arm task based on HTN planning

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
FUJITSUVol.39,No.3(10.06.1988)PP.175−184
NeuralNetworkVol.1(1988)PP.251−265
NIKKEIELECTRONICSNo.427(10.08.1987)PP.115−127

Also Published As

Publication number Publication date
JPH01183704A (en) 1989-07-21

Similar Documents

Publication Publication Date Title
US9566710B2 (en) Apparatus and methods for operating robotic devices using selective state space training
Singh et al. Intelligent neuro-controller for navigation of mobile robot
US11279025B2 (en) Apparatus and methods for operating robotic devices using selective state space training
Engedy et al. Artificial neural network based local motion planning of a wheeled mobile robot
Hagras et al. Outdoor mobile robot learning and adaptation
Oyama et al. Inverse kinematics learning for robotic arms with fewer degrees of freedom by modular neural network systems
JP2523151B2 (en) Robot control system
Tsoukalas et al. Neurofuzzy motion planners for intelligent robots
JP2523150B2 (en) Robot control system
Hercus et al. Control of an unmanned aerial vehicle using a neuronal network
US20220203524A1 (en) Apparatus and methods for operating robotic devices using selective state space training
WO2015116271A2 (en) Apparatus and methods for operating robotic devices using selective state space training
Sunny et al. An autonomous robot: Using ANN to navigate in a static path
JP2669626B2 (en) Robot control system
Alnajjar et al. Sensor-fusion in spiking neural network that generates autonomous behavior in real mobile robot
Shaikh et al. A neuroplasticity-inspired neural circuit for acoustic navigation with obstacle avoidance that learns smooth motion paths
Khan et al. Learning live autonomous navigation: A model car with hardware arduino neurons
Collins et al. Cerebellar control of a line following robot
Gavrilov et al. Usage of hybrid neural network model MLP-ART for navigation of mobile robot
Awad et al. Mobile robot navigation using local model networks
Hui et al. Soft computing-based navigation schemes for a real wheeled robot moving among static obstacles
Priandana et al. Improvement of Data Accuracy on Backpropagation Neural Network-based Automatic Control System for Wheeled Robot
García-Córdova et al. A biologically inspired neural network for autonomous underwater vehicles
JPH01183763A (en) Learning processing system for network component data processor
Sekiguchi et al. Behaviour control for a mobile robot by a structured neural network

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees