JP2007280008A - Data processor, data processing method, and program - Google Patents

Data processor, data processing method, and program Download PDF

Info

Publication number
JP2007280008A
JP2007280008A JP2006104983A JP2006104983A JP2007280008A JP 2007280008 A JP2007280008 A JP 2007280008A JP 2006104983 A JP2006104983 A JP 2006104983A JP 2006104983 A JP2006104983 A JP 2006104983A JP 2007280008 A JP2007280008 A JP 2007280008A
Authority
JP
Japan
Prior art keywords
data
input
time
node
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006104983A
Other languages
Japanese (ja)
Other versions
JP2007280008A5 (en
Inventor
Hideki Shimomura
秀樹 下村
Katsuki Minamino
活樹 南野
Kazumi Aoyama
一美 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006104983A priority Critical patent/JP2007280008A/en
Publication of JP2007280008A publication Critical patent/JP2007280008A/en
Publication of JP2007280008A5 publication Critical patent/JP2007280008A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow a robot or the like to perform a task requesting real time performance. <P>SOLUTION: Input networks net<SB>1</SB>and net<SB>3</SB>and an output network net<SB>2</SB>composed of a plurality of nodes having time-series pattern models expressing time-series patterns are updated like self-organization so that the connection weight of winner nodes for input data of frames at a time t of the input network net<SB>1</SB>and winner nodes for the input data of frames at a time t' delayed only by a fixed time from the time t of the input network net<SB>3</SB>can be strengthened, and so that the connection weight of winner nodes for the input data of frames at the time t' of the input network net<SB>3</SB>and winner nodes for the output data of frames at the time t' of the output network net<SB>2</SB>can be strengthened. This invention may be applied to, for example, the robot or the like. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、データ処理装置、データ処理方法、およびプログラムに関し、特に、例えば、ロボット等が、実時間性が要求されるタスクを行うことができるようにするデータ処理装置、データ処理方法、およびプログラムに関する。   The present invention relates to a data processing apparatus, a data processing method, and a program, and more particularly, for example, a data processing apparatus, a data processing method, and a program that enable a robot or the like to perform a task that requires real-time performance. About.

例えば、自律的にタスクを行うロボットの実現には、順モデルまたは逆モデルを利用することができる。   For example, a forward model or an inverse model can be used to realize a robot that performs tasks autonomously.

図1は、順モデルと逆モデルの概念を示している。   FIG. 1 shows the concept of a forward model and an inverse model.

ある時系列データ(時系列のデータ)としての入力データに対して、他の時系列データとしての出力データを出力する制御対象が与えられ、制御対象に関する詳細な情報はわからないが(制御対象の内部がわからないが)、制御対象に与えられる入力データと、その入力データに対して制御対象から得られる出力データは観測することができることとする。   Control data that outputs output data as other time-series data is given to input data as certain time-series data (time-series data), but detailed information about the control object is not known (inside the control object) However, it is assumed that the input data given to the control object and the output data obtained from the control object with respect to the input data can be observed.

ここで、制御対象に与えられる入力データと、その入力データに対して制御対象から得られる出力データとは、観測することができれば、どのような物理量でも良い。また、制御対象は、入力データを与えることができ、かつ、その入力データに対して出力データを得ることができるものであれば、どのような対象(もの)でも良い。   Here, the input data given to the control object and the output data obtained from the control object for the input data may be any physical quantity as long as it can be observed. The control target may be any target (thing) as long as input data can be given and output data can be obtained for the input data.

従って、例えば、ボールや、楽器、自動車、ガスヒータその他の種々のものが、制御対象となり得る。即ち、例えば、ボールについては、入力データとしての力を加える(与える)ことで、その入力データに対して変化する出力データとしてのボールの位置や速度が得られる。また、例えば、自動車については、入力データとしてのハンドルや、アクセル、ブレーキなどの操作をする(与える)ことで、その入力データに対して変化する出力データとしての自動車の位置や速度を得ることができる。さらに、例えば、ガスヒータについては、入力データとしての火力を調整する操作をすることで、その入力データに対して変化する出力データとしての部屋の温度を得ることができる。   Therefore, for example, a ball, a musical instrument, an automobile, a gas heater, and other various objects can be controlled. That is, for example, by applying (applying) force as input data for the ball, the position and speed of the ball as output data that changes with respect to the input data can be obtained. Also, for example, for a car, by operating (giving) a steering wheel, an accelerator, a brake, etc. as input data, the position and speed of the car as output data that changes with respect to the input data can be obtained it can. Further, for example, for a gas heater, the temperature of the room as output data that changes with respect to the input data can be obtained by adjusting the heating power as input data.

以上のように、制御対象に入力データを与え、それに対して出力データが得られる場合に、その制御対象をモデル化したもの(モデル)が順モデルである。   As described above, when input data is given to a control target and output data is obtained for the input data, a model (model) of the control target is a forward model.

順モデルは、入力データを入力すると(入力データが与えられると)、その入力データに対して、制御対象から得られる出力データの推定値を出力する。従って、順モデルによれば、制御対象に対して、実際の入力データを与えなくても、その入力データに対して、制御対象から得られる出力データを推定することができる。   In the forward model, when input data is input (when input data is given), an estimated value of output data obtained from the control target is output for the input data. Therefore, according to the forward model, output data obtained from the control target can be estimated for the input data without giving actual input data to the control target.

一方、制御対象から得られる出力データの目標値を決定し、その目標値となる出力データを得るために、制御対象に与えるべき入力データを推定することができるモデルが逆モデルである。順モデルは、入力データから出力データへの写像とみなすことができるが、その逆写像が逆モデルである。   On the other hand, in order to determine the target value of the output data obtained from the controlled object and obtain the output data that becomes the target value, a model that can estimate the input data to be given to the controlled object is an inverse model. The forward model can be regarded as a mapping from input data to output data, but its inverse mapping is an inverse model.

ここで、逆モデルによって求められる、目標値となる出力データを得るために、制御対象に与えるべき入力データを、以下、適宜、制御データともいう。   Here, in order to obtain output data that is a target value, which is obtained by the inverse model, the input data to be given to the control target is hereinafter also referred to as control data as appropriate.

以上のような順モデルや逆モデルは、上述したように、ロボット(の構成)に利用することができる。   The forward model and the inverse model as described above can be used for the robot (configuration) as described above.

即ち、いま、ロボットが、マイク(マイクロフォン)やカメラを備え、音声(音)データや画像データを入力することができ、かつ、スピーカやアクチュエータ(モータ)を備え、音声(音声データ)を出力し、また、モータデータ(モータ信号)にしたがってモータが駆動することにより、アームを動かすことができることとする。   That is, the robot now has a microphone (microphone) and camera, can input voice (sound) data and image data, and has a speaker and an actuator (motor) to output voice (voice data). The arm can be moved by driving the motor according to the motor data (motor signal).

かかるロボットにおいて、ある音声データや画像データなどの入力データに応じて、出力データとしての音声データを出力させ、また、所望のアームの動作をさせる出力データとしてのモータデータを出力させる場合、従来においては、音声認識装置や画像認識装置を用いて、ロボットに入力される音声データや画像データを認識した認識結果に応じて、どのような音声データを出力するべきか、あるいは、どのようなモータデータを出力するべきかを、あらかじめプログラミング(デザイン)しておくことが行われる。   In such a robot, when outputting voice data as output data according to input data such as certain voice data or image data, and outputting motor data as output data for operating a desired arm, conventionally, Is what voice data should be output according to the recognition result of recognizing voice data and image data input to the robot using a voice recognition device or image recognition device, or what motor data Is to be programmed (designed) in advance.

これに対して、順モデルを利用すれば、図2に示すように、ある音声データや画像データに応じて、所望の音声データや、所望のアーム動作をさせるモータデータを出力するロボットを制御対象として想定し、その制御対象として想定したロボット(以下、適宜、想定ロボットと呼ぶ)の順モデルとして、実際のロボットを構成することが可能となる。即ち、想定ロボットに対する入力データと出力データの関係を、実際のロボットに学習させることができれば、想定ロボットの順モデルとしてのロボットを構成することができる。   On the other hand, if a forward model is used, as shown in FIG. 2, a robot that outputs desired voice data or motor data for performing a desired arm operation according to certain voice data or image data is controlled. It is possible to configure an actual robot as a forward model of a robot assumed as a control target (hereinafter referred to as an assumed robot as appropriate). That is, if the actual robot can learn the relationship between the input data and the output data for the assumed robot, a robot as a forward model of the assumed robot can be configured.

具体的には、想定ロボットに入力する音声データや画像データなどの入力データと、想定ロボットが各入力データに対応して出力すべき音声データやモータデータなどの出力データとのセットをあらかじめ用意し、実際のロボットに与える。実際のロボットにおいて、外部から与えられた入力データと出力データのセット(以下、適宜、教示データという)だけを用いて、入力データに対応する出力データを推定する(出力する)想定ロボットの順モデルを求めることができれば、実際に入力される音声データや画像データなどの入力データに応じて、所望の音声データやモータデータなどの出力データを出力することが可能となる。   Specifically, a set of input data such as voice data and image data to be input to the assumed robot and output data such as voice data and motor data to be output by the assumed robot corresponding to each input data is prepared in advance. Give to a real robot. In an actual robot, a forward model of an assumed robot that estimates (outputs) output data corresponding to input data using only a set of input data and output data given from outside (hereinafter referred to as teaching data as appropriate). Can be obtained, output data such as desired voice data and motor data can be output in accordance with input data such as voice data and image data actually input.

また、逆モデルを利用すれば、図3に示すように、ロボットのアームを制御対象として、その制御対象であるアームを制御するアーム制御器を構成することが可能となる。   Further, if the inverse model is used, as shown in FIG. 3, it is possible to configure an arm controller that controls the arm of the robot as a control target and controls the arm that is the control target.

即ち、いま、ロボットのアームが、入力データとしてのモータデータに応じて駆動するモータによって動き、その結果、アームの先端の位置が変化するとする。さらに、ロボットの重心を原点とし、ロボットの前方(正面)方向をx軸と、(ロボットから見て)右方向をy軸と、上方向をz軸と、それぞれする3次元座標系に基づき、その3次元座標系の(x,y,z)座標でアームの先端の位置を表すこととする。この場合、モータデータに応じてモータが駆動し、さらにアームの先端の位置が変化することで、アームの先端がある軌跡を描く。ここで、アームの先端が描く軌跡(先端位置軌跡)の座標のシーケンスを、先端位置軌跡データという。   That is, it is assumed that the arm of the robot is moved by a motor driven in accordance with motor data as input data, and as a result, the position of the tip of the arm changes. Further, based on a three-dimensional coordinate system in which the center of gravity of the robot is the origin, the forward (front) direction of the robot is the x axis, the right direction (viewed from the robot) is the y axis, and the upward direction is the z axis. The position of the tip of the arm is represented by the (x, y, z) coordinates of the three-dimensional coordinate system. In this case, the motor is driven according to the motor data, and the position of the tip of the arm is changed to draw a locus with the tip of the arm. Here, a sequence of coordinates of a locus (tip position locus) drawn by the tip of the arm is referred to as tip position locus data.

アームが所望の先端位置軌跡を描くようにするには、つまり、出力データとしての所望の先端位置軌跡データを出力するようにするには、アームがそのような先端位置軌跡を描くようにモータを駆動するモータデータを、入力データとしてモータに与える必要がある。   In order for the arm to draw a desired tip position locus, that is, to output the desired tip position locus data as output data, the arm is drawn so that the arm draws such a tip position locus. The motor data to be driven needs to be given to the motor as input data.

いま、入力データとしてのモータデータと、そのモータデータがモータに与えられたときの出力データとしての先端位置軌跡データとのセットである教示データだけを用いて、出力データとしての、ある先端位置軌跡データを目標値として得ることができる入力データ(制御データ)としてのモータデータを推定するアームの逆モデルを求めることができれば、その逆モデルは、目標値である先端位置軌跡データに対して、対応するモータデータを決定するアーム制御器に利用することができる。   Now, using only teaching data that is a set of motor data as input data and tip position locus data as output data when the motor data is given to the motor, a tip position locus as output data If the inverse model of the arm that estimates the motor data as input data (control data) that can obtain the data as the target value can be obtained, the inverse model corresponds to the tip position locus data that is the target value. It can be used for an arm controller for determining motor data to be performed.

このようなアームの逆モデルとしてのアーム制御器によれば、ロボットに対して、入力データとしての先端位置軌跡データを入力すると、ロボットは、アーム制御器を用いることで、対応するモータデータ(制御データ)を決定することができる。そして、ロボットが、このモータデータにしたがってモータを駆動すれば、ロボットのアームは、入力データとしての先端位置軌跡データに対応した軌跡を描くように移動する。   According to the arm controller as an inverse model of such an arm, when the tip position trajectory data as input data is input to the robot, the robot uses the arm controller, and the corresponding motor data (control Data) can be determined. When the robot drives the motor according to the motor data, the robot arm moves so as to draw a locus corresponding to the tip position locus data as the input data.

以上のように、入力データと出力データとのセット(教示データ)だけを用いて、順モデルや逆モデルを求めることができれば、その順モデルや逆モデルを用いて、各入力データに応じた出力データを出力するロボットを、容易に構成することが可能となる。   As described above, if the forward model and inverse model can be obtained using only the set of input data and output data (teaching data), the output corresponding to each input data can be obtained using the forward model and inverse model. A robot that outputs data can be easily configured.

以上のような順モデルや逆モデルを求める方法としては、線形システムを用いたモデル化がある。   As a method for obtaining the forward model and the inverse model as described above, there is modeling using a linear system.

線形システムを用いたモデル化では、例えば、図4に示すように、時刻tにおける、制御対象への入力データをu(t)とするとともに、出力データをy(t)として、出力データy(t)と入力データu(t)との関係、つまり制御対象を、例えば、式(1)および式(2)で与えられる線形システムとして近似する。   In modeling using a linear system, for example, as shown in FIG. 4, the input data to the controlled object at time t is u (t), the output data is y (t), and the output data y ( The relationship between t) and input data u (t), that is, the controlled object is approximated as a linear system given by, for example, Expression (1) and Expression (2).

Figure 2007280008
Figure 2007280008

Figure 2007280008
Figure 2007280008

ここで、x(t)は、時刻tにおける線形システムの状態変数と呼ばれ、A, B, C は係数である。また、ここでは、説明を簡単にするために、入力データu(t)および出力データy(t)を1次元ベクトル(スカラ)とするとともに、状態変数x(t)をn次元ベクトルとすると(ここでは、nは2以上の整数値)、A,B,Cは、それぞれn×n行列、n×1行列、1×n行列で与えられる定数の行列となる。   Here, x (t) is called a state variable of the linear system at time t, and A, B, and C are coefficients. Further, here, for the sake of simplicity, it is assumed that the input data u (t) and the output data y (t) are one-dimensional vectors (scalars) and the state variable x (t) is an n-dimensional vector ( Here, n is an integer value of 2 or more), and A, B, and C are constant matrices given by an n × n matrix, an n × 1 matrix, and a 1 × n matrix, respectively.

線形システムを用いたモデル化では、観測することができる入力データu(t)と、その入力データu(t)が制御対象に与えられたときに観測される出力データy(t)との関係が、式(1)および式(2)を満たすように、行例A,B,Cを決定することで、制御対象の順モデルが得られる。   In modeling using a linear system, the relationship between the input data u (t) that can be observed and the output data y (t) that is observed when the input data u (t) is given to the controlled object However, by determining the row examples A, B, and C so as to satisfy the equations (1) and (2), the forward model of the controlled object is obtained.

しかしながら、線形システムを用いたモデル化は、複雑な制御対象、即ち、例えば、非線形な特性を持つ制御対象をモデル化するには十分ではない。   However, modeling using a linear system is not sufficient to model a complicated control object, for example, a control object having nonlinear characteristics.

即ち、現実の制御対象は複雑であり、非線形な特性を有することが少なくないが、かかる制御対象を、単純な線形システムとして近似してモデル化すると、順モデルが入力データに対して推定する出力データや、逆モデルが出力データに対して推定する入力データ(制御データ)の推定誤差が大になり、高精度の推定を行うことが困難となる。   In other words, the actual controlled object is complex and often has non-linear characteristics. However, when this controlled object is approximated and modeled as a simple linear system, the output that the forward model estimates for the input data An estimation error of data or input data (control data) estimated by the inverse model with respect to output data becomes large, and it is difficult to perform highly accurate estimation.

そこで、非線形な特性を持つ制御対象に対する順モデルや逆モデルを得る方法としては、例えば、ニューラルネットワークを用いて、教示データ、即ち、制御対象に与えられる入力データと、その入力データが与えられたときに制御対象から観測される出力データとのセットを学習する方法がある。ここで、ニューラルネットワークとは、生体の神経細胞(ニューロン)を模擬した人工素子を相互接続して構成されるネットワークであり、外部から与えられる教示データの関係、つまり、入力データと出力データとの関係を学習することができる。   Therefore, as a method for obtaining a forward model or an inverse model for a controlled object having nonlinear characteristics, for example, using a neural network, teaching data, that is, input data given to the controlled object and its input data are given. There is a method of learning a set with output data observed from a controlled object sometimes. Here, a neural network is a network configured by interconnecting artificial elements simulating living nerve cells (neurons), and the relationship between teaching data given from outside, that is, input data and output data. You can learn the relationship.

しかしながら、ニューラルネットワークによって、制御対象を適切にモデル化するには、制御対象の複雑性に応じて、ニューラルネットワークの規模を大にする必要がある。ニューラルネットワークの規模が大になると、学習に要する時間が飛躍的に増大し、また、安定した学習も難しくなる。このことは、入力データや出力データの次元数が大である場合も同様である。   However, in order to appropriately model a control target with a neural network, it is necessary to increase the scale of the neural network in accordance with the complexity of the control target. As the scale of the neural network increases, the time required for learning increases dramatically, and stable learning becomes difficult. This is the same when the number of dimensions of input data or output data is large.

一方、入力データと出力データとのセット(教示データ)だけを用いて、順モデルや逆モデルを求める場合には、教示データを用いて学習を行い、教示データが、幾つかのパターンのうちのいずれに該当するかを認識する必要がある。即ち、教示データとしての入力データや出力データのパターンを学習して認識する必要がある。   On the other hand, when a forward model or inverse model is obtained using only a set of input data and output data (teaching data), learning is performed using the teaching data, and the teaching data is one of several patterns. It is necessary to recognize which is the case. That is, it is necessary to learn and recognize patterns of input data and output data as teaching data.

パターンを学習して認識を行う技術は、一般にパターン認識(pattern recognition)と呼ばれ、パターン認識における学習は、教師あり学習(supervised learning)と、教師なし学習(unsupervised learning)とに分けることができる。   The technique of learning and recognizing patterns is generally called pattern recognition, and learning in pattern recognition can be divided into supervised learning and unsupervised learning. .

教師あり学習とは、各パターンの学習データがどのクラスに属するかの情報(これを正解ラベルと呼ぶ)を与えて、各パターンごとに、そのパターンに属する学習データを学習する方法であり、ニューラルネットワークや、HMM(Hidden Markov Model)などを用いた学習方法が数多く提案されている。   Supervised learning is a method in which learning data belonging to each pattern is given information (this is called a correct answer label) and learning data belonging to that pattern is learned for each pattern. Many learning methods using networks and HMM (Hidden Markov Model) have been proposed.

ここで、図5は、教師あり学習の一例を示している。   Here, FIG. 5 shows an example of supervised learning.

教師あり学習では、学習に利用する学習データが、想定したカテゴリ(クラス)(例えば、各音素のカテゴリや、各音韻のカテゴリ、各単語のカテゴリなど)ごとに用意される。例えば、"A","B","C"という発声の音声データを学習する場合、"A","B","C"それぞれの多数の音声データが用意されることになる。   In supervised learning, learning data used for learning is prepared for each assumed category (class) (for example, each phoneme category, each phoneme category, each word category, etc.). For example, when learning speech data of utterances “A”, “B”, and “C”, a large number of speech data of “A”, “B”, and “C” are prepared.

一方、学習に利用するモデル(各カテゴリの学習データを学習させるモデル)も、想定したカテゴリごとに用意される。ここで、モデルは、パラメータによって定義される。例えば、音声データの学習には、モデルとして、HMMなどが用いられるが、HMMは、ある状態から他の状態(元の状態を含む)に遷移する状態遷移確率や、HMMから出力される観測値の確率密度を表す出力確率密度関数などによって定義される。   On the other hand, a model used for learning (a model for learning learning data of each category) is also prepared for each assumed category. Here, the model is defined by parameters. For example, for learning speech data, an HMM or the like is used as a model. The HMM is a state transition probability of transition from one state to another state (including the original state) or an observation value output from the HMM. It is defined by an output probability density function representing the probability density of

教師あり学習では、各カテゴリ(クラス)のモデルの学習が、そのカテゴリの学習データのみを用いて行われる。即ち、図5では、カテゴリ"A"のモデルの学習は、カテゴリ"A"の学習データのみを用いて行われ、カテゴリ"B"のモデルの学習は、カテゴリ"B"の学習データのみを用いて行われる。同様に、カテゴリ"C"のモデルの学習も、カテゴリ"C"の学習データのみを用いて行われる。   In supervised learning, learning of a model of each category (class) is performed using only the learning data of that category. That is, in FIG. 5, the model “A” learning is performed using only the category “A” learning data, and the category “B” model learning is performed using only the category “B” learning data. Done. Similarly, learning of the model of category “C” is performed using only the learning data of category “C”.

教師あり学習においては、このように、各カテゴリの学習データを用いて、そのカテゴリのモデルの学習を行う必要があるため、カテゴリごとに、そのカテゴリの学習データを用意し、各カテゴリのモデルの学習に対して、そのカテゴリの学習データを与えて、カテゴリごとのモデルを得る。その結果、教師あり学習によれば、正解ラベルに基づき、クラスごとのテンプレート(正解ラベルが表すクラス(カテゴリ)のモデル)を得ることができる。   In supervised learning, it is necessary to learn the model of the category using the learning data of each category as described above. Therefore, learning data of the category is prepared for each category, and the model of each category is prepared. For learning, learning data of the category is given, and a model for each category is obtained. As a result, according to supervised learning, a template for each class (class (category) model represented by the correct answer label) can be obtained based on the correct answer label.

そして、認識時には、ある認識対象のデータに対し、その認識対象のデータに最も適合(match)するテンプレート(尤度が最も高いテンプレート)が求められ、そのテンプレートの正解ラベルが、認識結果として出力される。   At the time of recognition, for a certain recognition target data, a template (the template with the highest likelihood) that matches the recognition target data is obtained, and the correct answer label of the template is output as a recognition result. The

一方、教師なし学習は、各パターンの学習データに正解ラベルが与えられない状況で行われる学習であり、例えば、ニューラルネットなどを用いた学習方法があるが、正解ラベルが与えられないという点で、教師あり学習とは大きく異なる。   On the other hand, unsupervised learning is learning that is performed in a situation where the correct label is not given to the learning data of each pattern. For example, there is a learning method using a neural network or the like, but the correct answer label is not given. This is very different from supervised learning.

ところで、パターン認識は、そのパターン認識によって認識しようとする認識対象のデータ(信号)が観測される信号空間の量子化と見ることができる。特に、認識対象のデータがベクトルである場合のパターン認識は、ベクトル量子化(vector quantization)と呼ばれることがある。   By the way, pattern recognition can be regarded as quantization of a signal space in which data (signals) to be recognized to be recognized by the pattern recognition is observed. In particular, pattern recognition when the recognition target data is a vector may be referred to as vector quantization.

ベクトル量子化の学習(コードブックの生成)では、認識対象のデータが観測される信号空間上に、クラスに対応する代表的なベクトル(これをセントロイドベクトルと呼ぶ)が配置される。   In vector quantization learning (codebook generation), a representative vector corresponding to a class (referred to as a centroid vector) is arranged in a signal space where data to be recognized is observed.

ベクトル量子化の教師なし学習として代表的な手法の一つに、K-平均法(K-means clustering method)がある。K-平均法は、初期状態として、セントロイドベクトルを適当に配置し、学習データとしてのベクトルを、最も距離の近いセントロイドベクトルに割り当て、各セントロイドベクトルに割り当てられた学習データの平均ベクトルによってセントロイドベクトルを更新することを繰り返す学習手法である。なお、セントロイドベクトルの集まりは、コードブックと呼ばれる。   One of the typical techniques for unsupervised learning of vector quantization is the K-means clustering method. In the K-means method, as an initial state, a centroid vector is appropriately arranged, a vector as learning data is assigned to the nearest centroid vector, and an average vector of learning data assigned to each centroid vector is determined. This is a learning method that repeats updating the centroid vector. A collection of centroid vectors is called a code book.

ここで、多数の学習データを蓄積し、そのすべてを用いて学習を行う方法は、バッチ学習(batch learning)と呼ばれ、K-平均法は、バッチ学習に分類される。バッチ学習に対して、学習データを観測するたびに、その学習データを用いて学習を行い、パラメータ(セントロイドベクトルのコンポーネントや、HMMを定義する出力確率密度関数など)を少しずつ更新する学習は、オンライン学習(on-line learning)と呼ばれる。   Here, a method of accumulating a large number of learning data and performing learning using all of them is called batch learning, and the K-means method is classified as batch learning. For batch learning, when learning data is observed, learning is performed using the learning data, and the parameters (centroid vector components, output probability density function that defines the HMM, etc.) are updated little by little. , Called on-line learning.

オンライン学習としては、コホネン(T.Kohonen)の提案したSOM(self-organization map)による学習が知られている。SOMによる学習では、SOMの入力層と出力層の結合重みが、オンライン学習により少しずつ更新(修正)されていく。   As online learning, learning by SOM (self-organization map) proposed by T. Kohonen is known. In learning by SOM, the connection weight of the input layer and output layer of SOM is updated (corrected) little by little by online learning.

即ち、SOMにおいて、出力層は、複数のノードを有し、出力層の各ノードには、重みベクトルが与えられる。この重みベクトルをセントロイドベクトルとした場合、ベクトル量子化における学習を行うことができる。   That is, in the SOM, the output layer has a plurality of nodes, and a weight vector is given to each node of the output layer. When this weight vector is a centroid vector, learning in vector quantization can be performed.

具体的には、SOMの出力層のノードにおいて、重みベクトルと、学習データとしてのベクトルとの距離が最も近いノードが、その学習データとしてのベクトルに最も適合する勝者ノードに決定され、その勝者ノードの重みベクトルが、学習データとしてのベクトルに近づくように更新される。さらに、勝者ノードの近傍のノードの重みベクトルも、学習データに少しだけ近づくように更新される。その結果、学習が進むにつれ、重みベクトルが類似したノードどうしは近くなるように、類似しないノードは遠くなるように、出力層の上に配置されていく。従って、出力層には、あたかも学習データに含まれるパターンに応じた地図が構成されていくことになる。このように、学習が進むにつれて、類似するノード(重みベクトルが類似するノード)どうしが近い位置に集まり、学習データに含まれるパターンに応じた地図が構成されていく学習は、自己組織的または自己組織化(self-organization)と呼ばれる。   Specifically, in the node of the output layer of the SOM, the node having the closest distance between the weight vector and the vector as the learning data is determined as the winner node that best matches the vector as the learning data, and the winner node Are updated so as to approach the vector as learning data. Furthermore, the weight vector of the node in the vicinity of the winner node is also updated so as to be slightly closer to the learning data. As a result, as learning progresses, similar nodes are arranged on the output layer so that similar nodes become closer and dissimilar nodes become farther away. Therefore, a map corresponding to the pattern included in the learning data is configured in the output layer. In this way, as learning progresses, similar nodes (nodes with similar weight vectors) gather near each other and a map corresponding to the pattern included in the learning data is constructed by self-organization or self This is called self-organization.

ここで、K-平均法では、学習データに最も距離の近いベクトルのみが更新されることから、その更新方法はWTA(winner-take-all)と呼ばれる。一方、SOMによる学習では、学習データに最も距離の近いノード(勝者ノード)の重みベクトルだけでなく、勝者ノードの近傍のノードの重みベクトルも更新されるから、その更新方法はSMA(soft-max adaptation)と呼ばれる。WTAで学習を行うと学習結果が局所解に陥りやすいのに対して、SMAで学習を行うと、局所解に陥る問題を改善することができることが知られている。   Here, in the K-means method, only the vector having the closest distance to the learning data is updated, so the updating method is called WTA (winner-take-all). On the other hand, in learning by SOM, not only the weight vector of the node closest to the learning data (winner node) but also the weight vector of the node near the winner node is updated, so the update method is SMA (soft-max called adaptation). It is known that when learning with WTA, the learning result tends to fall into a local solution, whereas when learning with SMA, the problem of falling into a local solution can be improved.

なお、SOMに関しては、例えば、非特許文献1に記載されている。   Note that SOM is described in Non-Patent Document 1, for example.

T.コホネン、「自己組織化マップ」、シュプリンガー・フェアラーク東京T. Kohonen, “Self-Organizing Map”, Springer Fairlark Tokyo

ところで、ロボットの実世界での振る舞い(行動)をより自然にするため、ロボット自身が自分の行動を通して認知行動の構造を獲得するための枠組みの研究が行われている。この枠組みは、「認知行動アーキテクチャ」と呼ばれる。ここで、認知行動とは、例えば、ロボット等が、外部の状態(ロボット自身の状態も含む)を認知(認識)し、その認知結果に応じて行動をとることを意味する。   By the way, in order to make the behavior (behavior) of the robot in the real world more natural, research is being conducted on a framework for the robot itself to acquire the structure of cognitive behavior through its own behavior. This framework is called “Cognitive Behavioral Architecture”. Here, the recognition behavior means that, for example, a robot or the like recognizes (recognizes) an external state (including the state of the robot itself) and takes an action according to the recognition result.

これまでの多くのロボット行動制御の方法論が、事前に作りこみ(ロボットの設計者等によるプログラミング)を行って行動を発現させていたのに対して、「認知行動アーキテクチャ」は、できる限り作りこみを排除し、自己探索、教示、ものまねなどに基づいて認知行動を獲得させる方法論である。このような「認知行動アーキテクチャ」で行動を獲得したロボットは、与えられた環境に適応し、頑健に振る舞える可能性がある。   While many of the previous robot behavior control methodologies have been pre-made (programming by robot designers, etc.) to express their behavior, the “cognitive behavior architecture” is made as much as possible. Is a methodology for acquiring cognitive behavior based on self-search, teaching, and imitation. A robot that has acquired an action with such a “cognitive behavior architecture” may adapt to a given environment and behave robustly.

「認知行動アーキテクチャ」は、例えば、外部の状態を検知するセンサが出力するセンサデータに対して、ロボットを駆動するモータに供給されるモータデータとして、適切なモータデータを計算する問題に抽象化することができる。ここでいう「適切」には、知的であるといった深い意味が込められている。   The “cognitive behavior architecture” is abstracted into a problem of calculating appropriate motor data as motor data supplied to a motor that drives a robot, for example, with respect to sensor data output by a sensor that detects an external state. be able to. “Appropriate” here has a deep meaning of being intelligent.

一般に、センサが出力するセンサデータと、モータに供給されるモータデータとは、いずれも連続的な時系列データである。また、現在とるべき行動は、現在の外部の状態のみならず、過去の外部の状態や、過去にとった認知行動等を必要に応じて考慮して決定する必要がある。即ち、現在とるべき認知行動の決定にあたっては、コンテキストを扱う必要性がある。さらに、実世界での認知行動を行うロボットでは、センサデータやモータデータとして、次元数の大きなデータを扱う必要がある。また、かかるロボットで扱うセンサデータやモータデータの振る舞いは複雑であり、線形システムでモデル化することは困難である。そして、「認知行動アーキテクチャ」を実世界に適用するには、上述のようなセンサデータやモータデータを効率良く取り扱う方法が必要となる。   In general, both sensor data output from a sensor and motor data supplied to a motor are continuous time-series data. Further, the action to be taken now needs to be determined in consideration of not only the current external state but also the past external state, the past cognitive behavior, and the like as necessary. In other words, there is a need to handle context in determining the cognitive behavior that should be taken now. Furthermore, a robot that performs cognitive behavior in the real world needs to handle data with a large number of dimensions as sensor data or motor data. In addition, the behavior of sensor data and motor data handled by such robots is complicated, and it is difficult to model with a linear system. In order to apply the “cognitive behavior architecture” to the real world, a method for efficiently handling the sensor data and motor data as described above is required.

そこで、センサデータやモータデータのような時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される時系列パターン記憶ネットワークによって、多次元のベクトルの時系列であるセンサデータやモータデータなどの時系列データを自己組織的に学習し、さらに、入力データとしての時系列データを学習した時系列パターン記憶ネットワークと、出力データとしての時系列データを学習した時系列パターン記憶ネットワークとのノードどうしを結合し、入力データに基づき、外部の状態を認知し、その認知結果に応じてロボットがとるべき行動に対応する出力データを生成する方法について、本件出願人は、先に提案している(例えば、特願2004-353382号)。   Therefore, a time-series pattern storage network composed of a plurality of nodes having a time-series pattern model that represents a time-series pattern that is a pattern of time-series data such as sensor data and motor data, and a time series of multidimensional vectors When learning time-series data such as sensor data and motor data in a self-organized manner, further learning time-series data as input data, and learning time-series data as output data Regarding the method of combining nodes with a sequence pattern storage network, recognizing an external state based on input data, and generating output data corresponding to the action to be taken by the robot according to the recognition result, Have previously proposed (for example, Japanese Patent Application No. 2004-353382).

先に提案した方法によれば、多次元のベクトルの時系列のような、入力データと出力データとの対応関係(例えば、五十音の音声データと、その音声データをまねた(聞きまねした)音声データとの対応関係)や、センサデータとモータデータとの対応関係のようなクロスモーダルな対応関係(例えば、人が視覚(ビジョン)によって獲得する情報と、その情報に対してとる行動(行う運動)との対応関係)を学習することができる。   According to the previously proposed method, the correspondence between input data and output data, such as a time series of multidimensional vectors (for example, imitating 50-sound audio data and its audio data) ) Correspondence relationship with audio data) and cross-modal correspondence relationships such as correspondence relationship between sensor data and motor data (for example, information acquired by a person through vision (vision) and actions taken on the information ( The correspondence relationship with the exercise to be performed) can be learned.

しかしながら、先に提案した方法では、時系列データの自己組織的な構造生成と、時系列データどうしの間の静的な対応関係の学習とを行うが、その方法を適用することができるタスクとしては、実時間性が要求されないタスクに制限されることがあった。   However, in the method proposed earlier, self-organized structure generation of time-series data and static correspondence between time-series data are learned. As tasks that can be applied to this method, May be limited to tasks that do not require real-time capability.

即ち、例えば、動いている物体に対し、その物体を追いかけるような働きかけをするタスクには、現に動いている物体の状態の認知と、その認知結果に応じて物体を追いかけるという行動とを、実時間で連続的に行うことが要求されるが、先に提案した方法では、かかるタスクの学習が困難なことがあった。   That is, for example, in a task of chasing an object that is moving, the task of recognizing the state of the object that is actually moving and the action of chasing the object according to the recognition result are implemented. Although it is required to perform it continuously in time, it is sometimes difficult to learn such a task in the method proposed above.

本発明は、このような状況に鑑みてなされたものであり、例えば、ロボット等が、実時間性が要求されるタスクを行うことができるようにするものである。   The present invention has been made in view of such a situation. For example, a robot or the like can perform a task that requires real-time performance.

本発明の第1の側面のデータ処理装置は、時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置において、前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出する入出力データ抽出手段と、前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークとを有し、前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第1の入力勝者ノードを決定し、前記第1の入力勝者ノードに基づいて、前記第1の入力時系列パターン記憶ネットワークを、自己組織的に更新する第1の認識学習処理手段と、前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第2の入力勝者ノードを決定し、前記第2の入力勝者ノードに基づいて、前記第2の入力時系列パターン記憶ネットワークを、自己組織的に更新する第2の認識学習処理手段と、前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新する生成学習処理手段と、前記第1の入力時系列パターン記憶ネットワークの前記所定の時間単位の入力データに対する前記第1の入力勝者ノードと、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理とを行う結合重み更新手段とを備える。   A data processing device according to a first aspect of the present invention is a data processing device that learns a relationship between input data that is time-series data and output data that is other time-series data. Input / output data extracting means for extracting input data in time units and extracting the output data in predetermined time units from the output data, and expressing a time series pattern that is a pattern of time series data as the input data A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model, a second input time series pattern storage network, and a time series pattern which is a pattern of time series data as the output data Output time series pattern memory composed of multiple nodes with time series pattern model to express A second input time-series pattern storage network and a node of the first input time-series pattern storage network and a node of the second input time-series pattern storage network. Among the nodes of the first input time-series pattern storage network in the input / output relation model in which the nodes of the output time-series pattern storage network are coupled to each other. A first recognition learning process for determining a first input winner node that is a suitable node and updating the first input time-series pattern storage network in a self-organized manner based on the first input winner node And a predetermined time unit input data from the second input time-series pattern storage network node. A second input winner node that is a node that best fits the data, and based on the second input winner node, the second input time-series pattern storage network is updated in a self-organizing manner. From the recognition learning processing means and the node of the output time series pattern storage network, determine the output winner node that is the most suitable node for the output data of the predetermined time unit, based on the output winner node, A generation learning processing means for updating the output time-series pattern storage network in a self-organized manner, the first input winner node for the input data in the predetermined time unit of the first input time-series pattern storage network, The predetermined time delayed by a predetermined time from the time of the input data in the predetermined time unit of the second input time series pattern storage network A process for updating the second input time series pattern storage network to update the connection weight representing the degree of connection with the second input winner node with respect to the input data in the time unit, and the input in the predetermined time unit; The second input winner node for the input data of the predetermined time unit delayed by a predetermined time from the time of the data and the time of the input data of the predetermined time unit of the output time series pattern storage network A connection weight updating unit that performs a process of updating the connection data representing the degree of connection with the output winner node with respect to the output data of the predetermined time unit delayed by the time.

本発明の第1の側面のデータ処理方法、またはプログラムは、時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置のデータ処理方法、または時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理を、コンピュータに実行させるプログラムにおいて、前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出し、前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークとを有し、前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第1の入力勝者ノードを決定し、前記第1の入力勝者ノードに基づいて、前記第1の入力時系列パターン記憶ネットワークを、自己組織的に更新し、前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第2の入力勝者ノードを決定し、前記第2の入力勝者ノードに基づいて、前記第2の入力時系列パターン記憶ネットワークを、自己組織的に更新し、前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新し、前記第1の入力時系列パターン記憶ネットワークの前記所定の時間単位の入力データに対する前記第1の入力勝者ノードと、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理とを行うステップを含む。   A data processing method or program according to the first aspect of the present invention is a data processing method for a data processing apparatus that learns a relationship between input data that is time-series data and output data that is other time-series data, Alternatively, in a program that causes a computer to execute data processing for learning the relationship between input data that is time-series data and output data that is other time-series data, input data in a predetermined time unit is input from the input data. It is composed of a plurality of nodes having a time-series pattern model that extracts the output data of the predetermined time unit from the output data and expresses a time-series pattern that is a pattern of time-series data as the input data. A first input time-series pattern storage network and a second input time-series pattern storage network, An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as output data, and the first input time series pattern A node of the storage network and a node of the second input time-series pattern storage network, and a node of the second input time-series pattern storage network; a node of the output time-series pattern storage network; A first input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the first input time-series pattern storage network in the input / output relationship model to which , Based on the first input winner node, the first input time series pattern description The network is updated in a self-organized manner, and a second input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the second input time series pattern storage network. The second input time-series pattern storage network is updated in a self-organized manner based on the second input winner node, and the predetermined time unit is updated from the nodes of the output time-series pattern storage network. An output winner node which is a node most suitable for output data is determined, and based on the output winner node, the output time series pattern storage network is updated in a self-organized manner, and the first input time series pattern storage network is updated. The first input winner node for the input data of the predetermined time unit and the second input time series pattern storage network The work weight is updated so as to increase the connection weight indicating the degree of connection with the second input winner node for the input data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit. And a second input winner node for the input data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the second input time-series pattern storage network A connection weight representing a degree of connection with the output winner node for the output data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the output time series pattern storage network. And a step of performing a process of updating to strengthen.

以上のような本発明の第1の側面においては、前記入力データから所定の時間単位の入力データが抽出されるとともに、前記出力データから前記所定の時間単位の出力データが抽出される。さらに、前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第1の入力勝者ノードを決定し、前記第1の入力勝者ノードに基づいて、前記第1の入力時系列パターン記憶ネットワークを、自己組織的に更新すること、前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第2の入力勝者ノードを決定し、前記第2の入力勝者ノードに基づいて、前記第2の入力時系列パターン記憶ネットワークを、自己組織的に更新すること、および、前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新することが行われる。そして、前記第1の入力時系列パターン記憶ネットワークの前記所定の時間単位の入力データに対する前記第1の入力勝者ノードと、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードとの結合の度合いを表す結合重みが強めるように更新されるとともに、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みが強めるように更新される。   In the first aspect of the present invention as described above, input data in a predetermined time unit is extracted from the input data, and output data in the predetermined time unit is extracted from the output data. Further, a first input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the first input time-series pattern storage network, and the first input winner node is determined. The first input time-series pattern storage network is updated in a self-organized manner, and the input data of the predetermined time unit is the most out of the nodes of the second input time-series pattern storage network. Determining a second input winner node that is a matching node, updating the second input time-series pattern storage network in a self-organized manner based on the second input winner node, and the output From among the nodes of the time-series pattern storage network, an output winner node that is a node most suitable for the output data of the predetermined time unit is determined. Based on the output winning node, the output time series pattern storage network, it is performed to update self-organizing manner. The first input winner node for the input data of the predetermined time unit of the first input time series pattern storage network and the input of the predetermined time unit of the second input time series pattern storage network A connection weight representing the degree of connection with the second input winner node for the input data in the predetermined time unit delayed by a certain time from the time of the data is updated so as to increase, and at the time of the second input The second input winner node for the input data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the sequence pattern storage network, and the output time series pattern storage network of The output data of the predetermined time unit delayed by a certain time from the time of the input data of the predetermined time unit Connection weight representing the degree of coupling between the output winning node is updated to enhance.

本発明の第2の側面のデータ処理装置は、時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置において、前記入力データから所定の時間単位の入力データを抽出する入力データ抽出手段と、前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークとを有し、前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定する入力勝者ノード決定手段と、前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定する生成ノード決定手段と、前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する生成手段とを備える。   A data processing device according to a second aspect of the present invention is a data processing device that generates output data that is other time-series data with respect to input data that is time-series data. Input data extracting means for extracting input data, and a first input time series pattern storage composed of a plurality of nodes having a time series pattern model representing a time series pattern which is a pattern of time series data as the input data Network, second input time-series pattern storage network, and output time-series pattern storage composed of a plurality of nodes having a time-series pattern model representing a time-series pattern that is a pattern of time-series data as the output data A node of the first input time-series pattern storage network, A node of the second input time series pattern storage network is coupled, and a node of the second input time series pattern storage network and a node of the output time series pattern storage network are coupled. An input winner node determining means for determining an input winner node that is a node most suitable for the input data of the predetermined time unit from among the nodes of the first input time-series pattern storage network in the output relation model; Finding the strongest coupling node that is the strongest node with the input winner node from among the two input time-series pattern storage network nodes, and selecting the strongest coupling node from among the nodes of the output time-series pattern storage network The node that has the strongest connection with is determined as the generation node that generates the output data And generating node determining means that, based on the time series pattern models the generation node has, and a generation means for generating the output data.

本発明の第2の側面のデータ処理方法、またはプログラムは、時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置のデータ処理方法、または時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理を、コンピュータに実行させるプログラムにおいて、前記入力データから所定の時間単位の入力データを抽出し、前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークとを有し、前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定し、前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成するステップを含む。   A data processing method or program according to a second aspect of the present invention provides a data processing method or a time series for a data processing device that generates output data that is other time-series data for input data that is time-series data. In a program that causes a computer to execute data processing for generating output data that is other time-series data with respect to input data that is data, input data in a predetermined time unit is extracted from the input data, and the input data A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern that is a pattern of time series data as a second input time series pattern storage network, A time series expressing a time series pattern which is a pattern of time series data as the output data An output time-series pattern storage network composed of a plurality of nodes having a turn model, and a node of the first input time-series pattern storage network and a node of the second input time-series pattern storage network The first input time series pattern storage network in the input / output relation model in which the nodes of the second input time series pattern storage network and the nodes of the output time series pattern storage network are coupled. An input winner node which is a node most suitable for the input data of the predetermined time unit is determined from among the nodes of the second input time series pattern storage network, and the input winner node is determined from the nodes of the second input time series pattern storage network Find the strongest coupling node that is the strongest node of coupling, and output the time series pattern A node having the strongest connection with the strongest connection node is determined as a generation node for generating the output data from the nodes of the storage network, and the output data is based on the time-series pattern model of the generation node. The step of generating is included.

以上のような本発明の第2の側面においては、前記入力データから所定の時間単位の入力データが抽出され、前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードが決定される。さらに、前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードが求められ、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードが、前記出力データを生成する生成ノードとして決定される。そして、前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データが生成される。   In the second aspect of the present invention as described above, input data in a predetermined time unit is extracted from the input data, and the predetermined time unit is extracted from the nodes of the first input time series pattern storage network. The input winner node which is the node most suitable for the input data is determined. Further, a strongest connection node that is a node having the strongest connection with the input winner node is obtained from the nodes of the second input time-series pattern storage network, and is selected from the nodes of the output time-series pattern storage network. The node having the strongest connection with the strongest connection node is determined as the generation node that generates the output data. Then, the output data is generated based on the time series pattern model of the generation node.

本発明の第3の側面のデータ処理装置は、時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置において、前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出する入出力データ抽出手段と、前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークとを有し、前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、前記入力勝者ノードに基づいて、前記入力時系列パターン記憶ネットワークを、自己組織的に更新する認識学習処理手段と、前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新する生成学習処理手段と、前記入力時系列パターン記憶ネットワークの前記入力勝者ノードのうちの、前記所定の時間単位の入力データに対する第1の入力勝者ノードと、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、前記入力時系列パターン記憶ネットワークの前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理とを行う結合重み更新手段とを備える。   A data processing device according to a third aspect of the present invention is a data processing device that learns a relationship between input data that is time-series data and output data that is other time-series data. Input / output data extracting means for extracting input data in time units and extracting the output data in predetermined time units from the output data, and expressing a time series pattern that is a pattern of time series data as the input data An input time-series pattern storage network composed of a plurality of nodes having a time-series pattern model, and a plurality of nodes having a time-series pattern model representing a time-series pattern that is a pattern of time-series data as the output data Output time series pattern storage network, and the input time series pattern storage network Of the input time-series pattern storage network in the input / output relation model in which the nodes of the input time-series pattern storage network and the nodes of the output time-series pattern storage network are coupled to each other An input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes, and the input time series pattern storage network is updated in a self-organized manner based on the input winner node. From the recognition learning processing means and the node of the output time series pattern storage network, determine the output winner node that is the most suitable node for the output data of the predetermined time unit, based on the output winner node, Generative learning to update the output time-series pattern storage network in a self-organizing manner A first input winner node for the input data of the predetermined time unit among the input winner nodes of the input time-series pattern storage network and a time of the input data of the predetermined time unit A process of updating the input data of the predetermined time unit delayed by time so as to increase a connection weight indicating a degree of connection with the second input winner node, and the second input of the input time-series pattern storage network A degree of coupling between the winner node and the output winner node for the output data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit in the output time series pattern storage network And a connection weight updating unit that performs a process of updating the connection weight so as to increase the connection weight.

本発明の第3の側面のデータ処理方法、またはプログラムは、時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置のデータ処理方法、または時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理を、コンピュータに実行させるプログラムにおいて、前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出し、前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークとを有し、前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、前記入力勝者ノードに基づいて、前記入力時系列パターン記憶ネットワークを、自己組織的に更新し、前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新し、前記入力時系列パターン記憶ネットワークの前記入力勝者ノードのうちの、前記所定の時間単位の入力データに対する第1の入力勝者ノードと、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、前記入力時系列パターン記憶ネットワークの前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理とを行うステップを含む。   A data processing method or program according to a third aspect of the present invention is a data processing method for a data processing apparatus that learns a relationship between input data that is time-series data and output data that is other time-series data, Alternatively, in a program that causes a computer to execute data processing for learning the relationship between input data that is time-series data and output data that is other time-series data, input data in a predetermined time unit is input from the input data. It is composed of a plurality of nodes having a time-series pattern model that extracts the output data of the predetermined time unit from the output data and expresses a time-series pattern that is a pattern of time-series data as the input data. Input time-series pattern storage network and time-series data pattern as the output data An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a pattern, the nodes of the input time-series pattern storage network being coupled to each other, and the input time-series pattern Among the nodes of the input time-series pattern storage network in the input / output relationship model in which the nodes of the storage network and the nodes of the output time-series pattern storage network are combined, the best fit to the input data in the predetermined time unit An input winner node that is a node to be updated, and based on the input winner node, updates the input time-series pattern storage network in a self-organized manner, and selects the predetermined time from the nodes of the output time-series pattern storage network No that best fits the output data of time unit An output winner node is determined, and based on the output winner node, the output time-series pattern storage network is updated in a self-organized manner, and the input time-series pattern storage network of the input winner nodes A first input winner node for input data of a predetermined time unit, and a second input winner node for input data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit Update processing to increase the connection weight representing the degree of connection, the second input winner node of the input time series pattern storage network, and the input data of the predetermined time unit of the output time series pattern storage network Of the output winner node for the output data of the predetermined time unit delayed by a certain time from the time of And a process of updating so as to increase the connection weight representing the degree.

以上のような本発明の第3の側面においては、前記入力データから所定の時間単位の入力データが抽出されるとともに、前記出力データから前記所定の時間単位の出力データが抽出される。さらに、前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードが決定され、前記入力勝者ノードに基づいて、前記入力時系列パターン記憶ネットワークが、自己組織的に更新されるとともに、前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードが決定され、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークが、自己組織的に更新される。そして、前記入力時系列パターン記憶ネットワークの前記入力勝者ノードのうちの、前記所定の時間単位の入力データに対する第1の入力勝者ノードと、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する第2の入力勝者ノードとの結合の度合いを表す結合重みが強めるように更新されるとともに、前記入力時系列パターン記憶ネットワークの前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みが強めるように更新される。   In the third aspect of the present invention as described above, input data in a predetermined time unit is extracted from the input data, and output data in the predetermined time unit is extracted from the output data. Further, an input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the input time series pattern storage network, and the input time series pattern is determined based on the input winner node. The storage network is updated in a self-organized manner, and an output winner node that is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time-series pattern storage network, and the output Based on the winner node, the output time series pattern storage network is updated in a self-organizing manner. And among the input winner nodes of the input time-series pattern storage network, a first input winner node for the input data in the predetermined time unit and a predetermined time from the time of the input data in the predetermined time unit The second input winner node of the input time-series pattern storage network is updated so as to increase the connection weight indicating the degree of connection with the second input winner node for the delayed input data of the predetermined time unit. And a connection weight representing a degree of connection with the output winner node for the output data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit in the output time series pattern storage network Will be updated to strengthen.

本発明の第4の側面のデータ処理装置は、時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置において、前記入力データから所定の時間単位の入力データを抽出する入力データ抽出手段と、前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークとを有し、前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定する入力勝者ノード決定手段と、前記入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定する生成ノード決定手段と、前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する生成手段とを備える。   A data processing device according to a fourth aspect of the present invention is a data processing device that generates output data that is other time-series data with respect to input data that is time-series data. Input data extracting means for extracting input data; an input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern which is a pattern of time series data as the input data; An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as the output data, and the input time series pattern storage network The nodes are connected to each other, and the input time series pattern storage network Among the nodes of the input time-series pattern storage network in the input / output relationship model in which the nodes of the output time-series pattern storage network are coupled to each other. An input winner node determining means for determining an input winner node that is a node to be determined, and determining a strongest coupled node that is a node having the strongest coupling with the input winner node from the nodes of the input time-series pattern storage network, Generation node determination means for determining, as a generation node for generating the output data, a node having the strongest connection with the strongest connection node among the nodes of the output time series pattern storage network; and the time series possessed by the generation node Generating means for generating the output data based on a pattern model.

本発明の第4の側面のデータ処理方法、またはプログラムは、時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置のデータ処理方法、または時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理を、コンピュータに実行させるプログラムにおいて、前記入力データから所定の時間単位の入力データを抽出し、前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークとを有し、前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、前記入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定し、前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成するステップを含む。   A data processing method or program according to a fourth aspect of the present invention provides a data processing method or a time series for a data processing device that generates output data that is other time-series data for input data that is time-series data. In a program that causes a computer to execute data processing for generating output data that is other time-series data with respect to input data that is data, input data in a predetermined time unit is extracted from the input data, and the input data An input time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a time-series data pattern, and a time-series that is a pattern of time-series data as the output data Output time composed of multiple nodes with a time-series pattern model that represents the pattern A node of the input time series pattern storage network and a node of the output time series pattern storage network are coupled to each other. Determining an input winner node which is a node most suitable for the input data of the predetermined time unit from among the nodes of the input time series pattern storage network in the input / output relation model, Among the nodes, a strongest connection node that is the strongest node with the input winner node is obtained, and a node with the strongest connection with the strongest connection node is selected from the nodes of the output time-series pattern storage network. Determine as a generation node for generating the output data, Based on the time series pattern model consisting node has, comprises generating the output data.

以上のような本発明の第4の側面においては、前記入力データから所定の時間単位の入力データが抽出され、前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードが決定される。さらに、前記入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードが求められ、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードが、前記出力データを生成する生成ノードとして決定される。そして、前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データが生成される。   In the fourth aspect of the present invention as described above, input data in a predetermined time unit is extracted from the input data, and the input data in the predetermined time unit is extracted from the nodes of the input time series pattern storage network. The input winner node that is the node that best fits is determined. Further, a strongest connection node that is a node having the strongest connection with the input winner node is obtained from the nodes of the input time series pattern storage network, and the strongest connection node is obtained from the nodes of the output time series pattern storage network. The node having the strongest connection with the combination node is determined as the generation node that generates the output data. Then, the output data is generated based on the time series pattern model of the generation node.

本発明の第1乃至第4の側面によれば、例えば、ロボット等が、実時間性が要求されるタスクを行うことができるようになる。   According to the first to fourth aspects of the present invention, for example, a robot or the like can perform a task that requires real-time performance.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の第1の側面のデータ処理装置は、
時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置であり、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出する入出力データ抽出手段(例えば、図32のデータ抽出部312)と、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet1)、および第2の入力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet3)と、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet2)と
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデル(例えば、図33の入出力関係モデルM123)における前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第1の入力勝者ノードを決定し、前記第1の入力勝者ノードに基づいて、前記第1の入力時系列パターン記憶ネットワークを、自己組織的に更新する第1の認識学習処理手段(例えば、図32の認識学習処理部321)と、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第2の入力勝者ノードを決定し、前記第2の入力勝者ノードに基づいて、前記第2の入力時系列パターン記憶ネットワークを、自己組織的に更新する第2の認識学習処理手段(例えば、図32の認識学習処理部421)と、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新する生成学習処理手段(例えば、図32の生成学習処理部322)と、
前記第1の入力時系列パターン記憶ネットワークの前記所定の時間単位の入力データに対する前記第1の入力勝者ノードと、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う結合重み更新手段(例えば、図32の結合重み更新部433)と
を備える。
A data processing device according to the first aspect of the present invention provides:
A data processing device that learns the relationship between input data that is time-series data and output data that is other time-series data,
Input / output data extraction means (for example, the data extraction unit 312 in FIG. 32) that extracts the input data in a predetermined time unit from the input data and extracts the output data in the predetermined time unit from the output data;
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data (for example, the time series pattern storage of FIG. 33). Network net 1 ), and a second input time series pattern storage network (eg, time series pattern storage network net 3 in FIG. 33);
An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as the output data (for example, the time series pattern storage network net 2 in FIG. 33). ) And
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output Among the nodes of the first input time-series pattern storage network in the input-output relation model (for example, the input-output relation model M 123 in FIG. 33) connected to the nodes of the time-series pattern storage network. A first input winner node which is a node most suitable for time unit input data is determined, and the first input time series pattern storage network is updated in a self-organized manner based on the first input winner node. First recognition learning processing means (for example, a recognition learning processing unit 321 in FIG. 32),
A second input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the second input time-series pattern storage network, and based on the second input winner node A second recognition learning processing means for updating the second input time-series pattern storage network in a self-organizing manner (for example, a recognition learning processing unit 421 in FIG. 32);
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. And a generation learning processing means (for example, the generation learning processing unit 322 in FIG.
The first input winner node for the input data of the predetermined time unit of the first input time series pattern storage network and the input data of the predetermined time unit of the second input time series pattern storage network A process of updating so as to increase the coupling weight indicating the degree of coupling with the second input winner node for the input data in the predetermined time unit delayed by a certain time from the time;
The second input winner node for the input data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the second input time series pattern storage network, and the output time Update the sequence pattern storage network to increase the connection weight indicating the degree of connection with the output winner node for the output data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit. And a connection weight update unit (for example, a connection weight update unit 433 in FIG. 32).

本発明の第1の側面のデータ処理方法、またはプログラムは、
時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置のデータ処理方法、または時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理を、コンピュータに実行させるプログラムであり、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出し(例えば、図35のステップS331)、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet1)、および第2の入力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet3)と、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet2)と
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデル(例えば、図33の入出力関係モデルM123)における前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第1の入力勝者ノードを決定し、前記第1の入力勝者ノードに基づいて、前記第1の入力時系列パターン記憶ネットワークを、自己組織的に更新し(例えば、図35のステップS3321)、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第2の入力勝者ノードを決定し、前記第2の入力勝者ノードに基づいて、前記第2の入力時系列パターン記憶ネットワークを、自己組織的に更新し(例えば、図35のステップS3322)、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新し(例えば、図35のステップS3323)、
前記第1の入力時系列パターン記憶ネットワークの前記所定の時間単位の入力データに対する前記第1の入力勝者ノードと、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う(例えば、図35のステップS334)
ステップを含む。
A data processing method or program according to the first aspect of the present invention includes:
A data processing method for a data processing device that learns the relationship between input data that is time-series data and output data that is other time-series data, or input data that is time-series data and other time-series data Is a program that causes a computer to execute data processing for learning the relationship with output data,
Extracting input data in a predetermined time unit from the input data, and extracting output data in the predetermined time unit from the output data (for example, step S331 in FIG. 35),
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data (for example, the time series pattern storage of FIG. 33). Network net 1 ), and a second input time series pattern storage network (eg, time series pattern storage network net 3 in FIG. 33);
An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as the output data (for example, the time series pattern storage network net 2 in FIG. 33). ) And
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output Among the nodes of the first input time-series pattern storage network in the input-output relation model (for example, the input-output relation model M 123 in FIG. 33) connected to the nodes of the time-series pattern storage network. A first input winner node which is a node most suitable for time unit input data is determined, and the first input time series pattern storage network is updated in a self-organized manner based on the first input winner node. (For example, step S332 1 in FIG. 35),
A second input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the second input time-series pattern storage network, and based on the second input winner node Updating the second input time-series pattern storage network in a self-organizing manner (for example, step S332 2 in FIG. 35),
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. Is updated in a self-organizing manner (for example, step S332 3 in FIG. 35),
The first input winner node for the input data of the predetermined time unit of the first input time series pattern storage network and the input data of the predetermined time unit of the second input time series pattern storage network A process of updating so as to increase the coupling weight indicating the degree of coupling with the second input winner node for the input data in the predetermined time unit delayed by a certain time from the time;
The second input winner node for the input data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the second input time series pattern storage network, and the output time Update the sequence pattern storage network to increase the connection weight indicating the degree of connection with the output winner node for the output data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit. (For example, step S334 in FIG. 35)
Includes steps.

本発明の第2の側面のデータ処理装置は、
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置であり、
前記入力データから所定の時間単位の入力データを抽出する入力データ抽出手段(例えば、図32のデータ抽出部315)と、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet1)、および第2の入力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet3)と、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet2)と
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデル(例えば、図33の入出力関係モデルM123)における前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定する入力勝者ノード決定手段(例えば、図32の勝者ノード決定部342)と、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定する生成ノード決定手段(例えば、図32の生成ノード決定部451)と、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する生成手段(例えば、図32の時系列生成部361)と
を備える。
A data processing apparatus according to the second aspect of the present invention provides:
A data processing device that generates output data that is other time-series data for input data that is time-series data,
Input data extraction means (for example, the data extraction unit 315 in FIG. 32) for extracting input data in predetermined time units from the input data;
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data (for example, the time series pattern storage of FIG. 33). Network net 1 ), and a second input time series pattern storage network (eg, time series pattern storage network net 3 in FIG. 33);
An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as the output data (for example, the time series pattern storage network net 2 in FIG. 33). ) And
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output Among the nodes of the first input time-series pattern storage network in the input-output relation model (for example, the input-output relation model M 123 in FIG. 33) connected to the nodes of the time-series pattern storage network. An input winner node determining means (for example, a winner node determining unit 342 in FIG. 32) for determining an input winner node which is a node most suitable for time-unit input data;
From the nodes of the second input time-series pattern storage network, a strongest connection node that is the strongest node with the input winner node is obtained, and from the nodes of the output time-series pattern storage network, the strongest connection node is obtained. A generation node determination unit (for example, a generation node determination unit 451 in FIG. 32) that determines a node having the strongest connection with a combination node as a generation node that generates the output data;
Generation means (for example, a time series generation unit 361 in FIG. 32) that generates the output data based on the time series pattern model of the generation node.

本発明の第2の側面のデータ処理方法、またはプログラムは、
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置のデータ処理方法、または時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理を、コンピュータに実行させるプログラムであり、
前記入力データから所定の時間単位の入力データを抽出し(例えば、図36のステップS341)、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet1)、および第2の入力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet3)と、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワーク(例えば、図33の時系列パターン記憶ネットワークnet2)と
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデル(例えば、図33の入出力関係モデルM123)における前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し(例えば、図36のステップS342)、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定し(例えば、図36のステップS343)、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する(例えば、図36のステップS344)
ステップを含む。
A data processing method or program according to the second aspect of the present invention includes:
A data processing method of a data processing device that generates output data that is other time series data for input data that is time series data, or other time series data for input data that is time series data A program for causing a computer to execute data processing for generating output data,
Extracting input data in a predetermined time unit from the input data (for example, step S341 in FIG. 36),
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data (for example, the time series pattern storage of FIG. 33). Network net 1 ), and a second input time series pattern storage network (eg, time series pattern storage network net 3 in FIG. 33);
An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as the output data (for example, the time series pattern storage network net 2 in FIG. 33). ) And
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output Among the nodes of the first input time-series pattern storage network in the input-output relation model (for example, the input-output relation model M 123 in FIG. 33) connected to the nodes of the time-series pattern storage network. An input winner node which is a node most suitable for input data in time units is determined (for example, step S342 in FIG. 36),
From the nodes of the second input time-series pattern storage network, a strongest connection node that is the strongest node with the input winner node is obtained, and from the nodes of the output time-series pattern storage network, the strongest connection node is obtained. A node having the strongest combination with the combination node is determined as a generation node that generates the output data (for example, step S343 in FIG. 36),
The output data is generated based on the time series pattern model of the generation node (for example, step S344 in FIG. 36).
Includes steps.

本発明の第3の側面のデータ処理装置は、
時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置であり、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出する入出力データ抽出手段(例えば、図38のデータ抽出部312)と、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワーク(例えば、図37の時系列パターン記憶ネットワークnet1)と、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワーク(例えば、図37の時系列パターン記憶ネットワークnet2)と
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデル(例えば、図37の入出力関係モデルM'123)における前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、前記入力勝者ノードに基づいて、前記入力時系列パターン記憶ネットワークを、自己組織的に更新する認識学習処理手段(例えば、図38の認識学習処理部321)と、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新する生成学習処理手段(例えば、図38の生成学習処理部322)と、
前記入力時系列パターン記憶ネットワークの前記入力勝者ノードのうちの、前記所定の時間単位の入力データに対する第1の入力勝者ノードと、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記入力時系列パターン記憶ネットワークの前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う結合重み更新手段(例えば、図38の結合重み更新部1433)と
を備える。
A data processing device according to the third aspect of the present invention provides:
A data processing device that learns the relationship between input data that is time-series data and output data that is other time-series data,
Input / output data extraction means (for example, the data extraction unit 312 in FIG. 38) for extracting the input data in a predetermined time unit from the input data and extracting the output data in the predetermined time unit from the output data;
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern that is a pattern of time series data as the input data (for example, the time series pattern storage network net 1 in FIG. 37). )When,
An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as the output data (for example, the time series pattern storage network net 2 in FIG. 37) ) And
The input time-series pattern storage network nodes are coupled to each other, and the input time-series pattern storage network node and the output time-series pattern storage network node are coupled to each other. The input winner node which is the node most suitable for the input data of the predetermined time unit is determined from the nodes of the input time series pattern storage network in the input / output relation model M ′ 123 ) of FIG. 37, and the input winner is determined. Recognition learning processing means (for example, recognition learning processing unit 321 in FIG. 38) for updating the input time-series pattern storage network in a self-organized manner based on the nodes;
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. A generation learning processing means (for example, a generation learning processing unit 322 in FIG.
Of the input winner nodes of the input time-series pattern storage network, the first input winner node for the input data in the predetermined time unit is delayed by a certain time from the time of the input data in the predetermined time unit Updating to increase the connection weight representing the degree of connection with the second input winner node for the input data in the predetermined time unit;
The second input winner node of the input time series pattern storage network and the output of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the output time series pattern storage network And a connection weight update unit (for example, a connection weight update unit 1433 in FIG. 38) that performs processing to update the connection weight that represents the degree of connection with the output winner node for data.

本発明の第3の側面のデータ処理方法、またはプログラムは、
時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置のデータ処理方法、または時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理を、コンピュータに実行させるプログラムであり、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出し(例えば、図39のステップS1331)、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワーク(例えば、図37の時系列パターン記憶ネットワークnet1)と、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワーク(例えば、図37の時系列パターン記憶ネットワークnet2)と
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデル(例えば、図37の入出力関係モデルM'123)における前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、前記入力勝者ノードに基づいて、前記入力時系列パターン記憶ネットワークを、自己組織的に更新し(例えば、図39のステップS13321)、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新し(例えば、図39のステップS13322)、
前記入力時系列パターン記憶ネットワークの前記入力勝者ノードのうちの、前記所定の時間単位の入力データに対する第1の入力勝者ノードと、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記入力時系列パターン記憶ネットワークの前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う(例えば、図39のステップS1334)
ステップを含む。
The data processing method or program according to the third aspect of the present invention provides:
A data processing method for a data processing device that learns the relationship between input data that is time-series data and output data that is other time-series data, or input data that is time-series data and other time-series data Is a program that causes a computer to execute data processing for learning the relationship with output data,
Extracting input data in a predetermined time unit from the input data, and extracting output data in the predetermined time unit from the output data (for example, step S1331 in FIG. 39),
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern that is a pattern of time series data as the input data (for example, the time series pattern storage network net 1 in FIG. 37). )When,
An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as the output data (for example, the time series pattern storage network net 2 in FIG. 37) ) And
The input time-series pattern storage network nodes are coupled to each other, and the input time-series pattern storage network node and the output time-series pattern storage network node are coupled to each other. The input winner node which is the node most suitable for the input data of the predetermined time unit is determined from the nodes of the input time series pattern storage network in the input / output relation model M ′ 123 ) of FIG. 37, and the input winner is determined. Based on the node, the input time-series pattern storage network is updated in a self-organizing manner (for example, step S13332 1 in FIG. 39),
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. a self-organizing manner updated (e.g., step S1332 2 in FIG. 39),
Of the input winner nodes of the input time-series pattern storage network, the first input winner node for the input data in the predetermined time unit is delayed by a certain time from the time of the input data in the predetermined time unit Updating to increase the connection weight representing the degree of connection with the second input winner node for the input data in the predetermined time unit;
The second input winner node of the input time series pattern storage network and the output of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the output time series pattern storage network And updating so as to increase the connection weight indicating the degree of connection with the output winner node for the data (for example, step S1334 in FIG. 39).
Includes steps.

本発明の第4の側面のデータ処理装置は、
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置であり、
前記入力データから所定の時間単位の入力データを抽出する入力データ抽出手段(例えば、図38のデータ抽出部315)と、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワーク(例えば、図37の時系列パターン記憶ネットワークnet1)と、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワーク(例えば、図37の時系列パターン記憶ネットワークnet2)と
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデル(例えば、図37の入出力関係モデルM'123)における前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定する入力勝者ノード決定手段(例えば、図38の勝者ノード決定部342)と、
前記入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定する生成ノード決定手段(例えば、図38の生成ノード決定部1451)と、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する生成手段(例えば、図38の時系列生成部361)と
を備える。
A data processing device according to the fourth aspect of the present invention provides:
A data processing device that generates output data that is other time-series data for input data that is time-series data,
Input data extraction means (for example, the data extraction unit 315 in FIG. 38) for extracting input data in predetermined time units from the input data;
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern that is a pattern of time series data as the input data (for example, the time series pattern storage network net 1 in FIG. 37). )When,
An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as the output data (for example, the time series pattern storage network net 2 in FIG. 37) ) And
The input time-series pattern storage network nodes are coupled to each other, and the input time-series pattern storage network node and the output time-series pattern storage network node are coupled to each other. 37. Input winner node determination for determining an input winner node which is a node most suitable for the input data in the predetermined time unit from the nodes of the input time series pattern storage network in the input / output relation model M ′ 123 ) of FIG. Means (for example, winner node determination unit 342 in FIG. 38);
From the nodes of the input time series pattern storage network, find the strongest coupling node that is the strongest node with the input winner node, and from among the nodes of the output time series pattern storage network, Generation node determination means (for example, the generation node determination unit 1451 in FIG. 38) that determines a node having the strongest combination as a generation node that generates the output data;
Generation means (for example, a time series generation unit 361 in FIG. 38) that generates the output data based on the time series pattern model of the generation node.

本発明の第4の側面のデータ処理方法、またはプログラムは、
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置のデータ処理方法、または時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理を、コンピュータに実行させるプログラムであり、
前記入力データから所定の時間単位の入力データを抽出し(例えば、図40のステップS1341)、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワーク(例えば、図37の時系列パターン記憶ネットワークnet1)と、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワーク(例えば、図37の時系列パターン記憶ネットワークnet2)と
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデル(例えば、図37の入出力関係モデルM'123)における前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し(例えば、図40のステップS1342)、
前記入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定し(例えば、図40のステップS1343)、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する(例えば、図40のステップS1344)
ステップを含む。
According to a fourth aspect of the present invention, there is provided a data processing method or program.
A data processing method of a data processing device that generates output data that is other time series data for input data that is time series data, or other time series data for input data that is time series data A program for causing a computer to execute data processing for generating output data,
Extracting input data in a predetermined time unit from the input data (for example, step S1341 in FIG. 40),
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern that is a pattern of time series data as the input data (for example, the time series pattern storage network net 1 in FIG. 37). )When,
An output time series pattern storage network composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as the output data (for example, the time series pattern storage network net 2 in FIG. 37) ) And
The input time-series pattern storage network nodes are coupled to each other, and the input time-series pattern storage network node and the output time-series pattern storage network node are coupled to each other. An input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the input time series pattern storage network in the input / output relation model M ′ 123 of FIG. 37 (for example, FIG. 40 step S1342),
From the nodes of the input time series pattern storage network, find the strongest coupling node that is the strongest node with the input winner node, and from among the nodes of the output time series pattern storage network, Is determined as a generation node that generates the output data (for example, step S1343 in FIG. 40),
The output data is generated based on the time series pattern model of the generation node (for example, step S1344 in FIG. 40).
Includes steps.

以下、図面を参照して、本発明の実施の形態について説明するが、その前段階の準備として、時系列パターン記憶ネットワークについて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. As a preparation for the previous stage, a time-series pattern storage network will be described.

図6は、時系列パターン記憶ネットワークの例を模式的に示している。   FIG. 6 schematically shows an example of a time-series pattern storage network.

時系列パターン記憶ネットワークは、時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成されるネットワークで、そのネットワーク全体で、ノードの数だけの(クラス分けを行う)時系列パターンを記憶する。   A time-series pattern storage network is a network composed of a plurality of nodes having a time-series pattern model that represents a time-series pattern, and stores the time-series patterns as many as the number of nodes (classifying) in the entire network. To do.

図6においては、時系列パターン記憶ネットワークは、ノードN1乃至N6の6つのノードから構成されている。 In FIG. 6, the time-series pattern storage network is composed of six nodes N 1 to N 6 .

時系列パターン記憶ネットワークを構成する各ノードNi(図6では、i=1,2,・・・,6)は、時系列パターンを表現する時系列パターンモデルを有する。また、ノードNiは、他のノードNj(図6では、j=1,2,・・・,6)と結合関係を持つことができる。この結合関係をリンクと呼ぶ。図6では、例えば、ノードN1は、ノードN2,N3と直接の結合関係を有している。また、例えば、ノードN3は、ノードN1,N2,N5,N6と直接の結合関係を有しており、従って、ノードN5とN6は、ノードN3を介して、ノードN1と間接的な結合関係を有している。なお、2つのノードNiとNjとの結合関係としては、その2つのノードNiとNjとの最短の結合関係を考えるものとする。 Each node N i (in FIG. 6, i = 1, 2,..., 6) constituting the time series pattern storage network has a time series pattern model expressing the time series pattern. Further, the node N i can have a coupling relationship with other nodes N j (j = 1, 2,..., 6 in FIG. 6). This connection relationship is called a link. In FIG. 6, for example, the node N 1 has a direct coupling relationship with the nodes N 2 and N 3 . Further, for example, the node N 3 has a direct coupling relationship with the nodes N 1 , N 2 , N 5 , and N 6, and thus the nodes N 5 and N 6 are connected to the node N 3 via the node N 3. and a N 1 and indirect coupling relationship. As the binding relationship between the two nodes N i and N j, to be considered the shortest binding relationship between the two nodes N i and N j.

時系列パターン記憶ネットワークの学習(時系列パターン記憶ネットワークに時系列パターンを記憶させる学習)は、時系列データを、学習用の学習データとして行われるが、この学習データは、カテゴリの種類や、カテゴリの数が未知のもので、この点、時系列パターン記憶ネットワークの学習は、前述の図5で説明した教師あり学習と大きく異なる。また、時系列パターン記憶ネットワークの学習に用いられる学習データには、正解ラベルは付与されていない。このため、時系列パターン記憶ネットワークの学習には、前述の図5で説明した教師あり学習を適用することはできない。   Learning of the time-series pattern storage network (learning for storing the time-series pattern in the time-series pattern storage network) is performed using time-series data as learning data for learning. In this respect, the learning of the time-series pattern storage network is greatly different from the supervised learning described with reference to FIG. Moreover, the correct label is not given to the learning data used for learning of the time-series pattern storage network. For this reason, the supervised learning described with reference to FIG. 5 cannot be applied to the learning of the time-series pattern storage network.

このように、時系列パターン記憶ネットワークの学習には、教師あり学習を適用することができず、また、学習データは、そのカテゴリの種類も、カテゴリの数も未知である。そこで、時系列パターン記憶ネットワークの学習は、その全体(のノード)によって、学習データの特徴(時系列パターン)を適切に表現することができるように、自己組織的に行われる。   As described above, supervised learning cannot be applied to learning of the time-series pattern storage network, and the type of category and the number of categories of the learning data are unknown. Therefore, learning of the time-series pattern storage network is performed in a self-organized manner so that the features (time-series patterns) of the learning data can be appropriately expressed by the whole (nodes).

なお、時系列パターン記憶ネットワークの学習は、教師なし学習である。また、時系列パターン記憶ネットワークの学習は、ある1つのノードが、必ずしもある1つのカテゴリに対応するように行われるとは限らない。即ち、時系列パターン記憶ネットワークにおいては、1つのノードが1つのカテゴリに対応するように学習が行われる場合もあるし、複数のノードが1つのカテゴリに対応するように学習が行われる場合もある。さらに、1つのノードが複数のカテゴリに対応するように学習が行われる場合もある。従って、仮に、学習データが、明確にカテゴリ分けすることができないものであっても、時系列パターン記憶ネットワークによる学習は行うことができる。   Note that learning of the time-series pattern storage network is unsupervised learning. In addition, learning of the time-series pattern storage network is not always performed so that one certain node corresponds to one certain category. That is, in the time-series pattern storage network, learning may be performed so that one node corresponds to one category, or learning may be performed so that a plurality of nodes correspond to one category. . Further, learning may be performed so that one node corresponds to a plurality of categories. Therefore, even if the learning data cannot be clearly categorized, learning by the time series pattern storage network can be performed.

次に、図7は、時系列パターン記憶ネットワークのノードNiの構成例を模式的に示している。 Next, FIG. 7, when a configuration example of a node N i of sequence pattern storage network is schematically shown.

ノードNiは、時系列パターンを表現する時系列パターンモデル21と、その時系列パターンモデル21の学習に用いる学習データを記憶する学習データ記憶部22とから構成される。 The node Ni includes a time series pattern model 21 that represents a time series pattern and a learning data storage unit 22 that stores learning data used for learning the time series pattern model 21.

ここで、図7では、時系列パターンモデル21として、状態確率遷移モデルの1つであるHMM(連続HMM)が採用されている。また、図7では、HMMは、自己ループと次状態(右隣の状態)への状態遷移だけを有するleft-to-right型の3状態S1,S2,S3を有するものとなっている。図7の時系列パターンモデル21における○印は状態を表し、矢印は状態遷移を表している。なお、時系列パターンモデル21としてのHMMは、left-to-right型や、3状態のもの等に限定されない。 Here, in FIG. 7, an HMM (continuous HMM) that is one of the state probability transition models is adopted as the time-series pattern model 21. In FIG. 7, the HMM has left-to-right three states S 1 , S 2 , and S 3 that have only a self-loop and a state transition to the next state (right adjacent state). Yes. In the time-series pattern model 21 in FIG. 7, a circle represents a state, and an arrow represents a state transition. Note that the HMM as the time series pattern model 21 is not limited to the left-to-right type, the three-state type, or the like.

時系列パターンモデル21が、図7に示したようなHMMである場合、その時系列パターンモデル21としてのHMMは、状態遷移確率と出力確率密度関数(HMMが離散HMMである場合には、スカラ量である離散的なシンボルが出力される確率)とで定義される。   When the time series pattern model 21 is an HMM as shown in FIG. 7, the HMM as the time series pattern model 21 has a state transition probability and an output probability density function (when the HMM is a discrete HMM, a scalar quantity The probability that a discrete symbol is output).

状態遷移確率は、HMMにおいて、状態が遷移する確率で、図7の時系列パターンモデル21における矢印で示した状態遷移それぞれに対して与えられる。出力確率密度関数は、状態遷移時に、HMMから観測される値の確率密度を表す。出力確率密度関数としては、例えば、混合正規分布などが採用される。これらのHMMのパラメータ(状態遷移確率と出力確率密度関数)は、例えば、Baum-Welch 法によって学習(推定)することができる。   The state transition probability is a probability of state transition in the HMM, and is given to each state transition indicated by an arrow in the time series pattern model 21 of FIG. The output probability density function represents the probability density of values observed from the HMM at the time of state transition. For example, a mixed normal distribution is adopted as the output probability density function. These HMM parameters (state transition probability and output probability density function) can be learned (estimated) by, for example, the Baum-Welch method.

ノードNiでは、学習データ記憶部22に記憶された学習データの統計的な特性、即ち、学習データ記憶部22に記憶された学習データの時系列パターンが、時系列パターンモデル21において学習され、これにより、時系列パターンモデル21と、学習データ記憶部22に記憶された学習データとが、対応関係を持つことになる。 At the node Ni , the statistical characteristics of the learning data stored in the learning data storage unit 22, that is, the time series pattern of the learning data stored in the learning data storage unit 22 is learned in the time series pattern model 21, Thereby, the time-series pattern model 21 and the learning data stored in the learning data storage unit 22 have a correspondence relationship.

なお、時系列パターン記憶ネットワークの学習、ひいては、ノードNiの時系列パターンモデル21の学習は、時系列パターン記憶ネットワークに対して、時系列データが与えられるごとに学習を行うオンライン学習によって行われる。従って、時系列パターン記憶ネットワークのパラメータ、つまり、ノードNiの時系列パターンモデル21のパラメータ(時系列パターンモデル21がHMMである場合には、上述したように、状態遷移確率と出力確率密度関数)は、時系列パターン記憶ネットワークに対して、時系列データが与えられるたびに、少しずつ更新される。 Incidentally, when the learning of the sequence pattern storage network, and thus, the time series pattern model 21 learning node N i is performed by on-line learning for learning each time relative to the time series pattern storage network, the time series data is provided . Thus, the parameters of the time series pattern storage network, that is, if the node N parameters of the time series pattern model 21 of i (time series pattern model 21 is HMM, as described above, the state transition probability and the output probability density function ) Is updated little by little whenever time-series data is given to the time-series pattern storage network.

即ち、後述するように、時系列パターン記憶ネットワークの学習が進むにつれ、学習データ記憶部22に記憶される学習データは、時系列パターン記憶ネットワークに与えられた時系列データによって更新され、これにより、少しずつ変化する。そして、その少しずつ変化する学習データによって、時系列パターンモデル21の学習が行われることにより、その時系列パターンモデル21のパラメータも、少しずつ変化していく。   That is, as will be described later, as the learning of the time series pattern storage network proceeds, the learning data stored in the learning data storage unit 22 is updated with the time series data given to the time series pattern storage network. It changes little by little. Then, the learning of the time series pattern model 21 is performed using the learning data that changes little by little, and the parameters of the time series pattern model 21 also change little by little.

次に、図8は、時系列パターン記憶ネットワークの他の例を模式的に示している。   Next, FIG. 8 schematically shows another example of the time-series pattern storage network.

図8では、時系列パターン記憶ネットワークは、9個のノードN1乃至N9で構成されており、この9個のノードN1乃至N9は、2次元的に配置されている。即ち、図8では、9個のノードN1乃至N9は、2次元平面上に、横×縦が3×3となるように配置されている。 In FIG. 8, the time-series pattern storage network is composed of nine nodes N 1 to N 9 , and these nine nodes N 1 to N 9 are two-dimensionally arranged. That is, in FIG. 8, the nine nodes N 1 to N 9 are arranged on the two-dimensional plane so that the width × length is 3 × 3.

さらに、図8では、2次元的に配置された9個のノードN1乃至N9の、横方向に隣接するノードどうしと、縦方向に隣接するノードどうしに対して、リンク(結合関係)が与えられている。なお、このようなリンクを与えることによって、時系列パターン記憶ネットワークを構成するノードには、空間的に、2次元的に配置される配置構造が与えられているということもできる。 Further, in FIG. 8, there are links (connection relationships) between the nodes adjacent in the horizontal direction and the nodes adjacent in the vertical direction among the nine nodes N 1 to N 9 arranged two-dimensionally. Is given. By providing such a link, it can also be said that the nodes constituting the time-series pattern storage network are given an arrangement structure that is spatially arranged two-dimensionally.

時系列パターン記憶ネットワークでは、リンクによって与えられる空間的なノードの配置構造に基づき、その空間上でのある2つのノードどうしの距離を定義することができ、この2つのノードどうしの距離は、その2つのノードそれぞれが有する時系列パターンモデル21が表現する時系列パターンのパターン間距離(時系列パターンどうしの類似性)として用いることができる。   In a time-series pattern storage network, a distance between two nodes on the space can be defined based on a spatial node arrangement structure given by a link. It can be used as an inter-pattern distance (similarity between time series patterns) of time series patterns expressed by the time series pattern model 21 possessed by each of the two nodes.

なお、2つのノードどうしの距離によって表される時系列パターンのパターン間距離は、2つのノードの結合関係(リンク)に基づくパターン間距離ということができる。   The inter-pattern distance of the time series pattern represented by the distance between the two nodes can be said to be the inter-pattern distance based on the connection relationship (link) between the two nodes.

2つのノードどうしの距離としては、例えば、その2つのノードどうしを結ぶ最短のパスを構成するリンクの数を採用することができる。この場合、あるノードに注目すると、その注目ノードとの直接のリンクを有するノード(図8では、注目ノードの横方向や縦方向に隣接するノード)は、注目ノードとの距離が最も近く、注目ノードとの直接のリンクを有するノードから先のリンクを辿っていくことで到達することができるノードは、到達するのに辿るリンクの数が多いほど、注目ノードとの距離が遠くなっていく。   As the distance between the two nodes, for example, the number of links constituting the shortest path connecting the two nodes can be employed. In this case, when attention is paid to a certain node, a node having a direct link with the target node (a node adjacent in the horizontal direction or vertical direction of the target node in FIG. 8) is the closest to the target node, A node that can be reached by following a previous link from a node having a direct link with the node becomes farther from the target node as the number of links to be reached increases.

なお、ノードに与えるリンクは、図6や図8に示したものに限定されるものではない。また、図6や図8に示したリンクは、ノードに対して、2次元的な配置構造を与えるが、リンクは、その他、1次元的な配置構造や3次元的な配置構造等を与えるリンクであっても良い。さらに、ノードには、必ずしもリンクを与える必要はない。   The links given to the nodes are not limited to those shown in FIGS. The links shown in FIG. 6 and FIG. 8 give a two-dimensional arrangement structure to the node, but the links give other one-dimensional arrangement structures, three-dimensional arrangement structures, and the like. It may be. Furthermore, a link does not necessarily have to be given to a node.

即ち、図9は、時系列パターン記憶ネットワークのさらに他の例を模式的に示している。   That is, FIG. 9 schematically shows still another example of the time-series pattern storage network.

図9では、時系列パターン記憶ネットワークは、図6における場合と同様に、6個のノードN1乃至N6で構成されているが、これらの6個のノードN1乃至N6は、いずれもリンクを有していない。従って、図9の時系列パターン記憶ネットワークを構成するノードN1乃至N6は、リンクによって与えられる空間的な配置構造を有していない。なお、空間的な配置構造を有していないということは、空間的な制約がない配置構造が与えられているということもできる。 In FIG. 9, the time-series pattern storage network is composed of six nodes N 1 to N 6 as in the case of FIG. 6, but all of these six nodes N 1 to N 6 Does not have a link. Therefore, the nodes N 1 to N 6 constituting the time series pattern storage network of FIG. 9 do not have a spatial arrangement structure given by the link. Note that the absence of a spatial arrangement structure means that an arrangement structure without spatial restrictions is given.

ここで、ある2つのノードにリンクがない場合には、空間上でのその2つのノードどうしの距離を定義することはできないから、その2つのノードそれぞれが(有する時系列パターンモデル21が)表現する時系列パターンのパターン間距離として、結合関係(リンク)に基づくパターン間距離は用いることができない。そこで、この場合には、例えば、ノードが、ある時系列データ(の観測値)に適合する度合いに基づく順位(以下、適宜、適合順位という)に対応する値を、パターン間距離として用いることができる。   Here, when there is no link between two nodes, the distance between the two nodes in the space cannot be defined, so each of the two nodes (represented by the time series pattern model 21) is expressed. The inter-pattern distance based on the coupling relationship (link) cannot be used as the inter-pattern distance of the time series pattern. Therefore, in this case, for example, a value corresponding to a rank (hereinafter, referred to as “fit rank” as appropriate) based on the degree that a node matches a certain time-series data (its observed value) is used as the inter-pattern distance. it can.

即ち、ある時系列データが与えられた場合には、その時系列データに対して、ノードが表現する時系列パターンとの類似性を、そのノードが適合する度合いとして求めることができる。いま、時系列パターン記憶ネットワークを構成するノードのうち、ある時系列データに最も適合するノードである勝者ノードについては、勝者ノードと、時系列パターン記憶ネットワークのあるノードとのそれぞれが表現する時系列パターンのパターン間距離として、そのノードが時系列データに適合する順位(適合順位)に対応する値を採用することができる。   That is, when certain time-series data is given, the similarity of the time-series pattern expressed by the node to the time-series data can be obtained as the degree of suitability of the node. Now, among the nodes constituting the time-series pattern storage network, for the winner node that is the most suitable node for certain time-series data, each of the winner node and the node with the time-series pattern storage network represents the time series. As the inter-pattern distance of the pattern, a value corresponding to the rank (matching rank) in which the node matches the time series data can be adopted.

具体的には、時系列パターン記憶ネットワークを構成するノードのうち、勝者ノードとなっているノードの適合順位は第1位であり、このノード(勝者ノード)と勝者ノードとの(それぞれが表現する時系列パターンの)パターン間距離は、例えば、その適合順位から1を減算した0とすることができる。   Specifically, among the nodes constituting the time-series pattern storage network, the matching rank of the node that is the winner node is first, and this node (winner node) and the winner node (respectively expressed) The inter-pattern distance (of the time series pattern) can be set to 0 obtained by subtracting 1 from the matching order, for example.

また、時系列パターン記憶ネットワークを構成するノードのうち、適合順位が第2位のノードと勝者ノードとのパターン間距離は、例えば、その適合順位から1を減算した1とすることができる。以下、同様に、ノードの適合順位から1を減算して得られる値を、そのノードと、勝者ノード(となっているノード)とのパターン間距離とすることができる。   Further, among the nodes constituting the time-series pattern storage network, the inter-pattern distance between the node having the second highest matching rank and the winner node can be set to 1, for example, by subtracting one from the matching rank. Hereinafter, similarly, a value obtained by subtracting 1 from the matching order of nodes can be set as the inter-pattern distance between the node and the winner node (the node that is the winner).

なお、ノードがある時系列データに適合する度合いに基づく順位(適合順位)に対応する値によって表されるパターン間距離は、ノードが時系列データに適合する度合いに基づくパターン間距離ということができる。   Note that the inter-pattern distance represented by the value corresponding to the rank (adaptation rank) based on the degree of conformity with a certain time-series data can be said to be the inter-pattern distance based on the degree that the node conforms to the time-series data. .

次に、図10は、時系列パターン記憶ネットワークを用いて、各種の処理を行うデータ処理装置の構成例を示している。   Next, FIG. 10 shows a configuration example of a data processing apparatus that performs various processes using a time-series pattern storage network.

信号入力部1には、後述する学習処理や認識処理の対象となるデータ(以下、処理対象データという)が入力される。ここで、処理対象データは、例えば、音や画像、LED(Light Emitting Diode)の明るさ、モータの回転角度や回転角速度などの観測値(外部から観測することができる値(信号))である。また、処理対象データは、例えば、図10のデータ処理装置が適用されるシステムの入力を受け付ける入力デバイス(センサ)が出力するデータであっても良いし、何らかの出力を行う出力デバイスに対して与えられるデータであっても良い。   The signal input unit 1 receives data (hereinafter, referred to as processing target data) that is a target of learning processing and recognition processing described later. Here, the processing target data is, for example, observation values (values (signals) that can be observed from the outside) such as sound, image, LED (Light Emitting Diode) brightness, motor rotation angle and rotation angular velocity. . Further, the processing target data may be, for example, data output from an input device (sensor) that receives an input of a system to which the data processing apparatus of FIG. 10 is applied, or given to an output device that performs some output. May be the data to be generated.

即ち、図10のデータ処理装置が、例えば、2足歩行ロボットその他のロボットに適用され、その2足歩行ロボットが、外部の状況に応じて、何らかの処理を行う場合には、信号入力部1は、外部の状況をセンシングするセンサで構成することができる。具体的には、信号入力部1は、例えば、マイク(マイクロフォン)やカメラなどで構成することができる。   That is, when the data processing apparatus of FIG. 10 is applied to, for example, a bipedal walking robot and other robots, and the bipedal walking robot performs some processing according to an external situation, the signal input unit 1 is It can be composed of sensors that sense external conditions. Specifically, the signal input unit 1 can be composed of, for example, a microphone (microphone) or a camera.

信号入力部1がマイクで構成される場合には、そのマイクに対して、外部で発生する音声(人間の音声の他、動物の鳴き声、物音、その他のあらゆる音を含む)が、2足歩行ロボット(データ処理装置が適用されているシステム)に対する入力データとして入力され、対応する音声データが、特徴抽出部2に供給される。また、信号入力部1がカメラで構成される場合には、そのカメラに対して、外部からの光が、2足歩行ロボットに対する入力データとして入力され、対応する画像データが、特徴抽出部2に供給される。   When the signal input unit 1 is configured by a microphone, externally generated voice (including human voice, animal squeal, object sound, and all other sounds) is biped with respect to the microphone. Input as input data to the robot (system to which the data processing apparatus is applied), and corresponding audio data is supplied to the feature extraction unit 2. When the signal input unit 1 is configured by a camera, external light is input to the camera as input data for the biped robot, and corresponding image data is input to the feature extraction unit 2. Supplied.

また、2足歩行ロボットが、例えば、手や足に相当する部分を、アクチュエータとしてのモータによって動かすことができる場合には、信号入力部1は、そのモータの回転角度や回転速度を計測する計測装置(回転角度や回転速度をセンシングするセンサ)で構成することができる。なお、2足歩行ロボットの手や足に相当する部分を動かすモータは、そのモータを回転駆動させる電気信号としての駆動信号を与える他、手や足に相当する部分に外部から力を加えて動かすことによっても回転するが、計測装置では、そのいずれの回転によって生じた回転角度や回転速度であっても計測することができる。   In addition, when the biped walking robot can move, for example, a part corresponding to a hand or a leg by a motor as an actuator, the signal input unit 1 measures the rotation angle and the rotation speed of the motor. An apparatus (a sensor for sensing a rotation angle and a rotation speed) can be used. The motor that moves the part corresponding to the hand or foot of the biped robot gives a driving signal as an electric signal for rotationally driving the motor and moves the part corresponding to the hand or foot by applying force from the outside. However, the measuring device can measure even a rotation angle or a rotation speed caused by any rotation.

信号入力部1が計測装置で構成される場合には、その計測装置に対して、モータの回転角度や回転速度を表す信号が、2足歩行ロボットからの出力データとして入力されて計測され、その計測結果が、特徴抽出部2に供給される。   When the signal input unit 1 is configured by a measuring device, a signal representing the rotation angle and rotation speed of the motor is input to the measuring device as output data from the biped walking robot and measured. The measurement result is supplied to the feature extraction unit 2.

なお、信号入力部1に入力される処理対象データは、時間的な変化が一定の定常的なデータ(定常信号)であっても良いし、時間的な変化が一定でない非定常なデータ(非定常信号)であっても良い。   The processing target data input to the signal input unit 1 may be stationary data (stationary signal) with a constant temporal change, or non-stationary data (non-steady with a temporal change not constant). (Stationary signal).

また、以下では、信号入力部1に対しては、例えば、時系列データの1つである音声が入力されるものとする。さらに、信号入力部1から特徴抽出部2に対しては、いわゆる音声区間の音声データだけが供給されるものとする。なお、音声区間の検出方法は、特に限定されるものではない。また、信号入力部1から特徴抽出部2に対して供給される音声データは、必ずしも、音声区間の長さである必要はなく、適切な長さに区切られていればよい。即ち、信号入力部1から特徴抽出部2に対して供給される音声データは、例えば、音素や音韻の単位であっても良いし、単語や文、ある句読点から次の句読点までであっても良い。   In the following description, it is assumed that, for example, voice that is one of time-series data is input to the signal input unit 1. Furthermore, it is assumed that only the audio data of the so-called audio section is supplied from the signal input unit 1 to the feature extraction unit 2. Note that the method for detecting the voice section is not particularly limited. Also, the audio data supplied from the signal input unit 1 to the feature extraction unit 2 does not necessarily have to be the length of the audio section, and may be divided into an appropriate length. That is, the speech data supplied from the signal input unit 1 to the feature extraction unit 2 may be, for example, a phoneme or phoneme unit, or a word or sentence, or from one punctuation mark to the next punctuation mark. good.

ここで、信号入力部1から特徴抽出部2に対して供給される処理対象データは、音声データに限定されるものではなく、その区間も、特に限定されるものではない。即ち、信号入力部1から特徴抽出部2に対しては、最も良い方法で適当な長さに区切られた処理対象データが供給されれば良い。なお、信号入力部1から特徴抽出部2に対して供給される処理対象データ(の区間)は、一定であっても良いし、一定でなくても良い。   Here, the processing target data supplied from the signal input unit 1 to the feature extraction unit 2 is not limited to audio data, and the section is not particularly limited. That is, it is only necessary that the signal input unit 1 supplies the feature extraction unit 2 with the processing target data divided into appropriate lengths by the best method. Note that the data to be processed (section) supplied from the signal input unit 1 to the feature extraction unit 2 may or may not be constant.

特徴抽出部2は、信号入力部1からの処理対象データとしての時系列データである音声データから特徴量を抽出し、その結果得られる時系列データである時系列の特徴量を、認識部3と学習部4に供給する。即ち、特徴抽出部2は、信号入力部1からの音声データに対して一定時間間隔で周波数分析などの処理を施し、例えば、メルケプストラム係数(MFCC(Mel Frequency Cepstrum Coefficient))などの特徴量を抽出して、そのメルケプストラム係数の時系列データを、認識部3と学習部4に供給する。なお、特徴抽出部2から認識部3と学習部4に供給される時系列データも、外部から観測することができる観測値である。   The feature extraction unit 2 extracts a feature amount from audio data that is time-series data as processing target data from the signal input unit 1, and recognizes a time-series feature amount that is time-series data obtained as a result of the recognition unit 3. And supplied to the learning unit 4. That is, the feature extraction unit 2 performs processing such as frequency analysis on the audio data from the signal input unit 1 at regular time intervals, and, for example, features such as a mel cepstrum coefficient (MFCC (Mel Frequency Cepstrum Coefficient)). The time series data of the mel cepstrum coefficients is extracted and supplied to the recognition unit 3 and the learning unit 4. Note that the time series data supplied from the feature extraction unit 2 to the recognition unit 3 and the learning unit 4 is also an observation value that can be observed from the outside.

認識部3は、記憶部5に記憶された時系列パターン記憶ネットワークに基づき、特徴抽出部2から供給される時系列データを認識し、その認識結果を出力する。   The recognition unit 3 recognizes the time series data supplied from the feature extraction unit 2 based on the time series pattern storage network stored in the storage unit 5 and outputs the recognition result.

ここで、学習部4は、記憶部5に記憶された時系列パターン記憶ネットワークを、特徴抽出部2から供給される時系列データ(の観測値)に基づいて、自己組織的に更新する。即ち、学習部4は、特徴抽出部2から供給される時系列データに基づいて、記憶部5に記憶された時系列パターン記憶ネットワークのパラメータを更新する。なお、このパラメータの更新のことを学習と呼ぶ場合がある。   Here, the learning unit 4 updates the time-series pattern storage network stored in the storage unit 5 in a self-organized manner based on the time-series data (observed values) supplied from the feature extraction unit 2. That is, the learning unit 4 updates the parameters of the time series pattern storage network stored in the storage unit 5 based on the time series data supplied from the feature extraction unit 2. Note that this parameter update may be referred to as learning.

学習部4では、正解ラベルの付与されていない時系列データを繰り返し与えると、その与えられた時系列データの中の特徴的なパターン(時系列パターン)を自己組織的に獲得していく教師なし学習が実行される。その結果、記憶部5の時系列パターン記憶ネットワークには、代表的な時系列パターンが効率的に記憶される。即ち、特徴抽出部2が認識部3と学習部4に供給する時系列データは、幾つかのパターン(時系列パターン)に分類することができ、学習部4では、時系列パターン記憶ネットワークに、時系列データの代表的な時系列パターンを記憶させるための学習が行われる。   When the learning unit 4 repeatedly gives time-series data to which no correct answer label is assigned, there is no teacher to acquire a characteristic pattern (time-series pattern) in the given time-series data in a self-organizing manner. Learning is performed. As a result, a representative time series pattern is efficiently stored in the time series pattern storage network of the storage unit 5. That is, the time series data supplied from the feature extraction unit 2 to the recognition unit 3 and the learning unit 4 can be classified into several patterns (time series patterns). In the learning unit 4, the time series pattern storage network includes Learning for storing a representative time series pattern of time series data is performed.

記憶部5は、時系列パターン記憶ネットワークを記憶しており、この時系列パターン記憶ネットワーク(のパラメータ)は、学習部4によって適宜更新される。   The storage unit 5 stores a time-series pattern storage network, and the time-series pattern storage network (its parameters) is appropriately updated by the learning unit 4.

生成部6には、制御データが供給される。生成部6に供給される制御データは、記憶部5の時系列パターン記憶ネットワークが記憶している時系列パターンのうちのいずれかを表すもの(後述するノードラベル)で、生成部6は、記憶部5の時系列パターン記憶ネットワークに基づき、そこに供給される制御データが表す時系列パターンの時系列データを生成して出力する。   Control data is supplied to the generation unit 6. The control data supplied to the generation unit 6 represents any one of the time series patterns stored in the time series pattern storage network of the storage unit 5 (a node label described later). Based on the time series pattern storage network of the unit 5, time series data of the time series pattern represented by the control data supplied thereto is generated and output.

次に、図11は、図10の学習部4の構成例を示している。   Next, FIG. 11 shows a configuration example of the learning unit 4 of FIG.

学習部4は、時系列データ記憶部31と学習処理部32とから構成される。   The learning unit 4 includes a time series data storage unit 31 and a learning processing unit 32.

時系列データ記憶部31には、特徴抽出部2から、(1区間の)新たな時系列データとしての特徴量の系列が供給される。時系列データ記憶部31は、特徴抽出部2からの新たな時系列データを、一時的に(学習処理部32による新たな時系列データを用いた処理が終了するまで)記憶する。   The time series data storage unit 31 is supplied with a series of feature amounts as new time series data (one section) from the feature extraction unit 2. The time series data storage unit 31 temporarily stores new time series data from the feature extraction unit 2 (until processing using the new time series data by the learning processing unit 32 is completed).

学習処理部32は、記憶部5に記憶された時系列パターン記憶ネットワークを、時系列データ記憶部31に記憶された新たな時系列データ(の観測値)に基づいて、自己組織的に更新する。   The learning processing unit 32 updates the time-series pattern storage network stored in the storage unit 5 in a self-organized manner based on the new time-series data (observed values) stored in the time-series data storage unit 31. .

次に、図12は、図11の学習処理部32の構成例を示している。   Next, FIG. 12 shows a configuration example of the learning processing unit 32 of FIG.

スコア計算部41は、記憶部5に記憶された時系列パターン記憶ネットワークを構成する各ノードについて、そのノードが、時系列データ記憶部31に記憶された時系列データ(の観測値)に適合する度合いをスコアとして求め、勝者ノード決定部42に供給する。即ち、ノードが有する時系列パターンモデル21が、例えば、図7に示したようにHMMである場合には、スコア計算部41は、ノードが有する時系列パターンモデル21としてのHMMから、時系列データ記憶部31に記憶された時系列データが観測される尤度を求め、そのノードのスコアとして、勝者ノード決定部42に供給する。   The score calculation unit 41 is adapted to the time-series data (observed values) stored in the time-series data storage unit 31 for each node constituting the time-series pattern storage network stored in the storage unit 5. The degree is obtained as a score and supplied to the winner node determination unit 42. That is, when the time series pattern model 21 possessed by the node is an HMM as shown in FIG. 7, for example, the score calculation unit 41 obtains time series data from the HMM as the time series pattern model 21 possessed by the node. The likelihood that the time-series data stored in the storage unit 31 is observed is obtained and supplied to the winner node determination unit 42 as the score of the node.

勝者ノード決定部42は、記憶部5に記憶された時系列パターン記憶ネットワークにおいて、時系列データ記憶部31に記憶された時系列データに最も適合するノードを求め、そのノードを、勝者ノードに決定する。   The winner node determination unit 42 obtains a node that best matches the time-series data stored in the time-series data storage unit 31 in the time-series pattern storage network stored in the storage unit 5, and determines that node as a winner node. To do.

即ち、勝者ノード決定部42は、記憶部5に記憶された時系列パターン記憶ネットワークを構成するノードのうちの、スコア計算部41からのスコアが最も高いノードを勝者ノードとして決定する。そして、勝者ノード決定部42は、勝者ノードを表す情報を、重み決定部43に供給する。   That is, the winner node determination unit 42 determines the node having the highest score from the score calculation unit 41 among the nodes constituting the time-series pattern storage network stored in the storage unit 5 as the winner node. Then, the winner node determination unit 42 supplies information representing the winner node to the weight determination unit 43.

ここで、時系列パターン記憶ネットワークを構成するノードには、各ノードを識別するためのラベルであるノードラベルを付しておくことができる。そして、勝者ノードを表す情報、その他のノード表す情報としては、ノードラベルを採用することができる。なお、ノードラベルは、ノード自体を識別するラベルであり、正解が何であるかを表す正解ラベルとは、何ら関係がない。   Here, a node label, which is a label for identifying each node, can be attached to the nodes constituting the time-series pattern storage network. And a node label is employable as information showing a winner node and information showing other nodes. The node label is a label for identifying the node itself, and has nothing to do with the correct answer label indicating what the correct answer is.

重み決定部43は、勝者ノード決定部42から供給されるノードラベルが表す勝者ノードに基づき、記憶部5に記憶された時系列パターン記憶ネットワークを構成する各ノードについて、後述する更新重みを決定し、学習データ更新部44に供給する。   The weight determination unit 43 determines an update weight to be described later for each node constituting the time-series pattern storage network stored in the storage unit 5 based on the winner node represented by the node label supplied from the winner node determination unit 42. And supplied to the learning data updating unit 44.

即ち、重み決定部43は、記憶部5に記憶された時系列パターン記憶ネットワークを構成する各ノード(勝者ノードを含む)の更新重みを、そのノードと、勝者ノードとのパターン間距離に基づいて決定し、学習データ更新部44に供給する。   That is, the weight determination unit 43 calculates the update weight of each node (including the winner node) included in the time-series pattern storage network stored in the storage unit 5 based on the inter-pattern distance between the node and the winner node. It is determined and supplied to the learning data update unit 44.

ここで、ノードが有する時系列パターンモデル21(図7)は、時系列データ記憶部31(図11)に記憶された新たな時系列データを用いて更新されるが、ノードの更新重みとは、そのノードが有する時系列パターンモデル21の更新によって、その時系列パターンモデル21が受ける新たな時系列データの影響の度合いを表す。従って、ノードの更新重みが0であれば、そのノードが有する時系列パターンモデル21は、新たな時系列データの影響を受けない(更新されない)。   Here, the time-series pattern model 21 (FIG. 7) of the node is updated using new time-series data stored in the time-series data storage unit 31 (FIG. 11). The degree of the influence of the new time series data that the time series pattern model 21 receives by updating the time series pattern model 21 of the node. Therefore, if the update weight of a node is 0, the time series pattern model 21 possessed by the node is not affected (not updated) by new time series data.

なお、重み決定部43において、記憶部5に記憶された時系列パターン記憶ネットワークを構成する各ノードの更新重みを決定する際のパターン間距離としては、時系列パターン記憶ネットワークのノードが、図6や図8に示したように、リンクを有する場合には、そのノードと勝者ノードとの結合関係に基づくパターン間距離を採用し、また、時系列パターン記憶ネットワークのノードが、図9に示したように、リンクを有しない場合には、そのノードが、時系列データ記憶部31(図11)に記憶された新たな時系列データに適合する度合いに基づくパターン間距離を採用することができる。   As the inter-pattern distance when the weight determining unit 43 determines the update weight of each node constituting the time-series pattern storage network stored in the storage unit 5, the nodes of the time-series pattern storage network are shown in FIG. As shown in FIG. 8 and FIG. 8, when there is a link, the inter-pattern distance based on the connection relationship between the node and the winner node is adopted, and the nodes of the time-series pattern storage network are shown in FIG. Thus, when there is no link, the inter-pattern distance based on the degree to which the node matches the new time-series data stored in the time-series data storage unit 31 (FIG. 11) can be adopted.

即ち、重み決定部43は、記憶部5に記憶された時系列パターン記憶ネットワークを参照し、時系列パターン記憶ネットワークのノードそれぞれと、勝者ノード決定部42からのノードラベルが表す勝者ノードとの結合関係に基づくパターン間距離を求め、そのパターン間距離に基づいて、時系列パターン記憶ネットワークのノードそれぞれの更新重みを決定する。   That is, the weight determination unit 43 refers to the time-series pattern storage network stored in the storage unit 5 and combines each node of the time-series pattern storage network with the winner node represented by the node label from the winner node determination unit 42. An inter-pattern distance based on the relationship is obtained, and an update weight for each node of the time-series pattern storage network is determined based on the inter-pattern distance.

あるいは、重み決定部43は、記憶部5に記憶された時系列パターン記憶ネットワークを参照し、時系列パターン記憶ネットワークのノードそれぞれについて、ノードが、時系列データ記憶部31に記憶された新たな時系列データに適合する度合いとして、例えば、スコア計算部41が求めるのと同様のスコアを求める。さらに、重み決定部43は、時系列パターン記憶ネットワークのノードそれぞれについて、ノードのスコアに基づく順位(適合順位)に対応する値を、新たな時系列データに適合する度合いに基づくパターン間距離として求め、そのパターン間距離に基づいて、時系列パターン記憶ネットワークのノードそれぞれの更新重みを決定する。   Alternatively, the weight determination unit 43 refers to the time series pattern storage network stored in the storage unit 5, and for each node of the time series pattern storage network, a new time stored in the time series data storage unit 31. For example, a score similar to that obtained by the score calculation unit 41 is obtained as the degree of matching with the series data. Furthermore, the weight determination unit 43 obtains a value corresponding to the rank (matching rank) based on the score of each node of the time-series pattern storage network as an inter-pattern distance based on the degree of matching with the new time-series data. Based on the distance between the patterns, the update weight of each node of the time-series pattern storage network is determined.

なお、ノードのスコアは、重み決定部43で求めても良いが、スコア計算部41から重み決定部43に供給するようにしても良い。   The score of the node may be obtained by the weight determining unit 43, but may be supplied from the score calculating unit 41 to the weight determining unit 43.

学習データ更新部44は、記憶部5に記憶された時系列パターン記憶ネットワークの各ノードが有する学習データ記憶部22(図7)に記憶された学習データを更新する。   The learning data update unit 44 updates the learning data stored in the learning data storage unit 22 (FIG. 7) included in each node of the time-series pattern storage network stored in the storage unit 5.

即ち、学習データ更新部44は、ノードが有する学習データ記憶部22に既に記憶されている学習データと、時系列データ記憶部31に記憶された時系列データとを、重み決定部43からの、対応するノードの更新重みにしたがって混合し、その混合結果を、新たな学習データとして、学習データ記憶部22に記憶させることで、その学習データ記憶部22の記憶内容を更新する。   That is, the learning data update unit 44 uses the learning data already stored in the learning data storage unit 22 included in the node and the time series data stored in the time series data storage unit 31 from the weight determination unit 43. The mixing is performed according to the update weight of the corresponding node, and the mixing result is stored in the learning data storage unit 22 as new learning data, thereby updating the storage content of the learning data storage unit 22.

学習データ更新部44は、以上のように、学習データ記憶部22(図7)に記憶された学習データを、更新重みにしたがって更新すると、その更新が終了した旨の終了通知を、モデル学習部45に供給する。   As described above, when the learning data stored in the learning data storage unit 22 (FIG. 7) is updated according to the update weight, the learning data update unit 44 notifies the model learning unit that the update has been completed. 45.

モデル学習部45は、学習データ更新部44から終了通知を受けると、その学習データ更新部44による更新後の学習データ記憶部22(図7)に記憶された学習データを用いて、時系列パターンに記憶ネットワークの各ノードが有する時系列パターンモデル21の学習を行うことにより、その時系列パターンモデル21を更新する。   When the model learning unit 45 receives an end notification from the learning data update unit 44, the model learning unit 45 uses the learning data stored in the learning data storage unit 22 (FIG. 7) updated by the learning data update unit 44 to use the time series pattern. By learning the time series pattern model 21 of each node of the storage network, the time series pattern model 21 is updated.

従って、モデル学習部45による、ノードが有する時系列パターンモデル21の更新は、そのノードが有する学習データ記憶部22(図7)に記憶されていた学習データ(の一部)と、時系列データ記憶部31に記憶された新たな時系列データとに基づいて行われる。なお、学習データ記憶部22の記憶内容は、更新重みにしたがって更新されるから、モデル学習部45による、時系列パターンモデル21の更新は、更新重みに基づいて行われるということもできる。   Therefore, the model learning unit 45 updates the time-series pattern model 21 possessed by a node with (part of) the learning data stored in the learning data storage unit 22 (FIG. 7) possessed by the node and the time-series data. This is performed based on new time series data stored in the storage unit 31. In addition, since the storage content of the learning data storage unit 22 is updated according to the update weight, it can be said that the update of the time series pattern model 21 by the model learning unit 45 is performed based on the update weight.

次に、図13は、図12の重み決定部43において更新重みを決定する決定方法を示している。   Next, FIG. 13 shows a determination method for determining the update weight in the weight determination unit 43 of FIG.

重み決定部43は、例えば、図13に示すような、勝者ノードとのパターン間距離dの増加に対して更新重みαが減少する関係を表す曲線(以下、距離/重み曲線という)にしたがって、ノードに対する更新重み(ノードの更新重み)αを決定する。距離/重み曲線によれば、勝者ノードとのパターン間距離dが近いノードほど、大きな更新重みαが決定され、パターン間距離dが遠いノードほど、小さな更新重みαが決定される。   The weight determination unit 43, for example, according to a curve (hereinafter referred to as a distance / weight curve) representing a relationship in which the update weight α decreases with respect to an increase in the inter-pattern distance d with the winner node as shown in FIG. An update weight (node update weight) α for the node is determined. According to the distance / weight curve, a node with a shorter inter-pattern distance d with the winner node determines a larger update weight α, and a node with a longer inter-pattern distance d determines a smaller update weight α.

図13の距離/重み曲線において、横軸(左から右方向)は、更新重みαを示しており、縦軸(上から下方向)は、パターン間距離dを示している。   In the distance / weight curve of FIG. 13, the horizontal axis (from left to right) represents the update weight α, and the vertical axis (from top to bottom) represents the inter-pattern distance d.

図13では、パターン間距離dとして、例えば、ノードとの結合関係に基づくパターン間距離、即ち、勝者ノードからの距離が採用されており、縦軸に沿って、時系列パターン記憶ネットワークを構成する6つのノードN1乃至N6が、各ノードNiと勝者ノードとの距離に対応する位置(縦軸の位置)に記載されている。 In FIG. 13, as the inter-pattern distance d, for example, the inter-pattern distance based on the connection relationship with the node, that is, the distance from the winner node is adopted, and the time-series pattern storage network is configured along the vertical axis. Six nodes N 1 to N 6 are described at positions (positions on the vertical axis) corresponding to the distance between each node Ni and the winner node.

図13では、時系列パターン記憶ネットワークを構成する6つのノードN1乃至N6が、その順で、勝者ノードとの距離が近くなっている。時系列パターン記憶ネットワークを構成する6つのノードN1乃至N6のうち、勝者ノードとの距離が最も近いノード、即ち、勝者ノードとの距離が0のノードであるノードN1は、勝者ノード(となっているノード)である。 In FIG. 13, the six nodes N 1 to N 6 constituting the time-series pattern storage network are closer to the winner node in that order. Among the six nodes N 1 to N 6 constituting the time-series pattern storage network, the node closest to the winner node, that is, the node N 1 having a distance of 0 from the winner node is the winner node ( Node).

ここで、時系列パターン記憶ネットワークが、例えば、図8に示したような2次元的な配置構造を有し、勝者ノードが、例えば、ノードN6であった場合には、勝者ノードN6とノードN6との距離は最も(1番)近い0であり、ノードN6と勝者ノードN6とのパターン間距離dも0となる。また、勝者ノードN6と、ノードN3,N5、またはN9それぞれとの距離は2番目に近い1であり、ノードN3,N5、またはN9それぞれと勝者ノードN6とのパターン間距離dも1となる。さらに、勝者ノードN6と、ノードN2,N4、またはN8それぞれとの距離は3番目に近い2であり、ノードN2,N4、またはN8それぞれと勝者ノードN6とのパターン間距離dも2となる。また、勝者ノードN6と、ノードN1またはN7それぞれとの距離は最も遠い(4番目に近い)3であり、ノードN1またはN7それぞれと勝者ノードN6とのパターン間距離dも3となる。 Here, when the time-series pattern storage network has a two-dimensional arrangement structure as shown in FIG. 8 and the winner node is, for example, the node N 6 , the winner node N 6 The distance to the node N 6 is 0 which is the closest (first), and the inter-pattern distance d between the node N 6 and the winner node N 6 is also 0. The pattern of the winning node N 6, node N 3, N 5 or N 9 distances respectively, is 1 second closest, a node N 3, N 5 or N 9 respectively winning node N 6, The distance d is also 1. Moreover, the pattern of the winning node N 6, node N 2, N 4 or N 8 distance respectively, is 2 close to the third, and the node N 2, N 4 or N 8 respectively winning node N 6, The distance d is also 2. Further, the winning node N 6, node N 1 or N 7 the distance between each is farthest (close to 4 th) 3, also the inter-pattern distance d between the respective nodes N 1 or N 7 and winning node N 6 3

一方、ノードがリンクを有しない、例えば、図9に示した時系列パターン記憶ネットワークについては、ノードが新たな時系列データに適合する度合いに基づくパターン間距離、即ち、ノードが新たな時系列データに適合する度合いに基づく順位(適合順位)に対応する値が、そのノードと勝者ノードとのパターン間距離dとして求められる。即ち、この場合、スコアが最も高い(一番目に高い)ノード(勝者ノード)と勝者ノードとのパターン間距離dは0とされ、スコアが2番目に高いノードと勝者ノードとのパターン間距離dは1とされる。以下、同様に、スコアがk番目に高いノードと勝者ノードとのパターン間距離dはk-1とされる。   On the other hand, for the time-series pattern storage network shown in FIG. 9 where the node does not have a link, for example, the inter-pattern distance based on the degree to which the node matches the new time-series data, that is, the time-series data with the new A value corresponding to the rank (matching rank) based on the degree of matching to is obtained as the inter-pattern distance d between the node and the winner node. That is, in this case, the inter-pattern distance d between the node (winner node) having the highest score (the highest) and the winner node is 0, and the inter-pattern distance d between the node having the second highest score and the winner node Is set to 1. Hereinafter, similarly, the inter-pattern distance d between the node having the highest score and the winner node is k−1.

次に、更新重みαとパターン間距離dとの関係を表す、例えば、図13に示したような距離/重み曲線は、例えば、式(3)によって与えられる。   Next, for example, a distance / weight curve as shown in FIG. 13 representing the relationship between the update weight α and the inter-pattern distance d is given by, for example, Expression (3).

Figure 2007280008
Figure 2007280008

ここで、式(3)において、定数Gは、勝者ノードの更新重みを表す定数であり、γは、減衰係数で、0<γ<1の範囲の定数である。また、変数Δは、時系列パターン記憶ネットワークを更新する更新方法として、前述したSMAを採用した場合の、勝者ノードの近傍のノード(勝者ノードとのパターン間距離dが近いノード)の更新重みαを調整するための変数である。   Here, in Expression (3), the constant G is a constant representing the update weight of the winner node, and γ is an attenuation coefficient, and is a constant in the range of 0 <γ <1. Further, the variable Δ is an update weight α of a node in the vicinity of the winner node (a node having a short inter-pattern distance d to the winner node) when the above-described SMA is adopted as an update method for updating the time-series pattern storage network. It is a variable for adjusting.

上述したように、勝者ノードとなっているノードのパターン間距離dとして、0が与えられ、以下、他のノードのパターン間距離dとして、勝者ノードとの距離、または適合順位にしたがって、1,2,・・・が与えられる場合、式(3)において、例えば、G=8,γ=0.5,Δ=1であれば、勝者ノードとなっているノードの更新重みαとして、8(=G)が求められる。以下、勝者ノードとの距離、または適合順位が大になるにしたがって、ノードの更新重みαとしては、4,2,1,・・・と小さくなる値が求められる。   As described above, 0 is given as the inter-pattern distance d of the node that is the winner node, and hereinafter, as the inter-pattern distance d of other nodes, according to the distance to the winner node or the matching order, 2... Is given, in Equation (3), for example, if G = 8, γ = 0.5, and Δ = 1, the update weight α of the node that is the winner node is 8 (= G ) Is required. Hereinafter, as the distance to the winner node or the matching order increases, the update weight α of the node is determined to be a value that decreases as 4, 2, 1,.

ここで、式(3)における減衰係数Δが大きな値である場合には、パターン間距離dの変化に対する更新重みαの変化は緩やかになり、逆に、減衰係数Δが0に近い値である場合には、パターン間距離dの変化に対する更新重みαの変化は急峻になる。   Here, when the attenuation coefficient Δ in Expression (3) is a large value, the change of the update weight α with respect to the change of the inter-pattern distance d becomes moderate, and conversely, the attenuation coefficient Δ is a value close to 0. In this case, the change in the update weight α with respect to the change in the inter-pattern distance d becomes steep.

従って、減衰係数Δを、例えば、上述した1から少しずつ0に近づけていくように調整すると、パターン間距離dの変化に対する更新重みαの変化は急峻になっていき、更新重みαは、パターン間距離dが大きくなるにしたがって、より小さい値となる。そして、減衰係数Δが0に近くなると、勝者ノード(となっているノード)以外のノードの更新重みαは、ほとんど0となり、この場合、時系列パターン記憶ネットワークを更新する更新方法として、前述したWTAを採用した場合と(ほぼ)等価となる。   Accordingly, when the attenuation coefficient Δ is adjusted to gradually approach 0 from 1 as described above, for example, the change in the update weight α with respect to the change in the inter-pattern distance d becomes steep, and the update weight α is As the distance d increases, the value decreases. When the attenuation coefficient Δ is close to 0, the update weight α of the nodes other than the winner node (the node that is the winner node) is almost 0. In this case, the update method for updating the time-series pattern storage network is described above. This is (almost) equivalent to using WTA.

このように、減衰係数Δを調整することによって、時系列パターン記憶ネットワークを更新する更新方法としてSMAを採用した場合の、勝者ノードの近傍のノードの更新重みαを調整することができる。   In this way, by adjusting the attenuation coefficient Δ, it is possible to adjust the update weight α of the node in the vicinity of the winner node when SMA is adopted as the update method for updating the time-series pattern storage network.

減衰係数△は、例えば、時系列パターン記憶ネットワークの更新(学習)の開始時は大きな値にし、時間の経過とともに、即ち、更新の回数が増加するにしたがって小さな値にくなるようにすることができる。この場合、時系列パターン記憶ネットワークの更新の開始時は、パターン間距離dの変化に対する更新重みαの変化が緩やかな距離/重み曲線にしたがって、時系列パターン記憶ネットワークの各ノードの更新重みαが決定され、更新(学習)が進む(進行する)につれ、パターン間距離dの変化に対する更新重みαの変化が急峻になっていく距離/重み曲線にしたがって、時系列パターン記憶ネットワークの各ノードの更新重みαが決定される。   For example, the attenuation coefficient Δ may be set to a large value at the start of updating (learning) of the time-series pattern storage network, and may be set to a small value as time passes, that is, as the number of updates increases. it can. In this case, at the start of updating the time-series pattern storage network, the update weight α of each node of the time-series pattern storage network is determined according to a distance / weight curve in which the change of the update weight α with respect to the change in the inter-pattern distance d is gentle. As the update (learning) progresses (proceeds), the update of each node of the time-series pattern storage network is performed according to the distance / weight curve in which the change of the update weight α with respect to the change of the inter-pattern distance d becomes steep. A weight α is determined.

即ち、この場合、勝者ノード(が有する時系列パターンモデル21)の更新は、学習(更新)の進行にかかわらず、時系列データ記憶部31(図12)に記憶された新たな時系列データの影響を強く受けるように行われる。一方、勝者ノード以外のノード(が有する時系列パターンモデル21)の更新は、学習の開始時は、比較的広い範囲のノード(勝者ノードとのパターン間距離dが小のノードから、ある程度大のノードまで)に亘って、新たな時系列データの影響を受けるように行われる。そして、学習が進行するにつれ、勝者ノード以外のノードの更新は、徐々に狭い範囲のノードについてのみ、新たな時系列データの影響を受けるように行われる。   That is, in this case, the update of the time series pattern model 21 of the winner node is performed regardless of the progress of learning (updating) of the new time series data stored in the time series data storage unit 31 (FIG. 12). It is done to be strongly influenced. On the other hand, the update of the nodes other than the winner node (the time series pattern model 21) has a relatively large range of nodes (a node having a small inter-pattern distance d with the winner node) at the start of learning. (Up to the node) so as to be influenced by the new time-series data. Then, as learning progresses, the update of nodes other than the winner node is performed so as to be influenced by new time-series data only for nodes in a narrow range gradually.

図12の重み決定部43は、以上のようにして、時系列パターン記憶ネットワークの各ノードの更新重みαを決定し、学習データ更新部44では、各ノードが有する学習データ記憶部22に記憶される学習データが、そのノードの更新重みαに基づいて更新される。   The weight determination unit 43 in FIG. 12 determines the update weight α of each node of the time-series pattern storage network as described above, and the learning data update unit 44 stores it in the learning data storage unit 22 of each node. Learning data is updated based on the update weight α of the node.

次に、図14を参照して、ノードが有する学習データ記憶部22に記憶される学習データを更新する更新方法について説明する。   Next, an update method for updating learning data stored in the learning data storage unit 22 included in the node will be described with reference to FIG.

いま、あるノードNiが有する学習データ記憶部22には、学習データが既に記憶されており、ノードNiの時系列パターンモデル21は、学習データ記憶部22に既に記憶されている学習データを用いて学習が行われたものであるとする。 Now, the learning data storage unit 22 included in a node N i, learning data is already stored, the time series pattern model 21 of the node N i is a learning data in the learning data storage unit 22 has already stored It is assumed that learning has been performed using this.

学習データ更新部44は、上述したように、ノードNiが有する学習データ記憶部22に既に記憶されている学習データ(以下、適宜、旧学習データという)と、時系列データ記憶部31(図12)に記憶された新たな時系列データとを、重み決定部43からのノードNiの更新重みαにしたがって混合し、その混合結果を、新たな学習データとして、学習データ記憶部22に記憶させることで、その学習データ記憶部22の記憶内容を、新たな学習データに更新する。 Learning data updating unit 44, as described above, the node N i already the stored learning data in the learning data storage unit 22 included in the (hereinafter referred to as old learning data) and the time series data storage unit 31 (FIG. the time series data stored new 12), were mixed in accordance with the updating weight α of the node N i from the weight determiner 43, the mixing result as a new learning data, stored in the learning data storage unit 22 By doing so, the storage content of the learning data storage unit 22 is updated to new learning data.

即ち、学習データ更新部44は、旧学習データに対して、新たな時系列データを追加することで、旧学習データと新たな時系列データとを混合した新たな学習データとするが、旧学習データに対する新たな時系列データの追加(旧学習データと新たな時系列データとの混合)は、ノードNiの更新重みαに対応する比にしたがって行われる。 In other words, the learning data update unit 44 adds new time series data to the old learning data to obtain new learning data in which the old learning data and the new time series data are mixed. additional time series data new to the data (mixed with the old training data and the new time series data) is performed according to the ratio corresponding to the updating weight α of the node N i.

ここで、ノードNiの時系列パターンモデル21(図7)の更新は、新たな学習データを用いた学習によって行われるため、新たな時系列データと旧学習データとを混合する比率を変えることによって、更新により時系列パターンモデル21が受ける新たな時系列データの影響の度合い(強さ)を変えることができる。 Here, the node updates the time-series pattern model 21 (FIG. 7) of the N i are to be done by a learning using a new learning data, varying the ratio of mixing the new time series data and the old learning data Thus, the degree of influence (intensity) of the new time series data received by the time series pattern model 21 by the update can be changed.

ノードNiにおいて、新たな時系列データと旧学習データとを混合する比率としては、ノードNiの更新重みαに対応した値が採用され、例えば、更新重みαが大であるほど、新たな時系列データの比率が大となる(旧学習データの比率が小となる)ような値とされる。 In the node N i, as a percentage of mixing the new time series data and the old learning data, a node value corresponding to the updating weight α of N i is employed, for example, as the updating weight α is large, the new The value is such that the ratio of the time series data is large (the ratio of the old learning data is small).

具体的には、ノードNiの学習データ記憶部22には、一定の数の時系列データ(学習データ)が記憶されるものとし、その一定の数をHとする。この場合、ノードNiの時系列パターンモデル21の学習は、常に、H個の学習データ(時系列データ)を用いて行われる。 Specifically, in the learning data storage unit 22 of the node N i is intended to time-series data of a certain number (learning data) is stored, the number of its constant and H. In this case, the learning of the time series pattern model 21 of the node N i is always carried out using the H-number of learning data (time-series data).

学習データ記憶部22に、常に、一定の数Hの学習データが記憶される場合、新たな時系列データと旧学習データとの混合によって得られる新たな学習データの個数は、H個である必要があり、そのような、新たな時系列データと旧学習データとの混合を、ノードNiの更新重みαに対応した比率で行う方法としては、新たな時系列データと旧学習データとを、比率α:H-αで混合する方法がある。 When a constant number H of learning data is always stored in the learning data storage unit 22, the number of new learning data obtained by mixing new time-series data and old learning data needs to be H. There is such a mixture of the new time series data and the old learning data, as a method of performing in a ratio corresponding to the updating weight α of the node N i, and a new time series data and the old learning data, There is a method of mixing at a ratio α: H-α.

新たな時系列データと旧学習データとを、比率α:H-αで混合する具体的な方法としては、図14に示すように、H個の旧学習データのうちのH-α個の旧学習データに対して、α個の新たな時系列データを追加することにより、H個の新たな学習データを得る方法がある。   As a specific method for mixing new time-series data and old learning data at a ratio α: H-α, as shown in FIG. 14, H-α old out of H old learning data are used. There is a method of obtaining H new learning data by adding α new time-series data to the learning data.

この場合、学習データ記憶部22に記憶される時系列データの数Hが、例えば、100であり、ノードNiの更新重みαが、例えば、8であれば、学習データ記憶部22の記憶内容は、100個の旧学習データのうちの92個の旧学習データに対して、8個の新たな時系列データを追加することによって得られる100個の新たな学習データに更新される。 In this case, the number H of the time series data stored in the learning data storage unit 22, for example, a 100, node N i updating weight α of, for example, if 8, the stored contents of the learning data storage unit 22 Is updated to 100 new learning data obtained by adding 8 new time-series data to 92 old learning data out of 100 old learning data.

H個の旧学習データのうちのH-α個の旧学習データに対する、α個の新たな時系列データの追加は、α個の新たな時系列データが得られるのを待って行う方法があるが、この方法では、1個の新たな時系列データが得られるごとに、学習データ記憶部22の記憶内容を更新することができない。   There is a method of adding α new time series data to H-α old learning data out of H old learning data after waiting for α new time series data to be obtained. However, with this method, the stored content of the learning data storage unit 22 cannot be updated every time one new time series data is obtained.

そこで、学習データ記憶部22の記憶内容の更新は、1個の新たな時系列データが得られるごとに、その新たな時系列データをα個だけ、H-α個の旧学習データに追加することにより行うことができる。即ち、1個の新たな時系列データをコピーしてα個の新たな時系列データとし、そのα個の新たな時系列データを、H個の旧学習データから古い順にα個を除外して残ったH-α個の旧学習データに追加することにより、学習データ記憶部22の記憶内容の更新を行う。これにより、1個の新たな時系列データが得られるごとに、学習データ記憶部22の記憶内容を更新することができる。   Therefore, the update of the stored contents of the learning data storage unit 22 adds only α new time series data to the H-α old learning data every time one new time series data is obtained. Can be done. That is, one new time-series data is copied to α new time-series data, and the α new time-series data is excluded from the H old learning data in the order of oldness. By adding to the remaining H-α old learning data, the storage content of the learning data storage unit 22 is updated. Thereby, whenever one new time series data is obtained, the memory content of the learning data memory | storage part 22 can be updated.

以上のように、学習データ記憶部22の記憶内容の更新を行うことにより、学習データ記憶部22には、常に、新しい順のH個の時系列データだけが、学習データとして保持されることになり、その学習データに占める新たな時系列データの割合(比率)は、更新重みαによって調整されることになる。   As described above, by updating the storage contents of the learning data storage unit 22, only the H time-series data in the new order are always held as learning data in the learning data storage unit 22. Thus, the ratio (ratio) of new time-series data in the learning data is adjusted by the update weight α.

次に、図15のフローチャートを参照して、図10のデータ処理装置で行われる、時系列パターン記憶ネットワークを学習する学習処理について説明する。   Next, a learning process for learning the time-series pattern storage network performed by the data processing apparatus of FIG. 10 will be described with reference to the flowchart of FIG.

まず最初に、ステップS1において、学習部4(図11)の学習処理部32は、記憶部5に記憶された時系列パターン記憶ネットワークのパラメータ、即ち、時系列パターン記憶ネットワークの各ノードが有する時系列パターンモデル21(図7)としての、例えばHMMのパラメータを初期化する初期化処理を行う。この初期化処理により、HMMのパラメータ(状態遷移確率と出力確率密度関数)として、適切な初期値が与えられる。なお、初期化処理において、HMMのパラメータにおいて、どのように初期値を与えるかは、特に限定されるものではない。   First, in step S1, the learning processing unit 32 of the learning unit 4 (FIG. 11) has parameters of the time series pattern storage network stored in the storage unit 5, that is, each node of the time series pattern storage network has. For example, initialization processing for initializing parameters of the HMM as the sequence pattern model 21 (FIG. 7) is performed. By this initialization process, appropriate initial values are given as parameters (state transition probability and output probability density function) of the HMM. In the initialization process, how the initial values are given in the HMM parameters is not particularly limited.

その後、ステップS2において、1個の処理対象データ、即ち、例えば、1の音声区間の音声データが、信号入力部1に入力されると、信号入力部1は、その処理対象データを、特徴抽出部2に供給する。特徴抽出部2は、処理対象データから特徴量を抽出し、その特徴量の時系列データ(1個の新たな時系列データ)を、学習部4に供給する。   Thereafter, in step S2, when one piece of processing target data, that is, for example, voice data of one speech section is input to the signal input unit 1, the signal input unit 1 extracts the processing target data from the feature extraction unit. Supply to part 2. The feature extraction unit 2 extracts feature amounts from the processing target data, and supplies time series data (one new time series data) of the feature amounts to the learning unit 4.

学習部4(図11)は、特徴抽出部2からの新たな時系列データを、時系列データ記憶部31に一時記憶させ、以下、ステップS3乃至S7において、記憶部5に記憶された時系列パターン記憶ネットワークを、時系列データ記憶部31に記憶された新たな時系列データ(の観測値)に基づいて、自己組織的に更新(学習)する。   The learning unit 4 (FIG. 11) temporarily stores new time-series data from the feature extraction unit 2 in the time-series data storage unit 31, and hereinafter, the time series stored in the storage unit 5 in steps S3 to S7. The pattern storage network is updated (learned) in a self-organized manner based on the new time-series data (observed values) stored in the time-series data storage unit 31.

即ち、学習部4の学習処理部32(図12)では、ステップS3において、スコア計算部41が、時系列データ記憶部31に記憶された新たな時系列データを読み出し、記憶部5に記憶された時系列パターン記憶ネットワークを構成する各ノードについて、そのノードが、新たな時系列データに適合する度合いを表すスコアを求める。   That is, in the learning processing unit 32 (FIG. 12) of the learning unit 4, in step S 3, the score calculation unit 41 reads out new time series data stored in the time series data storage unit 31 and stores it in the storage unit 5. For each node constituting the time-series pattern storage network, a score representing the degree to which the node matches the new time-series data is obtained.

具体的には、ノードが有する時系列パターンモデル21(図7)が、例えばHMMである場合には、そのHMMから、新たな時系列データが観測される対数尤度が、スコアとして求められる。ここで、対数尤度の計算方法としては、例えば、ビタビアルゴリズム(Viterbi algorithm)を採用することができる。   Specifically, when the time series pattern model 21 (FIG. 7) possessed by the node is, for example, an HMM, the log likelihood that new time series data is observed is obtained from the HMM as a score. Here, as a log likelihood calculation method, for example, a Viterbi algorithm can be employed.

スコア計算部41は、時系列パターン記憶ネットワークが有するすべてのノードについて、新たな時系列データに対するスコアを計算すると、その各ノードについてのスコアを、勝者ノード決定部42に供給する。   If the score calculation part 41 calculates the score with respect to new time series data about all the nodes which a time series pattern storage network has, the score about each node will be supplied to the winner node determination part 42. FIG.

勝者ノード決定部42は、ステップS4において、時系列パターン記憶ネットワークを構成するノードのうちの、スコア計算部41からのスコアが最も高いノードを求め、そのノードを勝者ノードに決定する。そして、勝者ノード決定部42は、勝者ノードを表す情報としてのノードラベルを、重み決定部43に供給する。   In step S4, the winner node determination unit 42 obtains the node having the highest score from the score calculation unit 41 among the nodes constituting the time-series pattern storage network, and determines that node as the winner node. Then, the winner node determination unit 42 supplies a node label as information representing the winner node to the weight determination unit 43.

重み決定部43は、ステップS5において、勝者ノード決定部42からのノードラベルが表す勝者ノードを、いわば基準として、時系列パターン記憶ネットワークを構成する各ノードの更新重みを決定する。   In step S5, the weight determination unit 43 determines the update weight of each node constituting the time-series pattern storage network with the winner node represented by the node label from the winner node determination unit 42 as a reference.

即ち、重み決定部43は、図13で説明したように、時系列パターン記憶ネットワークの更新(学習)が進むにつれ、パターン間距離dの変化に対する更新重みαの変化が急峻になっていく、式(3)で表される距離/重み曲線にしたがって、時系列パターン記憶ネットワークの各ノードの更新重みαを決定し、学習データ更新部44に供給する。   That is, as described with reference to FIG. 13, the weight determination unit 43 determines that the change in the update weight α with respect to the change in the inter-pattern distance d becomes steeper as the update (learning) of the time-series pattern storage network proceeds. In accordance with the distance / weight curve represented by (3), the update weight α of each node of the time-series pattern storage network is determined and supplied to the learning data update unit 44.

学習データ更新部44は、ステップS6において、時系列パターン記憶ネットワークの各ノードが有する学習データ記憶部22(図7)に記憶された学習データを、重み決定部43からの、対応するノードの更新重みにしたがって更新する。即ち、学習データ更新部44は、図14で説明したように、時系列データ記憶部31に記憶されている新たな時系列データと、ノードの学習データ記憶部22に記憶されている旧学習データとを、そのノードの更新重みαに対応した比率α:H-αで混合することにより、H個の新たな学習データを得て、そのH個の新たな学習データによって、学習データ記憶部22の記憶内容を更新する。   In step S6, the learning data update unit 44 updates the learning data stored in the learning data storage unit 22 (FIG. 7) of each node of the time-series pattern storage network from the weight determination unit 43. Update according to weight. That is, the learning data update unit 44, as described in FIG. 14, includes new time series data stored in the time series data storage unit 31 and old learning data stored in the node learning data storage unit 22. Are mixed at a ratio α: H−α corresponding to the update weight α of the node to obtain H new learning data, and the learning data storage unit 22 uses the H new learning data. Update the stored contents of.

学習データ更新部44は、時系列パターン記憶ネットワークのノードすべての学習データ記憶部22(図7)の記憶内容を更新すると、その更新が終了した旨の終了通知を、モデル学習部45に供給する。   When the learning data update unit 44 updates the stored contents of the learning data storage unit 22 (FIG. 7) of all the nodes of the time-series pattern storage network, the learning data update unit 44 supplies an end notification to the model learning unit 45 indicating that the update has been completed. .

モデル学習部45は、学習データ更新部44から終了通知を受けると、ステップS7において、時系列パターン記憶ネットワークのパラメータを更新する。   When the model learning unit 45 receives an end notification from the learning data update unit 44, the model learning unit 45 updates the parameters of the time-series pattern storage network in step S7.

即ち、モデル学習部45は、時系列パターン記憶ネットワークの各ノードについて、学習データ更新部44による更新後の学習データ記憶部22に記憶された新たな学習データを用いて、時系列パターンモデル21の学習を行うことにより、その時系列パターンモデル21を更新する。   That is, the model learning unit 45 uses the new learning data stored in the learning data storage unit 22 after being updated by the learning data update unit 44 for each node of the time series pattern storage network. By performing learning, the time series pattern model 21 is updated.

具体的には、ノードが有する時系列パターンモデル21が、例えばHMMである場合には、そのノードが有する学習データ記憶部22に記憶された新たな学習データを用いて、HMMの学習が行われる。この学習では、例えば、HMMの現在の状態遷移確率と出力確率密度関数を初期値とし、新たな学習データを用いて、Baum-Welch法により、新たな状態遷移確率と出力確率密度関数がそれぞれ求められる。そして、その新たな状態遷移確率と出力確率密度関数によって、HMMの状態遷移確率と出力確率密度関数がそれぞれ更新される。   Specifically, when the time-series pattern model 21 possessed by a node is, for example, an HMM, HMM learning is performed using new learning data stored in the learning data storage unit 22 possessed by the node. . In this learning, for example, the current state transition probability and output probability density function of the HMM are used as initial values, and new state transition probabilities and output probability density functions are obtained by the Baum-Welch method using new learning data. It is done. Then, the state transition probability and output probability density function of the HMM are updated by the new state transition probability and output probability density function, respectively.

その後は、ステップS7からステップS2に戻り、次の処理対象データが、信号入力部1に入力されるのを待って、以下、同様の処理が繰り返される。   Thereafter, the process returns from step S7 to step S2, waits for the next data to be processed to be input to the signal input unit 1, and thereafter the same processing is repeated.

図15の学習処理によれば、1個の新たな時系列データが得られると、その新たな時系列データに対して、時系列パターン記憶ネットワークを構成するノードの中から、勝者ノードが決定される(ステップS4)。さらに、その勝者ノードを基準として、時系列パターン記憶ネットワークを構成する各ノードの更新重みが決定される(ステップS5)。そして、更新重みに基づいて、時系列パターン記憶ネットワークを構成する各ノードが有する時系列パターンモデル21(図7)のパラメータが更新される。   According to the learning process of FIG. 15, when one new time series data is obtained, a winner node is determined from the nodes constituting the time series pattern storage network for the new time series data. (Step S4). Further, the update weight of each node constituting the time-series pattern storage network is determined based on the winner node (step S5). Based on the update weight, the parameters of the time series pattern model 21 (FIG. 7) possessed by each node constituting the time series pattern storage network are updated.

即ち、図15の学習処理では、1個の新たな時系列データに対して、時系列パターン記憶ネットワークを構成するノードのパラメータの更新が1回行われ、以下、同様に、新たな時系列データが得られるたびに、ノードのパラメータの更新が繰り返されることにより、自己組織的に学習が行われる。   That is, in the learning process of FIG. 15, the parameters of the nodes constituting the time-series pattern storage network are updated once for one new time-series data. Is obtained by repeating updating of the parameter of the node each time.

そして、学習が十分に行われることにより、時系列パターン記憶ネットワークの各ノードが有する時系列パターンモデル21は、ある時系列パターンを学習(獲得)する。時系列パターン記憶ネットワーク全体において学習される時系列パターンの数(種類)は、時系列パターン記憶ネットワークが有するノードの数と一致するので、時系列パターン記憶ネットワークが有するノードの数が、例えば100である場合は、100種類の時系列パターンが学習されることになる。この時系列パターンに基づき、認識部3(図10)では、時系列データ(処理対象データ)を認識する認識処理を行うことが可能となり、生成部6(図10)では、時系列データを生成する生成処理を行うことが可能となる。   When the learning is sufficiently performed, the time series pattern model 21 included in each node of the time series pattern storage network learns (acquires) a certain time series pattern. Since the number (type) of time series patterns learned in the entire time series pattern storage network matches the number of nodes included in the time series pattern storage network, the number of nodes included in the time series pattern storage network is, for example, 100. In some cases, 100 types of time-series patterns are learned. Based on this time series pattern, the recognition unit 3 (FIG. 10) can perform recognition processing for recognizing time series data (processing target data), and the generation unit 6 (FIG. 10) generates time series data. It is possible to perform the generation process.

次に、図16は、図10の認識部3の構成例を示している。   Next, FIG. 16 shows a configuration example of the recognition unit 3 of FIG.

認識部3には、図10で説明したように、特徴抽出部2から、(1個の)時系列データが供給され、この時系列データは、スコア計算部51に供給される。   As described with reference to FIG. 10, (one piece) of time series data is supplied to the recognition unit 3 from the feature extraction unit 2, and this time series data is supplied to the score calculation unit 51.

スコア計算部51は、学習処理部32(図12)のスコア計算部41と同様に、記憶部5に記憶された時系列パターン記憶ネットワークを構成する各ノードについて、そのノードが、特徴抽出部2からの時系列データ(の観測値)に適合する度合いを表すスコアを求め、勝者ノード決定部52に供給する。   Similar to the score calculation unit 41 of the learning processing unit 32 (FIG. 12), the score calculation unit 51 is configured such that each node constituting the time-series pattern storage network stored in the storage unit 5 is the feature extraction unit 2. A score representing the degree of conformity to the time-series data (observed values) from is obtained and supplied to the winner node determination unit 52.

勝者ノード決定部52は、学習処理部32(図12)の勝者ノード決定部42と同様に、記憶部5に記憶された時系列パターン記憶ネットワークにおいて、特徴抽出部2からの時系列データに最も適合するノードを求め、そのノードを、勝者ノードとして決定する。   Similarly to the winner node determination unit 42 of the learning processing unit 32 (FIG. 12), the winner node determination unit 52 uses the time series data from the feature extraction unit 2 in the time series pattern storage network stored in the storage unit 5. Find a matching node and determine that node as the winner node.

即ち、勝者ノード決定部52は、記憶部5に記憶された時系列パターン記憶ネットワークを構成するノードのうちの、スコア計算部51からのスコアが最も高いノードを勝者ノードとして決定する。そして、勝者ノード決定部52は、勝者ノードを表す情報としてのノードラベルを、出力部53に供給する。   That is, the winner node determination unit 52 determines the node having the highest score from the score calculation unit 51 among the nodes constituting the time-series pattern storage network stored in the storage unit 5 as the winner node. Then, the winner node determination unit 52 supplies the output unit 53 with a node label as information representing the winner node.

出力部53は、勝者ノード決定部52からの勝者ノードを表すノードラベルを、特徴抽出部2からの特徴量の時系列データ、ひいては、その特徴量に対応する、信号入力部1に入力された処理対象データの認識結果として出力する。   The output unit 53 inputs the node label representing the winner node from the winner node determination unit 52 to the signal input unit 1 corresponding to the time-series data of the feature amount from the feature extraction unit 2 and, consequently, the feature amount. Output as recognition result of data to be processed.

なお、認識部3のスコア計算部51と、学習処理部32(図12)のスコア計算部41とは、いずれか一方のスコア計算部で兼用することが可能である。認識部3の勝者ノード決定部52と、学習処理部32(図12)の勝者ノード決定部42についても、同様である。   Note that the score calculation unit 51 of the recognition unit 3 and the score calculation unit 41 of the learning processing unit 32 (FIG. 12) can be shared by either one of the score calculation units. The same applies to the winner node determination unit 52 of the recognition unit 3 and the winner node determination unit 42 of the learning processing unit 32 (FIG. 12).

次に、図17のフローチャートを参照して、図10のデータ処理装置で行われる、時系列データを認識する認識処理について説明する。   Next, a recognition process for recognizing time-series data performed by the data processing apparatus of FIG. 10 will be described with reference to the flowchart of FIG.

ステップS21において、1個の処理対象データ、即ち、例えば、1の音声区間の音声データ(時系列データ)が、信号入力部1に入力されると、信号入力部1は、その処理対象データを、特徴抽出部2に供給する。特徴抽出部2は、処理対象データである時系列データから特徴量を抽出し、その特徴量の時系列データを、認識部3に供給する。   In step S21, when one piece of processing target data, that is, for example, voice data (time-series data) of one voice section is input to the signal input unit 1, the signal input unit 1 selects the processing target data. To the feature extraction unit 2. The feature extraction unit 2 extracts feature amounts from the time series data that is the processing target data, and supplies the time series data of the feature amounts to the recognition unit 3.

認識部3(図16)では、ステップS22において、スコア計算部51が、記憶部5に記憶された時系列パターン記憶ネットワークを構成する各ノードが、特徴抽出部2からの時系列データに適合する度合いを表すスコアを求め、勝者ノード決定部52に供給する。   In the recognizing unit 3 (FIG. 16), in step S22, the score calculating unit 51 matches each node constituting the time-series pattern storage network stored in the storage unit 5 with the time-series data from the feature extracting unit 2. A score representing the degree is obtained and supplied to the winner node determination unit 52.

勝者ノード決定部52は、ステップS23において、時系列パターン記憶ネットワークを構成するノードのうちの、スコア計算部51からのスコアが最も高いノードを求め、そのノードを勝者ノードとして決定する。そして、勝者ノード決定部52は、勝者ノードを表す情報としてのノードラベルを、出力部53に供給する。   In step S23, the winner node determination unit 52 obtains the node having the highest score from the score calculation unit 51 among the nodes constituting the time-series pattern storage network, and determines that node as the winner node. Then, the winner node determination unit 52 supplies the output unit 53 with a node label as information representing the winner node.

出力部53は、勝者ノード決定部52からのノードラベルを、特徴抽出部2からの時系列データ(信号入力部1に入力された処理対象データ)の認識結果として出力し、処理を終了する。   The output unit 53 outputs the node label from the winner node determination unit 52 as the recognition result of the time-series data (processing target data input to the signal input unit 1) from the feature extraction unit 2, and ends the processing.

なお、出力部53が出力するノードラベル(勝者ノードのノードラベル)は、例えば、制御データとして、生成部6に供給することができる。   Note that the node label output from the output unit 53 (the node label of the winner node) can be supplied to the generating unit 6 as control data, for example.

以上のような、時系列パターン記憶ネットワークを用いた認識処理によれば、その時系列パターン記憶ネットワークのノードの数に応じた細かさの認識結果を得ることができる。   According to the recognition processing using the time series pattern storage network as described above, a fine recognition result according to the number of nodes of the time series pattern storage network can be obtained.

即ち、例えば、いま、時系列パターン記憶ネットワークの学習が、3つのカテゴリ"A","B","C"の発声それぞれにより得られた音声データを用いて行われたとする。   That is, for example, it is assumed that learning of the time-series pattern storage network is performed using voice data obtained by utterances of three categories “A”, “B”, and “C”.

時系列パターン記憶ネットワークの学習に用いられた3つのカテゴリ"A","B","C"の音声データが、多数の話者の発話を含む場合には、例えば、カテゴリ"A"の音声データであっても、発話速度や、イントネーション、話者の年齢、性別などの違いによって、様々なバリエーションの音声データが存在する。   When the audio data of the three categories “A”, “B”, and “C” used for learning of the time-series pattern storage network includes the utterances of a large number of speakers, for example, the audio of the category “A” Even for data, there are various variations of voice data depending on differences in speech rate, intonation, speaker age, gender, and the like.

教師あり学習であれば、カテゴリ"A","B","C"の音声データを用いた学習は、カテゴリ"A"の音声データだけ、カテゴリ"B"の音声データだけ、カテゴリ"C"の音声データだけをそれぞれ用いて行われる。従って、各カテゴリの学習結果には、発話速度等の違いによるバリエーションは、生じ得ない。   For supervised learning, learning using audio data of categories “A”, “B”, and “C” is performed only for audio data of category “A”, only for audio data of category “B”, and category “C”. This is performed using only the audio data. Therefore, the learning result of each category cannot be varied due to the difference in the speech speed or the like.

一方、時系列パターン記憶ネットワークの学習では、カテゴリ"A","B","C"の音声データが、それらを区別(分類)することなく用いられる。そして、時系列パターン記憶ネットワークでは、上述したように、その時系列パターン記憶ネットワークが有するノードの数だけの時系列パターンが学習される。   On the other hand, in learning of a time-series pattern storage network, audio data of categories “A”, “B”, and “C” are used without distinguishing (classifying) them. Then, in the time series pattern storage network, as described above, time series patterns as many as the number of nodes of the time series pattern storage network are learned.

従って、時系列パターン記憶ネットワークでは、例えば、それが有するノードの数が3より大であれば、1つのカテゴリ"A"の音声データであっても、そのカテゴリ"A"の音声データの中の、ある1つのバリエーション(の時系列パターン)が、ある1つのノードで学習され、他の1つのバリエーションが、他の1つのノードで学習されることがある。   Accordingly, in the time-series pattern storage network, for example, if the number of nodes included in the time series pattern storage network is greater than 3, even if the audio data of one category “A” is included in the audio data of the category “A” One variation (a time series pattern) may be learned at one node, and the other variation may be learned at another node.

そして、このように、複数のノードにおいて、カテゴリ"A"の音声データの様々なバリエーションが学習された場合、認識処理では、例えば、カテゴリ"A"の音声データが処理対象データとして入力されると、カテゴリ"A"の音声データが学習された複数のノードの中から、処理対象データに最も適合するノードが、勝者ノードとして決定され、その勝者ノードのノードラベルが、認識結果として出力される。   As described above, when various variations of the audio data of the category “A” are learned in the plurality of nodes, in the recognition process, for example, the audio data of the category “A” is input as the processing target data. Among the plurality of nodes from which the speech data of category “A” has been learned, the node that best matches the processing target data is determined as the winner node, and the node label of the winner node is output as the recognition result.

即ち、時系列パターン記憶ネットワークを用いた認識処理では、処理対象データが、カテゴリ"A","B","C"のうちのいずれのカテゴリの音声データであるかが決定されるのではなく、時系列パターン記憶ネットワークが学習によって獲得した、そのノードの数だけの時系列パターンのうちのいずれに最も適合するか(類似するか)かが決定される。   That is, in the recognition process using the time-series pattern storage network, it is not determined which category of audio data is the category “A”, “B”, or “C”. Then, it is determined which of the time-series patterns corresponding to the number of the nodes acquired by learning the time-series pattern storage network is most suitable (similar).

つまり、時系列パターン記憶ネットワークの学習では、時系列パターン記憶ネットワークが有するノードの数に応じた細かさで時系列パターンが獲得され、時系列パターン記憶ネットワークを用いた認識では、時系列パターン記憶ネットワークが有するノードの数に応じた細かさで、時系列データが分類(クラス分け)される。   That is, in learning of the time-series pattern storage network, a time-series pattern is acquired with a fineness according to the number of nodes of the time-series pattern storage network, and in the recognition using the time-series pattern storage network, the time-series pattern storage network The time series data is classified (classified) with fineness according to the number of nodes included in the.

なお、(十分な)学習が行われた時系列パターン記憶ネットワークの各ノードに対し、そのノードが獲得した時系列パターンに応じて、適切に、カテゴリ"A","B","C"の正解ラベルを付与すれば、時系列パターン記憶ネットワークを用いた認識処理において、時系列データ(処理対象データ)が、カテゴリ"A","B","C"のうちのいずれのカテゴリの音声データであるかの認識結果を得ることができる。   For each node in the time-series pattern storage network where (sufficient) learning has been performed, the category “A”, “B”, “C” is appropriately selected according to the time-series pattern acquired by the node. If a correct answer label is given, in the recognition process using the time-series pattern storage network, the time-series data (data to be processed) is audio data of any of the categories “A”, “B”, and “C”. The recognition result can be obtained.

次に、図18は、図10の生成部6の構成例を示している。   Next, FIG. 18 illustrates a configuration example of the generation unit 6 of FIG.

生成部6には、図10で説明したように、制御データが供給される。生成部6に供給される制御データは、記憶部5の時系列パターン記憶ネットワークが記憶している時系列パターン、ひいては、時系列パターン記憶ネットワークを構成するノードのうちのいずれかを表すもので、例えば、ノードラベルである。   As described with reference to FIG. 10, control data is supplied to the generation unit 6. The control data supplied to the generation unit 6 represents one of the time series patterns stored in the time series pattern storage network of the storage unit 5 and thus the nodes constituting the time series pattern storage network. For example, a node label.

生成部6に供給された制御データは、生成ノード決定部61に供給される。生成ノード決定部61は、記憶部5に記憶された時系列パターン記憶ネットワークにおいて、そこに供給される制御データが表すノードを、時系列データを生成するのに用いるノード(以下、適宜、生成ノードという)に決定し、その決定結果を、時系列生成部62に供給する。   The control data supplied to the generation unit 6 is supplied to the generation node determination unit 61. The generation node determination unit 61 uses, in the time-series pattern storage network stored in the storage unit 5, a node represented by control data supplied thereto to generate time-series data (hereinafter referred to as a generation node as appropriate). And the determination result is supplied to the time-series generation unit 62.

即ち、生成ノード決定部61は、そこに供給される制御データとしてのノードラベルが表すノードを、生成ノードに決定し、その決定結果を、時系列生成部62に供給する。   That is, the generation node determination unit 61 determines the node represented by the node label as the control data supplied thereto as a generation node, and supplies the determination result to the time series generation unit 62.

時系列生成部62は、生成ノード決定部61からの決定結果にしたがい、生成ノードが有する時系列パターンモデル21(図7)に基づいて、時系列データを生成し、出力部63に供給する。   The time series generation unit 62 generates time series data based on the determination result from the generation node determination unit 61 based on the time series pattern model 21 (FIG. 7) of the generation node and supplies the time series data to the output unit 63.

ここで、時系列パターンモデル21が、例えば、HMMである場合には、時系列生成部62は、生成ノードが有する時系列パターンモデル21としてのHMMにおいて時系列データが観測される尤度を表す出力確率を最大にする時系列データを生成する。なお、HMMを用いた時系列データの生成については、例えば、動的特徴量を利用することで滑らかに変化する時系列データを生成する方法があり、時系列生成部62では、その方法によって、時系列データを生成することができる。このような時系列データの生成方法は、例えば、K. Tokuda, T. Yoshimura, T. Masuko, T. Kobayashi, T. Kitamura, "SPEECH PARAMETER GENERATION ALGORITHMS FOR HMM-BASED SPEECH SYNTHESIS", Proc. of ICASSP 2000, vol.3, pp.1315-1318, June 2000に記載されている。   Here, when the time series pattern model 21 is, for example, an HMM, the time series generation unit 62 represents the likelihood that the time series data is observed in the HMM as the time series pattern model 21 of the generation node. Generate time-series data that maximizes output probability. As for the generation of time-series data using the HMM, for example, there is a method of generating time-series data that smoothly changes by using a dynamic feature amount, and the time-series generation unit 62 uses the method, Time series data can be generated. For example, K. Tokuda, T. Yoshimura, T. Masuko, T. Kobayashi, T. Kitamura, "SPEECH PARAMETER GENERATION ALGORITHMS FOR HMM-BASED SPEECH SYNTHESIS", Proc. Of ICASSP 2000, vol.3, pp.1315-1318, June 2000.

なお、HMMを用いて時系列データを生成する方法としては、その他、例えば、HMMのパラメータを用いた確率的試行に基づく時系列データの生成を繰り返し行い、その平均をとることで、HMMから時系列データを生成する方法なども提案されており、その詳細については、例えば、稲邑哲也、谷江博昭、中村仁彦、「連続分布型隠れマルコフモデルを用いた時系列データのキーフレーム抽出とその復元」、日本機械学会ロボティクス・メカトロニクス講演会2003講演論文集、2P1-3F-C6,2003に記載されている。   As another method for generating time series data using an HMM, for example, time series data generation based on probabilistic trials using parameters of the HMM is repeatedly performed, and the average is taken to generate time series data from the HMM. Methods for generating serial data have also been proposed. For details, see, for example, Tetsuya Inagi, Hiroaki Tanie, Yoshihiko Nakamura, “Keyframe Extraction and Reconstruction of Time Series Data Using Continuously Distributed Hidden Markov Models” ”, Proceedings of the Japan Society of Mechanical Engineers Robotics and Mechatronics Lecture 2003, 2P1-3F-C6, 2003.

出力部63は、時系列生成部62からの時系列データを、処理対象データに相当する時系列データに変換して出力する。即ち、時系列生成部62において生成される時系列データは、ノードが有する時系列パターンモデル21の学習に用いられた特徴量の時系列データであり、出力部63は、その特徴量の時系列データを、処理対象データ(に相当するデータ)に変換して出力する。   The output unit 63 converts the time series data from the time series generation unit 62 into time series data corresponding to the processing target data and outputs the time series data. That is, the time series data generated by the time series generation unit 62 is time series data of feature amounts used for learning the time series pattern model 21 possessed by the node, and the output unit 63 outputs time series of the feature amounts. Data is converted into data to be processed (corresponding data) and output.

具体的には、例えば、処理対象データが音声データであり、特徴抽出部2が、音声データからメルケプストラム係数を特徴量として抽出することとすると、メルケプストラムの時系列データが、時系列パターンモデル21によって学習されるので、時系列生成部62が生成ノードの時系列パターンモデル21(図7)に基づいて生成する時系列データは、メルケプストラムの時系列データとなる。出力部63は、時系列生成部62において生成されるメルケプストラム(の時系列データ)を、処理対象データに相当する時系列データである音声データに変換する。   Specifically, for example, if the processing target data is voice data and the feature extraction unit 2 extracts a mel cepstrum coefficient from the voice data as a feature quantity, the time series data of the mel cepstrum is a time series pattern model. Therefore, the time series data generated by the time series generation unit 62 based on the time series pattern model 21 (FIG. 7) of the generation node is the time series data of the mel cepstrum. The output unit 63 converts the mel cepstrum (time series data) generated by the time series generation unit 62 into audio data that is time series data corresponding to the processing target data.

なお、メルケプストラムの時系列データを音声データ(時領域の音声)に変換する方法としては、例えば、MLSAフィルタ(メル対数スペクトル近似フィルタ)と呼ばれる合成フィルタによって、メルケプストラムの時系列データをフィルタリングする方法がある。MLSAフィルタの詳細については、例えば、今井聖、住田一男、古市千恵子、「音声合成のためのメル対数スペクトル近似(MLSA)フィルタ」、電子情報通信学会論文誌(A)、J66-A, 2, pp.122-129, 1983や、徳田恵一、小林隆夫、斉藤博徳、深田俊明、今井聖、「メルケプストラムをパラメータとする音声のスペクトル推定」、電子情報通信学会論文誌(A)、J74-A, 8, pp.1240-1248, 1991に記載されている。   As a method of converting time series data of mel cepstrum into voice data (time domain voice), for example, the mel cepstrum time series data is filtered by a synthesis filter called MLSA filter (Mel logarithm spectrum approximation filter). There is a way. For details on MLSA filters, see, for example, Kiyoshi Imai, Kazuo Sumita, Chieko Furuichi, “Mel Log Spectrum Approximation (MLSA) Filter for Speech Synthesis”, IEICE Transactions (A), J66-A, 2, pp.122-129, 1983, Keiichi Tokuda, Takao Kobayashi, Hironori Saito, Toshiaki Fukada, Kiyoshi Imai, "Spectrum estimation of speech using mel cepstrum as a parameter", IEICE Transactions (A), J74-A , 8, pp.1240-1248, 1991.

次に、図19のフローチャートを参照して、図10のデータ処理装置で行われる、時系列データ(処理対象データ)を生成する生成処理について説明する。   Next, generation processing for generating time-series data (processing target data) performed by the data processing apparatus of FIG. 10 will be described with reference to the flowchart of FIG.

ステップS31では、制御データが、生成部6(図18)に入力される。この制御データは、生成ノード決定部61に供給される。生成ノード決定部61は、記憶部5に記憶された時系列パターン記憶ネットワークを構成するノードのうちの、制御データとしてのノードラベルが表すノードを、生成ノードに決定し、その決定結果を、時系列生成部62に供給する。   In step S31, the control data is input to the generation unit 6 (FIG. 18). This control data is supplied to the generation node determination unit 61. The generation node determination unit 61 determines the node represented by the node label as the control data among the nodes constituting the time-series pattern storage network stored in the storage unit 5 as the generation node, and the determination result is This is supplied to the sequence generation unit 62.

時系列生成部62は、ステップS33において、生成ノード決定部61からの決定結果にしたがい、記憶部5に記憶された時系列パターン記憶ネットワークを構成するノードのうちの生成ノードが有する時系列パターンモデル21(のパラメータ)に基づいて、時系列データを生成し、出力部63に供給する。出力部63は、ステップS34において、時系列生成部62からの時系列データを、処理対象データに相当する時系列データに変換して出力する。   In step S33, the time series generation unit 62 follows the determination result from the generation node determination unit 61, and the time series pattern model that the generation node of the nodes constituting the time series pattern storage network stored in the storage unit 5 has. 21 (time parameter) is generated and supplied to the output unit 63. In step S <b> 34, the output unit 63 converts the time series data from the time series generation unit 62 into time series data corresponding to the processing target data and outputs it.

以上のような、時系列パターン記憶ネットワークを用いた生成処理によれば、その時系列パターン記憶ネットワークのノードの数に応じた(時系列パターンの)時系列データを生成することができる。   According to the generation process using the time-series pattern storage network as described above, time-series data (of the time-series pattern) corresponding to the number of nodes in the time-series pattern storage network can be generated.

以上のように、時系列パターンモデル21を有する複数のノードから構成される時系列パターン記憶ネットワークを、時系列データに基づいて、自己組織的に更新するようにしたので、長さが一定の時系列データは勿論、長さが一定でない時系列データの教師なし学習、つまり、時系列データの、いわば自律的な学習を、容易に(実用的に)行うことができる。   As described above, the time series pattern storage network composed of a plurality of nodes having the time series pattern model 21 is updated in a self-organized manner based on the time series data. In addition to series data, unsupervised learning of time-series data whose length is not constant, that is, autonomous learning of time-series data can be easily (practically) performed.

即ち、時系列パターン記憶ネットワークの各ノードは、時系列パターンモデル21を有するから、時系列パターン記憶ネットワークの学習において、ノードの更新、つまり、そのノードが有する時系列パターンモデル21の更新は、他のノードの更新に影響しない。従って、時系列パターン記憶ネットワークを構成するノードが1つ増えても、時系列パターン記憶ネットワークの学習に要する計算量は、単純には、1のノードの更新に要する計算量だけ増えるだけであり、時系列パターン記憶ネットワークの規模、つまり、時系列パターン記憶ネットワークを構成するノードの数を大にしても、時系列パターン記憶ネットワークの学習に要する計算量が飛躍的に増加することはない。従って、大規模な時系列パターン記憶ネットワークであっても、容易に、自己組織的に学習することができる。   That is, each node of the time-series pattern storage network has the time-series pattern model 21. Therefore, in learning of the time-series pattern storage network, node update, that is, update of the time-series pattern model 21 possessed by the node is It does not affect the update of other nodes. Therefore, even if the number of nodes constituting the time series pattern storage network increases by one, the calculation amount required for learning of the time series pattern storage network simply increases by the calculation amount required for updating one node. Even if the scale of the time-series pattern storage network, that is, the number of nodes constituting the time-series pattern storage network is increased, the amount of calculation required for learning of the time-series pattern storage network does not increase dramatically. Therefore, even a large-scale time-series pattern storage network can be easily learned in a self-organizing manner.

さらに、かかる時系列パターン記憶ネットワークの学習によれば、各ノードに、時系列データの統計的な特性を表す時系列パターンが記憶されるので、その時系列パターンを用いて、時系列データの認識や生成を、容易に行うことができる。   Furthermore, according to the learning of the time-series pattern storage network, the time-series pattern representing the statistical characteristics of the time-series data is stored in each node, so that the time-series data can be recognized using the time-series pattern. Generation can be done easily.

なお、学習処理、認識処理、生成処理は、例えば、音声データ、画像データ、モータを駆動する信号(モータデータ)、その他の任意の時系列データを対象として行うことができる。具体的には、例えば、図10のデータ処理装置を自律型のロボットなどの自律システムに適用し、そのロボットの視覚や、聴覚、触覚に相当するセンサが出力する信号や、ロボットの手や足に相当する部分を駆動するモータを制御する信号、合成音を生成する装置や目に相当するLEDに対して与える信号等を、学習処理、認識処理、生成処理の対象とする時系列データとして採用することができる。   Note that the learning process, the recognition process, and the generation process can be performed on, for example, audio data, image data, a signal for driving a motor (motor data), and other arbitrary time series data. Specifically, for example, the data processing apparatus of FIG. 10 is applied to an autonomous system such as an autonomous robot, and signals output from sensors corresponding to the vision, hearing, and touch of the robot, and the robot's hands and feet A signal that controls the motor that drives the part corresponding to the signal, a device that generates the synthesized sound, and a signal that is given to the LED that corresponds to the eye are used as time-series data for the learning, recognition, and generation processes. can do.

また、本実施の形態では、ノードが有する時系列パターンモデル21(図7)として、状態遷移確率モデルの1つであるHMMを採用することとしたが、時系列パターンモデル21としては、他の状態遷移確率モデルを採用することが可能である。   In the present embodiment, an HMM, which is one of the state transition probability models, is adopted as the time series pattern model 21 (FIG. 7) possessed by the node. It is possible to employ a state transition probability model.

時系列パターンモデル21として採用することができる他の状態遷移確率モデルとしては、例えば、ベイジアンネットワークがある。   As another state transition probability model that can be adopted as the time series pattern model 21, for example, there is a Bayesian network.

ベイジアンネットワークでは、変数間の依存関係をグラフ構造で表し、各ノードに条件付き確率を割り当てることでモデル化が行われるが、特に、時間軸に沿った状態遷移モデルを構築することで、時系列データをモデル化することが可能となる。   In a Bayesian network, modeling is performed by expressing the dependency relationships between variables in a graph structure and assigning conditional probabilities to each node. In particular, by constructing a state transition model along the time axis, time series Data can be modeled.

なお、ベイジアンネットワークのグラフ構造の決定は、例えば、学習データの尤度とグラフ構造の複雑さとを考慮したモデルを選択することにより行われ、条件付き確率の推定には、例えば、最尤推定法やEM(Expectation Maximaization)アルゴリズムなどが利用される。ここで、ベイジアンネットワークの詳細については、例えば、本村陽一、「不確実性モデリングのための情報表現:ベイジアンネット」、2001年、ベイジアンネットチュートリアルなどに記載されている。   Note that the determination of the graph structure of the Bayesian network is performed, for example, by selecting a model that considers the likelihood of the learning data and the complexity of the graph structure. For example, the maximum likelihood estimation method is used to estimate the conditional probability. And EM (Expectation Maximaization) algorithm are used. Here, details of the Bayesian network are described in, for example, Yoichi Motomura, “Information Representation for Uncertainty Modeling: Bayesian Network”, 2001, Bayesian Network Tutorial.

さらに、時系列パターンモデル21(図7)としては、上述のように、HMMやベイジアンネットワークなどのような状態遷移確率モデルを採用することができる他、関数を近似するモデル(以下、適宜、関数近似モデルという)を採用することもできる。   Furthermore, as the time series pattern model 21 (FIG. 7), as described above, a state transition probability model such as an HMM or a Bayesian network can be adopted, and a model approximating a function (hereinafter referred to as a function appropriately). It is also possible to adopt an approximate model).

関数近似モデルは、時系列パターンを、関数f()を用い、例えば、微分方程式{x(t)}'=f(x(t))や、差分方程式x(t+1)=f(x(t))などで表現するモデルで、関数f()が、時系列パターンを特徴づける。なお、tは時間(時刻)(サンプル点)を表し、x(t)は、時刻tの時系列データのサンプル値、または時刻(0から)tまでに観測された時系列データを表す。また、{x(t)}'は、時系列データx(t)の時間tに関する1次微分を表す。   The function approximation model uses a time series pattern as a function f (). For example, a differential equation {x (t)} '= f (x (t)) or a difference equation x (t + 1) = f (x (t)) etc., and the function f () characterizes the time series pattern. Note that t represents time (time) (sample point), and x (t) represents a sample value of time-series data at time t or time-series data observed up to time (from 0) t. Further, {x (t)} ′ represents a first derivative with respect to time t of time series data x (t).

学習データ(時系列データ)から、ある時系列パターンを表す(に対応する)関数f()を求めることを、関数近似と呼ぶと、関数近似の方法としては、例えば、多項式などを用いて関数 f() を表現し、その多項式の係数を、学習データから決定する方法や、ニューラルネットワークによって関数 f() を表現し、そのニューラルネットワークのパラメータを、学習データから決定する方法などがある。   Finding a function f () representing (corresponding to) a certain time series pattern from learning data (time series data) is called function approximation. For example, a function approximation method is a function using a polynomial or the like. There are a method of expressing f () and determining coefficients of the polynomial from learning data, a method of expressing a function f () by a neural network, and determining parameters of the neural network from learning data, and the like.

多項式で表現された関数f()の関数近似において、その多項式の係数の決定(推定)は、例えば、最急降下法などによって行うことができる。また、ニューラルネットワークによって表現された関数f()の関数近似において、そのニューラルネットワークのパラメータの決定は、例えば、バックプロパゲーション法によって行うことができる。ここで、バックプロパゲーション法では、ニューラルネットワークに入力と出力のデータを与え、その入力と出力のデータの関係を満たすように、ニューラルネットワークのパラメータの学習が行われる。   In the function approximation of the function f () expressed by a polynomial, the coefficient of the polynomial can be determined (estimated) by, for example, the steepest descent method. Further, in the function approximation of the function f () expressed by the neural network, the parameters of the neural network can be determined by, for example, the back propagation method. Here, in the back-propagation method, input and output data are given to the neural network, and learning of the neural network parameters is performed so as to satisfy the relationship between the input and output data.

例えば、時系列パターンモデル21として、関数f()を用いた差分方程式x(t+1)=f(x(t))で時系列パターンを表現する関数近似モデルを採用する場合、入力層x(t)と出力層x(t+1)をつなぐ重み(中間層)が、ニューラルネットワークのパラメータであり、このパラメータが、学習データ(時系列データ)を用いて学習される。ニューラルネットワークのパラメータの学習は、初期値を適当に与えて、バックプロパゲーション法により行われる。なお、ニューラルネットワークとしては、例えば、リカレントニューラルネットワークを採用することができる。   For example, when a function approximation model that expresses a time series pattern with a differential equation x (t + 1) = f (x (t)) using a function f () is adopted as the time series pattern model 21, the input layer x A weight (intermediate layer) connecting (t) and the output layer x (t + 1) is a parameter of the neural network, and this parameter is learned using learning data (time-series data). The learning of the parameters of the neural network is performed by the back propagation method with appropriate initial values. As the neural network, for example, a recurrent neural network can be adopted.

関数f()がニューラルネットワークによって表現される時系列パターンモデル21を有するノードで構成される時系列パターン記憶ネットワークの学習等でも、上述のHMMを時系列パターンモデル21として採用した場合と同様に、勝者ノードを決定する必要があり、勝者ノードの決定のためには、時系列パターン記憶ネットワークの各ノードの、新たな時系列データに対するスコアを計算する必要がある。   In learning of a time series pattern storage network composed of nodes having a time series pattern model 21 in which the function f () is expressed by a neural network, as in the case where the above-described HMM is adopted as the time series pattern model 21, It is necessary to determine a winner node, and in order to determine a winner node, it is necessary to calculate a score for new time-series data of each node of the time-series pattern storage network.

このスコアとしては、例えば、新たな時系列データの観測値(実際の値)と、関数f()がニューラルネットワークによって表現される時系列パターンモデル21から求められる、新たな時系列データの理論値との誤差(例えば、差の二乗和など)を採用することができる。この場合、スコアの値が最も小さいノードが、新たな時系列データに最も適合するノードである勝者ノードとして決定される。   As this score, for example, the observed value (actual value) of the new time series data and the theoretical value of the new time series data obtained from the time series pattern model 21 in which the function f () is expressed by a neural network. (For example, the sum of squared differences) can be employed. In this case, the node having the smallest score value is determined as the winner node that is the node most suitable for the new time-series data.

勝者ノードの決定後は、各ノードの更新重みを決定し、以下、上述のHMMを時系列パターンモデル21として採用した場合と同様の手順で、各ノード(が有するニューラルネットワーク)のパラメータを更新することができる。   After the winner node is determined, the update weight of each node is determined, and then the parameters of each node (the neural network) are updated in the same procedure as when the above-described HMM is adopted as the time series pattern model 21. be able to.

なお、スコアが、例えば、尤度である場合は、スコアが大きいほど、良いスコアとなり、スコアが、例えば、誤差や距離である場合には、スコアが小さいほど、良いスコアとなる。   For example, when the score is likelihood, the higher the score, the better the score. When the score is, for example, an error or distance, the smaller the score, the better the score.

次に、以上のような時系列パターン記憶ネットワークを適用した順モデルや逆モデルについて説明する。   Next, a forward model and an inverse model to which the above time series pattern storage network is applied will be described.

図20は、時系列パターン記憶ネットワークが適用された順モデルまたは逆モデルとしての入出力関係モデルの構成例を模式的に示している。   FIG. 20 schematically illustrates a configuration example of an input / output relationship model as a forward model or an inverse model to which the time-series pattern storage network is applied.

図20において、入出力関係モデルは、2つの時系列パターン記憶ネットワークnetinおよびnetoutを有している。さらに、入出力関係モデルは、時系列パターン記憶ネットワークnetinの各ノードNi(i=1,2,・・・,ノードの総数)と、時系列パターン記憶ネットワークnetoutの各ノードN'j(j=1,2,・・・,ノードの総数)とが結合されている結合モデルである。 In FIG. 20, the input / output relationship model has two time-series pattern storage networks net in and net out . Furthermore, input-output relationship model when each node of the sequence pattern storage network net Non in N i and (i = 1, 2, · · ·, the total number of nodes), when each node N 'j of sequence pattern storage network net out (J = 1, 2,..., The total number of nodes).

ここで、図20において、時系列パターン記憶ネットワークnetinのノードNiと、時系列パターン記憶ネットワークnetoutのノードN'jとの間の矢印が、そのノードNiとN'jとの結合を表している。 Here, coupling of the FIG. 20, the node N i of the time series pattern storage network net Non in, when a node N of the sequence pattern storage network net Non out 'arrow between the j is the node N i and N' and j Represents.

なお、時系列パターン記憶ネットワークnetinおよびnetoutは、同一の数のノードと同一のリンク(リンクがない場合を含む)を有するものであっても良いし、異なる数のノードまたは異なるリンクを有するものであっても良い。また、時系列パターン記憶ネットワークnetinのノードNiが有する時系列パターンモデル21(図7)と、時系列パターン記憶ネットワークnetoutのノードが有する時系列パターンモデル21も、同一の時系列パターンモデルであっても良いし、異なる時系列パターンモデルであっても良い。 The time-series pattern storage networks net in and net out may have the same number of nodes and the same links (including the case where there is no link), or have different numbers of nodes or different links. It may be a thing. Also, when the time series pattern model 21 of the node N i of sequence pattern storage network net Non in (Fig. 7), the time series pattern model 21 which node has the time series pattern storage network net out also, the same time series pattern model It may be a different time series pattern model.

次に、図21は、入出力関係モデルを用いて、各種の処理を行うデータ処理装置の構成例を示している。   Next, FIG. 21 illustrates a configuration example of a data processing apparatus that performs various processes using an input / output relation model.

図21のデータ処理装置では、図20の入出力関係モデルによって制御対象を順モデルまたは逆モデルにモデル化し、さらに、その順モデルまたは逆モデルとしての入出力関係モデルを用いて、制御対象から得られる出力データや、制御対象に与えるべき制御データ(入力データ)を推定する。   In the data processing apparatus shown in FIG. 21, the control target is modeled as a forward model or an inverse model using the input / output relation model shown in FIG. Output data to be output and control data (input data) to be given to the controlled object are estimated.

即ち、図21において、データ処理装置は、記憶部211、学習部212、および認識生成部213から構成されている。   In other words, in FIG. 21, the data processing apparatus includes a storage unit 211, a learning unit 212, and a recognition generation unit 213.

記憶部211は、例えば、図20に示した入出力関係モデルなどを記憶する。   The storage unit 211 stores, for example, the input / output relationship model illustrated in FIG.

学習部212には、モデル化しようとする制御対象に与えられる入力データ(の観測値)と、その入力データに対して制御対象から得られる出力データ(の観測値)とのセットである教示データが供給されるようになっている。ここで、教示データは、ある区間の時系列データ(ある時間に亘る時系列データ)である入力データと、その区間の時系列データに対して制御対象から得られる区間の他の時系列データである出力データとのセットである。   The learning unit 212 includes teaching data that is a set of input data (observed values) given to the control target to be modeled and output data (observed values) obtained from the control target for the input data. Is to be supplied. Here, the teaching data is input data that is time-series data of a certain section (time-series data over a certain period of time), and other time-series data of a section obtained from the control target with respect to the time-series data of that section. A set with some output data.

学習部212は、そこに供給される教示データを用い、制御対象の順モデルまたは逆モデルとしての入出力関係モデルの学習を行う。   The learning unit 212 uses the teaching data supplied thereto to learn the input / output relationship model as a forward model or an inverse model to be controlled.

即ち、学習部212は、学習処理部221と結合重み更新部222から構成される。   That is, the learning unit 212 includes a learning processing unit 221 and a connection weight update unit 222.

学習処理部221は、図12に示した学習処理部32と同様に構成され、学習部212に供給される教示データのうちの入力データに基づいて、記憶部211に記憶された入出力関係モデル(図20)における時系列パターン記憶ネットワークnetinを、図10のデータ処理装置における場合と同様に、自己組織的に更新する。また、学習処理部221は、学習部212に供給される教示データのうちの出力データ(教示データにおいて、入力データとセットになっている出力データ)に基づいて、記憶部211に記憶された入出力関係モデル(図20)における時系列パターン記憶ネットワークnetoutを、図10のデータ処理装置における場合と同様に、自己組織的に更新する。 The learning processing unit 221 is configured in the same manner as the learning processing unit 32 illustrated in FIG. 12, and based on input data of teaching data supplied to the learning unit 212, an input / output relation model stored in the storage unit 211. The time-series pattern storage network net in in (FIG. 20) is updated in a self-organizing manner as in the case of the data processing apparatus in FIG. The learning processing unit 221 also inputs data stored in the storage unit 211 based on the output data (the output data set with the input data in the teaching data) of the teaching data supplied to the learning unit 212. The time-series pattern storage network net out in the output relation model (FIG. 20) is updated in a self-organizing manner as in the case of the data processing apparatus of FIG.

さらに、学習処理部221は、時系列パターン記憶ネットワークnetinを更新するときに勝者ノードとなった、その時系列パターン記憶ネットワークnetinのノードNiのノードラベル(以下、適宜、入力ラベルという)と、時系列パターン記憶ネットワークnetoutを更新するときに勝者ノードとなった、その時系列パターン記憶ネットワークnetoutのノードN'jのノードラベル(以下、適宜、出力ラベルという)とをセットにしたラベルセットを、結合重み更新部222に供給する。 Further, the learning processing unit 221, when the time to update the sequence pattern storage network net Non in was the winning node, the time series pattern node label of the node N i of the storage network net Non in (hereinafter referred to as the input label) and , the time series pattern was the winning node to update the storage network net out, the time series pattern storage network net out node N 'j of node labels (hereinafter referred to as the output of the label) label set obtained by the set and Is supplied to the connection weight update unit 222.

結合重み更新部222は、学習処理部221から供給されるラベルセットに基づき、記憶部211に記憶された入出力関係モデル(図20)における時系列パターン記憶ネットワークnetoutのノードNiと、時系列パターン記憶ネットワークnetoutのノードN'jとの結合関係を更新する。 Based on the label set supplied from the learning processing unit 221, the connection weight updating unit 222 is connected to the node N i of the time-series pattern storage network net out in the input / output relation model (FIG. 20) stored in the storage unit 211 and the time. The connection relationship with the node N ′ j of the sequence pattern storage network net out is updated.

ここで、学習処理部221から結合重み更新部222に供給されるラベルセットは、入力ラベルと出力ラベルとのセットであり、入力ラベルは、教示データのうちの入力データに基づいて時系列パターン記憶ネットワークnetinを更新するときに勝者ノードとなった、その時系列パターン記憶ネットワークnetinのノードNiのノードラベルであるから、時系列パターン記憶ネットワークnetinにおいて、入力データに最も適合するノードNiのノードラベルである。 Here, the label set supplied from the learning processing unit 221 to the connection weight updating unit 222 is a set of an input label and an output label, and the input label is stored in time series pattern based on the input data of the teaching data. was the winning node to update the network net Non in, since it is the node label of the node N i of the time series pattern storage network net Non in, in the time series pattern storage network net Non in, most compatible node input data N i Is the node label.

同様に、出力ラベルは、教示データのうちの出力データに基づいて時系列パターン記憶ネットワークnetoutを更新するときに勝者ノードとなった、その時系列パターン記憶ネットワークnetoutのノードN'jのノードラベルであるから、時系列パターン記憶ネットワークnetoutにおいて、出力データに最も適合するノードN'jのノードラベルである。 Similarly, the output label is the node label of the node N ′ j of the time-series pattern storage network net out that became the winner node when updating the time-series pattern storage network net out based on the output data of the teaching data. Therefore, in the time-series pattern storage network net out , the node label of the node N ′ j that best matches the output data.

結合重み更新部222では、時系列パターン記憶ネットワークnetinのノードのうちの、教示データにおける入力データに最も適合するノードである勝者ノードNiと、時系列パターン記憶ネットワークnetoutの各ノードとの結合関係が更新されるとともに、時系列パターン記憶ネットワークnetoutのノードのうちの、教示データにおける出力データに最も適合するノードである勝者ノードN'jと、時系列パターン記憶ネットワークnetinの各ノードとの結合関係が更新される。 In the weight updating unit 222, of the nodes of the time series pattern storage network net Non in, and winning node N i which is the most compatible node to the input data in the teaching data, with each node of the time series pattern storage network net out While the connection relationship is updated, among the nodes of the time series pattern storage network net out , the winner node N ′ j that is the most suitable node for the output data in the teaching data, and each node of the time series pattern storage network net in The connection relationship with is updated.

ここで、入出力関係モデルにおける時系列パターン記憶ネットワークnetinのノードと、時系列パターン記憶ネットワークnetoutのノードとの間の結合関係は、その結合の度合いが強いほど、大きな値となる結合重みによって表されるようになっており、ノードどうしの結合関係の更新とは、結合重みの更新を意味する。結合重み更新部222によるノードどうしの結合関係の更新の方法についての詳細は、後述する。 Here, the connection weight between the node of the time series pattern storage network net in and the node of the time series pattern storage network net out in the input / output relationship model is such that the stronger the degree of the connection, the larger the connection weight. The update of the connection relationship between the nodes means the update of the connection weight. Details of the method of updating the connection relationship between nodes by the connection weight update unit 222 will be described later.

認識生成部213には、制御対象から得られる出力データを推定するための入力データ、または制御対象から得られる出力データをある目標値とするのに制御対象に与えるべき入力データ(制御データ)を推定するための出力データが供給される。   The recognition generator 213 receives input data for estimating output data obtained from the control target, or input data (control data) to be given to the control target in order to set the output data obtained from the control target as a certain target value. Output data for estimation is provided.

そして、認識生成部213は、入力データが供給された場合は、記憶部211に記憶された入出力関係モデルにおける時系列パターン記憶ネットワークnetinにおいて、その入力データに最も適合する勝者ノードNiを決定し、その勝者ノードNiとの結合重みが最も強い、時系列パターン記憶ネットワークnetoutのノードを、その入力データに対する出力データの推定値としての時系列データを生成する生成ノードN'jに決定する。さらに、認識生成部213は、生成ノードN'jが有する時系列パターンモデル21(図7)に基づいて、出力データ(の推定値)を生成して出力する。 Then, the recognition generating unit 213, when the input data is supplied, the time series pattern storage network net Non in the stored input-output relationship model in the storage unit 211, that best fits winning node N i to the input data determined, the strongest coupling weight between the winning node N i, the node of the time series pattern storage network net Non out, the generating node N 'j of generating time-series data as the estimated value of the output data for the input data decide. Further, the recognition generation unit 213 generates and outputs output data (estimated value thereof) based on the time series pattern model 21 (FIG. 7) included in the generation node N ′ j .

また、認識生成部213は、出力データが供給された場合は、記憶部211に記憶された入出力関係モデルにおける時系列パターン記憶ネットワークnetoutにおいて、その出力データに最も適合する勝者ノードN'jを決定し、その勝者ノードN'jとの結合重みが最も強い、時系列パターン記憶ネットワークnetinのノードを、その出力データが得られるときに制御対象に与えられる制御データ(入力データ)の推定値としての時系列データを生成する生成ノードNiに決定する。さらに、認識生成部213は、生成ノードNiが有する時系列パターンモデル21(図7)に基づいて、制御データ(の推定値)を生成して出力する。 In addition, when the output data is supplied, the recognition generation unit 213 receives the winner node N ′ j that best matches the output data in the time series pattern storage network net out in the input / output relation model stored in the storage unit 211. Estimate the control data (input data) given to the control object when the output data is obtained for the node of the time-series pattern storage network net in that has the strongest connection weight with the winner node N ' j determining the generating node N i for generating the time-series data as the value. Furthermore, the recognition generating unit 213, based on the time series pattern model 21 (FIG. 7) having the generating node N i, and generates and outputs control data (estimated value of).

即ち、認識生成部213は、スコア計算部231、勝者ノード決定部232、生成ノード決定部233、および時系列生成部234から構成される。   That is, the recognition generation unit 213 includes a score calculation unit 231, a winner node determination unit 232, a generation node determination unit 233, and a time series generation unit 234.

なお、スコア計算部231、勝者ノード決定部232、生成ノード決定部233、および時系列生成部234は、認識生成部213に供給されたデータが、入力データであるのか、または出力データであるのかを認識することができるようになっているものとする。即ち、例えば、認識生成部213に対しては、そこに供給されるデータとは別に、あるいは、そこに供給されるデータとともに、そのデータが、入力データまたは出力データのうちのいずれであるのかを表す情報が供給されるようになっており、これにより、スコア計算部231、勝者ノード決定部232、生成ノード決定部233、および時系列生成部234は、認識生成部213に供給されたデータが、入力データであるのか、または出力データであるのかを認識する。   Note that the score calculation unit 231, the winner node determination unit 232, the generation node determination unit 233, and the time series generation unit 234 determine whether the data supplied to the recognition generation unit 213 is input data or output data. Can be recognized. That is, for example, for the recognition generation unit 213, whether the data is input data or output data separately from or together with the data supplied thereto. As a result, the score calculation unit 231, the winner node determination unit 232, the generation node determination unit 233, and the time series generation unit 234 receive the data supplied to the recognition generation unit 213. It recognizes whether it is input data or output data.

スコア計算部231は、認識生成部213に供給されたデータに対して、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetinの各ノードNi、または時系列パターン記憶ネットワークnetoutの各ノードN'jが適合する度合いであるスコアを、図16の認識部3のスコア計算部51における場合と同様にして計算し、勝者ノード決定部232に供給する。 For the data supplied to the recognition generation unit 213, the score calculation unit 231 uses each node N i of the time series pattern storage network net in that constitutes the input / output relation model stored in the storage unit 211, or the time series pattern. A score, which is the degree to which each node N ′ j of the storage network net out matches, is calculated in the same manner as in the score calculation unit 51 of the recognition unit 3 in FIG. 16 and supplied to the winner node determination unit 232.

即ち、スコア計算部231は、認識生成部213に供給されたデータが入力データである場合、その入力データに対して、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetinの各ノードNiのスコアを計算し、勝者ノード決定部232に供給する。また、スコア計算部231は、認識生成部213に供給されたデータが出力データである場合、その出力データに対して、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetoutの各ノードN'jのスコアを計算し、勝者ノード決定部232に供給する。 That is, when the data supplied to the recognition generation unit 213 is input data, the score calculation unit 231 has a time-series pattern storage network that constitutes an input / output relation model stored in the storage unit 211 for the input data. It calculates a score for each node N i of net Non in, supplied to the winning node determining unit 232. In addition, when the data supplied to the recognition generation unit 213 is output data, the score calculation unit 231 includes a time-series pattern storage network that forms an input / output relation model stored in the storage unit 211 for the output data. The score of each node N ′ j in net out is calculated and supplied to the winner node determination unit 232.

勝者ノード決定部232は、図16の認識部3の勝者ノード決定部52における場合と同様に、スコア計算部231から供給されるスコアが最も高いノードを勝者ノードに決定し、その勝者ノードを表すノードラベルを、生成ノード決定部233に供給する。   Similarly to the case of the winner node determination unit 52 of the recognition unit 3 in FIG. 16, the winner node determination unit 232 determines the node having the highest score supplied from the score calculation unit 231 as the winner node, and represents the winner node. The node label is supplied to the generation node determination unit 233.

従って、認識生成部213に供給されたデータが入力データである場合、勝者ノード決定部232では、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetinのノードの中で、スコア計算部231から供給される、入力データに対するスコアが最も高いノードが、勝者ノードNiに決定され、その勝者ノードNiを表す入力ラベルが、生成ノード決定部233に供給される。また、認識生成部213に供給されたデータが出力データである場合、勝者ノード決定部232では、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetoutのノードの中で、スコア計算部231から供給される、出力データに対するスコアが最も高いノードが、勝者ノードN'jに決定され、その勝者ノードN'jを表す出力ラベルが、生成ノード決定部233に供給される。 Therefore, when the data supplied to the recognition generation unit 213 is input data, the winner node determination unit 232 includes a node in the time-series pattern storage network net in that constitutes the input / output relationship model stored in the storage unit 211. in, it is supplied from the score computing unit 231, the highest node score for the input data is determined to winning node N i, input label representing the winning node N i is supplied to the generating node determining unit 233. In addition, when the data supplied to the recognition generation unit 213 is output data, the winner node determination unit 232 includes a node in the time-series pattern storage network net out that constitutes the input / output relation model stored in the storage unit 211. in, is supplied from the score computing unit 231, the highest node score for output data, 'is determined to j, the winning node N' winning node N output label representing a j is supplied to the generating node determining unit 233 The

なお、ここでは、最も高い(大きい)スコアが最も良いスコアであるとする。   Here, it is assumed that the highest (larger) score is the best score.

生成ノード決定部233は、勝者ノード決定部232から入力ラベルが供給された場合、即ち、認識生成部213に供給されたデータが入力データである場合、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetoutのノードの中で、勝者ノード決定部232からの入力ラベルが表すノードNiとの結合重みが最も強い(最強の)ノードN'jを生成ノードとして決定し、その生成ノードN'jを表す出力ラベルを、時系列生成部234に供給する。また、生成ノード決定部233は、勝者ノード決定部232から出力ラベルが供給された場合、即ち、認識生成部213に供給されたデータが出力データである場合、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetinのノードの中で、勝者ノード決定部232からの出力ラベルが表すノードN'jとの結合重みが最も強い(最強の)ノードNiを生成ノードとして決定し、その生成ノードNiを表す入力ラベルを、時系列生成部234に供給する。 When the input label is supplied from the winner node determination unit 232, that is, when the data supplied to the recognition generation unit 213 is input data, the generation node determination unit 233 stores the input / output relation model stored in the storage unit 211. among the nodes of the time series pattern storage network net out constituting the decision strongest link weight between the nodes N i represented by the input label from the winning node determining unit 232 (strongest) node N 'j as a generation node Then, the output label representing the generation node N ′ j is supplied to the time series generation unit 234. Also, the generation node determination unit 233 inputs / outputs stored in the storage unit 211 when the output label is supplied from the winner node determination unit 232, that is, when the data supplied to the recognition generation unit 213 is output data. Among the nodes of the time-series pattern storage network net in constituting the relation model, the node N i that generates the strongest (strongest) node Ni with the connection weight with the node N ′ j represented by the output label from the winner node determination unit 232 determined as to supply the input label representing the generating node N i, the time-sequence generating unit 234.

時系列生成部234は、生成ノード決定部233から出力ラベルが供給された場合、即ち、認識生成部213に供給されたデータが入力データである場合、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetoutのノードのうちの、生成ノード決定部233からの出力ラベルが表すノードN'jが有する時系列パターンモデル21(図7)に基づいて、認識生成部213に供給された入力データに対する出力データの推定値としての時系列データを、例えば、図18の生成部6の時系列生成部62における場合と同様にして生成する。 When the output label is supplied from the generation node determination unit 233, that is, when the data supplied to the recognition generation unit 213 is input data, the time series generation unit 234 stores the input / output relation model stored in the storage unit 211. Based on the time-series pattern model 21 (FIG. 7) possessed by the node N ′ j represented by the output label from the generation node determination unit 233 among the nodes of the time-series pattern storage network net out that constitutes the recognition generation unit 213 The time series data as the estimated value of the output data with respect to the input data supplied to is generated, for example, in the same manner as in the time series generation unit 62 of the generation unit 6 in FIG.

また、時系列生成部234は、生成ノード決定部233から入力ラベルが供給された場合、即ち、認識生成部213に供給されたデータが出力データである場合、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetinのノードのうちの、生成ノード決定部233からの入力ラベルが表すノードNiが有する時系列パターンモデル21に基づいて、認識生成部213に供給された出力データに対する制御データ(入力データ)の推定値としての時系列データを、例えば、図18の生成部6の時系列生成部62における場合と同様にして生成する。 Further, when the input label is supplied from the generation node determination unit 233, that is, when the data supplied to the recognition generation unit 213 is output data, the time series generation unit 234 inputs / outputs stored in the storage unit 211. based on the time series pattern storage network of the nodes of the net Non in, time series pattern model 21 of the node N i is represented by the input label from the generation node determining unit 233 constituting a related model, is supplied to the recognition generating unit 213 For example, the time series data as the estimated value of the control data (input data) for the output data is generated in the same manner as in the time series generation unit 62 of the generation unit 6 of FIG.

次に、図22のフローチャートを参照して、図21のデータ処理装置で行われる、入出力関係モデルによる制御対象のモデル化、即ち、入出力関係モデルの学習について説明する。   Next, with reference to the flowchart of FIG. 22, modeling of a control target by the input / output relationship model, that is, learning of the input / output relationship model, which is performed in the data processing device of FIG.

ステップS101において、入力データと出力データとのセットである教示データが、図21のデータ処理装置に入力されると、その教示データは、学習部212の学習処理部221に供給される。   In step S <b> 101, when teaching data that is a set of input data and output data is input to the data processing apparatus of FIG. 21, the teaching data is supplied to the learning processing unit 221 of the learning unit 212.

学習処理部221は、ステップS102において、教示データのうちの入力データに基づいて、記憶部211に記憶された入出力関係モデル(図20)における時系列パターン記憶ネットワークnetinを、自己組織的に更新し、ステップS103に進む。ステップS103では、学習処理部221は、教示データのうちの出力データに基づいて、記憶部211に記憶された入出力関係モデルにおける時系列パターン記憶ネットワークnetoutを、自己組織的に更新する。 In step S102, the learning processing unit 221 self-organizes the time series pattern storage network net in in the input / output relation model (FIG. 20) stored in the storage unit 211 based on the input data of the teaching data. Update and go to step S103. In step S103, the learning processing unit 221 updates the time series pattern storage network net out in the input / output relation model stored in the storage unit 211 in a self-organizing manner based on the output data of the teaching data.

そして、学習処理部221は、時系列パターン記憶ネットワークnetinを更新するときに勝者ノードとなった、その時系列パターン記憶ネットワークnetinのノードNiの入力ラベルと、時系列パターン記憶ネットワークnetoutを更新するときに勝者ノードとなった、その時系列パターン記憶ネットワークnetoutのノードN'jの出力ラベルとのセットであるラベルセットを、結合重み更新部222に供給する。 Then, the learning processing unit 221, when time update sequence pattern storage network net Non in was the winning node to an input label of the node N i of the time series pattern storage network net Non in, the time series pattern storage network net out A label set that is a set with the output label of the node N ′ j of the time-series pattern storage network net out that became the winner node when updating is supplied to the connection weight update unit 222.

結合重み更新部222は、ステップS104において、学習処理部221から供給されるラベルセットに基づき、記憶部211に記憶された入出力関係モデル(図20)における時系列パターン記憶ネットワークnetinの各ノードと、時系列パターン記憶ネットワークnetoutの各ノードとの結合重みを更新して、ステップS101に戻り、次の教示データが入力されるのを待って、以下、同様の処理が繰り返される。 In step S104, the connection weight updating unit 222, based on the label set supplied from the learning processing unit 221, each node of the time-series pattern storage network net in in the input / output relationship model (FIG. 20) stored in the storage unit 211. Then, the connection weight with each node of the time-series pattern storage network net out is updated, the process returns to step S101, waits for the next teaching data to be input, and thereafter the same processing is repeated.

多数の教示データが入力され、ステップS101乃至S104の処理が繰り返されることにより、記憶部211に記憶された入出力関係モデルは、制御対象に対応する順モデルとなっていくとともに、逆モデルにもなっていく。   By inputting a large number of teaching data and repeating the processing of steps S101 to S104, the input / output relationship model stored in the storage unit 211 becomes a forward model corresponding to the control target, and also an inverse model. It will become.

なお、ステップS102とS103の処理は、並列して行うこともできるし、図22の場合と逆順で行うこともできる。   Note that the processing of steps S102 and S103 can be performed in parallel, or can be performed in the reverse order of the case of FIG.

次に、図23を参照して、結合重み更新部222(図21)が、図22のステップS104で行う結合重み(ノードどうしの結合関係)の更新について説明する。   Next, with reference to FIG. 23, the update of the connection weight (connection relationship between nodes) performed by the connection weight updating unit 222 (FIG. 21) in step S104 of FIG. 22 will be described.

なお、以下、適宜、入出力関係モデルにおいて、入力データが与えられる時系列パターン記憶ネットワーク、つまり、入力データを用いて学習が行われ、入力データの時系列パターンを表現する時系列パターンモデル21を有する複数のノードから構成される時系列パターン記憶ネットワーク(例えば、時系列パターン記憶ネットワークnetin)を、入力ネットワークといい、出力データが与えられる時系列パターン記憶ネットワーク、つまり、出力データを用いて学習が行われ、出力データの時系列パターンを表現する時系列パターンモデル21を有する複数のノードから構成される時系列パターン記憶ネットワーク(例えば、時系列パターン記憶ネットワークnetout)を、出力ネットワークという。 Note that, hereinafter, as appropriate, in the input / output relation model, a time-series pattern storage network to which input data is given, that is, a time-series pattern model 21 that performs learning using the input data and expresses the time-series pattern of the input data. A time-series pattern storage network (for example, a time-series pattern storage network net in ) composed of a plurality of nodes is called an input network, and learning is performed using a time-series pattern storage network to which output data is given, that is, output data. A time series pattern storage network (for example, a time series pattern storage network net out ) composed of a plurality of nodes having a time series pattern model 21 expressing a time series pattern of output data is referred to as an output network.

さらに、以下、適宜、入力ネットワークのノードを入力ノードといい、出力ネットワークのノードを出力ノードという。   Further, hereinafter, a node of the input network is referred to as an input node, and a node of the output network is referred to as an output node as appropriate.

また、以下では、入出力関係モデルを、入力データを与えて出力データを推定する順モデルとして用いる場合についての説明をし、入出力関係モデルを、出力データ(目標値)を与えて入力データ(制御データ)を推定する逆モデルとして用いる場合についての説明は適宜省略する。   In the following description, the input / output relation model is used as a forward model for estimating output data given input data, and the input / output relation model is given input data (target value). Description of the case of using it as an inverse model for estimating (control data) will be omitted as appropriate.

図23は、入出力関係モデルを示している。   FIG. 23 shows an input / output relationship model.

図23左側では、入出力関係モデルは、1つの入力ネットワークnetinと、1つの出力ネットワークnetoutとを有し、入力ネットワークnetinの各入力ノードと、出力ネットワークnetoutの各出力ノードとが結合している。なお、図23では、入力ネットワークnetin、および出力ネットワークnetoutのいずれも、8つのノードで構成されている。 On the left side of FIG. 23, the input / output relationship model has one input network net in and one output network net out, and each input node of the input network net in and each output node of the output network net out Are connected. In FIG. 23, both the input network net in and the output network net out are configured by eight nodes.

図23左側では、入力ネットワークnetinの各入力ノードは、出力ネットワークnetoutのすべての出力ノードと結合しており(従って、出力ネットワークnetoutの各出力ノードも、入力ネットワークnetinのすべての入力ノードと結合している)、入力ネットワークnetinの入力ノードと、出力ネットワークnetoutの出力ノードとのすべての組み合わせについて、結合重みwが存在する。 On the left side of FIG. 23, each input node of the input network net in is coupled to all output nodes of the output network net out (thus each output node of the output network net out is also all inputs of the input network net in ). There is a connection weight w for every combination of input nodes of the input network net in and output nodes of the output network net out .

いま、ノードどうしが結合している2つの時系列パターン記憶ネットワークに注目し、そのうちの一方の時系列パターン記憶ネットワークのノードを各行に対応させるとともに、他方の時系列パターン記憶ネットワークのノードを各列に対応させ、第i行第j列の要素に、一方の時系列パターン記憶ネットワークのi番目のノードと、他方の時系列パターン記憶ネットワークのj番目のノードとの結合重みwを配置した行列を、結合重み行列MTXということとすると、結合重み更新部222(図21)は、この結合重み行列MTXの各要素である結合重みwを更新する。   Attention is now focused on two time-series pattern storage networks in which nodes are connected, and one of the time-series pattern storage networks is associated with each row, and the other time-series pattern storage network is connected to each column. And a matrix in which the connection weight w of the i-th node of one time-series pattern storage network and the j-th node of the other time-series pattern storage network is arranged in the element of the i-th row and j-th column. Assuming that the connection weight matrix MTX is used, the connection weight updating unit 222 (FIG. 21) updates the connection weight w that is each element of the connection weight matrix MTX.

図23右側は、図23左側の入出力関係モデルについての結合重み行列MTXを示している。   The right side of FIG. 23 shows the connection weight matrix MTX for the input / output relationship model on the left side of FIG.

図23右側の結合重み行列MTXでは、入力ノードを各行に対応させるとともに、出力ノードを各列に対応させ、第i行第j列の要素に、i番目の入力ノードと、j番目の出力ノードとの結合重みwが配置されている。結合重み更新部222(図21)は、この結合重み行列MTXの各要素である結合重みwを更新する。   In the connection weight matrix MTX on the right side of FIG. 23, an input node is associated with each row, an output node is associated with each column, an i-th input node, and a j-th output node as elements of the i-th row and j-th column. And the connection weight w is arranged. The connection weight updating unit 222 (FIG. 21) updates the connection weight w that is each element of the connection weight matrix MTX.

即ち、結合重み更新部222は、例えば、最初に電源がオンにされたときに、結合重み行列MTXにおけるすべての結合重みwを、例えば、初期値としての0に初期化する。そして、結合重み更新部222は、図21のデータ処理装置に対して、教示データ、つまり、入力データと出力データとのセットが入力され、これにより、入力ネットワークnetinにおける勝者ノードを表す入力ラベルと、出力ネットワークnetoutにおける勝者ノードを表す出力ラベルとのラベルセットが、学習処理部221から与えられるたびに、それらの勝者ノードどうしの結合を、いわば中心として、結合重みを更新する。 That is, for example, when the power is first turned on, the connection weight updating unit 222 initializes all the connection weights w in the connection weight matrix MTX to, for example, 0 as an initial value. Then, the connection weight updating unit 222 receives teaching data, that is, a set of input data and output data, from the data processing apparatus shown in FIG. 21, and thereby an input label representing a winner node in the input network net in . Each time a label set with an output label representing a winner node in the output network net out is given from the learning processing unit 221, the connection weight is updated with the connection between the winner nodes as the center.

具体的には、結合重み更新部222は、例えば、式(4)にしたがって、結合重み行列MTXの結合重みwを更新する。   Specifically, the connection weight updating unit 222 updates the connection weight w of the connection weight matrix MTX, for example, according to the equation (4).

Figure 2007280008
Figure 2007280008

ここで、βは、結合重みwを更新する程度の表す学習率であり、0から1の範囲で与えられる。学習率βを小さくするほど、結合重みwは、あまり変化しなくなり、学習率βが0である場合には、結合重みwは変化しない。一方、学習率βを大きくするほど、結合重みwも、大きく変化し、学習率βが1である場合には、結合重みwは、更新の基準値△wに更新される。   Here, β is a learning rate representing the degree of updating the connection weight w, and is given in the range of 0 to 1. As the learning rate β decreases, the connection weight w does not change much. When the learning rate β is 0, the connection weight w does not change. On the other hand, as the learning rate β is increased, the connection weight w is also greatly changed. When the learning rate β is 1, the connection weight w is updated to the update reference value Δw.

また、基準値△wは、例えば、式(5)で与えられる。   Further, the reference value Δw is given by, for example, Expression (5).

Figure 2007280008
Figure 2007280008

ここで、dは、式(3)における場合と同様に、勝者ノードとのパターン間距離を表し、勝者ノードとなっているノードについては、d=0である。従って、勝者ノード(となっているノード)については、基準値△wは1となり、勝者ノードからのパターン間距離dが大のノードほど、基準値△wは0に近づく。   Here, d represents the inter-pattern distance with the winner node, similarly to the case of Expression (3), and d = 0 for the node that is the winner node. Therefore, the reference value Δw is 1 for the winner node (the node that is), and the reference value Δw approaches 0 as the inter-pattern distance d from the winner node increases.

いま、学習処理部221(図21)から結合重み更新部222に供給される入力ラベルが表す入力ノード、即ち、入力ネットワークnetinにおける勝者ノードを、入力ノードNiと表すとともに、学習処理部221(図21)から結合重み更新部222に供給される出力ラベルが表す出力ノード、即ち、出力ネットワークnetoutにおける勝者ノードを、出力ノードN'jと表すと、結合重み更新部222(図21)は、式(4)(および式(5))にしたがい、以下のように、結合重み行列MTXの結合重みwを更新する。 Now, the input node represented by the input label supplied from the learning processing unit 221 (FIG. 21) to the connection weight updating unit 222, that is, the winner node in the input network net in is represented as the input node Ni and the learning processing unit 221. When the output node represented by the output label supplied from (FIG. 21) to the connection weight update unit 222, that is, the winner node in the output network net out is represented as the output node N ′ j , the connection weight update unit 222 (FIG. 21). Updates the connection weight w of the connection weight matrix MTX as follows according to Expression (4) (and Expression (5)).

即ち、結合重み更新部222は、出力ネットワークnetoutの各出力ノードについて、出力ネットワークnetoutにおける勝者ノードである出力ノードN'jとのパターン間距離dを用い、式(5)にしたがって、基準値△wを求め、さらに、その基準値△wを用い、式(4)にしたがって、入力ネットワークnetinの勝者ノードであるi番目の入力ノードNiとの結合重みwを更新する。 That is, the weight updating unit 222, for each output node of the output network net Non out, using the inter-pattern distance d between the output node N 'j is a winning node in the output network net Non out, according to equation (5), the reference It obtains the value △ w, further the use of a reference value △ w, according to equation (4), and updates the weight w of the i-th input node N i is the winning node of the input network net Non in.

これにより、入力ネットワークnetinの勝者ノードである入力ノードNiに対応する、結合重み行列MTXの第i行の(各列の)結合重みwが更新される。 Thus, corresponding to the input node N i is the winning node of the input network net Non in, the i-th row of bond weight matrix MTX (each column) weight w is updated.

また、結合重み更新部222は、入力ネットワークnetinの各入力ノードについて、入力ネットワークnetinにおける勝者ノードである入力ノードNiとのパターン間距離dを用い、式(5)にしたがって、基準値△wを求め、さらに、その基準値△wを用い、式(4)にしたがって、出力ネットワークnetoutの勝者ノードであるj番目の出力ノードN'jとの結合重みwを更新する。 Further, the weight updating unit 222, for each input node of the input network net Non in, using the inter-pattern distance d between the input node N i is a winning node of the input network net Non in, according to equation (5), the reference value Δw is obtained, and further, using the reference value Δw, the connection weight w with the jth output node N ′ j which is the winner node of the output network net out is updated according to the equation (4).

これにより、出力ネットワークnetoutの勝者ノードである出力ノードN'jに対応する、結合重み行列MTXの第j列の(各行の)結合重みwが更新される。 As a result, the connection weight w (for each row) in the j-th column of the connection weight matrix MTX corresponding to the output node N ′ j that is the winner node of the output network net out is updated.

従って、入力ネットワークnetinの勝者ノードNiと、出力ネットワークnetoutの勝者ノードN'jとの結合重みが、結合の度合いを最も強めるように更新される。 Therefore, the winning node N i of the input network net Non in, link weight between the winning node N 'j of the output network net out is updated to enhance the most the degree of binding.

なお、入力ネットワークnetinの勝者ノードである入力ノードNiと、出力ネットワークnetoutの勝者ノードである出力ノードN'jとの結合重みwの更新は、出力ネットワークnetoutの各出力ノードについての、勝者ノードである入力ノードNiとの結合重みwの更新時か、または、入力ネットワークnetinの各入力ノードについての、勝者ノードである出力ノードN'jとの結合重みwの更新時のいずれか一方においてのみ行われる。 Note that the input node N i is the winning node of the input network net Non in, output update the weight w of the output node N 'j is the winning node of the network net out is for each output node of the output network net out , When updating the connection weight w with the input node N i that is the winner node, or when updating the connection weight w with the output node N ′ j that is the winner node for each input node of the input network net in This is done only in either one.

以上のような結合重みw(結合重み行列MTX)の更新は、教示データとしての入力データと出力データとのセットが、図21のデータ処理装置に対して入力されるたびに行われる。   The updating of the connection weight w (connection weight matrix MTX) as described above is performed each time a set of input data and output data as teaching data is input to the data processing apparatus of FIG.

さらに、入出力関係モデルが有する入力ネットワークnetinの入力データに基づく学習、および出力ネットワークnetoutの出力データに基づく学習も、教示データとしての入力データと出力データとのセットが、図21のデータ処理装置に対して入力されるたびに行われる。 Furthermore, in the learning based on the input data of the input network net in that the input / output relation model has and the learning based on the output data of the output network net out , the set of input data and output data as teaching data is the data shown in FIG. This is done each time it is input to the processing device.

そして、入力ネットワークnetin、および出力ネットワークnetoutの学習が進むと、入力ノードが有する時系列パターンモデル21が、ある特定の時系列パターンを表現し、また、出力ノードが有する時系列パターンモデル21も、他の特定の時系列パターンを表現するようになる。 When learning of the input network net in and the output network net out proceeds, the time series pattern model 21 possessed by the input node represents a specific time series pattern, and the time series pattern model 21 possessed by the output node. Will also express other specific time series patterns.

その結果、ある特定の時系列パターンの入力データと、他の特定の時系列パターンの出力データとの間に、何らかの関係性がある場合、そのような入力データと出力データとのセット(教示データ)が与えられると、入力ネットワークnetinにおいてある特定の時系列パターンを表現する時系列パターンモデル21を有する入力ノードが勝者ノードとなるとともに、出力ネットワークnetoutにおいて他の特定の時系列パターンを表現する時系列パターンモデル21を有する出力ノードが勝者ノードとなる。 As a result, when there is some relationship between the input data of a specific time series pattern and the output data of another specific time series pattern, such a set of input data and output data (teaching data) ) Is given, the input node having the time series pattern model 21 representing a specific time series pattern in the input network net in becomes the winner node, and other specific time series patterns are expressed in the output network net out . An output node having the time-series pattern model 21 to be a winner node.

さらに、上述したように、入力ネットワークnetinの勝者ノードを、いわば中心として、入力ネットワークnetinの各入力ノードと、出力ネットワークnetoutの勝者ノードとの結合重みが更新されるとともに、出力ネットワークnetoutの勝者ノードを中心として、出力ネットワークnetoutの各出力ノードと、入力ネットワークnetinの勝者ノードとの結合重みが更新される。 Further, as described above, with the winner node of the input network net in as the center, the connection weight of each input node of the input network net in and the winner node of the output network net out is updated, and the output network net The connection weight between each output node of the output network net out and the winner node of the input network net in is updated with the out winner node as the center.

即ち、入力ネットワークnetinの各入力ノードと、出力ネットワークnetoutの勝者ノードとの結合重みは、入力ネットワークnetinの勝者ノードとのパターン間距離dが近い入力ノードほど強くなる(強化する)ように更新される。また、出力ネットワークnetoutの各出力ノードと、入力ネットワークnetinの勝者ノードとの結合重みは、出力ネットワークnetoutの勝者ノードとのパターン間距離dが近い出力ノードほど強くなるように更新される。 That is, the connection weight between each input node of the input network net in and the winner node of the output network net out seems to be stronger (enhanced) as the input distance between the patterns d near the winner node of the input network net in is closer. Updated to Also, the connection weight between each output node of the output network net out and the winner node of the input network net in is updated so that the output node having a shorter inter-pattern distance d with the winner node of the output network net out is updated. .

逆に言えば、入力ネットワークnetinの各入力ノードと、出力ネットワークnetoutの勝者ノードとの結合重みは、入力ネットワークnetinの勝者ノードとのパターン間距離dが遠い入力ノードほど弱くなる(弱化する)ように更新される。また、出力ネットワークnetoutの各出力ノードと、入力ネットワークnetinの勝者ノードとの結合重みも、出力ネットワークnetoutの勝者ノードとのパターン間距離dが遠い出力ノードほど弱くなるように更新される。 Conversely, each of the input nodes of the input network net Non in, link weight between the winning node of the output network net out the inter-pattern distance d between the winning node of the input network net Non in becomes weaker the farther input node (weakening Updated). In addition, the connection weight between each output node of the output network net out and the winner node of the input network net in is also updated so that the output node with a longer pattern distance d from the winner node of the output network net out becomes weaker. .

多数の教示データが与えられ、入力ネットワークnetin、および出力ネットワークnetoutの学習が進み、さらに、結合重みの更新が進むと、その結合重みによって、入力データ(の時系列パターン)と出力データ(の時系列パターン)とを関係付ける順モデルまたは逆モデルとしての入出力関係モデルを獲得することができる。 Given a lot of teaching data, the learning of the input network net in and the output network net out proceeds, and further, when the connection weight is updated, the input data (time series pattern) and the output data ( The input / output relation model as a forward model or an inverse model can be obtained.

そして、順モデルとしての入出力関係モデルによれば、ある入力データが与えられた場合に、入力ネットワークnetinにおいて、その入力データに最も適合する勝者ノードを決定することができ、その勝者ノードとの結合重みが最強の出力ネットワークnetoutの出力ノードを決定することができる。さらに、その出力ノード(が有する時系列パターンモデル21)に基づき、時系列データを生成することで、与えられた入力データに対する出力データを推定することができる。 According to the input / output relation model as a forward model, when certain input data is given, it is possible to determine the winner node that best matches the input data in the input network net in . The output node of the output network net out having the strongest connection weight can be determined. Furthermore, by generating time-series data based on the output node (the time-series pattern model 21 that the node has), output data for given input data can be estimated.

また、逆モデルとしての入出力関係モデルによれば、ある出力データ(目標値)が与えられた場合に、出力ネットワークnetoutにおいて、その出力データに最も適合する勝者ノードを決定することができ、その勝者ノードとの結合重みが最強の入力ネットワークnetinの入力ノードを決定することができる。さらに、その入力ノード(が有する時系列パターンモデル21)に基づき、時系列データを生成することで、与えられた出力データに対する制御データ(入力データ)を推定することができる。 Also, according to the input / output relationship model as an inverse model, when certain output data (target value) is given, the winner network that best matches the output data can be determined in the output network net out . The input node of the input network net in having the strongest connection weight with the winner node can be determined. Furthermore, control data (input data) for given output data can be estimated by generating time-series data based on the input node (a time-series pattern model 21 included in the input node).

なお、結合重み行列MTXは、入出力関係モデルの一部として、記憶部211(図21)に記憶される。   The connection weight matrix MTX is stored in the storage unit 211 (FIG. 21) as part of the input / output relationship model.

次に、図24のフローチャートを参照して、順モデルまたは逆モデルとしての入出力関係モデルを用いて、入力データに対する出力データや、出力データに対する制御データ(入力データ)を推定する処理について説明する。   Next, a process for estimating output data for input data and control data (input data) for output data using an input / output relation model as a forward model or an inverse model will be described with reference to the flowchart of FIG. .

まず、図21のデータ処理装置において、入力データに対する出力データを推定する場合、ステップS111において、その入力データが、図21のデータ処理装置に入力される。   First, in the case of estimating output data for input data in the data processing device of FIG. 21, the input data is input to the data processing device of FIG. 21 in step S111.

データ処理装置に入力された入力データは、認識生成部213のスコア計算部231に供給される。   The input data input to the data processing apparatus is supplied to the score calculation unit 231 of the recognition generation unit 213.

スコア計算部231は、ステップS112において、そこに供給された入力データに対して、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetinの各ノードNiのスコアを計算し、勝者ノード決定部232に供給する。 Score calculating unit 231, in step S112, the input data supplied thereto, the score of each node N i of the time series pattern storage network net Non in configuring the input-output relationship model stored in the storage unit 211 Calculate and supply to the winner node determination unit 232.

勝者ノード決定部232は、ステップS113において、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetinのノードの中で、スコア計算部231からのスコアが最も高いノードを、勝者ノードNiに決定し、その勝者ノードNiを表す入力ラベルを、生成ノード決定部233に供給する。 In step S113, the winner node determination unit 232 selects the node having the highest score from the score calculation unit 231 among the nodes of the time-series pattern storage network net in that constitute the input / output relationship model stored in the storage unit 211. determines the winning node N i, provides input label representing the winning node N i, the generating node determining unit 233.

生成ノード決定部233は、ステップS114において、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetoutのノードの中で、勝者ノード決定部232からの入力ラベルが表すノードNiとの結合重みが最も強いノードN'jを生成ノードに決定し、その生成ノードN'jを表す出力ラベルを、時系列生成部234に供給する。 In step S114, the generation node determination unit 233 represents the node represented by the input label from the winner node determination unit 232 among the nodes of the time-series pattern storage network net out that constitute the input / output relationship model stored in the storage unit 211. A node N ′ j having the strongest connection weight with N i is determined as a generation node, and an output label representing the generation node N ′ j is supplied to the time series generation unit 234.

時系列生成部234は、ステップS115において、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetoutのノードのうちの、生成ノード決定部233からの出力ラベルが表すノードN'jが有する時系列パターンモデル21(図7)に基づいて、認識生成部213に供給された入力データに対する出力データの推定値としての時系列データを生成して、ステップS116に進み、その時系列データを出力する。 In step S115, the time series generation unit 234 is a node represented by the output label from the generation node determination unit 233 among the nodes of the time series pattern storage network net out that constitute the input / output relationship model stored in the storage unit 211. Based on the time-series pattern model 21 (FIG. 7) possessed by N ′ j , time-series data is generated as an estimated value of output data for the input data supplied to the recognition generation unit 213, and the process proceeds to step S116. Output series data.

次に、図21のデータ処理装置において、出力データに対する制御データ(入力データ)を推定する場合には、ステップS111において、その出力データが、図21のデータ処理装置に入力される。   Next, when the control data (input data) for the output data is estimated in the data processing apparatus of FIG. 21, the output data is input to the data processing apparatus of FIG. 21 in step S111.

データ処理装置に入力された出力データは、認識生成部213のスコア計算部231に供給される。   The output data input to the data processing apparatus is supplied to the score calculation unit 231 of the recognition generation unit 213.

スコア計算部231は、ステップS112において、そこに供給された出力データに対して、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetoutの各ノードN'jのスコアを計算し、勝者ノード決定部232に供給する。 In step S112, the score calculation unit 231 calculates the score of each node N ′ j of the time-series pattern storage network net out that constitutes the input / output relation model stored in the storage unit 211 for the output data supplied thereto. Is supplied to the winner node determination unit 232.

勝者ノード決定部232は、ステップS113において、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetoutのノードの中で、スコア計算部231からのスコアが最も高いノードを、勝者ノードN'jに決定し、その勝者ノードN'jを表す出力ラベルを、生成ノード決定部233に供給する。 In step S113, the winner node determination unit 232 selects the node having the highest score from the score calculation unit 231 among the nodes of the time-series pattern storage network net out that constitute the input / output relationship model stored in the storage unit 211. The winner node N ′ j is determined, and an output label representing the winner node N ′ j is supplied to the generation node determination unit 233.

生成ノード決定部233は、ステップS114において、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetinのノードの中で、勝者ノード決定部232からの出力ラベルが表すノードN'jとの結合重みが最も強いノードNiを生成ノードに決定し、その生成ノードNiを表す入力ラベルを、時系列生成部234に供給する。 In step S114, the generation node determination unit 233 displays the node represented by the output label from the winner node determination unit 232 among the nodes of the time-series pattern storage network net in that constitute the input / output relationship model stored in the storage unit 211. The node N i having the strongest connection weight with N ′ j is determined as a generation node, and an input label representing the generation node N i is supplied to the time series generation unit 234.

時系列生成部234は、ステップS115において、記憶部211に記憶された入出力関係モデルを構成する時系列パターン記憶ネットワークnetinのノードのうちの、生成ノード決定部233からの入力ラベルが表すノードNiが有する時系列パターンモデル21に基づいて、認識生成部213に供給された出力データに対する制御データ(入力データ)の推定値としての時系列データを生成して、ステップS116に進み、その時系列データを出力する。 In step S115, the time series generation unit 234 is a node represented by the input label from the generation node determination unit 233 among the nodes of the time series pattern storage network net in that constitute the input / output relationship model stored in the storage unit 211. based on the time series pattern model 21 of the N i, and generates time-series data as the estimated value of the control data (input data) to the output data supplied to the recognition generating unit 213, the process proceeds to step S116, the time series Output data.

以上のように、入力データと出力データとのセットを用いて、入出力関係モデルの学習を行い、制御対象を順モデルおよび逆モデルにモデル化して、制御対象を精度良く表現し、高精度に、出力データや制御データ(入力データ)を推定することが可能となる。   As described above, the input / output relation model is used to learn the input / output relationship model, and the controlled object is modeled into the forward model and the inverse model, so that the controlled object is expressed with high accuracy and high accuracy. It is possible to estimate output data and control data (input data).

次に、上述したように、図21のデータ処理装置においては、制御対象に与えられる、ある区間の時系列データ(ある時間に亘る時系列データ)である入力データと、その区間の時系列データに対して制御対象から観測される区間の他の時系列データである出力データとのセットを、教示データとして、学習部212に供給し、学習部212において、教示データを用い、制御対象の順モデルまたは逆モデルとしての入出力関係モデルの学習を行う。   Next, as described above, in the data processing device of FIG. 21, input data that is time-series data (time-series data over a certain period of time) given to a control target and time-series data of that section. Are supplied to the learning unit 212 as teaching data, and a set of output data, which is other time-series data observed from the control target, is used in the learning unit 212. Learning the input / output relation model as a model or inverse model.

従って、例えば、制御対象をロボットとして、そのロボットに与える入力データとして、ロボットに呼びかける音声をセンサとしてのマイクで検知したセンサデータ(音声データ)の時系列を採用するとともに、ロボットに呼びかける音声に対して、ロボットが手をふるようにアームを動かす行動をとるためにモータに与えられるモータデータの時系列を採用して、入出力関係モデルの学習を行うと、学習部212(図21)では、入出力関係モデルの入力ネットワークnetinの1以上のノード(が有する時系列パターンモデル21)が、ロボットに呼びかける音声に対応するセンサデータとしての入力データの時系列パターンを表現するように、自己組織的な学習が行われるとともに、出力ネットワークnetoutの1以上のノード(が有する時系列パターンモデル21)が、手をふる行動に対応するモータデータとしての出力データの時系列パターンを表現するように、自己組織的な学習が行われる。 Therefore, for example, a time series of sensor data (voice data) detected by a microphone as a sensor is used as input data to be given to a robot as a control target, and the voice called to the robot When the learning of the input / output relation model is performed by adopting the time series of the motor data given to the motor in order to take the action of moving the arm so that the robot touches the hand, the learning unit 212 (FIG. 21) Self-organization so that one or more nodes of the input network net in of the input / output relation model (the time series pattern model 21 possessed) express the time series pattern of the input data as the sensor data corresponding to the voice called to the robot. Learning and at least one node of the output network net out Self-organizing learning is performed so that the column pattern model 21) expresses a time-series pattern of output data as motor data corresponding to the action of shaking hands.

さらに、学習部212では、入出力関係モデルの入力ネットワークnetinの各ノードと、出力ネットワークnetoutの勝者ノードとの結合重みが、入力ネットワークnetinの勝者ノードとのパターン間距離dが近いノードほど強くなるように更新されるとともに、出力ネットワークnetoutの各出力ノードと、入力ネットワークnetinの勝者ノードとの結合重みが、出力ネットワークnetoutの勝者ノードとのパターン間距離dが近い出力ノードほど強くなるように更新される。 Further, in the learning unit 212, the connection weight between each node of the input network net in of the input / output relationship model and the winner node of the output network net out is a node whose pattern distance d between the winner node of the input network net in is short while being updated to be strong enough, output and each output node of the network net out, link weight between the winning node of the input network net Non in the output network net out inter-pattern distance d is near the output node of the winning node of Updated to be stronger.

その結果、入力ネットワークnetinのノードのうちの、ロボットに呼びかける音声に対応するセンサデータとしての入力データの時系列パターンを表現する(時系列パターンモデル21を有する)1以上のノードと、出力ネットワークnetoutのノードのうちの、手をふる行動に対応するモータデータの時系列パターンを表現する(時系列パターンモデル21を有する)1以上のノードとの結合重みは強くなる。 As a result, among the nodes of the input network net in , one or more nodes (having the time series pattern model 21) representing the time series pattern of the input data as the sensor data corresponding to the voice called to the robot, and the output network Of the net out nodes, the connection weight with one or more nodes (having the time series pattern model 21) representing the time series pattern of the motor data corresponding to the action of shaking hands becomes strong.

その後、認識生成部213(図21)に、ロボットに呼びかける音声に対応するセンサデータが、入力データとして与えられると、入出力関係モデルでは、その入力データに対して、入力ネットワークnetinのノードのうちの、ロボットに呼びかける音声に対応するセンサデータの時系列パターンを表現する、ある1つのノードが勝者ノードとなる。そして、認識生成部213では、その勝者ノードとの結合重みが最も強い、出力ネットワークnetoutのノード、即ち、いまの場合、出力ネットワークnetoutのノードのうちの、手をふる行動に対応するモータデータの時系列パターンを表現する、あるノードが、生成ノードに決定され、その生成ノードを用いて、出力データ、即ち、いまの場合、手をふる行動に対応するモータデータが生成されて出力される。 Thereafter, when sensor data corresponding to the voice calling the robot is given as input data to the recognition generation unit 213 (FIG. 21), the input / output relation model indicates that the input data is a node of the input network net in . One of the nodes representing a time-series pattern of sensor data corresponding to the voice calling to the robot is a winner node. In the recognition generation unit 213, the motor corresponding to the action of waving among the nodes of the output network net out that has the strongest connection weight with the winner node, that is, the nodes of the output network net out in this case. A node that represents a time-series pattern of data is determined as a generation node, and output data, that is, motor data corresponding to the action of waving in this case, is generated and output using the generation node. The

ここで、入出力関係モデルを利用したロボットの認知行動という場合の認知とは、入力データに対して、入出力関係モデルの入力ネットワークnetinのノードの中から勝者ノードを決定することに相当し、行動とは、その勝者ノードに対して、出力ネットワークnetoutのノードの中から生成ノードを決定し、時系列データ(出力データ)を生成することに相当する。 Here, the recognition in the case of the robot's cognitive behavior using the input / output relation model corresponds to determining the winner node from the nodes of the input network net in of the input / output relation model for the input data. The action corresponds to determining a generation node from among the nodes of the output network net out for the winner node and generating time-series data (output data).

図21のデータ処理装置によれば、例えば、ロボットに、呼びかけの音声を与え、その音声に対して、手をふるようなアームの動きを与えると、上述のような学習が行われ、その結果、ロボットが、呼びかけの音声に対して、手をふる認知行動を行うようになる。   According to the data processing apparatus of FIG. 21, for example, when a call voice is given to a robot, and the movement of an arm that shakes the hand is given to the voice, the learning as described above is performed, and as a result, Then, the robot will perform a cognitive action with a hand in response to the calling voice.

しかしながら、図21のデータ処理装置では、認知と行動とが、比較的短時間で繰り返されることで完成する、実時間性が要求されるタスクを、ロボットに行わせることが困難であることがある。   However, in the data processing device of FIG. 21, it may be difficult to cause the robot to perform a task that requires real-time performance, which is completed by repeating recognition and action in a relatively short time. .

即ち、例えば、ロボットが、目の前にあるボールを左右に転がすタスクを行う場合、ボールの状態を把握(認識)する認知と、ボールの状態に応じて適切にアームを動かす行動とを、ある短い所定の時間単位で繰り返し行う必要がある。いま、この繰り返しの単位である所定の時間を、フレームと呼ぶこととすると、時間軸上のあるフレームにおける、ボールの状態をセンサで検知したセンサデータと、そのフレームにおいてとらなければならないアームの動きに対応するモータデータとのセットを、教示データとして、図21のデータ処理装置に与え、その教示データのうちのセンサデータの時系列パターンを表現する入力ノード(入力ネットワークnetinのノード)と、その教示データのうちのモータデータの時系列パターンを表現する出力ノード(出力ネットワークnetoutのノード)との結合重みを強くしても、ロボットは、目の前にあるボールを左右に転がすタスクを行うことができるようにはならない。 That is, for example, when the robot performs a task of rolling the ball in front of the right and left, there is a recognition to recognize (recognize) the state of the ball and an action to move the arm appropriately according to the state of the ball It is necessary to repeat it in a short predetermined time unit. Now, if the predetermined time, which is a unit of repetition, is called a frame, the sensor data in which a ball state is detected by a sensor in a certain frame on the time axis and the movement of the arm that must be taken in that frame 21 is provided as teaching data to the data processing apparatus of FIG. 21, and an input node (node of the input network net in ) expressing a time-series pattern of sensor data in the teaching data; Even if the connection weight with the output node (node of the output network net out ) that expresses the time-series pattern of the motor data in the teaching data is increased, the robot does the task of rolling the ball in front of it to the left and right. Will not be able to do.

なぜなら、あるフレームのセンサデータが与えられた時点で、そのフレームのモータデータによるアームの動きは、既に行われていなければならないからである。   This is because when the sensor data of a certain frame is given, the movement of the arm based on the motor data of that frame must already be performed.

従って、ロボットが、目の前にあるボールを左右に転がすタスクを行うことができるようにするには、あるフレームを注目フレームとして注目すると、ボールの状態をセンサで検知したセンサデータのうちの、注目フレームのセンサデータの時系列パターンを表現する入力ノード(以下、適宜、センサデータに対応するノードともいう)と、ボールを左右に転がすアームの動きに対応するモータデータのうちの、注目フレームの時刻から一定の時間だけ遅れたフレームのモータデータの時系列パターンを表現する出力ノード(以下、適宜、モータデータに対応するノードともいう)との結合重みを強くするように、入出力関係モデルの学習を行う必要がある。   Therefore, in order to allow the robot to perform the task of rolling the ball in front of the right and left, when attention is paid to a certain frame as the attention frame, of the sensor data in which the state of the ball is detected by the sensor, Of the input data representing the time-series pattern of the sensor data of the frame of interest (hereinafter also referred to as the node corresponding to the sensor data as appropriate) and the motor data of the motor data corresponding to the movement of the arm that rolls the ball left and right, In the input / output relationship model, the connection weight of the output node (hereinafter also referred to as the node corresponding to the motor data) expressing the time series pattern of the motor data of the frame delayed by a certain time from the time is strengthened. Learning is necessary.

なお、フレームのセンサデータの認知、即ち、フレームのセンサデータに対して勝者ノードを決定する処理の処理速度によっては、注目フレームのセンサデータが与えられてから、そのセンサデータに対するモータデータが生成される行動が行われるまでに、無視することができない遅延時間が生じることがある。注目フレームのセンサデータに対応するノードとの結合重みを強くする出力ノードを、注目フレームからどの程度の時間だけ遅れたフレームのモータデータに対応するノードとするかは、必要に応じて、かかる遅延時間をも考慮して決める必要がある。   Depending on the recognition of the sensor data of the frame, that is, the processing speed of the process of determining the winner node for the sensor data of the frame, the motor data for the sensor data is generated after the sensor data of the frame of interest is given. There may be a delay time that cannot be ignored before the action is taken. The output node that increases the coupling weight with the node corresponding to the sensor data of the frame of interest is the delay corresponding to the motor data of the frame delayed from the frame of interest, if necessary. It is necessary to decide in consideration of time.

図25は、実時間性が要求されるタスクを行うことが可能なロボットの構成例を示している。   FIG. 25 shows a configuration example of a robot capable of performing a task that requires real-time characteristics.

図25において、ロボットは、データ処理装置301、センサ302、およびモータ駆動部303等から構成されている。   In FIG. 25, the robot includes a data processing device 301, a sensor 302, a motor driving unit 303, and the like.

データ処理装置301は、センサ302から供給される時系列のセンサデータと、モータ駆動部303から供給される時系列のモータデータとを用いて、入出力関係モデルの自己組織的な学習を行う。さらに、データ処理装置301は、センサ302から供給される時系列のセンサデータに対して、時系列のモータデータを生成し、モータ駆動部303に供給する。   The data processing device 301 performs self-organized learning of the input / output relation model using the time-series sensor data supplied from the sensor 302 and the time-series motor data supplied from the motor driving unit 303. Further, the data processing device 301 generates time-series motor data for the time-series sensor data supplied from the sensor 302 and supplies the time-series motor data to the motor driving unit 303.

センサ302は、カメラやマイク等であり、外部の状態を検知して、その外部の状態を表す時系列のセンサデータを、データ処理装置301に供給する。   The sensor 302 is a camera, a microphone, or the like, detects an external state, and supplies time-series sensor data representing the external state to the data processing device 301.

モータ駆動部303は、データ処理装置301から供給されるモータデータに応じて、例えば、ロボットのアーム等を動かすための図示せぬモータを駆動する。また、モータ駆動部303は、例えば、ロボットのアーム等が、外部から力が加えられることによって動かされた場合に、その動きをするために、モータ駆動部303に与えられるべきモータデータと同一のモータデータを生成し、データ処理部301に供給する。さらに、モータ駆動部303は、上述したように、データ処理装置301から供給されるモータデータに応じて、モータを駆動するとともに、必要に応じて、そのモータデータを、データ処理装置301に供給する(戻す)。   The motor driving unit 303 drives, for example, a motor (not shown) for moving a robot arm or the like according to the motor data supplied from the data processing device 301. The motor drive unit 303 is the same as the motor data to be given to the motor drive unit 303 in order to move, for example, when a robot arm or the like is moved by applying force from the outside. Motor data is generated and supplied to the data processing unit 301. Further, as described above, the motor driving unit 303 drives the motor in accordance with the motor data supplied from the data processing device 301, and supplies the motor data to the data processing device 301 as necessary. (return).

図25において、データ処理装置301は、記憶部311、データ抽出部312、学習処理部313、写像学習部314、データ抽出部315、認識部316、写像部317、および生成部318から構成されている。   25, the data processing device 301 includes a storage unit 311, a data extraction unit 312, a learning processing unit 313, a mapping learning unit 314, a data extraction unit 315, a recognition unit 316, a mapping unit 317, and a generation unit 318. Yes.

記憶部311は、入出力関係モデルを記憶している。   The storage unit 311 stores an input / output relationship model.

ここで、図26は、記憶部311が記憶している入出力関係モデルM11を示している。 Here, FIG. 26 shows the input / output relationship model M 11 stored in the storage unit 311.

入出力関係モデルM11は、図20や図23に示した入出力関係モデルと同様に、入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される時系列パターン記憶ネットワークである入力ネットワークnet1(入力時系列パターン記憶ネットワーク)と、出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される時系列パターン記憶ネットワークである出力ネットワークnet2(出力時系列パターン記憶ネットワーク)とを有する。 The input / output relation model M 11 is a plurality of nodes having a time series pattern model that represents a time series pattern that is a pattern of time series data as input data, similarly to the input / output relation models shown in FIG. 20 and FIG. Input network net 1 (input time series pattern storage network) which is a time series pattern storage network composed of a plurality of time series pattern models expressing time series patterns which are patterns of time series data as output data And an output network net 2 (output time-series pattern storage network) which is a time-series pattern storage network composed of nodes.

そして、入出力関係モデルM11では、入力ネットワークnet1の各ノードと、出力ネットワークのnet2の各ノードとが、結合重みによって結合されている。 In the input / output relationship model M 11 , each node of the input network net 1 and each node of the output network net 2 are coupled by a coupling weight.

図25に戻り、データ抽出部312には、センサ302が各時刻において出力するセンサデータと、モータ駆動部302が同一時刻において出力するモータデータとが、教示データとして供給される。データ抽出部312は、教示データのうちのセンサデータを、認知行動時に入出力関係モデルM11に与える入力データとして、その入力データの時系列から、フレーム単位の入力データを順次抽出し、学習処理部313に供給する。 Returning to FIG. 25, sensor data output by the sensor 302 at each time and motor data output by the motor drive unit 302 at the same time are supplied to the data extraction unit 312 as teaching data. Data extracting unit 312, the sensor data of the teaching data, as input data to be given to the input-output relation model M 11 during cognitive, from the time series of the input data, and sequentially extracts the input data for each frame, the learning processing To the unit 313.

さらに、データ抽出部312は、教示データのうちのモータデータを、認知行動時に入出力関係モデルM11から生成されるべき出力データとして、その出力データの時系列から、フレーム単位の出力データを順次抽出し、学習処理部313に供給する。 Furthermore, the data extraction unit 312, the motor data of the teaching data, as output data to be generated from the input-output relationship model M 11 during cognitive, from the time series of the output data sequentially output data for each frame Extracted and supplied to the learning processing unit 313.

学習処理部313は、認識学習処理部321と生成学習処理部322とから構成され、データ抽出部312から供給されるフレーム単位の入力データと出力データそれぞれを用いて、記憶部311に記憶された入出力関係モデルM11(図26)が有する入力ネットワークnet1と出力ネットワークnet2それぞれの自己組織的な学習を行う。 The learning processing unit 313 includes a recognition learning processing unit 321 and a generation learning processing unit 322, and is stored in the storage unit 311 using input data and output data in units of frames supplied from the data extraction unit 312. Self-organized learning is performed for each of the input network net 1 and the output network net 2 included in the input / output relationship model M 11 (FIG. 26).

即ち、認識学習処理部321は、図21の学習処理部221と同様に、データ抽出部312から供給されるフレーム単位の入力データに基づいて、記憶部311に記憶された入出力関係モデルM11(図26)における入力ネットワークnet1を、自己組織的に更新する。 That is, the recognition learning processing unit 321 is similar to the learning processing unit 221 in FIG. 21, based on the input data in units of frames supplied from the data extraction unit 312, the input / output relationship model M 11 stored in the storage unit 311. The input network net 1 in (FIG. 26) is updated in a self-organizing manner.

具体的には、認識学習処理部321は、入出力関係モデルM11における入力ネットワークnet1の各ノードについて、データ抽出部312からのフレームの入力データに対するスコアを求め、入力ネットワークnet1のノードの中から、スコアの最も良いノードを、勝者ノード(入力勝者ノード)に決定する。さらに、認識学習処理部321は、データ抽出部312からのフレームの入力データに対する入力勝者ノードに基づいて、入力ネットワークnet1を、自己組織的に更新する。 Specifically, the recognition learning processing unit 321 obtains a score for the input data of the frame from the data extraction unit 312 for each node of the input network net 1 in the input / output relationship model M 11 , and determines the node of the input network net 1 . The node with the best score is determined as the winner node (input winner node). Further, the recognition learning processing unit 321 updates the input network net 1 in a self-organizing manner based on the input winner node for the input data of the frame from the data extraction unit 312.

また、認識学習処理部321は、フレーム単位の入力データに対して時系列に決定した入力勝者ノードを表すノードラベルである入力ラベルを、写像学習部314に、時系列に供給する。   In addition, the recognition learning processing unit 321 supplies an input label, which is a node label representing the input winner node determined in time series for the input data in frame units, to the mapping learning unit 314 in time series.

生成学習処理部322も、図21の学習処理部221と同様に、データ抽出部312から供給されるフレーム単位の出力データに基づいて、記憶部311に記憶された入出力関係モデルM11(図26)における出力ネットワークnet2を、自己組織的に更新する。 Similarly to the learning processing unit 221 of FIG. 21, the generation learning processing unit 322 also uses the input / output relationship model M 11 (FIG. 11 ) stored in the storage unit 311 based on the output data in units of frames supplied from the data extraction unit 312. The output network net 2 in 26) is updated in a self-organizing manner.

具体的には、生成学習処理部322は、入出力関係モデルM11における出力ネットワークnet2の各ノードについて、データ抽出部312からのフレームの出力データに対するスコアを求め、出力ネットワークnet2のノードの中から、スコアの最も良いノードを、勝者ノード(出力勝者ノード)に決定する。さらに、生成学習処理部322は、データ抽出部312からのフレームの出力データに対する出力勝者ノードに基づいて、出力ネットワークnet2を、自己組織的に更新する。 Specifically, the generation learning processing unit 322 obtains a score for the output data of the frame from the data extraction unit 312 for each node of the output network net 2 in the input / output relationship model M 11 , and determines the node of the output network net 2 The node having the best score is determined as the winner node (output winner node). Further, the generation learning processing unit 322 updates the output network net 2 in a self-organized manner based on the output winner node for the output data of the frame from the data extraction unit 312.

また、生成学習処理部322は、フレーム単位の出力データに対して時系列に決定した出力勝者ノードを表すノードラベルである出力ラベルを、写像学習部314に、時系列に供給する。   Further, the generation learning processing unit 322 supplies an output label, which is a node label representing the output winner node determined in time series for the output data in frame units, to the mapping learning unit 314 in time series.

写像学習部314は、データバッファ331、読み出し部332、および結合重み更新部333から構成され、記憶部311に記憶された入出力関係モデルM11における入力ネットワークnet1のフレーム単位の入力データに対する入力勝者ノードと、出力ネットワークnet2の各ノードとの結合重みを更新するとともに、出力ネットワークnet2の、フレーム単位の入力データの時刻から一定の時間だけ遅れたフレーム単位の出力データに対する出力勝者ノードと、入力ネットワークnet1の各ノードとの結合重みを更新する。 The mapping learning unit 314 includes a data buffer 331, a reading unit 332, and a coupling weight update unit 333, and inputs input data for each frame of the input network net 1 in the input / output relation model M 11 stored in the storage unit 311. and winning node updates the connection weights between each node in the output network net Non 2, an output winning node to the output of the network net Non 2, the output data for each frame delayed by a certain time from the time of the input data for each frame The connection weight with each node of the input network net 1 is updated.

即ち、データバッファ331は、認識学習処理部321から供給される時系列の入力ラベルと、生成学習処理部322から供給される時系列の出力ラベルとを一時記憶する。   That is, the data buffer 331 temporarily stores the time series input label supplied from the recognition learning processing unit 321 and the time series output label supplied from the generation learning processing unit 322.

読み出し部332は、入力データのフレームを、順次、注目フレームとして、データバッファ331に記憶された入力ラベルのうちの、注目フレームの入力データに対する入力勝者ノードを表す入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から一定の時間だけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを読み出して対応付け、その対応付けた入力ラベルと出力ラベルとのセットであるラベルセットを、結合重み更新部333に供給する。   The reading unit 332 stores, in the data buffer 331, an input label representing an input winner node for the input data of the target frame, out of the input labels stored in the data buffer 331, as frames of the input data, sequentially as the target frame. Out of the output labels, the output label representing the output winner node corresponding to the output data of the frame delayed by a certain time from the time of the frame of interest is read out and associated, and the set of the associated input label and output label Is supplied to the connection weight update unit 333.

結合重み更新部333は、図21の結合重み更新部222と同様に、図23で説明したようにして、読み出し部332から供給されるラベルセットに基づき記憶部311に記憶された入出力関係モデルM11(図26)における入力ネットワークnet1のノードNiと、出力ネットワークnet2のノードN'jとの結合関係を、ヘブ則等により更新する。 Similar to the connection weight update unit 222 in FIG. 21, the connection weight update unit 333 has the input / output relationship model stored in the storage unit 311 based on the label set supplied from the read unit 332 as described in FIG. and node N i of the input network net Non 1 in M 11 (FIG. 26), the binding relationship between the node N 'j of the output network net Non 2, updates the Hebb rule or the like.

即ち、結合重み更新部333は、入力ネットワークnet1の各入力ノードと、ラベルセットの出力ラベルが表す出力ネットワークnet2の出力勝者ノードとの結合重みを、ラベルセットの入力ラベルが表す入力ネットワークnet1の入力勝者ノードを中心として更新するとともに、出力ネットワークnet2の各出力ノードと、入力ネットワークnet1の勝者ノードとの結合重みを、出力ネットワークnet2の勝者ノードを中心として更新する。 That is, the connection weight update unit 333 inputs the connection weight between each input node of the input network net 1 and the output winner node of the output network net 2 represented by the output label of the label set by the input network net represented by the input label of the label set. It updates the first input winning node as the center, and respective output nodes of the output network net Non 2, the connection weight between the winning node of the input network net Non 1, updates about the winning node of the output network net Non 2.

ここで、上述したように、入力勝者ノードは、注目フレームの入力データに対する勝者ノードであり、出力勝者ノードは、注目フレームから一定の時間だけ遅れたフレームの出力データに対する勝者ノードであるから、結合重み更新部333による結合重みの更新によれば、記憶部311に記憶された入出力関係モデルM11において、注目フレームの入力データに対する入力ネットワークnet1の入力勝者ノードと、注目フレームから一定の時間だけ遅れたフレームの出力データに対する出力ネットワークnet2の出力勝者ノードとの結合重みが、より強くなるように更新される。 Here, as described above, the input winner node is the winner node for the input data of the frame of interest, and the output winner node is the winner node for the output data of the frame delayed by a certain time from the frame of interest. according to the update of the connection weights by the weight updating unit 333, the input-output relationship model M 11 stored in the storage unit 311, an input winning node of the input network net Non 1 to the input data of the frame of interest, the constant from the target frame time The connection weight with the output winner node of the output network net 2 with respect to the output data of the frame delayed by only is updated so as to become stronger.

その結果、入出力関係モデルM11に、あるフレームFの入力データが与えられると、入出力関係モデルM11では、入力ネットワークnet1のノードのうちの、フレームFの入力データに対応するノードが入力勝者ノードとなる。さらに、入出力関係モデルM11では、出力ネットワークnet2のノードのうちの、フレームFから一定の時間だけ遅れたフレームの出力データに対応するノードが、入力勝者ノードとの結合重みが最も強いノードとして、生成ノードに決定され、これにより、その生成ノードに基づき、フレームFから一定の時間だけ遅れたフレームの出力データに相当する時系列データが生成される。 As a result, the input-output relationship model M 11, the input data of a certain frame F is given, the input-output relationship model M 11, of the nodes of the input network net Non 1, node corresponding to the input data of the frame F Becomes the input winner node. Furthermore, the input-output relationship model M 11, of the nodes of the output network net Non 2, the node corresponding to the output data of a frame delayed by a fixed time from the frame F is the strongest link weight between the input winning node node As a result, the time series data corresponding to the output data of the frame delayed by a certain time from the frame F is generated based on the generation node.

データ抽出部315には、センサ302が各時刻において出力するセンサデータが供給される。データ抽出部315は、センサ302からのセンサデータを、入力データとして、その入力データの時系列から、フレーム単位の入力データを順次抽出し、認識部316に供給する。   The sensor data output from the sensor 302 at each time is supplied to the data extraction unit 315. The data extraction unit 315 sequentially extracts the input data in frame units from the time series of the input data using the sensor data from the sensor 302 as input data, and supplies the extracted data to the recognition unit 316.

認識部316は、スコア計算部341と勝者ノード決定部342とから構成される。   The recognition unit 316 includes a score calculation unit 341 and a winner node determination unit 342.

また、図25において、写像部317は、生成ノード決定部351から構成される。さらに、生成部318は、時系列生成部361から構成される。   In FIG. 25, the mapping unit 317 includes a generation node determination unit 351. Furthermore, the generation unit 318 includes a time series generation unit 361.

スコア計算部341、勝者ノード決定部342、生成ノード決定部351、時系列生成部361は、それぞれ、図21のスコア計算部231、勝者ノード決定部232、生成ノード決定部233、時系列生成部234と同様の処理を行う。   The score calculation unit 341, the winner node determination unit 342, the generation node determination unit 351, and the time series generation unit 361 are the score calculation unit 231, the winner node determination unit 232, the generation node determination unit 233, and the time series generation unit of FIG. Processing similar to that of H.234 is performed.

なお、時系列生成部361が生成した出力データは、モータデータとして、モータ駆動部303に供給される。   The output data generated by the time series generation unit 361 is supplied to the motor driving unit 303 as motor data.

次に、図27を参照して、図25のデータ抽出部312の処理について説明する。   Next, processing of the data extraction unit 312 in FIG. 25 will be described with reference to FIG.

図25で説明したように、データ抽出部312には、センサ302が各時刻において出力するセンサデータと、モータ駆動部303が同一時刻において出力するモータデータとが供給される。   As described with reference to FIG. 25, the data extraction unit 312 is supplied with sensor data output by the sensor 302 at each time and motor data output by the motor driving unit 303 at the same time.

いま、フレームの長さ(時間)をTと表すこととすると、データ抽出部312は、センサデータを入力データとして、その入力データの時系列を、図27に示すように、時間T単位に区切った、フレーム単位の入力データを抽出し、学習処理部313に供給する。   Assuming that the length (time) of a frame is represented as T, the data extraction unit 312 uses sensor data as input data, and divides the time series of the input data into units of time T as shown in FIG. In addition, input data in units of frames is extracted and supplied to the learning processing unit 313.

また、データ抽出部312は、モータデータを出力データとして、その出力データの時系列を、図27に示すように、時間T単位に区切った、フレーム単位の出力データを抽出し、学習処理部313に供給する。   Further, the data extraction unit 312 extracts the output data in units of frames in which the motor data is output data, and the time series of the output data is divided into units of time T as shown in FIG. 27, and the learning processing unit 313. To supply.

ここで、以下、適宜、時刻tを先頭の時刻とし、時刻t+Tを終わりの時刻とする時間Tのフレームを、時刻tのフレームという。時刻tの入力データ(のサンプル値)から、時刻t+t'(の直前)の入力データまでを、I[t,t+t']と表すこととすると、時刻tのフレームの入力データは、I[t,t+T]と表すことができる。同様に、時刻tの出力データから、時刻t+t'の出力データまでを、O[t,t+t']と表すこととすると、時刻tのフレームの出力データは、O[t,t+T]と表すことができる。   Here, hereinafter, a frame at time T having time t as the start time and time t + T as the end time will be referred to as a frame at time t as appropriate. If the input data at the time t (sample value) to the input data at the time t + t '(immediately before) is expressed as I [t, t + t'], the input data of the frame at the time t is , I [t, t + T]. Similarly, if the output data from time t to the output data at time t + t ′ is expressed as O [t, t + t ′], the output data of the frame at time t is O [t, t + T].

なお、図25のデータ抽出部315も、データ抽出部312と同様に、センサ302から供給されるセンサデータを入力データとして、その入力データの時系列から、時間Tのフレーム単位の入力データを抽出し、認識部316に供給する。   Similarly to the data extraction unit 312, the data extraction unit 315 of FIG. 25 extracts input data in units of frames of time T from the time series of the input data using sensor data supplied from the sensor 302 as input data. And supplied to the recognition unit 316.

次に、図28を参照して、図25の読み出し部332の処理について説明する。   Next, the processing of the reading unit 332 in FIG. 25 will be described with reference to FIG.

読み出し部332は、上述したように、入力データのフレームを、順次、注目フレームとして、データバッファ331に記憶された入力ラベルのうちの、注目フレームの入力データに対する入力勝者ノードを表す入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から一定の時間だけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを対応付ける。   As described above, the reading unit 332 sequentially sets the frames of the input data as the frame of interest, and among the input labels stored in the data buffer 331, the input label representing the input winner node for the input data of the frame of interest; Of the output labels stored in the data buffer 331, the output label representing the output winner node is associated with the output data of the frame delayed by a certain time from the time of the frame of interest.

即ち、注目フレームの時刻から一定の時間だけ遅れたフレームの出力データとして、例えば、フレームと同一の時間Tを採用することとすると、読み出し部332は、時刻tのフレームの入力データ(I[t,t+T])に対する入力勝者ノードNtを表す入力ラベルと、注目フレームの時刻tから時間Tだけ遅れた時刻t+Tのフレームの出力データ(O[t+T,t+2T])に対する出力勝者ノードN't+Tを表す出力ラベルとを対応付ける。 That is, for example, when the same time T as the frame is used as the output data of the frame delayed by a certain time from the time of the frame of interest, the reading unit 332 reads the input data (I [t , t + T]) and the input label representing the input winner node N t and the output data of the frame at time t + T delayed by time T from the time t of the frame of interest (O [t + T, t + 2T]) Is associated with an output label representing the output winner node N ′ t + T for.

次に、図29のフローチャートを参照して、図25のロボットが行う学習処理、即ち、入出力関係モデルM11の学習処理について説明する。 Next, with reference to the flowchart of FIG. 29, the learning processing which the robot performs the FIG. 25, i.e., it is described learning process of the input-output relationship model M 11.

例えば、ロボットに、目の前にあるボールを左右に転がすタスクを学習させる場合、オペレータ(ロボットにタスクの学習をさせようとするユーザ)は、ロボットの前にボールをおき、ロボットのアームを持って、ボールを左右に転がすように、アームを動かす。   For example, if the robot learns the task of rolling the ball in front of it to the left or right, the operator (the user who wants the robot to learn the task) places the ball in front of the robot and holds the robot arm. And move the arm to roll the ball left and right.

この場合、センサ302において、左右に転がるボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置301のデータ抽出部312に供給される。   In this case, the sensor 302 detects the state of the ball rolling left and right, and time-series sensor data representing the state is supplied to the data extraction unit 312 of the data processing device 301.

また、モータ駆動部303では、オペレータが動かしているアームの動きに対応するモータデータが生成され、データ処理部301のデータ抽出部312に供給される。   The motor driving unit 303 generates motor data corresponding to the movement of the arm being moved by the operator, and supplies the motor data to the data extraction unit 312 of the data processing unit 301.

データ抽出部312は、ステップS301において、センサ302からのセンサデータを入力データとして、その入力データの時系列から、フレーム単位の入力データを抽出し、学習処理部313の認識学習処理部321に供給するとともに、モータ駆動部303からのモータデータを出力データとして、その出力データの時系列から、フレーム単位の出力データを抽出し、学習処理部313の生成学習処理部322に供給して、ステップS302に進む。   In step S301, the data extraction unit 312 uses the sensor data from the sensor 302 as input data, extracts input data in frame units from the time series of the input data, and supplies the input data to the recognition learning processing unit 321 of the learning processing unit 313. At the same time, the motor data from the motor drive unit 303 is used as output data, and output data in units of frames is extracted from the time series of the output data, and is supplied to the generation learning processing unit 322 of the learning processing unit 313, step S302. Proceed to

ステップS302では、学習処理部313が、データ抽出部312からのフレーム単位の入力データと出力データを用いて、記憶部311に記憶された入出力関係モデルM11(図26)が有する入力ネットワークnet1と出力ネットワークnet2の自己組織的な学習を行う。 In step S302, the learning processing unit 313 uses the input data and output data in units of frames from the data extraction unit 312, and the input network net included in the input / output relationship model M 11 (FIG. 26) stored in the storage unit 311. 1 and self-organized learning of output network net 2 .

即ち、ステップS302では、ステップS3021とS3022の処理が行われる。 That is, in step S302, the processing of steps S302 1 and S302 2 is performed.

ステップS3021では、認識学習処理部321が、記憶部311に記憶された入出力関係モデルM11における入力ネットワークnet1の各ノードについて、データ抽出部312からのフレーム単位の入力データに対するスコアを求め、入力ネットワークnet1のノードの中から、スコアの最も良いノードを、入力勝者ノードに決定する。さらに、認識学習処理部321は、データ抽出部312からのフレーム単位の入力データに対する入力勝者ノードに基づいて、入力ネットワークnet1を、自己組織的に更新し、入力勝者ノードを表す入力ラベルを、写像学習部314に供給する。 In step S302 1, the recognition learning processing unit 321, for each node of the input network net Non 1 in the input-output relation model M 11 stored in the storage unit 311, obtains a score for the input data frame from the data extraction unit 312 The node having the best score is determined as the input winner node from the nodes of the input network net 1 . Further, the recognition learning processing unit 321 updates the input network net 1 in a self-organized manner based on the input winner node for the input data in frame units from the data extraction unit 312, and displays an input label representing the input winner node. This is supplied to the mapping learning unit 314.

ステップS3022では、生成学習処理部322が、記憶部311に記憶された入出力関係モデルM11における出力ネットワークnet2の各ノードについて、データ抽出部312からのフレーム単位の出力データに対するスコアを求め、出力ネットワークnet2のノードの中から、スコアの最も良いノードを、出力勝者ノードに決定する。さらに、生成学習処理部322は、データ抽出部312からのフレーム単位の出力データに対する出力勝者ノードに基づいて、出力ネットワークnet2を、自己組織的に更新し、出力勝者ノードを表す出力ラベルを、写像学習部314に供給する。 In step S302 2, generating learning processing unit 322, for each node in the output network net Non 2 in the input-output relation model M 11 stored in the storage unit 311, obtains a score for output data of a frame unit from the data extraction unit 312 The node having the best score is determined as the output winner node from the nodes of the output network net 2 . Furthermore, the generation learning processing unit 322 updates the output network net 2 in a self-organized manner based on the output winner node for the output data in frame units from the data extraction unit 312, and outputs an output label representing the output winner node, This is supplied to the mapping learning unit 314.

ステップS302の処理後は、ステップS303に進み、写像学習部314は、入力データのフレームのうちの、まだ注目フレームとしていないフレームを、注目フレームとして、学習処理部313からの、注目フレームの入力データに対する入力勝者ノードを表す入力ラベルと、学習処理部313からの、注目フレームから時間Tだけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを対応付ける。   After the processing in step S302, the process proceeds to step S303, in which the mapping learning unit 314 uses, as an attention frame, a frame that has not yet been set as an attention frame among input data frames, and receives input data of the attention frame from the learning processing unit 313. An input label that represents an input winner node for is associated with an output label that represents an output winner node for output data of a frame delayed by time T from the frame of interest from the learning processing unit 313.

即ち、ステップS303では、写像学習部314のデータバッファ331において、学習処理部313からのフレーム単位の入力データに対する入力勝者ノードを表す入力ラベルと、フレーム単位の出力データに対する出力勝者ノードを表す出力ラベルとが一時記憶される。   That is, in step S303, in the data buffer 331 of the mapping learning unit 314, an input label indicating an input winner node for input data in units of frames from the learning processing unit 313 and an output label indicating an output winner node for output data in units of frames. Is temporarily stored.

さらに、ステップS303では、写像学習部314の読み出し部332が、データバッファ331に記憶された入力ラベルのうちの、注目フレームの入力データに対する入力勝者ノードを表す入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から時間Tだけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを読み出して対応付け、その対応付けた入力ラベルと出力ラベルとのセットであるラベルセットを、結合重み更新部333に供給する。   Further, in step S303, the reading unit 332 of the mapping learning unit 314 stores the input label representing the input winner node for the input data of the frame of interest among the input labels stored in the data buffer 331, and the data buffer 331. Among the output labels, the output label representing the output winner node corresponding to the output data of the frame delayed by time T from the time of the target frame is read and associated, and the associated input label and output label are set. The label set is supplied to the connection weight update unit 333.

そして、ステップS303からステップS304に進み、写像学習部314の結合重み更新部333が、読み出し部332から供給されるラベルセットに基づき、記憶部311に記憶された入出力関係モデルM11(図26)における入力ネットワークnet1のノードと、出力ネットワークnet2のノードとの結合関係を更新する。 Then, the process proceeds from step S303 to step S304, where the connection weight update unit 333 of the mapping learning unit 314 is based on the label set supplied from the reading unit 332 and the input / output relationship model M 11 stored in the storage unit 311 (FIG. 26). ), The connection relationship between the node of the input network net 1 and the node of the output network net 2 is updated.

即ち、結合重み更新部333は、記憶部311に記憶された入出力関係モデルM11における入力ネットワークnet1の各入力ノードと、ラベルセットの出力ラベルが表す出力ネットワークnet2の出力勝者ノードとの結合重みを、ラベルセットの入力ラベルが表す入力ネットワークnet1の入力勝者ノードを中心として更新するとともに、出力ネットワークnet2の各出力ノードと、入力ネットワークnet1の勝者ノードとの結合重みを、出力ネットワークnet2の勝者ノードを中心として更新する。 That is, the connection weight updating unit 333 calculates the relationship between each input node of the input network net 1 in the input / output relationship model M 11 stored in the storage unit 311 and the output winner node of the output network net 2 represented by the output label of the label set. The connection weight is updated centering on the input winner node of the input network net 1 represented by the input label of the label set, and the connection weight of each output node of the output network net 2 and the winner node of the input network net 1 is output. Update around the winner node of network net 2 .

なお、図29の学習処理は、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS302乃至S304の処理を繰り返し行うようにしてもよいし、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS302の処理を繰り返し行い、その後、再び、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS303およびS304の処理を繰り返し行うようにしても良い。   In the learning process of FIG. 29, the process from step S302 to S304 may be repeated by using the first frame to the last frame of the input data as the target frame in sequence, or the first frame of the input data. Steps S302 and S304 are repeated with the frame from the first frame to the last frame as the target frame in sequence, and then the process from step S303 and S304 is performed again sequentially from the first frame to the end frame of the input data as the target frame. May be repeated.

次に、図30のフローチャートを参照して、図25のロボットが行う認知行動の処理、即ち、入出力関係モデルM11を用いた時系列データの生成処理(認識生成処理)について説明する。 Next, with reference to the flowchart of FIG. 30, the processing of the cognitive behavior performed by the robot 25, i.e., generation processing (recognition generating processing) in time series using the input-output relationship model M 11 will be explained.

例えば、図29で説明したように、ロボットに、目の前にあるボールを左右に転がすタスクを学習させた後、ロボットの前にボールをおくと(さらに、必要に応じて、ボールを転がすと)、センサ302において、ボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置301のデータ抽出部315に供給される。   For example, as described with reference to FIG. 29, when the robot learns the task of rolling the ball in front of the eyes to the left and right and then puts the ball in front of the robot (and, if necessary, the ball is rolled ), The state of the ball is detected by the sensor 302, and time-series sensor data representing the state is supplied to the data extraction unit 315 of the data processing device 301.

データ抽出部315は、ステップS311において、センサ302からのセンサデータを入力データとして、その入力データの時系列から、フレーム単位の入力データを抽出し、認識部316に供給して、ステップS312に進む。   In step S311, the data extraction unit 315 uses the sensor data from the sensor 302 as input data, extracts input data in frame units from the time series of the input data, supplies the input data to the recognition unit 316, and proceeds to step S312. .

認識部316では、ステップS312において、スコア計算部341が、データ抽出部315からのフレーム単位の入力データを、順次、注目フレームの入力データとして、その注目フレームの入力データに対して、記憶部311に記憶された入出力関係モデルM11を構成する入力ネットワークnet1の各ノードのスコアを計算し、勝者ノード決定部342に供給する。 In the recognition unit 316, in step S <b> 312, the score calculation unit 341 sequentially uses the input data in units of frames from the data extraction unit 315 as the input data of the frame of interest, and the storage unit 311 for the input data of the frame of interest. The score of each node of the input network net 1 constituting the input / output relationship model M 11 stored in is calculated and supplied to the winner node determination unit 342.

さらに、ステップS312では、勝者ノード決定部342が、記憶部311に記憶された入出力関係モデルM11を構成する入力ネットワークnet1のノードの中で、スコア計算部341からのスコアが最も良いノードを、入力勝者ノードに決定し、その入力勝者ノードを表す入力ラベルを、写像部317に供給して、ステップS313に進む。 Further, in step S312, the winning node determining unit 342, among the nodes of the input network net Non 1 constituting the input-output relationship model M 11 stored in the storage unit 311, the best score from the score computing unit 341 nodes To the input winner node, the input label representing the input winner node is supplied to the mapping unit 317, and the process proceeds to step S313.

ステップS313では、写像部317の生成ノード決定部351が、記憶部311に記憶された入出力関係モデルM11を構成する出力ネットワークnet2のノードの中で、勝者ノード決定部342からの入力ラベルが表すノード(入力勝者ノード)との結合重みが最も強いノードを生成ノードに決定し、その生成ノードを表す出力ラベルを、生成部318に供給して、ステップS314に進む。 In step S313, the generation node determination unit 351 of the mapping unit 317, among the nodes of the output network net Non 2 constituting the input-output relationship model M 11 stored in the storage unit 311, input label from the winning node determining unit 342 The node having the strongest connection weight with the node represented by (input winner node) is determined as the generation node, the output label indicating the generation node is supplied to the generation unit 318, and the process proceeds to step S314.

ステップS314では、生成部318の時系列生成部361が、記憶部311に記憶された入出力関係モデルM11を構成する出力ネットワークnet2のノードのうちの、生成ノード決定部351からの出力ラベルが表す生成ノードが有する時系列パターンモデル21(図7)に基づいて、注目フレームの入力データに対する出力データ(の推定値)としての、例えば、フレームの長さの時系列データを生成して出力する。 At step S314, the time series generating unit 361 of the generator 318, the output of the nodes of the network net Non 2, output label from the generation node determining unit 351 that constitutes the input-output relationship model M 11 stored in the storage unit 311 Based on the time-series pattern model 21 (FIG. 7) of the generation node represented by, for example, the time-series data of the frame length is generated and output as the output data (estimated value) for the input data of the frame of interest. To do.

この出力データとしての時系列データは、モータ駆動部303に供給され、モータ駆動部303が、時系列生成部361からの出力データをモータデータとして、モータを駆動することにより、ロボットのアームが動かされる。   The time series data as the output data is supplied to the motor drive unit 303, and the motor drive unit 303 drives the motor using the output data from the time series generation unit 361 as the motor data, thereby moving the robot arm. It is.

以下、データ抽出部315から認識部316に対して供給されるフレーム単位の入力データについて、ステップS312乃至S314の処理が行われる。   Hereinafter, the processes in steps S312 to S314 are performed on the input data in units of frames supplied from the data extraction unit 315 to the recognition unit 316.

以上のように、入力ネットワークnet1のフレーム単位の入力データに対する入力勝者ノードと、出力ネットワークnet2の各ノードとの結合重みを更新するとともに、出力ネットワークnet2の、フレーム単位の入力データの時刻から一定の時間だけ遅れたフレーム単位の出力データに対する出力勝者ノードと、入力ネットワークnet1の各ノードとの結合重みを更新するようにしたので、ロボットに、目の前にあるボールを左右に転がすタスクのような実時間性が要求されるタスクを学習させ、そのようなタスクを行わせることができる。 As described above, the input winning node to the input data for each frame of the input network net Non 1, updates the connection weights between each node in the output network net Non 2, the output of the network net Non 2, the time of the input data for each frame Since the connection weight between the output winner node for each frame of output data delayed by a certain time from each node and each node of the input network net 1 is updated, the ball in front of the robot is rolled to the left and right. A task such as a task that requires real-time characteristics can be learned, and such a task can be performed.

なお、上述の場合には、注目フレームの時刻から一定の時間だけ遅れたフレームの出力データとして、注目フレームの時刻から、フレームと同一の時間Tだけ遅れたフレームの出力データを採用することとしたが、即ち、入力データの注目フレームと、その注目フレームに対応する出力データのフレームとの時間差(以下、適宜、入出力時間差という)として、時間Tを採用したが、入出力時間差は、時間Tに限られるものではなく、例えば、時間2Tや3T、0.5Tなどを採用することができる。   In the above case, the output data of the frame delayed by the same time T as the frame from the time of the frame of interest is adopted as the output data of the frame delayed by a certain time from the time of the frame of interest. That is, the time T is adopted as the time difference between the target frame of the input data and the frame of the output data corresponding to the target frame (hereinafter referred to as the input / output time difference as appropriate). For example, time 2T, 3T, 0.5T, or the like can be employed.

また、入出力時間差としては、フレーム単位の入力データに対して勝者ノードを決定する処理に要する時間△を考慮した時間、即ち、例えば、時間T+△を採用することができる。   As the input / output time difference, a time taking into account the time Δ required for the process of determining the winner node for the input data in units of frames, that is, for example, time T + Δ can be used.

図31は、入出力時間差として、フレーム単位の入力データに対して勝者ノードを決定する処理に要する時間△を考慮した時間T+△を採用した場合の、入力データと出力データとを示している。   FIG. 31 shows input data and output data when the time T + Δ taking into account the time Δ required for the process of determining the winner node for the input data in units of frames is adopted as the input / output time difference.

この場合、注目フレームの入力データに対応する出力データは、注目フレームの時刻から時間T+△だけ遅れたフレームの出力データとなるので、結合重み更新部333(図25)では、入力ネットワークnet1のフレーム単位の入力データに対する入力勝者ノードと、出力ネットワークnet2の各ノードとの結合重みが更新されるとともに、出力ネットワークnet2の、フレーム単位の入力データの時刻から時間T+△だけ遅れたフレーム単位の出力データに対する出力勝者ノードと、入力ネットワークnet1の各ノードとの結合重みが更新される。 In this case, output data corresponding to input data of the frame of interest, since the time from the time of the attention frame T + △ delayed frame of output data, the weight updating unit 333 (FIG. 25), the input network net Non 1 The unit of frame that is updated by the time T + △ from the time of the input data of the frame unit of the output network net 2 while the connection weight of the input winner node for the input data of the frame unit and each node of the output network net 2 is updated The connection weight between the output winner node for each output data and each node of the input network net 1 is updated.

なお、この場合、時刻tのフレームの入力データI[t,t+T]に対応する時刻t+T+△のフレームの出力データは、O[t+T+△,t+2T+△]と表される。   In this case, the output data of the frame at time t + T + Δ corresponding to the input data I [t, t + T] of the frame at time t is represented as O [t + T + Δ, t + 2T + Δ]. The

また、データ抽出部312(図25)では、時間Tの長さのフレーム単位の入力データに対して、例えば、そのフレームから時間△だけ遅れた、時間Tの長さのフレーム単位の出力データを抽出する必要がある。   In addition, the data extraction unit 312 (FIG. 25) outputs, for example, output data in units of frames having a length of time T, which is delayed by a time Δ from the input data in units of frames having a length of time T. Must be extracted.

ここで、結合重み更新部333(図25)において、入力ネットワークnet1のフレーム単位の入力データに対する入力勝者ノードと、出力ネットワークnet2の各ノードとの結合重みを更新するとともに、出力ネットワークnet2の、フレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データに対する出力勝者ノードと、入力ネットワークnet1の各ノードとの結合重みを更新することは、フレーム単位の入力データと、そのフレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データとを対応付けるように、入出力関係モデルM11の学習を行うことになる。 Here, the weight updating unit 333 (FIG. 25), an input winning node to the input data for each frame of the input network net Non 1, updates the connection weights between each node in the output network net Non 2, output network net Non 2 Updating the connection weight between the output winner node for the frame unit output data delayed by the input / output time difference from the time of the frame unit input data and each node of the input network net 1 as it associates the output data in units of frames delayed by output time difference from the time of the input data of the frame units, thereby performing learning of the input-output relationship model M 11.

そして、かかる学習が行われた入出力関係モデルM11を用いた、入力データに対する出力データの生成では、フレーム単位の入力データに対して、そのフレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データ(の推定値)が生成されるから、この出力データの生成は、フレーム単位の入力データ(例えば、センサデータ)から、そのフレーム単位の入力データの時刻から入出力時間差だけ未来のフレーム単位の出力データ(に対応する行動)を予測している、ということができる。 Then, such learning using input-output relationship model M 11 made, in the generation of output data to the input data, the input data for each frame, delayed input time difference from the time of the input data of the frame Output data for each frame (estimated value) is generated, and this output data is generated from the input data for each frame (for example, sensor data) by the input / output time difference from the time of the input data for each frame. It can be said that the output data of the future frame unit is predicted.

以上のように、図25のロボットでは、フレーム単位の入力データと、そのフレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データとを対応付けるように、入出力関係モデルM11の学習を行う。 As described above, in the robot of FIG. 25, the input / output relationship model M 11 is set so that the input data in units of frames and the output data in units of frames delayed by the input / output time difference from the time of the input data in units of frames. To learn.

このため、ロボットの認知行動(出力データの生成)時において、入力データであるセンサデータとして、入出力関係モデルM11の入力ネットワークnet1のいずれかのノードが表現する時系列パターンに合致する時系列パターンのセンサデータ(以下、適宜、既知のセンサデータという)が入力される限りは、そのセンサデータに対して適切な出力データであるモータデータが生成され、その結果、ロボットは、学習したタスクを再現することができる。 Therefore, when the robot's cognitive behavior (output data generation) matches the time series pattern expressed by any node of the input network net 1 of the input / output relationship model M 11 as sensor data that is input data. As long as series pattern sensor data (hereinafter referred to as known sensor data as appropriate) is input, motor data, which is output data appropriate to the sensor data, is generated. As a result, the robot performs the learned task. Can be reproduced.

次に、図25のロボットについて行った実験の実験結果について説明する。   Next, experimental results of the experiment performed on the robot of FIG. 25 will be described.

実験では、ロボットに学習させるタスクとして、ボールをロボットの目前で左右の手であるアームを使って転がすタスクを採用した。   In the experiment, we adopted the task of rolling the ball with the arms of the left and right hands in front of the robot as a task for the robot to learn.

タスクの学習にあたっては、ロボットの左右の手であるアームのゲインを抜いて、人がロボットのアームを操作しながらボールを左右に転がす状況を再現した。そして、その状況下において、ロボットの左右のアームそれぞれの関節角度の情報を、出力データであるモータデータとして収集するとともに、ボールの位置の情報を、入力データであるセンサデータとして収集し、そのモータデータとセンサデータのセットを、教示データとして、タスクの学習に使った。   In learning the task, we removed the gain of the arms that are the left and right hands of the robot, and reproduced the situation where a person rolls the ball left and right while operating the robot arm. Under the circumstances, information on the joint angles of the left and right arms of the robot is collected as motor data that is output data, and information on the position of the ball is collected as sensor data that is input data. A set of data and sensor data was used as teaching data for task learning.

なお、ボールの位置の情報としては、空間上に定めた3次元座標系におけるボールの座標(x,y,z)を表す3次元のベクトルを採用し、左右のアームの関節角度の情報としては、その関節角度を表す8次元のベクトルを採用した。また、センサデータおよびモータデータは、約70msごとにサンプリングした。   As the information on the position of the ball, a three-dimensional vector representing the coordinates (x, y, z) of the ball in the three-dimensional coordinate system defined on the space is adopted. An 8-dimensional vector representing the joint angle was adopted. Sensor data and motor data were sampled approximately every 70 ms.

フレームとしては、2100msを採用し、フレーム単位のセンサデータとしては、センサデータから、2100ms分のサンプル値を、オーバラップしながら、350msずらしで抽出した。フレーム単位のモータデータも同様である。   As the frame, 2100ms was used, and as sensor data for each frame, sample values for 2100ms were extracted from the sensor data with a 350ms offset while overlapping. The same applies to motor data in frame units.

なお、フレーム単位のセンサデータやモータデータは、人が、センサデータやモータデータから、ある意味がある区間のサンプル値を抽出して得ることが可能である。但し、そのような抽出を、ロボットに行わせることは困難であるため、実験では、上述したように、2100ms分のサンプル値を、350msずらしで抽出して、フレーム単位のセンサデータやモータデータとした。   Note that sensor data and motor data in units of frames can be obtained by a person extracting sample values of a certain meaningful section from sensor data and motor data. However, since it is difficult to cause the robot to perform such extraction, in the experiment, as described above, sample values for 2100 ms are extracted with a shift of 350 ms, and sensor data and motor data in units of frames are extracted. did.

入出力関係モデルM11を構成する時系列パターン記憶ネットワーク(入力ネットワークnet1および出力ネットワークnet2)としては、横×縦が10×10個のノードを有する時系列パターン記憶ネットワークを採用し、ノードには、図8に示したような2次元的に配置される配置構造となるリンクを与えた。 As the time series pattern storage network (input network net 1 and output network net 2 ) constituting the input / output relation model M 11 , a time series pattern storage network having 10 × 10 nodes in the horizontal × vertical direction is adopted. Is provided with a link having a two-dimensional arrangement structure as shown in FIG.

また、ノードが有する時系列パターンモデル21としては、HMMを採用し、HMMの出力確率密度関数としては、シングルガウシアン(1つのガウス分布)を採用した。   Further, an HMM is adopted as the time series pattern model 21 possessed by the node, and a single Gaussian (one Gaussian distribution) is adopted as the output probability density function of the HMM.

なお、2100msのセンサデータの認知(勝者ノードを決定する処理)は、高々1サンプル分の時間程度で行うことができるため、入出力時間差には、フレーム単位のセンサデータに対して勝者ノードを決定する処理に要する時間△を考慮しなかった。   In addition, since recognition of 2100ms of sensor data (processing to determine the winner node) can be performed in about one sample time at most, the winner node is determined for the sensor data in frame units for the input / output time difference. The time Δ required for the processing to be performed was not taken into consideration.

学習後の認知行動の実験では、センサデータに混入するノイズによって、アームの動きが多少不安定になりやすくなるものの、ロボットの前で、ボールを転がし始めると、ロボットが、アームでボールを左右に転がす行動を行うことが確認された。従って、図25のロボットが実時間性が要求されるタスクを学習し、そのタスクを行うことができることが検証された。   In the experiment of cognitive behavior after learning, the movement of the arm tends to become somewhat unstable due to noise mixed in the sensor data, but when the ball starts to roll in front of the robot, the robot moves the ball left and right with the arm. It was confirmed to perform a rolling action. Therefore, it was verified that the robot of FIG. 25 can learn a task that requires real-time performance and can perform the task.

次に、図32は、実時間性が要求されるタスクを行うことが可能なロボットの他の構成例を示している。   Next, FIG. 32 shows another configuration example of a robot capable of performing a task that requires real-time characteristics.

なお、図中、図25のロボットと対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   In the figure, portions corresponding to those of the robot of FIG. 25 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

図32において、ロボットは、データ処理装置401、センサ302、およびモータ駆動部303等から構成されている。   In FIG. 32, the robot includes a data processing device 401, a sensor 302, a motor driving unit 303, and the like.

データ処理装置401は、センサ302から供給される時系列のセンサデータと、モータ駆動部303から供給される時系列のモータデータとを用いて、入出力関係モデルの自己組織的な学習を行う。さらに、データ処理装置401は、センサ302から供給される時系列のセンサデータに対して、時系列のモータデータを生成し、モータ駆動部303に供給する。   The data processing device 401 performs self-organized learning of the input / output relation model using the time-series sensor data supplied from the sensor 302 and the time-series motor data supplied from the motor driving unit 303. Furthermore, the data processing device 401 generates time-series motor data for the time-series sensor data supplied from the sensor 302 and supplies the time-series motor data to the motor driving unit 303.

図32において、データ処理装置401は、記憶部411、データ抽出部312、学習処理部413、写像学習部414、データ抽出部315、認識部316、写像部417、および生成部318から構成されている。   32, the data processing device 401 includes a storage unit 411, a data extraction unit 312, a learning processing unit 413, a mapping learning unit 414, a data extraction unit 315, a recognition unit 316, a mapping unit 417, and a generation unit 318. Yes.

記憶部411は、入出力関係モデルを記憶している。   The storage unit 411 stores an input / output relationship model.

ここで、図33は、記憶部411が記憶している入出力関係モデルM123を示している。 Here, FIG. 33 shows the input / output relationship model M 123 stored in the storage unit 411.

入出力関係モデルM123は、複数の時系列パターン記憶ネットワークを有し、1の時系列パターン記憶ネットワークのノードと、他の時系列記憶パターンネットワークのノードとが、結合重みによって結合している点では、図26の入出力関係モデルM11と共通する。 The input / output relationship model M123 has a plurality of time-series pattern storage networks, and a node of one time-series pattern storage network and a node of another time-series storage pattern network are coupled by a coupling weight. So common with input-output relationship model M 11 in FIG. 26.

但し、図26の入出力関係モデルM11は、2つの時系列パターン記憶ネットワークとしての入力ネットワークnet1と出力ネットワークnet2とを有し、その入力ネットワークnet1ノードと、出力ネットワークのnet2のノードとが結合しているが、図33の入出力関係モデルM123は、3つの時系列パターン記憶ネットワークを有し、そのうちの1つの時系列パターン記憶ネットワークのノードと、他の1つの時系列パターン記憶ネットワークのノードとが結合し、かつ、他の1つの時系列パターン記憶ネットワークのノードと、さらに他の1つの時系列パターン記憶ネットワークのノードとが結合している点で、図26の入出力関係モデルM11と異なっている。 However, the input / output relationship model M 11 in FIG. 26 has two input network net 1 and output network net 2 as time series pattern storage networks, and the input network net 1 node and the output network net 2 The input / output relationship model M 123 of FIG. 33 has three time-series pattern storage networks, one of which is the time-series pattern storage network node and the other one of the time series. FIG. 26 shows that the node of the pattern storage network is coupled, and the other one of the time-series pattern storage network nodes and the other one of the time-series pattern storage network nodes are coupled. It is different from the output relation model M 11.

即ち、入出力関係モデルM123は、入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される2つの時系列パターン記憶ネットワークnet1およびnet3(第1および第2の入力時系列パターン記憶ネットワーク)と、出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される時系列パターン記憶ネットワークnet2(出力時系列パターン記憶ネットワーク)とを有する。 In other words, the input / output relationship model M 123 includes two time series pattern storage networks net 1 composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as input data. net 3 (first and second input time series pattern storage network) and a time series composed of a plurality of nodes having a time series pattern model expressing a time series pattern which is a pattern of time series data as output data Pattern storage network net 2 (output time-series pattern storage network).

ここで、入力データの時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される2つの時系列パターン記憶ネットワークnet1とnet3を、それぞれ、第1の入力ネットワークnet1と第2の入力ネットワークnet3という。また、図26の入出力関係モデルM11と同様に、出力データの時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される時系列パターン記憶ネットワークnet2を、出力ネットワークnet2という。 Here, two time series pattern storage networks net 1 and net 3 composed of a plurality of nodes having a time series pattern model expressing a time series pattern of input data are respectively set to a first input network net 1 and a second input network. Input network called net 3 . Similar to the input-output relationship model M 11 in FIG. 26, the time series pattern storage network net Non 2 including a plurality of nodes having a time series pattern model representing a time series pattern of the output data, the output network net Non 2 That's it.

入出力関係モデルM123では、第1の入力ネットワークnet1のノードと、第2の入力ネットワークnet3のノードとが、結合重み(w13)によって結合されているとともに、第2の入力ネットワークnet3と、出力ネットワークのnet2のノードとが、結合重み(w32)によって結合されている。 In the input / output relationship model M 123 , the node of the first input network net 1 and the node of the second input network net 3 are coupled by the coupling weight (w 13 ), and the second input network net 3 and the node of net 2 of the output network are coupled by the coupling weight (w 32 ).

図32に戻り、学習処理部413は、図25の学習処理部313と同様に、認識学習処理部321と生成学習処理部322を有している。さらに、学習処理部413は、認識学習処理部321と生成学習処理部322の他に、認識学習部421を有している。   Returning to FIG. 32, the learning processing unit 413 includes a recognition learning processing unit 321 and a generation learning processing unit 322, similarly to the learning processing unit 313 of FIG. 25. Further, the learning processing unit 413 includes a recognition learning unit 421 in addition to the recognition learning processing unit 321 and the generation learning processing unit 322.

認識学習部421は、認識学習処理部321と同様の処理を行う。   The recognition learning unit 421 performs the same processing as the recognition learning processing unit 321.

即ち、認識学習部421には、認識学習部321と同様に、データ抽出部312からフレーム単位の入力データが供給される。そして、認識学習部421は、認識学習部321と同様に、データ抽出部312から供給されるフレーム単位の入力データに基づいて、記憶部411に記憶された入出力関係モデルM123(図33)における第2の入力ネットワークnet3を、自己組織的に更新する。 That is, input data in units of frames is supplied from the data extraction unit 312 to the recognition learning unit 421, similarly to the recognition learning unit 321. Similar to the recognition learning unit 321, the recognition learning unit 421, based on the input data in units of frames supplied from the data extraction unit 312, stores the input / output relationship model M 123 stored in the storage unit 411 (FIG. 33). The second input network net 3 at is updated in a self-organizing manner.

具体的には、認識学習処理部421は、入出力関係モデルM123における第2の入力ネットワークnet3の各ノードについて、データ抽出部312からのフレーム単位の入力データに対するスコアを求め、第2の入力ネットワークnet3のノードの中から、スコアの最も良いノードを、勝者ノード(入力勝者ノード)に決定する。さらに、認識学習処理部421は、データ抽出部312からのフレーム単位の入力データに対する入力勝者ノードに基づいて、第2の入力ネットワークnet3を、自己組織的に更新する。 Specifically, the recognition learning processing unit 421 obtains a score for the input data in frame units from the data extraction unit 312 for each node of the second input network net 3 in the input / output relationship model M 123 , and the second The node having the best score among the nodes of the input network net 3 is determined as the winner node (input winner node). Further, the recognition learning processing unit 421 updates the second input network net 3 in a self-organized manner based on the input winner node for the input data in frame units from the data extraction unit 312.

また、認識学習処理部421は、フレーム単位の入力データに対して時系列に決定した入力勝者ノードを表すノードラベルである入力ラベルを、写像学習部414に、時系列に供給する。   In addition, the recognition learning processing unit 421 supplies an input label, which is a node label representing the input winner node determined in time series with respect to the input data in frame units, to the mapping learning unit 414 in time series.

ここで、認識学習処理部321は、入出力関係モデルM123における第1の入力ネットワークnet1の各ノードについて、図25で説明したように、データ抽出部312からのフレーム単位の入力データに対するスコアを求め、第1の入力ネットワークnet1のノードの中から、スコアの最も良いノードを、勝者ノード(入力勝者ノード)に決定する。この第1の入力ネットワークnet1のノードの中から決定された入力勝者ノードと、上述の第2の入力ネットワークnet3のノードの中から決定された入力勝者ノードとを区別するため、以下、適宜、第1の入力ネットワークnet1のノードの中から決定された入力勝者ノードを、第1の入力勝者ノードといい、第2の入力ネットワークnet3のノードの中から決定された入力勝者ノードを、第2の入力勝者ノードという。 Here, as described with reference to FIG. 25, the recognition learning processing unit 321 scores for the input data in units of frames from the data extraction unit 312 for each node of the first input network net 1 in the input / output relationship model M 123 . And the node having the best score among the nodes of the first input network net 1 is determined as the winner node (input winner node). In order to distinguish between the input winner node determined from the nodes of the first input network net 1 and the input winner node determined from the nodes of the second input network net 3 described above, The input winner node determined from the nodes of the first input network net 1 is referred to as a first input winner node, and the input winner node determined from the nodes of the second input network net 3 is This is called the second input winner node.

さらに、以下、適宜、第1の入力勝者ノードを表すノードラベルを、第1の入力ラベルといい、第2の入力勝者ノードを表すノードラベルを、第2の入力ラベルという。   Furthermore, hereinafter, a node label representing the first input winner node will be referred to as a first input label, and a node label representing the second input winner node will be referred to as a second input label as appropriate.

写像学習部414は、データバッファ331、読み出し部432、および結合重み更新部433から構成され、記憶部411に記憶された入出力関係モデルM123における第1の入力ネットワークnet1の、あるフレームFの入力データに対する第1の入力勝者ノードと、第2の入力ネットワークnet3の各ノードとの結合重み(w13)を更新するとともに、第2の入力ネットワークnet3の、フレームFの入力データの時刻から入出力時間差だけ遅れたフレームの入力データに対する第2の入力勝者ノードと、第1の入力ネットワークnet1の各ノードとの結合重みを更新する。 The mapping learning unit 414 includes a data buffer 331, a reading unit 432, and a coupling weight update unit 433, and a certain frame F of the first input network net 1 in the input / output relationship model M 123 stored in the storage unit 411. The connection weight (w 13 ) between the first input winner node for each input data and each node of the second input network net 3 is updated, and the input data of the frame F of the second input network net 3 is updated. The connection weight between the second input winner node for the input data of the frame delayed by the input / output time difference from the time and each node of the first input network net 1 is updated.

さらに、写像学習部414は、第2の入力ネットワークnet3の、フレームFの入力データの時刻から入出力時間差だけ遅れたフレームの入力データに対する第2の入力勝者ノードと、出力ネットワークnet2の各ノードとの結合重みを更新するとともに、出力ネットワークnet2の、フレームFの入力データの時刻から入出力時間差だけ遅れたフレームの出力データに対する出力勝者ノードと、第2の入力ネットワークnet3の各ノードとの結合重みを更新する。 Further, the mapping learning unit 414 includes a second input winner node for the input data of the second input network net 3 with respect to the input data of the frame delayed by the input / output time difference from the time of the input data of the frame F, and each of the output networks net 2 updates the connection weights between the nodes, the output of the network net Non 2, an output winning node to the output data of a frame delayed by output time difference from the time of the input data of the frame F, each node of the second input network net Non 3 Update the connection weight with.

即ち、写像学習部414では、データバッファ331が、学習処理部413から時系列に供給される第1の入力ラベル、第2の入力ラベル、および出力ラベルを一時記憶する。   That is, in the mapping learning unit 414, the data buffer 331 temporarily stores the first input label, the second input label, and the output label supplied from the learning processing unit 413 in time series.

つまり、図32の実施の形態では、学習処理部413において、認識学習処理部321が、第1の入力ラベルを写像学習部414に供給し、認識学習処理部421が第2の入力ラベルを写像学習部414に供給し、生成学習処理部322が、出力ラベルを写像学習部414に供給するので、写像学習部414のデータバッファ331では、これらの第1の入力ラベル、第2の入力ラベル、および出力ラベルが記憶される。   That is, in the embodiment of FIG. 32, in the learning processing unit 413, the recognition learning processing unit 321 supplies the first input label to the mapping learning unit 414, and the recognition learning processing unit 421 maps the second input label. Since the generation learning processing unit 322 supplies the output label to the mapping learning unit 414, the data buffer 331 of the mapping learning unit 414 supplies these first input label, second input label, And the output label is stored.

読み出し部432は、入力データのフレームを、順次、注目フレームとして、データバッファ331に記憶された第1の入力ラベルのうちの、注目フレームの入力データに対する入力勝者ノードを表す第1の入力ラベルと、データバッファ331に記憶された第2の入力ラベルのうちの、注目フレームの時刻から入出力時間差だけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルとを読み出して対応付け、その対応付けた第1の入力ラベルと第2の入力ラベルとのセットであるラベルセット(以下、適宜、入力ラベルセットという)を、結合重み更新部433に供給する。   The reading unit 432 sequentially sets the frames of the input data as the frames of interest, and among the first input labels stored in the data buffer 331, the first input label representing the input winner node for the input data of the frames of interest The second input label representing the second input winner node for the input data of the frame delayed by the input / output time difference from the time of the frame of interest among the second input labels stored in the data buffer 331 is read out. The association and the label set (hereinafter, appropriately referred to as the input label set) that is a set of the associated first input label and second input label are supplied to the connection weight update unit 433.

さらに、読み出し部432は、データバッファ331に記憶された第2の入力ラベルのうちの、注目フレームの時刻から入出力時間差だけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から入出力時間差だけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを読み出して対応付け、その対応付けた第2の入力ラベルと出力ラベルとのセットであるラベルセット(以下、適宜、入出力ラベルセットという)を、結合重み更新部433に供給する。   Further, the reading unit 432 represents a second input winner node representing the second input winner node for the input data of the frame delayed by the input / output time difference from the time of the frame of interest among the second input labels stored in the data buffer 331. Read and associate the input label with the output label representing the output winner node for the output data of the frame delayed by the input / output time difference from the time of the frame of interest among the output labels stored in the data buffer 331, and the association In addition, a label set (hereinafter, referred to as an input / output label set as appropriate) that is a set of the second input label and the output label is supplied to the connection weight update unit 433.

結合重み更新部433は、図21の結合重み更新部222と同様に、図23で説明したようにして、読み出し部432から供給される入力ラベルセットに基づき、記憶部411に記憶された入出力関係モデルM123(図33)における第1の入力ネットワークnet1のノードと、第2の入力ネットワークnet3のノードとの結合関係を、ヘブ則等により更新する。さらに、結合重み更新部433は、読み出し部432から供給される入出力ラベルセットに基づき、記憶部411に記憶された入出力関係モデルM123における第2の入力ネットワークnet3のノードと、出力ネットワークnet2のノードとの結合関係を、ヘブ則等により更新する。 Similar to the connection weight update unit 222 in FIG. 21, the connection weight update unit 433 performs input / output stored in the storage unit 411 based on the input label set supplied from the reading unit 432 as described in FIG. 23. The connection relationship between the node of the first input network net 1 and the node of the second input network net 3 in the relationship model M 123 (FIG. 33) is updated according to the Hebb rule or the like. Further, the connection weight updating unit 433 is configured to output the second input network net 3 node and the output network in the input / output relation model M 123 stored in the storage unit 411 based on the input / output label set supplied from the reading unit 432. The connection relationship with the net 2 node is updated according to the Hebb rule.

即ち、結合重み更新部433は、第1の入力ネットワークnet1の各入力ノードと、入力ラベルセットの第2の入力ラベルが表す第2の入力ネットワークnet3の第2の入力勝者ノードとの結合重み(w13)を、入力ラベルセットの第1の入力ラベルが表す第1の入力ネットワークnet1の第1の入力勝者ノードを中心として更新するとともに、第2の入力ネットワークnet3の各入力ノードと、第1の入力ネットワークnet1の第1の入力勝者ノードとの結合重みを、第2の入力ネットワークnet3の第2の入力勝者ノードを中心として更新する第1の結合重みの更新を行う。 That is, the connection weight updating unit 433 combines each input node of the first input network net 1 and the second input winner node of the second input network net 3 represented by the second input label of the input label set. The weight (w 13 ) is updated around the first input winner node of the first input network net 1 represented by the first input label of the input label set, and each input node of the second input network net 3 And the first connection weight for updating the connection weight with the first input winner node of the first input network net 1 around the second input winner node of the second input network net 3 is updated. .

さらに、結合重み更新部433は、第2の入力ネットワークnet3の各入力ノードと、入出力ラベルセットの出力ラベルが表す出力ネットワークnet2の出力勝者ノードとの結合重み(w32)を、入出力ラベルセットの第2の入力ラベルが表す第2の入力ネットワークnet3の第2の入力勝者ノードを中心として更新するとともに、出力ネットワークnet2の各出力ノードと、第2の入力ネットワークnet3の第2の入力勝者ノードとの結合重みを、出力ネットワークnet2の出力勝者ノードを中心として更新する第2の結合重みの更新を行う。 Further, the connection weight updating unit 433 inputs the connection weight (w 32 ) between each input node of the second input network net 3 and the output winner node of the output network net 2 represented by the output label of the input / output label set. Update the second input winner net node of the second input network net 3 represented by the second input label of the output label set, and update each output node of the output network net 2 and the second input network net 3 The second connection weight is updated to update the connection weight with the second input winner node around the output winner node of the output network net 2 .

写像部417は、生成ノード決定部451から構成され、認識部316から供給される、勝者ノードを表すノードラベルに基づいて、時系列データを生成する生成ノードを決定して、その生成ノードを表すノードラベルを、生成部318に供給する。   The mapping unit 417 includes a generation node determination unit 451, determines a generation node that generates time-series data based on the node label representing the winner node supplied from the recognition unit 316, and represents the generation node The node label is supplied to the generation unit 318.

即ち、生成ノード決定部451には、認識部316の勝者ノード決定部342から、第1の入力ネットワークnet1のノードのうちの、フレーム単位の入力データに対する第1の勝者ノードを表すノードラベル(入力ラベル)が供給されるようになっている。 That is, the generation node determination unit 451 receives from the winner node determination unit 342 of the recognition unit 316 a node label (first label node representing the first winner node for input data in frame units among the nodes of the first input network net 1. Input label) is supplied.

生成ノード決定部451は、第2の入力ネットワークnet3のノードの中から、勝者ノード決定部342からのノードラベルが表す第1の入力勝者ノードとの結合が最強のノード(以下、適宜、最強結合ノードという)を求め、さらに、出力ネットワークnet2のノードの中から、最強結合ノードと結合が最強のノードを、生成ノードに決定する。そして、生成ノード決定部451は、生成ノードを表すノードラベル(出力ラベル)を、生成部318に供給する。 The generation node determination unit 451 selects the node having the strongest combination with the first input winner node represented by the node label from the winner node determination unit 342 among the nodes of the second input network net 3 (hereinafter, the strongest as appropriate). In addition, the strongest coupling node and the node having the strongest coupling among the nodes of the output network net 2 are determined as generation nodes. Then, the generation node determination unit 451 supplies a node label (output label) representing the generation node to the generation unit 318.

次に、図34を参照して、図32の読み出し部432の処理について説明する。   Next, processing of the reading unit 432 in FIG. 32 will be described with reference to FIG.

読み出し部432は、上述したように、入力データのフレームを、順次、注目フレームとして、データバッファ331に記憶された第1の入力ラベルのうちの、注目フレームの入力データに対する第1の入力勝者ノードを表す第1の入力ラベルと、データバッファ331に記憶された第2の入力ラベルのうちの、注目フレームの時刻から入出力時間差だけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルとを対応付ける。   As described above, the reading unit 432 uses the first input winner node for the input data of the frame of interest among the first input labels stored in the data buffer 331 as the frame of the input data sequentially as the frame of interest. Of the first input label representing the second input label stored in the data buffer 331, the second input winner node representing the second input winner node for the input data of the frame delayed by the input / output time difference from the time of the frame of interest 2 input labels are associated with each other.

さらに、読み出し部432は、データバッファ331に記憶された第2の入力ラベルのうちの、注目フレームの時刻から入出力時間差だけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から入出力時間差だけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを対応付ける。   Further, the reading unit 432 represents a second input winner node representing the second input winner node for the input data of the frame delayed by the input / output time difference from the time of the frame of interest among the second input labels stored in the data buffer 331. The input label is associated with the output label representing the output winner node for the output data of the frame delayed by the input / output time difference from the time of the frame of interest among the output labels stored in the data buffer 331.

即ち、入出力時間差として、例えば、フレームと同一の時間Tを採用することとすると、読み出し部432は、時刻tのフレームの入力データ(I[t,t+T])に対する第1の入力勝者ノードNtを表す第1の入力ラベルと、注目フレームの時刻tから入出力時間差Tだけ遅れた時刻t+Tのフレームの入力データ(I[t+T,t+2T])に対する第2の入力勝者ノードNt+Tを表す第2の入力ラベルとを対応付ける。 That is, for example, when the same time T as the frame is adopted as the input / output time difference, the reading unit 432 reads the first input winner for the input data (I [t, t + T]) of the frame at time t. A second input for the first input label representing the node N t and the input data (I [t + T, t + 2T]) of the frame at time t + T delayed by the input / output time difference T from the time t of the frame of interest A second input label representing the input winner node N t + T is associated.

さらに、読み出し部432は、注目フレームの時刻tから入出力時間差Tだけ遅れた時刻t+Tのフレームの入力データ(I[t+T,t+2T])に対する第2の入力勝者ノードNt+Tを表す第2の入力ラベルと、注目フレームの時刻tから入出力時間差Tだけ遅れた時刻t+Tのフレームの出力データ(O[t+T,t+2T])に対する出力勝者ノードN't+Tを表す出力ラベルとを対応付ける。 Further, the reading unit 432 outputs the second input winner node N t for the input data (I [t + T, t + 2T]) of the frame at time t + T delayed by the input / output time difference T from the time t of the frame of interest. Output winner node N for the second input label representing + T and the output data (O [t + T, t + 2T]) of the frame at time t + T delayed by the input / output time difference T from time t of the frame of interest 'Associate with output label representing t + T.

次に、図35のフローチャートを参照して、図32のロボットが行う学習処理、即ち、入出力関係モデルM123の学習処理について説明する。 Next, the learning process performed by the robot of FIG. 32, that is, the learning process of the input / output relationship model M123 will be described with reference to the flowchart of FIG.

例えば、ロボットに、目の前にあるボールを左右に転がすタスクを学習させる場合、オペレータは、ロボットの前にボールをおき、ロボットのアームを持って、ボールを左右に転がすように、アームを動かす。   For example, if the robot learns the task of rolling the ball in front of it to the left or right, the operator moves the arm to place the ball in front of the robot, hold the robot arm, and roll the ball to the left or right. .

この場合、センサ302において、左右に転がるボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置401のデータ抽出部312に供給される。   In this case, the sensor 302 detects the state of the ball rolling left and right, and time-series sensor data representing the state is supplied to the data extraction unit 312 of the data processing device 401.

また、モータ駆動部303では、オペレータが動かしているアームの動きに対応するモータデータが生成され、データ処理装置401のデータ抽出部312に供給される。   Further, the motor drive unit 303 generates motor data corresponding to the movement of the arm being moved by the operator, and supplies the motor data to the data extraction unit 312 of the data processing device 401.

データ抽出部312は、ステップS331において、センサ302からのセンサデータを入力データとして、その入力データの時系列から、フレーム単位の入力データを抽出し、学習処理部413の認識学習処理部321と421に供給するとともに、モータ駆動部303からのモータデータを出力データとして、その出力データの時系列から、フレーム単位の出力データを抽出し、学習処理部413の生成学習処理部322に供給して、ステップS332に進む。   In step S331, the data extraction unit 312 uses the sensor data from the sensor 302 as input data, extracts input data in units of frames from the time series of the input data, and recognizes learning processing units 321 and 421 of the learning processing unit 413. , The motor data from the motor drive unit 303 is used as output data, output data in frame units is extracted from the time series of the output data, and is supplied to the generation learning processing unit 322 of the learning processing unit 413. Proceed to step S332.

ステップS332では、学習処理部413が、データ抽出部312からのフレーム単位の入力データと出力データを用いて、記憶部411に記憶された入出力関係モデルM123(図33)が有する第1の入力ネットワークnet1、第2の入力ネットワークnet3、および出力ネットワークnet2の自己組織的な学習を行う。 In step S332, the learning processing unit 413 uses the input data and output data in units of frames from the data extraction unit 312, and the first input / output relationship model M 123 (FIG. 33) stored in the storage unit 411 has. Self-organized learning of the input network net 1 , the second input network net 3 , and the output network net 2 is performed.

即ち、ステップS332では、ステップS3321,S3322、およびS3323の処理が行われる。 That is, in step S332, the processes of steps S332 1 , S332 2 , and S332 3 are performed.

ステップS3321では、認識学習処理部321が、記憶部411に記憶された入出力関係モデルM123における第1の入力ネットワークnet1の各ノードについて、データ抽出部312からのフレーム単位の入力データに対するスコアを求め、第1の入力ネットワークnet1のノードの中から、スコアの最も良いノードを、第1の入力勝者ノードに決定する。さらに、認識学習処理部321は、データ抽出部312からのフレーム単位の入力データに対する第1の入力勝者ノードに基づいて、第1の入力ネットワークnet1を、自己組織的に更新し、第1の入力勝者ノードを表す第1の入力ラベルを、写像学習部414に供給する。 In step S332 1 , the recognition learning processing unit 321 applies the frame unit input data from the data extraction unit 312 for each node of the first input network net 1 in the input / output relationship model M 123 stored in the storage unit 411. The score is obtained, and the node having the best score among the nodes of the first input network net 1 is determined as the first input winner node. Further, the recognition learning processing unit 321 updates the first input network net 1 in a self-organized manner based on the first input winner node for the input data in units of frames from the data extraction unit 312, The first input label representing the input winner node is supplied to the mapping learning unit 414.

ステップS3322では、認識学習処理部421が、記憶部411に記憶された入出力関係モデルM123における第2の入力ネットワークnet3の各ノードについて、データ抽出部312からのフレーム単位の入力データに対するスコアを求め、第2の入力ネットワークnet3のノードの中から、スコアの最も良いノードを、第2の入力勝者ノードに決定する。さらに、認識学習処理部421は、データ抽出部312からのフレーム単位の入力データに対する第2の入力勝者ノードに基づいて、第2の入力ネットワークnet3を、自己組織的に更新し、第2の入力勝者ノードを表す第2の入力ラベルを、写像学習部414に供給する。 In step S < b > 332 2 , the recognition learning processing unit 421 applies the frame unit input data from the data extraction unit 312 for each node of the second input network net 3 in the input / output relationship model M 123 stored in the storage unit 411. The score is obtained, and the node having the best score is determined as the second input winner node from the nodes of the second input network net 3 . Furthermore, the recognition learning processing unit 421 updates the second input network net 3 in a self-organized manner based on the second input winner node for the input data in frame units from the data extraction unit 312, A second input label representing the input winner node is supplied to the mapping learning unit 414.

ステップS3323では、生成学習処理部322が、記憶部411に記憶された入出力関係モデルM123における出力ネットワークnet2の各ノードについて、データ抽出部312からのフレーム単位の出力データに対するスコアを求め、出力ネットワークnet2のノードの中から、スコアの最も良いノードを、出力勝者ノードに決定する。さらに、生成学習処理部322は、データ抽出部312からのフレーム単位の出力データに対する出力勝者ノードに基づいて、出力ネットワークnet2を、自己組織的に更新し、出力勝者ノードを表す出力ラベルを、写像学習部414に供給する。 In step S332 3 , the generation learning processing unit 322 obtains a score for the output data in units of frames from the data extraction unit 312 for each node of the output network net 2 in the input / output relationship model M 123 stored in the storage unit 411. The node having the best score is determined as the output winner node from the nodes of the output network net 2 . Furthermore, the generation learning processing unit 322 updates the output network net 2 in a self-organized manner based on the output winner node for the output data in frame units from the data extraction unit 312, and outputs an output label representing the output winner node, This is supplied to the mapping learning unit 414.

ステップS332の処理後は、ステップS333に進み、写像学習部414は、入力データのフレームのうちの、まだ注目フレームとしていないフレームを、注目フレームとして、学習処理部413からの、注目フレームの入力データに対する第1の入力勝者ノードを表す第1の入力ラベルと、学習処理部413からの、注目フレームから入出力時間差Tだけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルとを対応付けるとともに、学習処理部413からの、注目フレームから入出力時間差Tだけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルと、学習処理部413からの、注目フレームから入出力時間差Tだけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを対応付ける。   After the processing of step S332, the process proceeds to step S333, and the mapping learning unit 414 uses the input data frame of the input data from the learning processing unit 413 as a target frame, which has not been set as the target frame. The first input label representing the first input winner node for the second input and the second input representing the second input winner node for the input data of the frame delayed by the input / output time difference T from the frame of interest from the learning processing unit 413 A second input label representing a second input winner node for the input data of the frame delayed from the target frame by the input / output time difference T from the learning processing unit 413, and the learning processing unit 413, Shows the output winner node for the output data of the frame delayed by I / O time difference T from the frame of interest Correspondence between the output label.

即ち、ステップS333では、写像学習部414のデータバッファ331において、学習処理部413からのフレーム単位の入力データに対する第1と第2の入力勝者ノードをそれぞれ表す第1と第2の入力ラベル、およびフレーム単位の出力データに対する出力勝者ノードを表す出力ラベルとが一時記憶される。   That is, in step S333, in the data buffer 331 of the mapping learning unit 414, the first and second input labels respectively representing the first and second input winner nodes for the input data in frame units from the learning processing unit 413, and An output label representing an output winner node for output data in frame units is temporarily stored.

そして、ステップS333では、写像学習部414の読み出し部432が、ステップS3331とS3332の処理を行う。 In step S333, the read section 432 of the picture learning unit 414 performs the process of step S333 1 and S333 2.

即ち、ステップS3331では、読み出し部432は、データバッファ331に記憶された第1の入力ラベルのうちの、注目フレームの入力データに対する第1の入力勝者ノードを表す第1の入力ラベルと、データバッファ331に記憶された第2の入力ラベルのうちの、注目フレームの時刻から入出力時間差Tだけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルとを読み出して対応付け、その対応付けた第1と第2の入力ラベルのセットである入力ラベルセットを、結合重み更新部433に供給する。 That is, in step S333 1, the read unit 432, a first input label representing one of the first input label stored in the data buffer 331, a first input winning node to the input data of the frame of interest, the data Of the second input labels stored in the buffer 331, the second input label representing the second input winner node corresponding to the input data of the frame delayed by the input / output time difference T from the time of the target frame is read and corresponded The input label set, which is a set of the first and second input labels associated with each other, is supplied to the connection weight updating unit 433.

ステップS3332では、読み出し部432は、データバッファ331に記憶された第2の入力ラベルのうちの、注目フレームの時刻から入出力時間差Tだけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から入出力時間差Tだけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを読み出して対応付け、その対応付けた第2の入力ラベルと出力ラベルとのセットである入出力ラベルセットを、結合重み更新部433に供給する。 In step S333 2, reading unit 432 of the second input label stored in the data buffer 331, a second input winning node to the input data of a frame delayed by output time difference T from the time frame of interest The second input label to be represented and the output label representing the output winner node for the output data of the frame delayed by the input / output time difference T from the time of the frame of interest among the output labels stored in the data buffer 331 are read and corresponded The input / output label set, which is a set of the associated second input label and output label, is supplied to the connection weight updating unit 433.

そして、ステップS333からステップS334に進み、写像学習部414の結合重み更新部433が、読み出し部432から供給される入力ラベルセットと入出力ラベルセットに基づき、記憶部411に記憶された入出力関係モデルM123(図33)における第1の入力ネットワークnet1のノードと、第2の入力ネットワークnet3のノードとの結合関係を更新する第1の結合重みの更新と、第2の入力ネットワークnet3のノードと、出力ネットワークnet2のノードとの結合関係を更新する第2の結合重みの更新とを行う。 Then, the process proceeds from step S333 to step S334, and the connection weight update unit 433 of the mapping learning unit 414 stores the input / output relationship stored in the storage unit 411 based on the input label set and the input / output label set supplied from the reading unit 432. Update of the first connection weight for updating the connection relationship between the node of the first input network net 1 and the node of the second input network net 3 in the model M 123 (FIG. 33), and the second input network net The second connection weight is updated to update the connection relationship between the node 3 and the node of the output network net 2 .

即ち、結合重み更新部433は、第1の結合重みの更新として、記憶部411に記憶された入出力関係モデルM123における第1の入力ネットワークnet1の各入力ノードと、入力ラベルセットの第2の入力ラベルが表す第2の入力ネットワークnet3の第2の入力勝者ノードとの結合重みを、入力ラベルセットの第1の入力ラベルが表す第1の入力ネットワークnet1の第1の入力勝者ノードを中心として更新するとともに、第2の入力ネットワークnet3の各入力ノードと、第1の入力ネットワークnet1の第1の入力勝者ノードとの結合重みを、第2の入力ネットワークnet3の第2の入力勝者ノードを中心として更新する。 That is, the connection weight update unit 433 updates each of the input nodes of the first input network net 1 in the input / output relationship model M 123 stored in the storage unit 411 and the input label set as the update of the first connection weight. The first input winner of the first input network net 1 represented by the first input label of the input label set represents the connection weight with the second input winner node of the second input network net 3 represented by the two input labels. And updating the connection weights of the respective input nodes of the second input network net 3 and the first input winner node of the first input network net 1 in the second input network net 3 Update with 2 input winner nodes as the center.

また、結合重み更新部433は、第2の結合重みの更新として、記憶部411に記憶された入出力関係モデルM123における第2の入力ネットワークnet3の各入力ノードと、入出力ラベルセットの出力ラベルが表す出力ネットワークnet2の出力勝者ノードとの結合重みを、入出力ラベルセットの第2の入力ラベルが表す第2の入力ネットワークnet3の第2の入力勝者ノードを中心として更新するとともに、出力ネットワークnet2の各出力ノードと、第2の入力ネットワークnet3の第2の入力勝者ノードとの結合重みを、出力ネットワークnet2の出力勝者ノードを中心として更新する。 Further, the connection weight updating unit 433 updates each input node of the second input network net 3 in the input / output relationship model M 123 stored in the storage unit 411 and the input / output label set as the second connection weight update. The connection weight with the output winner node of the output network net 2 represented by the output label is updated around the second input winner node of the second input network net 3 represented by the second input label of the input / output label set. The connection weight between each output node of the output network net 2 and the second input winner node of the second input network net 3 is updated with the output winner node of the output network net 2 as the center.

以上のような入出力関係モデルM123の学習処理によれば、入出力関係モデルM123(図33)が有する第1の入力ネットワークnet1と第2の入力ネットワークnet3との結合関係、および第2の入力ネットワークnet3と出力ネットワークnet2との結合関係は、以下のように更新される。 According to the learning process of the input / output relationship model M 123 as described above, the connection relationship between the first input network net 1 and the second input network net 3 included in the input / output relationship model M 123 (FIG. 33), and The connection relationship between the second input network net 3 and the output network net 2 is updated as follows.

即ち、第1の入力勝者ノードは、注目フレームの入力データに対する勝者ノードであり、第2の入力勝者ノードは、注目フレームから入出力時間差Tだけ遅れたフレームの入力データに対する勝者ノードであるから、結合重み更新部433による第1の結合重みの更新によれば、記憶部411に記憶された入出力関係モデルM123において、注目フレームの入力データに対する第1の入力ネットワークnet1の第1の入力勝者ノードと、注目フレームから入出力時間差Tだけ遅れたフレームの入力データに対する第2の入力ネットワークnet3の第2の入力勝者ノードとの結合重み(w13)が、より強くなるように更新される。 That is, the first input winner node is a winner node for the input data of the frame of interest, and the second input winner node is a winner node for the input data of the frame delayed by the input / output time difference T from the frame of interest. according by the weight updating unit 433 to the first connection weight updating, the input-output relationship model M 123 stored in the storage unit 411, first the first input of the input network net Non 1 to the input data of the frame of interest The connection weight (w 13 ) between the winner node and the second input winner node of the second input network net 3 for the input data of the frame delayed by the input / output time difference T from the frame of interest is updated to be stronger. The

さらに、出力勝者ノードは、注目フレームから入出力時間差Tだけ遅れたフレームの出力データに対する勝者ノードであるから、結合重み更新部433による第2の結合重みの更新によれば、記憶部411に記憶された入出力関係モデルM123において、注目フレームから入出力時間差Tだけ遅れたフレームの入力データに対する第2の入力ネットワークnet3の第2の入力勝者ノードと、注目フレームから入出力時間差Tだけ遅れたフレームの出力データに対する出力ネットワークnet2の出力勝者ノードとの結合重み(w32)が、より強くなるように更新される。 Furthermore, since the output winner node is a winner node for the output data of the frame delayed by the input / output time difference T from the frame of interest, when the second connection weight is updated by the connection weight update unit 433, the output winner node is stored in the storage unit 411. in the input-output relationship model M 123 which is a second input winning node of the second input network net Non 3 to the input data of a frame delayed by output time difference T from the frame of interest, only input and output time difference T from the target frame delay The connection weight (w 32 ) with the output winner node of the output network net 2 for the output data of the frame is updated to be stronger.

なお、図35の学習処理は、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS332乃至S334の処理を繰り返し行うようにしてもよいし、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS332の処理を繰り返し行い、その後、再び、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS333およびS334の処理を繰り返し行うようにしても良い。   In the learning process of FIG. 35, the process from step S332 to S334 may be repeated with the frame from the first frame to the last frame of the input data as the target frame, or the first frame of the input data. Steps S332 and S334 are repeatedly performed with the frame from the first frame to the last frame as the target frame, and then the process from step S333 and S334 is performed again with the first frame to the last frame of the input data as the target frame again. May be repeated.

次に、図36のフローチャートを参照して、図32のロボットが行う認知行動の処理、即ち、入出力関係モデルM123を用いた時系列データの生成処理(認識生成処理)について説明する。 Next, a process of cognitive behavior performed by the robot of FIG. 32, that is, a process of generating time-series data (recognition generation process) using the input / output relationship model M123 will be described with reference to the flowchart of FIG.

例えば、図35で説明したように、ロボットに、目の前にあるボールを左右に転がすタスクを学習させた後、ロボットの前にボールをおくと(さらに、必要に応じて、ボールを転がすと)、センサ302において、ボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置401のデータ抽出部315に供給される。   For example, as described with reference to FIG. 35, when the robot learns the task of rolling the ball in front of the eyes to the left and right, and then puts the ball in front of the robot (and if necessary, the ball is rolled. ), The state of the ball is detected by the sensor 302, and time-series sensor data representing the state is supplied to the data extraction unit 315 of the data processing device 401.

データ抽出部315は、ステップS341において、センサ302からのセンサデータを入力データとして、その入力データの時系列から、フレーム単位の入力データを抽出し、認識部316に供給して、ステップS342に進む。   In step S341, the data extraction unit 315 uses the sensor data from the sensor 302 as input data, extracts input data in frame units from the time series of the input data, supplies the input data to the recognition unit 316, and proceeds to step S342. .

認識部316では、ステップS342において、スコア計算部341が、データ抽出部315からのフレーム単位の入力データを、順次、注目フレームの入力データとして、その注目フレームの入力データに対して、記憶部411に記憶された入出力関係モデルM123(図33)を構成する第1の入力ネットワークnet1の各ノードのスコアを計算し、勝者ノード決定部342に供給する。 In the recognition unit 316, in step S342, the score calculation unit 341 sequentially uses the input data in units of frames from the data extraction unit 315 as the input data of the frame of interest, and the storage unit 411 for the input data of the frame of interest. The score of each node of the first input network net 1 constituting the input / output relation model M 123 (FIG. 33) stored in is calculated and supplied to the winner node determination unit 342.

さらに、ステップS342では、勝者ノード決定部342が、記憶部411に記憶された入出力関係モデルM123を構成する入力ネットワークnet1のノードの中で、スコア計算部341からのスコアが最も良いノードを、第1の入力勝者ノードに決定し、その第1の入力勝者ノードを表す第1の入力ラベルを、写像部417に供給して、ステップS343に進む。 Further, in step S342, the winner node determination unit 342 has the highest score from the score calculation unit 341 among the nodes of the input network net 1 constituting the input / output relationship model M 123 stored in the storage unit 411. Is determined as the first input winner node, and the first input label representing the first input winner node is supplied to the mapping unit 417, and the process proceeds to step S343.

ステップS343では、写像部417の生成ノード決定部451が、記憶部411に記憶された入出力関係モデルM123を構成する第2の入力ネットワークnet3のノードの中で、勝者ノード決定部342からの第1の入力ラベルが表すノード(第1の入力勝者ノード)との結合重みが最も強いノードを、最強結合ノードとして求める。さらに、ステップS343では、生成ノード決定部451は、出力ネットワークnet2のノードの中で、第2の入力ネットワークnet3の最強結合ノードとの結合重みが最も強いノードを生成ノードに決定し、その生成ノードを表す出力ラベルを、生成部318に供給して、ステップS344に進む。 In step S343, the generation node determination unit 451 of the mapping unit 417 selects from the winner node determination unit 342 among the nodes of the second input network net 3 constituting the input / output relationship model M 123 stored in the storage unit 411. The node having the strongest connection weight with the node represented by the first input label (first input winner node) is obtained as the strongest connection node. Further, in step S343, the generation node determination unit 451 determines a node having the strongest connection weight with the strongest connection node of the second input network net 3 among the nodes of the output network net 2 as the generation node. The output label representing the generation node is supplied to the generation unit 318, and the process proceeds to step S344.

ステップS344では、生成部318の時系列生成部361が、記憶部411に記憶された入出力関係モデルM123を構成する出力ネットワークnet2のノードのうちの、生成ノード決定部451からの出力ラベルが表す生成ノードが有する時系列パターンモデル21(図7)に基づいて、注目フレームの入力データに対する出力データ(の推定値)としての、例えば、フレームの長さの時系列データを生成して出力する。 In step S344, the time series generating unit 361 of the generator 318, the output of the nodes of the network net Non 2, output label from the generation node determining unit 451 included in a storage unit 411 input-output relationship model M 123 stored in Based on the time-series pattern model 21 (FIG. 7) of the generation node represented by, for example, the time-series data of the frame length is generated and output as the output data (estimated value) for the input data of the frame of interest. To do.

この出力データとしての時系列データは、モータ駆動部303に供給され、モータ駆動部303が、時系列生成部361からの出力データをモータデータとして、モータを駆動することにより、ロボットのアームが動かされる。   The time series data as the output data is supplied to the motor drive unit 303, and the motor drive unit 303 drives the motor using the output data from the time series generation unit 361 as the motor data, thereby moving the robot arm. It is.

以下、データ抽出部315から認識部316に対して供給されるフレーム単位の入力データについて、ステップS342乃至S344の処理が行われる。   Thereafter, the processes in steps S342 to S344 are performed on the input data in units of frames supplied from the data extraction unit 315 to the recognition unit 316.

以上のように、図32のロボットでは、第1の入力ネットワークnet1のフレーム単位の入力データに対する第1の入力勝者ノードと、第2の入力ネットワークnet3の、フレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の入力データに対する第2の入力勝者ノードとの結合重みを強めるように更新するとともに、その第2の入力勝者ノードと、出力ネットワークnet2の、フレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データに対する出力勝者ノードとの結合重みを強めるように更新するので、図25のロボットの場合と同様に、例えば、目の前にあるボールを左右に転がすタスクのような実時間性が要求されるタスクを学習し、そのようなタスクを行うことができるようになる。 As described above, in the robot shown in FIG. 32, the first input winner node for the input data in the frame unit of the first input network net 1 and the time of the input data in the frame unit of the second input network net 3 are used. The input data of the frame unit of the second input winner node and the output network net 2 are updated so as to increase the connection weight with the second input winner node for the input data of the frame unit delayed by the input / output time difference. 25, the output weight of the frame unit delayed by the input / output time difference is updated so as to increase the connection weight with the output winner node. Therefore, as in the case of the robot of FIG. It is possible to learn a task that requires real-time characteristics, such as a task that rolls to a point, and perform such a task.

即ち、上述したように図35の学習処理によれば、記憶部411に記憶された入出力関係モデルM123において、注目フレームの入力データに対する第1の入力ネットワークnet1の第1の入力勝者ノードと、注目フレームから入出力時間差だけ遅れたフレームの入力データに対する第2の入力ネットワークnet3の第2の入力勝者ノードとの結合重み(w13)が、より強くなるように更新されるとともに、注目フレームから入出力時間差だけ遅れたフレームの入力データに対する第2の入力ネットワークnet3の第2の入力勝者ノードと、注目フレームから入出力時間差だけ遅れたフレームの出力データに対する出力ネットワークnet2の出力勝者ノードとの結合重み(w32)が、より強くなるように更新される。 That is, according to the learning process of FIG. 35 as described above, in the input / output relationship model M 123 stored in the storage unit 411, the first input winner node of the first input network net 1 for the input data of the frame of interest. And the connection weight (w 13 ) with the second input winner node of the second input network net 3 for the input data of the frame delayed by the input / output time difference from the frame of interest is updated to be stronger, Output of the second input network net 3 for the input data of the frame delayed by the input / output time difference from the target frame and the output of the output network net 2 for the output data of the frame delayed by the input / output time difference from the target frame The connection weight (w 32 ) with the winner node is updated to be stronger.

従って、図36の認識生成処理では、入出力関係モデルM123に、あるフレームFの入力データが与えられると、入出力関係モデルM123では、第1の入力ネットワークnet1のノードのうちの、フレームFの入力データに対応するノードが第1の入力勝者ノードとなる。さらに、入出力関係モデルM123では、第2の入力ネットワークnet2のノードのうちの、フレームFから入出力時間差だけ遅れたフレームの入力データに対応するノードが、第1の入力勝者ノードとの結合重みが最も強いノードとなって、最強結合ノードに決定される。 Therefore, in recognition generating process of FIG. 36, the input-output relationship model M 123, the input data of a certain frame F is given, the input-output relationship model M 123, one of the first input network net Non 1 node, The node corresponding to the input data of frame F becomes the first input winner node. Further, in the input / output relationship model M123 , the node corresponding to the input data of the frame delayed by the input / output time difference from the frame F among the nodes of the second input network net 2 is the first input winner node. The node having the strongest connection weight is determined as the strongest connection node.

そして、図36の認識生成処理では、出力ネットワークnet2のノードのうちの、フレームFから入出力時間差だけ遅れたフレームの出力データに対応するノードが、最強結合ノードとの結合重みが最も強いノードとなって、生成ノードに決定され、これにより、その生成ノードに基づき、フレームFから一定の時間だけ遅れたフレームの出力データに相当する時系列データが生成される。 36, the node corresponding to the output data of the frame delayed by the input / output time difference from the frame F among the nodes of the output network net 2 is the node having the strongest connection weight with the strongest connection node. Thus, it is determined as a generation node, whereby time-series data corresponding to the output data of the frame delayed by a certain time from the frame F is generated based on the generation node.

従って、図32のロボットでは、フレーム単位の入力データとしてのセンサデータ、つまり、外部の状態に対して、フレーム単位の入力データから入出力時間差だけ遅れたフレームの出力データとしてのモータデータ、つまり、その後にとるべき行動に対応するモータデータを得ることができるように、学習が行われるので、目の前にあるボールを左右に転がすタスクのような実時間性が要求されるタスクを学習し、そのようなタスクを行うことができるようになる。   Therefore, in the robot of FIG. 32, sensor data as input data in units of frames, that is, motor data as output data of frames delayed by an input / output time difference from input data in units of frames with respect to the external state, that is, Since learning is performed so that motor data corresponding to the action to be taken can be obtained, learning a task that requires real-time characteristics such as a task of rolling the ball in front of the eyes to the left and right, You will be able to perform such tasks.

ここで、結合重み更新部433(図32)による第1の結合重みの更新、即ち、第1の入力ネットワークnet1のフレーム単位の入力データとしてのセンサデータに対する第1の入力勝者ノードと、第2の入力ネットワークnet3の、フレーム単位のセンサデータの時刻から入出力時間差だけ遅れたフレーム単位のセンサデータに対する第2の入力勝者ノードとの結合重みを強めるように更新することは、フレーム単位のセンサデータと、そのフレーム単位のセンサデータの時刻から入出力時間差だけ遅れたフレーム単位のセンサデータとを対応付けるように、入出力関係モデルM123の学習を行うことになる。 Here, the update of the first connection weight by the connection weight update unit 433 (FIG. 32), that is, the first input winner node for the sensor data as the input data in units of frames of the first input network net 1 , In the second input network net 3 , updating the frame unit sensor data delayed by the input / output time difference from the frame unit sensor data time so as to increase the connection weight with the second input winner node sensor data, to associate the sensor data for each frame delayed by output time difference from the time of the sensor data in the frame unit, thereby performing learning of the input-output relationship model M 123.

また、結合重み更新部433による第2の結合重みの更新、即ち、第2の入力ネットワークnet3の、フレーム単位のセンサデータの時刻から入出力時間差だけ遅れたフレーム単位のセンサデータに対する第2の入力勝者ノードと、出力ネットワークnet2の、フレーム単位のセンサデータの時刻から入出力時間差だけ遅れたフレーム単位の出力データとしてのモータデータに対する出力勝者ノードとの結合重みを強めるように更新することは、フレーム単位のセンサデータと、そのフレーム単位のセンサデータと同一時刻のフレーム単位のモータデータとを対応付けるように、入出力関係モデルM123の学習を行うことになる。 Also, the second connection weight is updated by the connection weight updating unit 433, that is, the second sensor data in the second input network net 3 is delayed by the input / output time difference from the time of the sensor data in the frame unit. Updating the input winner node and the output network net 2 to increase the connection weight between the output winner node for the motor data as output data in frame units delayed by the input / output time difference from the time of sensor data in frame units. The input / output relationship model M123 is learned so that the sensor data in units of frames and the sensor data in units of frames and motor data in units of frames at the same time are associated with each other.

そして、認知行動時において、かかる学習が行われた入出力関係モデルM123にフレーム単位のセンサデータが与えられると、入出力関係モデルM123では、そのフレーム単位のセンサデータに対して、そのフレーム単位のセンサデータの時刻から入出力時間差だけ遅れたフレーム単位のセンサデータ(の推定値)に対応するノードが、最強結合ノードとして求められることになるが、これは、あるフレームFのセンサデータから、最強結合ノードに対応するセンサデータ、つまり、フレームFの時刻から入出力時間差だけ未来のフレームのセンサデータを予測している、ということができる。 When sensor data in units of frames is given to the input / output relationship model M123 in which such learning has been performed at the time of cognitive behavior, in the input / output relationship model M123 , for the sensor data in units of frames, the frame The node corresponding to the sensor data (estimated value) of the frame unit delayed by the input / output time difference from the time of the sensor data of the unit is obtained as the strongest coupling node. It can be said that sensor data corresponding to the strongest coupling node, that is, sensor data of a future frame is predicted from the time of frame F by an input / output time difference.

さらに、認知行動時には、出力ネットワークnet2のノードのうちの、最強結合ノードとの結合重みが最も強いノード、つまり、フレーム単位のセンサデータの時刻から入出力時間差だけ遅れたフレーム単位のセンサデータの予測を経由して、その入出力時間差だけ遅れたフレーム単位のモータデータ(の推定値)に対応するノードが、生成ノードとして求められることになるが、これは、あるフレームFのセンサデータから、生成ノードに対応するモータデータ、つまり、フレームFの時刻から入出力時間差だけ未来のフレームのモータデータを予測している、ということができる。 Furthermore, at the time of cognitive behavior, the node with the strongest connection weight with the strongest connection node among the nodes of the output network net 2 , that is, the sensor data of the frame unit delayed by the input / output time difference from the time of the sensor data of the frame unit. A node corresponding to the motor data (estimated value) of the frame unit delayed by the input / output time difference is obtained as a generation node via the prediction, but this is obtained from the sensor data of a certain frame F, It can be said that the motor data corresponding to the generation node, that is, the motor data of the future frame is predicted by the input / output time difference from the time of frame F.

以上のように、図32のロボットでは、フレーム単位の入力データIと、そのフレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の入力データI'とを対応付けるように、入出力関係モデルM123の学習を行うととともに、フレーム単位の入力データIの時刻から入出力時間差だけ遅れたフレーム単位の入力データI'と、フレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データO'とを対応付けるように、入出力関係モデルM123の学習を行う。 As described above, in the robot of FIG. 32, the input / output relationship is set so that the input data I in units of frames and the input data I ′ in units of frames delayed by an input / output time difference from the time of the input data in units of frames. In addition to learning the model M123 , input data I ′ in frame units that are delayed by an input / output time difference from the time of input data I in frame units, and frame units that are delayed by an input / output time difference from the time of input data in frames The input / output relationship model M123 is learned so as to be associated with the output data O ′.

このため、ロボットの認知行動(出力データの生成)時において、入力データであるセンサデータとして、入出力関係モデルM123の第1の入力ネットワークnet1のいずれかのノードが表現する時系列パターンに合致する時系列パターンのセンサデータ(既知のセンサデータ)が入力される限りは、そのセンサデータに対して適切な出力データであるモータデータが生成され、その結果、ロボットは、学習したタスクを再現することができる。 For this reason, at the time of the robot's cognitive behavior (output data generation), as the sensor data that is the input data, the time-series pattern expressed by any node of the first input network net 1 of the input / output relationship model M 123 is used. As long as the matching time-series pattern sensor data (known sensor data) is input, motor data that is appropriate output data is generated for the sensor data, and as a result, the robot reproduces the learned task. can do.

次に、図32のロボットについて行った実験の実験結果について説明する。   Next, the experimental results of the experiment performed on the robot of FIG. 32 will be described.

図32のロボットについて、上述した図25のロボットについて行った実験と同様の実験を行い、その結果、センサデータに混入するノイズによって、アームの動きが多少不安定になりやすくなるものの、ロボットの前で、ボールを転がし始めると、ロボットが、アームでボールを左右に転がす行動を行うことが確認された。従って、図32のロボットが実時間性が要求されるタスクを学習し、そのタスクを行うことができることが検証された。   For the robot of FIG. 32, an experiment similar to that performed for the robot of FIG. 25 described above is performed. As a result, the movement of the arm tends to become somewhat unstable due to noise mixed in the sensor data. When the ball started to roll, it was confirmed that the robot performed the action of rolling the ball left and right with the arm. Therefore, it was verified that the robot shown in FIG. 32 can learn a task that requires real-time performance and can perform the task.

なお、上述したことから、入出力関係モデルM123によれば、時刻tのフレームのセンサデータを与えると、時刻tから入出力時間差Tだけ未来のフレームのセンサデータ、即ち、時刻t+Tのフレームのセンサデータを予測することができる。そして、その予測したセンサデータを、さらに、入出力関係モデルM123に与えることを繰り返すことにより、より未来のフレームのセンサデータを予測することができる。このセンサデータの予測値が、入出力関係モデルM123に学習させたタスクが行われるときにセンサ302が検知する外部の状態に対応しているかどうかによって、入出力関係モデルM123の記憶構造の中に、学習させたタスク(が行われるときに観測される外部の状態を表すセンサデータの時系列パターン)が適切に記憶されているかどうかを確認することができる。 From the above, according to the input / output relationship model M123, when sensor data of a frame at time t is given, sensor data of a future frame by the input / output time difference T from time t, that is, at time t + T The sensor data of the frame can be predicted. The sensor data of a future frame can be predicted by repeatedly giving the predicted sensor data to the input / output relationship model M123 . Prediction value of the sensor data, depending on whether the sensor 302 when the task is learning is performed in the input-output relationship model M 123 corresponds to the external state detecting, the storage structure of the input-output relationship model M 123 It is possible to check whether or not the learned task (a time series pattern of sensor data representing an external state observed when the task is performed) is appropriately stored.

ところで、図32のロボットにおいて、記憶部411が記憶している入出力関係モデルM123が有する第1の入力ネットワークnet1および第2の入力ネットワークnet2は、図20の入出力関係モデルが有する時系列パターン記憶ネットワークnetinおよびnetoutと同様に、ノードの数や、リンク、ノードが有する時系列パターンモデル21が同一であっても良いし、異なっていても良い。 32, the first input network net 1 and the second input network net 2 included in the input / output relationship model M 123 stored in the storage unit 411 have the input / output relationship model in FIG. Similar to the time-series pattern storage networks net in and net out , the number of nodes, the links, and the time-series pattern models 21 included in the nodes may be the same or different.

一方、図32のロボットにおいて、記憶部411が記憶している入出力関係モデルM123が有する第1の入力ネットワークnet1と第2の入力ネットワークnet2とは、いずれも、フレーム単位の入力データとしてのセンサデータを用いて、自己組織的に更新される。 On the other hand, in the robot of FIG. 32, both the first input network net 1 and the second input network net 2 included in the input / output relationship model M 123 stored in the storage unit 411 are input data in units of frames. It is updated in a self-organized manner using the sensor data.

従って、第1の入力ネットワークnet1と第2の入力ネットワークnet2として、同一の時系列パターン記憶ネットワークを採用する場合には、その第1の入力ネットワークnet1および第2の入力ネットワークnet2は、1つの時系列パターン記憶ネットワークで代用することができる。 Accordingly, the first input network net Non 1 and as a second input network net Non 2, in the case of adopting the same time series pattern storage network, input network net Non 2 of the first input network net Non 1 and the second is One time series pattern storage network can be substituted.

即ち、図37は、図33の入出力関係モデルM123が有する第1の入力ネットワークnet1および第2の入力ネットワークnet2を、1つの時系列パターン記憶ネットワークで代用した入出力関係モデルM'123を示している。 That is, FIG. 37 shows an input / output relationship model M ′ in which the first input network net 1 and the second input network net 2 included in the input / output relationship model M 123 of FIG. 123 is shown.

図37の入出力関係モデルM'123は、2つの時系列パターン記憶ネットワークとしての入力ネットワークnet1と出力ネットワークnet2とを有しており、図33の入出力関係モデルM123が有する第1の入力ネットワークnet1および第2の入力ネットワークnet2が、入力ネットワークnet1で代用されている。 The input / output relationship model M ′ 123 in FIG. 37 has an input network net 1 and an output network net 2 as two time-series pattern storage networks, and the first input / output relationship model M 123 in FIG. The input network net 1 and the second input network net 2 are substituted by the input network net 1 .

そして、図37の入出力関係モデルM'123では、図33の入出力関係モデルM123が有する第1の入力ネットワークnet1および第2の入力ネットワークnet2が、入力ネットワークnet1で代用されているために、入力ネットワークnet1のノードどうしが、結合重み(w13)によって結合されているとともに、入力ネットワークnet1のノードと、出力ネットワークのnet2のノードとが、結合重み(w32)によって結合されている。 In the input / output relationship model M ′ 123 of FIG. 37, the input network net 1 is substituted for the first input network net 1 and the second input network net 2 that the input / output relationship model M 123 of FIG. Therefore, the nodes of the input network net 1 are coupled by the coupling weight (w 13 ), and the node of the input network net 1 and the node of the output network net 2 are coupled by the coupling weight (w 32 ). Are bound by.

図38は、図37の入出力関係モデルM'123を利用してタスクの学習と認知行動を行うロボットの構成例を示している。 FIG. 38 shows a configuration example of a robot that performs task learning and cognitive behavior using the input / output relationship model M ′ 123 of FIG.

なお、図中、図25または図32のロボットと対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   In the figure, parts corresponding to those of the robot of FIG. 25 or FIG. 32 are given the same reference numerals, and description thereof will be omitted below as appropriate.

即ち、図38のロボットは、図32の記憶部411、読み出し部432、結合重み更新部433、生成ノード決定部451に代えて、それぞれ、記憶部1411、読み出し部1432、結合重み更新部1433、生成ノード決定部1451が設けられているとともに、図32の認識学習処理部421が設けられていない点を除いて、図32のロボットと同様に構成されている。   That is, the robot shown in FIG. 38 replaces the storage unit 411, the reading unit 432, the combination weight update unit 433, and the generation node determination unit 451 shown in FIG. 32, respectively, with a storage unit 1411, a read unit 1432, a combination weight update unit 1433, A generation node determination unit 1451 is provided, and the configuration is the same as that of the robot of FIG. 32 except that the recognition learning processing unit 421 of FIG. 32 is not provided.

記憶部1411は、図37に示した入出力関係モデルM'123を記憶している。 The storage unit 1411 stores the input / output relationship model M ′ 123 shown in FIG.

読み出し部1432は、入力データのフレームを、順次、注目フレームとして、データバッファ331に記憶された入力ラベル、即ち、認識学習処理部321がフレーム単位の入力データを用いて行った、記憶部1411に記憶された入出力関係モデルM'123(図37)の入力ネットワークnet1の自己組織的な更新において得られる入力勝者ノードを表す入力ラベルのうちの、注目フレームの入力データに対する入力勝者ノードを表す入力ラベル(この入力ラベルは、上述の「第1の入力ラベル」に相当するので、以下、適宜、第1の入力ラベルという)と、注目フレームの時刻から入出力時間差だけ遅れたフレームの入力データに対する入力勝者ノードを表す入力ラベル(この入力ラベルは、上述の「第2の入力ラベル」に相当するので、以下、適宜、第2の入力ラベルという)とを読み出して対応付け、その対応付けた第1の入力ラベルと第2の入力ラベルとのセットであるラベルセット(入力ラベルセット)を、結合重み更新部1433に供給する。 The reading unit 1432 sequentially stores the frames of the input data as the frames of interest, the input labels stored in the data buffer 331, that is, the storage unit 1411 performed by the recognition learning processing unit 321 using the input data in units of frames. Of the input labels representing the input winner node obtained in the self-organizing update of the input network net 1 of the stored input / output relationship model M ′ 123 (FIG. 37), this represents the input winner node for the input data of the frame of interest. An input label (this input label corresponds to the above-mentioned “first input label”, and is hereinafter referred to as a first input label as appropriate) and input data of a frame delayed by an input / output time difference from the time of the frame of interest An input label representing an input winner node for (this input label corresponds to the above-mentioned “second input label”. (Referred to as “second input label” as appropriate), and a label set (input label set) that is a set of the first input label and the second input label that are associated with each other is set as a connection weight update unit. 1433.

さらに、読み出し部1432は、データバッファ331に記憶された入力ラベルのうちの、注目フレームの時刻から入出力時間差だけ遅れたフレームの入力データに対する入力勝者ノードを表す第2の入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から入出力時間差だけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを読み出して対応付け、その対応付けた第2の入力ラベルと出力ラベルとのセットであるラベルセット(入出力ラベルセット)を、結合重み更新部1433に供給する。   Further, the reading unit 1432 includes a second input label representing an input winner node for input data of a frame that is delayed by an input / output time difference from the time of the frame of interest among the input labels stored in the data buffer 331, and a data buffer Among the output labels stored in 331, the output label representing the output winner node corresponding to the output data of the frame delayed by the input / output time difference from the time of the target frame is read and associated, and the associated second input label A label set (input / output label set) that is a set of the output label and the output label is supplied to the connection weight update unit 1433.

ここで、あるフレームを注目フレームとして、その注目フレームの入力データに対して得られる、入出力関係モデルM'123における入力ネットワークnet1の入力勝者ノード(第1の入力ラベルが表す入力勝者ノード)は、上述の「第1の入力勝者ノード」に相当するので、以下、適宜、第1の入力勝者ノードという。また、注目フレームの時刻から入出力時間差だけ遅れたフレームの入力データに対して得られる、入出力関係モデルM'123における入力ネットワークnet1の入力勝者ノード(第2の入力ラベルが表す入力勝者ノード)は、上述の「第2の入力勝者ノード」に相当するので、以下、適宜、第2の入力勝者ノードという。 Here, an input winner node of the input network net 1 in the input / output relationship model M ′ 123 (input winner node represented by the first input label) obtained for the input data of the target frame with a certain frame as the target frame. Corresponds to the above-mentioned “first input winner node”, and is hereinafter referred to as a first input winner node as appropriate. The input winner node of the input network net 1 in the input / output relation model M ′ 123 (input winner node represented by the second input label) obtained for the input data of the frame delayed by the input / output time difference from the time of the frame of interest ) Corresponds to the above-mentioned “second input winner node”, and is hereinafter referred to as a second input winner node as appropriate.

結合重み更新部1433は、図21の結合重み更新部222と同様に、図23で説明したようにして、読み出し部1432から供給される入力ラベルセットに基づき、記憶部1411に記憶された入出力関係モデルM'123(図37)における入力ネットワークnet1のノードどうしの結合関係を、ヘブ則等により更新する。さらに、結合重み更新部1433は、読み出し部1432から供給される入出力ラベルセットに基づき、記憶部1411に記憶された入出力関係モデルM'123における入力ネットワークnet1のノードと、出力ネットワークnet2のノードとの結合関係を、ヘブ則等により更新する。 Similar to the connection weight update unit 222 in FIG. 21, the connection weight update unit 1433 is the input / output stored in the storage unit 1411 based on the input label set supplied from the read unit 1432 as described in FIG. 23. The connection relationship between the nodes of the input network net 1 in the relationship model M ′ 123 (FIG. 37) is updated by the Hebb rule or the like. Further, the connection weight updating unit 1433 is based on the input / output label set supplied from the reading unit 1432, the node of the input network net 1 in the input / output relationship model M ′ 123 stored in the storage unit 1411, and the output network net 2. The connection relationship with the node is updated according to the Hebb rule or the like.

即ち、結合重み更新部1433は、入力ネットワークnet1の各入力ノードと、入力ラベルセットの第2の入力ラベルが表す入力ネットワークnet1の第2の入力勝者ノードとの結合重み(w13)を、入力ラベルセットの第1の入力ラベルが表す入力ネットワークnet1の第1の入力勝者ノードを中心として更新するとともに、入力ネットワークnet1の各入力ノードと、入力ネットワークnet1の第1の入力勝者ノードとの結合重みを、入力ネットワークnet1の第2の入力勝者ノードを中心として更新する。なお、この結合重みの更新は、上述の「第1の結合重みの更新」に相当するので、以下、適宜、第1の結合重みの更新という。 That is, the weight updating unit 1433, and the input node of the input network net Non 1, the coupling weight between the second input winning node of the input network net Non 1 second input label of the input label set represents (w 13) , and updates about the first input winning node of the input network net Non 1 representing the first input label of the input label set, and each input node of the input network net Non 1, a first input winner of the input network net Non 1 The connection weight with the node is updated around the second input winner node of the input network net 1 . Note that this update of the connection weight corresponds to the above-described “update of the first connection weight”, and hence is hereinafter referred to as update of the first connection weight as appropriate.

さらに、結合重み更新部1433は、入力ネットワークnet1の各入力ノードと、入出力ラベルセットの出力ラベルが表す出力ネットワークnet2の出力勝者ノードとの結合重み(w32)を、入出力ラベルセットの第2の入力ラベルが表す入力ネットワークnet1の第2の入力勝者ノードを中心として更新するとともに、出力ネットワークnet2の各出力ノードと、入力ネットワークnet1の第2の入力勝者ノードとの結合重みを、出力ネットワークnet2の出力勝者ノードを中心として更新する。なお、この結合重みの更新は、上述の「第2の結合重みの更新」に相当するので、以下、適宜、第2の結合重みの更新という。 Further, the connection weight update unit 1433 sets the connection weight (w 32 ) between each input node of the input network net 1 and the output winner node of the output network net 2 represented by the output label of the input / output label set. The second input winner node of the input network net 1 represented by the second input label of the input network is updated, and each output node of the output network net 2 is combined with the second input winner node of the input network net 1 The weight is updated around the output winner node of the output network net 2 . Note that this update of the connection weight corresponds to the above-described “update of the second connection weight”, and hence is hereinafter referred to as update of the second connection weight as appropriate.

生成ノード決定部1451は、認識部316から供給される、勝者ノードを表すノードラベルに基づいて、時系列データを生成する生成ノードを決定して、その生成ノードを表すノードラベルを、生成部318に供給する。   The generation node determination unit 1451 determines a generation node that generates time-series data based on the node label that represents the winner node supplied from the recognition unit 316, and generates a node label that represents the generation node. To supply.

即ち、生成ノード決定部1451には、認識部316の勝者ノード決定部342から、入力ネットワークnet1のノードのうちの、フレーム単位の入力データに対する第1の勝者ノードを表すノードラベル(入力ラベル)が供給されるようになっている。 That is, the generation node determination unit 1451 receives from the winner node determination unit 342 of the recognition unit 316 a node label (input label) representing the first winner node for input data in frame units among the nodes of the input network net 1. Is to be supplied.

生成ノード決定部1451は、入力ネットワークnet1のノードの中から、勝者ノード決定部342からのノードラベルが表す第1の入力勝者ノードとの結合が最強のノード(このノードも、以下、適宜、最強結合ノードという)を求め、さらに、出力ネットワークnet2のノードの中から、最強結合ノードと結合が最強のノードを、生成ノードに決定する。そして、生成ノード決定部1451は、生成ノードを表すノードラベル(出力ラベル)を、生成部318に供給する。 The generation node determination unit 1451 is the node having the strongest combination with the first input winner node represented by the node label from the winner node determination unit 342 among the nodes of the input network net 1 (this node is also referred to as appropriate below). Further, the node having the strongest connection node and the strongest connection among the nodes of the output network net 2 is determined as the generation node. Then, the generation node determination unit 1451 supplies the generation unit 318 with a node label (output label) representing the generation node.

次に、図39のフローチャートを参照して、図38のロボットが行う学習処理、即ち、入出力関係モデルM'123の学習処理について説明する。 Next, the learning process performed by the robot of FIG. 38, that is, the learning process of the input / output relationship model M ′ 123 will be described with reference to the flowchart of FIG.

例えば、ロボットに、目の前にあるボールを左右に転がすタスクを学習させる場合、オペレータは、ロボットの前にボールをおき、ロボットのアームを持って、ボールを左右に転がすように、アームを動かす。   For example, if the robot learns the task of rolling the ball in front of it to the left or right, the operator moves the arm to place the ball in front of the robot, hold the robot arm, and roll the ball to the left or right. .

この場合、センサ302において、左右に転がるボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置401のデータ抽出部312に供給される。   In this case, the sensor 302 detects the state of the ball rolling left and right, and time-series sensor data representing the state is supplied to the data extraction unit 312 of the data processing device 401.

また、モータ駆動部303では、オペレータが動かしているアームの動きに対応するモータデータが生成され、データ処理装置401のデータ抽出部312に供給される。   Further, the motor drive unit 303 generates motor data corresponding to the movement of the arm being moved by the operator, and supplies the motor data to the data extraction unit 312 of the data processing device 401.

データ抽出部312は、ステップS1331において、センサ302からのセンサデータを入力データとして、その入力データの時系列から、フレーム単位の入力データを抽出し、学習処理部413の認識学習処理部321に供給するとともに、モータ駆動部303からのモータデータを出力データとして、その出力データの時系列から、フレーム単位の出力データを抽出し、学習処理部413の生成学習処理部322に供給して、ステップS1332に進む。   In step S1331, the data extraction unit 312 extracts sensor data from the sensor 302 as input data, extracts input data in frame units from the time series of the input data, and supplies the input data to the recognition learning processing unit 321 of the learning processing unit 413. At the same time, the motor data from the motor drive unit 303 is used as output data, and output data in units of frames is extracted from the time series of the output data, and is supplied to the generation learning processing unit 322 of the learning processing unit 413, step S1332 Proceed to

ステップS1332では、学習処理部413が、データ抽出部312からのフレーム単位の入力データと出力データを用いて、記憶部1411に記憶された入出力関係モデルM'123(図37)が有する入力ネットワークnet1、および出力ネットワークnet2の自己組織的な学習を行う。 In step S1332, the learning processing unit 413 uses the input data and output data in units of frames from the data extraction unit 312, and the input network included in the input / output relationship model M ′ 123 (FIG. 37) stored in the storage unit 1411. Self-organized learning of net 1 and output network net 2 .

即ち、ステップS1332では、ステップS13321およびS13322の処理が行われる。 That is, in step S1332, the processing in steps S1332 1 and S1332 2 is performed.

ステップS13321では、認識学習処理部321が、記憶部1411に記憶された入出力関係モデルM'123における入力ネットワークnet1の各ノードについて、データ抽出部312からのフレーム単位の入力データに対するスコアを求め、入力ネットワークnet1のノードの中から、スコアの最も良いノードを、入力勝者ノードに決定する。さらに、認識学習処理部321は、データ抽出部312からのフレーム単位の入力データに対する入力勝者ノードに基づいて、入力ネットワークnet1を、自己組織的に更新し、入力勝者ノードを表す入力ラベルを、写像学習部414に供給する。 In step S1332 1, the recognition learning processing unit 321, for each node of the input network net Non 1 in the input-output relation model M '123 stored in the storage unit 1411, a score for the input data frame from the data extraction unit 312 The node having the highest score is determined as the input winner node from the nodes of the input network net 1 . Further, the recognition learning processing unit 321 updates the input network net 1 in a self-organized manner based on the input winner node for the input data in frame units from the data extraction unit 312, and displays an input label representing the input winner node. This is supplied to the mapping learning unit 414.

ステップS13322では、生成学習処理部322が、記憶部1411に記憶された入出力関係モデルM'123における出力ネットワークnet2の各ノードについて、データ抽出部312からのフレーム単位の出力データに対するスコアを求め、出力ネットワークnet2のノードの中から、スコアの最も良いノードを、出力勝者ノードに決定する。さらに、生成学習処理部322は、データ抽出部312からのフレーム単位の出力データに対する出力勝者ノードに基づいて、出力ネットワークnet2を、自己組織的に更新し、出力勝者ノードを表す出力ラベルを、写像学習部414に供給する。 In step S1332 2, generating learning processing unit 322, for each node in the output network net Non 2 in the input-output relation model M '123 stored in the storage unit 1411, a score for output data of a frame unit from the data extraction unit 312 The node having the highest score is determined as the output winner node from the nodes of the output network net 2 . Furthermore, the generation learning processing unit 322 updates the output network net 2 in a self-organized manner based on the output winner node for the output data in frame units from the data extraction unit 312, and outputs an output label representing the output winner node, This is supplied to the mapping learning unit 414.

ステップS1332の処理後は、ステップS1333に進み、写像学習部414は、入力データのフレームのうちの、まだ注目フレームとしていないフレームを、注目フレームとして、学習処理部413からの、注目フレームの入力データに対する勝者ノード、つまり、第1の入力勝者ノードを表す第1の入力ラベルと、学習処理部413からの、注目フレームから入出力時間差Tだけ遅れたフレームの入力データに対する勝者ノード、つまり、第2の入力勝者ノードを表す第2の入力ラベルとを対応付けるとともに、第2の入力勝者ノードを表す第2の入力ラベルと、学習処理部413からの、注目フレームから入出力時間差Tだけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを対応付ける。   After the processing of step S1332, the process proceeds to step S1333, and the mapping learning unit 414 uses the frames of the input data that have not yet been set as the target frame as the target frame, and receives the input data of the target frame from the learning processing unit 413. The winner node for the input data of the first input label representing the first input winner node and the input data of the frame delayed from the target frame by the input / output time difference T from the learning frame 413, that is, the second And a second input label representing the second input winner node, and a frame delayed from the target frame by the input / output time difference T from the learning processing unit 413. The output label representing the output winner node for the output data is associated.

即ち、ステップS1333では、写像学習部414のデータバッファ331において、学習処理部413からのフレーム単位の入力データに対する入力勝者ノードを表す入力ラベル、およびフレーム単位の出力データに対する出力勝者ノードを表す出力ラベルとが一時記憶される。   That is, in step S 1333, in the data buffer 331 of the mapping learning unit 414, an input label representing an input winner node for input data in units of frames from the learning processing unit 413 and an output label representing an output winner node for output data in units of frames. Is temporarily stored.

そして、ステップS1333では、写像学習部414の読み出し部1432が、ステップS13331とS13332の処理を行う。 In step S 1333, the reading unit 1432 of the mapping learning unit 414 performs the processes in steps S 1333 1 and S 1333 2 .

即ち、ステップS13331では、読み出し部1432は、データバッファ331に記憶された入力ラベルのうちの、注目フレームの入力データに対する第1の入力勝者ノードを表す第1の入力ラベルと、注目フレームの時刻から入出力時間差Tだけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルとを読み出して対応付け、その対応付けた第1と第2の入力ラベルのセットである入力ラベルセットを、結合重み更新部1433に供給する。 That is, in step S1333 1, reading unit 1432 of the input label stored in the data buffer 331, a first input label representing the first input winning node to the input data of the frame of interest, the time frame of interest The second input label representing the second input winner node is read and associated with the input data of the frame delayed by the input / output time difference T from the input, and the input is a set of the associated first and second input labels The label set is supplied to the connection weight update unit 1433.

ステップS13332では、読み出し部1432は、データバッファ331に記憶された入力ラベルのうちの、注目フレームの時刻から入出力時間差Tだけ遅れたフレームの入力データに対する第2の入力勝者ノードを表す第2の入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から入出力時間差Tだけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを読み出して対応付け、その対応付けた第2の入力ラベルと出力ラベルとのセットである入出力ラベルセットを、結合重み更新部1433に供給する。 In step S13332, the reading unit 1432 displays the second input winner node representing the second input winner node for the input data of the frame delayed by the input / output time difference T from the time of the frame of interest among the input labels stored in the data buffer 331. And the output label representing the output winner node for the output data of the frame delayed by the input / output time difference T from the time of the frame of interest among the output labels stored in the data buffer 331, An input / output label set that is a set of the associated second input label and output label is supplied to the connection weight update unit 1433.

そして、ステップS1333からステップS1334に進み、写像学習部414の結合重み更新部1433が、読み出し部1432から供給される入力ラベルセットと入出力ラベルセットに基づき、記憶部1411に記憶された入出力関係モデルM'123(図37)における入力ネットワークnet1のノードどうしの結合関係を更新する第1の結合重みの更新と、入力ネットワークnet1のノードと、出力ネットワークnet2のノードとの結合関係を更新する第2の結合重みの更新とを行う。 Then, the process proceeds from step S 1333 to step S 1334, and the connection weight update unit 1433 of the mapping learning unit 414 stores the input / output relationship stored in the storage unit 1411 based on the input label set and the input / output label set supplied from the reading unit 1432. The update of the first connection weight for updating the connection relationship between the nodes of the input network net 1 in the model M ′ 123 (FIG. 37), and the connection relationship between the node of the input network net 1 and the node of the output network net 2 The second connection weight to be updated is updated.

即ち、結合重み更新部1433は、第1の結合重みの更新として、記憶部1411に記憶された入出力関係モデルM'123における入力ネットワークnet1の各入力ノードと、入力ラベルセットの第2の入力ラベルが表す入力ネットワークnet1の第2の入力勝者ノードとの結合重みを、入力ラベルセットの第1の入力ラベルが表す入力ネットワークnet1の第1の入力勝者ノードを中心として更新するとともに、入力ネットワークnet1の各入力ノードと、入力ネットワークnet1の第1の入力勝者ノードとの結合重みを、入力ネットワークnet1の第2の入力勝者ノードを中心として更新する。 That is, the connection weight update unit 1433 updates each input node of the input network net 1 in the input / output relationship model M ′ 123 stored in the storage unit 1411 and the second input label set as the first connection weight update. the coupling weight between the second input winning node of the input network net Non 1 the input label representing, with updates about the first input winning node of the input network net Non 1 representing the first input label of the input label set, each input node of the input network net Non 1, and updates the connection weights between the first input winning node of the input network net Non 1, about a second input winning node of the input network net Non 1.

また、結合重み更新部1433は、第2の結合重みの更新として、記憶部1411に記憶された入出力関係モデルM'123における入力ネットワークnet1の各入力ノードと、入出力ラベルセットの出力ラベルが表す出力ネットワークnet2の出力勝者ノードとの結合重みを、入出力ラベルセットの第2の入力ラベルが表す入力ネットワークnet1の第2の入力勝者ノードを中心として更新するとともに、出力ネットワークnet2の各出力ノードと、入力ネットワークnet1の第2の入力勝者ノードとの結合重みを、出力ネットワークnet2の出力勝者ノードを中心として更新する。 Further, the connection weight update unit 1433 updates each input node of the input network net 1 in the input / output relationship model M ′ 123 stored in the storage unit 1411 and the output label of the input / output label set as the second connection weight update. connection weights between the output winning node of the output network net Non 2 represented, along with updates about a second input winning node of the input network net Non 1 second input label of the input and output label set represents, output network net Non 2 And the connection weight of the second input winner node of the input network net 1 is updated with the output winner node of the output network net 2 as the center.

以上のような入出力関係モデルM'123の学習処理によれば、入出力関係モデルM'123(図37)が有する入力ネットワークnet1のノードどうしの結合関係、および第2の入力ネットワークnet3と出力ネットワークnet2とのノードどうしの結合関係は、以下のように更新される。 According to the learning process of the input / output relationship model M ′ 123 as described above, the connection relationship between the nodes of the input network net 1 included in the input / output relationship model M ′ 123 (FIG. 37), and the second input network net 3 And the connection relationship between the nodes of the output network net 2 is updated as follows.

即ち、第1の入力勝者ノードは、注目フレームの入力データに対する勝者ノードであり、第2の入力勝者ノードは、注目フレームから入出力時間差Tだけ遅れたフレームの入力データに対する勝者ノードであるから、結合重み更新部1433による第1の結合重みの更新によれば、記憶部1411に記憶された入出力関係モデルM'123において、注目フレームの入力データに対する入力ネットワークnet1の第1の入力勝者ノードと、注目フレームから入出力時間差Tだけ遅れたフレームの入力データに対する入力ネットワークnet1の第2の入力勝者ノードとの結合重み(w13)が、より強くなるように更新される。 That is, the first input winner node is a winner node for the input data of the frame of interest, and the second input winner node is a winner node for the input data of the frame delayed by the input / output time difference T from the frame of interest. according by the weight updating unit 1433 in the first connection weight updating, the input-output relationship model M '123 stored in the storage unit 1411, a first input winning node of the input network net Non 1 to the input data of the frame of interest Then, the connection weight (w 13 ) with the second input winner node of the input network net 1 for the input data of the frame delayed by the input / output time difference T from the frame of interest is updated so as to be stronger.

さらに、出力勝者ノードは、注目フレームから入出力時間差Tだけ遅れたフレームの出力データに対する勝者ノードであるから、結合重み更新部1433による第2の結合重みの更新によれば、記憶部1411に記憶された入出力関係モデルM'123において、注目フレームから入出力時間差Tだけ遅れたフレームの入力データに対する入力ネットワークnet1の第2の入力勝者ノードと、注目フレームから入出力時間差Tだけ遅れたフレームの出力データに対する出力ネットワークnet2の出力勝者ノードとの結合重み(w32)が、より強くなるように更新される。 Further, since the output winner node is a winner node for the output data of the frame delayed by the input / output time difference T from the target frame, the second connection weight is updated by the connection weight update unit 1433 and stored in the storage unit 1411. In the input / output relationship model M ′ 123 , the second input winner node of the input network net 1 for the input data of the frame delayed by the input / output time difference T from the target frame, and the frame delayed by the input / output time difference T from the target frame The connection weight (w 32 ) with the output winner node of the output network net 2 for the output data is updated so as to be stronger.

なお、図39の学習処理は、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS1332乃至S1334の処理を繰り返し行うようにしてもよいし、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS1332の処理を繰り返し行い、その後、再び、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS1333およびS1334の処理を繰り返し行うようにしても良い。   Note that in the learning process of FIG. 39, the processes from step S1332 to S1334 may be repeated with the first frame to the last frame of the input data as the target frame, or the first frame of the input data. The process from step S1332 is repeated with the frame from the first frame to the end frame as the target frame in sequence, and then the processes from step S1333 and S1334 are performed again sequentially from the first frame to the end frame of the input data as the target frame. May be repeated.

次に、図40のフローチャートを参照して、図38のロボットが行う認知行動の処理、即ち、入出力関係モデルM'123を用いた時系列データの生成処理(認識生成処理)について説明する。 Next, a process of cognitive behavior performed by the robot of FIG. 38, that is, a process of generating time-series data (recognition generating process) using the input / output relation model M ′ 123 will be described with reference to the flowchart of FIG.

例えば、図39で説明したように、ロボットに、目の前にあるボールを左右に転がすタスクを学習させた後、ロボットの前にボールをおくと(さらに、必要に応じて、ボールを転がすと)、センサ302において、ボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置401のデータ抽出部315に供給される。   For example, as described with reference to FIG. 39, when the robot learns the task of rolling the ball in front of the eyes to the left and right and then puts the ball in front of the robot (and, if necessary, the ball is rolled ), The state of the ball is detected by the sensor 302, and time-series sensor data representing the state is supplied to the data extraction unit 315 of the data processing device 401.

データ抽出部315は、ステップS1341において、センサ302からのセンサデータを入力データとして、その入力データの時系列から、フレーム単位の入力データを抽出し、認識部316に供給して、ステップS1342に進む。   In step S1341, the data extraction unit 315 uses the sensor data from the sensor 302 as input data, extracts input data in units of frames from the time series of the input data, supplies the input data to the recognition unit 316, and proceeds to step S1342. .

認識部316では、ステップS1342において、スコア計算部341が、データ抽出部315からのフレーム単位の入力データを、順次、注目フレームの入力データとして、その注目フレームの入力データに対して、記憶部1411に記憶された入出力関係モデルM'123(図37)を構成する入力ネットワークnet1の各ノードのスコアを計算し、勝者ノード決定部342に供給する。 In the recognition unit 316, in step S1342, the score calculation unit 341 sequentially uses the input data in units of frames from the data extraction unit 315 as the input data of the frame of interest, and the storage unit 1411 for the input data of the frame of interest. The score of each node of the input network net 1 constituting the input / output relation model M ′ 123 (FIG. 37) stored in is calculated and supplied to the winner node determination unit 342.

さらに、ステップS1342では、勝者ノード決定部342が、記憶部1411に記憶された入出力関係モデルM'123を構成する入力ネットワークnet1のノードの中で、スコア計算部341からのスコアが最も良いノードを、入力勝者ノードに決定し、その入力勝者ノードを表す入力ラベルを、写像部417に供給して、ステップS1343に進む。 Further, in step S1342, the winner node determination unit 342 has the highest score from the score calculation unit 341 among the nodes of the input network net 1 that constitute the input / output relationship model M ′ 123 stored in the storage unit 1411. The node is determined to be an input winner node, and an input label representing the input winner node is supplied to the mapping unit 417, and the process proceeds to step S1343.

ステップS1343では、写像部417の生成ノード決定部1451が、記憶部1411に記憶された入出力関係モデルM'123を構成する入力ネットワークnet1のノードの中で、勝者ノード決定部342からの入力ラベルが表すノード(入力勝者ノード)との結合重みが最も強いノードを、最強結合ノードとして求める。さらに、ステップS1343では、生成ノード決定部1451は、出力ネットワークnet2のノードの中で、入力ネットワークnet1の最強結合ノードとの結合重みが最も強いノードを生成ノードに決定し、その生成ノードを表す出力ラベルを、生成部318に供給して、ステップS1344に進む。 In step S 1343, the generation node determination unit 1451 of the mapping unit 417 receives the input from the winner node determination unit 342 among the nodes of the input network net 1 constituting the input / output relationship model M ′ 123 stored in the storage unit 1411. The node having the strongest connection weight with the node represented by the label (input winner node) is obtained as the strongest connection node. Further, in step S1343, the generation node determination unit 1451 determines a node having the strongest connection weight with the strongest connection node of the input network net 1 among the nodes of the output network net 2 , as the generation node. The output label to represent is supplied to the production | generation part 318, and it progresses to step S1344.

ステップS1344では、生成部318の時系列生成部361が、記憶部1411に記憶された入出力関係モデルM'123を構成する出力ネットワークnet2のノードのうちの、生成ノード決定部1451からの出力ラベルが表す生成ノードが有する時系列パターンモデル21(図7)に基づいて、注目フレームの入力データに対する出力データ(の推定値)としての、例えば、フレームの長さの時系列データを生成して出力する。 In step S 1344, the time series generation unit 361 of the generation unit 318 outputs the output from the generation node determination unit 1451 among the nodes of the output network net 2 that constitute the input / output relationship model M ′ 123 stored in the storage unit 1411. Based on the time series pattern model 21 (FIG. 7) of the generation node represented by the label, for example, time series data of the frame length is generated as output data (estimated value) for the input data of the frame of interest. Output.

この出力データとしての時系列データは、モータ駆動部303に供給され、モータ駆動部303が、時系列生成部361からの出力データをモータデータとして、モータを駆動することにより、ロボットのアームが動かされる。   The time series data as the output data is supplied to the motor drive unit 303, and the motor drive unit 303 drives the motor using the output data from the time series generation unit 361 as the motor data, thereby moving the robot arm. It is.

以下、データ抽出部315から認識部316に対して供給されるフレーム単位の入力データについて、ステップS1342乃至S1344の処理が行われる。   Thereafter, the processes in steps S1342 to S1344 are performed on the input data in units of frames supplied from the data extraction unit 315 to the recognition unit 316.

以上のように、図38のロボットでは、入力ネットワークnet1の、フレーム単位の入力データに対する第1の入力勝者ノードと、フレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の入力データに対する第2の入力勝者ノードとの結合重みを強めるように更新するとともに、その第2の入力勝者ノードと、出力ネットワークnet2の、フレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データに対する出力勝者ノードとの結合重みを強めるように更新するので、図32のロボットの場合と同様に、例えば、目の前にあるボールを左右に転がすタスクのような実時間性が要求されるタスクを学習し、そのようなタスクを行うことができるようになる。 As described above, in the robot shown in FIG. 38, the first input winner node for the input data in frame units of the input network net 1 and the input data in frame units delayed by the input / output time difference from the time of the input data in frame units. Frame unit delayed by input / output time difference from the time of the input data of the frame unit between the second input winner node and the output network net 2 As shown in FIG. 32, for example, a real-time property such as a task of rolling the ball in front of the right and left is required. Will be able to learn and perform such tasks.

さらに、図38のロボットにおいては、図32のロボットが利用する図33の入出力関係モデルM123が有する第1の入力ネットワークnet1および第2の入力ネットワークnet2を、1つの時系列パターン記憶ネットワークで代用した入出力関係モデルM'123(図37)を利用しているため、1つ分の時系列パターン記憶ネットワーク(第2の入力ネットワークnet2)を記憶するのに必要な記憶容量を節約することができる。 Further, in the robot shown in FIG. 38, the first input network net 1 and the second input network net 2 included in the input / output relationship model M 123 shown in FIG. 33 used by the robot shown in FIG. Since the input / output relationship model M ′ 123 (FIG. 37) substituted for the network is used, the storage capacity required to store one time-series pattern storage network (second input network net 2 ) Can be saved.

次に、図41は、実時間性が要求されるタスクを行うことが可能なロボットのさらに他の構成例を示している。   Next, FIG. 41 shows still another configuration example of a robot capable of performing a task that requires real-time characteristics.

なお、図中、図25のロボットと対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   In the figure, portions corresponding to those of the robot of FIG. 25 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

図41において、ロボットは、データ処理装置501、センサ302、およびモータ駆動部303等から構成されている。   In FIG. 41, the robot includes a data processing device 501, a sensor 302, a motor drive unit 303, and the like.

データ処理装置501は、センサ302から供給される時系列のセンサデータと、モータ駆動部303から供給される時系列のモータデータとを用いて、入出力関係モデルの自己組織的な学習を行う。さらに、データ処理装置501は、センサ302から供給される時系列のセンサデータと、モータ駆動部303から供給される時系列のモータデータとに対して、時系列のセンサデータとモータデータを生成し、そのうちのモータデータを、モータ駆動部303に供給する。   The data processing device 501 performs self-organized learning of the input / output relationship model using the time-series sensor data supplied from the sensor 302 and the time-series motor data supplied from the motor driving unit 303. Further, the data processing device 501 generates time-series sensor data and motor data for the time-series sensor data supplied from the sensor 302 and the time-series motor data supplied from the motor drive unit 303. The motor data is supplied to the motor drive unit 303.

即ち、図41において、データ処理装置501は、図25の記憶部311とデータ抽出部312にそれぞれ代えて、記憶部511とデータ抽出部512が設けられている他は、図25のデータ処理装置301と同様に構成されている。   That is, in FIG. 41, the data processing device 501 is replaced with the storage unit 311 and the data extraction unit 312 of FIG. 25, respectively, except that a storage unit 511 and a data extraction unit 512 are provided. The configuration is the same as 301.

記憶部511は、入出力関係モデルを記憶している。   The storage unit 511 stores an input / output relationship model.

ここで、図42は、記憶部511が記憶している入出力関係モデルM1112を示している。 Here, FIG. 42 shows the input / output relationship model M 1112 stored in the storage unit 511.

入出力関係モデルM1112は、図20や図23に示した入出力関係モデルと同様に、時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される時系列パターン記憶ネットワークである入力ネットワークnet11(入力時系列パターン記憶ネットワーク)と、出力ネットワークnet12(出力時系列パターン記憶ネットワーク)とを有する。 The input / output relation model M 1112 is composed of a plurality of nodes having a time series pattern model that represents a time series pattern that is a pattern of time series data, similarly to the input / output relation model shown in FIGS. An input network net 11 (input time series pattern storage network) which is a time series pattern storage network and an output network net 12 (output time series pattern storage network) are provided.

そして、入出力関係モデルM1112では、入力ネットワークnet11の各ノードと、出力ネットワークのnet12の各ノードとが、結合重みによって結合されている。 In the input / output relationship model M 1112 , each node of the input network net 11 and each node of the output network net 12 are coupled by a coupling weight.

図41に戻り、データ抽出部512には、センサ302が各時刻において出力するセンサデータと、モータ駆動部302が同一時刻において出力するモータデータとが、教示データとして供給される。データ抽出部512は、教示データであるセンサデータとモータデータをコンポーネントとするベクトルの時系列を、入力データおよび出力データとして、入力データの時系列から、フレーム単位の入力データを順次抽出するとともに、出力データの時系列から、フレーム単位の出力データを順次抽出し、それらのフレーム単位の入力データと出力データを、学習処理部313に供給する。   Returning to FIG. 41, sensor data output by the sensor 302 at each time and motor data output by the motor driving unit 302 at the same time are supplied to the data extraction unit 512 as teaching data. The data extraction unit 512 sequentially extracts the input data in units of frames from the time series of the input data as the input data and the output data as a time series of vectors having the sensor data and the motor data as the teaching data as components, Output data in units of frames are sequentially extracted from the time series of output data, and the input data and output data in units of frames are supplied to the learning processing unit 313.

即ち、図43は、図41のデータ抽出部512が扱う入力データと出力データを示している。   That is, FIG. 43 shows input data and output data handled by the data extraction unit 512 of FIG.

上述したように、データ抽出部512が扱う入力データと出力データは、いずれも、センサデータとモータデータをコンポーネントとするベクトルの時系列であり、同一の時系列データである。   As described above, the input data and the output data handled by the data extraction unit 512 are both time series of vectors having sensor data and motor data as components, and are the same time series data.

図41で説明したように、データ抽出部512には、センサ302が各時刻において出力するセンサデータと、モータ駆動部303が同一時刻において出力するモータデータとが供給される。   As described in FIG. 41, the data extraction unit 512 is supplied with sensor data output by the sensor 302 at each time and motor data output by the motor driving unit 303 at the same time.

例えば、上述したように、フレームの長さ(時間)をTと表すこととすると、データ抽出部512は、センサデータとモータデータを入力データとして、その入力データの時系列を、図43に示すように、時間T単位に区切った、フレーム単位の入力データを抽出し、学習処理部313に供給する。   For example, as described above, if the frame length (time) is represented by T, the data extraction unit 512 uses the sensor data and motor data as input data, and the time series of the input data is shown in FIG. As described above, input data in units of frames divided in units of time T is extracted and supplied to the learning processing unit 313.

また、データ抽出部512は、センサデータとモータデータを出力データとして、その出力データの時系列を、図43に示すように、時間T単位に区切った、フレーム単位の出力データを抽出し、学習処理部313に供給する。   Further, the data extraction unit 512 extracts sensor data and motor data as output data, extracts output data in units of frames by dividing the time series of the output data into units of time T as shown in FIG. The data is supplied to the processing unit 313.

ここで、センサデータとモータデータとをコンポーネントとするベクトルの時系列の、時刻tのベクトル(サンプル値)から、時刻t+t'(の直前)のベクトルまでを、IO[t,t+t']と表すこととすると、時刻tのフレームの入力データと出力データは、いずれも、IO[t,t+T]と表すことができる。   Here, IO [t, t + t from the time t vector (sample value) to the vector at time t + t '(immediately before) in the time series of vectors having sensor data and motor data as components. If expressed as'], both the input data and output data of the frame at time t can be expressed as IO [t, t + T].

なお、図43では、入力データと出力データとが、完全に同一の時系列データであるとしたが、入力データと出力データとは、一部が同一の時系列データであっても良い。即ち、例えば、入力データが、センサデータとモータデータをコンポーネントとするベクトルの時系列であり、出力データが、モータデータ(さらには、センサデータ以外の時系列データ)をコンポーネントとするベクトルの時系列であっても良い。   In FIG. 43, the input data and the output data are completely the same time series data. However, the input data and the output data may be partially the same time series data. That is, for example, the input data is a vector time series including sensor data and motor data as components, and the output data is a vector time series including motor data (and time series data other than sensor data) as components. It may be.

次に、図44を参照して、図41の読み出し部332の処理について説明する。   Next, the processing of the reading unit 332 in FIG. 41 will be described with reference to FIG.

読み出し部332は、図25および図28で説明したように、入力データのフレームを、順次、注目フレームとして、データバッファ331に記憶された入力ラベルのうちの、注目フレームの入力データに対する入力勝者ノードを表す入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から入出力時間差だけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを対応付ける。   As described with reference to FIGS. 25 and 28, the reading unit 332 sequentially sets the input data frames as the target frames, and among the input labels stored in the data buffer 331, the input winner node for the input data of the target frames. Is associated with an output label representing an output winner node for output data of a frame delayed by an input / output time difference from the time of the frame of interest among the output labels stored in the data buffer 331.

即ち、入出力時間差として、例えば、フレームと同一の時間Tを採用することとすると、読み出し部332は、時刻tのフレームの入力データ(IO[t,t+T])に対する入力勝者ノードNtを表す入力ラベルと、注目フレームの時刻tから時間Tだけ遅れた時刻t+Tのフレームの出力データ(IO[t+T,t+2T])に対する出力勝者ノードN't+Tを表す出力ラベルとを対応付ける。 That is, for example, when the same time T as the frame is used as the input / output time difference, the reading unit 332 reads the input winner node N t for the input data (IO [t, t + T]) of the frame at time t. And an output representing the output winner node N ′ t + T for the output data (IO [t + T, t + 2T]) of the frame at time t + T delayed by time T from the time t of the frame of interest Associate a label.

但し、ここでは、入力データと出力データは、同一の時系列データ(センサデータとモータデータとをコンポーネントとするベクトルの時系列)である。   However, here, the input data and the output data are the same time-series data (a vector time-series having sensor data and motor data as components).

次に、図45のフローチャートを参照して、図41のロボットが行う学習処理、即ち、入出力関係モデルM1112の学習処理について説明する。 Next, the learning process performed by the robot of FIG. 41, that is, the learning process of the input / output relationship model M1112 will be described with reference to the flowchart of FIG.

例えば、ロボットに、目の前にあるボールを左右に転がすタスクを学習させる場合、オペレータは、ロボットの前にボールをおき、ロボットのアームを持って、ボールを左右に転がすように、アームを動かす。   For example, if the robot learns the task of rolling the ball in front of it to the left or right, the operator moves the arm to place the ball in front of the robot, hold the robot arm, and roll the ball to the left or right. .

この場合、センサ302において、左右に転がるボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置501のデータ抽出部512に供給される。   In this case, the sensor 302 detects the state of the ball that rolls left and right, and time-series sensor data representing the state is supplied to the data extraction unit 512 of the data processing device 501.

また、モータ駆動部303では、オペレータが動かしているアームの動きに対応するモータデータが生成され、データ処理装置501のデータ抽出部512に供給される。   In the motor drive unit 303, motor data corresponding to the movement of the arm being moved by the operator is generated and supplied to the data extraction unit 512 of the data processing device 501.

データ抽出部512は、ステップS361において、センサ302からのセンサデータと、モータ駆動部303からのモータデータをコンポーネントとするベクトルの時系列(以下、適宜、センサモータデータという)を、入力データとして、その入力データの時系列から、フレーム単位の入力データを抽出し、学習処理部313の認識学習処理部321に供給するとともに、センサモータデータを出力データとして、その出力データの時系列から、フレーム単位の出力データを抽出し、学習処理部313の生成学習処理部322に供給して、ステップS362に進む。   In step S361, the data extraction unit 512 uses, as input data, a time series of vectors (hereinafter, referred to as sensor motor data as appropriate) having the sensor data from the sensor 302 and the motor data from the motor driving unit 303 as components. The input data in frame units is extracted from the time series of the input data, supplied to the recognition learning processing unit 321 of the learning processing unit 313, and the sensor motor data as output data, from the time series of the output data in frame units. Is output to the generation learning processing unit 322 of the learning processing unit 313, and the process proceeds to step S362.

ステップS362では、学習処理部313が、データ抽出部512からのフレーム単位の入力データと出力データを用いて、記憶部511に記憶された入出力関係モデルM1112(図42)が有する入力ネットワークnet11と出力ネットワークnet12の自己組織的な学習を行う。 In step S362, the learning processing unit 313 uses the input data and output data in units of frames from the data extraction unit 512, and the input network net included in the input / output relationship model M 1112 (FIG. 42) stored in the storage unit 511. 11 and output network net 12 self-organized learning.

即ち、ステップS362では、ステップS3621とS3622の処理が行われる。 That is, in step S362, the processes of steps S362 1 and S362 2 are performed.

ステップS3621では、認識学習処理部321が、記憶部511に記憶された入出力関係モデルM1112における入力ネットワークnet11の各ノードについて、データ抽出部512からのフレーム単位の入力データに対するスコアを求め、入力ネットワークnet11のノードの中から、スコアの最も良いノードを、入力勝者ノードに決定する。さらに、認識学習処理部321は、データ抽出部512からのフレーム単位の入力データに対する入力勝者ノードに基づいて、入力ネットワークnet11を、自己組織的に更新し、入力勝者ノードを表す入力ラベルを、写像学習部314に供給する。 In step S362 1, the recognition learning processing unit 321, for each node of the input network net Non 11 in the input-output relation model M 1112 stored in the storage unit 511, obtains a score for the input data frame from the data extraction unit 512 The node having the best score among the nodes of the input network net 11 is determined as the input winner node. Further, the recognition learning processing unit 321 updates the input network net 11 in a self-organized manner based on the input winner node for the input data in frame units from the data extraction unit 512, and displays an input label representing the input winner node. This is supplied to the mapping learning unit 314.

ステップS3622では、生成学習処理部322が、記憶部511に記憶された入出力関係モデルM1112における出力ネットワークnet12の各ノードについて、データ抽出部512からのフレーム単位の出力データに対するスコアを求め、出力ネットワークnet12のノードの中から、スコアの最も良いノードを、出力勝者ノードに決定する。さらに、生成学習処理部322は、データ抽出部512からのフレーム単位の出力データに対する出力勝者ノードに基づいて、出力ネットワークnet12を、自己組織的に更新し、出力勝者ノードを表す出力ラベルを、写像学習部314に供給する。 In step S362 2, generating learning processing unit 322, for each node in the output network net Non 12 in the input-output relation model M 1112 stored in the storage unit 511, obtains a score for output data of a frame unit from the data extraction unit 512 The node having the best score is determined as the output winner node from the nodes of the output network net 12 . Furthermore, the generation learning processing unit 322 updates the output network net 12 in a self-organized manner based on the output winner node for the output data in units of frames from the data extraction unit 512, and outputs an output label representing the output winner node. This is supplied to the mapping learning unit 314.

ステップS362の処理後は、ステップS363に進み、写像学習部314は、入力データのフレームのうちの、まだ注目フレームとしていないフレームを、注目フレームとして、学習処理部313からの、注目フレームの入力データに対する入力勝者ノードを表す入力ラベルと、学習処理部313からの、注目フレームから時間Tだけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを対応付ける。   After the processing of step S362, the process proceeds to step S363, and the mapping learning unit 314 uses the frame that has not yet been set as the frame of interest among the frames of the input data as the frame of interest, and receives the input data of the frame of interest from the learning processing unit 313. An input label that represents an input winner node for is associated with an output label that represents an output winner node for output data of a frame delayed by time T from the frame of interest from the learning processing unit 313.

即ち、ステップS363では、写像学習部314のデータバッファ331において、学習処理部313からのフレーム単位の入力データに対する入力勝者ノードを表す入力ラベルと、フレーム単位の出力データに対する出力勝者ノードを表す出力ラベルとが一時記憶される。   That is, in step S363, in the data buffer 331 of the mapping learning unit 314, an input label representing an input winner node for input data in units of frames from the learning processing unit 313 and an output label representing an output winner node for output data in units of frames. Is temporarily stored.

さらに、ステップS363では、写像学習部314の読み出し部332が、データバッファ331に記憶された入力ラベルのうちの、注目フレームの入力データに対する入力勝者ノードを表す入力ラベルと、データバッファ331に記憶された出力ラベルのうちの、注目フレームの時刻から時間Tだけ遅れたフレームの出力データに対する出力勝者ノードを表す出力ラベルとを読み出して対応付け、その対応付けた入力ラベルと出力ラベルとのセットであるラベルセットを、結合重み更新部333に供給する。   Further, in step S363, the reading unit 332 of the mapping learning unit 314 stores the input label representing the input winner node for the input data of the frame of interest among the input labels stored in the data buffer 331 and the data buffer 331. Among the output labels, the output label representing the output winner node corresponding to the output data of the frame delayed by time T from the time of the target frame is read and associated, and the associated input label and output label are set. The label set is supplied to the connection weight update unit 333.

そして、ステップS363からステップS364に進み、写像学習部314の結合重み更新部333が、読み出し部332から供給されるラベルセットに基づき、記憶部511に記憶された入出力関係モデルM1112(図42)における入力ネットワークnet11のノードと、出力ネットワークnet12のノードとの結合関係を更新する。 Then, the process proceeds from step S363 to step S364, where the connection weight update unit 333 of the mapping learning unit 314 is based on the label set supplied from the reading unit 332, and the input / output relationship model M 1112 stored in the storage unit 511 (FIG. 42). ), The connection relationship between the node of the input network net 11 and the node of the output network net 12 is updated.

即ち、結合重み更新部333は、記憶部511に記憶された入出力関係モデルM1112における入力ネットワークnet11の各入力ノードと、ラベルセットの出力ラベルが表す出力ネットワークnet12の出力勝者ノードとの結合重みを、ラベルセットの入力ラベルが表す入力ネットワークnet11の入力勝者ノードを中心として更新するとともに、出力ネットワークnet12の各出力ノードと、入力ネットワークnet11の入力勝者ノードとの結合重みを、出力ネットワークnet12の出力勝者ノードを中心として更新する。 In other words, the connection weight updating unit 333 calculates the relationship between each input node of the input network net 11 in the input / output relationship model M 1112 stored in the storage unit 511 and the output winner node of the output network net 12 represented by the output label of the label set. The connection weight is updated around the input winner node of the input network net 11 represented by the input label of the label set, and the connection weight of each output node of the output network net 12 and the input winner node of the input network net 11 is Update the output network net 12 around the output winner node.

以上のような入出力関係モデルM1112の学習処理によれば、入出力関係モデルM1112(図42)が有する入力ネットワークnet11と出力ネットワークnet2との結合関係は、以下のように更新される。 According to the learning process of the input-output relationship model M 1112 as described above, binding relationship between the input network net Non 11 input-output relationship model M 1112 (FIG. 42) has an output network net Non 2 is updated as follows The

即ち、入力勝者ノードは、注目フレームの入力データに対する勝者ノードであり、出力勝者ノードは、注目フレームから入出力時間差Tだけ遅れたフレームの出力データに対する勝者ノードであるから、結合重み更新部333による結合重みの更新によれば、記憶部511に記憶された入出力関係モデルM1112において、注目フレームの入力データに対する入力ネットワークnet11の入力勝者ノードと、注目フレームから入出力時間差Tだけ遅れたフレームの出力データに対する出力ネットワークnet2の出力勝者ノードとの結合重みが、より強くなるように更新される。 That is, the input winner node is the winner node for the input data of the frame of interest, and the output winner node is the winner node for the output data of the frame delayed by the input / output time difference T from the frame of interest. According to the update of the connection weight, in the input / output relationship model M 1112 stored in the storage unit 511, the input winner node of the input network net 11 with respect to the input data of the frame of interest and the frame delayed by the input / output time difference T from the frame of interest The connection weight with the output winner node of the output network net 2 for the output data is updated so as to be stronger.

なお、図45の学習処理は、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS362乃至S364の処理を繰り返し行うようにしてもよいし、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS362の処理を繰り返し行い、その後、再び、入力データの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS363およびS364の処理を繰り返し行うようにしても良い。   In the learning process of FIG. 45, the process from step S362 to S364 may be repeated with the first frame to the last frame of the input data as the frame of interest, or the first frame of the input data. The process from step S362 is repeated with the frame from the first frame to the end frame as the target frame in sequence, and then the processes from step S363 and S364 are performed again sequentially from the first frame to the end frame of the input data as the target frame. May be repeated.

次に、図46のフローチャートを参照して、図41のロボットが行う認知行動の処理、即ち、入出力関係モデルM1112を用いた時系列データの生成処理(認識生成処理)について説明する。 Next, a process of cognitive behavior performed by the robot of FIG. 41, that is, a process of generating time-series data (recognition generating process) using the input / output relationship model M1112 will be described with reference to the flowchart of FIG.

例えば、図45で説明したように、ロボットに、目の前にあるボールを左右に転がすタスクを学習させた後、ロボットの前にボールをおくと(さらに、必要に応じて、ボールを転がすと)、センサ302において、ボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置501のデータ抽出部315に供給される。   For example, as described in FIG. 45, when the robot learns the task of rolling the ball in front of the eyes to the left and right, and then puts the ball in front of the robot (and if necessary, the ball is rolled. ), The state of the ball is detected by the sensor 302, and time-series sensor data representing the state is supplied to the data extraction unit 315 of the data processing device 501.

さらに、データ処理装置501のデータ抽出部315には、モータ駆動部303からモータデータも供給される。   Furthermore, motor data is also supplied from the motor drive unit 303 to the data extraction unit 315 of the data processing device 501.

データ抽出部315は、ステップS371において、センサ302からのセンサデータと、モータ駆動部303からのモータデータとをコンポーネントとするベクトルの時系列であるセンサモータデータを入力データとして、その入力データの時系列から、フレーム単位の入力データを抽出し、認識部316に供給して、ステップS372に進む。   In step S371, the data extraction unit 315 uses the sensor motor data, which is a time series of vectors having the sensor data from the sensor 302 and the motor data from the motor driving unit 303 as components, as input data. The input data for each frame is extracted from the series, supplied to the recognition unit 316, and the process proceeds to step S372.

認識部316では、ステップS372において、スコア計算部341が、データ抽出部315からのフレーム単位の入力データを、順次、注目フレームの入力データとして、その注目フレームの入力データに対して、記憶部511に記憶された入出力関係モデルM1112を構成する入力ネットワークnet11の各ノードのスコアを計算し、勝者ノード決定部342に供給する。 In the recognition unit 316, in step S372, the score calculation unit 341 sequentially uses the input data in units of frames from the data extraction unit 315 as the input data of the frame of interest, and the storage unit 511 for the input data of the frame of interest. The score of each node of the input network net 11 constituting the input / output relation model M 1112 stored in is calculated and supplied to the winner node determination unit 342.

さらに、ステップS372では、勝者ノード決定部342が、記憶部511に記憶された入出力関係モデルM1112を構成する入力ネットワークnet11のノードの中で、スコア計算部341からのスコアが最も良いノードを、入力勝者ノードに決定し、その入力勝者ノードを表す入力ラベルを、写像部317に供給して、ステップS373に進む。 Furthermore, in step S372, the winner node determination unit 342 has the highest score from the score calculation unit 341 among the nodes of the input network net 11 constituting the input / output relationship model M 1112 stored in the storage unit 511. To the input winner node, the input label representing the input winner node is supplied to the mapping unit 317, and the process proceeds to step S373.

ステップS373では、写像部317の生成ノード決定部351が、記憶部511に記憶された入出力関係モデルM1112を構成する出力ネットワークnet12のノードの中で、勝者ノード決定部342からの入力ラベルが表すノード(入力勝者ノード)との結合重みが最も強いノードを生成ノードに決定し、その生成ノードを表す出力ラベルを、生成部318に供給して、ステップS374に進む。 In step S373, the generation node determination unit 351 of the mapping unit 317 includes the input label from the winner node determination unit 342 among the nodes of the output network net 12 that constitute the input / output relationship model M 1112 stored in the storage unit 511. The node having the strongest connection weight with the node represented by (input winner node) is determined as the generation node, the output label indicating the generation node is supplied to the generation unit 318, and the process proceeds to step S374.

ステップS374では、生成部318の時系列生成部361が、記憶部511に記憶された入出力関係モデルM1112を構成する出力ネットワークnet12のノードのうちの、生成ノード決定部351からの出力ラベルが表す生成ノードが有する時系列パターンモデル21(図7)に基づいて、注目フレームの入力データに対する出力データ(の推定値)としての、例えば、フレームの長さの時系列データを生成して出力する。 In step S374, the time series generation unit 361 of the generation unit 318 outputs the output label from the generation node determination unit 351 among the nodes of the output network net 12 that constitute the input / output relationship model M 1112 stored in the storage unit 511. Based on the time-series pattern model 21 (FIG. 7) of the generation node represented by, for example, the time-series data of the frame length is generated and output as the output data (estimated value) for the input data of the frame of interest. To do.

この出力データとしての時系列データは、センサモータデータであり、そのセンサモータデータのうちのモータデータが、時系列生成部361からモータ駆動部303に供給され、モータ駆動部303が、時系列生成部361からのモータデータにしたがって、モータを駆動することにより、ロボットのアームが動かされる。   The time series data as the output data is sensor motor data, and motor data of the sensor motor data is supplied from the time series generation unit 361 to the motor drive unit 303, and the motor drive unit 303 generates the time series. The arm of the robot is moved by driving the motor according to the motor data from the unit 361.

以下、データ抽出部315から認識部316に対して供給されるフレーム単位の入力データについて、ステップS372乃至S374の処理が行われる。   Thereafter, the processes in steps S372 to S374 are performed on the input data in units of frames supplied from the data extraction unit 315 to the recognition unit 316.

以上のように、図41のロボットでは、入力ネットワークnet11のフレーム単位の入力データに対する入力勝者ノードと、出力ネットワークnet2の、フレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データに対する出力勝者ノードとの結合重みを強めるように更新するので、図25のロボットの場合と同様に、例えば、目の前にあるボールを左右に転がすタスクのような実時間性が要求されるタスクを学習し、そのようなタスクを行うことができるようになる。 As described above, in the robot shown in FIG. 41, the input winner node for the input data in the frame unit of the input network net 11 and the frame unit delayed by the input / output time difference from the time of the input data in the frame unit of the output network net 2 . Since the output data is updated so as to increase the connection weight with the output winner node, real-time characteristics such as a task of rolling the ball in front of the right and left are required, as in the case of the robot of FIG. Can learn such tasks and perform such tasks.

即ち、上述したように図45の学習処理によれば、記憶部511に記憶された入出力関係モデルM1112において、注目フレームの入力データに対する入力ネットワークnet11の入力勝者ノードと、注目フレームから入出力時間差だけ遅れたフレームの出力データに対する出力ネットワークnet12の出力勝者ノードとの結合重みが、より強くなるように更新される。 That is, according to the learning process of FIG. 45 as described above, in the input / output relationship model M 1112 stored in the storage unit 511, the input winner node of the input network net 11 for the input data of the frame of interest and the input from the frame of interest The connection weight with the output winner node of the output network net 12 for the output data of the frame delayed by the output time difference is updated so as to be stronger.

従って、図46の認識生成処理では、入出力関係モデルM1112に、あるフレームFの入力データが与えられると、入出力関係モデルM1112では、入力ネットワークnet1のノードのうちの、フレームFの入力データに対応するノードが入力勝者ノードとなり、出力ネットワークnet2のノードのうちの、フレームFから入出力時間差だけ遅れたフレームの出力データに対応するノードが、入力勝者ノードとの結合重みが最も強いノードとして、生成ノードに決定され、これにより、その生成ノードに基づき、フレームFから入出力時間差だけ遅れたフレームの出力データに相当する時系列データが生成される。 Therefore, in recognition generating process of FIG. 46, the input-output relationship model M 1112, the input data of a certain frame F is given, the input-output relationship model M 1112, of the nodes of the input network net Non 1, the frame F The node corresponding to the input data becomes the input winner node, and the node corresponding to the output data of the frame delayed by the input / output time difference from the frame F among the nodes of the output network net 2 has the highest connection weight with the input winner node. The generation node is determined as a strong node, and thereby, time-series data corresponding to the output data of the frame delayed from the frame F by the input / output time difference is generated based on the generation node.

従って、図41のロボットでは、フレーム単位の入力データとしてのセンサモータデータ、つまり、外部の状態とロボット自身の状態に対して、フレーム単位の入力データから入出力時間差だけ遅れたフレームの出力データとしてのセンサモータデータ、つまり、その後にとるべき行動に対応するモータデータと、その後に検知されるであろう外部の状態に対応するセンサデータとを得ることができるように、学習が行われるので、目の前にあるボールを左右に転がすタスクのような実時間性が要求されるタスクを学習し、そのようなタスクを行うことができるようになる。   Therefore, in the robot of FIG. 41, as sensor motor data as input data in units of frames, that is, as output data of frames delayed by an input / output time difference from input data in units of frames with respect to the external state and the state of the robot itself. Since learning is performed so that the sensor motor data of the motor, that is, the motor data corresponding to the action to be taken thereafter and the sensor data corresponding to the external state that will be detected thereafter can be obtained, It is possible to learn a task that requires real-time characteristics, such as a task of rolling a ball in front of the right and left, and to perform such a task.

ここで、図41のロボットの結合重み更新部333による結合重みの更新、即ち、入力ネットワークnet1のフレーム単位の入力データとしてのセンサモータデータに対する入力勝者ノードと、出力ネットワークnet2の、フレーム単位のセンサモータデータの時刻から入出力時間差だけ遅れたフレーム単位の出力データとしてのセンサモータデータに対する出力勝者ノードとの結合重みを強めるように更新することは、フレーム単位のセンサモータデータと、そのフレーム単位のセンサモータデータの時刻から入出力時間差だけ遅れたフレーム単位のセンサモータデータとを対応付けるように、入出力関係モデルM1112の学習を行うことになる。 Here, the update of the connection weight by the connection weight update unit 333 of the robot of FIG. 41, that is, the input winner node for the sensor motor data as the input data of the frame unit of the input network net 1 and the frame unit of the output network net 2 Updating the sensor motor data as the output data in the frame unit delayed by the input / output time difference from the time of the sensor motor data so as to increase the connection weight with the output winner node, the sensor motor data in the frame unit and the frame Learning of the input / output relation model M 1112 is performed so as to associate the sensor motor data of the frame unit delayed by the input / output time difference from the time of the sensor motor data of the unit.

そして、認知行動時において、かかる学習が行われた入出力関係モデルM1112にフレーム単位のセンサモータデータが与えられると、入出力関係モデルM1112では、そのフレーム単位のセンサモータデータに対して、そのフレーム単位のセンサモータデータの時刻から入出力時間差だけ遅れたフレーム単位のセンサモータデータ(の推定値)に対応するノードが、生成ノードとして求められることになるが、これは、あるフレームFのセンサモータデータから、生成ノードに対応するセンサモータデータ、つまり、フレームFの時刻から入出力時間差だけ未来のフレームのセンサモータデータを予測している、ということができる。 And, at the time of cognitive behavior, when sensor motor data in frame units is given to the input / output relationship model M 1112 in which such learning has been performed, in the input / output relationship model M 1112 , for the sensor motor data in frame units, A node corresponding to (estimated value) of frame-unit sensor motor data that is delayed by an input / output time difference from the time of the frame-unit sensor motor data is obtained as a generation node. From the sensor motor data, it can be said that the sensor motor data corresponding to the generation node, that is, the sensor motor data of the future frame is predicted from the time of frame F by the input / output time difference.

以上のように、図41のロボットでは、フレーム単位の入力データとしてのセンサモータデータと、そのフレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データとしてのセンサモータデータとを対応付けるように、入出力関係モデルM1112の学習を行う。 As described above, in the robot shown in FIG. 41, sensor motor data as input data in frame units and sensor motor data as output data in frame units delayed by an input / output time difference from the time of the input data in frame units. The input / output relation model M 1112 is learned so as to be associated with each other.

このため、ロボットの認知行動(出力データの生成)時において、入力データであるセンサモータデータとして、入出力関係モデルM1112(図42)の入力ネットワークnet11のいずれかのノードが表現する時系列パターンに合致する時系列パターンのセンサモータデータ(既知のセンサモータデータ)が入力される限りは、そのセンサモータデータに対して適切な出力データであるセンサモータデータが生成され、その結果、ロボットは、学習したタスクを再現することができる。 Therefore, at the time of the robot's cognitive behavior (output data generation), the time series expressed by any node of the input network net 11 of the input / output relationship model M 1112 (FIG. 42) as sensor motor data that is input data. As long as sensor motor data (known sensor motor data) having a time-series pattern that matches the pattern is input, sensor motor data that is output data appropriate to the sensor motor data is generated. Can reproduce the learned task.

さらに、図41のロボットでは、入力データおよび出力データとして、いずれも、センサデータとモータデータとをコンポーネントとするベクトルであるセンサモータデータが採用され、フレーム単位の入力データとしてのセンサモータデータに対して、そのフレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データとしてのセンサモータデータ、即ち、いわば、未来のセンサモータデータ(の推定値)が生成される。   Further, in the robot of FIG. 41, sensor motor data, which is a vector having sensor data and motor data as components, is adopted as both input data and output data, and the sensor motor data as input data in frame units is used. Thus, sensor motor data as frame-unit output data delayed by the input / output time difference from the time of the frame-unit input data, that is, sensor sensor data of the future (estimated value thereof) is generated.

従って、図41のロボットでは、フレーム単位の入力データとしてのセンサモータデータに基づき、現在の外部の状態と、ロボット自体の現在の行動の状態との両方を、いわば考慮して、そのフレーム単位の入力データの時刻から入出力時間差だけ遅れたフレーム単位の出力データとしてのセンサモータデータの生成、つまり、入出力時間差だけ未来の外部の状態の予測と、その未来の行動の決定が行われているということができ、センサデータに基づき、現在の外部の状態だけを考慮して、入出力時間差だけ遅れたフレーム単位のモータデータの生成、つまり、入出力時間差だけ未来の行動の決定が行われる図25や、図32、図38のロボットに比較して、高い安定性でタスクを行うことができる。   Therefore, in the robot of FIG. 41, based on the sensor motor data as input data in units of frames, the current external state and the current behavior state of the robot itself are considered, so to speak, in units of the frames. Generation of sensor motor data as frame-unit output data delayed by the input / output time difference from the input data time, that is, prediction of the future external state and determination of the future action by the input / output time difference. In other words, based on sensor data, taking into account only the current external state, motor data is generated in frame units that are delayed by the input / output time difference, that is, a future action is determined by the input / output time difference. 25, and the task can be performed with higher stability compared to the robots of FIGS.

具体的には、例えば、ボールを左右に転がすタスクにおいて、ボールの状態だけ、即ち、センサデータだけでは、行動を定めにくい場合(例えば、ボールを左右に転がすタスクにおいて、ボールが特定の状態にあるときに、アームを左から右に動かす行動をするケースと、右から左に動かすケースとが混在する場合)、センサデータにノイズが混入した場合(例えば、ボールを左右に転がすタスクにおいて、センサ302が、本来検知すべきボールの状態のみならず、ロボットのアームの状態も検知して、センサデータを出力した場合)には、センサデータだけに基づいて、入出力時間差だけ遅れたモータデータを生成したのでは、ロボットの行動が不安定になるおそれがある。   Specifically, for example, in the task of rolling the ball to the left or right, when it is difficult to determine the action only by the state of the ball, that is, by sensor data alone (for example, in the task of rolling the ball to the left or right, the ball is in a specific state Sometimes, when a case of moving the arm from the left to the right and a case of moving the arm from the right to the left are mixed), when noise is mixed in the sensor data (for example, in the task of rolling the ball left and right, the sensor 302 However, when sensor data is output by detecting not only the ball state that should be detected but also the arm state of the robot, motor data delayed by the input / output time difference is generated based on the sensor data alone. As a result, the robot's behavior may become unstable.

これに対して、センサモータデータ、つまり、センサデータとモータデータの両方に基づいて、入出力時間差だけ遅れたセンサモータデータを生成する場合においては、その入出力時間差だけ遅れたセンサモータデータには、現在の外部の状態のみならず、ロボット自体の現在の行動の状態をも考慮されているので、安定した行動をとることが可能となる。   On the other hand, when generating sensor motor data delayed by an input / output time difference based on both sensor motor data, that is, sensor data and motor data, the sensor motor data delayed by the input / output time difference Considering not only the current external state but also the current behavior state of the robot itself, it is possible to take stable behavior.

さらに、センサモータデータに基づいて、入出力時間差だけ遅れたセンサモータデータを生成する場合には、例えば、ユーザが、ゲインを抜いた状態のアームを持って誘導し、これによりタスクを開始するような自然なインタラクションの行動を、ロボットに行わせることが可能となる。   Further, when generating sensor motor data delayed by an input / output time difference based on the sensor motor data, for example, the user guides with the arm with the gain removed, and thereby starts the task. It is possible to cause the robot to perform natural and natural interaction actions.

次に、図41のロボットについて行った実験の実験結果について説明する。   Next, experimental results of experiments performed on the robot shown in FIG. 41 will be described.

図41のロボットについて、上述した図25のロボットについて行った実験と同様の実験を行い、その結果、アームの位置によっては、動きが多少不安定になることがあるものの、一旦、アームでボールを左右に転がす行動を開始すると、ボールの動きが多少不安定になっても、そのボールの動きに追従して、アームでボールを左右に転がす行動をし続けることが確認された。従って、図41のロボットが実時間性が要求されるタスクを学習し、そのタスクを行うことができることが検証された。   For the robot shown in FIG. 41, an experiment similar to that performed for the robot shown in FIG. 25 is performed. As a result, the movement may be somewhat unstable depending on the position of the arm. It was confirmed that, when the action of rolling to the left and right was started, the action of rolling the ball left and right with the arm continued following the movement of the ball even if the movement of the ball became somewhat unstable. Therefore, it was verified that the robot shown in FIG. 41 can learn a task that requires real-time performance and perform the task.

ところで、図41のロボットにおいて、記憶部511が記憶している入出力関係モデルM1112が有する入力ネットワークnet11および出力ネットワークnet12は、図20の入出力関係モデルが有する時系列パターン記憶ネットワークnetinおよびnetoutと同様に、ノードの数や、リンク、ノードが有する時系列パターンモデル21が同一であっても良いし、異なっていても良い。 In the robot of FIG. 41, the input network net 11 and the output network net 12 included in the input / output relationship model M 1112 stored in the storage unit 511 are the time-series pattern storage network net included in the input / output relationship model in FIG. Similar to in and net out , the number of nodes, links, and time-series pattern models 21 included in the nodes may be the same or different.

一方、図41のロボットにおいて、記憶部511が記憶している入出力関係モデルM1112が有する入力ネットワークnet11と出力ネットワークnet12とは、いずれも、フレーム単位のセンサモータデータを用いて、自己組織的に更新される。 On the other hand, in the robot of FIG. 41, the input network net 11 and the output network net 12 included in the input / output relationship model M 1112 stored in the storage unit 511 are both self-monitoring using sensor motor data in units of frames. Updated systematically.

従って、入力ネットワークnet11と出力ネットワークnet12として、同一の時系列パターン記憶ネットワークを採用する場合には、その入力ネットワークnet11および出力ネットワークnet12は、1つの時系列パターン記憶ネットワークで代用することができる。 Therefore, as the output network net Non 12 and the input network net Non 11, when employing the same time series pattern storage network, the input network net Non 11 and output network net Non 12 shall be replaced by a single time series pattern storage network Can do.

即ち、図47は、図42の入出力関係モデルM1112が有する入力ネットワークnet11および出力ネットワークnet12を、1つの時系列パターン記憶ネットワークで代用した入出力関係モデルM'1112を示している。 That is, FIG. 47 shows an input network net Non 11 and output network net Non 12, 1 single time series pattern storage input-output relationship model M '1112 was replaced by a network input-output relationship model M 1112 has a Figure 42.

図47の入出力関係モデルM'1112は、1つの時系列パターン記憶ネットワーク(入力ネットワーク)net11を有しており、図42の入出力関係モデルM1112が有する2つの入力ネットワークnet11および出力ネットワークnet12が、1つの時系列パターン記憶ネットワークnet11で代用されている。 The input / output relationship model M ′ 1112 in FIG. 47 has one time-series pattern storage network (input network) net 11 , and the two input networks net 11 and outputs that the input / output relationship model M 1112 in FIG. 42 has. The network net 12 is replaced by one time-series pattern storage network net 11 .

そして、図47の入出力関係モデルM'1112では、図42の入出力関係モデルM1112が有する入力ネットワークnet11および出力ネットワークnet12が、1つの時系列パターン記憶ネットワークnet11で代用されているために、時系列パターン記憶ネットワークnet11のノードどうしが、結合重み(w1112)によって結合されている。 In the input / output relationship model M ′ 1112 in FIG. 47, the input network net 11 and the output network net 12 included in the input / output relationship model M 1112 in FIG. 42 are substituted by one time-series pattern storage network net 11 . Therefore, the nodes of the time series pattern storage network net 11 are connected by the connection weight (w 1112 ).

図48は、図47の入出力関係モデルM'1112を利用してタスクの学習と認知行動を行うロボットの構成例を示している。 FIG. 48 shows a configuration example of a robot that performs task learning and cognitive behavior using the input / output relationship model M ′ 1112 in FIG. 47.

なお、図中、図41のロボットと対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   In the figure, portions corresponding to those of the robot in FIG. 41 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

即ち、図48のロボットは、図41の記憶部511、読み出し部332、結合重み更新部333、生成ノード決定部351に代えて、それぞれ、記憶部2511、読み出し部2332、結合重み更新部2333、生成ノード決定部2351が設けられているとともに、図41の生成学習処理部322が設けられていない点を除いて、図41のロボットと同様に構成されている。   That is, the robot shown in FIG. 48 replaces the storage unit 511, the readout unit 332, the coupling weight update unit 333, and the generation node determination unit 351 shown in FIG. 41, respectively, with a storage unit 2511, a readout unit 2332, a coupling weight update unit 2333, A generation node determination unit 2351 is provided, and the configuration is the same as that of the robot of FIG. 41 except that the generation learning processing unit 322 of FIG. 41 is not provided.

記憶部2511は、図47に示した入出力関係モデルM'1112を記憶している。 The storage unit 2511 stores the input / output relationship model M ′ 1112 illustrated in FIG. 47.

読み出し部2332は、入力データまたは出力データとしてのセンサモータデータのフレームを、順次、注目フレームとして、データバッファ331に記憶されたノードラベル、即ち、認識学習処理部321がフレーム単位のセンサモータデータを用いて行った、記憶部2511に記憶された入出力関係モデルM'1112(図47)の時系列パターン記憶ネットワークnet11の自己組織的な更新において得られる勝者ノードを表すノードラベルのうちの、注目フレームのセンサモータデータに対する勝者ノードを表すノードラベル(以下、適宜、第1のノードラベルという)と、注目フレームの時刻から入出力時間差だけ遅れたフレームのセンサモータデータに対する勝者ノードを表すノードラベル(以下、適宜、第2のノードラベルという)とを読み出して対応付け、その対応付けた第1と第2のノードラベルのセットであるラベルセットを、結合重み更新部2333に供給する。 The reading unit 2332 sequentially uses the frame of sensor motor data as input data or output data as the frame of interest, and the node label stored in the data buffer 331, that is, the recognition learning processing unit 321 outputs the sensor motor data in frame units. Of the node labels representing the winner nodes obtained in the self-organizing update of the time-series pattern storage network net 11 of the input / output relationship model M ′ 1112 (FIG. 47) stored in the storage unit 2511, A node label representing a winner node for the sensor motor data of the frame of interest (hereinafter referred to as a first node label as appropriate) and a node label representing a winner node for the sensor motor data of a frame delayed by an input / output time difference from the time of the frame of interest (Hereinafter referred to as the second node label as appropriate) Mapping out look, the first label set is a set of second node label corresponding attached, supplied to the weight updating unit 2333.

結合重み更新部2333は、図21の結合重み更新部222と同様に、図23で説明したようにして、読み出し部2332から供給されるラベルセットに基づき、記憶部2511に記憶された入出力関係モデルM'1112(図47)における時系列パターン記憶ネットワークnet11のノードどうしの結合関係を、ヘブ則等により更新する。 Similar to the connection weight update unit 222 in FIG. 21, the connection weight update unit 2333 has the input / output relationship stored in the storage unit 2511 based on the label set supplied from the reading unit 2332 as described in FIG. The connection relationship between the nodes of the time-series pattern storage network net 11 in the model M ′ 1112 (FIG. 47) is updated by the Hebb rule or the like.

即ち、結合重み更新部2333は、時系列パターン記憶ネットワークnet11の各ノードと、ラベルセットの第2のノードラベルが表す時系列パターン記憶ネットワークnet11の勝者ノードとの結合重みを、ラベルセットの第1のノードラベルが表す時系列パターン記憶ネットワークnet11の勝者ノードを中心として更新するとともに、時系列パターン記憶ネットワークnet11の各入力ノードと、ラベルセットの第1のノードラベルが表す時系列パターン記憶ネットワークnet11の勝者ノードとの結合重みを、ラベルセットの第2のノードラベルが表す時系列パターン記憶ネットワークnet11の勝者ノードを中心として更新する。 That is, the weight updating unit 2333, when each node in sequence pattern storage network net Non 11, the connection weight between the winning node of the time series pattern storage network net Non 11 represented by the second node label label set, label set of The time series pattern storage network net 11 represented by the first node label is updated centering on the winner node, and the time series pattern represented by each input node of the time series pattern storage network net 11 and the first node label of the label set the coupling weight between the winning node of storage network net Non 11, updates about the winning node of the time series pattern storage network net Non 11 represented by the second node label label set.

生成ノード決定部2351は、認識部316から供給される、勝者ノードを表すノードラベルに基づいて、時系列データであるセンサモータデータを生成する生成ノードを決定して、その生成ノードを表すノードラベルを、生成部318に供給する。   The generation node determination unit 2351 determines a generation node that generates sensor motor data, which is time-series data, based on the node label representing the winner node supplied from the recognition unit 316, and a node label that represents the generation node Is supplied to the generation unit 318.

即ち、生成ノード決定部2351には、認識部316の勝者ノード決定部342から、時系列パターン記憶ネットワークnet11のノードのうちの、フレーム単位のセンサモータデータに対する勝者ノードを表すノードラベル(第1のノードラベル)が供給されるようになっている。 That is, the generation node determination unit 2351 receives from the winner node determination unit 342 of the recognition unit 316 a node label (first record) representing a winner node for sensor motor data in frame units among the nodes of the time-series pattern storage network net 11 . Node labels) are supplied.

生成ノード決定部2351は、時系列パターン記憶ネットワークnet11のノードの中から、勝者ノード決定部342からのノードラベルが表す勝者ノードとの結合が最強のノードを、生成ノードに決定し、その生成ノードを表すノードラベルを、生成部318に供給する。 The generation node determination unit 2351 determines, as a generation node, a node having the strongest combination with the winner node represented by the node label from the winner node determination unit 342 among the nodes of the time-series pattern storage network net 11 A node label representing the node is supplied to the generation unit 318.

次に、図49のフローチャートを参照して、図48のロボットが行う学習処理、即ち、入出力関係モデルM'1112(図47)の学習処理について説明する。 Next, the learning process performed by the robot of FIG. 48, that is, the learning process of the input / output relationship model M ′ 1112 (FIG. 47) will be described with reference to the flowchart of FIG.

例えば、ロボットに、目の前にあるボールを左右に転がすタスクを学習させる場合、オペレータは、ロボットの前にボールをおき、ロボットのアームを持って、ボールを左右に転がすように、アームを動かす。   For example, if the robot learns the task of rolling the ball in front of it to the left or right, the operator moves the arm to place the ball in front of the robot, hold the robot arm, and roll the ball to the left or right. .

この場合、センサ302において、左右に転がるボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置501のデータ抽出部512に供給される。   In this case, the sensor 302 detects the state of the ball that rolls left and right, and time-series sensor data representing the state is supplied to the data extraction unit 512 of the data processing device 501.

また、モータ駆動部303では、オペレータが動かしているアームの動きに対応するモータデータが生成され、データ処理装置501のデータ抽出部512に供給される。   In the motor drive unit 303, motor data corresponding to the movement of the arm being moved by the operator is generated and supplied to the data extraction unit 512 of the data processing device 501.

データ抽出部512は、ステップS1361において、センサ302からのセンサデータと、モータ駆動部303からのモータデータとをコンポーネントとするベクトルの時系列であるセンサモータデータから、フレーム単位のセンサモータデータを抽出し、学習処理部313の認識学習処理部321に供給して、ステップS1362に進む。   In step S 1361, the data extraction unit 512 extracts sensor motor data in units of frames from the sensor motor data that is a time series of vectors having the sensor data from the sensor 302 and the motor data from the motor driving unit 303 as components. And it supplies to the recognition learning process part 321 of the learning process part 313, and progresses to step S1362.

ステップS1362では、学習処理部313の認識学習処理部321が、データ抽出部512からのフレーム単位のセンサモータデータを用いて、記憶部2511に記憶された入出力関係モデルM'1112(図47)が有する時系列パターン記憶ネットワークnet11の自己組織的な学習を行う。 In step S1362, the recognition learning processing unit 321 of the learning processing unit 313 uses the frame-unit sensor motor data from the data extraction unit 512 to store the input / output relationship model M ′ 1112 stored in the storage unit 2511 (FIG. 47). Self-organized learning of the time series pattern storage network net 11

即ち、ステップS1362では、認識学習処理部321が、記憶部2511に記憶された入出力関係モデルM'1112における時系列パターン記憶ネットワークnet11の各ノードについて、データ抽出部512からのフレーム単位のセンサモータデータに対するスコアを求め、時系列パターン記憶ネットワークnet11のノードの中から、スコアの最も良いノードを、勝者ノードに決定する。さらに、認識学習処理部321は、データ抽出部512からのフレーム単位のセンサモータデータに対する勝者ノードに基づいて、時系列パターン記憶ネットワークnet11を、自己組織的に更新し、勝者ノードを表すノードラベルを、写像学習部314に供給する。 That is, in step S 1362, the recognition learning processing unit 321 performs frame unit sensor from the data extraction unit 512 for each node of the time-series pattern storage network net 11 in the input / output relation model M ′ 1112 stored in the storage unit 2511. obtains a score for motor data, when from among the nodes of the sequence pattern storage network net Non 11, the best node score is determined to winning node. Further, the recognition learning processing unit 321 updates the time-series pattern storage network net 11 in a self-organized manner based on the winner node for the sensor motor data in frame units from the data extraction unit 512, and represents a node label representing the winner node Is supplied to the mapping learning unit 314.

ステップS1362の処理後は、ステップS1363に進み、写像学習部314は、センサモータデータのフレームのうちの、まだ注目フレームとしていないフレームを、注目フレームとして、学習処理部313(の認識学習処理部321)からの、注目フレームのセンサモータデータに対する勝者ノードを表すノードラベル、つまり、第1のノードラベルと、学習処理部313からの、注目フレームから入出力時間差Tだけ遅れたフレームのセンサモータデータに対する勝者ノードを表すノードラベル、つまり、第2のノードラベルとを対応付ける。   After the process of step S1362, the process proceeds to step S1363, and the mapping learning unit 314 uses a frame that has not yet been set as the frame of interest among the frames of the sensor motor data as the frame of interest, and the learning processing unit 313 (the recognition learning processing unit 321). ) From the node label representing the winner node for the sensor motor data of the frame of interest, that is, the first node label and the sensor motor data of the frame delayed from the frame of interest by the input / output time difference T from the learning processing unit 313. The node label representing the winner node, that is, the second node label is associated.

即ち、ステップS1363では、写像学習部314のデータバッファ331において、学習処理部313からのフレーム単位のセンサモータデータに対する勝者ノードを表すノードラベルが一時記憶される。   That is, in step S 1363, the node label representing the winner node for the sensor motor data in frame units from the learning processing unit 313 is temporarily stored in the data buffer 331 of the mapping learning unit 314.

そして、ステップS1363では、写像学習部314の読み出し部2332が、データバッファ331に記憶されたノードラベルのうちの、注目フレームのセンサモータデータに対する勝者ノードを表す第1のノードラベルと、注目フレームの時刻から入出力時間差Tだけ遅れたフレームのセンサモータデータに対する勝者ノードを表す第2のノードラベルとを読み出して対応付け、その対応付けた第1と第2のノードラベルのセットであるラベルセットを、結合重み更新部2333に供給する。   In step S 1363, the reading unit 2332 of the mapping learning unit 314 includes the first node label representing the winner node for the sensor motor data of the frame of interest among the node labels stored in the data buffer 331, and the frame of the frame of interest. A second node label representing the winner node for the sensor motor data of the frame delayed by the input / output time difference T from the time is read and associated, and a label set that is a set of the associated first and second node labels is , And supplied to the connection weight update unit 2333.

そして、ステップS1363からステップS1364に進み、写像学習部314の結合重み更新部2333が、読み出し部2332から供給されるラベルセットに基づき、記憶部2511に記憶された入出力関係モデルM'1112(図47)における時系列パターン記憶ネットワークnet11のノードどうしの結合関係を更新する。 Then, the process proceeds from step S 1363 to step S 1364, and the connection weight update unit 2333 of the mapping learning unit 314 is based on the label set supplied from the reading unit 2332 and the input / output relationship model M ′ 1112 stored in the storage unit 2511 (FIG. 47) The connection relationship between the nodes of the time-series pattern storage network net 11 is updated.

即ち、結合重み更新部2333は、記憶部2511に記憶された入出力関係モデルM'1112における時系列パターン記憶ネットワークnet11の各ノードと、ラベルセットの第2のノードラベルが表す時系列パターン記憶ネットワークnet11の勝者ノードとの結合重みを、ラベルセットの第1のノードラベルが表す時系列パターン記憶ネットワークnet11の勝者ノードを中心として更新するとともに、時系列パターン記憶ネットワークnet11の各入力ノードと、第1のノードラベルが表す時系列パターン記憶ネットワークnet11の勝者ノードとの結合重みを、第2のノードラベルが表す時系列パターン記憶ネットワークnet11の勝者ノードを中心として更新する。 In other words, the connection weight update unit 2333 stores the time series pattern storage represented by each node of the time series pattern storage network net 11 in the input / output relationship model M ′ 1112 stored in the storage unit 2511 and the second node label of the label set. the coupling weight between the winning node of the network net Non 11, each input node and updates about the winning node of the time series pattern storage network net Non 11 represented by the first node label label set, the time series pattern storage network net Non 11 when updates the connection weights between the time series pattern storage winning node of the network net Non 11 representing the first node label, around the winning node of sequence pattern storage network net Non 11 when represented by the second node label.

以上のような入出力関係モデルM'1112の学習処理によれば、入出力関係モデルM'1112(図47)が有する時系列パターン記憶ネットワークnet11のノードどうしの結合関係が、以下のように更新される。 'According to the learning process of the 1112, input-output relationship model M' input-output relationship model M as described above coupled node relationships to each other in time series pattern storage network net Non 11 having 1112 (FIG. 47) is found as follows Updated.

即ち、第1のノードラベルが表す勝者ノードは、注目フレームのセンサモータデータに対する勝者ノードであり、第2のノードラベルが表す勝者ノードは、注目フレームから入出力時間差Tだけ遅れたフレームのセンサモータデータに対する勝者ノードであるから、結合重み更新部2333による結合重みの更新によれば、記憶部2511に記憶された入出力関係モデルM'1112において、注目フレームのセンサモータデータに対する時系列パターン記憶ネットワークnet11の勝者ノードと、注目フレームから入出力時間差Tだけ遅れたフレームのセンサモータデータに対する時系列パターン記憶ネットワークnet11の勝者ノードとの結合重みが、より強くなるように更新される。 That is, the winner node represented by the first node label is the winner node for the sensor motor data of the frame of interest, and the winner node represented by the second node label is the sensor motor of the frame delayed by the input / output time difference T from the frame of interest. Since it is a winner node for the data, according to the update of the connection weight by the connection weight update unit 2333, the time series pattern storage network for the sensor motor data of the frame of interest in the input / output relation model M ′ 1112 stored in the storage unit 2511 and winning node of net Non 11, link weight between the winning node of the time series pattern storage network net Non 11 to the sensor motor data frame delayed by output time difference T from the target frame is updated to become stronger.

なお、図49の学習処理は、センサモータデータの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS1362乃至S1364の処理を繰り返し行うようにしてもよいし、センサモータデータの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS1362の処理を繰り返し行い、その後、再び、センサモータデータの先頭のフレームから終わりのフレームまでを、順次、注目フレームとして、ステップS1363およびS1364の処理を繰り返し行うようにしても良い。   In the learning process of FIG. 49, the processes from step S1362 to S1364 may be repeated with the attention frame from the first frame to the last frame of the sensor motor data, or the beginning of the sensor motor data. The process from step S1362 is repeated with the frame from the first frame to the end frame as the target frame in sequence, and then the steps from the first frame to the end frame of the sensor motor data are sequentially performed as the target frame again at steps S1363 and You may make it perform the process of S1364 repeatedly.

次に、図50のフローチャートを参照して、図48のロボットが行う認知行動の処理、即ち、入出力関係モデルM'1112を用いた時系列データの生成処理(認識生成処理)について説明する。 Next, a process of cognitive behavior performed by the robot of FIG. 48, that is, a process of generating time-series data (recognition generating process) using the input / output relation model M ′ 1112 will be described with reference to the flowchart of FIG.

例えば、図49で説明したように、ロボットに、目の前にあるボールを左右に転がすタスクを学習させた後、ロボットの前にボールをおくと(さらに、必要に応じて、ボールを転がすと)、センサ302において、ボールの状態が検知され、その状態を表す時系列のセンサデータが、データ処理装置501のデータ抽出部315に供給される。   For example, as described with reference to FIG. 49, when the robot learns the task of rolling the ball in front of the eyes to the left and right, and then puts the ball in front of the robot (and if necessary, the ball is rolled. ), The state of the ball is detected by the sensor 302, and time-series sensor data representing the state is supplied to the data extraction unit 315 of the data processing device 501.

データ抽出部315は、ステップS1371において、センサ302からのセンサデータと、モータ駆動部303からのモータデータとをコンポーネントとするベクトルの時系列を、入力データとして、その入力データから、フレーム単位の入力データを抽出し、認識部316に供給して、ステップS1372に進む。   In step S 1371, the data extraction unit 315 inputs a time series of vectors having the sensor data from the sensor 302 and the motor data from the motor drive unit 303 as components as input data, and inputs the frame unit from the input data. Data is extracted and supplied to the recognition unit 316, and the process proceeds to step S1372.

認識部316では、ステップS1372において、スコア計算部341が、データ抽出部315からのフレーム単位の入力データを、順次、注目フレームの入力データとして、その注目フレームの入力データに対して、記憶部2511に記憶された入出力関係モデルM'1112(図47)を構成する時系列パターン記憶ネットワークnet11の各ノードのスコアを計算し、勝者ノード決定部342に供給する。 In the recognition unit 316, in step S1372, the score calculation unit 341 sequentially uses the input data in units of frames from the data extraction unit 315 as the input data of the frame of interest, and the storage unit 2511 for the input data of the frame of interest. The score of each node of the time-series pattern storage network net 11 constituting the input / output relation model M ′ 1112 (FIG. 47) stored in is calculated and supplied to the winner node determination unit 342.

さらに、ステップS1372では、勝者ノード決定部342が、記憶部2511に記憶された入出力関係モデルM'1112を構成する時系列パターン記憶ネットワークnet11のノードの中で、スコア計算部341からのスコアが最も良いノードを、勝者ノードに決定し、その勝者ノードを表すノードラベルを、写像部317に供給して、ステップS1373に進む。 In step S 1372, the winner node determination unit 342 determines the score from the score calculation unit 341 among the nodes of the time-series pattern storage network net 11 constituting the input / output relationship model M ′ 1112 stored in the storage unit 2511. Is determined as the winner node, the node label representing the winner node is supplied to the mapping unit 317, and the process proceeds to step S1373.

ステップS1373では、写像部317の生成ノード決定部2351が、記憶部2511に記憶された入出力関係モデルM'1112を構成する時系列パターン記憶ネットワークnet11のノードの中で、勝者ノード決定部342からのノードラベルが表すノード(勝者ノード)との結合重みが最も強いノードを、生成ノードに決定し、その生成ノードを表すノードラベルを、生成部318に供給して、ステップS1374に進む。 In step S 1373, the generation node determination unit 2351 of the mapping unit 317 includes the winner node determination unit 342 among the nodes of the time-series pattern storage network net 11 constituting the input / output relationship model M ′ 1112 stored in the storage unit 2511. The node having the strongest connection weight with the node represented by the node label (winner node) is determined as a generation node, the node label indicating the generation node is supplied to the generation unit 318, and the process proceeds to step S1374.

ステップS1374では、生成部318の時系列生成部361が、記憶部2511に記憶された入出力関係モデルM'1112を構成する時系列パターン記憶ネットワークnet11のノードのうちの、生成ノード決定部2351からのノードラベルが表す生成ノードが有する時系列パターンモデル21(図7)に基づいて、注目フレームの入力データに対する出力データ(の推定値)としての、例えば、フレームの長さのセンサモータデータを生成して出力する。 In step S 1374, the time series generation unit 361 of the generation unit 318 generates the generation node determination unit 2351 among the nodes of the time series pattern storage network net 11 constituting the input / output relationship model M ′ 1112 stored in the storage unit 2511. Based on the time-series pattern model 21 (FIG. 7) of the generation node represented by the node label from, for example, the sensor motor data of the length of the frame as the output data (estimated value) for the input data of the frame of interest Generate and output.

この出力データとしてのセンサモータデータの一部のコンポーネントであるモータデータは、モータ駆動部303に供給され、モータ駆動部303が、時系列生成部361からのモータデータに基づき、モータを駆動することにより、ロボットのアームが動かされる。   Motor data, which is a component of sensor motor data as output data, is supplied to the motor drive unit 303, and the motor drive unit 303 drives the motor based on the motor data from the time series generation unit 361. As a result, the robot arm is moved.

以下、データ抽出部315から認識部316に対して供給されるフレーム単位の入力データについて、ステップS1372乃至S1374の処理が行われる。   Thereafter, the processes in steps S1372 to S1374 are performed on the input data in units of frames supplied from the data extraction unit 315 to the recognition unit 316.

以上のように、図48のロボットでは、時系列パターン記憶ネットワークnet11の、フレーム単位のセンサモータデータに対する勝者ノードと、フレーム単位のセンサモータデータの時刻から入出力時間差だけ遅れたフレーム単位のセンサモータデータに対する勝者ノードとの結合重みを強めるように更新するので、図41のロボットの場合と同様に、例えば、目の前にあるボールを左右に転がすタスクのような実時間性が要求されるタスクを学習し、そのようなタスクを行うことができるようになる。 As described above, in the robot of FIG. 48, the winner node for the frame-unit sensor motor data in the time-series pattern storage network net 11 and the frame-unit sensor delayed by the input / output time difference from the time of the frame-unit sensor motor data. Since the update is performed so as to increase the connection weight with the winner node with respect to the motor data, for example, a real-time property such as a task of rolling the ball in front of the left and right is required as in the case of the robot of FIG. Learn tasks and be able to do such tasks.

さらに、図48のロボットにおいては、図41のロボットが利用する図42の入出力関係モデルM1112が有する入力ネットワークnet11および出力ネットワークnet12を、1つの時系列パターン記憶ネットワークnet11で代用した入出力関係モデルM'1112(図47)を利用しているため、1つ分の時系列パターン記憶ネットワーク(出力ネットワークnet12)を記憶するのに必要な記憶容量を節約することができる。 Further, in the robot of FIG. 48, the input network net Non 11 and output network net Non 12 input-output relationship model M 1112 of Figure 42 that the robot of FIG. 41 is utilized with, and replaced by one time series pattern storage network net Non 11 Since the input / output relation model M ′ 1112 (FIG. 47) is used, the storage capacity required to store one time-series pattern storage network (output network net 12 ) can be saved.

次に、例えば、図41のロボットのように(図48のロボットについても同様)、入力データおよび出力データとして、同一のセンサモータデータを採用する場合には、そのセンサモータデータに対して、学習時や認知行動時に求めるスコアとしては、センサモータデータのコンポーネントの一部である、例えば、センサデータに対するスコアと、残りのモータデータに対するスコアとの重み付け加算をすることにより得られる重み付け加算値(以下、適宜、重み付けスコアともいう)を採用することができる。   Next, for example, when the same sensor motor data is adopted as input data and output data as in the robot of FIG. 41 (the same applies to the robot of FIG. 48), learning is performed on the sensor motor data. As a score to be obtained at the time or at the time of cognitive behavior, for example, a weighted addition value obtained by weighted addition of a score for sensor data and a score for remaining motor data, which is a part of the component of sensor motor data (hereinafter, , Also referred to as a weighting score as appropriate).

重み付けスコアは、例えば、ノードが有する1つのHMMなどの時系列パターンモデル21(図7)を用いての、センサモータデータに対するスコアの計算を、センサモータデータのうちのセンサデータとモータデータとに、それぞれ、必要な重みを付して行うことにより求めることができる。   For the weighting score, for example, the calculation of the score for the sensor motor data using the time series pattern model 21 (FIG. 7) such as one HMM of the node is used as the sensor data and the motor data of the sensor motor data. These can be obtained by adding necessary weights.

あるいは、例えば、ノードに、センサデータ用の時系列パターンモデルと、モータデータ用の時系列パターンモデルとの2つの時系列パターンモデルを設け、センサデータ用の時系列パターンモデルを用いて得られるスコアと、モータデータ用の時系列パターンモデルを用いて得られるスコアとを重み付け加算することにより、重み付けスコアを求めるようにすることができる。   Alternatively, for example, a node is provided with two time series pattern models, a time series pattern model for sensor data and a time series pattern model for motor data, and a score obtained using the time series pattern model for sensor data And a score obtained using a time-series pattern model for motor data can be weighted to obtain a weighted score.

なお、センサデータに対するスコアと、モータデータに対するスコアとにそれぞれ付す重みについては、重みの調整用の調整パラメータを導入し、例えば、ユーザの操作に応じて、調整パラメータを設定することで、センサデータとモータデータとのうちのいずれに重きをおくかを設定し、さらには、その重きをおく程度を、例えば、タスクごとに設定することができる。調整パラメータを適切に設定することで、安定したタスクの実行が可能となる。   In addition, about the weight attached | subjected to the score with respect to sensor data and the score with respect to motor data, the adjustment parameter for adjustment of a weight is introduce | transduced, for example, sensor data is set by setting an adjustment parameter according to a user's operation. It is possible to set which of the motor data and the motor data is to be weighted, and further to set the degree of weighting for each task, for example. By appropriately setting the adjustment parameters, it is possible to execute a stable task.

ここで、センサデータとモータデータとのうちのいずれに重きをおくかによって、ロボットが行う認知行動が異なるものとなる実験結果が得られている。   Here, experimental results have been obtained in which the cognitive behavior performed by the robot differs depending on which of the sensor data and the motor data is emphasized.

次に、上述した一連の処理は、専用のハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータやマイクロコンピュータ(コントローラ)等にインストールされる。   Next, the series of processes described above can be performed by dedicated hardware or by software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer, a microcomputer (controller), or the like.

そこで、図51は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。   Therefore, FIG. 51 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.

プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク10105やROM10103に予め記録しておくことができる。   The program can be recorded in advance in a hard disk 10105 or a ROM 10103 as a recording medium built in the computer.

あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体10111に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体10111は、いわゆるパッケージソフトウエアとして提供することができる。   Alternatively, the program is temporarily stored in a removable recording medium 10111 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored permanently (recorded). Such a removable recording medium 10111 can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体10111からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部10108で受信し、内蔵するハードディスク10105にインストールすることができる。   The program is installed on the computer from the removable recording medium 10111 as described above, or transferred from the download site to the computer wirelessly via a digital satellite broadcasting artificial satellite, or a LAN (Local Area Network), The program can be transferred to a computer via a network such as the Internet. The computer can receive the program transferred in this way by the communication unit 10108 and install it in the built-in hard disk 10105.

コンピュータは、CPU(Central Processing Unit)10102を内蔵している。CPU10102には、バス10101を介して、入出力インタフェース10110が接続されており、CPU10102は、入出力インタフェース10110を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部10107が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)10103に格納されているプログラムを実行する。あるいは、また、CPU10102は、ハードディスク10105に格納されているプログラム、衛星若しくはネットワークから転送され、通信部10108で受信されてハードディスク10105にインストールされたプログラム、またはドライブ10109に装着されたリムーバブル記録媒体10111から読み出されてハードディスク10105にインストールされたプログラムを、RAM(Random Access Memory)10104にロードして実行する。これにより、CPU10102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU10102は、その処理結果を、必要に応じて、例えば、入出力インタフェース10110を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部10106から出力、あるいは、通信部10108から送信、さらには、ハードディスク10105に記録等させる。   The computer includes a CPU (Central Processing Unit) 10102. An input / output interface 10110 is connected to the CPU 10102 via a bus 10101, and the CPU 10102 is operated by an input unit 10107 including a keyboard, a mouse, a microphone, and the like by the user via the input / output interface 10110. When a command is input as a result, the program stored in a ROM (Read Only Memory) 10103 is executed accordingly. Alternatively, the CPU 10102 may be a program stored in the hard disk 10105, a program transferred from a satellite or a network, received by the communication unit 10108, installed in the hard disk 10105, or a removable recording medium 10111 installed in the drive 10109. The program read and installed in the hard disk 10105 is loaded into a RAM (Random Access Memory) 10104 and executed. Thus, the CPU 10102 performs processing according to the above-described flowchart or processing performed by the configuration of the above-described block diagram. Then, the CPU 10102 outputs the processing result from the output unit 10106 configured with an LCD (Liquid Crystal Display), a speaker, or the like, for example, via the input / output interface 10110, or from the communication unit 10108 as necessary. Transmission, and further recording on the hard disk 10105 and the like.

なお、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。   In this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in chronological order according to the order described in the flowchart, and are executed in parallel or individually. Processing to be performed (for example, parallel processing or object processing) is also included.

また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。   Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

ここで、モータデータには、モータを駆動するためのデータの他、広く、外部に働きかける装置、または刺激を与える装置を駆動するためのデータを含む。外部に働きかける装置または刺激を与える装置としては、モータの他、光を発することにより画像を表示するディスプレイや、音声を出力するスピーカ等があり、従って、モータデータには、モータを駆動するためのデータの他、ディスプレイに表示させる画像に対応する画像データや、スピーカから出力する音声に対応する音声データ等が含まれる。   Here, the motor data includes, in addition to data for driving a motor, data for driving a device that works widely or a device that gives a stimulus. As a device that works to the outside or a device that gives a stimulus, there are a display that displays an image by emitting light, a speaker that outputs sound, etc. in addition to a motor. Therefore, motor data is used to drive a motor. In addition to data, image data corresponding to an image to be displayed on a display, audio data corresponding to sound output from a speaker, and the like are included.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

また、本発明は、ロボットの他、例えば、テレビジョン受像機やHDレコーダなどのAV(Audio Visual)機器、コンピュータ、その他の装置における、ユーザインタフェース(ヒューマンインタフェース)に適用することが可能である。   Further, the present invention can be applied to a user interface (human interface) in, for example, an AV (Audio Visual) device such as a television receiver and an HD recorder, a computer, and other devices in addition to a robot.

制御対象と、順モデルおよび逆モデルとを説明するための図である。It is a figure for demonstrating a control object, a forward model, and an inverse model. 制御対象としての想定ロボットと、その想定ロボットの順モデルとを示す図である。It is a figure which shows the assumption robot as a control object, and the forward model of the assumption robot. 制御対象としてのロボットのアームと、そのアームの逆モデルを利用したアーム制御器とを示す図である。It is a figure which shows the arm of the robot as a control object, and the arm controller using the inverse model of the arm. 線形システムを用いたモデル化を説明するための図である。It is a figure for demonstrating modeling using a linear system. 教師あり学習の一例を説明するための図である。It is a figure for demonstrating an example of supervised learning. 時系列パターン記憶ネットワークの第1の構成例を示す図である。It is a figure which shows the 1st structural example of a time series pattern storage network. ノードの構成例を示す図である。It is a figure which shows the structural example of a node. 時系列パターン記憶ネットワークの第2の構成例を示す図である。It is a figure which shows the 2nd structural example of a time series pattern storage network. 時系列パターン記憶ネットワークの第3の構成例を示す図である。It is a figure which shows the 3rd structural example of a time series pattern storage network. 時系列パターン記憶ネットワークを用いた処理を行うデータ処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the data processor which performs the process using a time series pattern storage network. 学習部4の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a learning unit 4. FIG. 学習処理部32の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a learning processing unit 32. FIG. 更新重みを決定する決定方法を説明するための図である。It is a figure for demonstrating the determination method which determines an update weight. 学習データ記憶部22に記憶させる学習データを更新する更新方法を説明するための図である。It is a figure for demonstrating the update method which updates the learning data memorize | stored in the learning data storage part. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 認識部3の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a recognition unit 3. FIG. 認識処理を説明するフローチャートである。It is a flowchart explaining a recognition process. 生成部6の構成例を示すブロック図である。3 is a block diagram illustrating a configuration example of a generation unit 6. FIG. 生成処理を説明するフローチャートである。It is a flowchart explaining a production | generation process. 入出力関係モデルの構成例を示す図である。It is a figure which shows the structural example of an input / output relationship model. 入出力関係モデルを用いた処理を行うデータ処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the data processor which performs the process using an input / output relationship model. 入出力関係モデルの学習を説明するフローチャートである。It is a flowchart explaining learning of an input / output relationship model. 結合重み行列を示す図である。It is a figure which shows a connection weight matrix. 入出力関係モデルを用いて、出力データまたは制御データを推定する処理を説明するフローチャートである。It is a flowchart explaining the process which estimates output data or control data using an input-output relationship model. 実時間性が要求されるタスクを行うロボットの第1の構成例を示すブロック図である。It is a block diagram which shows the 1st structural example of the robot which performs the task for which real-time property is requested | required. 入出力関係モデルM11を示す図である。It is a diagram showing the input-output relationship model M 11. データ抽出部213の処理を説明するための図である。It is a figure for demonstrating the process of the data extraction part. 読み出し部332の処理を説明するための図である。FIG. 10 is a diagram for explaining processing of a reading unit 332; 入出力関係モデルM11の学習を説明するためのフローチャートである。It is a flowchart illustrating the learning of the input-output relationship model M 11. 入出力関係モデルM11を用いて時系列データを生成する認識生成処理を説明するフローチャートである。Is a flowchart illustrating the recognition generating process of generating time-series data by using the input-output relationship model M 11. 入出力時間差として、勝者ノードを決定する処理に要する時間△を考慮した時間を採用した場合の、入力データと出力データとを示す図である。It is a figure which shows input data and output data when the time which considered time (DELTA) required for the process which determines a winner node is employ | adopted as an input / output time difference. 実時間性が要求されるタスクを行うロボットの第2の構成例を示すブロック図である。It is a block diagram which shows the 2nd structural example of the robot which performs the task for which real time property is requested | required. 入出力関係モデルM123を示す図である。It is a figure which shows the input / output relationship model M123 . 読み出し部432の処理を説明するための図である。FIG. 10 is a diagram for explaining processing of a reading unit 432; 入出力関係モデルM123の学習を説明するためのフローチャートである。12 is a flowchart for explaining learning of an input / output relationship model M123 . 入出力関係モデルM123を用いて時系列データを生成する認識生成処理を説明するフローチャートである。10 is a flowchart for explaining recognition generation processing for generating time-series data using an input / output relationship model M123 . 入出力関係モデルM'123を示す図である。Is a diagram showing the input-output relationship model M '123. 実時間性が要求されるタスクを行うロボットの第3の構成例を示すブロック図である。It is a block diagram which shows the 3rd structural example of the robot which performs the task for which real time property is requested | required. 入出力関係モデルM'123の学習を説明するためのフローチャートである。It is a flowchart illustrating the learning of the input-output relationship model M '123. 入出力関係モデルM'123を用いて時系列データを生成する認識生成処理を説明するフローチャートである。Is a flowchart illustrating the recognition generating process of generating time-series data by using the input-output relationship model M '123. 実時間性が要求されるタスクを行うロボットの第4の構成例を示すブロック図である。It is a block diagram which shows the 4th structural example of the robot which performs the task for which real time property is requested | required. 入出力関係モデルM1112を示す図である。It is a figure showing an input / output relationship model M1112 . データ抽出部512で扱う入力データと出力データを説明するための図である。It is a figure for demonstrating the input data and output data which the data extraction part 512 handles. 読み出し部332の処理を説明するための図である。FIG. 10 is a diagram for explaining processing of a reading unit 332; 入出力関係モデルM1112の学習を説明するためのフローチャートである。12 is a flowchart for explaining learning of an input / output relationship model M1112 . 入出力関係モデルM1112を用いて時系列データを生成する認識生成処理を説明するフローチャートである。10 is a flowchart for explaining a recognition generation process for generating time-series data using an input / output relation model M1112 . 入出力関係モデルM'1112を示す図である。FIG. 10 is a diagram showing an input / output relationship model M ′ 1112 . 実時間性が要求されるタスクを行うロボットの第5の構成例を示すブロック図である。It is a block diagram which shows the 5th structural example of the robot which performs the task for which real time property is requested | required. 入出力関係モデルM'1112の学習を説明するためのフローチャートである。10 is a flowchart for explaining learning of an input / output relation model M ′ 1112 . 入出力関係モデルM'1112を用いて時系列データを生成する認識生成処理を説明するフローチャートである。12 is a flowchart for explaining a recognition generation process for generating time-series data using an input / output relation model M′1112 . 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this invention is applied.

符号の説明Explanation of symbols

1 信号入力部, 2 特徴抽出部, 3 認識部, 4 学習部, 5 記憶部, 6 生成部, 21 時系列パターンモデル, 22 学習データ記憶部, 31 時系列データ記憶部, 32 学習処理部, 41 スコア計算部, 42 勝者ノード決定部, 43 重み決定部, 44 学習データ更新部, 45 モデル学習部, 51 スコア計算部, 52 勝者ノード決定部, 53 出力部, 61 生成ノード決定部, 62 時系列決定部, 63 出力部, 211 記憶部, 212 学習部, 213 認識生成部, 221 学習処理部, 222 結合重み更新部, 231 スコア計算部, 232 勝者ノード決定部, 233 生成ノード決定部, 234 時系列生成部, 301 データ処理装置, 302 センサ, 303 モータ駆動部, 311 記憶部, 312 データ抽出部, 313 学習処理部, 314 写像学習部, 315 データ抽出部, 316 認識部, 317 写像部, 318 生成部, 321 認識学習処理部, 322 生成学習処理部, 331 データバッファ, 332 読み出し部, 333 結合重み更新部, 341 スコア計算部, 342 勝者ノード決定部, 351 生成ノード決定部, 361 時系列生成部, 401 データ処理装置, 411 記憶部, 417 写像部, 421 認識学習処理部, 432 読み出し部, 433 結合重み更新部, 451 生成ノード決定部, 501 データ処理装置, 511 記憶部, 512 データ抽出部, 1411 記憶部, 1432 読み出し部, 1433 結合重み更新部, 1451 生成ノード決定部, 2511 記憶部, 2332 読み出し部, 2333 結合重み更新部, 2351 生成ノード決定部, 10101 バス, 10102 CPU, 10103 ROM, 10104 RAM, 10105 ハードディスク, 10106 出力部, 10107 入力部, 10108 通信部, 10109 ドライブ, 10110 入出力インタフェース, 10111 リムーバブル記録媒体
1 signal input unit, 2 feature extraction unit, 3 recognition unit, 4 learning unit, 5 storage unit, 6 generation unit, 21 time series pattern model, 22 learning data storage unit, 31 time series data storage unit, 32 learning processing unit, 41 score calculation unit, 42 winner node determination unit, 43 weight determination unit, 44 learning data update unit, 45 model learning unit, 51 score calculation unit, 52 winner node determination unit, 53 output unit, 61 generation node determination unit, 62:00 Sequence determination unit, 63 output unit, 211 storage unit, 212 learning unit, 213 recognition generation unit, 221 learning processing unit, 222 bond weight update unit, 231 score calculation unit, 232 winner node determination unit, 233 generation node determination unit, 234 Time series generation unit, 301 data processing device, 302 sensor, 303 motor drive unit, 311 storage unit, 312 data extraction unit, 313 learning processing unit, 314 mapping learning unit, 315 data extraction unit, 316 recognition unit, 317 mapping unit, 318 generation unit, 321 recognition learning processing unit, 322 generation learning processing unit, 331 data buffer, 332 reading unit, 333 coupling weight Update unit, 341 score calculation unit, 342 winner node determination unit, 351 generation node determination unit, 361 time series generation unit, 401 data processing device, 411 storage unit, 417 mapping unit, 421 recognition learning processing unit, 432 reading unit, 433 Connection weight update unit, 451 generation node determination unit, 501 data processing device, 511 storage unit, 512 data extraction unit, 1411 storage unit, 1432 read unit, 1433 connection weight update unit, 1451 generation node determination unit, 2511 storage unit, 2332 Read-out unit, 2333 Department, 2351 generation node determination unit, 10101 bus, 10102 CPU, 10103 ROM, 10104 RAM, 10105 hard disks, 10106 output, 10107 input unit, 10108 communication unit, 10109 drives, 10110 output interface, 10111 removable recording medium

Claims (16)

時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置において、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出する入出力データ抽出手段と、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第1の入力勝者ノードを決定し、前記第1の入力勝者ノードに基づいて、前記第1の入力時系列パターン記憶ネットワークを、自己組織的に更新する第1の認識学習処理手段と、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第2の入力勝者ノードを決定し、前記第2の入力勝者ノードに基づいて、前記第2の入力時系列パターン記憶ネットワークを、自己組織的に更新する第2の認識学習処理手段と、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新する生成学習処理手段と、
前記第1の入力時系列パターン記憶ネットワークの前記所定の時間単位の入力データに対する前記第1の入力勝者ノードと、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う結合重み更新手段と
を備えるデータ処理装置。
In a data processing device that learns the relationship between input data that is time-series data and output data that is other time-series data,
Input / output data extraction means for extracting input data in a predetermined time unit from the input data and extracting the output data in the predetermined time unit from the output data;
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data, and a second input time series pattern storage Network,
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output A node that is most suitable for the input data of the predetermined time unit among the nodes of the first input time-series pattern storage network in the input / output relation model that is coupled to the node of the time-series pattern storage network. A first recognition learning processing means for determining one input winner node and updating the first input time-series pattern storage network in a self-organized manner based on the first input winner node;
A second input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the second input time-series pattern storage network, and based on the second input winner node A second recognition learning processing means for updating the second input time-series pattern storage network in a self-organizing manner;
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. Generation learning processing means for self-organizing updating,
The first input winner node for the input data of the predetermined time unit of the first input time series pattern storage network and the input data of the predetermined time unit of the second input time series pattern storage network A process of updating so as to increase the coupling weight indicating the degree of coupling with the second input winner node for the input data in the predetermined time unit delayed by a certain time from the time;
The second input winner node for the input data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the second input time series pattern storage network, and the output time Update the sequence pattern storage network to increase the connection weight indicating the degree of connection with the output winner node for the output data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit. A data processing device comprising: a connection weight update unit that performs the following process:
前記入力データは、外部の状態を検知するセンサを有するロボットに所定の行動をさせたときに、前記センサが出力する外部の状態を表す時系列のセンサデータであり、
前記出力データは、前記ロボットに前記所定の行動させるときに、前記ロボットを駆動するモータに供給される時系列のモータデータである
請求項1に記載のデータ処理装置。
The input data is time-series sensor data representing an external state output by the sensor when a robot having a sensor for detecting an external state performs a predetermined action.
The data processing apparatus according to claim 1, wherein the output data is time-series motor data supplied to a motor that drives the robot when the robot makes the predetermined action.
時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置のデータ処理方法において、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出し、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第1の入力勝者ノードを決定し、前記第1の入力勝者ノードに基づいて、前記第1の入力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第2の入力勝者ノードを決定し、前記第2の入力勝者ノードに基づいて、前記第2の入力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記第1の入力時系列パターン記憶ネットワークの前記所定の時間単位の入力データに対する前記第1の入力勝者ノードと、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う
ステップを含むデータ処理方法。
In a data processing method of a data processing device that learns a relationship between input data that is time-series data and output data that is other time-series data,
Extracting the input data in a predetermined time unit from the input data, and extracting the output data in the predetermined time unit from the output data;
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data, and a second input time series pattern storage Network,
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output A node that is most suitable for the input data of the predetermined time unit among the nodes of the first input time-series pattern storage network in the input / output relation model that is coupled to the node of the time-series pattern storage network. 1 input winner node is determined, and based on the first input winner node, the first input time series pattern storage network is updated in a self-organizing manner,
A second input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the second input time-series pattern storage network, and based on the second input winner node Updating the second input time-series pattern storage network in a self-organizing manner,
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. Updated in a self-organizing manner
The first input winner node for the input data of the predetermined time unit of the first input time series pattern storage network and the input data of the predetermined time unit of the second input time series pattern storage network A process of updating so as to increase the coupling weight indicating the degree of coupling with the second input winner node for the input data in the predetermined time unit delayed by a certain time from the time;
The second input winner node for the input data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the second input time series pattern storage network, and the output time Update the sequence pattern storage network to increase the connection weight indicating the degree of connection with the output winner node for the output data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit. A data processing method including steps for performing and steps.
時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理を、コンピュータに実行させるプログラムにおいて、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出し、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第1の入力勝者ノードを決定し、前記第1の入力勝者ノードに基づいて、前記第1の入力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである第2の入力勝者ノードを決定し、前記第2の入力勝者ノードに基づいて、前記第2の入力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記第1の入力時系列パターン記憶ネットワークの前記所定の時間単位の入力データに対する前記第1の入力勝者ノードと、前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記第2の入力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う
ステップを含む前記データ処理を、コンピュータに実行させるプログラム。
In a program that causes a computer to execute data processing for learning the relationship between input data that is time-series data and output data that is other time-series data,
Extracting the input data in a predetermined time unit from the input data, and extracting the output data in the predetermined time unit from the output data;
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data, and a second input time series pattern storage Network,
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output A node that is most suitable for the input data of the predetermined time unit among the nodes of the first input time-series pattern storage network in the input / output relation model that is coupled to the node of the time-series pattern storage network. 1 input winner node is determined, and based on the first input winner node, the first input time series pattern storage network is updated in a self-organizing manner,
A second input winner node which is a node most suitable for the input data of the predetermined time unit is determined from the nodes of the second input time-series pattern storage network, and based on the second input winner node Updating the second input time-series pattern storage network in a self-organizing manner,
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. Updated in a self-organizing manner
The first input winner node for the input data of the predetermined time unit of the first input time series pattern storage network and the input data of the predetermined time unit of the second input time series pattern storage network A process of updating so as to increase the coupling weight indicating the degree of coupling with the second input winner node for the input data in the predetermined time unit delayed by a certain time from the time;
The second input winner node for the input data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the second input time series pattern storage network, and the output time Update the sequence pattern storage network to increase the connection weight indicating the degree of connection with the output winner node for the output data of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit. A program that causes a computer to execute the data processing including the steps of:
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置において、
前記入力データから所定の時間単位の入力データを抽出する入力データ抽出手段と、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定する入力勝者ノード決定手段と、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定する生成ノード決定手段と、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する生成手段と
を備えるデータ処理装置。
For input data that is time-series data, in a data processing device that generates output data that is other time-series data,
Input data extracting means for extracting input data in a predetermined time unit from the input data;
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data, and a second input time series pattern storage Network,
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output An input which is the most suitable node for the input data in the predetermined time unit from among the nodes of the first input time-series pattern storage network in the input / output relation model that is coupled to the node of the time-series pattern storage network An input winner node determining means for determining a winner node;
From the nodes of the second input time-series pattern storage network, a strongest connection node that is the strongest node with the input winner node is obtained, and from the nodes of the output time-series pattern storage network, the strongest connection node is obtained. Generation node determination means for determining a node having the strongest connection with a combination node as a generation node that generates the output data;
A data processing apparatus comprising: generation means for generating the output data based on the time-series pattern model of the generation node.
前記入力データは、外部の状態を検知する、ロボットが有するセンサが出力する外部の状態を表す時系列のセンサデータであり、
前記出力データは、前記ロボットを駆動するモータに供給される時系列のモータデータである
請求項5に記載のデータ処理装置。
The input data is time-series sensor data representing an external state output by a sensor included in the robot that detects an external state.
The data processing apparatus according to claim 5, wherein the output data is time-series motor data supplied to a motor that drives the robot.
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置のデータ処理方法において、
前記入力データから所定の時間単位の入力データを抽出し、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定し、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する
ステップを含むデータ処理方法。
In the data processing method of the data processing apparatus for generating output data that is other time-series data with respect to input data that is time-series data,
Extracting input data in a predetermined time unit from the input data,
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data, and a second input time series pattern storage Network,
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output An input which is the most suitable node for the input data in the predetermined time unit from among the nodes of the first input time-series pattern storage network in the input / output relation model that is coupled to the node of the time-series pattern storage network Determine the winner node,
From the nodes of the second input time-series pattern storage network, a strongest connection node that is the strongest node with the input winner node is obtained, and from the nodes of the output time-series pattern storage network, the strongest connection node is obtained. A node having the strongest combination with the combination node is determined as a generation node that generates the output data;
A data processing method including a step of generating the output data based on the time-series pattern model of the generation node.
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理を、コンピュータに実行させるプログラムにおいて、
前記入力データから所定の時間単位の入力データを抽出し、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される第1の入力時系列パターン記憶ネットワーク、および第2の入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記第1の入力時系列パターン記憶ネットワークのノードと、前記第2の入力時系列パターン記憶ネットワークのノードとが結合されているとともに、前記第2の入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記第1の入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、
前記第2の入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定し、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する
ステップを含む前記データ処理を、コンピュータに実行させるプログラム。
In a program that causes a computer to execute data processing for generating output data that is other time-series data for input data that is time-series data,
Extracting input data in a predetermined time unit from the input data,
A first input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern that is a pattern of time series data as the input data, and a second input time series pattern storage Network,
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The node of the first input time series pattern storage network and the node of the second input time series pattern storage network are coupled, the node of the second input time series pattern storage network, and the output An input which is the most suitable node for the input data in the predetermined time unit from among the nodes of the first input time-series pattern storage network in the input / output relation model that is coupled to the node of the time-series pattern storage network Determine the winner node,
From the nodes of the second input time-series pattern storage network, a strongest connection node that is the strongest node with the input winner node is obtained, and from the nodes of the output time-series pattern storage network, the strongest connection node is obtained. A node having the strongest combination with the combination node is determined as a generation node that generates the output data;
A program that causes a computer to execute the data processing including the step of generating the output data based on the time-series pattern model of the generation node.
時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置において、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出する入出力データ抽出手段と、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、前記入力勝者ノードに基づいて、前記入力時系列パターン記憶ネットワークを、自己組織的に更新する認識学習処理手段と、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新する生成学習処理手段と、
前記入力時系列パターン記憶ネットワークの前記入力勝者ノードのうちの、前記所定の時間単位の入力データに対する第1の入力勝者ノードと、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記入力時系列パターン記憶ネットワークの前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う結合重み更新手段と
を備えるデータ処理装置。
In a data processing device that learns the relationship between input data that is time-series data and output data that is other time-series data,
Input / output data extraction means for extracting input data in a predetermined time unit from the input data and extracting the output data in the predetermined time unit from the output data;
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern which is a pattern of time series data as the input data;
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The nodes of the input time series pattern storage network are coupled to each other, and the nodes of the input time series pattern storage network and the nodes of the output time series pattern storage network are coupled to each other. From among the nodes of the time-series pattern storage network, determine an input winner node that is the most suitable node for the input data of the predetermined time unit, and based on the input winner node, the input time-series pattern storage network, Cognitive learning processing means for self-organizing updating;
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. Generation learning processing means for self-organizing updating,
Of the input winner nodes of the input time-series pattern storage network, the first input winner node for the input data in the predetermined time unit is delayed by a certain time from the time of the input data in the predetermined time unit Updating to increase the connection weight representing the degree of connection with the second input winner node for the input data in the predetermined time unit;
The second input winner node of the input time series pattern storage network and the output of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the output time series pattern storage network A data processing apparatus comprising: a connection weight updating unit configured to update the data so as to increase a connection weight representing a degree of connection with the output winner node for data.
前記入力データは、外部の状態を検知するセンサを有するロボットに所定の行動をさせたときに、前記センサが出力する外部の状態を表す時系列のセンサデータであり、
前記出力データは、前記ロボットに前記所定の行動させるときに、前記ロボットを駆動するモータに供給される時系列のモータデータである
請求項9に記載のデータ処理装置。
The input data is time-series sensor data representing an external state output by the sensor when a robot having a sensor for detecting an external state performs a predetermined action.
The data processing apparatus according to claim 9, wherein the output data is time-series motor data supplied to a motor that drives the robot when the robot makes the predetermined action.
時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理装置のデータ処理方法において、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出し、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、前記入力勝者ノードに基づいて、前記入力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記入力時系列パターン記憶ネットワークの前記入力勝者ノードのうちの、前記所定の時間単位の入力データに対する第1の入力勝者ノードと、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記入力時系列パターン記憶ネットワークの前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う
ステップを含むデータ処理方法。
In a data processing method of a data processing device that learns a relationship between input data that is time-series data and output data that is other time-series data,
Extracting the input data in a predetermined time unit from the input data, and extracting the output data in the predetermined time unit from the output data;
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern which is a pattern of time series data as the input data;
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The nodes of the input time series pattern storage network are coupled to each other, and the nodes of the input time series pattern storage network and the nodes of the output time series pattern storage network are coupled to each other. From among the nodes of the time-series pattern storage network, determine an input winner node that is the most suitable node for the input data of the predetermined time unit, and based on the input winner node, the input time-series pattern storage network, Self-organizing,
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. Updated in a self-organizing manner
Of the input winner nodes of the input time-series pattern storage network, the first input winner node for the input data in the predetermined time unit is delayed by a certain time from the time of the input data in the predetermined time unit Updating to increase the connection weight representing the degree of connection with the second input winner node for the input data in the predetermined time unit;
The second input winner node of the input time series pattern storage network and the output of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the output time series pattern storage network And a process of updating the data so as to increase the coupling weight indicating the degree of coupling with the output winner node for the data.
時系列データである入力データと、他の時系列のデータである出力データとの関係の学習を行うデータ処理を、コンピュータに実行させるプログラムにおいて、
前記入力データから所定の時間単位の入力データを抽出するとともに、前記出力データから前記所定の時間単位の出力データを抽出し、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、前記入力勝者ノードに基づいて、前記入力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記出力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の出力データに最も適合するノードである出力勝者ノードを決定し、前記出力勝者ノードに基づいて、前記出力時系列パターン記憶ネットワークを、自己組織的に更新し、
前記入力時系列パターン記憶ネットワークの前記入力勝者ノードのうちの、前記所定の時間単位の入力データに対する第1の入力勝者ノードと、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の入力データに対する第2の入力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と、
前記入力時系列パターン記憶ネットワークの前記第2の入力勝者ノードと、前記出力時系列パターン記憶ネットワークの、前記所定の時間単位の入力データの時刻から一定の時間だけ遅れた前記所定の時間単位の出力データに対する前記出力勝者ノードとの結合の度合いを表す結合重みを強めるように更新する処理と
を行う
ステップを含む前記データ処理を、コンピュータに実行させるプログラム。
In a program that causes a computer to execute data processing for learning the relationship between input data that is time-series data and output data that is other time-series data,
Extracting the input data in a predetermined time unit from the input data, and extracting the output data in the predetermined time unit from the output data;
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern which is a pattern of time series data as the input data;
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The nodes of the input time series pattern storage network are coupled to each other, and the nodes of the input time series pattern storage network and the nodes of the output time series pattern storage network are coupled to each other. From among the nodes of the time-series pattern storage network, determine an input winner node that is the most suitable node for the input data of the predetermined time unit, and based on the input winner node, the input time-series pattern storage network Self-organizing,
An output winner node which is a node most suitable for the output data of the predetermined time unit is determined from the nodes of the output time series pattern storage network, and the output time series pattern storage network is determined based on the output winner node. Updated in a self-organizing manner
Of the input winner nodes of the input time-series pattern storage network, the first input winner node for the input data in the predetermined time unit is delayed by a certain time from the time of the input data in the predetermined time unit Updating to increase the connection weight representing the degree of connection with the second input winner node for the input data in the predetermined time unit;
The second input winner node of the input time series pattern storage network and the output of the predetermined time unit delayed by a predetermined time from the time of the input data of the predetermined time unit of the output time series pattern storage network A program that causes a computer to execute the data processing including the step of updating the data so as to increase a connection weight representing a degree of connection with the output winner node for data.
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置において、
前記入力データから所定の時間単位の入力データを抽出する入力データ抽出手段と、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定する入力勝者ノード決定手段と、
前記入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定する生成ノード決定手段と、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する生成手段と
を備えるデータ処理装置。
For input data that is time-series data, in a data processing device that generates output data that is other time-series data,
Input data extracting means for extracting input data in a predetermined time unit from the input data;
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern which is a pattern of time series data as the input data;
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The nodes of the input time series pattern storage network are coupled to each other, and the nodes of the input time series pattern storage network and the nodes of the output time series pattern storage network are coupled to each other. An input winner node determining means for determining an input winner node which is a node most suitable for the input data of the predetermined time unit from the nodes of the time-series pattern storage network;
From the nodes of the input time series pattern storage network, find the strongest coupling node that is the strongest node with the input winner node, and from among the nodes of the output time series pattern storage network, Generating node determining means for determining a node having the strongest combination as a generating node for generating the output data;
A data processing apparatus comprising: generation means for generating the output data based on the time-series pattern model of the generation node.
前記入力データは、外部の状態を検知する、ロボットが有するセンサが出力する外部の状態を表す時系列のセンサデータであり、
前記出力データは、前記ロボットを駆動するモータに供給される時系列のモータデータである
請求項13に記載のデータ処理装置。
The input data is time-series sensor data representing an external state output by a sensor included in the robot that detects an external state.
The data processing apparatus according to claim 13, wherein the output data is time-series motor data supplied to a motor that drives the robot.
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理装置のデータ処理方法において、
前記入力データから所定の時間単位の入力データを抽出し、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、
前記入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定し、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する
ステップを含むデータ処理方法。
In the data processing method of the data processing apparatus for generating output data that is other time-series data with respect to input data that is time-series data,
Extracting input data in a predetermined time unit from the input data,
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern which is a pattern of time series data as the input data;
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The nodes of the input time series pattern storage network are coupled to each other, and the nodes of the input time series pattern storage network and the nodes of the output time series pattern storage network are coupled to each other. From among the nodes of the time-series pattern storage network, determine an input winner node that is a node most suitable for the input data of the predetermined time unit,
From the nodes of the input time series pattern storage network, find the strongest coupling node that is the strongest node with the input winner node, and from among the nodes of the output time series pattern storage network, A node having the strongest coupling is determined as a generation node that generates the output data,
A data processing method including a step of generating the output data based on the time series pattern model of the generation node.
時系列データである入力データに対して、他の時系列データである出力データを生成するデータ処理を、コンピュータに実行させるプログラムにおいて、
前記入力データから所定の時間単位の入力データを抽出し、
前記入力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される入力時系列パターン記憶ネットワークと、
前記出力データとしての時系列データのパターンである時系列パターンを表現する時系列パターンモデルを有する複数のノードから構成される出力時系列パターン記憶ネットワークと
を有し、
前記入力時系列パターン記憶ネットワークのノードどうしが結合されているとともに、前記入力時系列パターン記憶ネットワークのノードと、前記出力時系列パターン記憶ネットワークのノードとが結合されている
入出力関係モデルにおける前記入力時系列パターン記憶ネットワークのノードの中から、前記所定の時間単位の入力データに最も適合するノードである入力勝者ノードを決定し、
前記入力時系列パターン記憶ネットワークのノードの中から、前記入力勝者ノードとの結合が最強のノードである最強結合ノードを求め、前記出力時系列パターン記憶ネットワークのノードの中から、前記最強結合ノードとの結合が最強のノードを、前記出力データを生成する生成ノードとして決定し、
前記生成ノードが有する前記時系列パターンモデルに基づいて、前記出力データを生成する
ステップを含む前記データ処理を、コンピュータに実行させるプログラム。
In a program that causes a computer to execute data processing for generating output data that is other time-series data for input data that is time-series data,
Extracting input data in a predetermined time unit from the input data,
An input time series pattern storage network composed of a plurality of nodes having a time series pattern model representing a time series pattern which is a pattern of time series data as the input data;
An output time-series pattern storage network composed of a plurality of nodes having a time-series pattern model expressing a time-series pattern that is a pattern of time-series data as the output data,
The nodes of the input time series pattern storage network are coupled to each other, and the nodes of the input time series pattern storage network and the nodes of the output time series pattern storage network are coupled to each other. From among the nodes of the time-series pattern storage network, determine an input winner node that is a node most suitable for the input data of the predetermined time unit,
From the nodes of the input time series pattern storage network, find the strongest coupling node that is the strongest node with the input winner node, and from among the nodes of the output time series pattern storage network, A node having the strongest coupling is determined as a generation node that generates the output data,
A program that causes a computer to execute the data processing including the step of generating the output data based on the time-series pattern model of the generation node.
JP2006104983A 2006-04-06 2006-04-06 Data processor, data processing method, and program Pending JP2007280008A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006104983A JP2007280008A (en) 2006-04-06 2006-04-06 Data processor, data processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006104983A JP2007280008A (en) 2006-04-06 2006-04-06 Data processor, data processing method, and program

Publications (2)

Publication Number Publication Date
JP2007280008A true JP2007280008A (en) 2007-10-25
JP2007280008A5 JP2007280008A5 (en) 2009-05-14

Family

ID=38681401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006104983A Pending JP2007280008A (en) 2006-04-06 2006-04-06 Data processor, data processing method, and program

Country Status (1)

Country Link
JP (1) JP2007280008A (en)

Similar Documents

Publication Publication Date Title
JP4201012B2 (en) Data processing apparatus, data processing method, and program
JP4169063B2 (en) Data processing apparatus, data processing method, and program
JP4639784B2 (en) Learning device, learning method, and program
JP4843987B2 (en) Information processing apparatus, information processing method, and program
JP2006285899A (en) Learning device and learning method, creation device and creation method, and program
JP4803212B2 (en) Data processing apparatus, data processing method, and program
Rozo et al. Learning controllers for reactive and proactive behaviors in human–robot collaboration
US20060015216A1 (en) Information processing apparatus and method, program storage medium, and program
JP2005199403A (en) Emotion recognition device and method, emotion recognition method of robot device, learning method of robot device and robot device
JP2011123869A (en) Information-processing device, information processing method, and program
JP4534769B2 (en) Information processing apparatus, information processing method, and program
Cederborg et al. From language to motor gavagai: unified imitation learning of multiple linguistic and nonlinguistic sensorimotor skills
JP2007280057A (en) Data processor, data processing method, and program
JP2009140454A (en) Data processor, data processing method, and program
JP2007280007A (en) Data processor, data processing method, and program
JP2007280009A (en) Data processor, data processing method, and program
JP2006285898A (en) Control unit, method, and program
JP2007280008A (en) Data processor, data processing method, and program
JP2004309523A (en) System and method for sharing operation pattern of robot device, and robot device
JP2009053782A (en) Data processor, data processing method, and program
JP2007280056A (en) Data processor, data processing method, and program
JP2008293259A (en) Data processor, data processing method and program
JP2009043122A (en) Data processing apparatus, data processing method, and program
Sadeghipour et al. Social motorics–towards an embodied basis of social human-robot interaction
Zagal et al. Fitness Based Identification of a Robot Structure.

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120228

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120628