JP2007280058A - Information processor, information processing method and program - Google Patents

Information processor, information processing method and program Download PDF

Info

Publication number
JP2007280058A
JP2007280058A JP2006105550A JP2006105550A JP2007280058A JP 2007280058 A JP2007280058 A JP 2007280058A JP 2006105550 A JP2006105550 A JP 2006105550A JP 2006105550 A JP2006105550 A JP 2006105550A JP 2007280058 A JP2007280058 A JP 2007280058A
Authority
JP
Japan
Prior art keywords
output
input
unit
dimension
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006105550A
Other languages
Japanese (ja)
Inventor
Yukiko Yoshiike
由紀子 吉池
Masato Ito
真人 伊藤
Katsuki Minamino
活樹 南野
Hirotaka Suzuki
洋貴 鈴木
Kenta Kawamoto
献太 河本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006105550A priority Critical patent/JP2007280058A/en
Publication of JP2007280058A publication Critical patent/JP2007280058A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently handle multidimensional time-series data. <P>SOLUTION: A network storage part stores a network composed of a plurality of nodes, each node retaining dynamics modeled by a dynamic approximation model. An input weight adjustment part 82 adjusts, for each dimension, an input weight factor inputted to an input layer unit of the dynamic approximation model, which is a dimension-based weight factor for input data that is time-series data observed of two or more dimensions. An output weight adjustment part 83 adjusts, for each dimension, an output weight factor outputted from an output layer unit of the dynamic approximation model, which is a dimension-based weight factor for output data of two or more dimensions. The information processor is applicable to, for example, a robot. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、情報処理装置および情報処理方法、並びにプログラムに関し、特に、多次元の時系列データを効率的に扱うことができるようにした情報処理装置および情報処理方法、並びにプログラムに関する。   The present invention relates to an information processing device, an information processing method, and a program, and more particularly to an information processing device, an information processing method, and a program that can efficiently handle multidimensional time-series data.

ロボットの行動(運動)は、時間発展法則により定められる力学系(dynamical system
s)として記述することができ、様々な行動はその力学系がある特定のアトラクタダイナミクス(attractor dynamics)によって実現可能であることが知られている。
Robot behavior (movement) is a dynamical system determined by the law of time evolution.
s), and various behaviors are known to be realizable by certain attractor dynamics.

例えば、人間のような二足型ロボットの歩行運動は、系の運動状態が様々な初期状態からある特定の周期軌道に落ち着くことを特徴とするリミットサイクルダイナミクス(limit cycle dynamics)として記述することができる(例えば、非特許文献1,2参照)。また、アームロボットがある対象物に対して手先を伸ばすようなリーチング運動は、様々な初期状態からある特定の固定点に落ち着くことを特徴とする不動点ダイナミクス(fixed-point dynamics)として記述することができる。さらに、全ての運動は、不動点ダイナミクスで実現可能な離散運動(discrete movement)とリミットサイクルダイナミクスで実現可能な周期運動(cyclic movement)の組み合わせにより実現可能であるとも言われている。   For example, the walking motion of a biped robot such as a human can be described as limit cycle dynamics, which is characterized by the movement state of the system from various initial states to a specific periodic orbit. (For example, refer nonpatent literatures 1 and 2.). In addition, the reaching motion that extends the arm to a certain object is described as fixed-point dynamics, which is characterized by the fact that it settles to a specific fixed point from various initial states. Can do. Furthermore, it is said that all the movements can be realized by a combination of a discrete movement that can be realized by the fixed point dynamics and a cyclic movement that can be realized by the limit cycle dynamics.

このアトラクタダイナミクスによってロボットの行動(運動)を制御する場合の問題は、まず、タスクに応じたアトラクタダイナミクスをどのように構成するのか、次に、センサ入力を通じて得た情報に基づいて、アトラクタダイナミクスにしたがいながら、対応するモータ出力を生成することであり、これを実現するためには、アトラクタダイナミクスが環境と連続的に相互作用するかたちでロボットの行動出力を生成する必要がある。   The problem with controlling the robot's behavior (movement) using this attractor dynamics is that how to configure the attractor dynamics according to the task, and then to the attractor dynamics based on the information obtained through sensor input. Therefore, it is necessary to generate the corresponding motor output, and in order to realize this, it is necessary to generate the robot action output in such a way that the attractor dynamics continuously interact with the environment.

こうしたアトラクタダイナミクスを人間が設計するのではなく、学習する方法が提案されている。その方法の1つに、リカレントニューラルネットワーク(recurrent neural network)(以下、RNNという)を利用する方法がある。RNNは、ネットワークに回帰ループで結合されるコンテキストユニットを持ち、そこに内部状態を保持することによって、理論的には、任意の力学系を近似可能であることが知られている。   A method for learning such attractor dynamics instead of human design has been proposed. One method is to use a recurrent neural network (hereinafter referred to as RNN). It is known that RNN has a context unit connected to a network by a regression loop and can theoretically approximate any dynamic system by holding an internal state there.

しかしながら、密結合した1つのネットワークモジュールで構成される学習モデルでは、大規模な行動学習に必要な多数のダイナミクスの学習をする際に、記憶しようとするダイナミクス間の干渉が非常に大きく、学習が困難であるという問題がある。   However, in a learning model that consists of one network module that is tightly coupled, when learning a large number of dynamics necessary for large-scale behavioral learning, the interference between the dynamics to be memorized is very large. There is a problem that it is difficult.

そこで、複数のネットワークモジュールを組にして1つの学習モデルを構成するモジュラアーキテクチャ(modular architecture)を採用した学習モデルがいくつか提案されている。このモジュラアーキテクチャでは、原理的には、モジュールを増やすことによって記憶できるダイナミクスを容易に増やすことができるが、与えられた学習サンプルをどのモジュールで学習するかを決定するモジュール選択の問題が生じる。   Therefore, several learning models have been proposed that employ a modular architecture in which a plurality of network modules are combined to form one learning model. In principle, this modular architecture can easily increase the dynamics that can be stored by increasing the number of modules. However, the problem of module selection that determines which module is used to learn a given learning sample arises.

このモジュール選択の方法によって、学習方法は、学習サンプル(学習データ)を、どのモジュールに割り当てるかを人間が決める教師あり学習(supervised learning)と、学習モデルが自律的に決める教師なし学習(unsupervised learning)の2つの方法に分けられるが、ロボットやシステムが自律的に学習を行うためには、教師なし学習によりモジュールを学習する必要がある。   Depending on the method of module selection, the learning method can be divided into supervised learning, in which a human determines which module a learning sample (learning data) is assigned to, and unsupervised learning, in which the learning model is autonomously determined. However, in order for robots and systems to learn autonomously, it is necessary to learn modules by unsupervised learning.

教師なし学習によりモジュールを学習する方法の1つとして、Mixture of RNN Expertという学習モデルが提案されている(例えば、特許文献1参照)。この学習モデルでは、複数のRNNモジュールの出力をゲート機構により統合して最終的な出力を決定し、その最終的な出力の性能が最大化するように最尤推定法(maximum likelihood estimation)によりゲートを調整しながら、各RNNのモジュールを学習する。   As one of methods for learning a module by unsupervised learning, a learning model called “Mixture of RNN Expert” has been proposed (see, for example, Patent Document 1). In this learning model, the outputs of multiple RNN modules are integrated by a gating mechanism to determine the final output, and the gate is obtained by maximum likelihood estimation so that the performance of the final output is maximized. While learning, learn each RNN module.

しかしながら、このような全体最適化に基づく方法では、モジュールの数が大規模になった場合に、学習が困難になるという問題がある。   However, such a method based on global optimization has a problem that learning becomes difficult when the number of modules becomes large.

これに対して、ベクトルパターンのカテゴリ学習に用いられる自己組織化マップ(self-organization map)(以下、SOMという)(例えば、非特許文献3参照)やニューラルガス(neural-gas)(例えば、非特許文献4参照)などの方法では、全体最適化に基づく学習則は用いられず、最適性は保証されないが、適切なカテゴリ構造を自己組織化的に教師なし学習することが可能であることが知られている。これらの方法では、モジュールの数が大規模になった場合であっても、実用的に学習が可能である。   On the other hand, a self-organization map (hereinafter referred to as SOM) (see, for example, Non-Patent Document 3) and neural-gas (for example, non-use) used for vector pattern category learning. In a method such as Patent Literature 4), a learning rule based on global optimization is not used, and optimality is not guaranteed, but it is possible to learn an appropriate category structure in an unsupervised manner in a self-organizing manner. Are known. In these methods, even when the number of modules becomes large, learning is practically possible.

特開平11−126198号公報JP-A-11-126198 G.Taga,1998,“Self-organized control of bipedal locomotion by neural oscillators in unpredictable environment”,Biological Cybernetics, 65, 147-159G. Taga, 1998, “Self-organized control of bipedal locomotion by neural oscillators in unpredictable environment”, Biological Cybernetics, 65, 147-159 多賀厳太郎著、「脳と身体の動的デザイン−運動・知覚の非線形力学系と発達」、金子書房By Kentaro Taga, “Dynamic Design of Brain and Body-Nonlinear Dynamical System of Motion and Perception and Development”, Kaneko Shobo T.コホネン、「自己組織化マップ」、シュプリンガー・フェアラーク東京T. Kohonen, “Self-Organizing Map”, Springer Fairlark Tokyo T.M. Martinetz,S.G. Berkovich,K.J. Schulten, ""Neural-Gas" Network for Vector Quantization and its Application to Time-Series Prediction",IEEE Trans. Neural Networks,VOL.4,NO.4,p558-569,1999T.M.Martinetz, S.G.Berkovich, K.J.Schulten, "" Neural-Gas "Network for Vector Quantization and its Application to Time-Series Prediction", IEEE Trans. Neural Networks, VOL.4, NO.4, p558-569, 1999

本件出願人は、先に、ベクトルパターンのかわりに時系列パターンを学習するためのモデルを提案している(特願2004-353832号)。   The applicant of the present application has previously proposed a model for learning time series patterns instead of vector patterns (Japanese Patent Application No. 2004-353832).

しかしながら、多次元の時系列データを効率的に扱う方法は提案されていない。   However, a method for efficiently handling multidimensional time series data has not been proposed.

本発明は、このような状況に鑑みてなされたものであり、多次元の時系列データを効率的に扱うことができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to efficiently handle multi-dimensional time-series data.

本発明の一側面の情報処理装置は、ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークを記憶する記憶手段と、前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整する入力重み係数調整手段と、前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する出力重み係数調整手段とを備える。   An information processing apparatus according to an aspect of the present invention includes a storage unit that stores dynamics in one node and stores a network including the plurality of nodes, and a plurality of observed units that are input to an input unit of the node. Input weight coefficient adjustment means for adjusting an input weight coefficient that is a weight coefficient for each dimension with respect to input data that is time series data of multiple dimensions, and output of a plurality of dimensions output from the output unit of the node Output weight coefficient adjustment means for adjusting an output weight coefficient, which is a weight coefficient for each dimension of data, for each dimension.

前記時系列データには、前記次元ごとに信頼度が付加されており、前記入力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記入力重み係数を前記次元ごとに調整し、前記出力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記出力重み係数を前記次元ごとに調整することができる。   In the time series data, reliability is added for each dimension, and the input weight coefficient adjustment unit adjusts the input weight coefficient for each dimension based on the reliability for each dimension, The output weight coefficient adjusting means can adjust the output weight coefficient for each dimension based on the reliability for each dimension.

前記情報処理装置は、外部から入力される前記入力重み係数と前記出力重み係数を取得する取得手段をさらに設け、前記入力重み係数調整手段は、前記取得手段により取得される入力重み係数に基づいて、前記入力重み係数を前記次元ごとに調整し、前記出力重み係数調整手段は、前記取得手段により取得される出力重み係数に基づいて、前記出力重み係数を前記次元ごとに調整することができる。   The information processing apparatus further includes acquisition means for acquiring the input weight coefficient and the output weight coefficient input from the outside, and the input weight coefficient adjustment means is based on the input weight coefficient acquired by the acquisition means. The input weighting coefficient is adjusted for each dimension, and the output weighting coefficient adjusting means can adjust the output weighting coefficient for each dimension based on the output weighting coefficient acquired by the acquiring means.

前記情報処理装置は、1つ前に前記出力ユニットから出力された出力データと、新たに観測される時系列データとを、前記入力重み係数に対応する割合で、前記次元ごとに足し合わせ、その結果得られるデータを、前記入力データとして前記入力ユニットに入力する入力手段をさらに設けることができる。   The information processing apparatus adds the output data output from the output unit immediately before and the newly observed time-series data for each dimension in a ratio corresponding to the input weighting coefficient, Input means for inputting data obtained as a result to the input unit as the input data can be further provided.

前記情報処理装置は、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記出力重み係数に対応する割合で足し合わせて出力誤差とし、その出力誤差に基づいて、前記ノードの内部状態量の初期値を更新する内部状態更新手段とをさらに設けることができる。   The information processing apparatus adds the error for each dimension between the input data and the output data output from the output unit immediately before it as an output error by adding a ratio corresponding to the output weight coefficient, An internal state updating means for updating an initial value of the internal state quantity of the node based on the output error can be further provided.

前記情報処理装置は、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記ノードごとに前記出力重み係数に対応する割合で足し合わせて、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスに対応するノードである勝者ノードを決定する決定手段と、前記勝者ノードからの距離に対応する度合で、各ノードの結線に付される重みを更新する重み更新手段とを設けることができる。   The information processing apparatus adds the error for each dimension between the input data and the output data output from the output unit immediately before, at a ratio corresponding to the output weight coefficient for each node. And determining means for determining a winner node which is a node corresponding to the dynamics most suitable for the input data based on the output error of each node, and corresponding to the distance from the winner node It is possible to provide weight updating means for updating the weight attached to the connection of each node to a certain degree.

前記情報処理装置は、前記次元ごとの前記信頼度に基づいて、前記入力データを認識するとき、または時系列データを生成するときに用いられる入力重み係数と出力重み係数の基となる基重み係数を次元ごとに計算する基重み計算手段をさらに設けることができる。   The information processing apparatus uses a base weight coefficient as a basis for an input weight coefficient and an output weight coefficient used when recognizing the input data or generating time-series data based on the reliability for each dimension. It is possible to further provide a base weight calculating means for calculating for each dimension.

前記情報処理装置は、前記入力データと、その1つ前の入力データを、複数の前記ノードの入力ユニットにそれぞれ入力することにより、前記ノードごとに前記ノードの内部状態量を更新しながら得られる出力データとの次元ごとの誤差を、前記ノードごとに、前記出力重み係数に対応する割合で足し合わせ、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスを保持するノードである勝者ノードを決定する決定手段と、前記勝者ノードを表す情報を、前記時系列データの認識結果として出力する認識手段とを設けることができる。   The information processing apparatus is obtained by updating the internal state quantity of the node for each node by inputting the input data and the previous input data to the input units of the plurality of nodes, respectively. The error for each dimension with the output data is added for each node at a ratio corresponding to the output weighting coefficient to obtain an output error for each node, and the most suitable for the input data based on the output error for each node. Determining means for determining a winner node which is a node holding the dynamics to be performed, and recognition means for outputting information representing the winner node as a recognition result of the time-series data.

前記入力重み調整手段は、前記ノードごとに、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し、前記出力重み調整手段は、前記ノードごとに、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整することができる。   The input weight adjustment means sets the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data for each node. The output weight adjustment means can adjust the output weight coefficient for each dimension based on the error for each dimension for each node.

前記情報処理装置は、時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段をさらに設け、前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し、前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整することができる。   The information processing apparatus further includes an acquisition unit configured to acquire a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient, calculated for each dimension when learning dynamics based on time-series data; The input weighting coefficient adjusting unit adjusts the input weighting factor for each dimension based on the base weighting factor, and the output weighting factor adjusting unit is configured to output the output for each dimension based on the base weighting factor. The weighting factor can be adjusted.

前記情報処理装置は、前記ネットワークを構成する複数の前記ノードのうち、複数の次元の時系列データの生成に用いるノードである生成ノードを決定する決定手段と、前記入力データを、前記生成ノードの入力ユニットに入力することにより、前記生成ノードの内部状態量を更新しながら、複数の次元の時系列データを生成する生成手段とを設けることができる。   The information processing apparatus includes: a determination unit that determines a generation node that is a node used for generation of time-series data of a plurality of dimensions among the plurality of nodes included in the network; A generation unit that generates time-series data of a plurality of dimensions while updating the internal state quantity of the generation node by inputting to the input unit can be provided.

前記入力重み調整手段は、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し、前記出力重み調整手段は、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整することができる。   The input weight adjustment means adjusts the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data, and the output The weight adjusting means can adjust the output weighting factor for each dimension based on the error for each dimension.

前記情報処理装置は、時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段をさらに設け、前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し、前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整することができる。   The information processing apparatus further includes an acquisition unit configured to acquire a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient, calculated for each dimension when learning dynamics based on time-series data; The input weighting coefficient adjusting unit adjusts the input weighting factor for each dimension based on the base weighting factor, and the output weighting factor adjusting unit is configured to output the output for each dimension based on the base weighting factor. The weighting factor can be adjusted.

前記生成手段は、前記次元ごとに、前記出力重み係数に対応する割合で前記時系列データを生成することができる。   The generation means can generate the time-series data at a ratio corresponding to the output weighting coefficient for each dimension.

本発明の一側面の情報処理方法は、ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整し、前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整するステップを含む。   An information processing method according to one aspect of the present invention is a method of maintaining time-series data of a plurality of dimensions that is input to an input unit of a node of a network that includes a plurality of nodes and that has dynamics in one node. An output weighting factor that is a weighting factor for each dimension of the output data of a plurality of dimensions, which is output from the output unit of the plurality of dimensions, by adjusting an input weighting factor that is a weighting factor for each dimension for the input data. For each dimension.

本発明の一側面のプログラムは、ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整し、前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整するステップを含む処理をコンピュータに実行させる。   A program according to one aspect of the present invention is time series data of a plurality of dimensions that are observed and input to an input unit of the node of a network configured by a plurality of the nodes, the dynamics being held in one node. An input weighting factor that is a weighting factor for each dimension with respect to input data is adjusted for each dimension, and an output weighting factor that is a weighting factor for each dimension with respect to the output data of a plurality of dimensions output from the output unit of the node, A computer is caused to execute a process including a step of adjusting for each dimension.

本発明の一側面においては、ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数が、次元ごとに調整され、前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数が、次元ごとに調整される。   In one aspect of the present invention, input that is time-series data of a plurality of dimensions that is observed and input to an input unit of the node of a network configured by a plurality of nodes, the dynamics being held in one node An input weighting factor that is a weighting factor for each dimension for data is adjusted for each dimension, and an output weighting factor that is a weighting factor for each dimension for output data of a plurality of dimensions output from the output unit of the node is a dimension. Adjusted every time.

以上のように、本発明の一側面によれば、多次元の時系列データを効率的に扱うことができる。   As described above, according to one aspect of the present invention, multidimensional time series data can be handled efficiently.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の情報処理装置は、
ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワーク(例えば、ダイナミクス記憶ネットワーク)を記憶する記憶手段(例えば、図1のネットワーク記憶部15)と、
前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整する入力重み係数調整手段(例えば、図6の入力重み調整部82)と、
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する出力重み係数調整手段(例えば、図6の出力重み調整部83)と
を備える。
An information processing apparatus according to one aspect of the present invention includes:
Storage means (for example, the network storage unit 15 in FIG. 1) that stores the dynamics in one node and stores a network (for example, a dynamics storage network) constituted by a plurality of the nodes;
Input weight coefficient adjustment means for adjusting, for each dimension, an input weight coefficient that is a weight coefficient for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node (for example, The input weight adjustment unit 82) of FIG.
Output weight coefficient adjustment means (for example, output weight adjustment unit 83 in FIG. 6) that adjusts the output weight coefficient, which is a weight coefficient for each dimension for the output data of a plurality of dimensions, output from the output unit of the node. ) And.

本発明の一側面の情報処理装置は、
前記時系列データには、前記次元ごとに信頼度が付加されており、
前記入力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記入力重み係数を前記次元ごとに調整し(例えば、図7のステップS5の処理)、
前記出力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記出力重み係数を前記次元ごとに調整する(例えば、図7のステップS6の処理)。
An information processing apparatus according to one aspect of the present invention includes:
In the time series data, reliability is added for each dimension,
The input weight coefficient adjusting means adjusts the input weight coefficient for each dimension based on the reliability for each dimension (for example, the process of step S5 in FIG. 7),
The output weight coefficient adjusting means adjusts the output weight coefficient for each dimension based on the reliability for each dimension (for example, the process of step S6 in FIG. 7).

本発明の一側面の情報処理装置は、
外部から入力される前記入力重み係数と前記出力重み係数を取得する取得手段(例えば、図8の重み取得部101)
をさらに備え、
前記入力重み係数調整手段は、前記取得手段により取得される入力重み係数に基づいて、前記入力重み係数を前記次元ごとに調整し(例えば、図9のステップS25の処理)、
前記出力重み係数調整手段は、前記取得手段により取得される出力重み係数に基づいて、前記出力重み係数を前記次元ごとに調整する(例えば、図9のステップS26の処理)。
An information processing apparatus according to one aspect of the present invention includes:
Acquisition means for acquiring the input weight coefficient and the output weight coefficient input from the outside (for example, the weight acquisition unit 101 in FIG. 8)
Further comprising
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the input weight coefficient acquired by the acquisition means (for example, the process of step S25 in FIG. 9),
The output weight coefficient adjustment means adjusts the output weight coefficient for each dimension based on the output weight coefficient acquired by the acquisition means (for example, the process of step S26 in FIG. 9).

本発明の一側面の情報処理装置は、
1つ前に前記出力ユニットから出力された出力データと、新たに観測される時系列データとを、前記入力重み係数に対応する割合で、前記次元ごとに足し合わせ、その結果得られるデータを、前記入力データとして前記入力ユニットに入力する入力手段(例えば、図4の加算部60)
をさらに備える。
An information processing apparatus according to one aspect of the present invention includes:
The output data output from the output unit one time before and the newly observed time-series data are added for each dimension at a ratio corresponding to the input weighting factor, and the resulting data is Input means for inputting the input data to the input unit (for example, the adding unit 60 in FIG. 4)
Is further provided.

本発明の一側面の除法処理装置は、
前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記出力重み係数に対応する割合で足し合わせて出力誤差とし、その出力誤差に基づいて、前記ノードの内部状態量の初期値を更新する内部状態更新手段(例えば、図6のスコア計算部84)と
をさらに備える。
The division processing apparatus according to one aspect of the present invention includes:
The error for each dimension between the input data and the output data output from the output unit immediately before is added at a ratio corresponding to the output weighting coefficient to obtain an output error, and based on the output error. And internal state update means (for example, score calculation unit 84 in FIG. 6) for updating the initial value of the internal state quantity of the node.

本発明の一側面の情報処理装置は、
前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記ノードごとに前記出力重み係数に対応する割合で足し合わせて、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスに対応するノードである勝者ノードを決定する決定手段(例えば、図6の勝者ノード決定部85)と、
前記勝者ノードからの距離に対応する度合で、各ノードの結線に付される重みを更新する重み更新手段(例えば、図6のパラメータ更新部87)と
を備える。
An information processing apparatus according to one aspect of the present invention includes:
The error of each dimension between the input data and the output data output from the output unit immediately before is added at a ratio corresponding to the output weighting factor for each node, and an output error of each node is obtained. And determining means (for example, a winner node determining unit 85 in FIG. 6) for determining a winner node that is a node corresponding to the dynamics most suitable for the input data based on the output error of each node;
Weight update means (for example, parameter update unit 87 in FIG. 6) for updating the weight given to the connection of each node to the extent corresponding to the distance from the winner node.

本発明の一側面の情報処理装置は、
前記次元ごとの前記信頼度に基づいて、前記入力データを認識するとき、または時系列データを生成するときに用いられる入力重み係数と出力重み係数の基となる基重み係数を次元ごとに計算する基重み計算手段(例えば、図10の基重み決定部121)
をさらに備える。
An information processing apparatus according to one aspect of the present invention includes:
Based on the reliability for each dimension, a base weight coefficient used as a basis for an input weight coefficient and an output weight coefficient used when recognizing the input data or generating time-series data is calculated for each dimension. Base weight calculation means (for example, base weight determination unit 121 in FIG. 10)
Is further provided.

本発明の一側面の情報処理装置は、
前記入力データと、その1つ前の入力データを、複数の前記ノードの入力ユニットにそれぞれ入力することにより、前記ノードごとに前記ノードの内部状態量を更新しながら得られる出力データとの次元ごとの誤差を、前記ノードごとに、前記出力重み係数に対応する割合で足し合わせ、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスを保持するノードである勝者ノードを決定する決定手段(例えば、図13の決定部216)と、
前記勝者ノードを表す情報を、前記時系列データの認識結果として出力する認識手段(例えば、図13の出力部217)と
を備える。
An information processing apparatus according to one aspect of the present invention includes:
For each dimension of the input data and output data obtained by updating the internal state quantity of each node for each node by inputting the previous input data to the input units of the plurality of nodes. Are added to each node at a ratio corresponding to the output weighting coefficient to obtain an output error of each node, and based on the output error of each node, a node that holds the dynamics most suitable for the input data A determination means (for example, the determination unit 216 in FIG. 13) for determining a winner node,
Recognizing means (for example, the output unit 217 in FIG. 13) for outputting information representing the winner node as a recognition result of the time-series data.

本発明の一側面の情報処理装置は、
前記入力重み調整手段は、前記ノードごとに、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し(例えば、図20のステップS123の処理)、
前記出力重み調整手段は、前記ノードごとに、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整する(例えば、図20のステップS124の処理)。
An information processing apparatus according to one aspect of the present invention includes:
The input weight adjustment means sets the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data for each node. (For example, the process of step S123 in FIG. 20),
The output weight adjustment means adjusts the output weight coefficient for each dimension based on the error for each dimension for each node (for example, the process of step S124 in FIG. 20).

本発明の一側面の情報処理装置は、
時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段(例えば、図22の基重み取得部611)
をさらに備え、
前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し(例えば、図23のステップS142の処理)、
前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整する(例えば、図23のステップS143の処理)。
An information processing apparatus according to one aspect of the present invention includes:
Acquisition means for acquiring a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient calculated for each dimension when learning dynamics based on time-series data (for example, the base weight acquisition unit in FIG. 22) 611)
Further comprising
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the base weight coefficient (for example, the process of step S142 in FIG. 23),
The output weight coefficient adjusting means adjusts the output weight coefficient for each dimension based on the base weight coefficient (for example, the process of step S143 in FIG. 23).

本発明の一側面の情報処理装置は、
前記ネットワークを構成する複数の前記ノードのうち、複数の次元の時系列データの生成に用いるノードである生成ノードを決定する決定手段(例えば、図13の生成ノード決定部314)と、
前記入力データを、前記生成ノードの入力ユニットに入力することにより、前記生成ノードの内部状態量を更新しながら、複数の次元の時系列データを生成する生成手段(例えば、図13の時系列データ生成部316)と
を備える。
An information processing apparatus according to one aspect of the present invention includes:
A determination unit (for example, a generation node determination unit 314 in FIG. 13) that determines a generation node that is a node used to generate time-series data of a plurality of dimensions among the plurality of nodes constituting the network;
Generation means for generating time series data of a plurality of dimensions while updating the internal state quantity of the generation node by inputting the input data to the input unit of the generation node (for example, the time series data of FIG. 13 Generating unit 316).

本発明の一側面の情報処理装置は、
前記入力重み調整手段は、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し(例えば、図21のステップS134の処理)、
前記出力重み調整手段は、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整する(例えば、図21のステップS135の処理)。
An information processing apparatus according to one aspect of the present invention includes:
The input weight adjustment means adjusts the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before (for example, Step S134 in FIG. 21)
The output weight adjusting means adjusts the output weight coefficient for each dimension based on the error for each dimension (for example, the process of step S135 in FIG. 21).

本発明の一側面の情報処理装置は、
時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段(例えば、図22の基重み取得部621)
をさらに備え、
前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し(例えば、図24のステップS152の処理)、
前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整する(例えば、図24のステップS153の処理)。
An information processing apparatus according to one aspect of the present invention includes:
Acquisition means for acquiring a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient calculated for each dimension when learning dynamics based on time-series data (for example, the base weight acquisition unit in FIG. 22) 621)
Further comprising
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the base weight coefficient (for example, the process of step S152 in FIG. 24),
The output weight coefficient adjusting means adjusts the output weight coefficient for each dimension based on the base weight coefficient (for example, the process of step S153 in FIG. 24).

本発明の一側面の情報処理装置は、
前記生成手段は、前記次元ごとに、前記出力重み係数に対応する割合で前記時系列データを生成する(例えば、図15のステップS96の処理)。
An information processing apparatus according to one aspect of the present invention includes:
The generation means generates the time-series data at a ratio corresponding to the output weight coefficient for each dimension (for example, the process of step S96 in FIG. 15).

本発明の一側面の学習方法またはプログラムは、
ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整し(例えば、図7のステップS5)、
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する(例えば、図7のステップS6)
ステップを含む。
A learning method or program according to one aspect of the present invention includes:
A weighting factor for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node of the network that holds the dynamics in one node and is configured by a plurality of the nodes. A certain input weight coefficient is adjusted for each dimension (for example, step S5 in FIG. 7),
An output weighting factor, which is a weighting factor for each dimension for output data of a plurality of dimensions, output from the output unit of the node is adjusted for each dimension (for example, step S6 in FIG. 7).
Includes steps.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

図1は、本発明を適用した情報処理装置1の一実施の形態の構成例を示すブロック図である。   FIG. 1 is a block diagram showing a configuration example of an embodiment of an information processing apparatus 1 to which the present invention is applied.

図1の情報処理装置1は、力学系を近似するモデルである力学系近似モデルのうちの、内部状態量を持つ力学系近似モデルを1つのノードとするダイナミクス記憶ネットワークを記憶するネットワーク記憶部15と、そのダイナミクス記憶ネットワークのパラメータを自己組織化的に更新する学習部14とを含む。   The information processing apparatus 1 in FIG. 1 stores a network storage unit 15 that stores a dynamics storage network having, as one node, a dynamic system approximation model having an internal state quantity among dynamic system approximation models that are models approximating a dynamic system. And a learning unit 14 that updates the parameters of the dynamics storage network in a self-organizing manner.

ダイナミクス記憶ネットワークの各ノードには、時系列データの力学的な特性がダイナミクスとして保持される。学習部14によって更新されたパラメータによって定義される、ダイナミクス記憶ネットワークのノードに保持されたダイナミクスは、時系列データの認識や生成のために利用される。   Each node of the dynamics storage network holds the dynamic characteristics of time-series data as dynamics. The dynamics defined by the parameters updated by the learning unit 14 and held in the nodes of the dynamics storage network are used for recognition and generation of time series data.

図1の情報処理装置1は、例えばロボットなどの制御信号の認識や生成に利用される。情報処理装置1は、特に、自律システムや自律型ロボットなどにおいて、センサおよびモータの入出力信号の学習、認識、または生成に利用される。   The information processing apparatus 1 in FIG. 1 is used for recognition and generation of a control signal such as a robot. The information processing apparatus 1 is used for learning, recognition, or generation of input / output signals of sensors and motors, particularly in autonomous systems and autonomous robots.

図1の情報処理装置1では、情報処理装置1に入力される信号と、情報処理装置1が出力する信号の両方が、観測される信号である観測信号11として、信号入力部12に入力される。観測信号11は、例えば音声や画像の信号、LED(Light Emitting Diode)の明るさを表す信号、モータの回転角度や回転角速度を表す信号などである。   In the information processing apparatus 1 in FIG. 1, both a signal input to the information processing apparatus 1 and a signal output from the information processing apparatus 1 are input to the signal input unit 12 as an observation signal 11 that is an observed signal. The The observation signal 11 is, for example, a sound or image signal, a signal representing the brightness of an LED (Light Emitting Diode), a signal representing a rotation angle or a rotation angular velocity of a motor, or the like.

信号入力部12は、入力される観測信号11に対応する電気信号を、特徴抽出部13に出力する。具体的には、信号入力部12は、観測信号11が音声の信号である場合、例えばマイクロフォンに対応し、画像信号である場合、例えばカメラに対応する。また観測信号11がモータの回転角度や回転速度を表す信号である場合、信号入力部12は、例えばモータの回転角度や回転速度を計測する計測装置に対応する。   The signal input unit 12 outputs an electrical signal corresponding to the input observation signal 11 to the feature extraction unit 13. Specifically, the signal input unit 12 corresponds to, for example, a microphone when the observation signal 11 is an audio signal, and corresponds to, for example, a camera when the observation signal 11 is an image signal. When the observation signal 11 is a signal representing the rotation angle or rotation speed of the motor, the signal input unit 12 corresponds to, for example, a measuring device that measures the rotation angle or rotation speed of the motor.

なお、以下では、信号入力部12に入力される信号だけでなく、信号入力部12が出力する信号も、観測信号11という。また、観測信号11は、定常信号であっても、時間的に変化する非定常信号であってもよい。   Hereinafter, not only a signal input to the signal input unit 12 but also a signal output from the signal input unit 12 is referred to as an observation signal 11. The observation signal 11 may be a stationary signal or a non-stationary signal that changes with time.

さらに、以下では、主にロボットシステムにおけるセンサモータ信号を、観測信号11の例として説明する。このセンサモータ信号は、例えば、センサが出力する信号や、モータに入力されるモータを制御する制御信号(以下、モータ信号という)をコンポーネントとするベクトルである。勿論、観測信号11は、センサモータ信号に限定されるものではない。   Further, hereinafter, a sensor motor signal mainly in the robot system will be described as an example of the observation signal 11. The sensor motor signal is a vector having, for example, a signal output from the sensor or a control signal (hereinafter referred to as a motor signal) for controlling the motor input to the motor as a component. Of course, the observation signal 11 is not limited to the sensor motor signal.

また、信号入力部12は、区間検出装置などを含み、センサモータ信号を所定の区間で区切って出力するものとする。なお、信号入力部12からは、適当な長さに区切られたセンサモータ信号が出力されればよく、その区切り方は、特に限定されない。従って、入力されるセンサモータ信号に応じて、最も良い方法で適当な長さに区切られたセンサモータ信号が、観測信号11として、信号入力部12から出力されればよい。   In addition, the signal input unit 12 includes a section detection device and the like, and outputs the sensor motor signal divided by a predetermined section. The signal input unit 12 only needs to output a sensor motor signal divided into an appropriate length, and the way of dividing is not particularly limited. Therefore, the sensor motor signal divided into an appropriate length by the best method may be output from the signal input unit 12 as the observation signal 11 according to the input sensor motor signal.

特徴抽出部13は、信号入力部12から出力された観測信号11から、特徴量を時系列に抽出する。例えば特徴抽出部13は、センサ信号の1つである音声信号に対して、一定時間間隔で周波数分析などの処理を施し、メルケプストラムなどの特徴量を時系列に抽出する。ここで、メルケプストラムとは音声認識などで広く利用されている特徴量である。   The feature extraction unit 13 extracts feature amounts in time series from the observation signal 11 output from the signal input unit 12. For example, the feature extraction unit 13 performs processing such as frequency analysis on a sound signal that is one of the sensor signals at regular time intervals, and extracts feature quantities such as a mel cepstrum in time series. Here, the mel cepstrum is a feature amount widely used for voice recognition and the like.

特徴抽出部13は、観測信号11から特徴量を時系列に抽出することにより得た特徴量の時系列データ(以下、単に、時系列データという)を、学習部14、認識部16、および生成部19に供給する。   The feature extraction unit 13 generates time series data of feature quantities obtained by extracting feature quantities from the observation signal 11 in time series (hereinafter simply referred to as time series data), a learning unit 14, a recognition unit 16, and a generation unit. Supplied to the unit 19.

学習部14は、特徴抽出部13から供給される時系列データを用いて、所定の度合で、時系列データの時間変化の特徴をダイナミクスとして学習する。具体的には、学習部14は、所定の度合で、ダイナミクスを保持するダイナミクス記憶ネットワークのパラメータを更新する。   The learning unit 14 uses the time series data supplied from the feature extraction unit 13 to learn the temporal change feature of the time series data as dynamics at a predetermined degree. Specifically, the learning unit 14 updates the parameters of the dynamics storage network that holds the dynamics to a predetermined degree.

学習部14による学習の詳細は後述するが、学習部14は、基本的には、ラベルの付与されていない時系列データが繰り返し与えられると、その時系列データの中の特徴的なダイナミクスを自己組織化的に獲得していく教師なし学習を実行する。その結果、ネットワーク記憶部15に記憶されるダイナミクス記憶ネットワークには、代表的なダイナミクスが効率的に保持される。その保持されたダイナミクスは、認識部16や生成部19が、必要に応じて、いつでも利用することができるようになされている。   Details of learning by the learning unit 14 will be described later. Basically, when time-series data without a label is repeatedly given, the learning unit 14 self-organizes characteristic dynamics in the time-series data. Execute unsupervised learning that can be acquired in a chemical manner. As a result, typical dynamics are efficiently held in the dynamics storage network stored in the network storage unit 15. The recognized dynamics can be used at any time by the recognition unit 16 and the generation unit 19 as necessary.

ここで、ダイナミクスは、時間変化する力学系を表すものであり、例えば、具体的な関数によって表現することができる。ダイナミクス記憶ネットワークでは、時系列データの時間変化の特徴が、ダイナミクスとして保持される。   Here, the dynamics represents a dynamic system that changes with time, and can be expressed by a specific function, for example. In the dynamics storage network, the temporal change characteristics of time-series data are retained as dynamics.

認識部16は、特徴抽出部13から供給される時系列データに対して、それまでの学習の結果得られたダイナミクス記憶ネットワークに保持されるダイナミクスを照らし合わせ、最も類似したダイナミクスを決定する。   The recognizing unit 16 compares the time series data supplied from the feature extracting unit 13 with the dynamics held in the dynamics storage network obtained as a result of learning so far, and determines the most similar dynamics.

具体的には、認識部16は、特徴抽出部13から供給される時系列データを、ダイナミクス記憶ネットワークに入力し、その入力に対して出力される出力データを得る。そして、認識部16は、その出力データと特徴抽出部13から供給される時系列データとに基づいて、その時系列データに対して最も類似したダイナミクスを決定する。認識部16は、その決定の結果を認識結果17として出力する。   Specifically, the recognizing unit 16 inputs the time series data supplied from the feature extracting unit 13 to the dynamics storage network, and obtains output data output in response to the input. Based on the output data and the time series data supplied from the feature extraction unit 13, the recognition unit 16 determines the most similar dynamics to the time series data. The recognition unit 16 outputs the determination result as a recognition result 17.

一方、ダイナミクス記憶ネットワークに保持されたダイナミクスからは、必要に応じて、時系列データを生成することができるようになされている。生成部19は、時系列データを生成する生成処理を行う。   On the other hand, from the dynamics stored in the dynamics storage network, time series data can be generated as needed. The generation unit 19 performs a generation process for generating time-series data.

具体的には、生成部19は、どのダイナミクスから時系列データを生成するかを指定する制御信号18を取得する。生成部19は、制御信号18と特徴抽出部13から供給される時系列データに基づき、指定されたダイナミクスを保持するノードに、その時系列データを入力する。そして、生成部19は、その入力に対して出力される出力データに基づいて、時系列データを生成する。そして、生成部19は、その時系列データを生成結果20として出力する。   Specifically, the generation unit 19 acquires a control signal 18 that specifies from which dynamics the time-series data is generated. Based on the control signal 18 and the time series data supplied from the feature extraction unit 13, the generation unit 19 inputs the time series data to a node that holds the designated dynamics. And the production | generation part 19 produces | generates time series data based on the output data output with respect to the input. Then, the generation unit 19 outputs the time series data as a generation result 20.

内部状態記憶部21は、ダイナミクス記憶ネットワークの各ノードの内部状態量を保持する。内部状態記憶部21に記憶された内部状態量は、例えば、認識部16によって更新され、生成部19によって生成処理に利用される。   The internal state storage unit 21 holds an internal state amount of each node of the dynamics storage network. The internal state quantity stored in the internal state storage unit 21 is updated by, for example, the recognition unit 16 and is used by the generation unit 19 for generation processing.

[学習について]
次に、図2と図3を参照して、図1の情報処理装置1が行う学習について説明する。
[About learning]
Next, learning performed by the information processing apparatus 1 in FIG. 1 will be described with reference to FIGS.

なお、図2と図3では、力学系近似モデルとして、三層型ニューラルネットワーク(NN)の出力層から入力層への回帰ループを持つRNNが用いられるものとする。このRNNを用いて、時系列データにおける時刻tの状態ベクトルXtを入力とし、その入力に対して、時刻t+1の状態ベクトルXt+1を予測して出力することを学習、即ち予測学習(prediction learning)することにより、時系列データの時間発展法則を学習することができる。 2 and 3, it is assumed that an RNN having a regression loop from the output layer to the input layer of the three-layer neural network (NN) is used as the dynamic system approximation model. Using this RNN, the state vector X t at time t in the time series data is input, and learning to predict and output the state vector X t + 1 at time t + 1 is input to that input, that is, prediction learning ( prediction learning), it is possible to learn the time evolution law of time series data.

RNNのような内部状態量を持つ力学系近似モデルのパラメータの推定方法には、一般的に、BPTT(Back-Propagation Through Time)法が利用される。BPTT法は、最急降下法に基づく学習手法であり、BPTT法では、繰り返し計算に基づく勾配法によって学習が行われる。   In general, a BPTT (Back-Propagation Through Time) method is used as a parameter estimation method for a dynamical approximate model having an internal state quantity such as RNN. The BPTT method is a learning method based on the steepest descent method. In the BPTT method, learning is performed by a gradient method based on iterative calculation.

BPTT法については、例えば、D. E. Rumelhart, G. E. Hinton & R. E. Williams, 1986 “Learning internal representations by error propagation”, In D. E. Rumelhart & J. McClelland, "Parallel distributed processing", pp. 318-364, Cambridge, MA: MIT Press,R.J.Williams and D.Zipser,”A learning algorithm for continually running fully recurrent neural networks”,Neural Computation,1:270-280,1989等に記載されている。   For the BPTT method, see, for example, DE Rumelhart, GE Hinton & RE Williams, 1986 “Learning internal representations by error propagation”, In DE Rumelhart & J. McClelland, “Parallel distributed processing”, pp. 318-364, Cambridge, MA: MIT Press, RJ Williams and D. Zipser, “A learning algorithm for continuously running fully recurrent neural networks”, Neural Computation, 1: 270-280, 1989, etc.

図2は、2次元の時系列データを用いて学習を行う場合の力学系近似モデル31を表し、図3は、6次元の時系列データを用いて学習を行う場合の力学系近似モデル41を表している。ここで、次元とは、学習、認識、または生成において区別される時系列データの種類を表し、次元数はRNNのユニット数に対応する。   FIG. 2 shows a dynamic system approximation model 31 when learning is performed using two-dimensional time series data, and FIG. 3 shows a dynamic system approximation model 41 when learning is performed using six-dimensional time series data. Represents. Here, the dimension represents the type of time-series data distinguished in learning, recognition, or generation, and the number of dimensions corresponds to the number of RNN units.

なお、図2と図3では、音声を表すセンサ信号(以下、音声信号という)、画像を表すセンサ信号(以下、画像信号という)、触覚を表すセンサ信号(以下、触覚信号という)、両手を動作させるモータを制御するモータ信号(以下、両手信号という)、両足を動作させるモータを制御するモータ信号(以下、両足信号という)、および首を動作させるモータを制御するモータ信号(以下、首信号という)からそれぞれ生成された6次元の時系列データが、時系列データとして得られるものとする。   2 and 3, a sensor signal representing sound (hereinafter referred to as an audio signal), a sensor signal representing an image (hereinafter referred to as an image signal), a sensor signal representing a tactile sense (hereinafter referred to as a tactile signal), A motor signal for controlling the motor to be operated (hereinafter referred to as a “hand signal”), a motor signal for controlling the motor for operating both feet (hereinafter referred to as a “both foot signal”), and a motor signal for controlling the motor to operate the neck (hereinafter referred to as the neck signal) It is assumed that 6-dimensional time series data respectively generated from the above are obtained as time series data.

図2では、得られる6次元の時系列データのうち、音声信号と両足信号の2次元の時系列データが、力学系近似モデル31の入力層の2個のユニットにそれぞれ入力される。力学系近似モデル31は、その2次元の時系列データにおける時刻tの状態ベクトルXtを入力とし、その入力に対して、2次元の時系列データにおける時刻t+1の状態ベクトルXt+1を予測して出力することを学習する。従って、図2の力学系近似モデル31の入力層と出力層のユニットの数は、それぞれ2個となる。 In FIG. 2, among the obtained 6-dimensional time series data, the two-dimensional time series data of the audio signal and the both foot signals are input to two units of the input layer of the dynamic system approximation model 31, respectively. The dynamical approximate model 31 receives the state vector X t at time t in the two-dimensional time series data, and predicts the state vector X t + 1 at time t + 1 in the two-dimensional time series data with respect to the input. And learn to output. Therefore, the number of units of the input layer and the output layer of the dynamic system approximation model 31 in FIG. 2 is two each.

図3では、得られる6次元の時系列データのすべてが、力学系近似モデル32の入力層の6個のユニットにそれぞれ入力される。力学系近似モデル32は、その6次元の時系列データにおける時刻tの状態ベクトルXtを入力とし、その入力に対して、6次元の時系列データにおける時刻t+1の状態ベクトルXt+1を予測して出力することを学習する。従って、図3の力学系近似モデル32の入力層と出力層のユニットの数は、それぞれ6個となる。 In FIG. 3, all of the obtained 6-dimensional time-series data is input to each of the six units in the input layer of the dynamic system approximation model 32. The dynamical approximate model 32 receives the state vector X t at time t in the 6-dimensional time series data as input, and predicts the state vector X t + 1 at time t + 1 in the 6-dimensional time series data with respect to the input. And learn to output. Therefore, the number of units of the input layer and the output layer of the dynamic system approximation model 32 in FIG.

以上のように、2次元の時系列データを用いて学習する図2の力学系近似モデル31に対して、6次元の時系列データを用いて学習する図3の力学系近似モデル32では、入力層と出力層のユニットの数が大幅に増加し、規模が増大する。   As described above, in the dynamic system approximation model 32 of FIG. 3 that is learned using 6-dimensional time series data, the dynamic system approximation model 31 of FIG. 3 that is learned using two-dimensional time series data is input. The number of units in the layer and output layer is greatly increased and the scale is increased.

ここで、一般的に、ニューラルネットワークの規模が増大すると、パラメータを収束させることが困難であることが知られている。また、出力層の各ユニットから出力される各次元の時系列データの予測値により計算される予測誤差の平均値が利用して、学習が行われるが、時系列データの次元数が増加すると、その予測誤差の平均値に影響する1つの次元の時系列データの割合が非常に小さくなる。従って、この予測誤差の平均値を利用して、学習を行うことは容易ではない。   Here, it is generally known that it is difficult to converge parameters when the scale of a neural network increases. In addition, learning is performed using the average value of the prediction error calculated from the predicted value of the time series data of each dimension output from each unit of the output layer, but when the number of dimensions of the time series data increases, The proportion of time-series data of one dimension that affects the average value of the prediction error becomes very small. Therefore, it is not easy to perform learning using the average value of the prediction errors.

以上のように、時系列データの次元数が増加すると、その時系列データに基づく学習は困難になる。   As described above, when the number of dimensions of time series data increases, learning based on the time series data becomes difficult.

例えば、音声が聞こえる方向に歩くという行動を学習する場合、音声信号から得られる音声の方向や大きさなどを表す時系列データと、歩行動作を行うための両足信号に対応する時系列データの相互作用に基づいて形成されるダイナミクスを学習する必要がある。このとき、図2に示すように、6次元の時系列データのうち、音声信号と両足信号に対応する2次元の時系列データを用いて学習を行う場合、容易にダイナミクスを学習することができるが、図3に示すように、6次元の時系列データのすべてを用いて学習を行う場合、その学習は困難となる。   For example, when learning the behavior of walking in a direction in which sound can be heard, the time-series data indicating the direction and size of the sound obtained from the sound signal and the time-series data corresponding to the both foot signals for performing the walking motion It is necessary to learn the dynamics formed based on the action. At this time, as shown in FIG. 2, when learning is performed using two-dimensional time-series data corresponding to the audio signal and the both foot signals among the six-dimensional time-series data, the dynamics can be easily learned. However, as shown in FIG. 3, when learning is performed using all of the six-dimensional time-series data, the learning becomes difficult.

また、赤いボールが目の前に見えたら手を近づけるという行動を学習する場合、画像信号から得られる赤いボールの位置座標を表す時系列データと、手を動かすための両手信号に対応する時系列データの相互作用に基づいて形成されるダイナミクスを学習する必要がある。このとき、図3に示すように、6次元の時系列データのすべてを用いて学習を行う場合、6次元の時系列データのうち、画像信号と両手信号に対応する2次元の時系列データを用いて学習を行うときに比べて、その学習は困難となる。   Also, when learning the action of bringing the hand closer when the red ball is seen in front of the eyes, time series data representing the position coordinates of the red ball obtained from the image signal and the time series corresponding to the two-hand signal for moving the hand It is necessary to learn the dynamics formed based on the interaction of data. At this time, as shown in FIG. 3, when learning is performed using all of the 6-dimensional time-series data, 2-dimensional time-series data corresponding to the image signal and the two-handed signal is selected from the 6-dimensional time-series data. The learning becomes difficult as compared to the case where learning is performed using the learning method.

従って、得られるすべての次元の時系列データではなく、学習において着目すべき次元の時系列データだけを用いてダイナミクスを学習することが望ましい。   Therefore, it is desirable to learn dynamics using not only time-series data of all dimensions obtained but only time-series data of a dimension to be noted in learning.

しかしながら、教師あり学習を行う場合には、ノードごとに着目すべき時系列データを予め決定しておくことができるが、教師なし学習を行う場合には、それを予め決定しておくことができない。   However, when supervised learning is performed, time series data to be focused on can be determined in advance for each node, but when unsupervised learning is performed, it cannot be determined in advance. .

そこで、学習部14は、特徴抽出部13から供給される時系列データに基づいて、力学系近似モデルに入力される時系列データに対する次元ごとの重み係数(以下、入力重みという)と、力学系近似モデルから出力される時系列データに対する次元ごとの重み(以下、出力重みという)とを、学習において着目すべき次元の入力重みと出力重みが大きくなるように決定する。   Therefore, the learning unit 14 based on the time series data supplied from the feature extraction unit 13, weight factors for each dimension (hereinafter referred to as input weights) for the time series data input to the dynamic system approximate model, and the dynamic system Weights for each dimension (hereinafter referred to as output weights) for time-series data output from the approximate model are determined so that input weights and output weights of dimensions to be noted in learning are increased.

これにより、入出力される時系列データが重み付けされ、すべての時系列データのうちの着目すべき時系列データに基づいて、ダイナミクスを学習することができる。その結果、学習において、入力される多次元の時系列データを効率的に扱うことができる。   As a result, the input / output time-series data is weighted, and the dynamics can be learned based on the time-series data to be noted among all the time-series data. As a result, it is possible to efficiently handle input multidimensional time-series data in learning.

図4は、ネットワーク記憶部15に記憶されるダイナミクス記憶ネットワークの1つのノード41の詳細を示す図である。   FIG. 4 is a diagram showing details of one node 41 of the dynamics storage network stored in the network storage unit 15.

ノード41は、内部状態量を持つ力学系近似モデル51、入力重み記憶部52、出力重み記憶部53、および学習度合記憶部54により構成される。   The node 41 includes a dynamic system approximation model 51 having an internal state quantity, an input weight storage unit 52, an output weight storage unit 53, and a learning degree storage unit 54.

力学系近似モデル51は、RNNであり、加算部60、入力層61、隠れ層62、および出力層63により構成される。加算部60は、入力重み記憶部52に記憶されている、学習時に用いられる各次元の入力重み(以下、学習入力重みという)に対応する割合で、学習部14から供給される、新たに観測される観測信号に対応する時系列データにおける時刻tの状態ベクトルXtと、出力層63から1つ前に出力された出力データ、即ち時系列データにおける時刻t−1の状態ベクトルの予測値である出力データとを次元ごとに足し合わせ、その結果得られる次元ごとのデータを、時刻tの学習データとして入力層61の各ユニットに次元ごとに入力する。 The dynamic system approximation model 51 is an RNN, and includes an adding unit 60, an input layer 61, a hidden layer 62, and an output layer 63. The addition unit 60 is a new observation supplied from the learning unit 14 at a ratio corresponding to the input weight of each dimension (hereinafter referred to as a learning input weight) stored in the input weight storage unit 52 and used for learning. State vector X t at time t in the time series data corresponding to the observed signal and the output data output immediately before from the output layer 63, that is, the predicted value of the state vector at time t-1 in the time series data. Certain output data is added for each dimension, and the resulting data for each dimension is input to each unit of the input layer 61 for each dimension as learning data at time t.

入力層61の各ユニットに入力された時刻tの学習データは、隠れ層62を介して、出力層63から出力する。即ち、入力層61の各ユニットに入力された時刻tの学習データと、入力層61の各ユニットと隠れ層62の各ユニットの結合に付与された重み(以下、結合重みという)とに基づいて、所定の演算が行われ、その結果得られるデータと、隠れ層62の各ユニットと出力層63の各ユニットの結合重みとに基づいて、所定の演算が行われて、その結果得られるデータが、出力データとして、出力層63から出力される。   The learning data at time t input to each unit of the input layer 61 is output from the output layer 63 via the hidden layer 62. That is, based on learning data at time t input to each unit of the input layer 61 and weights (hereinafter referred to as “combining weights”) given to the connections between the units of the input layer 61 and the units of the hidden layer 62. , A predetermined calculation is performed, and based on the data obtained as a result and the coupling weight of each unit of the hidden layer 62 and each unit of the output layer 63, the predetermined calculation is performed and the resulting data is The output data is output from the output layer 63.

学習部14は、出力層63から出力される出力データを用いて、学習度合記憶部54に記憶される度合情報が表す度合で、力学系近似モデル51の結合重みをパラメータとして更新する。即ち、力学系近似モデル51は、学習度合記憶部54に記憶される度合情報が表す度合で、入力層61の各ユニットに入力された学習データの時系列パターンをダイナミクスとして学習する。   The learning unit 14 uses the output data output from the output layer 63 to update the coupling weight of the dynamic system approximation model 51 as a parameter with the degree represented by the degree information stored in the learning degree storage unit 54. That is, the dynamical system approximation model 51 learns the time series pattern of the learning data input to each unit of the input layer 61 as dynamics with the degree represented by the degree information stored in the learning degree storage unit 54.

なお、学習部14が行う学習は、オンライン学習である。即ち、観測信号11が入力されるたびに、学習部14は、その観測信号11に対応する学習データに基づいて、力学系近似モデル51のパラメータを少しずつ更新する。   The learning performed by the learning unit 14 is online learning. In other words, every time the observation signal 11 is input, the learning unit 14 updates the parameters of the dynamic system approximation model 51 little by little based on the learning data corresponding to the observation signal 11.

入力重み記憶部52は、学習部14から供給される学習入力重み、認識部16から供給される認識時の入力重み(以下、認識入力重みという)、および生成部19から供給される生成時の入力重み(以下、生成入力重みという)を記憶する。加算部60は、学習入力重みに対応する割合で、学習部14から供給される時系列データにおける時刻tの状態ベクトルXtと、出力層63から1つ前に出力された出力データとを次元ごとに足し合わせる。即ち、加算部60は、学習入力重みに基づいて、学習部14から供給される時系列データに対して重み付けを行う。なお、認識入力重みと生成入力重みによる重み付けについては、図16などで後述する。 The input weight storage unit 52 is a learning input weight supplied from the learning unit 14, an input weight at the time of recognition supplied from the recognition unit 16 (hereinafter referred to as a recognition input weight), and a generation time supplied from the generation unit 19. An input weight (hereinafter referred to as a generated input weight) is stored. The adder 60 calculates the state vector X t at the time t in the time series data supplied from the learning unit 14 and the output data output immediately before from the output layer 63 at a ratio corresponding to the learning input weight. Add together. That is, the adder 60 weights the time series data supplied from the learning unit 14 based on the learning input weight. The weighting by the recognition input weight and the generation input weight will be described later with reference to FIG.

出力重み記憶部53は、学習部14から供給される学習時に用いられる出力重み(以下、学習出力重みという)、認識部16から供給される認識時の出力重み(以下、認識出力重みという)、および生成部17から供給される生成時の出力重み(以下、生成出力重みという)を記憶する。この学習出力重みに基づいて、学習部14は、力学系近似モデル51の出力層の各ユニットから出力される各次元の時系列データに対して、重み付けを行う。なお、学習入力重みと学習出力重みに基づく重み付けの詳細は、図5を用いて後述する。また、認識出力重みと生成出力重みによる重み付けについては、図16などで後述する。   The output weight storage unit 53 is an output weight (hereinafter referred to as learning output weight) used during learning supplied from the learning unit 14, an output weight during recognition (hereinafter referred to as recognition output weight) supplied from the recognition unit 16, And the output weight at the time of generation (hereinafter referred to as a generation output weight) supplied from the generation unit 17 is stored. Based on the learning output weights, the learning unit 14 weights the time-series data of each dimension output from each unit of the output layer of the dynamical approximate model 51. Details of the weighting based on the learning input weight and the learning output weight will be described later with reference to FIG. The weighting by the recognition output weight and the generation output weight will be described later with reference to FIG.

学習度合記憶部54は、力学系近似モデル51のパラメータの学習の度合を表す情報(以下、度合情報という)を記憶する。ここで、度合情報としては、例えば、BPTT法における繰り返し計算の繰り返し回数が用いられる。   The learning degree storage unit 54 stores information indicating the degree of learning of the parameters of the dynamic system approximation model 51 (hereinafter referred to as degree information). Here, as the degree information, for example, the number of repetitions of repeated calculation in the BPTT method is used.

学習部14は、この度合情報に応じて学習の度合を調整し、これにより、力学系近似モデル51のパラメータが学習データの影響を受ける度合が、調整される。   The learning unit 14 adjusts the degree of learning in accordance with this degree information, and thereby adjusts the degree to which the parameters of the dynamic system approximation model 51 are affected by the learning data.

次に、図5を参照して、学習入力重みと学習出力重みに基づく重み付けについて説明する。   Next, weighting based on the learning input weight and the learning output weight will be described with reference to FIG.

図5の例では、力学系近似モデル51の加算部60に、センサ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx1tとx2t、並びにモータ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx3tとx4tが、学習部14から入力される。即ち、加算部60には、4次元の時系列データにおける時刻tの状態ベクトルx1t乃至x4tが学習部14から入力される。 In the example of FIG. 5, the state vector x1 t and x2 t at time t in the two-dimensional time-series data corresponding to the sensor signal and the two-dimensional time corresponding to the motor signal are added to the adding unit 60 of the dynamical approximate model 51. State vectors x3 t and x4 t at time t in the series data are input from the learning unit 14. That is, state vectors x1 t to x4 t at time t in the four-dimensional time series data are input from the learning unit 14 to the adding unit 60.

加算部60は、入力重み記憶部52に記憶されている学習入力重みを読み出し、その学習入力重みに基づいて、学習部14からの状態ベクトルx1t乃至x4tと、出力層63の各ユニットから1つ前(1時刻前)に出力された、時刻tの状態ベクトルの予測値である出力データXo1t乃至Xo4tとを、以下の式(1)にしたがって加算し、その結果得られるデータを学習データとして、入力層61に入力する。 The adding unit 60 reads the learning input weight stored in the input weight storage unit 52, and based on the learning input weight, from the state vectors x1 t to x4 t from the learning unit 14 and each unit of the output layer 63. output to the previous (one time before), the output data XO1 t to x O4 t is the predicted value of the state vector at time t, the sum according to the following equation (1), the data obtained as a result of It inputs into the input layer 61 as learning data.

Figure 2007280058
Figure 2007280058

なお、式(1)では、xkt,Xikt,Xokt,αsk(0≦αsk≦1)は、それぞれ、k(図5の例では、k=1,2,3,4)次元目の状態ベクトル、入力層に入力される入力データ、出力層から出力された出力データ、学習入力重みを表す。 In Expression (1), xk t , Xik t , Xok t , and αs k (0 ≦ αs k ≦ 1) are k dimensions (k = 1, 2, 3, and 4 in the example of FIG. 5), respectively. It represents the eye state vector, input data input to the input layer, output data output from the output layer, and learning input weight.

式(1)によれば、入力重みαskが1である場合、学習部14からの状態ベクトルxktだけが入力層61に入力され、入力重みαskが0である場合、出力データXoktだけが入力層61に入力される。従って、入力重みαskの値を調整することにより、学習時に着目すべき時系列データの次元を調整することができる。 According to equation (1), when the input weights .alpha.s k is 1, only the state vector xk t from the learning unit 14 is input to the input layer 61, when the input weights .alpha.s k is 0, the output data Xok t Only is input to the input layer 61. Therefore, by adjusting the value of the input weight αs k , it is possible to adjust the dimension of the time series data that should be noted during learning.

例えば、入力重みαs1とαs3が1であり、入力重みαs2とαs4が0である場合、加算部60に入力される4次元の時系列データにおける状態ベクトルx1t乃至x4tのうち、センサ信号に対応する1次元の時系列データにおける状態ベクトルx1tとモータ信号に対応する1次元の時系列データにおける状態ベクトルx3tだけが、入力層61に入力され、その結果、状態ベクトルx1tとx3tだけに着目して、学習が行われる。 For example, when the input weights αs 1 and αs 3 are 1 and the input weights αs 2 and αs 4 are 0, out of the state vectors x1 t to x4 t in the four-dimensional time series data input to the adder 60 Only the state vector x1 t in the one-dimensional time series data corresponding to the sensor signal and the state vector x3 t in the one-dimensional time series data corresponding to the motor signal are input to the input layer 61, and as a result, the state vector x1 Learning is performed focusing only on t and x3 t .

この場合、状態ベクトルx2tとx4tに対応する入力層61のユニットは、入力層61の回帰ループで結合されるコンテキストユニットと同様の機能を果たす。 In this case, the unit of the input layer 61 corresponding to the state vectors x2 t and x4 t performs the same function as the context unit combined in the regression loop of the input layer 61.

また、入力重みα1乃至α4がすべて0.5である場合、加算部60に入力される4次元すべての時系列データにおける状態ベクトルx1t乃至x4tに対して、同一の重みで着目して、学習が行われる。この場合、加算部60は、式(1)にしたがって、状態ベクトルx1t乃至x4tと、その1つ前の出力データXo1t乃至Xo4tとを、同一の割合で次元ごとに足し合わせ、それぞれを入力層61の各ユニットに入力する。 Further, when the input weights α 1 to α 4 are all 0.5, attention is paid to the state vectors x1 t to x4 t in all the four-dimensional time series data input to the adding unit 60 with the same weight. Learning is performed. In this case, the adding unit 60 adds the state vectors x1 t to x4 t and the previous output data Xo1 t to Xo4 t for each dimension at the same ratio according to the equation (1), respectively. Is input to each unit of the input layer 61.

以上のように、学習入力重みαskに基づいて、学習部14から入力される各次元の時系列データに対して重み付けが行われるので、入力される各次元の時系列データのうち、学習時に着目すべき時系列データだけに着目し、ダイナミクスを効率的に学習することができる。その結果、学習処理の負荷を軽減することができる。 As described above, since weighting is performed on the time series data of each dimension input from the learning unit 14 based on the learning input weight αs k , among the time series data of each dimension input, at the time of learning It is possible to efficiently learn dynamics by focusing only on time-series data that should be noted. As a result, the learning process load can be reduced.

なお、入力層61のコンテキストユニットには、出力層63のコンテキストユニットから1つ前に出力された出力データが、時刻tのコンテキストCtとして入力される。 Note that the output data output immediately before from the context unit of the output layer 63 is input to the context unit of the input layer 61 as the context C t at time t.

一方、学習部14は、時刻tの状態ベクトルx1t乃至x4tに対して、時刻t+1の状態ベクトルを予測して、出力することを学習するので、学習に利用される評価値として、以下の式(2)にしたがって求められる、時刻t+1の状態ベクトルの予測値と真値の重み付き平均二乗誤差Eが用いられる。 On the other hand, the learning unit 14 learns to predict and output the state vector at time t + 1 with respect to the state vectors x1 t to x4 t at time t. Therefore, the following evaluation values are used as learning values. The predicted value of the state vector at time t + 1 and the weighted mean square error E of the true value obtained according to the equation (2) are used.

Figure 2007280058
Figure 2007280058

なお、式(2)において、βsk(0≦βsk≦1)は、k次元目の出力重みを表している。また、nは、次元数を表し、図5の例では、4である。 In Equation (2), βs k (0 ≦ βs k ≦ 1) represents an output weight of the kth dimension. Further, n represents the number of dimensions, and is 4 in the example of FIG.

式(2)によれば、学習部14から供給される時系列データにおける時刻t+1の状態ベクトルxkt+1を、時刻t+1の真値として、その状態ベクトルxkt+1と、時刻t+1の状態ベクトルの予測値である出力データXokt+1、即ち1時刻前の時刻tの状態ベクトルxktを入力することにより得られる出力データXokt+1との平均二乗誤差が次元ごとに求められ、その平均二乗誤差が出力重みβskで重み付けされて足し合わされる。従って、出力重みβskの値を調整することにより、学習時の評価値として着目すべき出力データの次元を調整することができる。 According to the equation (2), the state vector xk t + 1 at time t + 1 in the time series data supplied from the learning unit 14 is set as the true value at time t + 1, and the state vector xk t + 1 and the state at time t + 1. mean square error between the output data Xok t + 1 obtained by inputting the state vector xk t of the predicted value is output data Xok t + 1, i.e. one time before the time t of the vector is determined for each dimension, The mean square error is weighted by the output weight βs k and added. Therefore, by adjusting the value of the output weight βs k , the dimension of output data to be noted as the evaluation value at the time of learning can be adjusted.

例えば、出力重みβs1とβs3が1であり、出力重みβs2とβs4が0である場合、出力層63の各ユニットから出力される出力データXo1t+1乃至Xo4t+1のうち、センサ信号に対応する1次元の時系列データにおける状態ベクトルXo1tとモータ信号に対応する1次元の時系列データにおける状態ベクトルXo3tだけに着目して得られた平均二乗誤差Eが評価値として用いられる。 For example, output weights .beta.s 1 and .beta.s 3 is 1, and output weights .beta.s 2 and .beta.s 4 is 0, among the output data XO1 t + 1 to x O4 t + 1 output from each unit of the output layer 63 The mean square error E obtained by paying attention only to the state vector Xo1 t in the one-dimensional time-series data corresponding to the sensor signal and the state vector Xo3 t in the one-dimensional time-series data corresponding to the motor signal is used as the evaluation value. Used.

学習部14は、このようにして求められた平均二乗誤差Eを最小化するパラメータを推定し、パラメータを更新する。   The learning unit 14 estimates a parameter that minimizes the mean square error E obtained in this way, and updates the parameter.

以上のように、学習部14は、学習出力重みβskに基づいて各次元の平均二乗誤差に対して重み付けを行うので、その結果得られた平均二乗誤差Eを評価値として用いることにより、出力される各次元の時系列データのうち、学習時の評価値として着目すべき時系列データだけに着目した評価値を用いて学習を行うことができる。その結果、多次元の時系列データに基づいて、ダイナミクスを効率的に学習することができる。 As described above, the learning unit 14 performs weighting on the mean square error of each dimension based on the learning output weight βs k , and therefore, by using the obtained mean square error E as an evaluation value, output is performed. Learning can be performed using an evaluation value focused on only time-series data to be focused on as an evaluation value at the time of learning among the time-series data of each dimension. As a result, dynamics can be efficiently learned based on multidimensional time-series data.

図6は、図1の学習部14の詳細構成例を示すブロック図である。   FIG. 6 is a block diagram illustrating a detailed configuration example of the learning unit 14 of FIG.

学習部14は、信頼度抽出部81、入力重み調整部82、出力重み調整部83、スコア計算部84、勝者ノード決定部85、学習重み決定部86、およびパラメータ更新部87により構成される。学習部14には、図1の特徴抽出部13から時系列データが入力され、その時系列データは、信頼度抽出部81、スコア計算部84、およびパラメータ更新部87に供給される。   The learning unit 14 includes a reliability extraction unit 81, an input weight adjustment unit 82, an output weight adjustment unit 83, a score calculation unit 84, a winner node determination unit 85, a learning weight determination unit 86, and a parameter update unit 87. The learning unit 14 receives time-series data from the feature extraction unit 13 in FIG. 1, and the time-series data is supplied to the reliability extraction unit 81, the score calculation unit 84, and the parameter update unit 87.

なお、特徴抽出部13から入力される時系列データには、付加情報として、各次元の信頼度ρk(0≦ρk≦1)が付加されているものとする。ここで、信頼度ρkは、k次元目の時系列データに対応する観測信号11の観測確率である。即ち、k次元目の時系列データに対応する観測信号11が観測された場合には、信頼度ρkが高くなり、観測されない場合には、信頼度ρkが低くなる。なお、ここで、信頼度ρkが高いとは、信頼度ρkの値が大きいことであり、信頼度ρkが低いとは、信頼度ρkの値が小さいことである。 It is assumed that reliability ρ k (0 ≦ ρ k ≦ 1) of each dimension is added to the time series data input from the feature extraction unit 13 as additional information. Here, the reliability ρ k is the observation probability of the observation signal 11 corresponding to the k-dimensional time-series data. That is, when the observation signal 11 corresponding to the k-dimensional time-series data is observed, the reliability ρ k is high, and when the observation signal 11 is not observed, the reliability ρ k is low. Here, the reliability [rho k is high, the value of the reliability [rho k is that large, and the reliability [rho k is low, is that the value of the confidence [rho k is small.

例えば、観測信号11である音声信号のパワーが大きい場合、即ち音声が聞こえる場合、特徴抽出部13は、その音声信号に対応する次元の時系列データに付加する信頼度ρkを1とし、音声信号のパワーが小さい場合、即ち音声が聞こえない場合、その信頼度ρkを0とする。 For example, when the power of the sound signal that is the observation signal 11 is large, that is, when the sound is heard, the feature extraction unit 13 sets the reliability ρ k to be added to the time-series data of the dimension corresponding to the sound signal to 1, When the power of the signal is small, that is, when the voice cannot be heard, the reliability ρ k is set to zero.

また、観測信号11であるモータ信号の電圧が高い場合、即ちモータが駆動している場合、そのモータ信号に対応する次元の時系列データに付加する信頼度ρkを1とし、モータ信号の電圧が低い場合、即ちモータが駆動していない場合、信頼度ρkを0とする。 Further, when the voltage of the motor signal as the observation signal 11 is high, that is, when the motor is driven, the reliability ρ k added to the time-series data of the dimension corresponding to the motor signal is set to 1, and the voltage of the motor signal Is low, that is, when the motor is not driven, the reliability ρ k is set to zero.

なお、信頼度ρkを求める方法は、上述した方法に限定されず、例えば各次元の時系列データに対応する観測信号11に重畳されている雑音信号の大小を計測または予測し、雑音信号が大きい場合には、対応する時系列データに付加する信頼度ρを高くし、雑音信号が小さい場合には、その信頼度ρを低くする方法であってもよい。 Note that the method for obtaining the reliability ρ k is not limited to the above-described method. For example, the magnitude of the noise signal superimposed on the observation signal 11 corresponding to the time-series data of each dimension is measured or predicted, and the noise signal is calculated. A method may be used in which the reliability ρ added to the corresponding time-series data is increased when the noise signal is large, and the reliability ρ is decreased when the noise signal is small.

この信頼度ρkを求める方法は、どのような観測信号11が入力されるか、特徴抽出部13がどのような特徴量を抽出するかなどによって決定することができる。 The method for obtaining the reliability ρ k can be determined according to what observation signal 11 is input, what feature quantity the feature extraction unit 13 extracts.

信頼度抽出部81は、このようにして求められた信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部82と出力重み調整部83に供給する。 Confidence extractor 81, thus to the respective dimensions of the time-series data reliability [rho k is added which sought to extract the reliability [rho k for each dimension, the output-weight adjuster to the input-weight adjuster 82 To the unit 83.

入力重み調整部82は、信頼度抽出部81からの各次元の信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている学習入力重みαskを次元ごとに調整する。具体的には、入力重み調整部82は、信頼度ρkに基づいて、信頼度ρkが高い次元の学習入力重みαskが大きくなり、信頼度ρkが低い次元の学習入力重みαskが小さくなるように、学習入力重みαskを決定し、その学習入力重みαskを入力重み記憶部52に供給して記憶させる。 Based on the reliability ρ k of each dimension from the reliability extraction unit 81, the input weight adjustment unit 82 adjusts the learning input weight αs k stored in the input weight storage unit 52 of FIG. 4 for each dimension. Specifically, the input-weight adjuster 82 is based on the reliability [rho k, the reliability [rho k higher learning input weights .alpha.s k dimension increases, the reliability [rho k low dimensional learning input weights .alpha.s k as smaller, determines the learning input weights .alpha.s k, stores and supplies the learning input weights .alpha.s k to the input-weight storage unit 52.

出力重み調整部83は、入力重み調整部82と同様に、信頼度抽出部81からの各次元の信頼度ρkに基づいて、出力重み記憶部53に記憶されている学習出力重みβskを次元ごとに調整する。 Similar to the input weight adjustment unit 82, the output weight adjustment unit 83 determines the learning output weight βs k stored in the output weight storage unit 53 based on the reliability ρ k of each dimension from the reliability extraction unit 81. Adjust for each dimension.

スコア計算部84は、特徴抽出部13からの時系列データに対する、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークに含まれる各ノード41(図4)の力学系近似モデル51のスコア計算を、内部状態量を更新しながら行う。   The score calculation unit 84 calculates the score of the dynamic system approximation model 51 of each node 41 (FIG. 4) included in the dynamics storage network stored in the network storage unit 15 with respect to the time series data from the feature extraction unit 13. This is done while updating the internal state quantity.

具体的には、スコア計算部84は、時系列データを、各ノード41の力学系近似モデル51の加算部60に入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。そして、スコア計算部84は、式(2)にしたがって平均二乗誤差Eを、ノード41ごとに評価値として計算する。スコア計算部84は、その平均二乗誤差Eをスコアとして、各ノード41に付与する。   Specifically, the score calculation unit 84 inputs time series data to the addition unit 60 of the dynamic system approximation model 51 of each node 41, and outputs output data corresponding to the input to the output of the dynamic system approximation model 51. Obtained from layer 63. Then, the score calculation unit 84 calculates the mean square error E as an evaluation value for each node 41 according to Expression (2). The score calculation unit 84 assigns the mean square error E to each node 41 as a score.

なお、スコア計算部84は、ノード41ごとに、所定の値を基準として、以下の式(3)にしたがって、その所定の値を更新していくことにより得られる値のうちの、スコアを最も小さくする値を、内部状態量としての力学系近似モデル51のコンテキストの初期値C0に決定し、コンテキストを初期値から更新しながら、スコア計算を行う。 The score calculation unit 84 sets the score among the values obtained by updating the predetermined value according to the following formula (3) with respect to the predetermined value for each node 41 as the reference. The value to be decreased is determined as the initial value C 0 of the context of the dynamical approximate model 51 as the internal state quantity, and score calculation is performed while updating the context from the initial value.

Figure 2007280058
Figure 2007280058

なお、式(3)において、C0,m(s)は、s(s=0,1,・・・)回目に更新される、m個目のコンテキストユニットに入力されるコンテキストの初期値を表し、ΔC0,m(s+1)は、m個目のコンテキストユニットに入力されるコンテキストの初期値の、s+1回目の更新の更新量であり、以下の式(4)により求められる。 In Equation (3), C 0, m (s) is the initial value of the context input to the m-th context unit, which is updated for the s (s = 0, 1,...) Times. ΔC 0, m (s + 1) is the update amount of the s + 1-th update of the initial value of the context input to the m-th context unit, and is obtained by the following equation (4).

Figure 2007280058
Figure 2007280058

式(4)において、ηは学習係数を表し、γは慣性係数を表す。また、δC0,mは、平均二乗誤差Eを用いてBPTT法によって求められるコンテキストの初期値C0,m(S)の誤差量を表している。 In Expression (4), η represents a learning coefficient, and γ represents an inertia coefficient. Further, δ C0, m represents an error amount of the initial value C 0, m (S) of the context obtained by the BPTT method using the mean square error E.

なお、BPTT法において、入力層61のコンテキストユニットに入力される時刻t+1のコンテキストCt+1の誤差量δc(t+1)を、出力層61のコンテキストユニットから出力される時刻tのコンテキストCtの誤差量δc(t)に逆伝播する際、以下の式(5)に示すように、任意の正の係数mで割ることにより、コンテキストの時定数の調整を行う。 In the BPTT method, the error amount δ c (t + 1) of the context C t + 1 at the time t + 1 input to the context unit of the input layer 61 is used as the context C t of the time t output from the context unit of the output layer 61. When backpropagating to the error amount δ c (t), the time constant of the context is adjusted by dividing by an arbitrary positive coefficient m as shown in the following equation (5).

Figure 2007280058
Figure 2007280058

BPTT法において式(5)を採用することにより、コンテキストの1タイムステップ先の影響度を調整することができる。   By adopting equation (5) in the BPTT method, the influence degree of one time step ahead of the context can be adjusted.

コンテキストの初期値の決定に用いる所定の値、即ち初期値C0,m(0)としては、例えば、ランダムな値や、前回の力学系近似モデル51の学習時に求められた、コンテキストの最終的な更新値(以下、前回更新値という)などを採用することができる。 The predetermined value used for determining the initial value of the context, that is, the initial value C 0, m (0) is, for example, a random value or the final value of the context obtained when learning the previous dynamical system approximation model 51. An update value (hereinafter referred to as a previous update value) or the like can be adopted.

例えば、今回の学習時に用いられる学習データと、前回の学習時に用いられた学習データとが、何らの関係もないことが分かっている場合には、初期値C0,m(0)としては、ランダムな値を採用することができる。 For example, when it is known that there is no relationship between the learning data used in the current learning and the learning data used in the previous learning, the initial value C 0, m (0) is Random values can be adopted.

また、例えば、今回の学習時に用いられる学習データと、前回の学習時に用いられた学習データとが、連続する時系列データなどのように、何らかの関係を有することが分かっている場合には、初期値C0,m(0)としては、前回更新値を採用することができる。なお、前回更新値を、初期値C0,m(0)として採用する場合には、更新を行わず、前回更新値を、そのまま、コンテキストの初期値に決定することができる。 In addition, for example, when it is known that the learning data used in the current learning and the learning data used in the previous learning have some relationship such as continuous time-series data, As the value C 0, m (0), the previous updated value can be adopted. When the previous update value is adopted as the initial value C 0, m (0), the previous update value can be determined as the initial value of the context without updating.

スコア計算部84は、スコア計算の結果、各ノード41に付与されたスコアを勝者ノード決定部85に供給する。勝者ノード決定部85は、スコア計算部84からの各ノード41のスコアを比較し、最もスコアの値が小さいノード41を、学習データに最も適合するノードである勝者ノードとして決定する。勝者ノード決定部85は、その勝者ノードを特定する情報を学習重み決定部86に供給する。   The score calculation unit 84 supplies the score given to each node 41 to the winner node determination unit 85 as a result of the score calculation. The winner node determination unit 85 compares the scores of the respective nodes 41 from the score calculation unit 84, and determines the node 41 having the smallest score value as the winner node that is the most suitable node for the learning data. The winner node determination unit 85 supplies information specifying the winner node to the learning weight determination unit 86.

学習重み決定部86は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークを参照し、勝者ノード決定部85からの情報により特定される勝者ノードからの距離dを、ノード41ごとに計算する。そして、学習重み決定部86は、その距離dに応じて、勝者ノードに対する値が最も大きくなり、勝者ノードからの距離dが大きくなるにしたがって値が小さくなるように、ノード41ごとに学習の重みを決定する。   The learning weight determination unit 86 refers to the dynamics storage network stored in the network storage unit 15 and calculates the distance d from the winner node specified by the information from the winner node determination unit 85 for each node 41. Then, the learning weight determination unit 86 determines the learning weight for each node 41 so that the value for the winner node becomes the largest according to the distance d, and the value becomes smaller as the distance d from the winner node becomes larger. To decide.

また、学習重み決定部86は、学習の重みに基づいて、各ノード41の度合情報を生成する。具体的には、学習重み決定部86は、学習の重みに応じて、学習の重みが大きいノード41の学習の度合が大きくなり、学習の重みが小さいノード41の学習の度合が小さくなるように、各ノード41の度合情報を生成する。そして、学習重み決定部86は、生成した度合情報を各ノード41の学習度合記憶部54にそれぞれ供給し、記憶させる。   Further, the learning weight determination unit 86 generates the degree information of each node 41 based on the learning weight. Specifically, the learning weight determination unit 86 increases the degree of learning of the node 41 having a large learning weight and decreases the degree of learning of the node 41 having a small learning weight according to the learning weight. The degree information of each node 41 is generated. Then, the learning weight determination unit 86 supplies the generated degree information to the learning degree storage unit 54 of each node 41 and stores it.

これにより、勝者ノードにおいて最も強く学習が行われ、勝者ノードからの距離dが大きくなるにしたがって学習の度合が弱くなるように、学習の度合が調整される。   As a result, the learning level is adjusted such that the strongest learning is performed at the winner node and the learning level decreases as the distance d from the winner node increases.

パラメータ更新部87は、ノード41ごとに、学習度合記憶部54に記憶されている度合情報を読み出し、その度合情報が表す度合で、特徴抽出部13から供給される学習データの時系列パターンをダイナミクスとして学習する。   For each node 41, the parameter update unit 87 reads the degree information stored in the learning degree storage unit 54, and dynamics the time series pattern of the learning data supplied from the feature extraction unit 13 with the degree represented by the degree information. To learn as.

具体的には、パラメータ更新部87は、ノード41ごとに、時系列データを各ノード41の加算部60に入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。そして、スコア計算部84は、式(2)にしたがって平均二乗誤差Eを、ノード41ごとに評価値として計算する。   Specifically, the parameter updating unit 87 inputs time series data for each node 41 to the adding unit 60 of each node 41, and outputs output data corresponding to the input to the output layer 63 of the dynamic system approximation model 51. Get from. Then, the score calculation unit 84 calculates the mean square error E as an evaluation value for each node 41 according to Expression (2).

パラメータ更新部87は、その平均二乗誤差E、時系列データ、および度合情報に基づいて、以下の式(6)にしたがい、BPTT法における繰り返し計算を行い、力学系近似モデル51のパラメータを更新する。   Based on the mean square error E, the time series data, and the degree information, the parameter update unit 87 performs repetitive calculation in the BPTT method and updates the parameters of the dynamic system approximation model 51 according to the following equation (6). .

Figure 2007280058
Figure 2007280058

なお、式(6)において、wi,j(s)は、s(s=0,1,・・・)回目の繰り返し計算で更新される、ユニットiとjの結合に付与された結合重みを表す。ここで、式(6)にしたがう更新は、度合情報である繰り返し回数行われる。即ち、sは、0から、繰り返し回数から1を減算した値までの数である。Δwi,j(s+1)は、結合重みwi,jの、s+1回目の更新の更新量であり、以下の式(7)により求められる。 In Equation (6), w i, j (s) is the connection weight given to the connection between units i and j, which is updated by the s (s = 0, 1,...) Iteration. Represents. Here, the update according to the equation (6) is performed the number of repetitions which is degree information. That is, s is a number from 0 to a value obtained by subtracting 1 from the number of repetitions. Δw i, j (s + 1) is the update amount of the s + 1th update of the connection weight w i, j and is obtained by the following equation (7).

Figure 2007280058
Figure 2007280058

式(7)において、δwijは、平均二乗誤差Eを用いてBPTT法によって求められる結合重みwi,j(s)の誤差量を表している。 In Expression (7), δ wij represents an error amount of the connection weight w i, j (s) obtained by the BPTT method using the mean square error E.

以上のように、パラメータ更新部87は、学習出力重みβskに基づいて計算された平均二乗誤差Eを用いてBPTT法によって誤差を逆伝播するので、学習出力重みβskにより、誤差を逆伝播する際に着目すべき出力データの次元が調整されることになる。即ち、学習出力重みβskにより、パラメータの更新時に着目すべき出力データの次元が調整されることになる。 As described above, the parameter update unit 87, since the back-propagated error by BPTT method using calculated based on the learning output weights .beta.s k mean square error E, the learning output weights .beta.s k, backpropagation error In this case, the dimension of the output data to be noticed is adjusted. That is, the dimension of the output data to be noted when updating the parameters is adjusted by the learning output weight βs k .

また、パラメータ更新部87は、勝者ノードにおいて最も強く学習が行われ、勝者ノードからの距離dが大きくなるにしたがって学習の度合が弱くなるように調整された学習の重みに基づく学習、即ちノード41の競合近傍学習を行うので、多数のダイナミクスを自己組織的に学習することができる。   Further, the parameter update unit 87 performs learning based on the learning weight adjusted so that the learning is performed most strongly at the winner node and the degree of learning is reduced as the distance d from the winner node increases, that is, the node 41. In this way, a large number of dynamics can be learned in a self-organizing manner.

次に、図7を参照して、図1の情報処理装置1がダイナミクス記憶ネットワークを学習する学習処理について説明する。この学習処理は、例えば、図1の情報処理装置1の電源がオンにされたとき、開始される。   Next, a learning process in which the information processing apparatus 1 in FIG. 1 learns the dynamics storage network will be described with reference to FIG. This learning process is started, for example, when the information processing apparatus 1 in FIG. 1 is turned on.

まず最初に、ステップS1において、学習部14のパラメータ更新部87(図5)は、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークのパラメータを初期化する。具体的には、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51のパラメータに適当な値が初期値として付与される。   First, in step S1, the parameter update unit 87 (FIG. 5) of the learning unit 14 initializes the parameters of the dynamics storage network stored in the network storage unit 15. Specifically, an appropriate value is assigned as an initial value to the parameter of the dynamic system approximation model 51 of each node 41 of the dynamics storage network.

ステップS1の処理後は、ステップS2に進み、図1の信号入力部12は、観測信号11を取得して、特徴抽出部13に供給し、ステップS3に進む。ステップS3において、特徴抽出部13は、その観測信号11の特徴量を次元ごとに時系列に抽出し、その結果得られる各次元の時系列データを学習データとして、学習部14の信頼度抽出部81、スコア計算部84、およびパラメータ更新部87に供給する。なお、このとき、特徴抽出部13は、次元ごとに、時系列データに信頼度ρkを付加する。 After the processing in step S1, the process proceeds to step S2, and the signal input unit 12 in FIG. 1 acquires the observation signal 11 and supplies it to the feature extraction unit 13, and the process proceeds to step S3. In step S3, the feature extraction unit 13 extracts the feature amount of the observation signal 11 in time series for each dimension, and uses the time series data of each dimension obtained as a result as learning data, as a reliability extraction unit of the learning unit 14. 81, the score calculation unit 84, and the parameter update unit 87. At this time, the feature extraction unit 13 adds the reliability ρ k to the time-series data for each dimension.

ステップS3の処理後は、ステップS4に進み、信頼度抽出部81は、特徴抽出部13からの各次元の時系列データに付加された信頼度ρkを抽出し、入力重み調整部82と出力重み調整部83に供給して、ステップS5に進む。 After the processing in step S3, the process proceeds to step S4, where the reliability extraction unit 81 extracts the reliability ρ k added to the time series data of each dimension from the feature extraction unit 13, and outputs the input weight adjustment unit 82 and the output. The data is supplied to the weight adjustment unit 83 and the process proceeds to step S5.

ステップS5において、入力重み調整部82は、信頼度抽出部81からの信頼度ρkに基づいて、各ノード41の入力重み記憶部52に記憶されている学習入力重みαskを調整し、ステップS6に進む。 In step S5, the input weight adjustment unit 82 adjusts the learning input weight αs k stored in the input weight storage unit 52 of each node 41 based on the reliability ρ k from the reliability extraction unit 81, and the step Proceed to S6.

ステップS6において、出力重み調整部83は、入力重み調整部82と同様に、信頼度抽出部81からの信頼度ρkに基づいて、各ノード41の出力重み記憶部53に記憶されている学習出力重みβskを調整し、ステップS7に進む。 In step S < b> 6, the output weight adjustment unit 83, like the input weight adjustment unit 82, learns stored in the output weight storage unit 53 of each node 41 based on the reliability ρ k from the reliability extraction unit 81. The output weight βs k is adjusted, and the process proceeds to step S7.

ステップS7において、スコア計算部84は、特徴抽出部13からの学習データに対する、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークに含まれる各ノード41の力学系近似モデル51のスコア計算を、内部状態量を更新しながら行う。スコア計算部84は、スコア計算の結果、各ノード41に付与したスコアを、勝者ノード決定部85に供給する。   In step S <b> 7, the score calculation unit 84 internally calculates the score of the dynamical approximate model 51 of each node 41 included in the dynamics storage network stored in the network storage unit 15 for the learning data from the feature extraction unit 13. This is done while updating the state quantity. The score calculation unit 84 supplies the score given to each node 41 as a result of the score calculation to the winner node determination unit 85.

ステップS7の処理後は、ステップS8に進み、勝者ノード決定部85は、勝者ノード決定部85から供給される各ノード41のスコアを比較することによって、最もスコアの値が小さいノードを勝者ノードとして決定し、その勝者ノードを特定する情報を、学習重み決定部86に供給する。   After the processing of step S7, the process proceeds to step S8, and the winner node determination unit 85 compares the scores of the respective nodes 41 supplied from the winner node determination unit 85 so that the node having the smallest score value is determined as the winner node. Information that determines and identifies the winner node is supplied to the learning weight determination unit 86.

ステップS8の処理後は、ステップS9に進み、学習重み決定部86は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークを参照し、勝者ノードからの距離dに基づいてノード41ごとに学習の重みを決定する。   After the processing of step S8, the process proceeds to step S9, where the learning weight determination unit 86 refers to the dynamics storage network stored in the network storage unit 15 and performs learning for each node 41 based on the distance d from the winner node. Determine the weight.

ステップS9の処理後は、ステップS10に進み、学習重み決定部86は、各ノード41の学習の重みに基づいて、各ノード41の度合情報を生成し、その度合情報を各ノード41の学習度合記憶部54にそれぞれ供給して記憶させる。   After the processing of step S9, the process proceeds to step S10, where the learning weight determination unit 86 generates the degree information of each node 41 based on the learning weight of each node 41, and the degree information is obtained as the learning degree of each node 41. Each is supplied to and stored in the storage unit 54.

ステップS10の処理後は、ステップS11に進み、パラメータ更新部87は、ノード41ごとに、特徴抽出部13からの学習データと度合情報に基づいて、BPTT法における繰り返し計算を行い、力学系近似モデル51のパラメータを更新する。その後、処理は、ステップS2に戻り、以降の処理が繰り返される。以上のようにして、度合情報が表す度合で、ダイナミクスの学習が行われる。   After the process of step S10, the process proceeds to step S11, and the parameter update unit 87 performs the iterative calculation in the BPTT method for each node 41 based on the learning data and the degree information from the feature extraction unit 13, and the dynamic system approximation model 51 parameters are updated. Thereafter, the process returns to step S2, and the subsequent processes are repeated. As described above, dynamics learning is performed at the degree indicated by the degree information.

図8は、図1の学習部の他の詳細構成例を示すブロック図である。   FIG. 8 is a block diagram illustrating another detailed configuration example of the learning unit in FIG. 1.

学習部100には、信頼度抽出部81、入力重み調整部82、出力重み調整部83の代わりに、重み取得部101、入力重み抽出部102、出力重み調整部103が設けられている。   The learning unit 100 includes a weight acquisition unit 101, an input weight extraction unit 102, and an output weight adjustment unit 103 instead of the reliability extraction unit 81, the input weight adjustment unit 82, and the output weight adjustment unit 83.

即ち、図8では、特徴抽出部13から入力される時系列データには、各次元の信頼度ρkが付加されておらず、外部から学習入力重みαskと学習出力重みβskが直接入力される。 That is, in FIG. 8, the reliability ρ k of each dimension is not added to the time-series data input from the feature extraction unit 13, and the learning input weight αs k and the learning output weight βs k are directly input from the outside. Is done.

重み取得部101は、外部から入力された学習入力重みαskと学習出力重みβskを取得する。そして、重み取得部101は、その学習入力重みαskを入力重み調整部102に供給し、学習出力重みβskを出力重み調整部103に供給する。 The weight acquisition unit 101 acquires a learning input weight αs k and a learning output weight βs k input from the outside. Then, the weight acquisition unit 101 supplies the learning input weight αs k to the input weight adjustment unit 102 and supplies the learning output weight βs k to the output weight adjustment unit 103.

入力重み調整部102は、重み取得部101からの学習入力重みαskを、入力重み記憶部52に記憶させることにより、学習入力重みαskを調整する。 Input weight adjuster 102, the learning input weights .alpha.s k from the weight obtaining unit 101, by the input-weight storage unit 52, adjusts the learning input weights .alpha.s k.

出力重み調整部103は、入力重み調整部102と同様に、重み取得部101からの学習出力重みβskを、出力重み記憶部53に記憶させることにより、学習出力重みβskを調整する。 Output weight adjuster 103, similarly to the input-weight adjuster 102, the learning output weights .beta.s k from the weight obtaining unit 101, by storing the output-weight storage unit 53, adjusts the learning output weights .beta.s k.

次に、図9を参照して、図8の学習部100を有する情報処理装置がダイナミクス記憶ネットワークを学習する学習処理について説明する。この学習処理は、例えば、情報処理装置の電源がオンにされたとき、開始される。   Next, a learning process in which the information processing apparatus having the learning unit 100 in FIG. 8 learns the dynamics storage network will be described with reference to FIG. This learning process is started, for example, when the information processing apparatus is turned on.

まず最初に、ステップS21において、学習部100のパラメータ更新部87(図8)は、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークのパラメータを初期化する。具体的には、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51のパラメータに適当な値が初期値として付与される。   First, in step S21, the parameter update unit 87 (FIG. 8) of the learning unit 100 initializes the parameters of the dynamics storage network stored in the network storage unit 15. Specifically, an appropriate value is assigned as an initial value to the parameter of the dynamic system approximation model 51 of each node 41 of the dynamics storage network.

ステップS21の処理後は、ステップS22に進み、信号入力部12は、観測信号11を取得して、特徴抽出部13に供給し、ステップS23に進む。ステップS23において、特徴抽出部13は、その観測信号11の特徴量を次元ごとに時系列に抽出し、その結果得られる各次元の時系列データを学習データとして、学習部14のスコア計算部84とパラメータ更新部87に供給する。   After the process of step S21, the process proceeds to step S22, and the signal input unit 12 acquires the observation signal 11 and supplies it to the feature extraction unit 13, and the process proceeds to step S23. In step S23, the feature extraction unit 13 extracts feature quantities of the observed signal 11 in time series for each dimension, and uses the time series data of each dimension obtained as a result as learning data, as a score calculation unit 84 of the learning unit 14. And supplied to the parameter update unit 87.

ステップS23の処理後は、ステップS24に進み、重み取得部101は、外部から入力された学習入力重みαskと学習出力重みβskを取得する。そして、重み取得部101は、その学習入力重みαskを入力重み調整部102に供給し、学習出力重みβskを出力重み調整部103に供給する。 After the process of step S23, the process proceeds to step S24, and the weight acquisition unit 101 acquires the learning input weight αs k and the learning output weight βs k input from the outside. Then, the weight acquisition unit 101 supplies the learning input weight αs k to the input weight adjustment unit 102 and supplies the learning output weight βs k to the output weight adjustment unit 103.

ステップS24の処理後は、ステップS25に進み、入力重み調整部102は、重み取得部101からの学習入力重みαskを、入力重み記憶部52に記憶させることにより、学習入力重みαskを調整し、ステップS26に進む。 After the processing in step S24, the process proceeds to step S25, the input-weight adjuster 102, the learning input weights .alpha.s k from the weight obtaining unit 101, by the input-weight storage unit 52, adjusts the learning input weights .alpha.s k Then, the process proceeds to step S26.

ステップS26において、出力重み調整部103は、入力重み調整部102と同様に、重み取得部101からの学習出力重みβskを、出力重み記憶部53に記憶させることにより、学習出力重みβskを調整し、ステップS27に進む。 In step S26, the output weight adjustment unit 103 stores the learning output weight βs k from the weight acquisition unit 101 in the output weight storage unit 53 in the same manner as the input weight adjustment unit 102, thereby obtaining the learning output weight βs k . Adjust and go to step S27.

ステップS27乃至S31の処理は、図7のステップS7乃至S11と同一であるので、説明は省略する。   The processing in steps S27 to S31 is the same as that in steps S7 to S11 in FIG.

図10は、図1の学習部のさらに他の詳細構成例を示すブロック図である。   FIG. 10 is a block diagram showing still another detailed configuration example of the learning unit in FIG.

学習部120は、図6の学習部14の各部に、さらに基重み決定部121が追加されることにより構成される。   The learning unit 120 is configured by further adding a base weight determining unit 121 to each unit of the learning unit 14 in FIG. 6.

基重み決定部121には、信頼度抽出部81から各次元の信頼度ρkが供給される。基重み決定部121は、信頼度ρkに基づいて、後述する認識生成時に用いられる入力重みと出力重みの基となる基重みωk(0≦ωk≦1)を決定する。具体的には、基重み決定部121は、学習を始める前に、基重みωkを1とし、信頼度抽出部81から供給される信頼度ρkに基づいて、式(8)にしたがい基重みωkを更新する。従って、学習に伴って、基重みωkが調整されていく。 The base weight determination unit 121 is supplied with the reliability ρ k of each dimension from the reliability extraction unit 81. Based on the reliability ρ k , the base weight determination unit 121 determines a base weight ω k (0 ≦ ω k ≦ 1) that serves as a basis for input weights and output weights used in recognition generation described later. Specifically, the base weight determination unit 121 sets the base weight ω k to 1 before starting learning, and based on the reliability ρ k supplied from the reliability extraction unit 81, the base weight ω k is based on the equation (8). Update weight ω k . Accordingly, the base weight ω k is adjusted with learning.

Figure 2007280058
Figure 2007280058

なお、式(8)において、ω´kは更新後の基重みを表し、Δ(0<Δ<1)は、更新による基重みωkの変化のステップ幅を表し、例えば0.05とされる。 In Equation (8), ω ′ k represents the updated base weight, and Δ (0 <Δ <1) represents the step width of the change in the base weight ω k due to the update, for example, 0.05.

式(8)によれば、信頼度ρkとして定常的な値が入力され続け、基重みωkの更新が十分に行われると、基重みωkは信頼度ρkに収束していく。即ち、基重みωkは、信頼度ρkが高く、学習時に着目すべき次元に対する値が大きくなるように調整される。 According to equation (8), continues steady value is input as the reliability [rho k, the update of the Motoomomi omega k is sufficiently performed, Motoomomi omega k is converges to the reliability [rho k. That is, the base weight ω k is adjusted so that the reliability ρ k is high and the value for the dimension to be noted at the time of learning is large.

例えば、センサ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx1tとx2t、並びにモータ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx3tとx4tのうち、状態ベクトルx1tとx3tに着目して学習が行われたノード41に対応する基重みω1とω3は、1となり、基重みω2とω4は0となる。 For example, among the state vectors x1 t and x2 t at the time t in the two-dimensional time series data corresponding to the sensor signal, and the state vectors x3 t and x4 t at the time t in the two-dimensional time series data corresponding to the motor signal The base weights ω 1 and ω 3 corresponding to the node 41 learned by focusing on the state vectors x1 t and x3 t are 1, and the base weights ω 2 and ω 4 are 0.

基重み決定部121は、更新後の基重みω´kを新しい基重みωkに決定し、ネットワーク記憶部15に記憶されているノード141(後述する図11)に供給して記憶させる。 The base weight determination unit 121 determines the updated base weight ω ′ k as a new base weight ω k and supplies the base weight to a node 141 (FIG. 11 described later) stored in the network storage unit 15 for storage.

図11は、基重みωkが記憶される場合のノード141の詳細を示す図である。 FIG. 11 is a diagram illustrating details of the node 141 when the base weight ω k is stored.

図11のノード141は、内部状態量を持つ力学系近似モデル51、入力重み記憶部52、出力重み記憶部53、学習度合記憶部54、および基重み記憶部142により構成される。なお、図4と同一のものには同一の符号を付してあり、説明は繰り返しになるので省略する。   The node 141 in FIG. 11 includes a dynamical approximate model 51 having an internal state quantity, an input weight storage unit 52, an output weight storage unit 53, a learning degree storage unit 54, and a base weight storage unit 142. 4 that are the same as those in FIG. 4 are denoted by the same reference numerals, and the description thereof will not be repeated.

基重み記憶部142は、図10の基重み決定部121から供給される各次元の基重みωkを記憶する。この基重みωkは、後述する認識生成時に用いられる入力重みと出力重みを調整するときに用いられる。 The base weight storage unit 142 stores the base weight ω k of each dimension supplied from the base weight determination unit 121 of FIG. The base weight ω k is used when adjusting an input weight and an output weight used at the time of recognition generation described later.

次に、図12を参照して、図10の学習部120を有する情報処理装置がダイナミクス記憶ネットワークを学習する学習処理について説明する。この学習処理は、例えば、情報処理装置の電源がオンにされたとき、開始される。   Next, a learning process in which the information processing apparatus having the learning unit 120 in FIG. 10 learns the dynamics storage network will be described with reference to FIG. This learning process is started, for example, when the information processing apparatus is turned on.

ステップS41乃至S46の処理は、図7のステップS1乃至S6の処理と同一であるので、説明は省略する。   The processing in steps S41 to S46 is the same as the processing in steps S1 to S6 in FIG.

ステップS46の処理後は、ステップS47に進み、図10の基重み決定部121は、信頼度抽出部81からの信頼度ρkに基づいて、上述した式(8)にしたがい基重みωkを決定し、ステップS48に進む。 After the processing of step S46, the process proceeds to step S47, and the base weight determination unit 121 in FIG. 10 sets the base weight ω k according to the above-described equation (8) based on the reliability ρ k from the reliability extraction unit 81. Determine and proceed to step S48.

ステップS48乃至S52の処理は、図7のステップS7乃至S11の処理と同一であるので、説明は省略する。   The processing in steps S48 to S52 is the same as the processing in steps S7 to S11 in FIG.

以上のように、図1の情報処理装置は、学習入力重みαskと学習出力重みβskに基づいて重み付けを行うことにより、ダイナミクスを効率的に学習することができるので、より安定した学習を行うことができる。また、このようにして学習されたダイナミクスを保持するダイナミクス記憶ネットワークを用いて、認識や生成を行うことにより、より安定した認識や生成を行うことができる。 As described above, the information processing apparatus in FIG. 1 can learn dynamics efficiently by performing weighting based on the learning input weight αs k and the learning output weight βs k, and thus more stable learning. It can be carried out. In addition, more stable recognition and generation can be performed by performing recognition and generation using a dynamics storage network that holds the learned dynamics.

[認識生成について]
図13は、図1の情報処理装置1の認識部16と生成部19の詳細構成例を示している。
[About recognition generation]
FIG. 13 shows a detailed configuration example of the recognition unit 16 and the generation unit 19 of the information processing apparatus 1 of FIG.

ここで、時系列データの認識生成とは、入力された時系列データを認識し、その認識結果に基づいて、新たな時系列データを生成することである。   Here, the recognition and generation of time-series data means that the input time-series data is recognized and new time-series data is generated based on the recognition result.

認識生成によれば、例えば、人間がロボットに呼びかける音声を発した場合に、そのロボットにおいて、その呼びかけに応じた動きをとるためのモータ信号や、その呼びかけに応答する合成音を生成するためのパラメータ信号等が生成される。   According to recognition generation, for example, when a human makes a voice calling to a robot, the robot generates a motor signal for taking a motion corresponding to the call and a synthesized sound responding to the call. A parameter signal or the like is generated.

図13に示すように、認識部16は、信頼度抽出部211、入力重み調整部212、出力重み調整部213、内部状態量更新部214、スコア計算部215、決定部216、および出力部217により構成される。   As shown in FIG. 13, the recognition unit 16 includes a reliability extraction unit 211, an input weight adjustment unit 212, an output weight adjustment unit 213, an internal state quantity update unit 214, a score calculation unit 215, a determination unit 216, and an output unit 217. Consists of.

なお、特徴抽出部13から出力される時系列データには、付加情報として、各次元の信頼度ρkが付加されているものとする。 It is assumed that the reliability ρ k of each dimension is added to the time series data output from the feature extraction unit 13 as additional information.

信頼度抽出部211は、信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部212と出力重み調整部213に供給する。 Confidence extractor 211 from the reliability [rho k is added time-series data of each dimension was to extract the reliability [rho k of each dimension, and supplies the input-weight adjuster 212 and the output-weight adjuster 213.

入力重み調整部212は、信頼度抽出部211からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、認識時に用いられる入力重み(以下、認識入力重みという)αrk(0≦αrk≦1)を調整する。具体的には、入力重み調整部212は、信頼度ρkに基づいて、信頼度ρkが高い次元に対する値が大きくなり、信頼度ρkが低い次元に対する値が小さくなるように、認識入力重みαrkを決定し、その認識入力重みαrkを入力重み記憶部52に供給して記憶させる。 The input weight adjustment unit 212 is based on the reliability ρ k from the reliability extraction unit 211 and is stored in the input weight storage unit 52 of FIG. 4 and used for recognition (hereinafter referred to as recognition input weight). αr k (0 ≦ αr k ≦ 1) is adjusted. Specifically, the input-weight adjuster 212, based on the reliability [rho k, value confidence [rho k is for a high level is increased, so that the value reliability [rho k is for lower dimensional decreases, recognition input determine the weight .alpha.r k, stores and supplies the recognition input weights .alpha.r k to the input-weight storage unit 52.

出力重み調整部213は、入力重み調整部212と同様に、信頼度抽出部211からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、認識時に用いられる出力重み(以下、認識出力重みという)βrk(0≦βrk≦1)を調整する。 Similar to the input weight adjustment unit 212, the output weight adjustment unit 213 is based on the reliability ρ k from the reliability extraction unit 211 and is stored in the output weight storage unit 53 and used for recognition (hereinafter referred to as output weight). Βr k (0 ≦ βr k ≦ 1) is adjusted.

内部状態量更新部214は、内部状態記憶部21から、前回更新されて記憶されている内部状態量を、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51へ読み込む。具体的には、内部状態量更新部214は、内部状態記憶部21から内部状態量を読み出し、その内部状態量を、各ノード41の力学系近似モデル51の内部状態量として、スコア計算部215に供給する。   The internal state quantity update unit 214 reads the internal state quantity updated and stored last time from the internal state storage unit 21 into the dynamic system approximation model 51 of each node 41 of the dynamics storage network. Specifically, the internal state quantity update unit 214 reads the internal state quantity from the internal state storage unit 21, and uses the internal state quantity as the internal state quantity of the dynamical approximate model 51 of each node 41, thereby calculating the score calculation unit 215. To supply.

これにより、力学系近似モデル51において、入力となる時系列データに基づいて、内部状態量更新部214が読み込んだ値を初期値として、内部状態量を更新することが可能となる。   As a result, in the dynamical approximate model 51, the internal state quantity can be updated using the value read by the internal state quantity updating unit 214 as an initial value based on the input time-series data.

また、内部状態量更新部214は、スコア計算部215から供給される、決定部216により勝者ノードが決定されるときの各ノード41の内部状態量の更新値(更新された内部状態量)と、その勝者ノードが決定されるときの各ノード41の内部状態量の初期値とを、内部状態記憶部21に記憶させる。   Also, the internal state quantity update unit 214 is supplied from the score calculation unit 215 and the update value (updated internal state quantity) of the internal state quantity of each node 41 when the winner node is determined by the determination unit 216. The internal state storage unit 21 stores the initial value of the internal state quantity of each node 41 when the winner node is determined.

ここで、内部状態記憶部21に記憶された内部状態量の更新値は、力学系近似モデル51へ読み込まれ、次回のスコア計算に利用される。また、内部状態記憶部21に記憶された内部状態量の初期値は、生成部19において、時系列データの生成時に利用される。   Here, the updated value of the internal state quantity stored in the internal state storage unit 21 is read into the dynamic system approximation model 51 and used for the next score calculation. The initial value of the internal state quantity stored in the internal state storage unit 21 is used in the generation unit 19 when generating time-series data.

スコア計算部215は、スコア計算部84と同様に、特徴抽出部13からの時系列データに対する、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークに含まれる各ノード41の力学系近似モデル51のスコア計算を、内部状態量を更新しながら行う。   Similar to the score calculation unit 84, the score calculation unit 215 applies the time series data from the feature extraction unit 13 to the dynamic system approximation model 51 of each node 41 included in the dynamics storage network stored in the network storage unit 15. The score is calculated while updating the internal state quantity.

即ち、スコア計算部215は、時系列データを、各ノード41の力学系近似モデル51の加算部60に入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。なお、加算部60は、学習時と同様に、認識入力重みαrkに基づいて、上述した式(1)の学習入力重みαskを認識入力重みαrkとした式にしたがって重み付けを行う。従って、認識入力重みαrkを調整することにより、認識時に着目すべき時系列データの次元を調整することができる。 That is, the score calculation unit 215 inputs time series data to the addition unit 60 of the dynamic system approximation model 51 of each node 41, and outputs output data corresponding to the input from the output layer 63 of the dynamic system approximation model 51. obtain. Incidentally, the addition unit 60, like the learning time, based on the recognition input weights .alpha.r k, performs weighting in accordance with the equation a recognition input weights .alpha.r k learning input weights .alpha.s k of formula (1) described above. Therefore, by adjusting the recognition input weights .alpha.r k, it is possible to adjust the dimensions of the time-series data that are to be considered during the recognition.

スコア計算部215はまた、上述した式(2)の学習出力重みβskを認識出力重みβrkとした式にしたがって平均二乗誤差を、ノード41ごとに評価値として計算する。従って、認識出力重みβkを調整することにより、認識時の評価値として着目すべき時系列データの次元を調整することができる。スコア計算部84は、その平均二乗誤差をスコアとして、各ノード41に付与する。 The score calculation unit 215 also calculates a mean square error as an evaluation value for each node 41 according to an expression in which the learning output weight βs k of the above-described expression (2) is the recognition output weight βr k . Therefore, by adjusting the recognition output weight β k , it is possible to adjust the dimension of the time series data to be noted as the evaluation value at the time of recognition. The score calculation unit 84 assigns the mean square error to each node 41 as a score.

なお、スコア計算部215は、ノード41ごとに、認識時の評価値として求められた平均二乗誤差を用いて求められた誤差量δco,mを用いて、上述した式(3)と式(4)にしたがって、その所定の値を更新していくことにより得られる値のうちの、スコアを最も小さくする値を、力学系近似モデル51の内部状態量としてのコンテキストの初期値C0,mに決定し、コンテキストを初期値C0,mから更新しながら、スコア計算を行う。 The score calculation unit 215 uses the error amount δ co, m obtained by using the mean square error obtained as the evaluation value at the time of recognition for each node 41 , and uses the above-described equations (3) and ( According to 4), among the values obtained by updating the predetermined value, the value that makes the score the smallest is the initial value C 0, m of the context as the internal state quantity of the dynamical approximate model 51 The score is calculated while updating the context from the initial value C 0, m .

スコア計算部215は、スコア計算の結果、各ノード41に付与されたスコアを、決定部216に供給するとともに、そのスコアが付与されたときの各ノード41の内部状態量の更新値と初期値を、勝者ノードが決定されるときの各ノード41の内部状態量の更新値と初期値として、内部状態量更新部214に供給する。   The score calculation unit 215 supplies the score given to each node 41 as a result of the score calculation to the determination unit 216, and the updated value and initial value of the internal state quantity of each node 41 when the score is given Are supplied to the internal state quantity update unit 214 as the update value and initial value of the internal state quantity of each node 41 when the winner node is determined.

以上のように、認識入力重みαrkに基づいて、スコア計算部215から入力される時系列データに対して重み付けが行われ、認識出力重みβrkに基づく重み付き平均二乗誤差が認識時の評価値とされるので、入力される時系列データのうち、認識時に着目すべき時系列データだけに着目して認識を行うことができる。その結果、認識処理の負荷を軽減し、多次元の時系列データに基づいて効率的に認識を行うことができる。また、認識の精度を向上させることができる。 As described above, based on the recognition input weights .alpha.r k, is weighted time-series data input performed from the score calculating unit 215, Evaluation of weighted mean square error based on the recognition output weights .beta.r k recognition Since it is a value, it is possible to recognize by focusing only on the time-series data to be noted at the time of recognition among the input time-series data. As a result, the recognition processing load can be reduced, and recognition can be performed efficiently based on multidimensional time-series data. In addition, recognition accuracy can be improved.

決定部216は、スコア計算部215からのスコアに基づいて、最もスコアの値が小さいノードを、勝者ノードとして決定する。即ち、決定部216は、勝者ノードに対応するダイナミクスを、特徴抽出部13から入力された時系列データに最も適合するダイナミクスとして選択する。決定部216は、入力された時系列データに最も適合するダイナミクスに対応する勝者ノードを特定する信号を、出力部217に供給する。   Based on the score from the score calculation unit 215, the determination unit 216 determines the node having the smallest score value as the winner node. That is, the determination unit 216 selects the dynamics corresponding to the winner node as the dynamics most suitable for the time series data input from the feature extraction unit 13. The determination unit 216 supplies the output unit 217 with a signal that identifies the winner node corresponding to the dynamics that best matches the input time-series data.

出力部217は、決定部216からの勝者ノードを特定する信号を、認識結果17として出力する。以上のようにして、認識部16において、入力された時系列データが認識される。そして、認識の結果得られた認識結果17は、認識生成における生成の処理において、どのダイナミクスに対応するノード41から時系列データを生成するかを指定する制御信号18として用いられる。   The output unit 217 outputs a signal specifying the winner node from the determination unit 216 as the recognition result 17. As described above, the recognition unit 16 recognizes the input time-series data. The recognition result 17 obtained as a result of the recognition is used as a control signal 18 for designating which dynamics the time series data is generated from which node 41 in the generation process in the recognition generation.

図13の生成部19は、信頼度抽出部311、入力重み調整部312、出力重み調整部313、生成ノード決定部314、内部状態読み込み部315、時系列データ生成部316、および出力部317により構成される。   13 includes a reliability extraction unit 311, an input weight adjustment unit 312, an output weight adjustment unit 313, a generation node determination unit 314, an internal state reading unit 315, a time series data generation unit 316, and an output unit 317. Composed.

信頼度抽出部311は、信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部312と出力重み調整部313に供給する。 Confidence extractor 311 from the reliability [rho k is added time-series data of each dimension was to extract the reliability [rho k of each dimension, and supplies the input-weight adjuster 312 and the output-weight adjuster 313.

入力重み調整部312は、信頼度抽出部311からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、生成時に用いられる入力重み(以下、生成入力重みという)αgk(0≦αgk≦1)を調整する。具体的には、入力重み調整部312は、信頼度ρkに基づいて、信頼度ρkが高い次元の値が大きくなり、信頼度ρkが低い次元の値が小さくなるように、認識入力重みαgkを決定し、その認識入力重みαgkを入力重み記憶部52に供給して記憶させる。 The input weight adjustment unit 312 is based on the reliability ρ k from the reliability extraction unit 311 and is stored in the input weight storage unit 52 of FIG. 4 and used for generation (hereinafter referred to as generation input weight). αg k (0 ≦ αg k ≦ 1) is adjusted. Specifically, the input-weight adjuster 312, based on the reliability [rho k, the value of the reliability [rho k is high level is increased, so that the value of the confidence [rho k low dimensionality is reduced, recognition input The weight αg k is determined, and the recognized input weight αg k is supplied to and stored in the input weight storage unit 52.

出力重み調整部313は、入力重み調整部312と同様に、信頼度抽出部311からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、生成時に用いられる出力重み(以下、生成出力重みという)βgk(0≦βgk≦1)を調整する。 Similar to the input weight adjustment unit 312, the output weight adjustment unit 313 is based on the reliability ρ k from the reliability extraction unit 311 and is stored in the output weight storage unit 53 and used for generation (hereinafter referred to as output weight). , adjusted) that generates output weights .beta.g k a (0 ≦ βg k ≦ 1) .

生成ノード決定部314には、出力部217から出力される認識結果17が、制御信号18として入力される。生成ノード決定部314は、制御信号18に基づいて、時系列データを生成すべきノード41である生成ノードを決定する。即ち、決定部216により決定された勝者ノードが、生成ノードとして決定される。生成ノード決定部314は、決定された生成ノードを特定する情報を、内部状態読み込み部315に供給する。   The recognition result 17 output from the output unit 217 is input to the generation node determination unit 314 as the control signal 18. Based on the control signal 18, the generation node determination unit 314 determines a generation node that is a node 41 that should generate time-series data. That is, the winner node determined by the determination unit 216 is determined as the generation node. The generation node determination unit 314 supplies information specifying the determined generation node to the internal state reading unit 315.

内部状態読み込み部315は、生成ノード決定部314からの情報に基づいて、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークに含まれるノード41のうちの生成ノードの力学系近似モデル51に、内部状態記憶部21に記憶されている値を、内部状態量の初期値として読み込む。   Based on the information from the generation node determination unit 314, the internal state reading unit 315 transfers the internal state to the dynamic system approximation model 51 of the generation node among the nodes 41 included in the dynamics storage network stored in the network storage unit 15. The value stored in the storage unit 21 is read as the initial value of the internal state quantity.

即ち、内部状態読み込み部315は、内部状態記憶部21に記憶されている値のうちの、生成ノードが認識部16において勝者ノードに決定されたときの内部状態量の初期値を読み出し、その内部状態量の初期値を、生成ノードの力学系近似モデル51の内部状態量として、時系列データ生成部316に供給する。   That is, the internal state reading unit 315 reads the initial value of the internal state quantity when the generation node is determined as the winner node in the recognition unit 16 among the values stored in the internal state storage unit 21, The initial value of the state quantity is supplied to the time series data generation unit 316 as the internal state quantity of the dynamic system approximation model 51 of the generation node.

時系列データ生成部316には、特徴抽出部13から供給される時系列データが供給される。時系列データ生成部316は、その時系列データに基づいて、内部状態量を更新しながら時系列データを生成する。   The time series data generation unit 316 is supplied with the time series data supplied from the feature extraction unit 13. The time series data generation unit 316 generates time series data based on the time series data while updating the internal state quantity.

具体的には、時系列データ生成部316は、時系列データを生成ノードの力学系近似モデル51の加算部60に入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。   Specifically, the time series data generation unit 316 inputs the time series data to the addition unit 60 of the dynamic system approximation model 51 of the generation node, and outputs output data corresponding to the input to the output of the dynamic system approximation model 51. Obtained from layer 63.

なお、加算部60は、学習や認識時と同様に、生成入力重みαgkに基づいて、上述した式(1)の学習入力重みαskを生成入力重みαgkとした式にしたがって重み付けを行う。従って、生成入力重みαgkを調整することにより、生成時に着目すべき時系列データの次元を調整することができる。 Incidentally, the addition unit 60, similarly to the learning and recognition, based on the generation input weights .alpha.g k, performs weighting in accordance with the equation a generation input weights .alpha.g k learning input weights .alpha.s k of formula (1) described above . Therefore, by adjusting the generation input weight αg k , it is possible to adjust the dimension of the time series data to be noted at the time of generation.

また、時系列データ生成部316は、上述した式(2)の学習出力重みβskを生成出力重みβgkとした式にしたがって平均二乗誤差を、ノード41ごとに評価値として計算する。従って、生成出力重みβgkを調整することにより、生成時の評価値として着目すべき時系列データの次元を調整することができる。 Further, the time series data generation unit 316 calculates a mean square error as an evaluation value for each node 41 in accordance with the equation (2) in which the learning output weight βs k is the generated output weight βg k . Therefore, by adjusting the generation output weight βg k , it is possible to adjust the dimension of the time series data to be noted as the evaluation value at the time of generation.

そして、時系列データ生成部316は、ノード41ごとに、所定の値を基準として、生成時の評価値として求められた平均二乗誤差を用いて得られたδco,mを用いて、上述した式(3)と式(4)にしたがって、その所定の値を更新していくことにより得られる値のうちの、平均二乗誤差を最も小さくする値を、内部状態量としての力学系近似モデル51のコンテキストの初期値C0,mに決定し、力学系近似モデル51に、コンテキストを初期値C0,mから更新しながら、出力データを出力させる。 Then, the time series data generation unit 316 uses the δ co, m obtained by using the mean square error obtained as the evaluation value at the time of generation for each node 41 with reference to a predetermined value as described above. Of the values obtained by updating the predetermined value according to the equations (3) and (4), the value that minimizes the mean square error is the dynamic system approximation model 51 as the internal state quantity. of determining the initial value C 0, m the context, the dynamical system approximation model 51, while updating the context from an initial value C 0, m, to output the output data.

時系列データ生成部316は、生成ノードに対応する力学系近似モデル51から得た各次元の出力データに対して、生成出力重みβgkに基づいて重み付けを行い、その結果を時系列データとして生成する。即ち、時系列データ生成部316は、生成出力重みβgkに対応する割合で、各次元の時系列データを生成する。そして、時系列データ生成部316は、生成した時系列データを、出力部317に供給する。 The time series data generation unit 316 weights the output data of each dimension obtained from the dynamical approximate model 51 corresponding to the generation node based on the generation output weight βg k and generates the result as time series data. To do. That is, the time series data generation unit 316 generates time series data of each dimension at a ratio corresponding to the generation output weight βg k . Then, the time series data generation unit 316 supplies the generated time series data to the output unit 317.

以上のように、生成入力重みαgkに基づいて、特徴抽出部13から入力される時系列データに対して重み付けが行われ、生成出力重みβgkに基づいて、力学系近似モデル51からの出力データに対して重み付けが行われるので、入力される時系列データのうち、生成時に着目すべき時系列データだけに着目して、時系列データを生成することができる。その結果、情報処理装置1に入力された時系列データに矛盾する時系列データが生成されることを防止することができる。 As described above, the time series data input from the feature extraction unit 13 is weighted based on the generation input weight αg k , and the output from the dynamic system approximation model 51 is based on the generation output weight βg k. Since weighting is performed on the data, it is possible to generate time-series data by focusing on only time-series data that should be focused on at the time of generation among the input time-series data. As a result, it is possible to prevent generation of time series data that contradicts the time series data input to the information processing apparatus 1.

出力部317は、時系列データ生成部316からの時系列データを、生成結果20として出力する。以上のようにして、生成部19は、認識部16による認識の処理において決定された勝者ノードから、時系列データを生成結果20として生成し、出力する。   The output unit 317 outputs the time series data from the time series data generation unit 316 as the generation result 20. As described above, the generation unit 19 generates time series data as the generation result 20 from the winner node determined in the recognition process by the recognition unit 16 and outputs the generated time series data.

次に、図14を参照して、図13の認識部16が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から時系列データが入力されたとき、開始される。   Next, a recognition process in which the recognition unit 16 in FIG. 13 recognizes time-series data will be described with reference to FIG. This recognition process is started, for example, when time-series data is input from the feature extraction unit 13.

ステップS71において、信頼度抽出部211は、信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部212と出力重み調整部213に供給する。 In step S71, the confidence extractor 211 from the reliability [rho k is added time-series data of each dimension was to extract the reliability [rho k of each dimension, the input-weight adjuster 212 and the output-weight adjuster 213 Supply.

ステップS71の処理後は、ステップS72に進み、入力重み調整部212は、信頼度抽出部211からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、認識時に用いられる認識入力重みαrkを調整する。 After the process of step S71, the process proceeds to step S72, and the input weight adjustment unit 212 is stored in the input weight storage unit 52 of FIG. 4 based on the reliability ρ k from the reliability extraction unit 211. adjusting the recognition input weights .alpha.r k used.

ステップS72の処理後は、ステップS73に進み、出力重み調整部213は、入力重み調整部212と同様に、信頼度抽出部211からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、認識時に用いられる認識出力重みβrkを調整する。 After the process of step S72, the process proceeds to step S73, and the output weight adjustment unit 213 stores the output weight storage unit 53 based on the reliability ρ k from the reliability extraction unit 211, similarly to the input weight adjustment unit 212. It is to adjust the recognition output weights .beta.r k used during recognition.

ステップS73の処理後は、ステップS74に進み、内部状態量更新部214は、内部状態記憶部21から、前回更新されて記憶されている内部状態量を、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51へ読み込む。   After the processing of step S73, the process proceeds to step S74, where the internal state quantity update unit 214 uses the internal state quantity that was updated and stored last time from the internal state storage unit 21 as the dynamic system of each node 41 of the dynamics storage network. The approximate model 51 is read.

ステップS74の処理後は、ステップS75に進み、スコア計算部215は、特徴抽出部13からの時系列データに対する、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークに含まれる各ノード41の力学系近似モデル51のスコア計算を、内部状態量を更新しながら行う。   After the processing of step S74, the process proceeds to step S75, where the score calculation unit 215 performs the dynamic system of each node 41 included in the dynamics storage network stored in the network storage unit 15 for the time series data from the feature extraction unit 13. The score calculation of the approximate model 51 is performed while updating the internal state quantity.

スコア計算部215は、スコア計算の結果、各ノード41に付与されたスコアを、決定部216に供給するとともに、そのスコアが付与されたときの各ノード41の内部状態量の更新値と初期値を、勝者ノードが決定されるときの各ノード41の内部状態量の更新値と初期値として、内部状態量更新部214に供給する。   The score calculation unit 215 supplies the score given to each node 41 as a result of the score calculation to the determination unit 216, and the updated value and initial value of the internal state quantity of each node 41 when the score is given Are supplied to the internal state quantity update unit 214 as the update value and initial value of the internal state quantity of each node 41 when the winner node is determined.

ステップS75の処理後は、ステップS76に進み、内部状態量更新部214は、スコア計算部215から供給される、決定部216により勝者ノードが決定されるときの各ノード41の内部状態量の更新値と、その勝者ノードが決定されるときの各ノード41の内部状態量の初期値とを、内部状態記憶部21に記憶させる。   After the processing of step S75, the process proceeds to step S76, where the internal state quantity update unit 214 updates the internal state quantity of each node 41 supplied from the score calculation unit 215 when the winner node is determined by the determination unit 216. The internal state storage unit 21 stores the value and the initial value of the internal state quantity of each node 41 when the winner node is determined.

ステップS76の処理後は、ステップS77に進み、決定部216は、スコア計算部215からのスコアに基づいて、最もスコアの値が小さいノードを、勝者ノードとして決定する。決定部216は、勝者ノードを特定する信号を、出力部217に供給する。   After the process of step S76, the process proceeds to step S77, and the determination unit 216 determines the node having the smallest score value as the winner node based on the score from the score calculation unit 215. The determination unit 216 supplies a signal specifying the winner node to the output unit 217.

ステップS77の処理後は、ステップS78に進み、出力部217は、決定部216からの勝者ノードを特定する信号を、認識結果17として出力し、処理を終了する。   After the process of step S77, the process proceeds to step S78, where the output unit 217 outputs a signal specifying the winner node from the determination unit 216 as the recognition result 17, and ends the process.

次に、図15を参照して、図13の生成部19が時系列データを生成する生成処理について説明する。この生成処理は、例えば、出力部217から出力された認識結果17が制御信号18として入力されたとき、開始される。   Next, a generation process in which the generation unit 19 in FIG. 13 generates time-series data will be described with reference to FIG. This generation process is started, for example, when the recognition result 17 output from the output unit 217 is input as the control signal 18.

ステップS91において、信頼度抽出部311は、信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部312と出力重み調整部313に供給する。 In step S91, the confidence extractor 311 from the reliability [rho k is added time-series data of each dimension was to extract the reliability [rho k of each dimension, the input-weight adjuster 312 and the output-weight adjuster 313 Supply.

ステップS91の処理後は、ステップS92に進み、入力重み調整部312は、信頼度抽出部311からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、生成時に用いられる生成入力重みαgkを調整する。 After the processing of step S91, the process proceeds to step S92, where the input weight adjustment unit 312 is stored in the input weight storage unit 52 of FIG. 4 based on the reliability ρ k from the reliability extraction unit 311. Adjust the generated input weight αg k used.

ステップS92の処理後は、ステップS93に進み、出力重み調整部313は、入力重み調整部312と同様に、信頼度抽出部311からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、生成時に用いられる生成出力重みβgkを調整する。 After the processing of step S92, the process proceeds to step S93, and the output weight adjustment unit 313 stores the output weight storage unit 53 based on the reliability ρ k from the reliability extraction unit 311 as in the case of the input weight adjustment unit 312. The generated output weight βg k used at the time of generation is adjusted.

ステップS93の処理後は、ステップS94に進み、生成ノード決定部314は、制御信号18に基づいて、時系列データを生成すべきノード41である生成ノードを決定する。生成ノード決定部314は、決定された生成ノードを特定する情報を、内部状態読み込み部315に供給する。   After the processing of step S93, the process proceeds to step S94, and the generation node determination unit 314 determines a generation node that is a node 41 that should generate time-series data based on the control signal 18. The generation node determination unit 314 supplies information specifying the determined generation node to the internal state reading unit 315.

ステップS94の処理後は、ステップS95に進み、内部状態読み込み部315は、生成ノード決定部314からの情報に基づいて、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークに含まれるノード41のうちの生成ノードの力学系近似モデル51に、内部状態記憶部21に記憶されている内部状態量の初期値を読み込む。   After the process of step S94, the process proceeds to step S95, and the internal state reading unit 315 is based on the information from the generation node determination unit 314, and the node 41 is included in the dynamics storage network stored in the network storage unit 15. The initial value of the internal state quantity stored in the internal state storage unit 21 is read into the dynamic system approximation model 51 of the generation node.

ステップS95の処理後は、ステップS96に進み、時系列データ生成部316は、特徴抽出部13から供給される時系列データに基づいて、内部状態量を更新しながら、時系列データを生成する。時系列データ生成部316は、生成した時系列データを出力部317に供給する。   After the processing of step S95, the process proceeds to step S96, and the time series data generation unit 316 generates time series data while updating the internal state quantity based on the time series data supplied from the feature extraction unit 13. The time series data generation unit 316 supplies the generated time series data to the output unit 317.

ステップS96の処理後は、ステップS97に進み、出力部317は、時系列データ生成部316からの時系列データを、生成結果20として出力し、処理を終了する。   After the process of step S96, the process proceeds to step S97, where the output unit 317 outputs the time series data from the time series data generation unit 316 as the generation result 20, and ends the process.

図16は、図1の認識部と生成部の他の詳細構成例を示すブロック図である。   FIG. 16 is a block diagram illustrating another detailed configuration example of the recognition unit and the generation unit in FIG.

図16の認識部401には、信頼度抽出部211、入力重み調整部212、出力重み調整部213の代わりに、信頼度抽出部411、入力重み抽出部412、出力重み調整部413が設けられている。   The recognition unit 401 in FIG. 16 includes a reliability extraction unit 411, an input weight extraction unit 412, and an output weight adjustment unit 413 instead of the reliability extraction unit 211, the input weight adjustment unit 212, and the output weight adjustment unit 213. ing.

即ち、図16では、特徴抽出部13から入力される時系列データには、各次元の信頼度ρkが付加されておらず、外部から認識入力重みαrkと認識出力重みβrkが直接入力される。 That is, in FIG. 16, the time-series data input from the feature extraction unit 13, not being added reliability [rho k for each dimension, recognition input weights .alpha.r k and recognition output weights .beta.r k is input directly from the outside Is done.

重み取得部411は、外部から入力された認識入力重みαrkと認識出力重みβrkを取得する。そして、重み取得部411は、その認識入力重みαrkを入力重み調整部412に供給し、認識出力重みβrkを出力重み調整部413に供給する。 Weight obtaining unit 411 obtains the recognition input weights .alpha.r k input from outside the recognition output weights .beta.r k. Then, the weight obtaining unit 411 supplies the recognition input weights .alpha.r k to the input-weight adjuster 412 supplies the recognition output weights .beta.r k to the output-weight adjuster 413.

入力重み調整部412は、重み取得部411からの認識入力重みαrkを、入力重み記憶部52に記憶させることにより、認識入力重みαrkを調整する。 Input weight adjuster 412, the recognition input weights .alpha.r k from the weight obtaining unit 411, by the input-weight storage unit 52, adjusts the recognition input weights .alpha.r k.

出力重み調整部413は、入力重み調整部412と同様に、重み取得部411からの認識出力重みβrkを、出力重み記憶部53に記憶させることにより、認識出力重みβrkを調整する。 Output weight adjuster 413, similarly to the input-weight adjuster 412, the recognition output weights .beta.r k from the weight obtaining unit 411, by storing the output-weight storage unit 53, adjusts the recognition output weights .beta.r k.

また、図16の生成部402には、信頼度抽出部311、入力重み調整部312、出力重み調整部313の代わりに、信頼度抽出部421、入力重み抽出部422、出力重み調整部423が設けられている。即ち、図16では、外部から生成入力重みαrkと生成出力重みβrkが直接入力される。 In addition, the generation unit 402 in FIG. 16 includes a reliability extraction unit 421, an input weight extraction unit 422, and an output weight adjustment unit 423 instead of the reliability extraction unit 311, the input weight adjustment unit 312, and the output weight adjustment unit 313. Is provided. That is, in FIG. 16, the generation input weight αr k and the generation output weight βr k are directly input from the outside.

重み取得部421は、外部から入力された生成入力重みαrkと生成出力重みβrkを取得する。そして、重み取得部421は、その生成入力重みαrkを入力重み調整部422に供給し、生成出力重みβrkを出力重み調整部423に供給する。 Weight obtaining unit 421 obtains the generation input weights .alpha.r k and generation output weights .beta.r k input from the outside. Then, the weight obtaining unit 421 supplies the generated input weights .alpha.r k to the input-weight adjuster 422 supplies the generated output weights .beta.r k to the output-weight adjuster 423.

入力重み調整部422は、重み取得部421からの生成入力重みαrkを、入力重み記憶部52に記憶させることにより、生成入力重みαrkを調整する。 Input weight adjuster 422, the generation input weights .alpha.r k from the weight obtaining unit 421, by the input-weight storage unit 52, adjusts the generation input weights .alpha.r k.

出力重み調整部423は、入力重み調整部422と同様に、重み取得部421からの生成出力重みβrkを、出力重み記憶部53に記憶させることにより、生成出力重みβrkを調整する。 Output-weight adjuster 423, similarly to the input-weight adjuster 422, the generation output weights .beta.r k from the weight obtaining unit 421, by storing the output-weight storage unit 53, adjusts the generation output weights .beta.r k.

次に、図17を参照して、図16の認識部401が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から時系列データが供給されたとき、開始される。   Next, a recognition process in which the recognition unit 401 in FIG. 16 recognizes time-series data will be described with reference to FIG. This recognition process is started, for example, when time series data is supplied from the feature extraction unit 13.

ステップS101において、重み取得部411は、外部から入力された認識入力重みαrkと認識出力重みβrkを取得する。そして、重み取得部411は、その認識入力重みαrkを入力重み調整部412に供給し、認識出力重みβrkを出力重み調整部413に供給する。 In step S101, the weight obtaining unit 411 obtains the recognition input weights .alpha.r k input from outside the recognition output weights .beta.r k. Then, the weight obtaining unit 411 supplies the recognition input weights .alpha.r k to the input-weight adjuster 412 supplies the recognition output weights .beta.r k to the output-weight adjuster 413.

ステップS101の処理後は、ステップS102に進み、入力重み調整部412は、重み取得部411からの認識入力重みαrkを、入力重み記憶部52に記憶させることにより、認識入力重みαrkを調整する。 After the step S101, the process proceeds to step S102, input-weight adjuster 412, the recognition input weights .alpha.r k from the weight obtaining unit 411, by the input-weight storage unit 52, adjusts the recognition input weights .alpha.r k To do.

ステップS102の処理後は、ステップS103に進み、出力重み調整部413は、入力重み調整部412と同様に、重み取得部411からの認識出力重みβrkを、出力重み記憶部53に記憶させることにより、認識出力重みβrkを調整し、ステップS104に進む。 After the processing in step S102, the process proceeds to step S103, and the output weight adjustment unit 413 stores the recognized output weight βr k from the weight acquisition unit 411 in the output weight storage unit 53, similarly to the input weight adjustment unit 412. Accordingly, by adjusting the recognition output weights .beta.r k, the process proceeds to step S104.

なお、ステップS104乃至S108の処理は、図14のステップS74乃至S78と同一の処理であるので、説明は省略する。   Note that the processing in steps S104 to S108 is the same as that in steps S74 to S78 in FIG.

次に、図18を参照して、図16の生成部402が時系列データを生成する生成処理について説明する。この生成処理は、例えば、出力部217から出力された認識結果17が制御信号18として入力されたとき、開始される。   Next, a generation process in which the generation unit 402 in FIG. 16 generates time-series data will be described with reference to FIG. This generation process is started, for example, when the recognition result 17 output from the output unit 217 is input as the control signal 18.

ステップS111において、重み取得部421は、外部から入力された生成入力重みαrkと生成出力重みβrkを取得する。そして、重み取得部421は、その生成入力重みαrkを入力重み調整部422に供給し、生成出力重みβrkを出力重み調整部423に供給する。 In step S111, the weight obtaining unit 421 obtains the generation input weights .alpha.r k and generation output weights .beta.r k input from the outside. Then, the weight obtaining unit 421 supplies the generated input weights .alpha.r k to the input-weight adjuster 422 supplies the generated output weights .beta.r k to the output-weight adjuster 423.

ステップS111の処理後は、ステップS112に進み、入力重み調整部422は、重み取得部421からの生成入力重みαrkを、入力重み記憶部52に記憶させることにより、生成入力重みαrkを調整する。 After the step S111, the process proceeds to step S112, input-weight adjuster 422 adjusts the generation input weights .alpha.r k from the weight obtaining unit 421, by the input-weight storage unit 52, a generation input weights .alpha.r k To do.

ステップS112の処理後は、ステップS113に進み、出力重み調整部423は、入力重み調整部422と同様に、重み取得部421からの生成出力重みβrkを、出力重み記憶部53に記憶させることにより、生成出力重みβrkを調整し、ステップS114に進む。 After the step S112, the process proceeds to step S113, the output-weight adjuster 423, similarly to the input-weight adjuster 422, to the generation output weights .beta.r k from the weight obtaining unit 421 causes the output-weight storage unit 53 Accordingly, by adjusting the generation output weights .beta.r k, the process proceeds to step S114.

なお、ステップS114乃至S117の処理は、図15のステップS94乃至S97の処理と同一であるので、説明は省略する。   Note that the processing in steps S114 to S117 is the same as the processing in steps S94 to S97 in FIG.

図19は、図1の認識部と生成部のさらに他の詳細構成例を示すブロック図である。   FIG. 19 is a block diagram showing still another detailed configuration example of the recognition unit and the generation unit in FIG.

図19の認識部501には、図13の信頼度抽出部211、内部状態量更新部214の代わりに、信頼度計算部511、内部状態量更新部512が設けられている。   The recognition unit 501 in FIG. 19 includes a reliability calculation unit 511 and an internal state quantity update unit 512 instead of the reliability extraction unit 211 and the internal state quantity update unit 214 in FIG.

即ち、図19では、特徴抽出部13から入力される時系列データには、各次元の信頼度ρkが付加されておらず、認識部501において、入力された時系列データの信頼度ρkを計算する。 That is, in FIG. 19, the time-series data input from the feature extraction unit 13, not being added reliability [rho k for each dimension, the recognition unit 501, the reliability of the time series data that is input [rho k Calculate

信頼度計算部511は、特徴抽出部13から供給される各次元の時系列データが供給される。信頼度計算部511は、その各次元の時系列データと内部状態量更新部512から供給される内部状態量の初期値とに基づいて、各次元の信頼度ρkを計算する。 The reliability calculation unit 511 is supplied with time-series data of each dimension supplied from the feature extraction unit 13. The reliability calculation unit 511 calculates the reliability ρ k of each dimension based on the time-series data of each dimension and the initial value of the internal state quantity supplied from the internal state quantity update unit 512.

具体的には、信頼度計算部511は、各次元の時系列データを、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51の加算部60に入力するとともに、内部状態量の初期値としてのコンテキストを入力層61のコンテキストユニットに入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。なお、このとき、加算部60は、入力された各次元の時系列データをそのまま、入力層61の各ユニットに供給する。   Specifically, the reliability calculation unit 511 inputs the time series data of each dimension to the addition unit 60 of the dynamical system approximate model 51 of each node 41 of the dynamics storage network stored in the network storage unit 15. Then, the context as the initial value of the internal state quantity is input to the context unit of the input layer 61, and output data that is output in response to the input is obtained from the output layer 63 of the dynamical system approximation model 51. At this time, the adding unit 60 supplies the input time-series data of each dimension to each unit of the input layer 61 as it is.

信頼度計算部511は、力学系近似モデル51に入力する時系列データと、その1つ前に力学系近似モデル51から得た出力データと、時系列データとに基づいて、次元ごとの、時系列データに対して得られるべき出力の真値と、その時系列データに対する力学系近似モデル51からの出力値の次元ごとの誤差である予測誤差εk(0<ε1<1)を、ノード41ごとに計算する。 The reliability calculation unit 511 calculates time-dependent data for each dimension based on the time series data input to the dynamic system approximation model 51, the output data obtained from the dynamic system approximation model 51 immediately before, and the time series data. The true value of the output to be obtained for the series data and the prediction error ε k (0 <ε 1 <1), which is an error for each dimension of the output value from the dynamic system approximation model 51 for the time series data, is represented by a node 41. Calculate every.

そして、信頼度計算部511は、ノード41ごとに、予測誤差εkを用いて、以下の式(9)にしたがって各次元の信頼度ρkを計算する。 Then, the reliability calculation unit 511 calculates the reliability ρ k of each dimension according to the following equation (9) using the prediction error ε k for each node 41.

Figure 2007280058
Figure 2007280058

式(9)によれば、予測誤差εkの大きい次元に対しては、小さい信頼度ρkが与えられ、予測誤差εkの小さい次元に対しては、大きい信頼度ρkが与えられる。 According to equation (9), for the greater dimension of the prediction error epsilon k, less reliability [rho k is given, for the small dimension of the prediction error epsilon k, it is given greater reliability [rho k.

信頼度計算部511は、式(9)にしたがう計算の結果得られる信頼度ρkを、入力重み調整部212と出力重み調整部213に供給する。 The reliability calculation unit 511 supplies the reliability ρ k obtained as a result of the calculation according to Equation (9) to the input weight adjustment unit 212 and the output weight adjustment unit 213.

内部状態量更新部512は、内部状態記憶部21から、前回更新されて記憶されている内部状態量を、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51へ読み込む。   The internal state quantity update unit 512 reads the internal state quantity updated and stored last time from the internal state storage unit 21 into the dynamic system approximate model 51 of each node 41 of the dynamics storage network.

具体的には、内部状態量更新部512は、内部状態記憶部21から前回更新されて記憶されている内部状態量を読み出し、その内部状態量を、各ノード41の力学系近似モデル51の内部状態量の初期値として、信頼度計算部511に供給したり、スコア計算部215に供給する。   Specifically, the internal state quantity update unit 512 reads the internal state quantity that has been updated and stored last time from the internal state storage unit 21 and stores the internal state quantity in the dynamic system approximation model 51 of each node 41. The initial value of the state quantity is supplied to the reliability calculation unit 511 or supplied to the score calculation unit 215.

また、内部状態量更新部512は、図13の内部状態量更新部214と同様に、スコア計算部215から供給される、決定部216により勝者ノードが決定されるときの各ノード41の内部状態量の更新値と、その勝者ノードが決定されるときの各ノード41の内部状態量の初期値とを、内部状態記憶部21に記憶させる。   Similarly to the internal state quantity update unit 214 of FIG. 13, the internal state quantity update unit 512 is supplied from the score calculation unit 215 and the internal state of each node 41 when the winner node is determined by the determination unit 216. The update value of the amount and the initial value of the internal state amount of each node 41 when the winner node is determined are stored in the internal state storage unit 21.

また、図19の生成部502には、図13の信頼度抽出部311、内部状態読み込み部315の代わりに、信頼度計算部521、内部状態読み込み部522が設けられている。即ち、図19では、生成部502において、入力された時系列データの信頼度ρkを計算する。 In addition, the generation unit 502 in FIG. 19 includes a reliability calculation unit 521 and an internal state reading unit 522 instead of the reliability extraction unit 311 and the internal state reading unit 315 in FIG. That is, in FIG. 19, the generation unit 502 calculates the reliability ρ k of the input time-series data.

信頼度計算部521は、信頼度計算部501と同様に、特徴抽出部13から供給される各次元の時系列データが供給される。信頼度計算部521は、信頼度計算部501と同様に、その各次元の時系列データと内部状態読み込み部522から供給される内部状態量の初期値とに基づいて、各次元の信頼度ρkを計算する。信頼度計算部511は、計算の結果得られる信頼度ρkを、入力重み調整部312と出力重み調整部313に供給する。 Like the reliability calculation unit 501, the reliability calculation unit 521 is supplied with time-series data of each dimension supplied from the feature extraction unit 13. Similar to the reliability calculation unit 501, the reliability calculation unit 521 determines the reliability ρ of each dimension based on the time-series data of each dimension and the initial value of the internal state quantity supplied from the internal state reading unit 522. k is calculated. The reliability calculation unit 511 supplies the reliability ρ k obtained as a result of the calculation to the input weight adjustment unit 312 and the output weight adjustment unit 313.

内部状態読み込み部522は、生成ノード決定部314からの情報に基づいて、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークに含まれるノード41のうちの生成ノードの力学系近似モデル51に、内部状態記憶部21に記憶されている値を、内部状態量の初期値として読み込む。   Based on the information from the generation node determination unit 314, the internal state reading unit 522 transmits the internal state to the dynamic system approximation model 51 of the generation node among the nodes 41 included in the dynamics storage network stored in the network storage unit 15. The value stored in the storage unit 21 is read as the initial value of the internal state quantity.

即ち、内部状態読み込み部522は、内部状態記憶部21に記憶されている値のうちの、生成ノードが認識部16において勝者ノードに決定されたときの内部状態量の初期値を読み出し、その内部状態量の初期値を、生成ノードの力学系近似モデル51の内部状態量の初期値として、信頼度計算部521と時系列データ生成部316に供給する。   That is, the internal state reading unit 522 reads the initial value of the internal state quantity when the generation node is determined as the winner node in the recognition unit 16 among the values stored in the internal state storage unit 21, The initial value of the state quantity is supplied to the reliability calculation unit 521 and the time series data generation unit 316 as the initial value of the internal state quantity of the dynamic system approximation model 51 of the generation node.

次に、図20を参照して、図19の認識部501が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から各次元の時系列データが供給されたとき、開始される。   Next, a recognition process in which the recognition unit 501 in FIG. 19 recognizes time-series data will be described with reference to FIG. This recognition process is started, for example, when time-series data of each dimension is supplied from the feature extraction unit 13.

ステップS121において、内部状態量更新部512は、内部状態記憶部21から、前回更新されて記憶されている内部状態量を、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51へ読み込む。   In step S121, the internal state quantity update unit 512 reads the internal state quantity updated and stored last time from the internal state storage unit 21 into the dynamic system approximation model 51 of each node 41 of the dynamics storage network.

ステップS121の処理後は、ステップS122に進み、信頼度計算部511は、特徴抽出部13から供給される各次元の時系列データと、内部状態量更新部512から供給される内部状態量の初期値とに基づいて、上述した式(9)にしたがって、各次元の信頼度ρkを計算する。信頼度計算部511は、その信頼度ρkを、入力重み調整部212と出力重み調整部213に供給する。 After the processing of step S121, the process proceeds to step S122, in which the reliability calculation unit 511 initializes the time series data of each dimension supplied from the feature extraction unit 13 and the internal state quantity supplied from the internal state quantity update unit 512. Based on the value, the reliability ρ k of each dimension is calculated according to the above-described equation (9). The reliability calculation unit 511 supplies the reliability ρ k to the input weight adjustment unit 212 and the output weight adjustment unit 213.

ステップS122の処理後は、ステップS123に進み、入力重み調整部212は、信頼度計算部511からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、認識時に用いられる認識入力重みαrkを調整する。 After the process of step S122, the process proceeds to step S123, and the input weight adjustment unit 212 stores the input weight storage unit 52 in FIG. 4 based on the reliability ρ k from the reliability calculation unit 511 during recognition. adjusting the recognition input weights .alpha.r k used.

ステップS123の処理後は、ステップS124に進み、出力重み調整部213は、入力重み調整部212と同様に、信頼度計算部511からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、認識時に用いられる認識出力重みβrkを調整し、ステップS125に進む。 After the processing of step S123, the process proceeds to step S124, and the output weight adjustment unit 213 stores the output weight storage unit 53 based on the reliability ρ k from the reliability calculation unit 511, similarly to the input weight adjustment unit 212. is to adjust the recognition output weights .beta.r k used during recognition, the process proceeds to step S125.

なお、ステップS125乃至S128の処理は、図14のステップS75乃至S78と同様であるので、説明は省略する。   Note that the processing of steps S125 to S128 is the same as steps S75 to S78 of FIG.

次に、図21を参照して、図19の生成部502が時系列データを生成する生成処理について説明する。この生成処理は、例えば、出力部217から出力された認識結果17が制御信号18として入力されたとき、開始される。   Next, a generation process in which the generation unit 502 of FIG. 19 generates time-series data will be described with reference to FIG. This generation process is started, for example, when the recognition result 17 output from the output unit 217 is input as the control signal 18.

ステップS131において、生成ノード決定部314は、制御信号18に基づいて、時系列データを生成すべきノード41である生成ノードを決定する。生成ノード決定部314は、決定された生成ノードを特定する情報を、内部状態読み込み部522に供給する。   In step S131, the generation node determination unit 314 determines a generation node, which is the node 41 that should generate time-series data, based on the control signal 18. The generation node determination unit 314 supplies information specifying the determined generation node to the internal state reading unit 522.

ステップS131の処理後は、ステップS132に進み、内部状態読み込み部522は、生成ノード決定部314からの情報に基づいて、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークに含まれるノード41のうちの生成ノードの力学系近似モデル51に、内部状態記憶部21に記憶されている内部状態量の初期値を読み込む。   After the processing of step S131, the process proceeds to step S132, and the internal state reading unit 522 is based on the information from the generation node determination unit 314, among the nodes 41 included in the dynamics storage network stored in the network storage unit 15. The initial value of the internal state quantity stored in the internal state storage unit 21 is read into the dynamic system approximation model 51 of the generation node.

ステップS132の処理後は、ステップS133に進み、信頼度計算部521は、信頼度計算部501と同様に、特徴抽出部13から供給される各次元の時系列データと内部状態読み込み部522から供給される内部状態量の初期値とに基づいて、上述した式(9)にしたがい、各次元の信頼度ρkを計算する。信頼度計算部511は、計算の結果得られる信頼度ρkを、入力重み調整部312と出力重み調整部313に供給する。 After the process of step S132, the process proceeds to step S133, and the reliability calculation unit 521 supplies the time series data of each dimension supplied from the feature extraction unit 13 and the internal state reading unit 522, like the reliability calculation unit 501. Based on the initial value of the internal state quantity, the reliability ρ k of each dimension is calculated according to the above-described equation (9). The reliability calculation unit 511 supplies the reliability ρ k obtained as a result of the calculation to the input weight adjustment unit 312 and the output weight adjustment unit 313.

ステップS133の処理後は、ステップS134に進み、入力重み調整部312は、信頼度計算部511からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、生成時に用いられる生成入力重みαgkを調整する。 After the processing of step S133, the process proceeds to step S134, and the input weight adjustment unit 312 is stored in the input weight storage unit 52 of FIG. 4 based on the reliability ρ k from the reliability calculation unit 511. Adjust the generated input weight αg k used.

ステップS134の処理後は、ステップS135に進み、出力重み調整部313は、入力重み調整部312と同様に、信頼度抽出部311からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、生成時に用いられる生成出力重みβgkを調整し、ステップS136に進む。 After the processing of step S134, the process proceeds to step S135, and the output weight adjustment unit 313 stores the output weight storage unit 53 in the same manner as the input weight adjustment unit 312 based on the reliability ρ k from the reliability extraction unit 311. The generated output weight βg k used at the time of generation is adjusted, and the process proceeds to step S136.

ステップS136とS137の処理は、図15のステップS96とステップS97の処理と同一であるので、説明は省略する。   The processing in steps S136 and S137 is the same as the processing in steps S96 and S97 in FIG.

図22は、図1の認識部と生成部のさらに他の詳細構成例を示すブロック図である。   FIG. 22 is a block diagram illustrating still another detailed configuration example of the recognition unit and the generation unit in FIG. 1.

なお、図22の認識部601と生成部602は、図10の学習部120に対応しており、学習部120により学習が行われたダイナミクス記憶ネットワークを用いて、認識生成を行う。   Note that the recognition unit 601 and the generation unit 602 in FIG. 22 correspond to the learning unit 120 in FIG. 10 and perform recognition generation using the dynamics storage network learned by the learning unit 120.

即ち、図22の認識部601には、図13の信頼度抽出部211、入力重み調整部212、出力重み調整部213の代わりに、基重み取得部611、入力重み調整部612、出力重み調整部613が設けられており、学習時に図10の学習部120により計算された基重みωkに基づいて、認識入力重みαrkと認識出力重みβrkが調整される。 That is, the recognition unit 601 in FIG. 22 includes a base weight acquisition unit 611, an input weight adjustment unit 612, and an output weight adjustment instead of the reliability extraction unit 211, the input weight adjustment unit 212, and the output weight adjustment unit 213 in FIG. The unit 613 is provided, and the recognition input weight αr k and the recognition output weight βr k are adjusted based on the base weight ω k calculated by the learning unit 120 of FIG. 10 during learning.

基重み取得部611は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード141の基重み係数記憶部142から、基重みωkを取得する。基重み取得部611は、その基重みωkを入力重み調整部612と出力重み調整部613に供給する。 The base weight acquisition unit 611 acquires the base weight ω k from the base weight coefficient storage unit 142 of each node 141 of the dynamics storage network stored in the network storage unit 15. The base weight acquisition unit 611 supplies the base weight ω k to the input weight adjustment unit 612 and the output weight adjustment unit 613.

入力重み調整部612は、基重み取得部611からの基重みωkに基づいて、基重みωkが大きい次元に対して認識入力重みαrkが大きくなるように、認識入力重みαrkを決定し、入力重み記憶部52に記憶させる。例えば、入力重み調整部612は、基重みωkを認識入力重みαrkとして入力重み記憶部52に記憶させる。これにより、入力重み記憶部52に記憶されている認識入力重みαrkが調整される。 Input-weight adjuster 612, based on the basis weight omega k from the base-weight acquisition unit 611, as Motoomomi omega k recognition input weights .alpha.r k relative dimensions larger increases, determining the recognition input weights .alpha.r k And stored in the input weight storage unit 52. For example, the input weight adjustment unit 612 stores the base weight ω k in the input weight storage unit 52 as the recognition input weight αr k . Thus, recognition input weights .alpha.r k stored in the input-weight storage unit 52 is adjusted.

出力重み調整部613は、入力重み調整部612と同様に、基重み取得部611からの基重みωkに基づいて、認識出力重みβrkを決定し、出力重み記憶部53に記憶させることにより、認識出力重みβrkを調整する。例えば、出力重み調整部612は、基重みωkを認識出力重みβrkとして出力重み記憶部53に記憶させる。 Similar to the input weight adjustment unit 612, the output weight adjustment unit 613 determines the recognition output weight βr k based on the base weight ω k from the base weight acquisition unit 611 and stores it in the output weight storage unit 53. adjusts the recognition output weights .beta.r k. For example, the output weight adjustment unit 612 stores the base weight ω k as the recognition output weight βr k in the output weight storage unit 53.

以上のように、入力重み調整部612と出力重み調整部613は、基重みωkに基づいて、基重みωkが大きい次元に対して認識入力重みαrkと認識出力重みβrkが大きくなるように、認識入力重みαrkと認識出力重みβrkを決定するので、学習時に着目された次元が、認識時においても着目される。 As described above, the output-weight adjuster 613 to the input-weight adjuster 612, based on Motoomomi omega k, recognition input weights .alpha.r k and recognition output weights .beta.r k increases relative dimensions Motoomomi omega k is greater as such, because it determines the recognition input weights .alpha.r k and recognition output weights .beta.r k, the dimension which is focused on the learning is also noted at the time of recognition.

例えば、センサ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx1tとx2t、並びにモータ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx3tとx4tのうち、状態ベクトルx1tとx3tに着目して学習が行われたノード141に対応する基重みω1とω3は、1となり、基重みω2とω4は0となる。この場合、例えば、基重みωkがそのまま認識入力重みαrkと認識出力重みβrkに決定され、認識時において、特徴抽出部13から供給される時系列データに対応する4次元のうち、状態ベクトルx1tとx3tに対応する1次元目と3次元目が着目される。 For example, among the state vectors x1 t and x2 t at the time t in the two-dimensional time series data corresponding to the sensor signal, and the state vectors x3 t and x4 t at the time t in the two-dimensional time series data corresponding to the motor signal The base weights ω 1 and ω 3 corresponding to the node 141 learned by focusing on the state vectors x1 t and x3 t are 1, and the base weights ω 2 and ω 4 are 0. In this case, for example, the base weight ω k is determined as it is as the recognition input weight αr k and the recognition output weight βr k , and among the four dimensions corresponding to the time-series data supplied from the feature extraction unit 13 at the time of recognition, The first and third dimensions corresponding to the vectors x1 t and x3 t are noted.

なお、入力重み調整部612と出力重み調整部613は、基重みωkをそのまま入力重みαrkと出力重みβrkにするのではなく、基重みωkに認識時の信頼度ρkを乗算したものを入力重みαrkと出力重みβrkにするようにしてもよい。この場合、認識時の信頼度ρkとして、特徴抽出部13から供給される時系列データに付加された信頼度ρkや、予測誤差εkにより計算された信頼度ρkを用いることができる。 The input weight adjuster 612 and the output-weight adjuster 613, Motoomomi omega k instead of directly to input weights .alpha.r k and output weights .beta.r k a, multiplied by the confidence [rho k during recognition Motoomomi omega k it may be the input weights .alpha.r k and output weights .beta.r k what was. In this case, as the reliability [rho k recognition time, it is possible to use and reliability [rho k, which is added to the time-series data supplied from the feature extraction unit 13, the calculated confidence [rho k by the prediction error epsilon k .

また、図22の生成部602には、図13の信頼度抽出部311、入力重み調整部312、出力重み調整部313の代わりに、基重み取得部621、入力重み調整部622、出力重み調整部623が設けられており、学習時に図10の学習部120により計算された基重みωkに基づいて、生成入力重みαgkと生成出力重みβgkが調整される。 22 includes a base weight acquisition unit 621, an input weight adjustment unit 622, and an output weight adjustment instead of the reliability extraction unit 311, the input weight adjustment unit 312, and the output weight adjustment unit 313 in FIG. A unit 623 is provided, and the generation input weight αg k and the generation output weight βg k are adjusted based on the base weight ω k calculated by the learning unit 120 of FIG. 10 during learning.

基重み取得部621は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード141の基重み係数記憶部142から、基重みωkを取得する。基重み取得部621は、その基重みωkを入力重み調整部622と出力重み調整部623に供給する。 The base weight acquisition unit 621 acquires the base weight ω k from the base weight coefficient storage unit 142 of each node 141 of the dynamics storage network stored in the network storage unit 15. The base weight acquisition unit 621 supplies the base weight ω k to the input weight adjustment unit 622 and the output weight adjustment unit 623.

入力重み調整部622は、入力重み調整部612と同様に、基重み取得部621からの基重みωkに基づいて、基重みωkが大きい次元に対して生成入力重みαgkが大きくなるように、生成入力重みαgkを決定し、入力重み記憶部52に記憶させる。これにより、入力重み記憶部52に記憶されている生成入力重みαgkが調整される。 Input-weight adjuster 622, like the input-weight adjuster 612, on the basis of the base weights omega k from base weight obtainer 621, Motoomomi omega k generation input weights .alpha.g k to increase relative to dimensions greater Then, the generated input weight αg k is determined and stored in the input weight storage unit 52. As a result, the generated input weight αg k stored in the input weight storage unit 52 is adjusted.

出力重み調整部623は、出力重み調整部613と同様に、基重み取得部621からの基重みωkに基づいて、生成出力重みβgkを決定し、出力重み記憶部53に記憶させることにより、生成出力重みβgkを調整する。 Similarly to the output weight adjustment unit 613, the output weight adjustment unit 623 determines the generated output weight βg k based on the base weight ω k from the base weight acquisition unit 621 and stores it in the output weight storage unit 53. The generated output weight βg k is adjusted.

以上のように、入力重み調整部622と出力重み調整部623は、入力重み調整部612と出力重み調整部613と同様に、基重みωkに基づいて、生成入力重みαgkと生成出力重みβgkを決定するので、学習時に着目された次元が、生成時においても着目される。 As described above, the input weight adjustment unit 622 and the output weight adjustment unit 623 are similar to the input weight adjustment unit 612 and the output weight adjustment unit 613 based on the base weight ω k and the generated input weight αg k and the generated output weight. Since βg k is determined, the dimension focused on at the time of learning is also focused on at the time of generation.

例えば、センサ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx1tとx2t、並びにモータ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx3tとx4tのうち、状態ベクトルx1tとx3tに着目して学習が行われたノード41に対応する基重みω1とω3は、1となり、基重みω2とω4は0となる。 For example, among the state vectors x1 t and x2 t at the time t in the two-dimensional time series data corresponding to the sensor signal, and the state vectors x3 t and x4 t at the time t in the two-dimensional time series data corresponding to the motor signal The base weights ω 1 and ω 3 corresponding to the node 41 learned by focusing on the state vectors x1 t and x3 t are 1, and the base weights ω 2 and ω 4 are 0.

この場合、例えば、基重みωkがそのまま生成入力重みαgkと生成出力重みβgkに決定され、生成時において、特徴抽出部13から供給される時系列データに対応する4次元のうち、状態ベクトルx1tとx3tに対応する1次元目と3次元目が着目される。その結果、時系列データ生成部316は、力学系近似モデル51から得た4次元の出力データのうち、1次元目と3次元目の出力データのみを時系列データとして生成する。 In this case, for example, Motoomomi omega k is determined to generate input weights .alpha.g k and generation output weights .beta.g k as is, in the generation time, of the four-dimensional corresponding to time-series data supplied from the feature extraction unit 13, the state The first and third dimensions corresponding to the vectors x1 t and x3 t are noted. As a result, the time-series data generating unit 316 generates only the first-dimensional and third-dimensional output data as the time-series data among the four-dimensional output data obtained from the dynamic system approximate model 51.

このように、基重みωkに基づいて生成入力重みαgkを決定することにより、学習時に着目しなかった次元の出力データが、生成結果20として出力されることを防止することができる。これにより、生成ノードとするノード141によって、例えば、両手信号に対応する時系列データだけが生成されたり、両足信号に対応する時系列データだけが生成される。 In this way, by determining the generation input weight αg k based on the base weight ω k , it is possible to prevent output data of a dimension not focused at the time of learning from being output as the generation result 20. Thereby, for example, only the time-series data corresponding to the two-hand signal is generated by the node 141 as the generation node, or only the time-series data corresponding to the both-leg signal is generated.

次に、図23を参照して、図22の認識部601が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から時系列データが供給されたとき、開始される。   Next, a recognition process in which the recognition unit 601 in FIG. 22 recognizes time-series data will be described with reference to FIG. This recognition process is started, for example, when time series data is supplied from the feature extraction unit 13.

ステップS141において、基重み取得部611は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード141の基重み係数記憶部142から、基重みωkを取得する。基重み取得部611は、その基重みωkを入力重み調整部612と出力重み調整部613に供給する。 In step S <b> 141, the base weight acquisition unit 611 acquires the base weight ω k from the base weight coefficient storage unit 142 of each node 141 of the dynamics storage network stored in the network storage unit 15. The base weight acquisition unit 611 supplies the base weight ω k to the input weight adjustment unit 612 and the output weight adjustment unit 613.

ステップS141の処理後は、ステップS142に進み、入力重み調整部612は、基重み取得部611からの基重みωkに基づいて、認識入力重みαrkを、入力重み記憶部52に記憶させることにより、認識入力重みαrkを調整する。 After the processing of step S141, the process proceeds to step S142, and the input weight adjustment unit 612 stores the recognized input weight αr k in the input weight storage unit 52 based on the base weight ω k from the base weight acquisition unit 611. Accordingly, adjusting the recognition input weights .alpha.r k.

ステップS142の処理後は、ステップS143に進み、出力重み調整部613は、入力重み調整部612と同様に、基重み取得部611からの基重みωkに基づいて、認識出力重みβrkを、出力重み記憶部53に記憶させることにより、認識出力重みβrkを調整し、ステップS144に進む。 After the processing of step S142, the process proceeds to step S143, and the output weight adjustment unit 613 determines the recognition output weight βr k based on the base weight ω k from the base weight acquisition unit 611, similarly to the input weight adjustment unit 612. by the output-weight storage unit 53, adjusts the recognition output weights .beta.r k, the process proceeds to step S144.

ステップS144乃至S148の処理は、図14のステップS74乃至S78と同一の処理であるので、説明は省略する。   The processing in steps S144 to S148 is the same as that in steps S74 to S78 in FIG.

次に、図24を参照して、図22の生成部602が時系列データを生成する生成処理について説明する。この生成処理は、例えば、出力部217から出力された認識結果17が制御信号18として入力されたとき、開始される。   Next, a generation process in which the generation unit 602 in FIG. 22 generates time-series data will be described with reference to FIG. This generation process is started, for example, when the recognition result 17 output from the output unit 217 is input as the control signal 18.

ステップS151において、基重み取得部621は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード141の基重み係数記憶部142から、基重みωkを取得する。基重み取得部621は、その基重みωkを入力重み調整部622と出力重み調整部623に供給する。 In step S151, the base weight acquisition unit 621 acquires the base weight ω k from the base weight coefficient storage unit 142 of each node 141 of the dynamics storage network stored in the network storage unit 15. The base weight acquisition unit 621 supplies the base weight ω k to the input weight adjustment unit 622 and the output weight adjustment unit 623.

ステップS151の処理後は、ステップS152に進み、入力重み調整部622は、入力重み調整部612と同様に、基重み取得部621からの基重みωkに基づいて、生成入力重みωkを入力重み記憶部52に記憶させることにより、生成入力重みαgkを調整する。 After the processing of step S151, the process proceeds to step S152, and the input weight adjustment unit 622 inputs the generated input weight ω k based on the base weight ω k from the base weight acquisition unit 621, similarly to the input weight adjustment unit 612. The generation input weight αg k is adjusted by storing it in the weight storage unit 52.

ステップS152の処理後は、ステップS153に進み、出力重み調整部623は、出力重み調整部613と同様に、基重み取得部621からの基重みωkに基づいて、生成出力重みβgkを、出力重み記憶部53に記憶させることにより、生成出力重みβgkを調整し、ステップS154に進む。 After the processing of step S152, the process proceeds to step S153, and the output weight adjustment unit 623, like the output weight adjustment unit 613, generates the generated output weight βg k based on the base weight ω k from the base weight acquisition unit 621. By making it memorize | store in the output weight memory | storage part 53, production | generation output weight (beta) gk is adjusted and it progresses to step S154.

なお、ステップS154乃至S157の処理は、図15のステップS94乃至S97の処理と同一であるので、説明は省略する。   Note that the processing in steps S154 to S157 is the same as the processing in steps S94 to S97 in FIG.

図25は、図1の認識部のさらに他の詳細構成例を示すブロック図である。   FIG. 25 is a block diagram illustrating still another detailed configuration example of the recognition unit in FIG.

図25の認識部701には、図22の決定部216の代わりに、決定部711が設けられており、スコアが所定の範囲内にあるノード141のすべてが勝者ノードとして決定される。   The recognition unit 701 in FIG. 25 is provided with a determination unit 711 instead of the determination unit 216 in FIG. 22, and all of the nodes 141 whose scores are within a predetermined range are determined as winner nodes.

決定部711は、スコア計算部215からのスコアに基づいて、最も小さいスコアの値を含む所定の範囲内の値のスコアに対応するすべてのノードを、勝者ノードとして決定する。即ち、決定部711は、スコアに基づいて、スコアの値が最も小さいノード、即ち特徴量抽出部13から供給される時系列データに最も適合するダイナミクスを保持するノードを最勝者ノードとして決定し、最勝者ノードと、その最勝者ノードに対応するスコアの値から所定の範囲内に値があるスコアに対応するノードとを、勝者ノードとして決定する。   Based on the score from the score calculation unit 215, the determination unit 711 determines all the nodes corresponding to the score of a value within a predetermined range including the smallest score value as a winner node. That is, the determination unit 711 determines, based on the score, the node having the smallest score value, that is, the node that holds the dynamics most suitable for the time-series data supplied from the feature amount extraction unit 13, as the best winner node. The winner node is determined as the winner node and the node corresponding to the score having a value within a predetermined range from the score value corresponding to the winner node.

なお、所定の範囲とは、所定の定数の範囲、最も小さいスコアの値のA(A>1)倍以内の範囲などである。決定部711は、勝者ノードを特定する信号を、出力部217に供給する。   The predetermined range includes a predetermined constant range, a range within A (A> 1) times the smallest score value, and the like. The determination unit 711 supplies a signal specifying the winner node to the output unit 217.

これにより、生成部602には、最も小さいスコアの値を含む所定の範囲内の値のスコアに対応するすべてのノード141を勝者ノードとして、特定する信号が制御信号18として供給される。その結果、勝者ノードのすべてが生成ノードとして決定され、時系列データ生成部316は、勝者ノードの各ノード141に対応する力学系近似モデル51から得た次元ごとの出力データに対して、ノード41ごとに、生成出力重みβgkに基づいて重み付けを行い、その結果得られる各ノード41の出力データを合わせて、時系列データとして生成する。 As a result, the generation unit 602 is supplied with a control signal 18 that specifies all nodes 141 corresponding to the score of values within a predetermined range including the smallest score value as winner nodes. As a result, all of the winner nodes are determined as generation nodes, and the time-series data generation unit 316 outputs node 41 for the output data for each dimension obtained from the dynamical approximate model 51 corresponding to each node 141 of the winner node. Each time, weighting is performed based on the generated output weight βg k, and the output data of each node 41 obtained as a result is combined and generated as time series data.

例えば、1つの勝者ノードの出力データのうちの、両手信号に対応する時系列データと、他の勝者ノードの出力データのうちの、両足信号に対応する時系列データとが合わせて、時系列データとして生成される。   For example, the time-series data corresponding to the two-hand signal in the output data of one winner node and the time-series data corresponding to the both-leg signal in the output data of the other winner node Is generated as

このように、決定部711は、勝者ノードとして決定するノード141のスコアを、最も小さいスコアの値を含む所定の範囲内のスコアとするので、入力される観測信号11に矛盾する生成結果20が生成されることを抑制することができる。   Thus, since the determination unit 711 sets the score of the node 141 determined as the winner node to a score within a predetermined range including the smallest score value, the generation result 20 that contradicts the input observation signal 11 is obtained. Generation | occurrence | production can be suppressed.

また、決定部711は、最も小さいスコアの値を含む所定の範囲内のスコアに対応するノード141を勝者ノードとして決定し、時系列データ生成部316が、その勝者ノードから出力される各次元の出力データに対して、生成出力重みβgkに基づいて重み付けを行うので、勝者ノードの中で、次元に対する着目すべき度合が最も高いノード141から出力される時系列データが、次元ごとに選択される。これにより、より観測信号11に適した生成結果20を生成することができる。その結果、例えば、ロボットに、より実際の状況に即した行動を行わせることができる。 In addition, the determination unit 711 determines a node 141 corresponding to a score within a predetermined range including the smallest score value as a winner node, and the time-series data generation unit 316 outputs each dimension output from the winner node. Since the output data is weighted based on the generated output weight βg k , the time series data output from the node 141 having the highest degree of attention to the dimension among the winner nodes is selected for each dimension. The Thereby, the generation result 20 more suitable for the observation signal 11 can be generated. As a result, for example, it is possible to cause the robot to perform an action in accordance with the actual situation.

次に、図26を参照して、図25の認識部701が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から時系列データが供給されたとき、開始される。   Next, a recognition process in which the recognition unit 701 in FIG. 25 recognizes time-series data will be described with reference to FIG. This recognition process is started, for example, when time series data is supplied from the feature extraction unit 13.

ステップS161乃至S166の処理は、図14のステップS91乃至S96の処理と同様であるので説明は省略する。   The processing in steps S161 through S166 is the same as the processing in steps S91 through S96 in FIG.

ステップS166の処理後は、ステップS167に進み、決定部711は、スコア計算部215からのスコアに基づいて、最も小さいスコアの値を含む所定の範囲内の値のスコアに対応するすべてのノードを、勝者ノードとして決定する。決定部711は、決定された勝者ノードを特定する信号を、出力部217に供給する。   After the processing of step S166, the process proceeds to step S167, and the determination unit 711 determines all the nodes corresponding to the score of a value within a predetermined range including the value of the smallest score based on the score from the score calculation unit 215. Determine as the winner node. The determination unit 711 supplies a signal specifying the determined winner node to the output unit 217.

ステップS167の処理後は、ステップS168に進み、出力部217は、決定部216からの勝者ノードを特定する信号を、認識結果17として出力し、処理を終了する。   After the process of step S167, it progresses to step S168, the output part 217 outputs the signal which identifies the winner node from the determination part 216 as the recognition result 17, and complete | finishes a process.

図27Aと図27B、並びに図28Aと図28Bは、学習時に学習入力重みαskと学習出力重みβskに基づいて重み付けを行うことによる効果を検証するための実験の結果を示すグラフである。 FIGS. 27A and 27B and FIGS. 28A and 28B are graphs showing the results of experiments for verifying the effects of weighting based on the learning input weight αs k and the learning output weight βs k during learning.

図27Aと図27B、並びに図28Aと図28Bでは、赤い車で遊ぶというタスクAに対応する時系列データと、緑色のボールを上下させるというタスクBに対応する時系列データとを用いて、1つのRNNで学習が行われている。   In FIGS. 27A and 27B, and FIGS. 28A and 28B, using time-series data corresponding to task A of playing with a red car and time-series data corresponding to task B of raising and lowering a green ball, Learning is done at one RNN.

図27Aと図27B、並びに図28Aと図28Bは、このRNNで、タスクAとタスクBの視覚情報に対応する時系列データを混合させた時系列データ、即ち擬似的に作成された、赤い車と緑色のボールの両方が見えているときの視覚情報に対応する時系列データを入力して認識生成を行わせたときの生成結果20を示している。   27A and 27B, and FIGS. 28A and 28B are time series data obtained by mixing the time series data corresponding to the visual information of task A and task B, that is, a pseudo car created in a pseudo manner. The generation result 20 when the recognition generation is performed by inputting time-series data corresponding to visual information when both the green ball and the green ball are visible is shown.

なお、図27Aと図27B、並びに図28Aと図28Bにおいて、横軸は時間ステップを表し、縦軸はロボットの関節角度をRNN用に正規化した値を表している。このことは、後述する図29Aと図29B、並びに図30Aと図30Bにおいても同様である。また、図27Aと図28Aは、目標とする生成結果を示している。   In FIGS. 27A and 27B, and FIGS. 28A and 28B, the horizontal axis represents a time step, and the vertical axis represents a value obtained by normalizing the joint angle of the robot for RNN. This also applies to FIGS. 29A and 29B and FIGS. 30A and 30B described later. FIG. 27A and FIG. 28A show the target generation results.

図27Bは、学習時に重み付けを行わなかったRNNで認識生成を行ったときの生成結果20を示すグラフである。図27Aと図27Bを比較すると、学習時に重み付けを行わなかったRNNで認識生成を行った場合、図27Aに示す目標とする生成結果の時系列パターンに近い時系列パターンの生成結果を生成することができていないことがわかる。実験では、特にタスクBの認識生成ができなかった。   FIG. 27B is a graph showing a generation result 20 when recognition generation is performed using an RNN that is not weighted during learning. Comparing FIG. 27A and FIG. 27B, when recognition generation is performed with an RNN that is not weighted at the time of learning, a generation result of a time series pattern that is close to the target generation result time series pattern shown in FIG. 27A is generated. It can be seen that is not done. In the experiment, task B could not be recognized and generated.

一方、図28Bは、学習時に視覚に関する次元に対する学習入力重みαskと学習出力重みβskを他の次元に比べて大きくして重み付けを行ったRNNで認識生成を行ったときの生成結果20を示すグラフである。図28Aと図28Bを比較すると、学習時に重み付けを行ったRNNで認識生成を行った場合、図28Aに示す目標とする生成結果の時系列パターンに近い時系列パターンの生成結果を生成することができていることがわかる。即ち、この場合、タスクAとタスクBの認識生成が正確に行われている。 On the other hand, FIG. 28B shows the generation result 20 when the recognition generation is performed by the RNN weighted by increasing the learning input weight αs k and the learning output weight βs k for the dimension relating to vision at the time of learning compared to other dimensions. It is a graph to show. Comparing FIG. 28A and FIG. 28B, when the recognition generation is performed with the RNN weighted at the time of learning, the generation result of the time series pattern close to the target generation time series pattern shown in FIG. 28A may be generated. You can see that it is made. That is, in this case, task A and task B are recognized and generated accurately.

以上により、学習時に学習入力重みαskと学習出力重みβskに基づいて重み付けを行うことにより、学習時と同一の観測信号11だけでなく、学習時とは異なる観測信号11に対しても認識生成を行うことができるということがわかる。即ち、学習時と同一の環境のときはもとより、未知の環境においてもロバストネスがあがるということがわかる。 As described above, by performing weighting based on the learning input weight αs k and the learning output weight βs k during learning, not only the observation signal 11 that is the same as that during learning but also the observation signal 11 that is different from that during learning is recognized. It can be seen that generation can be performed. That is, it can be seen that robustness is improved not only in the same environment as in learning but also in an unknown environment.

次に、図29Aと図29B、並びに図30Aと図30Bは、認識生成時に認識入力重みαrkと認識出力重みβrk、並びに生成入力重みαgkと生成出力重みβgkに基づいて重み付けを行うことによる効果を検証するための実験の結果を示すグラフである。 Next, FIGS. 29A and FIG. 29B and FIGS. 30A and FIG. 30B, performs weighting on the basis of the time of recognition generating recognition input weights .alpha.r k and recognition output weights .beta.r k, and the generation input weights .alpha.g k and generation output weights .beta.g k It is a graph which shows the result of the experiment for verifying the effect by.

なお、図29Aと図29B、並びに図30Aと図30Bは、図27Aと図27B、並びに図28Aと図28Bと同様の実験が行われた結果を示すグラフである。   29A and 29B and FIGS. 30A and 30B are graphs showing the results of experiments similar to those shown in FIGS. 27A and 27B and FIGS. 28A and 28B.

なお、図29Aと図30Aは、目標とする生成結果を示している。   Note that FIG. 29A and FIG. 30A show the target generation results.

図29Bは、認識生成時に重み付けを行わなかったRNNで認識生成を行ったときの生成結果20を示すグラフである。図29Aと図29Bを比較すると、認識生成時に重み付けを行わなかったRNNで認識生成を行った場合、図29Aに示す目標とする生成結果の時系列パターンに近い時系列パターンの生成結果を生成することができていないことがわかる。即ち、この場合、認識生成が正確に行われていない。   FIG. 29B is a graph showing a generation result 20 when recognition generation is performed with an RNN that is not weighted at the time of recognition generation. Comparing FIG. 29A and FIG. 29B, when recognition generation is performed with an RNN that is not weighted at the time of recognition generation, a generation result of a time series pattern close to the target generation result time series pattern shown in FIG. 29A is generated. You can see that it was not possible. That is, in this case, recognition generation is not performed accurately.

一方、図30Bは、認識生成時に視覚に関する次元に対する認識入力重みαrkと認識出力重みβrk、並びに生成入力重みαgkと生成出力重みβgkを他の次元に比べて大きくして重み付けを行ったRNNで認識生成を行ったときの生成結果20を示すグラフである。図30Aと図30Bを比較すると、認識生成時に重み付けを行ったRNNで認識生成を行った場合、図30Aに示す目標とする生成結果の時系列パターンに近い時系列パターンの生成結果を生成することができていることがわかる。即ち、この場合、タスクAとタスクBの認識生成が正確に行われている。 On the other hand, FIG. 30B is carried out a recognition input weights .alpha.r k for dimensions on Visual upon recognition generating recognition output weights .beta.r k, and weighting the generated input weights .alpha.g k and generation output weights .beta.g k and larger than the other dimension It is a graph which shows the production | generation result 20 when performing recognition production | generation with RRN. Comparing FIG. 30A and FIG. 30B, when recognition generation is performed with the RNN weighted at the time of recognition generation, a generation result of a time series pattern close to the target generation time series pattern shown in FIG. 30A is generated. You can see that That is, in this case, task A and task B are recognized and generated accurately.

以上により、認識生成時に認識入力重みαrkと認識出力重みβrk、並びに生成入力重みαgkと生成出力重みβgkに基づいて重み付けを行うことにより、認識生成の能力を安定化し、性能を向上させることができるということがわかる。 Thus, recognition input weights .alpha.r k and recognition output weights .beta.r k during recognition generating and by performing weighting on the basis of the generation input weights .alpha.g k and generation output weights .beta.g k, to stabilize the capacity of the recognition generating, improve performance You can see that

以上のように、図1の情報処理装置1は、力学系近似モデル51の入力層61の各ユニットに入力される入力データに対する次元ごとの重み係数である入力重みを、次元ごとに調整し、出力層63の各ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整するので、RNNにおいて、多次元の時系列データを効率的に扱うことができる。   As described above, the information processing apparatus 1 in FIG. 1 adjusts the input weight, which is a weighting factor for each dimension, with respect to the input data input to each unit of the input layer 61 of the dynamical approximate model 51 for each dimension. Since the output weighting coefficient, which is the weighting coefficient for each dimension for the output data of a plurality of dimensions, output from each unit of the output layer 63 is adjusted for each dimension, multi-dimensional time-series data can be efficiently converted in the RNN. Can be handled.

なお、上述した説明では、時系列データに対して得られるべき出力の真値と、その時系列データに対する力学系近似モデル51からの出力値との平均二乗誤差を、スコアとしたが、スコアは、これに限定されず、例えば真値と出力値の距離、確率などであってもよい。スコアが距離である場合、平均二乗誤差である場合と同様に、スコアの値が小さいノードが勝者ノードとして決定されるが、スコアが確率である場合、スコアの値が大きいノードが勝者ノードとして決定される。   In the above description, the mean square error between the true value of the output to be obtained for the time series data and the output value from the dynamic system approximation model 51 for the time series data is used as a score. It is not limited to this, For example, the distance of a true value and an output value, a probability, etc. may be sufficient. When the score is a distance, the node with the smaller score value is determined as the winner node as in the case of the mean square error, but when the score is the probability, the node with the higher score value is determined as the winner node. Is done.

また、上述した説明では、複数のノードによって構成されるダイナミクス記憶ネットワークを用いて、学習、認識、生成が行われたが、1つのノードを用いて学習や生成を行うようにしてもよい。   In the above description, learning, recognition, and generation are performed using a dynamics storage network including a plurality of nodes, but learning and generation may be performed using one node.

次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。   Next, the series of processes described above can be performed by hardware or software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.

そこで、図31は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。   Therefore, FIG. 31 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.

プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク805やROM803に予め記録しておくことができる。   The program can be recorded in advance in a hard disk 805 or a ROM 803 as a recording medium built in the computer.

あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体811に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体811は、いわゆるパッケージソフトウエアとして提供することができる。   Alternatively, the program is temporarily stored in a removable recording medium 811 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored permanently (recorded). Such a removable recording medium 811 can be provided as so-called package software.

なお、プログラムは、上述したようなリムーバブル記録媒体811からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部808で受信し、内蔵するハードディスク805にインストールすることができる。   The program is installed in the computer from the removable recording medium 811 as described above, or transferred from the download site to the computer wirelessly via a digital satellite broadcasting artificial satellite, or a LAN (Local Area Network), The program can be transferred to a computer via a network such as the Internet. The computer can receive the program transferred in this way by the communication unit 808 and install it in the built-in hard disk 805.

コンピュータは、CPU(Central Processing Unit)802を内蔵している。CPU802には、バス801を介して、入出力インタフェース810が接続されており、CPU802は、入出力インタフェース810を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部807が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)803に格納されているプログラムを実行する。あるいは、また、CPU802は、ハードディスク805に格納されているプログラム、衛星若しくはネットワークから転送され、通信部808で受信されてハードディスク805にインストールされたプログラム、またはドライブ809に装着されたリムーバブル記録媒体811から読み出されてハードディスク805にインストールされたプログラムを、RAM(Random Access Memory)804にロードして実行する。これにより、CPU802は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU802は、その処理結果を、必要に応じて、例えば、入出力インタフェース810を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部806から出力、あるいは、通信部808から送信、さらには、ハードディスク805に記録等させる。   The computer includes a CPU (Central Processing Unit) 802. An input / output interface 810 is connected to the CPU 802 via a bus 801, and the CPU 802 operates an input unit 807 including a keyboard, a mouse, a microphone, and the like by the user via the input / output interface 810. When a command is input as a result of this, a program stored in a ROM (Read Only Memory) 803 is executed accordingly. Alternatively, the CPU 802 can also read from a program stored in the hard disk 805, a program transferred from a satellite or a network, received by the communication unit 808 and installed in the hard disk 805, or a removable recording medium 811 attached to the drive 809. The program read and installed in the hard disk 805 is loaded into a RAM (Random Access Memory) 804 and executed. Thereby, the CPU 802 performs processing according to the above-described flowchart or processing performed by the configuration of the above-described block diagram. Then, the CPU 802 outputs the processing result from the output unit 806 configured with an LCD (Liquid Crystal Display), a speaker, or the like, for example, via the input / output interface 810, or from the communication unit 808 as necessary. Transmission and further recording on the hard disk 805 are performed.

ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。   Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).

また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。   Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明を適用した情報処理装置の一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the information processing apparatus to which this invention is applied. 2次元の時系列データを用いて学習を行う場合の力学系近似モデルの例を示す図である。It is a figure which shows the example of the dynamical system approximation model in the case of learning using two-dimensional time series data. 6次元の時系列データを用いて学習を行う場合の力学系近似モデルの例を示す図である。It is a figure which shows the example of the dynamical system approximation model in the case of learning using 6-dimensional time series data. ノードの例を示す図である。It is a figure which shows the example of a node. 重み付けについて説明する図である。It is a figure explaining weighting. 学習部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a learning part. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 学習部の他の詳細構成例を示すブロック図である。It is a block diagram which shows the other detailed structural example of a learning part. 他の学習処理を説明するフローチャートである。It is a flowchart explaining another learning process. 学習部のさらに他の詳細構成例を示すブロック図である。It is a block diagram which shows the further detailed structural example of a learning part. ノードの他の例を示す図である。It is a figure which shows the other example of a node. さらに他の学習処理を説明するフローチャートである。It is a flowchart explaining other learning processing. 認識部と生成部の詳細構成例を示すブロック図である。It is a block diagram which shows the detailed structural example of a recognition part and a production | generation part. 認識処理を説明するフローチャートである。It is a flowchart explaining a recognition process. 生成処理を説明するフローチャートである。It is a flowchart explaining a production | generation process. 認識部と生成部の他の詳細構成例を示すブロック図である。It is a block diagram which shows the other detailed structural example of a recognition part and a production | generation part. 他の認識処理を説明するフローチャートである。It is a flowchart explaining another recognition process. 他の生成処理を説明するフローチャートである。It is a flowchart explaining another production | generation process. 認識部と生成部の他の詳細構成例を示すブロック図である。It is a block diagram which shows the other detailed structural example of a recognition part and a production | generation part. 他の認識処理を説明するフローチャートである。It is a flowchart explaining another recognition process. 他の生成処理を説明するフローチャートである。It is a flowchart explaining another production | generation process. 認識部と生成部のさらに他の詳細構成例を示すブロック図である。It is a block diagram which shows the further another detailed structural example of a recognition part and a production | generation part. さらに他の認識処理を説明するフローチャートである。It is a flowchart explaining other recognition processing. さらに他の生成処理を説明するフローチャートである。It is a flowchart explaining other generation processing. 認識部と生成部のさらに他の詳細構成例を示すブロック図である。It is a block diagram which shows the further another detailed structural example of a recognition part and a production | generation part. さらに他の認識処理を説明するフローチャートである。It is a flowchart explaining other recognition processing. 学習時に重み付けを行わなかったRNNを用いて認識生成を行った場合の実験結果を示すグラフである。It is a graph which shows the experimental result at the time of performing recognition production | generation using RNN which was not weighted at the time of learning. 学習時に重み付けを行ったRNNを用いて認識生成を行った場合の実験結果を示すグラフである。It is a graph which shows the experimental result at the time of performing recognition production | generation using RNN which weighted at the time of learning. 認識生成時に重み付けを行わなかった場合の実験結果を示すグラフである。It is a graph which shows the experimental result at the time of not performing weighting at the time of recognition production | generation. 認識生成時に重み付けを行った場合の実験結果を示すグラフである。It is a graph which shows the experimental result at the time of performing weighting at the time of recognition production | generation. 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this invention is applied.

符号の説明Explanation of symbols

14 学習部, 15 ネットワーク記憶部, 16 認識部, 19 生成部, 81 信頼度抽出部, 82 入力重み調整部, 83 出力重み調整部, 84 スコア計算部, 87 パラメータ更新部, 100 学習部, 101 重み取得部, 120 学習部, 121 基重み決定部, 211 信頼度抽出部, 212 入力重み調整部, 213 出力重み調整部, 215 スコア計算部, 311 信頼度抽出部, 312 入力重み調整部, 313 出力重み調整部, 316 時系列データ生成部, 401 認識部, 411 重み取得部, 402 生成部, 421 重み取得部, 501 認識部, 511 信頼度計算部, 502 生成部, 521 信頼度計算部, 601 認識部, 611 基重み取得部, 602 生成部, 621 基重み取得部, 802 CPU, 803 ROM, 804 RAM, 805 ハードディスク, 811 リムーバブル記録媒体   14 learning units, 15 network storage units, 16 recognition units, 19 generation units, 81 reliability extraction units, 82 input weight adjustment units, 83 output weight adjustment units, 84 score calculation units, 87 parameter update units, 100 learning units, 101 Weight acquisition unit, 120 learning unit, 121 base weight determination unit, 211 reliability extraction unit, 212 input weight adjustment unit, 213 output weight adjustment unit, 215 score calculation unit, 311 reliability extraction unit, 312 input weight adjustment unit, 313 Output weight adjustment unit, 316 time series data generation unit, 401 recognition unit, 411 weight acquisition unit, 402 generation unit, 421 weight acquisition unit, 501 recognition unit, 511 reliability calculation unit, 502 generation unit, 521 reliability calculation unit, 601 recognition unit, 611 base weight acquisition unit, 602 generation unit, 6 1 group weight obtaining unit, 802 CPU, 803 ROM, 804 RAM, 805 hard disk, 811 removable recording medium

Claims (16)

ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークを記憶する記憶手段と、
前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整する入力重み係数調整手段と、
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する出力重み係数調整手段と
を備える情報処理装置。
Storage means for storing dynamics in one node and storing a network constituted by a plurality of the nodes;
Input weight coefficient adjusting means for adjusting, for each dimension, an input weight coefficient that is a weight coefficient for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node;
An information processing apparatus comprising: output weight coefficient adjustment means for adjusting, for each dimension, an output weight coefficient that is a weight coefficient for each dimension for output data of a plurality of dimensions output from the output unit of the node.
前記時系列データには、前記次元ごとに信頼度が付加されており、
前記入力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記入力重み係数を前記次元ごとに調整し、
前記出力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記出力重み係数を前記次元ごとに調整する
請求項1に記載の情報処理装置。
In the time series data, reliability is added for each dimension,
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the reliability for each dimension,
The information processing apparatus according to claim 1, wherein the output weight coefficient adjustment unit adjusts the output weight coefficient for each dimension based on the reliability for each dimension.
外部から入力される前記入力重み係数と前記出力重み係数を取得する取得手段
をさらに備え、
前記入力重み係数調整手段は、前記取得手段により取得される入力重み係数に基づいて、前記入力重み係数を前記次元ごとに調整し、
前記出力重み係数調整手段は、前記取得手段により取得される出力重み係数に基づいて、前記出力重み係数を前記次元ごとに調整する
請求項1に記載の情報処理装置。
An acquisition means for acquiring the input weighting coefficient and the output weighting coefficient input from outside;
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the input weight coefficient acquired by the acquisition means,
The information processing apparatus according to claim 1, wherein the output weight coefficient adjustment unit adjusts the output weight coefficient for each dimension based on the output weight coefficient acquired by the acquisition unit.
1つ前に前記出力ユニットから出力された出力データと、新たに観測される時系列データとを、前記入力重み係数に対応する割合で、前記次元ごとに足し合わせ、その結果得られるデータを、前記入力データとして前記入力ユニットに入力する入力手段
をさらに備える
請求項1に記載の情報処理装置。
The output data output from the output unit one time before and the newly observed time-series data are added for each dimension at a ratio corresponding to the input weighting factor, and the resulting data is The information processing apparatus according to claim 1, further comprising: an input unit that inputs the input data to the input unit.
前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記出力重み係数に対応する割合で足し合わせて出力誤差とし、その出力誤差に基づいて、前記ノードの内部状態量の初期値を更新する内部状態更新手段と
をさらに備える
請求項1に記載の情報処理装置。
The error for each dimension between the input data and the output data output from the output unit immediately before is added at a ratio corresponding to the output weighting coefficient to obtain an output error, and based on the output error. The information processing apparatus according to claim 1, further comprising: an internal state update unit that updates an initial value of the internal state quantity of the node.
前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記ノードごとに前記出力重み係数に対応する割合で足し合わせて、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスに対応するノードである勝者ノードを決定する決定手段と、
前記勝者ノードからの距離に対応する度合で、各ノードの結線に付される重みを更新する重み更新手段と
を備える請求項1に記載の情報処理装置。
The error of each dimension between the input data and the output data output from the output unit immediately before is added at a ratio corresponding to the output weighting factor for each node, and an output error of each node is obtained. And determining means for determining a winner node which is a node corresponding to the dynamics most suitable for the input data, based on the output error of each node;
The information processing apparatus according to claim 1, further comprising: a weight updating unit configured to update a weight attached to the connection of each node to a degree corresponding to a distance from the winner node.
前記次元ごとの前記信頼度に基づいて、前記入力データを認識するとき、または時系列データを生成するときに用いられる入力重み係数と出力重み係数の基となる基重み係数を次元ごとに計算する基重み計算手段
をさらに備える
請求項2に記載の情報処理装置。
Based on the reliability for each dimension, a base weight coefficient used as a basis for an input weight coefficient and an output weight coefficient used when recognizing the input data or generating time-series data is calculated for each dimension. The information processing apparatus according to claim 2, further comprising base weight calculation means.
前記入力データと、その1つ前の入力データを、複数の前記ノードに対応する複数の前記ノードの入力ユニットにそれぞれ入力することにより、前記ノードごとに前記ノードの内部状態量を更新しながら得られる出力データとの次元ごとの誤差を、前記ノードごとに、前記出力重み係数に対応する割合で足し合わせ、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスを保持するノードである勝者ノードを決定する決定手段と、
前記勝者ノードを表す情報を、前記時系列データの認識結果として出力する認識手段と
を備える請求項1に記載の情報処理装置。
By inputting the input data and the previous input data to the input units of the plurality of nodes corresponding to the plurality of nodes, the internal state quantity of the node is updated for each node. The error for each dimension with respect to the output data obtained is added for each node at a ratio corresponding to the output weighting coefficient to obtain an output error for each node. Based on the output error for each node, A determination means for determining a winner node which is a node having a matching dynamics;
The information processing apparatus according to claim 1, further comprising: a recognition unit that outputs information representing the winner node as a recognition result of the time-series data.
前記入力重み調整手段は、前記ノードごとに、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し、
前記出力重み調整手段は、前記ノードごとに、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整する
請求項8に記載の情報処理装置。
The input weight adjustment means sets the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data for each node. Adjust to
The information processing apparatus according to claim 8, wherein the output weight adjustment unit adjusts the output weight coefficient for each dimension based on an error for each dimension for each node.
時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段
をさらに備え、
前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し、
前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整する
請求項8に記載の情報処理装置。
An acquisition means for acquiring a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient, calculated for each dimension when learning dynamics based on time-series data;
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the base weight coefficient,
The information processing apparatus according to claim 8, wherein the output weight coefficient adjustment unit adjusts the output weight coefficient for each dimension based on the base weight coefficient.
前記ネットワークを構成する複数の前記ノードのうち、複数の次元の時系列データの生成に用いるノードである生成ノードを決定する決定手段と、
前記入力データを、前記生成ノードの入力ユニットに入力することにより、前記生成ノードの内部状態量を更新しながら、複数の次元の時系列データを生成する生成手段と
を備える請求項1に記載の情報処理装置。
Determining means for determining a generation node that is a node used for generating time-series data of a plurality of dimensions among the plurality of nodes constituting the network;
The generation unit according to claim 1, further comprising: generation means for generating time-series data of a plurality of dimensions while updating an internal state quantity of the generation node by inputting the input data to an input unit of the generation node. Information processing device.
前記入力重み調整手段は、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し、
前記出力重み調整手段は、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整する
請求項11に記載の情報処理装置。
The input weight adjustment means adjusts the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data,
The information processing apparatus according to claim 11, wherein the output weight adjustment unit adjusts the output weight coefficient for each dimension based on an error for each dimension.
時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段
をさらに備え、
前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し、
前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整する
請求項11に記載の情報処理装置。
An acquisition means for acquiring a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient, calculated for each dimension when learning dynamics based on time-series data;
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the base weight coefficient,
The information processing apparatus according to claim 11, wherein the output weight coefficient adjustment unit adjusts the output weight coefficient for each dimension based on the base weight coefficient.
前記生成手段は、前記次元ごとに、前記出力重み係数に対応する割合で前記時系列データを生成する
請求項11に記載の情報処理装置。
The information processing apparatus according to claim 11, wherein the generation unit generates the time-series data at a ratio corresponding to the output weight coefficient for each dimension.
ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整し、
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する
ステップを含む情報処理方法。
A weighting factor for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node of the network that holds the dynamics in one node and is configured by a plurality of the nodes. Adjust an input weighting factor for each dimension,
An information processing method including a step of adjusting, for each dimension, an output weighting factor that is a weighting factor for each dimension for output data of a plurality of dimensions output from the output unit of the node.
ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整し、
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する
ステップを含む処理をコンピュータに実行させるプログラム。
A weighting factor for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node of the network that holds the dynamics in one node and is configured by a plurality of the nodes. Adjust an input weighting factor for each dimension,
A program that causes a computer to execute a process including a step of adjusting, for each dimension, an output weighting coefficient that is a weighting coefficient for each dimension of output data of a plurality of dimensions that is output from an output unit of the node.
JP2006105550A 2006-04-06 2006-04-06 Information processor, information processing method and program Withdrawn JP2007280058A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006105550A JP2007280058A (en) 2006-04-06 2006-04-06 Information processor, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006105550A JP2007280058A (en) 2006-04-06 2006-04-06 Information processor, information processing method and program

Publications (1)

Publication Number Publication Date
JP2007280058A true JP2007280058A (en) 2007-10-25

Family

ID=38681443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006105550A Withdrawn JP2007280058A (en) 2006-04-06 2006-04-06 Information processor, information processing method and program

Country Status (1)

Country Link
JP (1) JP2007280058A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140454A (en) * 2007-12-11 2009-06-25 Sony Corp Data processor, data processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009140454A (en) * 2007-12-11 2009-06-25 Sony Corp Data processor, data processing method, and program

Similar Documents

Publication Publication Date Title
JP4169038B2 (en) Information processing apparatus, information processing method, and program
US7953683B2 (en) Learning apparatus, learning method, and program for efficiently learning dynamics
US7672920B2 (en) Apparatus and method for embedding recurrent neural networks into the nodes of a self-organizing map
JP4803212B2 (en) Data processing apparatus, data processing method, and program
JP4169063B2 (en) Data processing apparatus, data processing method, and program
JP4201012B2 (en) Data processing apparatus, data processing method, and program
JP4710933B2 (en) Learning device, learning method, and program
US7133744B2 (en) Information processing apparatus and method, program storage medium, and program
JP7339029B2 (en) Self-motion estimation device and method using motion recognition model and motion recognition model training device and method
EP2999940A2 (en) Methods and apparatus for early sensory integration and robust acquisition of real world knowledge
Passalis et al. Deep reinforcement learning for controlling frontal person close-up shooting
US11433548B2 (en) Robot system and control method thereof
JP2009140454A (en) Data processor, data processing method, and program
JP2007280058A (en) Information processor, information processing method and program
JP2007280059A (en) Recognition generation device, recognition generation method, and program
US11934176B2 (en) Device and method for controlling a robot
US10812904B2 (en) Acoustic equalization method, robot and AI server implementing the same
JP2009053782A (en) Data processor, data processing method, and program
JP5246751B2 (en) Information processing apparatus, information processing method, and program
JP2007280007A (en) Data processor, data processing method, and program
Dawood et al. Robot behaviour learning using topological gaussian adaptive resonance hidden markov model
JP2007280057A (en) Data processor, data processing method, and program
JP2005074562A (en) Robotic device, controlling method of the robotic device, and recording medium
JP2009070033A (en) Data processing device, data processing method, and program
Nicolai Augmented Deep Learning Techniques for Robotic State Estimation

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090707