JP2007280058A - Information processor, information processing method and program - Google Patents
Information processor, information processing method and program Download PDFInfo
- Publication number
- JP2007280058A JP2007280058A JP2006105550A JP2006105550A JP2007280058A JP 2007280058 A JP2007280058 A JP 2007280058A JP 2006105550 A JP2006105550 A JP 2006105550A JP 2006105550 A JP2006105550 A JP 2006105550A JP 2007280058 A JP2007280058 A JP 2007280058A
- Authority
- JP
- Japan
- Prior art keywords
- output
- input
- unit
- dimension
- node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、情報処理装置および情報処理方法、並びにプログラムに関し、特に、多次元の時系列データを効率的に扱うことができるようにした情報処理装置および情報処理方法、並びにプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program, and more particularly to an information processing device, an information processing method, and a program that can efficiently handle multidimensional time-series data.
ロボットの行動(運動)は、時間発展法則により定められる力学系(dynamical system
s)として記述することができ、様々な行動はその力学系がある特定のアトラクタダイナミクス(attractor dynamics)によって実現可能であることが知られている。
Robot behavior (movement) is a dynamical system determined by the law of time evolution.
s), and various behaviors are known to be realizable by certain attractor dynamics.
例えば、人間のような二足型ロボットの歩行運動は、系の運動状態が様々な初期状態からある特定の周期軌道に落ち着くことを特徴とするリミットサイクルダイナミクス(limit cycle dynamics)として記述することができる(例えば、非特許文献1,2参照)。また、アームロボットがある対象物に対して手先を伸ばすようなリーチング運動は、様々な初期状態からある特定の固定点に落ち着くことを特徴とする不動点ダイナミクス(fixed-point dynamics)として記述することができる。さらに、全ての運動は、不動点ダイナミクスで実現可能な離散運動(discrete movement)とリミットサイクルダイナミクスで実現可能な周期運動(cyclic movement)の組み合わせにより実現可能であるとも言われている。
For example, the walking motion of a biped robot such as a human can be described as limit cycle dynamics, which is characterized by the movement state of the system from various initial states to a specific periodic orbit. (For example, refer
このアトラクタダイナミクスによってロボットの行動(運動)を制御する場合の問題は、まず、タスクに応じたアトラクタダイナミクスをどのように構成するのか、次に、センサ入力を通じて得た情報に基づいて、アトラクタダイナミクスにしたがいながら、対応するモータ出力を生成することであり、これを実現するためには、アトラクタダイナミクスが環境と連続的に相互作用するかたちでロボットの行動出力を生成する必要がある。 The problem with controlling the robot's behavior (movement) using this attractor dynamics is that how to configure the attractor dynamics according to the task, and then to the attractor dynamics based on the information obtained through sensor input. Therefore, it is necessary to generate the corresponding motor output, and in order to realize this, it is necessary to generate the robot action output in such a way that the attractor dynamics continuously interact with the environment.
こうしたアトラクタダイナミクスを人間が設計するのではなく、学習する方法が提案されている。その方法の1つに、リカレントニューラルネットワーク(recurrent neural network)(以下、RNNという)を利用する方法がある。RNNは、ネットワークに回帰ループで結合されるコンテキストユニットを持ち、そこに内部状態を保持することによって、理論的には、任意の力学系を近似可能であることが知られている。 A method for learning such attractor dynamics instead of human design has been proposed. One method is to use a recurrent neural network (hereinafter referred to as RNN). It is known that RNN has a context unit connected to a network by a regression loop and can theoretically approximate any dynamic system by holding an internal state there.
しかしながら、密結合した1つのネットワークモジュールで構成される学習モデルでは、大規模な行動学習に必要な多数のダイナミクスの学習をする際に、記憶しようとするダイナミクス間の干渉が非常に大きく、学習が困難であるという問題がある。 However, in a learning model that consists of one network module that is tightly coupled, when learning a large number of dynamics necessary for large-scale behavioral learning, the interference between the dynamics to be memorized is very large. There is a problem that it is difficult.
そこで、複数のネットワークモジュールを組にして1つの学習モデルを構成するモジュラアーキテクチャ(modular architecture)を採用した学習モデルがいくつか提案されている。このモジュラアーキテクチャでは、原理的には、モジュールを増やすことによって記憶できるダイナミクスを容易に増やすことができるが、与えられた学習サンプルをどのモジュールで学習するかを決定するモジュール選択の問題が生じる。 Therefore, several learning models have been proposed that employ a modular architecture in which a plurality of network modules are combined to form one learning model. In principle, this modular architecture can easily increase the dynamics that can be stored by increasing the number of modules. However, the problem of module selection that determines which module is used to learn a given learning sample arises.
このモジュール選択の方法によって、学習方法は、学習サンプル(学習データ)を、どのモジュールに割り当てるかを人間が決める教師あり学習(supervised learning)と、学習モデルが自律的に決める教師なし学習(unsupervised learning)の2つの方法に分けられるが、ロボットやシステムが自律的に学習を行うためには、教師なし学習によりモジュールを学習する必要がある。 Depending on the method of module selection, the learning method can be divided into supervised learning, in which a human determines which module a learning sample (learning data) is assigned to, and unsupervised learning, in which the learning model is autonomously determined. However, in order for robots and systems to learn autonomously, it is necessary to learn modules by unsupervised learning.
教師なし学習によりモジュールを学習する方法の1つとして、Mixture of RNN Expertという学習モデルが提案されている(例えば、特許文献1参照)。この学習モデルでは、複数のRNNモジュールの出力をゲート機構により統合して最終的な出力を決定し、その最終的な出力の性能が最大化するように最尤推定法(maximum likelihood estimation)によりゲートを調整しながら、各RNNのモジュールを学習する。 As one of methods for learning a module by unsupervised learning, a learning model called “Mixture of RNN Expert” has been proposed (see, for example, Patent Document 1). In this learning model, the outputs of multiple RNN modules are integrated by a gating mechanism to determine the final output, and the gate is obtained by maximum likelihood estimation so that the performance of the final output is maximized. While learning, learn each RNN module.
しかしながら、このような全体最適化に基づく方法では、モジュールの数が大規模になった場合に、学習が困難になるという問題がある。 However, such a method based on global optimization has a problem that learning becomes difficult when the number of modules becomes large.
これに対して、ベクトルパターンのカテゴリ学習に用いられる自己組織化マップ(self-organization map)(以下、SOMという)(例えば、非特許文献3参照)やニューラルガス(neural-gas)(例えば、非特許文献4参照)などの方法では、全体最適化に基づく学習則は用いられず、最適性は保証されないが、適切なカテゴリ構造を自己組織化的に教師なし学習することが可能であることが知られている。これらの方法では、モジュールの数が大規模になった場合であっても、実用的に学習が可能である。 On the other hand, a self-organization map (hereinafter referred to as SOM) (see, for example, Non-Patent Document 3) and neural-gas (for example, non-use) used for vector pattern category learning. In a method such as Patent Literature 4), a learning rule based on global optimization is not used, and optimality is not guaranteed, but it is possible to learn an appropriate category structure in an unsupervised manner in a self-organizing manner. Are known. In these methods, even when the number of modules becomes large, learning is practically possible.
本件出願人は、先に、ベクトルパターンのかわりに時系列パターンを学習するためのモデルを提案している(特願2004-353832号)。 The applicant of the present application has previously proposed a model for learning time series patterns instead of vector patterns (Japanese Patent Application No. 2004-353832).
しかしながら、多次元の時系列データを効率的に扱う方法は提案されていない。 However, a method for efficiently handling multidimensional time series data has not been proposed.
本発明は、このような状況に鑑みてなされたものであり、多次元の時系列データを効率的に扱うことができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to efficiently handle multi-dimensional time-series data.
本発明の一側面の情報処理装置は、ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークを記憶する記憶手段と、前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整する入力重み係数調整手段と、前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する出力重み係数調整手段とを備える。 An information processing apparatus according to an aspect of the present invention includes a storage unit that stores dynamics in one node and stores a network including the plurality of nodes, and a plurality of observed units that are input to an input unit of the node. Input weight coefficient adjustment means for adjusting an input weight coefficient that is a weight coefficient for each dimension with respect to input data that is time series data of multiple dimensions, and output of a plurality of dimensions output from the output unit of the node Output weight coefficient adjustment means for adjusting an output weight coefficient, which is a weight coefficient for each dimension of data, for each dimension.
前記時系列データには、前記次元ごとに信頼度が付加されており、前記入力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記入力重み係数を前記次元ごとに調整し、前記出力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記出力重み係数を前記次元ごとに調整することができる。 In the time series data, reliability is added for each dimension, and the input weight coefficient adjustment unit adjusts the input weight coefficient for each dimension based on the reliability for each dimension, The output weight coefficient adjusting means can adjust the output weight coefficient for each dimension based on the reliability for each dimension.
前記情報処理装置は、外部から入力される前記入力重み係数と前記出力重み係数を取得する取得手段をさらに設け、前記入力重み係数調整手段は、前記取得手段により取得される入力重み係数に基づいて、前記入力重み係数を前記次元ごとに調整し、前記出力重み係数調整手段は、前記取得手段により取得される出力重み係数に基づいて、前記出力重み係数を前記次元ごとに調整することができる。 The information processing apparatus further includes acquisition means for acquiring the input weight coefficient and the output weight coefficient input from the outside, and the input weight coefficient adjustment means is based on the input weight coefficient acquired by the acquisition means. The input weighting coefficient is adjusted for each dimension, and the output weighting coefficient adjusting means can adjust the output weighting coefficient for each dimension based on the output weighting coefficient acquired by the acquiring means.
前記情報処理装置は、1つ前に前記出力ユニットから出力された出力データと、新たに観測される時系列データとを、前記入力重み係数に対応する割合で、前記次元ごとに足し合わせ、その結果得られるデータを、前記入力データとして前記入力ユニットに入力する入力手段をさらに設けることができる。 The information processing apparatus adds the output data output from the output unit immediately before and the newly observed time-series data for each dimension in a ratio corresponding to the input weighting coefficient, Input means for inputting data obtained as a result to the input unit as the input data can be further provided.
前記情報処理装置は、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記出力重み係数に対応する割合で足し合わせて出力誤差とし、その出力誤差に基づいて、前記ノードの内部状態量の初期値を更新する内部状態更新手段とをさらに設けることができる。 The information processing apparatus adds the error for each dimension between the input data and the output data output from the output unit immediately before it as an output error by adding a ratio corresponding to the output weight coefficient, An internal state updating means for updating an initial value of the internal state quantity of the node based on the output error can be further provided.
前記情報処理装置は、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記ノードごとに前記出力重み係数に対応する割合で足し合わせて、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスに対応するノードである勝者ノードを決定する決定手段と、前記勝者ノードからの距離に対応する度合で、各ノードの結線に付される重みを更新する重み更新手段とを設けることができる。 The information processing apparatus adds the error for each dimension between the input data and the output data output from the output unit immediately before, at a ratio corresponding to the output weight coefficient for each node. And determining means for determining a winner node which is a node corresponding to the dynamics most suitable for the input data based on the output error of each node, and corresponding to the distance from the winner node It is possible to provide weight updating means for updating the weight attached to the connection of each node to a certain degree.
前記情報処理装置は、前記次元ごとの前記信頼度に基づいて、前記入力データを認識するとき、または時系列データを生成するときに用いられる入力重み係数と出力重み係数の基となる基重み係数を次元ごとに計算する基重み計算手段をさらに設けることができる。 The information processing apparatus uses a base weight coefficient as a basis for an input weight coefficient and an output weight coefficient used when recognizing the input data or generating time-series data based on the reliability for each dimension. It is possible to further provide a base weight calculating means for calculating for each dimension.
前記情報処理装置は、前記入力データと、その1つ前の入力データを、複数の前記ノードの入力ユニットにそれぞれ入力することにより、前記ノードごとに前記ノードの内部状態量を更新しながら得られる出力データとの次元ごとの誤差を、前記ノードごとに、前記出力重み係数に対応する割合で足し合わせ、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスを保持するノードである勝者ノードを決定する決定手段と、前記勝者ノードを表す情報を、前記時系列データの認識結果として出力する認識手段とを設けることができる。 The information processing apparatus is obtained by updating the internal state quantity of the node for each node by inputting the input data and the previous input data to the input units of the plurality of nodes, respectively. The error for each dimension with the output data is added for each node at a ratio corresponding to the output weighting coefficient to obtain an output error for each node, and the most suitable for the input data based on the output error for each node. Determining means for determining a winner node which is a node holding the dynamics to be performed, and recognition means for outputting information representing the winner node as a recognition result of the time-series data.
前記入力重み調整手段は、前記ノードごとに、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し、前記出力重み調整手段は、前記ノードごとに、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整することができる。 The input weight adjustment means sets the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data for each node. The output weight adjustment means can adjust the output weight coefficient for each dimension based on the error for each dimension for each node.
前記情報処理装置は、時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段をさらに設け、前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し、前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整することができる。 The information processing apparatus further includes an acquisition unit configured to acquire a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient, calculated for each dimension when learning dynamics based on time-series data; The input weighting coefficient adjusting unit adjusts the input weighting factor for each dimension based on the base weighting factor, and the output weighting factor adjusting unit is configured to output the output for each dimension based on the base weighting factor. The weighting factor can be adjusted.
前記情報処理装置は、前記ネットワークを構成する複数の前記ノードのうち、複数の次元の時系列データの生成に用いるノードである生成ノードを決定する決定手段と、前記入力データを、前記生成ノードの入力ユニットに入力することにより、前記生成ノードの内部状態量を更新しながら、複数の次元の時系列データを生成する生成手段とを設けることができる。 The information processing apparatus includes: a determination unit that determines a generation node that is a node used for generation of time-series data of a plurality of dimensions among the plurality of nodes included in the network; A generation unit that generates time-series data of a plurality of dimensions while updating the internal state quantity of the generation node by inputting to the input unit can be provided.
前記入力重み調整手段は、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し、前記出力重み調整手段は、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整することができる。 The input weight adjustment means adjusts the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data, and the output The weight adjusting means can adjust the output weighting factor for each dimension based on the error for each dimension.
前記情報処理装置は、時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段をさらに設け、前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し、前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整することができる。 The information processing apparatus further includes an acquisition unit configured to acquire a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient, calculated for each dimension when learning dynamics based on time-series data; The input weighting coefficient adjusting unit adjusts the input weighting factor for each dimension based on the base weighting factor, and the output weighting factor adjusting unit is configured to output the output for each dimension based on the base weighting factor. The weighting factor can be adjusted.
前記生成手段は、前記次元ごとに、前記出力重み係数に対応する割合で前記時系列データを生成することができる。 The generation means can generate the time-series data at a ratio corresponding to the output weighting coefficient for each dimension.
本発明の一側面の情報処理方法は、ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整し、前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整するステップを含む。 An information processing method according to one aspect of the present invention is a method of maintaining time-series data of a plurality of dimensions that is input to an input unit of a node of a network that includes a plurality of nodes and that has dynamics in one node. An output weighting factor that is a weighting factor for each dimension of the output data of a plurality of dimensions, which is output from the output unit of the plurality of dimensions, by adjusting an input weighting factor that is a weighting factor for each dimension for the input data. For each dimension.
本発明の一側面のプログラムは、ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整し、前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整するステップを含む処理をコンピュータに実行させる。 A program according to one aspect of the present invention is time series data of a plurality of dimensions that are observed and input to an input unit of the node of a network configured by a plurality of the nodes, the dynamics being held in one node. An input weighting factor that is a weighting factor for each dimension with respect to input data is adjusted for each dimension, and an output weighting factor that is a weighting factor for each dimension with respect to the output data of a plurality of dimensions output from the output unit of the node, A computer is caused to execute a process including a step of adjusting for each dimension.
本発明の一側面においては、ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数が、次元ごとに調整され、前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数が、次元ごとに調整される。 In one aspect of the present invention, input that is time-series data of a plurality of dimensions that is observed and input to an input unit of the node of a network configured by a plurality of nodes, the dynamics being held in one node An input weighting factor that is a weighting factor for each dimension for data is adjusted for each dimension, and an output weighting factor that is a weighting factor for each dimension for output data of a plurality of dimensions output from the output unit of the node is a dimension. Adjusted every time.
以上のように、本発明の一側面によれば、多次元の時系列データを効率的に扱うことができる。 As described above, according to one aspect of the present invention, multidimensional time series data can be handled efficiently.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面の情報処理装置は、
ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワーク(例えば、ダイナミクス記憶ネットワーク)を記憶する記憶手段(例えば、図1のネットワーク記憶部15)と、
前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整する入力重み係数調整手段(例えば、図6の入力重み調整部82)と、
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する出力重み係数調整手段(例えば、図6の出力重み調整部83)と
を備える。
An information processing apparatus according to one aspect of the present invention includes:
Storage means (for example, the
Input weight coefficient adjustment means for adjusting, for each dimension, an input weight coefficient that is a weight coefficient for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node (for example, The input weight adjustment unit 82) of FIG.
Output weight coefficient adjustment means (for example, output
本発明の一側面の情報処理装置は、
前記時系列データには、前記次元ごとに信頼度が付加されており、
前記入力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記入力重み係数を前記次元ごとに調整し(例えば、図7のステップS5の処理)、
前記出力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記出力重み係数を前記次元ごとに調整する(例えば、図7のステップS6の処理)。
An information processing apparatus according to one aspect of the present invention includes:
In the time series data, reliability is added for each dimension,
The input weight coefficient adjusting means adjusts the input weight coefficient for each dimension based on the reliability for each dimension (for example, the process of step S5 in FIG. 7),
The output weight coefficient adjusting means adjusts the output weight coefficient for each dimension based on the reliability for each dimension (for example, the process of step S6 in FIG. 7).
本発明の一側面の情報処理装置は、
外部から入力される前記入力重み係数と前記出力重み係数を取得する取得手段(例えば、図8の重み取得部101)
をさらに備え、
前記入力重み係数調整手段は、前記取得手段により取得される入力重み係数に基づいて、前記入力重み係数を前記次元ごとに調整し(例えば、図9のステップS25の処理)、
前記出力重み係数調整手段は、前記取得手段により取得される出力重み係数に基づいて、前記出力重み係数を前記次元ごとに調整する(例えば、図9のステップS26の処理)。
An information processing apparatus according to one aspect of the present invention includes:
Acquisition means for acquiring the input weight coefficient and the output weight coefficient input from the outside (for example, the
Further comprising
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the input weight coefficient acquired by the acquisition means (for example, the process of step S25 in FIG. 9),
The output weight coefficient adjustment means adjusts the output weight coefficient for each dimension based on the output weight coefficient acquired by the acquisition means (for example, the process of step S26 in FIG. 9).
本発明の一側面の情報処理装置は、
1つ前に前記出力ユニットから出力された出力データと、新たに観測される時系列データとを、前記入力重み係数に対応する割合で、前記次元ごとに足し合わせ、その結果得られるデータを、前記入力データとして前記入力ユニットに入力する入力手段(例えば、図4の加算部60)
をさらに備える。
An information processing apparatus according to one aspect of the present invention includes:
The output data output from the output unit one time before and the newly observed time-series data are added for each dimension at a ratio corresponding to the input weighting factor, and the resulting data is Input means for inputting the input data to the input unit (for example, the adding
Is further provided.
本発明の一側面の除法処理装置は、
前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記出力重み係数に対応する割合で足し合わせて出力誤差とし、その出力誤差に基づいて、前記ノードの内部状態量の初期値を更新する内部状態更新手段(例えば、図6のスコア計算部84)と
をさらに備える。
The division processing apparatus according to one aspect of the present invention includes:
The error for each dimension between the input data and the output data output from the output unit immediately before is added at a ratio corresponding to the output weighting coefficient to obtain an output error, and based on the output error. And internal state update means (for example, score
本発明の一側面の情報処理装置は、
前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差を、前記ノードごとに前記出力重み係数に対応する割合で足し合わせて、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスに対応するノードである勝者ノードを決定する決定手段(例えば、図6の勝者ノード決定部85)と、
前記勝者ノードからの距離に対応する度合で、各ノードの結線に付される重みを更新する重み更新手段(例えば、図6のパラメータ更新部87)と
を備える。
An information processing apparatus according to one aspect of the present invention includes:
The error of each dimension between the input data and the output data output from the output unit immediately before is added at a ratio corresponding to the output weighting factor for each node, and an output error of each node is obtained. And determining means (for example, a winner
Weight update means (for example,
本発明の一側面の情報処理装置は、
前記次元ごとの前記信頼度に基づいて、前記入力データを認識するとき、または時系列データを生成するときに用いられる入力重み係数と出力重み係数の基となる基重み係数を次元ごとに計算する基重み計算手段(例えば、図10の基重み決定部121)
をさらに備える。
An information processing apparatus according to one aspect of the present invention includes:
Based on the reliability for each dimension, a base weight coefficient used as a basis for an input weight coefficient and an output weight coefficient used when recognizing the input data or generating time-series data is calculated for each dimension. Base weight calculation means (for example, base
Is further provided.
本発明の一側面の情報処理装置は、
前記入力データと、その1つ前の入力データを、複数の前記ノードの入力ユニットにそれぞれ入力することにより、前記ノードごとに前記ノードの内部状態量を更新しながら得られる出力データとの次元ごとの誤差を、前記ノードごとに、前記出力重み係数に対応する割合で足し合わせ、各ノードの出力誤差とし、その各ノードの出力誤差に基づいて、前記入力データに最も適合するダイナミクスを保持するノードである勝者ノードを決定する決定手段(例えば、図13の決定部216)と、
前記勝者ノードを表す情報を、前記時系列データの認識結果として出力する認識手段(例えば、図13の出力部217)と
を備える。
An information processing apparatus according to one aspect of the present invention includes:
For each dimension of the input data and output data obtained by updating the internal state quantity of each node for each node by inputting the previous input data to the input units of the plurality of nodes. Are added to each node at a ratio corresponding to the output weighting coefficient to obtain an output error of each node, and based on the output error of each node, a node that holds the dynamics most suitable for the input data A determination means (for example, the
Recognizing means (for example, the
本発明の一側面の情報処理装置は、
前記入力重み調整手段は、前記ノードごとに、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの前記次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し(例えば、図20のステップS123の処理)、
前記出力重み調整手段は、前記ノードごとに、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整する(例えば、図20のステップS124の処理)。
An information processing apparatus according to one aspect of the present invention includes:
The input weight adjustment means sets the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data for each node. (For example, the process of step S123 in FIG. 20),
The output weight adjustment means adjusts the output weight coefficient for each dimension based on the error for each dimension for each node (for example, the process of step S124 in FIG. 20).
本発明の一側面の情報処理装置は、
時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段(例えば、図22の基重み取得部611)
をさらに備え、
前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し(例えば、図23のステップS142の処理)、
前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整する(例えば、図23のステップS143の処理)。
An information processing apparatus according to one aspect of the present invention includes:
Acquisition means for acquiring a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient calculated for each dimension when learning dynamics based on time-series data (for example, the base weight acquisition unit in FIG. 22) 611)
Further comprising
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the base weight coefficient (for example, the process of step S142 in FIG. 23),
The output weight coefficient adjusting means adjusts the output weight coefficient for each dimension based on the base weight coefficient (for example, the process of step S143 in FIG. 23).
本発明の一側面の情報処理装置は、
前記ネットワークを構成する複数の前記ノードのうち、複数の次元の時系列データの生成に用いるノードである生成ノードを決定する決定手段(例えば、図13の生成ノード決定部314)と、
前記入力データを、前記生成ノードの入力ユニットに入力することにより、前記生成ノードの内部状態量を更新しながら、複数の次元の時系列データを生成する生成手段(例えば、図13の時系列データ生成部316)と
を備える。
An information processing apparatus according to one aspect of the present invention includes:
A determination unit (for example, a generation
Generation means for generating time series data of a plurality of dimensions while updating the internal state quantity of the generation node by inputting the input data to the input unit of the generation node (for example, the time series data of FIG. 13 Generating unit 316).
本発明の一側面の情報処理装置は、
前記入力重み調整手段は、前記入力データと、その1つ前に前記出力ユニットから出力された出力データとの次元ごとの誤差に基づいて、前記入力重み係数を前記次元ごとに調整し(例えば、図21のステップS134の処理)、
前記出力重み調整手段は、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整する(例えば、図21のステップS135の処理)。
An information processing apparatus according to one aspect of the present invention includes:
The input weight adjustment means adjusts the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before (for example, Step S134 in FIG. 21)
The output weight adjusting means adjusts the output weight coefficient for each dimension based on the error for each dimension (for example, the process of step S135 in FIG. 21).
本発明の一側面の情報処理装置は、
時系列データに基づいてダイナミクスを学習するときに次元ごとに計算された、前記入力重み係数と前記出力重み係数の基となる基重み係数を取得する取得手段(例えば、図22の基重み取得部621)
をさらに備え、
前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し(例えば、図24のステップS152の処理)、
前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整する(例えば、図24のステップS153の処理)。
An information processing apparatus according to one aspect of the present invention includes:
Acquisition means for acquiring a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient calculated for each dimension when learning dynamics based on time-series data (for example, the base weight acquisition unit in FIG. 22) 621)
Further comprising
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the base weight coefficient (for example, the process of step S152 in FIG. 24),
The output weight coefficient adjusting means adjusts the output weight coefficient for each dimension based on the base weight coefficient (for example, the process of step S153 in FIG. 24).
本発明の一側面の情報処理装置は、
前記生成手段は、前記次元ごとに、前記出力重み係数に対応する割合で前記時系列データを生成する(例えば、図15のステップS96の処理)。
An information processing apparatus according to one aspect of the present invention includes:
The generation means generates the time-series data at a ratio corresponding to the output weight coefficient for each dimension (for example, the process of step S96 in FIG. 15).
本発明の一側面の学習方法またはプログラムは、
ダイナミクスを1つのノードに保持し、複数の前記ノードによって構成されるネットワークの前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整し(例えば、図7のステップS5)、
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する(例えば、図7のステップS6)
ステップを含む。
A learning method or program according to one aspect of the present invention includes:
A weighting factor for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node of the network that holds the dynamics in one node and is configured by a plurality of the nodes. A certain input weight coefficient is adjusted for each dimension (for example, step S5 in FIG. 7),
An output weighting factor, which is a weighting factor for each dimension for output data of a plurality of dimensions, output from the output unit of the node is adjusted for each dimension (for example, step S6 in FIG. 7).
Includes steps.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.
図1は、本発明を適用した情報処理装置1の一実施の形態の構成例を示すブロック図である。
FIG. 1 is a block diagram showing a configuration example of an embodiment of an
図1の情報処理装置1は、力学系を近似するモデルである力学系近似モデルのうちの、内部状態量を持つ力学系近似モデルを1つのノードとするダイナミクス記憶ネットワークを記憶するネットワーク記憶部15と、そのダイナミクス記憶ネットワークのパラメータを自己組織化的に更新する学習部14とを含む。
The
ダイナミクス記憶ネットワークの各ノードには、時系列データの力学的な特性がダイナミクスとして保持される。学習部14によって更新されたパラメータによって定義される、ダイナミクス記憶ネットワークのノードに保持されたダイナミクスは、時系列データの認識や生成のために利用される。
Each node of the dynamics storage network holds the dynamic characteristics of time-series data as dynamics. The dynamics defined by the parameters updated by the
図1の情報処理装置1は、例えばロボットなどの制御信号の認識や生成に利用される。情報処理装置1は、特に、自律システムや自律型ロボットなどにおいて、センサおよびモータの入出力信号の学習、認識、または生成に利用される。
The
図1の情報処理装置1では、情報処理装置1に入力される信号と、情報処理装置1が出力する信号の両方が、観測される信号である観測信号11として、信号入力部12に入力される。観測信号11は、例えば音声や画像の信号、LED(Light Emitting Diode)の明るさを表す信号、モータの回転角度や回転角速度を表す信号などである。
In the
信号入力部12は、入力される観測信号11に対応する電気信号を、特徴抽出部13に出力する。具体的には、信号入力部12は、観測信号11が音声の信号である場合、例えばマイクロフォンに対応し、画像信号である場合、例えばカメラに対応する。また観測信号11がモータの回転角度や回転速度を表す信号である場合、信号入力部12は、例えばモータの回転角度や回転速度を計測する計測装置に対応する。
The signal input unit 12 outputs an electrical signal corresponding to the
なお、以下では、信号入力部12に入力される信号だけでなく、信号入力部12が出力する信号も、観測信号11という。また、観測信号11は、定常信号であっても、時間的に変化する非定常信号であってもよい。
Hereinafter, not only a signal input to the signal input unit 12 but also a signal output from the signal input unit 12 is referred to as an
さらに、以下では、主にロボットシステムにおけるセンサモータ信号を、観測信号11の例として説明する。このセンサモータ信号は、例えば、センサが出力する信号や、モータに入力されるモータを制御する制御信号(以下、モータ信号という)をコンポーネントとするベクトルである。勿論、観測信号11は、センサモータ信号に限定されるものではない。
Further, hereinafter, a sensor motor signal mainly in the robot system will be described as an example of the
また、信号入力部12は、区間検出装置などを含み、センサモータ信号を所定の区間で区切って出力するものとする。なお、信号入力部12からは、適当な長さに区切られたセンサモータ信号が出力されればよく、その区切り方は、特に限定されない。従って、入力されるセンサモータ信号に応じて、最も良い方法で適当な長さに区切られたセンサモータ信号が、観測信号11として、信号入力部12から出力されればよい。
In addition, the signal input unit 12 includes a section detection device and the like, and outputs the sensor motor signal divided by a predetermined section. The signal input unit 12 only needs to output a sensor motor signal divided into an appropriate length, and the way of dividing is not particularly limited. Therefore, the sensor motor signal divided into an appropriate length by the best method may be output from the signal input unit 12 as the
特徴抽出部13は、信号入力部12から出力された観測信号11から、特徴量を時系列に抽出する。例えば特徴抽出部13は、センサ信号の1つである音声信号に対して、一定時間間隔で周波数分析などの処理を施し、メルケプストラムなどの特徴量を時系列に抽出する。ここで、メルケプストラムとは音声認識などで広く利用されている特徴量である。
The
特徴抽出部13は、観測信号11から特徴量を時系列に抽出することにより得た特徴量の時系列データ(以下、単に、時系列データという)を、学習部14、認識部16、および生成部19に供給する。
The
学習部14は、特徴抽出部13から供給される時系列データを用いて、所定の度合で、時系列データの時間変化の特徴をダイナミクスとして学習する。具体的には、学習部14は、所定の度合で、ダイナミクスを保持するダイナミクス記憶ネットワークのパラメータを更新する。
The
学習部14による学習の詳細は後述するが、学習部14は、基本的には、ラベルの付与されていない時系列データが繰り返し与えられると、その時系列データの中の特徴的なダイナミクスを自己組織化的に獲得していく教師なし学習を実行する。その結果、ネットワーク記憶部15に記憶されるダイナミクス記憶ネットワークには、代表的なダイナミクスが効率的に保持される。その保持されたダイナミクスは、認識部16や生成部19が、必要に応じて、いつでも利用することができるようになされている。
Details of learning by the
ここで、ダイナミクスは、時間変化する力学系を表すものであり、例えば、具体的な関数によって表現することができる。ダイナミクス記憶ネットワークでは、時系列データの時間変化の特徴が、ダイナミクスとして保持される。 Here, the dynamics represents a dynamic system that changes with time, and can be expressed by a specific function, for example. In the dynamics storage network, the temporal change characteristics of time-series data are retained as dynamics.
認識部16は、特徴抽出部13から供給される時系列データに対して、それまでの学習の結果得られたダイナミクス記憶ネットワークに保持されるダイナミクスを照らし合わせ、最も類似したダイナミクスを決定する。
The recognizing
具体的には、認識部16は、特徴抽出部13から供給される時系列データを、ダイナミクス記憶ネットワークに入力し、その入力に対して出力される出力データを得る。そして、認識部16は、その出力データと特徴抽出部13から供給される時系列データとに基づいて、その時系列データに対して最も類似したダイナミクスを決定する。認識部16は、その決定の結果を認識結果17として出力する。
Specifically, the recognizing
一方、ダイナミクス記憶ネットワークに保持されたダイナミクスからは、必要に応じて、時系列データを生成することができるようになされている。生成部19は、時系列データを生成する生成処理を行う。
On the other hand, from the dynamics stored in the dynamics storage network, time series data can be generated as needed. The
具体的には、生成部19は、どのダイナミクスから時系列データを生成するかを指定する制御信号18を取得する。生成部19は、制御信号18と特徴抽出部13から供給される時系列データに基づき、指定されたダイナミクスを保持するノードに、その時系列データを入力する。そして、生成部19は、その入力に対して出力される出力データに基づいて、時系列データを生成する。そして、生成部19は、その時系列データを生成結果20として出力する。
Specifically, the
内部状態記憶部21は、ダイナミクス記憶ネットワークの各ノードの内部状態量を保持する。内部状態記憶部21に記憶された内部状態量は、例えば、認識部16によって更新され、生成部19によって生成処理に利用される。
The internal
[学習について]
次に、図2と図3を参照して、図1の情報処理装置1が行う学習について説明する。
[About learning]
Next, learning performed by the
なお、図2と図3では、力学系近似モデルとして、三層型ニューラルネットワーク(NN)の出力層から入力層への回帰ループを持つRNNが用いられるものとする。このRNNを用いて、時系列データにおける時刻tの状態ベクトルXtを入力とし、その入力に対して、時刻t+1の状態ベクトルXt+1を予測して出力することを学習、即ち予測学習(prediction learning)することにより、時系列データの時間発展法則を学習することができる。 2 and 3, it is assumed that an RNN having a regression loop from the output layer to the input layer of the three-layer neural network (NN) is used as the dynamic system approximation model. Using this RNN, the state vector X t at time t in the time series data is input, and learning to predict and output the state vector X t + 1 at time t + 1 is input to that input, that is, prediction learning ( prediction learning), it is possible to learn the time evolution law of time series data.
RNNのような内部状態量を持つ力学系近似モデルのパラメータの推定方法には、一般的に、BPTT(Back-Propagation Through Time)法が利用される。BPTT法は、最急降下法に基づく学習手法であり、BPTT法では、繰り返し計算に基づく勾配法によって学習が行われる。 In general, a BPTT (Back-Propagation Through Time) method is used as a parameter estimation method for a dynamical approximate model having an internal state quantity such as RNN. The BPTT method is a learning method based on the steepest descent method. In the BPTT method, learning is performed by a gradient method based on iterative calculation.
BPTT法については、例えば、D. E. Rumelhart, G. E. Hinton & R. E. Williams, 1986 “Learning internal representations by error propagation”, In D. E. Rumelhart & J. McClelland, "Parallel distributed processing", pp. 318-364, Cambridge, MA: MIT Press,R.J.Williams and D.Zipser,”A learning algorithm for continually running fully recurrent neural networks”,Neural Computation,1:270-280,1989等に記載されている。 For the BPTT method, see, for example, DE Rumelhart, GE Hinton & RE Williams, 1986 “Learning internal representations by error propagation”, In DE Rumelhart & J. McClelland, “Parallel distributed processing”, pp. 318-364, Cambridge, MA: MIT Press, RJ Williams and D. Zipser, “A learning algorithm for continuously running fully recurrent neural networks”, Neural Computation, 1: 270-280, 1989, etc.
図2は、2次元の時系列データを用いて学習を行う場合の力学系近似モデル31を表し、図3は、6次元の時系列データを用いて学習を行う場合の力学系近似モデル41を表している。ここで、次元とは、学習、認識、または生成において区別される時系列データの種類を表し、次元数はRNNのユニット数に対応する。 FIG. 2 shows a dynamic system approximation model 31 when learning is performed using two-dimensional time series data, and FIG. 3 shows a dynamic system approximation model 41 when learning is performed using six-dimensional time series data. Represents. Here, the dimension represents the type of time-series data distinguished in learning, recognition, or generation, and the number of dimensions corresponds to the number of RNN units.
なお、図2と図3では、音声を表すセンサ信号(以下、音声信号という)、画像を表すセンサ信号(以下、画像信号という)、触覚を表すセンサ信号(以下、触覚信号という)、両手を動作させるモータを制御するモータ信号(以下、両手信号という)、両足を動作させるモータを制御するモータ信号(以下、両足信号という)、および首を動作させるモータを制御するモータ信号(以下、首信号という)からそれぞれ生成された6次元の時系列データが、時系列データとして得られるものとする。 2 and 3, a sensor signal representing sound (hereinafter referred to as an audio signal), a sensor signal representing an image (hereinafter referred to as an image signal), a sensor signal representing a tactile sense (hereinafter referred to as a tactile signal), A motor signal for controlling the motor to be operated (hereinafter referred to as a “hand signal”), a motor signal for controlling the motor for operating both feet (hereinafter referred to as a “both foot signal”), and a motor signal for controlling the motor to operate the neck (hereinafter referred to as the neck signal) It is assumed that 6-dimensional time series data respectively generated from the above are obtained as time series data.
図2では、得られる6次元の時系列データのうち、音声信号と両足信号の2次元の時系列データが、力学系近似モデル31の入力層の2個のユニットにそれぞれ入力される。力学系近似モデル31は、その2次元の時系列データにおける時刻tの状態ベクトルXtを入力とし、その入力に対して、2次元の時系列データにおける時刻t+1の状態ベクトルXt+1を予測して出力することを学習する。従って、図2の力学系近似モデル31の入力層と出力層のユニットの数は、それぞれ2個となる。 In FIG. 2, among the obtained 6-dimensional time series data, the two-dimensional time series data of the audio signal and the both foot signals are input to two units of the input layer of the dynamic system approximation model 31, respectively. The dynamical approximate model 31 receives the state vector X t at time t in the two-dimensional time series data, and predicts the state vector X t + 1 at time t + 1 in the two-dimensional time series data with respect to the input. And learn to output. Therefore, the number of units of the input layer and the output layer of the dynamic system approximation model 31 in FIG. 2 is two each.
図3では、得られる6次元の時系列データのすべてが、力学系近似モデル32の入力層の6個のユニットにそれぞれ入力される。力学系近似モデル32は、その6次元の時系列データにおける時刻tの状態ベクトルXtを入力とし、その入力に対して、6次元の時系列データにおける時刻t+1の状態ベクトルXt+1を予測して出力することを学習する。従って、図3の力学系近似モデル32の入力層と出力層のユニットの数は、それぞれ6個となる。
In FIG. 3, all of the obtained 6-dimensional time-series data is input to each of the six units in the input layer of the dynamic
以上のように、2次元の時系列データを用いて学習する図2の力学系近似モデル31に対して、6次元の時系列データを用いて学習する図3の力学系近似モデル32では、入力層と出力層のユニットの数が大幅に増加し、規模が増大する。
As described above, in the dynamic
ここで、一般的に、ニューラルネットワークの規模が増大すると、パラメータを収束させることが困難であることが知られている。また、出力層の各ユニットから出力される各次元の時系列データの予測値により計算される予測誤差の平均値が利用して、学習が行われるが、時系列データの次元数が増加すると、その予測誤差の平均値に影響する1つの次元の時系列データの割合が非常に小さくなる。従って、この予測誤差の平均値を利用して、学習を行うことは容易ではない。 Here, it is generally known that it is difficult to converge parameters when the scale of a neural network increases. In addition, learning is performed using the average value of the prediction error calculated from the predicted value of the time series data of each dimension output from each unit of the output layer, but when the number of dimensions of the time series data increases, The proportion of time-series data of one dimension that affects the average value of the prediction error becomes very small. Therefore, it is not easy to perform learning using the average value of the prediction errors.
以上のように、時系列データの次元数が増加すると、その時系列データに基づく学習は困難になる。 As described above, when the number of dimensions of time series data increases, learning based on the time series data becomes difficult.
例えば、音声が聞こえる方向に歩くという行動を学習する場合、音声信号から得られる音声の方向や大きさなどを表す時系列データと、歩行動作を行うための両足信号に対応する時系列データの相互作用に基づいて形成されるダイナミクスを学習する必要がある。このとき、図2に示すように、6次元の時系列データのうち、音声信号と両足信号に対応する2次元の時系列データを用いて学習を行う場合、容易にダイナミクスを学習することができるが、図3に示すように、6次元の時系列データのすべてを用いて学習を行う場合、その学習は困難となる。 For example, when learning the behavior of walking in a direction in which sound can be heard, the time-series data indicating the direction and size of the sound obtained from the sound signal and the time-series data corresponding to the both foot signals for performing the walking motion It is necessary to learn the dynamics formed based on the action. At this time, as shown in FIG. 2, when learning is performed using two-dimensional time-series data corresponding to the audio signal and the both foot signals among the six-dimensional time-series data, the dynamics can be easily learned. However, as shown in FIG. 3, when learning is performed using all of the six-dimensional time-series data, the learning becomes difficult.
また、赤いボールが目の前に見えたら手を近づけるという行動を学習する場合、画像信号から得られる赤いボールの位置座標を表す時系列データと、手を動かすための両手信号に対応する時系列データの相互作用に基づいて形成されるダイナミクスを学習する必要がある。このとき、図3に示すように、6次元の時系列データのすべてを用いて学習を行う場合、6次元の時系列データのうち、画像信号と両手信号に対応する2次元の時系列データを用いて学習を行うときに比べて、その学習は困難となる。 Also, when learning the action of bringing the hand closer when the red ball is seen in front of the eyes, time series data representing the position coordinates of the red ball obtained from the image signal and the time series corresponding to the two-hand signal for moving the hand It is necessary to learn the dynamics formed based on the interaction of data. At this time, as shown in FIG. 3, when learning is performed using all of the 6-dimensional time-series data, 2-dimensional time-series data corresponding to the image signal and the two-handed signal is selected from the 6-dimensional time-series data. The learning becomes difficult as compared to the case where learning is performed using the learning method.
従って、得られるすべての次元の時系列データではなく、学習において着目すべき次元の時系列データだけを用いてダイナミクスを学習することが望ましい。 Therefore, it is desirable to learn dynamics using not only time-series data of all dimensions obtained but only time-series data of a dimension to be noted in learning.
しかしながら、教師あり学習を行う場合には、ノードごとに着目すべき時系列データを予め決定しておくことができるが、教師なし学習を行う場合には、それを予め決定しておくことができない。 However, when supervised learning is performed, time series data to be focused on can be determined in advance for each node, but when unsupervised learning is performed, it cannot be determined in advance. .
そこで、学習部14は、特徴抽出部13から供給される時系列データに基づいて、力学系近似モデルに入力される時系列データに対する次元ごとの重み係数(以下、入力重みという)と、力学系近似モデルから出力される時系列データに対する次元ごとの重み(以下、出力重みという)とを、学習において着目すべき次元の入力重みと出力重みが大きくなるように決定する。
Therefore, the
これにより、入出力される時系列データが重み付けされ、すべての時系列データのうちの着目すべき時系列データに基づいて、ダイナミクスを学習することができる。その結果、学習において、入力される多次元の時系列データを効率的に扱うことができる。 As a result, the input / output time-series data is weighted, and the dynamics can be learned based on the time-series data to be noted among all the time-series data. As a result, it is possible to efficiently handle input multidimensional time-series data in learning.
図4は、ネットワーク記憶部15に記憶されるダイナミクス記憶ネットワークの1つのノード41の詳細を示す図である。
FIG. 4 is a diagram showing details of one node 41 of the dynamics storage network stored in the
ノード41は、内部状態量を持つ力学系近似モデル51、入力重み記憶部52、出力重み記憶部53、および学習度合記憶部54により構成される。
The node 41 includes a dynamic
力学系近似モデル51は、RNNであり、加算部60、入力層61、隠れ層62、および出力層63により構成される。加算部60は、入力重み記憶部52に記憶されている、学習時に用いられる各次元の入力重み(以下、学習入力重みという)に対応する割合で、学習部14から供給される、新たに観測される観測信号に対応する時系列データにおける時刻tの状態ベクトルXtと、出力層63から1つ前に出力された出力データ、即ち時系列データにおける時刻t−1の状態ベクトルの予測値である出力データとを次元ごとに足し合わせ、その結果得られる次元ごとのデータを、時刻tの学習データとして入力層61の各ユニットに次元ごとに入力する。
The dynamic
入力層61の各ユニットに入力された時刻tの学習データは、隠れ層62を介して、出力層63から出力する。即ち、入力層61の各ユニットに入力された時刻tの学習データと、入力層61の各ユニットと隠れ層62の各ユニットの結合に付与された重み(以下、結合重みという)とに基づいて、所定の演算が行われ、その結果得られるデータと、隠れ層62の各ユニットと出力層63の各ユニットの結合重みとに基づいて、所定の演算が行われて、その結果得られるデータが、出力データとして、出力層63から出力される。
The learning data at time t input to each unit of the
学習部14は、出力層63から出力される出力データを用いて、学習度合記憶部54に記憶される度合情報が表す度合で、力学系近似モデル51の結合重みをパラメータとして更新する。即ち、力学系近似モデル51は、学習度合記憶部54に記憶される度合情報が表す度合で、入力層61の各ユニットに入力された学習データの時系列パターンをダイナミクスとして学習する。
The
なお、学習部14が行う学習は、オンライン学習である。即ち、観測信号11が入力されるたびに、学習部14は、その観測信号11に対応する学習データに基づいて、力学系近似モデル51のパラメータを少しずつ更新する。
The learning performed by the
入力重み記憶部52は、学習部14から供給される学習入力重み、認識部16から供給される認識時の入力重み(以下、認識入力重みという)、および生成部19から供給される生成時の入力重み(以下、生成入力重みという)を記憶する。加算部60は、学習入力重みに対応する割合で、学習部14から供給される時系列データにおける時刻tの状態ベクトルXtと、出力層63から1つ前に出力された出力データとを次元ごとに足し合わせる。即ち、加算部60は、学習入力重みに基づいて、学習部14から供給される時系列データに対して重み付けを行う。なお、認識入力重みと生成入力重みによる重み付けについては、図16などで後述する。
The input
出力重み記憶部53は、学習部14から供給される学習時に用いられる出力重み(以下、学習出力重みという)、認識部16から供給される認識時の出力重み(以下、認識出力重みという)、および生成部17から供給される生成時の出力重み(以下、生成出力重みという)を記憶する。この学習出力重みに基づいて、学習部14は、力学系近似モデル51の出力層の各ユニットから出力される各次元の時系列データに対して、重み付けを行う。なお、学習入力重みと学習出力重みに基づく重み付けの詳細は、図5を用いて後述する。また、認識出力重みと生成出力重みによる重み付けについては、図16などで後述する。
The output
学習度合記憶部54は、力学系近似モデル51のパラメータの学習の度合を表す情報(以下、度合情報という)を記憶する。ここで、度合情報としては、例えば、BPTT法における繰り返し計算の繰り返し回数が用いられる。
The learning
学習部14は、この度合情報に応じて学習の度合を調整し、これにより、力学系近似モデル51のパラメータが学習データの影響を受ける度合が、調整される。
The
次に、図5を参照して、学習入力重みと学習出力重みに基づく重み付けについて説明する。 Next, weighting based on the learning input weight and the learning output weight will be described with reference to FIG.
図5の例では、力学系近似モデル51の加算部60に、センサ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx1tとx2t、並びにモータ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx3tとx4tが、学習部14から入力される。即ち、加算部60には、4次元の時系列データにおける時刻tの状態ベクトルx1t乃至x4tが学習部14から入力される。
In the example of FIG. 5, the state vector x1 t and x2 t at time t in the two-dimensional time-series data corresponding to the sensor signal and the two-dimensional time corresponding to the motor signal are added to the adding
加算部60は、入力重み記憶部52に記憶されている学習入力重みを読み出し、その学習入力重みに基づいて、学習部14からの状態ベクトルx1t乃至x4tと、出力層63の各ユニットから1つ前(1時刻前)に出力された、時刻tの状態ベクトルの予測値である出力データXo1t乃至Xo4tとを、以下の式(1)にしたがって加算し、その結果得られるデータを学習データとして、入力層61に入力する。
The adding
なお、式(1)では、xkt,Xikt,Xokt,αsk(0≦αsk≦1)は、それぞれ、k(図5の例では、k=1,2,3,4)次元目の状態ベクトル、入力層に入力される入力データ、出力層から出力された出力データ、学習入力重みを表す。 In Expression (1), xk t , Xik t , Xok t , and αs k (0 ≦ αs k ≦ 1) are k dimensions (k = 1, 2, 3, and 4 in the example of FIG. 5), respectively. It represents the eye state vector, input data input to the input layer, output data output from the output layer, and learning input weight.
式(1)によれば、入力重みαskが1である場合、学習部14からの状態ベクトルxktだけが入力層61に入力され、入力重みαskが0である場合、出力データXoktだけが入力層61に入力される。従って、入力重みαskの値を調整することにより、学習時に着目すべき時系列データの次元を調整することができる。
According to equation (1), when the input weights .alpha.s k is 1, only the state vector xk t from the
例えば、入力重みαs1とαs3が1であり、入力重みαs2とαs4が0である場合、加算部60に入力される4次元の時系列データにおける状態ベクトルx1t乃至x4tのうち、センサ信号に対応する1次元の時系列データにおける状態ベクトルx1tとモータ信号に対応する1次元の時系列データにおける状態ベクトルx3tだけが、入力層61に入力され、その結果、状態ベクトルx1tとx3tだけに着目して、学習が行われる。
For example, when the input weights αs 1 and αs 3 are 1 and the input weights αs 2 and αs 4 are 0, out of the state vectors x1 t to x4 t in the four-dimensional time series data input to the
この場合、状態ベクトルx2tとx4tに対応する入力層61のユニットは、入力層61の回帰ループで結合されるコンテキストユニットと同様の機能を果たす。
In this case, the unit of the
また、入力重みα1乃至α4がすべて0.5である場合、加算部60に入力される4次元すべての時系列データにおける状態ベクトルx1t乃至x4tに対して、同一の重みで着目して、学習が行われる。この場合、加算部60は、式(1)にしたがって、状態ベクトルx1t乃至x4tと、その1つ前の出力データXo1t乃至Xo4tとを、同一の割合で次元ごとに足し合わせ、それぞれを入力層61の各ユニットに入力する。
Further, when the input weights α 1 to α 4 are all 0.5, attention is paid to the state vectors x1 t to x4 t in all the four-dimensional time series data input to the adding
以上のように、学習入力重みαskに基づいて、学習部14から入力される各次元の時系列データに対して重み付けが行われるので、入力される各次元の時系列データのうち、学習時に着目すべき時系列データだけに着目し、ダイナミクスを効率的に学習することができる。その結果、学習処理の負荷を軽減することができる。
As described above, since weighting is performed on the time series data of each dimension input from the
なお、入力層61のコンテキストユニットには、出力層63のコンテキストユニットから1つ前に出力された出力データが、時刻tのコンテキストCtとして入力される。
Note that the output data output immediately before from the context unit of the
一方、学習部14は、時刻tの状態ベクトルx1t乃至x4tに対して、時刻t+1の状態ベクトルを予測して、出力することを学習するので、学習に利用される評価値として、以下の式(2)にしたがって求められる、時刻t+1の状態ベクトルの予測値と真値の重み付き平均二乗誤差Eが用いられる。
On the other hand, the
なお、式(2)において、βsk(0≦βsk≦1)は、k次元目の出力重みを表している。また、nは、次元数を表し、図5の例では、4である。 In Equation (2), βs k (0 ≦ βs k ≦ 1) represents an output weight of the kth dimension. Further, n represents the number of dimensions, and is 4 in the example of FIG.
式(2)によれば、学習部14から供給される時系列データにおける時刻t+1の状態ベクトルxkt+1を、時刻t+1の真値として、その状態ベクトルxkt+1と、時刻t+1の状態ベクトルの予測値である出力データXokt+1、即ち1時刻前の時刻tの状態ベクトルxktを入力することにより得られる出力データXokt+1との平均二乗誤差が次元ごとに求められ、その平均二乗誤差が出力重みβskで重み付けされて足し合わされる。従って、出力重みβskの値を調整することにより、学習時の評価値として着目すべき出力データの次元を調整することができる。
According to the equation (2), the state vector xk t + 1 at time t + 1 in the time series data supplied from the
例えば、出力重みβs1とβs3が1であり、出力重みβs2とβs4が0である場合、出力層63の各ユニットから出力される出力データXo1t+1乃至Xo4t+1のうち、センサ信号に対応する1次元の時系列データにおける状態ベクトルXo1tとモータ信号に対応する1次元の時系列データにおける状態ベクトルXo3tだけに着目して得られた平均二乗誤差Eが評価値として用いられる。
For example, output weights .beta.s 1 and .beta.s 3 is 1, and output weights .beta.s 2 and .beta.s 4 is 0, among the output data XO1 t + 1 to x O4 t + 1 output from each unit of the
学習部14は、このようにして求められた平均二乗誤差Eを最小化するパラメータを推定し、パラメータを更新する。
The
以上のように、学習部14は、学習出力重みβskに基づいて各次元の平均二乗誤差に対して重み付けを行うので、その結果得られた平均二乗誤差Eを評価値として用いることにより、出力される各次元の時系列データのうち、学習時の評価値として着目すべき時系列データだけに着目した評価値を用いて学習を行うことができる。その結果、多次元の時系列データに基づいて、ダイナミクスを効率的に学習することができる。
As described above, the
図6は、図1の学習部14の詳細構成例を示すブロック図である。
FIG. 6 is a block diagram illustrating a detailed configuration example of the
学習部14は、信頼度抽出部81、入力重み調整部82、出力重み調整部83、スコア計算部84、勝者ノード決定部85、学習重み決定部86、およびパラメータ更新部87により構成される。学習部14には、図1の特徴抽出部13から時系列データが入力され、その時系列データは、信頼度抽出部81、スコア計算部84、およびパラメータ更新部87に供給される。
The
なお、特徴抽出部13から入力される時系列データには、付加情報として、各次元の信頼度ρk(0≦ρk≦1)が付加されているものとする。ここで、信頼度ρkは、k次元目の時系列データに対応する観測信号11の観測確率である。即ち、k次元目の時系列データに対応する観測信号11が観測された場合には、信頼度ρkが高くなり、観測されない場合には、信頼度ρkが低くなる。なお、ここで、信頼度ρkが高いとは、信頼度ρkの値が大きいことであり、信頼度ρkが低いとは、信頼度ρkの値が小さいことである。
It is assumed that reliability ρ k (0 ≦ ρ k ≦ 1) of each dimension is added to the time series data input from the
例えば、観測信号11である音声信号のパワーが大きい場合、即ち音声が聞こえる場合、特徴抽出部13は、その音声信号に対応する次元の時系列データに付加する信頼度ρkを1とし、音声信号のパワーが小さい場合、即ち音声が聞こえない場合、その信頼度ρkを0とする。
For example, when the power of the sound signal that is the
また、観測信号11であるモータ信号の電圧が高い場合、即ちモータが駆動している場合、そのモータ信号に対応する次元の時系列データに付加する信頼度ρkを1とし、モータ信号の電圧が低い場合、即ちモータが駆動していない場合、信頼度ρkを0とする。
Further, when the voltage of the motor signal as the
なお、信頼度ρkを求める方法は、上述した方法に限定されず、例えば各次元の時系列データに対応する観測信号11に重畳されている雑音信号の大小を計測または予測し、雑音信号が大きい場合には、対応する時系列データに付加する信頼度ρを高くし、雑音信号が小さい場合には、その信頼度ρを低くする方法であってもよい。
Note that the method for obtaining the reliability ρ k is not limited to the above-described method. For example, the magnitude of the noise signal superimposed on the
この信頼度ρkを求める方法は、どのような観測信号11が入力されるか、特徴抽出部13がどのような特徴量を抽出するかなどによって決定することができる。
The method for obtaining the reliability ρ k can be determined according to what observation signal 11 is input, what feature quantity the
信頼度抽出部81は、このようにして求められた信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部82と出力重み調整部83に供給する。
入力重み調整部82は、信頼度抽出部81からの各次元の信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている学習入力重みαskを次元ごとに調整する。具体的には、入力重み調整部82は、信頼度ρkに基づいて、信頼度ρkが高い次元の学習入力重みαskが大きくなり、信頼度ρkが低い次元の学習入力重みαskが小さくなるように、学習入力重みαskを決定し、その学習入力重みαskを入力重み記憶部52に供給して記憶させる。
Based on the reliability ρ k of each dimension from the
出力重み調整部83は、入力重み調整部82と同様に、信頼度抽出部81からの各次元の信頼度ρkに基づいて、出力重み記憶部53に記憶されている学習出力重みβskを次元ごとに調整する。
Similar to the input
スコア計算部84は、特徴抽出部13からの時系列データに対する、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークに含まれる各ノード41(図4)の力学系近似モデル51のスコア計算を、内部状態量を更新しながら行う。
The
具体的には、スコア計算部84は、時系列データを、各ノード41の力学系近似モデル51の加算部60に入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。そして、スコア計算部84は、式(2)にしたがって平均二乗誤差Eを、ノード41ごとに評価値として計算する。スコア計算部84は、その平均二乗誤差Eをスコアとして、各ノード41に付与する。
Specifically, the
なお、スコア計算部84は、ノード41ごとに、所定の値を基準として、以下の式(3)にしたがって、その所定の値を更新していくことにより得られる値のうちの、スコアを最も小さくする値を、内部状態量としての力学系近似モデル51のコンテキストの初期値C0に決定し、コンテキストを初期値から更新しながら、スコア計算を行う。
The
なお、式(3)において、C0,m(s)は、s(s=0,1,・・・)回目に更新される、m個目のコンテキストユニットに入力されるコンテキストの初期値を表し、ΔC0,m(s+1)は、m個目のコンテキストユニットに入力されるコンテキストの初期値の、s+1回目の更新の更新量であり、以下の式(4)により求められる。 In Equation (3), C 0, m (s) is the initial value of the context input to the m-th context unit, which is updated for the s (s = 0, 1,...) Times. ΔC 0, m (s + 1) is the update amount of the s + 1-th update of the initial value of the context input to the m-th context unit, and is obtained by the following equation (4).
式(4)において、ηは学習係数を表し、γは慣性係数を表す。また、δC0,mは、平均二乗誤差Eを用いてBPTT法によって求められるコンテキストの初期値C0,m(S)の誤差量を表している。 In Expression (4), η represents a learning coefficient, and γ represents an inertia coefficient. Further, δ C0, m represents an error amount of the initial value C 0, m (S) of the context obtained by the BPTT method using the mean square error E.
なお、BPTT法において、入力層61のコンテキストユニットに入力される時刻t+1のコンテキストCt+1の誤差量δc(t+1)を、出力層61のコンテキストユニットから出力される時刻tのコンテキストCtの誤差量δc(t)に逆伝播する際、以下の式(5)に示すように、任意の正の係数mで割ることにより、コンテキストの時定数の調整を行う。
In the BPTT method, the error amount δ c (t + 1) of the context C t + 1 at the time t + 1 input to the context unit of the
BPTT法において式(5)を採用することにより、コンテキストの1タイムステップ先の影響度を調整することができる。 By adopting equation (5) in the BPTT method, the influence degree of one time step ahead of the context can be adjusted.
コンテキストの初期値の決定に用いる所定の値、即ち初期値C0,m(0)としては、例えば、ランダムな値や、前回の力学系近似モデル51の学習時に求められた、コンテキストの最終的な更新値(以下、前回更新値という)などを採用することができる。
The predetermined value used for determining the initial value of the context, that is, the initial value C 0, m (0) is, for example, a random value or the final value of the context obtained when learning the previous dynamical
例えば、今回の学習時に用いられる学習データと、前回の学習時に用いられた学習データとが、何らの関係もないことが分かっている場合には、初期値C0,m(0)としては、ランダムな値を採用することができる。 For example, when it is known that there is no relationship between the learning data used in the current learning and the learning data used in the previous learning, the initial value C 0, m (0) is Random values can be adopted.
また、例えば、今回の学習時に用いられる学習データと、前回の学習時に用いられた学習データとが、連続する時系列データなどのように、何らかの関係を有することが分かっている場合には、初期値C0,m(0)としては、前回更新値を採用することができる。なお、前回更新値を、初期値C0,m(0)として採用する場合には、更新を行わず、前回更新値を、そのまま、コンテキストの初期値に決定することができる。 In addition, for example, when it is known that the learning data used in the current learning and the learning data used in the previous learning have some relationship such as continuous time-series data, As the value C 0, m (0), the previous updated value can be adopted. When the previous update value is adopted as the initial value C 0, m (0), the previous update value can be determined as the initial value of the context without updating.
スコア計算部84は、スコア計算の結果、各ノード41に付与されたスコアを勝者ノード決定部85に供給する。勝者ノード決定部85は、スコア計算部84からの各ノード41のスコアを比較し、最もスコアの値が小さいノード41を、学習データに最も適合するノードである勝者ノードとして決定する。勝者ノード決定部85は、その勝者ノードを特定する情報を学習重み決定部86に供給する。
The
学習重み決定部86は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークを参照し、勝者ノード決定部85からの情報により特定される勝者ノードからの距離dを、ノード41ごとに計算する。そして、学習重み決定部86は、その距離dに応じて、勝者ノードに対する値が最も大きくなり、勝者ノードからの距離dが大きくなるにしたがって値が小さくなるように、ノード41ごとに学習の重みを決定する。
The learning
また、学習重み決定部86は、学習の重みに基づいて、各ノード41の度合情報を生成する。具体的には、学習重み決定部86は、学習の重みに応じて、学習の重みが大きいノード41の学習の度合が大きくなり、学習の重みが小さいノード41の学習の度合が小さくなるように、各ノード41の度合情報を生成する。そして、学習重み決定部86は、生成した度合情報を各ノード41の学習度合記憶部54にそれぞれ供給し、記憶させる。
Further, the learning
これにより、勝者ノードにおいて最も強く学習が行われ、勝者ノードからの距離dが大きくなるにしたがって学習の度合が弱くなるように、学習の度合が調整される。 As a result, the learning level is adjusted such that the strongest learning is performed at the winner node and the learning level decreases as the distance d from the winner node increases.
パラメータ更新部87は、ノード41ごとに、学習度合記憶部54に記憶されている度合情報を読み出し、その度合情報が表す度合で、特徴抽出部13から供給される学習データの時系列パターンをダイナミクスとして学習する。
For each node 41, the
具体的には、パラメータ更新部87は、ノード41ごとに、時系列データを各ノード41の加算部60に入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。そして、スコア計算部84は、式(2)にしたがって平均二乗誤差Eを、ノード41ごとに評価値として計算する。
Specifically, the
パラメータ更新部87は、その平均二乗誤差E、時系列データ、および度合情報に基づいて、以下の式(6)にしたがい、BPTT法における繰り返し計算を行い、力学系近似モデル51のパラメータを更新する。
Based on the mean square error E, the time series data, and the degree information, the
なお、式(6)において、wi,j(s)は、s(s=0,1,・・・)回目の繰り返し計算で更新される、ユニットiとjの結合に付与された結合重みを表す。ここで、式(6)にしたがう更新は、度合情報である繰り返し回数行われる。即ち、sは、0から、繰り返し回数から1を減算した値までの数である。Δwi,j(s+1)は、結合重みwi,jの、s+1回目の更新の更新量であり、以下の式(7)により求められる。 In Equation (6), w i, j (s) is the connection weight given to the connection between units i and j, which is updated by the s (s = 0, 1,...) Iteration. Represents. Here, the update according to the equation (6) is performed the number of repetitions which is degree information. That is, s is a number from 0 to a value obtained by subtracting 1 from the number of repetitions. Δw i, j (s + 1) is the update amount of the s + 1th update of the connection weight w i, j and is obtained by the following equation (7).
式(7)において、δwijは、平均二乗誤差Eを用いてBPTT法によって求められる結合重みwi,j(s)の誤差量を表している。 In Expression (7), δ wij represents an error amount of the connection weight w i, j (s) obtained by the BPTT method using the mean square error E.
以上のように、パラメータ更新部87は、学習出力重みβskに基づいて計算された平均二乗誤差Eを用いてBPTT法によって誤差を逆伝播するので、学習出力重みβskにより、誤差を逆伝播する際に着目すべき出力データの次元が調整されることになる。即ち、学習出力重みβskにより、パラメータの更新時に着目すべき出力データの次元が調整されることになる。
As described above, the
また、パラメータ更新部87は、勝者ノードにおいて最も強く学習が行われ、勝者ノードからの距離dが大きくなるにしたがって学習の度合が弱くなるように調整された学習の重みに基づく学習、即ちノード41の競合近傍学習を行うので、多数のダイナミクスを自己組織的に学習することができる。
Further, the
次に、図7を参照して、図1の情報処理装置1がダイナミクス記憶ネットワークを学習する学習処理について説明する。この学習処理は、例えば、図1の情報処理装置1の電源がオンにされたとき、開始される。
Next, a learning process in which the
まず最初に、ステップS1において、学習部14のパラメータ更新部87(図5)は、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークのパラメータを初期化する。具体的には、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51のパラメータに適当な値が初期値として付与される。
First, in step S1, the parameter update unit 87 (FIG. 5) of the
ステップS1の処理後は、ステップS2に進み、図1の信号入力部12は、観測信号11を取得して、特徴抽出部13に供給し、ステップS3に進む。ステップS3において、特徴抽出部13は、その観測信号11の特徴量を次元ごとに時系列に抽出し、その結果得られる各次元の時系列データを学習データとして、学習部14の信頼度抽出部81、スコア計算部84、およびパラメータ更新部87に供給する。なお、このとき、特徴抽出部13は、次元ごとに、時系列データに信頼度ρkを付加する。
After the processing in step S1, the process proceeds to step S2, and the signal input unit 12 in FIG. 1 acquires the
ステップS3の処理後は、ステップS4に進み、信頼度抽出部81は、特徴抽出部13からの各次元の時系列データに付加された信頼度ρkを抽出し、入力重み調整部82と出力重み調整部83に供給して、ステップS5に進む。
After the processing in step S3, the process proceeds to step S4, where the
ステップS5において、入力重み調整部82は、信頼度抽出部81からの信頼度ρkに基づいて、各ノード41の入力重み記憶部52に記憶されている学習入力重みαskを調整し、ステップS6に進む。
In step S5, the input
ステップS6において、出力重み調整部83は、入力重み調整部82と同様に、信頼度抽出部81からの信頼度ρkに基づいて、各ノード41の出力重み記憶部53に記憶されている学習出力重みβskを調整し、ステップS7に進む。
In step S < b> 6, the output
ステップS7において、スコア計算部84は、特徴抽出部13からの学習データに対する、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークに含まれる各ノード41の力学系近似モデル51のスコア計算を、内部状態量を更新しながら行う。スコア計算部84は、スコア計算の結果、各ノード41に付与したスコアを、勝者ノード決定部85に供給する。
In step S <b> 7, the
ステップS7の処理後は、ステップS8に進み、勝者ノード決定部85は、勝者ノード決定部85から供給される各ノード41のスコアを比較することによって、最もスコアの値が小さいノードを勝者ノードとして決定し、その勝者ノードを特定する情報を、学習重み決定部86に供給する。
After the processing of step S7, the process proceeds to step S8, and the winner
ステップS8の処理後は、ステップS9に進み、学習重み決定部86は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークを参照し、勝者ノードからの距離dに基づいてノード41ごとに学習の重みを決定する。
After the processing of step S8, the process proceeds to step S9, where the learning
ステップS9の処理後は、ステップS10に進み、学習重み決定部86は、各ノード41の学習の重みに基づいて、各ノード41の度合情報を生成し、その度合情報を各ノード41の学習度合記憶部54にそれぞれ供給して記憶させる。
After the processing of step S9, the process proceeds to step S10, where the learning
ステップS10の処理後は、ステップS11に進み、パラメータ更新部87は、ノード41ごとに、特徴抽出部13からの学習データと度合情報に基づいて、BPTT法における繰り返し計算を行い、力学系近似モデル51のパラメータを更新する。その後、処理は、ステップS2に戻り、以降の処理が繰り返される。以上のようにして、度合情報が表す度合で、ダイナミクスの学習が行われる。
After the process of step S10, the process proceeds to step S11, and the
図8は、図1の学習部の他の詳細構成例を示すブロック図である。 FIG. 8 is a block diagram illustrating another detailed configuration example of the learning unit in FIG. 1.
学習部100には、信頼度抽出部81、入力重み調整部82、出力重み調整部83の代わりに、重み取得部101、入力重み抽出部102、出力重み調整部103が設けられている。
The
即ち、図8では、特徴抽出部13から入力される時系列データには、各次元の信頼度ρkが付加されておらず、外部から学習入力重みαskと学習出力重みβskが直接入力される。
That is, in FIG. 8, the reliability ρ k of each dimension is not added to the time-series data input from the
重み取得部101は、外部から入力された学習入力重みαskと学習出力重みβskを取得する。そして、重み取得部101は、その学習入力重みαskを入力重み調整部102に供給し、学習出力重みβskを出力重み調整部103に供給する。
The
入力重み調整部102は、重み取得部101からの学習入力重みαskを、入力重み記憶部52に記憶させることにより、学習入力重みαskを調整する。
出力重み調整部103は、入力重み調整部102と同様に、重み取得部101からの学習出力重みβskを、出力重み記憶部53に記憶させることにより、学習出力重みβskを調整する。
次に、図9を参照して、図8の学習部100を有する情報処理装置がダイナミクス記憶ネットワークを学習する学習処理について説明する。この学習処理は、例えば、情報処理装置の電源がオンにされたとき、開始される。
Next, a learning process in which the information processing apparatus having the
まず最初に、ステップS21において、学習部100のパラメータ更新部87(図8)は、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークのパラメータを初期化する。具体的には、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51のパラメータに適当な値が初期値として付与される。
First, in step S21, the parameter update unit 87 (FIG. 8) of the
ステップS21の処理後は、ステップS22に進み、信号入力部12は、観測信号11を取得して、特徴抽出部13に供給し、ステップS23に進む。ステップS23において、特徴抽出部13は、その観測信号11の特徴量を次元ごとに時系列に抽出し、その結果得られる各次元の時系列データを学習データとして、学習部14のスコア計算部84とパラメータ更新部87に供給する。
After the process of step S21, the process proceeds to step S22, and the signal input unit 12 acquires the
ステップS23の処理後は、ステップS24に進み、重み取得部101は、外部から入力された学習入力重みαskと学習出力重みβskを取得する。そして、重み取得部101は、その学習入力重みαskを入力重み調整部102に供給し、学習出力重みβskを出力重み調整部103に供給する。
After the process of step S23, the process proceeds to step S24, and the
ステップS24の処理後は、ステップS25に進み、入力重み調整部102は、重み取得部101からの学習入力重みαskを、入力重み記憶部52に記憶させることにより、学習入力重みαskを調整し、ステップS26に進む。
After the processing in step S24, the process proceeds to step S25, the input-
ステップS26において、出力重み調整部103は、入力重み調整部102と同様に、重み取得部101からの学習出力重みβskを、出力重み記憶部53に記憶させることにより、学習出力重みβskを調整し、ステップS27に進む。
In step S26, the output
ステップS27乃至S31の処理は、図7のステップS7乃至S11と同一であるので、説明は省略する。 The processing in steps S27 to S31 is the same as that in steps S7 to S11 in FIG.
図10は、図1の学習部のさらに他の詳細構成例を示すブロック図である。 FIG. 10 is a block diagram showing still another detailed configuration example of the learning unit in FIG.
学習部120は、図6の学習部14の各部に、さらに基重み決定部121が追加されることにより構成される。
The
基重み決定部121には、信頼度抽出部81から各次元の信頼度ρkが供給される。基重み決定部121は、信頼度ρkに基づいて、後述する認識生成時に用いられる入力重みと出力重みの基となる基重みωk(0≦ωk≦1)を決定する。具体的には、基重み決定部121は、学習を始める前に、基重みωkを1とし、信頼度抽出部81から供給される信頼度ρkに基づいて、式(8)にしたがい基重みωkを更新する。従って、学習に伴って、基重みωkが調整されていく。
The base
なお、式(8)において、ω´kは更新後の基重みを表し、Δ(0<Δ<1)は、更新による基重みωkの変化のステップ幅を表し、例えば0.05とされる。 In Equation (8), ω ′ k represents the updated base weight, and Δ (0 <Δ <1) represents the step width of the change in the base weight ω k due to the update, for example, 0.05.
式(8)によれば、信頼度ρkとして定常的な値が入力され続け、基重みωkの更新が十分に行われると、基重みωkは信頼度ρkに収束していく。即ち、基重みωkは、信頼度ρkが高く、学習時に着目すべき次元に対する値が大きくなるように調整される。 According to equation (8), continues steady value is input as the reliability [rho k, the update of the Motoomomi omega k is sufficiently performed, Motoomomi omega k is converges to the reliability [rho k. That is, the base weight ω k is adjusted so that the reliability ρ k is high and the value for the dimension to be noted at the time of learning is large.
例えば、センサ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx1tとx2t、並びにモータ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx3tとx4tのうち、状態ベクトルx1tとx3tに着目して学習が行われたノード41に対応する基重みω1とω3は、1となり、基重みω2とω4は0となる。 For example, among the state vectors x1 t and x2 t at the time t in the two-dimensional time series data corresponding to the sensor signal, and the state vectors x3 t and x4 t at the time t in the two-dimensional time series data corresponding to the motor signal The base weights ω 1 and ω 3 corresponding to the node 41 learned by focusing on the state vectors x1 t and x3 t are 1, and the base weights ω 2 and ω 4 are 0.
基重み決定部121は、更新後の基重みω´kを新しい基重みωkに決定し、ネットワーク記憶部15に記憶されているノード141(後述する図11)に供給して記憶させる。
The base
図11は、基重みωkが記憶される場合のノード141の詳細を示す図である。
FIG. 11 is a diagram illustrating details of the
図11のノード141は、内部状態量を持つ力学系近似モデル51、入力重み記憶部52、出力重み記憶部53、学習度合記憶部54、および基重み記憶部142により構成される。なお、図4と同一のものには同一の符号を付してあり、説明は繰り返しになるので省略する。
The
基重み記憶部142は、図10の基重み決定部121から供給される各次元の基重みωkを記憶する。この基重みωkは、後述する認識生成時に用いられる入力重みと出力重みを調整するときに用いられる。
The base
次に、図12を参照して、図10の学習部120を有する情報処理装置がダイナミクス記憶ネットワークを学習する学習処理について説明する。この学習処理は、例えば、情報処理装置の電源がオンにされたとき、開始される。
Next, a learning process in which the information processing apparatus having the
ステップS41乃至S46の処理は、図7のステップS1乃至S6の処理と同一であるので、説明は省略する。 The processing in steps S41 to S46 is the same as the processing in steps S1 to S6 in FIG.
ステップS46の処理後は、ステップS47に進み、図10の基重み決定部121は、信頼度抽出部81からの信頼度ρkに基づいて、上述した式(8)にしたがい基重みωkを決定し、ステップS48に進む。
After the processing of step S46, the process proceeds to step S47, and the base
ステップS48乃至S52の処理は、図7のステップS7乃至S11の処理と同一であるので、説明は省略する。 The processing in steps S48 to S52 is the same as the processing in steps S7 to S11 in FIG.
以上のように、図1の情報処理装置は、学習入力重みαskと学習出力重みβskに基づいて重み付けを行うことにより、ダイナミクスを効率的に学習することができるので、より安定した学習を行うことができる。また、このようにして学習されたダイナミクスを保持するダイナミクス記憶ネットワークを用いて、認識や生成を行うことにより、より安定した認識や生成を行うことができる。 As described above, the information processing apparatus in FIG. 1 can learn dynamics efficiently by performing weighting based on the learning input weight αs k and the learning output weight βs k, and thus more stable learning. It can be carried out. In addition, more stable recognition and generation can be performed by performing recognition and generation using a dynamics storage network that holds the learned dynamics.
[認識生成について]
図13は、図1の情報処理装置1の認識部16と生成部19の詳細構成例を示している。
[About recognition generation]
FIG. 13 shows a detailed configuration example of the
ここで、時系列データの認識生成とは、入力された時系列データを認識し、その認識結果に基づいて、新たな時系列データを生成することである。 Here, the recognition and generation of time-series data means that the input time-series data is recognized and new time-series data is generated based on the recognition result.
認識生成によれば、例えば、人間がロボットに呼びかける音声を発した場合に、そのロボットにおいて、その呼びかけに応じた動きをとるためのモータ信号や、その呼びかけに応答する合成音を生成するためのパラメータ信号等が生成される。 According to recognition generation, for example, when a human makes a voice calling to a robot, the robot generates a motor signal for taking a motion corresponding to the call and a synthesized sound responding to the call. A parameter signal or the like is generated.
図13に示すように、認識部16は、信頼度抽出部211、入力重み調整部212、出力重み調整部213、内部状態量更新部214、スコア計算部215、決定部216、および出力部217により構成される。
As shown in FIG. 13, the
なお、特徴抽出部13から出力される時系列データには、付加情報として、各次元の信頼度ρkが付加されているものとする。
It is assumed that the reliability ρ k of each dimension is added to the time series data output from the
信頼度抽出部211は、信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部212と出力重み調整部213に供給する。
Confidence extractor 211 from the reliability [rho k is added time-series data of each dimension was to extract the reliability [rho k of each dimension, and supplies the input-
入力重み調整部212は、信頼度抽出部211からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、認識時に用いられる入力重み(以下、認識入力重みという)αrk(0≦αrk≦1)を調整する。具体的には、入力重み調整部212は、信頼度ρkに基づいて、信頼度ρkが高い次元に対する値が大きくなり、信頼度ρkが低い次元に対する値が小さくなるように、認識入力重みαrkを決定し、その認識入力重みαrkを入力重み記憶部52に供給して記憶させる。
The input
出力重み調整部213は、入力重み調整部212と同様に、信頼度抽出部211からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、認識時に用いられる出力重み(以下、認識出力重みという)βrk(0≦βrk≦1)を調整する。
Similar to the input
内部状態量更新部214は、内部状態記憶部21から、前回更新されて記憶されている内部状態量を、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51へ読み込む。具体的には、内部状態量更新部214は、内部状態記憶部21から内部状態量を読み出し、その内部状態量を、各ノード41の力学系近似モデル51の内部状態量として、スコア計算部215に供給する。
The internal state
これにより、力学系近似モデル51において、入力となる時系列データに基づいて、内部状態量更新部214が読み込んだ値を初期値として、内部状態量を更新することが可能となる。
As a result, in the dynamical
また、内部状態量更新部214は、スコア計算部215から供給される、決定部216により勝者ノードが決定されるときの各ノード41の内部状態量の更新値(更新された内部状態量)と、その勝者ノードが決定されるときの各ノード41の内部状態量の初期値とを、内部状態記憶部21に記憶させる。
Also, the internal state
ここで、内部状態記憶部21に記憶された内部状態量の更新値は、力学系近似モデル51へ読み込まれ、次回のスコア計算に利用される。また、内部状態記憶部21に記憶された内部状態量の初期値は、生成部19において、時系列データの生成時に利用される。
Here, the updated value of the internal state quantity stored in the internal
スコア計算部215は、スコア計算部84と同様に、特徴抽出部13からの時系列データに対する、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークに含まれる各ノード41の力学系近似モデル51のスコア計算を、内部状態量を更新しながら行う。
Similar to the
即ち、スコア計算部215は、時系列データを、各ノード41の力学系近似モデル51の加算部60に入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。なお、加算部60は、学習時と同様に、認識入力重みαrkに基づいて、上述した式(1)の学習入力重みαskを認識入力重みαrkとした式にしたがって重み付けを行う。従って、認識入力重みαrkを調整することにより、認識時に着目すべき時系列データの次元を調整することができる。
That is, the
スコア計算部215はまた、上述した式(2)の学習出力重みβskを認識出力重みβrkとした式にしたがって平均二乗誤差を、ノード41ごとに評価値として計算する。従って、認識出力重みβkを調整することにより、認識時の評価値として着目すべき時系列データの次元を調整することができる。スコア計算部84は、その平均二乗誤差をスコアとして、各ノード41に付与する。
The
なお、スコア計算部215は、ノード41ごとに、認識時の評価値として求められた平均二乗誤差を用いて求められた誤差量δco,mを用いて、上述した式(3)と式(4)にしたがって、その所定の値を更新していくことにより得られる値のうちの、スコアを最も小さくする値を、力学系近似モデル51の内部状態量としてのコンテキストの初期値C0,mに決定し、コンテキストを初期値C0,mから更新しながら、スコア計算を行う。
The
スコア計算部215は、スコア計算の結果、各ノード41に付与されたスコアを、決定部216に供給するとともに、そのスコアが付与されたときの各ノード41の内部状態量の更新値と初期値を、勝者ノードが決定されるときの各ノード41の内部状態量の更新値と初期値として、内部状態量更新部214に供給する。
The
以上のように、認識入力重みαrkに基づいて、スコア計算部215から入力される時系列データに対して重み付けが行われ、認識出力重みβrkに基づく重み付き平均二乗誤差が認識時の評価値とされるので、入力される時系列データのうち、認識時に着目すべき時系列データだけに着目して認識を行うことができる。その結果、認識処理の負荷を軽減し、多次元の時系列データに基づいて効率的に認識を行うことができる。また、認識の精度を向上させることができる。
As described above, based on the recognition input weights .alpha.r k, is weighted time-series data input performed from the
決定部216は、スコア計算部215からのスコアに基づいて、最もスコアの値が小さいノードを、勝者ノードとして決定する。即ち、決定部216は、勝者ノードに対応するダイナミクスを、特徴抽出部13から入力された時系列データに最も適合するダイナミクスとして選択する。決定部216は、入力された時系列データに最も適合するダイナミクスに対応する勝者ノードを特定する信号を、出力部217に供給する。
Based on the score from the
出力部217は、決定部216からの勝者ノードを特定する信号を、認識結果17として出力する。以上のようにして、認識部16において、入力された時系列データが認識される。そして、認識の結果得られた認識結果17は、認識生成における生成の処理において、どのダイナミクスに対応するノード41から時系列データを生成するかを指定する制御信号18として用いられる。
The
図13の生成部19は、信頼度抽出部311、入力重み調整部312、出力重み調整部313、生成ノード決定部314、内部状態読み込み部315、時系列データ生成部316、および出力部317により構成される。
13 includes a
信頼度抽出部311は、信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部312と出力重み調整部313に供給する。
入力重み調整部312は、信頼度抽出部311からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、生成時に用いられる入力重み(以下、生成入力重みという)αgk(0≦αgk≦1)を調整する。具体的には、入力重み調整部312は、信頼度ρkに基づいて、信頼度ρkが高い次元の値が大きくなり、信頼度ρkが低い次元の値が小さくなるように、認識入力重みαgkを決定し、その認識入力重みαgkを入力重み記憶部52に供給して記憶させる。
The input
出力重み調整部313は、入力重み調整部312と同様に、信頼度抽出部311からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、生成時に用いられる出力重み(以下、生成出力重みという)βgk(0≦βgk≦1)を調整する。
Similar to the input
生成ノード決定部314には、出力部217から出力される認識結果17が、制御信号18として入力される。生成ノード決定部314は、制御信号18に基づいて、時系列データを生成すべきノード41である生成ノードを決定する。即ち、決定部216により決定された勝者ノードが、生成ノードとして決定される。生成ノード決定部314は、決定された生成ノードを特定する情報を、内部状態読み込み部315に供給する。
The recognition result 17 output from the
内部状態読み込み部315は、生成ノード決定部314からの情報に基づいて、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークに含まれるノード41のうちの生成ノードの力学系近似モデル51に、内部状態記憶部21に記憶されている値を、内部状態量の初期値として読み込む。
Based on the information from the generation
即ち、内部状態読み込み部315は、内部状態記憶部21に記憶されている値のうちの、生成ノードが認識部16において勝者ノードに決定されたときの内部状態量の初期値を読み出し、その内部状態量の初期値を、生成ノードの力学系近似モデル51の内部状態量として、時系列データ生成部316に供給する。
That is, the internal state reading unit 315 reads the initial value of the internal state quantity when the generation node is determined as the winner node in the
時系列データ生成部316には、特徴抽出部13から供給される時系列データが供給される。時系列データ生成部316は、その時系列データに基づいて、内部状態量を更新しながら時系列データを生成する。
The time series data generation unit 316 is supplied with the time series data supplied from the
具体的には、時系列データ生成部316は、時系列データを生成ノードの力学系近似モデル51の加算部60に入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。
Specifically, the time series data generation unit 316 inputs the time series data to the
なお、加算部60は、学習や認識時と同様に、生成入力重みαgkに基づいて、上述した式(1)の学習入力重みαskを生成入力重みαgkとした式にしたがって重み付けを行う。従って、生成入力重みαgkを調整することにより、生成時に着目すべき時系列データの次元を調整することができる。
Incidentally, the
また、時系列データ生成部316は、上述した式(2)の学習出力重みβskを生成出力重みβgkとした式にしたがって平均二乗誤差を、ノード41ごとに評価値として計算する。従って、生成出力重みβgkを調整することにより、生成時の評価値として着目すべき時系列データの次元を調整することができる。 Further, the time series data generation unit 316 calculates a mean square error as an evaluation value for each node 41 in accordance with the equation (2) in which the learning output weight βs k is the generated output weight βg k . Therefore, by adjusting the generation output weight βg k , it is possible to adjust the dimension of the time series data to be noted as the evaluation value at the time of generation.
そして、時系列データ生成部316は、ノード41ごとに、所定の値を基準として、生成時の評価値として求められた平均二乗誤差を用いて得られたδco,mを用いて、上述した式(3)と式(4)にしたがって、その所定の値を更新していくことにより得られる値のうちの、平均二乗誤差を最も小さくする値を、内部状態量としての力学系近似モデル51のコンテキストの初期値C0,mに決定し、力学系近似モデル51に、コンテキストを初期値C0,mから更新しながら、出力データを出力させる。
Then, the time series data generation unit 316 uses the δ co, m obtained by using the mean square error obtained as the evaluation value at the time of generation for each node 41 with reference to a predetermined value as described above. Of the values obtained by updating the predetermined value according to the equations (3) and (4), the value that minimizes the mean square error is the dynamic
時系列データ生成部316は、生成ノードに対応する力学系近似モデル51から得た各次元の出力データに対して、生成出力重みβgkに基づいて重み付けを行い、その結果を時系列データとして生成する。即ち、時系列データ生成部316は、生成出力重みβgkに対応する割合で、各次元の時系列データを生成する。そして、時系列データ生成部316は、生成した時系列データを、出力部317に供給する。
The time series data generation unit 316 weights the output data of each dimension obtained from the dynamical
以上のように、生成入力重みαgkに基づいて、特徴抽出部13から入力される時系列データに対して重み付けが行われ、生成出力重みβgkに基づいて、力学系近似モデル51からの出力データに対して重み付けが行われるので、入力される時系列データのうち、生成時に着目すべき時系列データだけに着目して、時系列データを生成することができる。その結果、情報処理装置1に入力された時系列データに矛盾する時系列データが生成されることを防止することができる。
As described above, the time series data input from the
出力部317は、時系列データ生成部316からの時系列データを、生成結果20として出力する。以上のようにして、生成部19は、認識部16による認識の処理において決定された勝者ノードから、時系列データを生成結果20として生成し、出力する。
The
次に、図14を参照して、図13の認識部16が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から時系列データが入力されたとき、開始される。
Next, a recognition process in which the
ステップS71において、信頼度抽出部211は、信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部212と出力重み調整部213に供給する。
In step S71, the confidence extractor 211 from the reliability [rho k is added time-series data of each dimension was to extract the reliability [rho k of each dimension, the input-
ステップS71の処理後は、ステップS72に進み、入力重み調整部212は、信頼度抽出部211からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、認識時に用いられる認識入力重みαrkを調整する。
After the process of step S71, the process proceeds to step S72, and the input
ステップS72の処理後は、ステップS73に進み、出力重み調整部213は、入力重み調整部212と同様に、信頼度抽出部211からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、認識時に用いられる認識出力重みβrkを調整する。
After the process of step S72, the process proceeds to step S73, and the output
ステップS73の処理後は、ステップS74に進み、内部状態量更新部214は、内部状態記憶部21から、前回更新されて記憶されている内部状態量を、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51へ読み込む。
After the processing of step S73, the process proceeds to step S74, where the internal state
ステップS74の処理後は、ステップS75に進み、スコア計算部215は、特徴抽出部13からの時系列データに対する、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークに含まれる各ノード41の力学系近似モデル51のスコア計算を、内部状態量を更新しながら行う。
After the processing of step S74, the process proceeds to step S75, where the
スコア計算部215は、スコア計算の結果、各ノード41に付与されたスコアを、決定部216に供給するとともに、そのスコアが付与されたときの各ノード41の内部状態量の更新値と初期値を、勝者ノードが決定されるときの各ノード41の内部状態量の更新値と初期値として、内部状態量更新部214に供給する。
The
ステップS75の処理後は、ステップS76に進み、内部状態量更新部214は、スコア計算部215から供給される、決定部216により勝者ノードが決定されるときの各ノード41の内部状態量の更新値と、その勝者ノードが決定されるときの各ノード41の内部状態量の初期値とを、内部状態記憶部21に記憶させる。
After the processing of step S75, the process proceeds to step S76, where the internal state
ステップS76の処理後は、ステップS77に進み、決定部216は、スコア計算部215からのスコアに基づいて、最もスコアの値が小さいノードを、勝者ノードとして決定する。決定部216は、勝者ノードを特定する信号を、出力部217に供給する。
After the process of step S76, the process proceeds to step S77, and the
ステップS77の処理後は、ステップS78に進み、出力部217は、決定部216からの勝者ノードを特定する信号を、認識結果17として出力し、処理を終了する。
After the process of step S77, the process proceeds to step S78, where the
次に、図15を参照して、図13の生成部19が時系列データを生成する生成処理について説明する。この生成処理は、例えば、出力部217から出力された認識結果17が制御信号18として入力されたとき、開始される。
Next, a generation process in which the
ステップS91において、信頼度抽出部311は、信頼度ρkが付加された各次元の時系列データから、各次元の信頼度ρkを抽出し、入力重み調整部312と出力重み調整部313に供給する。
In step S91, the
ステップS91の処理後は、ステップS92に進み、入力重み調整部312は、信頼度抽出部311からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、生成時に用いられる生成入力重みαgkを調整する。
After the processing of step S91, the process proceeds to step S92, where the input
ステップS92の処理後は、ステップS93に進み、出力重み調整部313は、入力重み調整部312と同様に、信頼度抽出部311からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、生成時に用いられる生成出力重みβgkを調整する。
After the processing of step S92, the process proceeds to step S93, and the output weight adjustment unit 313 stores the output
ステップS93の処理後は、ステップS94に進み、生成ノード決定部314は、制御信号18に基づいて、時系列データを生成すべきノード41である生成ノードを決定する。生成ノード決定部314は、決定された生成ノードを特定する情報を、内部状態読み込み部315に供給する。
After the processing of step S93, the process proceeds to step S94, and the generation
ステップS94の処理後は、ステップS95に進み、内部状態読み込み部315は、生成ノード決定部314からの情報に基づいて、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークに含まれるノード41のうちの生成ノードの力学系近似モデル51に、内部状態記憶部21に記憶されている内部状態量の初期値を読み込む。
After the process of step S94, the process proceeds to step S95, and the internal state reading unit 315 is based on the information from the generation
ステップS95の処理後は、ステップS96に進み、時系列データ生成部316は、特徴抽出部13から供給される時系列データに基づいて、内部状態量を更新しながら、時系列データを生成する。時系列データ生成部316は、生成した時系列データを出力部317に供給する。
After the processing of step S95, the process proceeds to step S96, and the time series data generation unit 316 generates time series data while updating the internal state quantity based on the time series data supplied from the
ステップS96の処理後は、ステップS97に進み、出力部317は、時系列データ生成部316からの時系列データを、生成結果20として出力し、処理を終了する。
After the process of step S96, the process proceeds to step S97, where the
図16は、図1の認識部と生成部の他の詳細構成例を示すブロック図である。 FIG. 16 is a block diagram illustrating another detailed configuration example of the recognition unit and the generation unit in FIG.
図16の認識部401には、信頼度抽出部211、入力重み調整部212、出力重み調整部213の代わりに、信頼度抽出部411、入力重み抽出部412、出力重み調整部413が設けられている。
The recognition unit 401 in FIG. 16 includes a
即ち、図16では、特徴抽出部13から入力される時系列データには、各次元の信頼度ρkが付加されておらず、外部から認識入力重みαrkと認識出力重みβrkが直接入力される。
That is, in FIG. 16, the time-series data input from the
重み取得部411は、外部から入力された認識入力重みαrkと認識出力重みβrkを取得する。そして、重み取得部411は、その認識入力重みαrkを入力重み調整部412に供給し、認識出力重みβrkを出力重み調整部413に供給する。
入力重み調整部412は、重み取得部411からの認識入力重みαrkを、入力重み記憶部52に記憶させることにより、認識入力重みαrkを調整する。
出力重み調整部413は、入力重み調整部412と同様に、重み取得部411からの認識出力重みβrkを、出力重み記憶部53に記憶させることにより、認識出力重みβrkを調整する。
また、図16の生成部402には、信頼度抽出部311、入力重み調整部312、出力重み調整部313の代わりに、信頼度抽出部421、入力重み抽出部422、出力重み調整部423が設けられている。即ち、図16では、外部から生成入力重みαrkと生成出力重みβrkが直接入力される。
In addition, the generation unit 402 in FIG. 16 includes a
重み取得部421は、外部から入力された生成入力重みαrkと生成出力重みβrkを取得する。そして、重み取得部421は、その生成入力重みαrkを入力重み調整部422に供給し、生成出力重みβrkを出力重み調整部423に供給する。
入力重み調整部422は、重み取得部421からの生成入力重みαrkを、入力重み記憶部52に記憶させることにより、生成入力重みαrkを調整する。
出力重み調整部423は、入力重み調整部422と同様に、重み取得部421からの生成出力重みβrkを、出力重み記憶部53に記憶させることにより、生成出力重みβrkを調整する。
Output-
次に、図17を参照して、図16の認識部401が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から時系列データが供給されたとき、開始される。
Next, a recognition process in which the recognition unit 401 in FIG. 16 recognizes time-series data will be described with reference to FIG. This recognition process is started, for example, when time series data is supplied from the
ステップS101において、重み取得部411は、外部から入力された認識入力重みαrkと認識出力重みβrkを取得する。そして、重み取得部411は、その認識入力重みαrkを入力重み調整部412に供給し、認識出力重みβrkを出力重み調整部413に供給する。
In step S101, the
ステップS101の処理後は、ステップS102に進み、入力重み調整部412は、重み取得部411からの認識入力重みαrkを、入力重み記憶部52に記憶させることにより、認識入力重みαrkを調整する。
After the step S101, the process proceeds to step S102, input-
ステップS102の処理後は、ステップS103に進み、出力重み調整部413は、入力重み調整部412と同様に、重み取得部411からの認識出力重みβrkを、出力重み記憶部53に記憶させることにより、認識出力重みβrkを調整し、ステップS104に進む。
After the processing in step S102, the process proceeds to step S103, and the output
なお、ステップS104乃至S108の処理は、図14のステップS74乃至S78と同一の処理であるので、説明は省略する。 Note that the processing in steps S104 to S108 is the same as that in steps S74 to S78 in FIG.
次に、図18を参照して、図16の生成部402が時系列データを生成する生成処理について説明する。この生成処理は、例えば、出力部217から出力された認識結果17が制御信号18として入力されたとき、開始される。
Next, a generation process in which the generation unit 402 in FIG. 16 generates time-series data will be described with reference to FIG. This generation process is started, for example, when the recognition result 17 output from the
ステップS111において、重み取得部421は、外部から入力された生成入力重みαrkと生成出力重みβrkを取得する。そして、重み取得部421は、その生成入力重みαrkを入力重み調整部422に供給し、生成出力重みβrkを出力重み調整部423に供給する。
In step S111, the
ステップS111の処理後は、ステップS112に進み、入力重み調整部422は、重み取得部421からの生成入力重みαrkを、入力重み記憶部52に記憶させることにより、生成入力重みαrkを調整する。
After the step S111, the process proceeds to step S112, input-
ステップS112の処理後は、ステップS113に進み、出力重み調整部423は、入力重み調整部422と同様に、重み取得部421からの生成出力重みβrkを、出力重み記憶部53に記憶させることにより、生成出力重みβrkを調整し、ステップS114に進む。
After the step S112, the process proceeds to step S113, the output-
なお、ステップS114乃至S117の処理は、図15のステップS94乃至S97の処理と同一であるので、説明は省略する。 Note that the processing in steps S114 to S117 is the same as the processing in steps S94 to S97 in FIG.
図19は、図1の認識部と生成部のさらに他の詳細構成例を示すブロック図である。 FIG. 19 is a block diagram showing still another detailed configuration example of the recognition unit and the generation unit in FIG.
図19の認識部501には、図13の信頼度抽出部211、内部状態量更新部214の代わりに、信頼度計算部511、内部状態量更新部512が設けられている。
The recognition unit 501 in FIG. 19 includes a reliability calculation unit 511 and an internal state
即ち、図19では、特徴抽出部13から入力される時系列データには、各次元の信頼度ρkが付加されておらず、認識部501において、入力された時系列データの信頼度ρkを計算する。
That is, in FIG. 19, the time-series data input from the
信頼度計算部511は、特徴抽出部13から供給される各次元の時系列データが供給される。信頼度計算部511は、その各次元の時系列データと内部状態量更新部512から供給される内部状態量の初期値とに基づいて、各次元の信頼度ρkを計算する。
The reliability calculation unit 511 is supplied with time-series data of each dimension supplied from the
具体的には、信頼度計算部511は、各次元の時系列データを、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51の加算部60に入力するとともに、内部状態量の初期値としてのコンテキストを入力層61のコンテキストユニットに入力し、その入力に対する出力である出力データを、力学系近似モデル51の出力層63から得る。なお、このとき、加算部60は、入力された各次元の時系列データをそのまま、入力層61の各ユニットに供給する。
Specifically, the reliability calculation unit 511 inputs the time series data of each dimension to the
信頼度計算部511は、力学系近似モデル51に入力する時系列データと、その1つ前に力学系近似モデル51から得た出力データと、時系列データとに基づいて、次元ごとの、時系列データに対して得られるべき出力の真値と、その時系列データに対する力学系近似モデル51からの出力値の次元ごとの誤差である予測誤差εk(0<ε1<1)を、ノード41ごとに計算する。
The reliability calculation unit 511 calculates time-dependent data for each dimension based on the time series data input to the dynamic
そして、信頼度計算部511は、ノード41ごとに、予測誤差εkを用いて、以下の式(9)にしたがって各次元の信頼度ρkを計算する。 Then, the reliability calculation unit 511 calculates the reliability ρ k of each dimension according to the following equation (9) using the prediction error ε k for each node 41.
式(9)によれば、予測誤差εkの大きい次元に対しては、小さい信頼度ρkが与えられ、予測誤差εkの小さい次元に対しては、大きい信頼度ρkが与えられる。 According to equation (9), for the greater dimension of the prediction error epsilon k, less reliability [rho k is given, for the small dimension of the prediction error epsilon k, it is given greater reliability [rho k.
信頼度計算部511は、式(9)にしたがう計算の結果得られる信頼度ρkを、入力重み調整部212と出力重み調整部213に供給する。
The reliability calculation unit 511 supplies the reliability ρ k obtained as a result of the calculation according to Equation (9) to the input
内部状態量更新部512は、内部状態記憶部21から、前回更新されて記憶されている内部状態量を、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51へ読み込む。
The internal state
具体的には、内部状態量更新部512は、内部状態記憶部21から前回更新されて記憶されている内部状態量を読み出し、その内部状態量を、各ノード41の力学系近似モデル51の内部状態量の初期値として、信頼度計算部511に供給したり、スコア計算部215に供給する。
Specifically, the internal state
また、内部状態量更新部512は、図13の内部状態量更新部214と同様に、スコア計算部215から供給される、決定部216により勝者ノードが決定されるときの各ノード41の内部状態量の更新値と、その勝者ノードが決定されるときの各ノード41の内部状態量の初期値とを、内部状態記憶部21に記憶させる。
Similarly to the internal state
また、図19の生成部502には、図13の信頼度抽出部311、内部状態読み込み部315の代わりに、信頼度計算部521、内部状態読み込み部522が設けられている。即ち、図19では、生成部502において、入力された時系列データの信頼度ρkを計算する。
In addition, the generation unit 502 in FIG. 19 includes a
信頼度計算部521は、信頼度計算部501と同様に、特徴抽出部13から供給される各次元の時系列データが供給される。信頼度計算部521は、信頼度計算部501と同様に、その各次元の時系列データと内部状態読み込み部522から供給される内部状態量の初期値とに基づいて、各次元の信頼度ρkを計算する。信頼度計算部511は、計算の結果得られる信頼度ρkを、入力重み調整部312と出力重み調整部313に供給する。
Like the reliability calculation unit 501, the
内部状態読み込み部522は、生成ノード決定部314からの情報に基づいて、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークに含まれるノード41のうちの生成ノードの力学系近似モデル51に、内部状態記憶部21に記憶されている値を、内部状態量の初期値として読み込む。
Based on the information from the generation
即ち、内部状態読み込み部522は、内部状態記憶部21に記憶されている値のうちの、生成ノードが認識部16において勝者ノードに決定されたときの内部状態量の初期値を読み出し、その内部状態量の初期値を、生成ノードの力学系近似モデル51の内部状態量の初期値として、信頼度計算部521と時系列データ生成部316に供給する。
That is, the internal state reading unit 522 reads the initial value of the internal state quantity when the generation node is determined as the winner node in the
次に、図20を参照して、図19の認識部501が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から各次元の時系列データが供給されたとき、開始される。
Next, a recognition process in which the recognition unit 501 in FIG. 19 recognizes time-series data will be described with reference to FIG. This recognition process is started, for example, when time-series data of each dimension is supplied from the
ステップS121において、内部状態量更新部512は、内部状態記憶部21から、前回更新されて記憶されている内部状態量を、ダイナミクス記憶ネットワークの各ノード41の力学系近似モデル51へ読み込む。
In step S121, the internal state
ステップS121の処理後は、ステップS122に進み、信頼度計算部511は、特徴抽出部13から供給される各次元の時系列データと、内部状態量更新部512から供給される内部状態量の初期値とに基づいて、上述した式(9)にしたがって、各次元の信頼度ρkを計算する。信頼度計算部511は、その信頼度ρkを、入力重み調整部212と出力重み調整部213に供給する。
After the processing of step S121, the process proceeds to step S122, in which the reliability calculation unit 511 initializes the time series data of each dimension supplied from the
ステップS122の処理後は、ステップS123に進み、入力重み調整部212は、信頼度計算部511からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、認識時に用いられる認識入力重みαrkを調整する。
After the process of step S122, the process proceeds to step S123, and the input
ステップS123の処理後は、ステップS124に進み、出力重み調整部213は、入力重み調整部212と同様に、信頼度計算部511からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、認識時に用いられる認識出力重みβrkを調整し、ステップS125に進む。
After the processing of step S123, the process proceeds to step S124, and the output
なお、ステップS125乃至S128の処理は、図14のステップS75乃至S78と同様であるので、説明は省略する。 Note that the processing of steps S125 to S128 is the same as steps S75 to S78 of FIG.
次に、図21を参照して、図19の生成部502が時系列データを生成する生成処理について説明する。この生成処理は、例えば、出力部217から出力された認識結果17が制御信号18として入力されたとき、開始される。
Next, a generation process in which the generation unit 502 of FIG. 19 generates time-series data will be described with reference to FIG. This generation process is started, for example, when the recognition result 17 output from the
ステップS131において、生成ノード決定部314は、制御信号18に基づいて、時系列データを生成すべきノード41である生成ノードを決定する。生成ノード決定部314は、決定された生成ノードを特定する情報を、内部状態読み込み部522に供給する。
In step S131, the generation
ステップS131の処理後は、ステップS132に進み、内部状態読み込み部522は、生成ノード決定部314からの情報に基づいて、ネットワーク記憶部15に記憶されたダイナミクス記憶ネットワークに含まれるノード41のうちの生成ノードの力学系近似モデル51に、内部状態記憶部21に記憶されている内部状態量の初期値を読み込む。
After the processing of step S131, the process proceeds to step S132, and the internal state reading unit 522 is based on the information from the generation
ステップS132の処理後は、ステップS133に進み、信頼度計算部521は、信頼度計算部501と同様に、特徴抽出部13から供給される各次元の時系列データと内部状態読み込み部522から供給される内部状態量の初期値とに基づいて、上述した式(9)にしたがい、各次元の信頼度ρkを計算する。信頼度計算部511は、計算の結果得られる信頼度ρkを、入力重み調整部312と出力重み調整部313に供給する。
After the process of step S132, the process proceeds to step S133, and the
ステップS133の処理後は、ステップS134に進み、入力重み調整部312は、信頼度計算部511からの信頼度ρkに基づいて、図4の入力重み記憶部52に記憶されている、生成時に用いられる生成入力重みαgkを調整する。
After the processing of step S133, the process proceeds to step S134, and the input
ステップS134の処理後は、ステップS135に進み、出力重み調整部313は、入力重み調整部312と同様に、信頼度抽出部311からの信頼度ρkに基づいて、出力重み記憶部53に記憶されている、生成時に用いられる生成出力重みβgkを調整し、ステップS136に進む。
After the processing of step S134, the process proceeds to step S135, and the output weight adjustment unit 313 stores the output
ステップS136とS137の処理は、図15のステップS96とステップS97の処理と同一であるので、説明は省略する。 The processing in steps S136 and S137 is the same as the processing in steps S96 and S97 in FIG.
図22は、図1の認識部と生成部のさらに他の詳細構成例を示すブロック図である。 FIG. 22 is a block diagram illustrating still another detailed configuration example of the recognition unit and the generation unit in FIG. 1.
なお、図22の認識部601と生成部602は、図10の学習部120に対応しており、学習部120により学習が行われたダイナミクス記憶ネットワークを用いて、認識生成を行う。
Note that the recognition unit 601 and the generation unit 602 in FIG. 22 correspond to the
即ち、図22の認識部601には、図13の信頼度抽出部211、入力重み調整部212、出力重み調整部213の代わりに、基重み取得部611、入力重み調整部612、出力重み調整部613が設けられており、学習時に図10の学習部120により計算された基重みωkに基づいて、認識入力重みαrkと認識出力重みβrkが調整される。
That is, the recognition unit 601 in FIG. 22 includes a base weight acquisition unit 611, an input
基重み取得部611は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード141の基重み係数記憶部142から、基重みωkを取得する。基重み取得部611は、その基重みωkを入力重み調整部612と出力重み調整部613に供給する。
The base weight acquisition unit 611 acquires the base weight ω k from the base weight
入力重み調整部612は、基重み取得部611からの基重みωkに基づいて、基重みωkが大きい次元に対して認識入力重みαrkが大きくなるように、認識入力重みαrkを決定し、入力重み記憶部52に記憶させる。例えば、入力重み調整部612は、基重みωkを認識入力重みαrkとして入力重み記憶部52に記憶させる。これにより、入力重み記憶部52に記憶されている認識入力重みαrkが調整される。
Input-
出力重み調整部613は、入力重み調整部612と同様に、基重み取得部611からの基重みωkに基づいて、認識出力重みβrkを決定し、出力重み記憶部53に記憶させることにより、認識出力重みβrkを調整する。例えば、出力重み調整部612は、基重みωkを認識出力重みβrkとして出力重み記憶部53に記憶させる。
Similar to the input
以上のように、入力重み調整部612と出力重み調整部613は、基重みωkに基づいて、基重みωkが大きい次元に対して認識入力重みαrkと認識出力重みβrkが大きくなるように、認識入力重みαrkと認識出力重みβrkを決定するので、学習時に着目された次元が、認識時においても着目される。
As described above, the output-
例えば、センサ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx1tとx2t、並びにモータ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx3tとx4tのうち、状態ベクトルx1tとx3tに着目して学習が行われたノード141に対応する基重みω1とω3は、1となり、基重みω2とω4は0となる。この場合、例えば、基重みωkがそのまま認識入力重みαrkと認識出力重みβrkに決定され、認識時において、特徴抽出部13から供給される時系列データに対応する4次元のうち、状態ベクトルx1tとx3tに対応する1次元目と3次元目が着目される。
For example, among the state vectors x1 t and x2 t at the time t in the two-dimensional time series data corresponding to the sensor signal, and the state vectors x3 t and x4 t at the time t in the two-dimensional time series data corresponding to the motor signal The base weights ω 1 and ω 3 corresponding to the
なお、入力重み調整部612と出力重み調整部613は、基重みωkをそのまま入力重みαrkと出力重みβrkにするのではなく、基重みωkに認識時の信頼度ρkを乗算したものを入力重みαrkと出力重みβrkにするようにしてもよい。この場合、認識時の信頼度ρkとして、特徴抽出部13から供給される時系列データに付加された信頼度ρkや、予測誤差εkにより計算された信頼度ρkを用いることができる。
The
また、図22の生成部602には、図13の信頼度抽出部311、入力重み調整部312、出力重み調整部313の代わりに、基重み取得部621、入力重み調整部622、出力重み調整部623が設けられており、学習時に図10の学習部120により計算された基重みωkに基づいて、生成入力重みαgkと生成出力重みβgkが調整される。
22 includes a base
基重み取得部621は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード141の基重み係数記憶部142から、基重みωkを取得する。基重み取得部621は、その基重みωkを入力重み調整部622と出力重み調整部623に供給する。
The base
入力重み調整部622は、入力重み調整部612と同様に、基重み取得部621からの基重みωkに基づいて、基重みωkが大きい次元に対して生成入力重みαgkが大きくなるように、生成入力重みαgkを決定し、入力重み記憶部52に記憶させる。これにより、入力重み記憶部52に記憶されている生成入力重みαgkが調整される。
Input-
出力重み調整部623は、出力重み調整部613と同様に、基重み取得部621からの基重みωkに基づいて、生成出力重みβgkを決定し、出力重み記憶部53に記憶させることにより、生成出力重みβgkを調整する。
Similarly to the output
以上のように、入力重み調整部622と出力重み調整部623は、入力重み調整部612と出力重み調整部613と同様に、基重みωkに基づいて、生成入力重みαgkと生成出力重みβgkを決定するので、学習時に着目された次元が、生成時においても着目される。
As described above, the input
例えば、センサ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx1tとx2t、並びにモータ信号に対応する2次元の時系列データにおける時刻tの状態ベクトルx3tとx4tのうち、状態ベクトルx1tとx3tに着目して学習が行われたノード41に対応する基重みω1とω3は、1となり、基重みω2とω4は0となる。 For example, among the state vectors x1 t and x2 t at the time t in the two-dimensional time series data corresponding to the sensor signal, and the state vectors x3 t and x4 t at the time t in the two-dimensional time series data corresponding to the motor signal The base weights ω 1 and ω 3 corresponding to the node 41 learned by focusing on the state vectors x1 t and x3 t are 1, and the base weights ω 2 and ω 4 are 0.
この場合、例えば、基重みωkがそのまま生成入力重みαgkと生成出力重みβgkに決定され、生成時において、特徴抽出部13から供給される時系列データに対応する4次元のうち、状態ベクトルx1tとx3tに対応する1次元目と3次元目が着目される。その結果、時系列データ生成部316は、力学系近似モデル51から得た4次元の出力データのうち、1次元目と3次元目の出力データのみを時系列データとして生成する。
In this case, for example, Motoomomi omega k is determined to generate input weights .alpha.g k and generation output weights .beta.g k as is, in the generation time, of the four-dimensional corresponding to time-series data supplied from the
このように、基重みωkに基づいて生成入力重みαgkを決定することにより、学習時に着目しなかった次元の出力データが、生成結果20として出力されることを防止することができる。これにより、生成ノードとするノード141によって、例えば、両手信号に対応する時系列データだけが生成されたり、両足信号に対応する時系列データだけが生成される。
In this way, by determining the generation input weight αg k based on the base weight ω k , it is possible to prevent output data of a dimension not focused at the time of learning from being output as the
次に、図23を参照して、図22の認識部601が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から時系列データが供給されたとき、開始される。
Next, a recognition process in which the recognition unit 601 in FIG. 22 recognizes time-series data will be described with reference to FIG. This recognition process is started, for example, when time series data is supplied from the
ステップS141において、基重み取得部611は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード141の基重み係数記憶部142から、基重みωkを取得する。基重み取得部611は、その基重みωkを入力重み調整部612と出力重み調整部613に供給する。
In step S <b> 141, the base weight acquisition unit 611 acquires the base weight ω k from the base weight
ステップS141の処理後は、ステップS142に進み、入力重み調整部612は、基重み取得部611からの基重みωkに基づいて、認識入力重みαrkを、入力重み記憶部52に記憶させることにより、認識入力重みαrkを調整する。
After the processing of step S141, the process proceeds to step S142, and the input
ステップS142の処理後は、ステップS143に進み、出力重み調整部613は、入力重み調整部612と同様に、基重み取得部611からの基重みωkに基づいて、認識出力重みβrkを、出力重み記憶部53に記憶させることにより、認識出力重みβrkを調整し、ステップS144に進む。
After the processing of step S142, the process proceeds to step S143, and the output
ステップS144乃至S148の処理は、図14のステップS74乃至S78と同一の処理であるので、説明は省略する。 The processing in steps S144 to S148 is the same as that in steps S74 to S78 in FIG.
次に、図24を参照して、図22の生成部602が時系列データを生成する生成処理について説明する。この生成処理は、例えば、出力部217から出力された認識結果17が制御信号18として入力されたとき、開始される。
Next, a generation process in which the generation unit 602 in FIG. 22 generates time-series data will be described with reference to FIG. This generation process is started, for example, when the recognition result 17 output from the
ステップS151において、基重み取得部621は、ネットワーク記憶部15に記憶されているダイナミクス記憶ネットワークの各ノード141の基重み係数記憶部142から、基重みωkを取得する。基重み取得部621は、その基重みωkを入力重み調整部622と出力重み調整部623に供給する。
In step S151, the base
ステップS151の処理後は、ステップS152に進み、入力重み調整部622は、入力重み調整部612と同様に、基重み取得部621からの基重みωkに基づいて、生成入力重みωkを入力重み記憶部52に記憶させることにより、生成入力重みαgkを調整する。
After the processing of step S151, the process proceeds to step S152, and the input
ステップS152の処理後は、ステップS153に進み、出力重み調整部623は、出力重み調整部613と同様に、基重み取得部621からの基重みωkに基づいて、生成出力重みβgkを、出力重み記憶部53に記憶させることにより、生成出力重みβgkを調整し、ステップS154に進む。
After the processing of step S152, the process proceeds to step S153, and the output weight adjustment unit 623, like the output
なお、ステップS154乃至S157の処理は、図15のステップS94乃至S97の処理と同一であるので、説明は省略する。 Note that the processing in steps S154 to S157 is the same as the processing in steps S94 to S97 in FIG.
図25は、図1の認識部のさらに他の詳細構成例を示すブロック図である。 FIG. 25 is a block diagram illustrating still another detailed configuration example of the recognition unit in FIG.
図25の認識部701には、図22の決定部216の代わりに、決定部711が設けられており、スコアが所定の範囲内にあるノード141のすべてが勝者ノードとして決定される。
The recognition unit 701 in FIG. 25 is provided with a
決定部711は、スコア計算部215からのスコアに基づいて、最も小さいスコアの値を含む所定の範囲内の値のスコアに対応するすべてのノードを、勝者ノードとして決定する。即ち、決定部711は、スコアに基づいて、スコアの値が最も小さいノード、即ち特徴量抽出部13から供給される時系列データに最も適合するダイナミクスを保持するノードを最勝者ノードとして決定し、最勝者ノードと、その最勝者ノードに対応するスコアの値から所定の範囲内に値があるスコアに対応するノードとを、勝者ノードとして決定する。
Based on the score from the
なお、所定の範囲とは、所定の定数の範囲、最も小さいスコアの値のA(A>1)倍以内の範囲などである。決定部711は、勝者ノードを特定する信号を、出力部217に供給する。
The predetermined range includes a predetermined constant range, a range within A (A> 1) times the smallest score value, and the like. The
これにより、生成部602には、最も小さいスコアの値を含む所定の範囲内の値のスコアに対応するすべてのノード141を勝者ノードとして、特定する信号が制御信号18として供給される。その結果、勝者ノードのすべてが生成ノードとして決定され、時系列データ生成部316は、勝者ノードの各ノード141に対応する力学系近似モデル51から得た次元ごとの出力データに対して、ノード41ごとに、生成出力重みβgkに基づいて重み付けを行い、その結果得られる各ノード41の出力データを合わせて、時系列データとして生成する。
As a result, the generation unit 602 is supplied with a
例えば、1つの勝者ノードの出力データのうちの、両手信号に対応する時系列データと、他の勝者ノードの出力データのうちの、両足信号に対応する時系列データとが合わせて、時系列データとして生成される。 For example, the time-series data corresponding to the two-hand signal in the output data of one winner node and the time-series data corresponding to the both-leg signal in the output data of the other winner node Is generated as
このように、決定部711は、勝者ノードとして決定するノード141のスコアを、最も小さいスコアの値を含む所定の範囲内のスコアとするので、入力される観測信号11に矛盾する生成結果20が生成されることを抑制することができる。
Thus, since the
また、決定部711は、最も小さいスコアの値を含む所定の範囲内のスコアに対応するノード141を勝者ノードとして決定し、時系列データ生成部316が、その勝者ノードから出力される各次元の出力データに対して、生成出力重みβgkに基づいて重み付けを行うので、勝者ノードの中で、次元に対する着目すべき度合が最も高いノード141から出力される時系列データが、次元ごとに選択される。これにより、より観測信号11に適した生成結果20を生成することができる。その結果、例えば、ロボットに、より実際の状況に即した行動を行わせることができる。
In addition, the
次に、図26を参照して、図25の認識部701が時系列データを認識する認識処理について説明する。この認識処理は、例えば、特徴抽出部13から時系列データが供給されたとき、開始される。
Next, a recognition process in which the recognition unit 701 in FIG. 25 recognizes time-series data will be described with reference to FIG. This recognition process is started, for example, when time series data is supplied from the
ステップS161乃至S166の処理は、図14のステップS91乃至S96の処理と同様であるので説明は省略する。 The processing in steps S161 through S166 is the same as the processing in steps S91 through S96 in FIG.
ステップS166の処理後は、ステップS167に進み、決定部711は、スコア計算部215からのスコアに基づいて、最も小さいスコアの値を含む所定の範囲内の値のスコアに対応するすべてのノードを、勝者ノードとして決定する。決定部711は、決定された勝者ノードを特定する信号を、出力部217に供給する。
After the processing of step S166, the process proceeds to step S167, and the
ステップS167の処理後は、ステップS168に進み、出力部217は、決定部216からの勝者ノードを特定する信号を、認識結果17として出力し、処理を終了する。
After the process of step S167, it progresses to step S168, the
図27Aと図27B、並びに図28Aと図28Bは、学習時に学習入力重みαskと学習出力重みβskに基づいて重み付けを行うことによる効果を検証するための実験の結果を示すグラフである。 FIGS. 27A and 27B and FIGS. 28A and 28B are graphs showing the results of experiments for verifying the effects of weighting based on the learning input weight αs k and the learning output weight βs k during learning.
図27Aと図27B、並びに図28Aと図28Bでは、赤い車で遊ぶというタスクAに対応する時系列データと、緑色のボールを上下させるというタスクBに対応する時系列データとを用いて、1つのRNNで学習が行われている。 In FIGS. 27A and 27B, and FIGS. 28A and 28B, using time-series data corresponding to task A of playing with a red car and time-series data corresponding to task B of raising and lowering a green ball, Learning is done at one RNN.
図27Aと図27B、並びに図28Aと図28Bは、このRNNで、タスクAとタスクBの視覚情報に対応する時系列データを混合させた時系列データ、即ち擬似的に作成された、赤い車と緑色のボールの両方が見えているときの視覚情報に対応する時系列データを入力して認識生成を行わせたときの生成結果20を示している。
27A and 27B, and FIGS. 28A and 28B are time series data obtained by mixing the time series data corresponding to the visual information of task A and task B, that is, a pseudo car created in a pseudo manner. The
なお、図27Aと図27B、並びに図28Aと図28Bにおいて、横軸は時間ステップを表し、縦軸はロボットの関節角度をRNN用に正規化した値を表している。このことは、後述する図29Aと図29B、並びに図30Aと図30Bにおいても同様である。また、図27Aと図28Aは、目標とする生成結果を示している。 In FIGS. 27A and 27B, and FIGS. 28A and 28B, the horizontal axis represents a time step, and the vertical axis represents a value obtained by normalizing the joint angle of the robot for RNN. This also applies to FIGS. 29A and 29B and FIGS. 30A and 30B described later. FIG. 27A and FIG. 28A show the target generation results.
図27Bは、学習時に重み付けを行わなかったRNNで認識生成を行ったときの生成結果20を示すグラフである。図27Aと図27Bを比較すると、学習時に重み付けを行わなかったRNNで認識生成を行った場合、図27Aに示す目標とする生成結果の時系列パターンに近い時系列パターンの生成結果を生成することができていないことがわかる。実験では、特にタスクBの認識生成ができなかった。
FIG. 27B is a graph showing a
一方、図28Bは、学習時に視覚に関する次元に対する学習入力重みαskと学習出力重みβskを他の次元に比べて大きくして重み付けを行ったRNNで認識生成を行ったときの生成結果20を示すグラフである。図28Aと図28Bを比較すると、学習時に重み付けを行ったRNNで認識生成を行った場合、図28Aに示す目標とする生成結果の時系列パターンに近い時系列パターンの生成結果を生成することができていることがわかる。即ち、この場合、タスクAとタスクBの認識生成が正確に行われている。
On the other hand, FIG. 28B shows the
以上により、学習時に学習入力重みαskと学習出力重みβskに基づいて重み付けを行うことにより、学習時と同一の観測信号11だけでなく、学習時とは異なる観測信号11に対しても認識生成を行うことができるということがわかる。即ち、学習時と同一の環境のときはもとより、未知の環境においてもロバストネスがあがるということがわかる。
As described above, by performing weighting based on the learning input weight αs k and the learning output weight βs k during learning, not only the
次に、図29Aと図29B、並びに図30Aと図30Bは、認識生成時に認識入力重みαrkと認識出力重みβrk、並びに生成入力重みαgkと生成出力重みβgkに基づいて重み付けを行うことによる効果を検証するための実験の結果を示すグラフである。 Next, FIGS. 29A and FIG. 29B and FIGS. 30A and FIG. 30B, performs weighting on the basis of the time of recognition generating recognition input weights .alpha.r k and recognition output weights .beta.r k, and the generation input weights .alpha.g k and generation output weights .beta.g k It is a graph which shows the result of the experiment for verifying the effect by.
なお、図29Aと図29B、並びに図30Aと図30Bは、図27Aと図27B、並びに図28Aと図28Bと同様の実験が行われた結果を示すグラフである。 29A and 29B and FIGS. 30A and 30B are graphs showing the results of experiments similar to those shown in FIGS. 27A and 27B and FIGS. 28A and 28B.
なお、図29Aと図30Aは、目標とする生成結果を示している。 Note that FIG. 29A and FIG. 30A show the target generation results.
図29Bは、認識生成時に重み付けを行わなかったRNNで認識生成を行ったときの生成結果20を示すグラフである。図29Aと図29Bを比較すると、認識生成時に重み付けを行わなかったRNNで認識生成を行った場合、図29Aに示す目標とする生成結果の時系列パターンに近い時系列パターンの生成結果を生成することができていないことがわかる。即ち、この場合、認識生成が正確に行われていない。
FIG. 29B is a graph showing a
一方、図30Bは、認識生成時に視覚に関する次元に対する認識入力重みαrkと認識出力重みβrk、並びに生成入力重みαgkと生成出力重みβgkを他の次元に比べて大きくして重み付けを行ったRNNで認識生成を行ったときの生成結果20を示すグラフである。図30Aと図30Bを比較すると、認識生成時に重み付けを行ったRNNで認識生成を行った場合、図30Aに示す目標とする生成結果の時系列パターンに近い時系列パターンの生成結果を生成することができていることがわかる。即ち、この場合、タスクAとタスクBの認識生成が正確に行われている。
On the other hand, FIG. 30B is carried out a recognition input weights .alpha.r k for dimensions on Visual upon recognition generating recognition output weights .beta.r k, and weighting the generated input weights .alpha.g k and generation output weights .beta.g k and larger than the other dimension It is a graph which shows the production |
以上により、認識生成時に認識入力重みαrkと認識出力重みβrk、並びに生成入力重みαgkと生成出力重みβgkに基づいて重み付けを行うことにより、認識生成の能力を安定化し、性能を向上させることができるということがわかる。 Thus, recognition input weights .alpha.r k and recognition output weights .beta.r k during recognition generating and by performing weighting on the basis of the generation input weights .alpha.g k and generation output weights .beta.g k, to stabilize the capacity of the recognition generating, improve performance You can see that
以上のように、図1の情報処理装置1は、力学系近似モデル51の入力層61の各ユニットに入力される入力データに対する次元ごとの重み係数である入力重みを、次元ごとに調整し、出力層63の各ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整するので、RNNにおいて、多次元の時系列データを効率的に扱うことができる。
As described above, the
なお、上述した説明では、時系列データに対して得られるべき出力の真値と、その時系列データに対する力学系近似モデル51からの出力値との平均二乗誤差を、スコアとしたが、スコアは、これに限定されず、例えば真値と出力値の距離、確率などであってもよい。スコアが距離である場合、平均二乗誤差である場合と同様に、スコアの値が小さいノードが勝者ノードとして決定されるが、スコアが確率である場合、スコアの値が大きいノードが勝者ノードとして決定される。
In the above description, the mean square error between the true value of the output to be obtained for the time series data and the output value from the dynamic
また、上述した説明では、複数のノードによって構成されるダイナミクス記憶ネットワークを用いて、学習、認識、生成が行われたが、1つのノードを用いて学習や生成を行うようにしてもよい。 In the above description, learning, recognition, and generation are performed using a dynamics storage network including a plurality of nodes, but learning and generation may be performed using one node.
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。 Next, the series of processes described above can be performed by hardware or software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.
そこで、図31は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。 Therefore, FIG. 31 shows a configuration example of an embodiment of a computer in which a program for executing the series of processes described above is installed.
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク805やROM803に予め記録しておくことができる。
The program can be recorded in advance in a
あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体811に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体811は、いわゆるパッケージソフトウエアとして提供することができる。
Alternatively, the program is temporarily stored in a
なお、プログラムは、上述したようなリムーバブル記録媒体811からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部808で受信し、内蔵するハードディスク805にインストールすることができる。
The program is installed in the computer from the
コンピュータは、CPU(Central Processing Unit)802を内蔵している。CPU802には、バス801を介して、入出力インタフェース810が接続されており、CPU802は、入出力インタフェース810を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部807が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)803に格納されているプログラムを実行する。あるいは、また、CPU802は、ハードディスク805に格納されているプログラム、衛星若しくはネットワークから転送され、通信部808で受信されてハードディスク805にインストールされたプログラム、またはドライブ809に装着されたリムーバブル記録媒体811から読み出されてハードディスク805にインストールされたプログラムを、RAM(Random Access Memory)804にロードして実行する。これにより、CPU802は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU802は、その処理結果を、必要に応じて、例えば、入出力インタフェース810を介して、LCD(Liquid Crystal Display)やスピーカ等で構成される出力部806から出力、あるいは、通信部808から送信、さらには、ハードディスク805に記録等させる。
The computer includes a CPU (Central Processing Unit) 802. An input /
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。 Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。 Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
14 学習部, 15 ネットワーク記憶部, 16 認識部, 19 生成部, 81 信頼度抽出部, 82 入力重み調整部, 83 出力重み調整部, 84 スコア計算部, 87 パラメータ更新部, 100 学習部, 101 重み取得部, 120 学習部, 121 基重み決定部, 211 信頼度抽出部, 212 入力重み調整部, 213 出力重み調整部, 215 スコア計算部, 311 信頼度抽出部, 312 入力重み調整部, 313 出力重み調整部, 316 時系列データ生成部, 401 認識部, 411 重み取得部, 402 生成部, 421 重み取得部, 501 認識部, 511 信頼度計算部, 502 生成部, 521 信頼度計算部, 601 認識部, 611 基重み取得部, 602 生成部, 621 基重み取得部, 802 CPU, 803 ROM, 804 RAM, 805 ハードディスク, 811 リムーバブル記録媒体 14 learning units, 15 network storage units, 16 recognition units, 19 generation units, 81 reliability extraction units, 82 input weight adjustment units, 83 output weight adjustment units, 84 score calculation units, 87 parameter update units, 100 learning units, 101 Weight acquisition unit, 120 learning unit, 121 base weight determination unit, 211 reliability extraction unit, 212 input weight adjustment unit, 213 output weight adjustment unit, 215 score calculation unit, 311 reliability extraction unit, 312 input weight adjustment unit, 313 Output weight adjustment unit, 316 time series data generation unit, 401 recognition unit, 411 weight acquisition unit, 402 generation unit, 421 weight acquisition unit, 501 recognition unit, 511 reliability calculation unit, 502 generation unit, 521 reliability calculation unit, 601 recognition unit, 611 base weight acquisition unit, 602 generation unit, 6 1 group weight obtaining unit, 802 CPU, 803 ROM, 804 RAM, 805 hard disk, 811 removable recording medium
Claims (16)
前記ノードの入力ユニットに入力される、観測される複数の次元の時系列データである入力データに対する次元ごとの重み係数である入力重み係数を、次元ごとに調整する入力重み係数調整手段と、
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する出力重み係数調整手段と
を備える情報処理装置。 Storage means for storing dynamics in one node and storing a network constituted by a plurality of the nodes;
Input weight coefficient adjusting means for adjusting, for each dimension, an input weight coefficient that is a weight coefficient for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node;
An information processing apparatus comprising: output weight coefficient adjustment means for adjusting, for each dimension, an output weight coefficient that is a weight coefficient for each dimension for output data of a plurality of dimensions output from the output unit of the node.
前記入力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記入力重み係数を前記次元ごとに調整し、
前記出力重み係数調整手段は、前記次元ごとの前記信頼度に基づいて、前記出力重み係数を前記次元ごとに調整する
請求項1に記載の情報処理装置。 In the time series data, reliability is added for each dimension,
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the reliability for each dimension,
The information processing apparatus according to claim 1, wherein the output weight coefficient adjustment unit adjusts the output weight coefficient for each dimension based on the reliability for each dimension.
をさらに備え、
前記入力重み係数調整手段は、前記取得手段により取得される入力重み係数に基づいて、前記入力重み係数を前記次元ごとに調整し、
前記出力重み係数調整手段は、前記取得手段により取得される出力重み係数に基づいて、前記出力重み係数を前記次元ごとに調整する
請求項1に記載の情報処理装置。 An acquisition means for acquiring the input weighting coefficient and the output weighting coefficient input from outside;
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the input weight coefficient acquired by the acquisition means,
The information processing apparatus according to claim 1, wherein the output weight coefficient adjustment unit adjusts the output weight coefficient for each dimension based on the output weight coefficient acquired by the acquisition unit.
をさらに備える
請求項1に記載の情報処理装置。 The output data output from the output unit one time before and the newly observed time-series data are added for each dimension at a ratio corresponding to the input weighting factor, and the resulting data is The information processing apparatus according to claim 1, further comprising: an input unit that inputs the input data to the input unit.
をさらに備える
請求項1に記載の情報処理装置。 The error for each dimension between the input data and the output data output from the output unit immediately before is added at a ratio corresponding to the output weighting coefficient to obtain an output error, and based on the output error. The information processing apparatus according to claim 1, further comprising: an internal state update unit that updates an initial value of the internal state quantity of the node.
前記勝者ノードからの距離に対応する度合で、各ノードの結線に付される重みを更新する重み更新手段と
を備える請求項1に記載の情報処理装置。 The error of each dimension between the input data and the output data output from the output unit immediately before is added at a ratio corresponding to the output weighting factor for each node, and an output error of each node is obtained. And determining means for determining a winner node which is a node corresponding to the dynamics most suitable for the input data, based on the output error of each node;
The information processing apparatus according to claim 1, further comprising: a weight updating unit configured to update a weight attached to the connection of each node to a degree corresponding to a distance from the winner node.
をさらに備える
請求項2に記載の情報処理装置。 Based on the reliability for each dimension, a base weight coefficient used as a basis for an input weight coefficient and an output weight coefficient used when recognizing the input data or generating time-series data is calculated for each dimension. The information processing apparatus according to claim 2, further comprising base weight calculation means.
前記勝者ノードを表す情報を、前記時系列データの認識結果として出力する認識手段と
を備える請求項1に記載の情報処理装置。 By inputting the input data and the previous input data to the input units of the plurality of nodes corresponding to the plurality of nodes, the internal state quantity of the node is updated for each node. The error for each dimension with respect to the output data obtained is added for each node at a ratio corresponding to the output weighting coefficient to obtain an output error for each node. Based on the output error for each node, A determination means for determining a winner node which is a node having a matching dynamics;
The information processing apparatus according to claim 1, further comprising: a recognition unit that outputs information representing the winner node as a recognition result of the time-series data.
前記出力重み調整手段は、前記ノードごとに、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整する
請求項8に記載の情報処理装置。 The input weight adjustment means sets the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data for each node. Adjust to
The information processing apparatus according to claim 8, wherein the output weight adjustment unit adjusts the output weight coefficient for each dimension based on an error for each dimension for each node.
をさらに備え、
前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し、
前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整する
請求項8に記載の情報処理装置。 An acquisition means for acquiring a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient, calculated for each dimension when learning dynamics based on time-series data;
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the base weight coefficient,
The information processing apparatus according to claim 8, wherein the output weight coefficient adjustment unit adjusts the output weight coefficient for each dimension based on the base weight coefficient.
前記入力データを、前記生成ノードの入力ユニットに入力することにより、前記生成ノードの内部状態量を更新しながら、複数の次元の時系列データを生成する生成手段と
を備える請求項1に記載の情報処理装置。 Determining means for determining a generation node that is a node used for generating time-series data of a plurality of dimensions among the plurality of nodes constituting the network;
The generation unit according to claim 1, further comprising: generation means for generating time-series data of a plurality of dimensions while updating an internal state quantity of the generation node by inputting the input data to an input unit of the generation node. Information processing device.
前記出力重み調整手段は、前記次元ごとの誤差に基づいて、前記出力重み係数を前記次元ごとに調整する
請求項11に記載の情報処理装置。 The input weight adjustment means adjusts the input weight coefficient for each dimension based on an error for each dimension between the input data and the output data output from the output unit immediately before the input data,
The information processing apparatus according to claim 11, wherein the output weight adjustment unit adjusts the output weight coefficient for each dimension based on an error for each dimension.
をさらに備え、
前記入力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記入力重み係数を調整し、
前記出力重み係数調整手段は、前記基重み係数に基づいて、前記次元ごとに前記出力重み係数を調整する
請求項11に記載の情報処理装置。 An acquisition means for acquiring a base weight coefficient that is a basis of the input weight coefficient and the output weight coefficient, calculated for each dimension when learning dynamics based on time-series data;
The input weight coefficient adjustment means adjusts the input weight coefficient for each dimension based on the base weight coefficient,
The information processing apparatus according to claim 11, wherein the output weight coefficient adjustment unit adjusts the output weight coefficient for each dimension based on the base weight coefficient.
請求項11に記載の情報処理装置。 The information processing apparatus according to claim 11, wherein the generation unit generates the time-series data at a ratio corresponding to the output weight coefficient for each dimension.
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する
ステップを含む情報処理方法。 A weighting factor for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node of the network that holds the dynamics in one node and is configured by a plurality of the nodes. Adjust an input weighting factor for each dimension,
An information processing method including a step of adjusting, for each dimension, an output weighting factor that is a weighting factor for each dimension for output data of a plurality of dimensions output from the output unit of the node.
前記ノードの出力ユニットから出力される、複数の次元の出力データに対する次元ごとの重み係数である出力重み係数を、次元ごとに調整する
ステップを含む処理をコンピュータに実行させるプログラム。 A weighting factor for each dimension with respect to input data that is time-series data of a plurality of dimensions that is input to the input unit of the node of the network that holds the dynamics in one node and is configured by a plurality of the nodes. Adjust an input weighting factor for each dimension,
A program that causes a computer to execute a process including a step of adjusting, for each dimension, an output weighting coefficient that is a weighting coefficient for each dimension of output data of a plurality of dimensions that is output from an output unit of the node.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006105550A JP2007280058A (en) | 2006-04-06 | 2006-04-06 | Information processor, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006105550A JP2007280058A (en) | 2006-04-06 | 2006-04-06 | Information processor, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007280058A true JP2007280058A (en) | 2007-10-25 |
Family
ID=38681443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006105550A Withdrawn JP2007280058A (en) | 2006-04-06 | 2006-04-06 | Information processor, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007280058A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009140454A (en) * | 2007-12-11 | 2009-06-25 | Sony Corp | Data processor, data processing method, and program |
-
2006
- 2006-04-06 JP JP2006105550A patent/JP2007280058A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009140454A (en) * | 2007-12-11 | 2009-06-25 | Sony Corp | Data processor, data processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4169038B2 (en) | Information processing apparatus, information processing method, and program | |
US7953683B2 (en) | Learning apparatus, learning method, and program for efficiently learning dynamics | |
US7672920B2 (en) | Apparatus and method for embedding recurrent neural networks into the nodes of a self-organizing map | |
JP4803212B2 (en) | Data processing apparatus, data processing method, and program | |
JP4169063B2 (en) | Data processing apparatus, data processing method, and program | |
JP4201012B2 (en) | Data processing apparatus, data processing method, and program | |
JP4710933B2 (en) | Learning device, learning method, and program | |
US7133744B2 (en) | Information processing apparatus and method, program storage medium, and program | |
JP7339029B2 (en) | Self-motion estimation device and method using motion recognition model and motion recognition model training device and method | |
EP2999940A2 (en) | Methods and apparatus for early sensory integration and robust acquisition of real world knowledge | |
Passalis et al. | Deep reinforcement learning for controlling frontal person close-up shooting | |
US11433548B2 (en) | Robot system and control method thereof | |
JP2009140454A (en) | Data processor, data processing method, and program | |
JP2007280058A (en) | Information processor, information processing method and program | |
JP2007280059A (en) | Recognition generation device, recognition generation method, and program | |
US11934176B2 (en) | Device and method for controlling a robot | |
US10812904B2 (en) | Acoustic equalization method, robot and AI server implementing the same | |
JP2009053782A (en) | Data processor, data processing method, and program | |
JP5246751B2 (en) | Information processing apparatus, information processing method, and program | |
JP2007280007A (en) | Data processor, data processing method, and program | |
Dawood et al. | Robot behaviour learning using topological gaussian adaptive resonance hidden markov model | |
JP2007280057A (en) | Data processor, data processing method, and program | |
JP2005074562A (en) | Robotic device, controlling method of the robotic device, and recording medium | |
JP2009070033A (en) | Data processing device, data processing method, and program | |
Nicolai | Augmented Deep Learning Techniques for Robotic State Estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20090707 |