JP2009043122A - Data processing apparatus, data processing method, and program - Google Patents

Data processing apparatus, data processing method, and program Download PDF

Info

Publication number
JP2009043122A
JP2009043122A JP2007208946A JP2007208946A JP2009043122A JP 2009043122 A JP2009043122 A JP 2009043122A JP 2007208946 A JP2007208946 A JP 2007208946A JP 2007208946 A JP2007208946 A JP 2007208946A JP 2009043122 A JP2009043122 A JP 2009043122A
Authority
JP
Japan
Prior art keywords
data
error
output
input
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007208946A
Other languages
Japanese (ja)
Inventor
Katsuki Minamino
活樹 南野
Kazumi Aoyama
一美 青山
Yukiko Yoshiike
由紀子 吉池
Hideki Shimomura
秀樹 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007208946A priority Critical patent/JP2009043122A/en
Publication of JP2009043122A publication Critical patent/JP2009043122A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To appropriately perform a processing considering errors. <P>SOLUTION: A main body learning module 101 learns data D. An error learning module 102 learns errors ΔD between the data D and reconfigured data D<SB>R</SB>resulting from reconfiguring the data D by the main body learning module 101. The main body learning module 101 reconfigures data D upon input of the data D and outputs reconfigured data D<SB>R</SB>, and the error learning module 102 reconfigures error data ΔD between the data D and the reconfigured data D<SB>R</SB>and outputs reconfigured error data ΔD<SB>R</SB>. Then a learning module 100 adds the reconfigured data D<SB>R</SB>and the reconfigured error data ΔD<SB>R</SB>and outputs the addition result. This invention is applicable to, for example, a robot and the like. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、データ処理装置、データ処理方法、及びプログラムに関し、特に、誤差を適切に考慮した処理を行うデータ処理装置、データ処理方法、及びプログラムに関する。   The present invention relates to a data processing device, a data processing method, and a program, and more particularly, to a data processing device, a data processing method, and a program that perform processing that appropriately considers an error.

例えば、自律的にタスクを行うロボットは、入力データの入力に対して、その入力データに対して出力すべき出力データを出力する入出力システムを利用して実現することができる。   For example, a robot that performs tasks autonomously can be realized by using an input / output system that outputs output data to be output in response to input data.

ここで、入力データと出力データとは、観測することができれば、どのような物理量でもよい。   Here, the input data and the output data may be any physical quantities as long as they can be observed.

例えば、センサを用いて、ある物理量を検知し、その検知結果に応じたアクション(行動)を起こすロボットに利用される入出力システムでは、センサが物理量を検知して出力する、その物理量を表すセンサデータ等が入力データとなり、ロボットのアクションに必要なアクチュエータ等を駆動するために、そのアクチュエータ等に供給されるアクションデータ等が出力データとなる。   For example, in an input / output system used for a robot that detects a physical quantity using a sensor and takes an action according to the detection result, the sensor detects the physical quantity and outputs the sensor. Data or the like becomes input data. In order to drive an actuator or the like necessary for the action of the robot, action data or the like supplied to the actuator or the like becomes output data.

より具体的には、例えば、音声を認識し、その認識結果に応じた合成音(音声に対する応答としての合成音)を出力する場合、音声を集音するマイクロフォン(センサ)が出力する音声データや、その音声データから抽出されるケプストラムその他の特徴パラメータ等が入力データとなり、認識結果に応じた合成音の生成(音声合成)に用いられるパラメータ等が出力データとなる。   More specifically, for example, when recognizing a voice and outputting a synthesized sound corresponding to the recognition result (a synthesized sound as a response to the voice), voice data output by a microphone (sensor) that collects the voice, The cepstrum and other characteristic parameters extracted from the speech data are input data, and the parameters used for the generation of synthesized sound (speech synthesis) according to the recognition result are output data.

さらに例えば、音声や画像を認識し、その認識結果に応じて、ロボットの腕や頭などを動かす場合、音声を集音するマイクロフォンが出力する音声データや、その音声データの特徴パラメータ、及び、画像を撮像するカメラが出力する画像データや、その画像データから検出される動きベクトルその他の特徴量等が入力データとなり、認識結果に応じて腕や頭を駆動するアクチュエータを制御する制御データ等が出力データとなる。   Further, for example, when recognizing a voice or an image and moving the arm or head of the robot according to the recognition result, the voice data output by the microphone that collects the voice, the feature parameter of the voice data, and the image The image data output by the camera that captures the image, the motion vector detected from the image data, and other features are used as input data, and control data that controls the actuator that drives the arm and head according to the recognition result is output. It becomes data.

また、入力データと出力データとは、上述したセンサデータとアクションデータのような異なるモダリティ(modality)のデータである必要はない。   Further, the input data and the output data do not need to be data of different modalities such as the sensor data and the action data described above.

すなわち、例えば、データの系列を所定の長さの区間に区切ったときの、各区間をフレームと称するとともに、先頭からt番目(時刻t)のフレームを、フレーム#tと称するとする場合、入出力システムでは、フレーム#tのセンサデータを入力データとするとともに、フレーム#t+1のセンサデータを出力データとすることができる。   That is, for example, when a section of data is divided into sections of a predetermined length, each section is referred to as a frame, and a t-th (time t) frame from the beginning is referred to as a frame #t. In the output system, sensor data of frame #t can be used as input data, and sensor data of frame # t + 1 can be used as output data.

この場合、入出力システムでは、入力データとしてのフレーム#tのセンサデータから、入力データと同一のモダリティの出力データとしての、次のフレーム#t+1のセンサデータが予測されることになる。   In this case, in the input / output system, sensor data of the next frame # t + 1 as output data having the same modality as the input data is predicted from sensor data of frame #t as input data.

また、例えば、入力データとしては、異なるモダリティのデータを組み合わせである、フレーム#tのセンサデータと、フレーム#tのアクションデータとの組み合わせを採用し、出力データとしては、フレーム#t+1のセンサデータと、フレーム#t+1のアクションデータとの組み合わせを採用することができる。   Further, for example, as input data, a combination of sensor data of frame #t and action data of frame #t, which is a combination of data of different modalities, is adopted, and output data of frame # t + 1 is adopted. A combination of sensor data and action data of frame # t + 1 can be employed.

この場合、入出力システムでは、フレーム#tのセンサデータ及びアクションデータの方から、次のフレーム#t+1のセンサデータ及びアクションデータの両方が予測されることになる。   In this case, in the input / output system, both sensor data and action data of the next frame # t + 1 are predicted from the sensor data and action data of frame #t.

ところで、入出力システムでは、入力データに対し、その入力データに対して出力すべき出力データを出力する必要がある。   By the way, in an input / output system, it is necessary to output the output data which should be output with respect to the input data.

すなわち、例えば、上述したように、音声を認識し、その認識結果に応じて、ロボットの腕を動かす場合において、音声データを入力データとするとともに、腕を駆動するアクチュエータを制御する制御データを出力データとするときには、音声データの入力に対して、その音声データを音声認識(識別)し、さらに、その音声認識結果に応じた腕の動きを実行するための制御データを生成する(取得する)必要がある。   That is, for example, as described above, when voice is recognized and the arm of the robot is moved according to the recognition result, the voice data is used as input data and control data for controlling an actuator that drives the arm is output. When the data is used, the voice data is voice-recognized (identified) in response to the voice data input, and further, control data for executing the arm movement according to the voice recognition result is generated (obtained). There is a need.

また、例えば、上述したように、フレーム#tのセンサデータ及びアクションデータを、入力データとするとともに、フレーム#t+1のセンサデータ及びアクションデータを、出力データとするときには、フレーム#tのセンサデータ及びアクションデータの入力に対して、そのフレーム#tのセンサデータ及びアクションデータを認識(識別)し、さらに、その認識結果から次のフレームt+1のセンサデータ及びアクションデータ(の予測値)を生成する必要がある。   For example, as described above, when the sensor data and action data of frame #t are used as input data, and the sensor data and action data of frame # t + 1 are used as output data, the sensor of frame #t For the input of data and action data, the sensor data and action data of the frame #t are recognized (identified), and the sensor data and action data (predicted value) of the next frame t + 1 from the recognition result. Must be generated.

以上のように、入出力システムには、入力データの認識(識別)と、その入力データに対して出力すべき出力データを取得(生成)して出力すること(以下、適宜、認識生成と称する)が要求される。   As described above, the input / output system recognizes (identifies) input data and acquires (generates) and outputs output data to be output with respect to the input data (hereinafter referred to as recognition generation as appropriate). ) Is required.

入出力システムが、入力データの入力に対応し、その入力データを用いて認識生成を行い、その入力データに対して出力すべき出力データを出力することができるようになるためには、例えば、入力データ(となるべきデータ)と、その入力データに対して出力すべき出力データ(となるべきデータ)とのセット(以下、適宜、教示データと称する)を多数用意して、その教示データを用いて、入力データ及び出力データの学習、並びに、入力データと、その入力データに対して出力すべき出力データとの関係の学習を行う必要がある。   In order for the input / output system to respond to input of input data, perform recognition generation using the input data, and output output data to be output with respect to the input data, for example, Prepare many sets of input data (data to be) and output data to be output (data to be) for the input data (hereinafter referred to as teaching data as appropriate) It is necessary to learn the input data and the output data, and learn the relationship between the input data and the output data to be output with respect to the input data.

そこで、本件出願人は、入力データ用のSOM(Self-Organization Map:自己組織化マップ。以下、適宜、入力SOMと称する)のノードと、出力データ用のSOM(以下、適宜、出力SOMと称する)のノードとが結合された入出力関係モデルを用いて、入力データ及び出力データの学習、並びに、入力データと、その入力データに対して出力すべき出力データとの関係の学習を、いわゆる教師なし学習で行う方法を先に提案している(例えば、特許文献1参照)。   Accordingly, the applicant of the present application has a node for input data SOM (Self-Organization Map: hereinafter referred to as input SOM as appropriate) and an output data SOM (hereinafter referred to as output SOM as appropriate). ) Is used to learn input data and output data, and to learn the relationship between input data and output data to be output with respect to the input data. A method of performing learning without learning has been previously proposed (see, for example, Patent Document 1).

また、本件出願人は、入出力関係モデルにおける出力SOMのノードのパラメータを変更し、その変更後のパラメータから、出力データとしての音声データを生成し、その音声データを、入力データとして、入力SOMで認識することを、その認識結果が、外部から与えられた音声データの入力SOMでの認識結果に一致するまで繰り返すことにより、外部から未知の音声データの入力があったときに、その音声データを真似た音声データを、出力データとして出力する、いわば聞き真似を行うための学習(以下、適宜、聞き真似学習とも称する)を、教師なし学習で行う方法を先に提案している(例えば、特許文献2参照)。   In addition, the applicant changes the parameter of the node of the output SOM in the input / output relation model, generates voice data as output data from the parameter after the change, and uses the voice data as input data for the input SOM. Is repeated until the recognition result matches the recognition result at the input SOM of the voice data given from the outside. The method of performing unsupervised learning for learning to perform listening imitation (hereinafter, also referred to as listening imitation learning as appropriate) that outputs speech data that imitates as output data has been proposed (for example, Patent Document 2).

ここで、パターンを学習して認識を行うパターン認識(pattern recognition)における学習は、教師あり学習(supervised learning)と、教師なし学習(unsupervised learning)とに分けることができる。   Here, learning in pattern recognition that learns and recognizes patterns can be divided into supervised learning and unsupervised learning.

教師あり学習の学習方法としては、例えば、テンプレートマッチング、NN(Neural Network)、HMM(Hidden Markov Model)などの学習モデルを用いた学習方法がある。教師あり学習では、各パターンの学習データ(学習に利用されるデータ)がどのクラスに属するかの正解ラベルと呼ばれる情報を与えて、各クラス毎に、そのクラスに属する(属させる)カテゴリの学習データの学習が行われる。   As a learning method of supervised learning, for example, there is a learning method using a learning model such as template matching, NN (Neural Network), HMM (Hidden Markov Model) or the like. In supervised learning, each class learns a category belonging to (belonging to) a class by giving information called a correct answer label to which class learning data (data used for learning) belongs. Data learning is performed.

すなわち、教師あり学習では、学習に利用する学習データが、あらかじめ決められたカテゴリ(例えば、各音素のカテゴリや、各音韻のカテゴリ、各単語のカテゴリなど)毎に用意されるとともに、学習に利用する学習モデル(各カテゴリの学習データを学習させる学習モデル)も、あらかじめ決められたクラス毎に用意される。   That is, in supervised learning, learning data used for learning is prepared for each predetermined category (for example, each phoneme category, each phoneme category, each word category, etc.) and used for learning. A learning model (a learning model for learning learning data of each category) is also prepared for each predetermined class.

そして、教師あり学習では、正解ラベルが表すクラスの学習モデルの学習が、そのクラスに属する(属させる)カテゴリの学習データのみを用いて行われ、その結果、正解ラベルに基づき、クラス毎のテンプレート(正解ラベルが表すクラスの学習モデル)を得ることができる。   In supervised learning, learning of the learning model of the class represented by the correct label is performed using only the learning data of the category belonging to (belonging to) that class, and as a result, the template for each class is based on the correct answer label. (The learning model of the class represented by the correct answer label) can be obtained.

したがって、教師あり学習によって得られた学習モデルを用いたパターン認識では、ある認識対象のデータに対し、その認識対象のデータに最も適合するテンプレート(尤度が最も高いテンプレート)の正解ラベルを、認識結果として出力することができる。   Therefore, in pattern recognition using a learning model obtained by supervised learning, the correct label of the template (the template with the highest likelihood) that best matches the data to be recognized is recognized. As a result, it can be output.

一方、教師なし学習の学習方法としては、NNやSOMなどを用いた学習方法がある。そして、教師なし学習は、正解ラベルが与えられないという点で、教師あり学習とは大きく異なる。   On the other hand, as an unsupervised learning method, there is a learning method using NN, SOM, or the like. Unsupervised learning differs greatly from supervised learning in that a correct answer label is not given.

すなわち、教師なし学習は、自己組織化(self-organization)(自己組織的な学習)とも称され、各パターンの学習データに正解ラベルが与えられない状況で行われる。教師なし学習によれば、例えば、パターンが類似する学習データのクラス(学習データのカテゴリが属するクラス)どうしは、クラスどうしの距離を定義することができる空間において近い位置にされる。   That is, unsupervised learning is also referred to as self-organization (self-organized learning), and is performed in a situation where a correct answer label is not given to each pattern of learning data. According to unsupervised learning, for example, classes of learning data having similar patterns (classes to which the category of learning data belongs) are placed close to each other in a space in which the distance between classes can be defined.

なお、パターン認識は、そのパターン認識によって認識しようとする認識対象のデータ(信号)が観測される信号空間の量子化と見ることができる。   Pattern recognition can be viewed as quantization of a signal space in which data (signals) to be recognized to be recognized by pattern recognition is observed.

特開2006−162898号公報JP 2006-162898 A 特開2006−201665号公報JP 2006-201665 A

先に提案されている入出力関係モデルの学習では、入力SOMで、教示データを構成する入力データを学習して、その入力SOMの各ノードで、入力データのパターンを獲得するとともに、出力SOMで、教示データを構成する出力データを学習して、その出力SOMの各ノードで、出力データのパターンを獲得する。さらに、教示データを構成する入力データを入力SOMに与えた(入力した)ときに勝者ノードとなる入力SOMのノードと、その入力データとセットになっている出力データ(その入力データとともに教示データを構成する出力データ)を出力SOMに与えたときに勝者ノードとなる出力SOMのノードとの結合が強められる。   In the input / output relation model that has been proposed earlier, the input SOM is used to learn the input data that makes up the teaching data, and the input data pattern is obtained at each node of the input SOM. The output data constituting the teaching data is learned, and the pattern of the output data is obtained at each node of the output SOM. Furthermore, when the input data constituting the teaching data is given (input) to the input SOM, the node of the input SOM that becomes the winner node and the output data set with the input data (the teaching data together with the input data When the output data to be configured is given to the output SOM, the connection with the node of the output SOM that becomes the winner node is strengthened.

そして、認識生成では、入力SOMのノードの中から、入力データに対する勝者ノードを決定し、その勝者ノードを、入力データの認識結果とする認識処理と、その認識結果としての勝者ノードとの結合が最も強い出力SOMのノードを、入力データに対して出力すべき出力データを生成するのに用いるノード(以下、適宜、生成ノードと称する)に決定し、その生成ノードが獲得しているパターンの出力データの推定値を取得(生成)する生成処理とが行われる。   In the recognition generation, a winner node for the input data is determined from the nodes of the input SOM, and the combination of the recognition process for making the winner node the recognition result of the input data and the winner node as the recognition result is performed. The node of the strongest output SOM is determined as the node used to generate the output data to be output with respect to the input data (hereinafter referred to as the generation node as appropriate), and the output of the pattern acquired by the generation node A generation process for acquiring (generating) an estimated value of data is performed.

なお、入出力関係モデルは、入力SOMと出力SOMとの2つのSOMで構成されるが、認識生成は、そのような2つのSOMで構成される入出力関係モデルではなく、1つのSOMを用いて行うことも可能である。   The input / output relationship model is composed of two SOMs, an input SOM and an output SOM, but recognition generation uses not a single input / output relationship model composed of such two SOMs, but a single SOM. It is also possible to do this.

すなわち、1つのSOMを用いての認識生成では、データの入力に対して、勝者ノードを決定することが、認識処理として行われ、さらに、その勝者ノードが獲得しているパターンのデータを取得(生成)することが、生成処理として行われる。   That is, in recognition generation using one SOM, the winner node is determined as a recognition process for data input, and further, the pattern data acquired by the winner node is acquired ( Generation) is performed as a generation process.

ここで、2つのSOMで構成される入出力関係モデルを用いての認識生成では、認識処理で認識される入力データと、生成処理で取得(生成)される出力データとは、同一のモダリティのデータであってもよいし、異なるモダリティのデータであってもよい。   Here, in recognition generation using an input / output relation model composed of two SOMs, the input data recognized in the recognition process and the output data acquired (generated) in the generation process have the same modality. It may be data or data of different modalities.

これに対して、1つのSOMを用いての認識生成では、認識処理で認識されるデータと、生成処理で取得(生成)されるデータとは、同一のモダリティのデータ(同一の物理量のデータ)となる。   On the other hand, in recognition generation using one SOM, data recognized by the recognition process and data acquired (generated) by the generation process are data of the same modality (data of the same physical quantity). It becomes.

いま、説明を簡単にするために、1つのSOMを用いての認識生成を例にすると、認識処理では、データの入力に対して、有限個のノードの中から勝者ノードが決定され、生成処理では、その勝者ノードが獲得しているパターンのデータが出力されるが、この、勝者ノードが獲得しているパターンのデータは、認識処理で認識されたデータを再構成した再構成データと称することができる。   Now, for the sake of simplicity, taking recognition generation using one SOM as an example, in the recognition processing, a winner node is determined from a finite number of nodes for data input, and generation processing is performed. Then, the data of the pattern acquired by the winner node is output. The pattern data acquired by the winner node is referred to as reconstructed data obtained by reconstructing the data recognized in the recognition process. Can do.

さらに、説明を簡単にするために、SOMの各ノードのパラメータとして、ベクトルが与えられていることを仮定すると、認識処理において勝者ノードを決定することは、(ベクトル)量子化と等価であり、生成処理において勝者ノードが獲得しているパターンのデータを出力することは、(ベクトル)逆量子化と等価である。したがって、認識生成処理によれば、いわゆる量子化誤差が生じる。   Furthermore, for the sake of simplicity, assuming that a vector is given as a parameter for each node in the SOM, determining the winner node in the recognition process is equivalent to (vector) quantization, Outputting pattern data acquired by the winner node in the generation process is equivalent to (vector) inverse quantization. Therefore, according to the recognition generation process, a so-called quantization error occurs.

量子化誤差は、例えば、SOMの大きさを大きくすること、つまり、SOMを構成するノードの数を増加することや、SOMのトポロジの次元を大きくすること、つまり、SOMのノードを配置する次元数を増加することによって、等価的に、いわゆる量子化ステップ(の幅)を小さくすることにより低減することができる。   For example, the quantization error increases the size of the SOM, that is, increases the number of nodes that make up the SOM, or increases the dimension of the SOM topology, that is, the dimension in which the SOM nodes are placed. By increasing the number, it can be reduced equivalently by reducing the so-called quantization step.

しかしながら、例えば、SOMを構成するノードの数を増加しても、量子化誤差を考慮した再構成データの数が、増加分のノードの数だけ増加するだけであり、すなわち、SOMのノードの数を、N1個からN2個だけ増加して(N1+N2)個にしたとすると、N1通りの量子化誤差を含む再構成データしか出力することができなかったものが、N2通りだけ増加した(N1+N2)通りの(小さな)量子化誤差を含む再構成データ((N1+N2)通りの量子化誤差を考慮した再構成データ)を出力することができるようになるだけであり、量子化誤差が適切に考慮されているとは言い難い。   However, for example, even if the number of nodes constituting the SOM is increased, the number of reconstructed data considering the quantization error only increases by the number of increased nodes, that is, the number of nodes of the SOM. Is increased from N1 by N2 to (N1 + N2), the number of reconstructed data containing only N1 quantization errors can be output by N2. N1 + N2) reconstruction data including (small) quantization errors (reconstruction data considering (N1 + N2) quantization errors) can only be output, and quantization is performed. It is hard to say that errors are properly taken into account.

本発明は、このような状況に鑑みてなされたものであり、誤差を適切に考慮した処理を行うことができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to perform processing that appropriately considers errors.

本発明の第1の側面であるデータ処理装置は、データを学習する学習処理を行うデータ処理装置において、データを学習する本体学習モジュールと、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習する誤差学習モジュールとを有する学習モジュールを備える。   A data processing apparatus according to a first aspect of the present invention is a data processing apparatus that performs a learning process for learning data, a main body learning module that learns data, the data, and the main body learning module that reconfigures the data An error learning module that learns a division error in which an error from the reconstructed data is divided every predetermined dimension or time.

本発明の第1の側面であるデータ処理方法は、データを学習する学習処理を行うデータ処理装置のデータ処理方法において、データを学習する本体学習モジュールにおいて、前記データを学習し、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習する誤差学習モジュールにおいて、前記分割誤差を学習するステップを含む。   The data processing method according to the first aspect of the present invention is a data processing method of a data processing apparatus that performs a learning process for learning data. In a main body learning module that learns data, the data is learned, and the data, The error learning module that learns a division error in which an error from the reconstructed data obtained by reconstructing the data by the main body learning module is divided every predetermined dimension or every time includes learning the division error.

本発明の第1の側面であるプログラムは、データを学習する学習処理を行うデータ処理装置として、コンピュータを機能させるプログラムにおいて、データを学習する本体学習モジュールと、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習する誤差学習モジュールとを有する学習モジュールを備えるデータ処理装置として、コンピュータを機能させる。   The program according to the first aspect of the present invention is a program that causes a computer to function as a data processing device that performs learning processing for learning data. A main body learning module that learns data, the data, and the main body learning module include: The computer is caused to function as a data processing device including a learning module having an error learning module that learns a division error in which an error from the reconstructed data obtained by reconstructing the data is divided every predetermined dimension or time.

本発明の第1の側面においては、データを学習する本体学習モジュールにより、データが学習され、誤差学習モジュールにより、前記データと、前記本体学習モジュールによって前記データが再構成された再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差が学習される。   In the first aspect of the present invention, data is learned by a main body learning module that learns data, and the data is reconstructed by the error learning module and the data is reconstructed by the main body learning module. A division error in which the error is divided every predetermined dimension or time is learned.

本発明の第2の側面であるデータ処理装置は、データを出力するデータ処理装置において、入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行った前記本体学習モジュールと、前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割出力誤差の学習を行った誤差学習モジュールとを有する学習モジュールを備え、前記本体学習モジュールは、前記入力データを再構成して、前記再構成入力データを出力し、前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し、前記誤差学習モジュールは、前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、前記学習モジュールは、前記再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力する。   The data processing device according to the second aspect of the present invention is the main body learning module that performs learning of input data and learning of output data to be output with respect to the input data in a data processing device that outputs data. Learning of divided input errors in which an error between the input data and reconstructed input data obtained by reconstructing the input data by the main body learning module is divided for each predetermined dimension or time, and the output data And an error learning module that learns a divided output error in which an error between the main body learning module and the reconstructed output data obtained by reconfiguring the output data is divided every predetermined dimension or time The main body learning module reconstructs the input data, outputs the reconstructed input data, and The output data to be output is reconstructed and the reconstructed output data is output, and the error learning module reconstructs the divided output error corresponding to the divided input error and outputs a divided reconstructed output error. The learning module adds the reconstruction output data and the partial correction data determined based on the divided reconstruction output error and outputs the result.

本発明の第2の側面であるデータ処理方法は、データを出力するデータ処理装置のデータ処理方法において、前記データ処理装置は、入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行った前記本体学習モジュールと、前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割出力誤差の学習を行った誤差学習モジュールとを有する学習モジュールを備え、前記本体学習モジュールにおいて、前記入力データを再構成して、前記再構成入力データを出力し、前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し、前記誤差学習モジュールにおいて、前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、前記学習モジュールにおいて、前記分割再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力するステップを含む。   A data processing method according to a second aspect of the present invention is a data processing method for a data processing apparatus that outputs data, wherein the data processing apparatus learns input data and outputs to be output for the input data. Division in which an error between the main body learning module that has performed data learning, the input data, and reconstructed input data in which the main body learning module reconstructs the input data is divided for each predetermined dimension or time Learning of input error and learning of divided output error in which an error between the output data and the reconstructed output data obtained by reconstructing the output data by the main body learning module is divided for each predetermined dimension or time. A learning module having a performed error learning module, wherein the input learning data is reconstructed in the main body learning module, Output the generated input data, reconstruct output data to be output with respect to the input data, output the reconstructed output data, and in the error learning module, the divided output error corresponding to the divided input error And the divided reconstruction output error is output, and the learning module adds and outputs the divided reconstruction output data and the partial correction data determined based on the divided reconstruction output error. Includes steps.

本発明の第2の側面であるプログラムは、データを出力するデータ処理装置として、コンピュータを機能させるプログラムにおいて、入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行った前記本体学習モジュールと、前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割出力誤差の学習を行った誤差学習モジュールとを有する学習モジュールを備え、前記本体学習モジュールは、前記入力データを再構成して、前記再構成入力データを出力し、前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し、前記誤差学習モジュールは、前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、前記学習モジュールは、前記再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力するデータ処理装置として、コンピュータを機能させる。   A program according to a second aspect of the present invention is a program that causes a computer to function as a data processing device that outputs data, and performs learning of input data and learning of output data to be output with respect to the input data. Learning the divided input error in which the error between the main body learning module, the input data, and the reconstructed input data obtained by reconstructing the input data by the main body learning module is divided for each predetermined dimension or time; And an error learning module that learns a divided output error in which an error between the output data and reconstructed output data obtained by reconstructing the output data by the main body learning module is divided for each predetermined dimension or time. The main body learning module reconstructs the input data, and reconstructs the input data. Output data, reconstruct output data to be output with respect to the input data, output the reconstructed output data, and the error learning module reconstructs the divided output error corresponding to the divided input error. A data processing device configured to output a divided reconstruction output error, wherein the learning module adds and outputs the reconstruction output data and partial correction data determined based on the divided reconstruction output error As a computer to function.

本発明の第2の側面においては、本体学習モジュールにより、前記入力データが再構成されて前記再構成入力データが出力され、前記入力データに対して出力すべき出力データが再構成されて前記再構成出力データが出力される。また、誤差学習モジュールにおいて、前記分割入力誤差に対応する前記分割出力誤差が再構成されて分割再構成出力誤差が出力され、前記学習モジュールにおいて、前記分割再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとが加算されて出力される。   In the second aspect of the present invention, the body learning module reconstructs the input data and outputs the reconstructed input data, and reconstructs output data to be output with respect to the input data. Configuration output data is output. In the error learning module, the divided output error corresponding to the divided input error is reconstructed to output a divided reconstructed output error, and the divided reconstructed output data and the divided reconstructed output are output in the learning module. The partial correction data determined based on the error is added and output.

本発明の第3の側面であるデータ処理装置は、データを出力するデータ処理装置において、データを学習した本体学習モジュールと、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習した誤差学習モジュールとを有する学習モジュールを備え、前記本体学習モジュールは、前記データを再構成して、前記再構成データを出力し、前記誤差学習モジュールは、前記分割誤差を再構成して、分割再構成誤差を出力し、前記学習モジュールは、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力する。   A data processing device according to a third aspect of the present invention is a data processing device that outputs data, a main body learning module that has learned data, the data, and reconstructed data in which the main body learning module reconstructs the data And an error learning module that learns a division error in which an error is divided every predetermined dimension or time, and the main body learning module reconstructs the data to reconstruct the reconstructed data The error learning module reconstructs the division error and outputs a division reconstruction error, and the learning module is a portion determined based on the reconstruction data and the division reconstruction error. Add the correction data and output.

本発明の第3の側面であるデータ処理方法は、データを出力するデータ処理装置のデータ処理方法において、前記データ処理装置は、データを学習した本体学習モジュールと、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習した誤差学習モジュールとを有する学習モジュールを備え、前記本体学習モジュールにおいて、前記データを再構成して、前記再構成データを出力し、前記誤差学習モジュールにおいて、前記分割誤差を再構成して、分割再構成誤差を出力し、前記学習モジュールにおいて、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力するステップを含む。   A data processing method according to a third aspect of the present invention is a data processing method of a data processing apparatus that outputs data, wherein the data processing apparatus includes a main body learning module that has learned data, the data, and the main body learning module. Comprises a learning module having an error learning module that learns a division error in which an error from the reconstructed data obtained by reconstructing the data is divided for each predetermined dimension or time. In the main body learning module, the data And the reconstruction data is output in the error learning module, the division error is output in the error learning module, and the reconstruction data and the division are output in the learning module. A step of adding and outputting the partial correction data determined based on the reconstruction error.

本発明の第3の側面であるプログラムは、データを出力するデータ処理装置として、コンピュータを機能させるプログラムにおいて、データを学習した本体学習モジュールと、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習した誤差学習モジュールとを有する学習モジュールを備え、前記本体学習モジュールは、前記データを再構成して、前記再構成データを出力し、前記誤差学習モジュールは、前記分割誤差を再構成して、分割再構成誤差を出力し、前記学習モジュールは、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力するデータ処理装置として、コンピュータを機能させる。   A program according to a third aspect of the present invention is a program that causes a computer to function as a data processing device that outputs data. An error learning module that learns a division error in which an error from the configured reconstruction data is divided for each predetermined dimension or time, and the main body learning module reconstructs the data. The reconstruction data is output, the error learning module reconstructs the division error and outputs a division reconstruction error, and the learning module is based on the reconstruction data and the division reconstruction error. The computer is caused to function as a data processing device that adds and outputs the partial correction data determined in this manner.

本発明の第3の側面においては、本体学習モジュールにより、前記データが再構成されて前記再構成データが出力され、誤差学習モジュールにより、前記分割誤差が再構成されて分割再構成誤差が出力され、前記学習モジュールにより、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとが加算されて出力される。   In the third aspect of the present invention, the main learning module reconstructs the data and outputs the reconstructed data, and the error learning module reconstructs the division error and outputs a division reconstruction error. The learning module adds and outputs the reconstruction data and the partial correction data determined based on the division reconstruction error.

なお、プログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して提供することができる。   The program can be provided by being transmitted via a transmission medium or by being recorded on a recording medium.

また、データ処理装置は、独立した装置であってもよいし、独立した装置を構成している内部ブロックであってもよい。   Further, the data processing device may be an independent device or an internal block constituting the independent device.

本発明の第1乃至第3の側面によれば、誤差を適切に考慮した処理を行うことができる。   According to the first to third aspects of the present invention, it is possible to perform processing that appropriately considers an error.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。したがって、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment that is described in the specification or the drawings but is not described here as an embodiment that corresponds to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の第1の側面であるデータ処理装置は、データを学習する学習処理を行うデータ処理装置(例えば、図1の入出力システム)において、データを学習する本体学習モジュール(例えば、図4の本体学習モジュール101)と、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習する誤差学習モジュール(例えば、図4の誤差学習モジュール102)とを有する学習モジュールを備える。   The data processing apparatus according to the first aspect of the present invention includes a main body learning module (for example, FIG. 4) that learns data in a data processing apparatus (for example, the input / output system of FIG. 1) that performs learning processing for learning data. An error learning module (learning a division error in which an error between the main body learning module 101), the data, and reconstructed data obtained by reconstructing the data by the main body learning module is divided for each predetermined dimension or time. For example, a learning module having the error learning module 102) of FIG. 4 is provided.

本発明の第1の側面であるデータ処理方法は、データを学習する学習処理を行うデータ処理装置(例えば、図1の入出力システム)のデータ処理方法において、データを学習する本体学習モジュールにおいて、前記データを学習し(例えば、図16のステップS131)、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習する誤差学習モジュールにおいて、前記分割誤差を学習する(例えば、図16のステップS135)ステップを含む。   A data processing method according to a first aspect of the present invention is a data processing method of a data processing apparatus (for example, the input / output system of FIG. 1) that performs a learning process for learning data. A division in which the data is learned (for example, step S131 in FIG. 16), and an error between the data and reconstructed data obtained by reconstructing the data by the main body learning module is divided for each predetermined dimension or time. The error learning module for learning the error includes a step of learning the division error (for example, step S135 in FIG. 16).

本発明の第1の側面であるプログラムは、データを学習する学習処理を行うデータ処理装置(例えば、図1の入出力システム)として、コンピュータを機能させるプログラムにおいて、データを学習する本体学習モジュール(例えば、図4の本体学習モジュール101)と、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習する誤差学習モジュール(例えば、図4の誤差学習モジュール102)とを有する学習モジュールを備えるデータ処理装置として、コンピュータを機能させる。   A program according to the first aspect of the present invention is a main body learning module that learns data in a program that causes a computer to function as a data processing device (for example, the input / output system in FIG. 1) that performs learning processing to learn data. For example, a division error in which an error between the main body learning module 101 in FIG. 4 and the data and reconstructed data obtained by reconstructing the data by the main body learning module is divided for each predetermined dimension or time is learned. The computer is caused to function as a data processing apparatus including a learning module having an error learning module (for example, the error learning module 102 in FIG. 4).

本発明の第2の側面であるデータ処理装置は、データを出力するデータ処理装置(例えば、図1の入出力システム)において、入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行った前記本体学習モジュール(例えば、図18の本体学習モジュール101)と、前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割出力誤差の学習を行った誤差学習モジュール(例えば、図18の誤差学習モジュール102)とを有する学習モジュールを備え、前記本体学習モジュールは、前記入力データを再構成して、前記再構成入力データを出力し、前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し、前記誤差学習モジュールは、前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、前記学習モジュールは、前記再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力する。   A data processing apparatus according to a second aspect of the present invention is a data processing apparatus that outputs data (for example, the input / output system of FIG. 1), learns input data, and outputs to be output for the input data. An error between the main body learning module that performed data learning (for example, the main body learning module 101 in FIG. 18), the input data, and reconstructed input data obtained by reconfiguring the input data by the main body learning module is a predetermined error. Learning of divided input error divided for each dimension or time, and the error between the output data and the reconstructed output data obtained by reconstructing the output data by the main body learning module for each predetermined dimension or time A learning module having an error learning module (for example, the error learning module 102 in FIG. 18) that has learned the divided output error. The main body learning module reconstructs the input data, outputs the reconstructed input data, reconstructs output data to be output with respect to the input data, and reconstructs the reconstructed output data. The error learning module reconstructs the divided output error corresponding to the divided input error and outputs a divided reconstructed output error, and the learning module outputs the reconstructed output data and the divided output data. The partial correction data determined based on the reconstruction output error is added and output.

本発明の第2の側面であるデータ処理方法は、データを出力するデータ処理装置のデータ処理方法において、前記データ処理装置は、入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行った前記本体学習モジュール(例えば、図18の本体学習モジュール101)と、前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割出力誤差の学習を行った誤差学習モジュール(例えば、図18の誤差学習モジュール102)とを有する学習モジュールを備え、前記本体学習モジュールにおいて、前記入力データを再構成して、前記再構成入力データを出力し(例えば、図27のステップS283)、前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し(例えば、図27のステップS287)、前記誤差学習モジュールにおいて、前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し(例えば、図27のステップS288)、前記学習モジュールにおいて、前記分割再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力する(例えば、図27のステップS290)ステップを含む。   A data processing method according to a second aspect of the present invention is a data processing method for a data processing apparatus that outputs data, wherein the data processing apparatus learns input data and outputs to be output for the input data. An error between the main body learning module that performed data learning (for example, the main body learning module 101 in FIG. 18), the input data, and reconstructed input data obtained by reconfiguring the input data by the main body learning module is a predetermined error. Learning of divided input error divided for each dimension or time, and the error between the output data and the reconstructed output data obtained by reconstructing the output data by the main body learning module for each predetermined dimension or time And an error learning module (for example, the error learning module 102 in FIG. 18) that performs learning of the divided output error. The main body learning module reconstructs the input data, outputs the reconstructed input data (for example, step S283 in FIG. 27), and outputs output data to be output with respect to the input data. Reconstructing and outputting the reconstructed output data (for example, step S287 in FIG. 27), the error learning module reconstructs the divided output error corresponding to the divided input error, and performs divided reconstructed output. An error is output (for example, step S288 in FIG. 27), and the learning module adds and outputs the divided reconstruction output data and the partial correction data determined based on the divided reconstruction output error ( For example, step S290) of FIG. 27 is included.

本発明の第2の側面であるプログラムは、データを出力するデータ処理装置として、コンピュータを機能させるプログラムにおいて、入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行った前記本体学習モジュール(例えば、図18の本体学習モジュール101)と、前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割出力誤差の学習を行った誤差学習モジュール(例えば、図18の誤差学習モジュール102)とを有する学習モジュールを備え、前記本体学習モジュールは、前記入力データを再構成して、前記再構成入力データを出力し、前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し、前記誤差学習モジュールは、前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、前記学習モジュールは、前記再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力するデータ処理装置として、コンピュータを機能させる。   A program according to a second aspect of the present invention is a program that causes a computer to function as a data processing device that outputs data, and performs learning of input data and learning of output data to be output with respect to the input data. Further, an error between the main body learning module (for example, the main body learning module 101 of FIG. 18), the input data, and the reconstructed input data obtained by reconstructing the input data by the main body learning module is every predetermined dimension or time. Learning of divided input error divided into two, and an error between the output data and reconstructed output data obtained by reconstructing the output data by the main body learning module is divided for each predetermined dimension or time. An error learning module (for example, the error learning module 102 in FIG. 18) that performs learning of the divided output error. A learning module, wherein the main body learning module reconstructs the input data, outputs the reconstructed input data, reconstructs output data to be output with respect to the input data, and reconstructs the output Data is output, the error learning module reconstructs the divided output error corresponding to the divided input error and outputs a divided reconstructed output error, and the learning module includes the reconstructed output data, The computer is caused to function as a data processing apparatus that adds and outputs the partial correction data determined based on the divided reconstruction output error.


本発明の第3の側面であるデータ処理装置は、データを出力するデータ処理装置において、データを学習した本体学習モジュール(例えば、図4の本体学習モジュール101)と、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習した誤差学習モジュール(例えば、図4の誤差学習モジュール102)とを有する学習モジュールを備え、前記本体学習モジュールは、前記データを再構成して、前記再構成データを出力し、前記誤差学習モジュールは、前記分割誤差を再構成して、分割再構成誤差を出力し、前記学習モジュールは、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力する。

A data processing device according to a third aspect of the present invention is a data processing device that outputs data, a main body learning module that learns data (for example, the main body learning module 101 in FIG. 4), the data, and the main body learning. Learning having an error learning module (for example, the error learning module 102 in FIG. 4) in which a module learns a division error in which an error from reconstructed data obtained by reconstructing the data is divided every predetermined dimension or time. The main body learning module reconstructs the data and outputs the reconstructed data, the error learning module reconstructs the division error and outputs a division reconstruction error, The learning module adds and outputs the reconstruction data and the partial correction data determined based on the division reconstruction error.

本発明の第3の側面であるデータ処理方法は、データを出力するデータ処理装置のデータ処理方法において、前記データ処理装置は、データを学習した本体学習モジュール(例えば、図4の本体学習モジュール101)と、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習した誤差学習モジュール(例えば、図4の誤差学習モジュール102)とを有する学習モジュールを備え、前記本体学習モジュールにおいて、前記データを再構成して、前記再構成データを出力し(例えば、図17のステップS142)、前記誤差学習モジュールにおいて、前記分割誤差を再構成して、分割再構成誤差を出力し(例えば、図17のステップS145)、前記学習モジュールにおいて、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力する(例えば、図17のステップS147)ステップを含む。   A data processing method according to a third aspect of the present invention is a data processing method for a data processing device that outputs data, wherein the data processing device is a main body learning module that has learned data (for example, the main body learning module 101 of FIG. 4). ) And the data, and an error learning module (for example, FIG. 4) that learns a division error in which an error between the data and the reconstructed data obtained by reconstructing the data by the main body learning module is divided for each predetermined dimension or time. Error learning module 102), and the main body learning module reconstructs the data and outputs the reconstructed data (for example, step S142 in FIG. 17). Then, the division error is reconstructed and the division reconstruction error is output (for example, step S145 in FIG. 17). In the learning module, including the the reconfiguration data, the divided reconstituted by adding the partial compensation data is determined based on the error output (e.g., step S147 in FIG. 17) the step.

本発明の第3の側面であるプログラムは、データを出力するデータ処理装置として、コンピュータを機能させるプログラムにおいて、データを学習した本体学習モジュール(例えば、図4の本体学習モジュール101)と、前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習した誤差学習モジュール(例えば、図4の誤差学習モジュール102)とを有する学習モジュールを備え、前記本体学習モジュールは、前記データを再構成して、前記再構成データを出力し、前記誤差学習モジュールは、前記分割誤差を再構成して、分割再構成誤差を出力し、前記学習モジュールは、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力するデータ処理装置として、コンピュータを機能させる。   The program according to the third aspect of the present invention includes a main body learning module (for example, the main body learning module 101 in FIG. 4) that has learned data in a program that causes a computer to function as a data processing device that outputs data, and the data And an error learning module (for example, the error learning module 102 in FIG. 4) that learns a division error in which an error between the main body learning module and the reconstructed data obtained by reconstructing the data is divided for each predetermined dimension or time. The main body learning module reconstructs the data and outputs the reconstructed data, and the error learning module reconstructs the division error to obtain a division reconstruction error. And the learning module is determined based on the reconstruction data and the division reconstruction error As a data processing apparatus for adding and outputting the partial correction data, it causes the computer to function.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明を適用したデータ処理装置としての入出力システムの一実施の形態の構成例を示すブロック図である。   FIG. 1 is a block diagram showing a configuration example of an embodiment of an input / output system as a data processing apparatus to which the present invention is applied.

図1の入出力システムは、データを学習する学習処理、さらには、データの学習結果に基づいて、データを認識し、その認識結果に応じて、データを出力する認識生成(認知行動)処理を行うようになされており、例えば、外部から受ける刺激(例えば、人からの話しかけ等)等に対応して自律的に行動するロボットや、ユーザの操作等を学習して、その学習結果に応じて処理を行うAV(Audio Visual)機器に代表される家庭電化製品等に適用することができる。   The input / output system in FIG. 1 performs a learning process for learning data, and further, a recognition generation (cognitive behavior) process for recognizing data based on the learning result of the data and outputting the data according to the recognition result. For example, it learns robots that act autonomously in response to external stimuli (for example, talking from people, etc.), user operations, etc., and according to the learning results The present invention can be applied to home appliances represented by AV (Audio Visual) equipment that performs processing.

図1の入力システムは、学習モジュール100から構成され、学習モジュール100は、本体学習モジュール101、誤差学習モジュール102、及び制御部103から構成される。   The input system in FIG. 1 includes a learning module 100, and the learning module 100 includes a main body learning module 101, an error learning module 102, and a control unit 103.

本体学習モジュール101には、学習処理の対象となるデータDや、認識生成処理のうちの認識処理の対象となるデータDが供給される。   The main body learning module 101 is supplied with data D to be subjected to learning processing and data D to be subjected to recognition processing of recognition generation processing.

本体学習モジュール101は、学習処理の対象となるデータDを学習する。また、本体学習モジュール101は、学習結果に応じ、認識処理の対象となるデータDの入力に対して、そのデータDを再構成し、その結果得られる再構成データDRを出力する。 The main body learning module 101 learns data D to be subjected to learning processing. The main body learning module 101, depending on the learning result, with respect to the input data D to be recognition processing, reconstructs the data D, and outputs the reconstructed data D R the resulting.

誤差学習モジュール102には、本体学習モジュール101に供給されるデータDと、本体学習モジュール101が、供給されたデータDに対して出力する再構成データDRとの誤差である誤差データ△D(=D-DR)が供給される。 The error learning module 102, the data D to be supplied to the main learning module 101, body learning module 101, an error between the reconstructed data D R to be output to the supplied data D error data △ D ( = DD R ) is supplied.

誤差学習モジュール102は、誤差データ△Dを学習する。また、誤差学習モジュール102は、学習結果に応じ、誤差データ△Dの入力に対して、その誤差データ△Dを再構成し、その結果得られる再構成誤差データ△DRを出力する。 The error learning module 102 learns error data ΔD. The error learning module 102, depending on the learning result, with respect to the input of the error data △ D, reconstructs the error data △ D, and outputs the reconstructed error data △ D R the resulting.

制御部103は、本体学習モジュール101、及び誤差学習モジュール102を、必要に応じて制御する。また、制御部103は、本体学習モジュール101や、誤差学習モジュール102に与えるべきデータを、必要に応じて生成し、本体学習モジュール101や、誤差学習モジュール102に供給する。   The control unit 103 controls the main body learning module 101 and the error learning module 102 as necessary. Further, the control unit 103 generates data to be given to the main body learning module 101 and the error learning module 102 as necessary, and supplies the data to the main body learning module 101 and the error learning module 102.

すなわち、例えば、制御部103は、本体学習モジュール101に供給されるデータDと、そのデータDに対して、本体学習モジュール101が出力する再構成データDRとを用いて、誤差データ△Dを生成し、誤差学習モジュール102に供給する。 That is, for example, the control unit 103, the data D to be supplied to the main learning module 101, for the data D, by using the reconstructed data D R of the main body learning module 101 outputs the error data △ D Generated and supplied to the error learning module 102.

以上のように構成される図1の入出力システムでは、上述したように、データを学習する学習処理と、データの学習結果に基づいて、データを認識し、その認識結果に応じて、データを出力する認識生成処理とが行われる。   In the input / output system of FIG. 1 configured as described above, as described above, the data is recognized based on the learning process for learning the data and the learning result of the data, and the data is determined according to the recognition result. The recognition generation process to be output is performed.

図1の入出力システムが行う学習処理について、図2のフローチャートを参照して説明する。   The learning process performed by the input / output system of FIG. 1 will be described with reference to the flowchart of FIG.

この学習処理は、学習モジュール100の本体学習モジュール101に対して、学習処理の対象となるデータDが供給されたことに対応して開始される。   This learning process is started in response to the supply of data D to be subjected to the learning process to the main body learning module 101 of the learning module 100.

本体学習モジュール101は、ステップS101において、供給されたデータDの学習(データDを用いた学習モデルの学習)を行う。   In step S101, the main body learning module 101 performs learning of the supplied data D (learning of a learning model using the data D).

ステップS102において、本体学習モジュール101は、直前のステップS101で学習に用いたデータDを再構成することにより再構成データDRを生成して出力する。 In step S102, the main learning module 101 generates and outputs the reconstructed data D R by reconstructing the data D used for learning in step S101 immediately before.

ステップS103において、制御部103は、直前のステップS101で本体学習モジュール101に供給されたデータDと、そのデータDに対して、直前のステップS102で本体学習モジュール101が出力した再構成データDRとを用いて、誤差データ△D=D-DRを算出し、算出結果である誤差データ△Dを誤差学習モジュール102に供給する。 In step S103, the control unit 103, for the data D supplied to the main body learning module 101 in the previous step S101, and the reconstructed data D R output by the main body learning module 101 in the previous step S102 for the data D. with bets, calculates an error data △ D = DD R, supplies the error data △ D is the calculation result to the error learning module 102.

ステップS104において、誤差学習モジュール102は、制御部103から供給された誤差データ△Dの学習(誤差データ△Dを用いた学習モデルの学習)を行う。以上で、学習処理は終了される。   In step S104, the error learning module 102 learns the error data ΔD supplied from the control unit 103 (learning of a learning model using the error data ΔD). This completes the learning process.

なお、図2の学習処理は、例えば、学習モジュール100に対して、学習処理の対象となるデータDが入力される度に行われる。   Note that the learning process in FIG. 2 is performed, for example, every time data D to be subjected to the learning process is input to the learning module 100.

次に、図1の入出力システムが行う認識生成処理について、図3のフローチャートを参照して説明する。   Next, the recognition generation process performed by the input / output system of FIG. 1 will be described with reference to the flowchart of FIG.

この認識生成処理は、学習モジュール100の本体学習モジュール101に対して、認識処理の対象となるデータDが入力されたことに対応して開始される。   This recognition generation process is started in response to the input of data D to be recognized by the main body learning module 101 of the learning module 100.

本体学習モジュール101は、ステップS111において、供給されたデータDを、図2の学習処理の学習結果に基づいて認識する認識処理を行う。   In step S111, the main body learning module 101 performs recognition processing for recognizing the supplied data D based on the learning result of the learning processing in FIG.

ステップS112において、本体学習モジュール101は、直前のステップS111で認識したデータDの認識結果に基づき、そのデータDを再構成することによって再構成データDRを生成して出力する。 In step S112, the main learning module 101, based on the recognition result data D recognized in step S111 immediately before, and generates and outputs the reconstructed data D R by reconstructing the data D.

ステップS113において、制御部103は、直前のステップS111で本体学習モジュール101に供給されたデータDと、そのデータDに対して、直前のステップS112で本体学習モジュール101が出力した再構成データDRとを用いて、誤差データ△D=D-DRを算出し、算出結果である△Dを誤差学習モジュール102に供給する。 In step S113, the control unit 103 outputs the data D supplied to the main body learning module 101 in the immediately preceding step S111 and the reconfiguration data D R output from the main body learning module 101 in the immediately previous step S112 with respect to the data D. with bets, calculates an error data △ D = DD R, and supplies a calculation result △ a D to error learning module 102.

ステップS114において、誤差学習モジュール102は、制御部103からの誤差データ△Dを、図2の学習処理の学習結果に基づいて認識する認識処理を行う。ステップS115において、誤差学習モジュール102は、直前のステップS114で認識した誤差データ△Dの認識結果に基づき、その誤差データ△Dを再構成した再構成誤差データ△DRを生成して出力する。 In step S114, the error learning module 102 performs a recognition process for recognizing the error data ΔD from the control unit 103 based on the learning result of the learning process in FIG. In step S115, error learning module 102, based on the recognition result of the error data △ D recognized in step S114 immediately before, and generates and outputs a reconstructed error data △ D R reconstituted the error data △ D.

ステップS116において、制御部103は、本体学習モジュール101が出力した再構成データDRと、誤差学習モジュール102が出力した再構成誤差データ△DRとを加算することにより、本体学習モジュール101が出力した再構成データDRを補正して出力する。 In step S116, the control unit 103 adds the reconstruction data D R output from the body learning module 101 and the reconstruction error data ΔD R output from the error learning module 102, so that the body learning module 101 outputs the result. The reconstructed data D R corrected is output.

すなわち、制御部103は、本体学習モジュール101が出力した再構成データDRと、誤差学習モジュール102が出力した再構成誤差データ△DRとを加算した加算データDR+△DRを求め、その加算データを、本体学習モジュール101が出力した再構成データDRを補正した、いわば最終的な再構成データとして出力する。以上で、認識生成処理は終了される。 That is, the control unit 103 obtains addition data D R + ΔD R obtained by adding the reconstruction data D R output from the main body learning module 101 and the reconstruction error data ΔD R output from the error learning module 102, The added data is output as final reconstructed data, that is, the reconstructed data D R output from the main body learning module 101 is corrected. This completes the recognition generation process.

以上のように、本体学習モジュール101において、データDを学習し、誤差学習モジュール102において、データDの学習とは別に、データDとそのデータDを再構成した再構成データDRとの誤差データ△Dを学習する。さらに、本体学習モジュール101において、データDを再構成して、再構成データDRを出力し、誤差学習モジュール102において、データDと再構成データDRとの誤差データ△Dを再構成して、再構成誤差データ△DRを出力する。そして、制御部103において、再構成データDRと、再構成誤差データ△DRとを加算し、その結果得られる加算データを出力する。したがって、誤差を適切に考慮した処理、すなわち、再構成データDRに生じているであろうと推定される誤差を、再構成誤差データ△DRにより補正した加算データDR+△DRを求めることができる。 As described above, in the main learning module 101 learns the data D, the error learning module 102, apart from the training data D, the error data with the reconstructed data D R reconstructed data D and the data D △ D is learned. Further, the main learning module 101, and reconstructs the data D, and outputs the reconstructed data D R, the error learning module 102 reconfigures the error data △ D between the data D and the reconstructed data D R , and it outputs the reconstructed error data △ D R. Then, the control unit 103 adds the reconstruction data D R and the reconstruction error data ΔD R and outputs the addition data obtained as a result. Therefore, processing that appropriately considers the error, that is, addition data D R + ΔD R obtained by correcting the error estimated to occur in the reconstruction data D R by the reconstruction error data ΔD R is obtained. be able to.

なお、図2の学習処理と、図3の認識生成処理とについては、データDの入力に対して、両方を行うこともできるし、いずれか一方だけを行うこともできる。   Note that both the learning process of FIG. 2 and the recognition generation process of FIG. 3 can be performed on the input of the data D, or only one of them can be performed.

次に、図4は、図1の本体学習モジュール101、誤差学習モジュール102、及び制御部103の第1の構成例を示している。   Next, FIG. 4 shows a first configuration example of the main body learning module 101, the error learning module 102, and the control unit 103 of FIG.

図4において、本体学習モジュール101は、演算部121及び本体モデル記憶部122から、誤差学習モジュール102は、演算部123及び分割誤差モデル記憶部124から、制御部103は、誤差算出部125、データ分割部126、補正データ生成部127及び加算部128から、それぞれ構成されている。   In FIG. 4, the main body learning module 101 is from the calculation unit 121 and the main body model storage unit 122, the error learning module 102 is from the calculation unit 123 and the divided error model storage unit 124, and the control unit 103 is the error calculation unit 125, data Each of the division unit 126, the correction data generation unit 127, and the addition unit 128 is configured.

演算部121には、例えば、外部から、データDが供給される。このデータDは、n次元ベクトルあるいは時系列データであるとする。演算部121は、そこに供給されるデータDの学習を行う。すなわち、演算部121は、そこに供給されるデータDを用いて、本体モデル記憶部122に記憶されている本体モデルの学習を行う。   For example, data D is supplied to the calculation unit 121 from the outside. This data D is assumed to be an n-dimensional vector or time series data. The calculation unit 121 learns the data D supplied thereto. That is, the calculation unit 121 learns the main body model stored in the main body model storage unit 122 using the data D supplied thereto.

また、演算部121は、供給されるデータDを、本体モデル記憶部122に記憶されている本体モデルを用いて認識し、その認識結果に基づいて、データDを再構成し、その結果得られる再構成データDRを出力する。演算部121が出力する再構成データDRは、制御部103の誤差算出部125及び加算部128に供給される。 In addition, the calculation unit 121 recognizes the supplied data D using the main body model stored in the main body model storage unit 122, reconstructs the data D based on the recognition result, and obtains the result. and it outputs the reconstructed data D R. Reconstruction data D R by the calculation unit 121 outputs is supplied to the error calculating unit 125 and the addition unit 128 of the control unit 103.

本体モデル記憶部122は、データを学習するモデル(学習モデル)としての本体モデルを記憶している。本体モデルとしては、教師なし学習が可能な、例えば、SOMやNN、その他の学習モデルを採用することができる。   The main body model storage unit 122 stores a main body model as a model for learning data (learning model). As the main body model, for example, SOM, NN, or other learning models capable of unsupervised learning can be adopted.

誤差学習モジュール102の演算部123には、制御部103のデータ分割部126から分割誤差データ△D1,△D2,・・・,ΔDnが供給される。演算部123は、データ分割部126からの分割誤差データ△D1,(i=1,2,・・・,n)の学習を行う。すなわち、演算部123は、データ分割部126からの分割誤差データ△Diを用いて、分割誤差モデル記憶部124に記憶されている誤差モデルの学習を行う。 The operation unit 123 of the error learning module 102, the divided error data △ D 1 from the data dividing unit 126 of the control unit 103, △ D 2, · · ·, the [Delta] D n is supplied. The arithmetic unit 123 learns the division error data ΔD 1 (i = 1, 2,..., N) from the data division unit 126. That is, the calculation unit 123 uses the division error data ΔD i from the data division unit 126 to learn the error model stored in the division error model storage unit 124.

また、演算部123は、データ分割部126からの分割誤差データ△Diを、分割誤差モデル記憶部124に記憶されている分割誤差モデルを用いて認識し、その認識結果に基づいて、分割誤差データ△Diを再構成し、その結果得られる分割再構成誤差データ△DR1,△DR2,・・・,ΔDRnを出力する。演算部123が出力する分割再構成誤差データ△DRi(i=1,2,・・・,n)は、制御部103の補正データ生成部127に供給される。 In addition, the calculation unit 123 recognizes the division error data ΔD i from the data division unit 126 using the division error model stored in the division error model storage unit 124 and, based on the recognition result, the division error data. Data ΔD i is reconstructed, and divided reconstruction error data ΔD R1 , ΔD R2 ,..., ΔD Rn obtained as a result are output. The division reconstruction error data ΔD Ri (i = 1, 2,..., N) output from the calculation unit 123 is supplied to the correction data generation unit 127 of the control unit 103.

分割誤差モデル記憶部124は、データを学習するモデルとしての分割誤差モデルを記憶している。分割誤差モデルとしては、教師なし学習が可能な、例えば、SOMやNN、その他の学習モデルを採用することができる。   The division error model storage unit 124 stores a division error model as a model for learning data. As the division error model, for example, SOM, NN, and other learning models capable of unsupervised learning can be adopted.

制御部103の誤差算出部125には、上述したように、演算部121から再構成データDRが供給される他、演算部121に供給されるデータDと同一のデータDが外部から供給される。 The error calculating section 125 of the control unit 103, as described above, except that reconstruction data D R is supplied from the operation unit 121, the same data D and the data D to be supplied to the arithmetic unit 121 is supplied from the outside The

誤差算出部125は、外部からのデータDと、再構成データDRとの差分D-DRを求め、誤差データ△Dとして、データ分割部126に供給する。上述したように、データDがn次元ベクトルあるいは時系列データである場合、誤差データ△Dもn次元ベクトルあるいは時系列データとなる。 Error calculation unit 125 obtains the data D from the outside, the difference DD R between the reconstructed data D R, the error data △ D, to the data dividing unit 126. As described above, when the data D is an n-dimensional vector or time series data, the error data ΔD is also an n-dimensional vector or time series data.

データ分割部126は、n次元ベクトルあるいは時系列データである誤差データ△Dを、予め決定されている所定の次元毎あるいは所定の時間毎に分割し、その結果得られる分割誤差データ△Diを出力する。例えば、誤差データ△Dが、2次元ベクトルである場合、誤差データ△Dを、△D1と△D2に分割する。また、例えば、誤差データ△Dが、100ステップの時系列データである場合、誤差データ△Dを、1ステップから50ステップまでの△D1と51ステップから100ステップまでの△D2に分割する。なお、分割する数nは、誤差データ△Dの次元数やステップ数に拘わりなく任意である。データ分割部126が出力する分割誤差データ△Diは、演算部123及び補正データ生成部127に供給される。 The data dividing unit 126 divides the error data ΔD, which is an n-dimensional vector or time series data, every predetermined dimension or every predetermined time, and the resulting divided error data ΔD i is obtained. Output. For example, when the error data ΔD is a two-dimensional vector, the error data ΔD is divided into ΔD 1 and ΔD 2 . Further, for example, error data △ D is, if a time series data of 100 steps, the error data △ D, divides △ D 1 from one step to 50 steps from 51 Step △ D 2 to 100 steps . The number n to be divided is arbitrary regardless of the number of dimensions and the number of steps of the error data ΔD. The division error data ΔD i output from the data division unit 126 is supplied to the calculation unit 123 and the correction data generation unit 127.

補正データ生成部127は、データ分割部126からの分割誤差データ△Diに基づいて再構成データDRの補正すべき次元または時間を決定し、決定結果に従い、分割された所定の次元毎あるいは時間毎の補正重みを決定して、演算部123からの分割再構成誤差データ△DRiにそれぞれ補正重みを乗算することにより、部分補正データ△DRjを生成し、加算部128に供給する。 The correction data generation unit 127 determines the dimension or time to be corrected of the reconstructed data D R based on the division error data ΔD i from the data division unit 126, and for each predetermined dimension divided or according to the determination result. By determining a correction weight for each time and multiplying the division reconstruction error data ΔD Ri from the calculation unit 123 by the correction weight, partial correction data ΔD Rj is generated and supplied to the adder 128.

加算部128は、演算部121から供給される再構成データDRと、補正データ生成部127から供給される部分補正データ△DRjとを加算し、その結果得られる加算データDR+△DRjを、再構成データDRを補正した、最終的な再構成データ(以下、適宜、最終再構成データとも称する)として出力する。 Adding unit 128, a reconstruction data D R to be supplied from the arithmetic unit 121, the correction by adding the partial correction data △ D Rj supplied from the data generation unit 127, the resulting sum data D R + △ D Rj and the reconstruction data D R corrected final reconstruction data (hereinafter, also referred to as the final reconstruction data) is output as.

ここで、図4において、本体モデル記憶部122に記憶されている本体モデルと、分割誤差モデル記憶部124に記憶されている誤差モデルとしては、同一の学習モデルを採用することもできるし、異なる学習モデルを採用することもできる。   Here, in FIG. 4, the same learning model can be adopted as the main body model stored in the main body model storage unit 122 and the error model stored in the division error model storage unit 124, or different. A learning model can also be adopted.

ただし、ここでは、説明を簡単にするために、本体モデルと誤差モデルとしては、同一の学習モデルを採用することとする。   However, here, in order to simplify the explanation, the same learning model is adopted as the main body model and the error model.

なお、本体モデルは、本来学習すべきデータを対象として学習を行う学習モデルであることに対して、分割誤差モデルは、データを学習した本体モデルを用いて、あるデータDを再構成して得られる再構成データDRと、データDとの誤差(誤差データ△D)を算出し、さらに所定の次元毎あるいは時間毎に分割した分割誤差データを対象として学習を行う学習モデルである。したがって、本体モデルと分割誤差モデルとは、学習の対象が異なるだけで、学習モデルとしての本質的な違いはない。 Note that the main body model is a learning model that performs learning on the data that should be learned originally, whereas the division error model is obtained by reconstructing certain data D using the main body model that has learned the data. This is a learning model that calculates an error (error data ΔD) between the reconstructed data D R and the data D and performs learning on the divided error data divided for each predetermined dimension or time. Therefore, the main body model and the division error model differ only in the learning target, and there is no essential difference as a learning model.

次に、本体モデル及び分割誤差モデルとしては、上述したように、例えば、SOMを採用することができる。   Next, as the main body model and the division error model, for example, SOM can be adopted as described above.

そして、本体モデル及び分割誤差モデルとしては、ノードにベクトルが与えられており、固定長のパターン(長さが一定のパターン)のみを獲得することができる一般的なSOMは勿論、固定長のパターンの他、時系列パターン等の可変長のパターン(長さが一定でないパターン)をも獲得することができるSOM(以下、適宜、パターン記憶SOMと称する)を採用することができる。   As the main body model and the division error model, a vector is given to the node, and a fixed-length pattern as well as a general SOM that can acquire only a fixed-length pattern (a constant-length pattern). In addition, it is possible to employ a SOM (hereinafter referred to as a pattern storage SOM as appropriate) that can acquire a variable-length pattern (a pattern whose length is not constant) such as a time-series pattern.

そこで、まず、パターン記憶SOMについて説明する。   First, the pattern storage SOM will be described.

図5は、パターン記憶SOMの例を模式的に示している。   FIG. 5 schematically shows an example of the pattern storage SOM.

パターン記憶SOMは、複数のノードから構成され、自己組織的な学習を行うことができる点で、一般的なSOMと共通し、したがって、SOMの範疇に含まれるので、SOMの一種であると称することができる。   The pattern storage SOM is composed of a plurality of nodes, and is common to general SOMs in that it can perform self-organized learning. Therefore, the pattern storage SOM is included in the category of the SOM, and is therefore referred to as a kind of SOM. be able to.

ただし、パターン記憶SOMは、ノードが、時系列パターン等の可変長のパターンを学習することができるHMMや、NN,SVR、その他の、パターンを獲得することができる学習モデル(以下、適宜、パターン記憶モデルと称する)を有し、そのパターン記憶モデルによって時系列パターン等を保持することができる点で、ノードにベクトルが与えられている一般的なSOMとは異なる。   However, the pattern storage SOM is an HMM that can learn a variable-length pattern such as a time-series pattern, NN, SVR, and other learning models that can acquire a pattern (hereinafter referred to as a pattern as appropriate). This is different from a general SOM in which a vector is given to a node in that a time series pattern or the like can be held by the pattern storage model.

パターン記憶SOMは、以上のように、可変長のパターンを獲得(表現)することができるパターン記憶モデルを有する複数のノードから構成されるSOMであり、ノードの数だけの(クラス分けを行う)パターンを記憶することができる。   As described above, the pattern storage SOM is a SOM composed of a plurality of nodes having a pattern storage model capable of acquiring (representing) a variable-length pattern, and is equivalent to the number of nodes (classification is performed). Patterns can be stored.

図5においては、パターン記憶SOMは、ノードN1乃至N6の6つのノードから構成されて
いる。
In FIG. 5, the pattern storage SOM is composed of six nodes N 1 to N 6 .

パターン記憶SOMを構成する各ノードNi(図5では、i=1,2,・・・,6)は、例えば、時系列パターンを表現するパターン記憶モデルを有する。また、ノードNiは、他のノードNj(図5では、j=1,2,・・・,6)と結合関係を持つことができる。この結合関係をリンクと呼ぶ。図5では、例えば、ノードN1は、ノードN2,N3と直接の結合関係を有している。また、例えば、ノードN3は、ノードN1,N2,N5,N6と直接の結合関係を有しており、したがって、ノードN5とN6は、ノードN3を介して、ノードN1と間接的な結合関係を有している。なお、2つのノードNiとNjとの結合関係とは、その2つのノードNiとNjとの最短の結合関係を意味する。 Each node N i (in FIG. 5, i = 1, 2,..., 6) constituting the pattern storage SOM has, for example, a pattern storage model expressing a time series pattern. Further, the node N i can have a coupling relationship with other nodes N j (j = 1, 2,..., 6 in FIG. 5). This connection relationship is called a link. In FIG. 5, for example, the node N 1 has a direct coupling relationship with the nodes N 2 and N 3 . Further, for example, the node N 3 has a direct coupling relationship with the nodes N 1 , N 2 , N 5 , and N 6, and therefore the nodes N 5 and N 6 are connected to the node N 3 via the node N 3. and a N 1 and indirect coupling relationship. Incidentally, the coupling relationship between the two nodes N i and N j, means the shortest binding relationship between the two nodes N i and N j.

パターン記憶SOMの学習(パターン記憶SOMに時系列パターンを記憶(獲得)させる学習)では、時系列データが、学習用の学習データとして行われる。また、学習データとしては、カテゴリの種類や、カテゴリの数が未知の時系列データを用いることができる。したがって、パターン記憶SOMの学習としては、教師なし学習を行うことができる。   In learning of the pattern storage SOM (learning for storing (acquiring) a time-series pattern in the pattern storage SOM), time-series data is performed as learning data for learning. Further, as the learning data, time series data in which the type of category and the number of categories are unknown can be used. Therefore, unsupervised learning can be performed as the learning of the pattern storage SOM.

なお、パターン記憶SOMの学習は、ある1つのノードが、必ずしもある1つのカテゴリに対応するように行われるとは限らない。即ち、パターン記憶SOMにおいては、1つのノードが1つのカテゴリに対応するように学習が行われる場合もあるし、複数のノードが1つのカテゴリに対応するように学習が行われる場合もある。さらに、1つのノードが複数のカテゴリに対応するように学習が行われる場合もある。したがって、仮に、学習データが、明確にカテゴリ分けすることができないものであっても、パターン記憶SOMによる学習は行うことができる。   Note that the learning of the pattern storage SOM is not necessarily performed so that one certain node corresponds to one certain category. That is, in the pattern storage SOM, learning may be performed so that one node corresponds to one category, or learning may be performed so that a plurality of nodes correspond to one category. Further, learning may be performed so that one node corresponds to a plurality of categories. Therefore, even if the learning data cannot be clearly categorized, learning by the pattern storage SOM can be performed.

次に、図6は、パターン記憶SOMのノードNiの構成例を模式的に示している。 Next, FIG. 6 shows a configuration example of a node N i of pattern storage SOM schematically.

ノードNiは、時系列パターン等の可変長のパターンを表現することが可能なパターン記憶モデル21と、そのパターン記憶モデル21の学習に用いる学習データを記憶する学習データ記憶部22とから構成される。 The node Ni includes a pattern storage model 21 that can represent a variable-length pattern such as a time series pattern, and a learning data storage unit 22 that stores learning data used for learning the pattern storage model 21. The

ここで、図6では、パターン記憶モデル21として、状態確率遷移モデルの1つであるHMM(連続HMM)が採用されている。また、図6では、HMMは、自己ループと次状態(右隣の状態)への状態遷移だけを有するleft-to-right型の3状態S1,S2,S3を有する。なお、図6のパターン記憶モデル21における丸印は状態を表し、矢印は状態遷移を表している。なお、パターン記憶モデル21としてのHMMは、left-to-right型や、3状態のもの等に限定されない。 Here, in FIG. 6, an HMM (continuous HMM) that is one of the state probability transition models is adopted as the pattern storage model 21. In FIG. 6, the HMM has left-to-right three states S 1 , S 2 , and S 3 that have only a self-loop and a state transition to the next state (the state on the right). Note that circles in the pattern storage model 21 in FIG. 6 represent states, and arrows represent state transitions. Note that the HMM as the pattern storage model 21 is not limited to a left-to-right type or a three-state type.

パターン記憶モデル21が、図6に示したようなHMMである場合、そのパターン記憶モデル21としてのHMMは、状態遷移確率と出力確率密度関数(HMMが離散HMMである場合には、スカラ量である離散的なシンボルが出力される確率)とで定義される。   When the pattern memory model 21 is an HMM as shown in FIG. 6, the HMM as the pattern memory model 21 has a state transition probability and an output probability density function (when the HMM is a discrete HMM, it is a scalar quantity. The probability that a certain discrete symbol is output).

状態遷移確率は、HMMにおいて、状態が遷移する確率で、図6のパターン記憶モデル21における矢印で示した状態遷移それぞれに対して与えられる。出力確率密度関数は、状態遷移時に、HMMから観測される値の確率密度を表す。出力確率密度関数としては、例えば、混合正規分布などが採用される。これらのHMMのパラメータ(状態遷移確率と出力確率密度関数)は、例えば、Baum-Welch 法によって学習(推定)することができる。   The state transition probability is a probability of state transition in the HMM, and is given to each state transition indicated by an arrow in the pattern storage model 21 of FIG. The output probability density function represents the probability density of values observed from the HMM at the time of state transition. For example, a mixed normal distribution is adopted as the output probability density function. These HMM parameters (state transition probability and output probability density function) can be learned (estimated) by, for example, the Baum-Welch method.

ノードNiでは、学習データ記憶部22に記憶された学習データの統計的な特性、即ち、学習データ記憶部22に記憶された学習データのパターンが、パターン記憶モデル21において学習され、これにより、パターン記憶モデル21と、学習データ記憶部22に記憶された学習データとが、対応関係を持つことになる。 In the node Ni , the statistical characteristics of the learning data stored in the learning data storage unit 22, that is, the pattern of the learning data stored in the learning data storage unit 22 is learned in the pattern storage model 21, thereby The pattern storage model 21 and the learning data stored in the learning data storage unit 22 have a correspondence relationship.

なお、パターン記憶SOMの学習、ひいては、ノードNiのパターン記憶モデル21の学習は、パターン記憶SOMに対して、学習の対象となるデータが与えられる毎に学習を行うオンライン学習によって行われる。したがって、パターン記憶SOMのパラメータ、つまり、ノードNiのパターン記憶モデル21のパラメータ(パターン記憶モデル21がHMMである場合には、上述したように、状態遷移確率と出力確率密度関数)は、パターン記憶SOMに対して、学習の対象となるデータが与えられる度に、少しずつ更新される。 The learning pattern storage SOM, thus, learning of the node N i of pattern storage model 21, the pattern storage SOM, data to be learning is performed by on-line learning for learning for each given. Thus, the pattern parameter memory SOM, i.e., the parameter of the node N i of pattern storage model 21 (when the pattern storage model 21 is HMM, as described above, the output probability density function state transition probability), the pattern Every time data to be learned is given to the stored SOM, it is updated little by little.

すなわち、後述するように、パターン記憶SOMの学習が進むにつれ、学習データ記憶部22に記憶される学習データは、パターン記憶SOMに与えられたデータによって更新され、これにより、少しずつ変化する。そして、その少しずつ変化する学習データによって、パターン記憶モデル21の学習が行われることにより、そのパターン記憶モデル21のパラメータも、少しずつ変化していく。   That is, as will be described later, as the learning of the pattern storage SOM progresses, the learning data stored in the learning data storage unit 22 is updated with the data given to the pattern storage SOM, thereby changing little by little. Then, by learning the pattern storage model 21 with the learning data that changes little by little, the parameters of the pattern storage model 21 also change little by little.

図7は、パターン記憶SOMの他の例を模式的に示している。   FIG. 7 schematically shows another example of the pattern storage SOM.

図7では、パターン記憶SOMは、9個のノードN1乃至N9で構成されており、この9個のノードN1乃至N9は、2次元的に配置されている。すなわち、図7では、9個のノードN1乃至N9が、2次元平面上に、横×縦が3×3となるように配置されている。 In FIG. 7, the pattern storage SOM is composed of nine nodes N 1 to N 9 , and these nine nodes N 1 to N 9 are two-dimensionally arranged. That is, in FIG. 7, nine nodes N 1 to N 9 are arranged on the two-dimensional plane so that the horizontal × vertical is 3 × 3.

さらに、図7では、2次元的に配置された9個のノードN1乃至N9の、横方向に隣接するノードどうしと、縦方向に隣接するノードどうしに対して、リンク(結合関係)が与えられている。なお、このようなリンクを与えることによって、パターン記憶SOMを構成するノードには、空間的に、2次元的に配置される配置構造が与えられている。 Further, in FIG. 7, links (coupling relationships) between the nodes adjacent in the horizontal direction and the nodes adjacent in the vertical direction among the nine nodes N 1 to N 9 arranged two-dimensionally. Is given. By providing such links, the nodes constituting the pattern storage SOM are given an arrangement structure that is spatially arranged two-dimensionally.

パターン記憶SOMでは、リンクによって与えられる空間的なノードの配置構造に基づき、その空間上でのある2つのノードどうしの距離を定義することができ、この2つのノードどうしの距離は、その2つのノードそれぞれが有するパターン記憶モデル21が表現するパターンのパターン間距離(パターンどうしの類似性)として用いることができる。   In the pattern memory SOM, the distance between two nodes on the space can be defined based on the spatial arrangement structure of the nodes given by the link. It can be used as an inter-pattern distance (similarity between patterns) of a pattern expressed by the pattern storage model 21 of each node.

2つのノードどうしの距離としては、例えば、その2つのノードどうしを結ぶ最短のパスを構成するリンクの数を採用することができる。この場合、あるノードに注目すると、その注目ノードとの直接のリンクを有するノード(図7では、注目ノードの横方向や縦方向に隣接するノード)は、注目ノードとの距離が最も近く、注目ノードとの直接のリンクを有するノードから先のリンクを辿っていくことで到達することができるノードは、到達するのに辿るリンクの数が多いほど、注目ノードとの距離が遠くなっていく。   As the distance between the two nodes, for example, the number of links constituting the shortest path connecting the two nodes can be employed. In this case, when paying attention to a certain node, a node having a direct link with the target node (a node adjacent in the horizontal direction or vertical direction of the target node in FIG. 7) is the closest to the target node, A node that can be reached by following a previous link from a node having a direct link with the node becomes farther from the target node as the number of links to be reached increases.

なお、ノードに与えるリンクは、図5や図7に示したものに限定されるものではない。また、図5や図7に示したリンクは、ノードに対して、2次元的な配置構造を与えるが、リンクは、その他、1次元的な配置構造や3次元以上の配置構造等を与えるリンクであってもよい。   The links given to the nodes are not limited to those shown in FIGS. The links shown in FIG. 5 and FIG. 7 give a two-dimensional arrangement structure to the node, but the links give other one-dimensional arrangement structures, three-dimensional arrangement structures and the like. It may be.

次に、図8は、パターン記憶SOMの学習を行う学習装置の構成例を示している。   Next, FIG. 8 shows a configuration example of a learning apparatus that performs learning of the pattern storage SOM.

図8において、学習装置は、スコア計算部41、勝者ノード決定部42、重み決定部43、学習データ更新部44、及びモデル学習部45から構成されている。   In FIG. 8, the learning device includes a score calculation unit 41, a winner node determination unit 42, a weight determination unit 43, a learning data update unit 44, and a model learning unit 45.

学習装置には、学習の対象となる時系列データが外部から入力され、この、外部からの時系列データは、スコア計算部41、重み決定部43、及び学習データ更新部44に供給される。   Time series data to be learned is input from the outside to the learning device, and the time series data from the outside is supplied to the score calculation unit 41, the weight determination unit 43, and the learning data update unit 44.

スコア計算部41は、パターン記憶SOMを構成する各ノードについて、そのノードが、外部からの時系列データ(の観測値)に適合する度合いをスコアとして求め、勝者ノード決定部42に供給する。すなわち、ノードが有するパターン記憶モデル21が、例えば、図6に示したようにHMMである場合には、スコア計算部41は、ノードが有するパターン記憶モデル21としてのHMMから、外部からの時系列データが観測される尤度を求め、そのノードのスコアとして、勝者ノード決定部42に供給する。   The score calculation unit 41 obtains, for each node constituting the pattern storage SOM, a degree of adaptability of the node to the time-series data (observed value) from the outside, and supplies the score to the winner node determination unit 42. That is, when the pattern storage model 21 included in the node is an HMM as illustrated in FIG. 6, for example, the score calculation unit 41 performs time series from the outside from the HMM as the pattern storage model 21 included in the node. The likelihood that the data is observed is obtained and supplied to the winner node determination unit 42 as the score of the node.

勝者ノード決定部42は、パターン記憶SOMにおいて、外部からの時系列データに最も適合するノードを求め、そのノードを、勝者ノードに決定する。   The winner node determination unit 42 obtains a node that best matches the external time-series data in the pattern storage SOM, and determines that node as a winner node.

すなわち、勝者ノード決定部42は、パターン記憶SOMを構成するノードのうちの、スコア計算部41からのスコアが最も高いノードを勝者ノードに決定する。そして、勝者ノード決定部42は、勝者ノードを表す情報を、重み決定部43に供給する。   That is, the winner node determination unit 42 determines the node having the highest score from the score calculation unit 41 among the nodes constituting the pattern storage SOM as the winner node. Then, the winner node determination unit 42 supplies information representing the winner node to the weight determination unit 43.

ここで、パターン記憶SOMを構成するノードには、各ノードを識別するためのラベルであるノードラベルを付しておくことができる。そして、勝者ノードを表す情報、その他のノード表す情報としては、ノードラベルを採用することができる。なお、ノードラベルは、ノード自体を識別するラベルであり、正解が何であるかを表す正解ラベルとは、何ら関係がない。   Here, a node label, which is a label for identifying each node, can be attached to the nodes constituting the pattern storage SOM. And a node label is employable as information showing a winner node and information showing other nodes. The node label is a label for identifying the node itself, and has nothing to do with the correct answer label indicating what the correct answer is.

重み決定部43は、勝者ノード決定部42から供給されるノードラベルが表す勝者ノードに基づき、パターン記憶SOMを構成する各ノードについて、後述する更新重みを決定し、学習データ更新部44に供給する。   The weight determination unit 43 determines an update weight, which will be described later, for each node constituting the pattern storage SOM based on the winner node represented by the node label supplied from the winner node determination unit 42 and supplies the update weight to the learning data update unit 44. .

すなわち、重み決定部43は、パターン記憶SOMを構成する各ノード(勝者ノードを含む)の更新重みを、そのノードと、勝者ノードとのパターン間距離に基づいて決定し、学習データ更新部44に供給する。   That is, the weight determination unit 43 determines the update weight of each node (including the winner node) constituting the pattern storage SOM based on the inter-pattern distance between the node and the winner node, and the learning data update unit 44 Supply.

ここで、ノードが有するパターン記憶モデル21(図6)は、外部から供給される(新たな)時系列データを用いて更新されるが、ノードの更新重みとは、そのノードが有するパターン記憶モデル21の更新によって、そのパターン記憶モデル21が受ける外部からの時系列データの影響の度合いを表す。したがって、ノードの更新重みが0であれば、そのノードが有するパターン記憶モデル21は、外部からの時系列データの影響を受けない(更新されない)。   Here, the pattern storage model 21 (FIG. 6) possessed by a node is updated using (new) time-series data supplied from the outside. The update weight of a node is the pattern storage model possessed by the node. By updating 21, the degree of the influence of the external time-series data received by the pattern storage model 21 is expressed. Therefore, if the update weight of a node is 0, the pattern storage model 21 that the node has is not affected (not updated) by the time-series data from the outside.

学習データ更新部44は、パターン記憶SOMの各ノードが有する学習データ記憶部22(図6)に記憶された学習データを更新する。   The learning data update unit 44 updates the learning data stored in the learning data storage unit 22 (FIG. 6) included in each node of the pattern storage SOM.

すなわち、学習データ更新部44は、ノードが有する学習データ記憶部22に既に記憶されている学習データと、外部からの時系列データとを、重み決定部43からの、対応するノードの更新重みにしたがって混合し、その混合結果を、新たな学習データとして、学習データ記憶部22に記憶させることで、その学習データ記憶部22の記憶内容を更新する。   That is, the learning data update unit 44 uses the learning data already stored in the learning data storage unit 22 of the node and the time series data from the outside as the update weight of the corresponding node from the weight determination unit 43. Therefore, mixing is performed, and the mixing result is stored in the learning data storage unit 22 as new learning data, thereby updating the storage content of the learning data storage unit 22.

学習データ更新部44は、以上のように、学習データ記憶部22(図6)に記憶された学習データを、更新重みにしたがって更新すると、その更新が終了した旨の終了通知を、モデル学習部45に供給する。   As described above, when the learning data stored in the learning data storage unit 22 (FIG. 6) is updated according to the update weight, the learning data update unit 44 notifies the model learning unit that the update is completed. 45.

モデル学習部45は、学習データ更新部44から終了通知を受けると、その学習データ更新部44による更新後の学習データ記憶部22(図6)に記憶された学習データを用いて、各ノードが有するパターン記憶モデル21の学習を行うことにより、そのパターン記憶モデル21を更新する。   When the model learning unit 45 receives an end notification from the learning data update unit 44, each node uses the learning data stored in the learning data storage unit 22 (FIG. 6) updated by the learning data update unit 44. The pattern storage model 21 is updated by learning the pattern storage model 21 that is included.

したがって、モデル学習部45による、ノードが有するパターン記憶モデル21の更新は、そのノードが有する学習データ記憶部22(図6)に記憶されていた学習データ(の一部)と、外部からの新たな時系列データとに基づいて行われる。   Accordingly, the model learning unit 45 updates the pattern storage model 21 included in the node with the learning data stored in the learning data storage unit 22 (FIG. 6) included in the node and a new one from the outside. Based on time series data.

次に、図9は、図8の重み決定部43において更新重みを決定する決定方法を示している。   Next, FIG. 9 shows a determination method for determining the update weight in the weight determination unit 43 of FIG.

重み決定部43は、例えば、図9に示すような、勝者ノードとのパターン間距離dの増加に対して更新重みαが減少する関係を表す曲線(以下、距離/重み曲線と称する)にしたがって、ノードに対する更新重み(ノードの更新重み)αを決定する。距離/重み曲線によれば、勝者ノードとのパターン間距離dが近いノードほど、大きな更新重みαが決定され、パターン間距離dが遠いノードほど、小さな更新重みαが決定される。   The weight determination unit 43 follows, for example, a curve (hereinafter referred to as a distance / weight curve) representing a relationship in which the update weight α decreases with respect to an increase in the inter-pattern distance d with the winner node as shown in FIG. The update weight (node update weight) α for the node is determined. According to the distance / weight curve, a node with a shorter inter-pattern distance d with the winner node determines a larger update weight α, and a node with a longer inter-pattern distance d determines a smaller update weight α.

図9の距離/重み曲線において、横軸(左から右方向)は、更新重みαを示しており、縦軸(上から下方向)は、パターン間距離dを示している。   In the distance / weight curve of FIG. 9, the horizontal axis (from left to right) represents the update weight α, and the vertical axis (from top to bottom) represents the inter-pattern distance d.

図9では、縦軸に沿って、パターン記憶SOMを構成する6つのノードN1乃至N6が、各ノードNiと勝者ノードとのパターン間距離dに対応する位置(縦軸の位置)に記載されている。 In FIG. 9, along the vertical axis, the six nodes N 1 to N 6 constituting the pattern storage SOM are located at positions (vertical axis positions) corresponding to the inter-pattern distance d between each node Ni and the winner node. Are listed.

図9では、パターン記憶SOMを構成する6つのノードN1乃至N6が、その順で、勝者ノードとのパターン間距離dが近くなっている。パターン記憶SOMを構成する6つのノードN1乃至N6のうち、勝者ノードとのパターン間距離dが最も近いノード、すなわち、勝者ノードとのパターン間距離dが0のノードであるノードN1は、勝者ノード(となっているノード)である。 In FIG. 9, the inter-pattern distance d between the six nodes N 1 to N 6 constituting the pattern storage SOM and the winner node is closer in that order. Among the six nodes N 1 to N 6 constituting the pattern storage SOM, the node having the shortest pattern distance d to the winner node, that is, the node N 1 having the zero pattern distance d to the winner node is , The winner node.

ここで、パターン記憶SOMが、例えば、図7に示したような2次元的な配置構造を有し、勝者ノードが、例えば、ノードN6であった場合、勝者ノードN6とノードN6との距離は最も(1番)近い0であり、ノードN6と勝者ノードN6とのパターン間距離dも0となる。また、勝者ノードN6と、ノードN3,N5、またはN9それぞれとの距離は2番目に近い1であり、ノードN3,N5、またはN9それぞれと勝者ノードN6とのパターン間距離dも1となる。 Here, if the pattern storage SOM has a two-dimensional arrangement structure as shown in FIG. 7 and the winner node is, for example, the node N 6 , the winner node N 6 and the node N 6 Is the closest (1st) 0, and the inter-pattern distance d between the node N 6 and the winner node N 6 is also 0. The pattern of the winning node N 6, node N 3, N 5 or N 9 distances respectively, is 1 second closest, a node N 3, N 5 or N 9 respectively winning node N 6, The distance d is also 1.

さらに、勝者ノードN6と、ノードN2,N4、またはN8それぞれとの距離は3番目に近い2であり、ノードN2,N4、またはN8それぞれと勝者ノードN6とのパターン間距離dも2となる。また、勝者ノードN6と、ノードN1またはN7それぞれとの距離は最も遠い(4番目に近い)3であり、ノードN1またはN7それぞれと勝者ノードN6とのパターン間距離dも3となる。 Moreover, the pattern of the winning node N 6, node N 2, N 4 or N 8 distance respectively, is 2 close to the third, and the node N 2, N 4 or N 8 respectively winning node N 6, The distance d is also 2. Further, the distance between the winner node N 6 and each of the nodes N 1 or N 7 is the farthest (fourth closest) 3, and the inter-pattern distance d between each of the nodes N 1 or N 7 and the winner node N 6 is also 3

次に、更新重みαとパターン間距離dとの関係を表す、例えば、図9に示したような距離/重み曲線は、例えば、式(1)によって与えられる。   Next, for example, a distance / weight curve as shown in FIG. 9 representing the relationship between the update weight α and the inter-pattern distance d is given by, for example, Expression (1).

α=G×γ(d/△)
・・・(1)
α = G × γ (d / △)
... (1)

ここで、式(1)において、係数Gは、勝者ノードの更新重みを表す定数であり、係数γは、0<γ<1の範囲の定数である。また、係数Δは、いわゆる近傍学習において、新たなデータ(ここでは、外部からの新たな時系列データ)を影響させるノードの範囲を調整する係数(以下、適宜、減衰係数と称する)である。   Here, in Expression (1), the coefficient G is a constant representing the update weight of the winner node, and the coefficient γ is a constant in the range of 0 <γ <1. In addition, the coefficient Δ is a coefficient (hereinafter referred to as an attenuation coefficient as appropriate) for adjusting a node range that affects new data (here, new time-series data from outside) in so-called neighborhood learning.

上述したように、勝者ノードとなっているノードのパターン間距離dとして、0が与えられ、以下、他のノードのパターン間距離dとして、勝者ノードとの距離にしたがって、1,2,・・・が与えられる場合、式(1)において、例えば、G=8,γ=0.5,Δ=1であれば、勝者ノードとなっているノードの更新重みαとして、8(=G)が求められる。以下、勝者ノードとの距離が大になるにしたがって、ノードの更新重みαとしては、4,2,1,・・・と小さくなる値が求められる。   As described above, 0 is given as the inter-pattern distance d of the node that is the winner node, and hereinafter, as the inter-pattern distance d of other nodes, according to the distance to the winner node, 1, 2,. In the equation (1), for example, if G = 8, γ = 0.5, Δ = 1, 8 (= G) is obtained as the update weight α of the node that is the winner node. . In the following, as the distance from the winner node increases, the update weight α of the node is determined to be 4, 2, 1,.

ここで、式(1)における減衰係数Δが大きな値である場合には、パターン間距離dの変化に対する更新重みαの変化は緩やかになり、逆に、減衰係数Δが0に近い値である場合には、パターン間距離dの変化に対する更新重みαの変化は急峻になる。   Here, when the attenuation coefficient Δ in Equation (1) is a large value, the change in the update weight α with respect to the change in the inter-pattern distance d becomes moderate, and conversely, the attenuation coefficient Δ is a value close to 0. In this case, the change in the update weight α with respect to the change in the inter-pattern distance d becomes steep.

したがって、減衰係数Δを、例えば、上述した1から少しずつ0に近づけていくように調整すると、パターン間距離dの変化に対する更新重みαの変化は急峻になっていき、更新重みαは、パターン間距離dが大きくなるにしたがって、より小さい値となる。そして、減衰係数Δが0に近くなると、勝者ノード(となっているノード)以外のノードの更新重みαは、ほとんど0となる。   Therefore, when the attenuation coefficient Δ is adjusted to gradually approach 0 from 1 as described above, for example, the change in the update weight α with respect to the change in the inter-pattern distance d becomes steep, and the update weight α is As the distance d increases, the value decreases. When the attenuation coefficient Δ is close to 0, the update weight α of the nodes other than the winner node (being a node) is almost 0.

減衰係数△は、例えば、パターン記憶SOMの更新(学習)の開始時は大きな値にし、時間の経過とともに、すなわち、更新の回数が増加するにしたがって小さな値にくなるようにすることができる。この場合、パターン記憶SOMの更新の開始時は、パターン間距離dの変化に対する更新重みαの変化が緩やかな距離/重み曲線にしたがって、パターン記憶SOMの各ノードの更新重みαが決定され、更新(学習)が進む(進行する)につれ、パターン間距離dの変化に対する更新重みαの変化が急峻になっていく距離/重み曲線にしたがって、パターン記憶SOMの各ノードの更新重みαが決定される。   For example, the attenuation coefficient Δ can be set to a large value at the start of updating (learning) of the pattern storage SOM, and can be set to a small value as time passes, that is, as the number of updates increases. In this case, at the start of the update of the pattern storage SOM, the update weight α of each node of the pattern storage SOM is determined according to a distance / weight curve in which the change of the update weight α with respect to the change of the inter-pattern distance d is gentle. As (learning) progresses (advances), the update weight α of each node in the pattern storage SOM is determined according to the distance / weight curve in which the change of the update weight α with respect to the change in the inter-pattern distance d becomes steep. .

すなわち、この場合、勝者ノード(が有するパターン記憶モデル21)の更新は、学習(更新)の進行に拘わらず、新たな時系列データの影響を強く受けるように行われる。一方、勝者ノード以外のノード(が有するパターン記憶モデル21)の更新は、学習の開始時は、比較的広い範囲のノードに亘って(勝者ノードとのパターン間距離dが小さいノードから、ある程度大きいノードまで)、新たな時系列データの影響を受けるように行われる。そして、学習が進行するにつれ、勝者ノード以外のノードの更新は、徐々に狭い範囲のノードについてのみ、新たな時系列データの影響を受けるように行われる。   That is, in this case, the update of the winner node (the pattern storage model 21 that the winner node has) is performed so as to be strongly influenced by the new time-series data regardless of the progress of learning (update). On the other hand, the update of the nodes other than the winner node (the pattern storage model 21 possessed) is somewhat large at the start of learning over a relatively wide range of nodes (from a node having a small inter-pattern distance d to the winner node) Up to the node), so that it is affected by the new time-series data. Then, as learning progresses, the update of nodes other than the winner node is performed so as to be influenced by new time-series data only for nodes in a narrow range gradually.

図8の重み決定部43は、以上のようにして、パターン記憶SOMの各ノードの更新重みαを決定し、学習データ更新部44では、各ノードが有する学習データ記憶部22に記憶される学習データが、そのノードの更新重みαに基づいて更新される。   The weight determination unit 43 in FIG. 8 determines the update weight α of each node of the pattern storage SOM as described above, and the learning data update unit 44 stores the learning data stored in the learning data storage unit 22 of each node. Data is updated based on the update weight α of the node.

次に、ノードが有する学習データ記憶部22に記憶される学習データを更新する更新方法について、図10を参照して説明する。   Next, an update method for updating the learning data stored in the learning data storage unit 22 included in the node will be described with reference to FIG.

いま、あるノードNiが有する学習データ記憶部22には、学習データが既に記憶されており、ノードNiのパターン記憶モデル21は、学習データ記憶部22に既に記憶されている学習データを用いた学習が済んでいることとする。 Now, the learning data storage unit 22 included in a node N i, use learning data has already been stored, the pattern storage model 21 of the node N i is already learning data stored in the learning data storage unit 22 Suppose you have already learned.

学習データ更新部44は、例えば、ノードNiが有する学習データ記憶部22に既に記憶されている学習データ(以下、適宜、旧学習データと称する)と、外部からの新たな時系列データとを、重み決定部43からのノードNiの更新重みαにしたがって混合し、その混合結果を、新たな学習データとして、学習データ記憶部22に記憶させることで、その学習データ記憶部22の記憶内容を、新たな学習データに更新する。 Learning data update unit 44, for example, the node N i is the learning data that has already been stored in the learning data storage unit 22 having (hereinafter, appropriately referred to as old learning data) and the new time series data from the outside , they were mixed in accordance with the updating weight α of the node N i from the weight determiner 43, the mixing result as a new learning data, by storing in the learning data storage unit 22, stored contents of the learning data storage unit 22 Is updated to new learning data.

すなわち、学習データ更新部44は、旧学習データに対して、新たな時系列データを追加することで、旧学習データと新たな時系列データとを混合した新たな学習データとするが、旧学習データに対する新たな時系列データの追加(旧学習データと新たな時系列データとの混合)は、ノードNiの更新重みαに対応する比にしたがって行われる。 In other words, the learning data update unit 44 adds new time series data to the old learning data to obtain new learning data in which the old learning data and the new time series data are mixed. additional time series data new to the data (mixed with the old training data and the new time series data) is performed according to the ratio corresponding to the updating weight α of the node N i.

ここで、ノードNiのパターン記憶モデル21(図6)の更新は、新たな学習データを用いた学習によって行われるため、新たな時系列データと旧学習データとを混合する比率を変えることによって、更新によりパターン記憶モデル21が受ける新たな時系列データの影響の度合い(強さ)を変えることができる。 Here, the node updates the N i of the pattern storage model 21 (FIG. 6) is to be done by a learning using a new learning data, by changing the ratio of mixing the new time series data and the old learning data The degree (intensity) of the influence of new time series data received by the pattern storage model 21 by the update can be changed.

ノードNiにおいて、新たな時系列データと旧学習データとを混合する比率としては、ノードNiの更新重みαに対応した値が採用され、例えば、更新重みαが大であるほど、新たな時系列データの比率が大となる(旧学習データの比率が小となる)ような値とされる。 In the node N i, as a percentage of mixing the new time series data and the old learning data, a node value corresponding to the updating weight α of N i is employed, for example, as the updating weight α is large, the new The value is such that the ratio of the time series data is large (the ratio of the old learning data is small).

具体的には、ノードNiの学習データ記憶部22には、一定の数の時系列データ(学習データ)が記憶されることとし、その一定の数をHとする。この場合、ノードNiのパターン記憶モデル21の学習は、常に、H個の学習データ(時系列データ)を用いて行われる。 Specifically, in the learning data storage unit 22 of the node N i is a possible time-series data of a certain number (learning data) is stored, the number of its constant and H. In this case, the learning pattern storage model 21 of the node N i is always carried out using the H-number of learning data (time-series data).

学習データ記憶部22に、常に、一定の数Hの学習データが記憶される場合、新たな時系列データと旧学習データとの混合によって得られる新たな学習データの個数は、H個である必要があり、そのような、新たな時系列データと旧学習データとの混合を、ノードNiの更新重みαに対応した比率で行う方法としては、新たな時系列データと旧学習データとを、比率α:H-αで混合する方法がある。 When a constant number H of learning data is always stored in the learning data storage unit 22, the number of new learning data obtained by mixing new time-series data and old learning data needs to be H. There is such a mixture of the new time series data and the old learning data, as a method of performing in a ratio corresponding to the updating weight α of the node N i, and a new time series data and the old learning data, There is a method of mixing at a ratio α: H-α.

新たな時系列データと旧学習データとを、比率α:H-αで混合する具体的な方法としては、図10に示すように、H個の旧学習データのうちのH-α個の旧学習データに対して、α個の新たな時系列データを追加することにより、H個の新たな学習データを得る方法がある。   As a specific method of mixing new time-series data and old learning data at a ratio α: H-α, as shown in FIG. 10, H-α old out of H old learning data are used. There is a method of obtaining H new learning data by adding α new time-series data to the learning data.

この場合、学習データ記憶部22に記憶される時系列データの数Hが、例えば、100であり、ノードNiの更新重みαが、例えば、8であれば、学習データ記憶部22の記憶内容は、100個の旧学習データのうちの92個の旧学習データに対して、8個の新たな時系列データを追加することによって得られる100個の新たな学習データに更新される。 In this case, the number H of the time series data stored in the learning data storage unit 22, for example, a 100, node N i updating weight α of, for example, if 8, the stored contents of the learning data storage unit 22 Is updated to 100 new learning data obtained by adding 8 new time-series data to 92 old learning data out of 100 old learning data.

H個の旧学習データのうちのH-α個の旧学習データに対する、α個の新たな時系列データの追加は、α個の新たな時系列データが得られた後に行う方法があるが、この方法では、1個の新たな時系列データが得られる毎に、学習データ記憶部22の記憶内容を更新することができない。   There is a method of adding α new time series data to H-α old learning data of H old learning data after α new time series data is obtained, In this method, the contents stored in the learning data storage unit 22 cannot be updated every time one new time series data is obtained.

そこで、学習データ記憶部22の記憶内容の更新は、1個の新たな時系列データが得られる毎に、その新たな時系列データをα個だけ、H-α個の旧学習データに追加することにより行うことができる。すなわち、1個の新たな時系列データをコピーしてα個の新たな時系列データとし、そのα個の新たな時系列データを、H個の旧学習データから古い順にα個を除外して残ったH-α個の旧学習データに追加することにより、学習データ記憶部22の記憶内容の更新を行う。これにより、1個の新たな時系列データが得られる毎に、学習データ記憶部22の記憶内容を更新することができる。   Therefore, the update of the stored contents of the learning data storage unit 22 adds only α new time series data to the H-α old learning data every time one new time series data is obtained. Can be done. That is, one new time-series data is copied to form α new time-series data, and the α new time-series data is excluded from the H old learning data in the order of oldness. By adding to the remaining H-α old learning data, the storage content of the learning data storage unit 22 is updated. Thereby, whenever one new time series data is obtained, the memory content of the learning data memory | storage part 22 can be updated.

以上のように、学習データ記憶部22の記憶内容の更新を行うことにより、学習データ記憶部22には、常に、新しい順のH個の時系列データだけが、学習データとして保持されることになり、その学習データに占める新たな時系列データの割合(比率)は、更新重みαによって調整されることになる。   As described above, by updating the storage contents of the learning data storage unit 22, only the H time-series data in the new order are always held as learning data in the learning data storage unit 22. Thus, the ratio (ratio) of new time-series data in the learning data is adjusted by the update weight α.

次に、図8の学習装置によって行われる、パターン記憶SOMの学習を行う学習処理について、図11のフローチャートを参照して説明する。   Next, learning processing for learning the pattern storage SOM performed by the learning device in FIG. 8 will be described with reference to the flowchart in FIG. 11.

ステップS1において、学習部4(図10)の学習装置は、パターン記憶SOMのパラメータ、すなわち、パターン記憶SOMの各ノードが有するパターン記憶モデル21(図6)としての、例えばHMMのパラメータを初期化する初期化処理を行う。この初期化処理により、HMMのパラメータ(状態遷移確率と出力確率密度関数)として、適切な初期値が与えられる。なお、初期化処理において、HMMのパラメータとして、どのように初期値を与えるかは、特に限定されるものではない。   In step S1, the learning device of the learning unit 4 (FIG. 10) initializes the parameters of the pattern storage SOM, that is, the parameters of the HMM, for example, as the pattern storage model 21 (FIG. 6) possessed by each node of the pattern storage SOM. Perform initialization processing. By this initialization process, appropriate initial values are given as parameters (state transition probability and output probability density function) of the HMM. In the initialization process, how the initial value is given as the HMM parameter is not particularly limited.

ステップS1の後、処理は、ステップS2に進み、外部から、例えば、1の音声区間の音声データ(から抽出された特徴パラメータ)等の新たな時系列データが、図8の学習装置に入力されると、処理は、ステップS3乃至S7に順次進み、学習装置は、その新たな時系列データを用いて、パターン記憶SOMを、自己組織的に更新する、自己組織的な学習を行う。   After step S1, the process proceeds to step S2, and new time-series data such as voice data of one voice section (feature parameters extracted from) is input from the outside to the learning apparatus in FIG. Then, the processing proceeds in sequence to steps S3 to S7, and the learning device performs self-organized learning that uses the new time-series data to update the pattern storage SOM in a self-organized manner.

すなわち、ステップS3では、スコア計算部41が、パターン記憶SOMを構成する各ノードについて、そのノードが、外部からの新たな時系列データに適合する度合いを表すスコアを求める。   In other words, in step S3, the score calculation unit 41 obtains a score representing the degree to which each node constituting the pattern storage SOM matches the new time-series data from the outside.

具体的には、ノードが有するパターン記憶モデル21(図6)が、例えばHMMである場合には、そのHMMから、新たな時系列データが観測される対数尤度が、スコアとして求められる。ここで、対数尤度の計算方法としては、例えば、ビタビアルゴリズム(Viterbi algorithm)を採用することができる。   Specifically, when the pattern storage model 21 (FIG. 6) possessed by the node is, for example, an HMM, a logarithmic likelihood at which new time series data is observed is obtained from the HMM as a score. Here, as a log likelihood calculation method, for example, a Viterbi algorithm can be employed.

スコア計算部41は、パターン記憶SOMが有するすべてのノードについて、新たな時系列データに対するスコアを計算すると、その各ノードについてのスコアを、勝者ノード決定部42に供給して、処理は、ステップS3からステップS4に進む。   When the score calculation unit 41 calculates the score for the new time-series data for all the nodes included in the pattern storage SOM, the score calculation unit 41 supplies the score for each node to the winner node determination unit 42, and the processing is performed in step S3. To step S4.

ステップS4では、勝者ノード決定部42は、パターン記憶SOMを構成するノードのうちの、スコア計算部41からのスコアが最も高いノードを求め、そのノードを勝者ノードに決定する。そして、勝者ノード決定部42は、勝者ノードを表す情報としてのノードラベルを、重み決定部43に供給し、処理は、ステップS4からステップS5に進む。   In step S4, the winner node determination unit 42 obtains a node having the highest score from the score calculation unit 41 among the nodes constituting the pattern storage SOM, and determines that node as a winner node. Then, the winner node determination unit 42 supplies a node label as information representing the winner node to the weight determination unit 43, and the process proceeds from step S4 to step S5.

ステップS5では、重み決定部43は、勝者ノード決定部42からのノードラベルが表す勝者ノードを、いわば基準として、パターン記憶SOMを構成する各ノードの更新重みを決定する。   In step S5, the weight determination unit 43 determines the update weight of each node constituting the pattern storage SOM using the winner node represented by the node label from the winner node determination unit 42 as a reference.

すなわち、重み決定部43は、図9で説明したように、パターン記憶SOMの更新(学習)が進むにつれ、パターン間距離dの変化に対する更新重みαの変化が急峻になっていく、式(1)で表される距離/重み曲線にしたがって、パターン記憶SOMの各ノードの更新重みαを決定し、学習データ更新部44に供給して、処理は、ステップS5からステップS6に進む。   That is, as described with reference to FIG. 9, the weight determination unit 43 determines that the change in the update weight α with respect to the change in the inter-pattern distance d becomes steeper as the update (learning) of the pattern storage SOM progresses. The update weight α of each node in the pattern storage SOM is determined according to the distance / weight curve represented by () and supplied to the learning data update unit 44, and the process proceeds from step S5 to step S6.

ステップS6では、学習データ更新部44は、ステップS6において、パターン記憶SOMの各ノードが有する学習データ記憶部22(図6)に記憶された学習データを、重み決定部43からの、対応するノードの更新重みにしたがって更新する。すなわち、学習データ更新部44は、図10で説明したように、外部からの新たな時系列データと、ノードの学習データ記憶部22に記憶されている旧学習データとを、そのノードの更新重みαに対応した比率α:H-αで混合することにより、H個の新たな学習データを得て、そのH個の新たな学習データによって、学習データ記憶部22の記憶内容を更新する。   In step S6, the learning data updating unit 44 uses the learning data stored in the learning data storage unit 22 (FIG. 6) included in each node of the pattern storage SOM in step S6 as a corresponding node from the weight determination unit 43. Update according to the update weight. That is, as described with reference to FIG. 10, the learning data updating unit 44 uses the new time-series data from the outside and the old learning data stored in the learning data storage unit 22 of the node as the update weight of the node. By mixing at a ratio α: H−α corresponding to α, H new learning data are obtained, and the stored contents of the learning data storage unit 22 are updated with the H new learning data.

学習データ更新部44は、パターン記憶SOMのノードすべての学習データ記憶部22(図6)の記憶内容を更新すると、その更新が終了した旨の終了通知を、モデル学習部45に供給し、処理は、ステップS6からステップS7に進む。   When the learning data update unit 44 updates the stored contents of the learning data storage unit 22 (FIG. 6) of all the nodes of the pattern storage SOM, the learning data update unit 44 supplies the model learning unit 45 with an end notification indicating that the update has been completed. Advances from step S6 to step S7.

ステップS7では、モデル学習部45は、学習データ更新部44からの終了通知に応じて、パターン記憶SOMのパラメータを更新する。   In step S <b> 7, the model learning unit 45 updates the parameters of the pattern storage SOM in response to the end notification from the learning data update unit 44.

すなわち、モデル学習部45は、パターン記憶SOMの各ノードについて、学習データ更新部44による更新後の学習データ記憶部22に記憶された新たな学習データを用いて、パターン記憶モデル21の学習を行うことにより、そのパターン記憶モデル21を更新する。   That is, the model learning unit 45 learns the pattern storage model 21 for each node of the pattern storage SOM using new learning data stored in the learning data storage unit 22 updated by the learning data update unit 44. As a result, the pattern storage model 21 is updated.

具体的には、ノードが有するパターン記憶モデル21が、例えばHMMである場合には、そのノードが有する学習データ記憶部22に記憶された新たな学習データを用いて、HMMの学習が行われる。この学習では、例えば、HMMの現在の(旧学習データを用いた学習により得られた)状態遷移確率と出力確率密度関数を初期値とし、新たな学習データを用いて、Baum-Welch法により、新たな状態遷移確率と出力確率密度関数がそれぞれ求められる。そして、その新たな状態遷移確率と出力確率密度関数によって、HMMの状態遷移確率と出力確率密度関数がそれぞれ更新される。   Specifically, when the pattern storage model 21 included in a node is, for example, an HMM, HMM learning is performed using new learning data stored in the learning data storage unit 22 included in the node. In this learning, for example, the current state transition probability (obtained by learning using old learning data) and the output probability density function of the HMM are set as initial values, and new learning data is used, and Baum-Welch method is used. New state transition probabilities and output probability density functions are obtained. Then, the state transition probability and output probability density function of the HMM are updated by the new state transition probability and output probability density function, respectively.

その後、処理は、ステップS7からステップS2に戻り、次の新たな時系列データが、外部から学習装置に入力されることを待って、以下、同様の処理が繰り返される。   Thereafter, the processing returns from step S7 to step S2, waits for the next new time-series data to be input from the outside to the learning device, and thereafter the same processing is repeated.

次に、図12は、パターン記憶SOMを用いて、認識生成処理を行う認識生成装置の構成例を示している。   Next, FIG. 12 shows a configuration example of a recognition generation apparatus that performs recognition generation processing using a pattern storage SOM.

図12において、認識生成装置は、スコア計算部51、勝者ノード決定部52、及び再構成部53から構成され、スコア計算部51及び勝者ノード決定部52が、データを認識する認識処理を行い、再構成部53が、その認識処理によって認識されたデータを再構成したデータ(再構成データ)を取得(生成)する生成処理を行う。   In FIG. 12, the recognition generation device includes a score calculation unit 51, a winner node determination unit 52, and a reconstruction unit 53. The score calculation unit 51 and the winner node determination unit 52 perform recognition processing for recognizing data. The reconstruction unit 53 performs a generation process of acquiring (generating) data (reconstruction data) obtained by reconstructing the data recognized by the recognition process.

すなわち、認識生成装置には、認識の対象となるデータとしての、例えば、時系列データが外部から入力されて、当該時系列データは、スコア計算部51に供給される。   That is, for example, time series data as data to be recognized is input from the outside to the recognition generation apparatus, and the time series data is supplied to the score calculation unit 51.

スコア計算部51は、学習装置(図8)のスコア計算部41と同様に、パターン記憶SOMを構成する各ノードについて、そのノードが、外部からの時系列データ(の観測値)に適合する度合いを表すスコアを求め、勝者ノード決定部52に供給する。   The score calculation unit 51, like the score calculation unit 41 of the learning device (FIG. 8), for each node constituting the pattern storage SOM, the degree to which the node matches the external time-series data (observed values thereof) Is obtained and supplied to the winner node determination unit 52.

勝者ノード決定部52は、学習装置(図8)の勝者ノード決定部42と同様に、パターン記憶SOMにおいて、外部からの時系列データに最も適合するノードを求め、そのノードを、勝者ノードとして決定する。   Similarly to the winner node determination unit 42 of the learning device (FIG. 8), the winner node determination unit 52 obtains a node that best matches the external time-series data in the pattern storage SOM, and determines that node as the winner node. To do.

すなわち、勝者ノード決定部52は、パターン記憶SOMを構成するノードのうちの、スコア計算部51からのスコアが最も高いノードを勝者ノードとして決定する。そして、勝者ノード決定部52は、勝者ノードを表す情報としてのノードラベルを、外部からの時系列データの認識結果として、再構成部53に供給する。   That is, the winner node determination unit 52 determines the node having the highest score from the score calculation unit 51 among the nodes constituting the pattern storage SOM as the winner node. Then, the winner node determination unit 52 supplies a node label as information representing the winner node to the reconstruction unit 53 as a recognition result of time-series data from the outside.

再構成部53は、勝者ノード決定部52からのノードラベルに基づき、外部からの時系列データを再構成して出力する。   Based on the node label from the winner node determination unit 52, the reconfiguration unit 53 reconfigures and outputs external time-series data.

すなわち、再構成部53は、勝者ノード決定部52からのノードラベルが表すノード(勝者ノード)を、外部からの時系列データを再構成した再構成データを生成するのに用いる生成ノードとして、その生成ノードが有するパターン記憶モデル21(図6)に基づいて、再構成データを取得(生成)して出力する。   That is, the reconfiguration unit 53 uses the node (winner node) represented by the node label from the winner node determination unit 52 as a generation node used to generate reconfiguration data obtained by reconstructing time-series data from the outside. Based on the pattern storage model 21 (FIG. 6) of the generation node, the reconstruction data is acquired (generated) and output.

具体的には、パターン記憶モデル21が、例えば、HMMである場合には、再構成部53は、例えば、生成ノードが有するパターン記憶モデル21としてのHMMにおいて時系列データが観測される尤度を表す出力確率を最大にする時系列データを生成する。   Specifically, when the pattern storage model 21 is, for example, an HMM, the reconfiguration unit 53 indicates, for example, the likelihood that the time series data is observed in the HMM as the pattern storage model 21 included in the generation node. Generate time-series data that maximizes the output probability to be represented.

なお、HMMを用いて時系列データを生成する方法については、例えば、K. Tokuda, T. Yoshimura, T. Masuko, T. Kobayashi, T. Kitamura, "SPEECH PARAMETER GENERATION ALGORITHMS FOR HMM-BASED SPEECH SYNTHESIS", Proc. of ICASSP 2000, vol.3, pp.1315-1318, June 2000や、稲邑哲也、谷江博昭、中村仁彦、「連続分布型隠れマルコフモデルを用いた時系列データのキーフレーム抽出とその復元」、日本機械学会ロボティクス・メカトロニクス講演会2003講演論文集、2P1-3F-C6,2003等に記載されている。   For example, K. Tokuda, T. Yoshimura, T. Masuko, T. Kobayashi, T. Kitamura, "SPEECH PARAMETER GENERATION ALGORITHMS FOR HMM-BASED SPEECH SYNTHESIS" , Proc. Of ICASSP 2000, vol.3, pp.1315-1318, June 2000, Tetsuya Inagi, Hiroaki Tanie, Hitoshi Nakamura, “Keyframe Extraction of Time Series Data Using Continuously Distributed Hidden Markov Model and Its Restoration ", JSME Robotics and Mechatronics Lecture 2003 Proceedings, 2P1-3F-C6, 2003, etc.

ここで、例えば、時系列データが音声データ(から抽出された特徴パラメータ)であり、再構成部53において、生成ノードが有するパターン記憶モデル21としてのHMMを用いて、時系列データが観測される尤度を表す出力確率を最大にする時系列データとしての音声データを生成する場合、音声データに、波形が不連続になる歪み(以下、適宜、生成なまりと称する)が生じることがある。   Here, for example, the time series data is voice data (feature parameters extracted from), and the reconstruction unit 53 observes the time series data using the HMM as the pattern storage model 21 of the generation node. When generating voice data as time-series data that maximizes the output probability representing the likelihood, distortion in which the waveform becomes discontinuous (hereinafter, referred to as generation round as appropriate) may occur in the voice data.

そこで、再構成部53では、生成ノードが有する学習データ記憶部22に記憶された学習データとしての時系列データをランダムに選択することにより取得し、その時系列データを再構成データとして出力することができる。   Therefore, the reconfiguration unit 53 can acquire time series data as learning data stored in the learning data storage unit 22 of the generation node by randomly selecting the time series data and outputting the time series data as reconfiguration data. it can.

生成ノードが有する学習データ記憶部22に記憶された学習データとしての時系列データからランダムに選択される時系列データは、生成ノードが有する学習データ記憶部22に記憶された学習データの確率分布に従うので、期待値の観点からは、その生成ノードが有するパターン記憶モデル21としてのHMMを用いて生成された時系列データとみなすことができ、さらに、上述の生成なまりを有しない。   The time series data selected at random from the time series data as the learning data stored in the learning data storage unit 22 included in the generation node follows the probability distribution of the learning data stored in the learning data storage unit 22 included in the generation node. Therefore, from the viewpoint of the expected value, it can be regarded as time-series data generated using the HMM as the pattern storage model 21 possessed by the generation node, and does not have the above-described generation round.

次に、図12の認識生成装置による、時系列データを認識する認識処理(以下、認識生成処理と称する)について、図13のフローチャートを参照して説明する。   Next, recognition processing (hereinafter referred to as recognition generation processing) for recognizing time-series data by the recognition generation apparatus in FIG. 12 will be described with reference to the flowchart in FIG.

ステップS21において、外部から、例えば、1の音声区間の音声データ(から抽出された特徴パラメータ)等の時系列データが、図12の認識生成装置に入力されると、処理は、ステップS22,S23に順次進み、外部からの時系列データを認識する認識処理が行われる。   In step S21, for example, when time series data such as voice data of one voice section (feature parameters extracted from) is input from the outside to the recognition generation device in FIG. 12, the processing is performed in steps S22 and S23. Then, a recognition process for recognizing time-series data from the outside is performed.

すなわち、ステップS22において、スコア計算部51が、パターン記憶SOMを構成する各ノードが、外部からの時系列データに適合する度合いを表すスコアを求め、勝者ノード決定部52に供給して、処理は、ステップS23に進む。   That is, in step S22, the score calculation unit 51 obtains a score representing the degree to which each node constituting the pattern storage SOM matches the external time-series data, and supplies the score to the winner node determination unit 52. The process proceeds to step S23.

ステップS23では、勝者ノード決定部52は、パターン記憶SOMを構成するノードのうちの、スコア計算部51からのスコアが最も高いノードを求め、そのノードを勝者ノードとして決定する。そして、勝者ノード決定部52は、勝者ノードを表す情報としてのノードラベルを、外部からの時系列データの認識結果として、再構成部53に供給する。   In step S23, the winner node determination unit 52 obtains the node having the highest score from the score calculation unit 51 among the nodes constituting the pattern storage SOM, and determines that node as the winner node. Then, the winner node determination unit 52 supplies a node label as information representing the winner node to the reconstruction unit 53 as a recognition result of time-series data from the outside.

ステップS23の後、処理は、ステップS24に進み、再構成部53は、ステップS23で得られた認識結果に基づいて、外部からの時系列データの再構成を行い、その結果得られた再構成データを出力する。   After step S23, the process proceeds to step S24, and the reconstruction unit 53 reconstructs time-series data from the outside based on the recognition result obtained in step S23, and the reconstruction obtained as a result. Output data.

すなわち、ステップS24では、再構成部53は、勝者ノード決定部52からの認識結果としてのノードラベルが表すノードを、生成ノードとして、その生成ノードを用いて、その生成ノードが獲得しているパターンの時系列データを、上述したようにして取得して、外部からの時系列データを再構成した再構成データとして出力する。以上で、認識生成処理は終了される。   That is, in step S24, the reconfiguration unit 53 uses the generation node as a generation node for the node represented by the node label as the recognition result from the winner node determination unit 52, and the generation node acquires the pattern. Is acquired as described above, and is output as reconstructed data obtained by reconstructing the time-series data from the outside. This completes the recognition generation process.

なお、以上のような認識生成処理において取得される再構成データによれば、例えば、認識生成装置それ自身が、外部からの時系列データを、どのように認識しているのかを確認することができる。   In addition, according to the reconstructed data acquired in the above recognition generation process, for example, the recognition generation apparatus itself can confirm how time-series data from the outside is recognized. it can.

次に、図14は、本体モデル及び分割誤差モデルとして、パターン記憶SOMが採用されている場合の、図4の本体モデル記憶部122と分割誤差モデル記憶部124の記憶内容を、模式的に示している。   Next, FIG. 14 schematically shows the storage contents of the main body model storage unit 122 and the divided error model storage unit 124 of FIG. 4 when the pattern storage SOM is adopted as the main body model and the division error model. ing.

図14において、本体モデル記憶部122には、本体モデルとしてのパターン記憶SOMが記憶されており、分割誤差モデル記憶部124には、分割誤差モデルとしてのパターン記憶SOMが記憶されている。   In FIG. 14, the main body model storage unit 122 stores a pattern storage SOM as a main body model, and the division error model storage unit 124 stores a pattern storage SOM as a division error model.

ここで、以下、適宜、本体モデルとしてのパターン記憶SOMを、本体SOMとも称し、分割誤差モデルとしてのパターン記憶SOMを、分割誤差SOMとも称する。   Here, hereinafter, the pattern storage SOM as the main body model is also referred to as a main body SOM, and the pattern storage SOM as the division error model is also referred to as a division error SOM.

図15は、図14の本体SOM及び分割誤差SOMに対して入出力することができるデータを説明する図である。   FIG. 15 is a diagram for explaining data that can be input and output with respect to the main body SOM and the division error SOM in FIG. 14.

本体SOMに対しては、学習の対象となるデータD、及び認識の対象となるデータDが入力(供給)される。また、本体SOMからは、そこに入力されるデータDに対して、そのデータDを再構成した再構成データDRを出力することができる。 Data D to be learned and data D to be recognized are inputted (supplied) to the main body SOM. In addition, from the main body SOM, to the data D to be input thereto, it is possible to output the reconstructed data D R reconstructed the data D.

分割誤差SOMに対しては、本体SOMに入力されるデータDと、そのデータDに対して本体SOMから出力される再構成データDRとの誤差である誤差データ△Dが所定の次元毎あるいは時間毎に分割された分割誤差データ△Di(i=1,・・・,n)が入力される。また、分割誤差SOMからは、そこに入力される分割誤差データ△Diに対して、その分割誤差データ△Diを再構成した分割再構成誤差データ△DRi(i=1,・・・,n)を出力することができる。 For division error SOM, and the data D to be input to the body SOM, error data △ D is predetermined dimension or a error between reconstructed data D R to be outputted from the main SOM for the data D Division error data ΔD i (i = 1,..., N) divided every time is input. Further, from the division error SOM, the division reconstruction error data ΔD Ri (i = 1,..., Reconstructed from the division error data ΔDi for the division error data ΔD i input thereto. n) can be output.

次に、図14及び図15に示されたように、本体モデル及び分割誤差モデルとして、パターン記憶SOMが採用されている場合の、図4の本体学習モジュール101、誤差学習モジュール102、及び制御部103による学習処理について、図16のフローチャートを参照して説明する。   Next, as shown in FIGS. 14 and 15, the main body learning module 101, the error learning module 102, and the control unit in FIG. 4 when the pattern storage SOM is adopted as the main body model and the division error model. The learning process by 103 will be described with reference to the flowchart of FIG.

この学習処理では、学習処理の対象となるデータDが、外部から、演算部121と誤差算出部125に供給される。   In this learning process, data D to be subjected to the learning process is supplied from the outside to the calculation unit 121 and the error calculation unit 125.

そして、学習処理では、ステップS131において、演算部121が、そこに供給されるデータDの学習、すなわち、データDを用いて、本体モデル記憶部122に記憶された本体SOMを自己組織的に更新する、本体SOMの自己組織的な学習を、図11のステップS3乃至S7で説明したように行う。   In the learning process, in step S131, the calculation unit 121 learns the data D supplied thereto, that is, uses the data D to update the main body SOM stored in the main body model storage unit 122 in a self-organizing manner. The self-organized learning of the main body SOM is performed as described in steps S3 to S7 in FIG.

ステップS132では、演算部121が、本体モデル記憶部122に記憶された本体SOMを構成するノードの中から、データDに対する勝者ノードを決定する。ここでは、本体SOMを構成するノードのうちの、データDに対するスコアが最も高いノードが、データDに対する勝者ノードに決定される。   In step S <b> 132, the arithmetic unit 121 determines a winner node for the data D from the nodes that constitute the main body SOM stored in the main body model storage unit 122. Here, the node having the highest score for the data D among the nodes constituting the main body SOM is determined as the winner node for the data D.

なお、データDに対する勝者ノードは、ステップS131の自己組織的な学習で決定されるので、ステップS132では、その勝者ノードをそのまま採用することができる。ただし、ステップS132では、ステップS131とは別に、本体SOMを構成する各ノードについて、データDに対するスコアを求め、そのスコアの最も高いノードを、データDに対する勝者ノードに決定することができる。   Since the winner node for data D is determined by self-organized learning in step S131, the winner node can be employed as it is in step S132. However, in step S132, separately from step S131, for each node constituting the main body SOM, a score for data D can be obtained, and the node with the highest score can be determined as the winner node for data D.

ステップS133において、演算部121は、ステップS132で決定された勝者ノードを用いて、データDを再構成することにより再構成データDRを生成する生成処理を、図13のステップS24で説明したように行う。そして、演算部121は、生成された再構成データDRを、誤差算出部125及び加算部128に供給する。 In step S133, the arithmetic unit 121 uses the winning node determined in the step S132, as the generation process of generating the reconstruction data D R by reconstructing the data D, described in step S24 in FIG. 13 To do. Then, the arithmetic unit 121, the reconstructed data D R generated, and supplies the error calculating unit 125 and the addition unit 128.

ステップS134において、誤差算出部125は、外部からのデータDと、演算部121からの再構成データDRとの差分である誤差データ△Dを算出し、データ分割部126に供給する。データ分割部126は、n次元ベクトルあるいは時系列データである誤差データ△Dを、予め決定された所定の次元毎あるいは所定の時間毎に分割し、その結果得られる分割誤差データ△Di(i=1,・・・,n)を演算部123及び補正データ生成部127に供給する。 In step S134, the error calculation unit 125 calculates the data D from the outside, the error data △ D is the difference between the reconstructed data D R from the arithmetic unit 121, to the data dividing unit 126. The data dividing unit 126 divides the error data ΔD, which is an n-dimensional vector or time series data, for each predetermined dimension or every predetermined time, and obtains the divided error data ΔD i (i = 1,..., N) are supplied to the calculation unit 123 and the correction data generation unit 127.

ステップS135において、演算部123は、そこに供給される分割誤差データ△Diの学習、すなわち、分割誤差データ△Diを用いて、分割誤差モデル記憶部124に記憶された分割誤差SOMを自己組織的に更新する、分割誤差SOMの自己組織的な学習を、図11のステップS3乃至S7で説明したように行う。以上で、学習処理は終了される。 In step S135, the arithmetic unit 123 learns the division error data ΔD i supplied thereto, that is, uses the division error data ΔD i, and calculates the division error SOM stored in the division error model storage unit 124 by itself. Self-organized learning of the division error SOM that is systematically updated is performed as described in steps S3 to S7 in FIG. This completes the learning process.

以上のように、図16の学習処理では、本体SOMにおいて、本来学習すべきデータDの学習が行われ、分割誤差SOMにおいて、データDと、そのデータDを本体SOMが再構成することにより得られる再構成データDRとの誤差である誤差データ△Dを分割した分割誤差データ△Diの学習が行われる。 As described above, in the learning process of FIG. 16, the main body SOM learns the data D to be originally learned, and the division error SOM obtains the data D and the main body SOM reconstructing the data D. The division error data ΔD i obtained by dividing the error data ΔD, which is an error with the reconstructed data D R to be generated, is learned.

なお、図16の学習処理は、例えば、学習処理の対象となるデータDが入力される度に行われる。   Note that the learning process in FIG. 16 is performed, for example, every time data D to be subjected to the learning process is input.

次に、図14及び図15に示したように、本体モデル及び分割誤差モデルとして、パターン記憶SOMが採用されている場合の、図4の本体学習モジュール101、誤差学習モジュール102、及び制御部103による認識生成処理について、図17のフローチャートを参照して説明する。   Next, as shown in FIGS. 14 and 15, the main body learning module 101, the error learning module 102, and the control unit 103 in FIG. 4 when the pattern storage SOM is adopted as the main body model and the division error model. The recognition generation process by means of will be described with reference to the flowchart of FIG.

この認識生成処理では、認識の対象となるデータDが、外部から、演算部121と誤差算出部125に供給される。   In this recognition generation processing, data D to be recognized is supplied from the outside to the calculation unit 121 and the error calculation unit 125.

ステップS141において、演算部121が、そこに供給されるデータDを、図16の学習処理の学習結果に基づいて認識する認識処理を行う。   In step S141, the calculation unit 121 performs recognition processing for recognizing the data D supplied thereto based on the learning result of the learning processing in FIG.

すなわち、演算部121は、本体モデル記憶部122に記憶された本体SOMを構成するノードの中から、データDに対する勝者ノードを決定し、その勝者ノード(を表すノードラベル)を、データDの認識結果とする。   That is, the operation unit 121 determines a winner node for the data D from the nodes constituting the main body SOM stored in the main body model storage unit 122, and recognizes the winner node (a node label representing the data D). As a result.

ステップS142において、演算部121は、直前のステップS141でのデータDの認識結果に基づき、そのデータDを再構成することにより再構成データDRを生成する。すなわち、演算部121は、データDの認識結果としての、そのデータDに対する勝者ノードを用いて、データDを再構成した再構成データDRを生成し、誤差算出部125及び加算部128に供給する。 In step S142, the arithmetic unit 121, based on the recognition result of the data D in step S141 immediately before, to generate the reconstructed data D R by reconstructing the data D. That is, the arithmetic unit 121 as the recognition result of the data D, with the winning node for the data D, to generate the reconstructed data D R reconstructed data D, supplied to the error calculating unit 125 and adding unit 128 To do.

ここで、再構成データDRは、図12を参照して上述したようにして取得することができる。すなわち、再構成データDRは、データDに対する勝者ノード(図6)が有するパターン記憶モデル21を用いて生成することができる。また、再構成データDRは、データDに対する勝者ノード(図6)が有する学習データ記憶部22に記憶されている学習データのうちの1つを選択することで取得することができる。 Here, reconstructed data D R may be with reference to FIG. 12 obtained as described above. In other words, reconstruction data D R can be generated using a pattern storage model 21 of the winning node (FIG. 6) has for the data D. Also, reconstruction data D R can be obtained by selecting one of the learning data stored in the learning data storage unit 22 included in the winning node (FIG. 6) for the data D.

ステップS143では、誤差算出部125が、外部から供給されたデータDと、そのデータDに対して演算部121が再構成した再構成データDRとの誤差データ△Dを算出してデータ分割部126に供給する。データ分割部126は、n次元ベクトルあるいは時系列データである誤差データ△Dを、予め決定された所定の次元毎あるいは所定の時間毎に分割し、その結果得られる分割誤差データ△Di(i=1,・・・,n)を演算部123及び補正データ生成部127に供給する。 In step S143, the error calculation unit 125 calculates the data D supplied from the outside, the error data △ D to the reconstructed data D R by the calculation unit 121 is reconstructed for the data D data dividing unit 126. The data dividing unit 126 divides the error data ΔD, which is an n-dimensional vector or time series data, for each predetermined dimension or every predetermined time, and obtains the divided error data ΔD i (i = 1,..., N) are supplied to the calculation unit 123 and the correction data generation unit 127.

ステップS144において、演算部123は、供給された分割誤差データ△Diを、図16の学習処理の学習結果に基づいて認識する認識処理を行う。すなわち、演算部123は、分割誤差モデル記憶部124に記憶された誤差SOMを構成するノードの中から、分割誤差データ△Diに対する勝者ノードを決定し、その勝者ノード(を表すノードラベル)を、分割誤差データ△Diの認識結果とする。 In step S144, the calculation unit 123 performs a recognition process for recognizing the supplied division error data ΔD i based on the learning result of the learning process of FIG. That is, the calculation unit 123 determines a winner node for the division error data ΔD i from the nodes constituting the error SOM stored in the division error model storage unit 124, and determines the winner node (a node label representing the winner node). And the recognition result of the division error data ΔD i .

ステップS145において、演算部123は、直前のステップS144での分割誤差データ△Diの認識結果に基づき、その分割誤差データ△Diを再構成した分割再構成誤差データ△DRi(i=1,・・・,n)を生成して補正データ生成部127に供給する。すなわち、演算部123は、分割誤差データ△Diの認識結果としての、その分割誤差データ△Diに対する勝者ノードを用いて、分割誤差データ△Diを再構成した分割再構成誤差データ△DRiを生成し、補正データ生成部127に供給する。 In step S145, the arithmetic unit 123, based on the recognition result of the division error data △ D i in step S144 immediately before, the division error data △ D i divided reconstructed reconstruction error data △ D Ri (i = 1 ,..., N) are generated and supplied to the correction data generation unit 127. That is, the arithmetic unit 123, as a recognition result of the division error data △ D i, with the winning node for the division error data △ D i, division error data △ D i reconstituted divided reconstruction error data △ D Ri is generated and supplied to the correction data generation unit 127.

ここで、再構成誤差データ△DRは、再構成データDRと同様に、誤差データ△Dに対する勝者ノード(図6)が有するパターン記憶モデル21を用いて生成し、あるいは、誤差データ△Dに対する勝者ノードが有する学習データ記憶部22に記憶されている学習データのうちの1つを選択することで取得することができる。 Here, reconstruction error data △ D R, like the reconstructed data D R, generated using a pattern storage model 21 of the winning node (FIG. 6) to the error data △ D, or error data △ D Can be obtained by selecting one of the learning data stored in the learning data storage unit 22 of the winner node.

ステップS146では、補正データ生成部127が、データ分割部126からの分割誤差データ△Diに基づいて再構成データDRの補正すべき次元または時間を決定(例えば、誤差の大きい方から所定数の次元だけを補正するように決定)、さらに、この決定結果に基づいて各次元毎あるいは時間毎の補正重みを決定し、演算部123からの分割再構成誤差データ△DRiに補正重みを乗算することにより、部分補正データ△Djを生成し、加算部128に供給する。 In step S146, the correction data generation unit 127 determines the dimension or time to be corrected of the reconstructed data D R based on the division error data ΔD i from the data division unit 126 (for example, a predetermined number from the larger error). In addition, a correction weight for each dimension or time is determined based on the determination result, and the division reconstruction error data ΔD Ri from the calculation unit 123 is multiplied by the correction weight. As a result, partial correction data ΔD j is generated and supplied to the adder 128.

ステップS147において、加算部128は、演算部121からの再構成データDRと、補正データ生成部127からの部分補正データ△Djとを加算し、その結果得られた加算データDR+△DRjを、再構成データDRを補正した最終再構成データとして出力する。以上で、認識生成処理は終了される。 In step S147, the adding unit 128 adds the reconstructed data D R from the calculation unit 121 and the partial correction data ΔD j from the correction data generating unit 127, and the addition data D R + Δ obtained as a result. the D Rj, and outputs the reconstructed data D R as corrected final reconstruction data. This completes the recognition generation process.

以上説明したように、学習処理において、データDを、本体SOMで学習するとともに、データDと本体SOMを用いてデータDを再構成した再構成データDRとの誤差データ△Dを算出し、さらに分割した分割誤差データ△Diを分割誤差SOMで学習し、認識生成処理において、本体SOMを用いてデータDを再構成した再構成データDRを、分割誤差SOMを用いて再構成した分割再構成誤差データ△DRiに基づいて生成した部分補正データ△DRjを加算することにより補正し、その結果得られる加算データDR+△DRjを、データDを再構成した最終的な再構成データ(最終再構成データ)として出力するので、所定の次元毎あるいは所定の時間毎の誤差を適切に考慮した処理が行われ、その結果、量子化誤差を低減することができる。 As described above, in the learning process, the data D, is calculated as well as learning body SOM, the error data △ D to the reconstructed data D R reconstructed data D by using the data D and the body SOM, further divided division error data △ D i learned by division error SOM, the recognition generating processing, the reconstructed data D R reconstructed data D by using the body SOM, was reconstituted with division error SOM division Correction is performed by adding the partial correction data ΔD Rj generated based on the reconstruction error data ΔD Ri , and the resulting addition data D R + ΔD Rj is converted into the final reconstruction of the data D. Since it is output as configuration data (final reconstructed data), a process that appropriately considers an error every predetermined dimension or every predetermined time is performed, and as a result, a quantization error can be reduced.

すなわち、認識生成処理において、本体SOMを構成するノードの中から、データDに対する勝者ノードを決定する認識処理は、データDを、本体SOMを構成する有限個のノードのうちの、データDのパターンに最も類似するパターンを獲得しているノードに変換する処理であり、データDを量子化することと等価である。   That is, in the recognition generation process, the recognition process for determining the winner node for the data D from the nodes constituting the main body SOM is the pattern of the data D among the finite number of nodes constituting the main body SOM. Is the process of converting to the node that has acquired the most similar pattern, and is equivalent to quantizing the data D.

さらに、認識生成処理において、本体SOMを構成するノードのうちの、データDに対する勝者ノードを用いて、データDを再構成した再構成データDRを生成する生成処理は、データDの量子化結果である勝者ノードを、その勝者ノードが獲得しているパターンのデータに変換することであり、勝者ノードを逆量子化することと等価である。 Furthermore, the recognition generating processing, among the nodes of the body SOM, with the winning node for the data D, generation processing for generating the reconstruction data D R, which reconstructs the data D is quantized result data D Is converted to data of a pattern acquired by the winner node, which is equivalent to inverse quantization of the winner node.

したがって、認識生成処理によれば、量子化及び逆量子化を行った場合と同様に、量子化誤差が生じる。   Therefore, according to the recognition generation process, a quantization error occurs as in the case of performing quantization and inverse quantization.

そこで、学習処理において、量子化及び逆量子化で生じる量子化誤差である誤差データ△Dを所定の次元あるいは時間毎に分割して、分割誤差SOMで学習し、認識生成処理において、本体SOMを用いてデータDを再構成した再構成データDRと、分割誤差SOMを用いて再構成した分割再構成誤差データ△DRiに基づいて生成した部分補正データ△DRjとを加算した加算データDR+△DRjを、データDを再構成した最終的な再構成データとすることにより、量子化誤差を効率的に低減することができる。 Therefore, in the learning process, error data ΔD, which is a quantization error caused by quantization and dequantization, is divided for each predetermined dimension or time, and learning is performed with the division error SOM. The sum data D obtained by adding the reconstructed data D R reconstructed using the data D and the partial correction data ΔD Rj generated based on the divided reconstructed error data ΔD Ri reconstructed using the segmented error SOM. By using R + ΔD Rj as final reconstructed data obtained by reconstructing data D, the quantization error can be efficiently reduced.

すなわち、SOMを構成するノードの数がN1個である場合において、そのSOMのノードの数を、N2個だけ増加して、(N1+N2)個にすると、N1通りの量子化誤差を含む再構成データしか出力することができなかったのが、N2通りだけ増加した(N1+N2)通りの量子化誤差を含む再構成データ(N1+N2通りの量子化誤差を考慮した再構成データ)を出力することができるようになる。したがって、SOMのノードの数をN2個だけ増加すると、出力が可能な再構成データの数が、ノードの増加分であるN2個だけ増加するにすぎない。   In other words, when the number of nodes constituting the SOM is N1, when the number of nodes in the SOM is increased by N2 to (N1 + N2), N1 types of quantization errors are included. Only configuration data could be output, but reconstruction data including (N1 + N2) quantization errors increased by N2 (reconstruction data considering N1 + N2 quantization errors) It becomes possible to output. Therefore, when the number of nodes in the SOM is increased by N2, the number of reconstructed data that can be output only increases by N2, which is the increase in the number of nodes.

これに対して、本体SOMをN1個のノードで構成するとともに、分割誤差SOMをN2個のノードで構成し、本体SOMを用いてデータDを再構成した再構成データDRと、分割誤差SOMを用いて再構成した分割再構成誤差データ△DRiに基づいて生成した部分補正データ△DRjとを加算した加算データDR+△DRjを、データDを再構成した最終的な再構成データとする場合には、N1×N2通りの最終的な再構成データを出力することができる。 In contrast, with comprises the body SOM at N1 nodes, the division error SOM constituted by N2 nodes, and reconstructed data D R reconstructed data D by using the body SOM, division error SOM the final reconstruction of the added data D R + △ D Rj obtained by adding the partial correction data △ D Rj generated based on the divided reconstruction error data △ D Ri reconstituted, reconstructed data D using In the case of data, N1 × N2 final reconstruction data can be output.

具体的には、ノードの数N1及びN2を、例えば、いずれも10とすると、SOMを構成するノードの数を増加する場合には、出力が可能な再構成データの数が20(=10+10)であるのに対して、本体SOM及び分割誤差SOMを用いる場合には、出力が可能な再構成データの数が100(=10×10)となる。したがって、本体SOM及び分割誤差SOMを用いる場合には、SOMを構成するノードの数を増加する場合に比較して、量子化誤差を、より低減することができる。   Specifically, if the number of nodes N1 and N2 are both 10 for example, when the number of nodes constituting the SOM is increased, the number of reconstructed data that can be output is 20 (= 10 + In contrast, when the main body SOM and the division error SOM are used, the number of reconstructed data that can be output is 100 (= 10 × 10). Therefore, when the main body SOM and the division error SOM are used, the quantization error can be further reduced as compared with the case where the number of nodes constituting the SOM is increased.

すなわち、SOMを構成するノードの数を増加する場合には、各ノードに、量子化誤差を考慮した再構成データのパターンが保持されるため、1つのノードに対して、1通りの量子化誤差を考慮した再構成データしか得ることができない。   That is, when the number of nodes constituting the SOM is increased, each node holds a pattern of reconstructed data in consideration of the quantization error, so that one quantization error is generated for one node. Only reconstructed data can be obtained in consideration of

これに対して、本体SOM及び分割誤差SOMを用いる場合には、分割誤差SOMにおいて、本体SOMの各ノードから得られる再構成データDRを補正するのに共通して用いることができる分割再構成誤差データ△DRi(分割誤差データ△DRi)のパターンが記憶されるので、本体SOMの1つのノードに対して、分割誤差SOMを構成するノードの数の数倍(補正データ生成分割127で決定される補正重みの種類の数)だけの量子化誤差を考慮した最終再構成データとしての加算データDR+△DRjを得ることができ、その結果、量子化誤差を、より低減することができる。 In contrast, in the case of using a body SOM and division error SOM is the division error SOM, split reconstruction can be commonly used to correct the reconstructed data D R obtained from each node of the main body SOM Since the pattern of error data ΔD Ri (division error data ΔD Ri ) is stored, one node of the main body SOM is several times the number of nodes constituting the division error SOM (in the correction data generation division 127). It is possible to obtain the addition data D R + ΔD Rj as final reconstructed data in consideration of the quantization error of the number of types of correction weights to be determined), and as a result, to further reduce the quantization error Can do.

ここで、SOMを構成するノードの数を増加することにより、本体SOM及び分割誤差SOMを用いる場合と同一の数だけの再構成データを出力するには、上述の例では、SOMを構成するノードの数を100個にする必要がある。そして、SOMを記憶するのに必要なメモリ等の記憶容量は、SOMを構成するノードの数に比例するから、本体SOM及び分割誤差SOMを用いる場合には、SOMを構成するノードの数を増加する場合に比較して、量子化誤差を同程度に低減するのに、SOM(本体SOM及び誤差SOM)を記憶するメモリ等の記憶容量が少なくて済む。つまり、メモリを効率的に使用しつつ、量子化誤差を低減することができる。   Here, in order to output the same number of reconstructed data as in the case of using the main body SOM and the division error SOM by increasing the number of nodes constituting the SOM, in the above example, the nodes constituting the SOM Needs to be 100. And since the storage capacity such as the memory required to store the SOM is proportional to the number of nodes that make up the SOM, the number of nodes that make up the SOM is increased when using the main SOM and the division error SOM. Compared with this case, the amount of memory such as a memory for storing the SOM (main body SOM and error SOM) can be reduced in order to reduce the quantization error to the same extent. That is, it is possible to reduce the quantization error while efficiently using the memory.

なお、図16の学習処理と、図17の認識生成処理とについては、データDの入力に対して、両方を行うこともできるし、いずれか一方だけを行うこともできる。   Note that both of the learning process of FIG. 16 and the recognition generation process of FIG. 17 can be performed on the input of the data D, or only one of them can be performed.

次に、図18は、図1の本体学習モジュール101、誤差学習モジュール102、及び制御部103の第2の構成例を示している。   Next, FIG. 18 illustrates a second configuration example of the main body learning module 101, the error learning module 102, and the control unit 103 in FIG.

図18において、本体学習モジュール101は、演算部201及び本体モデル記憶部202から、誤差学習モジュール102は、演算部203及び分割誤差モデル記憶部204から、制御部103は、誤差算出部205、データ分割部206、補正データ生成部207及び加算部208から、それぞれ構成されている。   In FIG. 18, the main body learning module 101 is from the calculation unit 201 and the main body model storage unit 202, the error learning module 102 is from the calculation unit 203 and the divided error model storage unit 204, and the control unit 103 is the error calculation unit 205, data Each of the division unit 206, the correction data generation unit 207, and the addition unit 208 is configured.

本体学習モジュール101の演算部201には、例えば、外部から、入力データSや出力データAが、図1におけるデータDとして供給される。   For example, input data S and output data A are supplied from the outside as data D in FIG. 1 to the arithmetic unit 201 of the main body learning module 101.

ここで、入力データS及び出力データAとしては、例えば、前述したように、センサデータやアクションデータを採用することができる。入力データS及び出力データAは、n次元ベクトルあるいは時系列データであるとする。   Here, as the input data S and the output data A, for example, as described above, sensor data and action data can be employed. The input data S and output data A are assumed to be n-dimensional vectors or time series data.

すなわち、例えば、入力データSとしては、音声データや画像データ(から抽出された特徴パラメータ)を採用し、出力データAとしては、入力データSとしての音声データ及び画像データに応じてロボットの腕を駆動するアクチュエータを制御する制御データや、入力データSとしての音声データ及び画像データに応じて合成音を生成(音声合成)するためにに用いられるパラメータを採用することができる。   That is, for example, voice data or image data (feature parameters extracted from) is adopted as the input data S, and the robot arm is used as the output data A according to the voice data and the image data as the input data S. Parameters used for generating synthesized speech (speech synthesis) in accordance with control data for controlling the actuator to be driven, audio data as the input data S, and image data can be employed.

また、例えば、入力データSとしては、フレーム#tのセンサデータを採用し、出力データAとしては、フレーム#t+1のセンサデータを採用することができる。さらに、例えば、入力データSとしては、フレーム#tのセンサデータと、フレーム#tのアクションデータとの組み合わせを採用し、出力データAとしては、フレーム#t+1のセンサデータと、フレーム#t+1のアクションデータとの組み合わせを採用することができる。   Further, for example, sensor data of frame #t can be adopted as input data S, and sensor data of frame # t + 1 can be adopted as output data A. Further, for example, as input data S, a combination of sensor data of frame #t and action data of frame #t is adopted, and as output data A, sensor data of frame # t + 1 and frame #t A combination with +1 action data can be adopted.

なお、学習時には、入力データSと、その入力データSに対して出力すべき出力データAとをセットにした教示データが、演算部201(及び誤差算出部205)に供給され、認識生成時には、入力データSだけが、演算部201に供給される。   At the time of learning, teaching data in which the input data S and the output data A to be output with respect to the input data S are set is supplied to the calculation unit 201 (and the error calculation unit 205). Only the input data S is supplied to the calculation unit 201.

ここで、例えば、図1の入出力システムが、ロボットに適用される場合において、そのロボットに、目の前にあるボールを左右に転がすタスクを学習させるときには、ユーザがロボットの前にボールをおき、ロボットの腕を持って、ボールを左右に転がすように、腕を動かす。   Here, for example, when the input / output system of FIG. 1 is applied to a robot, when the robot learns the task of rolling the ball in front of the user to the left or right, the user places the ball in front of the robot. Hold the robot arm and move the arm to roll the ball left and right.

この場合、左右に転がるボールの状態を撮影(検知)した画像データを、入力データSとして採用することとすると、その入力データSに対して出力すべき出力データAとしては、ロボットの腕を、ユーザが動かしているように駆動するための、アクチュエータを制御する制御データを採用することができる。   In this case, assuming that the image data obtained by photographing (detecting) the state of the ball rolling to the left and right is adopted as the input data S, as the output data A to be output with respect to the input data S, the arm of the robot, Control data for controlling the actuator for driving as if the user is moving can be employed.

以上のような入力データSと出力データAとのセットである教示データを入出力システムに与えて学習処理を行った後、認識生成処理において、左右に転がるボールの状態を撮影した画像データを、入力データSとして入出力システムに与えると、入出力システムからは、ボールの状態に応じて、ロボットの腕を駆動するように、アクチュエータを制御する制御データが出力される。   After giving the teaching data which is a set of the input data S and the output data A as described above to the input / output system and performing the learning process, in the recognition generation process, the image data obtained by photographing the state of the ball rolling left and right, When the input data S is given to the input / output system, the input / output system outputs control data for controlling the actuator so as to drive the arm of the robot in accordance with the state of the ball.

演算部201は、そこに供給される入力データS及び出力データAの学習を行う。すなわち、演算部201は、そこに供給される入力データS及び出力データAを用いて、本体モデル記憶部202に記憶されている本体モデルの学習を行う。   The arithmetic unit 201 learns the input data S and output data A supplied thereto. That is, the arithmetic unit 201 learns the main body model stored in the main body model storage unit 202 using the input data S and output data A supplied thereto.

また、演算部201は、そこに供給される入力データSに対して、本体モデル記憶部202に記憶されている本体モデルを用いて、入力データSを再構成し、その結果得られる再構成入力データSRを出力する。さらに、演算部201は、本体モデル記憶部202に記憶されている本体モデルを用いて、そこに供給される入力データSに対して出力すべき出力データAを再構成し、その結果得られる再構成出力データARを出力する。また、演算部201は、そこに供給される出力データAに対して、本体モデル記憶部202に記憶されている本体モデルを用いて、出力データAを再構成し、その結果得られる再構成出力データARを出力する。 Further, the arithmetic unit 201 reconstructs the input data S using the main body model stored in the main body model storage unit 202 for the input data S supplied thereto, and the reconstructed input obtained as a result Data S R is output. Further, the arithmetic unit 201 uses the main body model stored in the main body model storage unit 202 to reconstruct the output data A to be output with respect to the input data S supplied thereto, and obtains the reproduction data obtained as a result. and it outputs the configuration output data a R. Further, the calculation unit 201 reconstructs the output data A using the main body model stored in the main body model storage unit 202 for the output data A supplied thereto, and the reconstructed output obtained as a result Data A R is output.

演算部201が出力する再構成入力データSRは、制御部103の誤差算出部205に供給され、演算部201が出力する再構成出力データARは、制御部103の誤差算出部205及び加算部208に供給される。 The reconstructed input data S R output from the calculation unit 201 is supplied to the error calculation unit 205 of the control unit 103, and the reconstructed output data A R output from the calculation unit 201 is added to the error calculation unit 205 of the control unit 103 and added. Supplied to the unit 208.

本体モデル記憶部202は、データを学習するモデルとしての本体モデルを記憶している。本体モデルとしては、教師なし学習が可能な、例えば、SOMやNN、その他の学習モデルを採用することができる。   The main body model storage unit 202 stores a main body model as a model for learning data. As the main body model, for example, SOM, NN, or other learning models capable of unsupervised learning can be adopted.

誤差学習モジュール102の演算部203には、制御部103のデータ分割部206から分割入力誤差データ△Si(i=1,2,・・・,n)及び分割出力誤差データ△A i(i=1,2,・・・,n)が、図1における誤差データ△Dとして供給される。 The calculation unit 203 of the error learning module 102 receives the divided input error data ΔS i (i = 1, 2,..., N) and the divided output error data ΔA i (i) from the data dividing unit 206 of the control unit 103. = 1, 2,..., N) is supplied as error data ΔD in FIG.

演算部203は、データ分割部206から分割入力誤差データ△Si及び分割出力誤差データ△A iの学習を行う。すなわち、演算部203は、データ分割部206からの分割入力誤差データ△Si及び分割出力誤差データ△Aiを用いて、分割誤差モデル記憶部204に記憶されている誤差モデルの学習を行う。 Calculation unit 203 performs learning of the divided input error data △ S i and the divided output error data △ A i from the data dividing unit 206. That is, the calculation unit 203 uses the divided input error data △ S i and the divided output error data △ A i from the data dividing unit 206 performs learning of the error model stored in the division error model storage unit 204.

また、演算部203は、分割誤差モデル記憶部204に記憶されている分割誤差モデルを用いて、そこに供給される分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成し、その結果得られる分割再構成出力誤差データ△AR i(i=1,2,・・・,n)を出力する。 Further, the calculation unit 203 reconstructs the divided output error data ΔA i corresponding to the divided input error data ΔS i supplied thereto using the divided error model stored in the divided error model storage unit 204. Then, the divided reconstruction output error data ΔA R i (i = 1, 2,..., N) obtained as a result is output.

ここで、分割入力誤差データ△Siに対応する分割出力誤差データ△Aiとは、分割入力誤差データ△Siが得られる入力データSに対して出力すべき出力データAから得られる分割出力誤差データ△Aiを意味する。 Here, the divided output error data △ A i corresponding to the divided input error data △ S i is divided outputs divided input error data △ S i is obtained from the output data A to be output to the input data S obtained This means error data ΔA i .

さらに、演算部203は、そこに供給される分割出力誤差データ△Aiに対して、分割誤差モデル記憶部204に記憶されている分割誤差モデルを用いて、分割出力誤差データ△Aiを再構成し、その結果得られる分割再構成出力誤差データ△ARiを出力する。 Further, the arithmetic unit 203 re-divides the divided output error data ΔA i using the divided error model stored in the divided error model storage unit 204 for the divided output error data ΔA i supplied thereto. The divided reconstruction output error data ΔA Ri obtained as a result is output.

演算部203が出力する分割再構成出力誤差データ△ARiは、制御部103の補正データ生成部207に供給される。 The divided reconstruction output error data ΔA Ri output from the calculation unit 203 is supplied to the correction data generation unit 207 of the control unit 103.

分割誤差モデル記憶部204は、データを学習するモデルとしての誤差モデルを記憶している。分割誤差モデルとしては、教師なし学習が可能な、例えば、SOMやNN、その他の学習モデルを採用することができる。   The division error model storage unit 204 stores an error model as a model for learning data. As the division error model, for example, SOM, NN, and other learning models capable of unsupervised learning can be adopted.

制御部103の誤差算出部205には、上述したように、演算部201から再構成入力データSR及び再構成出力データARが供給される他、演算部201に供給される入力データS及び出力データAと同一の入力データS及び出力データAが外部から供給される。 As described above, the error calculation unit 205 of the control unit 103 is supplied with the reconstruction input data S R and the reconstruction output data A R from the computation unit 201, and the input data S and The same input data S and output data A as the output data A are supplied from the outside.

誤差算出部205は、外部からの入力データSと、演算部201からの再構成入力データSRとの差分S-SRを求め、入力誤差データ△Sとして、データ分割部206に供給する。 Error calculation unit 205 obtains the input data S from the outside, the difference SS R between the reconstructed input data S R from the arithmetic unit 201 as input error data △ S, to the data dividing unit 206.

また、誤差算出部205は、外部からの出力データAと、演算部201からの再構成出力データARとの差分A-ARを求め、出力誤差データ△Aとして、データ分割部206に供給する。 Further, the error calculation unit 205 obtains a difference AAR between the output data A from the outside and the reconstructed output data A R from the calculation unit 201 and supplies the difference AA R to the data division unit 206 as output error data ΔA.

データ分割部206は、n次元ベクトルあるいは時系列データである入力誤差データ△S及び出力誤差データ△Aを、それぞれ、予め決定された所定の次元毎あるいは所定の時間毎に分割し、その結果得られる分割入力誤差データ△Si及び分割出力誤差データ△Aiを出力する。 The data dividing unit 206 divides the input error data ΔS and the output error data ΔA, which are n-dimensional vectors or time series data, for each predetermined dimension or every predetermined time, and obtains the result. The divided input error data ΔS i and the divided output error data ΔA i are output.

例えば、入力誤差データ△S及び出力誤差データ△Aが、2次元ベクトルである場合、入力誤差データ△Sを△S1と△S2に分割し、出力誤差データ△Aを△A1と△A2に分割する。また、例えば、入力誤差データ△S及び出力誤差データ△Aが、100ステップの時系列データである場合、入力誤差データ△S及び出力誤差データ△Aを、1ステップから50ステップまでの△S1及び△A1と51ステップから100ステップまでの△S2及び△A2に分割する。なお、分割する数nは、入力誤差データ△Sや出力誤差データ△Aの次元数、ステップ数に拘わりなく任意である。 For example, when the input error data ΔS and the output error data ΔA are two-dimensional vectors, the input error data ΔS is divided into ΔS 1 and ΔS 2 and the output error data ΔA is divided into ΔA 1 and Δ Divide into A 2 . Further, for example, input error data △ S and the output error data △ A is 100 when a time series data of step, input error data △ S and output error data △ A, 1 step from up to 50 steps △ S 1 and △ a 1 and divides the 51 step △ S 2 and △ a 2 to 100 steps. The number n to be divided is arbitrary irrespective of the number of dimensions and the number of steps of the input error data ΔS and the output error data ΔA.

分割入力誤差データ△Siは、演算部203及び補正データ生成部207に供給され、分割出力誤差データ△Aiは、演算部203に供給される。 The divided input error data ΔS i is supplied to the calculation unit 203 and the correction data generation unit 207, and the divided output error data ΔA i is supplied to the calculation unit 203.

補正データ生成部207は、データ分割部206からの分割入力誤差データ△Siに基づいて再構成出力データSRの補正すべき次元または時間を決定し、あるいはランダムに決定し、決定結果に従い、分割された所定の次元毎あるいは時間毎の補正重みを決定して、演算部203からの分割再構成出力誤差データ△ARiにそれぞれ補正重みを乗算することにより、部分補正データ△ARjを生成し、加算部208に供給する。 The correction data generation unit 207 determines the dimension or time to be corrected of the reconstructed output data S R based on the divided input error data ΔS i from the data dividing unit 206, or randomly determines, according to the determination result, Partial correction data ΔA Rj is generated by determining a correction weight for each predetermined dimension or time and dividing the division reconstruction output error data ΔA Ri from the calculation unit 203 by the correction weight. Then, it is supplied to the adding unit 208.

加算部208は、演算部201から供給される再構成出力データARと、補正データ生成部207から供給される部分補正データ△ARjとを加算し、その結果得られる加算データAR'=AR+△ARjを、再構成出力データARを補正した、最終的な再構成出力データ(以下、適宜、最終再構成出力データともいう)として出力する。 The adding unit 208 adds the reconstructed output data A R supplied from the calculation unit 201 and the partial correction data ΔA Rj supplied from the correction data generating unit 207, and the resulting addition data A R ′ = A R + ΔA Rj is output as final reconstructed output data (hereinafter also referred to as final reconstructed output data as appropriate) obtained by correcting the reconstructed output data A R.

ここで、図18において、本体モデル記憶部202に記憶されている本体モデルと、分割誤差モデル記憶部204に記憶されている分割誤差モデルとしては、図4の場合と同様に、同一の学習モデルを採用することもできるし、異なる学習モデルを採用することもできるが、ここでは、説明を簡単にするために、本体モデルと誤差モデルとしては、同一の学習モデルを採用することとする。   Here, in FIG. 18, as the main body model stored in the main body model storage unit 202 and the division error model stored in the division error model storage unit 204, the same learning model is used as in FIG. However, in order to simplify the explanation, the same learning model is adopted as the main body model and the error model.

また、図18において、本体モデルは、本来学習すべきデータである入力データS、及び、出力データSを対象として学習を行う学習モデルであるのに対して、分割誤差モデルは、データを学習した本体モデルを用いて、ある入力データSとその入力データSを再構成して得られる再構成入力データSRとの誤差(入力誤差データ△S)を所定の次元毎あるいは所定の時間毎に分割した分割入力誤差データ△Si、及び、ある出力データAとその出力データAを再構成して得られる再構成出力データARとの誤差(出力誤差データ△A)を所定の次元毎あるいは所定の時間毎に分割した分割出力誤差データ△Aiを対象として学習を行う学習モデルである。したがって、図18でも、図4と同様に、本体モデルと分割誤差モデルとは、学習の対象が異なるだけで、学習モデルとしての本質的な違いはない。 In FIG. 18, the main body model is a learning model that performs learning on the input data S and the output data S that are data to be originally learned, whereas the division error model has learned data. Using the body model, the error (input error data ΔS) between certain input data S and reconstructed input data S R obtained by reconfiguring the input data S is divided for each predetermined dimension or every predetermined time. the divided input error data △ S i, and is the output data a and the error between the reconstructed output data a R obtained by reconstructing the output data a (output error data △ a) a predetermined dimension or every predetermined This is a learning model in which learning is performed on the divided output error data ΔA i divided every time. Accordingly, in FIG. 18, as in FIG. 4, the main body model and the division error model differ only in the learning target, and there is no essential difference as a learning model.

入力データS及び出力データAを学習する本体モデル、並びに、分割入力誤差データ△Si及び分割出力誤差データ△Aiを学習する分割誤差モデルとしては、例えば、パターン記憶SOMを含むSOMを利用した入出力関係モデルを採用することができる。 As the main body model for learning the input data S and the output data A, and the divided error model for learning the divided input error data ΔS i and the divided output error data ΔA i , for example, a SOM including a pattern storage SOM is used. An input / output relationship model can be adopted.

ここで、図19乃至図23を参照して、入出力関係モデルについて説明する。   Here, the input / output relationship model will be described with reference to FIGS.

図19は、パターン記憶SOMを利用した入出力関係モデルの構成例を模式的に示している。   FIG. 19 schematically shows a configuration example of an input / output relationship model using a pattern storage SOM.

図19において、入出力関係モデルは、2つのパターン記憶SOM#1及び#2を有している。さらに、入出力関係モデルは、パターン記憶SOM#1の各ノードNi(i=1,2,・・・,ノードの総数)と、パターン記憶SOM#2の各ノードN'j(j=1,2,・・・,ノードの総数)とが結合されている。 In FIG. 19, the input / output relationship model has two pattern storages SOM # 1 and # 2. Further, the input / output relationship model includes each node N i (i = 1, 2,..., Total number of nodes) of the pattern storage SOM # 1 and each node N ′ j (j = 1) of the pattern storage SOM # 2. , 2,..., The total number of nodes).

ここで、図19において、パターン記憶SOM#1のノードNiと、パターン記憶SOM#2のノードN'jとの間の矢印が、そのノードNiとN'jとの結合を表している。 Here, in FIG. 19, the node N i of pattern storage SOM # 1, 'the arrow between j, the node N i and N' node N of pattern memory SOM # 2 represents the binding of j .

なお、パターン記憶SOM#1及び#2は、同一の数のノードと同一のリンクを有するものであってもよいし、異なる数のノードまたは異なるリンクを有するものであってもよい。また、パターン記憶SOM#1のノードNiが有するパターン記憶モデル21(図6)と、パターン記憶SOM#2のノードが有するパターン記憶モデル21も、同一のパターン記憶モデルであってもよいし、異なるパターン記憶モデルであってもよい。 Note that the pattern storage SOMs # 1 and # 2 may have the same number of nodes and the same links, or may have different numbers of nodes or different links. Further, the pattern storage model 21 of the node N i of pattern storage SOM # 1 (FIG. 6), the pattern storage model 21 of the node of pattern storage SOM # 2 also may be the same pattern storage model, Different pattern storage models may be used.

次に、図20は、入出力関係モデルを用いて、学習処理を行う学習装置と、認識生成処理を行う認識生成装置との構成例を示している。   Next, FIG. 20 illustrates a configuration example of a learning device that performs learning processing and a recognition generation device that performs recognition generation processing using an input / output relationship model.

図20において、学習装置は、学習部221及び結合重み更新部222から構成され、認識生成装置は、スコア計算部231、勝者ノード決定部232、生成ノード決定部233、及び再構成部234から構成される。   20, the learning device includes a learning unit 221 and a connection weight update unit 222, and the recognition generation device includes a score calculation unit 231, a winner node determination unit 232, a generation node determination unit 233, and a reconfiguration unit 234. Is done.

学習装置には、学習の対象となる入力データ(の観測値)と、その入力データに対して出力すべき出力データ(の観測値)とのセットである教示データが供給される。学習装置は、そこに供給される教示データを用いて、入出力関係モデル(図19)を構成するパターン記憶SOM#1及び#2の自己組織的な更新、並びに、パターン記憶SOM#1及び#2のノードどうしの結合関係を更新する。   Teaching data, which is a set of input data (observation values) to be learned and output data (observation values) to be output with respect to the input data, is supplied to the learning device. The learning device uses the teaching data supplied thereto to update the pattern storage SOMs # 1 and # 2 constituting the input / output relationship model (FIG. 19), and the pattern storages SOM # 1 and # 2 Update the connection relationship between the two nodes.

すなわち、図20の学習装置において、学習部221は、図8に示した学習装置と同様に構成され、学習装置に供給される教示データのうちの入力データを用いて、入出力関係モデル(図19)におけるパターン記憶SOM#1を、図8の学習装置における場合と同様に、自己組織的に更新する。また、学習部221は、学習部221に供給される教示データのうちの出力データ(教示データにおいて、入力データとセットになっている出力データ)を用いて、入出力関係モデル(図19)におけるパターン記憶SOM#2を、図8の学習装置における場合と同様に、自己組織的に更新する。   That is, in the learning device of FIG. 20, the learning unit 221 is configured in the same manner as the learning device shown in FIG. 8, and uses the input data of the teaching data supplied to the learning device to input / output relation model (FIG. The pattern storage SOM # 1 in 19) is updated in a self-organizing manner as in the learning apparatus of FIG. In addition, the learning unit 221 uses output data (output data set with input data in the teaching data) of the teaching data supplied to the learning unit 221 in the input / output relation model (FIG. 19). The pattern storage SOM # 2 is updated in a self-organizing manner as in the learning apparatus of FIG.

さらに、学習部221は、パターン記憶SOM#1を更新するときに勝者ノードとなった、そのパターン記憶SOM#1のノードNiのノードラベル(以下、適宜、入力ラベルと称する)と、パターン記憶SOM#2を更新するときに勝者ノードとなった、そのパターン記憶SOM#2のノードN'jのノードラベル(以下、適宜、出力ラベルと称する)とをセットにしたラベルセットを、結合重み更新部222に供給する。 Furthermore, the learning unit 221, has become the winning node to update the pattern storage SOM # 1, the pattern storage SOM # 1 of the node N i of the node label (hereinafter, input label referred to) and the pattern memory was the winning node to update the SOM # 2, the pattern storage SOM # 2 of the node N 'j of node label (hereinafter, output label referred to) a label set to the set, the weight updating To the unit 222.

結合重み更新部222は、学習部221から供給されるラベルセットに基づき、入出力関係モデル(図19)におけるパターン記憶SOM#1のノードNiと、パターン記憶SOM#2のノードN'jとの結合関係を更新する。 The weight updating unit 222, based on the label set supplied from the learning unit 221, and a node N i of pattern storage SOM # 1 in the input-output relationship model (Fig. 19), and a node N 'j pattern storage SOM # 2 Update the join relationship.

ここで、学習部221から結合重み更新部222に供給されるラベルセットは、入力ラベルと出力ラベルとのセットであり、入力ラベルは、教示データのうちの入力データを用いてパターン記憶SOM#1を更新するときに勝者ノードとなった、そのパターン記憶SOM#1のノードNiのノードラベルであるから、パターン記憶SOM#1において、入力データに最も適合するノードNiのノードラベルである。 Here, the label set supplied from the learning unit 221 to the connection weight updating unit 222 is a set of an input label and an output label, and the input label is a pattern storage SOM # 1 using the input data of the teaching data. was the winning node to update the, because the node label of the pattern memory SOM # 1 of the node N i, in the pattern storage SOM # 1, the node label of the most compatible node N i to the input data.

同様に、出力ラベルは、教示データのうちの出力データを用いてパターン記憶SOM#2を更新するときに勝者ノードとなった、そのパターン記憶SOM#2のノードN'jのノードラベルであるから、パターン記憶SOM#2において、出力データに最も適合するノードN'jのノードラベルである。 Similarly, output label has become the winning node to update the pattern storage SOM # 2 using the output data of the teaching data, since the node label of the pattern storage SOM # 2 node N 'j In the pattern storage SOM # 2, this is the node label of the node N ′ j that best matches the output data.

結合重み更新部222では、パターン記憶SOM#1のノードのうち、教示データにおける入力データに最も適合するノードである勝者ノードNiと、パターン記憶SOM#2の各ノードとの結合関係が更新されるとともに、パターン記憶SOM#2のノードのうち、教示データにおける出力データに最も適合するノードである勝者ノードN'jと、パターン記憶SOM#1の各ノードとの結合関係が更新される。 In the weight updating unit 222, among the nodes of pattern storage SOM # 1, and the winning node N i which is the most compatible node to the input data in the teaching data, the binding relationship between each node of the pattern memory SOM # 2 is updated In addition, the connection relationship between the winner node N ′ j that is the most suitable node for the output data in the teaching data among the nodes of the pattern storage SOM # 2 and the nodes of the pattern storage SOM # 1 is updated.

ここで、入出力関係モデルにおけるパターン記憶SOM#1のノードと、パターン記憶SOM#2のノードとの間の結合関係は、その結合の度合いが強いほど、大きな値となる結合重みによって表されるようになっており、ノードどうしの結合関係の更新とは、結合重みの更新を意味する。結合重み更新部222によるノードどうしの結合関係の更新の方法についての詳細は、後述する。   Here, the connection relationship between the node of the pattern storage SOM # 1 and the node of the pattern storage SOM # 2 in the input / output relationship model is represented by a connection weight that increases as the degree of the connection increases. The update of the connection relationship between the nodes means the update of the connection weight. Details of the method of updating the connection relationship between nodes by the connection weight update unit 222 will be described later.

認識生成装置には、入力データが供給される。認識生成装置は、入出力関係モデルにおけるパターン記憶SOM#1において、入力データに最も適合する勝者ノードNiを決定し、その勝者ノードNiとの結合重みが最も強い、パターン記憶SOM#2のノードを、その入力データに対して出力すべき出力データを再構成した再構成出力データ(出力データの推定値)を生成する生成ノードN'jに決定する。さらに、認識生成装置は、生成ノードN'jが有するパターン記憶モデル21(図6)を用いて、入力データに対して出力すべき出力データを再構成した再構成出力データを生成して出力する。 Input data is supplied to the recognition generator. Recognition generating apparatus, the pattern storage SOM # 1 in the input-output relationship model, to determine the most compatible winning node N i to the input data, the strongest link weight between the winning node N i, the pattern storage SOM # 2 The node is determined as a generation node N ′ j that generates reconstructed output data (estimated value of output data) obtained by reconstructing output data to be output with respect to the input data. Further, the recognition generation apparatus generates and outputs reconstructed output data obtained by reconstructing output data to be output with respect to input data, using the pattern storage model 21 (FIG. 6) of the generation node N ′ j . .

すなわち、図20の認識生成装置において、スコア計算部231は、認識生成装置に供給される入力データに対して、入出力関係モデルを構成するパターン記憶SOM#1の各ノードNiが適合する度合いであるスコアを、図12の認識生成装置のスコア計算部51における場合と同様にして計算し、勝者ノード決定部232に供給する。 That is, in the recognition generating apparatus of FIG. 20, the score calculation unit 231, the input data supplied to the recognition generator, the degree nodes N i of pattern storage SOM # 1 constituting the input-output relationship model fits Is calculated in the same manner as in the score calculation unit 51 of the recognition generation apparatus of FIG. 12 and is supplied to the winner node determination unit 232.

勝者ノード決定部232は、図12の認識生成装置の勝者ノード決定部52における場合と同様に、スコア計算部231から供給されるスコアが最も高いパターン記憶SOM#1のノードNiを勝者ノードに決定し、その勝者ノードを表すノードラベル(入力ラベル)を、生成ノード決定部233に供給する。 Winning node determining unit 232, as in the case of recognition generating device winning node determining unit 52 in FIG. 12, the node N i of highest score pattern storage SOM # 1 supplied from the score computing unit 231 to the winning node The node label (input label) representing the winner node is supplied to the generation node determination unit 233.

生成ノード決定部233は、入出力関係モデルを構成するパターン記憶SOM#2のノードの中で、勝者ノード決定部232からの入力ラベルが表すノードNiとの結合重みが最も強い(最強の)ノードN'jを生成ノードとして決定し、その生成ノードN'jを表す出力ラベルを、再構成部234に供給する。 Generation node determination unit 233, among the patterns stored SOM # 2 that constitute the input-output relationship model nodes, the strongest link weight between the nodes N i represented by the input label from the winning node determining unit 232 (the strongest) The node N ′ j is determined as a generation node, and an output label representing the generation node N ′ j is supplied to the reconfiguration unit 234.

再構成部234は、入出力関係モデルを構成するパターン記憶SOM#2のノードのうちの、生成ノード決定部233からの出力ラベルが表すノードN'jが有するパターン記憶モデル21(図6)に基づいて、認識生成装置に供給された入力データに対して出力すべき出力データを再構成した再構成出力データを、例えば、図12の認識生成装置の再構成部53における場合と同様にして取得(生成)して出力する。 The reconfiguration unit 234 stores the pattern storage model 21 (FIG. 6) included in the node N ′ j indicated by the output label from the generation node determination unit 233 among the nodes of the pattern storage SOM # 2 constituting the input / output relationship model. Based on the input data supplied to the recognition generation device, the reconstruction output data obtained by reconstructing the output data to be output is acquired in the same manner as in the reconstruction unit 53 of the recognition generation device in FIG. (Generate) and output.

次に、図20の学習装置で行われる入出力関係モデルの学習処理について、図21のフローチャートを参照して説明する。   Next, the learning process of the input / output relation model performed by the learning device of FIG. 20 will be described with reference to the flowchart of FIG.

ステップS201において、入力データと出力データとのセットである教示データが、図20の学習装置に入力されると、その教示データは、学習部221に供給され、処理は、ステップS202に進む。   In step S201, when teaching data that is a set of input data and output data is input to the learning apparatus in FIG. 20, the teaching data is supplied to the learning unit 221 and the process proceeds to step S202.

ステップS202において、学習部221は、教示データのうちの入力データを用いて、入出力関係モデル(図19)におけるパターン記憶SOM#1を、自己組織的に更新する。ステップS203において、学習部221は、教示データのうちの出力データを用いて、入出力関係モデルにおけるパターン記憶SOM#2を、自己組織的に更新する。   In step S202, the learning unit 221 uses the input data of the teaching data to update the pattern storage SOM # 1 in the input / output relation model (FIG. 19) in a self-organizing manner. In step S203, the learning unit 221 uses the output data of the teaching data to update the pattern storage SOM # 2 in the input / output relation model in a self-organizing manner.

そして、学習部221は、パターン記憶SOM#1を更新するときに勝者ノードとなった、そのパターン記憶SOM#1のノードNiの入力ラベルと、パターン記憶SOM#2を更新するときに勝者ノードとなった、そのパターン記憶SOM#2のノードN'jの出力ラベルとのセットであるラベルセットを、結合重み更新部222に供給する。 Then, the learning unit 221, has become the winning node to update the pattern storage SOM # 1, the input label of the pattern memory SOM # 1 of the node N i, winning node to update a pattern storage SOM # 2 The label set that is a set with the output label of the node N ′ j of the pattern storage SOM # 2 is supplied to the connection weight update unit 222.

ステップS204では、結合重み更新部222が、学習部221から供給されるラベルセットに基づき、入出力関係モデル(図19)におけるパターン記憶SOM#1の各ノードと、パターン記憶SOM#2の各ノードとの結合重みを更新して、ステップS201に戻り、次の教示データが入力されるのを待って、以下、同様の処理が繰り返される。   In step S204, the connection weight updating unit 222, based on the label set supplied from the learning unit 221, each node of the pattern storage SOM # 1 and each node of the pattern storage SOM # 2 in the input / output relationship model (FIG. 19). And the process returns to step S201, waits for the next teaching data to be input, and thereafter the same processing is repeated.

なお、ステップS202とS203の処理は、並列して行うこともできるし、図21の場合と逆順で行うこともできる。   Note that the processes of steps S202 and S203 can be performed in parallel or in the reverse order of the case of FIG.

次に、結合重み更新部222(図20)が、図21のステップS204で行う結合重み(ノードどうしの結合関係)の更新について、図22を参照して説明する。   Next, update of the connection weight (connection relationship between nodes) performed by the connection weight update unit 222 (FIG. 20) in step S204 of FIG. 21 will be described with reference to FIG.

なお、以下、適宜、入出力関係モデルにおいて、入力データが与えられるパターン記憶SOM、つまり、入力データを用いて学習が行われ、入力データのパターンを獲得するパターン記憶SOM(パターン記憶SOM#1)を、入力SOMともいい、出力データが与えられるパターン記憶SOM、つまり、出力データを用いて学習が行われ、出力データのパターンを獲得するパターン記憶SOM(パターン記憶SOM#2)を、出力SOMともいう。   In addition, hereinafter, in the input / output relation model, a pattern storage SOM to which input data is given, that is, a pattern storage SOM that performs learning using the input data and acquires a pattern of the input data (pattern storage SOM # 1) Is also called an input SOM, a pattern storage SOM to which output data is given, that is, a pattern storage SOM (pattern storage SOM # 2) that is trained using the output data and acquires the pattern of the output data is also called an output SOM. Say.

さらに、以下、適宜、入力SOMのノードを入力ノードとも称し、出力SOMのノードを出力ノードとも称する。   Further, hereinafter, the node of the input SOM is also referred to as an input node, and the node of the output SOM is also referred to as an output node.

図22は、図19に示したように、入力SOM#1の入力ノードと、出力SOM#2の出力ノードとが結合している入出力関係モデルを示している。   FIG. 22 illustrates an input / output relationship model in which the input node of the input SOM # 1 and the output node of the output SOM # 2 are coupled as illustrated in FIG.

すなわち、図22左側では、入出力関係モデルは、入力SOM#1と、出力SOM#2とを有し、入力SOM#1の各入力ノードと、出力SOM#2の各出力ノードとが結合している。なお、図22では、入力SOM#1、及び出力SOM#2のいずれも、8つのノードで構成されている。   That is, on the left side of FIG. 22, the input / output relationship model has an input SOM # 1 and an output SOM # 2, and each input node of the input SOM # 1 and each output node of the output SOM # 2 are coupled. ing. In FIG. 22, both the input SOM # 1 and the output SOM # 2 are composed of eight nodes.

図22左側では、入力SOM#1の各入力ノードは、出力SOM#2のすべての出力ノードと結合しており(したがって、出力SOM#2の各出力ノードも、入力SOM#1のすべての入力ノードと結合している)、入力SOM#1の入力ノードと、出力SOM#2の出力ノードとのすべての組み合わせについて、結合重みwが存在する。   On the left side of FIG. 22, each input node of input SOM # 1 is coupled to all output nodes of output SOM # 2 (so each output node of output SOM # 2 is also connected to all inputs of input SOM # 1). There is a connection weight w for all combinations of the input node of the input SOM # 1 and the output node of the output SOM # 2.

いま、ノードどうしが結合している2つのパターン記憶SOMについて、そのうちの一方のパターン記憶SOMのノードを各行に対応させるとともに、他方のパターン記憶SOMのノードを各列に対応させ、第i行第j列の要素に、一方のパターン記憶SOMのi番目のノードと、他方のパターン記憶SOMのj番目のノードとの結合重みwを配置した行列を、結合重み行列MTXと称することにすると、結合重み更新部222(図20)は、この結合重み行列MTXの各要素である結合重みwを更新する。   Now, for the two pattern storage SOMs in which the nodes are connected, one of the pattern storage SOMs is made to correspond to each row, and the other pattern storage SOM is made to correspond to each column. A matrix in which the connection weights w between the i-th node of one pattern storage SOM and the j-th node of the other pattern storage SOM are arranged in j column elements is referred to as a connection weight matrix MTX. The weight update unit 222 (FIG. 20) updates the connection weight w that is each element of the connection weight matrix MTX.

図22右側は、図22左側の入出力関係モデルについての結合重み行列MTXを示している。   The right side of FIG. 22 shows the connection weight matrix MTX for the input / output relationship model on the left side of FIG.

図22右側の結合重み行列MTXでは、入力ノードを各行に対応させるとともに、出力ノードを各列に対応させ、第i行第j列の要素に、i番目の入力ノードと、j番目の出力ノードとの結合重みwが配置されている。結合重み更新部222(図20)は、この結合重み行列MTXの各要素である結合重みwを更新する。   In the connection weight matrix MTX on the right side of FIG. 22, the input node corresponds to each row, the output node corresponds to each column, the i-th input node, and the j-th output node as elements of the i-th row and j-th column. And the connection weight w is arranged. The connection weight updating unit 222 (FIG. 20) updates the connection weight w that is each element of the connection weight matrix MTX.

すなわち、結合重み更新部222は、例えば、最初に電源がオンにされたとき等に、結合重み行列MTXにおけるすべての結合重みwを、初期値(例えば、0)に初期化する。そして、結合重み更新部222は、図20の学習装置に対して、教示データ、つまり、入力データと出力データとのセットが入力され、これにより、入力SOM#1における勝者ノードを表す入力ラベルと、出力SOM#2における勝者ノードを表す出力ラベルとのラベルセットが、学習部221から与えられる度に、それらの勝者ノードどうしの結合を、いわば中心として、結合重みを更新する。   That is, the connection weight updating unit 222 initializes all connection weights w in the connection weight matrix MTX to initial values (for example, 0), for example, when the power is first turned on. Then, the connection weight updating unit 222 receives teaching data, that is, a set of input data and output data, from the learning device in FIG. 20, and thereby an input label representing a winner node in the input SOM # 1 Each time a label set with an output label representing a winner node in the output SOM # 2 is given from the learning unit 221, the connection weight is updated with the connection between the winner nodes as the center.

具体的には、結合重み更新部222は、例えば、式(2)にしたがって、結合重み行列MTXの結合重みwを更新する。   Specifically, the connection weight updating unit 222 updates the connection weight w of the connection weight matrix MTX, for example, according to the equation (2).

w=(1-β)w+β△w
・・・(2)
w = (1-β) w + β △ w
... (2)

ここで、βは、結合重みwを更新する程度の表す学習率であり、0から1の範囲で与えられる。学習率βを小さくするほど、結合重みwは、あまり変化しなくなり、学習率βが0である場合には、結合重みwは変化しない。一方、学習率βを大きくするほど、結合重みwも、大きく変化し、学習率βが1である場合には、結合重みwは、更新の基準値△wに更新される。   Here, β is a learning rate representing the degree of updating the connection weight w, and is given in the range of 0 to 1. As the learning rate β decreases, the connection weight w does not change much. When the learning rate β is 0, the connection weight w does not change. On the other hand, as the learning rate β is increased, the connection weight w is also greatly changed. When the learning rate β is 1, the connection weight w is updated to the update reference value Δw.

また、基準値△wは、例えば、式(3)で与えられる。   Further, the reference value Δw is given by, for example, Expression (3).

△w=1/(1+d)
・・・(3)
△ w = 1 / (1 + d)
... (3)

ここで、dは、式(1)における場合と同様に、勝者ノードとのパターン間距離を表し、勝者ノードとなっているノードについては、d=0である。したがって、勝者ノード(となっているノード)については、基準値△wは1となり、勝者ノードからのパターン間距離dが大のノードほど、基準値△wは0に近づく。   Here, d represents the inter-pattern distance with the winner node, similarly to the case of Expression (1), and d = 0 for the node that is the winner node. Therefore, the reference value Δw is 1 for the winner node (the node that becomes), and the reference value Δw approaches 0 as the inter-pattern distance d from the winner node increases.

いま、学習部221(図20)から結合重み更新部222に供給される入力ラベルが表す入力ノード、すなわち、入力SOM#1における勝者ノードを、入力ノードNiと表すとともに、学習部221(図20)から結合重み更新部222に供給される出力ラベルが表す出力ノード、すなわち、出力SOM#2における勝者ノードを、出力ノードN'jと表すと、結合重み更新部222(図20)は、式(2)(及び式(3))にしたがい、以下のように、結合重み行列MTXの結合重みwを更新する。 Now, the input node input label supplied from the learning unit 221 (FIG. 20) to the weight updating section 222 is represented, i.e., a winning node of the input SOM # 1, together with representative of the input node N i, the learning unit 221 (FIG. 20), when the output node represented by the output label supplied to the connection weight update unit 222, that is, the winner node in the output SOM # 2, is expressed as the output node N ′ j , the connection weight update unit 222 (FIG. 20) In accordance with Expression (2) (and Expression (3)), the connection weight w of the connection weight matrix MTX is updated as follows.

すなわち、結合重み更新部222は、出力SOM#2の各出力ノードについて、出力SOM#2における勝者ノードである出力ノードN'jとのパターン間距離dを用い、式(3)にしたがって、基準値△wを求め、さらに、その基準値△wを用い、式(2)にしたがって、入力SOM#1の勝者ノードであるi番目の入力ノードNiとの結合重みwを更新する。 That is, the weight updating unit 222, for each output node of the output SOM # 2, using the inter-pattern distance d between the output node N 'j is a winning node in the output SOM # 2, according to equation (3), the reference It obtains the value △ w, further the use of a reference value △ w, according to equation (2), and updates the weight w of the i-th input node N i is the winning node of the input SOM # 1.

これにより、入力SOM#1の勝者ノードである入力ノードNiに対応する、結合重み行列MTXの第i行の(各列の)結合重みwが更新される。 Thus, corresponding to the input node N i is the winning node of the input SOM # 1, the i-th row of bond weight matrix MTX (each column) weight w is updated.

また、結合重み更新部222は、入力SOM#1の各入力ノードについて、入力SOM#1における勝者ノードである入力ノードNiとのパターン間距離dを用い、式(3)にしたがって、基準値△wを求め、さらに、その基準値△wを用い、式(2)にしたがって、出力SOM#2の勝者ノードであるj番目の出力ノードN'jとの結合重みwを更新する。 Further, the weight updating unit 222, for each input node of the input SOM # 1, using the inter-pattern distance d between the input node N i is a winning node of the input SOM # 1, in accordance with the formula (3), the reference value Δw is obtained, and further, using the reference value Δw, the connection weight w with the jth output node N ′ j that is the winner node of the output SOM # 2 is updated according to the equation (2).

これにより、出力SOM#2の勝者ノードである出力ノードN'jに対応する、結合重み行列MTXの第j列の(各行の)結合重みwが更新される。 As a result, the connection weight w (for each row) in the j-th column of the connection weight matrix MTX corresponding to the output node N ′ j that is the winner node of the output SOM # 2 is updated.

したがって、入力SOM#1の勝者ノードNiと、出力SOM#2の勝者ノードN'jとの結合重みが、結合の度合いを最も強めるように更新される。 Therefore, the winning node N i inputs SOM # 1, link weight between the winning node N 'j of the output SOM # 2 is updated to enhance the most the degree of binding.

なお、入力SOM#1の勝者ノードである入力ノードNiと、出力SOM#2の勝者ノードである出力ノードN'jとの結合重みwの更新は、出力SOM#2の各出力ノードについての、勝者ノードである入力ノードNiとの結合重みwの更新時か、または、入力SOM#1の各入力ノードについての、勝者ノードである出力ノードN'jとの結合重みwの更新時のいずれか一方においてのみ行われる。 Note that the input node N i is the winning node of the input SOM # 1, update of the weight w and the output is the winning node of SOM # 2 output node N 'j is the output SOM # 2 for each output node , when updating of weight w and the input node N i is a winning node, or, for each input node of the input SOM # 1, the weight w of the output node N 'j is a winning node update time of This is done only in either one.

以上のような結合重みw(結合重み行列MTX)の更新は、教示データとしての入力データと出力データとのセットが、図20の学習装置に対して入力される度に行われる。   The update of the connection weight w (connection weight matrix MTX) as described above is performed every time a set of input data and output data as teaching data is input to the learning apparatus in FIG.

さらに、入出力関係モデルが有する入力SOM#1の入力データを用いた学習、及び出力SOM#2の出力データを用いた学習も、教示データとしての入力データと出力データとのセットが、図20の学習装置に対して入力される度に行われる。   Further, in the learning using the input data of the input SOM # 1 and the learning using the output data of the output SOM # 2 included in the input / output relation model, a set of input data and output data as teaching data is shown in FIG. It is performed every time it is input to the learning device.

なお、入力SOM#1、及び出力SOM#2の学習が進むと、入力ノードが有するパターン記憶モデル21が、ある特定のパターンを表現(獲得)し、また、出力ノードが有するパターン記憶モデル21も、他の特定のパターンを表現するようになる。   As learning of the input SOM # 1 and the output SOM # 2 progresses, the pattern storage model 21 possessed by the input node expresses (acquires) a specific pattern, and the pattern storage model 21 possessed by the output node also , To express other specific patterns.

その結果、ある特定のパターンの入力データと、他の特定のパターンの出力データとの間に、何らかの関係性がある場合、そのような入力データと出力データとのセット(教示データ)が与えられると、入力SOM#1においてある特定のパターンを表現するパターン記憶モデル21を有する入力ノードが勝者ノードとなるとともに、出力SOM#2において他の特定のパターンを表現するパターン記憶モデル21を有する出力ノードが勝者ノードとなる。   As a result, when there is some relationship between input data of a specific pattern and output data of another specific pattern, a set (teaching data) of such input data and output data is given. The input node having the pattern storage model 21 expressing a specific pattern in the input SOM # 1 becomes the winner node, and the output node having the pattern storage model 21 expressing another specific pattern in the output SOM # 2 Becomes the winner node.

さらに、上述したように、入力SOM#1の勝者ノードを、いわば中心として、入力SOM#1の各入力ノードと、出力SOM#2の勝者ノードとの結合重みが更新されるとともに、出力SOM#2の勝者ノードを中心として、出力SOM#2の各出力ノードと、入力SOM#1の勝者ノードとの結合重みが更新される。   Furthermore, as described above, with the winner node of input SOM # 1 as the center, the connection weight of each input node of input SOM # 1 and the winner node of output SOM # 2 is updated, and output SOM # The connection weight between each output node of the output SOM # 2 and the winner node of the input SOM # 1 is updated around the 2 winner nodes.

すなわち、入力SOM#1の各入力ノードと、出力SOM#2の勝者ノードとの結合重みは、入力SOM#1の勝者ノードとのパターン間距離dが近い入力ノードほど強くなる(強化する)ように更新される。また、出力SOM#2の各出力ノードと、入力SOM#1の勝者ノードとの結合重みは、出力SOM#2の勝者ノードとのパターン間距離dが近い出力ノードほど強くなるように更新される。   That is, the connection weight between each input node of the input SOM # 1 and the winner node of the output SOM # 2 is made stronger (enhanced) as the input distance between the patterns d closer to the winner node of the input SOM # 1 is shorter. Updated to Also, the connection weight between each output node of the output SOM # 2 and the winner node of the input SOM # 1 is updated so that the output node having a shorter inter-pattern distance d with the winner node of the output SOM # 2 is updated. .

逆に言えば、入力SOM#1の各入力ノードと、出力SOM#2の勝者ノードとの結合重みは、入力SOM#1の勝者ノードとのパターン間距離dが遠い入力ノードほど弱くなる(弱化する)ように更新される。また、出力SOM#2の各出力ノードと、入力SOM#1の勝者ノードとの結合重みも、出力SOM#2の勝者ノードとのパターン間距離dが遠い出力ノードほど弱くなるように更新される。   In other words, the connection weight between each input node of input SOM # 1 and the winner node of output SOM # 2 becomes weaker as the inter-pattern distance d from the winner node of input SOM # 1 is farther (weakened) Updated). Also, the connection weight between each output node of the output SOM # 2 and the winner node of the input SOM # 1 is also updated so that the output node whose pattern distance d from the winner node of the output SOM # 2 is farther becomes weaker. .

多数の教示データが与えられ、入力SOM#1、及び出力SOM#2の学習が進み、さらに、結合重みの更新が進むと、その結合重みによって、入力データ(のパターン)と出力データ(のパターン)とを関係付ける入出力関係モデルを獲得することができる。   Given a lot of teaching data, learning of input SOM # 1 and output SOM # 2 progresses, and when the connection weight is updated, input data (pattern) and output data (pattern) are determined by the connection weight. ) Can be obtained.

そして、入力データと出力データとを関係付ける入出力関係モデルによれば、ある入力データが与えられた場合に、入力SOM#1において、その入力データに最も適合する勝者ノードを決定することができ、その勝者ノードとの結合重みが最強の出力SOM#2の出力ノードを決定することができる。さらに、その出力ノード(が有するパターン記憶モデル21)を用いて、入力データに対して出力すべき出力データを再構成した再構成出力データを得ることができる。   Then, according to the input / output relationship model that relates input data and output data, given input data, it is possible to determine the winner node that best matches the input data in input SOM # 1. The output node of the output SOM # 2 having the strongest connection weight with the winner node can be determined. Furthermore, reconstructed output data obtained by reconstructing output data to be output with respect to input data can be obtained using the output node (the pattern storage model 21 included in the output node).

次に、図29の認識生成装置において、入力データを認識し、その認識結果に基づき、その入力データに対して出力すべき出力データを再構成した再構成出力データを生成する認識生成処理について、図23のフローチャートを参照して説明する。   Next, in the recognition generation apparatus in FIG. 29, recognition processing for generating reconstructed output data by recognizing input data and reconstructing output data to be output with respect to the input data based on the recognition result. This will be described with reference to the flowchart of FIG.

この認識生成処理では、ステップS211において、入力データが、図20の認識生成装置に入力され、認識生成装置が入力データを認識する。   In this recognition generation process, in step S211, input data is input to the recognition generation apparatus in FIG. 20, and the recognition generation apparatus recognizes the input data.

すなわち、入力データは、スコア計算部231に供給され、スコア計算部231は、ステップS212において、入力データに対して、入出力関係モデルを構成するパターン記憶SOM#1の各ノードNiのスコアを計算し、勝者ノード決定部232に供給する。 That is, the input data is supplied to the score calculation unit 231, the score calculation unit 231, at step S212, the relative input data, the scores for each node N i of pattern storage SOM # 1 constituting the input-output relationship model Calculate and supply to the winner node determination unit 232.

ステップS213において、勝者ノード決定部232は、入出力関係モデルを構成するパターン記憶SOM#1のノードの中で、スコア計算部231からのスコアが最も高いノードを、勝者ノードNiに決定し、その勝者ノードNiを表す入力ラベルを、入力データの認識結果として、生成ノード決定部233に供給する。 In step S213, winning node determining unit 232 in the pattern storage SOM # 1 of nodes constituting the input-output relationship model, the highest node score from the score computing unit 231 determines the winning node N i, the input label representing the winning node N i, as a recognition result of the input data, and supplies the generated node determiner 233.

ステップS214において、生成ノード決定部233が、入出力関係モデルを構成するパターン記憶SOM#2のノードの中で、勝者ノード決定部232からの認識結果としての入力ラベルが表すノードNiとの結合重みが最も強いノードN'jを生成ノードに決定し、その生成ノードN'jを表す出力ラベルを再構成部234に供給する。 In step S214, the binding of the generation node determiner 233, in the pattern storing SOM # 2 that constitute the input-output relationship model node, a node N i represented by the input label as a recognition result from the winning node determining unit 232 The node N ′ j having the strongest weight is determined as a generation node, and an output label representing the generation node N ′ j is supplied to the reconstruction unit 234.

ステップS215において、再構成部234は、入出力関係モデルを構成するパターン記憶SOM#2のノードのうちの、生成ノード決定部233からの出力ラベルが表すノードN'j、つまり、生成ノードを用い、認識生成装置に供給された入力データに対して出力すべき出力データの推定値としての、その出力データを再構成した再構成出力データを、図12の再構成部53と同様にして取得(生成)して出力する。以上で、認識生成処理は終了される。 In step S215, the reconfiguration unit 234 uses the node N ′ j represented by the output label from the generation node determination unit 233 among the nodes of the pattern storage SOM # 2 constituting the input / output relationship model, that is, the generation node. The reconstructed output data obtained by reconstructing the output data as the estimated value of the output data to be output with respect to the input data supplied to the recognition generator is acquired in the same manner as the reconstructing unit 53 in FIG. Generated) and output. This completes the recognition generation process.

次に、図24は、本体モデル及び分割誤差モデルとして、入出力関係モデルが採用されている場合の、図18の本体モデル記憶部202と分割誤差モデル記憶部204の記憶内容を、模式的に示している。   Next, FIG. 24 schematically shows the storage contents of the main body model storage unit 202 and the division error model storage unit 204 in FIG. 18 when the input / output relation model is adopted as the main body model and the division error model. Show.

図24において、本体モデル記憶部202には、本体モデルとしての入出力関係モデルが記憶されており、分割誤差モデル記憶部204には、分割誤差モデルとしての入出力関係モデルが記憶されている。   24, the main body model storage unit 202 stores an input / output relation model as a main body model, and the division error model storage section 204 stores an input / output relation model as a division error model.

ここで、以下、適宜、本体モデルとしての入出力関係モデルを、本体入出力関係モデルとも称し、分割誤差モデルとしての入出力関係モデルを、誤差入出力関係モデルとも称する。   Hereafter, the input / output relationship model as the main body model is also referred to as a main body input / output relationship model, and the input / output relationship model as the division error model is also referred to as an error input / output relationship model.

本体入出力関係モデル、及び誤差入出力関係モデルは、2つのパターン記憶SOMを有し、その2つのSOMのノードどうしが結合された入出力関係モデルである。   The main body input / output relation model and the error input / output relation model are input / output relation models in which two pattern storage SOMs are connected and nodes of the two SOMs are combined.

すなわち、本体入出力関係モデルは、入力データSの学習用のパターン記憶SOMと、出力データAの学習用のパターン記憶SOMとを有する。そして、入力データSの学習用のパターン記憶SOMと、出力データAの学習用のパターン記憶SOMを、それぞれ、入力本体SOMと出力本体SOMと称することにすると、本体入出力関係モデルでは、入力本体SOMと出力本体SOMとのノードどうしが結合されており、入力本体SOMと出力本体SOMとのノードどうしの結合の強さは、結合重みによって表される。   That is, the main body input / output relation model has a pattern storage SOM for learning the input data S and a pattern storage SOM for learning the output data A. Then, the pattern memory SOM for learning the input data S and the pattern memory SOM for learning the output data A are referred to as the input body SOM and the output body SOM, respectively. The nodes of the SOM and the output body SOM are coupled to each other, and the strength of coupling between the input body SOM and the output body SOM is represented by a coupling weight.

ここで、以下、適宜、本体入出力関係モデルの結合重みを、本体結合重みともいう。   Here, hereinafter, the connection weight of the main body input / output relation model is also referred to as a main body connection weight.

誤差入出力関係モデルは、分割入力誤差データ△Siの学習用のパターン記憶SOMと、分割出力誤差データ△Aiの学習用のパターン記憶SOMとを有する。そして、分割入力誤差データ△Siの学習用のパターン記憶SOMと、分割出力誤差データ△Aiの学習用のパターン記憶SOMを、それぞれ、分割入力誤差SOMと分割出力誤差SOMと称することにすると、誤差入出力関係モデルでは、分割入力誤差SOMと分割出力誤差SOMとのノードどうしは結合されており、分割入力誤差SOMと分割出力誤差SOMとのノードどうしの結合の強さは、結合重みによって表される。 The error input / output relation model has a pattern storage SOM for learning the divided input error data ΔS i and a pattern storage SOM for learning the divided output error data ΔA i . The pattern storage SOM for learning the divided input error data ΔS i and the pattern memory SOM for learning the divided output error data ΔA i are referred to as a divided input error SOM and a divided output error SOM, respectively. In the error input / output relationship model, the nodes of the divided input error SOM and the divided output error SOM are combined, and the strength of the connection between the divided input error SOM and the divided output error SOM depends on the combination weight. expressed.

以下、適宜、誤差入出力関係モデルの結合重みを、誤差結合重みともいう。   Hereinafter, the connection weight of the error input / output relationship model is also referred to as an error connection weight as appropriate.

図25は、図24の本体入出力関係モデル及び誤差入出力関係モデルに対して入出力することができるデータを説明する図である。   FIG. 25 is a diagram for explaining data that can be input / output with respect to the main body input / output relation model and the error input / output relation model of FIG.

本体入出力関係モデルの入力本体SOMに対しては、学習の対象となる入力データS(教示データを構成する入力データS)、及び認識の対象となる入力データSが入力される。また、入力本体SOMからは、そこに入力される入力データSに対して、その入力データSを再構成した再構成入力データSRを出力することができる。 Input data S to be learned (input data S constituting teaching data) and input data S to be recognized are input to the input body SOM of the body input / output relation model. Further, the input body SOM can output reconstructed input data S R obtained by reconfiguring the input data S with respect to the input data S input thereto.

本体入出力関係モデルの出力本体SOMに対しては、学習の対象となる出力データA(入力本体SOMに入力される入力データSとともに教示データを構成する出力データA)が入力される。また、出力本体SOMからは、そこに入力される出力データAや、入力本体SOMに入力される入力データSに対して出力すべき出力データAを再構成した再構成出力データARを出力することができる。 To the output body SOM of the body input / output relation model, output data A (output data A constituting the teaching data together with the input data S inputted to the input body SOM) is inputted. In addition, the output body SOM outputs the reconstructed output data A R obtained by reconstructing the output data A input thereto and the output data A to be output with respect to the input data S input to the input body SOM. be able to.

誤差入出力関係モデルの分割入力誤差SOMに対しては、入力本体SOMに入力される入力データSと、その入力データSに対して入力本体SOMから出力される再構成入力データSRとの誤差である分割入力誤差データ△Sを所定の次元毎あるいは所定の時間毎に分割した分割入力誤差データ△Siが入力される。 For the divided input error SOM of the error input / output relationship model, the error between the input data S input to the input body SOM and the reconstructed input data S R output from the input body SOM with respect to the input data S The divided input error data ΔS i is obtained by dividing the divided input error data ΔS, which is the above, for each predetermined dimension or every predetermined time.

誤差入出力関係モデルの分割出力誤差SOMに対しては、出力本体SOMに入力される出力データAと、その出力データAに対して出力本体SOMから出力される再構成出力データARとの誤差である分割出力誤差データ△Aを所定の次元毎あるいは所定の時間毎に分割した分割出力誤差データ△Aiが入力される。また、分割出力誤差SOMからは、そこに入力される分割出力誤差データ△Aiや、分割入力誤差SOMに入力される分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiを出力することができる。 For the divided output error SOM of the error input / output relationship model, the error between the output data A input to the output body SOM and the reconstructed output data A R output from the output body SOM with respect to the output data A The divided output error data ΔA i obtained by dividing the divided output error data ΔA is divided for each predetermined dimension or every predetermined time. Also, from the divided output error SOM, division and outputs error data △ A i input thereto, the divided output error data △ A i corresponding to the divided input error data △ S i which is input to the divided input error SOM re The configured divided reconstruction output error data ΔA Ri can be output.

ここで、分割入力誤差データ△Siに対応する分割出力誤差データ△Aiとは、上述したように、分割入力誤差データ△Siが得られる入力データSに対して出力すべき出力データAから得られる分割出力誤差データ△Aiを意味する。 Here, the divided output error data ΔA i corresponding to the divided input error data ΔS i is, as described above, the output data A to be output with respect to the input data S from which the divided input error data ΔS i is obtained. The divided output error data ΔA i obtained from

次に、図24及び図25に示したように、本体モデル及び分割誤差モデルとして、入出力関係モデルが採用されている場合の、図18の本体学習モジュール101、誤差学習モジュール102、及び制御部103による学習処理について、図26のフローチャートを参照して説明する。   Next, as shown in FIGS. 24 and 25, when the input / output relation model is adopted as the main body model and the division error model, the main body learning module 101, the error learning module 102, and the control unit in FIG. The learning process according to 103 will be described with reference to the flowchart of FIG.

この学習処理では、学習処理の対象となる入力データS及び出力データAのセットである教示データが、外部から、演算部201と誤差算出部205に供給される。   In this learning process, teaching data that is a set of input data S and output data A to be subjected to the learning process is supplied from the outside to the calculation unit 201 and the error calculation unit 205.

ステップS251において、演算部201は、供給された教示データを構成する入力データSの学習、すなわち、入力データSを用いて、本体モデル記憶部202に記憶された本体入出力関係モデルの入力本体SOMを自己組織的に更新する、入力本体SOMの自己組織的な学習を、図11のステップS3乃至S7で説明したように行う。   In step S251, the arithmetic unit 201 learns the input data S constituting the supplied teaching data, that is, the input body SOM of the body input / output relation model stored in the body model storage unit 202 using the input data S. The self-organized learning of the input main body SOM is performed as described in steps S3 to S7 in FIG.

ステップS252において、演算部201は、供給された教示データを構成する出力データA(ステップS251で学習がされた入力データSに対して出力すべき出力データA)の学習、すなわち、出力データAを用いて、本体モデル記憶部202に記憶された本体入出力関係モデルの出力本体SOMを自己組織的に更新する、出力本体SOMの自己組織的な学習を、図11のステップS3乃至S7で説明したように行う。   In step S252, the calculation unit 201 learns the output data A (output data A to be output with respect to the input data S learned in step S251) constituting the supplied teaching data, that is, the output data A. The self-organized learning of the output main body SOM, which uses the self-organized update of the output main body SOM of the main body input / output relation model stored in the main body model storage unit 202, has been described in steps S3 to S7 in FIG. Do as follows.

ステップS253において、演算部201は、本体モデル記憶部202に記憶された本体入出力関係モデルの入力本体SOMを構成するノードの中から、入力データSに対する勝者ノードを決定する。ここでは、入力本体SOMを構成するノードのうちの、入力データSに対するスコアが最も高いノードが、入力データSに対する勝者ノードに決定される。   In step S <b> 253, the calculation unit 201 determines a winner node for the input data S from among the nodes constituting the input body SOM of the body input / output relation model stored in the body model storage unit 202. Here, the node having the highest score for the input data S among the nodes constituting the input body SOM is determined as the winner node for the input data S.

なお、入力データSに対する勝者ノードは、ステップS251の自己組織的な学習で決定されるので、ステップS253では、その勝者ノードをそのまま採用することができる。ただし、ステップS253では、ステップS251とは別に、入力本体SOMを構成する各ノードについて、入力データSに対するスコアを求め、そのスコアの最も高いノードを、入力データSに対する勝者ノードに決定することができる。   Since the winner node for the input data S is determined by self-organized learning in step S251, the winner node can be employed as it is in step S253. However, in step S253, separately from step S251, for each node constituting the input body SOM, the score for the input data S can be obtained, and the node with the highest score can be determined as the winner node for the input data S. .

ステップS254において、演算部201は、本体モデル記憶部202に記憶された本体入出力関係モデルの出力本体SOMを構成するノードの中から、出力データAに対する勝者ノードを決定する。ここでは、ステップS253と同様に、ステップS252の自己組織的な学習で決定される勝者ノードをそのまま採用することもできるし、ステップS252とは別に、出力本体SOMを構成する各ノードについて、出力データAに対するスコアを求め、そのスコアの最も高いノードを、出力データAに対する勝者ノードに決定することもできる。   In step S254, the arithmetic unit 201 determines a winner node for the output data A from the nodes constituting the output main body SOM of the main body input / output relation model stored in the main body model storage unit 202. Here, as in step S253, the winner node determined by the self-organizing learning in step S252 can be adopted as it is, and, apart from step S252, the output data for each node constituting the output main body SOM is used. A score for A can be obtained, and the node with the highest score can be determined as the winner node for the output data A.

ステップS255において、演算部201は、結合重み更新部222(図20)と同様に、ステップS253で得られた入力本体SOMの勝者ノードを中心として、入力本体SOMの各ノードと、ステップS254で得られた出力本体SOMの勝者ノードとの本体結合重みを更新するとともに、出力本体SOMの勝者ノードを中心として、出力本体SOMの各ノードと、入力本体SOMの勝者ノードとの本体結合重みを更新する。   In step S255, as in the connection weight update unit 222 (FIG. 20), the calculation unit 201 obtains each node of the input body SOM from the winner node of the input body SOM obtained in step S253, and obtains in step S254. Update the body connection weight with the winner node of the output body SOM, and update the body connection weight between each node of the output body SOM and the winner node of the input body SOM, centering on the winner node of the output body SOM .

ステップS256において、演算部201は、ステップS253で決定された入力本体SOMの勝者ノードを用いて、入力データSを再構成した再構成入力データSRを、図12の再構成部53と同様にして生成(取得)し、誤差算出部205に供給する。 In step S256, the arithmetic unit 201 uses the winning node of the input body SOM determined in step S253, the reconstructed input data S R which reconstructs the input data S, in the same manner as reconstruction unit 53 in FIG. 12 Generated (obtained) and supplied to the error calculation unit 205.

ステップS257において、誤差算出部205は、外部からの入力データSと、その入力データSに対して演算部201が出力した再構成入力データSRとを用いて、入力誤差データ△S=S-SRを算出し、データ分割部206に供給する。データ分割部206は、入力誤差データ△Sを、予め決定されている所定の次元毎あるいは所定の時間毎に分割し、その結果得られた分割入力誤差データ△Siを演算部203に供給する。 In step S257, the error calculation unit 205 uses the input data S from the outside and the reconstructed input data S R output from the calculation unit 201 with respect to the input data S, and the input error data ΔS = SS R. Is calculated and supplied to the data dividing unit 206. The data dividing unit 206 divides the input error data ΔS for each predetermined dimension or every predetermined time, and supplies the divided input error data ΔS i obtained as a result to the arithmetic unit 203. .

ステップS258において、演算部203は、データ分割部206からの分割入力誤差データ△Siの学習、すなわち、分割入力誤差データ△Siを用いて、分割誤差モデル記憶部204に記憶された誤差入出力関係モデルの分割入力誤差SOMを自己組織的に更新する、分割入力誤差SOMの自己組織的な学習を、図11のステップS3乃至S7で説明したように行う。 In step S258, the calculation unit 203 learns the divided input error data ΔS i from the data dividing unit 206, that is, uses the divided input error data ΔS i to input the error input stored in the divided error model storage unit 204. Self-organized learning of the divided input error SOM for updating the divided input error SOM of the output relation model in a self-organized manner is performed as described in steps S3 to S7 in FIG.

ステップS259において、演算部201は、ステップS254で決定された出力本体SOMの勝者ノードを用いて、出力データAを再構成した再構成出力データARを、図12の再構成部53と同様にして生成(取得)し、誤差算出部205及び加算部208に供給する。 In step S259, the calculation unit 201 uses the winner node of the output main body SOM determined in step S254 to reconstruct the reconstructed output data A R in the same manner as the reconstructing unit 53 in FIG. Are generated (obtained) and supplied to the error calculator 205 and the adder 208.

ステップS260において、誤差算出部205は、外部からの出力データAと、その出力データAに対して演算部201が出力した再構成出力データARとを用いて、出力誤差データ△A、すなわち、ステップS257で算出した分割入力誤差データ△Sに対応する出力誤差データ△A=A-ARを算出し、データ分割部206に供給する。データ分割部206は、出力誤差データ△Aを、予め決定されている所定の次元毎あるいは所定の時間毎に分割し、その結果得られた分割出力誤差データ△Aiを演算部203に供給する。 In step S260, the error calculation unit 205 uses the output data A from the outside and the reconstructed output data A R output from the calculation unit 201 with respect to the output data A, that is, output error data ΔA, that is, Output error data ΔA = AA R corresponding to the divided input error data ΔS calculated in step S 257 is calculated and supplied to the data dividing unit 206. The data dividing unit 206 divides the output error data ΔA for each predetermined dimension or every predetermined time, and supplies the obtained divided output error data ΔA i to the arithmetic unit 203. .

ステップS261において、演算部203は、データ分割部206からの分割出力誤差データ△Aiの学習、すなわち、分割出力誤差データ△Aiを用いて、分割誤差モデル記憶部204に記憶された誤差入出力関係モデルの分割出力誤差SOMを自己組織的に更新する、分割出力誤差SOMの自己組織的な学習を、図11のステップS3乃至S7で説明したように行う。 In step S261, the arithmetic unit 203 learns the divided output error data ΔA i from the data dividing unit 206, that is, uses the divided output error data ΔA i to input the error input stored in the divided error model storage unit 204. Self-organized learning of the divided output error SOM for updating the divided output error SOM of the output relation model in a self-organized manner is performed as described in steps S3 to S7 in FIG.

ステップS262において、演算部203は、分割誤差モデル記憶部204に記憶された誤差入出力関係モデルの分割入力誤差SOMを構成するノードの中から、分割入力誤差データ△Siに対する勝者ノードを決定する。ここでは、ステップS253と同様に、ステップS258の自己組織的な学習で決定される勝者ノードをそのまま採用することもできるし、ステップS258とは別に、分割入力誤差SOMを構成する各ノードについて、分割入力誤差データ△Siに対するスコアを求め、そのスコアの最も高いノードを、分割入力誤差データ△Siに対する勝者ノードに決定することもできる。 In step S262, the arithmetic unit 203 determines a winner node for the divided input error data ΔS i from the nodes constituting the divided input error SOM of the error input / output relation model stored in the divided error model storage unit 204. . Here, as in step S253, the winner node determined by the self-organizing learning in step S258 can be adopted as it is, and, apart from step S258, for each node constituting the divided input error SOM, obtains a score for the input error data △ S i, the highest node of the scores may be determined winning node for splitting the input error data △ S i.

ステップS263において、演算部203は、分割誤差モデル記憶部204に記憶された誤差入出力関係モデルの分割出力誤差SOMを構成するノードの中から、分割出力誤差データ△Aiに対する勝者ノードを決定する。ここでは、ステップS253と同様に、ステップS261の自己組織的な学習で決定される勝者ノードをそのまま採用することもできるし、ステップS261とは別に、分割出力誤差SOMを構成する各ノードについて、分割出力誤差データ△Aiに対するスコアを求め、そのスコアの最も高いノードを、分割出力誤差データ△Aiに対する勝者ノードに決定することもできる。 In step S263, the arithmetic unit 203 determines a winner node for the divided output error data ΔA i from the nodes constituting the divided output error SOM of the error input / output relation model stored in the divided error model storage unit 204. . Here, as in step S253, the winner node determined by the self-organizing learning in step S261 can be used as it is, or, separately from step S261, for each node constituting the divided output error SOM, It obtains a score for output error data △ a i, the highest node of the scores may be determined winning node for dividing the output error data △ a i.

ステップS264において、演算部203は、結合重み更新部222(図20)と同様に、ステップS262で得られた分割入力誤差SOMの勝者ノードを中心として、分割入力誤差SOMの各ノードと、ステップS263で得られた分割出力誤差SOMの勝者ノードとの誤差結合重みを更新するとともに、分割出力誤差SOMの勝者ノードを中心として、分割出力誤差SOMの各ノードと、分割入力誤差SOMの勝者ノードとの誤差結合重みを更新する。以上で、学習処理は終了される。   In step S264, as in the connection weight updating unit 222 (FIG. 20), the calculation unit 203 performs the process of step S263 with each node of the divided input error SOM around the winner node of the divided input error SOM obtained in step S262. In addition to updating the error coupling weight with the winner node of the divided output error SOM obtained in step 1, with the winner node of the divided output error SOM as the center, each node of the divided output error SOM and the winner node of the divided input error SOM Update error coupling weights. This completes the learning process.

以上のように、図26の学習処理では、本体入出力関係モデルにおいて、本来学習すべき入力データS及び出力データAの学習が行われるとともに、本体入出力関係モデルの入力本体SOMと出力本体SOMとのノードどうしを結合する本体結合重みの更新が行われる。さらに、図26の学習処理では、誤差入出力関係モデルにおいて、教示データを構成する入力データSと、その入力データSを本体入出力関係モデルが再構成することにより得られる再構成入力データSRとの誤差である入力誤差データ△S、及び、教示データを構成する出力データAと、その出力データSを本体入出力関係モデルが再構成することにより得られる再構成出力データARとの誤差である出力誤差データ△A(入力誤差データ△Sに対応する出力誤差データ△A)をそれぞれ所定の次元毎あるいは所定の時間毎に分割した分割入力誤差データ△Siと分割出力誤差データ△Aiとの学習が行われるとともに、誤差入出力関係モデルの分割入力誤差SOMと分割出力誤差SOMとのノードどうしを結合する誤差結合重みの更新が行われる。 As described above, in the learning process of FIG. 26, in the main body input / output relation model, the input data S and the output data A to be originally learned are learned, and the input main body SOM and the output main body SOM of the main body input / output relation model The body connection weights for connecting the nodes are updated. Further, in the learning process of FIG. 26, in the error input / output relation model, the input data S constituting the teaching data and the reconstructed input data S R obtained by reconstructing the input data S by the main body input / output relation model. The error between the input error data △ S that is the error between the output data A and the output data A that constitutes the teaching data, and the reconstructed output data A R that is obtained by reconfiguring the output data S by the main body input / output relation model Output error data ΔA (output error data ΔA corresponding to input error data ΔS) divided into predetermined input data or divided input error data ΔS i and divided output error data ΔA. Learning with i is performed, and at the same time, error coupling weights for coupling nodes of the divided input error SOM and the divided output error SOM of the error input / output relation model are updated.

すなわち、図26の学習処理では、入力データS及び出力データAの学習、並びに、それらの入力データSと出力データAとを関係付ける本体結合重みの更新の他に、その入力データSを再構成した再構成入力データSRの誤差である入力誤差データ△Sを分割した分割入力誤差データ△Siと、その入力データSに対して出力すべき出力データAを再構成した再構成出力データARの誤差である出力誤差データ△Aを分割した分割出力誤差データ△Aiとの学習、並びに、それらの分割入力誤差データ△Siと分割出力誤差データ△Aiとを対応付ける誤差結合重みの更新が行われる。 That is, in the learning process of FIG. 26, in addition to learning of the input data S and output data A, and updating of the body coupling weight relating the input data S and the output data A, the input data S is reconstructed. The divided input error data ΔS i obtained by dividing the input error data ΔS, which is the error of the reconstructed input data S R , and the reconstructed output data A obtained by reconstructing the output data A to be output for the input data S The learning of the divided output error data ΔA i obtained by dividing the output error data ΔA, which is the error of R , and the error coupling weight for associating the divided input error data ΔS i with the divided output error data ΔA i Updates are made.

分割入力誤差データ△Siと分割出力誤差データ△Aiとは、認識生成処理で等価的に行われる量子化及び逆量子化によって生じる量子化誤差に相当し、学習処理において、この量子化誤差を、誤差入出力関係モデルで学習しておくことにより、認識生成処理では、この量子化誤差を適切に考慮した処理を行うことができ、その結果、認識生成処理で生じる量子化誤差を効率的に低減することができる。 The divided input error data ΔS i and the divided output error data ΔA i correspond to quantization errors caused by quantization and inverse quantization equivalently performed in the recognition generation process. In the learning process, the quantization error By learning with the error input / output relationship model, the recognition generation process can perform processing that appropriately considers this quantization error, and as a result, the quantization error generated in the recognition generation process can be efficiently processed. Can be reduced.

なお、図26の学習処理は、例えば、学習処理の対象となる入力データS及び出力データAのセットである教示データが入力される度に行われる。   Note that the learning process in FIG. 26 is performed each time teaching data that is a set of input data S and output data A to be subjected to the learning process is input, for example.

また、図26の学習処理を、ある程度の数の教示データをあらかじめ用意して行う場合において、入力データS及び出力データAの学習、並びに、本体結合重みの更新(以下、適宜、本体学習と称する)と、分割入力誤差データ△Si及び分割出力誤差データ△Aiの学習、並びに、誤差結合重みの更新(以下、適宜、誤差学習と称する)とは、同時に行ってもよし、個別に行ってもよい。 Further, when the learning process of FIG. 26 is performed by preparing a certain number of teaching data in advance, learning of the input data S and output data A, and updating of the body connection weight (hereinafter referred to as body learning as appropriate). ) and, learning of the divided input error data △ S i and the divided output error data △ a i, and the updating of the error connection weights (hereinafter, as appropriate, and is referred to as error learning), Good be carried out simultaneously, performed separately May be.

すなわち、学習処理では、あらかじめ用意された教示データが1つ与えられる度に、本体学習及び誤差学習の両方を行ってもよいし、あらかじめ用意された教示データすべてを用いて、本体学習を行い、その後、あらかじめ用意された教示データすべてを用いて、誤差学習を行ってもよい。   That is, in the learning process, each time one piece of pre-prepared teaching data is given, both main body learning and error learning may be performed, or main body learning is performed using all the pre-prepared teaching data, Thereafter, error learning may be performed using all the prepared teaching data.

次に、図24及び図25に示したように、本体モデル及び分割誤差モデルとして、入出力関係モデルが採用されている場合の、図18の本体学習モジュール101、誤差学習モジュール102、及び制御部103による認識生成処理について、図27のフローチャートを参照して説明する。   Next, as shown in FIGS. 24 and 25, when the input / output relation model is adopted as the main body model and the division error model, the main body learning module 101, the error learning module 102, and the control unit in FIG. The recognition generation process by 103 will be described with reference to the flowchart of FIG.

この認識生成処理では、認識の対象となる入力データSが、外部から、演算部201と誤差算出部205に供給される。   In this recognition generation process, input data S to be recognized is supplied from the outside to the calculation unit 201 and the error calculation unit 205.

ステップS281において、演算部201は、供給された入力データSを、図26の学習処理の学習結果に基づいて認識する認識処理を行う。すなわち、演算部201は、本体モデル記憶部202に記憶された本体入出力関係モデルの入力本体SOMを構成するノードの中から、入力データSに対する勝者ノードを決定し、その勝者ノード(を表すノードラベル)を、入力データSの認識結果とする。   In step S281, the calculation unit 201 performs a recognition process for recognizing the supplied input data S based on the learning result of the learning process in FIG. That is, the computing unit 201 determines a winner node for the input data S from the nodes constituting the input body SOM of the body input / output relation model stored in the body model storage unit 202, and represents the winner node Label) is the recognition result of the input data S.

ステップS282において、演算部201は、入力データSの認識結果に基づき、その入力データSに対して出力すべき出力データAを再構成した再構成出力データARを生成(取得)するのに用いる生成ノードを、出力本体SOMを構成するノードの中から決定する。すなわち、演算部201は、入力データSの認識結果としてのノードラベルが表す入力本体SOMの勝者ノードとの本体結合重みが最も強い出力本体SOMのノードを検出し、そのノードを、入力データSに対して出力すべき出力データAを再構成した再構成出力データARを生成するのに用いる生成ノードに決定する。 In step S282, the calculation unit 201 is used to generate (acquire) reconstructed output data A R obtained by reconstructing the output data A to be output for the input data S based on the recognition result of the input data S. The generation node is determined from among the nodes constituting the output body SOM. That is, the arithmetic unit 201 detects a node of the output body SOM having the strongest body coupling weight with the winner node of the input body SOM represented by the node label as the recognition result of the input data S, and the node is input to the input data S. On the other hand, it is determined as a generation node used to generate reconstructed output data A R obtained by reconstructing output data A to be output.

ステップS283において、演算部201は、ステップS281での入力データSの認識結果に基づき、その入力データSを再構成した再構成入力データSRを生成して、誤差算出部205に供給する。すなわち、演算部201は、入力データSの認識結果としての、その入力データSに対する勝者ノードを用いて、入力データSを再構成した再構成入力データSRを、図12の再構成部53と同様にして生成(取得)し、誤差算出部205に供給する。 In step S283, the arithmetic unit 201, based on the recognition result of the input data S in step S281, and generates a reconstructed input data S R which reconstructs the input data S, and supplies the error calculation unit 205. That is, the arithmetic unit 201 uses the winner node for the input data S as the recognition result of the input data S to reconstruct the reconfigured input data S R with the reconstructing unit 53 of FIG. Similarly, it is generated (acquired) and supplied to the error calculation unit 205.

ステップS284において、誤差算出部205は、供給された入力データSと、その入力データSに対して演算部201がステップS283で再構成した再構成入力データSRとの入力誤差データ△Sを算出し、データ分割部206に供給する。データ分割部206は、入力誤差データ△Sを、予め決定された所定の次元毎あるいは所定の時間毎に分割し、その結果得られた分割入力誤差データ△Siを演算部203及び補正データ生成部207に供給する。 In step S284, the error calculation unit 205, calculates a supplied input data S, an input error data △ S and reconstructed input data S R by the calculation unit 201 is reconstructed in step S283 with respect to the input data S Then, the data is supplied to the data dividing unit 206. The data dividing unit 206 divides the input error data ΔS for each predetermined dimension or every predetermined time, and generates the divided input error data ΔS i obtained as a result of the calculation unit 203 and the correction data generation. Supplied to the unit 207.

ステップS285において、演算部203は、データ分割部206からの分割入力誤差データ△Siに基づき、図26の学習処理の学習結果に基づいて認識する認識処理を行う。すなわち、演算部203は、分割誤差モデル記憶部204に記憶された誤差入出力関係モデルの分割入力誤差SOMを構成するノードの中から、分割入力誤差データ△Siに対する勝者ノードを決定し、その勝者ノード(を表すノードラベル)を、分割入力誤差データ△Siの認識結果とする。 In step S285, the calculation unit 203 performs a recognition process based on the learning result of the learning process of FIG. 26 based on the divided input error data ΔS i from the data dividing unit 206. That is, the calculation unit 203 determines a winner node for the divided input error data ΔS i from among the nodes constituting the divided input error SOM of the error input / output relation model stored in the divided error model storage unit 204, The winner node (representing the node label) is set as the recognition result of the divided input error data ΔS i .

ステップS286において、演算部203は、分割入力誤差データ△Siの認識結果に基づき、その分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiを生成(取得)するのに用いる生成ノードを、分割出力誤差SOMを構成するノードの中から決定する。すなわち、演算部203は、分割入力誤差データ△Siの認識結果としてのノードラベルが表す分割入力誤差SOMの勝者ノードとの誤差結合重みが最も強い分割出力誤差SOMのノードを検出し、そのノードを、分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiを生成するのに用いる生成ノードに決定する。 In step S286, the arithmetic unit 203 divides the input error data △ S i of based on the recognition result, the divided input error data △ S divided output error data △ divided reconstructed output error data to reconstruct the A i corresponding to the i A generation node used to generate (acquire) ΔA Ri is determined from the nodes constituting the divided output error SOM. That is, the arithmetic unit 203 detects a node of the divided output error SOM having the strongest error coupling weight with the winner node of the divided input error SOM represented by the node label as the recognition result of the divided input error data ΔS i , and the node Is determined as a generation node used to generate divided reconstructed output error data ΔA Ri obtained by reconstructing the divided output error data ΔA i corresponding to the divided input error data ΔS i .

ステップS287において、演算部201は、ステップS282で、入力データSに対して出力すべき出力データAを再構成した再構成出力データARを生成するのに用いる生成ノードに決定した出力本体SOMのノードを用い、入力データSに対して出力すべき出力データAを再構成して、その結果得られる再構成出力データARを出力する。 In step S287, the arithmetic unit 201, in step S282, the output body SOM determined to generate a node used to produce a reconstructed output data A R reconstructed output data A to be output to the input data S using node, to reconfigure the output data a to be output to the input data S, and outputs the reconstructed output data a R the resulting.

すなわち、演算部201は、入力データSに対する入力本体SOMの勝者ノードとの本体結合重みが最も強い出力本体SOMのノードを用い、入力データSに対して出力すべき出力データAを再構成した再構成出力データARを、図12の再構成部53(図20の再構成部234)と同様にして取得(生成)して出力する。演算部201が出力する再構成出力データARは、誤差算出部205及び加算部208に供給される。 That is, the arithmetic unit 201 uses the node of the output body SOM having the strongest body connection weight with the winner node of the input body SOM for the input data S, and reconstructs the output data A to be output for the input data S. The configuration output data A R is acquired (generated) and output in the same manner as the reconstruction unit 53 in FIG. 12 (reconstruction unit 234 in FIG. 20). The reconstructed output data A R output from the calculation unit 201 is supplied to the error calculation unit 205 and the addition unit 208.

ステップS288において、演算部203は、ステップS286で、分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiを生成するのに用いる生成ノードに決定した分割出力誤差SOMのノードを用い、入力データSから得られた入力誤差データ△Sに対応する分割出力誤差データ△Aiを再構成して、その結果得られる分割再構成出力誤差データ△ARiを出力する。 In step S288, the calculation unit 203 generates the divided reconstructed output error data ΔA Ri obtained by reconstructing the divided output error data ΔA i corresponding to the divided input error data ΔS i in step S286. Using the node of the divided output error SOM determined as a node, the divided output error data ΔA i corresponding to the input error data ΔS obtained from the input data S is reconstructed, and the resulting divided reconstructed output error Data △ A Ri is output.

すなわち、演算部203は、入力データSから得られた分割入力誤差データ△Siに対する分割入力誤差SOMの勝者ノードとの誤差結合重みが最も強い分割出力誤差SOMのノードを用い、入力データSから得られた分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiを、図12の再構成部53(図20の再構成部234)と同様にして取得(生成)して出力する。演算部203が出力する分割再構成出力データARiは、補正データ生成部207に供給される。 That is, the calculation unit 203 uses the node of the divided output error SOM having the strongest error coupling weight with the winner node of the divided input error SOM with respect to the divided input error data ΔS i obtained from the input data S. the resulting divided input error data △ S i divided reconstructed output error data △ a Ri reconstituted divided output error data △ a i corresponding to the reconstruction unit 234 of the reconstruction unit 53 (FIG. 20 in FIG. 12 ) To obtain (generate) and output. The divided reconstruction output data A Ri output from the calculation unit 203 is supplied to the correction data generation unit 207.

ステップS289において、補正データ生成部207は、ステップS284でデータ分割部206から入力された分割入力誤差データ△Siに基づき、再構成出力データSRの補正すべき次元または時間を決定し、決定結果に従い、分割された所定の次元毎あるいは時間毎の補正重みを決定して、演算部203からの分割再構成出力誤差データ△ARiにそれぞれ補正重みを乗算することにより、部分補正データ△ARjを生成し、加算部208に供給する。 In step S289, the correction data generation unit 207, based on the divided input error data △ S i input from the data dividing unit 206 in step S284, it determines the reconstructed output data S dimension or time to be corrected in the R, determined In accordance with the result, a correction weight for each predetermined dimension or time is determined, and the partial reconstructed output error data ΔA Ri from the calculation unit 203 is multiplied by the correction weight to thereby obtain partial correction data ΔA. Rj is generated and supplied to the adding unit 208.

ステップS290において、加算部208は、演算部201からの再構成出力データARと、補正データ生成部207からの部分補正データ△ARjとを加算した加算データAR'=AR+△ARjを算出し、再構成出力データARを補正した最終再構成出力データとして出力する。以上で、認識生成処理は終了される。 In step S290, the adding unit 208 adds the reconstructed output data A R from the arithmetic unit 201 and the partial correction data ΔA Rj from the correction data generating unit 207 to add data A R ′ = A R + ΔA. Rj is calculated and output as final reconstructed output data obtained by correcting the reconstructed output data A R. This completes the recognition generation process.

以上のように、学習処理において、本体学習と誤差学習を行い、認識生成処理において、本体入出力関係モデルを用いて入力データSに対して出力すべき出力データAを再構成した再構成出力データARを、誤差入出力関係モデルを用いて分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiに基づいて生成される部分補正データ△ARjと加算することにより補正し、その結果得られる加算データAR+△ARjを、入力データSに対して出力すべき出力データAを再構成した最終的な再構成出力データ(最終再構成出力データ)として出力するので、誤差を適切に考慮した処理が行われ、その結果、図16及び図17で説明したのと同様に、量子化誤差を低減することができる。 As described above, reconstructed output data obtained by reconstructing the output data A to be output for the input data S using the main body input / output relation model in the recognition generation process, by performing main body learning and error learning in the learning process. A R is a partial correction generated based on the divided reconstructed output error data ΔA Ri obtained by reconstructing the divided output error data ΔA i corresponding to the divided input error data ΔS i using the error input / output relation model. The final reconstructed output data obtained by reconstructing the output data A to be output with respect to the input data S is corrected by adding the data △ A Rj to the corrected data A R + ΔA Rj. (Final reconstructed output data) is output, so that a process that appropriately considers the error is performed. As a result, the quantization error can be reduced as described with reference to FIGS.

ところで、以上のような、本来学習すべき入力データ及び出力データの学習(本体学習)を行う本体入出力関係モデルと、入力データ及び出力データとそれらを再構成したデータとの誤差を分割した分割入力誤差データ及び分割出力誤差データの学習(誤差学習)を行う誤差入出力関係モデルとは、入出力関係モデルを利用することができる技術に対し、その入出力関係モデルに代えて利用することができる。   By the way, as described above, the main body input / output relation model for learning the input data and output data to be originally learned (main body learning), and the division that divides the error between the input data and output data and the data reconstructed from them. An error input / output relationship model that performs learning (error learning) of input error data and divided output error data can be used instead of the input / output relationship model for a technique that can use the input / output relationship model. it can.

入出力関係モデルを利用することができる技術としては、例えば、前述した聞き真似学習がある。そこで、以下では、(1つの)入出力関係モデルに代えて、本体入出力関係モデル及び誤差入出力関係モデルを利用した聞き真似学習について説明するが、その前段階の準備として、入出力関係モデルを利用した聞き真似学習について、簡単に説明する。   As a technique that can use the input / output relationship model, for example, there is the above-described listening imitation learning. Therefore, in the following, instead of the (one) input / output relation model, listening imitation learning using the main body input / output relation model and the error input / output relation model will be described. A brief explanation of listening imitation learning using.

2つのSOMである入力SOM及び出力SOMを有する1つの入出力関係モデルを利用した聞き真似学習では、例えば、入出力関係モデルにおける出力SOMのノードのパラメータを変更し、その変更後のパラメータから、出力データとしての音声データを生成するための調音パラメータを生成し、その音声データから抽出された特徴パラメータとしての音響パラメータを、入力データとして、入力SOMで認識することを、その認識結果が、外部からの音声データの入力SOMでの認識結果に一致するまで繰り返すことにより、外部から未知の音声データの入力があったときに、その音声データを真似た音声データを生成するための調音パラメータを、出力データとして出力することが可能となる。   In the listening imitation learning using one input / output relation model having two input SOMs and output SOMs, for example, the parameter of the node of the output SOM in the input / output relation model is changed, and the parameters after the change are Generates articulation parameters for generating audio data as output data, and recognizes acoustic parameters as feature parameters extracted from the audio data as input data by the input SOM. By repeating until the voice data input from SOM matches the recognition result in SOM, when there is input of unknown voice data from the outside, the articulation parameters for generating voice data imitating the voice data are It can be output as output data.

具体的には、例えば、入出力関係モデルの入力SOMにおいて、音韻「あ」、「い」、「う」の音声データの音響パラメータの学習が行われ、その音響パラメータのパターンが獲得されているとともに、出力SOMでも、音韻「あ」、「い」、「う」の音声データを生成するための調音パラメータの学習が行われ、その調音パラメータのパターンが獲得されている場合において、ユーザから、未知の音韻「え」の音声データが与えられると、聞き真似学習では、出力SOMのあるノードが獲得しているパターンが僅かに変更され、その変更後のパターンの調音パラメータから音声データが生成される。   Specifically, for example, in the input SOM of the input / output relation model, the acoustic parameters of the phonetic data “A”, “I”, “U” are learned, and the acoustic parameter pattern is acquired. At the same time, in the output SOM, learning of articulation parameters for generating speech data of phonemes `` a '', `` i '', `` u '' is performed, and when the articulation parameter pattern is acquired, from the user, When speech data of unknown phoneme “e” is given, the pattern acquired by a node with an output SOM is slightly changed in listening imitation learning, and speech data is generated from the articulation parameters of the changed pattern. The

さらに、その音声データから音響パラメータが抽出され、その音響パラメータが、ユーザから与えられた未知の音韻「え」の音声データの音響パラメータと近い場合には、入力SOMにおいて、ユーザから与えられた未知の音韻「え」の音声データの音響パラメータの学習が行われるとともに、出力SOMにおいて、変更後のパターンの調音パラメータの学習が行われる。   Furthermore, if an acoustic parameter is extracted from the speech data and the acoustic parameter is close to the acoustic parameter of the speech data of the unknown phoneme “e” given by the user, the unknown parameter given by the user is input in the input SOM. The acoustic parameter of the speech data of the phoneme “e” is learned, and the articulation parameter of the changed pattern is learned in the output SOM.

ユーザから、未知の音韻「え」の音声データが与えられる度に、以上の処理が行われることで、入力SOMでは、未知であった音韻「え」の音声データの音響パラメータのパターンが獲得されていくとともに、出力SOMでも、未知でった音韻「え」の音声データを生成するための調音パラメータのパターンが獲得されていく。   When the voice data of unknown phoneme “e” is given by the user, the above processing is performed, so that the input SOM obtains the acoustic parameter pattern of the voice data of unknown phoneme “e”. At the same time, in the output SOM, articulation parameter patterns for generating speech data of the unknown phoneme “e” are acquired.

図28は、入出力関係モデルを利用した聞き真似学習の概要を示している。   FIG. 28 shows an outline of listening imitation learning using an input / output relationship model.

外部からの音声データは、特徴抽出装置301に供給される。特徴抽出装置301は、外部からの音声データを解析することにより音響パラメータを抽出し、その音響パラメータの時系列を、入力データSとして出力する。   Audio data from the outside is supplied to the feature extraction device 301. The feature extraction device 301 extracts acoustic parameters by analyzing external audio data, and outputs the time series of the acoustic parameters as input data S.

特徴抽出装置301が出力する入力データSは、入出力関係モデルの入力SOMとしてのパターン記憶SOM#1に入力される。そして、パターン記憶SOM#1を構成する各ノードについて、入力データSに対するスコアが計算され、最も高いスコアのノードNが、入力データSに対する勝者ノードに決定される。   The input data S output by the feature extraction device 301 is input to the pattern storage SOM # 1 as the input SOM of the input / output relation model. Then, for each node constituting the pattern storage SOM # 1, the score for the input data S is calculated, and the node N having the highest score is determined as the winner node for the input data S.

すなわち、パターン記憶SOM#1において、入力データSが、その入力データSに対するスコアが最も高いノード(勝者ノード)Nに抽象化(量子化)され、その勝者ノードNと称する、いわば、入出力関係モデルの内部表現で表される。   That is, in the pattern storage SOM # 1, the input data S is abstracted (quantized) to the node (winner node) N having the highest score for the input data S and is called the winner node N, so to speak, input / output relationship Represented by the internal representation of the model.

さらに、聞き真似学習では、入出力関係モデルの出力SOMとしてのパターン記憶SOM#2のノードの中から、パターン記憶SOM#1の勝者ノードNとの結合重みが最強のノードN'が検出され、そのノードN'が、入力データSに対して出力すべき出力データAを再構成した再構成出力データARを生成(取得)するために用いる生成ノードに決定される。 Furthermore, in the listening imitation learning, the node N ′ having the strongest connection weight with the winner node N of the pattern storage SOM # 1 is detected from the nodes of the pattern storage SOM # 2 as the output SOM of the input / output relation model, The node N ′ is determined as a generation node used for generating (acquiring) reconstructed output data A R obtained by reconfiguring output data A to be output with respect to input data S.

そして、聞き真似学習では、パターン記憶SOM#2の生成ノードを用いて、入力データSに対して出力すべき出力データAを再構成した再構成出力データARとしての、音声データの生成(音声合成)に用いられる調音パラメータの時系列が生成される。 In the listening imitation learning, the generation of voice data (sound data) as reconstructed output data A R obtained by reconstructing the output data A to be output with respect to the input data S using the generation node of the pattern storage SOM # 2 A time series of articulation parameters used for synthesis is generated.

再構成出力データARとしての調音パラメータ(の時系列)は、音声合成装置302に供給される。音声合成装置302は、再構成出力データARとしての調音パラメータを用いて音声合成を行い、その結果得られる音声データである合成音声データを出力する。 The articulation parameters (the time series) as the reconstructed output data A R are supplied to the speech synthesizer 302. Speech synthesizer 302 performs speech synthesis by using the articulatory parameters as reconstructed output data A R, and outputs the synthesized speech data is audio data obtained as a result.

音声合成装置302が出力する合成音声データは、特徴抽出装置301に供給される。   The synthesized speech data output from the speech synthesizer 302 is supplied to the feature extraction device 301.

特徴抽出装置301は、音声合成装置302からの合成音声データを解析して音響パラメータを抽出し、その音響パラメータの時系列を、新たな入力データSとして出力する。   The feature extraction device 301 analyzes the synthesized speech data from the speech synthesizer 302 to extract acoustic parameters, and outputs the time series of the acoustic parameters as new input data S.

特徴抽出装置301が出力する新たな入力データSは、入出力関係モデルの入力SOMとしてのパターン記憶SOM#1に入力される。そして、パターン記憶SOM#1を構成する各ノードについて、新たな入力データSに対するスコアが計算され、最も高いスコアのノードが、新たな入力データSに対する勝者ノードに決定される。   The new input data S output from the feature extraction device 301 is input to the pattern storage SOM # 1 as the input SOM of the input / output relation model. Then, the score for the new input data S is calculated for each node constituting the pattern storage SOM # 1, and the node with the highest score is determined as the winner node for the new input data S.

合成音声データから得られた新たな入力データSに対するパターン記憶SOM#1の勝者ノードが、外部からの音声データから得られた入力データSに対する勝者ノードNに一致しない場合(認識結果が一致していない場合)、すなわち、合成音声データが、外部からの音声データに似ていない場合、生成ノードN'が有するパターン記憶モデル21(図6)のパラメータが変更される。   If the winner node of pattern storage SOM # 1 for new input data S obtained from synthesized speech data does not match the winner node N for input data S obtained from external speech data (the recognition results match) If the synthesized speech data does not resemble external speech data, the parameters of the pattern storage model 21 (FIG. 6) of the generation node N ′ are changed.

具体的には、例えば、パターン記憶モデル21がHMMである場合には、そのHMMのパラメータとしての状態遷移確率や出力確率密度関数が、ある変更分だけ変更される。   Specifically, for example, when the pattern storage model 21 is an HMM, the state transition probability and the output probability density function as parameters of the HMM are changed by a certain amount of change.

そして、その変更後のパラメータを用いて、入力データSに対して出力すべき出力データAを再構成した再構成出力データARとしての調音パラメータの時系列が再度生成され、音声合成装置302に供給される。音声合成装置302は、再構成出力データARとしての調音パラメータを用いて音声合成を行い、新たな合成音声データを出力する。 Then, using the changed parameters, the time series of the articulation parameters as reconstructed output data A R obtained by reconstructing the output data A to be output with respect to the input data S is generated again, and is transmitted to the speech synthesizer 302. Supplied. Speech synthesizer 302 performs speech synthesis by using the articulatory parameters as reconstructed output data A R, and outputs the new synthesized speech data.

音声合成装置302が出力する新たな合成音声データは、特徴抽出装置301に供給され、特徴抽出装置301では、音声合成装置302からの新たな合成音声データが解析されて音響パラメータが抽出され、さらに新たな入力データSとして出力される。   The new synthesized speech data output from the speech synthesizer 302 is supplied to the feature extraction device 301. The feature extraction device 301 analyzes the new synthesized speech data from the speech synthesizer 302 and extracts acoustic parameters. It is output as new input data S.

特徴抽出装置301が出力するさらに新たな入力データSは、入出力関係モデルの入力SOMとしてのパターン記憶SOM#1に入力され、その入力データSに対する勝者ノードが決定される。   Newer input data S output from the feature extraction device 301 is input to the pattern storage SOM # 1 as an input SOM of the input / output relation model, and a winner node for the input data S is determined.

そして、合成音声データから得られた入力データS(さらに新たな入力データS)に対するパターン記憶SOM#1の勝者ノードが、外部からの音声データから得られた入力データSに対する勝者ノードNに一致しない場合には、生成ノードN'が有するパターン記憶モデル21(図6)のパラメータが再度変更され、以下、同様の処理が繰り返される。   Then, the winner node of the pattern storage SOM # 1 for the input data S obtained from the synthesized voice data (and the new input data S) does not match the winner node N for the input data S obtained from the external voice data. In this case, the parameters of the pattern storage model 21 (FIG. 6) of the generation node N ′ are changed again, and the same processing is repeated thereafter.

また、合成音声データから得られた入力データSに対するパターン記憶SOM#1の勝者ノードが、外部からの音声データから得られた入力データSに対する勝者ノードNに一致した場合、すなわち、合成音声データが、外部からの音声データに似ており、したがって、外部からの音声データを真似た合成音声データを出力することができた場合、パターン記憶SOM#1が、外部からの音声データ(又は、外部からの音声データに似ている合成音声データ)から得られた音響パラメータとしての入力データSを用いて自己組織的に更新されるとともに、パターン記憶SOM#2が、外部からの音声データに似ている合成音声データが得られた調音パラメータとしての再構成出力データARを用いて自己組織的に更新される。 Further, when the winner node of the pattern storage SOM # 1 for the input data S obtained from the synthesized speech data matches the winner node N for the input data S obtained from the speech data from the outside, that is, the synthesized speech data is When the synthesized voice data that is similar to the voice data from the outside and imitated the voice data from the outside can be output, the pattern storage SOM # 1 can receive the voice data from the outside (or from the outside. (Synthetic voice data similar to the voice data of), and is updated in a self-organized manner using the input data S as acoustic parameters obtained from the sound parameters, and the pattern storage SOM # 2 is similar to the voice data from the outside synthesized speech data is updated a self-organizing manner by using the reconstructed output data a R as articulatory parameters obtained.

さらに、外部からの音声データから得られた音響パラメータとしての入力データSに対するパターン記憶SOM#1の勝者ノード、及び、外部からの音声データに似ている合成音声データが得られた調音パラメータとしての再構成出力データARに対するパターン記憶SOM#2の勝者ノードを中心として、入出力関係モデルの結合重みが更新される。 Furthermore, the winner node of the pattern storage SOM # 1 with respect to the input data S as the acoustic parameter obtained from the external audio data, and the articulation parameter from which the synthesized audio data similar to the external audio data was obtained around the winning node of pattern memory SOM # 2 to the reconstruction output data a R, the coupling weight of the input-output relationship model is updated.

すなわち、外部からの音声データから得られた音響パラメータとしての入力データSに対するパターン記憶SOM#1の勝者ノードを中心として、パターン記憶SOM#1の各ノードと、外部からの音声データに似ている合成音声データが得られた調音パラメータとしての再構成出力データARに対するパターン記憶SOM#2の勝者ノードとの結合重みが更新される。 That is, it is similar to each node of the pattern storage SOM # 1 and the audio data from the outside, centering on the winner node of the pattern storage SOM # 1 with respect to the input data S as the acoustic parameters obtained from the audio data from the outside connection weight between the winning node of pattern memory SOM # 2 to the reconstruction output data a R as articulatory parameters synthesized speech data is obtained is updated.

さらに、外部からの音声データに似ている合成音声データが得られた調音パラメータとしての再構成出力データARに対するパターン記憶SOM#2の勝者ノードを中心として、パターン記憶SOM#2の各ノードと、外部からの音声データから得られた音響パラメータとしての入力データSに対するパターン記憶SOM#1の勝者ノードとの結合重みが更新される。 Further, around the winning node of pattern memory SOM # 2 to the reconstruction output data A R as articulatory parameters synthesized speech data is obtained which is similar to the audio data from the outside, and each node of the pattern memory SOM # 2 Then, the connection weight with the winner node of the pattern storage SOM # 1 for the input data S as the acoustic parameter obtained from the sound data from the outside is updated.

以上で、入出力関係モデルを利用した聞き真似学習の概要の説明を終了する。   This completes the explanation of the outline of the listening imitation learning using the input / output relationship model.

ところで、上述したような、入出力関係モデルを利用した聞き真似学習では、外部からの音声データに似た合成音声データを得るために、調音パラメータを変更するが、この調音パラメータの変更は、外部からの音声データから得られた音響パラメータに似た音響パラメータが得られる合成音声データが生成される調音パラメータ(以下、適宜、目標調音パラメータと称する)を探索することに他ならない。   By the way, in the listening imitation learning using the input / output relation model as described above, the articulation parameter is changed in order to obtain synthesized voice data similar to the voice data from the outside. This is nothing other than searching for articulation parameters (hereinafter, referred to as target articulation parameters, as appropriate) for generating synthesized speech data that can obtain acoustic parameters similar to those obtained from the speech data.

目標調音パラメータを探索する探索方法としては、例えば、調音パラメータをランダムに変更するランダム探索を行う方法がある。   As a search method for searching for the target articulation parameter, for example, there is a method of performing a random search in which the articulation parameter is changed at random.

しかしながら、音声合成に用いられる調音パラメータは、時系列データであるから、必ずしも一定のフレーム数ではない複数のフレームからなる。さらに、調音パラメータは、一般に多次元であり、多次元の調音パラメータが取り得る値の数は、極めて多いから、そのような取り得る値の数の多い調音パラメータを、フレーム毎に、ランダム探索によって変更しても、変更後の調音パラメータが、目標調音パラメータに近づく可能性は低く、目標調音パラメータの探索に、多大な時間を要することがあり得る。   However, since the articulation parameter used for speech synthesis is time-series data, it consists of a plurality of frames that are not necessarily a fixed number of frames. Furthermore, since the articulation parameters are generally multidimensional, and the number of values that can be taken by the multidimensional articulation parameters is extremely large, the articulation parameters having a large number of such possible values can be obtained by random search for each frame. Even if it is changed, it is unlikely that the changed articulation parameter approaches the target articulation parameter, and it may take a long time to search for the target articulation parameter.

そこで、勾配法を利用して、過去の探索の結果から、目標調音パラメータに近づく方向に、調音パラメータを変更することにより、目標調音パラメータを探索する探索方法が考えられる。   Therefore, a search method for searching for the target articulation parameter by changing the articulation parameter in a direction approaching the target articulation parameter from the past search results using the gradient method is conceivable.

勾配法を利用する場合、変更後の調音パラメータから生成される合成音声データの音響パラメータと、外部からの音声データの音響パラメータとの間の誤差を少なくする方向に、調音パラメータを変更する必要がある。   When using the gradient method, it is necessary to change the articulation parameters in a direction that reduces the error between the acoustic parameters of the synthesized speech data generated from the modified articulation parameters and the acoustic parameters of the external speech data. is there.

しかしながら、音声データを解析することによって抽出される音響パラメータ、つまり、図28においてパターン記憶SOM#1に入力される入力データSと、音声合成に用いられる調音パラメータ、つまり、図28においてパターン記憶SOM#2から出力される再構成出力データAR(出力データA)とのモダリティが異なる場合(例えば、音響パラメータがケプストラム係数であり、調音パラメータが線形予測係数である場合など)には、変更後の調音パラメータから生成される合成音声データの音響パラメータと、外部からの音声データの音響パラメータとの間の誤差の変化を、音響パラメータとモダリティが異なる調音パラメータを変更する方向を決める勾配として用いることは困難である。 However, the acoustic parameters extracted by analyzing the speech data, that is, the input data S input to the pattern storage SOM # 1 in FIG. 28 and the articulation parameters used for speech synthesis, that is, the pattern storage SOM in FIG. If the modality differs from the reconstructed output data A R (output data A) output from # 2 (for example, the acoustic parameter is a cepstrum coefficient and the articulation parameter is a linear prediction coefficient) The change in the error between the acoustic parameters of the synthesized speech data generated from the articulation parameters of the sound and the acoustic parameters of the external speech data is used as a gradient that determines the direction in which the articulation parameters having different modalities from the acoustic parameters are changed. It is difficult.

ところで、調音パラメータの空間(調音パラメータ空間)において、調音パラメータを、どの方向に変更すると、その変更後の調音パラメータから生成される合成音声データの音響パラメータが、目標とする音響パラメータ、つまり、外部からの音声データの音響パラメータに近づくのかが分かれば、目標調音パラメータを、迅速に探索することができる。   In the articulation parameter space (articulation parameter space), when the articulation parameter is changed in any direction, the acoustic parameter of the synthesized speech data generated from the changed articulation parameter becomes the target acoustic parameter, that is, the external parameter. If it is known whether or not the sound parameter of the sound data from is approaching, the target articulation parameter can be searched quickly.

すなわち、現在の調音パラメータから生成される合成音声データの音響パラメータと、外部からの音声データの音響パラメータとの間の、音響パラメータの空間(音響パラメータ空間)における音響パラメータの勾配から、現在の調音パラメータと、目標調音パラメータとの間の、調音パラメータ空間における調音パラメータの勾配を求めることができれば、目標調音パラメータを、迅速に探索することができる。   That is, from the acoustic parameter gradient in the acoustic parameter space (acoustic parameter space) between the acoustic parameter of the synthesized speech data generated from the current articulation parameter and the acoustic parameter of the external speech data, the current articulation is performed. If the gradient of the articulation parameter in the articulation parameter space between the parameter and the target articulation parameter can be obtained, the target articulation parameter can be searched quickly.

本体入出力関係モデル及び誤差入出力関係モデルを利用した聞き真似学習(以下、適宜、新聞き真似学習とも称する)では、音響パラメータ空間における勾配から、調音パラメータ空間における勾配が、誤差入出力関係モデルを用いて近似的に求められ、これにより、目標調音パラメータが、迅速に探索される。   In listening imitation learning using the main body input / output relation model and the error input / output relation model (hereinafter also referred to as newspaper imitation learning as appropriate), the gradient in the articulation parameter space changes from the gradient in the acoustic parameter space to the error input / output relation model. Thus, the target articulation parameter is quickly searched for.

図29は、新聞き真似学習を行う図1の本体学習モジュール101、誤差学習モジュール102、及び制御部103の構成例(第3の構成例)を示している。   FIG. 29 shows a configuration example (third configuration example) of the main body learning module 101, the error learning module 102, and the control unit 103 of FIG. 1 that performs newspaper imitation learning.

なお、図中、図18の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   In the figure, portions corresponding to those in FIG. 18 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

本体学習モジュール101は、本体モデル記憶部202を有する点で、図18の場合と共通するが、演算部201に代えて、演算部321が設けられている点で、図18の場合と異なる。   The main body learning module 101 is common to the case of FIG. 18 in that it has a main body model storage unit 202, but differs from the case of FIG. 18 in that a calculation unit 321 is provided instead of the calculation unit 201.

誤差学習モジュール102は、分割誤差モデル記憶部204を有する点で、図18の場合と共通するが、演算部203に代えて、演算部323が設けられている点で、図18の場合と異なる。   The error learning module 102 is common to the case of FIG. 18 in that it has a division error model storage unit 204, but is different from the case of FIG. 18 in that a calculation unit 323 is provided instead of the calculation unit 203. .

制御部103は、誤差算出部205、データ分割部206、補正データ生成部207及び加算部208を有する点で、図18の場合と共通するが、さらに、聞き真似制御部327が設けられている点で、図18の場合と異なる。   The control unit 103 is common to the case of FIG. 18 in that it includes an error calculation unit 205, a data division unit 206, a correction data generation unit 207, and an addition unit 208, but further includes a listening imitation control unit 327. This is different from the case of FIG.

本体学習モジュール101の演算部321には、例えば、外部または聞き真似制御部327から、入力データSや出力データAが、図1におけるデータDとして供給される。   For example, input data S and output data A are supplied to the calculation unit 321 of the main body learning module 101 as data D in FIG.

演算部321は、図18の演算部201と同様の処理を行う。すなわち、演算部321は、供給される入力データS及び出力データAを用いて、本体モデル記憶部202に記憶されている本体モデルの学習を行う。さらに、演算部321は、供給される入力データSに対して、本体モデル記憶部202に記憶されている本体モデルを用いて、入力データSを再構成した再構成入力データSRを生成して出力する。また、演算部321は、本体モデル記憶部202に記憶されている本体モデルを用いて、供給される入力データSに対して出力すべき出力データAを再構成した再構成出力データARを生成して出力する。さらに、演算部321は、供給される出力データAに対して、本体モデル記憶部202に記憶されている本体モデルを用いて、出力データAを再構成した再構成出力データARを生成して出力する。 The computing unit 321 performs the same processing as the computing unit 201 in FIG. That is, the calculation unit 321 learns the main body model stored in the main body model storage unit 202 using the supplied input data S and output data A. Further, the operating section 321, the input data S supplied, by using a body model stored in the body model storage unit 202, and generates and reconstructed input data S R which reconstructs the input data S Output. The arithmetic unit 321 uses the body model stored in the body model storage unit 202, generates the reconstructed output data A R reconstructed output data A to be output to the input data S supplied And output. Further, the arithmetic unit 321, the output data A supplied by using a body model stored in the body model storage unit 202, and generates the reconstructed output data A R reconstructed output data A Output.

また、演算部321は、その他、聞き真似制御部327から供給される制御情報に従った処理を行う。   In addition, the calculation unit 321 performs processing according to control information supplied from the listening imitation control unit 327.

誤差学習モジュール102の演算部323は、図18の演算部203と同様の処理を行う。すなわち、演算部323には、データ分割部206から分割入力誤差データ△Si及び分割出力誤差データ△Aiが、図1における誤差データ△Dとして供給される。 The calculation unit 323 of the error learning module 102 performs the same processing as the calculation unit 203 of FIG. In other words, the divided input error data ΔS i and the divided output error data ΔA i are supplied from the data dividing unit 206 as the error data ΔD in FIG.

演算部323は、データ分割部206から分割入力誤差データ△Si及び分割出力誤差データ△Aiを用いて、分割誤差モデル記憶部204に記憶されている分割誤差モデルの学習を行う。また、演算部323は、分割誤差モデル記憶部204に記憶されている分割誤差モデルを用いて、データ分割部206から供給される分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiを生成して出力する。さらに、演算部323は、データ分割部206から供給される分割出力誤差データ△Aiに対して、分割誤差モデル記憶部204に記憶されている分割誤差モデルを用いて、分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiを生成して出力する。 Calculation unit 323, from the data dividing unit 206 using the divided input error data △ S i and the divided output error data △ A i, performs learning of the division error model stored in the division error model storage unit 204. Further, the calculation unit 323 uses the division error model stored in the division error model storage unit 204 to use the division output error data ΔA i corresponding to the division input error data ΔS i supplied from the data division unit 206. Is generated and output as divided reconstructed output error data ΔA Ri . Further, the calculation unit 323 uses the division error model stored in the division error model storage unit 204 for the division output error data ΔA i supplied from the data division unit 206, and uses the division output error data ΔA. Divided reconstructed output error data ΔA Ri reconstructed from i is generated and output.

また、演算部323は、聞き真似制御部327から供給される制御情報に従った処理を行う。   In addition, the calculation unit 323 performs processing according to the control information supplied from the listening imitation control unit 327.

聞き真似制御部327は、新聞き真似学習を行うための各種の処理を行う。すなわち、聞き真似制御部327には、演算部321が出力する再構成入力データSR、加算部208が出力する加算データAR+△ARj、及び目標とする入力データT等が供給される。 The listening imitation control unit 327 performs various processes for performing newspaper imitation learning. In other words, the listening imitation control unit 327 is supplied with reconstructed input data S R output from the calculation unit 321, addition data A R + ΔA Rj output from the addition unit 208, target input data T, and the like. .

なお、目標とする入力データTは、図28で説明した聞き真似学習における、外部からの音声データの音響パラメータ(目標とする音響パラメータ)に相当する。   Note that the target input data T corresponds to an acoustic parameter (target acoustic parameter) of audio data from the outside in the listening imitation learning described with reference to FIG.

ここで、説明を簡単にするため、ある入力データSと、その入力データSに対して出力すべき出力データAとの間に、ある関数g()を用いた式S=g(A)に従った関係があるとする。ここで、例えば、図28に示したように、入力データSが音響パラメータであり、出力データAが調音パラメータであれば、関数g()は、調音パラメータAを用いて音声合成を行い、その結果得られる合成音声データから、音響パラメータSを抽出することに相当する。   Here, in order to simplify the description, an expression S = g (A) using a certain function g () between a certain input data S and output data A to be output with respect to the input data S is expressed by Suppose you have a relationship that you have followed. Here, for example, as shown in FIG. 28, if the input data S is an acoustic parameter and the output data A is an articulation parameter, the function g () performs speech synthesis using the articulation parameter A, This corresponds to extracting the acoustic parameter S from the resultant synthesized speech data.

関数値S=g(A)を、出力データAに対応する入力データと称することにすると、新聞き真似学習では、最終的な再構成出力データである加算データAR'=AR+△ARjに対応する入力データg(AR')が、目標とする入力データTに近くなるような(理想的には一致するような)、加算データAR'を探索することになる。 When the function value S = g (A) is referred to as input data corresponding to the output data A, in newspaper imitation learning, the addition data A R ′ = A R + ΔA that is the final reconstructed output data is used. The addition data A R ′ is searched so that the input data g (A R ′) corresponding to Rj is close to the target input data T (ideally matches).

この探索のため、聞き真似制御部327には、加算部208が出力する加算データAR'、目標とする入力データT、及び再構成入力データSRが供給される。聞き真似制御部327は、加算データAR'に対応する入力データg(AR')が、目標とする入力データTに近づいたか否かを判定する。 For this search, the listening imitation control unit 327 is supplied with the addition data A R ′ output from the addition unit 208, target input data T, and reconstructed input data S R. The listening imitation control unit 327 determines whether or not the input data g (A R ′) corresponding to the addition data A R ′ has approached the target input data T.

具体的には、加算データAR'に対応する入力データg(AR')と、目標とする入力データTとの差が、目標とする入力データTが入力データSとして演算部321に供給され、それに対応して演算部321から出力される再構成入力データSRと目標とする入力データTとの差よりも小さくなった場合、加算データAR'に対応する入力データg(AR')が、目標とする入力データTに近づいたと判定する。 Specifically, the difference between the input data g (A R ′) corresponding to the addition data A R ′ and the target input data T is such that the target input data T is supplied to the calculation unit 321 as the input data S. If the difference between the reconstructed input data S R output from the calculation unit 321 and the target input data T correspondingly decreases, the input data g (A R corresponding to the addition data A R ′ It is determined that ') has approached the target input data T.

そして、聞き真似制御部327は、加算データAR'に対応する入力データg(AR')が、目標とする入力データTに近づいたと判定した場合、本体モデル及び分割誤差モデルの学習を行うために、入力データTに近い入力データg(AR')を新たな入力データSとし、それに対応する新たな出力データAとして加算データAR'を演算部321等に供給する。 When the hearing imitation control unit 327 determines that the input data g (A R ′) corresponding to the addition data A R ′ has approached the target input data T, the listening imitation control unit 327 learns the main body model and the division error model. Therefore, the input data g (A R ′) close to the input data T is set as the new input data S, and the addition data A R ′ is supplied as the new output data A corresponding thereto to the arithmetic unit 321 and the like.

さらに、聞き真似制御部327は、新聞き真似学習に必要な処理を、演算部321、演算部323及び補正データ部207に行わせるために、演算部321、演算部323及び補正データ部207を制御するための制御情報を、演算部321、演算部323及び補正データ部207に供給する。   Furthermore, the listening imitation control unit 327 includes a calculation unit 321, a calculation unit 323, and a correction data unit 207 in order to cause the calculation unit 321, the calculation unit 323, and the correction data unit 207 to perform processing necessary for newspaper imitation learning. Control information for control is supplied to the calculation unit 321, the calculation unit 323, and the correction data unit 207.

次に、図29の本体学習モジュール101、誤差学習モジュール102、及び制御部103による新聞き真似学習の処理について、図30のフローチャートを参照して説明する。   Next, newspaper imitation learning processing by the main body learning module 101, the error learning module 102, and the control unit 103 in FIG. 29 will be described with reference to the flowchart in FIG.

なお、ここでは、図24及び図25に示したように、本体モデル記憶部202に記憶されている本体モデルとして、入出力関係モデルである本体入出力関係モデルが採用されているとともに、分割誤差モデル記憶部204に記憶されている分割誤差モデルとして、入出力関係モデルである誤差入出力関係モデルが採用されていることとする。   Here, as shown in FIGS. 24 and 25, as the main body model stored in the main body model storage unit 202, a main body input / output relation model that is an input / output relation model is adopted, and a division error is also generated. Assume that an error input / output relationship model, which is an input / output relationship model, is adopted as the division error model stored in the model storage unit 204.

また、本体入出力関係モデル、及び、誤差入出力関係モデルについては、ある程度の数の教示データを用いた図26の学習処理が行われ、本体入出力関係モデル、及び、誤差入出力関係モデルは、その本体入出力関係モデル、及び、誤差入出力関係モデルが獲得しうるパターンの少なくとも一部を既に獲得していることとする。   For the main body input / output relation model and the error input / output relation model, the learning process of FIG. 26 using a certain number of teaching data is performed, and the main body input / output relation model and the error input / output relation model are It is assumed that at least a part of the patterns that can be acquired by the main body input / output relation model and the error input / output relation model has already been acquired.

この新聞き真似学習では、ステップS301において、例えば、外部から、目標とする入力データT(以下、適宜、目標データTとも称する)が供給される。聞き真似制御部327は、供給された目標データTを入力データSとして、演算部321及び誤差算出部205に供給するとともに、認識生成処理を行うように、演算部321及び演算部323を制御する。   In this newspaper imitation learning, in step S301, for example, target input data T (hereinafter also referred to as target data T as appropriate) is supplied from the outside. The listening imitation control unit 327 supplies the supplied target data T as input data S to the calculation unit 321 and the error calculation unit 205 and controls the calculation unit 321 and the calculation unit 323 so as to perform recognition generation processing. .

聞き真似制御部327からの制御に応じ、演算部321では、目標データTを入力データSとする、図27で説明した認識生成処理が行われる。   According to the control from the listening imitation control unit 327, the calculation unit 321 performs the recognition generation process described with reference to FIG.

すなわち、ステップS302において、演算部321は、図27で説明したように、演算部321は、本体モデル記憶部202に記憶された本体入出力関係モデルの入力本体SOMを構成するノードの中から、入力データS(ここでは、目標データT)に対する勝者ノードを決定し、その勝者ノード(を表すノードラベル)を、入力データSの認識結果とする。   That is, in step S302, as described with reference to FIG. 27, the calculation unit 321 includes the calculation unit 321 from among the nodes constituting the input body SOM of the body input / output relation model stored in the body model storage unit 202. A winner node for the input data S (here, target data T) is determined, and the winner node (a node label representing the winner node) is set as a recognition result of the input data S.

ステップS303において、演算部321は、入力データSの認識結果としてのノードラベルが表す入力本体SOMの勝者ノードとの本体結合重みが最も強い出力本体SOMのノードを検出し、そのノードを、入力データSに対して出力すべき出力データAを再構成した再構成出力データARを生成するのに用いる生成ノードに決定する。 In step S303, the calculation unit 321 detects the node of the output body SOM having the strongest body connection weight with the winner node of the input body SOM represented by the node label as the recognition result of the input data S, and the node is detected as the input data. The generation node used to generate the reconstructed output data A R obtained by reconfiguring the output data A to be output to S is determined.

ステップS304において、演算部321は、入力データSの認識結果としての、その入力データSに対する勝者ノードを用いて、入力データSを再構成した再構成入力データSRを、図12の再構成部53と同様にして生成し、誤差算出部205及び聞き真似制御部327に供給する。 In step S304, the calculation unit 321 uses the winner node for the input data S as the recognition result of the input data S to reconstruct the input data S R from the reconstructed input data S R in FIG. 53, and is supplied to the error calculation unit 205 and the listening imitation control unit 327.

ステップS305において、誤差算出部205は、聞き真似制御部327からの入力データS(ここでは、目標データT)と、その入力データSに対して演算部321が再構成した再構成入力データSRとの入力誤差データ△Sを算出してデータ分割部206に供給する。データ分割部206は、入力誤差データ△Sを、予め決定された所定の次元毎あるいは所定の時間毎に分割し、その結果得られた分割入力誤差データ△Siを演算部323及び補正データ生成部207に供給する。 In step S305, the error calculation unit 205 inputs the input data S (here, target data T) from the listening imitation control unit 327 and the reconstructed input data S R reconstructed by the calculation unit 321 with respect to the input data S. The input error data ΔS is calculated and supplied to the data dividing unit 206. The data dividing unit 206 divides the input error data ΔS for each predetermined dimension or every predetermined time, and the divided input error data ΔS i obtained as a result is generated by the calculation unit 323 and the correction data generation. Supplied to the unit 207.

ステップS306において、演算部323は、分割誤差モデル記憶部204に記憶された誤差入出力関係モデルの分割入力誤差SOMを構成するノードの中から、データ分割部206からの分割入力誤差データ△Siに対する勝者ノードを決定し、その勝者ノード(を表すノードラベル)を、分割入力誤差データ△Siの認識結果とする。 In step S 306, the calculation unit 323 divides the divided input error data ΔS i from the data dividing unit 206 from the nodes constituting the divided input error SOM of the error input / output relation model stored in the divided error model storage unit 204. The winner node is determined, and the winner node (representing the node label) is set as the recognition result of the divided input error data ΔS i .

ステップS307において、演算部323は、分割入力誤差データ△Siの認識結果としてのノードラベルが表す分割入力誤差SOMの勝者ノードとの誤差結合重みが最も強い分割出力誤差SOMのノードを検出し、そのノードを、分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiを生成するのに用いる生成ノードに決定する。 In step S307, the calculation unit 323 detects the node of the divided output error SOM having the strongest error coupling weight with the winner node of the divided input error SOM represented by the node label as the recognition result of the divided input error data ΔS i . The node is determined as a generation node used to generate divided reconstructed output error data ΔA Ri obtained by reconstructing the divided output error data ΔA i corresponding to the divided input error data ΔS i .

ステップS308において、演算部321は、ステップS303で決定した、聞き真似制御部327からの入力データS(ここでは、目標データT)に対する入力本体SOMの勝者ノードとの本体結合重みが最も強い出力本体SOMの生成ノードを用い、聞き真似制御部327からの入力データSに対して出力すべき出力データAを再構成した再構成出力データARを、図12の再構成部53(図20の再構成部234)と同様にして生成し、誤差算出部205及び加算部208に供給する。 In step S308, the calculation unit 321 outputs the output body having the strongest body connection weight with the winner node of the input body SOM for the input data S (here, target data T) from the listening imitation control unit 327 determined in step S303. Using the SOM generation node, the reconstructed output data A R obtained by reconstructing the output data A to be output with respect to the input data S from the listening imitation control unit 327 is converted into the reconstructing unit 53 (reconstructed in FIG. 20). This is generated in the same manner as the configuration unit 234) and supplied to the error calculation unit 205 and the addition unit 208.

ステップS309において、演算部323は、ステップS307で決定した、分割入力誤差データ△Siに対する分割入力誤差SOMの勝者ノードとの誤差結合重みが最も強い分割出力誤差SOMの生成ノードを用い、分割入力誤差データ△Siに対応する分割出力誤差データ△Aiを再構成した分割再構成出力誤差データ△ARiを、図12の再構成部53(図20の再構成部234)と同様にして生成し、補正データ生成部207に供給する。 In step S309, the calculation unit 323 uses the generation node of the divided output error SOM having the strongest error coupling weight with the winner node of the divided input error SOM for the divided input error data ΔS i determined in step S307. The divided reconstructed output error data ΔA Ri obtained by reconstructing the divided output error data ΔA i corresponding to the error data ΔS i is the same as the reconstructing unit 53 in FIG. 12 (the reconstructing unit 234 in FIG. 20). Generated and supplied to the correction data generation unit 207.

ステップS310において、補正データ生成部207は、ステップS305でデータ分割部206から入力された分割入力誤差データ△Siに基づき、再構成出力データSRの補正すべき次元または時間を決定し、決定結果に従い、分割された所定の次元毎あるいは時間毎の補正重みを決定する。 In step S310, the correction data generation unit 207, based on the divided input error data △ S i input from the data dividing unit 206 in step S305, it determines the reconstructed output data S dimension or time to be corrected in the R, determined According to the result, a correction weight for each predetermined dimension or time is determined.

ステップS311において、補正データ生成部207は、演算部203からの各分割再構成出力誤差データ△ARiに、先ほど決定した、分割された所定の次元毎あるいは時間毎の補正重みを乗算することにより、部分補正データ△ARjを生成し、加算部208に供給する。 In step S <b> 311, the correction data generation unit 207 multiplies each division reconstruction output error data ΔA Ri from the calculation unit 203 by the correction weight for each predetermined dimension or time determined previously. , Partial correction data ΔA Rj is generated and supplied to the adding unit 208.

ステップS312においては、加算部208は、ステップS308で演算部321から供給された再構成出力データARと、ステップS311で補正データ生成部207から供給された部分補正データ△ARjとを加算し、その結果得られた加算データA'R=AR+△ARjを、再構成出力データARを補正した最終再構成出力データとして算出し、聞き真似制御部327に供給する。 In step S312, the adding unit 208 adds the reconstructed output data A R supplied from the calculation unit 321 in step S308 and the partial correction data ΔA Rj supplied from the correction data generating unit 207 in step S311. The addition data A ′ R = A R + ΔA Rj obtained as a result is calculated as final reconstructed output data obtained by correcting the reconstructed output data A R and supplied to the listening imitation control unit 327.

以上のように、聞き真似制御部327には、加算部208から最終再構成出力データAR'が、演算部321から再構成入力データSRが供給されて、処理はステップS313に進められる。
ステップS313において、聞き真似制御部327は、最終再構成出力データAR'によって合成される音声の音響パラメータ系列が、目標とする入力データTに近づいたか否かを判定する。
As described above, the final reconstruction output data A R ′ is supplied from the adder 208 and the reconstruction input data S R is supplied from the operation unit 321 to the listening imitation control unit 327, and the process proceeds to step S313.
In step S313, the listening imitation control unit 327 determines whether or not the acoustic parameter series of speech synthesized by the final reconstructed output data A R ′ has approached the target input data T.

具体的には、聞き真似制御部327は、加算部208から供給された最終再構成出力データAR'を、その最終再構成出力データAR'に対応する入力データg(AR')(以下、対応データg(AR')とも称する)に変換し、入力データg(AR')と目標とする入力データTとの差が、目標とする入力データTが入力データSとして演算部321に供給され、それに対応して演算部321から出力される再構成入力データSRと目標とする入力データTとの差よりも小さい場合、最終再構成出力データAR'によって合成される音声の音響パラメータ系列が、目標とする入力データTに近づいたと判定する。 Specifically, sound imitation control unit 327, the input data g of 'a, the final reconstructed output data A R' final reconstructed output data A R supplied from the adder 208 corresponding to (A R ') ( (Hereinafter also referred to as “corresponding data g (A R ′)”), the difference between the input data g (A R ′) and the target input data T is calculated as the target input data T as the input data S. If the difference is smaller than the difference between the reconstructed input data S R supplied to 321 and output from the operation unit 321 corresponding thereto and the target input data T, the speech synthesized by the final reconstructed output data A R ′ Is determined to have approached the target input data T.

ステップS313で、最終再構成出力データAR'によって合成される音声の音響パラメータ系列が、目標とする入力データTに近づいていないと判定された場合、処理はステップS314に進められる。ステップS314では、補正データ生成部207が、聞き真似制御部327からの制御情報に従い、部分補正データ△ARjとを生成するときに用いる補正重みをランダムに決定する。この後、処理は、ステップS311に戻り、それ以降の処理が繰り返される。そして、ステップS313で、最終再構成出力データAR'によって合成される音声の音響パラメータ系列が、目標とする入力データTに近づいたと判定された場合、処理はステップS315に進められる。 If it is determined in step S313 that the acoustic parameter series of the speech synthesized by the final reconstructed output data A R ′ is not approaching the target input data T, the process proceeds to step S314. In step S314, the correction data generation unit 207 randomly determines correction weights used when generating the partial correction data ΔA Rj according to the control information from the listening imitation control unit 327. Thereafter, the processing returns to step S311 and the subsequent processing is repeated. If it is determined in step S313 that the acoustic parameter series of the speech synthesized by the final reconstructed output data A R ′ has approached the target input data T, the process proceeds to step S315.

ステップS315において、聞き真似制御部327は、最終再構成出力データAR'に対応する対応データg(AR')を、入力データSとして、演算部321及び誤差算出部205に供給するとともに、最終再構成出力データAR'を、出力データAとして、演算部321及び誤差算出部205に供給し、その入力データS及び出力データAのセットを教示データとして学習処理を行うように、演算部321及び演算部323を制御する。 In step S315, the listening imitation control unit 327 supplies the corresponding data g (A R ') corresponding to the final reconstructed output data A R ' as input data S to the calculation unit 321 and the error calculation unit 205, The final reconstructed output data A R ′ is supplied as output data A to the calculation unit 321 and the error calculation unit 205, and the calculation unit is configured to perform learning processing using the set of input data S and output data A as teaching data. 321 and the calculation unit 323 are controlled.

これにより、演算部321及び演算部323では、対応データg(AR')を、入力データSとするとともに、加算データAR'を、出力データAとして、図26で説明した学習処理が行われる。 As a result, the calculation unit 321 and the calculation unit 323 perform the learning process described with reference to FIG. 26 using the corresponding data g (A R ′) as the input data S and the addition data A R ′ as the output data A. Is called.

この後、処理はステップS302に戻り、それ以降の処理が繰り返される。よって、本体入出力関係モデルの学習と、誤算入出力関係モデルの学習とが進められる。より精度の高い(よく似ている)聞き真似を行うことができるようになる。   Thereafter, the process returns to step S302, and the subsequent processes are repeated. Therefore, the learning of the main body input / output relation model and the learning of the miscalculation input / output relation model are advanced. More accurate (similar) listening imitation can be performed.

以上のように、本体モデルで学習されるデータと、本体モデルを用いてデータを再構成した再構成データとの誤差を、分割誤差モデルで学習するようにしたので、誤差を適切に考慮した処理を行うことができる。   As described above, the error between the data learned by the main body model and the reconstructed data reconstructed using the main body model is learned by the split error model. It can be performed.

すなわち、上述したように、量子化誤差を低減した、精度のよいデータを再構成すること、ランダム探索よりも迅速に(効率的に)、目標データに似たデータを探索すること、及びメモリを効率的に使用することができる。   That is, as described above, reconstructing highly accurate data with reduced quantization error, searching for data similar to target data more quickly (efficiently) than random search, and memory It can be used efficiently.

特に、本体モデルを用いてデータを再構成した再構成データとの誤差を、所定の次元毎あるいは時間毎に分割して学習するようにしたので、より多様な補正を行うことができる。   In particular, since the error from the reconstructed data obtained by reconstructing data using the main body model is divided and learned every predetermined dimension or every time, more various corrections can be performed.

さらに、本体モデル及び分割誤差モデルとして、SOM(SOMを利用した入出力関係モデル)を採用する場合には、多次元の入力や、スケールを問わず同じシステムで扱うこと(データを、その粒度やダイナミックレンジ関係なく扱うこと)が可能となる。   Furthermore, when SOM (input / output relation model using SOM) is adopted as the main body model and the division error model, it is handled by the same system regardless of scale (data, granularity, etc.). Can be handled regardless of the dynamic range).

次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。   Next, the series of processes described above can be performed by hardware or software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.

図31は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。   FIG. 31 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.

このコンピュータ500において、CPU(Central Processing Unit)501,ROM(Read Only Memory)502、RAM(Random Access Memory)503は、バス504により相互に接続されている。   In the computer 500, a CPU (Central Processing Unit) 501, a ROM (Read Only Memory) 502, and a RAM (Random Access Memory) 503 are connected to each other by a bus 504.

バス504には、さらに、入出力インタフェース505が接続されている。入出力インタフェース505には、キーボード、マウス、マイクロフォンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記憶部508、ネットワークインタフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。   An input / output interface 505 is further connected to the bus 504. The input / output interface 505 includes an input unit 506 including a keyboard, a mouse, and a microphone, an output unit 507 including a display and a speaker, a storage unit 508 including a hard disk and a non-volatile memory, and a communication unit 509 including a network interface. A drive 510 for driving a removable medium 511 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.

以上のように構成されるコンピュータ500では、CPU501が、例えば、記憶部508に記憶されているプログラムを、入出力インタフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。   In the computer 500 configured as described above, for example, the CPU 501 loads the program stored in the storage unit 508 to the RAM 503 via the input / output interface 505 and the bus 504 and executes the program. A series of processing is performed.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、プログラムは、1台のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。   The program may be processed by a single computer, or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.

また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

また、本発明は、ロボットの他、例えば、テレビジョン受像機やHDレコーダなどのAV(AudioVisual)機器、コンピュータ、その他の装置における、ユーザインタフェース(ヒューマンインタフェース)に適用することが可能である。   Further, the present invention can be applied to a user interface (human interface) in, for example, an AV (AudioVisual) device such as a television receiver and an HD recorder, a computer, and other devices in addition to a robot.

本発明を適用した入出力システムの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the input / output system to which this invention is applied. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 認識生成処理を説明するフローチャートである。It is a flowchart explaining a recognition production | generation process. 図1の入出力システムの第1の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a first configuration example of the input / output system of FIG. 1. パターン記憶SOMの第1の構成例を示す図である。It is a figure which shows the 1st structural example of pattern memory | storage SOM. ノードの構成例を示す図である。It is a figure which shows the structural example of a node. パターン記憶SOMの第2の構成例を示す図である。It is a figure which shows the 2nd structural example of pattern memory | storage SOM. 学習装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a learning apparatus. 更新重みを決定する決定方法を説明するための図である。It is a figure for demonstrating the determination method which determines an update weight. 学習データ記憶部22に記憶させる学習データを更新する更新方法を説明するための図である。It is a figure for demonstrating the update method which updates the learning data memorize | stored in the learning data storage part. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 認識生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a recognition production | generation apparatus. 認識生成処理を説明するフローチャートである。It is a flowchart explaining a recognition production | generation process. パターン記憶SOMが採用された本体モデル及び分割誤差モデルを模式的に示す図である。It is a figure which shows typically the main body model and division | segmentation error model which employ | adopted pattern memory | storage SOM. 本体SOM及び分割誤差SOMに対して入出力することができるデータを説明する図である。It is a figure explaining the data which can be input / output with respect to the main body SOM and the division | segmentation error SOM. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 認識生成処理を説明するフローチャートである。It is a flowchart explaining a recognition production | generation process. 図1の入出力システムの第2の構成例を示すブロック図である。It is a block diagram which shows the 2nd structural example of the input / output system of FIG. 入出力関係モデルの構成例を示す図である。It is a figure which shows the structural example of an input / output relationship model. 入出力関係モデルを用いた処理を行う学習装置と認識生成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the learning apparatus which performs the process using an input-output relationship model, and a recognition production | generation apparatus. 入出力関係モデルの学習処理を説明するフローチャートである。It is a flowchart explaining the learning process of an input / output relationship model. 結合重み行列を示す図である。It is a figure which shows a connection weight matrix. 入出力関係モデルを用いた認識生成処理を説明するフローチャートである。It is a flowchart explaining the recognition production | generation process using an input / output relationship model. 入出力関係モデルが採用された本体モデル及び誤差モデルを模式的に示す図である。It is a figure which shows typically the main body model and error model in which the input / output relation model was employ | adopted. 本体入出力関係モデル、及び誤差入出力関係モデルに対して入出力することができるデータを説明する図である。It is a figure explaining the data which can be input / output with respect to a main body input / output relationship model and an error input / output relationship model. 学習処理を説明するフローチャートである。It is a flowchart explaining a learning process. 認識生成処理を説明するフローチャートである。It is a flowchart explaining a recognition production | generation process. 聞き真似学習を説明するための図である。It is a figure for demonstrating listening imitation learning. 図1の入出力システムの第3の構成例を示すブロック図である。It is a block diagram which shows the 3rd structural example of the input / output system of FIG. 新聞き真似学習の処理を説明するフローチャートである。It is a flowchart explaining the process of new hearing imitation learning. 本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of one Embodiment of the computer to which this invention is applied.

符号の説明Explanation of symbols

21 パターン記憶モデル, 22 学習データ記憶部, 41 スコア計算部, 42 勝者ノード決定部, 43 重み決定部, 44 学習データ更新部, 45 モデル学習部, 51 スコア計算部, 52 勝者ノード決定部, 53 再構成部, 100 学習モジュール, 101 本体学習モジュール, 102 誤差学習モジュール, 103 制御部, 121 演算部, 122 本体モデル記憶部, 123 演算部, 124 分割誤差モデル記憶部, 125 誤差算出部, 126 データ分割部, 127 補正データ生成部, 128 加算部, 201 演算部, 202 本体モデル記憶部, 203 演算部, 204 分割誤差モデル記憶部, 205 誤差算出部, 206 データ分割部, 207 補正データ生成部, 208 加算部, 221 学習部, 222 結合重み更新部, 231 スコア計算部, 232 勝者ノード決定部, 233 生成ノード決定部, 234 再構成部, 301 特徴抽出装置, 302 音声合成装置, 321,323 演算部, 327 聞き真似制御部   21 pattern storage model, 22 learning data storage unit, 41 score calculation unit, 42 winner node determination unit, 43 weight determination unit, 44 learning data update unit, 45 model learning unit, 51 score calculation unit, 52 winner node determination unit, 53 Reconfiguration unit, 100 learning module, 101 main body learning module, 102 error learning module, 103 control unit, 121 arithmetic unit, 122 main body model storage unit, 123 arithmetic unit, 124 division error model storage unit, 125 error calculation unit, 126 data Dividing unit, 127 correction data generating unit, 128 adding unit, 201 calculating unit, 202 main body model storage unit, 203 calculating unit, 204 dividing error model storing unit, 205 error calculating unit, 206 data dividing unit, 207 correction data generating unit, 208 Adder unit, 221 learning unit, 222 connection weight update unit, 231 score calculation unit, 232 winner node determination unit, 233 generation node determination unit, 234 reconstruction unit, 301 feature extraction device, 302 speech synthesizer, 321, 323 calculation unit , 327 Hearing imitation control unit

Claims (21)

データを学習する学習処理を行うデータ処理装置において、
データを学習する本体学習モジュールと、
前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習する誤差学習モジュールと
を有する学習モジュールを備える
データ処理装置。
In a data processing apparatus that performs a learning process for learning data,
A body learning module to learn data,
An error learning module comprising: an error learning module that learns a division error in which an error between the data and the reconstructed data obtained by reconstructing the data by the main body learning module is divided every predetermined dimension or time Processing equipment.
前記本体学習モジュールは、入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行い、
前記誤差学習モジュールは、前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差である入力誤差が所定の次元毎あるいは時間毎に分割されている入力分割誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差である出力誤差が所定の次元毎あるいは時間毎に分割されている出力分割誤差の学習を行う
請求項1に記載のデータ処理装置。
The main body learning module performs learning of input data, and learning of output data to be output for the input data,
The error learning module is an input division error in which an input error that is an error between the input data and reconstructed input data obtained by reconstructing the input data by the main body learning module is divided for each predetermined dimension or time Learning, and an output division error in which an output error that is an error between the output data and the reconstructed output data obtained by reconstructing the output data by the main body learning module is divided for each predetermined dimension or time. The data processing apparatus according to claim 1, wherein learning is performed.
前記本体学習モジュールは、
前記入力データの学習用のSOM(Self-Organization Map)である入力本体SOMと、前記出力データの学習用のSOMである出力本体SOMとのノードどうしが結合された本体入出力関係モデルを有し、
前記入力本体SOMの自己組織的な学習を、前記入力データを用いて行い、
前記出力本体SOMの自己組織的な学習を、前記出力データを用いて行い、
前記入力本体SOMを構成する複数のノードのうちの、前記入力データに対する勝者ノードと、前記出力本体SOMを構成する複数のノードのうちの、前記出力データに対する勝者ノードとの結合の度合いを強めるように、ノードどうしの結合の度合いを表す結合重みを更新し、
前記誤差学習モジュールは、
前記分割入力誤差の学習用のSOMである分割入力誤差SOMと、前記分割出力誤差の学習用のSOMである分割出力誤差SOMとのノードどうしが結合された誤差入出力関係モデルを有し、
前記分割入力誤差SOMの自己組織的な学習を、前記分割入力誤差を用いて行い、
前記分割出力誤差SOMの自己組織的な学習を、前記分割出力誤差を用いて行い、
前記分割入力誤差SOMを構成する複数のノードのうちの、前記分割入力誤差に対する勝者ノードと、前記分割出力誤差SOMを構成する複数のノードのうちの、前記分割出力誤差に対する勝者ノードとの結合の度合いを強めるように、ノードどうしの結合の度合いを表す結合重みを更新する
請求項2に記載のデータ処理装置。
The body learning module
It has a main body input / output relationship model in which nodes of an input main body SOM that is a SOM (Self-Organization Map) for learning the input data and an output main body SOM that is a SOM for learning the output data are combined. ,
Self-organized learning of the input body SOM is performed using the input data,
Self-organized learning of the output body SOM is performed using the output data,
The degree of coupling between the winner node for the input data of the plurality of nodes constituting the input body SOM and the winner node for the output data of the plurality of nodes constituting the output body SOM is increased. And update the connection weight that represents the degree of connection between the nodes,
The error learning module
An error input / output relationship model in which nodes of a divided input error SOM that is a SOM for learning the divided input error and a divided output error SOM that is a SOM for learning the divided output error are combined;
Self-organized learning of the divided input error SOM is performed using the divided input error,
Self-organized learning of the divided output error SOM is performed using the divided output error,
Of a plurality of nodes constituting the divided input error SOM, a winner node for the divided input error and a combination of a winner node for the divided output error among the plurality of nodes constituting the divided output error SOM. The data processing apparatus according to claim 2, wherein a connection weight representing a degree of connection between nodes is updated so as to increase the degree.
前記本体学習モジュールは、さらに、
前記入力本体SOMを構成する複数のノードの中から、前記入力データに対する勝者ノードを決定し、
前記入力本体SOMの勝者ノードを用いて、前記入力データを再構成して、前記再構成入力データを出力し、
前記入力本体SOMの勝者ノードとの結合が最も強い前記出力本体SOMのノードを用いて、前記入力データに対して出力すべき前記出力データを再構成して、前記再構成出力データを出力し、
前記誤差学習モジュールは、さらに、
前記分割入力誤差SOMを構成する複数のノードの中から、前記分割入力誤差に対する勝者ノードを決定し、
前記分割入力誤差SOMの勝者ノードとの結合が最も強い前記分割出力誤差SOMのノードを用いて、前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、
前記学習モジュールは、前記再構成出力データと、前記分割再構成出力誤差に基づいて決定する部分補正データとを加算して出力する
請求項3に記載のデータ処理装置。
The body learning module further includes:
A winner node for the input data is determined from a plurality of nodes constituting the input body SOM,
Using the winner node of the input body SOM, reconstructing the input data, outputting the reconstructed input data,
Using the node of the output body SOM that has the strongest connection with the winner node of the input body SOM, reconstructing the output data to be output for the input data, and outputting the reconstructed output data,
The error learning module further includes:
A winner node for the divided input error is determined from among a plurality of nodes constituting the divided input error SOM,
Using the node of the divided output error SOM that has the strongest coupling with the winner node of the divided input error SOM, reconstructing the divided output error, and outputting a divided reconstructed output error,
The data processing apparatus according to claim 3, wherein the learning module adds and outputs the reconstruction output data and partial correction data determined based on the divided reconstruction output error.
前記本体学習モジュールは、
前記入力データの学習用のSOM(Self-Organization Map)である入力本体SOMと、前記出力データの学習用のSOMである出力本体SOMとのノードどうしが結合された本体入出力関係モデルを有し、
前記入力本体SOMを構成する複数のノードの中から、前記入力データに対する勝者ノードを決定し、
前記入力本体SOMの勝者ノードを用いて、前記入力データを再構成して、前記再構成入力データを出力し、
前記入力本体SOMの勝者ノードとの結合が最も強い前記出力本体SOMのノードを用いて、前記入力データに対して出力すべき前記出力データを再構成して、前記再構成出力データを出力し、
前記分割誤差学習モジュールは、
前記分割入力誤差の学習用のSOMである分割入力誤差SOMと、前記分割出力誤差の学習用のSOMである分割出力誤差SOMとのノードどうしが結合された誤差入出力関係モデルを有し、
前記分割入力誤差SOMを構成する複数のノードの中から、前記分割入力誤差に対する勝者ノードを決定し、
前記分割入力誤差SOMの勝者ノードとの結合が最も強い前記分割出力誤差SOMのノードを用いて、前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、
前記本体学習モジュールは、
前記入力本体SOMの自己組織的な学習を、前記再構成出力データと前記分割再構成出力誤差に基づいて決定する前記部分補正データとを加算した加算データに対応する入力データである対応データを用いて行い、
前記出力本体SOMの自己組織的な学習を、前記加算データを用いて行い、
前記入力本体SOMを構成する複数のノードのうちの、前記対応データに対する勝者ノードと、前記出力本体SOMを構成する複数のノードのうちの、前記加算データに対する勝者ノードとの結合の度合いを強めるように、前記本体入出力関係モデルの前記結合重みを更新し、
前記誤差学習モジュールは、
前記分割入力誤差SOMの自己組織的な学習を、前記対応データと、前記本体学習モジュールが前記対応データを再構成した再構成対応データとの誤差が所定の次元毎あるいは時間毎に分割されているものを、前記分割入力誤差として用いて行い、
前記分割出力誤差SOMの自己組織的な学習を、前記加算データと、前記本体学習モジュールが前記加算データを再構成した再構成加算データとの誤差が所定の次元毎あるいは時間毎に分割されているものを、前記分割出力誤差として用いて行い、
前記分割入力誤差SOMを構成する複数のノードのうちの、前記分割入力誤差に対する勝者ノードと、前記分割出力誤差SOMを構成する複数のノードのうちの、前記分割出力誤差に対する勝者ノードとの結合の度合いを強めるように、前記誤差入出力関係モデルの前記結合重みを更新する
請求項2に記載のデータ処理装置。
The body learning module
It has a main body input / output relationship model in which nodes of an input main body SOM that is a SOM (Self-Organization Map) for learning the input data and an output main body SOM that is a SOM for learning the output data are combined. ,
A winner node for the input data is determined from a plurality of nodes constituting the input body SOM,
Using the winner node of the input body SOM, reconstructing the input data, outputting the reconstructed input data,
Using the node of the output body SOM that has the strongest connection with the winner node of the input body SOM, reconstructing the output data to be output for the input data, and outputting the reconstructed output data,
The division error learning module includes:
An error input / output relationship model in which nodes of a divided input error SOM that is a SOM for learning the divided input error and a divided output error SOM that is a SOM for learning the divided output error are combined;
A winner node for the divided input error is determined from among a plurality of nodes constituting the divided input error SOM,
Using the node of the divided output error SOM that has the strongest coupling with the winner node of the divided input error SOM, reconstructing the divided output error, and outputting a divided reconstructed output error,
The body learning module
Self-organizing learning of the input body SOM is performed using correspondence data that is input data corresponding to addition data obtained by adding the reconstruction output data and the partial correction data determined based on the divided reconstruction output error Done,
Self-organized learning of the output body SOM is performed using the addition data,
The degree of coupling between the winner node for the corresponding data among the plurality of nodes constituting the input body SOM and the winner node for the added data among the plurality of nodes constituting the output body SOM is increased. And updating the connection weight of the body input / output relation model,
The error learning module
In the self-organized learning of the divided input error SOM, the error between the correspondence data and the reconstruction correspondence data obtained by reconstructing the correspondence data by the main body learning module is divided for each predetermined dimension or time. Is used as the split input error,
In the self-organized learning of the divided output error SOM, an error between the addition data and reconstructed addition data obtained by reconstructing the addition data by the main body learning module is divided for each predetermined dimension or time. Is used as the divided output error,
Of a plurality of nodes constituting the divided input error SOM, a winner node for the divided input error and a combination of a winner node for the divided output error among the plurality of nodes constituting the divided output error SOM. The data processing apparatus according to claim 2, wherein the connection weight of the error input / output relation model is updated so as to increase the degree.
前記対応データが、前記再構成出力データに対応する入力データよりも、目標とする入力データに類似している場合、
前記本体学習モジュールは、前記入力本体SOMの自己組織的な学習、前記出力本体SOMの自己組織的な学習、及び、前記本体入出力関係モデルの前記結合重みの更新を行い、
前記誤差学習モジュールは、前記分割入力誤差SOMの自己組織的な学習、前記分割出力誤差SOMの自己組織的な学習、及び、前記誤差入出力関係モデルの前記結合重みの更新を行う
請求項5に記載のデータ処理装置。
When the correspondence data is more similar to the target input data than the input data corresponding to the reconstructed output data,
The main body learning module performs self-organized learning of the input main body SOM, self-organized learning of the output main body SOM, and update of the connection weight of the main body input / output relation model,
The error learning module performs self-organized learning of the divided input error SOM, self-organized learning of the divided output error SOM, and update of the connection weight of the error input / output relation model. The data processing apparatus described.
前記本体学習モジュールは、さらに、
前記入力データを再構成して、前記再構成入力データを出力し、
前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し、
前記誤差学習モジュールは、さらに、
前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、
前記学習モジュールは、前記再構成出力データと、前記分割再構成出力誤差に基づいて決定する部分補正データとを加算して出力する
請求項2に記載のデータ処理装置。
The body learning module further includes:
Reconstructing the input data and outputting the reconstructed input data;
Reconstructing output data to be output with respect to the input data, and outputting the reconstructed output data;
The error learning module further includes:
Reconstructing the divided output error corresponding to a divided input error in which an error between the input data and the reconstructed input data obtained by reconstructing the input data by the main body learning module is divided for each predetermined dimension or time To output the split reconstruction output error,
The data processing apparatus according to claim 2, wherein the learning module adds and outputs the reconstruction output data and partial correction data determined based on the divided reconstruction output error.
前記本体学習モジュールは、
前記入力データを再構成して、前記再構成入力データを出力し、
前記入力データに対して出力すべき前記出力データを再構成して、前記再構成出力データを出力し、
前記誤差学習モジュールは、
前記入力データと、前記本体学習モジュールが出力する前記再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、
前記本体学習モジュールは、
前記入力データの学習として、前記再構成出力データと前記分割再構成出力誤差に基づいて決定する部分補正データとを加算した加算データに対応する入力データである対応データの学習を行い、
前記入力データの学習として、前記加算データの学習を行い、
前記誤差学習モジュールは、
前記分割入力誤差の学習として、前記対応データと、前記本体学習モジュールが前記対応データを再構成した再構成対応データとの誤差が所定の次元毎あるいは時間毎に分割されているものの学習を行い、
前記出力誤差の学習として、前記加算データと、前記本体学習モジュールが前記加算データを再構成した再構成加算データとの誤差が所定の次元毎あるいは時間毎に分割されているものの学習を行う
請求項2に記載のデータ処理装置。
The body learning module
Reconstructing the input data and outputting the reconstructed input data;
Reconstructing the output data to be output with respect to the input data, and outputting the reconstructed output data;
The error learning module includes:
Reconstructing the divided output error corresponding to the divided input error in which an error between the input data and the reconstructed input data output by the main body learning module is divided for each predetermined dimension or time, Output split reconstruction output error,
The body learning module
As learning of the input data, learning of corresponding data which is input data corresponding to addition data obtained by adding the reconstructed output data and partial correction data determined based on the divided reconstructed output error,
As the learning of the input data, the addition data is learned,
The error learning module
As learning of the divided input error, learning is performed in which the error between the correspondence data and the reconstructed correspondence data in which the main body learning module reconstructs the correspondence data is divided for each predetermined dimension or time,
The learning of the output error is performed when the error between the addition data and the reconstructed addition data obtained by reconstructing the addition data by the main body learning module is divided for each predetermined dimension or time. 2. A data processing apparatus according to 2.
前記本体学習モジュールは、
前記データの学習用のSOM(Self-Organization Map)である本体SOMを有し、
前記本体SOMの自己組織的な学習を、前記データを用いて行い、
前記誤差学習モジュールは、
前記分割誤差の学習用のSOMである分割誤差SOMを有し、
前記分割誤差SOMの自己組織的な学習を、前記分割誤差を用いて行う
請求項1に記載のデータ処理装置。
The body learning module
A main body SOM that is a SOM (Self-Organization Map) for learning the data,
Perform self-organized learning of the main body SOM using the data,
The error learning module
A division error SOM that is a SOM for learning the division error;
The data processing apparatus according to claim 1, wherein self-organized learning of the division error SOM is performed using the division error.
前記本体学習モジュールは、さらに、
前記本体SOMを構成する複数のノードの中から、前記データに対する勝者ノードを決定し、
前記本体SOMの勝者ノードを用いて、前記データを再構成して、前記再構成データを出力し、
前記誤差学習モジュールは、さらに、
前記分割誤差SOMを構成する複数のノードの中から、前記分割誤差に対する勝者ノードを決定し、
前記分割誤差SOMの勝者ノードを用いて、前記分割誤差を再構成して、分割再構成誤差を出力し、
前記学習モジュールは、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力する
請求項9に記載のデータ処理装置。
The body learning module further includes:
From among a plurality of nodes constituting the main body SOM, a winner node for the data is determined,
Using the winner node of the main body SOM, reconstructing the data, outputting the reconstructed data,
The error learning module further includes:
A winner node for the division error is determined from a plurality of nodes constituting the division error SOM,
Using the winner node of the split error SOM, reconstruct the split error, and output a split reconstruction error,
The data processing apparatus according to claim 9, wherein the learning module adds and outputs the reconstruction data and partial correction data determined based on the division reconstruction error.
前記本体学習モジュールは、さらに、前記データを再構成して、前記再構成データを出力し、
前記誤差学習モジュールは、さらに、前記データと、前記本体学習モジュールが出力する前記再構成データとの前記誤差が所定の次元毎あるいは時間毎に分割されている前記分割誤差を再構成して、分割再構成誤差を出力し、
前記学習モジュールは、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力する
請求項1に記載のデータ処理装置。
The main body learning module further reconstructs the data and outputs the reconstructed data,
The error learning module further reconstructs the division error in which the error between the data and the reconstructed data output from the main body learning module is divided for each predetermined dimension or time, Output reconstruction error,
The data processing device according to claim 1, wherein the learning module adds and outputs the reconstruction data and partial correction data determined based on the division reconstruction error.
データを学習する学習処理を行うデータ処理装置のデータ処理方法において、
データを学習する本体学習モジュールにおいて、前記データを学習し、
前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習する誤差学習モジュールにおいて、前記分割誤差を学習する
ステップを含むデータ処理方法。
In a data processing method of a data processing apparatus that performs learning processing for learning data,
In the main body learning module for learning data, learning the data,
An error learning module that learns a division error in which an error between the data and reconstructed data obtained by reconstructing the data by the main body learning module is divided for each predetermined dimension or time, and learning the division error A data processing method including steps.
データを学習する学習処理を行うデータ処理装置として、コンピュータを機能させるプログラムにおいて、
データを学習する本体学習モジュールと、
前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの
誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習する誤差学習モジュールと
を有する学習モジュールを備える
データ処理装置として、コンピュータを機能させるプログラム。
In a program that causes a computer to function as a data processing device that performs learning processing for learning data,
A body learning module to learn data,
An error learning module comprising: an error learning module that learns a division error in which an error between the data and the reconstructed data obtained by reconstructing the data by the main body learning module is divided every predetermined dimension or time A program that causes a computer to function as a processing device.
データを出力するデータ処理装置において、
入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行った前記本体学習モジュールと、
前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割出力誤差の学習を行った誤差学習モジュールと
を有する学習モジュールを備え、
前記本体学習モジュールは、
前記入力データを再構成して、前記再構成入力データを出力し、
前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し、
前記誤差学習モジュールは、
前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、
前記学習モジュールは、前記再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力する
データ処理装置。
In a data processing device that outputs data,
The main body learning module that has learned input data and learned output data to be output with respect to the input data;
Learning of divided input error in which an error between the input data and reconstructed input data obtained by reconstructing the input data by the main body learning module is divided for each predetermined dimension or time, and the output data, An error learning module that learns a divided output error in which an error from the reconstructed output data in which the main body learning module reconstructs the output data is divided for each predetermined dimension or time. ,
The body learning module
Reconstructing the input data and outputting the reconstructed input data;
Reconstructing output data to be output with respect to the input data, and outputting the reconstructed output data;
The error learning module includes:
Reconstructing the divided output error corresponding to the divided input error, and outputting a divided reconstructed output error;
The learning module adds and outputs the reconstruction output data and partial correction data determined based on the divided reconstruction output error.
前記本体学習モジュールは、
前記入力データの学習用のSOM(Self-Organization Map)である入力本体SOMと、前記出力データの学習用のSOMである出力本体SOMとのノードどうしが結合された本体入出力関係モデルを有し、
前記入力本体SOMを構成する複数のノードの中から、前記入力データに対する勝者ノードを決定し、
前記入力本体SOMの勝者ノードを用いて、前記入力データを再構成して、前記再構成入力データを出力し、
前記入力本体SOMの勝者ノードとの結合が最も強い前記出力本体SOMのノードを用いて、前記入力データに対して出力すべき前記出力データを再構成して、前記再構成出力データを出力し、
前記誤差学習モジュールは、
前記分割入力誤差の学習用のSOMである分割入力誤差SOMと、前記分割出力誤差の学習用のSOMである分割出力誤差SOMとのノードどうしが結合された誤差入出力関係モデルを有し、
前記分割入力誤差SOMを構成する複数のノードの中から、前記分割入力誤差に対する勝者ノードを決定し、
前記分割入力誤差SOMの勝者ノードとの結合が最も強い前記分割出力誤差SOMのノードを用いて、前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、
前記学習モジュールは、前記再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力する
請求項14に記載のデータ処理装置。
The body learning module
It has a main body input / output relationship model in which nodes of an input main body SOM that is a SOM (Self-Organization Map) for learning the input data and an output main body SOM that is a SOM for learning the output data are combined. ,
A winner node for the input data is determined from a plurality of nodes constituting the input body SOM,
Using the winner node of the input body SOM, reconstructing the input data, outputting the reconstructed input data,
Using the node of the output body SOM that has the strongest connection with the winner node of the input body SOM, reconstructing the output data to be output for the input data, and outputting the reconstructed output data,
The error learning module
An error input / output relationship model in which nodes of a divided input error SOM that is a SOM for learning the divided input error and a divided output error SOM that is a SOM for learning the divided output error are combined;
From among a plurality of nodes constituting the divided input error SOM, determine a winner node for the divided input error,
Using the node of the divided output error SOM that has the strongest coupling with the winner node of the divided input error SOM, reconstructing the divided output error, and outputting a divided reconstructed output error,
The data processing apparatus according to claim 14, wherein the learning module adds and outputs the reconstruction output data and partial correction data determined based on the divided reconstruction output error.
データを出力するデータ処理装置のデータ処理方法において、
前記データ処理装置は、
入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行った前記本体学習モジュールと、
前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割出力誤差の学習を行った誤差学習モジュールと
を有する学習モジュールを備え、
前記本体学習モジュールにおいて、
前記入力データを再構成して、前記再構成入力データを出力し、
前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し、
前記誤差学習モジュールにおいて、
前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、
前記学習モジュールにおいて、前記分割再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力する
ステップを含むデータ処理方法。
In a data processing method of a data processing device that outputs data,
The data processing device includes:
The main body learning module that has learned input data and learned output data to be output with respect to the input data;
Learning of divided input error in which an error between the input data and reconstructed input data obtained by reconstructing the input data by the main body learning module is divided for each predetermined dimension or time, and the output data, An error learning module that learns a divided output error in which an error from the reconstructed output data in which the main body learning module reconstructs the output data is divided for each predetermined dimension or time. ,
In the main body learning module,
Reconstructing the input data and outputting the reconstructed input data;
Reconstructing output data to be output with respect to the input data, and outputting the reconstructed output data;
In the error learning module,
Reconstructing the divided output error corresponding to the divided input error, and outputting a divided reconstructed output error;
A data processing method comprising a step of adding and outputting the division reconstruction output data and partial correction data determined based on the division reconstruction output error in the learning module.
データを出力するデータ処理装置として、コンピュータを機能させるプログラムにおいて、
入力データの学習、及び、前記入力データに対して出力すべき出力データの学習を行った前記本体学習モジュールと、
前記入力データと、前記本体学習モジュールが前記入力データを再構成した再構成入力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割入力誤差の学習、及び、前記出力データと、前記本体学習モジュールが前記出力データを再構成した再構成出力データとの誤差が所定の次元毎あるいは時間毎に分割されている分割出力誤差の学習を行った誤差学習モジュールと
を有する学習モジュールを備え、
前記本体学習モジュールは、
前記入力データを再構成して、前記再構成入力データを出力し、
前記入力データに対して出力すべき出力データを再構成して、前記再構成出力データを出力し、
前記誤差学習モジュールは、
前記分割入力誤差に対応する前記分割出力誤差を再構成して、分割再構成出力誤差を出力し、
前記学習モジュールは、前記再構成出力データと、前記分割再構成出力誤差に基づいて決定される部分補正データとを加算して出力する
データ処理装置として、コンピュータを機能させるプログラム。
In a program that causes a computer to function as a data processing device that outputs data,
The main body learning module that has learned input data and learned output data to be output with respect to the input data;
Learning of divided input error in which an error between the input data and reconstructed input data obtained by reconstructing the input data by the main body learning module is divided for each predetermined dimension or time, and the output data, An error learning module that learns a divided output error in which an error from the reconstructed output data in which the main body learning module reconstructs the output data is divided for each predetermined dimension or time. ,
The body learning module
Reconstructing the input data and outputting the reconstructed input data;
Reconstructing output data to be output with respect to the input data, and outputting the reconstructed output data;
The error learning module
Reconstructing the divided output error corresponding to the divided input error, and outputting a divided reconstructed output error;
The learning module is a program that causes a computer to function as a data processing device that adds and outputs the reconstruction output data and partial correction data determined based on the divided reconstruction output error.
データを出力するデータ処理装置において、
データを学習した本体学習モジュールと、
前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習した誤差学習モジュールと
を有する学習モジュールを備え、
前記本体学習モジュールは、前記データを再構成して、前記再構成データを出力し、
前記誤差学習モジュールは、前記分割誤差を再構成して、分割再構成誤差を出力し、
前記学習モジュールは、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力する
データ処理装置。
In a data processing device that outputs data,
The main body learning module that learned the data,
An error learning module comprising: an error learning module that learns a division error in which an error between the data and the reconstructed data obtained by reconstructing the data by the main body learning module is divided for each predetermined dimension or time;
The main body learning module reconstructs the data and outputs the reconstructed data,
The error learning module reconstructs the division error and outputs a division reconstruction error;
The learning module adds and outputs the reconstruction data and partial correction data determined based on the division reconstruction error.
前記本体学習モジュールは、
前記データの学習用のSOM(Self-Organization Map)である本体SOMを有し、
前記本体SOMを構成する複数のノードの中から、前記データに対する勝者ノードを決定し、
前記本体SOMの勝者ノードを用いて、前記データを再構成して、前記再構成データを出力し、
前記誤差学習モジュールは、
前記分割誤差の学習用のSOMである分割誤差SOMを有し、
前記分割誤差SOMを構成する複数のノードの中から、前記分割誤差に対する勝者ノードを決定し、
前記分割誤差SOMの勝者ノードを用いて、前記分割誤差を再構成して、分割再構成誤差を出力し、
前記学習モジュールは、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力する
請求項18に記載のデータ処理装置。
The body learning module
A main body SOM that is a SOM (Self-Organization Map) for learning the data,
From among a plurality of nodes constituting the main body SOM, a winner node for the data is determined,
Using the winner node of the main body SOM, reconstructing the data, outputting the reconstructed data,
The error learning module includes:
A division error SOM that is a SOM for learning the division error;
A winner node for the division error is determined from a plurality of nodes constituting the division error SOM,
Using the winner node of the split error SOM, reconstruct the split error, and output a split reconstruction error,
The data processing device according to claim 18, wherein the learning module adds and outputs the reconstruction data and partial correction data determined based on the division reconstruction error.
データを出力するデータ処理装置のデータ処理方法において、
前記データ処理装置は、
データを学習した本体学習モジュールと、
前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習した誤差学習モジュールと
を有する学習モジュールを備え、
前記本体学習モジュールにおいて、前記データを再構成して、前記再構成データを出力し、
前記誤差学習モジュールにおいて、前記分割誤差を再構成して、分割再構成誤差を出力し、
前記学習モジュールにおいて、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力する
ステップを含むデータ処理方法。
In a data processing method of a data processing device that outputs data,
The data processing device includes:
The main body learning module that learned the data,
An error learning module comprising: an error learning module that learns a division error in which an error between the data and the reconstructed data obtained by reconstructing the data by the main body learning module is divided for each predetermined dimension or time;
In the main body learning module, the data is reconstructed and the reconstructed data is output,
In the error learning module, the division error is reconstructed and a division reconstruction error is output,
A data processing method comprising the step of adding and outputting the reconstruction data and partial correction data determined based on the division reconstruction error in the learning module.
データを出力するデータ処理装置として、コンピュータを機能させるプログラムにおいて、
データを学習した本体学習モジュールと、
前記データと、前記本体学習モジュールが前記データを再構成した再構成データとの誤差が所定の次元毎あるいは時間毎に分割されている分割誤差を学習した誤差学習モジュールと
を有する学習モジュールを備え、
前記本体学習モジュールは、前記データを再構成して、前記再構成データを出力し、
前記誤差学習モジュールは、前記分割誤差を再構成して、分割再構成誤差を出力し、
前記学習モジュールは、前記再構成データと、前記分割再構成誤差に基づいて決定される部分補正データとを加算して出力する
データ処理装置として、コンピュータを機能させるプログラム。
In a program that causes a computer to function as a data processing device that outputs data,
The main body learning module that learned the data,
An error learning module comprising: an error learning module that learns a division error in which an error between the data and the reconstructed data obtained by reconstructing the data by the main body learning module is divided for each predetermined dimension or time;
The main body learning module reconstructs the data and outputs the reconstructed data,
The error learning module reconstructs the division error and outputs a division reconstruction error;
The learning module is a program that causes a computer to function as a data processing device that adds and outputs the reconstruction data and partial correction data determined based on the division reconstruction error.
JP2007208946A 2007-08-10 2007-08-10 Data processing apparatus, data processing method, and program Withdrawn JP2009043122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007208946A JP2009043122A (en) 2007-08-10 2007-08-10 Data processing apparatus, data processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007208946A JP2009043122A (en) 2007-08-10 2007-08-10 Data processing apparatus, data processing method, and program

Publications (1)

Publication Number Publication Date
JP2009043122A true JP2009043122A (en) 2009-02-26

Family

ID=40443786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007208946A Withdrawn JP2009043122A (en) 2007-08-10 2007-08-10 Data processing apparatus, data processing method, and program

Country Status (1)

Country Link
JP (1) JP2009043122A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107943098A (en) * 2018-01-01 2018-04-20 余绍祥 A kind of intelligent O&M robot system based on machine learning
JP2019091236A (en) * 2017-11-14 2019-06-13 富士通株式会社 Feature extraction device, feature extraction program, and feature extraction method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019091236A (en) * 2017-11-14 2019-06-13 富士通株式会社 Feature extraction device, feature extraction program, and feature extraction method
JP7021507B2 (en) 2017-11-14 2022-02-17 富士通株式会社 Feature extraction device, feature extraction program, and feature extraction method
CN107943098A (en) * 2018-01-01 2018-04-20 余绍祥 A kind of intelligent O&M robot system based on machine learning

Similar Documents

Publication Publication Date Title
JP4201012B2 (en) Data processing apparatus, data processing method, and program
JP4710933B2 (en) Learning device, learning method, and program
Jahangir et al. Deep learning approaches for speech emotion recognition: state of the art and research challenges
US7346595B2 (en) Method and apparatus for learning data, method and apparatus for generating data, and computer program
JP4843987B2 (en) Information processing apparatus, information processing method, and program
JP4169063B2 (en) Data processing apparatus, data processing method, and program
US7296005B2 (en) Method and apparatus for learning data, method and apparatus for recognizing data, method and apparatus for generating data, and computer program
WO2018063840A1 (en) Learning coach for machine learning system
JP2011059816A (en) Information processing device, information processing method, and program
JP2010020444A (en) Learning device, learning method, and program
JP2011059815A (en) Apparatus and method for processing information and program
US20220215267A1 (en) Processes and methods for enabling artificial general intelligence capable of flexible calculation, prediction, planning and problem solving with arbitrary and unstructured data inputs and outputs
Wu et al. Acoustic to articulatory mapping with deep neural network
JP2011059817A (en) Information processing device, information processing method, and program
Deng et al. Deep dynamic models for learning hidden representations of speech features
JP4534769B2 (en) Information processing apparatus, information processing method, and program
US11250852B2 (en) Generation of trigger recognition models for robot
Wu et al. Information-dense actions as contexts
JP2009043122A (en) Data processing apparatus, data processing method, and program
Guimarães et al. A taxonomy of Self-organizing Maps for temporal sequence processing
JP2008293259A (en) Data processor, data processing method and program
Tanaka et al. Pronunciation adaptive self speaking agent using wavegrad
Schmidt-Barbo et al. Using semantic embeddings for initiating and planning articulatory speech synthesis
KR20230120790A (en) Speech Recognition Healthcare Service Using Variable Language Model
JP2007280057A (en) Data processor, data processing method, and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20101102