JP4773680B2 - 情報処理装置および方法、プログラム記録媒体、並びにプログラム - Google Patents

情報処理装置および方法、プログラム記録媒体、並びにプログラム Download PDF

Info

Publication number
JP4773680B2
JP4773680B2 JP2003289138A JP2003289138A JP4773680B2 JP 4773680 B2 JP4773680 B2 JP 4773680B2 JP 2003289138 A JP2003289138 A JP 2003289138A JP 2003289138 A JP2003289138 A JP 2003289138A JP 4773680 B2 JP4773680 B2 JP 4773680B2
Authority
JP
Japan
Prior art keywords
learning
pattern
learning model
motion
movement pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003289138A
Other languages
English (en)
Other versions
JP2005056340A (ja
Inventor
真人 伊藤
淳 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
RIKEN Institute of Physical and Chemical Research
Original Assignee
Sony Corp
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, RIKEN Institute of Physical and Chemical Research filed Critical Sony Corp
Priority to JP2003289138A priority Critical patent/JP4773680B2/ja
Priority to US10/901,988 priority patent/US7373333B2/en
Priority to EP04018616A priority patent/EP1505534A3/en
Priority to CN200410056314A priority patent/CN100580654C/zh
Publication of JP2005056340A publication Critical patent/JP2005056340A/ja
Application granted granted Critical
Publication of JP4773680B2 publication Critical patent/JP4773680B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置および方法、プログラム記録媒体、並びにプログラムに関し、特に、学習効率を向上させ、かつ、規模が容易に拡張できるようにした、情報処理装置および方法、プログラム記録媒体、並びにプログラムに関する。
従来より、人間や動物の脳に関する1つのモデルとして、ニューラルネットワークが研究されている。ニューラルネットワークにおいては、所定の運動パターンを予め学習しておくことにより、入力されたデータが学習した運動パターンに対応するか否かを識別することができる。
運動パターンを認識するモデルとして、ローカル表現スキームによる運動パターン学習モデルと、分散表現スキームによる運動パターン学習モデルが知られている。
ローカル表現スキームによる運動パターン学習モデルにおいては、図1に示されるように、独立したローカルモジュール1−1乃至1−3がそれぞれの対応するゲート2−1乃至2−3を介して結合される。ローカルモジュール1−1乃至1−3は、それぞれ独立した運動パターンを学習する。
ローカル表現スキームによる運動パターン学習モデルにおいては、ゲート2−1乃至2−3を制御することで、全体の出力が決定される。
このローカル表現スキームによる運動パターン学習モデルについては、特許文献1に開示されている。
一方、分散表現スキームによる運動パターン学習モデルにおいては、図2に示されるように、モジュール21が複数の運動パターンを学習する。
特開平11−126198号公報
しかしながら、このローカル表現スキームによる運動パターン学習モデルにおいては、パターン間の関係性を考慮しないため、複数のパターンを汎化して学習することが困難である課題があった。
また、分散表現スキームによる運動パターン学習モデルにおいては、少数のパラメータを持つ1つのモジュールに複数の運動パターンを学習させるため、学習の効率が悪く、規模拡張性が困難であるという課題があった。
本発明はこのような状況に鑑みてなされたものであり、学習効率を向上させ、かつ規模が容易に拡張できるようにするものである。
本発明の情報処理装置は、時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、第1の運動パターン学習モデルと第2の運動パターン学習モデルを要素とし、第1の運動パターン学習モデルと第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、第1の運動パターン学習モデルと第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成され、第1の運動パターン学習モデルと第2の運動パターン学習モデルは、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差を演算するとともに、それぞれの運動パターン学習モデルについての学習パラメータ修正量の重み付け係数を、それぞれの運動パターン学習モデルの学習誤差についての指数関数と、指数関数の全ての運動パターン学習モデルについての和との比から演算し、重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、学習パラメータと重み付け係数との積を減じた値を、学習パラメータとするように、学習パラメータを修正する
本発明の情報処理方法は、時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、第1の運動パターン学習モデルと第2の運動パターン学習モデルを要素とし、第1の運動パターン学習モデルと第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、第1の運動パターン学習モデルと第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成される情報処理装置の情報処理方法であって、第1の運動パターン学習モデルが、複数の第1の時系列パターンを学習する第1の学習ステップと、第2の運動パターン学習モデルが、複数の第2の時系列パターンを学習する第2の学習ステップと、第3の運動パターン学習モデルが、時系列パターンを認識または生成する認識・生成ステップとを含み、第1の学習ステップおよび第2の学習ステップの処理は、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差を演算するとともに、それぞれの運動パターン学習モデルについての学習パラメータ修正量の重み付け係数を、それぞれの運動パターン学習モデルの学習誤差についての指数関数と、指数関数の全ての運動パターン学習モデルについての和との比から演算し、重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、学習パラメータと重み付け係数との積を減じた値を、学習パラメータとするように、学習パラメータを修正する
本発明の記録媒体のプログラムは、時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、第1の運動パターン学習モデルと第2の運動パターン学習モデルを要素とし、第1の運動パターン学習モデルと第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、第1の運動パターン学習モデルと第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成される情報処理装置を制御するコンピュータのプログラムであって、複数の第1の時系列パターンの学習を制御する第1の学習制御ステップと、複数の第2の時系列パターンの学習を制御する第2の学習制御ステップと、時系列パターンの認識または生成を制御する認識・生成制御ステップとを含む処理をコンピュータに実行させ、第1の学習制御ステップおよび第2の学習制御ステップの処理は、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差を演算するとともに、それぞれの運動パターン学習モデルについての学習パラメータ修正量の重み付け係数を、それぞれの運動パターン学習モデルの学習誤差についての指数関数と、指数関数の全ての運動パターン学習モデルについての和との比から演算し、重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、学習パラメータと重み付け係数との積を減じた値を、学習パラメータとするように、学習パラメータを修正する
本発明のプログラムは、時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、第1の運動パターン学習モデルと第2の運動パターン学習モデルを要素とし、第1の運動パターン学習モデルと第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、第1の運動パターン学習モデルと第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成される情報処理装置を制御するコンピュータのプログラムであって、複数の第1の時系列パターンの学習を制御する第1の学習制御ステップと、複数の第2の時系列パターンの学習を制御する第2の学習制御ステップと、時系列パターンの認識または生成を制御する認識・生成制御ステップとを含む処理をコンピュータに実行させ、第1の学習制御ステップおよび第2の学習制御ステップの処理は、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差を演算するとともに、それぞれの運動パターン学習モデルについての学習パラメータ修正量の重み付け係数を、それぞれの運動パターン学習モデルの学習誤差についての指数関数と、指数関数の全ての運動パターン学習モデルについての和との比から演算し、重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、学習パラメータと重み付け係数との積を減じた値を、学習パラメータとするように、学習パラメータを修正する
本発明においては、第1と第2の運動パターン学習モデルが、分散表現スキームによるモデルとされ、ローカル表現スキームによる第3の運動パターン学習モデルが、第1の運動パターン学習モデルと第2の運動パターン学習モデルにより構成される。また、第1の運動パターン学習モデルと第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成され、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差が演算されるとともに、それぞれの運動パターン学習モデルについての学習パラメータ修正量の重み付け係数が、それぞれの運動パターン学習モデルの学習誤差についての指数関数と、指数関数の全ての運動パターン学習モデルについての和との比から演算され、重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、学習パラメータと重み付け係数との積を減じた値が、学習パラメータとされるように、学習パラメータが、修正される
本発明によれば、運動パターンを学習することができる。特に、学習効率を向上させ、かつ規模を容易に拡張することが可能となる。
以下に本発明を実施するための最良の形態を説明するが、明細書中に記載の発明と、実施の形態との対応関係を例示すると、次のようになる。明細書には記載されているが、発明に対応するものとして、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その発明に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その発明以外の発明には対応しないものであることを意味するものでもない。
さらに、この記載は、明細書に記載されている実施の形態に対応するすべての発明が、記載されていることを意味するものではない。換言すれば、この記載は、明細書に記載されている他の発明の存在、すなわち、将来、分割出願されたり、補正により出現、追加される発明の存在を否定するものではない。
本発明は、時系列パターンを処理する情報処理装置(例えば、図3の処理装置41)を提供する。この情報処理装置は、時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデル(例えば、図3のローカルモジュール43−1)および分散表現スキームによる第2の運動パターン学習モデル(例えば、図3のローカルモジュール43−2)と、第1の運動パターン学習モデルと第2の運動パターン学習モデルを要素とし、第1の運動パターン学習モデルと第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデル(例えば、図3の統合モジュール42)とを備え、第1の運動パターン学習モデルと第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワーク(例えば、図5のRNN61−1,61−2)により構成される
また、この情報処理装置の第1の運動パターン学習モデルと第2の運動パターン学習モデルは、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差(例えば、式(5)の学習誤差ei)を演算するとともに(例えば、図25のステップS114の処理)、それぞれの運動パターン学習モデルについての学習パラメータ修正量(例えば、式(7)の学習パラメータ修正量Δw’i)の重み付け係数(例えば、式(6)の重み付け係数gi)を、それぞれの運動パターン学習モデルの学習誤差についての指数関数と、指数関数の全ての運動パターン学習モデルについての和との比から演算し(例えば、図25のステップS115の処理)、重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、学習パラメータと重み付け係数との積を減じた値を、学習パラメータとするように、学習パラメータを修正する(例えば、図25のステップS117の処理)ことができる。
また、本発明は、時系列パターンを処理する情報処理装置(例えば、図3の処理装置41)の情報処理方法を提供する。この方法は、時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、第1の運動パターン学習モデルと第2の運動パターン学習モデルを要素とし、第1の運動パターン学習モデルと第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、第1の運動パターン学習モデルと第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成される情報処理装置の情報処理方法であって、第1の運動パターン学習モデル(例えば、図3のローカルモジュール43−1)が、複数の第1の時系列パターンを学習する第1の学習ステップ(例えば、図3のローカルモジュール43−1を学習させる場合の図7のステップS13)と、第2の運動パターン学習モデル(例えば、図3のローカルモジュール43−2)が、複数の第2の時系列パターンを学習する第2の学習ステップ(例えば、図3のローカルモジュール43−2を学習させる場合の図7のステップS13)と、第3の運動パターン学習モデルが、時系列パターンを認識または生成する認識・生成ステップ(例えば、図4のステップS3)とを含み、第1の学習ステップおよび第2の学習ステップの処理は、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差(例えば、式(5)の学習誤差ei)を演算するとともに(例えば、図25のステップS114の処理)、それぞれの運動パターン学習モデルについての学習パラメータ修正量(例えば、式(7)の学習パラメータ修正量Δw’i)の重み付け係数(例えば、式(6)の重み付け係数gi)を、それぞれの運動パターン学習モデルの学習誤差についての指数関数と、指数関数の全ての運動パターン学習モデルについての和との比から演算し(例えば、図25のステップS115の処理)、重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、学習パラメータと重み付け係数との積を減じた値を、学習パラメータとするように、学習パラメータを修正する(例えば、図25のステップS117の処理)
また、本発明は、時系列パターンを処理するためのプログラムが記録されたプログラム記録媒体(例えば、図26の光ディスク172)を提供する。このプログラムは、時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、第1の運動パターン学習モデルと第2の運動パターン学習モデルを要素とし、第1の運動パターン学習モデルと第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、第1の運動パターン学習モデルと第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成される情報処理装置を制御するコンピュータのプログラムであって、複数の第1の時系列パターンの学習を制御する第1の学習制御ステップ(例えば、図3のローカルモジュール43−1を学習させる場合の図7のステップS13)と、複数の第2の時系列パターンの学習を制御する第2の学習制御ステップ(例えば、図3のローカルモジュール43−2を学習させる場合の図7のステップS13)と、時系列パターンの認識または生成を制御する認識・生成制御ステップ(例えば、図4のステップS3)とを含む処理をコンピュータに実行させ、第1の学習制御ステップおよび第2の学習制御ステップの処理は、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差(例えば、式(5)の学習誤差ei)を演算するとともに(例えば、図25のステップS114の処理)、それぞれの運動パターン学習モデルについての学習パラメータ修正量(例えば、式(7)の学習パラメータ修正量Δw’i)の重み付け係数(例えば、式(6)の重み付け係数gi)を、それぞれの運動パターン学習モデルの学習誤差についての指数関数と、指数関数の全ての運動パターン学習モデルについての和との比から演算し(例えば、図25のステップS115の処理)、重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、学習パラメータと重み付け係数との積を減じた値を、学習パラメータとするように、学習パラメータを修正する(例えば、図25のステップS117の処理)ようにすることができる。
また、本発明は、時系列パターンを処理するためのプログラムを提供する。このプログラムは、時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、第1の運動パターン学習モデルと第2の運動パターン学習モデルを要素とし、第1の運動パターン学習モデルと第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、第1の運動パターン学習モデルと第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成される情報処理装置を制御するコンピュータのプログラムであって、複数の第1の時系列パターンの学習を制御する第1の学習制御ステップ(例えば、図3のローカルモジュール43−1を学習させる場合の図7のステップS13)と、複数の第2の時系列パターンの学習を制御する第2の学習制御ステップ(例えば、図3のローカルモジュール43−2を学習させる場合の図7のステップS13)と、時系列パターンの認識または生成を制御する認識・生成制御ステップ(例えば、図4のステップS3)とを含む処理をコンピュータに実行させ、第1の学習制御ステップおよび第2の学習制御ステップの処理は、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差(例えば、式(5)の学習誤差ei)を演算するとともに(例えば、図25のステップS114の処理)、それぞれの運動パターン学習モデルについての学習パラメータ修正量(例えば、式(7)の学習パラメータ修正量Δw’i)の重み付け係数(例えば、式(6)の重み付け係数gi)を、それぞれの運動パターン学習モデルの学習誤差についての指数関数と、指数関数の全ての運動パターン学習モデルについての和との比から演算し(例えば、図25のステップS115の処理)、重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、学習パラメータと重み付け係数との積を減じた値を、学習パラメータとするように、学習パラメータを修正する(例えば、図25のステップS117の処理)
以下、本発明の実施の形態について説明する。
図3は、本発明を適用した処理装置の構成例を表している。この処理装置41は、ローカル表現スキームによる運動パターン学習モデルである統合モジュール42により構成されている。統合モジュール42は、複数の(図3の例の場合、3個の)ローカルモジュール43−1乃至43−3と、それぞれに対応するゲート44−1乃至44−3により構成されている。ゲート44−1乃至44−3には、それぞれ係数W1乃至W3が設定され、その出力は、次式で表わされる。
全出力=ΣWi×modulei(pi)
なお、上記式におけるiの値は、1,2,3であり、ローカルモジュール43−1乃至43−4のいずれかを表わす。また、modulei(pi)は、パラメータの値がpiである場合における各ローカルモジュール43−1乃至43−3の出力を表わす。
次に、図4のフローチャートを参照して、図3の処理装置41の基本的な処理について説明する。
ステップS1において、統合モジュール42をローカルモジュール43−1乃至43−3により生成する処理が実行される。そして、生成されたローカルモジュール43−1乃至43−3は、その出力が、ゲート44−1乃至44−3において、係数W1乃至W3と乗算された後、合成され、出力されるように構成される。
次に、ステップS2において学習処理が行われる。この学習処理により、各ローカルモジュール43−1乃至43−3に、複数の運動パターン(時系列パターン)がそれぞれ学習、記憶される。
ステップS2の学習処理の詳細については、図7のフローチャートを参照して後述する。
以上のようにして、運動パターンが学習された後、各ローカルモジュール43−1乃至43−3に、必要なパラメータを入力し、対応するパターンを出力させたり、各ローカルモジュール43−1乃至43−3に所定の運動パターンを入力し、それに対応する係数を出力させるといったような、この処理装置41を利用する処理が実行される。
ステップS3の利用処理の詳細については、図21および図23を参照して後述する。
なお、ステップS1乃至ステップS3の処理は、この順番で行われるが、時間的には必ずしも連続して行われるわけではなく、ステップS1の処理の後、ステップS2の処理が実行され、また、ステップS2の処理の後ステップS3の処理が実行されるまでには、所定の時間的間隔が設けられる場合がある。
本発明の実施の形態の場合、各ローカルモジュール43−1乃至43−3は、図5に示されるように、それぞれ運動パターンを学習する機能を有するリカレント型ニューラルネットワーク(RNN)61−1乃至61−3により構成される。なお、以下においては、ローカルモジュール43−1乃至43−3、並びにRNN61−1乃至61−3を、個々に区別する必要がない場合、単にローカルモジュール43または、RNN61と称する。
図6は、RNN61の構成例を表している。このRNN61は、入力層111、中間層(隠れ層)112、および出力層113により構成されている。これらの入力層111、中間層112、および出力層113は、それぞれ任意の数のニューロンにより構成されている。
入力層111の一部のニューロン111−1には、時系列パターンに関するデータxtが入力される。具体的には例えば、カメラ画像等を基に画像処理により得られる人間の身体運動パターン(例えば、手先位置の運動軌道等)などの時系列パターンに関するデータが入力される。
入力層111の一部のニューロンであるパラメトリックバイアスノード111−2には、パラメータPtが入力される。パラメータPtはベクトルであり次元は時系列パターンにより任意である。パラメトリックバイアスノードの数は、1つ以上とされる。そのノード数は、リカレント・ニューラル・ネットを構成し、かつ、モデル決定手段のパラメータであるウェイト・マトリックスの数を決定するニューロンの総数に対して、十分に小さいことが望ましい。本実施の形態では、前記ニューロンの総数が約50個であるのに対して、パラメトリックバイアスノードの数は約1乃至2個とされる。ただし、本願発明がこの数に限定されないことは言うまでもない。
パラメトリックバイアスノードは、非線形力学系における力学構造をモジュレーションするものであり、本実施の形態においては、リカレント型ニューラルネットワークが保持する力学構造をモジュレーションする働きをするノードである。ただし、本願発明がリカレント型ニューラルネットワークに限定されるものではない。
さらに、入力層111の一部のニューロン111−3には、出力層113の一部のニューロン113−2より出力されたデータが、RNN61の内部の状態を表すコンテキストCtとしてフィードバックされている。コンテキストCtは、リカレント型ニューラルネットワークに関する一般的用語であり、例えば、参考文献(Elman, J.L. (1990). Finding structure in time. Cognitive Science, 14, 179-211)等に説明が記載されている。
中間層112のニューロンは、入力されたデータに対して重み付け加算処理を行い、順次後段に出力する処理を実行する。すなわち、データxt,Pt, Ctに対して所定の重み付け係数に対する演算処理(非線形関数に基づく演算処理)を行った後、出力層113に出力する。本実施の形態では例えば、データxt,Pt,Ctの所定の重み付け和の入力に対して、シグモイド関数等の非線形出力特性を有する関数に基づく演算処理を行った後、出力層113に出力する。
出力層113を構成する一部のニューロン113−1は、入力データに対応するデータx*t+1を出力する。
また、RNN61は、バックプロパゲーションによる学習のため、演算部121を有している。演算部22は、RNN61に対する重み付け係数の設定処理を行う。
次に、図7のフローチャートを参照して、図4のステップS2における学習処理の詳細について説明する。
ステップS11において、各ローカルモジュール61−1乃至61−3の学習パラメータ(各ニューロンの重み付け係数)を演算部122に保存する処理が実行される。次に、ステップS12において、学習対象の運動パターンを各ローカルモジュール61−1乃至61−3に取り込む処理が実行される。その後、ステップS13においてローカルモジュール学習処理が実行される。このローカルモジュール学習処理の詳細については、図18のフローチャートを参照して後述するが、このステップS13の処理により、ローカルモジュール61−1乃至61−3のうちの1つ(例えば、ローカルモジュール61−1)に1つの運動パターンが学習される。
次に、ステップS14において、演算部122は、各ローカルモジュール61−1乃至61−3の学習誤差を取得し、それぞれの値を比較する。これにより、演算部122は、学習誤差が最小であるローカルモジュールを特定する。
ステップS15において、演算部122は、最小の学習誤差のローカルモジュール以外のローカルモジュールに、ステップS11の処理で保存しておいた学習パラメータ(重み付け係数)を戻す処理を実行する。例えば、ローカルモジュール61−1の学習誤差が最小であった場合、ローカルモジュール61−2,61−3の学習パラメータ(重み付け係数)は、学習前の状態に戻される。
次に、ステップS16において、演算部122は、全ての運動パターンの学習が完了したか否かを判定する。まだ全ての運動パターンの学習が完了していない場合、ステップS11に戻り、それ以降の処理が繰り返し実行される。
ステップS16において、全ての運動パターンの学習が終了したと判定された場合、学習処理は終了される。
このようにして、例えば、図8乃至図16に示される合計9種類の運動パターンが、1つずつ、各ローカルモジュール43−1乃至43−3に学習される。この例においては、図17に示されるように、ローカルモジュール43−1により、図8乃至図10に示される運動パターンが学習され、ローカルモジュール43−2により、図11乃至図13に示される運動パターンが学習され、ローカルモジュール43−3により、図14乃至図16に示される運動パターンが学習される。また、この場合、ゲート44−1乃至44−3には、図示せぬ装置から所定の値の係数W1乃至W3が設定される。
なお、各ローカルモジュール43−1乃至43−3のそれぞれには、共有可能な力学構造を有する運動パターンが学習される。この点については、図20を参照して後述する。
次に、図18のフローチャートを参照して、図7のステップS13におけるローカルモジュール学習処理について説明する。
図18のフローチャートに示される処理は、学習させる運動パターン毎に実行される。換言すれば、学習する運動パターンの数だけ仮想的なRNNが用意され、各仮想RNN毎に図18の処理が実行される。
仮想的なRNN毎に図18のフローチャートに示される処理が実行され、仮想RNN毎に運動パターンが学習された後、実際のRNN61に対して、係数を設定する処理が実行される。ただし、以下の説明では、仮想的なRNNも、実際のRNN61として説明する。
最初に、ステップS31において、RNN61の入力層111のニューロン111−1は、所定の時刻tの入力xtを取り込む。ステップS32において、RNN61の中間層112は、入力xtに対して、重み付け係数に対応する演算処理を行い、出力層113のニューロン113−1から、入力された時系列パターンにおける時系列t+1の値の予測値x*t+1を出力する。
ステップS33において、演算部121は、次の時刻t+1の入力xt+1を教師データとして取り込む。ステップS34において、演算部121は、ステップS33の処理で取り込んだ教師入力xt+1と、ステップS32の処理で演算して得た予測値x*t+1の誤差を演算する。
ステップS35において、RNN61は、ステップS34の処理で演算して得た誤差を出力層113のニューロン113−1から入力し、中間層112、さらに入力層111の順に伝搬(バックプロパゲーション)することで、学習処理を行い、演算結果dXbptを得る。
ステップS36において、中間層112は、式(1)に基づいて、内部状態の修正値dXUを得る。
Figure 0004773680
さらに、中間層112は、式(2)乃至式(4)に基づいて、修正値dXUを修正する。
Figure 0004773680
Figure 0004773680
ステップS37において、パラメトリックノード111−2は、その内部状態の値を保存する処理を実行する。
次に、ステップS38において、RNN61は、学習処理を終了するか否かを判定し、まだ学習処理を終了しない場合には、ステップS31に戻り、それ以降の処理を繰り返し実行する。
ステップS38において、学習処理を終了すると判定された場合、学習処理が終了される。
以上のような学習処理を行うことで、仮想RNNに対して1つの運動パターンが学習される。
以上のようにして、学習パターンの数に対応する仮想RNNの学習処理が行われた後、その学習処理により得られた重み付け係数を、実際のRNN61に設定する処理が行われる。図19は、この場合の処理を表している。
演算部122は、ステップS51において、仮想RNN毎に図18のフローチャートに示される処理を実行した結果得られた係数の合成値を演算する。この合成値としては、例えば、平均値を用いることができる。すなわち、各仮想RNNの重み付け係数の平均値がここで演算される。
次に、ステップS52において、演算部22は、ステップS51の処理で演算した合成値(平均値)を実際のRNN61のニューロンに対して、重み付け係数として設定する処理を実行する。
これにより、実際のRNN61の中間層112の各ニューロンに、複数の運動パターンを学習して得た係数が設定されることになる。
中間層112の各ニューロンの重み付け係数には、複数の教示運動パターンを生成する上で、共有可能な力学構造に関する情報が保持され、パラメトリックバイアスノードには、共有可能な力学構造を各教示運動パターンの生成に適した力学構造に切り替えるために、必要な情報が保持されることになる。
図8乃至図10、図11乃至図13、並びに図14乃至図16の例では、それぞれ、振幅と周波数が異なるが、波形はほぼ相似形であることが、「共有可能な力学構造」とされている。
図20は、以上のようにして、各ローカルモジュール43−1乃至43−3に運動パターンを学習させた場合の途中の状態を表わしている。図20の状態においては、ローカルモジュール43−1に、図9と図10に示される運動パターンが既に学習されており、ローカルモジュール43−2に、図12と図13に示される運動パターンが既に学習されており、ローカルモジュール43−3に、図14と図15に示される運動パターンが既に学習されている。図20は、図11に示される運動パターンがさらに学習された状態を表わしている。
そして、ローカルモジュール43−1の学習誤差は0.9であり、ローカルモジュール43−2の学習誤差は0.1であり、ローカルモジュール43−3の学習誤差は、0.4となっている。すなわち、最小の学習誤差を有しているのはローカルモジュール43−2ということになる。
このことは、ローカルモジュール43−1乃至43−3のうち、図11に示される運動パターンに、より似た運動パターン(図12と図13に示される運動パターン)を学習しているのは、ローカルモジュール43−2であることを意味する。換言すれば、図11乃至図13に示される運動パターンが、それぞれ共有可能な力学構造を有していることを意味する。
この場合には、図7のステップS14において、ローカルモジュール43−2の学習誤差が最初であると判断されるため、ステップS15において、ローカルモジュール43−1とローカルモジュール43−3に、学習パラメータ保存用バッファ141(図6の演算部122を構成する)に、ステップS11の処理で保存されていた学習パラメータが再び戻されることになる。これにより、「共有可能な力学構造」を有しない運動パターンを学習することによりローカルモジュール43−1とローカルモジュール43−3の学習パラメータが実質的に破壊されてしまうようなことが防止される。
以上のようにして、学習が行われた後に、図4のステップS3において、実行される利用処理の例について、図21のフローチャートを参照して説明する。
図22に示されるように、ローカルモジュール43−1には、図8乃至図10に示される運動パターンが既に学習されており、ローカルモジュール43−2には、図11乃至図13に示される運動パターンが既に学習されており、ローカルモジュール43−3には、図14乃至図16に示される運動パターンが既に学習されている。
この状態において、ステップS71において、図22に示されるように、図11に示される運動パターンを入力すると、ステップS72において、各ローカルモジュール43−1乃至43−3は、ノード111−1で入力された運動パターンのデータに対して演算を行う。この例の場合、ローカルモジュール43−1における認識誤差は0.9となる。これに対してローカルモジュール43−2における認識誤差は0.1となり、ローカルモジュール43−3における認識誤差は0.4となる。ローカルモジュール43−2は、図11に示される運動パターンを学習、記憶しているため、認識誤差は他のローカルモジュールに比べて小さくなる。
ステップS73において、ローカルモジュール43−1乃至43−3は、ゲート44−1乃至44−3に、運動パターンに対応する演算結果を出力する。従って、統合モジュール42の出力としては、これらの演算結果に係数W1乃至W3を乗算した値の合成値が出力される。
この場合におけるゲート44−1乃至44−3の係数W1乃至W3は、認識誤差に逆比例するように(認識誤差が小さい程ローカルモジュールの出力が大きい値で重み付けされるように)、重み付けされる。
さらに、この場合、ローカルモジュール43−1乃至43−3のパラメータは、それぞれP1,P2,P3となる。このうちの、ローカルモジュール43−2のパラメータは、図11に示される運動パターンにほぼ対応する値となる。
図23は、図4のステップS3における利用処理の例としての運動パターンを生成する処理の例を表している。
最初に、ステップS91において、各ローカルモジュール43−1乃至43−3のパラメトリックバイアスノード111−2は、それぞれ、学習時と異なる所定の値のパラメータを入力する。ステップS92において、中間層112は、ステップS91の処理で、パラメトリックバイアスノード111−2に入力されたパラメータに基づいて演算を行う。そして、ステップS93において、RNN61のニューロン113−1は、ステップS91の処理で入力されたパラメータに対応するパターンのデータを出力する。各パターンのデータは、ゲート44−1乃至44−3により係数W1乃至W3が乗算された後、合成され、出力される。
図24は、このようにして、運動パターンが生成される例を表わしている。図24の例においては、ローカルモジュール43−1乃至43−3に、それぞれいままで学習していない運動パターンに対応する値のパラメータP11乃至P13が入力される。ゲート44−1乃至44−3の係数W1乃至W3は、それぞれのローカルモジュール43−1乃至43−3において演算された認識誤差に対応する値に設定される。その結果、運動パターンとして、いままでに学習された運動パターンに類似した運動パターンであって、学習したことのない運動パターンのデータが生成される。
この他、予め学習された運動パターンとの関係性に基づいて、運動パターンを分類することが可能である。
以上においては、ローカルモジュール43を3個としたが、必要に応じてその数をもっと増加することが可能である。これにより、規模を拡張することが容易に可能となる。また、各ローカルモジュールを分散表現スキームによる運動パターン学習モデルとしてのRNNにより構成するようにしたので、複数の運動パターンを効率的に学習させることが可能となる。
また、以上においては、学習誤差が最小のローカルモジュールのみ学習を行う、いわゆるウィナーテークオール(Winner-Take-All)方式で学習するようにしたが、学習誤差の大きさに応じてローカルモジュールの学習を行うようにすることも可能である。図25は、この場合の処理例を表している。
図25において、ステップS111乃至S113の処理は、図7のステップS11乃至S13の処理と同様の処理である。すなわち、これらの処理により、ローカルモジュール43−1乃至43−3の学習パラメータが保存され、学習対象の運動パターンが各ローカルモジュール43−1乃至43−3に取り込まれる。そして、各ローカルモジュール43−1乃至43−3において、学習処理が実行される。
ステップS114において、各ローカルモジュール43−1乃至43−3は、学習誤差eiを算出する(i=1,2,3)。この学習誤差eiは、次式で表される。
Figure 0004773680
上記式のd(t)は、学習する運動パターンを表し、o(t)は、学習の結果得られた出力パターンを表す。
次に、ステップS115において、各ローカルモジュール43−1乃至43−3は、それぞれの学習パラメータ修正量Δwiの重み付け係数giを、それぞれの学習誤差eiに基づいて演算する。この重み付け係数giは、次式で表される。
Figure 0004773680
次に、ステップS116において、各ローカルモジュール43−1乃至43−3は、ステップS111の処理で保存しておいた学習前の学習パラメータを元に戻す処理を実行する。そして、ステップS117において、各ローカルモジュール43−1乃至43−3は、ステップS115の処理で求めた重み付け係数giに基づいて、ステップS116の処理で戻した学習前の学習パラメータを次式に基づいて修正する処理を実行する。
Figure 0004773680
すなわち、ステップS113における学習処理で得られた学習パラメータの修正量Δwiが、上記式に基づいてΔw'iに修正される結果、学習誤差が小さいほどたくさん学習し、学習誤差が大きいほど少ない学習が行われることになる。換言すれば、この処理の場合、ステップS113において行われる学習処理は、学習誤差を得るためのものであり、実質的な学習はステップS117において行われる。
次に、ステップS118において、すべての運動パターンの学習が終了したか否かが判定され、まだ学習していない運動パターンが残っている場合には、ステップS111に戻り、それ以降の処理が繰り返し実行される。ステップS118において、全ての運動パターンの学習が終了したと判定された場合、この学習処理は終了される。
ローカルモジュール43−1乃至43−3のそれぞれが学習する運動パターンの相関性が低く、相互に独立しているような場合には、図7に示されるような、Winner-Take-All方式の学習処理を行うと学習効率が向上する。逆に、複数のローカルモジュールのそれぞれに、学習させた運動パターンと、ある程度相関を有する運動パターンを学習させるような場合には、図25を参照して説明した学習処理を行うと学習効率が向上する。
以上においては、運動パターンを対象として本発明を説明したが、本発明は時系列パターン一般に適用することが可能である。運動パターン(時系列パターン)としてロボットの動作を規定するパターンを採用すれば、本発明は自律ロボットを制御するのに適用することができる。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。この場合、例えば、図26に示されるようなパーソナルコンピュータ160が用いられる。
図26において、CPU(Central Processing Unit)161は、ROM(Read Only Memory)162に記憶されているプログラム、または記憶部168からRAM(Random Access Memory)163にロードされたプログラムに従って各種の処理を実行する。RAM163にはまた、CPU161が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU161、ROM162、およびRAM163は、バス164を介して相互に接続されている。このバス164にはまた、入出力インタフェース165も接続されている。
入出力インタフェース165には、キーボード、マウスなどよりなる入力部166、CRT,LCDなどよりなるディスプレイ、並びにスピーカなどよりなる出力部167、ハードディスクなどより構成される記憶部168、モデム、ターミナルアダプタなどより構成される通信部169が接続されている。通信部169は、ネットワークを介しての通信処理を行う。
入出力インタフェース165にはまた、必要に応じてドライブ170が接続され、磁気ディスク171、光ディスク172、光磁気ディスク173、或いは半導体メモリ174などが適宜装着され、それらから読み出されたコンピュータプログラムが、必要に応じて記憶部168にインストールされる。
一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、パーソナルコンピュータ160に、ネットワークや記録媒体からインストールされる。
この記録媒体は、図26に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク171(フロッピディスクを含む)、光ディスク172(CD-ROM(Compact Disk-Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク173(MD(Mini-Disk)を含む)、もしくは半導体メモリ174などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM162や、記憶部168に含まれるハードディスクなどで構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
従来のローカル表現スキームによる運動パターン学習モデルの例を示す図である。 従来の分散表現スキームによる運動パターン学習モデルの例を示す図である。 本発明を適用した処理装置の構成例を示すブロック図である。 図3の処理装置の基本的処理を説明するフローチャートである。 本発明を適用した処理装置の他の構成例を示すブロック図である。 リカレント型ニューラルネットワークの構成例を示す図である。 図4のステップS2における学習処理を説明するフローチャートである。 運動パターンの例を示す図である。 運動パターンの例を示す図である。 運動パターンの例を示す図である。 運動パターンの例を示す図である。 運動パターンの例を示す図である。 運動パターンの例を示す図である。 運動パターンの例を示す図である。 運動パターンの例を示す図である。 運動パターンの例を示す図である。 図5の処理装置の運動パターンを学習させた状態を示す図である。 図7のステップS13におけるローカルモジュール学習処理を説明するフローチャートである。 係数設定処理を説明するフローチャートである。 図5の処理装置に運動パターンを学習させる場合における学習誤差を説明する図である。 運動パターンの認識処理を説明するフローチャートである。 運動パターンを認識する処理を説明する図である。 運動パターン生成処理を説明するフローチャートである。 運動パターンを生成する処理を説明する図である。 図4のステップS2における学習処理の他の例を説明するフローチャートである。 本発明を適用したパーソナルコンピュータの構成例を示すブロック図である。
符号の説明
41 処理装置, 42 統合モジュール, 43−1乃至43−3 ローカルモジュール, 44−1乃至44−3 ゲート, 61−1乃至61−3 リカレント型ニューラルネットワーク

Claims (4)

  1. 時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、
    前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルを要素とし、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルと
    を備え、
    前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成され
    前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルは、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差を演算するとともに、それぞれの運動パターン学習モデルについての学習パラメータ修正量の重み付け係数を、それぞれの運動パターン学習モデルの前記学習誤差についての指数関数と、前記指数関数の全ての運動パターン学習モデルについての和との比から演算し、前記重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、前記学習パラメータと前記重み付け係数との積を減じた値を、前記学習パラメータとするように、前記学習パラメータを修正する
    情報処理装置。
  2. 時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルを要素とし、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成される情報処理装置の情報処理方法において、
    前記第1の運動パターン学習モデルが、複数の第1の時系列パターンを学習する第1の学習ステップと、
    前記第2の運動パターン学習モデルが、複数の第2の時系列パターンを学習する第2の学習ステップと、
    前記第3の運動パターン学習モデルが、時系列パターンを認識または生成する認識・生成ステップとを含み、
    前記第1の学習ステップおよび前記第2の学習ステップの処理は、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差を演算するとともに、それぞれの運動パターン学習モデルについての学習パラメータ修正量の重み付け係数を、それぞれの運動パターン学習モデルの前記学習誤差についての指数関数と、前記指数関数の全ての運動パターン学習モデルについての和との比から演算し、前記重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、前記学習パラメータと前記重み付け係数との積を減じた値を、前記学習パラメータとするように、前記学習パラメータを修正する
    情報処理方法。
  3. 時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルを要素とし、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成される情報処理装置を制御するコンピュータのプログラムであって、
    複数の第1の時系列パターンの学習を制御する第1の学習制御ステップと、
    複数の第2の時系列パターンの学習を制御する第2の学習制御ステップと、
    時系列パターンの認識または生成を制御する認識・生成制御ステップと
    を含む処理をコンピュータに実行させ
    前記第1の学習制御ステップおよび前記第2の学習制御ステップの処理は、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差を演算するとともに、それぞれの運動パターン学習モデルについての学習パラメータ修正量の重み付け係数を、それぞれの運動パターン学習モデルの前記学習誤差についての指数関数と、前記指数関数の全ての運動パターン学習モデルについての和との比から演算し、前記重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、前記学習パラメータと前記重み付け係数との積を減じた値を、前記学習パラメータとするように、前記学習パラメータを修正する
    プログラムが記録されているプログラム記録媒体。
  4. 時系列パターンを学習する、1つ以上のパラメータを持つ1つのモジュールが複数の運動パターンを学習するニューラルネットワークとしての、分散表現スキームによる第1の運動パターン学習モデルおよび分散表現スキームによる第2の運動パターン学習モデルと、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルを要素とし、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルが学習した時系列パターンに基づいて、新たに時系列パターンを認識または生成する、複数のモジュールがそれぞれ独立して運動パターンを学習するニューラルネットワークとしての、ローカル表現スキームによる第3の運動パターン学習モデルとを備え、前記第1の運動パターン学習モデルと前記第2の運動パターン学習モデルとは、それぞれ、運動パターンの力学構造をモジュレーションするためのパラメータを持つリカレント型ニューラルネットワークにより構成される情報処理装置を制御するコンピュータのプログラムであって、
    複数の第1の時系列パターンの学習を制御する第1の学習制御ステップと、
    複数の第2の時系列パターンの学習を制御する第2の学習制御ステップと、
    時系列パターンの認識または生成を制御する認識・生成制御ステップと
    を含む処理をコンピュータに実行させ
    前記第1の学習制御ステップおよび前記第2の学習制御ステップの処理は、学習する運動パターンと学習の結果得られた出力パターンとから学習誤差を演算するとともに、それぞれの運動パターン学習モデルについての学習パラメータ修正量の重み付け係数を、それぞれの運動パターン学習モデルの前記学習誤差についての指数関数と、前記指数関数の全ての運動パターン学習モデルについての和との比から演算し、前記重み付け係数に基づいて、それぞれの運動パターン学習モデルについての学習パラメータから、前記学習パラメータと前記重み付け係数との積を減じた値を、前記学習パラメータとするように、前記学習パラメータを修正する
    プログラム。
JP2003289138A 2003-08-07 2003-08-07 情報処理装置および方法、プログラム記録媒体、並びにプログラム Expired - Fee Related JP4773680B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003289138A JP4773680B2 (ja) 2003-08-07 2003-08-07 情報処理装置および方法、プログラム記録媒体、並びにプログラム
US10/901,988 US7373333B2 (en) 2003-08-07 2004-07-30 Information processing apparatus and method, program storage medium and program
EP04018616A EP1505534A3 (en) 2003-08-07 2004-08-05 Plural model time series pattern processing
CN200410056314A CN100580654C (zh) 2003-08-07 2004-08-06 信息处理装置和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003289138A JP4773680B2 (ja) 2003-08-07 2003-08-07 情報処理装置および方法、プログラム記録媒体、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2005056340A JP2005056340A (ja) 2005-03-03
JP4773680B2 true JP4773680B2 (ja) 2011-09-14

Family

ID=33550057

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003289138A Expired - Fee Related JP4773680B2 (ja) 2003-08-07 2003-08-07 情報処理装置および方法、プログラム記録媒体、並びにプログラム

Country Status (4)

Country Link
US (1) US7373333B2 (ja)
EP (1) EP1505534A3 (ja)
JP (1) JP4773680B2 (ja)
CN (1) CN100580654C (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11524401B1 (en) * 2019-03-28 2022-12-13 Apple Inc. Learning skills from video demonstrations

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010035455A1 (ja) * 2008-09-24 2010-04-01 日本電気株式会社 情報分析装置、情報分析方法、及びプログラム
EP2216145B1 (en) 2009-02-06 2011-06-08 Honda Research Institute Europe GmbH Learning and use of schemata in robotic devices
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US10387769B2 (en) 2016-06-30 2019-08-20 Samsung Electronics Co., Ltd. Hybrid memory cell unit and recurrent neural network including hybrid memory cell units
KR20180003123A (ko) 2016-06-30 2018-01-09 삼성전자주식회사 메모리 셀 유닛 및 메모리 셀 유닛들을 포함하는 순환 신경망

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699441A (en) 1992-03-10 1997-12-16 Hitachi, Ltd. Continuous sign-language recognition apparatus and input apparatus
US5649065A (en) * 1993-05-28 1997-07-15 Maryland Technology Corporation Optimal filtering by neural networks with range extenders and/or reducers
US6601051B1 (en) * 1993-08-09 2003-07-29 Maryland Technology Corporation Neural systems with range reducers and/or extenders
US5455891A (en) * 1993-10-04 1995-10-03 Georgia Tech Research Corporation System and method for a learning neural network for generating random directions for weight changes
JPH0973440A (ja) * 1995-09-06 1997-03-18 Fujitsu Ltd コラム構造の再帰型ニューラルネットワークによる時系列トレンド推定システムおよび方法
US5835633A (en) 1995-11-20 1998-11-10 International Business Machines Corporation Concurrent two-stage multi-network optical character recognition system
JP3922407B2 (ja) * 1997-10-22 2007-05-30 ソニー株式会社 データ処理装置および方法
CN1148700C (zh) * 1999-12-03 2004-05-05 中国科学院上海生理研究所 基本人工神经网络的训练法及自动训练人工神经网络的装置
JP2002086378A (ja) * 2000-09-08 2002-03-26 Sony Corp 脚式ロボットに対する動作教示システム及び動作教示方法
JP2002236904A (ja) * 2001-02-08 2002-08-23 Sony Corp データ処理装置および方法、記録媒体、並びにプログラム
JP2002301674A (ja) * 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11524401B1 (en) * 2019-03-28 2022-12-13 Apple Inc. Learning skills from video demonstrations

Also Published As

Publication number Publication date
US7373333B2 (en) 2008-05-13
US20050086183A1 (en) 2005-04-21
CN1581143A (zh) 2005-02-16
EP1505534A3 (en) 2008-01-23
EP1505534A2 (en) 2005-02-09
JP2005056340A (ja) 2005-03-03
CN100580654C (zh) 2010-01-13

Similar Documents

Publication Publication Date Title
US11615315B2 (en) Controlling distribution of training data to members of an ensemble
JP4710933B2 (ja) 学習装置、学習方法、およびプログラム
Mazoure et al. Leveraging exploration in off-policy algorithms via normalizing flows
JP4710931B2 (ja) 学習装置、学習方法、およびプログラム
Chatzis et al. Echo state Gaussian process
Huang et al. Adarl: What, where, and how to adapt in transfer reinforcement learning
US11651214B2 (en) Multimodal data learning method and device
US20050119982A1 (en) Information processing apparatus and method
JP7055769B2 (ja) データ生成装置、データ生成方法およびプログラム
CN113254927B (zh) 一种基于网络防御的模型处理方法、装置及存储介质
JP2005115654A (ja) 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP2007265345A (ja) 情報処理装置および方法、学習装置および方法、並びにプログラム
JP4773680B2 (ja) 情報処理装置および方法、プログラム記録媒体、並びにプログラム
Langford et al. Enhancing learning-enabled software systems to address environmental uncertainty
Bacciu et al. Compositional generative mapping for tree-structured data—part II: topographic projection model
CN114399025A (zh) 一种图神经网络解释方法、系统、终端以及存储介质
US7324980B2 (en) Information processing apparatus and method
Sharma et al. Comparison of CNN and Pre-trained models: A Study
CN114365155A (zh) 具有快速逐点卷积的高效推断
WO2021215261A1 (ja) 情報処理方法、情報処理装置、及びプログラム
Lesort Apprentissage continu: S'attaquer à l'oubli foudroyant des réseaux de neurones profonds grâce aux méthodes à rejeu de données
WO2021106961A1 (ja) 画像生成装置
CN113096206B (zh) 基于注意力机制网络的人脸生成方法、装置、设备及介质
JP2009066693A (ja) 運動データの生成装置、方法、及びロボット装置
WO2022250071A1 (ja) 学習方法、学習装置及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110621

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110624

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees