JP2005300692A - ロボットの行動制御システム及び行動制御方法、並びにロボット装置 - Google Patents

ロボットの行動制御システム及び行動制御方法、並びにロボット装置 Download PDF

Info

Publication number
JP2005300692A
JP2005300692A JP2004113589A JP2004113589A JP2005300692A JP 2005300692 A JP2005300692 A JP 2005300692A JP 2004113589 A JP2004113589 A JP 2004113589A JP 2004113589 A JP2004113589 A JP 2004113589A JP 2005300692 A JP2005300692 A JP 2005300692A
Authority
JP
Japan
Prior art keywords
learning
robot
internal state
behavior control
speech synthesis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004113589A
Other languages
English (en)
Other versions
JP4661074B2 (ja
JP2005300692A5 (ja
Inventor
Masahiro Fujita
雅博 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2004113589A priority Critical patent/JP4661074B2/ja
Priority to US11/101,257 priority patent/US8145492B2/en
Publication of JP2005300692A publication Critical patent/JP2005300692A/ja
Publication of JP2005300692A5 publication Critical patent/JP2005300692A5/ja
Application granted granted Critical
Publication of JP4661074B2 publication Critical patent/JP4661074B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

【課題】 模倣や学習などのメカニズムをロボット装置に取り入れ、自律的に学習し、自己発達により進化を遂げる。
【解決手段】 音韻系列の素となる音声合成パラメータが音声合成手段に投入されると、音声信号からなる音韻系列sが出力される。この音韻系列sは蝸牛特性フィルタ・バンクにより話者間の相違が吸収された音韻系列uに変換される。そして、音声信号学習手段は、この音韻系列uから、聞き真似をするための音声合成パラメータyoを生成する。さらに、この音声合成パラメータyoが音声合成手段に投入されると、聞き真似をした音韻系列が発されることになる。
【選択図】 図9

Description

本発明は、自律的な動作を行ないユーザとのリアリスティックなコミュニケーションを実現するロボットの行動制御システム及び行動制御方法、並びにロボット装置に係り、特に、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態などのロボットが置かれている状況を統合的に判断して適当な行動を選択するロボットのための行動制御システム及び行動制御方法、並びにロボット装置に関する。
さらに詳しくは、本発明は、外部環境や内部状態に基づいて本能的、反射的な状況依存型の行動、又はその他の形態により発現される行動を選択するロボットの行動制御システム及び行動制御方法、並びにロボット装置に係り、特に、模倣や学習などのメカニズムを取り入れ、自己発達により進化を遂げるロボットの行動制御システム及び行動制御方法、並びにロボット装置に関する。
電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行う機械装置のことを「ロボット」という。ロボットの語源は、スラブ語のROBOTA(奴隷機械)に由来すると言われている。わが国では、ロボットが普及し始めたのは1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化などを目的としたマニピュレータや搬送ロボットなどの産業用ロボット(industrial robot)であった。
最近では、イヌやネコのように4足歩行の動物の身体メカニズムやその動作を模したペット型ロボット、あるいは、ヒトやサルなどの2足直立歩行を行う動物の身体メカニズムや動作を模した「人間形」若しくは「人間型」のロボット(humanoid robot)など、脚式移動ロボットの構造やその安定歩行制御に関する研究開発が進展し、実用化への期待も高まってきている。これら脚式移動ロボットは、クローラ式ロボットに比し不安定で姿勢制御や歩行制御が難しくなるが、階段の昇降や障害物の乗り越えなど、柔軟な歩行・走行動作を実現できるという点で優れている。
また、最近では、ロボット装置は、産業上の用途以外に、生活密着型、すなわち人間との「共生」あるいは「エンターティンメント」という目的で使用されることが多くなってきている。従来の玩具機械では、ユーザ操作と応答動作との関係が固定的で、玩具の動作をユーザの好みに合わせて変更することはできないため、ユーザは同じ動作の繰り返しにやがては飽きてしまう。これに対し、知能型のロボット装置は、動作に起因する行動モデルや学習モデルを備え、外部からの音声や画像、触覚などの入力情報に基づいてモデルを変化させて動作を決定し、自律的な思考及び動作制御を実現することができる。また、人間とのインターフェースとして画像認識処理や音声認識処理などの認識技術を導入し、より高度でリアリスティックなコミュニケーションが可能となる。
ロボットあるいはその他のリアリスティックな対話システムでは、視覚や聴覚など外部環境の変化に応じて逐次的に行動を選択していくのが一般的である。また、行動選択メカニズムの他の例として、本能や感情といった情動をモデル化してシステムの内部状態を管理して、内部状態の変化に応じて行動を選択するものを挙げることができる。
ここで、内部状態には、例えば生体で言えば大脳辺縁系へのアクセスに相当する本能のような要素や、大脳新皮質へのアクセスに相当する内発的欲求や社会的欲求などのように動物行動学的モデルで捉えられる要素、さらには喜びや悲しみ、怒り、驚きなどのような感情と呼ばれる要素などで構成される。
勿論、システムの内部状態は、外部環境の変化によっても変化するし、選択された行動を発現することによっても変化する。
例えば、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態など、ロボットが置かれている状況を総合的に判断して行動を選択するロボット装置について提案されている(例えば、特許文献1を参照のこと)。
この場合のロボット装置は、内部状態又は外部入力に応じた前記ロボット装置の行動評価を出力する行動評価手段と、前記ロボット装置の行動命令を出力する行動命令出力手段とをそれぞれ備えた複数の行動モジュールを備えている。そして、各行動モジュールの行動評価手段から得られる評価を基にして、外部刺激と内部状態の変化に応じて最適な行動モジュールを統合的な判断すること、すなわちConcurrentな評価を行なうことができる。また、前記階層構造の下位層の行動モジュールから上位層の行動モジュールへ出力される行動評価及び前記ロボット装置の使用リソースに基いて行動モジュールを選択するという、リソースを考慮した行動選択、すなわちConcurrentな実行を実現することができる。
ここで、ロボット装置のさらなるインテリジェント化を考察した場合、上述したような行動の発現方法にとどまらず、ロボットが自律的に学習し、さらに自己発達により進化を遂げることが期待される。
ロボットやその他の自動機械における学習メカニズムは、一般に、ニューラル・ネットワークやその他の数学モデルを用いて実現される。
ここで、ニューラル・ネットワークとは、人間の脳における神経回路網を簡略化したモデルであり、神経細胞ニューロンが一方向にのみ信号を通過するシナプスを介して結合されているネットワークを意味する。ニューロン間の信号の伝達はシナプスを介して行なわれ、シナプスの抵抗、すなわち重みを適当に調整することによりさまざまな情報処理が可能となる。各ニューロンは、他の1以上のニューロンからの出力をシナプスによる重み付けをして入力し、それら入力値の総和を非線型応答関数の変形を加え、再度他のニューロンへ出力する。ニューラル・ネットワークによる制御では、摩擦や粘性などの非線型問題にそのまま対応することができるとともに、学習機能を備えているので、パラメータの設定変更が不要になる。
例えば、ニューラル・ネットワークを用い、教示された動作パターンを音声などの入力シンボルと連想して記憶することができる(例えば、特許文献2を参照のこと)。この場合、ロボットは、比較的長い教示動作やその他の行動を分節化するとともに、分節化された各動作を、音声認識などにより認識された入力シンボルと連想して記憶することができる。動作再生時においては、比較的長い動作パターンを容易に指示することができる。また、直接的には同一のものを学習していない行動であっても、音声指示により入力されたシンボルから連想していくことにより、指示により近い行動を発現することができる。また、リカレント・ニューラル・ネットワークを適用することで、内部にフィードバック結合を備え、1周期前の情報をネットワーク内に持ち、これによって時系列データの履歴を把握することができる。
他方、ロボットのモデルである人間やその他の動物自体は、模倣、すなわち親(若しくはケアギバ(care giver))や周囲の環境の物まねを通じて学習するのが一般的である。
特開2003−334785号公報 特開2002−337075号公報
本発明の目的は、自律的な動作を行ないユーザとのリアリスティックなコミュニケーションを実現することができる、優れたロボットの行動制御システム及び行動制御方法、並びにロボット装置を提供することにある。
本発明のさらなる目的は、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態などのロボットが置かれている状況を統合的に判断して適当な行動を選択することができる、優れたロボットの行動制御システム及び行動制御方法、並びにロボット装置を提供することにある。
本発明のさらなる目的は、外部環境や内部状態に基づいて本能的、反射的な状況依存型の行動、又はその他の形態により発現される行動を選択することができる、優れたロボットの行動制御システム及び行動制御方法、並びにロボット装置を提供することにある。
本発明のさらなる目的は、模倣や学習などのメカニズムを取り入れ、自律的に学習し、自己発達により進化を遂げることができる、優れたロボットの行動制御システム及び行動制御方法、並びにロボット装置を提供することにある。
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、音韻系列の学習を行なうロボットの行動制御システムにおいて、
音韻系列を入力する音声入力手段と、
音韻系列を音声合成パラメータに変換するとともに、自己が生成した音韻系列に関する音声合成パラメータと聞き真似をする音声合成パラメータとの関係を学習又は評価する音声信号学習手段と、
前記音声信号学習手段による音声合成パラメータに基づいて音韻系列を生成する音声合成手段と、
を具備することを特徴とするロボットの行動制御システムである。ここで、前記音声入力手段は蝸牛特性フィルタ・バンクを備えていてもよい。
但し、ここで言う「システム」とは、複数の装置(又は特定の機能を実現する機能モジュール)が論理的に集合した物のことを言い、各装置や機能モジュールが単一の筐体内にあるか否かは特に問わない。
本発明の第1の側面に係るロボットの行動制御システムによれば、音韻系列の素となる音声合成パラメータが音声合成手段に投入されると、音声信号からなる音韻系列sが出力される。この音韻系列sは蝸牛特性フィルタ・バンクにより話者間の相違が吸収された音韻系列uに変換される。そして、音声信号学習手段は、この音韻系列uから、聞き真似をするための音声合成パラメータyoを生成する。さらに、この音声合成パラメータyoが音声合成手段に投入されると、聞き真似をした音韻系列が発されることになる。
そして、音声信号学習手段は、当該システムへの入力としての音声合成パラメータyと、聞き真似するための音声合成パラメータyoとの相違を評価して、学習を行なうことができる。
本発明の第1の実施形態に係るロボットの行動制御システムは、内部状態又は身体的制約を生成する内部状態生成手段と、内部状態を音声合成パラメータに変換する写像手段とをさらに備えることにより、内部状態又は身体的制約を考慮し、これらにより特性の異なる発音内容を生成することができる。
この場合、内部状態生成手段により内部状態xが生成されると、写像手段により、内部状態を表した音韻系列を生成するための音声合成パラメータyに変換される。そして、音声合成パラメータyが音声合成手段に投入されると、音声信号sからなる音韻系列が出力される。そして、この音韻系列sが蝸牛特性フィルタ・バンクに入力され、話者間の相違が吸収された音韻系列uに変換される。音声信号学習手段は、この音韻系列uから、聞き真似をするための音声合成パラメータyoを生成する。さらに、この音声合成パラメータyoが音声合成手段に投入されると、聞き真似をした音韻系列が発されることになる。
このような行動制御システムによれば、ロボット装置は、ランダムな発生に対して、自分で入力を分析して学習(予測誤差、あるいは相関学習)することができる。また、人間が意味を感じた音に対して同じ音を出すと、それを分析して同じく学習(個人性を吸収する学習+発生の強化学習)することができる。すなわち、ロボット装置は、聞いた声が自分の発生でどのパラメータに相当するかを覚えることができ、意味のある発生を覚えることができるようになる。
また、このような行動制御システムによれば、写像手段が写像時の逆関数を用いて、入力された音声合成パラメータに相当する内部状態を逆推定することができる。すなわち、人の声を聞いたときに、自分の内部状態が逆写像で求まるという、身体的理解を実現することができる。
また、本発明の第2の側面は、内部状態と外部環境に基づいて発現すべき行動を決定するとともに、予測学習を行なうロボットの行動制御システムにおいて、
前記ロボットは、駆動指令に基づいて動作する駆動手段と、内部状態を管理する内部状態管理手段と、外部刺激又は物理環境を計測する計測手段を備えており、
前記行動制御システムは、前記ロボットの駆動指令、内部状態、物理環境に関する現在の観測値と現在の目標値を入力し、次の時刻におけるこれらの推定値を推定する予測学習手段を備える、
ことを特徴とするロボットの行動制御システムである。
ロボット装置は、現在観測されている世界、現在目標とする世界、次の時刻において予測される世界、並びに実ロボットが動作した結果観測される次の時刻における世界という4つの世界に取り囲まれている。ここでは、各世界をロボットの駆動指令、内部状態、物理環境というパラメータで記述することにしている。
この予測学習手段は、例えば、フィードフォワード型ニューラル・ネットワークや相関学習器により構成することができる。
そして、予測学習手段は、次の時刻における前記ロボットの駆動指令、内部状態、物理環境の推定値と、次の時刻におけるこれらの観測値との偏差や相関などに基づいて予測学習を行なうことができる。
また、本発明の第2の側面に係る行動制御システムによれば、ロボット装置は、ロボット単体の身体的ダイナミクス以外に、道具を使った道具ダイナミクスを実現することもできる。後者の場合、ロボット装置は、外部環境に対し道具を用いたインタラクションを行なう。
このような場合、予測学習手段は、物理環境を操作するために使用した道具と、道具を介した物理環境の操作結果としてのボディー・イメージと、物理環境を取り扱うことで、上述とは同じ枠組みで、道具の力学系を学習し、それを“道具”として使うことが可能になる。
また、学習のメカニズムを利用してロボット装置の自己発達を実現する場合、過大なテーマが与えられると、学習の結果がなかなか収束せず、学習効率が上がらないという問題がある。そこで、本発明では、学習メカニズムに発達のシナリオの概念を取り入れることができる。
発達のシナリオは、複数の学習フェーズで構成される。各学習フェーズでは、ロボット装置が実現する自由度構成(関節の可動角やトルク限界など)や取るべき行動リスト(本能的行動、反射行動など)を、学習の進行に従って定義している。学習フェーズ毎にファイルで管理することにより、学習の進行に応じたファイルをアクセスし、発達のシナリオを実現することができる。
学習フェーズの遷移は、時間の経過でコントロールしてもよいが、予測学習手段における推定値と現実の観測値との偏差や相関に基づいてコントロールすることができる。すなわち、推定値通りに実ロボットが行動できるようになれば、現在の学習フェーズをクリアしたとみなし、次の学習フェーズへ遷移させるようにすればよい。
本発明によれば、自律的な動作を行ないユーザとのリアリスティックなコミュニケーションを実現することができる、優れたロボットの行動制御システム及び行動制御方法、並びにロボット装置を提供することができる。
また、本発明によれば、視覚や聴覚などの外部環境の認識結果や本能や感情などの内部状態などのロボットが置かれている状況を統合的に判断して適当な行動を選択することができる、優れたロボットの行動制御システム及び行動制御方法、並びにロボット装置を提供することができる。
また、本発明によれば、外部環境や内部状態に基づいて本能的、反射的な状況依存型の行動、又はその他の形態により発現される行動を選択することができる、優れたロボットの行動制御システム及び行動制御方法、並びにロボット装置を提供することができる。
また、本発明によれば、模倣や学習などのメカニズムを取り入れ、自律的に学習し、自己発達により進化を遂げることができる、優れたロボットの行動制御システム及び行動制御方法、並びにロボット装置を提供することができる。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本発明の実施形態について詳解する。
A.システム構成
図1には、本発明に実施に供されるロボット装置1の機能構成を模式的に示している。同図に示すように、ロボット装置1は、全体の動作の統括的制御やその他のデータ処理を行なう制御ユニット20と、入出力部40と、駆動部50と、電源部60とで構成される。以下、各部について説明する。
入出力部40は、入力部としてロボット装置1の目に相当するCCDカメラ15や、耳に相当するマイクロフォン16、頭部や背中などの部位に配設されてユーザの接触を感知するタッチ・センサ18、あるいは五感に相当するその他の各種のセンサを含む。また、出力部として、口に相当するスピーカ17、あるいは点滅の組み合わせや点灯のタイミングにより顔の表情を形成するLEDインジケータ(目ランプ)19などを装備している。これら出力部は、音声やランプの点滅など、脚などによる機械運動パターン以外の形式でもロボット装置1からのユーザ・フィードバックを表現することができる。
ここで、カメラ15や、マイクロフォン16、タッチ・センサ18などの入力機器は、検出信号をデジタル変換並びにデジタル信号処理を行なうものとする。例えば、マイクロフォン16は、蝸牛特性フィルタ・バンクによるフィルタリングやその他のデジタル信号処理を行なうDSP(Digital Signal Processor)を含んでいる。
ロボット装置1は、カメラ15を含むことで、作業空間上に存在する任意の物体の形状や色彩を認識することができる。また、ロボット装置1は、カメラのような視覚手段の他に、赤外線、音波、超音波、電波などの発信波を受信する受信装置をさらに備えていてもよい。この場合、各伝送波を検知するセンサ出力に基づいて発信源からの位置や向きを計測することができる。
駆動部50は、制御部20が指令する所定の運動パターンに従ってロボット装置1の機体動作を実現する機能ブロックであり、行動制御による制御対象である。駆動部50は、ロボット装置1の各関節における自由度を実現するための機能モジュールであり、それぞれの関節におけるロール、ピッチ、ヨーなど各軸毎に設けられた複数の駆動ユニットで構成される。各駆動ユニットは、所定軸回りの回転動作を行なうモータ51と、モータ51の回転位置を検出するエンコーダ52と、エンコーダ52の出力に基づいてモータ51の回転位置や回転速度を適応的に制御するドライバ53の組み合わせで構成される。
駆動ユニットの組み合わせ方によって、ロボット装置1を例えば2足歩行又は4足歩行などの脚式移動ロボットとして構成することができる。
電源部60は、その字義通り、ロボット装置1内の各電気回路などに対して給電を行なう機能モジュールである。本実施形態に係るロボット装置1は、バッテリを用いた自律駆動式であり、電源部60は、充電バッテリ61と、充電バッテリ61の充放電状態を管理する充放電制御部62とで構成される。
充電バッテリ61は、例えば、複数本のリチウムイオン2次電池セルをカートリッジ式にパッケージ化した「バッテリ・パック」の形態で構成される。また、充放電制御部62は、バッテリ61の端子電圧や充電/放電電流量、バッテリ61の周囲温度などを測定することでバッテリ61の残存容量を把握し、充電の開始時期や終了時期などを決定する。充放電制御部62が決定する充電の開始及び終了時期は制御ユニット20に通知され、ロボット装置1が充電オペレーションを開始及び終了するためのトリガとなる。
制御部20は、「頭脳」に相当し、例えばロボット装置1の頭部ユニットあるいは胴体部ユニットに搭載される。
図2には、制御ユニット20の構成をさらに詳細に図解している。同図に示すように、制御ユニット20は、メイン・コントローラとしてのCPU(Central Processing Unit)121が、メモリその他の各回路コンポーネントや周辺機器とバス接続された構成となっている。バス28は、データ・バス、アドレス・バス、コントロール・バスなどを含む共通信号伝送路である。
RAM(Random Access Memory)22は、DRAM(Dynamic RAM)などの揮発性メモリで構成された書き込み可能メモリであり、CPU21が実行するプログラム・コードをロードしたり、実行プログラムによる作業データの一時的に保存したりするために使用される。
ROM(Read Only Memory)23は、プログラムやデータを恒久的に格納する読み出し専用メモリである。ROM23に格納されるプログラム・コードには、ロボット装置1の電源投入時に実行する自己診断テスト・プログラムや、ロボット装置1の動作を規定する動作制御プログラムなどが挙げられる。
本実施形態に係るロボット装置1は、動作制御プログラムによって、外部刺激の認識結果や内部状態の変化に応じて行動制御を行なうことができるが、行動制御のシステム構成については後述に譲る。
不揮発性メモリ24は、例えばEEPROM(Electrically Erasable and Programmable ROM)のように、電気的に消去再書き込みが可能なメモリ素子で構成され、逐次更新すべきデータを不揮発的に保持するために使用される。逐次更新すべきデータには、例えば、製造番号や暗号鍵などのセキュリティ情報などが挙げられる。
インターフェース25は、制御ユニット20外の機器と相互接続し、データ交換を可能にするための装置である。インターフェース25は、例えば、カメラ15やマイクロフォン16、スピーカ17との間でデータ入出力を行なう。また、インターフェース25は、駆動部50内の各駆動回路53−1…との間でデータやコマンドの入出力を行なう。
また、インターフェース25は、RS(Recommended Standard)−232Cなどのシリアル・インターフェース、IEEE(Institute of Electrical and Electronics Engineers)1284などのパラレル・インターフェース、USB(Universal Serial Bus)インターフェース、i−Link(IEEE1394)インターフェース、SCSI(Small Computer System Interface)インターフェース、メモリ・カード・インターフェースなどのような、コンピュータの周辺機器接続用の汎用インターフェースを備え、ローカル接続された外部機器との間でプログラムやデータの移動を行なうようにしてもよい。
また、インターフェース25の他の例として、赤外線通信(IrDA)インターフェースを備え、外部機器と無線通信を行なうようにしてもよい。
さらに、制御ユニット20は、無線通信インターフェース26を含み、Bluetoothのような近距離無線データ通信やIEEE802.11bのような無線ネットワークにより機体の数メートル以内に配設されたアクセスポイント(図示しない)との間で無線データ通信を行なうことができる。アクセスポイントは、さらにLANなどの小規模ネットワークやインターネットなどの広域ネットワークに相互接続され、ロボット装置1をネットワーク上の情報提供空間へと導くことができる。
B.行動制御システム
ロボットの行動は、本能的行動、反射的行動、条件反応的行動、学習行動、学習済み行動などに分類することができる。学習行動は、行動の順序を覚える(すなわち運動計画を立てる)、あるいはダイナミクス(ロボット単体の身体的ダイナミクス、道具を使った道具ダイナミクス(後述)を含む)を覚えることを含み、探索学習や、物まね学習などが含まれる。また、条件反応的行動、学習行動、学習済み行動は、本能行動と反射行動に基づいて実装することが可能である。
ロボットの行動制御システムを実装する上で、これらの行動を統一的に扱う仕組みが重要であると、本発明者らは思料する。例えば、どういうときに「ものまね」を行ない、どういうときに「因果行動」をとるべきかである。
図3には、本発明の実施形態に係るロボット装置1の行動制御システム100の機能構成を模式的に示している。ロボット装置1は、外部刺激の認識結果や内部状態の変化に応じて行動制御を行なうことができる。さらには、長期記憶機能を備え、外部刺激から内部状態の変化を連想記憶することにより、外部刺激の認識結果や内部状態の変化に応じて行動制御を行なうことができる。
図示の行動制御システム100にはオブジェクト指向プログラミングを採り入れて実装することができる。この場合、各ソフトウェアは、データとそのデータに対する処理手続きとを一体化させた「オブジェクト」というモジュール単位で扱われる。また、各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行なうことができる。
行動制御システム100は、外部環境(Environments)を認識するために、視覚認識機能部101と、聴覚認識機能部102と、接触認識機能部103を備えている。
視覚認識機能部(Video)51は、例えば、CCDカメラのような画像入力装置を介して入力された撮影画像を基に、顔認識や色認識などの画像認識処理や特徴抽出を行なう。視覚認識機能部51は、後述する"MultiColorTracker","FaceDetector","FaceIdentify"といった複数のオブジェクトで構成される。
聴覚認識機能部(Audio)52は、マイクなどの音声入力装置を介して入力される音声データを音声認識して、特徴抽出したり、単語セット(テキスト)認識を行ったりする。聴覚認識機能部52は、後述する"AudioRecog","AuthurDecoder"といった複数のオブジェクトで構成される。
接触認識機能部(Tactile)53は、例えば機体の頭部などに内蔵された接触センサによるセンサ信号を認識して、「なでられた」とか「叩かれた」という外部刺激を認識する。
内部状態管理部(ISM:Internal Status Manager)104は、本能や感情といった数種類の情動を数式モデル化して管理しており、上述の視覚認識機能部101と、聴覚認識機能部102と、接触認識機能部103によって認識された外部刺激(ES:ExternalStimula)に応じてロボット装置1の本能や情動といった内部状態を管理する。
感情モデルと本能モデルは、それぞれ認識結果と行動履歴を入力に持ち、感情値と本能値を管理している。行動モデルは、これら感情値や本能値を参照することができる。
本実施形態では、情動についてその存在意義による複数階層で構成され、それぞれの階層で動作する。決定された複数の動作から、そのときの外部環境や内部状態によってどの動作を行なうかを決定するようになっている。また、それぞれの階層で行動は選択されるが、より低次の行動から優先的に動作を発現していくことにより、反射などの本能的行動や、記憶を用いた動作選択などの高次の行動を1つの個体上で矛盾なく発現することができる。
ロボット装置1は、外部刺激の認識結果や内部状態の変化に応じて行動制御を行なうために、時間の経過とともに失われる短期的な記憶を行なう短期記憶部105と、情報を比較的長期間保持するための長期記憶部106を備えている。短期記憶と長期記憶という記憶メカニズムの分類は神経心理学に依拠する。
短期記憶部(ShortTermMemory)105は、上述の視覚認識機能部101と、聴覚認識機能部102と、接触認識機能部103によって外部環境から認識されたターゲットやイベントを短期間保持する機能モジュールである。例えば、カメラ15からの入力画像を約15秒程度の短い期間だけ記憶する。
長期記憶部(LongTermMemory)106は、物の名前など学習により得られた情報を長期間保持するために使用される。長期記憶部106は、例えば、ある行動モジュールにおいて外部刺激から内部状態の変化を連想記憶することができる。
また、本実施形態に係るロボット装置1の行動制御は、反射行動部109によって実現される「反射行動」と、状況依存行動階層108によって実現される「状況依存行動」と、熟考行動階層107によって実現される「熟考行動」と、行動の学習と評価を行なう学習行動部110によって実現される「学習行動」に大別される。
反射的行動部(ReflexiveSituatedBehaviorsLayer)109は、上述の視覚認識機能部101と、聴覚認識機能部102と、接触認識機能部103によって認識された外部刺激に応じて反射的な機体動作を実現する機能モジュールである。
反射行動とは、基本的に、センサ入力された外部情報の認識結果を直接受けて、これを分類して、出力行動を直接決定する行動のことである。例えば、人間の顔を追いかけたり、うなずいたりといった振る舞いは反射行動として実装することが好ましい。
状況依存行動階層(SituatedBehaviorsLayer)108は、短期記憶部105並びに長期記憶部106の記憶されている外部環境や、内部状態管理部104によって管理される内部状態を基に、ロボット装置1が現在置かれている状況に即応した本能的行動又はその他の形態の状況依存型の行動を制御する。
状況依存行動階層108は、各行動毎にステートマシン(又は状態遷移モデル)を用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。また、状況依存行動階層108は、内部状態をある範囲に保つための行動(「ホメオスタシス行動」とも呼ぶ)も実現し、内部状態が指定した範囲内を越えた場合には、その内部状態を当該範囲内に戻すための行動が出現し易くなるようにその行動を活性化させる(実際には、内部状態と外部環境の両方を考慮した形で行動が選択される)。状況依存行動は、反射行動に比し、反応時間が遅い。
熟考行動階層(DeliberativeLayer)107は、短期記憶部105並びに長期記憶部106の記憶内容に基づいて、ロボット装置1の比較的長期にわたる行動計画などを行なう。
熟考行動とは、与えられた状況あるいは人間からの命令により、推論やそれを実現するための計画を立てて行なわれる行動のことである。例えば、ロボットの位置と目標の位置から経路を探索することは熟考行動に相当する。このような推論や計画は、ロボット装置1がインタラクションを保つための反応時間よりも処理時間や計算負荷を要する(すなわち処理時間がかかる)可能性があるので、上記の反射行動や状況依存行動がリアルタイムで反応を返しながら、熟考行動は推論や計画を行なう。
熟考行動階層107や状況依存行動階層108、反射行動部109は、ロボット装置1のハードウェア構成に非依存の上位のアプリケーション・プログラムとして記述することができる。これに対し、ハードウェア依存層制御部(ConfigurationDependentActionsAndReactions)111は、これら上位アプリケーション(「スキーマ」と呼ばれる行動モジュール)からの命令に応じて、関節アクチュエータの駆動などの機体のハードウェア(外部環境)を直接操作する。
学習行動部110は、行動の順序を覚える(すなわち運動計画を立てる)、あるいはダイナミクス(ロボット単体の身体的ダイナミクス、道具を使った道具ダイナミクス(後述)を含む)を覚えることを含み、探索学習や、物まね学習などを行なう。
図3に示したようなロボット1の行動制御システム100における各機能モジュールは、オブジェクトとして構成される。各オブジェクトは、メッセージ通信と共有メモリを使ったオブジェクト間通信方法によりデータの受け渡しとInvokeを行なうことができる。図4には、本実施形態に係る行動制御システム100のオブジェクト構成を模式的に示している。
視覚認識機能部101は、”FaceDetector”、”MulitColotTracker”、”FaceIdentify”という3つのオブジェクトで構成される。
FaceDetectorは、画像フレーム中から顔領域を検出するオブジェクトであり、検出結果をFaceIdentifyに出力する。MulitColotTrackerは、色認識を行なうオブジェクトであり、認識結果をFaceIdentify及びShortTermMemory(短期記憶ブ105を構成するオブジェクト)に出力する。また、FaceIdentifyは、検出された顔画像を手持ちの人物辞書で検索するなどして人物の識別を行ない、顔画像領域の位置、大きさ情報とともに人物のID情報をShortTermMemoryに出力する。
聴覚認識機能部102は、”AudioRecog”と”SpeechRecog”という2つのオブジェクトで構成される。AudioRecogは、マイクなどの音声入力装置からの音声データを受け取って、特徴抽出と音声区間検出を行なうオブジェクトであり、音声区間の音声データの特徴量及び音源方向をSpeechRecogやShortTermMemoryに出力する。SpeechRecogは、AudioRecogから受け取った音声特徴量と音声辞書及び構文辞書を使って音声認識を行なうオブジェクトであり、認識された単語のセットをShortTermMemoryに出力する。
触覚認識記憶部103は、接触センサからのセンサ入力を認識する”TactileSensor”というオブジェクトで構成され、認識結果はSHortTermMemoryや内部状態を管理するオブジェクトであるInternalStateModel(ISM)に出力する。
ShortTermMemory(STM)は、短期記憶部105を構成するオブジェクトであり、上述の認識系の各オブジェクトによって外部環境から認識されたターゲットやイベントを短期間保持(例えばカメラ15からの入力画像を約15秒程度の短い期間だけ記憶する)する機能モジュールであり、STMクライアントであるSituatedBehaviorsLayerに対して外部刺激の通知(Notify)を定期的に行なう。
LongTermMemory(LTM)は、長期記憶部106を構成するオブジェクトであり、物の名前など学習により得られた情報を長期間保持するために使用される。LongTermMemoryは、例えば、ある行動モジュールにおいて外部刺激から内部状態の変化を連想記憶することができる。
InternalStatusManager(ISM)は、内部状態管理部104を構成するオブジェクトであり、本能や感情といった数種類の情動を数式モデル化して管理しており、上述の認識系の各オブジェクトによって認識された外部刺激(ES:ExternalStimula)に応じてロボット装置1の本能や情動といった内部状態を管理する。
SituatedBehaviorslayer(SBL)は状況依存型行動階層108を構成するオブジェクトである。SBLは、ShorTermMemoryのクライアント(STMクライアント)となるオブジェクトであり、ShorTermMemoryからは定期的に外部刺激(ターゲットやイベント)に関する情報の通知(Notify)を受け取ると、スキーマ(schema)すなわち実行すべき行動モジュールを決定する(後述)。
ReflexiveSituatedBehaviorsLayerは、反射的行動部109を構成するオブジェクトであり、上述した認識系の各オブジェクトによって認識された外部刺激に応じて反射的・直接的な機体動作を実行する。例えば、人間の顔を追いかけたり、うなずいたり、障害物の検出により咄嗟に避けたりといった振る舞いを行なう。
SituatedBehaviorslayerは、外部刺激や内部状態の変化などの状況に応じて行動を選択する。これに対し、ReflexiveSituatedBehaviorsLayerは、外部刺激に応じて反射的を行動する。これら2つのオブジェクトによる行動選択は独立して行なわれるため、互いに選択された行動モジュール(スキーマ)を機体上で実行する場合に、ロボット1のハードウェア・リソースが競合して実現不可能なこともある。Resourcemanagerというオブジェクトは、SituatedBehaviorslayerとReflexiveSituatedBehaviorsLayerによる行動選択時のハードウェアの競合を調停する。そして、調停結果に基づいて機体動作を実現する各オブジェクトに通知することにより機体が駆動する。
SoundPerformer、MotionController、LedControllerは、機体動作を実現するオブジェクトである。SoundPerformerは、音声出力を行なうためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerから与えられたテキスト・コマンドに応じて音声合成を行ない、ロボット1の機体上のスピーカから音声出力を行なう。また、MotionControllerは、機体上の各関節アクチュエータの動作を行なうためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerから手や脚などを動かすコマンドを受けたことに応答して、該当する関節角を計算する。また、LedControllerは、LED19の点滅動作を行なうためのオブジェクトであり、ResourceManager経由でSituatedBehaviorLayerからコマンドを受けたことに応答してLED19の点滅駆動を行なう。
C.状況依存行動
本実施形態に係るロボット装置は、外部環境や内部状態に基づいて、状況に即応した本能的行動又はその他の形態の状況依存型の行動を制御することができる。
図5には、状況依存行動階層(SBL)108(但し、反射行動部109を含む)による状況依存行動制御の形態を模式的に示している。認識系101〜103による外部環境の認識結果は、外部刺激として状況依存行動階層108(反射行動部109を含む)に与えられる。また、認識系による外部環境の認識結果に応じた内部状態の変化も状況依存行動階層108に与えられる。そして、状況依存行動階層108では、外部刺激や内部状態の変化に応じて状況を判断して、行動選択を実現することができる。
状況依存行動階層108は、行動モジュール毎にステートマシンを用意しており、それ以前の行動や状況に依存して、センサ入力された外部情報の認識結果を分類して、行動を機体上で発現する。行動モジュールは、機体動作を記述し行動実行に伴う状態遷移(ステートマシン)を実現するAction機能と、Action機能において記述された行動の実行を外部刺激や内部状態に応じて評価して状況判断を行なうMonitor機能とを備えたスキーマ(schema)として記述される。図6には、状況依存行動階層108が複数のスキーマによって構成されている様子を模式的に示している。
状況依存行動階層108(より厳密には、状況依存行動階層108のうち、通常の状況依存行動を制御する階層)は、複数のスキーマが階層的に連結されたツリー構造として構成され、外部刺激や内部状態の変化に応じてより最適なスキーマを統合的に判断して行動制御を行なうようになっている。ツリーは、例えば動物行動学的(Ethological)な状況依存行動を数式化した行動モデルや、感情表現を実行するためのサブツリーなど、複数のサブツリー(又は枝)を含んでいる。
各スキーマは外部刺激と内部状態を入力している。また、各スキーマは、少なくともMonitor関数とAction関数を備えている。図7には、スキーマの内部構成を模式的に示している。同図に示すように、スキーマは、所定の事象の発生に従がって状態(又はステート)が移り変わっていく状態遷移モデル(ステートマシン)の形式で機体動作を記述したAction関数と、外部刺激や内部状態に応じてAction関数の各状態を評価して活動度レベル値として返すMonitor関数と、Action関数のステートマシンをREADY(準備完了)、ACTIVE(活動中),SLEEP(待機中)いずれかの状態としてスキーマの状態を記憶管理する状態管理部で構成されている。
Monitor関数は、外部刺激と内部状態に応じて当該スキーマの活動度レベル(Activation Level:AL値)を算出する関数である。図7に示すようなツリー構造を構成する場合、上位(親)のスキーマは外部刺激と内部状態を引数として下位(子供)のスキーマのMonitor関数をコールすることができ、子供のスキーマはAL値を返り値とする。また、スキーマは自分のAL値を算出するために、さらに子供のスキーマのMonitor関数をコールすることができる。そして、ルートのスキーマには各サブツリーからのAL値が返されるので、外部刺激と内部状態の変化に応じた最適なスキーマすなわち行動を統合的に判断することができる。
例えばAL値が最も高いスキーマを選択したり、AL値が所定の閾値を越えた2以上のスキーマを選択して並列的に行動実行したりするようにしてもよい(但し、並列実行するときは各スキーマ同士でハードウェア・リソースの競合がないことを前提とする)。
図7で示す例では、スキーマすなわち行動モジュールの管理を行なう行動状態制御部(仮称)は、Monitor関数からの戻り値に基づいて、実行すべき行動を選択し、該当するスキーマのAction関数をコールし、あるいは状態管理部に記憶されているスキーマの状態の移行を指示する。例えば行動誘発評価値としての活動度レベルが最も高いスキーマを選択したり、リソースが競合しないように優先順位に従って複数のスキーマを選択したりする。また、行動状態制御部は、より優先順位の高いスキーマが起動し、リソースの競合が生じた場合、優先順位が下位のスキーマの状態をACTIVEからSLEEPに退避させ、競合状態が解かれるとACTIVEに回復するなど、スキーマの状態を制御する。
D.ロボットの内部状態管理
本実施形態に係るロボットの行動制御システム100では、状況依存行動階層108は内部状態と外部環境によって行動を決定する。
ロボット装置1の内部状態は、本能や感情といった数種類の情動で構成され、数式モデル化して扱われる。内部状態管理部(ISM:Internal Status Manager)104は、上述した各認識機能部101〜103によって認識された外部刺激(ES:ExternalStimula)と、時間的経過に基づいて、内部状態を管理する。
図8には、内部状態管理部104と他の機能モジュールとの通信経路を模式的に示している。
短期記憶部105は、外部環境の変化を認識する各認識機能部101〜103からの認識結果を、内部状態管理部104と状況依存行動階層108に出力する。 内部状態管理部104は、状況依存行動階層108に内部状態を通知する。これに対し、状況依存行動階層108は、連想又は決定した本能や感情の情報を返す。
また、状況依存行動階層108は、内部状態と外部環境から算出される活動度レベルを基に行動を選択するとともに、選択した行動の実行と完了を短期記憶部105経由で内部状態管理部104に通知する。
内部状態管理部104は、行動毎に内部状態を長期記憶部106に出力する。これに対し、長期記憶部106は、記憶情報を返す。
バイオリズム管理部は、バイオリズム情報を内部状態管理部104に供給する。
内部状態の指標は時間経過により変化する。例えば、1次情動すなわち本能であるHunger(空腹感)、Fatigue(疲労)、Sleep(眠気)は、時間経過によりそれぞれ以下のように変化する。
Hunger:おなかが減る(仮想値又はバッテリ残量)
Fatigue:疲れがたまる
Sleep:眠気がたまる
また、本実施形態では、ロボットの2次情動すなわち感情(Emotion)の要素としてPleasantness(満足度),Activation(活動度),Certainty(確信度)を定義しているが、時間経過によりそれぞれ以下のように変化する。
Pleasantness:Neutral(中立)に向かって変化する
Activation:バイオリズムやSleep(眠気)に依存する
Certainty:Attentionに依存する
また、内部状態は、ロボットが動作を実行することによっても変化する。
例えば、「眠る」という行動を行なうスキーマは、下位の1次情動としてのSleep(眠気)を満たす行動が最終目標としている。状況依存行動階層108では、1次情動としてのSleepと2次情動としてのActivationを基に各スキーマの活動度レベルを算出・比較して、「眠る」スキーマを選択し、この結果、眠るという行動が実現される。
一方、状況依存行動階層108は、眠るという行動の実行完了を短期記憶部105経由で内部状態管理部104に伝達する。これに対し、内部状態管理部104は、「眠る」行動の実行により、1次情動であるSleepの指標値を変更する。
そして、状況依存行動階層108では、Sleepが満たされた度合いと2次情動としてのActivationを基に各スキーマの活動度レベルを改めて算出・比較する。この結果、優先度が高くなった他のスキーマを選択し、眠るというスキーマから抜ける。
また、内部状態は、ロボットが動作を実行したときに得られるセンサ情報によっても変化する。
ロボットが動作を実行したときのその動作程度は、各認識機能部101〜103によって認識され、短期記憶部105経由で内部状態管理部104に通知される。内部状態管理部104は、この動作程度を例えばFatigue(疲労)として1次情動の変化に反映させることができる。また、この1次情動の変化に応答して、2次情動も変化させることができる。
E.聞き真似をするシステム
ロボット装置の自己発達、行動創発を実現する上で、模倣のメカニズムを採り入れることは効果的であると本発明者らは思料する。
これまで、物まねやジェスチャ認識を行なうロボット装置の研究開発はなされてきた。ロボット装置同士で物まねやジェスチャ認識を行なうこともできるが、人間すなわちケアギバを直接真似ることきできれば、ロボット装置の学習や自己発達はより効率的となり、進歩の速度も向上するであろう。
ここで、人間の模倣メカニズムを実現するには、なぜロボットが人間の模倣を行なうか(動機付け)、人体が持つ自由度の相違のため、適する動きをどのように選択するか、どうやって対応をとっていくのか、といった問題を解決しなければならない。
また、聞き真似を考えた場合、同じ音韻を発する場合であっても、ケアギバとロボット装置における周波数特性の相違や、ケアギバの個体差の問題がある。さらに、人間の場合、同じ音韻であっても、そのときの感情などの内部状態又は身体的制約により特性の異なる発音内容となる。人間の肉声の聞き真似を行なうロボット装置に関する事例は皆無に等しい。
以下では、ロボットが人間の肉声を下に音韻系列を学習するメカニズムについて提案する。この聞き真似メカニズムによれば、身体的制約を考慮して、意味のある音韻系列のみを学習することができる。
図9には、本発明の実施形態に係る聞き真似システムの構成を模式的に示している。図示の聞き真似システム1000は、蝸牛特性フィルタ・バンク1001と、音響信号学習器1002と、音声合成器1003で構成される。
蝸牛特性フィルタ・バンク1001は、音韻が基準周波数の逓倍の中心周波数を持つ複数の成分で構成されるという性質を利用して、話者間での同じ音韻系列の相違を見え易くする機能モジュールである。以下では、蝸牛特性フィルタ・バンク1001を、話者毎の音韻系列s並びにs’を入力とし、sとs’の相違を見え易い形式の系列uに変換する関数Kとして扱う。蝸牛特性フィルタ・バンク1001は、例えば、マイクロフォン16に付随するDSP(前述)内に実装することができる。
なお、蝸牛特性フィルタ・バンクは、人間の聴覚末梢系である内耳の蝸牛特性を擬似化したもので、J.M.Katesの提案による(IEEE TRANSACTIONS ON SIGNAL PROCESSING.VOL.39,NO.12,DECEMBER 1991及びIEEE TRANSACTIONS ON SPEECH AND AUDIO PROCESSINGN VOL.1,NO.4, OCTOBER 1993)。一般に、蝸牛には周波数解析機能があると言われており、本実施形態ではデジタル蝸牛モデル中のフィルタ・バンク部分を使用して、音声の周波数解析を行なう。
音響信号学習器1002は、入力された音声信号の音声合成パラメータyと、ロボット装置自身がこれを聞き真似して発生する音声合成パラメータyoとの関係を評価・学習する機能モジュールである。以下では、音響信号学習器1002を、yをyoに変換する学習の評価画数Hとして扱う。この評価関数Hは、音韻系列uを入力とし、これを音声合成のパラメータとなるyに変換する。なお、学習メカニズムとして、例えばフィードフォワード型ニューラル・ネットワークを適用することができる。音響信号学習器1002は、例えば、認識系のオブジェクトであるSpeechRecog(前述)内に組み込むことができる。
音声合成器1003は、入力された音声合成パラメータyに基づいて、出力する音声信号sを合成する機能モジュールであり、以下では、yを入力としsを出力する関数Gとして扱う。音声合成器1003は、例えば出力系のオブジェクトSoundPerformer(前述)内に組み込むことができる。
図9に示したシステムによる聞き真似のメカニズムは、下式のように記述することができる。
(1)y → G → s
(2)s → K → u
(3)u → H → yo
すなわち、音韻系列の素となる音声合成パラメータyが音声合成関数Gに投入されると、音声信号sからなる音韻系列が出力される。そして、この音韻系列sが蝸牛特性フィルタ・バンク1001に入力されると、そのフィルタ関数Kにより話者間の相違が吸収された音韻系列uに変換される。音声信号学習器1002としての学習関数Hは、この音韻系列uから、聞き真似をするための音声合成パラメータyoを生成する。さらに、この音声合成パラメータyoが音声合成関数Gに投入されると、聞き真似をした音韻系列が発されることになる。
ここで、音声信号学習器1002としての学習関数Hは、当該システムへの入力としての音声合成パラメータyと、聞き真似するための音声合成パラメータyoとの相違を評価して、学習を行なう。
人間の場合、同じ音韻であっても、そのときの感情などの内部状態又は身体的制約により特性の異なる発音内容となるが、図9に示したシステム構成では、このような身体的制約は考慮されない。
図10には、このような身体的制約を考慮し、内部状態を理解することができる聞き真似システムの構成例を模式的に示している。図示の聞き真似システム1000は、蝸牛特性フィルタ・バンク1001と、音響信号学習器1002と、音声合成器1003に加えて、内部状態生成器1004と、写像器1005を備えている。
蝸牛特性フィルタ・バンク1001は、音韻が基準周波数の低倍の中心周波数を持つ複数の成分で構成されるという性質を利用して、話者間での同じ音韻系列の相違を見え易くする機能モジュールであり、関数Kとして扱う。
音響信号学習器1002は、入力された音声信号の音声合成パラメータyと、ロボット装置自身がこれを聞き真似して発生する音声合成パラメータyoとの関係を評価・学習する機能モジュールであり、評価画数Hとして扱う。
音声合成器1003は、入力された音声合成パラメータyに基づいて、出力する音声信号sを合成する機能モジュールであり、関数Gとして扱う。
内部状態生成器1004は、息や身体伸ばしなどの信号からなる現在の内部状態xを生成する。
写像器1005は、現在の内部状態xを音声合成パラメータyに射影する。以下では、写像器1005を、入力xをyに変換する関数Fとして扱う。
図10に示したシステムにおいて、ロボット自身の声から内部状態を理解するメカニズムは、下式のように記述することができる。
(1)x → F → y
(2)y → G → s
(3)s → K → u
(4)u → H → yo
内部状態生成器1004により内部状態xが生成されると、写像器1005により、内部状態を表した音韻系列を生成するための音声合成パラメータyに変換される。そして、音声合成パラメータyが音声合成関数Gに投入されると、音声信号sからなる音韻系列が出力される。そして、この音韻系列sが蝸牛特性フィルタ・バンク1001に入力されると、そのフィルタ関数Kにより話者間の相違が吸収された音韻系列uに変換される。音声信号学習器1002としての学習関数Hは、この音韻系列uから、聞き真似をするための音声合成パラメータyoを生成する。さらに、この音声合成パラメータyoが音声合成関数Gに投入されると、聞き真似をした音韻系列が発されることになる。上式のうち、(2)〜(4)は上述した聞き真似のメカニズムに相当する。
図10に示したシステムでは、ランダムな発生に対して、自分で入力を分析して学習(予測誤差、あるいは相関学習)することができる。また、人間が意味を感じた音に対して同じ音を出すと、それを分析して同じく学習(個人性を吸収する学習+発生の強化学習)することができる。
したがって、このようなメカニズムによれば、聞いた声が自分の発生でどのパラメータに相当するかを覚えることができる。すなわち、ロボット装置は、意味のある発生を覚えることができる。
また、図10に示したシステムにおいて、ケアギバの声からその内部状態を理解するメカニズムは、下式のように記述することができる。
(1)s’ → F → u’
(2)u’ → H → yo
(3)yo’ → y’
(4)y’ → G → s
(5)y’ → F-1 → x’
ケアギバが発する音韻系列s’が蝸牛特性フィルタ・バンク1001に入力されると、そのフィルタ関数Kにより話者間の相違が吸収された音韻系列u’に変換される。音声信号学習器1002としての学習関数Hは、この音韻系列u’から、聞き真似をするための音声合成パラメータyo’を生成する。
ここで、音声信号学習器1002としての学習関数Hは、ケアギバの音韻系列に基づく音声合成パラメータy’と、聞き真似するための音声合成パラメータyo’との相違を評価して、学習を行なう。
そして、音声合成パラメータyが音声合成関数Gに投入されると、ケアギバの聞き真似としての音韻系列sが出力される。
また、写像器1005では、逆関数F-1を用いて、音声合成パラメータy’に相当する内部状態x’を導き出す。これは、内部状態を逆推定することに相当する。すなわち、人の声を聞いたときに、自分の内部状態が逆写像で求まるという、身体的理解を実現することができる訳である。
F.学習行動
学習とは、作業上における知識の増大と技能の習熟の過程を表すものであり、ロボット装置の自己発達を実現する上で欠くことができない機能と言える。
ロボット装置の学習行動は、行動の順序を覚える(すなわち運動計画を立てる)、あるいはダイナミクス(ロボット単体の身体的ダイナミクス、道具を使った道具ダイナミクス(後述)を含む)を覚えることを含み、探索学習や、物まね学習などが含まれる。また、条件反応的行動、学習行動、学習済み行動は、本能行動と反射行動に基づいて実装することが可能である。
本発明に係るロボット装置は、環境(すなわち外部刺激)とロボット自身の内部状態を含む力学構造を学習するとともに、これを予測に用い、コマンド・シーケンスを決定するという予測学習型の学習行動システムを実現する。
G−1.予測学習システム
図11には、本発明に係るロボット装置が備える予測学習器のシステム構成を模式的に示している。
ここで、ロボット装置自身すなわち実ロボットは、人やその他のモデルとなる動物の筋肉や骨格に相当するアクチュエータ及びフレーム、並びに外部刺激を検出する感覚に相当するセンサを備えている。また、ロボット装置の行動制御システムは、現在の内部状態を保持するとともに、センサ入力により外部環境を認識し、内部状態と外部環境に基づいて発現すべき行動を決定することができる(例えば、図3、図5を参照のこと)。そして、行動制御は、実ロボットに対するモータ・コマンドという形態で外部に表出される。
一方、予測学習器は、現在観測されている世界、現在目標とする世界、次の時刻において予測される世界、並びに実ロボットが動作した結果観測される次の時刻における世界という4つの世界に取り囲まれている。
ここで言う世界とは、ロボット装置の内部状態、ロボット装置の行動を制御するモータ・コマンド、及び、行動実行時にセンサで検出される外部環境を表す各パラメータでそれぞれ記述される。言い換えれば、予測学習器は、上述の各世界を記述する(内部状態,モータ・コマンド,センサ出力)を入力し、それぞれの世界を理解することができる。
予測学習は一般に、現在の観測値に基づいて次の時刻における観測値(推定値)を推定するとともに、次の時刻における実際の観測値を測定し、次の時刻における予測された推定値と実際の観測値との偏差や相関などに基づいて、予測を学習し、コマンド・シーケンスの決定に利用していくものである。本実施形態に係る予測学習器は、現在の観測値以外に、現在の目標値を入力に持つという点で特徴がある。すなわち、予測学習器は、目標とする世界すなわち目標値と、現在観測されている世界すなわち観測値を入力として学習と評価を行なう。予測学習器自体は、フォワード型ニューラル・ネットワークやリカレントニューラルネットワーク、又は相関学習器を用いて構成することができる。
本実施形態に係る予測学習器による学習過程について、図12を参照しながら説明する。
同図において、現実のロボット装置に相当する実ロボットは、全身の筋肉や骨格など駆動部分の総称としてのモータと、感情や情動などの内部状態と、周囲の物理環境を外部刺激として計測するセンサを備えている。モータは、行動制御システムなどから供給されるモータ・コマンドによって動作する。また、センサは、モータ・コマンド実行時すなわち実ロボットが動作したときの物理環境を検出する。そして、内部状態は、モータによる動作結果と、センサの検出結果に基づいて変化していく(図8を参照のこと)。
現在時刻Tにおいて、実ロボットは、投入されたモータ・コマンドを実行し、そのときのモータの実行結果(関節角度やモータ・トルクなど)と、物理環境若しくは外部刺激を計測したセンサ出力と、モータの実行結果とセンサ出力に基づいて変化した内部状態を、現在の観測値Ob(T)として、予測学習器に入力する。
また、目標値生成器は、現在時刻Tにおける目標となるモータの実行結果、センサ出力、及び内部状態からなる目標値Ta(T)を生成し、予測学習器に入力する。
そして、予測学習器は、次の時刻T+ΔTにおけるモータの実行結果、センサ出力、及び内部状態の推定値Pr(T+ΔT)を推定する。この推定は、例えばフォワード型ニューラル・ネットワーク、リカレントニューラルネットワーク又は相関学習に基づく。
一方、実ロボットでは、外部環境と内部状態に応じた行動制御(前述)に基づいて、次の時刻T+ΔTにおける行動すなわちモータ・コマンドが生成され、この結果、次の時刻T+ΔTにおけるモータの実行結果と、物理環境若しくは外部刺激を計測したセンサ出力と、モータの実行結果とセンサ出力に基づいて変化した内部状態を、次の時刻の観測値Ob(T+ΔT)として、予測学習器に入力する。
そして、予測学習器では、次の時刻T+ΔTにおける推定値Pr(T+ΔT)と現実の観測値Ob(T+ΔT)に基づいて、予測学習を行なう。予測学習器は、例えば、推定値Pr(T+ΔT)と現実の観測値Ob(T+ΔT)との偏差や相関に基づいて学習を行なう。
なお、目標生成器は、ユーザ入力に基づいて目標値Ta(T)を生成してもよいし、ロボット装置の内部状態と外部環境に基づいて状況依存により目標値Ta(T)を生成するようにしてもよい。
G−2.道具を用いたインタラクションの学習
本実施形態に係るロボット装置は、ロボット単体の身体的ダイナミクス以外に、道具を使った道具ダイナミクスを実現することもできる。後者の場合、ロボット装置は、外部環境に対し道具を用いたインタラクションを行なう。
図13には、ロボット装置が道具を使った道具ダイナミクスを学習する予測学習器のシステム構成を模式的に示している。図示の予測学習器は、図11に示したシステム構成と同じ枠組みで、道具の力学系を学習し、それを“道具”として使う。
図11に示した例では、予測学習器は、実ロボットがモータ・コマンドを実行したときのモータの実行結果(関節角度やモータ・トルクなど)と、物理環境を計測したセンサ出力と、内部状態を取り扱っていた。これに対し、図13に示すシステム構成では、物理環境を操作するために使用した道具と、道具を介した物理環境の操作結果としてのボディー・イメージと、物理環境を取り扱う。これによって、予測学習器には、道具のモデルが学習される。ここで、実ロボットがどの道具を用いたかは、モータ・コマンド及びセンサ出力により検出することができる。
現在時刻Tにおいて、実ロボットは、投入されたモータ・コマンドを実行し、そのときの道具を使ったインタラクションの結果(関節角度やモータ・トルクなど)をボディー・イメージとして、使った道具、及びセンサ出力からなる物理環境とともに、現在の観測値Ob(T)として、予測学習器に入力する。
また、目標値生成器は、現在時刻Tにおける目標となるボディー・イメージと、使う道具、及び物理環境に関する目標値Ta(T)を生成し、予測学習器に入力する。
そして、予測学習器は、次の時刻T+ΔTにおけるボディー・イメージと、使う道具、及び物理環境に関する推定値Pr(T+ΔT)を推定する。この推定は、例えばフォワード型ニューラル・ネットワーク、又は相関学習に基づく。
一方、実ロボットでは、外部環境と内部状態に応じた行動制御(前述)に基づいて、次の時刻T+ΔTにおける行動が生成され、この結果、次の時刻T+ΔTにおけるボディー・イメージと、使う道具、及び物理環境に関する観測値Ob(T+ΔT)として、予測学習器に入力する。
そして、予測学習器では、次の時刻T+ΔTにおける推定値Pr(T+ΔT)と現実の観測値Ob(T+ΔT)に基づいて、予測学習を行なう。予測学習器は、例えば、推定値Pr(T+ΔT)と現実の観測値Ob(T+ΔT)との偏差や相関に基づいて学習を行なう。この結果、予測学習器には、道具のモデルが学習される。
G−3.発達のシナリオを持った学習
上述したように、本発明では、学習のメカニズムを取り入れることにより、ロボット装置の自己発達を実現する。
ここで、過大なテーマが与えられると、学習の結果がなかなか収束せず、学習効率が上がらないという問題がある。そこで、本発明では、学習メカニズムに発達のシナリオの概念を取り入れることにした。
発達のシナリオは、複数の学習フェーズで構成される。各学習フェーズでは、ロボット装置が実現する自由度構成(関節の可動角やトルク限界など)や取るべき行動リスト(本能的行動、反射行動など)を、学習の進行に従って定義している。
学習フェーズ毎にファイルで管理することにより、学習の進行に応じたファイルをアクセスし、発達のシナリオを実現することができる。
また、学習フェーズの遷移は、時間の経過でコントロールしてもよいが、予測学習器における推定値Pr(T+ΔT)と現実の観測値Ob(T+ΔT)との偏差や相関に基づいてコントロールすることができる。すなわち、推定値通りに実ロボットが行動できるようになれば、現在の学習フェーズをクリアしたとみなし、次の学習フェーズへ遷移させる。
図14には、発達のシナリオを持つ予測学習器のシステム構成を模式的に示している。
ロボット装置自身すなわち実ロボットは、人やその他のモデルとなる動物の筋肉や骨格に相当するアクチュエータ及びフレーム、並びに外部刺激を検出する感覚に相当するセンサを備えている。また、ロボット装置の行動制御システムは、現在の内部状態を保持するとともに、センサ入力により外部環境を認識し、内部状態と外部環境に基づいて発現すべき行動を決定する。
予測学習器は、目標とする世界すなわち目標値と、現在観測されている世界すなわち観測値を入力として学習と評価を行なう。予測学習器自体は、フォワード型ニューラル・ネットワーク、又は相関学習器を用いて構成することができる。
現在時刻Tにおいて、実ロボットは、投入されたモータ・コマンドを実行し、そのときのモータの実行結果(関節角度やモータ・トルクなど)と、物理環境若しくは外部刺激を計測したセンサ出力と、モータの実行結果とセンサ出力に基づいて変化した内部状態を、現在の観測値Ob(T)として、予測学習器に入力する。
ここで、発達のシナリオには、学習フェーズに応じた自由度構成(関節の可動角やトルク限界など)や取るべき行動リスト(本能的行動、反射行動など)を記述した学習フェーズ・ファイルが格納されている。選択器は、実ロボットの現在の学習の度合いに適合した学習フェーズ・ファイルを取り出す。そして、実ロボットは、このファイルの記述内容に従って、モータ・コマンドの実行を行なう。
また、目標値生成器は、現在時刻Tにおける目標となるモータの実行結果、センサ出力、及び内部状態からなる目標値Ta(T)を生成し、予測学習器に入力する。
そして、予測学習器は、次の時刻T+ΔTにおけるモータの実行結果、センサ出力、及び内部状態の推定値Pr(T+ΔT)を推定する。この推定は、例えばフォワード型ニューラル・ネットワーク、又は相関学習に基づく。
一方、実ロボットでは、外部環境と内部状態に応じた行動制御(前述)に基づいて、次の時刻T+ΔTにおける行動すなわちモータ・コマンドが生成され、この結果、次の時刻T+ΔTにおけるモータの実行結果と、物理環境若しくは外部刺激を計測したセンサ出力と、モータの実行結果とセンサ出力に基づいて変化した内部状態を、次の時刻の観測値Ob(T+ΔT)として、予測学習器に入力する。但し、モータ・コマンドの実行は、学習フェーズの定義に従う(同上)。
そして、予測学習器では、次の時刻T+ΔTにおける推定値Pr(T+ΔT)と現実の観測値Ob(T+ΔT)に基づいて、予測学習を行なう。予測学習器は、例えば、推定値Pr(T+ΔT)と現実の観測値Ob(T+ΔT)との偏差や相関に基づいて学習を行なう。
また、選択器は、時間の経過、又は、推定値Pr(T+ΔT)と現実の観測値Ob(T+ΔT)との偏差や相関に基づいて、学習フェーズの遷移をコントロールする。すなわち、推定値通りに実ロボットが行動できるようになれば、現在の学習フェーズをクリアしたとみなし、発達のシナリオから、次の学習フェーズに相当するファイルを取り出し、学習を進行させる。
G−4:報酬評価と目標生成
報酬評価は、内部状態及び内部状態をどのような状態にすることが評価が高いか、に基づいて行なうことができる。本能行動や反射行動は、この設計された報酬評価に基づいて行動が選択されていく。一方、目標生成をこの報酬評価に基づいて行なうことができる。高い評価を得た状態を目標として記憶することで、本能反射行動で探索を行ないながら高い評価の状態を目標とし、以降探索を行なわずにこの状態を目標とする行動生成を予測学習器に学習させることができる。
G−5:リハースとプランニング
目標に対して学習された予測学習器を用いて、現在の状態から目標の状態までを実際に行動を生成せずに、予測学習器の出力を入力にフィードバックして時刻T、T+1、T+2、…と生成し、リハースすることが可能である。この結果を用いて実際の行動を選択し、効率的に目標達成の行動を行なうことができる(図15を参照のこと)。
G−6:行動出力の調停
本能反射行動と予測学習器の生成する行動のどちらを実際の行動として出力するかを調停することにより、探索や模倣などが本能反射行動として実装されている場合には、本能反射行動の出力を用いて学習しながら行動し、学習が進んだ段階では、偏差を利用することで予測学習器の出力を利用するように調停を行なうことができる。これにより、学習を行ないながら、学習が進んだ状態では予測学習期の出力を利用する自律行動を実現することができる。
以上、特定の実施例を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施例の修正や代用を成し得ることは自明である。
本発明の要旨は、必ずしも「ロボット」と称される製品には限定されない。すなわち、電気的若しくは磁気的な作用を用いて人間の動作に似せた運動を行なう機械装置であるならば、例えば玩具等のような他の産業分野に属する製品であっても、同様に本発明を適用することができる。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、冒頭に記載した特許請求の範囲の欄を参酌すべきである。
図1は、本発明に実施に供されるロボット装置1の機能構成を模式的に示した図である。 図2は、制御ユニット20の構成を示した図である。 図3は、本発明の実施形態に係るロボット装置1の行動制御システム100の機能構成を模式的に示した図である。 図4は、行動制御システム100のオブジェクト構成を模式的に示した図である。 図5は、状況依存行動階層(SBL)108(但し、反射行動部109を含む)による状況依存行動制御の形態を模式的に示した図である。 図6は、状況依存行動階層108が複数のスキーマによって構成されている様子を模式的に示した図である。 図7は、スキーマの内部構成を模式的に示した図である。 図8は、内部状態管理部104と他の機能モジュールとの通信経路を模式的に示した図である。 図9は、本発明に係る聞き真似システムの構成を模式的に示した図である。 図10は、本発明に係る聞き真似システムについての他の構成を模式的に示した図である。 図11は、本発明に係るロボット装置が備える予測学習器のシステム構成を模式的に示した図である。 図12は、予測学習器による学習過程を説明するための図である。 図13は、ロボット装置が道具を使った道具ダイナミクスを学習する予測学習器のシステム構成を模式的に示した図である。 図14は、発達のシナリオを持つ予測学習器のシステム構成を模式的に示した図である。 図15は、リハースとプランニングを説明するための図である。
符号の説明
1…ロボット装置
15…CCDカメラ
16…マイクロフォン
17…スピーカ
18…タッチ・センサ
19…LEDインジケータ
20…制御部ユニット
21…CPU
22…RAM
23…ROM
24…不揮発メモリ
25…インターフェース
26…無線通信インターフェース
28…バス
40…入出力部
50…駆動部
51…モータ
52…エンコーダ
53…ドライバ
1000…聞き真似システム
1001…蝸牛特性フィルタ・バンク
1002…音声信号学習器
1003…音声合成器
1004…内部状態生成器
1005…写像器

Claims (27)

  1. 音韻系列の学習を行なうロボットの行動制御システムにおいて、
    音韻系列を入力する音声入力手段と、
    音韻系列を音声合成パラメータに変換するとともに、自己が生成した音韻系列に関する音声合成パラメータと聞き真似をする音声合成パラメータとの関係を学習又は評価する音声信号学習手段と、
    前記音声信号学習手段による音声合成パラメータに基づいて音韻系列を生成する音声合成手段と、
    を具備することを特徴とするロボットの行動制御システム。
  2. 前記音声入力手段は、蝸牛特性フィルタ・バンクを備える、
    ことを特徴とする請求項1に記載のロボットの行動制御システム。
  3. 前記音声信号学習手段は、フィードフォワード型ニューラル・ネットワークで構成される、
    ことを特徴とする請求項1に記載のロボットの行動制御システム。
  4. 内部状態又は身体的制約を生成する内部状態生成手段と、
    内部状態を音声合成パラメータに変換する写像手段と、
    をさらに備えることを特徴とする請求項1に記載のロボットの行動制御システム。
  5. 前記写像手段は、写像時の逆関数を用いて、入力された音声合成パラメータに相当する内部状態を逆推定する、
    ことを特徴とする請求項4に記載のロボットの行動制御システム。
  6. 内部状態と外部環境に基づいて発現すべき行動を決定するとともに、予測学習を行なうロボットの行動制御システムにおいて、
    前記ロボットは、駆動指令に基づいて動作する駆動手段と、内部状態を管理する内部状態管理手段と、外部刺激又は物理環境を計測する計測手段を備えており、
    前記行動制御システムは、前記ロボットの駆動指令、内部状態、物理環境に関する現在の観測値及び現在の目標値を入力し、次の時刻におけるこれらの推定値を推定する予測学習手段を備える、
    ことを特徴とするロボットの行動制御システム。
  7. 前記予測学習手段は、フィードフォワード型ニューラル・ネットワーク、又は相関学習器により構成される、
    ことを特徴とする請求項6に記載のロボットの行動制御システム。
  8. 前記予測学習手段は、次の時刻における前記ロボットの駆動指令、内部状態、物理環境の推定値と、次の時刻におけるこれらの観測値に基づいて予測学習を行なう、
    ことを特徴とする請求項6に記載のロボットの行動制御システム。
  9. 前記予測学習手段は、物理環境を操作するために使用した道具と、道具を介した物理環境の操作結果としてのボディー・イメージと、物理環境を取り扱う、
    ことを特徴とする請求項6に記載のロボットの行動制御システム。
  10. 前記ロボットは、複数の学習フェーズからなる発育シナリオを備え、駆動指令に対し、該当する学習フェーズに従って動作する、
    ことを特徴とする請求項6に記載のロボットの行動制御システム。
  11. 各学習フェーズでは、ロボット装置が実現する自由度構成又は取るべき行動リストを、学習の進行に従って定義する、
    ことを特徴とする請求項10に記載のロボットの行動制御システム。
  12. 前記ロボットは、時間の経過、又は前記予測学習手段における次の時刻の推定値と観測値との偏差又は相関に基づいて学習フェーズの遷移を制御する、
    ことを特徴とする請求項10に記載のロボットの行動制御システム。
  13. 音韻系列の学習を行なうロボットの行動制御方法において、
    音韻系列を入力する音声入力ステップと、
    音韻系列を音声合成パラメータに変換するとともに、自己が生成した音韻系列に関する音声合成パラメータと聞き真似をする音声合成パラメータとの関係を学習又は評価する音声信号学習ステップと、
    前記音声信号学習ステップにおける音声合成パラメータに基づいて音韻系列を生成する音声合成ステップと、
    を具備することを特徴とするロボットの行動制御方法。
  14. 前記音声入力ステップでは、蝸牛特性のフィルタリングを行なう、
    ことを特徴とする請求項13に記載のロボットの行動制御方法。
  15. 前記音声信号学習ステップでは、フィードフォワード型ニューラル・ネットワークによる学習を行なう、
    ことを特徴とする請求項13に記載のロボットの行動制御方法。
  16. 内部状態又は身体的制約を生成する内部状態生成ステップと、
    内部状態を音声合成パラメータに変換する写像ステップと、
    をさらに備えることを特徴とする請求項13に記載のロボットの行動制御方法。
  17. 前記写像ステップにおける写像時の逆関数を用いて、入力された音声合成パラメータに相当する内部状態を逆推定する内部状態推定ステップをさらに備える、
    ことを特徴とする請求項13に記載のロボットの行動制御方法。
  18. 内部状態と外部環境に基づいて発現すべき行動を決定するとともに、予測学習を行なうロボットの行動制御方法において、
    前記ロボットは、駆動指令に基づいて動作する駆動手段と、内部状態を管理する内部状態管理手段と、外部刺激又は物理環境を計測する計測手段を備えており、
    前記ロボットの駆動指令、内部状態、物理環境に関する現在の観測値及び現在の目標値を入力し、次の時刻におけるこれらの推定値を推定する予測学習ステップを備える、
    ことを特徴とするロボットの行動制御方法。
  19. 前記予測学習ステップでは、フィードフォワード型ニューラル・ネットワーク、又は相関学習により学習を行なう、
    ことを特徴とする請求項18に記載のロボットの行動制御方法。
  20. 前記予測学習ステップでは、次の時刻における前記ロボットの駆動指令、内部状態、物理環境の推定値と、次の時刻におけるこれらの観測値に基づいて予測学習を行なう、
    ことを特徴とする請求項18に記載のロボットの行動制御方法。
  21. 前記予測学習ステップでは、物理環境を操作するために使用した道具と、道具を介した物理環境の操作結果としてのボディー・イメージと、物理環境を取り扱う、
    ことを特徴とする請求項18に記載のロボットの行動制御方法。
  22. 前記ロボットは、複数の学習フェーズからなる発育シナリオを備え、駆動指令に対し、該当する学習フェーズに従って動作する、
    ことを特徴とする請求項18に記載のロボットの行動制御方法。
  23. 各学習フェーズでは、ロボット装置が実現する自由度構成又は取るべき行動リストを、学習の進行に従って定義する、
    ことを特徴とする請求項22に記載のロボットの行動制御方法。
  24. 前記ロボットは、時間の経過、又は前記予測学習ステップにおける次の時刻の推定値と観測値との偏差又は相関に基づいて学習フェーズの遷移を制御する、
    ことを特徴とする請求項22に記載のロボットの行動制御方法。
  25. 音韻系列の学習を行なうロボット装置において、
    複数の可動部と、
    前記可動部を駆動する駆動手段と、
    前記駆動手段を制御する駆動制御手段と、
    音韻系列を入力する音声入力手段と、
    音韻系列を音声合成パラメータに変換するとともに、自己が生成した音韻系列に関する音声合成パラメータと聞き真似をする音声合成パラメータとの関係を学習又は評価する音声信号学習手段と、
    前記音声信号学習手段による音声合成パラメータに基づいて音韻系列を生成する音声合成手段と、
    を具備することを特徴とするロボット装置。
  26. 内部状態と外部環境に基づいて発現すべき行動を決定するとともに、予測学習を行なうロボット装置において、
    複数の可動部と、
    前記可動部を駆動する駆動手段と、
    駆動指令を発行して前記駆動手段を制御する駆動制御手段と、
    内部状態を管理する内部状態管理手段と、
    外部刺激又は物理環境を計測する計測手段と、
    駆動指令、内部状態、物理環境に関する現在の観測値及び現在の目標値を入力し、次の時刻におけるこれらの推定値を推定する予測学習手段と、
    を具備することを特徴とするロボット装置。
  27. 内部状態と外部環境に基づいて発現すべき行動を決定するとともに、学習を行なうロボット装置において、
    複数の可動部と、
    前記可動部を駆動する駆動手段と、
    駆動指令を発行して前記駆動手段を制御する駆動制御手段と、
    外部刺激又は物理環境を計測する計測手段と、
    少なくとも前記駆動手段による行動出力と物理環境に基づいて学習を行なう学習手段と、
    複数の学習フェーズからなる発育シナリオとを備え、
    前記駆動手段は、駆動指令に対し、該当する学習フェーズに従って動作する、
    ことを特徴とするロボット装置。
JP2004113589A 2004-04-07 2004-04-07 情報処理システム、情報処理方法、並びにロボット装置 Expired - Fee Related JP4661074B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004113589A JP4661074B2 (ja) 2004-04-07 2004-04-07 情報処理システム、情報処理方法、並びにロボット装置
US11/101,257 US8145492B2 (en) 2004-04-07 2005-04-06 Robot behavior control system and method, and robot apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004113589A JP4661074B2 (ja) 2004-04-07 2004-04-07 情報処理システム、情報処理方法、並びにロボット装置

Publications (3)

Publication Number Publication Date
JP2005300692A true JP2005300692A (ja) 2005-10-27
JP2005300692A5 JP2005300692A5 (ja) 2007-05-24
JP4661074B2 JP4661074B2 (ja) 2011-03-30

Family

ID=35137593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004113589A Expired - Fee Related JP4661074B2 (ja) 2004-04-07 2004-04-07 情報処理システム、情報処理方法、並びにロボット装置

Country Status (2)

Country Link
US (1) US8145492B2 (ja)
JP (1) JP4661074B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102200787A (zh) * 2011-04-18 2011-09-28 重庆大学 机器人行为多层次集成学习方法及系统
CN103354775A (zh) * 2010-12-17 2013-10-16 奥尔德巴伦机器人股份公司 设有用于其物理和虚拟资源的管理器的类人机器人,以及使用和编程方法
CN108136578A (zh) * 2015-09-21 2018-06-08 株式会社虹之机器 具有分层架构的实时设备控制系统及利用其的实时机器人控制系统

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2309671C (en) * 1998-09-10 2010-12-21 Sony Corporation Robot apparatus, method of controlling robot apparatus, method of display, and medium
US7359979B2 (en) 2002-09-30 2008-04-15 Avaya Technology Corp. Packet prioritization and associated bandwidth and buffer management techniques for audio over IP
US20040073690A1 (en) 2002-09-30 2004-04-15 Neil Hepworth Voice over IP endpoint call admission
US7978827B1 (en) 2004-06-30 2011-07-12 Avaya Inc. Automatic configuration of call handling based on end-user needs and characteristics
US7921066B2 (en) * 2005-10-12 2011-04-05 Henry Van Dyke Parunak Characterizing and predicting agents via multi-agent evolution
US8073681B2 (en) 2006-10-16 2011-12-06 Voicebox Technologies, Inc. System and method for a cooperative conversational voice user interface
US7818176B2 (en) 2007-02-06 2010-10-19 Voicebox Technologies, Inc. System and method for selecting and presenting advertisements based on natural language processing of voice-based input
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
WO2009055296A1 (en) * 2007-10-22 2009-04-30 Honda Motor Co., Ltd. Design and evaluation of communication middleware in a distributed humanoid robot architecture
US8140188B2 (en) * 2008-02-18 2012-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. Robotic system and method for observing, learning, and supporting human activities
US8218751B2 (en) 2008-09-29 2012-07-10 Avaya Inc. Method and apparatus for identifying and eliminating the source of background noise in multi-party teleconferences
KR20100081587A (ko) * 2009-01-06 2010-07-15 삼성전자주식회사 로봇의 소리 인식 장치 및 그 제어 방법
US8260460B2 (en) * 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
WO2011080855A1 (ja) * 2009-12-28 2011-07-07 三菱電機株式会社 音声信号復元装置および音声信号復元方法
TWI399563B (zh) * 2010-03-16 2013-06-21 Univ Nat Cheng Kung 馬達轉矩和轉速之估測系統與估測方法
FR2962048A1 (fr) * 2010-07-02 2012-01-06 Aldebaran Robotics S A Robot humanoide joueur, methode et systeme d'utilisation dudit robot
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
KR20120047577A (ko) * 2010-11-04 2012-05-14 주식회사 케이티 대화형 행동모델을 이용한 로봇 인터랙션 서비스 제공 장치 및 방법
US8594845B1 (en) * 2011-05-06 2013-11-26 Google Inc. Methods and systems for robotic proactive informational retrieval from ambient context
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
JP2014170295A (ja) * 2013-03-01 2014-09-18 Honda Motor Co Ltd 物体認識システム及び物体認識方法
JP2014240884A (ja) * 2013-06-11 2014-12-25 株式会社東芝 コンテンツ作成支援装置、方法およびプログラム
KR102222122B1 (ko) * 2014-01-21 2021-03-03 엘지전자 주식회사 감성음성 합성장치, 감성음성 합성장치의 동작방법, 및 이를 포함하는 이동 단말기
US9364950B2 (en) 2014-03-13 2016-06-14 Brain Corporation Trainable modular robotic methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
EP2933067B1 (en) * 2014-04-17 2019-09-18 Softbank Robotics Europe Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
US9375841B1 (en) 2014-05-28 2016-06-28 Google Inc. Robotic devices with ambient indications of joint status
EP3195145A4 (en) 2014-09-16 2018-01-24 VoiceBox Technologies Corporation Voice commerce
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US11112781B2 (en) * 2015-07-31 2021-09-07 Heinz Hemken Training an autonomous robot using previously captured data
US9443192B1 (en) 2015-08-30 2016-09-13 Jasmin Cosic Universal artificial intelligence engine for autonomous computing devices and software applications
WO2017052060A1 (ko) * 2015-09-21 2017-03-30 주식회사 레인보우 계층적 아키텍처를 갖는 실시간 디바이스 제어 시스템 및 이를 이용한 실시간 로봇 제어 시스템
KR20170044849A (ko) * 2015-10-16 2017-04-26 삼성전자주식회사 전자 장치 및 다국어/다화자의 공통 음향 데이터 셋을 활용하는 tts 변환 방법
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
US9987752B2 (en) 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
US10282849B2 (en) 2016-06-17 2019-05-07 Brain Corporation Systems and methods for predictive/reconstructive visual object tracker
US10016896B2 (en) 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
KR20180018211A (ko) * 2016-08-12 2018-02-21 엘지전자 주식회사 자가 학습 로봇
US9864933B1 (en) 2016-08-23 2018-01-09 Jasmin Cosic Artificially intelligent systems, devices, and methods for learning and/or using visual surrounding for autonomous object operation
US10650307B2 (en) * 2016-09-13 2020-05-12 International Business Machines Corporation Neuromorphic architecture for unsupervised pattern detection and feature learning
US11853876B2 (en) 2016-09-15 2023-12-26 Google Llc Control policies for robotic agents
US10183590B2 (en) * 2016-09-23 2019-01-22 Faraday&Future Inc. Electric vehicle battery monitoring system
US20180158458A1 (en) * 2016-10-21 2018-06-07 Shenetics, Inc. Conversational voice interface of connected devices, including toys, cars, avionics, mobile, iot and home appliances
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
US10452974B1 (en) 2016-11-02 2019-10-22 Jasmin Cosic Artificially intelligent systems, devices, and methods for learning and/or using a device's circumstances for autonomous device operation
US10001780B2 (en) 2016-11-02 2018-06-19 Brain Corporation Systems and methods for dynamic route planning in autonomous navigation
US10723018B2 (en) 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
US10607134B1 (en) 2016-12-19 2020-03-31 Jasmin Cosic Artificially intelligent systems, devices, and methods for learning and/or using an avatar's circumstances for autonomous avatar operation
WO2018112833A1 (en) * 2016-12-22 2018-06-28 Intel Corporation Efficient transferring of human experiences to robots and other autonomous machines
US10377040B2 (en) 2017-02-02 2019-08-13 Brain Corporation Systems and methods for assisting a robotic apparatus
US10852730B2 (en) 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
JP6760490B2 (ja) * 2017-04-10 2020-09-23 富士通株式会社 認識装置、認識方法および認識プログラム
US20190019497A1 (en) * 2017-07-12 2019-01-17 I AM PLUS Electronics Inc. Expressive control of text-to-speech content
US10102449B1 (en) 2017-11-21 2018-10-16 Jasmin Cosic Devices, systems, and methods for use in automation
US10474934B1 (en) 2017-11-26 2019-11-12 Jasmin Cosic Machine learning for computing enabled systems and/or devices
US10402731B1 (en) 2017-12-15 2019-09-03 Jasmin Cosic Machine learning for computer generated objects and/or applications
DE102018207513A1 (de) * 2018-05-15 2019-11-21 Siemens Aktiengesellschaft Verfahren zum rechnergestützten Lernen eines Roboters über einen Sprachdialog
JP7420385B2 (ja) * 2018-08-30 2024-01-23 Groove X株式会社 ロボット及び音声生成プログラム
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
WO2020116356A1 (ja) * 2018-12-03 2020-06-11 Groove X株式会社 ロボット、音声合成プログラム、及び音声出力方法
JP7417356B2 (ja) * 2019-01-25 2024-01-18 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
CN110900598B (zh) * 2019-10-15 2022-09-23 合肥工业大学 机器人三维运动空间动作模仿学习方法和系统
CN111459452B (zh) * 2020-03-31 2023-07-18 北京市商汤科技开发有限公司 交互对象的驱动方法、装置、设备以及存储介质
US11049497B1 (en) * 2020-10-26 2021-06-29 Cresta Intelligence Inc. Contemporaneous machine-learning analysis of audio streams

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049188A (ja) * 1996-08-06 1998-02-20 Atr Chinou Eizo Tsushin Kenkyusho:Kk 感情変換装置
JPH1097267A (ja) * 1996-09-24 1998-04-14 Hitachi Ltd 声質変換方法および装置
JPH1185194A (ja) * 1997-09-04 1999-03-30 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 声質変換音声合成装置
JPH11311999A (ja) * 1998-04-30 1999-11-09 Seiichiro Hanya 音声認識方法
JP2002049385A (ja) * 2000-08-07 2002-02-15 Yamaha Motor Co Ltd 音声合成装置、疑似感情表現装置及び音声合成方法
JP2002189488A (ja) * 2000-10-11 2002-07-05 Sony Corp ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002239952A (ja) * 2001-02-21 2002-08-28 Sony Corp ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2002264057A (ja) * 2001-03-12 2002-09-18 Sony Corp ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2002268656A (ja) * 2001-03-09 2002-09-20 Nippon Telegr & Teleph Corp <Ntt> 音声分析合成方法および、この方法を実施する装置、プログラム、プログラムを記録した記録媒体

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0673080B2 (ja) * 1987-11-25 1994-09-14 日本電気株式会社 連続音声認識方式
US4979188A (en) * 1988-04-29 1990-12-18 Motorola, Inc. Spectrally efficient method for communicating an information signal
US5359696A (en) * 1988-06-28 1994-10-25 Motorola Inc. Digital speech coder having improved sub-sample resolution long-term predictor
US5095443A (en) * 1988-10-07 1992-03-10 Ricoh Company, Ltd. Plural neural network system having a successive approximation learning method
CA2078927C (en) * 1991-09-25 1997-01-28 Katsushi Seza Code-book driven vocoder device with voice source generator
JPH0612098A (ja) * 1992-03-16 1994-01-21 Sanyo Electric Co Ltd 音声符号化装置
JPH05335967A (ja) * 1992-05-29 1993-12-17 Takeo Miyazawa 音情報圧縮方法及び音情報再生装置
US5377302A (en) * 1992-09-01 1994-12-27 Monowave Corporation L.P. System for recognizing speech
ES2143673T3 (es) * 1994-12-20 2000-05-16 Dolby Lab Licensing Corp Metodo y aparato para aplicar una prediccion de formas de onda a subbandas de un sistema codificador perceptual.
US5682463A (en) * 1995-02-06 1997-10-28 Lucent Technologies Inc. Perceptual audio compression based on loudness uncertainty
US6070140A (en) * 1995-06-05 2000-05-30 Tran; Bao Q. Speech recognizer
JPH10260692A (ja) * 1997-03-18 1998-09-29 Toshiba Corp 音声の認識合成符号化/復号化方法及び音声符号化/復号化システム
US6134528A (en) * 1997-06-13 2000-10-17 Motorola, Inc. Method device and article of manufacture for neural-network based generation of postlexical pronunciations from lexical pronunciations
WO1999053476A1 (fr) * 1998-04-15 1999-10-21 Fujitsu Limited Dispositif antibruit actif
US6081780A (en) * 1998-04-28 2000-06-27 International Business Machines Corporation TTS and prosody based authoring system
US6249758B1 (en) * 1998-06-30 2001-06-19 Nortel Networks Limited Apparatus and method for coding speech signals by making use of voice/unvoiced characteristics of the speech signals
US6480820B1 (en) * 1999-09-20 2002-11-12 Advanced Cochlear Systems, Inc. Method of processing auditory data
US6587846B1 (en) * 1999-10-01 2003-07-01 Lamuth John E. Inductive inference affective language analyzer simulating artificial intelligence
JP4032273B2 (ja) * 1999-12-28 2008-01-16 ソニー株式会社 同期制御装置および方法、並びに記録媒体
JP4465768B2 (ja) * 1999-12-28 2010-05-19 ソニー株式会社 音声合成装置および方法、並びに記録媒体
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2001188784A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP3487250B2 (ja) * 2000-02-28 2004-01-13 日本電気株式会社 符号化音声信号形式変換装置
US7283961B2 (en) * 2000-08-09 2007-10-16 Sony Corporation High-quality speech synthesis device and method by classification and prediction processing of synthesized sound
JP2002337075A (ja) 2001-05-15 2002-11-26 Sony Corp 脚式移動ロボット及びその学習方法
US20030093280A1 (en) * 2001-07-13 2003-05-15 Pierre-Yves Oudeyer Method and apparatus for synthesising an emotion conveyed on a sound
JP3558222B2 (ja) 2002-03-15 2004-08-25 ソニー株式会社 ロボットの行動制御システム及び行動制御方法、並びにロボット装置
DE60215296T2 (de) * 2002-03-15 2007-04-05 Sony France S.A. Verfahren und Vorrichtung zum Sprachsyntheseprogramm, Aufzeichnungsmedium, Verfahren und Vorrichtung zur Erzeugung einer Zwangsinformation und Robotereinrichtung
US7197460B1 (en) * 2002-04-23 2007-03-27 At&T Corp. System for handling frequently asked questions in a natural language dialog service
US7319959B1 (en) * 2002-05-14 2008-01-15 Audience, Inc. Multi-source phoneme classification for noise-robust automatic speech recognition

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049188A (ja) * 1996-08-06 1998-02-20 Atr Chinou Eizo Tsushin Kenkyusho:Kk 感情変換装置
JPH1097267A (ja) * 1996-09-24 1998-04-14 Hitachi Ltd 声質変換方法および装置
JPH1185194A (ja) * 1997-09-04 1999-03-30 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 声質変換音声合成装置
JPH11311999A (ja) * 1998-04-30 1999-11-09 Seiichiro Hanya 音声認識方法
JP2002049385A (ja) * 2000-08-07 2002-02-15 Yamaha Motor Co Ltd 音声合成装置、疑似感情表現装置及び音声合成方法
JP2002189488A (ja) * 2000-10-11 2002-07-05 Sony Corp ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002239952A (ja) * 2001-02-21 2002-08-28 Sony Corp ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2002268656A (ja) * 2001-03-09 2002-09-20 Nippon Telegr & Teleph Corp <Ntt> 音声分析合成方法および、この方法を実施する装置、プログラム、プログラムを記録した記録媒体
JP2002264057A (ja) * 2001-03-12 2002-09-18 Sony Corp ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤田雅博 他: ""Entertainment Robotにおける音によるインタラクション"", AIチャレンジ研究会(第13回) 人工知能学会研究会資料, JPN6010012031, 15 June 2001 (2001-06-15), pages 29 - 34, ISSN: 0001556684 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103354775A (zh) * 2010-12-17 2013-10-16 奥尔德巴伦机器人股份公司 设有用于其物理和虚拟资源的管理器的类人机器人,以及使用和编程方法
CN103354775B (zh) * 2010-12-17 2016-08-31 奥尔德巴伦机器人股份公司 设有用于其物理和虚拟资源的管理器的类人机器人、及使用方法
CN102200787A (zh) * 2011-04-18 2011-09-28 重庆大学 机器人行为多层次集成学习方法及系统
CN102200787B (zh) * 2011-04-18 2013-04-17 重庆大学 机器人行为多层次集成学习方法及系统
CN108136578A (zh) * 2015-09-21 2018-06-08 株式会社虹之机器 具有分层架构的实时设备控制系统及利用其的实时机器人控制系统
CN108136578B (zh) * 2015-09-21 2021-08-20 株式会社虹之机器 具有分层架构的实时设备控制系统及利用其的实时机器人控制系统

Also Published As

Publication number Publication date
JP4661074B2 (ja) 2011-03-30
US8145492B2 (en) 2012-03-27
US20050240412A1 (en) 2005-10-27

Similar Documents

Publication Publication Date Title
JP4661074B2 (ja) 情報処理システム、情報処理方法、並びにロボット装置
EP1602457B1 (en) Robot device, behavior control method thereof, and program
US7024276B2 (en) Legged mobile robot and its motion teaching method, and storage medium
KR101137205B1 (ko) 로봇의 행동 제어 시스템 및 행동 제어 방법, 및 로봇 장치
US7515992B2 (en) Robot apparatus and emotion representing method therefor
EP1327504B1 (en) Robot device and behavior control method for robot device
Kawamura et al. Implementation of cognitive control for a humanoid robot
JP2006110707A (ja) ロボット装置
JP4179230B2 (ja) ロボット装置及びその動作制御方法
JP3558222B2 (ja) ロボットの行動制御システム及び行動制御方法、並びにロボット装置
JP2007125631A (ja) ロボット装置及びその行動制御方法
JP4296736B2 (ja) ロボット装置
JP2007125629A (ja) ロボット装置及びその行動制御方法
JP2002059384A (ja) ロボットのための学習システム及び学習方法
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP4552465B2 (ja) 情報処理装置、ロボット装置の行動制御方法、ロボット装置及びコンピュータ・プログラム
JP2002086380A (ja) 脚式ロボット及びその制御方法
JP4147960B2 (ja) ロボット装置、及びロボット装置の動作制御方法
JP2005321954A (ja) ロボット装置、情報処理システム及び情報処理方法、並びにコンピュータ・プログラム
Kim et al. Intelligence technology for ubiquitous robots
JP2005193330A (ja) ロボット装置及びその情動表出方法
JP2002337075A (ja) 脚式移動ロボット及びその学習方法
JP2003200369A (ja) ロボット装置及びその制御方法、人工エージェント、記憶制御装置及び記憶制御方法
JP2007125630A (ja) ロボット装置及びその行動制御方法
Frijns BODY LANGUAGE FOR BOTS

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070404

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101207

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101220

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees