JP2002307349A - ロボット装置、情報学習方法、プログラム及び記録媒体 - Google Patents

ロボット装置、情報学習方法、プログラム及び記録媒体

Info

Publication number
JP2002307349A
JP2002307349A JP2001113178A JP2001113178A JP2002307349A JP 2002307349 A JP2002307349 A JP 2002307349A JP 2001113178 A JP2001113178 A JP 2001113178A JP 2001113178 A JP2001113178 A JP 2001113178A JP 2002307349 A JP2002307349 A JP 2002307349A
Authority
JP
Japan
Prior art keywords
information
external
unit
output
external information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001113178A
Other languages
English (en)
Inventor
Jun Yokono
順 横野
Masahiro Fujita
雅博 藤田
Osamu Hanagata
理 花形
Osamu Ashida
理 芦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001113178A priority Critical patent/JP2002307349A/ja
Publication of JP2002307349A publication Critical patent/JP2002307349A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 ロボット装置が使用者とインタラクションを
保ちながら情報を学習することができる。 【解決手段】 ロボット装置は、外部情報を検出する外
部情報検出部2と、外部情報検出部2が検出した外部情
報が記憶される音声・画像データベース部3と、音声・
画像データベース部3に記憶された外部情報より音声を
抽出して外部へ出力する音声発話部40と、発話した音
声に対応付けられた画像と発話に応じて検出した外部情
報の画像とを比較した結果に応じて感情を表出させる動
作を制御する行動表出制御部50と、音声・画像データ
ベース部3に記憶された外部情報に命名をして更新する
命名部60と、自律的な行動をするための駆動部6とを
備え、ユーザとインタラクションを持ちながら自律的に
行動して情報を学習する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置及び
情報学習方法に関し、詳しくは、自律的に行動するロボ
ット装置及びそのようなロボット装置により行う情報学
習方法に関する。
【0002】
【従来の技術】近年、自律的・自立的に行動をするロボ
ット装置が提案されている。ロボット装置としては、動
物に模した形状とされて4足歩行をするロボット装置
や、人間に模した形状とされて2足歩行をするロボット
装置等が提案されている。このようなロボット装置は、
例えば、使用者からの命令等による外部環境や、ロボッ
ト装置の感情等による内部状態に応じて自律的に行動
し、行動して得た情報からその意味を学習するように構
成されている。
【0003】
【発明が解決しようとする課題】ところで、上述したよ
うな従来のロボット装置は、例えば、実環境下において
自ら収集した情報を記憶し、記憶した情報からその情報
の意味を学習するような構成とされ、その学習は受動的
なものであった。このようなロボット装置においては、
例えばユーザがロボット装置に言葉を教えたり、ロボッ
ト装置がユーザに質問したりといったやり取りが少な
く、ロボット装置とその使用者であるユーザとのインタ
ラクション(interaction;相互作用)は乏しいもので
あった。
【0004】ユーザにとって、例えば娯楽用のロボット
装置とのインタラクションが乏しいということは、娯楽
性の点では面白味に欠ける等の問題となる。このような
娯楽用のロボット装置、例えばペット型ロボットにおい
ては、例えば、ユーザとの能動的なインタラクションを
多く持つロボット装置が望ましいとされる。
【0005】そこで、本発明は、上述の実情に鑑みてな
されたものであり、実環境下で自律的に情報を収集し、
能動的にユーザとインタラクションを持ち、情報を学習
することができるロボット装置及び情報学習方法を提供
することを目的としている。
【0006】
【課題を解決するための手段】本発明に係るロボット装
置は、自律的に行動しながら学習をするロボット装置で
ある。このロボット装置は、上述のような実情に鑑み、
自律的な行動をするための移動手段と、外部情報を検出
する外部情報検出手段と、外部情報検出手段で検出した
第1の情報が記憶される記憶手段と、記憶手段に記憶さ
れた第1の情報に対応付けて第2の情報を外部に出力す
る外部出力手段と、第2の情報の出力に応じて外部情報
検出手段が検出した外部情報と、第2の情報に対応付け
られた第1の情報との比較結果に応じて、第2の情報を
第2の情報に対応付けられた第1の情報の意味として獲
得する制御手段とを備える。
【0007】このような構成を備えるロボット装置は、
移動手段により自律的に行動し、外部情報検出手段で検
出した外部情報を第1の情報として記憶手段に記憶さ
せ、記憶手段に記憶させた第1の情報に対応付けて第2
の情報を外部出力手段により出力し、第2の情報の出力
に応じて外部情報検出手段が検出した外部情報と、第2
の情報に対応付けられた第1の情報との比較結果に応じ
て、制御手段により第2の情報を第2の情報に対応付け
られた第1の情報の意味として獲得する。これによりロ
ボット装置は、自律的な行動をして得た外部情報の意味
を獲得する。
【0008】また、本発明に係る情報学習方法は、上述
のような実情に鑑み、ロボット装置が自律的な行動を
し、外部情報を検出する外部情報検出工程と、外部情報
検出工程で検出した第1の情報を記憶手段に記憶させる
記憶工程と、記憶工程で記憶させた第1の情報に対応付
けて第2の情報を外部に出力する外部出力工程と、第2
の情報の出力に応じて外部情報検出工程で検出した外部
情報と、第2の情報に対応付けられた第1の情報との比
較結果に応じて、第2の情報を第2の情報に対応付けら
れた第1の情報の意味として獲得する制御工程とを有す
る。この情報学習方法により、ロボット装置は、自律的
な行動をして得た外部情報の意味を獲得する。
【0009】また、本発明に係るプログラムは、上述の
ような実情に鑑み、ロボット装置が自律的な行動をし、
外部情報を検出する外部情報検出工程と、外部情報検出
工程で検出した第1の情報を記憶手段に記憶させる記憶
工程と、記憶工程で記憶させた第1の情報に対応付けて
第2の情報を外部に出力する外部出力工程と、第2の情
報の出力に応じて外部情報検出工程で検出した外部情報
と、第2の情報に対応付けられた第1の情報との比較結
果に応じて、第2の情報を第2の情報に対応付けられた
第1の情報の意味として獲得する制御工程とをロボット
装置に実行させる。このようなプログラムの実行によ
り、ロボット装置は、自律的な行動をして得た外部情報
の意味を獲得する。
【0010】また、本発明に係る記録媒体は、上述のよ
うな実情に鑑み、ロボット装置が自律的な行動をし、外
部情報を検出する外部情報検出工程と、外部情報検出工
程で検出した第1の情報を記憶手段に記憶させる記憶工
程と、記憶工程で記憶させた第1の情報に対応付けて第
2の情報を外部に出力する外部出力工程と、第2の情報
の出力に応じて外部情報検出工程で検出した外部情報
と、第2の情報に対応付けられた第1の情報との比較結
果に応じて、第2の情報を第2の情報に対応付けられた
第1の情報の意味として獲得する制御工程とをロボット
装置に実行させるためのプログラムが記録されている。
この記録媒体に記録されているプログラムの実行によ
り、ロボット装置は、自律的な行動をして得た外部情報
の意味を獲得する。
【0011】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳細に説明する。この実施の形態は、本
発明を、使用者からの命令等による外部環境や感情等に
よる内部状態に応じて行動するロボット装置に適用した
ものである。ロボット装置としては、四足歩行或いは二
足歩行可能な構成とされたもの等が挙げられる。
【0012】図1に示すように、ロボット装置1は、外
部情報検出部2と、音声・画像データベース部3と、外
部出力部4と、制御部5と、駆動部6とを備えている。
【0013】このような構成において、外部情報検出部
2は、外部情報を検出するものとして機能し、音声入力
部10、画像入力部20及び触覚入力部30等からな
る。音声・画像データベース部3は、外部情報検出部2
が検出した外部情報が記憶される記憶手段として機能す
る。外部出力部4は、外部に情報を出力する外部出力手
段として機能し、音声発話部40及び画像出力部45等
からなる。制御部5は、行動表出制御部50及び命名部
60からなり、外部情報に応じてロボット装置の行動を
制御したり、記憶された外部情報に対して命名をするた
めの制御を行うものとして構成されている。駆動部6
は、自律的・自立的に行動をするための移動手段とし
て、或いは外部に感情等を表出させるための外部出力手
段として機能する。
【0014】ロボット装置はこのような構成により、自
律的な行動をして得た外部情報に対して、ユーザとのイ
ンタラクションを持ちながら、意味のある情報を学習す
る。以下、ロボット装置を構成する上述の各構成部の詳
細について説明する。
【0015】外部情報検出部2は、ロボット装置が外部
の情報を収集する部分として構成されている。外部情報
検出部2は、音声入力部10、画像入力部20、触覚入
力部30等により、ロボット装置外部の情報を外部情報
として検出するよう構成されている。
【0016】音声入力部10は、ロボット装置が外部の
音声を検出して認識する部分として構成されている。図
3に示すように、音声入力部10は、マイク11、A/
D変換部12、特徴抽出部13、マッチング部14及び
音響モデルデータベース15を備えて構成されている。
【0017】マイク11は、外部の音声や音響が入力さ
れる外部入力部である。マイク11によって外部情報の
認識情報を得る場合、図3に示すように、マイク11へ
の音声入力S1は、A/D変換部12によってデジタル
変換される。A/D変換部12では、サンプリング及び
量子化して、図示しないCPU(Central ProcessingUn
it)が理解できるデジタルデータに変換される。デジタ
ルデータは、特徴抽出部13に出力される。
【0018】特徴抽出部13では、A/D変換部12に
てデジタルデータとされた音声データについて、特徴パ
ラメータ(特徴量)を抽出する。例えば、特徴抽出部1
3は、プログラムによって実現されるものであり、例え
ばいわゆるオブジェクトとして構成されている。また、
同様に、後述のマッチング部14についても、例えばオ
ブジェクトとして構成されている。
【0019】具体的には、特徴抽出部13は、音声デー
タから、適当なフレーム毎に、例えば、スペクトルや線
形予測係数、ケプストラム係数、線スペクトル対等の特
徴パラメータの抽出をしている。特徴抽出部13にて抽
出された特徴パラメータは、マッチング部14に出力さ
れる。
【0020】マッチング部14は、特徴抽出部13にて
抽出された或いは記憶されている特徴パラメータに基づ
き、後述の特徴パラメータから情報を認識するための音
響モデルデータベース15を参照しながら、マイク11
から入力された音響又は音声の認識を行う。
【0021】音響モデルデータベース15は、音声の言
語における個々の音素や音節などの音響的な特徴を表す
音響モデルを記憶している。例えば、音響モデルとして
は、HMM(隠れマルコフモデル)等を用いた音声認識
モデルがある。
【0022】マッチング部14は、上述したようなデー
タベース等を利用し、具体的には、次のような処理を実
行する。マッチング部14は、音響モデルデータベース
15に記憶されている音響モデルを参照することで、単
語の音響モデル(単語モデル)を構成する。そして、そ
のようにして構成された単語モデルを用いて、特徴パラ
メータに基づき認識して、認識結果(認識情報)D1と
して出力する。例えば、HMM法に基づいて認識する。
【0023】以上のように、マイク11に入力される音
声入力S1から認識結果D1を得ることができる。そし
て、認識結果D1は、後述する画像入力部20により認
識された物体とペアで(対応付けられて)後述する音声
・画像データベース部3に記憶される。
【0024】画像入力部20は、ロボット装置が外部の
画像情報を認識情報として検知する部分として構成され
ている。図4に示す画像入力部20は、画像入力部2
1、特徴抽出部22、図示しないマッチング部、色デー
タベース23、形状データベース24及び色・形状デー
タベース25を備えて構成されている。
【0025】画像入力部21は、外部の画像が入力され
る外部入力部である。画像入力部21によって外部情報
の認識情報を得る場合、例えばCCD(Charge Coupled
Device)カメラ等の画像入力手段にてなされた画像入
力S2は、特徴抽出部22に出力される。画像入力部2
1では、例えばCCDカメラに入力された画像情報が、
図示しないA/D変換部によってデジタル情報に変換さ
れる。A/D変換部では、例えば、サンプリング及び量
子化して、図示しないCPU等の制御手段が理解できる
デジタルデータに変換される。画像入力部21は、この
ようにして得たデジタルデータを特徴抽出部22に出力
している。
【0026】特徴抽出部22では、入力された画像入力
S2から、対象物の色や形状を特徴パラメータとして抽
出する。例えば、特徴抽出部22は、プログラムによっ
て実現されるものであり、例えばいわゆるオブジェクト
として構成されている。また、同様に、後述の図示しな
いマッチング部についても、オブジェクトとして構成さ
れている。
【0027】具体的には、特徴抽出部22では、エッジ
検出等により物体のセグメンテーションを行った後、色
と形を特徴パラメータとして抽出する。このとき、特徴
抽出部22は、色データベース23、形状データベース
24を参照しながらカテゴライズして特徴パラメータと
しての抽出を行っている。特徴抽出部22にて抽出され
た特徴パラメータは、例えば図示しないマッチング部に
出力される。
【0028】ここで、色データベース23は、YUVフ
ォーマット或いはRGBフォーマット等の色空間の中で
の座標を保特しており、その空間内で、色の代表点をテ
ーブルとして持つものである。また、形状データベース
24は、様々な物体の代表的形状を保特している。
【0029】図示しないマッチング部では、特徴抽出部
22にて抽出された或いは記憶されている特徴パラメー
タに基づき、色・形状データベース25を参照しなが
ら、画像入力部21に入力された画像情報の色や形状を
認識する。ここで、色・形状データベース25は、特徴
パラメータから情報を認識するためのデータベースであ
って、具体的には、色データベース23、形状データベ
ース24等である。マッチング部では、具体的には色デ
ータベース23により、テーブルとして持つ色の代表点
との距離が近いものを認識した色として選択する。ま
た、マッチング部では、形状データベース24にて保持
している様々な物体の代表的形状から現在セグメントさ
れている形状に近いものを選択する。なお、記憶される
色の認識結果の記憶形式は、テキスト形式でも、色空間
内の座標でも良い。マッチング部は、このように特徴パ
ラメータに基づいて色及び形の認識をして、認識結果D
2として出力する。以上のように、画像入力部21の図
示しないCCDカメラ等でなされた画像入力S2から認
識結果D2を得ることができる。そして、認識結果D2
は、前述の音声入力部10により認識され音声とペアで
後述の音声・画像データベース部3に記憶される。
【0030】触覚入力部30は、圧力センサ等の外部に
おける接触を検出する部分として構成されている。触覚
入力部30は、触覚センサとして、圧電素子やPVDF
(ポリフッ化ビニリデン)、化学反応式デバイス等を用
いることにより、硬い、柔らかい、ざらざらしている、
つるつるしている、ぬるぬるしている等といった触覚情
報を取得するものとして構成されている。触覚入力部3
0により検出された触覚情報より、ロボット装置は、例
えば、撫でられた、叩かれた等の外部情報を判別するよ
う構成される。
【0031】外部情報検出部2は、以上のような構成に
より、各入力部によって検出して得た情報を認識情報と
して得る。このようにして得た認識情報のうちの少なく
とも音声情報及び画像情報は、図1に示す音声・形状デ
ータベース部3に記憶される。
【0032】音声・形状データベース部3は、外部情報
検出部2で検出された外部情報が記憶される部分として
構成されている。外部情報検出部2では、各種情報が同
時に検出されるのであって、ある一つの事象に対して複
数の属性が検出される。このようなことから、音声・画
像データベース部3には、少なくとも音声と画像がペア
で記憶される。つまり、少なくともある物体とその物体
が認識された時に聞こえる音声とが、一緒に記憶され
る。もし、複数の物体が画像内に存在する場合、所定の
方法により一つの物体が選択されることで音声と画像の
ペアができることになる。所定の方法とは、例えば、画
像内の複数の物体から一つの物体をランダムに選択する
方法等が考えられる。
【0033】図5に音声・画像データベース部3に記憶
される外部情報のフォーマット例を示す。音声・画像デ
ータベース部3に記憶されるデータの形式としては、音
声入力部10で認識した音声と画像入力部20で認識し
た色及び形状とにより構成され、例えばデータ1乃至デ
ータnのようにデータ番号のついた音声と画像とのペア
(以下、音声・画像ペアという。)で複数記憶される形
式とされている。なお、記憶される音声の形式(フォー
マット)としては、例えばテキスト形式等が挙げられ
る。また、記憶される色及び形状の形式は、テキスト形
式の他、各モデル空間内の座標等でもよい。以上のよう
な形式で、外部情報が認識された認識結果が音声・画像
データベース部3に記憶される。このようにして、音声
・画像データベース部3に、ロボット装置の認識結果が
音声・画像ペアの形式で記憶されていく。そして、音声
・画像データベース部3に記憶された音声・画像ペアの
数がある閾値を超えたと判断された場合、ロボット装置
は、後述の音声発話部40により自発的に音声発話を開
始する。
【0034】外部出力部4は、ロボット装置が外部に情
報を出力する部分として構成されている。外部出力部4
は、音声発話部40及び画像出力部45等により、ロボ
ット装置の外部に情報を出力するものとして構成されて
いる。
【0035】音声発話部40は、外部出力手段として、
音声情報を出力するものとして構成されている。図6に
示すように本実施の形態では、音声発話部40は、音声
選択部41、音声合成部42、音素片データベース4
3、D/A変換部44及び図示しない外部出力手段とし
てのスピーカ等を備えて構成されている。例えば、音声
発話部40は、音声・画像データベース部3に記憶され
た音声・画像ペアの数が、ある閾値を超えたと判断され
たとき、音声の発話を開始する。
【0036】音声選択部41は、音声・画像データベー
ス部3に記憶された音声・画像ペアより、所定の方法で
ひとつの音声・画像ペアを選択し、そのうちの音声情報
を抽出して、音声合成部42に出力する。所定の方法と
は、例えば、音声・画像データベース部3に記憶された
複数の音声・画像ペアより、ランダムに選択する方法等
が考えられる。音声合成部42は、音声選択部41で選
択された音声情報を、音素片データベース43を参照し
ながら合成し、音声のデジタルデータとしてD/A変換
部44へ出力する。ここで、音素片データベース43
は、規則的に接続する音の素片のデータを保持する構成
とされている。音の素片としては、例えばCV連鎖(子
音母音連鎖)やVCV連鎖、CVC連鎖等の形態とされ
ている。そして、音声合成部42によって得られた音声
のデジタルデータは、D/A変換部44に出力される。
D/A変換部44では、音声合成部42から出力された
音声のデジタルデータをアナログ変換する。アナログデ
ータとされた音声情報は、図示しないスピーカ等により
音声出力される。
【0037】音声発話部40は、このようにして音声・
画像データベース部3に記憶された音声のデジタル―デ
ータから音声を合成して外部に音声情報を出力するよう
に構成されている。
【0038】画像出力部45は、外部出力手段として、
外部に画像情報やテキストを表示するものとして構成さ
れている。具体的には、画像出力部45は、画像表示手
段とされる液晶ディスプレイ等である。
【0039】制御部5は、行動表出制御部50及び命名
部60からなり、外部情報に応じてロボット装置の行動
を制御したり、記憶された外部情報に対して命名をする
ための制御を行うものとして構成されている。
【0040】ロボット装置の音声発話部40による音声
情報の外部への出力(発話)が開始されると、ユーザ
は、例えばロボット装置が発話している音声情報とペア
になっていると思われる物体、すなわち、ロボット装置
によって発話されている音声情報に対応していると考え
られる画像情報の物体をロボット装置に見せる。このと
き、ロボット装置の行動表出制御部50は、駆動部6等
の外部出力手段による所定の動作を制御して、例えば感
情を表出させる等の動作を制御するものとして構成され
る。感情とは具体的には喜びや悲しみ等であり、行動表
出制御部50はこれらの感情を表出させる動作を制御す
る。例えば、行動表出制御部50は、プログラムによっ
て実現されるものであり、例えばいわゆるオブジェクト
として構成されている。
【0041】命名部60は、ユーザがある物体をロボッ
ト装置に見せて、ロボット装置が例えば喜びの感情を表
出させる動作をした場合、ユーザがその物体に対して命
名をしなおすことができるように構成されている。例え
ば、ロボット装置が、記憶している音声・画像ペアの音
声情報を発話し、ある物体を見て喜びの感情を表出させ
る動作をしたとき、すなわち音声・画像ペアの画像情報
と同じ物体を認識したとき、ユーザはロボット装置によ
って発話された音声情報と異なる音声情報をロボット装
置に入力して、その物体に対して命名することができ
る。つまり、新しい名前をつけなおすことができる。具
体的には、命名部60は、プログラムによって実現され
るものであり、例えばいわゆるオブジェクトとして構成
されている。
【0042】駆動部6は、ロボット装置において駆動さ
れる部分である。駆動部6としては、移動手段としての
2本或いは4本の脚部等が挙げられる。なお、移動手段
は、脚部によって構成されることに限定されるものでは
なく、例えば、車輪であっても良い。行動表出制御部5
0は、このように移動手段等によって構成される駆動部
6についての駆動制御を行っている。
【0043】例えば、ロボット装置は、感情や本能をモ
デルとして有しており、感情や本能を使用者からの命令
等の外的環境等によって変化させ、そのように変化され
る感情や本能に基づいて行動をするようになされてい
る。行動表出制御部50は、そのような感情や本能に基
づいて駆動部6を制御して、ロボット装置に自律的な行
動を出現させている。駆動部6は、例えば、行動表出制
御部50により制御されて、感情を表出させる所定の動
作を行う。
【0044】以上のように、ロボット装置1は、外部情
報検出部2と、音声・画像データベース部3と、外部出
力部4と、制御部5と、駆動部6とより構成されてい
る。
【0045】次に、本発明に係るロボット装置1の動作
について、図2を用いて詳しく説明する。ロボット装置
1は、自律的な行動をして情報を収集する際に、外部情
報として、ステップST1で音声入力部10により音声
情報を、ステップST2で画像入力部20により画像情
報をそれぞれ得る。ステップST3において、ステップ
ST1及びステップST2で得た音声情報と画像情報と
がペアで記憶される。ステップST4で音声・画像デー
タベース部3のデータ数が所定の閾値を超えたかどうか
を判断し、超えているならばステップST5に進み、超
えていないならばステップST1及びステップST2へ
戻る。ステップST5において、記憶された外部情報に
対応付けて、音声情報を外部に出力する。ステップST
6では、ステップST5で出力した音声情報に応じて、
外部情報としての画像情報を検出する。ステップST7
では、ステップST6で検出した画像情報内に、ステッ
プST5で出力した音声情報に対応付けられた画像情報
の物体があるかどうかを判断し、その結果に応じてステ
ップST8で駆動部6を制御して感情を表出させる動作
をさせる。図7を用いてステップST7における行動表
出制御部50の動作について詳しく説明する。
【0046】図7のステップST11において、音声情
報の発話に対応して画像入力部20でなされる画像入力
S3の中に、発話した音声情報とペアになって記憶され
ている画像情報の物体があるかどうかを判断する。その
判断した結果に応じて、行動表出制御部50によって、
外部出力として所定の動作をロボット装置に表出させ
る。ここで、所定の動作とは、例えば、感情を表出させ
る動作である。
【0047】例えば、ロボット装置1は、行動表出制御
部50によって制御されて、音声発話部40の発話に対
応した画像入力S3内に、発話した音声情報とペアにな
って記憶されている画像情報の物体を認識すれば、ステ
ップST12で喜びや嬉しさ等の感情を、そうでなけれ
ばステップST13で悲しみや怒り等の感情を表出させ
る動作を行う。具体的には、感情を表出させる動作は、
ステップST14(ステップST8)で駆動部6を制御
することで実現することができる。例えば、駆動部6の
図示しないモータのジョイント等を作動させることなど
が考えられる。なお、上述のような感情を表出させる動
作は、駆動部6による動作に限られるものではなく、例
えば外部出力手段の音声発話部40による音声発話や、
図示しないLED(Light Emitting Diode)等を発光さ
せることで感情を表出させる動作をさせてもよい。この
とき、LEDは、例えば、ロボット装置の「目」を模し
た構成とされる。いずれにしても、感情が表出された動
作であるとユーザにわかるような動作が望ましいことは
勿論である。
【0048】例えばロボット装置1が悲しみの感情を表
出させる動作をした場合、ユーザは、ロボット装置1が
喜びの感情を表出させる動作をするまで、いろいろなも
のを見せる。そして、例えば喜びの感情を表出させる動
作をした場合、ユーザは、その物体に対して、命名をし
なおす、すなわち新しい名前をつけ直すことができる。
ロボット装置1はそのように構成されている。
【0049】図2のステップST9では、図7における
ステップST14に相当するステップST8での駆動部
6による感情を表出させる動作に応じて、外部情報とし
て音声情報を検出する。ステップST10では、音声・
画像データベース部3の音声情報を、ステップST9で
検出した音声情報に書き換える。ここで、図8を用いて
ステップST10における命名部60の動作について詳
しく説明する。以下は、ロボット装置が発話した音声情
報に対応して検出した画像入力S3内に、発話した音声
情報とペアになって記憶されている画像情報の物体を認
識した後の、ユーザによるその物体への命名を音声入力
で行う場合の手順の説明である。
【0050】図8において、図2のステップST9で検
出された外部の音声情報が、音声認識結果S4として入
力されると、ステップST20でその音声認識結果S4
に対しての質問がなされる。ステップST20での質問
は、具体的には、質問手段として機能する音声発話部4
0により出力される音声情報であり、例えば、上述の音
声認識結果S4が復唱(エコーバック)されることでな
される。なお、この質問は、例えば、画像やテキストを
外部に出力することで行われてもよい。その場合には、
質問を外部に出力する外部出力手段として、画像出力手
段等を用いればよい。画像出力手段としては、例えば、
画像出力部45等であり、液晶ディスプレイ等の画像を
表示する装置等が挙げられる。そして、もしロボット装
置が質問した内容が正しいものであれば、すなわちここ
では、ロボット装置がエコーバックした音声(言葉)
と、ユーザが命名のためにロボット装置に音声入力した
言葉が一致していれば(正しければ)、ユーザはロボッ
ト装置に後述の報酬を与える。
【0051】ステップST21では、質問に応じて外部
情報検出部2で検出される外部の情報が、ロボット装置
にとって報酬か否かを判別する。報酬とは、例えば、質
問に応じてなされるユーザや外部の反応であり、ユーザ
がロボット装置の頭を撫でる等の動作や、「よしよし」
などと言って褒める動作等がそれにあたる。報酬の判別
は、例えば「よしよし」等の音声により褒める動作であ
れば、音声入力部10に入力された音声情報の認識結果
を用いて、それが報酬にあたるのかどうかを判別する。
また、頭を撫でる等の動作であれば、外部情報検出部2
の触覚入力部30等でそれを検出し、それが報酬にあた
るかどうかを判別する。いずれにしても、外部情報検出
手段2等で検出する外部情報を用いて、報酬であるか否
かを判別するように構成される。そして、質問に応じて
検出された外部情報が報酬であると判別すると、ステッ
プST22に進み、報酬と判別しなかった場合、命名部
60の処理は終了する。
【0052】ステップST21で報酬であると判別した
場合、ロボット装置が認識した音声認識結果S4と、ユ
ーザが命名しなおそうとしてロボット装置に入力した音
声情報、すなわちユーザがロボット装置に教え込もうと
した音声情報とが正しかったことになり、ステップST
22において、音声・画像データベース部3の音声・画
像ペアを書き換えて更新し、処理は終了する。
【0053】図9に、ステップST22における音声・
画像データベースの更新前後の一例を示す。図9の
(A)に、音声・画像データベース部3の更新前のデー
タの一例を、図9の(B)に、図9(A)の状態から命
名部60によって更新された後のデータの一例を示して
いる。データの形式としては、音声入力部10で認識し
た音声と画像入力部20で認識した色及び形状とにより
構成され、例えばデータ1乃至データnのようにデータ
番号のついた音声と画像とのペア(以下、音声・画像ペ
アという。)で複数記憶される形式とされている。
【0054】例えば、ロボット装置がある物体を見たと
きに、音声から認識した音声情報XXXと、画像から認
識した色情報aaa及び形状情報bbbとが対応付けら
れて、i番目のデータiとして図9の(A)のように記
憶されている。ロボット装置が、このデータiの音声情
報XXXを発話し、喜びの感情を表出させたとき、命名
のためにユーザから発話された音声が、ロボット装置に
認識された結果が音声情報YYYだったとする。そして
さらに、ロボット装置が音声情報YYYを質問として発
話し、ユーザから報酬が得られたならば、ステップST
22で命名部60は、音声・画像データベース部3にも
ともと記憶されていたデータiの音声情報XXXを、図
9の(B)のように音声情報YYYに書き換える。この
ようにして命名部60は、ステップST22において、
記憶されている音声・画像データベース部3の音声・画
像ペアの音声情報を、ユーザからの命名によって更新す
る。
【0055】このようにして、図2のステップST10
において、命名部60は、ユーザが命名をしなおすため
に入力した音声情報を質問としてエコーバックし、エコ
ーバックに応じて検出した外部の情報を、例えば頭を撫
でられる、或いは「よしよし」などと褒められる等の報
酬か否かを判別し、報酬と判別したならば、音声・画像
データベース部3に記憶されているデータを書き換えて
更新する。
【0056】以上のような構成により、ロボット装置1
は、音声入力部10及び画像入力部20においてなされ
る外部情報から認識情報を得て、音声・画像データベー
ス部3に記憶させる。音声発話部40により、記憶され
たデータの中からある音声情報が外部に出力される。音
声発話部40により出力された音声情報に応じて、例え
ばユーザ等により画像入力部20に外部情報としての画
像情報が入力される。ロボット装置1は、そのとき入力
された画像情報の中に、音声発話部40により出力され
たある音声情報とペアになって記憶されている画像情報
と同じ物体を認識すると、行動表出制御部50によって
駆動部6や外部出力部4を制御して、所定の感情を表出
させる動作を行う。ロボット装置1が、例えば、喜びの
感情を表出させる動作をしたとき、ユーザはその物体に
対して命名をしなおすことができる。命名は、音声入力
部10に入力される音声情報である。音声入力部10に
よってなされる音声情報の入力によって、命名部60は
質問を出力し、質問に応じて検出される外部情報から報
酬があるか否かを判別する。その判別した結果に応じ
て、報酬があると判別した場合には音声・画像データベ
ース部3を書き換える。
【0057】これにより、ロボット装置1は実環境下で
自律的に行動して収集した情報の意味を、ユーザと能動
的にインタラクションを持ちながら情報を学習し獲得す
る。例えば、ロボット装置1は、ユーザと共通の言語を
獲得することが出来るようになる。
【0058】なお、上記においては、外部情報として、
マイクにより音声情報を、カメラにより画像情報をそれ
ぞれ検出する構成としたが、それらに限られるものでは
なく、他の情報を検出して、その意味を学習しても良
い。例えば、他の情報としては、温度センサによる温
度、味センサによる味、においセンサによる臭い等の外
部情報が考えられ、それらを検出して、その意味を学習
する構成としても良いことは勿論である。
【0059】また、記憶手段として、音声・画像データ
ベース部に音声及び画像を記憶させる構成としたが、記
憶させる情報はそれらに限られるものではなく、他の情
報を記憶させても良い。例えば、外部情報としての温
度、味、におい等の検出結果を、ロボットの内部情報と
して感情、時間等を合わせて記憶させても良い。
【0060】また、外部出力として、音声発話部40に
よる音声、駆動部6による感情を表出させる動作等を出
力する構成としたが、それらに限られるものではなく、
外部に情報を出力するものであれば他の手段であっても
良い。例えば、他の手段としては、画像出力手段として
液晶ディスプレイ等が挙げられる。
【0061】また、駆動部6を制御して感情を表出させ
る動作を行わせたが、これに限られるものではなく、感
情を表出させることができる構成であれば他のものであ
っても良い。例えば、LED等をロボット装置の目を模
した配列とし、その目であるLED等を点灯させて感情
を表出させても良い。
【0062】以上、ロボット装置における本発明が適用
された部分の説明である。次に、ロボット装置の具体的
な構成について説明する。図10に、ロボット装置70
のより具体的な構成を示す。図10に示すロボット装置
70は、「犬」等の動物を模した形状のいわゆるペット
型ロボットとされ、胴体部ユニット71の前後左右にそ
れぞれ脚部ユニット73a,73b,73c,73dが
連結されると共に、胴体部ユニット71の前端部及び後
端部にそれぞれ頭部ユニット72及び尻尾部79が連結
されて構成されている。ここで、脚部ユニット73a,
73b,73c,73dは、図1に示す駆動部6を構成
している。
【0063】胴体部ユニット71には、図11に示すよ
うに、CPU81、DRAM(Dynamic Random Access
Memory)82、フラッシュROM(Read Only Memory)
83、PC(Personal Computer)カードインターフェ
ース回路84及び信号処理回路85が内部バス86を介
して相互に接続されることにより形成されたコントロー
ル部87と、このロボット装置70の動力源としてのバ
ッテリ88とが収納されている。また、胴体部ユニット
71には、ロボット装置70の向きや動きの加速度を検
出するための角速度センサ89及び加速度センサ90な
ども収納されている。
【0064】また、頭部ユニット72には、外部の状況
を撮像するためのCCDカメラ91と、使用者からの
「撫でる」や「叩く」といった物理的な働きかけにより
受けた圧力を検出するためのタッチセンサ92と、前方
に位置する物体までの距離を測定するための距離センサ
93と、外部音を集音するためのマイクロホン94と、
鳴き声等の音声を出力するためのスピーカ95と、ロボ
ット装置70の「目」に相当するLED(図示せず)と
などがそれぞれ所定位置に配置されている。
【0065】さらに、各脚部ユニット73a〜73dの
関節部分や各脚部ユニット73a〜73d及び胴体部ユ
ニット71の各連結部分、頭部ユニット72及び胴体部
ユニット71の連結部分、並びに尻尾部79の連結部分
などにはそれぞれ自由度数分のアクチュエータ96
96が配置されており、それに応じてポテンショメー
タ97〜97が配設されている。例えば、アクチュ
エータ96〜96はサーボモータを構成として有し
ている。サーボモータの駆動により、脚部ユニット73
a〜73dが制御されて、目標の姿勢或いは動作に遷移
する。
【0066】そして、これら角速度センサ89、加速度
センサ90、タッチセンサ92、距離センサ93、マイ
クロホン94、スピーカ95及び各ポテンショメータ9
〜97などの各種センサ並びにLED及び各アク
チュエータ96 〜96は、それぞれ対応するハブ
98〜98を介してコントロール部87の信号処理
回路85と接続され、CCDカメラ91及びバッテリ8
8は、それぞれ信号処理回路85と直接接続されてい
る。
【0067】信号処理回路85は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス86を介して
DRAM82内の所定位置に順次格納する。また、信号
処理回路85は、これと共にバッテリ88から供給され
るバッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM82内の所定位置に格納する。
【0068】このようにしてDRAM82に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU81がこのロボット装置7
0の動作制御を行う際に利用される。
【0069】実際上、CPU81は、ロボット装置70
の電源が投入された初期時、胴体部ユニット71の図示
しないPCカードスロットに装填されたメモリカード9
9又はフラッシュROM83に格納された制御プログラ
ムをPCカードインターフェース回路84を介して又は
直接読み出し、これをDRAM82に格納する。
【0070】また、CPU81は、この後上述のように
信号処理回路85よりDRAM82に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
【0071】さらに、CPU81は、この判断結果及び
DRAM82に格納しだ制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ96〜96を駆動させることによ
り、頭部ユニット72を上下左右に振らせたり、尻尾部
79を動かせたり、各脚部ユニット73a〜73dを駆
動させて歩行させるなどの行動を行わせる。
【0072】また、この際CPU81は、必要に応じて
音声データを生成し、これを信号処理回路85を介して
音声信号としてスピーカ95に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させたりする。
【0073】このようにしてこのロボット装置70にお
いては、自己及び周囲の状況や、使用者からの指示及び
働きかけに応じて自律的に行動し得るようになされてい
る。
【0074】そして、このようなロボット装置70にお
いて、ポテンショメータ97〜97により、対応す
る脚部ユニット73a〜73dの回転角度を検出してい
る。例えば、ロボット装置70は、このポテンショメー
タ97〜97により検出した回転角度により、CP
U81がそれに応じた次の脚部ユニット73a〜73d
の動作を決定している。すなわち例えば、CPU81
が、ポテンショメータ97〜97の出力と、目的の
関節指示値とに基づいて、脚部ユニット73a〜73d
を駆動するサーボモータをサーボ制御する。以上のよう
に、ポテンショメータ97〜97がロボット装置7
0に装着されている。
【0075】
【発明の効果】本発明に係るロボット装置は、自律的な
行動をするための移動手段と、外部情報を検出する外部
情報検出手段と、外部情報検出手段で検出した第1の情
報が記憶される記憶手段と、記憶手段に記憶された第1
の情報に対応付けて第2の情報を外部に出力する外部出
力手段と、第2の情報の出力に応じて外部情報検出手段
が検出した外部情報と、第2の情報に対応付けられた第
1の情報との比較結果に応じて、第2の情報を第2の情
報に対応付けられた第1の情報の意味として獲得する制
御手段とを備えることにより、自律的な行動をして得た
外部情報の意味を獲得することができる。
【0076】また、本発明に係る情報学習方法は、ロボ
ット装置が自律的な行動をし、外部情報を検出する外部
情報検出工程と、外部情報検出工程で検出した第1の情
報を記憶手段に記憶させる記憶工程と、記憶工程で記憶
手段に記憶させた第1の情報に対応付けて第2の情報を
外部に出力する外部出力工程と、第2の情報の出力に応
じて外部情報検出工程で検出した外部情報と、第2の情
報に対応付けられた第1の情報との比較結果に応じて、
第2の情報を第2の情報に対応付けられた第1の情報の
意味として獲得する制御工程とを有しており、この情報
学習方法により、ロボット装置は、自律的な行動をして
得た外部情報の意味を獲得することができる。
【0077】また、本発明に係るプログラムは、ロボッ
ト装置が自律的な行動をし、外部情報を検出する外部情
報検出工程と、外部情報検出工程で検出した第1の情報
を記憶手段に記憶させる記憶工程と、記憶工程で記憶手
段に記憶させた第1の情報に対応付けて第2の情報を外
部に出力する外部出力工程と、第2の情報の出力に応じ
て外部情報検出工程で検出した外部情報と、第2の情報
に対応付けられた第1の情報との比較結果に応じて、第
2の情報を第2の情報に対応付けられた第1の情報の意
味として獲得する制御工程とをロボット装置に実行させ
るものであって、このようなプログラムの実行により、
ロボット装置は、自律的な行動をして得た外部情報の意
味を獲得することができる。
【0078】また、本発明に係る記録媒体は、ロボット
装置が自律的な行動をし、外部情報を検出する外部情報
検出工程と、外部情報検出工程で検出した第1の情報を
記憶手段に記憶させる記憶工程と、記憶工程で記憶手段
に記憶させた第1の情報に対応付けて第2の情報を外部
に出力する外部出力工程と、第2の情報の出力に応じて
外部情報検出工程で検出した外部情報と、第2の情報に
対応付けられた第1の情報との比較結果に応じて、第2
の情報を第2の情報に対応付けられた第1の情報の意味
として獲得する制御工程とをロボット装置に実行させる
ためのプログラムが記録されており、この記録媒体に記
録されているプログラムの実行により、ロボット装置
は、自律的な行動をして得た外部情報の意味を獲得する
ことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態のロボット装置の要部を示
すブロック図である。
【図2】本発明の実施の形態のロボット装置の要部の動
作を示すフローチャートである。
【図3】音声入力部からの音声入力から認識結果を得る
ためのロボット装置における構成を示すブロック図であ
る。
【図4】画像入力部からの画像入力から認識結果を得る
ためのロボット装置における構成を示すブロック図であ
る。
【図5】音声・画像データベース部に記憶される認識結
果のフォーマットを示す図である。
【図6】音声合成により発話するロボット装置の音声発
話部の構成を示すブロック図である。
【図7】上述のロボット装置の行動表出制御部の動作を
説明するフローチャートである。
【図8】上述のロボット装置の命名部の動作を説明する
フローチャートである。
【図9】音声・画像データベース部に記憶される認識結
果を、新しく命名して更新した状態を説明する図であ
る。
【図10】上述のロボット装置の具体的構成を示す斜視
図である。
【図11】上述のロボット装置の回路構成等の具体例を
示すブロック図である。
【符号の説明】
1 ロボット装置、 2 外部情報検出部、 3 音声
・画像データベース、4 外部出力部、 5 制御部、
6 駆動部、 40 音声発話部、 50行動表出制
御部、 60 命名部
───────────────────────────────────────────────────── フロントページの続き (72)発明者 花形 理 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 芦田 理 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 2C150 BA11 CA01 CA02 CA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF07 EF16 EF23 EF29 EF33 3C007 AS36 CS08 KS10 KS31 KS39 KT01 KT04 LW12 MT14 WA02 WB16 WB24

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 自律的に行動しながら学習をするロボッ
    ト装置であって、 自律的な行動をするための移動手段と、 外部情報を検出する外部情報検出手段と、 上記外部情報検出手段で検出した第1の情報が記憶され
    る記憶手段と、 上記記憶手段に記憶された第1の情報に対応付けて第2
    の情報を外部に出力する外部出力手段と、 上記第2の情報の出力に応じて上記外部情報検出手段が
    検出した外部情報と上記第2の情報に対応付けられた上
    記第1の情報との比較結果に応じて、上記第2の情報を
    上記第2の情報に対応付けられた上記第1の情報の意味
    として獲得する制御手段とを備えることを特徴とするロ
    ボット装置。
  2. 【請求項2】 上記制御手段は、上記比較結果に応じて
    上記移動手段及び/又は上記外部出力手段により所定の
    動作を表出させる行動表出手段と、 上記所定の動作に応じて上記外部情報検出手段が検出し
    た外部情報に関しての質問を上記外部出力手段により出
    力させる質問手段と、 上記外部出力手段により出力された上記質問に応じて上
    記外部情報検出手段が検出した外部情報に応じ、上記所
    定の動作に応じて上記外部情報検出手段が検出した外部
    情報を、上記第1の情報の意味として獲得する命名手段
    とを備えることを特徴とする請求項1記載のロボット装
    置。
  3. 【請求項3】 上記行動表出手段が表出させる上記所定
    の動作は、感情を表出させる動作であることを特徴とす
    る請求項2記載のロボット装置。
  4. 【請求項4】 上記質問は、上記所定の動作に応じて上
    記外部情報検出手段が検出した上記外部情報の認識をし
    た結果を上記外部出力手段により出力するものであるこ
    とを特徴とする請求項2記載のロボット装置。
  5. 【請求項5】 上記外部情報検出手段で検出する上記第
    1の情報としての音声情報及び画像情報が上記記憶手段
    に記憶され、 上記外部出力手段は、上記記憶手段に記憶された画像情
    報に対応付けた音声情報を上記第2の情報として外部に
    出力し、 上記制御手段は、上記第2の情報の出力に応じて上記外
    部情報検出手段が検出した外部情報の画像情報と、上記
    第1の情報の画像情報との比較結果に応じて、上記第2
    の情報の出力に応じて上記外部情報検出手段が検出した
    外部情報を上記第1の情報の画像情報の意味として獲得
    することを特徴とする請求項1記載のロボット装置。
  6. 【請求項6】 上記外部情報検出手段は、上記外部情報
    から、音声、色、形状、触覚等の特徴量を抽出し、上記
    特徴量からデータベースを参照して音声、色、形状、触
    覚等を上記外部情報として認識することを特徴とする請
    求項1記載のロボット装置。
  7. 【請求項7】 上記外部出力手段は、上記記憶手段に記
    憶された第1の情報の入力数が所定の閾値を超えたとき
    に、上記記憶手段に記憶された第1の情報に対応付けて
    上記第2の情報を外部に出力することを特徴とする請求
    項1記載のロボット装置。
  8. 【請求項8】 ロボット装置が自律的な行動をし、外部
    情報を検出する外部情報検出工程と、 上記外部情報検出工程で検出した第1の情報を記憶手段
    に記憶させる記憶工程と、 上記記憶手段に記憶させた第1の情報に対応付けて第2
    の情報を外部に出力する外部出力工程と、 上記第2の情報の出力に応じて上記外部情報検出工程で
    検出した外部情報と上記第2の情報に対応付けられた上
    記第1の情報との比較結果に応じて、上記第2の情報を
    上記第2の情報に対応付けられた上記第1の情報の意味
    として獲得するための制御工程とを有することを特徴と
    するロボット装置による情報学習方法。
  9. 【請求項9】 ロボット装置が自律的な行動をし、外部
    情報を検出する外部情報検出工程と、 上記外部情報検出工程で検出した第1の情報を記憶手段
    に記憶させる記憶工程と、 上記記憶手段に記憶させた第1の情報に対応付けて第2
    の情報を外部に出力する外部出力工程と、 上記第2の情報の出力に応じて上記外部情報検出工程で
    検出した外部情報と上記第2の情報に対応付けられた上
    記第1の情報との比較結果に応じて、上記第2の情報を
    上記第2の情報に対応付けられた上記第1の情報の意味
    として獲得するための制御工程とをロボット装置に実行
    させるためのプログラム。
  10. 【請求項10】 ロボット装置が自律的な行動をし、外
    部情報を検出する外部情報検出工程と、 上記外部情報検出工程で検出した第1の情報を記憶手段
    に記憶させる記憶工程と、 上記記憶手段に記憶させた第1の情報に対応付けて第2
    の情報を外部に出力する外部出力工程と、 上記第2の情報の出力に応じて上記外部情報検出工程で
    検出した外部情報と上記第2の情報に対応付けられた上
    記第1の情報との比較結果に応じて、上記第2の情報を
    上記第2の情報に対応付けられた上記第1の情報の意味
    として獲得するための制御工程とをロボット装置に実行
    させるためのプログラムが記録される記録媒体。
JP2001113178A 2001-04-11 2001-04-11 ロボット装置、情報学習方法、プログラム及び記録媒体 Withdrawn JP2002307349A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001113178A JP2002307349A (ja) 2001-04-11 2001-04-11 ロボット装置、情報学習方法、プログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001113178A JP2002307349A (ja) 2001-04-11 2001-04-11 ロボット装置、情報学習方法、プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
JP2002307349A true JP2002307349A (ja) 2002-10-23

Family

ID=18964440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001113178A Withdrawn JP2002307349A (ja) 2001-04-11 2001-04-11 ロボット装置、情報学習方法、プログラム及び記録媒体

Country Status (1)

Country Link
JP (1) JP2002307349A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100752098B1 (ko) * 2006-03-07 2007-08-24 한국과학기술연구원 신경망 기반 로봇 시스템
JP2007267760A (ja) * 2006-03-30 2007-10-18 Advanced Telecommunication Research Institute International ロボット、音声変更方法及び音声変更プログラム
US8045418B2 (en) 2006-03-29 2011-10-25 Kabushiki Kaisha Toshiba Position detecting device, autonomous mobile device, method, and computer program product
US8356002B2 (en) 2007-09-04 2013-01-15 Electronics And Telecommunications Research Institute Learning apparatus and method of intelligent system
CN105690407A (zh) * 2016-04-27 2016-06-22 深圳前海勇艺达机器人有限公司 一种具备表情显示功能的智能机器人
CN107175674A (zh) * 2017-05-23 2017-09-19 上海棠棣信息科技股份有限公司 一种机器人交互方法及装置
JP2018030185A (ja) * 2016-08-23 2018-03-01 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習する機械学習器、ロボットシステムおよび機械学習方法
CN112060080A (zh) * 2020-07-31 2020-12-11 深圳市优必选科技股份有限公司 一种机器人的控制方法、装置、终端设备及存储介质

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100752098B1 (ko) * 2006-03-07 2007-08-24 한국과학기술연구원 신경망 기반 로봇 시스템
US8045418B2 (en) 2006-03-29 2011-10-25 Kabushiki Kaisha Toshiba Position detecting device, autonomous mobile device, method, and computer program product
JP2007267760A (ja) * 2006-03-30 2007-10-18 Advanced Telecommunication Research Institute International ロボット、音声変更方法及び音声変更プログラム
US8356002B2 (en) 2007-09-04 2013-01-15 Electronics And Telecommunications Research Institute Learning apparatus and method of intelligent system
CN105690407A (zh) * 2016-04-27 2016-06-22 深圳前海勇艺达机器人有限公司 一种具备表情显示功能的智能机器人
JP2018030185A (ja) * 2016-08-23 2018-03-01 ファナック株式会社 人とロボットが協働して作業を行うロボットの動作を学習する機械学習器、ロボットシステムおよび機械学習方法
US10603797B2 (en) 2016-08-23 2020-03-31 Fanuc Corporation Machine learning device, robot system, and machine learning method for learning motion of robot engaged in task performed by human and robot in cooperate with each other
CN107175674A (zh) * 2017-05-23 2017-09-19 上海棠棣信息科技股份有限公司 一种机器人交互方法及装置
CN107175674B (zh) * 2017-05-23 2020-03-31 浙江孚宝智能科技有限公司 一种机器人交互方法及装置
CN112060080A (zh) * 2020-07-31 2020-12-11 深圳市优必选科技股份有限公司 一种机器人的控制方法、装置、终端设备及存储介质

Similar Documents

Publication Publication Date Title
AU2018204246B2 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
JP4296714B2 (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
US7216082B2 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
JP4150198B2 (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
WO2002091356A1 (fr) Dispositif robot, appareil de reconnaissance de caracteres, procede de lecture de caracteres, programme de commande et support d'enregistrement
JP2002283261A (ja) ロボット装置及びその制御方法、並びに記憶媒体
JP2001188555A (ja) 情報処理装置および方法、並びに記録媒体
JP2003271174A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、制約情報生成方法及び装置、並びにロボット装置
WO2002045916A1 (fr) Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
JP2003131683A (ja) 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
WO2002080141A1 (fr) Appareil de traitement du son
JP2004090109A (ja) ロボット装置およびロボット装置の対話方法
WO2002077970A1 (en) Speech output apparatus
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
JP2019175432A (ja) 対話制御装置、対話システム、対話制御方法及びプログラム
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4587009B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001212780A (ja) 行動制御装置および行動制御方法、並びに記録媒体
JP2001154693A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP4016316B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2002268663A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2003271172A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2003044080A (ja) ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080701