JPH11175132A - ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 - Google Patents

ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体

Info

Publication number
JPH11175132A
JPH11175132A JP9363122A JP36312297A JPH11175132A JP H11175132 A JPH11175132 A JP H11175132A JP 9363122 A JP9363122 A JP 9363122A JP 36312297 A JP36312297 A JP 36312297A JP H11175132 A JPH11175132 A JP H11175132A
Authority
JP
Japan
Prior art keywords
robot
mapping function
knowledge
learning
input information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9363122A
Other languages
English (en)
Other versions
JP3211186B2 (ja
Inventor
Hirohide Ushida
牛田  博英
Yuji Hirayama
裕司 平山
Hiroshi Nakajima
宏 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP36312297A priority Critical patent/JP3211186B2/ja
Publication of JPH11175132A publication Critical patent/JPH11175132A/ja
Application granted granted Critical
Publication of JP3211186B2 publication Critical patent/JP3211186B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 動物を調教するような身振りや音声を用いた
調教の楽しみを疑似的に体験し得るロボット、ロボット
システム、ロボットの学習方法、ロボットシステムの学
習方法および記録媒体を提供する。 【解決手段】 認識手段202によりユーザ指示または
ユーザ評価の種別を認識し、また特徴量抽出手段204
により、ユーザ入力から身振りまたは音声等に関する特
徴量を抽出し、写像関数データベース205には特徴量
を出力すべき動作に変換する知識または写像関数を保持
し、学習手段203により、知識または写像関数を、出
力動作についてユーザが判断する「正解」または「不正
解」によって与えられるユーザ評価に基づき学習して、
さらに写像手段206により、1の知識または写像関数
を選択し、該知識または写像関数を用いて特徴量を動作
命令に変換して、動作出力手段207から動作を出力す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット、ロボッ
トシステム、ロボットの学習方法、ロボットシステムの
学習方法および記録媒体に係り、特に、動物を調教する
ような身振りや音声を用いた調教の楽しみを疑似的に体
験し得るロボット、ロボットシステム、ロボットの学習
方法、ロボットシステムの学習方法および記録媒体に関
する。
【0002】
【従来の技術】人間が動物を調教する場合、例えば、犬
に「お座り」や「お手」を教えるなどの場合には、身振
りや音声を用いて調教する。また、飼い主とペットとの
コミュニケーションにおいては、最初からコミュニケー
ションのルールが決まっているのではなく、飼い主とペ
ットの間でインタラクションを繰り返している間に、独
自のコミュニケーションルールが形成されてくる。この
独自のコミュニケーションルールの形成が飼い主にとっ
てペットを飼育することの大きな魅力の1つとなってい
る。さらに、コミュニケーションルールの形成結果だけ
でなく、形成過程についても飼い主にとっての楽しみと
なる。すなわち、1回の教示だけでペットが学習を完了
してしまうと教え甲斐がなく、何度か間違えながら学習
し上達していくペットの成長過程に関与することが飼い
主にとって喜びとなる。
【0003】
【発明が解決しようとする課題】これに対して、機械学
習に関する従来技術として、ニューラルネットワークを
用いる方法がある。しかし、このニューラルネットワー
クの学習では、教師信号(正解)が必要である。一般
に、調教においては、飼い主がペットに手本を示すよう
なことは行わず、ペットの動作が正解か否かだけを教え
るため、ニューラルネットワーク学習は問題を解決でき
ない。
【0004】また、教師信号を必要としない学習方法と
して、最適化手法の一種である遺伝的アルゴリズムがあ
る。この遺伝的アルゴリズムは、問題解決のための知識
を生物の遺伝子を模擬した個体で表現する。複数の個体
を用意しておき、各個体に問題を与えると個体ごとに出
力が得られるので、それぞれの出力を評価し、該評価に
よって個体を淘汰していくうちに最適な個体だけが残る
仕組みである。しかし、従来の遺伝的アルゴリズムで
は、評価基準を予め機械に与えておき、以後は評価が自
動的に行われるような仕組みになっており、ペットの調
教のように人間とペットが対話しながら評価する手法と
して、この従来の遺伝的アルゴリズムをそのまま適用す
ることはできない。
【0005】これに対して、人間が固体に対して主観的
評価を与えることができる対話型遺伝的アルゴリズムが
提案されている。この対話型遺伝的アルゴリズムでは、
例えば、似顔絵を自動作成する装置に応用した場合、そ
れぞれの個体が生成した結果(似顔絵画像)をコンピュ
ータ画面に一覧表示させるなどして、同時に複数の個体
をインタラクティブに評価できるような工夫がなされて
いる。しかし、ロボットの調教の場合は、1台のロボッ
トが複数の個体から得られる結果を同時に出力すること
はできない。また、1台のロボットが連続的に順番に結
果を出力する方法も考えられるが、これでは現実の調教
の手順とは全く異なるという点で問題がある。
【0006】この発明は、このような従来の事情に鑑み
てなされたもので、その目的とするところは、身振りや
音声によるユーザの入力とロボット動作出力との関係を
自動的に学習する方法として、1つの動作を評価するだ
けで複数の知識を修正する方法を繰り返し用いることに
より、動物を調教するような身振りや音声を用いた調教
の楽しみを疑似的に体験し得るロボット、ロボットシス
テム、ロボットの学習方法、ロボットシステムの学習方
法および記録媒体を提供することにある。
【0007】
【課題を解決するための手段】上記課題を解決するため
に、本出願の請求項1に記載の発明は、入力情報として
少なくとも画像情報または音声情報を取得する入力手段
と、動作を出力する動作出力手段と、前記入力手段によ
り取得した入力情報を前記動作出力手段によって出力す
べき動作に変換する知識または写像関数を保持する記憶
手段と、前記記憶手段に保持されている知識または写像
関数を、前記入力情報を介して与えられるユーザ評価に
基づき学習する学習手段と、前記記憶手段から1の知識
または写像関数を選択し、該知識または写像関数を用い
て前記入力情報を前記動作に変換する変換手段とを具備
することを特徴とするロボットにある。
【0008】また、本出願の請求項2に記載の発明は、
入力情報として少なくとも画像情報または音声情報を取
得する入力手段と、前記入力情報についてユーザ指示ま
たはユーザ評価の種別を認識する認識手段と、前記入力
情報から特徴量を抽出する特徴量抽出手段と、動作を出
力する動作出力手段と、前記入力情報のユーザ指示に基
づく特徴量を前記動作出力手段によって出力すべき動作
に変換する知識または写像関数を保持する記憶手段と、
前記記憶手段に保持されている知識または写像関数を、
前記ユーザ評価に基づき学習する学習手段と、前記記憶
手段から1の知識または写像関数を選択し、該知識また
は写像関数を用いて前記ユーザ指示に基づく特徴量を前
記動作に変換する変換手段とを具備することを特徴とす
るロボットにある。
【0009】また、本出願の請求項3に記載の発明は、
他のロボットとデータを送受信する通信手段を有し、前
記学習手段により学習した知識または写像関数を、前記
通信手段を介して他のロボットと送受信することを特徴
とする請求項1または2に記載のロボットにある。
【0010】また、本出願の請求項4に記載の発明は、
前記入力情報は、身振り、手振り、頭部動作、表情また
は音声の少なくとも1つで表現されることを特徴とする
請求項1、2または3に記載のロボットにある。
【0011】また、本出願の請求項5に記載の発明は、
前記入力手段は、ユーザが与える物理量を触覚情報とし
てセンシングする検知手段を有し、前記入力情報は、身
振り、手振り、頭部動作、表情、音声または触覚の少な
くとも1つで表現されることを特徴とする請求項1、2
または3に記載のロボットにある。
【0012】また、本出願の請求項6に記載の発明は、
前記特徴量抽出手段は、前記入力情報から、身振り、手
振り、頭部動作、表情または音声の少なくとも1つ以上
に関する特徴量を抽出することを特徴とする請求項2、
3、4または5に記載のロボットにある。
【0013】また、本出願の請求項7に記載の発明は、
前記ユーザ評価は、前記動作出力手段から出力される動
作についてユーザが判断する「正解」または「不正解」
によって与えられ、前記認識手段は、前記入力情報が前
記ユーザ評価である場合に、前記正解または前記不正解
を認識し、前記学習手段は、前記動作出力手段から出力
した動作に変換した知識または写像関数を、前記ユーザ
評価の正解または不正解に基づいて学習することを特徴
とする請求項2、3、4、5または6に記載のロボット
にある。
【0014】また、本出願の請求項8に記載の発明は、
前記正解または前記不正解は、身振り、手振り、頭部動
作、表情、音声または触覚の少なくとも1つで表現され
ることを特徴とする請求項7に記載のロボットにある。
【0015】また、本出願の請求項9に記載の発明は、
前記動作出力手段は、前記動作を視覚的に表示出力する
表示出力手段であることを特徴とする請求項1、2、
3、4、5、6、7または8に記載のロボットにある。
【0016】また、本出願の請求項10に記載の発明
は、複数のロボットと、情報処理装置と、を具備するロ
ボットシステムであって、前記ロボットは、入力情報と
して少なくとも画像情報または音声情報を取得する入力
手段と、動作を出力する動作出力手段と、前記入力手段
により取得した入力情報を前記動作出力手段によって出
力すべき動作に変換する知識または写像関数を保持する
記憶手段と、前記記憶手段から1の知識または写像関数
を選択し、該知識または写像関数を用いて前記入力情報
を前記動作に変換する変換手段と、前記情報処理装置と
データを送受信する通信手段とを有し、前記情報処理装
置は、前記ロボットとデータを送受信する通信手段と、
一のロボットにおいて前記記憶手段に保持されている知
識または写像関数を前記入力情報を介して与えられるユ
ーザ評価に基づき学習し、学習後の知識または写像関数
を前記通信手段を介して全てまたは一部のロボットに送
信する学習手段とを有することを特徴とするロボットシ
ステムにある。
【0017】また、本出願の請求項11に記載の発明
は、複数のロボットと、情報処理装置と、を具備するロ
ボットシステムであって、前記ロボットは、入力情報と
して少なくとも画像情報または音声情報を取得する入力
手段と、前記入力情報についてユーザ指示またはユーザ
評価の種別を認識する認識手段と、前記入力情報から特
徴量を抽出する特徴量抽出手段と、動作を出力する動作
出力手段と、前記入力情報のユーザ指示に基づく特徴量
を前記動作出力手段によって出力すべき動作に変換する
知識または写像関数を保持する記憶手段と、前記記憶手
段から1の知識または写像関数を選択し、該知識または
写像関数を用いて前記ユーザ指示に基づく特徴量を前記
動作に変換する変換手段と、前記情報処理装置とデータ
を送受信する通信手段とを有し、前記情報処理装置は、
前記ロボットとデータを送受信する通信手段と、一のロ
ボットにおいて前記記憶手段に保持されている知識また
は写像関数を前記入力情報を介して与えられるユーザ評
価に基づき学習し、学習後の知識または写像関数を前記
通信手段を介して全てまたは一部のロボットに送信する
学習手段とを有することを特徴とするロボットシステム
にある。
【0018】また、本出願の請求項12に記載の発明
は、前記入力情報は、身振り、手振り、頭部動作、表情
または音声の少なくとも1つで表現されることを特徴と
する請求項10または11に記載のロボットシステムに
ある。
【0019】また、本出願の請求項13に記載の発明
は、前記入力手段は、ユーザが与える物理量を触覚情報
としてセンシングする検知手段を有し、前記入力情報
は、身振り、手振り、頭部動作、表情、音声または触覚
の少なくとも1つで表現されることを特徴とする請求項
10または11に記載のロボットシステムにある。
【0020】また、本出願の請求項14に記載の発明
は、前記特徴量抽出手段は、前記入力情報から、身振
り、手振り、頭部動作、表情または音声の少なくとも1
つ以上に関する特徴量を抽出することを特徴とする請求
項11、12または13に記載のロボットシステムにあ
る。
【0021】また、本出願の請求項15に記載の発明
は、前記ユーザ評価は、前記動作出力手段から出力され
る動作についてユーザが判断する「正解」または「不正
解」によって与えられ、前記認識手段は、前記入力情報
が前記ユーザ評価である場合に、前記正解または前記不
正解を認識し、前記学習手段は、前記動作出力手段から
出力した動作に変換した知識または写像関数を、前記ユ
ーザ評価の正解または不正解に基づいて学習することを
特徴とする請求項11、12、13または14に記載の
ロボットシステムにある。
【0022】また、本出願の請求項16に記載の発明
は、前記正解または前記不正解は、身振り、手振り、頭
部動作、表情、音声または触覚の少なくとも1つで表現
されることを特徴とする請求項15に記載のロボットシ
ステムにある。
【0023】また、本出願の請求項17に記載の発明
は、前記動作出力手段は、前記動作を視覚的に表示出力
する表示出力手段であることを特徴とする請求項10、
11、12、13、14、15または16に記載のロボ
ットシステムにある。
【0024】また、本出願の請求項18に記載の発明
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段と
を備えたロボットの学習方法であって、前記入力手段に
より取得した入力情報を前記動作出力手段によって出力
すべき動作に変換する知識または写像関数を保持する記
憶ステップと、前記保持されている知識または写像関数
を、前記入力情報を介して与えられるユーザ評価に基づ
き学習する学習ステップと、1の知識または写像関数を
選択し、該知識または写像関数を用いて前記入力情報を
前記動作に変換する変換ステップとを具備することを特
徴とするロボットの学習方法にある。
【0025】また、本出願の請求項19に記載の発明
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段と
を備えたロボットの学習方法であって、前記入力情報に
ついてユーザ指示またはユーザ評価の種別を認識する認
識ステップと、前記入力情報から特徴量を抽出する特徴
量抽出ステップと、前記入力情報のユーザ指示に基づく
特徴量を前記動作出力手段によって出力すべき動作に変
換する知識または写像関数を保持する記憶ステップと、
前記保持されている知識または写像関数を、前記ユーザ
評価に基づき学習する学習ステップと、1の知識または
写像関数を選択し、該知識または写像関数を用いて前記
ユーザ指示に基づく特徴量を前記動作に変換する変換ス
テップとを具備することを特徴とするロボットの学習方
法にある。
【0026】また、本出願の請求項20に記載の発明
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段
と、他のロボットとデータを送受信する通信手段と、を
備えたロボットの学習方法であって、前記学習ステップ
により学習した知識または写像関数を、前記通信手段を
介して他のロボットと送受信する送受信ステップを具備
することを特徴とする請求項18または19に記載のロ
ボットの学習方法にある。
【0027】また、本出願の請求項21に記載の発明
は、前記入力情報は、身振り、手振り、頭部動作、表情
または音声の少なくとも1つで表現されることを特徴と
する請求項18、19または20に記載のロボットの学
習方法にある。
【0028】また、本出願の請求項22に記載の発明
は、前記入力手段は、ユーザが与える物理量を触覚情報
としてセンシングする検知手段を有し、前記入力情報
は、身振り、手振り、頭部動作、表情、音声または触覚
の少なくとも1つで表現されることを特徴とする請求項
18、19または20に記載のロボットの学習方法にあ
る。 また、本出願の請求項23に記載の発明は、前記
特徴量抽出ステップは、前記入力情報から、身振り、手
振り、頭部動作、表情または音声の少なくとも1つ以上
に関する特徴量を抽出することを特徴とする請求項1
9、20、21または22に記載のロボットの学習方法
にある。
【0029】また、本出願の請求項24に記載の発明
は、前記ユーザ評価は、前記動作出力手段から出力され
る動作についてユーザが判断する「正解」または「不正
解」によって与えられ、前記認識ステップは、前記入力
情報が前記ユーザ評価である場合に、前記正解または前
記不正解を認識し、前記学習ステップは、前記動作出力
手段から出力した動作に変換した知識または写像関数
を、前記ユーザ評価の正解または不正解に基づいて学習
することを特徴とする請求項19、20、21、22ま
たは23に記載のロボットの学習方法にある。
【0030】また、本出願の請求項25に記載の発明
は、前記正解または前記不正解は、身振り、手振り、頭
部動作、表情、音声または触覚の少なくとも1つで表現
されることを特徴とする請求項24に記載のロボットの
学習方法にある。
【0031】また、本出願の請求項26に記載の発明
は、前記動作出力手段は、前記動作を視覚的に表示出力
する表示出力手段であることを特徴とする請求項18、
19、20、21、22、23、24または25に記載
のロボットの学習方法にある。
【0032】また、本出願の請求項27に記載の発明
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段
と、データを送受信する通信手段とを備えた複数のロボ
ットと、前記ロボットとデータを送受信する通信手段を
備えた情報処理装置とを具備するロボットシステムの学
習方法であって、各ロボットにおいて、前記入力手段に
より取得した入力情報を前記動作出力手段によって出力
すべき動作に変換する知識または写像関数を保持する記
憶ステップと、各ロボットにおいて、1の知識または写
像関数を選択し、該知識または写像関数を用いて前記入
力情報を前記動作に変換する変換ステップと、前記情報
処理装置において、一のロボットが保持する知識または
写像関数を前記入力情報を介して与えられるユーザ評価
に基づき学習し、学習後の知識または写像関数を前記通
信手段を介して全てまたは一部のロボットに送信する学
習ステップとを具備することを特徴とするロボットシス
テムの学習方法にある。
【0033】また、本出願の請求項28に記載の発明
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段
と、データを送受信する通信手段とを備えた複数のロボ
ットと、前記ロボットとデータを送受信する通信手段を
備えた情報処理装置とを具備するロボットシステムの学
習方法であって、各ロボットにおいて、前記入力情報に
ついてユーザ指示またはユーザ評価の種別を認識する認
識ステップと、各ロボットにおいて、前記入力情報から
特徴量を抽出する特徴量抽出ステップと、各ロボットに
おいて、前記入力情報のユーザ指示に基づく特徴量を前
記動作出力手段によって出力すべき動作に変換する知識
または写像関数を保持する記憶ステップと、各ロボット
において、1の知識または写像関数を選択し、該知識ま
たは写像関数を用いて前記ユーザ指示に基づく特徴量を
前記動作に変換する変換ステップと、前記情報処理装置
において、一のロボットが保持する知識または写像関数
を前記入力情報を介して与えられるユーザ評価に基づき
学習し、学習後の知識または写像関数を前記通信手段を
介して全てまたは一部のロボットに送信する学習ステッ
プとを具備することを特徴とするロボットシステムの学
習方法にある。
【0034】また、本出願の請求項29に記載の発明
は、前記入力情報は、身振り、手振り、頭部動作、表情
または音声の少なくとも1つで表現されることを特徴と
する請求項27または28に記載のロボットシステムの
学習方法にある。
【0035】また、本出願の請求項30に記載の発明
は、前記入力手段は、ユーザが与える物理量を触覚情報
としてセンシングする検知手段を有し、前記入力情報
は、身振り、手振り、頭部動作、表情、音声または触覚
の少なくとも1つで表現されることを特徴とする請求項
27または28に記載のロボットシステムの学習方法に
ある。
【0036】また、本出願の請求項31に記載の発明
は、前記特徴量抽出ステップは、前記入力情報から、身
振り、手振り、頭部動作、表情または音声の少なくとも
1つ以上に関する特徴量を抽出することを特徴とする請
求項28、29または30に記載のロボットシステムの
学習方法にある。
【0037】また、本出願の請求項32に記載の発明
は、前記ユーザ評価は、前記動作出力手段から出力され
る動作についてユーザが判断する「正解」または「不正
解」によって与えられ、前記認識ステップは、前記入力
情報が前記ユーザ評価である場合に、前記正解または前
記不正解を認識し、前記学習ステップは、前記動作出力
手段から出力した動作に変換した知識または写像関数
を、前記ユーザ評価の正解または不正解に基づいて学習
することを特徴とする請求項28、29、30または2
1に記載のロボットシステムの学習方法にある。
【0038】また、本出願の請求項33に記載の発明
は、前記正解または前記不正解は、身振り、手振り、頭
部動作、表情、音声または触覚の少なくとも1つで表現
されることを特徴とする請求項32に記載のロボットシ
ステムの学習方法にある。
【0039】また、本出願の請求項34に記載の発明
は、前記動作出力手段は、前記動作を視覚的に表示出力
する表示出力手段であることを特徴とする請求項27、
28、29、30、31、32または33に記載のロボ
ットシステムの学習方法にある。
【0040】また、本出願の請求項35に記載の発明
は、請求項18、19、20、21、22、23、2
4、25または26に記載のロボットの学習方法をコン
ピュータに実行させるためのプログラムとして記憶した
コンピュータにより読み取り可能な記録媒体にある。
【0041】さらに、本出願の請求項36に記載の発明
は、請求項27、28、29、30、31、32、33
または34に記載のロボットシステムの学習方法をコン
ピュータに実行させるためのプログラムとして記憶した
コンピュータにより読み取り可能な記録媒体にある。
【0042】そして、この請求項1、2、3、4、5、
6、7、8、9、18、19、20、21、22、2
3、24、25、26、35に記載の発明によれば、認
識手段(認識ステップ)により、身振り、手振り、頭部
動作、表情、音声または触覚の少なくとも1つで表現さ
れる入力情報についてユーザ指示またはユーザ評価の種
別を認識し、また特徴量抽出手段(特徴量抽出ステッ
プ)により、入力情報から身振り、手振り、頭部動作、
表情または音声の少なくとも1つ以上に関する特徴量を
抽出し、記憶ステップにより記憶手段に、入力情報のユ
ーザ指示に基づく特徴量を動作出力手段によって出力す
べき動作に変換する知識または写像関数を保持し、学習
手段(学習ステップ)では、記憶手段に保持されている
知識または写像関数を、出力動作についてユーザが判断
する「正解」または「不正解」によって与えられるユー
ザ評価に基づき学習して、さらに変換手段(変換ステッ
プ)により、記憶手段から1の知識または写像関数を選
択し、該知識または写像関数を用いてユーザ指示に基づ
く特徴量を動作に変換する。
【0043】これにより、ユーザからの指示に従うよう
にロボットを学習させることができ、また、ユーザ入力
として身振りや音声等を用いるので機械操作に不慣れな
ユーザでも簡単にロボットを学習(訓練)させることが
でき、さらに、玩具等に応用した場合には、1つの動作
を評価するだけで複数の知識等を学習する方法を繰り返
し用いることにより、ユーザは動物を調教するような身
振りや音声を用いた調教の楽しみを疑似的に体験するこ
とができる。
【0044】また特に、請求項3または20に記載の発
明によれば、学習手段(学習ステップ)により学習した
知識または写像関数を、送受信ステップで、通信手段を
介して他のロボットと送受信するので、複数のロボット
間で、1台のロボットに対する調教結果を他のロボット
にも反映させることができ、効率的な学習を行うことが
できる。
【0045】また、請求項10、11、12、13、1
4、15、16、17、27、28、29、30、3
1、32、33、34、36に記載の発明によれば、各
ロボットにおいて、認識手段(認識ステップ)により、
身振り、手振り、頭部動作、表情、音声または触覚の少
なくとも1つで表現される入力情報についてユーザ指示
またはユーザ評価の種別を認識し、また特徴量抽出手段
(特徴量抽出ステップ)により、入力情報から身振り、
手振り、頭部動作、表情または音声の少なくとも1つ以
上に関する特徴量を抽出し、記憶ステップにより記憶手
段に、入力情報のユーザ指示に基づく特徴量を動作出力
手段によって出力すべき動作に変換する知識または写像
関数を保持し、さらに変換手段(変換ステップ)によ
り、記憶手段から1の知識または写像関数を選択し、該
知識または写像関数を用いてユーザ指示に基づく特徴量
を動作に変換する。また一方、情報処理装置側では、学
習手段(学習ステップ)により、記憶手段に保持されて
いる知識または写像関数を、出力動作についてユーザが
判断する「正解」または「不正解」によって与えられる
ユーザ評価に基づき学習し、学習後の知識または写像関
数を通信手段を介して全てまたは一部のロボットに送信
する。
【0046】これにより、ユーザからの指示に従うよう
にロボットを学習させることができ、また、ユーザ入力
として身振りや音声等を用いるので機械操作に不慣れな
ユーザでも簡単にロボットを学習(訓練)させることが
でき、玩具等に応用した場合には、1つの動作を評価す
るだけで複数の知識等を学習する方法を繰り返し用いる
ことにより、ユーザは動物を調教するような身振りや音
声を用いた調教の楽しみを疑似的に体験することがで
き、さらに、学習を情報処理装置側に任せてロボットに
は学習結果のみ保持するので、ロボット単体のコストを
下げることができると共に、複数ロボット間の学習を効
率的に行うことができる。
【0047】
【発明の実施の形態】以下、本発明のロボットおよびロ
ボットの学習方法の実施の形態について、〔第1の実施
形態〕、〔第2の実施形態〕、〔第3の実施形態〕の順
に図面を参照して詳細に説明する。
【0048】〔第1の実施形態〕まず図1は、本発明の
ロボットおよびロボットの学習方法における基本動作原
理を概念的に説明する説明図である。
【0049】図1において、まず、人間(ユーザ)はロ
ボット101に何かを動作させたい場合に、ロボットに
対して指示(A)を与える。例えば、指示(A)の与え
方として「身振り」や「音声」がある。
【0050】一方、ロボット101は、身振りまたは音
声の特徴量を動作命令へ変換する写像関数を持ってい
る。つまり、複数の写像関数がデータベースとして記憶
されており、指示(A)が入力されると、ロボット10
1は、データベースから1つの写像関数をランダムに選
択する。さらに、ロボット101は、選択された写像関
数を用いて認識結果を動作命令へ変換し、該動作命令に
相当する動作を出力(B)する。
【0051】人間(ユーザ)は、そのようなロボット1
01の動作出力(B)を観察(C)する。人間は、該観
察(C)に基づいて、ロボット101の動作出力(B)
を評価(D)する。すなわち、動作出力(B)が人間の
意図と異なれば「ノー」の評価結果を、また人間の意図
と一致すれば「イエス」の評価結果をロボット101に
与える。
【0052】一方、ロボット101側では、評価結果を
受けて、評価結果がイエスとされた写像関数を残し、評
価結果がノーの写像関数が削除されるように、写像関数
のデータベースを修正(E)する。また、評価結果がイ
エスの場合には、他の写像関数がイエスの写像関数に近
づくように修正する。
【0053】次に、図2は本発明の第1の実施形態に係
るロボット101の構成図である。図2において、本実
施形態のロボット101は、入力手段201、認識手段
202、学習手段203、特徴量抽出手段204、写像
関数データベース205、写像手段206および動作出
力手段207を備えて構成されている。
【0054】以下、本実施形態のロボット101を構成
する各構成要素の機能および動作について、詳細に説明
する。
【0055】まず、入力手段201は、ユーザからの指
示または評価結果を入力するための装置であり、例え
ば、身振り(画像)を取り込むCCDカメラ、音声を入
力するマイクロフォン、叩く動作や撫でる動作による振
動を感知する振動センサ、或いは、押しボタン等があ
る。
【0056】次に、認識手段202は、入力手段201
から送出される画像または音声等の入力データに、「イ
エス」または「ノー」を示す入力が含まれているか否か
を認識し、含まれていればこの「イエス/ノー」を学習
手段203に出力し、含まれていなければ「イエス/ノ
ー」以外の入力である旨の信号を特徴量抽出手段204
へ出力する。また、入力手段201から送出されるデー
タが振動センサによるものの場合には、振動データから
「撫でている/叩いている」を識別する。すなわち、認
識手段202内には、身振り(画像)データを認識する
身振り認識手段、音声データを認識する音声認識手段、
および、振動データを認識する振動認識手段を備えた構
成となっている。以下では、身振り認識手段、音声認識
手段および振動認識手段それぞれの具体的動作について
説明する。
【0057】まず、身振り認識手段では、ユーザの評価
結果として、入力手段201から身振り(画像)データ
が送出された場合に動作する。すなわち、CCDカメラ
から入力される動画像に含まれるユーザの身振りを認識
する。
【0058】このような人間の身振り手振りを認識する
技術は、柔軟なマンマシンインタフェースを構築する目
的で開発されてきており、古くは動作者にデータグロー
ブ等の接触型センサやマーカーを装着させて認識を行う
ものから、そのような装着を不要とするものまで種々の
認識技術が提案されている。例えば、最近の論文とし
て、西村拓一,向井理朗,野崎俊輔,岡隆一,”低解像
度特徴を用いたジェスチャの単一動画像からのスポッテ
ィング認識”,電子情報通信学会論文誌,D−II,Vol.
J80-D-II,No.6,pp.1563-1570,1997.には、センサ等
の装着なしに、人間の身振りや手振りをとらえた動画像
からのジェスチャ認識を、衣服・背景の変化や動作の軌
跡変動に影響されることなく行うものが提案されてい
る。このような身振り手振り認識技術を用いて身振り認
識手段は実現される。これにより、身振り認識手段にお
いて、例えば、両手を上げた場合は「イエス」、片手を
上げた場合は「ノー」といった身振り認識が可能であ
る。
【0059】次に、音声認識手段では、ユーザの評価結
果として、入力手段201から音声データが送出された
場合に動作する。すなわち、マイクロフォンから入力さ
れる音声に含まれるユーザの「イエス/ノー」の音声を
認識する。
【0060】さらに、振動認識手段では、ユーザの評価
結果として、入力手段201から振動データが送出され
た場合に動作する。すなわち、振動センサから入力され
る振動データからユーザがロボット101を「撫でてい
る/叩いている」を識別して、ユーザの評価を認識す
る。例えば、撫でている場合は「イエス」、叩いている
場合は「ノー」と判断する。
【0061】より具体的に、認識は以下のようにして行
う。すなわち、撫でている場合において振動の大きさは
比較的小さく、何回も繰り返し撫でることから単位時間
当たりの振動回数が多くなる。また一方、叩く場合にお
いては、振動は比較的大きく振動回数は少ない。このよ
うな性質を利用して、振動の大きさおよび振動回数に基
づいて、「撫でている/叩いている」の認識を行う。例
えば、図3(a)および(b)に示すように、ファジイ
変数として「振動の回数」および「振動の強さ」につい
てのメンバシップ関数を用意し、図3(c)に示すよう
な、これらファジイ変数を用いた「振動を認識するファ
ジイ推論規則」に基づいて、「撫でる/叩く」すなわち
「イエス/ノー」の認識を行う。
【0062】次に、特徴量抽出手段204は、入力手段
201から送出される画像または音声等のデータについ
て特徴量を抽出して出力する。この特徴量抽出手段20
4の出力は、図4に示すような、複数の特徴量(特徴量
1〜特徴量K)から構成される配列データ、すなわち特
徴量ベクトルとなる。また、特徴量抽出手段204内に
は、身振り(画像)データについて特徴量を抽出をする
身振り特徴量抽出手段、および、音声データについて特
徴量を抽出する音声特徴量抽出手段を備えた構成となっ
ている。以下では、身振り特徴量抽出手段および音声特
徴量抽出手段それぞれの具体的動作について説明する。
【0063】まず、身振り特徴量抽出手段では、ユーザ
の指示が身振りである場合に画像データから身振りの特
徴量を抽出する。まず、認識手段202から身振りが
「イエス/ノー」以外の身振りであるという旨の信号を
受け取ると、その身振り(画像)データから身振り特徴
量の抽出を開始する。身振り特徴量を抽出する手順は、
以下の通りである。
【0064】まず、画像データの1フレーム毎に両手と
顔の肌色領域を抽出する。そして次に、これら肌色領域
の重心を求める。さらに、連続するフレームについて重
心を求め、該重心座標値をプロットしていくと重心の軌
跡が求まる。身振り動作時においては、手の動く方向が
変化する時に、重心の軌跡にも変曲点が出現することか
ら、隣接するフレーム間の重心のXY座標値の差分よ
り、重心が変化する方向を、水平方向をX座標、垂直方
向をY座標として求める。具体的には、「tanθ=X
座標値差分/Y座標値差分」として、θの値を求め、該
θがしきい値以上変化した場合に変曲点とみなす。この
ようにして求められた変曲点の時系列パターンを身振り
特徴量として用いることができる。例えば、i番目の変
曲点の方向をθiとして、(θ1,θ2,θ3,θ4,θ5)
を特徴量ベクトルとする。
【0065】次に、音声特徴量抽出手段では、ユーザか
らの指示が音声で与えられた場合に音声データから音声
の特徴量を抽出する。まず、認識手段202から音声が
「イエス/ノー」以外の音声であるという旨の信号を受
け取ると、その音声データから音声特徴量の抽出を開始
する。
【0066】音声特徴量は、良く知られた線形予測分析
によって求められるLPCケプストラム係数を用いるこ
とができる。例えば、20次の線形予測分析を行った場
合の出力は、20個の特徴量から構成される特徴量ベク
トル(図4参照)となる。尚、線形予測分析等について
は、中川聖一,鹿野清宏,東倉洋一著による「ニューロ
サイエンス&テクノロジーシリーズ;音声・聴覚と神経
回路網モデル」(1990年,オーム社発行)に詳し
い。
【0067】次に、写像手段206は、後述する複数の
写像関数を記憶した写像関数データベース205から1
個の写像関数をランダムに選択し、その写像関数を用い
て、特徴量抽出手段204から受け取る特徴量ベクトル
を動作出力手段207に出力すべき動作命令に変換す
る。この動作命令は、図5に示すような、複数の動作
(動作1〜動作L)から構成される配列データとなる。
【0068】写像関数の例として、ここでは図6に示す
ような階層型ニューラルネットワークを使用する。階層
型ニューラルネットワークは、入力層、隠れ層(中間
層)および出力層を備え、各層は複数個のユニットを備
える。入力層に与えた信号(ここでは、特徴量1〜特徴
量K)が結合の重みによって変換されながら出力層のユ
ニットの値(ここでは、動作1〜動作L)として出力さ
れる前向きの信号伝搬を行う。すなわち、1つの写像関
数に対して1つのニューラルネットワークが割り当てら
れ、ニューラルネットワークにおける入力層の各ユニッ
トに特徴量が割り当てられ、出力層の各ユニットに動作
命令が割り当てられる。特徴量ベクトルが入力されてニ
ューラルネットワークの計算処理が行われたときに、出
力層で最大値を持つユニットの動作命令が写像手段20
6の出力となる。
【0069】ニューラルネットワークにおいて、「ユニ
ット間の結合重み値」と「ユニットのしきい値」を関数
パラメータと呼ぶことにする。初期設定として、関数パ
ラメータが異なるように設定しておくことで、複数の異
なる写像関数を作ることができる。また、写像関数とし
て、次式(数1)のような重み付き線形和を用いること
もできる。すなわち、
【数1】 yi=Σwij・xj (数1) ここで、i=1〜L,j=1〜Kで、 L:特徴量の数、 K:動作命令の数、 yi:i番目の動作命令の値、 wij:j番目の特徴量のi番目の動作命令に対する係
数、 xj:j番目の特徴量。 この場合、wijが関数パラメータとなる。上記線形式の
うち、最大値となる線形式に割り当てられた動作命令が
写像手段206から出力される。
【0070】次に、写像関数データベース205では、
写像手段206で用いられる写像関数を記憶する。写像
関数全体を記憶しておくこともできるが、関数パラメー
タのみを記憶しておくこともできる。図7に写像関数デ
ータベース206内に記憶される写像関数の関数パラメ
ータの例を示す。
【0071】次に、学習手段203では、写像関数デー
タベース205の写像関数を学習によって修正する。こ
の修正により、ユーザにとって望ましい動作出力が得ら
れるようになる。本実施形態では、学習の手法として
は、遺伝的アルゴリズムを使用する。
【0072】ここで、遺伝子アルゴリズムで使用される
語について説明をしておく。「遺伝子(gene)」は個体
の性質を規定する基本的構成要素であり、「染色体(ch
romosome)」は遺伝子の集合体である。また「個体(in
dividual)」は染色体によって特徴づけられた自律的な
個であり、「集団(population)」は個体の集まりであ
る。また「遺伝子型(genotype)」は特徴量と特徴量の
マッピングの表現方法であり、一般的には”0”と”
1”のビット列を用いるが、ここでは実数値を用いる。
また「遺伝子座(locus)」は染色体上の遺伝子の位置
を意味する。さらに「表現型(phenotype)」は染色体
によって規定される形質の外部的表現であり、遺伝子型
は形質の染色体による内部表現である。表現型から遺伝
子型への写像を「コード化(coding)」と呼び、遺伝子
型から表現型への写像を「デコード化(decoding)」と
いう。尚、多くの探索問題において、表現型=遺伝子型
とすれば十分であることが経験的に知られている。
【0073】図8に示すように、本実施形態では、個体
を1つの写像関数とし、集団を全ての写像関数の集まり
(個体数がP個の集団を仮定)としている。また、染色
体は写像関数パラメータの配列であり、遺伝子は1つの
写像関数パラメータである。
【0074】次に、遺伝的アルゴリズムによる学習処理
の流れについて図9のフローチャートを参照しながら説
明する。尚、従来の遺伝子アルゴリズムにおいては、1
回毎に全ての個体を評価するが、本実施形態の遺伝子ア
ルゴリズムでは、1回に選択される個体は1個だけであ
る。また、評価は「イエス/ノー」の2値である。した
がって、従来の遺伝子アルゴリズムをそのまま適用する
ことができず、図9に示すような新しい遺伝子アルゴリ
ズムの処理フローが必要となる。
【0075】図9において、まずステップS901で
は、初期集団を発生する。遺伝子の初期値は乱数によっ
て決めてもよいし、ユーザが任意に与えるようにしても
よい。次に、ステップS902では、選択された個体
(写像関数)を用いた場合のユーザの評価結果を認識手
段202から取得する。そしてステップS903では、
ユーザ評価結果の内容「イエス/ノー」により分岐す
る。
【0076】すなわち、ステップS903においてユー
ザ評価結果が「イエス」の場合には、その個体が表現す
る写像関数は正しかったことになる。これを「正解個
体」と呼び、次世代に残すべき個体である。この場合、
ステップS904に進んで、正解個体を除いた集団の
(P−1)個の各個体について、正解個体との間で交差
を行い子個体を生成する。すなわち、図10の説明図に
示すように、図10(a)において、正解個体を除いた
(P−1)個の個体の集団から順番に1つずつ選んで親
個体とし、図10(b)において、正解個体と親個体と
の間で交差を行って1つの子個体を作る。ここで、「交
差」とは、1つの個体間で任意の位置で切れた遺伝子同
士をつなぎ合わせる操作であり、これによって優秀な遺
伝子同士を組み合わせて精度を向上していくものであ
る。尚、交差方法には、一点交差、二点交差、一様交差
等がある。
【0077】次に、ステップS905では、突然変異の
確認を行うべく、確率により突然変異を実行するか否か
を決定する。ここで、「突然変異」とは、ある時突然に
遺伝子が変化してしまう現象である。これによりローカ
ルミニマムに陥るのを防ぐ。尚、どこをどのように変え
るかはランダムに決定される。例えば、それぞれの子個
体に対して0〜1の間で乱数を生成し、生成された数値
が0.5未満ならば突然変異を実行せず、0.5以上な
らば突然変異を実行するというように設定する。
【0078】さらに、ステップS906では、突然変異
を実行する。すなわち、図19(c)に示すように、ス
テップS905の生成数値に基づいて、確率的に子個体
を突然変異させるか、或いは突然変異させない。尚、突
然変異させない場合には、ステップS905からステッ
プS902に移行する。
【0079】以上のように、ステップS903におい
て、評価結果が「イエス」の場合、ステップS904〜
S906を(P−1)個の親個体について実行して(P
−1)個の子個体を作成する。すなわち、図10(d)
および(e)に示すように、正解個体と(P−1)個の
子個体を合わせたP個の個体からなる集団を、次世代の
集団として、写像関数データベース205の古い集団と
入れ替える。
【0080】尚、以上の説明では、正解個体1個と(P
−1)個の親個体から(P−1)個の子個体を作成した
が、正解個体をN個複製して、正解個体N個と(P−
N)個の親個体から(P−1)個の子個体を作成するよ
うにしてもよい。この場合、(P−1)個の親個体から
(P−N)個をランダムに選択するか、或いは、正解個
体との距離が近い順に(P−N)個を選択する。距離
は、遺伝子座ごとに二乗誤差を求め、これを全ての遺伝
子座について加算することにより求められる。さらに、
上記距離を、それぞれの親個体の適合度とみなして、全
ての親個体を評価することもできる。
【0081】また、ステップS903においてユーザ評
価結果が「ノー」の場合には、その個体が表現する写像
関数は間違っていたことになる。これを「不良個体」と
呼び、ステップS907において、該不良個体を集団か
ら削除する。不良個体を集団から削除したので、集団か
ら個体が1つ欠けたことになっており、さらに、ステッ
プS908では、新しい個体1つを生成して集団に補充
する。尚、新しい個体の遺伝子は乱数で決定する。
【0082】以上の処理手順を繰り返すうちに、正解個
体が増加し、不良個体が減少して、次第にロボット10
1の動作がユーザの意図に沿うようになる。
【0083】さらに、動作出力手段207では、写像手
段206により取得された動作命令に基づき動作を出力
する。それぞれの動作命令に対して、ロボット101の
4肢、首、尻尾等の各関節に取り付けられているモータ
に対する制御量が与えられており、動作命令が取得され
ると、相当する制御量を用いてロボット101の各関節
を駆動する。
【0084】動作命令としては、犬型ロボットの場合、
例えば、「首を縦に振る」、「首を横に振る」、「尻尾
を振る」、「4本足で立った状態から前足の1本を上げ
る(お手の姿勢)」、「両後足を曲げて尻を地面につい
て両前足を上げる(お座りの姿勢)」、「4本の足を折
り畳んで頭部を地面に着ける(伏せの姿勢)」等々があ
る。
【0085】以上、本実施形態のロボット101を構成
する各構成要素の機能および動作について説明したが、
次に、本実施形態のロボットの学習動作の全体的な処理
手順について、図11に示すフローチャートを参照して
説明する。
【0086】まず、ステップS1101では、入力手段
201を介してユーザ入力を取得する。次に、ステップ
S1102では、認識手段202を用いて、入力が「指
示」であるか、或いはロボット101が実行した動作に
対する「評価」であるかを認識する。
【0087】入力が「評価」である場合には、ステップ
S1103に進んで、学習手段203により動作フラグ
を確認する。ここで、動作フラグは、入力が、ロボット
101が動作を実行した後一定時間以内に与えられた評
価であるか否かを判定するものである。すなわち、動作
フラグが1の場合は、一定時間内に与えられ、直前のロ
ボット101の実行動作に対する評価であるとみなさ
れ、また、動作フラグが0の場合は、一定時間を越えて
与えられ、実行動作に対する評価であるとはみなされな
い。動作フラグが1の場合にはステップS1104に進
み、動作フラグが0の場合にはステップS1101に戻
る。
【0088】つまり、動作フラグが1の場合、直前の実
行動作に対する評価であるとみなされ、ステップS11
04において、学習手段203を用いて写像関数群を学
習する。また、ステップS1105では、学習手段20
3は動作フラグを0に戻して、ステップS1101に戻
る。
【0089】また、ステップS1102において、入力
が「指示」である場合には、ステップS1106に進ん
で、認識手段202により動作フラグを1にする。ま
た、ステップS1107では、特徴量抽出手段204に
よりユーザ入力の特徴量を抽出する。次に、ステップS
1108では、学習手段203により写像関数データベ
ース205に保存してある写像関数群から1つの写像関
数を選択し、ステップS1109で、選択した写像関数
を用いて抽出された特徴量を動作命令に変換する。さら
に、ステップS1110では、動作出力手段207によ
り写像手段206が出力する動作命令にしたがって動作
を出力する。
【0090】次に、ステップS1111では、認識手段
202により、動作出力手段207によって動作を出力
してから一定時間が経過したか否かを判定する。一定時
間が経過していれば動作フラグを0に戻した後、また一
定時間が経過していなければ動作フラグを1としたま
ま、ステップS1101に戻る。
【0091】以上説明したように、図2に示された第1
の実施形態のロボットおよびロボットの学習方法、並び
に、該ロボットの学習方法をプログラムとして記録する
記憶媒体では、認識手段202により、身振り、音声ま
たは(振動センシングによる)触覚で表現されるユーザ
入力についてユーザ指示またはユーザ評価の種別を認識
し、特徴量抽出手段204により、ユーザ入力から身振
りまたは音声に関する特徴量を抽出し、また写像関数デ
ータベース205には、特徴量を動作出力手段207に
よって出力すべき動作に写像変換する写像関数等を保持
し、学習手段203により、写像関数データベース20
5に保持されている写像関数群を、出力動作についてユ
ーザが判断する「正解」または「不正解」によって与え
られるユーザ評価に基づき学習して、さらに写像手段2
06により、写像関数データベース205から1の写像
関数を選択して、該写像関数を用いて抽出された特徴量
を動作命令に変換し、動作出力手段207から該動作命
令に応じた動作を出力する。
【0092】これにより、ユーザからの指示に従うよう
にロボットを学習させることができ、新しい動作を教え
ていくことができるので飽きずに楽しむことができる。
また、ユーザ入力として、身振りや音声等を用いるので
機械操作に不慣れなユーザでも簡単にロボットを学習
(訓練)させることができ、本物のペットを調教してい
るかのような育てる楽しみをユーザが享受できる。ま
た、ユーザによって調教内容が異なるので、個性的なロ
ボットを作る楽しみもある。さらに、1つの動作を評価
するだけで複数の知識等を学習する方法を繰り返し用い
ることにより、ユーザは動物を調教するような身振りや
音声を用いた調教の楽しみを疑似的に体験することがで
きる。
【0093】尚、上記説明では、ロボットを実体的な装
置として構成したが、これに限定されることなく、例え
ば、パーソナルコンピュータやゲーム機等の情報処理装
置において、表示出力手段上に仮想的に形成されるロボ
ットであってもよい。
【0094】〔第2の実施形態〕次に、図12は本発明
の第2の実施形態に係るロボットシステムの構成図であ
る。本実施形態のロボットシステムは、第1ロボット1
201および第2ロボット1202の複数のロボットが
存在し、同様の動作を学習させることを想定している。
すなわち、複数のロボットが存在する場合に、個別に同
等の動作学習をさせたのでは効率的でないことから、1
台のロボットに対する調教結果が他のロボットにも即座
に反映されるように構成したものである。尚、同図にお
いて、図2に示される装置と同一構成部分については、
同符号を付すことにより説明は省略する。
【0095】図12において、本実施形態の第1ロボッ
ト1201は、入力手段201、認識手段202、学習
手段1213、通信手段1221、特徴量抽出手段20
4、写像関数データベース205、写像手段206およ
び動作出力手段207を備えて構成されている。また、
第2ロボット1202についても、通信手段1222以
外は第1ロボット1201と同等の構成を備えている。
【0096】この第2の実施形態の特徴は、第1ロボッ
ト1201の学習手段1213により学習した写像関数
を、写像関数データベース205内に保持すると共に、
通信手段1221,1222を介して第2ロボット12
02にも送信する。
【0097】すなわち、まず、第1ロボット1201が
動作を出力して調教され、内部に持つ写像関数データベ
ース205の知識(写像関数パラメータ)が学習され
る。この時、学習の遺伝子アルゴリズムにおいて、正解
個体であった場合は、第1の実施形態で説明したと同様
の手順を進めると共に、該正解個体を第2ロボット12
02に対して通信手段1221,1222を介して送信
する。一方、正解個体を受け取った第2ロボット120
2側では、学習の遺伝子アルゴリズムにおいて、該正解
固体に対して距離が最も離れた個体を削除し、該削除し
た個体の代わりに正解個体を置き、残りの個体と正解個
体の間で交差等の操作を行う。
【0098】このように、本実施形態では、1台のロボ
ットに対する調教結果を他のロボットにも反映させるの
で、複数のロボット間で効率的な学習を行うことができ
る。
【0099】〔第3の実施形態〕次に、図13は本発明
の第3の実施形態に係るロボットシステムの構成図であ
る。本実施形態は、第1ロボット1301および第2ロ
ボット1302の複数のロボットと、計算機1300を
備えたロボットシステムであって、第1ロボット130
1および第2ロボット1302に対して同様の動作を学
習させることを想定している。尚、同図において、図2
に示される装置と同一構成部分については、同符号を付
すことにより説明は省略する。
【0100】図13において、本実施形態の第1ロボッ
ト1301は、入力手段201、認識手段1302、通
信手段1321、特徴量抽出手段204、写像関数デー
タベース1305、写像手段206および動作出力手段
207を備えて構成されている。また、第2ロボット1
202についても、通信手段1322以外は第1ロボッ
ト1301と同等の構成を備えている。さらに、計算機
1300は、通信手段1320および学習手段1313
を備えた構成である。
【0101】この第3の実施形態では、各ロボットにお
いて、認識手段1312により、身振り音声または触覚
で表現されるユーザ入力についてユーザ指示またはユー
ザ評価の種別を認識し、また特徴量抽出手段204によ
り、ユーザ入力から身振りまたは音声に関する特徴量を
抽出し、写像関数データベース1315には、ユーザ指
示に基づく特徴量を動作出力手段207によって出力す
べき動作に変換する知識や写像関数パラメータが保持さ
れ、写像手段206により、写像関数データベース13
15から1の写像関数が選択され、該写像関数を用いて
抽出された特徴量を動作命令に変換し、動作出力手段2
07により該動作命令に応じた動作を出力する。また一
方、計算機1300側では、学習手段1320により、
各ロボットの写像関数データベース1325に保持され
ている知識や写像関数を、出力動作についてユーザが判
断する「正解」または「不正解」によって与えられるユ
ーザ評価に基づき学習し、学習後の知識や写像関数を通
信手段1320を介して各ロボットに送信する。
【0102】例えば、第1ロボット1301が動作を出
力して調教されるとする。この時、第1ロボット130
1が持つ写像関数データベース1315の知識や写像関
数、および、第2ロボット1302が持つ写像関数デー
タベースの知識や写像関数が、計算機1300に送信さ
れる。また、第1ロボット1301が出力した動作が正
解か不正解かの認識結果も計算機1300に送信され
る。計算機1300では、該認識結果を元にして、第1
の実施形態で説明した遺伝子アルゴリズムを実行する。
その後、この遺伝子アルゴリズムにより学習された知識
や写像関数は、計算機1300lから第1ロボット13
01および第2ロボット1302に送信され、各写像関
数データベースの内容が更新される。
【0103】これにより、第1の実施形態と同様に、ユ
ーザからの指示に従うようにロボットを学習させること
ができ、また、ユーザ入力として身振りや音声等を用い
るので機械操作に不慣れなユーザでも簡単にロボットを
学習(訓練)させることができ、さらに、玩具等に応用
した場合には、1つの動作を評価するだけで複数の知識
等を学習する方法を繰り返し用いることにより、ユーザ
は動物を調教するような身振りや音声を用いた調教の楽
しみを疑似的に体験することができるといった効果を奏
する他に、本実施形態特有の効果として、学習を計算機
1300側に任せて各ロボット1301,1302には
学習結果のみ保持するので、ロボット単体のコストを下
げることができると共に、複数ロボット間の学習を効率
的に行うことができる。
【0104】
【発明の効果】以上の説明から明らかなように、本発明
によれば、認識手段(認識ステップ)により、身振り、
手振り、頭部動作、表情、音声または触覚の少なくとも
1つで表現される入力情報についてユーザ指示またはユ
ーザ評価の種別を認識し、また特徴量抽出手段(特徴量
抽出ステップ)により、入力情報から身振り、手振り、
頭部動作、表情または音声の少なくとも1つ以上に関す
る特徴量を抽出し、記憶ステップにより記憶手段に、入
力情報のユーザ指示に基づく特徴量を動作出力手段によ
って出力すべき動作に変換する知識または写像関数を保
持し、学習手段(学習ステップ)では、記憶手段に保持
されている知識または写像関数を、出力動作についてユ
ーザが判断する「正解」または「不正解」によって与え
られるユーザ評価に基づき学習して、さらに変換手段
(変換ステップ)により、記憶手段から1の知識または
写像関数を選択し、該知識または写像関数を用いてユー
ザ指示に基づく特徴量を動作に変換することとしたの
で、ユーザからの指示に従うようにロボットを学習させ
ることができ、また、ユーザ入力として身振りや音声等
を用いるので機械操作に不慣れなユーザでも簡単にロボ
ットを学習(訓練)させることができ、さらに、玩具等
に応用した場合には、1つの動作を評価するだけで複数
の知識等を学習する方法を繰り返し用いることにより、
ユーザは動物を調教するような身振りや音声を用いた調
教の楽しみを疑似的に体験し得るロボット、ロボットの
学習方法および記録媒体を提供することができる。
【0105】また特に、学習手段(学習ステップ)によ
り学習した知識または写像関数を、送受信ステップで、
通信手段を介して他のロボットと送受信することとすれ
ば、1台のロボットに対する調教結果を他のロボットに
も反映させることができ、複数のロボット間で効率的な
学習を行い得るロボット、ロボットの学習方法および記
録媒体を提供することができる。
【0106】また、本発明によれば、各ロボットにおい
て、認識手段(認識ステップ)により、身振り、手振
り、頭部動作、表情、音声または触覚の少なくとも1つ
で表現される入力情報についてユーザ指示またはユーザ
評価の種別を認識し、また特徴量抽出手段(特徴量抽出
ステップ)により、入力情報から身振り、手振り、頭部
動作、表情または音声の少なくとも1つ以上に関する特
徴量を抽出し、記憶ステップにより記憶手段に、入力情
報のユーザ指示に基づく特徴量を動作出力手段によって
出力すべき動作に変換する知識または写像関数を保持
し、さらに変換手段(変換ステップ)により、記憶手段
から1の知識または写像関数を選択し、該知識または写
像関数を用いてユーザ指示に基づく特徴量を動作に変換
する。また一方、情報処理装置側では、学習手段(学習
ステップ)により、記憶手段に保持されている知識また
は写像関数を、出力動作についてユーザが判断する「正
解」または「不正解」によって与えられるユーザ評価に
基づき学習し、学習後の知識または写像関数を通信手段
を介して全てまたは一部のロボットに送信することとし
たので、ユーザからの指示に従うようにロボットを学習
させることができ、また、ユーザ入力として身振りや音
声等を用いるので機械操作に不慣れなユーザでも簡単に
ロボットを学習(訓練)させることができ、玩具等に応
用した場合には、1つの動作を評価するだけで複数の知
識等を学習する方法を繰り返し用いることにより、ユー
ザは動物を調教するような身振りや音声を用いた調教の
楽しみを疑似的に体験することができ、さらに、学習を
情報処理装置側に任せてロボットには学習結果のみ保持
するので、ロボット単体のコストを下げることができる
と共に、複数ロボット間の学習を効率的に行い得るロボ
ットシステム、ロボットシステムの学習方法および記録
媒体を提供することができる。
【図面の簡単な説明】
【図1】本発明のロボットおよびロボットの学習方法に
おける基本動作原理を概念的に説明する説明図である。
【図2】本発明の第1の実施形態に係るロボットの構成
図である。
【図3】図3(a),(b)はメンバシップ関数「振動
の回数」および「振動の強さ」の説明図、図3(c)は
振動を認識するファジイ推論規則の説明図である。
【図4】特徴量抽出手段の出力である特徴量ベクトル
(配列データ)を例示する説明図である。
【図5】写像手段の出力である動作命令(配列データ)
を例示する説明図である。
【図6】階層型ニューラルネットワークの説明図であ
る。
【図7】写像関数データベース内に記憶される写像関数
の関数パラメータを例示する説明図である。
【図8】遺伝子アルゴリズムにおいて写像関数を表現す
る個体の説明図である。
【図9】遺伝的アルゴリズムによる学習処理の流れを説
明するフローチャートである。
【図10】子個体が作成される様子を説明する説明図で
ある。
【図11】第1の実施形態のロボットにおける学習動作
の全体的な処理手順を説明するフローチャートである。
【図12】本発明の第2の実施形態に係るロボットシス
テムの構成図である。
【図13】本発明の第3の実施形態に係るロボットシス
テムの構成図である。
【符号の説明】
101,1201,1202,1301,1302
ロボット 201 入力手段 202,1312 認識手段 203,1213,1313 学習手段 204 特徴量抽出手段 205,1315 写像関数データベース 206 写像手段 207 動作出力手段 1221,1222,1320,1321,1322
通信手段

Claims (36)

    【特許請求の範囲】
  1. 【請求項1】 入力情報として少なくとも画像情報また
    は音声情報を取得する入力手段と、 動作を出力する動作出力手段と、 前記入力手段により取得した入力情報を前記動作出力手
    段によって出力すべき動作に変換する知識または写像関
    数を保持する記憶手段と、 前記記憶手段に保持されている知識または写像関数を、
    前記入力情報を介して与えられるユーザ評価に基づき学
    習する学習手段と、 前記記憶手段から1の知識または写像関数を選択し、該
    知識または写像関数を用いて前記入力情報を前記動作に
    変換する変換手段と、を具備することを特徴とするロボ
    ット。
  2. 【請求項2】 入力情報として少なくとも画像情報また
    は音声情報を取得する入力手段と、 前記入力情報についてユーザ指示またはユーザ評価の種
    別を認識する認識手段と、 前記入力情報から特徴量を抽出する特徴量抽出手段と、 動作を出力する動作出力手段と、 前記入力情報のユーザ指示に基づく特徴量を前記動作出
    力手段によって出力すべき動作に変換する知識または写
    像関数を保持する記憶手段と、 前記記憶手段に保持されている知識または写像関数を、
    前記ユーザ評価に基づき学習する学習手段と、 前記記憶手段から1の知識または写像関数を選択し、該
    知識または写像関数を用いて前記ユーザ指示に基づく特
    徴量を前記動作に変換する変換手段と、 を具備することを特徴とするロボット。
  3. 【請求項3】 他のロボットとデータを送受信する通信
    手段を有し、 前記学習手段により学習した知識または写像関数を、前
    記通信手段を介して他のロボットと送受信することを特
    徴とする請求項1または2に記載のロボット。
  4. 【請求項4】 前記入力情報は、身振り、手振り、頭部
    動作、表情または音声の少なくとも1つで表現されるこ
    とを特徴とする請求項1、2または3に記載のロボッ
    ト。
  5. 【請求項5】 前記入力手段は、ユーザが与える物理量
    を触覚情報としてセンシングする検知手段を有し、 前記入力情報は、身振り、手振り、頭部動作、表情、音
    声または触覚の少なくとも1つで表現されることを特徴
    とする請求項1、2または3に記載のロボット。
  6. 【請求項6】 前記特徴量抽出手段は、前記入力情報か
    ら、身振り、手振り、頭部動作、表情または音声の少な
    くとも1つ以上に関する特徴量を抽出することを特徴と
    する請求項2、3、4または5に記載のロボット。
  7. 【請求項7】 前記ユーザ評価は、前記動作出力手段か
    ら出力される動作についてユーザが判断する「正解」ま
    たは「不正解」によって与えられ、 前記認識手段は、前記入力情報が前記ユーザ評価である
    場合に、前記正解または前記不正解を認識し、 前記学習手段は、前記動作出力手段から出力した動作に
    変換した知識または写像関数を、前記ユーザ評価の正解
    または不正解に基づいて学習することを特徴とする請求
    項2、3、4、5または6に記載のロボット。
  8. 【請求項8】 前記正解または前記不正解は、身振り、
    手振り、頭部動作、表情、音声または触覚の少なくとも
    1つで表現されることを特徴とする請求項7に記載のロ
    ボット。
  9. 【請求項9】 前記動作出力手段は、前記動作を視覚的
    に表示出力する表示出力手段であることを特徴とする請
    求項1、2、3、4、5、6、7または8に記載のロボ
    ット。
  10. 【請求項10】 複数のロボットと、情報処理装置と、
    を具備するロボットシステムであって、 前記ロボットは、 入力情報として少なくとも画像情報または音声情報を取
    得する入力手段と、 動作を出力する動作出力手段と、 前記入力手段により取得した入力情報を前記動作出力手
    段によって出力すべき動作に変換する知識または写像関
    数を保持する記憶手段と、 前記記憶手段から1の知識または写像関数を選択し、該
    知識または写像関数を用いて前記入力情報を前記動作に
    変換する変換手段と、 前記情報処理装置とデータを送受信する通信手段と、を
    有し、 前記情報処理装置は、 前記ロボットとデータを送受信する通信手段と、 一のロボットにおいて前記記憶手段に保持されている知
    識または写像関数を前記入力情報を介して与えられるユ
    ーザ評価に基づき学習し、学習後の知識または写像関数
    を前記通信手段を介して全てまたは一部のロボットに送
    信する学習手段と、を有することを特徴とするロボット
    システム。
  11. 【請求項11】 複数のロボットと、情報処理装置と、
    を具備するロボットシステムであって、 前記ロボットは、 入力情報として少なくとも画像情報または音声情報を取
    得する入力手段と、 前記入力情報についてユーザ指示またはユーザ評価の種
    別を認識する認識手段と、 前記入力情報から特徴量を抽出する特徴量抽出手段と、 動作を出力する動作出力手段と、 前記入力情報のユーザ指示に基づく特徴量を前記動作出
    力手段によって出力すべき動作に変換する知識または写
    像関数を保持する記憶手段と、 前記記憶手段から1の知識または写像関数を選択し、該
    知識または写像関数を用いて前記ユーザ指示に基づく特
    徴量を前記動作に変換する変換手段と、 前記情報処理装置とデータを送受信する通信手段と、を
    有し、 前記情報処理装置は、 前記ロボットとデータを送受信する通信手段と、 一のロボットにおいて前記記憶手段に保持されている知
    識または写像関数を前記入力情報を介して与えられるユ
    ーザ評価に基づき学習し、学習後の知識または写像関数
    を前記通信手段を介して全てまたは一部のロボットに送
    信する学習手段と、を有することを特徴とするロボット
    システム。
  12. 【請求項12】 前記入力情報は、身振り、手振り、頭
    部動作、表情または音声の少なくとも1つで表現される
    ことを特徴とする請求項10または11に記載のロボッ
    トシステム。
  13. 【請求項13】 前記入力手段は、ユーザが与える物理
    量を触覚情報としてセンシングする検知手段を有し、前
    記入力情報は、身振り、手振り、頭部動作、表情、音声
    または触覚の少なくとも1つで表現されることを特徴と
    する請求項10または11に記載のロボットシステム。
  14. 【請求項14】 前記特徴量抽出手段は、前記入力情報
    から、身振り、手振り、頭部動作、表情または音声の少
    なくとも1つ以上に関する特徴量を抽出することを特徴
    とする請求項11、12または13に記載のロボットシ
    ステム。
  15. 【請求項15】 前記ユーザ評価は、前記動作出力手段
    から出力される動作についてユーザが判断する「正解」
    または「不正解」によって与えられ、 前記認識手段は、前記入力情報が前記ユーザ評価である
    場合に、前記正解または前記不正解を認識し、 前記学習手段は、前記動作出力手段から出力した動作に
    変換した知識または写像関数を、前記ユーザ評価の正解
    または不正解に基づいて学習することを特徴とする請求
    項11、12、13または14に記載のロボットシステ
    ム。
  16. 【請求項16】 前記正解または前記不正解は、身振
    り、手振り、頭部動作、表情、音声または触覚の少なく
    とも1つで表現されることを特徴とする請求項15に記
    載のロボットシステム。
  17. 【請求項17】 前記動作出力手段は、前記動作を視覚
    的に表示出力する表示出力手段であることを特徴とする
    請求項10、11、12、13、14、15または16
    に記載のロボットシステム。
  18. 【請求項18】 入力情報として少なくとも画像情報ま
    たは音声情報を取得する入力手段と、動作を出力する動
    作出力手段と、を備えたロボットの学習方法であって、 前記入力手段により取得した入力情報を前記動作出力手
    段によって出力すべき動作に変換する知識または写像関
    数を保持する記憶ステップと、 前記保持されている知識または写像関数を、前記入力情
    報を介して与えられるユーザ評価に基づき学習する学習
    ステップと、 1の知識または写像関数を選択し、該知識または写像関
    数を用いて前記入力情報を前記動作に変換する変換ステ
    ップと、を具備することを特徴とするロボットの学習方
    法。
  19. 【請求項19】 入力情報として少なくとも画像情報ま
    たは音声情報を取得する入力手段と、動作を出力する動
    作出力手段と、を備えたロボットの学習方法であって、 前記入力情報についてユーザ指示またはユーザ評価の種
    別を認識する認識ステップと、 前記入力情報から特徴量を抽出する特徴量抽出ステップ
    と、 前記入力情報のユーザ指示に基づく特徴量を前記動作出
    力手段によって出力すべき動作に変換する知識または写
    像関数を保持する記憶ステップと、 前記保持されている知識または写像関数を、前記ユーザ
    評価に基づき学習する学習ステップと、 1の知識または写像関数を選択し、該知識または写像関
    数を用いて前記ユーザ指示に基づく特徴量を前記動作に
    変換する変換ステップと、を具備することを特徴とする
    ロボットの学習方法。
  20. 【請求項20】 入力情報として少なくとも画像情報ま
    たは音声情報を取得する入力手段と、動作を出力する動
    作出力手段と、他のロボットとデータを送受信する通信
    手段と、を備えたロボットの学習方法であって、 前記学習ステップにより学習した知識または写像関数
    を、前記通信手段を介して他のロボットと送受信する送
    受信ステップを具備することを特徴とする請求項18ま
    たは19に記載のロボットの学習方法。
  21. 【請求項21】 前記入力情報は、身振り、手振り、頭
    部動作、表情または音声の少なくとも1つで表現される
    ことを特徴とする請求項18、19または20に記載の
    ロボットの学習方法。
  22. 【請求項22】 前記入力手段は、ユーザが与える物理
    量を触覚情報としてセンシングする検知手段を有し、 前記入力情報は、身振り、手振り、頭部動作、表情、音
    声または触覚の少なくとも1つで表現されることを特徴
    とする請求項18、19または20に記載のロボットの
    学習方法。
  23. 【請求項23】 前記特徴量抽出ステップは、前記入力
    情報から、身振り、手振り、頭部動作、表情または音声
    の少なくとも1つ以上に関する特徴量を抽出することを
    特徴とする請求項19、20、21または22に記載の
    ロボットの学習方法。
  24. 【請求項24】 前記ユーザ評価は、前記動作出力手段
    から出力される動作についてユーザが判断する「正解」
    または「不正解」によって与えられ、 前記認識ステップは、前記入力情報が前記ユーザ評価で
    ある場合に、前記正解または前記不正解を認識し、 前記学習ステップは、前記動作出力手段から出力した動
    作に変換した知識または写像関数を、前記ユーザ評価の
    正解または不正解に基づいて学習することを特徴とする
    請求項19、20、21、22または23に記載のロボ
    ットの学習方法。
  25. 【請求項25】 前記正解または前記不正解は、身振
    り、手振り、頭部動作、表情、音声または触覚の少なく
    とも1つで表現されることを特徴とする請求項24に記
    載のロボットの学習方法。
  26. 【請求項26】 前記動作出力手段は、前記動作を視覚
    的に表示出力する表示出力手段であることを特徴とする
    請求項18、19、20、21、22、23、24また
    は25に記載のロボットの学習方法。
  27. 【請求項27】 入力情報として少なくとも画像情報ま
    たは音声情報を取得する入力手段と、動作を出力する動
    作出力手段と、データを送受信する通信手段とを備えた
    複数のロボットと、前記ロボットとデータを送受信する
    通信手段を備えた情報処理装置と、を具備するロボット
    システムの学習方法であって、 各ロボットにおいて、前記入力手段により取得した入力
    情報を前記動作出力手段によって出力すべき動作に変換
    する知識または写像関数を保持する記憶ステップと、 各ロボットにおいて、1の知識または写像関数を選択
    し、該知識または写像関数を用いて前記入力情報を前記
    動作に変換する変換ステップと、 前記情報処理装置において、一のロボットが保持する知
    識または写像関数を前記入力情報を介して与えられるユ
    ーザ評価に基づき学習し、学習後の知識または写像関数
    を前記通信手段を介して全てまたは一部のロボットに送
    信する学習ステップと、 を具備することを特徴とするロボットシステムの学習方
    法。
  28. 【請求項28】 入力情報として少なくとも画像情報ま
    たは音声情報を取得する入力手段と、動作を出力する動
    作出力手段と、データを送受信する通信手段とを備えた
    複数のロボットと、前記ロボットとデータを送受信する
    通信手段を備えた情報処理装置と、を具備するロボット
    システムの学習方法であって、 各ロボットにおいて、前記入力情報についてユーザ指示
    またはユーザ評価の種別を認識する認識ステップと、 各ロボットにおいて、前記入力情報から特徴量を抽出す
    る特徴量抽出ステップと、 各ロボットにおいて、前記入力情報のユーザ指示に基づ
    く特徴量を前記動作出力手段によって出力すべき動作に
    変換する知識または写像関数を保持する記憶ステップ
    と、 各ロボットにおいて、1の知識または写像関数を選択
    し、該知識または写像関数を用いて前記ユーザ指示に基
    づく特徴量を前記動作に変換する変換ステップと、 前記情報処理装置において、一のロボットが保持する知
    識または写像関数を前記入力情報を介して与えられるユ
    ーザ評価に基づき学習し、学習後の知識または写像関数
    を前記通信手段を介して全てまたは一部のロボットに送
    信する学習ステップと、を具備することを特徴とするロ
    ボットシステムの学習方法。
  29. 【請求項29】 前記入力情報は、身振り、手振り、頭
    部動作、表情または音声の少なくとも1つで表現される
    ことを特徴とする請求項27または28に記載のロボッ
    トシステムの学習方法。
  30. 【請求項30】 前記入力手段は、ユーザが与える物理
    量を触覚情報としてセンシングする検知手段を有し、 前記入力情報は、身振り、手振り、頭部動作、表情、音
    声または触覚の少なくとも1つで表現されることを特徴
    とする請求項27または28に記載のロボットシステム
    の学習方法。
  31. 【請求項31】 前記特徴量抽出ステップは、前記入力
    情報から、身振り、手振り、頭部動作、表情または音声
    の少なくとも1つ以上に関する特徴量を抽出することを
    特徴とする請求項28、29または30に記載のロボッ
    トシステムの学習方法。
  32. 【請求項32】 前記ユーザ評価は、前記動作出力手段
    から出力される動作についてユーザが判断する「正解」
    または「不正解」によって与えられ、 前記認識ステップは、前記入力情報が前記ユーザ評価で
    ある場合に、前記正解または前記不正解を認識し、 前記学習ステップは、前記動作出力手段から出力した動
    作に変換した知識または写像関数を、前記ユーザ評価の
    正解または不正解に基づいて学習することを特徴とする
    請求項28、29、30または21に記載のロボットシ
    ステムの学習方法。
  33. 【請求項33】 前記正解または前記不正解は、身振
    り、手振り、頭部動作、表情、音声または触覚の少なく
    とも1つで表現されることを特徴とする請求項32に記
    載のロボットシステムの学習方法。
  34. 【請求項34】 前記動作出力手段は、前記動作を視覚
    的に表示出力する表示出力手段であることを特徴とする
    請求項27、28、29、30、31、32または33
    に記載のロボットシステムの学習方法。
  35. 【請求項35】 請求項18、19、20、21、2
    2、23、24、25または26に記載のロボットの学
    習方法をコンピュータに実行させるためのプログラムと
    して記憶したコンピュータにより読み取り可能な記録媒
    体。
  36. 【請求項36】 請求項27、28、29、30、3
    1、32、33または34に記載のロボットシステムの
    学習方法をコンピュータに実行させるためのプログラム
    として記憶した コンピュータにより読み取り可能な記
    録媒体。
JP36312297A 1997-12-15 1997-12-15 ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体 Expired - Fee Related JP3211186B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36312297A JP3211186B2 (ja) 1997-12-15 1997-12-15 ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36312297A JP3211186B2 (ja) 1997-12-15 1997-12-15 ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体

Publications (2)

Publication Number Publication Date
JPH11175132A true JPH11175132A (ja) 1999-07-02
JP3211186B2 JP3211186B2 (ja) 2001-09-25

Family

ID=18478556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36312297A Expired - Fee Related JP3211186B2 (ja) 1997-12-15 1997-12-15 ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体

Country Status (1)

Country Link
JP (1) JP3211186B2 (ja)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1195231A1 (en) * 2000-03-31 2002-04-10 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
JP2003022131A (ja) * 2001-07-09 2003-01-24 Kenzo Iwama 単語学習ロボット、移動物体の学習動作制御装置およびその方法
WO2003045640A1 (en) * 2001-11-29 2003-06-05 Abb Ab An industrial robot system and a method for programming thereof
KR20030092762A (ko) * 2002-05-31 2003-12-06 (주)하늘아이 조립식 로봇 및 이를 제어하기 위한 아이콘 방식의 제어프로그램 작성 장치
KR100426035B1 (ko) * 2001-08-01 2004-04-03 주식회사 마이크로로보트 마이크로로봇 제어프로그램 교육 시스템
WO2004052597A1 (ja) * 2002-12-10 2004-06-24 Honda Motor Co.,Ltd. ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
KR100446725B1 (ko) * 2001-11-02 2004-09-01 엘지전자 주식회사 로봇의 행동 학습방법
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム
KR100988708B1 (ko) * 2002-03-06 2010-10-18 소니 주식회사 학습 장치, 학습 방법 및 로봇 장치
KR101239274B1 (ko) * 2009-07-06 2013-03-06 한국전자통신연구원 상호작용성 로봇
JP2013109742A (ja) * 2011-11-21 2013-06-06 Jiaotong Univ ユーザーフィードバック情報に基づく電気器具検出方法とシステム
JP2017064910A (ja) * 2015-07-31 2017-04-06 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
WO2017134735A1 (ja) * 2016-02-02 2017-08-10 株式会社日立製作所 ロボットシステム、ロボットの最適化システム、およびロボットの動作計画学習方法
CN107914270A (zh) * 2016-10-11 2018-04-17 发那科株式会社 控制装置、机器人系统及生产系统
WO2019230399A1 (ja) * 2018-05-28 2019-12-05 キヤノン株式会社 ロボット制御装置、システム、情報処理方法及びプログラム
US10717196B2 (en) 2015-07-31 2020-07-21 Fanuc Corporation Machine learning device, robot system, and machine learning method for learning workpiece picking operation
JP2020121381A (ja) * 2019-01-31 2020-08-13 セイコーエプソン株式会社 機械学習器、ロボットシステム、及び機械学習方法
JP2022024072A (ja) * 2017-07-03 2022-02-08 エックス デベロップメント エルエルシー ロボットアクションへの修正の判定および利用
WO2022190435A1 (ja) * 2021-03-12 2022-09-15 オムロン株式会社 命令記述支援システム、命令記述支援方法および命令記述支援プログラム
WO2022190434A1 (ja) * 2021-03-12 2022-09-15 オムロン株式会社 命令記述支援システム、命令記述支援方法および命令記述支援プログラム
US11640517B2 (en) 2017-07-03 2023-05-02 X Development Llc Update of local features model based on correction to robot action
US11904469B2 (en) 2015-07-31 2024-02-20 Fanuc Corporation Machine learning device, robot controller, robot system, and machine learning method for learning action pattern of human

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4141815B2 (ja) * 2002-11-29 2008-08-27 株式会社東芝 プラント運用最適化制御装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0236086A (ja) * 1988-07-22 1990-02-06 Toyota Motor Corp 複数ロボットの制御方法
JPH06161984A (ja) * 1992-11-25 1994-06-10 Ricoh Co Ltd 情報処理装置およびニュ−ラルネットワ−ク
JPH0784792A (ja) * 1993-09-14 1995-03-31 Toshiba Corp ファジィ推論装置
JPH07213753A (ja) * 1994-02-02 1995-08-15 Hitachi Ltd パーソナルロボット装置
JPH0944226A (ja) * 1995-07-28 1997-02-14 Nissan Motor Co Ltd ロボット制御装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0236086A (ja) * 1988-07-22 1990-02-06 Toyota Motor Corp 複数ロボットの制御方法
JPH06161984A (ja) * 1992-11-25 1994-06-10 Ricoh Co Ltd 情報処理装置およびニュ−ラルネットワ−ク
JPH0784792A (ja) * 1993-09-14 1995-03-31 Toshiba Corp ファジィ推論装置
JPH07213753A (ja) * 1994-02-02 1995-08-15 Hitachi Ltd パーソナルロボット装置
JPH0944226A (ja) * 1995-07-28 1997-02-14 Nissan Motor Co Ltd ロボット制御装置
JPH10289006A (ja) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd 疑似感情を用いた制御対象の制御方法

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1195231A1 (en) * 2000-03-31 2002-04-10 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
EP1195231A4 (en) * 2000-03-31 2006-01-25 Sony Corp ROBOTIC DEVICE, ROBOTIC DEVICE ACTION CONTROL METHOD, EXTERNAL FORCE DETECTION DEVICE, AND EXTERNAL FORCE DETECTION METHOD
JP2011115944A (ja) * 2000-03-31 2011-06-16 Sony Corp ロボット装置、ロボット装置の行動制御方法及びプログラム
JP2002321177A (ja) * 2001-04-23 2002-11-05 Sony Corp 脚式移動ロボット及びその制御方法
JP2003022131A (ja) * 2001-07-09 2003-01-24 Kenzo Iwama 単語学習ロボット、移動物体の学習動作制御装置およびその方法
KR100426035B1 (ko) * 2001-08-01 2004-04-03 주식회사 마이크로로보트 마이크로로봇 제어프로그램 교육 시스템
KR100446725B1 (ko) * 2001-11-02 2004-09-01 엘지전자 주식회사 로봇의 행동 학습방법
WO2003045640A1 (en) * 2001-11-29 2003-06-05 Abb Ab An industrial robot system and a method for programming thereof
KR100988708B1 (ko) * 2002-03-06 2010-10-18 소니 주식회사 학습 장치, 학습 방법 및 로봇 장치
KR20030092762A (ko) * 2002-05-31 2003-12-06 (주)하늘아이 조립식 로봇 및 이를 제어하기 위한 아이콘 방식의 제어프로그램 작성 장치
WO2004052597A1 (ja) * 2002-12-10 2004-06-24 Honda Motor Co.,Ltd. ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
US7873448B2 (en) 2002-12-10 2011-01-18 Honda Motor Co., Ltd. Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
JP2009262279A (ja) * 2008-04-25 2009-11-12 Nec Corp ロボット、ロボットプログラム共有システム、ロボットプログラム共有方法およびプログラム
KR101239274B1 (ko) * 2009-07-06 2013-03-06 한국전자통신연구원 상호작용성 로봇
JP2013109742A (ja) * 2011-11-21 2013-06-06 Jiaotong Univ ユーザーフィードバック情報に基づく電気器具検出方法とシステム
JP2020168719A (ja) * 2015-07-31 2020-10-15 ファナック株式会社 ロボットシステムおよびロボットの制御方法
US10717196B2 (en) 2015-07-31 2020-07-21 Fanuc Corporation Machine learning device, robot system, and machine learning method for learning workpiece picking operation
US11780095B2 (en) 2015-07-31 2023-10-10 Fanuc Corporation Machine learning device, robot system, and machine learning method for learning object picking operation
JP2017064910A (ja) * 2015-07-31 2017-04-06 ファナック株式会社 ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法
US11904469B2 (en) 2015-07-31 2024-02-20 Fanuc Corporation Machine learning device, robot controller, robot system, and machine learning method for learning action pattern of human
WO2017134735A1 (ja) * 2016-02-02 2017-08-10 株式会社日立製作所 ロボットシステム、ロボットの最適化システム、およびロボットの動作計画学習方法
US10486306B2 (en) 2016-10-11 2019-11-26 Fanuc Corporation Control device for controlling robot by learning action of person, robot system, and production system
CN107914270B (zh) * 2016-10-11 2020-04-17 发那科株式会社 控制装置、机器人系统及生产系统
JP2018062016A (ja) * 2016-10-11 2018-04-19 ファナック株式会社 人の行動を学習してロボットを制御する制御装置、ロボットシステムおよび生産システム
DE102017009223B4 (de) * 2016-10-11 2021-06-10 Fanuc Corporation Steuervorrichtung zum Steuern eines Roboters durch Lernen einer Aktion einer Person, Robotersystem und Produktionssystem
CN107914270A (zh) * 2016-10-11 2018-04-17 发那科株式会社 控制装置、机器人系统及生产系统
US11640517B2 (en) 2017-07-03 2023-05-02 X Development Llc Update of local features model based on correction to robot action
JP2022024072A (ja) * 2017-07-03 2022-02-08 エックス デベロップメント エルエルシー ロボットアクションへの修正の判定および利用
JP2022101580A (ja) * 2017-07-03 2022-07-06 エックス デベロップメント エルエルシー ロボットアクションへの修正の判定および利用
US11780083B2 (en) 2017-07-03 2023-10-10 Google Llc Determining and utilizing corrections to robot actions
WO2019230399A1 (ja) * 2018-05-28 2019-12-05 キヤノン株式会社 ロボット制御装置、システム、情報処理方法及びプログラム
JP2020121381A (ja) * 2019-01-31 2020-08-13 セイコーエプソン株式会社 機械学習器、ロボットシステム、及び機械学習方法
WO2022190434A1 (ja) * 2021-03-12 2022-09-15 オムロン株式会社 命令記述支援システム、命令記述支援方法および命令記述支援プログラム
WO2022190435A1 (ja) * 2021-03-12 2022-09-15 オムロン株式会社 命令記述支援システム、命令記述支援方法および命令記述支援プログラム

Also Published As

Publication number Publication date
JP3211186B2 (ja) 2001-09-25

Similar Documents

Publication Publication Date Title
JP3211186B2 (ja) ロボット、ロボットシステム、ロボットの学習方法、ロボットシステムの学習方法および記録媒体
TW581959B (en) Robotic (animal) device and motion control method for robotic (animal) device
US6714840B2 (en) User-machine interface system for enhanced interaction
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
US8538750B2 (en) Speech communication system and method, and robot apparatus
CN109637207B (zh) 一种学前教育互动教学装置及教学方法
EP0978770A2 (en) System and method for controlling object by simulating emotions and a personality in the object
JPH10289006A (ja) 疑似感情を用いた制御対象の制御方法
CN110931111A (zh) 基于虚拟现实及多模态信息的孤独症辅助干预系统及方法
WO2001072478A1 (fr) Dispositif robotique, procede de commande de l'action du dispositif robotique, dispositif de detection de force exterieure, et procede de detection de force exterieure
CN108536287A (zh) 一种根据用户指示读书的方法及装置
EP4144425A1 (en) Behavior control device, behavior control method, and program
US20020019678A1 (en) Pseudo-emotion sound expression system
JP2002160185A (ja) ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
CN112215346B (zh) 一种实现类人通用人工智能机器的方法
JP2002219677A (ja) ロボット装置及びロボット装置の行動制御方法
JP3854061B2 (ja) 疑似生物装置及び擬似生物装置における疑似生物の行動形成方法、及び疑似生物装置に行動形成を行わせるプログラムを記載したコンピュータ読み取り可能な記憶媒体
Swinson et al. Expanding frontiers of humanoid robotics [Guest Editor's Introduction]
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
KR100503652B1 (ko) 가상 생명체 시스템과 이를 이용한 교육용 소프트웨어시스템
Gillies et al. Responsive listening behavior
CN113962353A (zh) 一种建立强人工智能的方法
JP2000155750A (ja) 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
WO2022109759A1 (zh) 一种类人通用人工智能的实现方法
CN115004254A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080719

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees