JP3211186B2 - Robot, robot system, robot learning method, robot system learning method, and recording medium - Google Patents

Robot, robot system, robot learning method, robot system learning method, and recording medium

Info

Publication number
JP3211186B2
JP3211186B2 JP36312297A JP36312297A JP3211186B2 JP 3211186 B2 JP3211186 B2 JP 3211186B2 JP 36312297 A JP36312297 A JP 36312297A JP 36312297 A JP36312297 A JP 36312297A JP 3211186 B2 JP3211186 B2 JP 3211186B2
Authority
JP
Japan
Prior art keywords
robot
mapping function
user
mapping
input information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP36312297A
Other languages
Japanese (ja)
Other versions
JPH11175132A (en
Inventor
牛田  博英
裕司 平山
宏 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP36312297A priority Critical patent/JP3211186B2/en
Publication of JPH11175132A publication Critical patent/JPH11175132A/en
Application granted granted Critical
Publication of JP3211186B2 publication Critical patent/JP3211186B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Feedback Control In General (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボット、ロボッ
トシステム、ロボットの学習方法、ロボットシステムの
学習方法および記録媒体に係り、特に、動物を調教する
ような身振りや音声を用いた調教の楽しみを疑似的に体
験し得るロボット、ロボットシステム、ロボットの学習
方法、ロボットシステムの学習方法および記録媒体に関
する。
The present invention relates to a robot, a robot system, a learning method of a robot, a learning method of a robot system, and a recording medium, and more particularly, to the pleasure of training using gestures and sounds such as training animals. The present invention relates to a robot, a robot system, a robot learning method, a robot system learning method, and a recording medium that can be simulated.

【0002】[0002]

【従来の技術】人間が動物を調教する場合、例えば、犬
に「お座り」や「お手」を教えるなどの場合には、身振
りや音声を用いて調教する。また、飼い主とペットとの
コミュニケーションにおいては、最初からコミュニケー
ションのルールが決まっているのではなく、飼い主とペ
ットとの間でインタラクションを繰り返している間に、
独自のコミュニケーションルールが形成されてくる。こ
の独自のコミュニケーションルールの形成が飼い主にと
ってペットを飼育することの大きな魅力の1つとなって
いる。さらに、コミュニケーションルールの形成結果だ
けでなく、形成過程についても飼い主にとっての楽しみ
となる。すなわち、1解の教示だけでペットが学習を完
了してしまうと教え甲斐がなく、何度か間違いながら学
習し上達していくペットの成長過程に関与することが飼
い主にとって喜びとなる。
2. Description of the Related Art When a human trains an animal, for example, when a dog teaches "sitting" or "hand", the training is performed using gestures or voices. Also, in the communication between the owner and the pet, the rules of communication are not fixed from the beginning, but while the interaction between the owner and the pet is repeated,
Original communication rules are formed. The formation of this unique communication rule has become one of the great attractions of keeping pets for owners. Furthermore, not only the result of the formation of the communication rules, but also the formation process is a pleasure for the owner. In other words, if the pet completes the learning with only one instruction, the owner is delighted to be involved in the growth process of the pet, which learns and progresses several times with mistakes.

【0003】[0003]

【発明が解決しようとする課題】これに対して、機械学
習に関する従来技術として、ニューラルネットワークを
用いる方法がある。しかし、このニューラルネットワー
クの学習では、教師信号(正解)が必要である。一般
に、調教においては、飼い主がペットに手本を示すよう
なことは行わず、ペットの動作が正解か否かだけを教え
るため、ニューラルネットワーク学習は問題を解決でき
ない。
On the other hand, as a conventional technique relating to machine learning, there is a method using a neural network. However, learning of this neural network requires a teacher signal (correct answer). In general, in training, the owner does not give an example to the pet, but only teaches whether or not the behavior of the pet is correct. Therefore, neural network learning cannot solve the problem.

【0004】また、教師信号を必要としない学習方法と
して、最適化手法の一種である遺伝的アルゴリズムがあ
る。この遺伝的アルゴリズムは、問題解決のための知識
を生物の遺伝子を模擬した個体で表現する。複数の個体
を用意しておき、各個体に問題を与えると個体ごとに出
力が得られるので、それぞれの出力を評価し、該評価に
よって個体を淘汰していくうちに最適な個体だけが残る
仕組みである。しかし、従来の遺伝的アルゴリズムで
は、評価基準を予め機械に与えておき、以後は評価が自
動的に行われるような仕組みになっており、ペットの調
教のように人間とペットが対話しながら評価する手法と
して、この従来の遺伝的アルゴリズムをそのまま適用す
ることはできない。
As a learning method that does not require a teacher signal, there is a genetic algorithm which is a kind of optimization technique. In this genetic algorithm, knowledge for solving a problem is represented by an individual simulating the gene of an organism. When multiple individuals are prepared and given a problem to each individual, an output is obtained for each individual, so each output is evaluated, and only the optimal individual remains as individual is eliminated by the evaluation It is. However, in the conventional genetic algorithm, the evaluation criteria are given to the machine in advance, and the evaluation is performed automatically thereafter. This conventional genetic algorithm cannot be applied as it is.

【0005】これに対して、人間が固体に対して主観的
評価を与えることができる対話型遺伝的アルゴリズムが
提案されている。この対話型遺伝的アルゴリズムでは、
例えば、似顔絵を自動作成する装置に応用した場合、そ
れぞれの個体が生成した結果(似顔絵画像)をコンピュ
ータ画面に一覧表示させるなどして、同時に複数の個体
をインタラクティブに評価できるような工夫がなされて
いる。しかし、ロボットの調教の場合は、1台のロボッ
トが複数の個体から得られる結果を同時に出力すること
はできない。また、1台のロボットが連続的に順番に結
果を出力する方法も考えられるが、これでは現実の調教
の手順とは全く異なるという点で問題がある。
On the other hand, there has been proposed an interactive genetic algorithm which enables a human to give a subjective evaluation to an individual. In this interactive genetic algorithm,
For example, when applied to an apparatus for automatically creating a portrait, a device has been devised so that a plurality of individuals can be simultaneously evaluated interactively by displaying a list of the results (a portrait image) generated by each individual on a computer screen. I have. However, in the case of robot training, one robot cannot simultaneously output results obtained from a plurality of individuals. In addition, a method in which one robot continuously outputs results sequentially can be considered, but this has a problem in that it is completely different from the actual training procedure.

【0006】この発明は、このような従来の事情に鑑み
てなされたもので、その目的とするところは、身振りや
音声によるユーザの入力とロボット動作出力との関係を
自動的に学習する方法として、1つの動作を評価するだ
けで複数の知識を修正する方法を繰り返し用いることに
より、動物を調教するような身振りや音声を用いた調教
の楽しみを疑似的に体験し得るロボット、ロボットシス
テム、ロボットの学習方法、ロボットシステムの学習方
法および記録媒体を提供することにある。
The present invention has been made in view of such conventional circumstances, and has as its object to provide a method for automatically learning the relationship between a user input by gesture and voice and a robot operation output. A robot, a robot system, and a robot capable of simulating the enjoyment of training using gestures and sounds, such as training an animal, by repeatedly using a method of correcting a plurality of knowledges by evaluating only one motion. And a learning method of a robot system and a recording medium.

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に、本出願の請求項1に記載の発明は、入力情報として
少なくとも画像情報または音声情報を取得する入力手段
と、前記入力情報についてユーザ指示またはユーザ評価
の種別を認識するとともにに、入力情報がユーザ評価で
ある場合には、当該ユーザ評価についての正解または不
正解の別を認識する認識手段と、前記入力情報から特徴
量を抽出する特徴量抽出手段と、動作を出力する動作出
力手段と、前記入力情報のユーザ指示に基づく特徴量を
前記動作出力手段によって出力すべき動作に変換する写
像関数を複数保持する記憶手段と、前記記憶手段から1
の写像関数を選択し、該写像関数を用いて前記ユーザ指
示に基づく特徴量を前記動作に変換する変換手段と、前
記動作出力手段から出力された動作に対する‘正解’の
ユーザ評価が得られたときには、当該動作への変換に用
いられた前記1の写像関数と、前記記憶手段に保持され
たその他の写像関数とを、遺伝的アルゴリズムを用いて
適宜に交差させることにより、前記記憶手段に保持され
るべき新たな写像関数を生成する学習手段と、を具備す
ることを特徴とするロボットにある。
According to a first aspect of the present invention, there is provided an input unit for acquiring at least image information or audio information as input information; In addition to recognizing the type of instruction or user evaluation, when the input information is a user evaluation, a recognition unit for recognizing whether the user evaluation is a correct answer or an incorrect answer, and extracting a feature amount from the input information Feature amount extraction means, action output means for outputting an action, storage means for holding a plurality of mapping functions for converting feature quantities based on a user instruction of the input information into actions to be output by the action output means, 1 from the means
And a conversion unit for converting the feature amount based on the user instruction into the operation using the mapping function, and a user evaluation of a 'correct answer' for the operation output from the operation output unit is obtained. Sometimes, the first mapping function used for the conversion to the operation and the other mapping function stored in the storage unit are appropriately crossed using a genetic algorithm, so that the first mapping function is stored in the storage unit. Learning means for generating a new mapping function to be performed.

【0008】尚、ここで言う『写像関数』には、例え
ば、ニューラルネットワーク等における「ユニット間の
結合重み値」、「ユニットのしきい値」等のパラメータ
で構成される関数パラメータ群そのものも含まれる。以
下同様とする。
[0008] The "mapping function" here includes a function parameter group itself composed of parameters such as "unit connection weight value" and "unit threshold value" in a neural network or the like. It is. The same applies hereinafter.

【0009】また、本出願の請求項2に記載の発明は、
学習手段を介して新たに生成された写像関数を少なくと
も含む複数の写像関数を、他のロボットと送受信する通
信手段を更に具備することを特徴とする請求項1に記載
のロボットにある。
The invention described in claim 2 of the present application is
The robot according to claim 1, further comprising communication means for transmitting / receiving a plurality of mapping functions including at least a mapping function newly generated via learning means to / from another robot.

【0010】また、本出願の請求項3に記載の発明は、
‘正解’のユーザ評価が得られたときの動作変換に用い
られた1の写像関数を、他のロボットと送受信する通信
手段と、前記通信手段を介して他のロボットより得られ
る前記1の写像関数と、自己の記憶手段に保持された写
像関数とを、遺伝的アルゴリズムを用いて適宜に交差さ
せることにより、前記記憶手段に保持されるべき新たな
写像関数を生成する学習手段とを更に具備することを特
徴とする、請求項1に記載のロボットにある。
The invention described in claim 3 of the present application is
Communication means for transmitting / receiving one mapping function used for the motion conversion when a user evaluation of 'correct answer' is obtained to / from another robot; and the one mapping obtained from another robot via the communication means Learning means for generating a new mapping function to be held in the storage means by appropriately intersecting the function and the mapping function held in its own storage means using a genetic algorithm. The robot according to claim 1, wherein:

【0011】また、本出願の請求項4に記載の発明は、
入力情報は、身振り、手振り、頭部動作、表情または音
声の少なくとも1つで表現されることを特徴とする請求
項1乃至3のいずれかに記載のロボットにある。
The invention described in claim 4 of the present application is
The robot according to any one of claims 1 to 3, wherein the input information is represented by at least one of a gesture, a hand gesture, a head movement, a facial expression, and a voice.

【0012】また、本出願の請求項5に記載の発明は、
入力手段は、ユーザが与える物理量を触覚情報としてセ
ンシングする検知手段を有し、前記入力情報は、身振
り、手振り、頭部動作、表情、音声または触覚の少なく
とも1つで表現されることを特徴とする請求項1乃至3
のいずれかに記載のロボットにある。
Further, the invention described in claim 5 of the present application provides
The input unit has a detection unit that senses a physical quantity given by a user as tactile information, and the input information is expressed by at least one of a gesture, a hand gesture, a head movement, a facial expression, a voice, or a tactile sense. Claims 1 to 3
The robot according to any one of the above.

【0013】また、本出願の請求項6に記載の発明は、
特徴量抽出手段は、前記入力情報から、身振り、手振
り、頭部動作、表情または音声の少なくとも1つ以上に
関する特徴量を抽出することを特徴とする請求項1乃至
5のいずれかに記載のロボットにある。
[0013] The invention described in claim 6 of the present application provides:
The robot according to any one of claims 1 to 5, wherein the characteristic amount extracting unit extracts a characteristic amount relating to at least one of a gesture, a hand gesture, a head movement, a facial expression, and a voice from the input information. It is in.

【0014】また、本出願の請求項7に記載の発明は、
正解または不正解は、身振り、手振り、頭部動作、表
情、音声または触覚の少なくとも1つで表現されること
を特徴とする請求項6に記載のロボットにある。
The invention described in claim 7 of the present application is
7. The robot according to claim 6, wherein the correct answer or the incorrect answer is expressed by at least one of a gesture, a hand gesture, a head movement, a facial expression, a voice, or a tactile sensation.

【0015】また、本出願の請求項8に記載の発明は、
動作出力手段は、動作を視覚的に表示出力する表示出力
手段であることを特徴とする請求項1乃至7のいずれか
に記載のロボットにある。
[0015] The invention described in claim 8 of the present application provides:
The robot according to any one of claims 1 to 7, wherein the motion output means is a display output means for visually displaying and outputting the motion.

【0016】また、本出願の請求項9に記載の発明は、
複数のロボットと、情報処理装置と、を具備するロボッ
トシステムであって、前記ロボットは、入力情報として
少なくとも画像情報または音声情報を取得する入力手段
と、前記入力情報についてユーザ指示またはユーザ評価
の種別を認識するとともにに、入力情報がユーザ評価で
ある場合には、当該ユーザ評価についての正解または不
正解の別を認識する認識手段と、前記入力情報から特徴
量を抽出する特徴量抽出手段と、動作を出力する動作出
力手段と、前記入力情報のユーザ指示に基づく特徴量を
前記動作出力手段によって出力すべき動作に変換する写
像関数を複数保持する記憶手段と、前記記憶手段から1
の写像関数を選択し、該写像関数を用いて前記ユーザ指
示に基づく特徴量を前記動作に変換する変換手段と、前
記情報処理装置と前記写像関数を送受信する通信手段
と、を有し、前記情報処理装置は、前記ロボットと前記
写像関数を送受信する通信手段と、1のロボットにおい
て出力された動作に対する‘正解’のユーザ評価が得ら
れたときに当該動作への変換に用いられた1の写像関数
と、該1のロボットまたはその他の1のロボットの有す
る複数の写像関数のうちの一部または全部とを、遺伝的
アルゴリズムを用いて適宜に交差させることにより、新
たな写像関数を生成する学習手段と、を有し、それによ
り、前記情報処理装置で生成された新たな写像関数を少
なくとも含む複数の写像関数は、前記通信手段を介して
情報処理装置から任意のロボットへと受け渡される、こ
とを特徴とするロボットシステムにある。
[0016] The invention described in claim 9 of the present application provides:
A robot system comprising: a plurality of robots; and an information processing device, wherein the robot obtains at least image information or audio information as input information, and a user instruction or a user evaluation type of the input information. Along with recognizing, when the input information is a user evaluation, a recognition unit that recognizes whether the user evaluation is a correct answer or an incorrect answer, a feature amount extraction unit that extracts a feature amount from the input information, An operation output unit that outputs an operation; a storage unit that holds a plurality of mapping functions that convert a feature amount based on a user instruction of the input information into an operation to be output by the operation output unit;
A conversion function for selecting a mapping function, converting the feature amount based on the user instruction into the operation using the mapping function, and a communication unit for transmitting and receiving the information processing device and the mapping function, The information processing apparatus includes: a communication unit that transmits and receives the mapping function to and from the robot; and one of the ones used for conversion to the motion when a user's evaluation of a 'correct answer' for the motion output by the one robot is obtained. A new mapping function is generated by appropriately intersecting the mapping function with some or all of the plurality of mapping functions of the one robot or another one robot using a genetic algorithm. Learning means, whereby a plurality of mapping functions including at least a new mapping function generated by the information processing apparatus can be arbitrarily transmitted from the information processing apparatus via the communication means. Is passed to the robot, in a robot system, characterized in that.

【0017】また、本出願の請求項10に記載の発明
は、請求項9のロボットシステムに適用されるロボット
であって、情報処理装置で生成された新たな写像関数を
少なくとも含む複数の写像関数を通信手段を介して受け
取ることにより、該複数の写像関数を移植されるロボッ
トにある。
According to a tenth aspect of the present invention, there is provided a robot applied to the robot system according to the ninth aspect, wherein a plurality of mapping functions including at least a new mapping function generated by the information processing apparatus. Is received by the communication means, so that the plurality of mapping functions are transferred to the robot.

【0018】また、本出願の請求項11に記載の発明
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段
と、を備えたロボットの学習方法であって、前記入力情
報についてユーザ指示またはユーザ評価の種別を認識す
るとともに、入力情報がユーザ評価である場合には、当
該ユーザ評価についての正解または不正解の別を認識す
る認識ステップと、前記入力情報から特徴量を抽出する
特徴量抽出ステップと、前記入力情報のユーザ指示に基
づく特徴量を前記動作出力手段によって出力すべき動作
に変換する写像関数を複数保持する記憶ステップと、前
記記憶ステップにより保持された複数の写像関数から1
の写像関数を選択し、該写像関数を用いて前記ユーザ指
示に基づく特徴量を前記動作に変換する変換ステップ
と、前記動作出力手段から出力された動作に対する‘正
解’のユーザ評価が得られたときには、当該動作への変
換に用いられた前記1の写像関数と、前記保持されたそ
の他の写像関数とを、遺伝的アルゴリズムを用いて適宜
に交差させることにより、新たに保持されるべき写像関
数を生成する学習ステップと、を具備することを特徴と
するロボットの学習方法にある。
The invention according to claim 11 of the present application is directed to a robot learning method comprising: input means for acquiring at least image information or audio information as input information; and operation output means for outputting an operation. A recognition step of recognizing a user instruction or a type of user evaluation with respect to the input information, and, if the input information is a user evaluation, recognizing whether the user evaluation is a correct answer or an incorrect answer; A feature value extraction step of extracting a feature value from information; a storage step of storing a plurality of mapping functions for converting a feature value based on a user instruction of the input information into an operation to be output by the operation output unit; 1 from multiple stored mapping functions
And a conversion step of using the mapping function to convert a feature value based on the user instruction into the motion, and a user evaluation of a 'correct answer' for the motion output from the motion output means is obtained. Sometimes, the mapping function to be newly held is obtained by appropriately intersecting the one mapping function used for the conversion into the operation and the other held mapping function using a genetic algorithm. And a learning step of generating a robot.

【0019】また、本出願の請求項12に記載の発明
は、請求項11に記載のロボットの学習方法をコンピュ
ータに実行させるためのプログラムとして記憶したコン
ピュータにより読み取り可能な記録媒体にある。
According to a twelfth aspect of the present invention, there is provided a computer-readable recording medium storing a program for causing a computer to execute the robot learning method according to the eleventh aspect.

【0020】また、本出願の請求項13に記載の発明
は、入力情報として少なくとも画像情報または音声情報
を取得する入力手段と、動作を出力する動作出力手段
と、データを送受信する通信手段とを備えた複数のロボ
ットと、前記ロボットとデータを送受信する通信手段を
備えた情報処理装置と、を具備するロボットシステムの
学習方法であって、各ロボットにおいて、前記入力情報
についてユーザ指示またはユーザ評価の種別を認識する
とともにに、入力情報がユーザ評価である場合には、当
該ユーザ評価についての正解または不正解の別を認識す
る認識ステップと、各ロボットにおいて、前記入力情報
から特徴量を抽出する特徴量抽出ステップと、各ロボッ
トにおいて、前記入力情報のユーザ指示に基づく特徴量
を前記動作出力手段によって出力すべき動作に変換する
写像関数を複数保持する記憶ステップと、各ロボットに
おいて、前記記憶ステップにより保持された複数の写像
関数から1の写像関数を選択し、該1の写像関数を用い
て前記ユーザ指示に基づく特徴量を前記動作に変換する
変換ステップと、前記情報処理装置において、1のロボ
ットにおいて出力された動作に対する‘正解’のユーザ
評価が得られたときに当該動作への変換に用いられた1
の写像関数と、該1のロボットまたはその他の1のロボ
ットの記憶手段に保持された複数の写像関数の一部また
は全部とを、前記通信手段を介して取得するデータ受信
ステップと、前記情報処理装置において、該取得された
‘正解’のユーザ評価が得られたときの1の写像関数
と、その他取得された写像関数とを、遺伝的アルゴリズ
ムを用いて適宜に交差させることにより、新たな写像関
数を生成する学習ステップと、該情報処理装置において
生成された新たな写像関数を含む複数の写像関数を、前
記通信手段を介して情報処理装置から任意のロボットへ
と受け渡すステップと、を具備することを特徴とするロ
ボットシステムの学習方法にある。
According to a thirteenth aspect of the present invention, an input means for acquiring at least image information or audio information as input information, an operation output means for outputting an operation, and a communication means for transmitting / receiving data. A learning method for a robot system comprising: a plurality of robots provided; and an information processing device provided with a communication unit for transmitting and receiving data to and from the robot, wherein each robot performs a user instruction or a user evaluation on the input information. A recognition step of recognizing the type and, if the input information is a user evaluation, recognizing whether the user evaluation is a correct answer or an incorrect answer; and a feature of extracting a feature amount from the input information in each robot. Quantity extracting step, and in each robot, a feature quantity based on a user instruction of the input information is sent to the motion output means. A storage function for storing a plurality of mapping functions to be converted into an operation to be output, and in each robot, selecting one mapping function from the plurality of mapping functions stored in the storage step and using the one mapping function. Converting the feature quantity based on the user's instruction into the motion by the user, and converting the motion to the motion when the user's evaluation of the “correct answer” for the motion output by one robot is obtained in the information processing device. 1 used for
A data receiving step of obtaining, via the communication means, a mapping function of the one robot and a part or all of a plurality of mapping functions held in storage means of the one robot or another one robot; In the apparatus, a new mapping function is obtained by appropriately intersecting the one mapping function obtained when the user evaluation of the obtained 'correct answer' is obtained and the other obtained mapping functions by using a genetic algorithm. A learning step of generating a function, and a step of passing a plurality of mapping functions including a new mapping function generated in the information processing device from the information processing device to an arbitrary robot via the communication unit. A learning method for a robot system.

【0021】また、本出願の請求項14に記載の発明
は、請求項13に記載のロボットシステムの学習方法を
コンピュータに実行させるためのプログラムとして記憶
したコンピュータにより読み取り可能な記録媒体にあ
る。
According to a fourteenth aspect of the present invention, there is provided a computer-readable recording medium storing a program for causing a computer to execute the robot system learning method according to the thirteenth aspect.

【0022】そして、この請求項1、2、3、4、5、
6、7、8、11、12に記載の発明によれば、ユーザ
からの指示に従うようにロボットを学習させることがで
き、また、ユーザ入力として身振りや音声等を用いるこ
とにより、機械操作に不慣れなユーザでも簡単にロボッ
トを学習(訓練)させることができる。さらに、玩具等
に応用した場合には、1つの動作を評価するだけで複数
の知識(写像関数)を学習する方法を繰り返し用いるこ
とにより、ユーザは動物を調教するような身振りや音声
を用いた調教の楽しみを疑似的に体験することができ
る。
In the first, second, third, fourth, fifth, and fifth aspects,
According to the inventions described in 6, 7, 8, 11, and 12, the robot can be made to learn so as to follow an instruction from a user, and by using a gesture or voice as a user input, the robot becomes unfamiliar with machine operation. Even a simple user can easily learn (train) the robot. Furthermore, when applied to toys and the like, the user uses gestures and voices to train animals by repeatedly using a method of learning a plurality of knowledges (mapping functions) only by evaluating one action. You can experience the fun of training in a simulated way.

【0023】また、請求項2または3に記載の発明によ
れば、学習手段により学習した写像関数を、通信手段を
介して他のロボットと送受信するので、複数のロボット
間で、1台のロボットに対する調教結果を他のロボット
にも反映させることができ、効率的な学習を行うことが
できる。
According to the second or third aspect of the present invention, the mapping function learned by the learning means is transmitted / received to / from another robot via the communication means. Can be reflected on other robots, and efficient learning can be performed.

【0024】また、請求項9、10、13、14に記載
の発明によれば、ユーザからの指示に従うようにロボッ
トを学習させることができ、また、ユーザ入力として身
振りや音声等を用いることにより、機械操作に不慣れな
ユーザでも簡単にロボットを学習(訓練)させることが
できる。また、玩具等に応用した場合には、1つの動作
を評価するだけで複数の知識等を学習する方法を繰り返
し用いることにより、ユーザは動物を調教するような身
振りや音声を用いた調教の楽しみを疑似的に体験するこ
とができる。さらに、学習は情報処理装置側に任せてロ
ボットは学習結果のみを保持するため、ロボット単体の
コストを下げることができる。更に、学習手段により学
習した写像関数を、通信手段を介して任意のロボットに
送受信するので、複数ロボット間の学習を効率的に行う
ことができる。
According to the present invention, the robot can be made to learn so as to follow instructions from the user, and by using gestures, voices, and the like as user inputs. In addition, even a user unfamiliar with machine operation can easily learn (train) the robot. In addition, when applied to toys, etc., the user repeatedly uses a method of learning a plurality of knowledges by evaluating only one action, so that the user can enjoy the training using gestures and sounds like training animals. Can be simulated. Further, since the learning is left to the information processing device and the robot holds only the learning result, the cost of the robot alone can be reduced. Further, since the mapping function learned by the learning means is transmitted / received to / from any robot via the communication means, learning between a plurality of robots can be efficiently performed.

【0025】[0025]

【発明の実施の形態】以下、本発明のロボットおよびロ
ボットの学習方法の実施の形態について、〔第1の実施
形態〕、〔第2の実施形態〕、〔第3の実施形態〕の順
に図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of a robot and a robot learning method according to the present invention will be described in the order of [first embodiment], [second embodiment], and [third embodiment]. This will be described in detail with reference to FIG.

【0026】〔第1の実施形態〕 まず図1は、本発明のロボットおよびロボットの学習方
法における基本動作原理を概念的に説明する説明図であ
る。
First Embodiment First, FIG. 1 is an explanatory diagram conceptually explaining a basic operation principle in a robot and a robot learning method of the present invention.

【0027】図1において、まず、人間(ユーザ)はロ
ボット101に何かを動作させたい場合に、ロボットに
対して指示(A)を与える。例えば、指示(A)の与え
方として「身振り」や「音声」がある。
In FIG. 1, first, a human (user) gives an instruction (A) to the robot 101 when the robot 101 wants to operate something. For example, there are “gesture” and “voice” as a method of giving the instruction (A).

【0028】一方、ロボット101は、身振りまたは音
声の特徴量を動作命令へ変換する写像関数を持ってい
る。つまり、複数の写像関数がデータベースとして記憶
されており、指示(A)が入力されると、ロボット10
1は、データベースから1つの写像関数をランダムに選
択する。さらに、ロボット101は、選択された写像関
数を用いて認識結果を動作命令へ変換し、該動作命令に
相当する動作を出力(B)する。
On the other hand, the robot 101 has a mapping function for converting a feature amount of gesture or voice into an operation command. That is, a plurality of mapping functions are stored as a database, and when the instruction (A) is input, the robot 10
1 randomly selects one mapping function from the database. Further, the robot 101 converts the recognition result into an operation command using the selected mapping function, and outputs (B) an operation corresponding to the operation command.

【0029】人間(ユーザ)は、そのようなロボット1
01の動作出力(B)を観察(C)する。人間は、該観
察(C)に基づいて、ロボット101の動作出力(B)
を評価(D)する。すなわち、動作出力(B)が人間の
意図と異なれば「ノー」の評価結果を、また人間の意図
と一致すれば「イエス」の評価結果をロボット101に
与える。
A human (user) can use such a robot 1
01 (B) is observed (C). Based on the observation (C), the human outputs the motion output (B) of the robot 101.
Is evaluated (D). That is, the evaluation result of “No” is given to the robot 101 if the motion output (B) is different from the human intention, and the evaluation result of “Yes” is given to the robot 101 if the motion output (B) matches the human intention.

【0030】一方、ロボット101側では、評価結果を
受けて、評価結果がイエスとされた写像関数を残し、評
価結果がノーの写像関数が削除されるように、写像関数
のデータベースを修正(E)する。また、評価結果がイ
エスの場合には、他の写像関数がイエスの写像関数に近
づくように修正する。
On the other hand, on the robot 101 side, upon receiving the evaluation result, the mapping function database is modified so that the mapping function whose evaluation result is “yes” is left and the mapping function whose evaluation result is “no” is deleted (E). ). If the evaluation result is yes, the other mapping function is modified so as to approach the mapping function of yes.

【0031】次に、図2は本発明の第1の実施形態に係
るロボット101の構成図である。図2において、本実
施形態のロボット101は、入力手段201、認識手段
202、学習手段203、特徴量抽出手段204、写像
関数データベース205、写像手段206および動作出
力手段207を備えて構成されている。
FIG. 2 is a configuration diagram of the robot 101 according to the first embodiment of the present invention. 2, the robot 101 according to the present embodiment includes an input unit 201, a recognition unit 202, a learning unit 203, a feature amount extraction unit 204, a mapping function database 205, a mapping unit 206, and an operation output unit 207. .

【0032】以下、本実施形態のロボット101を構成
する各構成要素の機能および動作について、詳細に説明
する。
Hereinafter, the functions and operations of each component constituting the robot 101 of the present embodiment will be described in detail.

【0033】まず、入力手段201は、ユーザからの指
示または評価結果を入力するための装置であり、例え
ば、身振り(画像)を取り込むCCDカメラ、音声を入
力するマイクロフォン、叩く動作や撫でる動作による振
動を感知する振動センサ、或いは、押しボタン等があ
る。
First, the input means 201 is a device for inputting an instruction or evaluation result from a user, for example, a CCD camera for capturing gestures (images), a microphone for inputting sound, vibrations caused by tapping and stroking operations. There is a vibration sensor or a push button or the like for sensing the vibration.

【0034】次に、認識手段202は、入力手段201
から送出される画像または音声等の入力データに、「イ
エス」または「ノー」を示す入力が含まれているか否か
を認識し、含まれていればこの「イエス/ノー」を学習
手段203に出力し、含まれていなければ「イエス/ノ
ー」以外の入力である旨の信号を特徴量抽出手段204
へ出力する。また、入力手段201から送出されるデー
タが振動センサによるものの場合には、振動データから
「撫でている/叩いている」を識別する。すなわち、認
識手段202内には、身振り(画像)データを認識する
身振り認識手段、音声データを認識する音声認識手段、
および、振動データを認識する振動認識手段を備えた構
成となっている。以下では、身振り認識手段、音声認識
手段および振動認識手段それぞれの具体的動作について
説明する。
Next, the recognizing means 202 is operated by the input means 201.
It recognizes whether input data indicating “yes” or “no” is included in input data such as an image or a sound transmitted from the device. A signal indicating that the input is an input other than “yes / no” if not included is output to the feature amount extracting means 204.
Output to If the data sent from the input means 201 is from a vibration sensor, “stroke / hit” is identified from the vibration data. That is, in the recognition means 202, a gesture recognition means for recognizing gesture (image) data, a voice recognition means for recognizing voice data,
In addition, the apparatus is provided with a vibration recognizing means for recognizing vibration data. Hereinafter, specific operations of the gesture recognition unit, the voice recognition unit, and the vibration recognition unit will be described.

【0035】まず、身振り認識手段では、ユーザの評価
結果として、入力手段201から身振り(画像)データ
が送出された場合に動作する。すなわち、CCDカメラ
から入力される動画像に含まれるユーザの身振りを認識
する。
First, the gesture recognition means operates when gesture (image) data is transmitted from the input means 201 as a user evaluation result. That is, the user's gesture included in the moving image input from the CCD camera is recognized.

【0036】このような人間の身振り手振りを認識する
技術は、柔軟なマンマシンインタフェースを構築する目
的で開発されてきており、古くは動作者にデータグロー
ブ等の接触型センサやマーカーを装着させて認識を行う
ものから、そのような装着を不要とするものまで種々の
認識技術が提案されている。例えば、最近の論文とし
て、西村拓一,向井理朗,野崎俊輔,岡隆一,”低解像
度特徴を用いたジェスチャの単一動画像からのスポッテ
ィング認識”,電子情報通信学会論文誌,D−II,Vol.
J80-D-II,No.6,pp.1563-1570,1997.には、センサ等
の装着なしに、人間の身振りや手振りをとらえた動画像
からのジェスチャ認識を、衣服・背景の変化や動作の軌
跡変動に影響されることなく行うものが提案されてい
る。このような身振り手振り認識技術を用いて身振り認
識手段は実現される。これにより、身振り認識手段にお
いて、例えば、両手を上げた場合は「イエス」、片手を
上げた場合は「ノー」といった身振り認識が可能であ
る。
Such a technique for recognizing human gestures has been developed for the purpose of constructing a flexible man-machine interface. In the past, an operator was required to attach a contact type sensor such as a data glove or a marker to an operator. Various recognition techniques have been proposed, from those that perform recognition to those that do not require such mounting. For example, recent papers include Takuichi Nishimura, Riro Mukai, Shunsuke Nozaki, and Ryuichi Oka, "Spotting Recognition of Gestures from Single Video Using Low Resolution Features," IEICE Transactions, D-II , Vol.
J80-D-II, No.6, pp.1563-1570, 1997. In Japanese Patent Application Laid-Open No. H11-229, there has been proposed an apparatus which performs gesture recognition from a moving image capturing a human gesture or hand gesture without wearing a sensor or the like without being affected by a change in clothes / background or a movement trajectory change. Gesture recognition means is realized using such a gesture recognition technique. This allows the gesture recognition means to recognize a gesture such as “yes” when both hands are raised and “no” when one hand is raised.

【0037】次に、音声認識手段では、ユーザの評価結
果として、入力手段201から音声データが送出された
場合に動作する。すなわち、マイクロフォンから入力さ
れる音声に含まれるユーザの「イエス/ノー」の音声を
認識する。
Next, the voice recognition means operates when voice data is transmitted from the input means 201 as a user evaluation result. That is, the voice of “yes / no” of the user included in the voice input from the microphone is recognized.

【0038】さらに、振動認識手段では、ユーザの評価
結果として、入力手段201から振動データが送出され
た場合に動作する。すなわち、振動センサから入力され
る振動データからユーザがロボット101を「撫でてい
る/叩いている」を識別して、ユーザの評価を認識す
る。例えば、撫でている場合は「イエス」、叩いている
場合は「ノー」と判断する。
Further, the vibration recognizing means operates when vibration data is transmitted from the input means 201 as a user evaluation result. That is, the user identifies “stroke / hit” the robot 101 from the vibration data input from the vibration sensor, and recognizes the user's evaluation. For example, it is determined “yes” when stroked, and “no” when struck.

【0039】より具体的に、認識は以下のようにして行
う。すなわち、撫でている場合において振動の大きさは
比較的小さく、何回も繰り返し撫でることから単位時間
当たりの振動回数が多くなる。また一方、叩く場合にお
いては、振動は比較的大きく振動回数は少ない。このよ
うな性質を利用して、振動の大きさおよび振動回数に基
づいて、「撫でている/叩いている」の認識を行う。例
えば、図3(a)および(b)に示すように、ファジイ
変数として「振動の回数」および「振動の強さ」につい
てのメンバシップ関数を用意し、図3(c)に示すよう
な、これらファジイ変数を用いた「振動を認識するファ
ジイ推論規則」に基づいて、「撫でる/叩く」すなわち
「イエス/ノー」の認識を行う。
More specifically, recognition is performed as follows. In other words, when stroked, the magnitude of the vibration is relatively small, and since the stroke is repeated many times, the number of vibrations per unit time increases. On the other hand, when hitting, the vibration is relatively large and the frequency of vibration is small. Utilizing such properties, recognition of "stroke / hitting" is performed based on the magnitude and frequency of vibration. For example, as shown in FIGS. 3A and 3B, a membership function for “number of vibrations” and “strength of vibration” is prepared as a fuzzy variable, and as shown in FIG. Based on the "fuzzy inference rules for recognizing vibration" using these fuzzy variables, "stroke / hit", that is, "yes / no" is recognized.

【0040】次に、特徴量抽出手段204は、入力手段
201から送出される画像または音声等のデータについ
て特徴量を抽出して出力する。この特徴量抽出手段20
4の出力は、図4に示すような、複数の特徴量(特徴量
1〜特徴量K)から構成される配列データ、すなわち特
徴量ベクトルとなる。また、特徴量抽出手段204内に
は、身振り(画像)データについて特徴量を抽出をする
身振り特徴量抽出手段、および、音声データについて特
徴量を抽出する音声特徴量抽出手段を備えた構成となっ
ている。以下では、身振り特徴量抽出手段および音声特
徴量抽出手段それぞれの具体的動作について説明する。
Next, the characteristic amount extracting means 204 extracts and outputs a characteristic amount from data such as an image or a sound transmitted from the input means 201. This feature amount extracting means 20
The output of No. 4 is array data composed of a plurality of feature quantities (feature quantities 1 to K) as shown in FIG. 4, that is, feature quantity vectors. In addition, the feature amount extracting unit 204 includes a gesture feature amount extracting unit that extracts a feature amount of gesture (image) data and a voice feature amount extracting unit that extracts a feature amount of voice data. ing. Hereinafter, specific operations of the gesture feature amount extraction unit and the voice feature amount extraction unit will be described.

【0041】まず、身振り特徴量抽出手段では、ユーザ
の指示が身振りである場合に画像データから身振りの特
徴量を抽出する。まず、認識手段202から身振りが
「イエス/ノー」以外の身振りであるという旨の信号を
受け取ると、その身振り(画像)データから身振り特徴
量の抽出を開始する。身振り特徴量を抽出する手順は、
以下の通りである。
First, the gesture feature amount extracting means extracts the feature amount of the gesture from the image data when the user's instruction is a gesture. First, when a signal indicating that the gesture is a gesture other than "yes / no" is received from the recognition unit 202, extraction of a gesture feature amount from the gesture (image) data is started. The procedure for extracting gesture features is
It is as follows.

【0042】まず、画像データの1フレーム毎に両手と
顔の肌色領域を抽出する。そして次に、これら肌色領域
の重心を求める。さらに、連続するフレームについて重
心を求め、該重心座標値をプロットしていくと重心の軌
跡が求まる。身振り動作時においては、手の動く方向が
変化する時に、重心の軌跡にも変曲点が出現することか
ら、隣接するフレーム間の重心のXY座標値の差分よ
り、重心が変化する方向を、水平方向をX座標、垂直方
向をY座標として求める。具体的には、「tanθ=X
座標値差分/Y座標値差分」として、θの値を求め、該
θがしきい値以上変化した場合に変曲点とみなす。この
ようにして求められた変曲点の時系列パターンを身振り
特徴量として用いることができる。例えば、i番目の変
曲点の方向をθiとして、(θ1,θ2,θ3,θ4,θ5)
を特徴量ベクトルとする。
First, skin color regions of both hands and face are extracted for each frame of image data. Then, the center of gravity of these skin color regions is obtained. Further, the center of gravity is obtained for successive frames, and the coordinates of the center of gravity are plotted to obtain the locus of the center of gravity. At the time of the gesture motion, when the direction in which the hand moves changes, an inflection point also appears in the locus of the center of gravity. Therefore, based on the difference between the XY coordinate values of the centers of gravity between adjacent frames, the direction in which the center of gravity changes, The horizontal direction is determined as the X coordinate, and the vertical direction is determined as the Y coordinate. Specifically, “tan θ = X
The value of θ is obtained as “coordinate value difference / Y coordinate value difference”, and when θ changes by a threshold value or more, it is regarded as an inflection point. The time series pattern of the inflection points obtained in this way can be used as a gesture feature amount. For example, assuming that the direction of the i-th inflection point is θi, (θ1, θ2, θ3, θ4, θ5)
Is a feature vector.

【0043】次に、音声特徴量抽出手段では、ユーザか
らの指示が音声で与えられた場合に音声データから音声
の特徴量を抽出する。まず、認識手段202から音声が
「イエス/ノー」以外の音声であるという旨の信号を受
け取ると、その音声データから音声特徴量の抽出を開始
する。
Next, the voice feature value extracting means extracts voice feature values from voice data when an instruction from the user is given by voice. First, when a signal indicating that the voice is a voice other than “yes / no” is received from the recognizing unit 202, extraction of a voice feature from the voice data is started.

【0044】音声特徴量は、良く知られた線形予測分析
によって求められるLPCケプストラム係数を用いるこ
とができる。例えば、20次の線形予測分析を行った場
合の出力は、20個の特徴量から構成される特徴量ベク
トル(図4参照)となる。尚、線形予測分析等について
は、中川聖一,鹿野清宏,東倉洋一著による「ニューロ
サイエンス&テクノロジーシリーズ;音声・聴覚と神経
回路網モデル」(1990年,オーム社発行)に詳し
い。
As the speech feature, an LPC cepstrum coefficient obtained by a well-known linear prediction analysis can be used. For example, the output when the twentieth-order linear prediction analysis is performed is a feature amount vector (see FIG. 4) composed of 20 feature amounts. The linear prediction analysis and the like are described in detail in "Neuroscience & Technology Series; Speech / Hearing and Neural Network Model" (1990, published by Ohmsha) by Seiichi Nakagawa, Kiyohiro Kano and Yoichi Higashikura.

【0045】次に、写像手段206は、後述する複数の
写像関数を記憶した写像関数データベース205から1
個の写像関数をランダムに選択し、その写像関数を用い
て、特徴量抽出手段204から受け取る特徴量ベクトル
を動作出力手段207に出力すべき動作命令に変換す
る。この動作命令は、図5に示すような、複数の動作
(動作1〜動作L)から構成される配列データとなる。
Next, the mapping means 206 receives one from a mapping function database 205 which stores a plurality of mapping functions to be described later.
The number of mapping functions is selected at random, and the mapping function is used to convert a feature vector received from the feature extraction unit 204 into an operation command to be output to the operation output unit 207. This operation command is array data composed of a plurality of operations (operation 1 to operation L) as shown in FIG.

【0046】写像関数の例として、ここでは図6に示す
ような階層型ニューラルネットワークを使用する。階層
型ニューラルネットワークは、入力層、隠れ層(中間
層)および出力層を備え、各層は複数個のユニットを備
える。入力層に与えた信号(ここでは、特徴量1〜特徴
量K)が結合の重みによって変換されながら出力層のユ
ニットの値(ここでは、動作1〜動作L)として出力さ
れる前向きの信号伝搬を行う。すなわち、1つの写像関
数に対して1つのニューラルネットワークが割り当てら
れ、ニューラルネットワークにおける入力層の各ユニッ
トに特徴量が割り当てられ、出力層の各ユニットに動作
命令が割り当てられる。特徴量ベクトルが入力されてニ
ューラルネットワークの計算処理が行われたときに、出
力層で最大値を持つユニットの動作命令が写像手段20
6の出力となる。
As an example of the mapping function, a hierarchical neural network as shown in FIG. 6 is used here. The hierarchical neural network includes an input layer, a hidden layer (intermediate layer), and an output layer, and each layer includes a plurality of units. Forward signal propagation in which a signal (here, feature value 1 to feature value K) given to the input layer is output as a unit value (here, operation 1 to operation L) of an output layer unit while being converted by the weight of the connection I do. That is, one neural network is assigned to one mapping function, a feature amount is assigned to each unit of the input layer in the neural network, and an operation command is assigned to each unit of the output layer. When a feature vector is input and a neural network calculation process is performed, the operation instruction of the unit having the maximum value in the output layer is transmitted to the mapping unit 20.
6 is output.

【0047】ニューラルネットワークにおいて、「ユニ
ット間の結合重み値」と「ユニットのしきい値」を関数
パラメータと呼ぶことにする。初期設定として、関数パ
ラメータが異なるように設定しておくことで、複数の異
なる写像関数を作ることができる。また、写像関数とし
て、次式(数1)のような重み付き線形和を用いること
もできる。すなわち、
In the neural network, the "connection weight between units" and the "threshold of a unit" will be referred to as function parameters. By setting different function parameters as initial settings, a plurality of different mapping functions can be created. Also, a weighted linear sum such as the following equation (Equation 1) can be used as the mapping function. That is,

【数1】yi=Σwij・xj (数1) ここで、i=1〜L,j=1〜Kで、 L:特徴量の数、 K:動作命令の数、 yi:i番目の動作命令の値、 wij:j番目の特徴量のi番目の動作命令に対する係
数、 xj:j番目の特徴量。 この場合、wijが関数パラメータとなる。上記線形式の
うち、最大値となる線形式に割り当てられた動作命令が
写像手段206から出力される。
## EQU1 ## where i = 1 to L, j = 1 to K, L: number of feature quantities, K: number of operation instructions, yi: ith operation instruction Wij: coefficient for the i-th operation instruction of the j-th feature quantity, xj: j-th feature quantity. In this case, wij is a function parameter. An operation command assigned to the maximum linear form among the linear forms is output from the mapping unit 206.

【0048】次に、写像関数データベース205では、
写像手段206で用いられる写像関数を記憶する。写像
関数全体を記憶しておくこともできるが、関数パラメー
タのみを記憶しておくこともできる。図7に写像関数デ
ータベース206内に記憶される写像関数の関数パラメ
ータの例を示す。
Next, in the mapping function database 205,
The mapping function used by the mapping means 206 is stored. The entire mapping function can be stored, or only the function parameters can be stored. FIG. 7 shows an example of function parameters of the mapping function stored in the mapping function database 206.

【0049】次に、学習手段203では、写像関数デー
タベース205の写像関数を学習によって修正する。こ
の修正により、ユーザにとって望ましい動作出力が得ら
れるようになる。本実施形態では、学習の手法として
は、遺伝的アルゴリズムを使用する。
Next, the learning means 203 corrects the mapping function of the mapping function database 205 by learning. With this modification, a desired operation output for the user can be obtained. In the present embodiment, a genetic algorithm is used as a learning technique.

【0050】ここで、遺伝子アルゴリズムで使用される
語について説明をしておく。「遺伝子(gene)」は個体
の性質を規定する基本的構成要素であり、「染色体(ch
romosome)」は遺伝子の集合体である。また「個体(in
dividual)」は染色体によって特徴づけられた自律的な
個であり、「集団(population)」は個体の集まりであ
る。また「遺伝子型(genotype)」は特徴量と特徴量の
マッピングの表現方法であり、一般的には“0”と
“1”のビット列を用いるが、ここでは実数値を用い
る。また「遺伝子座(locus)」は染色体上の遺伝子の
位置を意味する。さらに「表現型(phenotype)」は染
色体によって規定される形質の外部的表現であり、遺伝
子型は形質の染色体による内部表現である。表現型から
遺伝子型への写像を「コード化(coding)」と呼び、遺
伝子型から表現型への写像を「デコード化(decodin
g)」という。尚、多くの探索問題において、表現型=
遺伝子型とすれば十分であることが経験的に知られてい
る。
Here, words used in the genetic algorithm will be described. A “gene” is a basic component that defines the characteristics of an individual,
romosome) "is a collection of genes. In addition, "individual (in
A "dividual" is an autonomous individual characterized by chromosomes, and a "population" is a collection of individuals. The “genotype” is a method of expressing a feature amount and mapping of the feature amount, and generally uses a bit string of “0” and “1”. Here, a real value is used. “Locus” means the position of a gene on a chromosome. Further, "phenotype" is the external representation of a trait defined by a chromosome, and genotype is the internal representation of the trait by the chromosome. The mapping from phenotype to genotype is called "coding," and the mapping from genotype to phenotype is "decoding (decodin
g) ". In many search problems, phenotype =
It is empirically known that a genotype is sufficient.

【0051】図8に示すように、本実施形態では、個体
を1つの写像関数とし、集団を全ての写像関数の集まり
(個体数がP個の集団を仮定)としている。また、染色
体は写像関数パラメータの配列であり、遺伝子は1つの
写像関数パラメータである。
As shown in FIG. 8, in this embodiment, an individual is defined as one mapping function, and a group is defined as a set of all mapping functions (assuming a group of P individuals). A chromosome is an array of mapping function parameters, and a gene is one mapping function parameter.

【0052】次に、遺伝的アルゴリズムによる学習処理
の流れについて図9のフローチャートを参照しながら説
明する。尚、従来の遺伝子アルゴリズムにおいては、1
回毎に全ての個体を評価するが、本実施形態の遺伝子ア
ルゴリズムでは、1回に選択される個体は1個だけであ
る。また、評価は「イエス/ノー」の2値である。した
がって、従来の遺伝子アルゴリズムをそのまま適用する
ことができず、図9に示すような新しい遺伝子アルゴリ
ズムの処理フローが必要となる。
Next, the flow of the learning process by the genetic algorithm will be described with reference to the flowchart of FIG. In the conventional genetic algorithm, 1
All individuals are evaluated each time, but in the genetic algorithm of the present embodiment, only one individual is selected at a time. The evaluation is a binary value of “yes / no”. Therefore, the conventional genetic algorithm cannot be applied as it is, and a new genetic algorithm processing flow as shown in FIG. 9 is required.

【0053】図9において、まずステップS901で
は、初期集団を発生する。遺伝子の初期値は乱数によっ
て決めてもよいし、ユーザが任意に与えるようにしても
よい。次に、ステップS902では、選択された個体
(写像関数)を用いた場合のユーザの評価結果を認識手
段202から取得する。そしてステップS903では、
ユーザ評価結果の内容「イエス/ノー」により分岐す
る。
In FIG. 9, first, in step S901, an initial group is generated. The initial value of the gene may be determined by a random number, or may be arbitrarily given by the user. Next, in step S902, a user's evaluation result when the selected individual (mapping function) is used is acquired from the recognition unit 202. Then, in step S903,
Branch depending on the content of the user evaluation result “yes / no”.

【0054】すなわち、ステップS903においてユー
ザ評価結果が「イエス」の場合には、その個体が表現す
る写像関数は正しかったことになる。これを「正解個
体」と呼び、次世代に残すべき個体である。この場合、
ステップS904に進んで、正解個体を除いた集団の
(P−1)個の各個体について、正解個体との間で交差
を行い子個体を生成する。すなわち、図10の説明図に
示すように、図10(a)において、正解個体を除いた
(P−1)個の個体の集団から順番に1つずつ選んで親
個体とし、図10(b)において、正解個体と親個体と
の間で交差を行って1つの子個体を作る。ここで、「交
差」とは、1つの個体間で任意の位置で切れた遺伝子同
士をつなぎ合わせる操作であり、これによって優秀な遺
伝子同士を組み合わせて精度を向上していくものであ
る。尚、交差方法には、一点交差、二点交差、一様交差
等がある。
That is, if the user evaluation result is “yes” in step S 903, the mapping function represented by the individual is correct. This is called the "correct individual" and is an individual that should be left for the next generation. in this case,
Proceeding to step S904, for each of the (P-1) individuals in the group excluding the correct individual, the intersection with the correct individual is performed to generate a child individual. That is, as shown in an explanatory diagram of FIG. 10, in FIG. 10A, one parent is selected one by one from a group of (P−1) individuals excluding the correct individuals, and the parent individuals are selected. In step (1), the correct individual and the parent individual cross each other to create one child individual. Here, "crossing" is an operation of connecting genes cut at an arbitrary position between one individual, and thereby improving the accuracy by combining excellent genes. The intersection method includes a one-point intersection, a two-point intersection, a uniform intersection, and the like.

【0055】次に、ステップS905では、突然変異の
確認を行うべく、確率により突然変異を実行するか否か
を決定する。ここで、「突然変異」とは、ある時突然に
遺伝子が変化してしまう現象である。これによりローカ
ルミニマムに陥るのを防ぐ。尚、どこをどのように変え
るかはランダムに決定される。例えば、それぞれの子個
体に対して0〜1の間で乱数を生成し、生成された数値
が0.5未満ならば突然変異を実行せず、0.5以上な
らば突然変異を実行するというように設定する。
Next, in step S905, it is determined whether or not the mutation is to be performed with a probability in order to confirm the mutation. Here, “mutation” is a phenomenon in which a gene is suddenly changed at a certain time. This will prevent you from falling into a local minimum. Note that where and how to change is determined at random. For example, a random number is generated between 0 and 1 for each child individual, and if the generated numerical value is less than 0.5, no mutation is performed; if the generated numerical value is 0.5 or more, the mutation is performed. Set as follows.

【0056】さらに、ステップS906では、突然変異
を実行する。すなわち、図10(c)に示すように、ス
テップS905の生成数値に基づいて、確率的に子個体
を突然変異させるか、或いは突然変異させない。尚、突
然変異させない場合には、ステップS905からステッ
プS902に移行する。
Further, in step S906, a mutation is performed. That is, as shown in FIG. 10C, based on the generated numerical value in step S905, the child individual is stochastically mutated or not mutated. If no mutation is made, the process moves from step S905 to step S902.

【0057】以上のように、ステップS903におい
て、評価結果が「イエス」の場合、ステップS904〜
S906を(P−1)個の親個体について実行して(P
−1)個の子個体を作成する。すなわち、図10(d)
および(e)に示すように、正解個体と(P−1)個の
子個体を合わせたP個の個体からなる集団を、次世代の
集団として、写像関数データベース205の古い集団と
入れ替える。
As described above, in step S903, if the evaluation result is "yes", steps S904 to S904 are performed.
S906 is executed for (P-1) parent individuals, and (P1)
-1) Create offspring individuals. That is, FIG.
As shown in (e) and (e), the group consisting of P individuals including the correct individuals and (P-1) child individuals is replaced with the old population in the mapping function database 205 as the next generation population.

【0058】尚、以上の説明では、正解個体1個と(P
−1)個の親個体から(P−1)個の子個体を作成した
が、正解個体をN個複製して、正解個体N個と(P−
N)個の親個体から(P−1)個の子個体を作成するよ
うにしてもよい。この場合、(P−1)個の親個体から
(P−N)個をランダムに選択するか、或いは、正解個
体との距離が近い順に(P−N)個を選択する。距離
は、遺伝子座ごとに二乗誤差を求め、これを全ての遺伝
子座について加算することにより求められる。さらに、
上記距離を、それぞれの親個体の適合度とみなして、全
ての親個体を評価することもできる。
In the above description, one correct individual and (P
Although (P-1) child individuals were created from -1) parent individuals, N correct individuals were duplicated, and N correct individuals and (P-
(P-1) child individuals may be created from N) parent individuals. In this case, (PN) individuals are randomly selected from (P-1) parent individuals, or (PN) individuals are selected in order of decreasing distance from the correct individual. The distance is obtained by calculating a square error for each locus and adding the square error for all loci. further,
It is also possible to evaluate all the parent individuals by regarding the distance as the fitness of each parent individual.

【0059】また、ステップS903においてユーザ評
価結果が「ノー」の場合には、その個体が表現する写像
関数は間違っていたことになる。これを「不良個体」と
呼び、ステップS907において、該不良個体を集団か
ら削除する。不良個体を集団から削除したので、集団か
ら個体が1つ欠けたことになっており、さらに、ステッ
プS908では、新しい個体1つを生成して集団に補充
する。尚、新しい個体の遺伝子は乱数で決定する。
If the result of the user evaluation is "NO" in step S903, the mapping function represented by the individual is wrong. This is called a “bad individual”, and in step S907, the bad individual is deleted from the group. Since the bad individual has been deleted from the group, one individual is missing from the group, and in step S908, one new individual is generated and supplemented to the group. The gene of a new individual is determined by random numbers.

【0060】以上の処理手順を繰り返すうちに、正解個
体が増加し、不良個体が減少して、次第にロボット10
1の動作がユーザの意図に沿うようになる。
As the above procedure is repeated, the number of correct individuals increases, the number of defective individuals decreases, and the robot 10
The first operation conforms to the user's intention.

【0061】さらに、動作出力手段207では、写像手
段206により取得された動作命令に基づき動作を出力
する。それぞれの動作命令に対して、ロボット101の
4肢、首、尻尾等の各関節に取り付けられているモータ
に対する制御量が与えられており、動作命令が取得され
ると、相当する制御量を用いてロボット101の各関節
を駆動する。
Further, the operation output means 207 outputs an operation based on the operation command obtained by the mapping means 206. For each operation command, a control amount for a motor attached to each joint such as the limb, neck, and tail of the robot 101 is given, and when the operation command is acquired, the corresponding control amount is used. To drive each joint of the robot 101.

【0062】動作命令としては、犬型ロボットの場合、
例えば、「首を縦に振る」、「首を横に振る」、「尻尾
を振る」、「4本足で立った状態から前足の1本を上げ
る(お手の姿勢)」、「両後足を曲げて尻を地面につい
て両前足を上げる(お座りの姿勢)」、「4本の足を折
り畳んで頭部を地面に着ける(伏せの姿勢)」等々があ
る。
As an operation command, in the case of a dog type robot,
For example, "shaking the head vertically", "shaking the head sideways", "shaking the tail", "raising one of the front legs from a state of standing with four legs (hand posture)", "both rears""Bend your feet and raise your forefoot with the buttocks on the ground (sitting position)" and "Fold your four feet and put your head on the ground (prone position)" and so on.

【0063】以上、本実施形態のロボット101を構成
する各構成要素の機能および動作について説明したが、
次に、本実施形態のロボットの学習動作の全体的な処理
手順について、図11に示すフローチャートを参照して
説明する。
The functions and operations of the components constituting the robot 101 according to the present embodiment have been described above.
Next, the overall processing procedure of the learning operation of the robot according to the present embodiment will be described with reference to the flowchart shown in FIG.

【0064】まず、ステップS1101では、入力手段
201を介してユーザ入力を取得する。次に、ステップ
S1102では、認識手段202を用いて、入力が「指
示」であるか、或いはロボット101が実行した動作に
対する「評価」であるかを認識する。
First, in step S 1101, a user input is obtained via the input unit 201. Next, in step S1102, the recognition unit 202 recognizes whether the input is an “instruction” or an “evaluation” for the operation performed by the robot 101.

【0065】入力が「評価」である場合には、ステップ
S1103に進んで、学習手段203により動作フラグ
を確認する。ここで、動作フラグは、入力が、ロボット
101が動作を実行した後一定時間以内に与えられた評
価であるか否かを判定するものである。すなわち、動作
フラグが1の場合は、一定時間内に与えられ、直前のロ
ボット101の実行動作に対する評価であるとみなさ
れ、また、動作フラグが0の場合は、一定時間を越えて
与えられ、実行動作に対する評価であるとはみなされな
い。動作フラグが1の場合にはステップS1104に進
み、動作フラグが0の場合にはステップS1101に戻
る。
If the input is "evaluation", the flow advances to step S1103 to check the operation flag by the learning means 203. Here, the operation flag determines whether or not the input is an evaluation given within a predetermined time after the robot 101 performs the operation. That is, when the operation flag is 1, it is given within a certain period of time and is regarded as an evaluation of the immediately preceding execution operation of the robot 101. When the operation flag is 0, it is given over a certain period of time. It is not considered to be an evaluation of the execution action. If the operation flag is 1, the process proceeds to step S1104, and if the operation flag is 0, the process returns to step S1101.

【0066】つまり、動作フラグが1の場合、直前の実
行動作に対する評価であるとみなされ、ステップS11
04において、学習手段203を用いて写像関数群を学
習する。また、ステップS1105では、学習手段20
3は動作フラグを0に戻して、ステップS1101に戻
る。
That is, when the operation flag is 1, it is considered that the evaluation is the evaluation for the immediately preceding execution operation, and step S11
In step 04, the mapping function group is learned using the learning means 203. In step S1105, the learning unit 20
3 returns the operation flag to 0, and returns to step S1101.

【0067】また、ステップS1102において、入力
が「指示」である場合には、ステップS1106に進ん
で、認識手段202により動作フラグを1にする。ま
た、ステップS1107では、特徴量抽出手段204に
よりユーザ入力の特徴量を抽出する。次に、ステップS
1108では、学習手段203により写像関数データベ
ース205に保存してある写像関数群から1つの写像関
数を選択し、ステップS1109で、選択した写像関数
を用いて抽出された特徴量を動作命令に変換する。さら
に、ステップS1110では、動作出力手段207によ
り写像手段206が出力する動作命令にしたがって動作
を出力する。
If the input is "instruction" in step S1102, the flow advances to step S1106 to set the operation flag to 1 by the recognition means 202. In step S1107, the feature amount extracted by the user is extracted by the feature amount extracting unit 204. Next, step S
In step 1108, one learning function is selected from the mapping function group stored in the mapping function database 205 by the learning means 203, and in step S1109, the feature quantity extracted using the selected mapping function is converted into an operation command. . Further, in step S1110, the operation output unit 207 outputs an operation according to the operation command output from the mapping unit 206.

【0068】次に、ステップS1111では、認識手段
202により、動作出力手段207によって動作を出力
してから一定時間が経過したか否かを判定する。一定時
間が経過していれば動作フラグを0に戻した後、また一
定時間が経過していなければ動作フラグを1としたま
ま、ステップS1101に戻る。
Next, in step S1111, the recognizing means 202 determines whether or not a predetermined time has elapsed since the operation was output by the operation output means 207. If the fixed time has elapsed, the operation flag is returned to 0. If the fixed time has not elapsed, the operation flag returns to 1 and the process returns to step S1101.

【0069】以上説明したように、図2に示された第1
の実施形態のロボットおよびロボットの学習方法、並び
に、該ロボットの学習方法をプログラムとして記録する
記憶媒体では、認識手段202により、身振り、音声ま
たは(振動センシングによる)触覚で表現されるユーザ
入力についてユーザ指示またはユーザ評価の種別を認識
し、特徴量抽出手段204により、ユーザ入力から身振
りまたは音声に関する特徴量を抽出し、また写像関数デ
ータベース205には、特徴量を動作出力手段207に
よって出力すべき動作に写像変換する写像関数等を保持
し、学習手段203により、写像関数データベース20
5に保持されている写像関数群を、出力動作についてユ
ーザが判断する「正解」または「不正解」によって与え
られるユーザ評価に基づき学習して、さらに写像手段2
06により、写像関数データベース205から1の写像
関数を選択して、該写像関数を用いて抽出された特徴量
を動作命令に変換し、動作出力手段207から該動作命
令に応じた動作を出力する。
As described above, the first type shown in FIG.
In the robot according to the embodiment, the robot learning method, and the storage medium that records the robot learning method as a program, the recognition unit 202 allows the user to input a user input expressed by gesture, voice, or tactile sense (by vibration sensing). Recognizing the type of the instruction or the user evaluation, extracting a feature amount relating to gesture or voice from the user input by the feature amount extraction unit 204, and outputting the feature amount to the mapping function database 205 by the operation output unit 207. The mapping function database 20 stores a mapping function and the like for performing a mapping conversion.
5 is learned based on a user evaluation given by a "correct answer" or an "incorrect answer" determined by the user regarding the output operation, and furthermore, the mapping function group 2 is stored.
In step 06, one mapping function is selected from the mapping function database 205, the feature quantity extracted using the mapping function is converted into an operation command, and an operation corresponding to the operation command is output from the operation output unit 207. .

【0070】これにより、ユーザからの指示に従うよう
にロボットを学習させることができ、新しい動作を教え
ていくことができるので飽きずに楽しむことができる。
また、ユーザ入力として、身振りや音声等を用いるので
機械操作に不慣れなユーザでも簡単にロボットを学習
(訓練)させることができ、本物のペットを調教してい
るかのような育てる楽しみをユーザが享受できる。ま
た、ユーザによって調教内容が異なるので、個性的なロ
ボットを作る楽しみもある。さらに、1つの動作を評価
するだけで複数の知識等を学習する方法を繰り返し用い
ることにより、ユーザは動物を調教するような身振りや
音声を用いた調教の楽しみを疑似的に体験することがで
きる。
Thus, the robot can be made to learn so as to follow the instructions from the user, and it is possible to teach new operations, so that the user can enjoy the game without getting tired.
In addition, since gestures, voices, and the like are used as user input, even a user unfamiliar with machine operation can easily learn (train) a robot, and enjoy the fun of raising a real pet as if training a pet. it can. In addition, since the training content differs depending on the user, there is also a pleasure to make a unique robot. Further, by repeatedly using a method of learning a plurality of pieces of knowledge by evaluating only one action, the user can experience a simulated enjoyment of training using gestures and sounds, such as training animals. .

【0071】尚、上記説明では、ロボットを実体的な装
置として構成したが、これに限定されることなく、例え
ば、パーソナルコンピュータやゲーム機等の情報処理装
置において、表示出力手段上に仮想的に形成されるロボ
ットであってもよい。
In the above description, the robot is configured as a substantial device. However, the present invention is not limited to this. For example, in an information processing device such as a personal computer or a game machine, the robot is virtually displayed on the display output means. A robot to be formed may be used.

【0072】〔第2の実施形態〕 次に、図12は本発明の第2の実施形態に係るロボット
システムの構成図である。本実施形態のロボットシステ
ムは、第1ロボット1201および第2ロボット120
2の複数のロボットが存在し、同様の動作を学習させる
ことを想定している。すなわち、複数のロボットが存在
する場合に、個別に同等の動作学習をさせたのでは効率
的でないことから、1台のロボットに対する調教結果が
他のロボットにも即座に反映されるように構成したもの
である。尚、同図において、図2に示される装置と同一
構成部分については、同符号を付すことにより説明は省
略する。
[Second Embodiment] Next, FIG. 12 is a configuration diagram of a robot system according to a second embodiment of the present invention. The robot system according to the present embodiment includes a first robot 1201 and a second robot 120.
It is assumed that there are two or more robots and they learn the same motion. That is, in the case where a plurality of robots exist, it is not efficient to individually perform the same motion learning, so that the training result for one robot is immediately reflected in other robots. Things. In the figure, the same components as those of the apparatus shown in FIG.

【0073】図12において、本実施形態の第1ロボッ
ト1201は、入力手段201、認識手段202、学習
手段1213、通信手段1221、特徴量抽出手段20
4、写像関数データベース205、写像手段206およ
び動作出力手段207を備えて構成されている。また、
第2ロボット1202についても、通信手段1222以
外は第1ロボット1201と同等の構成を備えている。
In FIG. 12, a first robot 1201 of this embodiment includes an input unit 201, a recognition unit 202, a learning unit 1213, a communication unit 1221, and a feature amount extraction unit 20.
4. It comprises a mapping function database 205, a mapping means 206 and an operation output means 207. Also,
The second robot 1202 also has the same configuration as the first robot 1201 except for the communication unit 1222.

【0074】この第2の実施形態の特徴は、第1ロボッ
ト1201の学習手段1213により学習した写像関数
を、写像関数データベース205内に保持すると共に、
通信手段1221,1222を介して第2ロボット12
02にも送信する。
The feature of the second embodiment is that the mapping function learned by the learning means 1213 of the first robot 1201 is stored in the mapping function database 205,
The second robot 12 via the communication means 1221 and 1222
02 is also transmitted.

【0075】すなわち、まず、第1ロボット1201が
動作を出力して調教され、内部に持つ写像関数データベ
ース205の知識(写像関数パラメータ)が学習され
る。この時、学習の遺伝子アルゴリズムにおいて、正解
個体であった場合は、第1の実施形態で説明したと同様
の手順を進めると共に、該正解個体を第2ロボット12
02に対して通信手段1221,1222を介して送信
する。一方、正解個体を受け取った第2ロボット120
2側では、学習の遺伝子アルゴリズムにおいて、該正解
固体に対して距離が最も離れた個体を削除し、該削除し
た個体の代わりに正解個体を置き、残りの個体と正解個
体の間で交差等の操作を行う。
That is, first, the first robot 1201 outputs an action and is trained, and the knowledge (mapping function parameters) of the mapping function database 205 contained therein is learned. At this time, in the learning genetic algorithm, if the individual is a correct individual, the same procedure as described in the first embodiment is performed, and the correct individual is transferred to the second robot 12.
02 via the communication means 1221 and 1222. On the other hand, the second robot 120 receiving the correct individual
On the second side, in the learning genetic algorithm, the individual with the longest distance to the correct individual is deleted, the correct individual is placed in place of the deleted individual, and the intersection between the remaining individual and the correct individual is determined. Perform the operation.

【0076】このように、本実施形態では、1台のロボ
ットに対する調教結果を他のロボットにも反映させるの
で、複数のロボット間で効率的な学習を行うことができ
る。
As described above, in the present embodiment, since the training result for one robot is reflected on other robots, efficient learning can be performed among a plurality of robots.

【0077】〔第3の実施形態〕 次に、図13は本発明の第3の実施形態に係るロボット
システムの構成図である。本実施形態は、第1ロボット
1301および第2ロボット1302の複数のロボット
と、計算機1300を備えたロボットシステムであっ
て、第1ロボット1301および第2ロボット1302
に対して同様の動作を学習させることを想定している。
尚、同図において、図2に示される装置と同一構成部分
については、同符号を付すことにより説明は省略する。
Third Embodiment Next, FIG. 13 is a configuration diagram of a robot system according to a third embodiment of the present invention. The present embodiment is a robot system including a plurality of first robots 1301 and second robots 1302 and a computer 1300, and includes a first robot 1301 and a second robot 1302.
Is assumed to learn the same operation.
In the figure, the same components as those of the apparatus shown in FIG.

【0078】図13において、本実施形態の第1ロボッ
ト1301は、入力手段201、認識手段1302、通
信手段1321、特徴量抽出手段204、写像関数デー
タベース1305、写像手段206および動作出力手段
207を備えて構成されている。また、第2ロボット1
302についても、通信手段1322以外は第1ロボッ
ト1301と同等の構成を備えている。さらに、計算機
1300は、通信手段1320および学習手段1313
を備えた構成である。
In FIG. 13, the first robot 1301 of this embodiment includes an input unit 201, a recognition unit 1302, a communication unit 1321, a feature amount extraction unit 204, a mapping function database 1305, a mapping unit 206, and an operation output unit 207. It is configured. Also, the second robot 1
302 also has the same configuration as the first robot 1301 except for the communication means 1322. Further, the computer 1300 includes a communication unit 1320 and a learning unit 1313.
It is a configuration provided with.

【0079】この第3の実施形態では、各ロボットにお
いて、認識手段1312により、身振り音声または触覚
で表現されるユーザ入力についてユーザ指示またはユー
ザ評価の種別を認識し、また特徴量抽出手段204によ
り、ユーザ入力から身振りまたは音声に関する特徴量を
抽出し、写像関数データベース1315には、ユーザ指
示に基づく特徴量を動作出力手段207によって出力す
べき動作に変換する知識や写像関数パラメータが保持さ
れ、写像手段206により、写像関数データベース13
15から1の写像関数が選択され、該写像関数を用いて
抽出された特徴量を動作命令に変換し、動作出力手段2
07により該動作命令に応じた動作を出力する。また一
方、計算機1300側では、学習手段1313により、
各ロボットの写像関数データベース1315に保持され
ている知識や写像関数を、出力動作についてユーザが判
断する「正解」または「不正解」によって与えられるユ
ーザ評価に基づき学習し、学習後の知識や写像関数を通
信手段1320を介して各ロボットに送信する。
In the third embodiment, in each robot, a recognition unit 1312 recognizes a user instruction or a user evaluation type with respect to a user input expressed by a gesture voice or a tactile sense, and a feature amount extraction unit 204 A feature amount relating to gesture or voice is extracted from the user input, and the mapping function database 1315 holds knowledge and mapping function parameters for converting the feature amount based on the user instruction into an operation to be output by the operation output unit 207. 206, the mapping function database 13
15 is selected, and the feature quantity extracted using the mapping function is converted into an operation command.
07, an operation corresponding to the operation instruction is output. On the other hand, on the computer 1300 side, the learning means 1313
The knowledge and the mapping function stored in the mapping function database 1315 of each robot are learned based on the user evaluation given by the “correct answer” or “incorrect answer” that the user judges for the output operation, and the knowledge and the mapping function after learning are learned. Is transmitted to each robot via the communication means 1320.

【0080】例えば、第1ロボット1301が動作を出
力して調教されるとする。この時、第1ロボット130
1が持つ写像関数データベース1315の知識や写像関
数、および、第2ロボット1302が持つ写像関数デー
タベースの知識や写像関数が、計算機1300に送信さ
れる。また、第1ロボット1301が出力した動作が正
解か不正解かの認識結果も計算機1300に送信され
る。計算機1300では、該認識結果を元にして、第1
の実施形態で説明した遺伝子アルゴリズムを実行する。
その後、この遺伝子アルゴリズムにより学習された知識
や写像関数は、計算機1300から第1ロボット130
1および第2ロボット1302に送信され、各写像関数
データベースの内容が更新される。
For example, it is assumed that the first robot 1301 outputs a motion and is trained. At this time, the first robot 130
The knowledge and the mapping function of the mapping function database 1315 of the first robot 1 and the knowledge and the mapping function of the mapping function database of the second robot 1302 are transmitted to the computer 1300. In addition, a recognition result indicating whether the operation output by the first robot 1301 is correct or incorrect is also transmitted to the computer 1300. In the computer 1300, based on the recognition result, the first
The genetic algorithm described in the embodiment is executed.
After that, the knowledge and the mapping function learned by this genetic algorithm are transferred from the computer 1300 to the first robot 130.
The contents are transmitted to the first and second robots 1302, and the contents of each mapping function database are updated.

【0081】これにより、第1の実施形態と同様に、ユ
ーザからの指示に従うようにロボットを学習させること
ができ、また、ユーザ入力として身振りや音声等を用い
るので機械操作に不慣れなユーザでも簡単にロボットを
学習(訓練)させることができ、さらに、玩具等に応用
した場合には、1つの動作を評価するだけで複数の知識
等を学習する方法を繰り返し用いることにより、ユーザ
は動物を調教するような身振りや音声を用いた調教の楽
しみを疑似的に体験することができるといった効果を奏
する他に、本実施形態特有の効果として、学習を計算機
1300側に任せて各ロボット1301,1302には
学習結果のみ保持するので、ロボット単体のコストを下
げることができると共に、複数ロボット間の学習を効率
的に行うことができる。
Thus, as in the first embodiment, the robot can be made to learn so as to follow the instructions from the user, and even if the user is unfamiliar with the machine operation, the user can use gestures and voices as user inputs. Can learn (train) the robot, and when applied to a toy or the like, the user can train an animal by repeatedly using a method of learning a plurality of knowledge by evaluating only one action. In addition to the effect of being able to experience the pleasure of training using gestures and voices in a simulated manner, another effect unique to the present embodiment is that the learning is left to the computer 1300 and the robots 1301 and 1302 are assigned to the robots 1301 and 1302. Holds only the learning result, so that the cost of the robot alone can be reduced and learning between multiple robots can be performed efficiently. That.

【0082】[0082]

【発明の効果】以上の説明から明らかなように、本発明
によれば、ユーザからの指示に従うようにロボットを学
習させることができ、また、ユーザ入力として身振りや
音声等を用いることにより、機械操作に不慣れなユーザ
でも簡単にロボットを学習(訓練)させることができ
る。さらに、玩具等に応用した場合には、1つの動作を
評価するだけで複数の知識等を学習する方法を繰り返し
用いることにより、ユーザは動物を調教するような身振
りや音声を用いた調教の楽しみを疑似的に体験すること
ができる。
As is clear from the above description, according to the present invention, a robot can be made to learn in accordance with an instruction from a user, and a machine can be learned by using a gesture or voice as a user input. Even a user unfamiliar with the operation can easily learn (train) the robot. Further, when applied to toys, etc., the user repeatedly uses a method of learning a plurality of knowledges by evaluating only one action, so that the user can enjoy the training using gestures and sounds such as training animals. Can be simulated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のロボットおよびロボットの学習方法に
おける基本動作原理を概念的に説明する説明図である。
FIG. 1 is an explanatory diagram conceptually explaining a basic operation principle in a robot and a robot learning method of the present invention.

【図2】本発明の第1の実施形態に係るロボットの構成
図である。
FIG. 2 is a configuration diagram of a robot according to the first embodiment of the present invention.

【図3】図3(a),(b)はメンバシップ関数「振動
の回数」および「振動の強さ」の説明図、図3(c)は
振動を認識するファジイ推論規則の説明図である。
3 (a) and 3 (b) are explanatory diagrams of membership functions “number of vibrations” and “vibration intensity”, and FIG. 3 (c) is an explanatory diagram of fuzzy inference rules for recognizing vibration. is there.

【図4】特徴量抽出手段の出力である特徴量ベクトル
(配列データ)を例示する説明図である。
FIG. 4 is an explanatory diagram illustrating a feature amount vector (array data) which is an output of a feature amount extracting unit;

【図5】写像手段の出力である動作命令(配列データ)
を例示する説明図ある。
FIG. 5 is an operation instruction (array data) which is an output of the mapping means.
FIG.

【図6】階層型ニューラルネットワークの説明図であ
る。
FIG. 6 is an explanatory diagram of a hierarchical neural network.

【図7】写像関数データベース内に記憶される写像関数
の関数パラメータを例示する説明図である。
FIG. 7 is an explanatory diagram illustrating function parameters of a mapping function stored in a mapping function database.

【図8】遺伝子アルゴリズムにおいて写像関数を表現す
る個体の説明図である。
FIG. 8 is an explanatory diagram of an individual expressing a mapping function in a genetic algorithm.

【図9】遺伝的アルゴリズムによる学習処理の流れを説
明するフローチャートである。
FIG. 9 is a flowchart illustrating the flow of a learning process using a genetic algorithm.

【図10】子個体が作成される様子を説明する説明図で
ある。
FIG. 10 is an explanatory diagram illustrating how a child individual is created.

【図11】第1の実施形態のロボットにおける学習動作
の全体的な処理手順を説明するフローチャートである。
FIG. 11 is a flowchart illustrating an overall processing procedure of a learning operation in the robot according to the first embodiment.

【図12】本発明の第2の実施形態に係るロボットシス
テムの構成図である。
FIG. 12 is a configuration diagram of a robot system according to a second embodiment of the present invention.

【図13】本発明の第3の実施形態に係るロボットシス
テムの構成図である。
FIG. 13 is a configuration diagram of a robot system according to a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101,1201,1202,1301,1302 ロ
ボット 201 入力手段 202,1312 認識手段 203,1213,1313 学習手段 204 特徴量抽出手段 205,1315 写像関数データベース 206 写像手段 207 動作出力手段 1221,1222,1320,1321,1322
通信手段
101, 1201, 1202, 1301, 1302 Robot 201 Input means 202, 1312 Recognition means 203, 1213, 1313 Learning means 204 Feature extraction means 205, 1315 Mapping function database 206 Mapping means 207 Operation output means 1221, 1222, 1320, 1321 , 1322
Communication means

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平10−289006(JP,A) 特開 平7−213753(JP,A) 特開 平6−161984(JP,A) 特開 平7−84792(JP,A) 特開 平9−44226(JP,A) 特開 平2−36086(JP,A) (58)調査した分野(Int.Cl.7,DB名) G05B 19/42 B25J 9/22 B25J 13/00 G05B 13/02 G06N 3/00 550 JICSTファイル(JOIS)────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-10-289006 (JP, A) JP-A-7-213753 (JP, A) JP-A-6-161984 (JP, A) JP-A-7-127 84792 (JP, A) JP-A-9-44226 (JP, A) JP-A-2-36086 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G05B 19/42 B25J 9 / 22 B25J 13/00 G05B 13/02 G06N 3/00 550 JICST file (JOIS)

Claims (14)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力情報として少なくとも画像情報また
は音声情報を取得する入力手段と、 前記入力情報についてユーザ指示またはユーザ評価の種
別を認識するとともにに、入力情報がユーザ評価である
場合には、当該ユーザ評価についての正解または不正解
の別を認識する認識手段と、 前記入力情報から特徴量を抽出する特徴量抽出手段と、 動作を出力する動作出力手段と、 前記入力情報のユーザ指示に基づく特徴量を前記動作出
力手段によって出力すべき動作に変換する写像関数を複
保持する記憶手段と、 前記記憶手段から1の写像関数を選択し、該写像関数を
用いて前記ユーザ指示に基づく特徴量を前記動作に変換
する変換手段と、前記動作出力手段から出力された動作に対する‘正解’
のユーザ評価が得られたときには、当該動作への変換に
用いられた前記1の写像関数と、前記記憶手段に保持さ
れたその他の写像関数とを、遺伝的アルゴリズムを用い
て適宜に交差させることにより、前記記憶手段に保持さ
れるべき新たな写像関数を生成する学習手段と、 を具備することを特徴とするロボット。
An input unit that obtains at least image information or audio information as input information; and a user instruction or a type of user evaluation for the input information , and the input information is a user evaluation.
If so, correct or incorrect answer for the user evaluation
Recognizing means for recognizing the distinction; feature quantity extracting means for extracting a feature quantity from the input information; action output means for outputting an action; Function to convert
Storage means for several holding, selects one of the mapping function from said storage means, converting means for converting the feature based on the user instruction to the operation using the該写image function, output from the operation output unit 'Correct answer' to action
When a user rating of
The one mapping function used and a value stored in the storage means.
And other mapping functions using the genetic algorithm
By appropriately intersecting with each other, the
A learning means for generating a new mapping function to be performed .
【請求項2】学習手段を介して新たに生成された写像関
数を少なくとも含む複数の写像関数を、他のロボットと
送受信する通信手段を更に具備することを特徴とする請
求項1に記載のロボット。
2. A mapping function newly generated via learning means.
Multiple mapping functions, including at least
A communication system further comprising communication means for transmitting and receiving.
The robot according to claim 1.
【請求項3】‘正解’のユーザ評価が得られたときの動
作変換に用いられた1の写像関数を、他のロボットと送
受信する通信手段と、 前記通信手段を介して他のロボットより得られる前記1
の写像関数と、自己の 記憶手段に保持された写像関数と
を、遺伝的アルゴリズムを用いて適宜に交差させること
により、前記記憶手段に保持されるべき新たな写像関数
を生成する学習手段とを更に具備することを特徴とす
る、請求項1に記載のロボット。
3. An action when a user evaluation of 'correct answer' is obtained.
The one mapping function used for the transformation is sent to another robot.
A communication means for receiving, and the one obtained from another robot via the communication means.
And the mapping function held in its own storage means
Are appropriately crossed using a genetic algorithm
A new mapping function to be held in the storage means
And learning means for generating
The robot according to claim 1, wherein
【請求項4】 入力情報は、身振り、手振り、頭部動
作、表情または音声の少なくとも1つで表現されること
を特徴とする請求項1乃至3のいずれかに記載のロボッ
ト。
4. The robot according to claim 1, wherein the input information is represented by at least one of a gesture, a hand gesture, a head movement, a facial expression, and a voice.
【請求項5】 入力手段は、ユーザが与える物理量を触
覚情報としてセンシングする検知手段を有し、 前記入力情報は、身振り、手振り、頭部動作、表情、音
声または触覚の少なくとも1つで表現されることを特徴
とする請求項1乃至3のいずれかに記載のロボット。
5. The input means includes a detecting means for sensing a physical quantity given by a user as tactile information, wherein the input information is represented by at least one of a gesture, a hand gesture, a head movement, a facial expression, a voice, or a tactile sense. The robot according to any one of claims 1 to 3, wherein:
【請求項6】 特徴量抽出手段は、前記入力情報から、
身振り、手振り、頭部動作、表情または音声の少なくと
も1つ以上に関する特徴量を抽出することを特徴とする
請求項1乃至5のいずれかに記載のロボット。
6. A feature amount extracting means, comprising:
The robot according to any one of claims 1 to 5, wherein a feature amount relating to at least one of a gesture, a hand gesture, a head movement, a facial expression, and a voice is extracted.
【請求項7】 正解または不正解は、身振り、手振り、
頭部動作、表情、音声または触覚の少なくとも1つで表
現されることを特徴とする請求項6に記載のロボット。
7. The correct or incorrect answer may be gesture, hand gesture,
The robot according to claim 6, wherein the robot is represented by at least one of a head movement, an expression, a voice, and a touch.
【請求項8】 動作出力手段は、動作を視覚的に表示出
力する表示出力手段であることを特徴とする請求項1乃
至7のいずれかに記載のロボット。
8. The robot according to claim 1, wherein the motion output means is a display output means for visually displaying and outputting the motion.
【請求項9】 複数のロボットと、情報処理装置と、を
具備するロボットシステムであって、 前記ロボットは、 入力情報として少なくとも画像情報または音声情報を取
得する入力手段と、 前記入力情報についてユーザ指示またはユーザ評価の種
別を認識するとともにに、入力情報がユーザ評価である
場合には、当該ユーザ評価についての正解または不正解
の別を認識する認識手段と、 前記入力情報から特徴量を抽出する特徴量抽出手段と、 動作を出力する動作出力手段と、 前記入力情報のユーザ指示に基づく特徴量を前記動作出
力手段によって出力すべき動作に変換する写像関数を複
保持する記憶手段と、 前記記憶手段から1の写像関数を選択し、該写像関数を
用いて前記ユーザ指示に基づく特徴量を前記動作に変換
する変換手段と、前記情報処理装置と前記写像関数を送受信する通信手段
と、を有し、 前記情報処理装置は、前記ロボットと前記写像関数を送受信する通信手段と、 1のロボットにおいて出力された動作に対する‘正解’
のユーザ評価が得られたときに当該動作への変換に用い
られた1の写像関数と、該1のロボットまたはその他の
1のロボットの有する複数の写像関数のうちの一部また
は全部とを、遺伝的アルゴリズムを用いて適宜に交差さ
せることにより、新たな写像関数を生成する学習手段
と、を有し、 それにより、前記情報処理装置で生成された新たな写像
関数を少なくとも含む複数の写像関数は、前記通信手段
を介して情報処理装置から任意のロボットへと受け渡さ
れる、 ことを特徴とするロボットシステム。
9. A robot system comprising : a plurality of robots; and an information processing device, wherein the robot acquires at least image information or audio information as input information, and issues a user instruction for the input information. Or, while recognizing the type of user evaluation, the input information is user evaluation
If so, correct or incorrect answer for the user evaluation
Recognizing means for recognizing the distinction; feature quantity extracting means for extracting a feature quantity from the input information; action output means for outputting an action; Function to convert
Storage means for holding a number ; conversion means for selecting one mapping function from the storage means and converting a feature amount based on the user instruction into the operation using the mapping function; the information processing apparatus and the mapping function Communication means for transmitting and receiving
When have, the information processing apparatus includes a communication means for transmitting and receiving the mapping function and the robot, for output operation in one of the robot 'correct'
Is used to convert to the action when the user evaluation of
The one mapping function and the one robot or other
Some of the plurality of mapping functions of one robot or
Are intersected as appropriate using a genetic algorithm.
Learning means to generate a new mapping function
And a new mapping generated by the information processing apparatus.
A plurality of mapping functions including at least the function,
Passed from the information processing device to any robot via
The robotic system, characterized in that.
【請求項10】請求項9のロボットシステムに適用され
るロボットであって、 情報処理装置で生成された新たな写像関数を少なくとも
含む複数の写像関数を通信手段を介して受け取ることに
より、該複数の写像関数を移植されるロボット。
10. Applicable to the robot system according to claim 9.
Robot, and at least adds a new mapping function generated by the information processing device.
Receiving multiple mapping functions via communication means
A robot to which the plurality of mapping functions are transplanted.
【請求項11】 入力情報として少なくとも画像情報ま
たは音声情報を取得する入力手段と、動作を出力する動
作出力手段と、を備えたロボットの学習方法であって、
前記入力情報についてユーザ指示またはユーザ評価の種
別を認識するとともに、入力情報がユーザ評価である場
合には、当該ユーザ評価についての正解または不正解の
別を認識する認識ステップと、前記入力情報から特徴量
を抽出する特徴量抽出ステップと、前記入力情報のユー
ザ指示に基づく特徴量を前記動作出力手段によって出力
すべき動作に変換する写像関数を複数保持する記憶ステ
ップと、前記記憶ステップにより保持された複数の写像
関数から1の写像関数を選択し、該写像関数を用いて前
記ユーザ指示に基づく特徴量を前記動作に変換する変換
ステップと、前記動作出力手段から出力された動作に対
する‘正解’のユーザ評価が得られたときには、当該動
作への変換に用いられた前記1の写像関数と、前記保持
されたその他の写像関数とを、遺伝的アルゴリズムを用
いて適宜に交差させることにより、新たに保持されるべ
き写像関数を生成する学習ステップと、を具備すること
を特徴とするロボットの学習方法。
11. A robot learning method comprising: input means for acquiring at least image information or sound information as input information; and operation output means for outputting an operation,
A user instruction or a type of user evaluation is recognized with respect to the input information , and if the input information is a user evaluation,
The correct or incorrect answer for the user evaluation
A recognition step of recognizing another; a feature quantity extraction step of extracting a feature quantity from the input information; and a plurality of mapping functions for converting a feature quantity based on a user instruction of the input information into an action to be output by the action output means. A storing step of storing, and a plurality of maps stored by the storing step
Select 1 mapping function from the function, a conversion step of converting a feature based on the user instruction to the operation using the該写image function vs. the output operation from said operating output means
When the user's evaluation of 'correct answer' is obtained,
The mapping function used in the conversion into the work, and the holding
And other mapping functions using the genetic algorithm
Should be newly retained by crossing appropriately.
A learning step of generating a mapping function .
【請求項12】 請求項11に記載のロボットの学習方
法をコンピュータに実行させるためのプログラムとして
記憶したコンピュータにより読み取り可能な記録媒体。
12. A computer-readable recording medium stored as a program for causing a computer to execute the robot learning method according to claim 11.
【請求項13】 入力情報として少なくとも画像情報ま
たは音声情報を取得する入力手段と、動作を出力する動
作出力手段と、データを送受信する通信手段とを備えた
複数のロボットと、前記ロボットとデータを送受信する
通信手段を備えた情報処理装置と、を具備するロボット
システムの学習方法であって、各ロボットにおいて、前
記入力情報についてユーザ指示またはユーザ評価の種別
を認識するとともにに、入力情報がユーザ評価である場
合には、当該ユーザ評価についての正解または不正解の
別を認識する認識ステップと、各ロボットにおいて、前
記入力情報から特徴量を抽出する特徴量抽出ステップ
と、各ロボットにおいて、前記入力情報のユーザ指示に
基づく特徴量を前記動作出力手段によって出力すべき動
作に変換する写像関数を複数保持する記憶ステップと、
各ロボットにおいて、前記記憶ステップにより保持され
複数の写像関数から1の写像関数を選択し、該1の写
像関数を用いて前記ユーザ指示に基づく特徴量を前記動
作に変換する変換ステップと、前記情報処理装置におい
て、1のロボットにおいて出力された動作に対する‘正
解’のユーザ評価が得られたときに当該動作への変換に
用いられた1の写像関数と、該1のロボットまたはその
他の1のロボットの記憶手段に保持された複数の写像関
数の一部または全部とを、前記通信手段を介して取得す
るデータ受信ステップと、前記情報処理装置において、
該取得された‘正解’のユーザ評価が得られたときの1
の写像関数と、その他取得された写像関数とを、遺伝的
アルゴリズムを用いて適宜に交差させることにより、新
たな写像関数を生成する学習ステップと、該情報処理装
置において生成された新たな写像関数を含む複数の写像
関数を、前記通信手段を介して情報処理装置から任意の
ロボットへ と受け渡すステップと、を具備することを特
徴とするロボットシステムの学習方法。
13. A plurality of robots comprising: input means for acquiring at least image information or voice information as input information; operation output means for outputting an operation; and communication means for transmitting and receiving data. An information processing apparatus having communication means for transmitting and receiving, and a learning method for a robot system, comprising: a robot for recognizing a user instruction or a type of user evaluation with respect to the input information; Place that is
The correct or incorrect answer for the user evaluation
A recognition step of recognizing another, a feature amount extraction step of extracting a feature amount from the input information in each robot, and a feature amount based on a user instruction of the input information in each robot should be output by the operation output means A storage step of storing a plurality of mapping functions to be converted into actions,
In each robot, a conversion step of converting selects one of the mapping function from a plurality of mapping functions held by said storing step, a feature based on the user instruction using the mapping function of the one in the operation, the Information processing equipment
To the action output by one robot
When the user's evaluation of the solution is obtained,
The one mapping function used and the one robot or its
A plurality of mapping functions held in storage means of another robot;
Obtaining part or all of the number via the communication means.
Data receiving step, and in the information processing apparatus,
1 when the user evaluation of the obtained “correct answer” is obtained
And the other obtained mapping functions
By crossing appropriately using an algorithm,
A learning step of generating a model mapping function;
Mappings including a new mapping function generated at the location
Function from the information processing device via the communication means
Learning method of a robot system characterized by comprising the steps of passing into a robot, a.
【請求項14】 請求項13に記載のロボットシステム
の学習方法をコンピュータに実行させるためのプログラ
ムとして記憶したコンピュータにより読み取り可能な記
録媒体。
14. A computer-readable recording medium stored as a program for causing a computer to execute the robot system learning method according to claim 13.
JP36312297A 1997-12-15 1997-12-15 Robot, robot system, robot learning method, robot system learning method, and recording medium Expired - Fee Related JP3211186B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36312297A JP3211186B2 (en) 1997-12-15 1997-12-15 Robot, robot system, robot learning method, robot system learning method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36312297A JP3211186B2 (en) 1997-12-15 1997-12-15 Robot, robot system, robot learning method, robot system learning method, and recording medium

Publications (2)

Publication Number Publication Date
JPH11175132A JPH11175132A (en) 1999-07-02
JP3211186B2 true JP3211186B2 (en) 2001-09-25

Family

ID=18478556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36312297A Expired - Fee Related JP3211186B2 (en) 1997-12-15 1997-12-15 Robot, robot system, robot learning method, robot system learning method, and recording medium

Country Status (1)

Country Link
JP (1) JP3211186B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185073A (en) * 2002-11-29 2004-07-02 Toshiba Corp Plant operation optimization control device

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020008848A (en) * 2000-03-31 2002-01-31 이데이 노부유끼 Robot device, robot device action control method, external force detecting device and external force detecting method
JP2002321177A (en) * 2001-04-23 2002-11-05 Sony Corp Leg type moving robot and its control method
JP3574632B2 (en) * 2001-07-09 2004-10-06 憲三 岩間 Word learning robot, moving object learning operation control apparatus and method
KR100426035B1 (en) * 2001-08-01 2004-04-03 주식회사 마이크로로보트 Training system for microrobot control program
KR100446725B1 (en) * 2001-11-02 2004-09-01 엘지전자 주식회사 Behavior learning method of robot
SE0103994L (en) * 2001-11-29 2003-05-30 Abb Ab An industrial robot system and a method for programming it
JP3529049B2 (en) * 2002-03-06 2004-05-24 ソニー株式会社 Learning device, learning method, and robot device
KR20030092762A (en) * 2002-05-31 2003-12-06 (주)하늘아이 Frame robot and a device for programming a control program thereof with icons
US7873448B2 (en) 2002-12-10 2011-01-18 Honda Motor Co., Ltd. Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
JP2009262279A (en) * 2008-04-25 2009-11-12 Nec Corp Robot, robot program sharing system, robot program sharing method, and program
KR101239274B1 (en) * 2009-07-06 2013-03-06 한국전자통신연구원 Interactable Robot
TWI440862B (en) * 2011-11-21 2014-06-11 國立交通大學 Electrical detection method and system based on user feedback information
JP6240689B2 (en) 2015-07-31 2017-11-29 ファナック株式会社 Machine learning device, robot control device, robot system, and machine learning method for learning human behavior pattern
JP6522488B2 (en) * 2015-07-31 2019-05-29 ファナック株式会社 Machine learning apparatus, robot system and machine learning method for learning work taking-out operation
DE102016009030B4 (en) 2015-07-31 2019-05-09 Fanuc Corporation Machine learning device, robot system and machine learning system for learning a workpiece receiving operation
WO2017134735A1 (en) * 2016-02-02 2017-08-10 株式会社日立製作所 Robot system, robot optimization system, and robot operation plan learning method
JP6549545B2 (en) 2016-10-11 2019-07-24 ファナック株式会社 Control device and robot system for learning a human action and controlling a robot
US10562181B2 (en) * 2017-07-03 2020-02-18 X Development Llc Determining and utilizing corrections to robot actions
US11106967B2 (en) 2017-07-03 2021-08-31 X Development Llc Update of local features model based on correction to robot action
JP7154823B2 (en) * 2018-05-28 2022-10-18 キヤノン株式会社 Information processing device, robot control device, information processing method and program
JP2020121381A (en) * 2019-01-31 2020-08-13 セイコーエプソン株式会社 Machine learning unit, robot system and machine learning method
JP2022139742A (en) * 2021-03-12 2022-09-26 オムロン株式会社 Instruction description support system, instruction description support method and instruction description support program
JP2022139741A (en) * 2021-03-12 2022-09-26 オムロン株式会社 Instruction description support system, instruction description support method and instruction description support program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0236086A (en) * 1988-07-22 1990-02-06 Toyota Motor Corp Control device for plural robots
JPH06161984A (en) * 1992-11-25 1994-06-10 Ricoh Co Ltd Information processor and neural network
JPH0784792A (en) * 1993-09-14 1995-03-31 Toshiba Corp Fuzzy inference device
JPH07213753A (en) * 1994-02-02 1995-08-15 Hitachi Ltd Personal robot device
JP3541510B2 (en) * 1995-07-28 2004-07-14 日産自動車株式会社 Robot controller
JPH10289006A (en) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd Method for controlling object to be controlled using artificial emotion

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185073A (en) * 2002-11-29 2004-07-02 Toshiba Corp Plant operation optimization control device

Also Published As

Publication number Publication date
JPH11175132A (en) 1999-07-02

Similar Documents

Publication Publication Date Title
JP3211186B2 (en) Robot, robot system, robot learning method, robot system learning method, and recording medium
TW581959B (en) Robotic (animal) device and motion control method for robotic (animal) device
US6714840B2 (en) User-machine interface system for enhanced interaction
EP0978770B1 (en) System and method for controlling object by simulating emotions and a personality in the object
US8538750B2 (en) Speech communication system and method, and robot apparatus
JP2003039363A (en) Robot device, action learning method therefor, action learning program thereof, and program recording medium
CN110931111A (en) Autism auxiliary intervention system and method based on virtual reality and multi-mode information
JP3178393B2 (en) Action generation device, action generation method, and action generation program recording medium
US20020019678A1 (en) Pseudo-emotion sound expression system
JP2002160185A (en) Robot device, behavior controlling method for robot device and device and method for detecting external force
Hare et al. Player modeling and adaptation methods within adaptive serious games
Cederborg et al. From language to motor gavagai: unified imitation learning of multiple linguistic and nonlinguistic sensorimotor skills
CN112215346B (en) Method for realizing humanoid universal artificial intelligence machine
Zhang et al. Action chaining by a developmental robot with a value system
Swinson et al. Expanding frontiers of humanoid robotics [Guest Editor's Introduction]
JP3854061B2 (en) Pseudo-biological device, pseudo-biological behavior formation method in pseudo-biological device, and computer-readable storage medium describing program for causing pseudo-biological device to perform behavior formation
KR20100070773A (en) Personality transition apparatus and method, and behavior diversification apparatus and method using that, and its robot system
Dossa et al. Hybrid of reinforcement and imitation learning for human-like agents
JP2002205289A (en) Action control method for robot device, program, recording medium and robot device
KR100503652B1 (en) Artificial creature system and educational software system using this
CN113962353A (en) Method for establishing strong artificial intelligence
Gillies et al. Responsive listening behavior
JP2000155750A (en) Device and method for generating action and action generating program recording medium
Cuayáhuitl et al. Training an interactive humanoid robot using multimodal deep reinforcement learning
KR102639379B1 (en) Method, apparatus and system for providing of user-customized golf professionals matching platform service based on artificial intelligence model

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080719

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees