JP2002273674A - Control device for robot, method therefor, program code and storage medium - Google Patents

Control device for robot, method therefor, program code and storage medium

Info

Publication number
JP2002273674A
JP2002273674A JP2001075854A JP2001075854A JP2002273674A JP 2002273674 A JP2002273674 A JP 2002273674A JP 2001075854 A JP2001075854 A JP 2001075854A JP 2001075854 A JP2001075854 A JP 2001075854A JP 2002273674 A JP2002273674 A JP 2002273674A
Authority
JP
Japan
Prior art keywords
panel
robot
candidate information
stored
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001075854A
Other languages
Japanese (ja)
Other versions
JP4316819B2 (en
JP2002273674A5 (en
Inventor
Yuji Sawajiri
雄二 澤尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Co Ltd
Original Assignee
Bandai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Co Ltd filed Critical Bandai Co Ltd
Priority to JP2001075854A priority Critical patent/JP4316819B2/en
Publication of JP2002273674A publication Critical patent/JP2002273674A/en
Publication of JP2002273674A5 publication Critical patent/JP2002273674A5/ja
Application granted granted Critical
Publication of JP4316819B2 publication Critical patent/JP4316819B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize a learning function and, especially, characterization via a simple constitution. SOLUTION: When a robot is hit, a panel 2 is stored as a call destination in an empty box of a link table No.1, and motion data corresponding to a painful action are reproduced. If the robot next detects something ahead, one is selected randomly from among boxes of the link table No.1, and a panel is called for according to a call destination stored in the selected box. If the panel 2 is called for, the robot backs at high speed, and the target of processing is moved to the unit next to the unit having called for the panel 2. Upon a pat, the oldest box is deleted from the boxes stored in the link table No.1, and motion data corresponding to a joyful action are reproduced.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットの制御装
置及びその方法並びにプログラムコード、記憶媒体に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot control apparatus and method, a program code, and a storage medium.

【0002】[0002]

【従来の技術】近年のロボット技術の分野では、ユーザ
と仮想のコミュニケーションを図るためのロボット(コ
ミュニケーションロボット)が存在する。コミュニケー
ションロボットには、単純に外観や、生き物としてのリ
アリティ等が異なる複数種類のものがある。
2. Description of the Related Art In the field of robot technology in recent years, there is a robot (communication robot) for realizing virtual communication with a user. There are a plurality of types of communication robots that simply differ in appearance, reality as a creature, and the like.

【0003】単純な外観としては、猫型や犬型といった
身近なペット型のものが多い。また、その生き物として
のリアリティ等については、ロボットがとる行動パター
ンの数によるところがある。つまり、状況に応じてロボ
ットのとる行動の数が多ければ多いほど、そのロボット
はより生き物らしくなる。
[0003] As a simple appearance, there are many familiar pet types such as a cat type and a dog type. The reality as the creature depends on the number of action patterns taken by the robot. In other words, the more actions the robot takes depending on the situation, the more the robot will look like a creature.

【0004】そのためにコミュニケーションロボットに
は予めいくつかの行動パターン、例えば手足や体の動
き、顔や目の表情、鳴き声などのサウンドが登録されて
いる。そしてユーザのロボットへのアクション(例えば
ロボットをなでたり、たたいたりする)やロボットの状
況(例えばロボットが何かにぶつかったり、姿勢を崩し
たり)に応じて、とるべきロボットの行動パターンが上
記の予め保持しておいた行動パターンから選択され、ロ
ボットは選択された行動パターンに応じた行動をとる。
[0004] For this purpose, some action patterns, such as movements of limbs and body, facial and eye expressions, and sounds such as squeals, are registered in advance in the communication robot. Depending on the user's action on the robot (for example, stroking or hitting the robot) or the situation of the robot (for example, the robot hits something or loses its posture), the robot's behavior pattern to be taken is determined. The robot is selected from the previously stored action patterns, and the robot takes an action according to the selected action pattern.

【0005】[0005]

【発明が解決しようとする課題】しかしコミュニケーシ
ョンロボットをより生き物らしくするためには、より多
くの行動パターンをロボットに登録する必要がある。
又、生き物には「学習能力」があり、過去の状況を参考
にしてその行動パターンを自発的に変更しようとする。
この「学習能力」をコミュニケーションロボットに備え
る場合、その機能を実現するための装置を上述の行動パ
ターンを選択する機能とは別に設ける必要があり、コミ
ュニケーションロボットの装置としての複雑性やコスト
の向上といった問題があった。
However, in order to make a communication robot more creature-like, it is necessary to register more behavior patterns in the robot.
In addition, creatures have "learning ability" and try to spontaneously change their behavior patterns with reference to past situations.
When the communication robot is provided with this "learning ability", it is necessary to provide a device for realizing the function in addition to the function for selecting the above-mentioned behavior pattern, and to improve the complexity and cost of the communication robot device. There was a problem.

【0006】本発明は以上の問題に鑑みてなされたもの
であり、簡単な構成で学習機能、特に性格付けを実現す
ることを目的とする。
[0006] The present invention has been made in view of the above problems, and has as its object to realize a learning function, particularly a personality rating, with a simple configuration.

【0007】[0007]

【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明のロボットの制御装置は以下の構
成を備える。
In order to achieve the object of the present invention, for example, a robot controller of the present invention has the following arrangement.

【0008】すなわち、少なくとも1つの所定の条件
と、この所定の条件の各々に対応付けされた少なくとも
1つの処理とが記憶されたパネルを複数記憶するパネル
記憶手段と、前記複数のパネルの1つを選択するパネル
選択手段と、前記パネル選択手段が選択したパネルを用
いてロボットの制御を行う制御手段とを備えるロボット
の制御装置であって、前記選択手段が、次に使用するパ
ネルの候補を表す候補情報を所定数記憶する候補情報記
憶手段と、前記候補情報記憶手段の記憶内容に基づいて
次に使用するパネルを決定するパネル決定手段とを備
え、前記候補情報の前記候補情報記憶手段への記憶は、
前記パネルに記憶された処理によって行われる。
That is, a panel storage means for storing a plurality of panels storing at least one predetermined condition and at least one process associated with each of the predetermined conditions, and one of the plurality of panels. And a control means for controlling the robot using the panel selected by the panel selection means, wherein the selection means selects a panel candidate to be used next. Candidate information storage means for storing a predetermined number of candidate information to be represented, and panel determination means for determining a panel to be used next based on the storage contents of the candidate information storage means, wherein the candidate information is stored in the candidate information storage means. The memory of
This is performed by the processing stored in the panel.

【0009】本発明の目的を達成するために、例えば本
発明のロボットの制御装置は以下の構成を備える。
In order to achieve the object of the present invention, for example, a robot control device of the present invention has the following configuration.

【0010】すなわち、ロボットの行動パターン及び/
又はロボットの状態と、当該ロボットが前記行動をとる
ための条件及び/又は前記ロボットが前記状態になるた
めの条件を記述するパネルを複数格納するパネル格納手
段と、複数のパネルを格納する格納手段と、前記ロボッ
トの行動パターンを決定する際及び/又は前記ロボット
の状態を決定する際、前記格納手段に格納されているパ
ネルから一つを選択し、選択したパネルに基づいて前記
行動パターン及び/又は前記状態を決定する決定手段と
を備える。
That is, the behavior pattern of the robot and / or
Or, a panel storage unit that stores a plurality of panels that describe a state of the robot, conditions for the robot to take the action, and / or conditions for the robot to enter the state, and a storage unit that stores a plurality of panels. And when determining the behavior pattern of the robot and / or determining the state of the robot, selects one of the panels stored in the storage means, and based on the selected panel, the behavior pattern and / or Or a determining means for determining the state.

【0011】[0011]

【発明の実施の形態】以下添付図面を参照して、本発明
を好適な実施形態に従って詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

【0012】[第1の実施形態]本実施形態では、外界
の状況、及び/又は自身の状況に応じて行動するコミュ
ニケーションロボット(以下単にロボットと呼ぶことも
ある)を制御する装置(以下単に制御装置と呼ぶことも
ある)及びその方法について説明する。
[First Embodiment] In this embodiment, a device (hereinafter simply referred to as a control) that controls a communication robot (hereinafter, sometimes simply referred to as a robot) that acts in accordance with the external situation and / or its own situation. And the method will be described.

【0013】<制御装置の構成>図1に本実施形態にお
ける制御装置の構成を示す。
<Structure of Control Device> FIG. 1 shows the structure of a control device according to the present embodiment.

【0014】101は物理センサ部で、ロボットの外界
の状況や自身の状況を検知する。ロボットの外界の状況
を検知するセンサとして物理センサ部101は、明るさ
を検知する光センサ(例えばcdsセルなど)、音を検
知する音センサ、ロボットが何かにぶつかった場合にそ
の状況を検知するタッチセンサ、ロボットの周囲に物体
(例えば障害物など)が存在するか否かを赤外線で検知
する赤外線対物センサ等により構成されている。又、ロ
ボット自身の状況をセンスするセンサとして物理センサ
部101は、ロボットの姿勢を検知する姿勢センサなど
により構成されている。以上のセンサは本実施形態にお
ける一例であってこれに限定されるものではない。又、
各センサの仕組みやその動作則に関しては本実施形態で
説明する範疇ではないのでここでの説明は省略する。
Reference numeral 101 denotes a physical sensor unit for detecting the external situation of the robot and its own situation. The physical sensor unit 101 as a sensor for detecting the situation of the outside world of the robot includes an optical sensor (for example, a cds cell) for detecting brightness, a sound sensor for detecting sound, and detecting the situation when the robot hits something. Touch sensor, an infrared objective sensor that detects whether or not an object (for example, an obstacle) exists around the robot with infrared rays. Further, the physical sensor unit 101 as a sensor for sensing the situation of the robot itself is configured by an attitude sensor for detecting the attitude of the robot. The above sensor is an example in the present embodiment, and is not limited to this. or,
Since the mechanism of each sensor and its operation rule are not in the category described in the present embodiment, the description is omitted here.

【0015】102は内部センサ部で、ロボットの内部
の状況を検知する。内部センサ部102としては、ロボ
ットの内部における時計として機能する体内時計や、カ
ウンタ等により構成されている。
Reference numeral 102 denotes an internal sensor unit for detecting a situation inside the robot. The internal sensor unit 102 includes an internal clock that functions as a clock inside the robot, a counter, and the like.

【0016】103はセンサ処理部で、物理センサ部1
01や内部センサ部102からの検知結果に基づいて、
具体的に「ぶつかった」、「明るくなった」等の結果を
出力する。
Reference numeral 103 denotes a sensor processing unit, which is a physical sensor unit 1
01 and the detection result from the internal sensor unit 102,
Specifically, results such as “collision” and “brightness” are output.

【0017】104はアクション演算処理部で、センサ
処理部103からの入力に応じた行動パターンを後述の
データ格納部105に格納されたパネル105aを用い
て決定する。この決定方法については後述する。また、
用いるパネルをデータ格納部105から読み込むための
ワークエリア104aを内部に備える。
An action calculation unit 104 determines an action pattern corresponding to an input from the sensor processing unit 103 by using a panel 105a stored in a data storage unit 105 described later. This determination method will be described later. Also,
A work area 104a for reading a panel to be used from the data storage unit 105 is provided inside.

【0018】105はデータ格納部で、ロボットの行動
の因果関係(この行動の因果関係を以下、ロボットの性
格と呼ぶことがある)を示すパネル105a(詳細は後
述する)、ロボットがとる各種のモーションデータ10
5b、ロボットの目の部分(LEDなどにより構成され
ていて、様々なパターンが表示可能)に表示されるパタ
ーンのデータ(目のパターンデータ)105c、ロボッ
トが発する鳴き声や効果音などのデータ(サウンドデー
タ)105d、リンクテーブル105f(詳細は後述す
る)を格納する。
A data storage unit 105 includes a panel 105a (which will be hereinafter referred to as a character of the robot) which indicates a causal relationship of the behavior of the robot (this behavior will be hereinafter referred to as a character of the robot), and various types of data taken by the robot. Motion data 10
5b, pattern data (eye pattern data) 105c displayed on the eyes of the robot (configured by LEDs and the like, and capable of displaying various patterns), and data (sounds) such as barks and sound effects emitted by the robot Data) 105d and a link table 105f (details will be described later).

【0019】106はアクション処理部で、アクション
演算処理部104で決定した行動パターンに基づいてロ
ボットの各部(手、足、首、目の部分など)を制御す
る。アクション処理部106はロボットのモーションを
再生を再生するモーション再生部(アクチュエータや走
行車輪などにより構成されている)、上述の目の表示
部、ロボットの鳴き声や効果音を発する発音部(スピー
カやD/A変換器などにより構成されている)、そして
各種演算などを行う演算部などにより構成されている。
Reference numeral 106 denotes an action processing unit which controls various parts (hands, feet, necks, eyes, etc.) of the robot based on the action pattern determined by the action calculation processing unit 104. The action processing unit 106 includes a motion reproduction unit (constituted by an actuator and a traveling wheel) for reproducing the motion of the robot, the above-described eye display unit, and a sound generation unit (speaker or D / A converter) and an operation unit for performing various operations.

【0020】<パネルとユニット>図2にパネルの一例
を示す。パネルにはユニットが設けてあり、その種類は
センサユニット201とアクションユニット202に大
別される。センサユニット201は、パネルにおいて同
じ行のアクションユニットが示す行動をロボットがとる
ための条件を示すものである。例えばロボットの右手に
対応するタッチセンサがロボットの右手に何か当たった
ことを検知した場合、「右手に当たる」を示すセンサユ
ニットに対応するアクションユニット、つまり、「表情
痛っ!」、「サウンド 驚き」、「歩行後退 1秒、
割込禁」、「左歩行回転 1秒、割込禁」の4つのアク
ションユニットがこの順に実行される。つまり、アクシ
ョンユニットは常に左から実行される。
<Panel and Unit> FIG. 2 shows an example of the panel. Units are provided on the panel, and the types are roughly classified into a sensor unit 201 and an action unit 202. The sensor unit 201 indicates conditions for the robot to take the action indicated by the action unit on the same line in the panel. For example, if the touch sensor corresponding to the right hand of the robot detects that something has hit the right hand of the robot, the action unit corresponding to the sensor unit that indicates "hit the right hand", that is, "Expression pain!", "Sound surprise" ”,“ Walk back 1 second,
The four action units of “interruption prohibited”, “left-hand rotation 1 second, interrupt prohibited” are executed in this order. That is, the action unit is always executed from the left.

【0021】そして「表情 痛っ!」を示すアクション
ユニットが実行されると、データ格納部105に格納さ
れている目のパターンデータ105cから「痛い」表情
を示す目のパターンがアクション演算処理部104によ
り選択され、選択された目のパターンはアクション処理
部106(目の表示部)に表示される。
When the action unit indicating “expression is painful” is executed, the eye pattern indicating the expression “painful” is converted from the eye pattern data 105 c stored in the data storage unit 105 to the action calculation processing unit 104. Is selected, and the selected eye pattern is displayed on the action processing unit 106 (eye display unit).

【0022】また、「サウンド 驚き」を示すアクショ
ンユニットが実行されると、データ格納部105に格納
されているサウンドデータ105dから「驚き」を示す
サウンドデータがアクション演算処理部104により選
択され、選択されたサウンドデータはアクション処理部
106(サウンド発音部)でサウンドとして再生され
る。
When the action unit indicating “surprise” is executed, the sound data indicating “surprise” is selected from the sound data 105 d stored in the data storage unit 105 by the action calculation processing unit 104, and is selected. The processed sound data is reproduced as a sound by the action processing unit 106 (sound generating unit).

【0023】また、「歩行後退 1秒、割込禁」を示す
アクションユニットが実行されると、データ格納部10
5に格納されているモーションデータ105bから「歩
行後退」を示すモーションデータがアクション演算処理
部104により選択され、選択されたモーションデータ
は1秒間だけ(内部センサ102の体内時計により計
時)アクション処理部106(モーション再生部)でモ
ーションとして再生される。つまり、ロボットは歩行後
退の行動をとる。このとき「割込禁」の指示があるの
で、歩行後退中に他の処理の割込を禁止する。しかし、
この割込を有りとするアクションユニットを設けること
もでき、その場合、より優先順位の高い処理の割込を許
可する。
When the action unit indicating “retreat 1 second, interrupt prohibited” is executed, the data storage 10
5 is selected by the action calculation processing unit 104 from the motion data 105b stored in No. 5 and the selected motion data is only for one second (timed by the internal clock of the internal sensor 102). At 106 (motion reproducing unit), the motion is reproduced as a motion. That is, the robot takes a walking backward action. At this time, since there is an instruction of “interruption prohibition”, interruption of other processing is prohibited during walking retreat. But,
It is also possible to provide an action unit that has this interrupt, and in that case, an interrupt of a process with a higher priority is permitted.

【0024】また、「左歩行回転 1秒、割込禁」を示
すアクションユニットが実行されると、データ格納部1
05に格納されているモーションデータ105bから
「左歩行回転」を示すモーションデータがアクション演
算処理部104により選択され、選択されたモーション
データは1秒間だけ(内部センサ102の体内時計によ
り計時)アクション処理部106(モーション再生部)
でモーションとして再生される。つまり、ロボットは左
歩行回転の行動をとる。このとき「割込禁」の指示があ
るので、左歩行回転中に他の処理の割込を禁止する。
When an action unit indicating “left walking rotation for 1 second, interrupt prohibition” is executed, the data storage unit 1
The motion data indicating “left walking rotation” is selected from the motion data 105b stored in the memory unit 05 by the action calculation processing unit 104, and the selected motion data is processed for one second (measured by the internal clock of the internal sensor 102). Unit 106 (motion playback unit)
Is played back as a motion. In other words, the robot takes a left walking rotation action. At this time, since there is an instruction of “prohibition of interruption”, interruption of other processing is prohibited during the left walking rotation.

【0025】以上のようにして、条件が満たされたセン
サニットに対応するアクションユニットが実行される。
そして、アクション処理部106は実行されるアクショ
ンユニットに応じた処理を行う。実際には、アクション
演算処理部104はワークエリア104aに読み込まれ
たパネルに設けられた各センサニットを上から下まで繰
り返し、周期的にスキャンする(例えばパネルの最上部
のユニットから最下部のユニットまでのスキャンの繰り
返し周期が0.1秒)。そして、センサ処理部103か
ら入力されるセンサ結果に該当するセンサユニットが無
いかを調べる。そして該当するセンサユニットがある場
合には、上述の通り、該当するセンサユニットに対応す
るアクションユニットを実行する。
As described above, the action unit corresponding to the sensor unit satisfying the condition is executed.
Then, the action processing unit 106 performs a process according to the action unit to be executed. In practice, the action calculation processing unit 104 repeats each sensor unit provided on the panel read into the work area 104a from top to bottom and scans periodically (for example, from the top unit to the bottom unit of the panel). Scan repetition cycle up to 0.1 seconds). Then, it is checked whether there is any sensor unit corresponding to the sensor result input from the sensor processing unit 103. If there is a corresponding sensor unit, the action unit corresponding to the corresponding sensor unit is executed as described above.

【0026】又、パネルにおいて実行されるユニットの
優先順位(センサ処理部103からの入力が複数のセン
サユニットに該当する場合)は本実施形態では、より上
に設けられたユニット程優先順位は低く、より下に設け
られたユニット程優先順位は高いものとするが、これに
限定されるものではない。
In the present embodiment, the priority order of the units executed on the panel (when the input from the sensor processing unit 103 corresponds to a plurality of sensor units) is lower in the present embodiment. , The lower the unit, the higher the priority, but the present invention is not limited to this.

【0027】尚、図2において「パネルジャンプ パネ
ルNo.2」を示すアクションユニットがあるが、これ
は各パネルに付けられた固有番号のうち、No.2に対
応するパネルをワークエリア104aにロードすること
を示す。具体的には、データ格納部105に格納された
パネル105aからNo.2のパネルを選択し、ワーク
エリア104aを選択したパネルに書き換える。このよ
うにすることで、ロボットの行動にバリエーションがで
き、更により多くのパネルを備えることでより多くの性
格を有することができる。
In FIG. 2, there is an action unit indicating “panel jump panel No. 2”, which is a unique number assigned to each panel. 2 indicates that the panel corresponding to 2 is to be loaded into the work area 104a. Specifically, from the panel 105a stored in the data storage unit 105, the No. The second panel is selected, and the work area 104a is rewritten to the selected panel. By doing so, the behavior of the robot can be varied, and by having more panels, it is possible to have more characters.

【0028】<リンクテーブル>図3にリンクテーブル
を示す。リンクテーブルは、コール先のパネルを特定す
るデータ(例えばパネルが格納されているアドレスを指
すポインタなど)を格納し、複数のリンクテーブル10
5fがデータ格納部105に格納されている。本実施形
態では1つのリンクテーブルで最大16個のコール先を
格納することができる(16個の箱が設けられている)
ものとするが、これに限定されるものではない。
<Link Table> FIG. 3 shows a link table. The link table stores data (for example, a pointer that points to an address where the panel is stored) that specifies the call destination panel.
5f is stored in the data storage unit 105. In this embodiment, one link table can store up to 16 call destinations (16 boxes are provided).
However, the present invention is not limited to this.

【0029】図4にリンクテーブルに関するアクション
ユニットを示す。
FIG. 4 shows an action unit relating to the link table.

【0030】401は指定したリンクテーブル(同図の
例ではリンクテーブルNo.1)の16個の箱のうち、
ランダムに1つを選択することを示すアクションユニッ
トである。そして選択した箱に記憶されているコール先
が例えばパネルNo.5であった場合、パネルNo.5
がデータ格納部105から選択され、ワークエリア10
4aにロードされる。尚、選択された箱にコール先が格
納されていなかった場合(例えばコール先としてNUL
Lコードが格納されている場合)、このアクションユニ
ットは無視され、次のアクションユニットが実行され
る。
Reference numeral 401 denotes one of 16 boxes of the designated link table (link table No. 1 in the example of FIG. 3).
This is an action unit indicating that one is selected at random. The call destination stored in the selected box is, for example, panel No. If it is 5, the panel No. 5
Is selected from the data storage unit 105 and the work area 10
4a. If no call destination is stored in the selected box (for example, NUL
If the L code is stored), this action unit is ignored and the next action unit is executed.

【0031】402は指定したパネル(同図ではパネル
No.5)を指定したリンクテーブル(同図ではリンク
テーブルNo.1)に格納することを示すアクションユ
ニットである。指定したリンクテーブルにパネルを格納
する際、図5に示すとおり、順次空の箱に格納する。し
かし指定したリンクテーブルが有する箱が全て空ではな
い場合、図6に示すとおり、常に古い箱(同図では下の
箱程古い)から押し出されて消える。
An action unit 402 indicates that the designated panel (panel No. 5 in the figure) is stored in the designated link table (link table No. 1 in the figure). When storing panels in the designated link table, as shown in FIG. 5, the panels are sequentially stored in empty boxes. However, if all the boxes included in the designated link table are not empty, they are always pushed out of the old box (in FIG. 6, the lower box is older) and disappear.

【0032】403は指定したリンクテーブル(同図で
はテーブルNo.1)の箱から古いもの順に消去するこ
とを示すアクションユニットである。
An action unit 403 indicates that the specified link table (table No. 1 in the figure) is to be deleted from the box in the oldest order.

【0033】404は指定したリンクテーブル(同図で
はテーブルNo.1)の全ての箱を消去することを示す
アクションユニットである。
An action unit 404 indicates that all the boxes of the designated link table (table No. 1 in the figure) are to be deleted.

【0034】以上のリンクテーブルに関するアクション
ユニット及びリンクテーブルを用いて以下、ロボットの
学習の方法について説明する。
A method of learning a robot will be described below using the action units and the link table relating to the link table.

【0035】<リンクテーブルを用いた学習方法>本学
習例では、何度も叩かれるとだんだん叩かれる前(手が
目の前に来たとき)に叩かれれるのを察知して後ろに逃
げるように学習する方法について説明する。
<Learning method using link table> In this learning example, if the user hits repeatedly, he or she will be hit before it is hit (when his / her hand comes in front of him) and escape behind. Will be described.

【0036】図7に本学習例に用いるパネル1,2を示
す。パネル1にはセンサユニット711,713,71
6,718と、夫々のセンサユニットに対応するアクシ
ョンユニット712,714,715,717,71
9,720が設けられている。一方、パネル2にはセン
サユニット751と、それに対応するアクションユニッ
ト752,753が設けられている。尚、以下では予め
ワークエリア104aにパネル1がロードされているも
のとする。
FIG. 7 shows panels 1 and 2 used in this learning example. Panel 1 includes sensor units 711, 713, 71
6,718 and action units 712,714,715,717,71 corresponding to the respective sensor units.
9, 720 are provided. On the other hand, the panel 2 is provided with a sensor unit 751 and corresponding action units 752 and 753. In the following, it is assumed that the panel 1 has been loaded in the work area 104a in advance.

【0037】上の状態において、ロボットは、基本的に
は何もない(どのセンサも反応していないか、もしくは
センサの検出した値が所定値(センサが何かを検知した
とセンサ処理部103が見なせるだけの値(閾値))以
下であった場合)とセンサユニット711に対応するア
クションユニット712が実行され、アクション演算処
理部104はデータ格納部105から「お座り」のモー
ションデータを特定し、アクション処理部106は特定
した「お座り」のモーションデータを再生する。
In the above state, the robot basically has nothing (no sensor is responding, or the value detected by the sensor is a predetermined value (the sensor processing unit 103 detects that the sensor has detected something). And the action unit 712 corresponding to the sensor unit 711 is executed, and the action calculation processing unit 104 specifies the motion data of “sitting” from the data storage unit 105. The action processing unit 106 reproduces the specified “sitting” motion data.

【0038】ロボットが叩かれた場合(所定時間内(例
えば1秒以内)に急に暗くなり(光センサが検知する明
るさが所定時間内に暗くなった)、一回(内部センサ1
02のカウンタによるカウント)の音(物理センサ部1
01の音センサによる)を検知した場合)、センサユニ
ット713に対応するアクションユニット714,71
5がこの順に実行される。まずアクションユニット71
4が実行され、リンクテーブルNo.1(本学習例の説
明ではリンクテーブルはリンクテーブルNo.1しか用
いないために、単にリンクテーブルと呼ぶことがある)
の空の箱にパネル2をコール先とするためのデータ(例
えばパネル2の格納されているアドレスを指すポインタ
など)を1つ格納する。そして次にアクションユニット
715が実行され、痛いアクションに対応するモーショ
ンデータをデータ格納部105から特定し、アクション
処理部106は特定した「痛いアクション」に対応する
モーションデータを再生する。このようにすることで、
ロボットを叩く度にリンクテーブルにはコール先をパネ
ル2とするデータが格納されていく(もちろん16回叩
けば、リンクテーブルの有するすべての箱の中にパネル
2をコール先とするデータが格納されることになる)。
If the robot is hit (the brightness detected by the optical sensor becomes dark within a predetermined time) within a predetermined time (for example, within one second), the robot is hit once (the internal sensor 1).
02 (count by the counter of 02) sound (physical sensor unit 1)
01 is detected), the action units 714 and 71 corresponding to the sensor unit 713 are detected.
5 are executed in this order. First, action unit 71
4 is executed, and the link table No. 1 (Since the link table uses only link table No. 1 in the description of this learning example, it may be simply called a link table)
One piece of data (for example, a pointer indicating the address where the panel 2 is stored) for making the panel 2 a call destination is stored in the empty box. Then, the action unit 715 is executed, the motion data corresponding to the painful action is specified from the data storage unit 105, and the action processing unit 106 reproduces the motion data corresponding to the specified “painful action”. By doing this,
Each time the robot is hit, the link table stores data with the call destination as panel 2 (of course, if the user hits 16 times, the data with the panel 2 as the call destination is stored in all the boxes of the link table). Will be.)

【0039】次にロボットが(物理センサ部101が)
前に何かあると検知(例えば赤外線対物センサにより検
知)した場合、センサユニット716に対応するアクシ
ョンユニット717が実行される。具体的にはリンクテ
ーブルの箱(16個の箱)の中からランダムに一つを選
択し、選択した箱の中に格納されたコール先に基づいて
パネルをコールする。箱が空であればそのまま何もせず
に処理は次に進む。しかし、上述の処理によると何度も
ロボットを叩いていると、パネル2をコール先とする箱
を選択する確率が高くなる。よって、ロボットを何度も
叩いていると、ロボットの前に何かあるだけで、アクシ
ョンユニット717の実行により、パネル2をコールす
る確率が高くなる。
Next, the robot (the physical sensor unit 101)
If something is detected before (for example, by an infrared objective sensor), the action unit 717 corresponding to the sensor unit 716 is executed. Specifically, one is randomly selected from the boxes (16 boxes) in the link table, and the panel is called based on the call destination stored in the selected box. If the box is empty, the process proceeds to the next without doing anything. However, according to the above-described processing, if the robot is hit many times, the probability of selecting a box to call the panel 2 increases. Therefore, if the robot is hit many times, the probability of calling the panel 2 is increased by the execution of the action unit 717 just because there is something in front of the robot.

【0040】パネル2にはセンサユニット751と、ア
クションユニット752,753が設けられている。ア
クションユニット717の実行によりパネル2をコール
すると、ワークエリア104aにパネル1とは別の領域
にパネル2がロードされる。そしてパネル2をコールし
た時点ではロボットには何もないので、センサユニット
751に対応するアクションユニット752,753が
この順に実行される。まずアクションユニット752を
実行すると、高速後退のモーションがデータ格納部10
5から選択され、アクション処理部106により高速後
退のモーションが再生される。そして次にアクションユ
ニット753が実行され、パネルリターン、すなわち、
パネル2をコールしたユニットの次のユニットに処理対
象を移す。
The panel 2 is provided with a sensor unit 751 and action units 752 and 753. When the panel 2 is called by the execution of the action unit 717, the panel 2 is loaded in an area different from the panel 1 in the work area 104a. When the panel 2 is called, there is nothing in the robot, and the action units 752 and 753 corresponding to the sensor unit 751 are executed in this order. First, when the action unit 752 is executed, a fast retreating motion is stored in the data storage unit 10.
5, and the action processing unit 106 reproduces the fast-retreating motion. Then, the action unit 753 is executed, and the panel return, that is,
The processing target is moved to the unit next to the unit that called panel 2.

【0041】このようにすることでパネル2における処
理、つまり、高速後退する処理の頻度が上述の通り、ロ
ボットの頭を叩く回数の頻度に応じて高くなる。
In this way, the frequency of the processing in the panel 2, that is, the processing of retreating at a high speed, increases as described above in accordance with the frequency of the number of times the robot head is hit.

【0042】更にパネル1において、なでられる(所定
時間内(例えば5秒以内)に急に明るくなったり暗くな
ったりを5回以上検知した(上述した各センサにより検
知可能))と、センサユニット718に対応するアクシ
ョンユニット719,720が実行される。まずアクシ
ョンユニット719を実行することで、リンクテーブル
に格納されている箱の中から最も古い箱を削除する。つ
まり、リンクテーブルにおいて「パネル2をコール先と
するためのデータ」を格納する箱が一つ減ることになる
(リンクテーブルに1つ以上、パネル2をコール先とす
るデータが格納されていることが前提)。言い換えれ
ば、アクションユニット717を実行した際に、パネル
2をコールする確率を減ずることになる。その結果、高
速後退する確率が低くなり、擬人的に見れば「少し機嫌
を良くした」と見ることができる。そしてアクションユ
ニット720を実行することで、喜びのアクションに対
応するモーションデータがデータ格納部105から選択
され、選択されたモーションデータがアクション処理部
106で再生される。
Further, in the panel 1, when a stroke is made (a sudden brightening or darkening is detected five or more times within a predetermined time (for example, within 5 seconds) five times or more (can be detected by the above-described sensors)), the sensor unit Action units 719 and 720 corresponding to 718 are executed. First, by executing the action unit 719, the oldest box is deleted from the boxes stored in the link table. In other words, the number of boxes for storing “data for making panel 2 a call destination” is reduced by one in the link table (one or more pieces of data that make panel 2 a call destination are stored in the link table). Is assumed). In other words, when the action unit 717 is executed, the probability of calling the panel 2 is reduced. As a result, the probability of retreating at high speed is reduced, and it can be seen that "a little better mood" has been seen in personification. Then, by executing the action unit 720, motion data corresponding to the action of joy is selected from the data storage unit 105, and the selected motion data is reproduced by the action processing unit 106.

【0043】以上のパネル1,2とリンクテーブルを用
いた学習方法を説明する図を図8に示す。同図は同じ一
つのリンクテーブルに格納されるパネル2の数の変化を
示したものであり、800の状態でコール先をパネル2
とするためのデータ(同図では単にパネル2としてい
る)が一つ格納されている。そこでアクションユニット
810を実行することで更にもう一つ同データが追加さ
れ、状態801となる。ここで、アクションユニット8
20が実行されると、更にもう一つ同データが追加さ
れ、状態802となる。一方、アクションユニット83
0が実行されると、格納された順番が古い順に削除さ
れ、801の状態から一つ同データが削除され、803
の状態となる。
FIG. 8 is a diagram for explaining a learning method using the panels 1 and 2 and the link table. The figure shows the change in the number of panels 2 stored in the same one link table.
(In FIG. 1, only panel 2) is stored. Therefore, by executing the action unit 810, another piece of the same data is added, and the state becomes the state 801. Here, action unit 8
When step 20 is executed, one more piece of the same data is added, and a state 802 is set. On the other hand, the action unit 83
When 0 is executed, the stored data is deleted from the oldest one, the same data is deleted from the state of 801, and 803 is deleted.
State.

【0044】また、上述の処理では、ロボットはなでら
れる毎に少しづつ機嫌を良くしていくが、例えばアクシ
ョンユニット719の代わりに図4に示したアクション
ユニット404を用いることで、一回でもなでられる
と、リンクテーブル内の箱を全部消去するので、コール
先のパネルを特定するデータ(パネル2)は消去され、
一気に機嫌をよくする性格となる。
Also, in the above-described processing, the mood of the robot is improved little by little every time it is stroked, but, for example, by using the action unit 404 shown in FIG. If it is stroked, all the boxes in the link table will be deleted, so the data (panel 2) identifying the call destination panel will be deleted,
It becomes a character that makes you feel good at once.

【0045】また、アクションユニット719の代わり
に図4に示したアクションユニット403を用い、所定
時間(例えば1分)毎(内部センサ102の体内時計に
より時間計測)にアクションニット403を実行するこ
とで、所定時間が経過する度にリンクテーブル内の箱が
1つずつ消去されるので、ロボットは所定時間が経過す
る毎に機嫌を良くするようになる。
Also, the action unit 403 shown in FIG. 4 is used instead of the action unit 719, and the action unit 403 is executed every predetermined time (for example, one minute) (time measurement by the internal clock of the internal sensor 102). Since the boxes in the link table are deleted one by one every time the predetermined time elapses, the robot is in a good mood every time the predetermined time elapses.

【0046】以上のように、学習対象をパネルとして表
現し(上述の例ではパネル2)、学習をパネルをリンク
テーブルに格納する処理とし、学習度をリンクテーブル
に格納されたパネルの数として表現することで、パネ
ル、ユニットを用いたロボットの行動プログラムの延長
で学習機能(性格付けを含む)を実現することができ
る。
As described above, the learning object is expressed as a panel (panel 2 in the above example), the learning is performed by storing the panel in the link table, and the learning degree is expressed as the number of panels stored in the link table. By doing so, it is possible to realize a learning function (including a personality rating) by extending the action program of the robot using the panel and the unit.

【0047】以上の学習の処理のフローチャートを図9
に示し、説明する。まずワークエリア104aにパネル
1をロードする(ステップS901)。そしてセンサ処
理部103からの入力を受け付ける(ステップS90
2)。そしてセンサ処理部103からの入力において、
センサユニットに該当する入力があったか否かの判断を
行い(ステップS903)、あった場合、処理をステッ
プS904に移行する。ステップS904における具体
的な処理のフローチャートを図10に示す。
FIG. 9 is a flowchart of the learning process described above.
Will be described. First, the panel 1 is loaded into the work area 104a (step S901). Then, an input from the sensor processing unit 103 is received (step S90).
2). Then, in the input from the sensor processing unit 103,
It is determined whether there is an input corresponding to the sensor unit (step S903), and if so, the process proceeds to step S904. FIG. 10 shows a flowchart of the specific processing in step S904.

【0048】センサ処理部103からの入力が「叩かれ
た」ことを示すものであった場合(ステップS100
1)、処理をステップS1002に移行し、リンクテー
ブルにパネル2をコール先として格納する(ステップS
1002)。そして「痛いアクション」に基づいたモー
ションデータを再生する(ステップS1003)。
When the input from the sensor processing unit 103 indicates that the player has been hit (step S100).
1) The process proceeds to step S1002, and panel 2 is stored in the link table as a call destination (step S1002).
1002). Then, the motion data based on the "painful action" is reproduced (step S1003).

【0049】センサ処理部103からの入力が「前に何
かある」ことを示すものであった場合(ステップS10
04)、処理をステップS1005に移行し、リンクテ
ーブルが有する箱の中からランダムに一つを選択する
(ステップS1005)。そして選択した箱が空である
場合には処理はステップS1009に移行する。選択し
た箱がパネル2をコール先とするためのデータを格納し
ている場合、処理をステップS1007に移行し、パネ
ル2をコールして(ステップS1007)、高速後退を
行う(ステップS1008)。
When the input from the sensor processing unit 103 indicates that "there is something before" (step S10).
04), the process proceeds to step S1005, and one is randomly selected from the boxes of the link table (step S1005). If the selected box is empty, the process proceeds to step S1009. If the selected box stores data for calling the panel 2, the process proceeds to step S 1007, calls the panel 2 (step S 1007), and performs fast retreat (step S 1008).

【0050】センサ処理部103からの入力が「なでら
れた」ことを示すものであった場合(ステップS100
9)、リンクテーブルが有する箱の中から最も古い箱を
削除し(ステップS1010)、「喜びのアクション」
に基づいたモーションデータを再生する(ステップS1
011)。
When the input from the sensor processing unit 103 indicates "patched" (step S100)
9), the oldest box is deleted from the boxes of the link table (step S1010), and the “joy action”
(Step S1)
011).

【0051】センサ処理部103からの入力が無い場
合、もしくは所定の値以下である場合には(ステップS
1012)、「お座り」のモーションデータを再生する
(ステップS1013)。
When there is no input from the sensor processing unit 103 or when the input is equal to or less than a predetermined value (step S
1012), the motion data of "sitting" is reproduced (step S1013).

【0052】そして図9のステップS905に戻る。Then, the process returns to step S905 in FIG.

【0053】尚本実施形態では、リンクテーブルにコー
ル先としてどのパネルも登録されていない場合(本学習
例ではパネル2をコール先とする確率が0の場合)に
は、ロボットはずっとお座りのモーションデータを再生
することになるが、これに限定されるものではなく、最
低一つはコール先(本学習例ではパネル2)を登録する
ようにしても良い。
In the present embodiment, if no panel is registered as a call destination in the link table (in this learning example, the probability that the panel 2 will be the call destination is 0), the robot will be sitting all the time. Although the motion data is reproduced, the present invention is not limited to this. At least one of the call destinations (panel 2 in this learning example) may be registered.

【0054】[第2の実施形態]本実施形態では、ロボ
ットが学習することで、中性的なセンサ(ロボットが感
情表現しにくいセンサ)を、ロボットにとって意味のあ
る(感情表現しやすい)センサにする学習例を示す。
[Second Embodiment] In the present embodiment, a neutral sensor (a sensor that makes it difficult for the robot to express emotions) is replaced by a sensor that is meaningful (for easy expression of emotions) to the robot by learning by the robot. Here is an example of learning.

【0055】例えば一般の生き物としてのペットにおい
て、「叩かれる」、「ぶつかる」等の入力は、ペットに
とって良い入力とはいえない。そして感情としては嫌な
感情になり、その感情は表情や行動として出力される。
しかし、例えば、「ハンドクラップの音を1回鳴らす」
などの入力に対しては、ペットの感情は一意ではない。
よってこのような中性的な入力に対する感情表現を学習
する例を3つ本実施形態で説明する。尚、学習を行うた
めのパネル(センサユニット、アクションユニットを含
む)やリンクテーブルの使用方法は第1の実施形態にお
いて説明した通りである。
For example, in a pet as a general creature, inputs such as “hit” and “hit” are not good inputs for the pet. Then, the emotions become unpleasant emotions, and the emotions are output as facial expressions and actions.
However, for example, "sound the handclap once"
For such inputs, the emotions of the pet are not unique.
Therefore, three examples of learning an emotional expression for such a neutral input will be described in the present embodiment. The method of using the panel (including the sensor unit and the action unit) and the link table for performing the learning is as described in the first embodiment.

【0056】<学習例1>例えばハンドクラップを1回
鳴らし、その後にロボットをほめると(例えばロボット
をなでると)、ロボットに「ノリノリで喜ぶ」モーショ
ンを再生させるようにパネル(パネル内に配置するセン
サユニットとアクションユニットも含む)を構成する。
その結果、ハンドクラップを鳴らす毎に、ロボットは
「ノリノリで喜ぶ」モーションを再生することを学習す
る。
<Learning example 1> For example, when a hand clap is sounded once and then the robot is praised (for example, when the robot is stroked), a panel (arranged in the panel) is made to cause the robot to reproduce a motion "pleasant with stiffness". (Including a sensor unit and an action unit).
As a result, each time the handclap sounds, the robot learns to play a “slippery” motion.

【0057】上述の学習を実現するために、パネル1に
はハンドクラップの音を1回検知すると後述のパネル2
をリンクテーブルに1つ格納し、ほめられるとリンクテ
ーブルからランダムに一つ箱を選択して箱に格納されて
いるコール先で特定されるパネルを読み込んで実行する
ようにンサユニットとアクションユニットを配置する。
一方、パネル2には、何もないと「ノリノリで喜ぶ」モ
ーションを再生するようにセンサユニットとアクション
ユニットを配置する。
In order to realize the above-mentioned learning, the panel 1 detects the sound of the hand clap once and detects the sound of the hand clap once.
Is stored in the link table, and when praised, one box is selected at random from the link table and the panel specified by the call destination stored in the box is read and executed. Deploy.
On the other hand, the sensor unit and the action unit are arranged on the panel 2 so as to reproduce a motion of “pleasant with stiffness” when there is nothing.

【0058】<学習例2>例えばロボットの前に何かあ
る場合に(ロボットが前に何かあると検知した場合
に)、ロボットを叩くと、ロボットに「痛がる」モーシ
ョンを再生させるようにパネル(パネル内に配置するセ
ンサユニットとアクションユニットも含む)を構成す
る。その結果、ロボットは前に何かあることを検知する
毎に、「痛がる」モーションを再生することを学習す
る。
<Learning Example 2> For example, when there is something in front of the robot (when it is detected that there is something in front of the robot), hitting the robot causes the robot to reproduce a "painful" motion. And a panel (including a sensor unit and an action unit arranged in the panel). As a result, the robot learns to play a "painful" motion each time it detects something in front.

【0059】上述の学習を実現するために、パネル1に
は前に何かあることを検知すると後述のパネル2をリン
クテーブルに1つ格納し、叩かれるとリンクテーブルか
らランダムに一つ箱を選択して箱に格納されているコー
ル先で特定されるパネルを読み込んで実行するようにン
サユニットとアクションユニットを配置する。一方、パ
ネル2には、何もないと「痛がる」モーションを再生す
るようにセンサユニットとアクションユニットを配置す
る。
In order to realize the above-mentioned learning, when it detects that something is in front of the panel 1, one panel 2 described later is stored in the link table, and when it is hit, one box is randomly selected from the link table. Select and arrange the sensor unit and action unit to read and execute the panel specified by the call destination stored in the box. On the other hand, a sensor unit and an action unit are arranged on the panel 2 so as to reproduce a motion that "aches" when nothing is done.

【0060】<学習例3>例えば急に明るくなった場合
に(ロボットが急に明るくなったことを検知した場合
に)、のどをゴロゴロすると(ロボットののどにタッチ
センサなどを設け、「ゴロゴロされた」ことを検知可能
とした場合)、ロボットに「気持ちいい」モーションを
再生させるようにパネル(パネル内に配置するセンサユ
ニットとアクションユニットも含む)を構成する。その
結果、ロボットは急に明るくなったことを検知する毎
に、「気持ちいい」モーションを再生することを学習す
る。
<Learning Example 3> For example, if the robot suddenly becomes bright (when it is detected that the robot suddenly becomes bright), the throat is gurgling (a touch sensor or the like is provided on the throat of the robot, and " (When it is possible to detect ")", a panel (including a sensor unit and an action unit arranged in the panel) is configured to cause the robot to reproduce a "pleasant" motion. As a result, the robot learns to play a “pleasant” motion each time it detects that it suddenly becomes bright.

【0061】上述の学習を実現するために、パネル1に
は急に明るくなったことを検知すると後述のパネル2を
リンクテーブルに1つ格納し、のどをゴロゴロされる
と、リンクテーブルからランダムに一つ箱を選択して箱
に格納されているコール先で特定されるパネルを読み込
んで実行するようにンサユニットとアクションユニット
を配置する。一方、パネル2には、何もないと「気持ち
いい」モーションを再生するようにセンサユニットとア
クションユニットを配置する。
In order to realize the above-mentioned learning, when it is detected that the panel 1 suddenly becomes bright, one panel 2 described later is stored in the link table. Select one box and arrange the sensor unit and action unit to read and execute the panel specified by the call destination stored in the box. On the other hand, a sensor unit and an action unit are arranged on the panel 2 so as to reproduce a “pleasant” motion if there is nothing.

【0062】以上の学習の結果、ロボットは中性的な入
力に応じた感情を学習することができ、学習した感情に
応じた行動や表情を学習することができる。
As a result of the above learning, the robot can learn emotions according to neutral inputs, and can learn actions and facial expressions according to the learned emotions.

【0063】[第3の実施形態]第1、2の実施形態に
おけるロボットの行動の因果関係(すなわちロボットの
性格)は、パネルとそこに設けられるユニットの組み合
わせにより実現した。このユニットの組み合わせは外部
からプログラミング可能である。例えば、パーソナルコ
ンピュータ上で動作するGUIを用いて、パネル内にユ
ニットを自由に配置することを可能にする。その結果、
オリジナルのパネルが作成されるので、この作成したパ
ネルをロボットに転送する。転送は、パーソナルコンピ
ュータとロボットとを所定の規格の端子(例えばUBS
端子など)で接続することで、可能となる。もちろん上
述のパーソナルコンピュータに、上述のGUIのプログ
ラムコードやデータ、ロボットにデータを転送するため
のドライバがインストールされていることは自明であ
る。
[Third Embodiment] The causal relationship of the behavior of the robot (that is, the character of the robot) in the first and second embodiments is realized by a combination of a panel and units provided therein. This unit combination is externally programmable. For example, it is possible to arrange units freely in a panel by using a GUI that operates on a personal computer. as a result,
Since an original panel is created, the created panel is transferred to the robot. The transfer is performed by connecting a personal computer and a robot to terminals of a predetermined standard (for example, UBS).
Terminals, etc.). Of course, it is obvious that the above-mentioned personal computer is installed with the above-mentioned GUI program code and data, and a driver for transferring data to the robot.

【0064】[0064]

【発明の効果】以上の説明により、本発明によって、簡
単な構成で学習機能、特に性格付けを実現することがで
きる。
As described above, according to the present invention, it is possible to realize a learning function, particularly, a personality rating with a simple configuration.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態における制御装置の構
成を示す図である。
FIG. 1 is a diagram illustrating a configuration of a control device according to a first embodiment of the present invention.

【図2】パネルの一例を示す図である。FIG. 2 is a diagram illustrating an example of a panel.

【図3】リンクテーブルを示す図である。FIG. 3 is a diagram showing a link table.

【図4】リンクテーブルに関するアクションユニットを
示す図である。
FIG. 4 is a diagram showing an action unit relating to a link table.

【図5】指定したリンクテーブルにパネルを格納する際
を説明する図である。
FIG. 5 is a diagram illustrating a case where a panel is stored in a specified link table.

【図6】指定したリンクテーブルにパネルを格納する
際、このリンクテーブルが有する箱が全て空ではない場
合を説明する図である。
FIG. 6 is a diagram illustrating a case where all boxes included in the link table are not empty when a panel is stored in a designated link table.

【図7】学習例に用いるパネル1,2を示す図である。FIG. 7 is a diagram showing panels 1 and 2 used in a learning example.

【図8】図7に示したパネル1,2を用いた学習方法を
説明する図である。
8 is a diagram illustrating a learning method using panels 1 and 2 shown in FIG.

【図9】学習の処理のフローチャートである。FIG. 9 is a flowchart of a learning process.

【図10】ステップS904における具体的な処理のフ
ローチャートである。
FIG. 10 is a flowchart of a specific process in step S904.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA01 CA02 CA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF03 EF07 EF13 EF16 EF23 EF28 EF29 EF33 EF36 3C007 AS36 KS10 KS12 KS20 KS31 KS39 KV11 WB14 WB16 WB22 ──────────────────────────────────────────────────の Continued on the front page F term (reference) 2C150 CA01 CA02 CA04 DA05 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 ED42 ED47 ED52 EF03 EF07 EF13 EF16 EF23 EF28 EF29 EF33 EF36 3C007 AS36 KS10 KS12 KS12 KS20 KS12 KS12 KS20

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 少なくとも1つの所定の条件と、この所
定の条件の各々に対応付けされた少なくとも1つの処理
とが記憶されたパネルを複数記憶するパネル記憶手段
と、 前記複数のパネルの1つを選択するパネル選択手段と、 前記パネル選択手段が選択したパネルを用いてロボット
の制御を行う制御手段とを備えるロボットの制御装置で
あって、 前記選択手段が、 次に使用するパネルの候補を表す候補情報を所定数記憶
する候補情報記憶手段と、 前記候補情報記憶手段の記憶内容に基づいて次に使用す
るパネルを決定するパネル決定手段とを備え、 前記候補情報の前記候補情報記憶手段への記憶は、前記
パネルに記憶された処理によって行われることを特徴と
するロボットの制御装置。
1. A panel storage means for storing a plurality of panels storing at least one predetermined condition and at least one process associated with each of the predetermined conditions, and one of the plurality of panels. And a control means for controlling the robot using the panel selected by the panel selection means, wherein the selection means selects a panel candidate to be used next. Candidate information storage means for storing a predetermined number of candidate information to be represented; and panel determination means for determining a panel to be used next based on the storage content of the candidate information storage means. Is stored by the processing stored in the panel.
【請求項2】 前記パネル決定手段は、前記候補情報記
憶手段に記憶された候補情報のうち、同じパネルを表す
ものの数に応じて前記決定を行うことを特徴とする請求
項1に記載のロボットの制御装置。
2. The robot according to claim 1, wherein the panel determination unit makes the determination in accordance with the number of pieces of candidate information stored in the candidate information storage unit that represent the same panel. Control device.
【請求項3】 前記候補情報記憶手段は、前記所定数の
候補情報が記憶されている状態で新たな候補情報を受け
付けると、最も古い候補情報の替わりに前記新たな候補
情報を記憶することを特徴とする請求項1又は2に記載
のロボットの制御装置。
3. When the candidate information storage means receives new candidate information while the predetermined number of candidate information is stored, the candidate information storage means stores the new candidate information in place of the oldest candidate information. The control device for a robot according to claim 1 or 2, wherein:
【請求項4】 前記候補情報記憶手段は、少なくとも一
つ以上の候補情報を記憶することを特徴とする請求項1
乃至3のいずれか1項に記載のロボットの制御装置。
4. The apparatus according to claim 1, wherein said candidate information storage means stores at least one piece of candidate information.
The control device for a robot according to any one of claims 3 to 3.
【請求項5】 前記パネルに含まれる前記所定の条件の
それぞれが優先順位を有し、前記制御手段が、前記パネ
ルに含まれる前記所定の条件の複数が満たされる場合、
前記優先順位の高い条件に対応付けされた処理を実行す
ることを特徴とする請求項1乃至4のいずれか1項に記
載のロボットの制御装置。
5. When each of the predetermined conditions included in the panel has a priority, and the control unit determines that a plurality of the predetermined conditions included in the panel are satisfied.
The robot control device according to any one of claims 1 to 4, wherein a process associated with the condition having the higher priority is executed.
【請求項6】 ロボットの行動パターン及び/又はロボ
ットの状態と、当該ロボットが前記行動をとるための条
件及び/又は前記ロボットが前記状態になるための条件
を記述するパネルを複数格納するパネル格納手段と、 複数のパネルを格納する格納手段と、 前記ロボットの行動パターンを決定する際及び/又は前
記ロボットの状態を決定する際、前記格納手段に格納さ
れているパネルから一つを選択し、選択したパネルに基
づいて前記行動パターン及び/又は前記状態を決定する
決定手段とを備えることを特徴とするロボットの制御装
置。
6. A panel storage for storing a plurality of panels describing a behavior pattern of a robot and / or a state of the robot and a condition for the robot to perform the behavior and / or a condition for the robot to enter the state. Means, a storage means for storing a plurality of panels, and when determining an action pattern of the robot and / or determining a state of the robot, one of the panels stored in the storage means is selected, A control device for a robot, comprising: determination means for determining the behavior pattern and / or the state based on the selected panel.
【請求項7】 少なくとも1つの所定の条件と、この所
定の条件の各々に対応付けされた少なくとも1つの処理
とが記憶されたパネルをパネル記憶手段に複数記憶して
おき、 前記複数のパネルの1つを選択するパネル選択工程と、 前記パネル選択工程で選択したパネルを用いてロボット
の制御を行う制御工程とを備えるロボットの制御方法で
あって、 前記選択工程では、 次に使用するパネルの候補を表す候補情報を候補情報記
憶手段に所定数記憶しておき、 前記候補情報記憶手段の記憶内容に基づいて次に使用す
るパネルを決定し、 前記候補情報の前記候補情報記憶手段への記憶は、前記
パネルに記憶された処理によって行われることを特徴と
するロボットの制御方法。
7. A plurality of panels each storing at least one predetermined condition and at least one process associated with each of the predetermined conditions are stored in a panel storage means, A control method for a robot, comprising: a panel selection step of selecting one; and a control step of controlling the robot using the panel selected in the panel selection step. A predetermined number of candidate information representing candidates is stored in the candidate information storage means, a panel to be next used is determined based on the storage content of the candidate information storage means, and the candidate information is stored in the candidate information storage means. Is performed by a process stored in the panel.
【請求項8】 ロボットの行動パターン及び/又はロボ
ットの状態と、当該ロボットが前記行動をとるための条
件及び/又は前記ロボットが前記状態になるための条件
を記述するパネルをパネル格納手段に複数格納してお
き、 複数のパネルを格納手段に格納する格納工程と、 前記ロボットの行動パターンを決定する際及び/又は前
記ロボットの状態を決定する際、前記格納手段に格納さ
れているパネルから一つを選択し、選択したパネルに基
づいて前記行動パターン及び/又は前記状態を決定する
決定工程とを備えることを特徴とするロボットの制御方
法。
8. A panel storing means for storing a panel describing a behavior pattern of a robot and / or a state of the robot and a condition for the robot to perform the behavior and / or a condition for the robot to enter the state. A storage step of storing a plurality of panels in a storage unit; and determining a behavior pattern of the robot and / or a state of the robot, by selecting one of the panels stored in the storage unit. And selecting the behavior pattern and / or the state based on the selected panel.
【請求項9】 請求項7又は8に記載のロボットの制御
方法をコンピュータ上で実行するプログラムコード。
9. A program code for executing the method of controlling a robot according to claim 7 on a computer.
【請求項10】 請求項9に記載のプログラムコードを
格納し、コンピュータが読み取り可能な記憶媒体。
10. A computer-readable storage medium storing the program code according to claim 9.
JP2001075854A 2001-03-16 2001-03-16 Robot control apparatus, robot control method, program, and storage medium Expired - Fee Related JP4316819B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001075854A JP4316819B2 (en) 2001-03-16 2001-03-16 Robot control apparatus, robot control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001075854A JP4316819B2 (en) 2001-03-16 2001-03-16 Robot control apparatus, robot control method, program, and storage medium

Publications (3)

Publication Number Publication Date
JP2002273674A true JP2002273674A (en) 2002-09-25
JP2002273674A5 JP2002273674A5 (en) 2008-01-17
JP4316819B2 JP4316819B2 (en) 2009-08-19

Family

ID=18932874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001075854A Expired - Fee Related JP4316819B2 (en) 2001-03-16 2001-03-16 Robot control apparatus, robot control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP4316819B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005014242A1 (en) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International Communication robot control system
JP2008023604A (en) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International Android control system
KR20200104836A (en) * 2020-08-10 2020-09-04 주식회사 로보메이션 Coding Robot System using Coding Block and Coding Editing Method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109911645B (en) * 2019-03-22 2020-10-23 深圳蓝胖子机器人有限公司 Ladle-to-ladle control method and device and robot

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005014242A1 (en) * 2003-08-12 2005-02-17 Advanced Telecommunications Research Institute International Communication robot control system
JPWO2005014242A1 (en) * 2003-08-12 2006-09-28 株式会社国際電気通信基礎技術研究所 Communication robot control system
US7689319B2 (en) 2003-08-12 2010-03-30 Advanced Telecommunications Research Institute International Communication robot control system
JP2008023604A (en) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International Android control system
KR20200104836A (en) * 2020-08-10 2020-09-04 주식회사 로보메이션 Coding Robot System using Coding Block and Coding Editing Method thereof
KR102189856B1 (en) 2020-08-10 2020-12-11 주식회사 로보메이션 Coding Robot System using Coding Block and Coding Editing Method thereof

Also Published As

Publication number Publication date
JP4316819B2 (en) 2009-08-19

Similar Documents

Publication Publication Date Title
Hayes-Roth et al. Animate characters
KR100720023B1 (en) Proactive user interface
Mateas Interactive drama, art and artificial intelligence
WO1998000209A1 (en) Video game machine and medium where video game program is stored
CN108363492A (en) A kind of man-machine interaction method and interactive robot
US11554315B2 (en) Communication with augmented reality virtual agents
US8280995B2 (en) System and method for supporting dynamic selection of communication means among users
JP2002049385A (en) Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
Brock et al. Developing a lightweight rock-paper-scissors framework for human-robot collaborative gaming
EP0842467A2 (en) Process control with evaluation of stored referential expressions
JP2009026125A (en) Emotion analysis device, emotion analysis method, and program
Hillmann The history and future of XR
CN114712862A (en) Virtual pet interaction method, electronic device and computer-readable storage medium
JP2021521512A (en) Start modal control based on hand position
JP2001249949A (en) Feeling generation method, feeling generator and recording medium
JP2002273674A (en) Control device for robot, method therefor, program code and storage medium
JP2009207730A (en) Display toy
KR20190067035A (en) Apparatus for produing algorithm
JP2005058383A (en) Game information processor and computer program thereof
Fernandez et al. Theatrebot: A software architecture for a theatrical robot
JPH11119641A (en) Living thing image display control device, method of controlling living thing image display, and recording medium in which living thing image display processing program is recorded
WO2002074502A1 (en) Robot control device and method thereof
JP2001157980A (en) Robot device, and control method thereof
Logothetis A toolset for physical interaction in augmented reality environments.
Walker Ghosts of the Horseshoe: A Mobilization of a Critical Interactive

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090521

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150529

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees