JP2003285286A - Robot - Google Patents

Robot

Info

Publication number
JP2003285286A
JP2003285286A JP2002088966A JP2002088966A JP2003285286A JP 2003285286 A JP2003285286 A JP 2003285286A JP 2002088966 A JP2002088966 A JP 2002088966A JP 2002088966 A JP2002088966 A JP 2002088966A JP 2003285286 A JP2003285286 A JP 2003285286A
Authority
JP
Japan
Prior art keywords
user
degree
robot apparatus
learning
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002088966A
Other languages
Japanese (ja)
Other versions
JP3891020B2 (en
Inventor
Nobuyuki Yamashita
信行 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2002088966A priority Critical patent/JP3891020B2/en
Publication of JP2003285286A publication Critical patent/JP2003285286A/en
Application granted granted Critical
Publication of JP3891020B2 publication Critical patent/JP3891020B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a robot from growing before a user learns a function with usage the user needs to learn. <P>SOLUTION: An acquisition degree indicating the degree of the user learning a function is determined by an acquisition evaluation section. A growth evaluation section 213 evaluates experience in use of the user, and the degree of the growth of the robot is determined based on the evaluated experience and the acquisition degree. A scenario execution section 200 and an operation control section 202 control the robot based on the degree of the growth evaluated by the section 213. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明はロボット装置に関
し、特にユーザーのロボット装置の使用経験に応じて成
長するロボット装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot device, and more particularly to a robot device that grows according to a user's experience of using the robot device.

【0002】[0002]

【従来の技術】従来、この種のロボット装置は、例え
ば、家庭内で用いられ、ユーザーの関わり度合いに応じ
て模擬的に変化や成長をし、ユーザーにこの変化や成長
を感じさせて愛着を抱かせるために用いられている。
2. Description of the Related Art Conventionally, this type of robot apparatus is used, for example, at home, and changes or grows in a simulated manner according to the degree of involvement of the user, and makes the user feel the change or growth to be attached. It is used to hold you.

【0003】従来のロボット装置の一例を図8、図9を
用いて説明する。
An example of a conventional robot device will be described with reference to FIGS. 8 and 9.

【0004】従来のロボット装置の外観は、図8に示す
ように、頭部ユニット204、胴体ユニット及び車輪部
ユニット205により構成する。
As shown in FIG. 8, the external appearance of a conventional robot apparatus is composed of a head unit 204, a body unit and a wheel unit 205.

【0005】頭部ユニット204は、頭ボタン100
と、音声認識用マイク101と、二つのCCDカメラ1
02と、複数のLED103とを有し、頭部ユニット2
04を上下左右に回転するための首108により胴体ユ
ニットと接続している。
The head unit 204 has a head button 100.
, Voice recognition microphone 101, and two CCD cameras 1
02 and a plurality of LEDs 103, and the head unit 2
A neck 108 for rotating 04 vertically and horizontally is connected to the body unit.

【0006】胴体ユニットは、音源方向検出用マイク1
04と、スピーカー105と、超音波センサ106と、
電源スイッチ110とを備えている。
The body unit is a microphone 1 for detecting the direction of a sound source.
04, the speaker 105, the ultrasonic sensor 106,
And a power switch 110.

【0007】車輪部ユニット205は、近接センサ10
7と、車輪109とを備えている。
The wheel unit 205 includes the proximity sensor 10
7 and wheels 109.

【0008】頭ボタン100は、電気スイッチであり、
スイッチがオンかオフかの状態を検出することができ、
更に、頭ボタン100を押されている時間によって、異
なる入力として扱うことが出来るようになっている。
The head button 100 is an electric switch,
It can detect whether the switch is on or off,
Further, it is possible to handle different inputs depending on how long the head button 100 is pressed.

【0009】音声認識用マイク101は、指向性マイク
であって、ロボットの顔面に正対してユーザーが話し掛
けたときに指向特性が最大になるような音声認識に適し
たマイクとなっている。
The voice recognition microphone 101 is a directional microphone and is suitable for voice recognition in which the directional characteristic is maximized when the user speaks directly at the face of the robot.

【0010】二つのCCDカメラ102は、両カメラ間
の距離や二つのカメラの向いている軸を揃える等の予め
校正された状態で組み込まれたステレオカメラになって
おり、首108を下方向に向けて、床面の障害物検出の
ための入力用として使用されることと、首108を上方
に向けて人物の検出や人物の同定のための入力用として
使用されることとに使用される。
The two CCD cameras 102 are stereo cameras installed in a pre-calibrated state such that the distance between the two cameras and the axes of the two cameras are aligned, and the neck 108 is directed downward. Used for input for detecting obstacles on the floor surface and for input for detecting and identifying a person with the neck 108 facing upward. .

【0011】複数のLED103は、目、耳、口、頬に
相当する部分にそれぞれ埋め込まれており、ロボットの
感情表現として役割と、音の検知や人物検出といったロ
ボットのセンシングの状態をユーザーに知らせる役割と
を持つ。
The plurality of LEDs 103 are embedded in parts corresponding to eyes, ears, mouth, and cheeks, respectively, and inform the user of the role of emotional expression of the robot and the state of robot sensing such as sound detection and person detection. Have a role and.

【0012】音源方向検出用マイク104は、襟の部分
の左右と正面に計3つのマイクが取り付けられており、
到達する音の時間差を計測処理して、音源の方向を推定
するために使用される。
The sound source direction detecting microphone 104 has a total of three microphones attached to the left and right sides and the front side of the collar portion.
It is used to estimate the direction of a sound source by measuring the time difference between arriving sounds.

【0013】スピーカー105は、合成音声や収録音声
や効果音や音楽などを出力する。
The speaker 105 outputs a synthesized voice, a recorded voice, a sound effect, music and the like.

【0014】超音波センサ106は、近距離(例えば、
50cm程度まで)にある物体までの距離計測用のセン
サと中距離(例えば、120cm程度まで)にある物体
までの距離計測用のセンサとがあり、近距離用のセンサ
はロボット下部の前方と後方に取り付けられ、中距離用
のセンサはロボット中央部正面に取り付けられている。
この超音波センサ106は、CCDカメラ102を用い
た障害物検出と併用され、ロボットの移動の際に障害物
を検出して避けるために使用される。
The ultrasonic sensor 106 has a short distance (eg,
There is a sensor for measuring a distance to an object at a distance of up to about 50 cm and a sensor for measuring a distance to an object at a medium distance (for example, up to about 120 cm). The sensor for medium distance is attached to the front of the central part of the robot.
This ultrasonic sensor 106 is used together with obstacle detection using the CCD camera 102, and is used to detect and avoid obstacles when the robot moves.

【0015】電源スイッチ110は、ロボットの電源の
オン/オフに使用される。
The power switch 110 is used to turn on / off the power of the robot.

【0016】近接センサ107は、階段などの段差を検
出して、階段からの落下防止のために使用される。
The proximity sensor 107 is used to detect steps such as stairs and prevent falling from the stairs.

【0017】車輪109は、胴体下部の左右に各1つず
つ、それぞれ独立して回転角速度を与えることが出来る
車輪109が取り付けられ、胴体後方には1つのキャス
ターが取り付けられている。
The wheels 109 are attached to the left and right sides of the lower part of the body, one wheel 109 capable of independently providing a rotational angular velocity, and one caster is attached to the rear of the body.

【0018】図8で示す従来のロボット装置に適用する
制御系は、図9に示すように、シナリオ実行部900
と、シナリオDB部901と、動作制御部902と、セ
リフ選択部210と、セリフDB部211と、パラメー
タ格納部904と、成長判定部903とにより構成す
る。
The control system applied to the conventional robot apparatus shown in FIG. 8 has a scenario execution unit 900 as shown in FIG.
A scenario DB unit 901, an operation control unit 902, a dialogue selection unit 210, a dialogue DB unit 211, a parameter storage unit 904, and a growth determination unit 903.

【0019】図9中の、LED203,頭部ユニット2
04のアクチュエータ204A,車輪部ユニット205
のアクチュエータ205A,各種センサ206,マイク
207,スピーカー208及びカメラ209は動作制御
部902により制御される。
The LED 203 and the head unit 2 in FIG.
04 actuator 204A, wheel unit 205
The actuator 205A, various sensors 206, microphone 207, speaker 208, and camera 209 are controlled by the operation control unit 902.

【0020】ここで、LED203は図8のLED10
3、アクチュエータ204Aは図8の首108を動かす
ためのアクチュエータ、アクチュエータ205Aは図8
の車輪109を動かすためのアクチュエータ、各種セン
サ206は図8の頭ボタン100,超音波センサ10
6、近接センサ107のそれぞれのセンサ、マイク20
7は図8の音声認識用マイク101、音源方向検出用マ
イク104、スピーカー208は図8のスピーカー10
5、カメラ209は図8のCCDカメラ102である。
Here, the LED 203 is the LED 10 of FIG.
3, the actuator 204A is an actuator for moving the neck 108 of FIG. 8, and the actuator 205A is shown in FIG.
An actuator for moving the wheel 109 of the vehicle, various sensors 206 are the head button 100 and the ultrasonic sensor 10 of FIG.
6, each sensor of the proximity sensor 107, the microphone 20
7 is the voice recognition microphone 101, the sound source direction detection microphone 104 in FIG. 8, and the speaker 208 is the speaker 10 in FIG.
5. The camera 209 is the CCD camera 102 shown in FIG.

【0021】パラメータ格納部904には、ロボット装
置の成長の度合いを示す成長パラメータ(パラメータ値
は例えば1、2、3の3種。)とロボット装置の感情の
度合いを示す感情パラメータとが格納されている。
The parameter storage unit 904 stores growth parameters indicating the degree of growth of the robot apparatus (parameter values are, for example, 1, 2, and 3) and emotion parameters indicating the degree of emotion of the robot apparatus. ing.

【0022】セリフDB部211には、セリフを状況毎
に分類したときのセリフ発話状況を表すセリフカテゴリ
ー名(以後、セリフ種と記載する。)毎に、成長パラメ
ータの値や感情パラメータの値に基づいて、対応するセ
リフが格納されている。セリフ種とは、例えば、ロボッ
ト装置が人に対して挨拶をする際に使われる「おはよう
ございます」や「おはよう」といったセリフを一まとめ
にして“朝の挨拶”というように分類したときの“朝の
挨拶”というカテゴリー名称を表す。
The serif DB section 211 stores the growth parameter value and emotion parameter value for each serif category name (hereinafter, referred to as serif type) that represents the serif utterance situation when the serif is classified according to the situation. Based on that, the corresponding line is stored. The serif type is, for example, a "serious greeting" that is used when a robot device greets a person, such as "Good morning" and "Good morning". It represents the category name "morning greeting".

【0023】シナリオDB部901には、「移動」,
「人を捜す」,「あいさつ」等の動作を示す各種のシナ
リオが格納されている。それぞれのシナリオは成長パラ
メータのパラメータ値に対応するシナリオをそれぞれ有
している。「人を捜す」シナリオには、成長パラメータ
のパラメータ値に対応する3種類のシナリオがあり、例
えば、成長パラメータのパラメータ値が1のときには、
首を動かすことも無く、人の検出が出来ない場合は必ず
一定時間だけ「人を探す」シナリオを動作させるが、成
長パラメータのパラメータ値が3のときには、ときどき
首を左右に振りながら、「探してるよ。誰かいないの
?」などと発話したり、例えば、ロボットが感情を模擬
するような仕組み(未記載)を有する場合には、感情の
状態が良好なときには長い時間「人を探す」シナリオを
動作させるが、感情の状態が悪い場合には短時間しか
「人を探す」シナリオを動作させないようにシナリオに
記述されている。このように成長パラメータが上の段階
に行くにつれて、ロボット装置が感情を有しているよう
にユーザーには感じられるが、その反面首を動かしてい
る最中は人を検出しないことや、「人を探す」シナリオ
の実行時間が一定で無いため、ユーザーが予期しないタ
イミングで「人を探す」シナリオを抜けて他のシナリオ
を実行するということがある。
In the scenario DB section 901, "move",
It stores various scenarios that indicate actions such as “search for a person” and “greeting”. Each scenario has a scenario corresponding to the parameter value of the growth parameter. There are three types of “search for people” scenarios corresponding to the parameter values of the growth parameter. For example, when the parameter value of the growth parameter is 1,
If you can't detect a person without moving your neck, always run the "Find person" scenario for a certain period of time, but when the parameter value of the growth parameter is 3, you sometimes shake your neck from side to side If there is a mechanism (not described) that the robot imitates emotions, for example, if the emotional state is good, a long time “Find person” scenario is used. Although it is operated, the scenario is described so that the “search for person” scenario is operated only for a short time when the emotional state is bad. In this way, as the growth parameters go up, the user feels that the robotic device has emotions, but on the other hand, it does not detect a person while moving his / her neck. Since the execution time of the "search for" scenario is not constant, the user may exit the "search for person" scenario and execute another scenario at an unexpected timing.

【0024】そして、セリフDB部211にある、各々
のシナリオには、LED203の点灯制御処理の記述
と、頭部ユニット204のアクチュエータ204Aの動
作制御処理の記述と、車輪部ユニット205のアクチュ
エータ205Aの動作制御処理の記述と、スピーカー2
08による音声出力制御処理の記述と、動作制御部90
2から送られる各種センサ206の計測結果やロボット
の内部状態の解析結果として発行されるセンサイベント
入力があった際の処理の記述と、マイク207を通して
入力された音声の音声認識結果である音声認識イベント
入力があった際の処理の記述と、カメラ209を通して
入力された画像を解析して得られた画像認識イベント入
力があった際の処理の記述と、次のシナリオ(状態)へ
の遷移に関する記述と、が記述されている。
Each scenario in the dialogue DB section 211 includes a description of the lighting control processing of the LED 203, a description of the operation control processing of the actuator 204A of the head unit 204, and a description of the actuator 205A of the wheel unit 205. Description of motion control process and speaker 2
08 description of voice output control processing and operation control unit 90
2 is the measurement result of the various sensors 206 sent from the sensor 2 and the description of the process when there is a sensor event input issued as the analysis result of the internal state of the robot, and the voice recognition which is the voice recognition result of the voice input through the microphone 207. Regarding a description of processing when an event is input, an image recognition obtained by analyzing an image input through the camera 209, a description of processing when an event is input, and transition to the next scenario (state) Description and are described.

【0025】成長判定部903は、ロボット装置を初め
て起動してからの経過時間、総起動時間、ユーザーとの
やりとりの回数などのロボットの経験に基づいて、ロボ
ット装置の成長段階を決定しこの成長段階に応じて予め
定めた成長パラメータ(パラメータ値は例えば1、2、
3の3種。)をパラメータ格納部904に設定する。
The growth determination unit 903 determines the growth stage of the robot apparatus based on the experience of the robot such as the elapsed time after the robot apparatus is first started, the total startup time, and the number of interactions with the user. Growth parameters predetermined according to stages (parameter values are, for example, 1, 2,
3 kinds of 3. ) Is set in the parameter storage unit 904.

【0026】シナリオ実行部900は、シナリオDB部
901に格納された「移動」,「人を捜す」,「あいさ
つ」等の動作を示す各種シナリオのうちから1つのシナ
リオを選択し、選択したシナリオに記述されたコマンド
を順次、動作制御部902に送信したり、動作制御部9
02から送られてくる動作結果の発生や検出結果の発生
等を示す各種イベントに対応する処理をしたりする。シ
ナリオ実行部900は、選択したシナリオに記述された
コマンド中にセリフ種があるときには、このコマンドを
セリフ選択部210に送り、セリフ選択部210よりセ
リフを受け、このセリフを発話させるコマンドに含めて
動作制御部902に送る。
The scenario execution unit 900 selects one scenario from various scenarios that are stored in the scenario DB unit 901 and indicate operations such as “move”, “search for a person”, and “greeting”. The commands described in 1. are sequentially transmitted to the operation control unit 902,
02 performs processing corresponding to various events indicating the occurrence of operation results and the occurrence of detection results. When the command described in the selected scenario has a serif type, the scenario execution unit 900 sends this command to the serif selection unit 210, receives the serif from the serif selection unit 210, and includes this serif in the command to be uttered. It is sent to the operation control unit 902.

【0027】セリフ選択部210は、シナリオ実行部9
00より受けたコマンドに記述されたセリフ種と、パラ
メータ格納部904に格納された成長パラメータと感情
パラメータとに基づいてセリフDB部211から、具体
的なセリフを選択してシナリオ実行部900に渡す。セ
リフ種が例えば“朝の挨拶”のときには、「おはようご
ざいます」や「おはよう」を選択する。
The dialogue selection unit 210 is a scenario execution unit 9
00, the specific dialogue is selected from the dialogue DB unit 211 based on the dialogue type described in the command received, the growth parameter and the emotional parameter stored in the parameter storage unit 904, and the dialogue is transmitted to the scenario execution unit 900. . When the serif type is "morning greeting," select "Good morning" or "Good morning."

【0028】動作制御部902は、シナリオ実行部90
0から与えられたコマンドを解釈し実行する処理と、各
種センサ206からの入力やマイク207からの音声信
号やカメラ209からの画像信号を解析処理して、その
処理結果をイベントという形でシナリオ実行部900に
送信する処理とを行う。このとき、シナリオ実行部90
0から与えられたコマンドがセリフを発話させるコマン
ドのときには、動作制御部902は、音声合成機能によ
ってこのセリフに対応する音声信号を生成し、生成した
音声信号をスピーカー208から出力する。
The operation control unit 902 is a scenario execution unit 90.
A process of interpreting and executing a command given from 0, an analysis process of an input from various sensors 206, a voice signal from the microphone 207, and an image signal from the camera 209, and the process result is executed as a scenario in the form of an event. The process of transmitting to the unit 900 is performed. At this time, the scenario execution unit 90
When the command given from 0 is a command to speak a speech, the operation control unit 902 generates a speech signal corresponding to this speech by the speech synthesis function, and outputs the generated speech signal from the speaker 208.

【0029】ここで、例えば、人を捜す状況になったと
きのロボット装置の動作について説明する。
Here, the operation of the robot apparatus when, for example, a situation of searching for a person is reached will be described.

【0030】ロボット装置が人を捜す状況になったとき
には、シナリオ実行部900は「人を捜す」シナリオの
うちの成長パラメータのパラメータ値に対応する「人を
捜す」シナリオをシナリオDB部901より読み込み実
行する。この実行により、ロボット装置は人を探してい
ることをユーザーに通知しながら、かつ、カメラ209
からの入力画像を画像認識処理しながら人を探す。ここ
で、人を探していることをユーザーに通知するために
は、シナリオ実行部900は、「人を捜しています」,
「誰かいないの?」,「Aさん、どこですか?」等のセ
リフを動作制御部902に送り、動作制御部902によ
り音声信号を生成しスピーカー208からこのセリフを
出力する。カメラ209からの入力画像を画像認識処理
しながら人を探すためには、シナリオ実行部900は、
動作制御部902に「カメラ209からの入力画像を画
像認識処理しながら人を探す」ように指示し、動作制御
部902は、カメラ209からの入力画像を画像認識処
理しながら人を捜す。
When the robot apparatus is in a situation of searching for a person, the scenario execution unit 900 reads from the scenario DB unit 901 the “search for a person” scenario corresponding to the parameter value of the growth parameter in the “search for a person” scenario. Run. By this execution, the robot device notifies the user that he is searching for a person, and the camera 209
Search for people while performing image recognition processing on the input image from. Here, in order to notify the user that he is searching for a person, the scenario execution unit 900 "searches for a person",
Dialogues such as "Who is there?" And "Where is Mr. A?" Are sent to the operation control unit 902, the operation control unit 902 generates an audio signal, and the speaker 208 outputs this line. In order to search for a person while performing image recognition processing on the input image from the camera 209, the scenario execution unit 900 uses
The operation control unit 902 is instructed to “search for a person while performing image recognition processing on the input image from the camera 209”, and the operation control unit 902 searches for a person while performing image recognition processing on the input image from the camera 209.

【0031】このときユーザーがロボット装置の人物検
出機能のことを良く知らないと、ロボット装置がユーザ
ーを探し出すのに時間が掛かる。
At this time, if the user is not familiar with the person detecting function of the robot apparatus, it takes time for the robot apparatus to find the user.

【0032】この理由について説明する。The reason for this will be described.

【0033】現在、既に画像認識による人物検出機能を
備えた装置は存在するが、それらは家庭用ロボット装置
の使用されるような一般環境においては望ましい性能を
発揮出来ないのが実情である。したがって、画像認識に
よる人物検出機能を備えた装置を使用する際には、カメ
ラ209の設置位置などを工夫するなどして、充分に期
待される性能を発揮出来るような限定された環境を作り
出し、使用することが必要となる。また画像認識処理の
内容によっては、画像認識装置による人物検出の助けと
なるような動作の工夫をユーザーに要求する場合も少な
くない。このユーザーに人物検出の助けとなるような動
作の工夫を要求する例としては、人物検出処理におい
て、動き情報を使用している場合があり、この場合に検
出されるためには、ユーザーは静止しているのではな
く、少し動く必要がある。本ロボット装置に採用される
画像認識技術も、このような使用環境条件の制約やユー
ザーに使用方法の工夫を要求するものである。しかしな
がら、移動を行う家庭用ロボットでは移動するために、
カメラ209の設置位置を工夫して環境条件を整えるこ
とは難しく、ユーザーにはある程度、使用可能な環境条
件を理解してもらうことが必要である。
At present, there are already devices having a person detecting function by image recognition, but in reality, they cannot exhibit desirable performance in a general environment where a home robot device is used. Therefore, when using a device having a person detection function by image recognition, by devising the installation position of the camera 209 or the like, a limited environment capable of sufficiently exhibiting the expected performance is created, It is necessary to use it. In addition, depending on the content of the image recognition processing, there are many cases where the user is requested to devise an operation that helps the person detection by the image recognition device. An example of requesting this user to devise a motion that helps in person detection is when motion information is used in the person detection process. It's not working, it needs to move a little. The image recognition technology adopted in this robot apparatus also requires such restrictions on the usage environment conditions and the user to devise a usage method. However, in order to move with a household robot that moves,
It is difficult to improve the environmental conditions by devising the installation position of the camera 209, and it is necessary for the user to understand the usable environmental conditions to some extent.

【0034】したがって、上記の理由によりユーザーが
ロボット装置の人物検出機能のことを良く知らないと、
ロボット装置がユーザーを探し出すのに時間が掛かる。
Therefore, if the user is not familiar with the person detecting function of the robot apparatus for the above reason,
It takes time for the robotic device to find the user.

【0035】そして、この人物検出機能に関してユーザ
ーが不慣れのままにユーザーのロボット装置に対する経
験が進むと、成長判定部903が成長パラメータ値を増
加させ、ロボット装置が変化し成長する。
If the user is unfamiliar with this person detection function and the user's experience with the robot apparatus advances, the growth determination unit 903 increases the growth parameter value, and the robot apparatus changes and grows.

【0036】このことは、人物検出機能に限らず、例え
ば、音声認識機能等のロボット装置を使いこなすために
ユーザが使用方法を習得する必要のある機能においても
同様に発生する。音声認識機能についても、現状は人間
同士の会話において人間が音声認識を行うようなレベル
とロボットの音声認識のレベルとはかけ離れている。現
状のロボットにおける音声認識では、ユーザーはロボッ
トのマイクから例えば80cmの距離(ロボットが音声
認識するための最適な距離)と適切な声の大きさ(音圧
レベルがロボット内部で飽和することも無く、レベルが
低すぎることもない)でしかも「あのー。伝言しておく
れ」のような話し言葉ではなく、「伝言」や「伝言機能
して」のような単語を中心とした言葉で話しかける必要
がある。したがって、このような音声認識機能の使い方
をユーザーが良く知らないと、ユーザーは何度も試行錯
誤して声を掛けないと、ロボット装置に音声認識をさせ
ることが出来ない。
This occurs not only in the person detecting function, but also in a function such as a voice recognition function which requires the user to learn how to use the robot in order to master it. As for the voice recognition function, at present, the level at which humans perform voice recognition in a conversation between humans and the level of voice recognition by a robot are far from each other. In the voice recognition in the current robot, the user has a distance of, for example, 80 cm from the robot microphone (the optimum distance for the robot to recognize the voice) and an appropriate voice volume (the sound pressure level is not saturated inside the robot). , And the level is not too low), and it is necessary to speak not with spoken words such as "Well, please give me a message", but with words centered on words such as "Message" and "Act on message". . Therefore, unless the user knows how to use such a voice recognition function, the user cannot make the robot recognize the voice unless the user makes a trial and error call.

【0037】[0037]

【発明が解決しようとする課題】上述した従来のロボッ
ト装置は、ロボット装置を初めて起動してからの経過時
間、総起動時間、ユーザーとのやりとりの回数などのユ
ーザーのロボット装置に対する経験が進むと、成長判定
部により、成長パラメータのパラメータ値を増加させ、
ロボット装置が変化し成長し、シナリオ実行部がこの成
長パラメータ値に応じたシナリオを実行し、ロボット装
置はこの成長に応じた動作をするため、ユーザが使用方
法を習得する必要のある機能に対して、ユーザーがこの
機能を習得する前に、ロボット装置が成長すると、ユー
ザーは、ますます、この機能を使いこなすことができな
くなるので、ユーザーは、ロボットに対して悪い印象を
抱き、このためロボット装置に対する飽きが助長すると
いう問題がある。
In the above-mentioned conventional robot apparatus, the experience of the user's robot apparatus such as the elapsed time since the robot apparatus was first started, the total startup time, the number of interactions with the user, etc., increases. , The growth determination unit increases the parameter value of the growth parameter,
The robot device changes and grows, the scenario execution unit executes the scenario according to this growth parameter value, and the robot device operates according to this growth, so for the functions that the user needs to learn how to use. And if the robotic device grows before the user learns this function, the user will not be able to use this function more and more, so the user will have a bad impression on the robot and thus the robotic device. There is a problem that getting tired of is encouraged.

【0038】本発明の目的はこのような従来の欠点を除
去するため、ユーザが使用方法を習得する必要のある機
能に対して、ユーザーがこの機能を習得する前に、ロボ
ット装置が成長することのないロボット装置を提供する
ことにある。
The object of the present invention is to eliminate the above-mentioned drawbacks of the prior art, so that for a function that the user needs to learn how to use, the robot apparatus grows before the user learns this function. The purpose is to provide a robot device that does not exist.

【0039】[0039]

【課題を解決するための手段】本発明の第1のロボット
装置は、複数の機能を有し、ユーザーのロボット装置の
使用経験に応じて成長するロボット装置において、前記
ユーザーの前記機能の習得の度合いを示す第1の習得度
を判定する第1の習得度判定手段と、前記ユーザーの前
記使用経験を判定しこの判定した使用経験と前記第1の
習得度判定手段が判定した前記第1の習得度とに基づい
て自ロボット装置の成長の度合いを判定する成長度判定
手段と、前記成長度判定手段が判定した前記成長の度合
いに基づいて自ロボット装置を制御するロボット装置制
御手段と、を備えて構成されている。
A first robot apparatus of the present invention is a robot apparatus having a plurality of functions and growing according to a user's experience of using the robot apparatus. A first mastering degree judging means for judging a first mastering degree showing a degree; the user's experience of use for judging the user's use experience; and the first mastery degree judging means for judging the use experience. A growth degree determination unit that determines the degree of growth of the robot apparatus based on the degree of learning, and a robot apparatus control unit that controls the robot apparatus based on the degree of growth determined by the growth degree determination unit. It is equipped with.

【0040】また、本発明の第1のロボット装置の前記
第1の習得度判定手段は、ユーザーに対して機能の習得
の度合いを確認するテストを自ロボット装置の有する複
数の機能に対して行い、このテスト結果に応じて前記第
1の習得度を判定するようにしている。
Further, the first learning degree judging means of the first robot apparatus of the present invention performs a test for confirming the degree of learning of the function for the user on a plurality of functions of the own robot apparatus. The first learning level is determined according to the test result.

【0041】更に、本発明の第1のロボット装置の前記
第1の習得度判定手段中の前記テストは、自ロボット装
置に接続した表示手段に表示した表示内容に対して前記
ユーザーより応答を受けることにより行うようにしてい
る。
Further, the test in the first learning degree judging means of the first robot apparatus of the present invention receives a response from the user with respect to the display content displayed on the display means connected to the own robot apparatus. I try to do it.

【0042】また、本発明の第1のロボット装置の前記
第1の習得度判定手段は、ユーザーの自ロボット装置の
使用履歴に基づいて前記第1の習得度を判定するように
している。
Further, the first learning degree judging means of the first robot apparatus of the present invention is adapted to judge the first learning degree based on the use history of the user's own robot apparatus.

【0043】更に、本発明の第1のロボット装置の前記
第1の習得度判定手段は、ユーザーの習得すべき機能に
対応した本ロボット装置のアクション結果の成功回数、
非成功回数、アクション結果がでるまでの平均時間を含
んだ使用履歴を、予め定めた期間分集計して、予め定め
た基準に基づきユーザーが機能を習得出来ているか否か
を示す前記第1の習得度を判定するようにしている。
Further, the first learning degree judging means of the first robot apparatus of the present invention is the number of successful action results of the robot apparatus corresponding to the function to be learned by the user,
The usage history including the number of unsuccessful times and the average time until an action result is obtained is totaled for a predetermined period and indicates whether or not the user has learned the function based on a predetermined standard. I try to judge the degree of acquisition.

【0044】本発明の第2のロボット装置は、複数の機
能を有し、ユーザーのロボット装置の使用経験に応じて
成長するロボット装置において、前記ユーザーの前記機
能の習得の度合いを機能毎に示す第2の習得度を判定す
る第2の習得度判定手段と、前記第2の習得度判定手段
が判定した前記機能の前記第2の習得度に応じた教示内
容を前記ユーザーに教示する機能使用方法説明手段と、
を備えて構成されている。
The second robot apparatus of the present invention is a robot apparatus having a plurality of functions and growing according to a user's experience of using the robot apparatus, and shows the degree of learning of the function by the user for each function. Second learning degree judging means for judging a second learning degree, and a function use for teaching the user the teaching contents according to the second learning degree of the function judged by the second learning degree judging means. Method explanation means,
It is configured with.

【0045】また、本発明の第2のロボット装置の前記
第2の習得度判定手段は、ユーザーに対して機能の習得
の度合いを確認するテストを機能毎に行い、このテスト
結果に応じて前記第2の習得度を機能毎に判定するよう
にしている。
Further, the second learning degree judging means of the second robot apparatus of the present invention performs a test for confirming the degree of learning of the function with respect to the user for each function, and according to the test result, the above-mentioned The second degree of learning is determined for each function.

【0046】更に、本発明の第2のロボット装置の前記
第2の習得度判定手段中の前記テストは、自ロボット装
置に接続した表示手段に表示した表示内容に対して前記
ユーザーより応答を受けることにより行うようにしてい
る。
Further, the test in the second learning degree judging means of the second robot apparatus of the present invention receives a response from the user with respect to the display content displayed on the display means connected to the own robot apparatus. I try to do it.

【0047】また、本発明の第2のロボット装置の前記
機能使用方法説明手段は、前記ユーザーが習得すべき機
能における複数の前記教示内容のうちの前記第2の習得
度に応じた前記教示内容を自ロボット装置に接続した表
示手段に表示し、ユーザーよりこの表示の応答を受ける
ことにより前記ユーザーに教示するようにしている。
Further, the function use method explanation means of the second robot apparatus of the present invention is the teaching content according to the second learning degree of the plurality of teaching contents in the function to be learned by the user. Is displayed on the display means connected to the robot device itself, and the user is instructed by receiving a response from this display by the user.

【0048】[0048]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, embodiments of the present invention will be described with reference to the drawings.

【0049】図1は、本発明のロボット装置の外観の一
例を示す図である。
FIG. 1 is a diagram showing an example of the external appearance of the robot apparatus of the present invention.

【0050】この図は、従来のロボット装置の外観を示
す図8に、AV端子111,AVケーブル112,モニ
タ113及びマウス114を付加している。図8で使用
した番号と同じ番号のものは同一の機能を有する。
In this figure, an AV terminal 111, an AV cable 112, a monitor 113 and a mouse 114 are added to FIG. 8 showing the appearance of a conventional robot apparatus. The same numbers as those used in FIG. 8 have the same functions.

【0051】図2は、本発明のロボット装置の第1の実
施の形態を示すブロック図である。
FIG. 2 is a block diagram showing the first embodiment of the robot apparatus according to the present invention.

【0052】この図は、従来のロボット装置の制御系を
示す図9に、モニタ216,マウス217及び記憶媒体
215を付加している。モニタ216とマウス217と
は図1で示したモニタ113とマウス114と同じであ
る。これらは、ユーザーに対してロボット装置の有する
機能を説明するときやこの機能の習得の度合いを確認す
るテストを行うとき等に使用する。
In this figure, a monitor 216, a mouse 217 and a storage medium 215 are added to FIG. 9 showing a control system of a conventional robot apparatus. The monitor 216 and the mouse 217 are the same as the monitor 113 and the mouse 114 shown in FIG. These are used when explaining the function of the robot apparatus to the user and when performing a test to confirm the degree of learning of this function.

【0053】また、図9とは、シナリオDB部201、
シナリオ実行部200は、成長判定部213、動作制御
部202及びパラメータ格納部212が異なり、ユーザ
ー習得度判定部が追加されている。
Further, the scenario DB section 201,
The scenario execution unit 200 is different from the growth determination unit 213, the operation control unit 202, and the parameter storage unit 212, and a user learning degree determination unit is added.

【0054】シナリオDB部201は、図9のシナリオ
DB部901に「機能レッスン」シナリオ201Aが追
加されている。「機能レッスン」シナリオ201Aに
は、ユーザーに対して行う機能の説明や機能の習得の度
合いを確認するテスト等のシナリオが記述してある。
In the scenario DB unit 201, a "functional lesson" scenario 201A is added to the scenario DB unit 901 of FIG. In the "functional lesson" scenario 201A, a scenario such as a test for confirming the function explanation to the user and the degree of learning of the function is described.

【0055】シナリオ実行部200は、「機能レッス
ン」シナリオ201Aの実行動作が、図9のシナリオ実
行部900の実行動作に加わっている。
In the scenario execution section 200, the execution operation of the "functional lesson" scenario 201A is added to the execution operation of the scenario execution section 900 of FIG.

【0056】パラメータ格納部212には、図9の従来
の技術で記載したロボット装置の成長の度合いを示す成
長パラメータ(パラメータ値は例えば1、2、3の3
種。)とロボット装置の感情の度合いを示す感情パラメ
ータ(不図示)とに加えて、ユーザーがロボット装置の
機能を習得したか否かを示す習得済みフラグがロボット
装置の機能毎に格納されている。また、この各々の機能
にはそれぞれ複数の習得すべき項目があり、この習得す
べき項目に対して習得したか否かを示すサブクリアフラ
グがこの各々の機能毎に複数格納されている。例えば、
画像認識機能について、ユーザーが習得すべき項目は、
ユーザーはロボットのカメラ209の視野角内に顔を
持ってくる必要がある。ロボットのカメラ209から
80cmの距離に顔があるのが最適である。ユーザー
は顔を少し動かす必要がある。顔をあまり傾けてはい
けない。逆光条件や暗い環境においては人物検出をう
まく出来ない。顔の登録をある程度行わなければ、画
像認識による人物同定の精度は向上しない。の6つがあ
り、このそれぞれの項目にサブクリアフラグを設ける。
The parameter storage unit 212 stores growth parameters (parameter values are, for example, 1, 2, and 3 shown in FIG. 9) indicating the degree of growth of the robot apparatus.
seed. ) And an emotion parameter (not shown) indicating the degree of emotion of the robot apparatus, and a learned flag indicating whether or not the user has learned the function of the robot apparatus is stored for each function of the robot apparatus. Further, each of these functions has a plurality of items to be learned, and a plurality of sub-clear flags indicating whether or not the items to be learned are learned are stored for each of these functions. For example,
Regarding the image recognition function, the items that users should learn are
The user needs to bring his face within the viewing angle of the robot camera 209. Optimally, the face is 80 cm from the robot camera 209. The user needs to move his face a little. Don't tilt your face too much. People cannot be detected well in backlit conditions or in dark environments. The accuracy of person identification by image recognition cannot be improved unless face registration is performed to some extent. There are six sub-clear flags.

【0057】また、これらの習得済みフラグとサブクリ
アフラグとは、ロボット装置を購入して、初めて電源ス
イッチ110を入れるときにすべてリセットされ、各機
能ごとに用意した機能レッスンをユーザーが受けこのレ
ッスンの後にユーザーに対してロボット装置の有する機
能の習得の度合いの確認テストを行ったときに、この機
能のある項目に対してユーザーが正解した場合、この正
解した項目のサブクリアフラグをセットし、この機能の
複数のサブクリアフラグのセット率(第2の習得度:例
えば、複数のサブクリアフラグのうちのセットされてい
るフラグの割合を示す。)が予め定めた値以上であると
きにこの機能の習得済みフラグをセットする。
The learned flag and the sub-clear flag are all reset when the robot apparatus is purchased and the power switch 110 is turned on for the first time, and the user receives the function lesson prepared for each function. If the user later answers the question to confirm the degree of mastery of the function of the robot device, and if the user answers correctly to the item with this function, the sub-clear flag of this item is set and this function is set. When the setting rate of the plurality of sub-clear flags (second degree of learning: indicating, for example, the proportion of flags set among the plurality of sub-clear flags) is equal to or more than a predetermined value, the function has been learned. Set the flag.

【0058】成長判定部213は、ロボット装置の電源
スイッチ110のオン時にパラメータ格納部212内の
成長パラメータを更新する処理を行う。このとき、パラ
メータ格納部212の習得済みフラグのセット率(第1
の習得度:例えば、複数の習得済みフラグのうちセット
されているフラグの割合を示す。)とユーザーのロボッ
ト装置の使用経験とに基づいて成長パラメータをパラメ
ータ格納部212にセットする。
The growth determination unit 213 performs a process of updating the growth parameter in the parameter storage unit 212 when the power switch 110 of the robot apparatus is turned on. At this time, the set rate of the learned flag in the parameter storage unit 212 (first
Degree of learning: Indicates, for example, the ratio of flags set among a plurality of learned flags. ) And the user's experience of using the robot apparatus, the growth parameter is set in the parameter storage unit 212.

【0059】ユーザー習得度判定部214は、シナリオ
実行部200の指示により、パラメータ格納部212内
のサブクリアフラグをセットしたり、パラメータ格納部
212内のサブクリアフラグのセット率(第2の習得
度)が予め定めた値以上のときにこのサブクリアフラグ
に対応する機能の習得済みフラグをセットしたりする。
The user learning level determination unit 214 sets the sub clear flag in the parameter storage unit 212 or sets the sub clear flag in the parameter storage unit 212 according to an instruction from the scenario execution unit 200 (second learning level). When is greater than or equal to a predetermined value, the mastered flag of the function corresponding to this sub-clear flag is set.

【0060】図9で使用した番号と同じ番号のものは同
一の機能を有する。
The same numbers as those used in FIG. 9 have the same functions.

【0061】次に、本実施の形態のロボット装置(図
2)の動作について図3、図4、図5及び図6を参照し
て詳細に説明する。
Next, the operation of the robot apparatus (FIG. 2) of the present embodiment will be described in detail with reference to FIGS. 3, 4, 5 and 6.

【0062】図3は、図2に示すロボット装置の状態と
状態間の遷移との一例を示す図である。
FIG. 3 is a diagram showing an example of states of the robot apparatus shown in FIG. 2 and transitions between the states.

【0063】図4は、機能レッスン状態で行われる処理
の一例を示すフローチャートである。
FIG. 4 is a flowchart showing an example of processing performed in the function lesson state.

【0064】図5は、機能レッスン状態で行われる機能
の教示内容の表示の一例を示す図である。
FIG. 5 is a diagram showing an example of display of teaching contents of a function performed in the function lesson state.

【0065】図6は、ユーザーの機能の習得度合いを確
認するテスト内容の表示の一例を示す図である。
FIG. 6 is a diagram showing an example of a display of test contents for confirming the degree of learning of the function of the user.

【0066】図1において、図3を使用して説明する。In FIG. 1, description will be made with reference to FIG.

【0067】ロボット装置の電源スイッチ110がユー
ザーによってオンにされるとロボット装置は起動直後状
態300に遷移し、シナリオ実行部200は「起動直
後」シナリオをシナリオDB部201より読み込み、実
行し、例えば、「起動が完了しました」というセリフを
動作制御部202に送り、首108のモータと車輪10
9のモータとのサーボを動作させたり、成長判定部21
3に成長パラメータの更新処理をさせる等の各種の初期
化処理を行う。
When the power switch 110 of the robot apparatus is turned on by the user, the robot apparatus transits to the state 300 immediately after activation, and the scenario execution unit 200 reads the scenario “immediately after activation” from the scenario DB unit 201 and executes it. , "Starting is completed" is sent to the operation control unit 202, and the motor of the neck 108 and the wheel 10 are sent.
9 to operate the servo with the motor, the growth determination unit 21
Various types of initialization processing such as causing the 3 to update the growth parameters are performed.

【0068】動作制御部202は、シナリオ実行部20
0より「起動が完了しました」というセリフを受け、音
声信号を生成しスピーカー208からこの「起動が完了
しました」を出力してユーザーに起動が完了したことを
通知する。
The operation control unit 202 includes the scenario execution unit 20.
From 0, the line "starting is completed" is received, a voice signal is generated, and this "starting is completed" is output from the speaker 208 to notify the user that the starting is completed.

【0069】シナリオ実行部200は、首108のモー
タと車輪109のモータとのサーボを動作させるため
に、動作制御部202にサーボ制御開始のコマンドを送
り、動作制御部202は、このコマンドにより、アクチ
ュエータ204Aとアクチュエータ205Aとにサーボ
の制御を開始させる。
The scenario execution unit 200 sends a servo control start command to the operation control unit 202 in order to operate the servo between the motor of the neck 108 and the motor of the wheel 109, and the operation control unit 202 receives the command. The actuators 204A and 205A start servo control.

【0070】シナリオ実行部200は、成長判定部21
3に成長パラメータの更新処理をさせるために、成長判
定部213に成長パラメータの更新処理の実行を指示
し、成長判定部213は、パラメータ格納部212内の
習得済みフラグのセット率(第1の習得度)を調べ、こ
の調べたセット率と、初めて起動してからの経過時間、
総起動時間、ユーザーとのやりとりの回数などのロボッ
トの使用経験とに基づいて、ロボット装置の成長段階を
決定しこの成長段階に応じて予め定めた成長パラメータ
をパラメータ格納部212に設定する。 成長判定部2
13は、初めて起動してからの経過時間、総起動時間を
常に計数するとともに、頭ボタン100を押した回数,
頭を撫でた回数,人物を検出した回数等のユーザーとの
やりとりの回数をシナリオ実行部200から報告を受け
てその都度計算しておく。
The scenario execution unit 200 includes the growth determination unit 21.
In order to make 3 perform the growth parameter update processing, the growth determination unit 213 is instructed to execute the growth parameter update processing, and the growth determination unit 213 causes the growth determination unit 213 to set the learned flag set rate in the parameter storage unit 212 (first (Learning degree), the set rate that was examined, and the elapsed time since the startup for the first time,
Based on the total start-up time, the experience of using the robot such as the number of interactions with the user, the growth stage of the robot apparatus is determined, and the growth parameter predetermined according to this growth stage is set in the parameter storage unit 212. Growth determination unit 2
13 always counts the elapsed time after starting for the first time, the total starting time, the number of times the head button 100 is pressed,
The number of times of strokes with the head, the number of times of detecting a person, and the like, the number of times of interaction with the user are received from the scenario execution unit 200 and calculated each time.

【0071】ロボット装置は、例えば3つの成長段階を
有し、この段階を成長パラメータで表わす。最も下の成
長段階では、成長パラメータを1とし、次の成長段階で
は、成長パラメータを2とし、最も上の成長段階では、
成長パラメータを3とする。成長パラメータ3となる条
件は、初めて起動してからの経過時間が例えば14日以
上、かつ総起動時間が例えば30時間以上、かつ頭ボタ
ン100を押した回数と頭を撫でた回数と音声認識した
言葉の数と人物を検出した数の合計が例えば1000以
上、かつ、ユーザーが習得すべきすべての機能をユーザ
ーが習得できていること(セット率(第1の習得度)が
100%)を満足することである。
The robot apparatus has, for example, three growth stages, which are represented by growth parameters. The lowest growth stage has a growth parameter of 1, the next growth stage has a growth parameter of 2, and the highest growth stage has
The growth parameter is 3. The condition for the growth parameter 3 is that the elapsed time after the first activation is, for example, 14 days or more, the total activation time is, for example, 30 hours or more, and the number of times the head button 100 has been pressed and the number of times the head has been stroked is recognized by voice. Satisfies that the total of the number of words and the number of detected people is 1000 or more, and that the user can learn all the functions that the user should learn (set rate (first learning level) is 100%) It is to be.

【0072】ユーザーが習得すべき機能を習得している
か否かは、習得すべき機能に対応するパラメータ格納部
212内の習得済みフラグがセットされているか否かに
より調べる。また、セット率は、パラメータ格納部21
2内の習得すべき複数の機能にそれぞれ対応する複数の
習得済みフラグのセット具合をみて決める。
Whether or not the user has learned the function to be learned is checked by whether or not the learned flag in the parameter storage section 212 corresponding to the function to be learned is set. Also, the set rate is calculated by the parameter storage unit 21.
It is decided by looking at the set states of a plurality of learned flags corresponding to the plurality of functions in 2 to be learned.

【0073】成長パラメータ2となる条件は、成長パラ
メータ3となる条件を満足せずに、初めて起動してから
の経過時間が例えば7日以上、かつ総起動時間が例えば
15時間以上、かつ頭ボタン100を押した回数と頭を
撫でた回数と音声認識した言葉の数と人物を検出した数
の合計が例えば500以上、かつ、セット率(第1の習
得度)50%以上を満足することである。成長パラメー
タ1となるのは、成長パラメータ2と3になる条件を満
足していないときである。
The condition for the growth parameter 2 is such that the condition for the growth parameter 3 is not satisfied, the elapsed time after the first activation is, for example, 7 days or more, the total activation time is, for example, 15 hours or more, and the head button is pressed. By satisfying that the total of the number of times 100 is pressed, the number of strokes of the head, the number of speech-recognized words, and the number of detected people is 500 or more and the set rate (first learning level) is 50% or more. is there. The growth parameter 1 is set when the growth parameters 2 and 3 are not satisfied.

【0074】「起動直後」シナリオの処理が終了する
と、ロボット装置は起動直後状態300から移動状態3
01に遷移し、シナリオ実行部200は、「移動」シナ
リオをシナリオDB部201より読み込み、実行し、動
作制御部202に対してコマンドを送り、ロボット装置
に、自律的に移動しているいわゆる散歩を行わせる。
When the processing of the “immediately after starting” scenario is completed, the robot apparatus moves from the immediately after starting state 300 to the moving state 3
01, the scenario execution unit 200 reads the “movement” scenario from the scenario DB unit 201, executes the scenario, sends a command to the operation control unit 202, and moves to the robot apparatus so-called a walk that is autonomously moving. To perform.

【0075】ロボット装置に一定時間散歩させると休息
状態302に遷移し、シナリオ実行部200は、「休
息」シナリオをシナリオDB部201より読み込み、実
行し、ロボット装置を停止し静かにさせる。
When the robot apparatus walks for a certain period of time, the state transits to the resting state 302, and the scenario execution unit 200 reads the "resting" scenario from the scenario DB unit 201 and executes it, and stops the robot apparatus to make it quiet.

【0076】この休息状態302は、ロボット装置が演
出として休息している状態であり、一定時間休息すると
移動状態301に遷移し、シナリオ実行部200は、
「移動」シナリオをシナリオDB部201より読み込み
実行する。
This resting state 302 is a state in which the robot apparatus is resting as an effect, and after resting for a certain period of time, it transits to the moving state 301, and the scenario executing section 200
The “move” scenario is read from the scenario DB unit 201 and executed.

【0077】ロボット装置が移動状態301又は休息状
態302のときに、ユーザーから何らかの働きかけがあ
った場合、例えば、ユーザーが「おーい」とロボット装
置に呼びかけた場合には、この呼びかけをマイク207
でひろい、このひろった音が予め定めた閾値以上の音圧
を越えた時間が一定時間以上であったときに、動作制御
部202が音源検出イベントをシナリオ実行部200に
送信して、ロボット装置は人を探す状態310に遷移す
る。
When the robot apparatus is in the moving state 301 or the resting state 302, if there is any action from the user, for example, if the user calls the robot apparatus "Oh," this call is issued by the microphone 207.
When the time when the picked-up sound exceeds the sound pressure equal to or higher than a predetermined threshold for a certain time or longer, the operation control unit 202 transmits a sound source detection event to the scenario execution unit 200, and the robot device Transitions to the search for person state 310.

【0078】また、ロボット装置が移動状態301又は
休息状態302のときに、ユーザーがロボット装置(頭
ボタン100)を撫でた場合には、動作制御部202が
頭ボタン100のオン・オフを検出し頭ボタン100が
撫でられたイベントをシナリオ実行部200に送信し、
ロボット装置はあいさつ状態311に遷移する。
When the user strokes the robot device (head button 100) while the robot device is in the moving state 301 or the resting state 302, the operation control unit 202 detects ON / OFF of the head button 100. Send the event that the head button 100 has been stroked to the scenario execution unit 200,
The robot apparatus transits to the greeting state 311.

【0079】ロボット装置が人を探す状態310に遷移
すると、シナリオ実行部200は、「人を捜す」シナリ
オをシナリオDB部201より読み込み、実行し、ロボ
ット装置は人を探していることをユーザーに通知しなが
ら、かつ、カメラ209からの入力画像を画像認識処理
しながら人を探す。
When the robot apparatus transits to the state 310 for searching for a person, the scenario execution unit 200 reads the scenario “search for person” from the scenario DB unit 201 and executes it, and the robot apparatus informs the user that he is searching for a person. A person is searched for while notifying and while performing image recognition processing on the input image from the camera 209.

【0080】シナリオ実行部200は、人を探している
ことをユーザーに通知するために、「人を捜していま
す」,「誰かいないの?」,「Aさん、どこですか?」
等のセリフを動作制御部202に送り、動作制御部20
2は、音声信号を生成しスピーカー208からこのセリ
フを出力する。
The scenario execution unit 200 notifies the user that he or she is looking for a person, "searching for a person", "is there anyone?", "Where is Mr. A?"
And the like to the operation control unit 202, and the operation control unit 20
2 generates an audio signal and outputs this line from the speaker 208.

【0081】シナリオ実行部200は、カメラ209か
らの入力画像を画像認識処理しながら人を探すために、
シナリオ実行部200は、動作制御部202に「カメラ
からの入力画像を画像認識処理しながら人を探す」よう
に指示し、動作制御部202は、カメラ209からの入
力画像を画像認識処理しながら人を捜す。
The scenario executing unit 200 searches for a person while performing image recognition processing on the input image from the camera 209.
The scenario execution unit 200 instructs the operation control unit 202 to “search for a person while performing image recognition processing on the input image from the camera”, and the operation control unit 202 performs image recognition processing on the input image from the camera 209. Search for people.

【0082】人を探す状態310において、画像認識処
理が人物の検出に成功する、すなわち、ロボット装置が
ユーザーを見つけると、人物検出イベントが動作制御部
202からシナリオ実行部200に送信され、ロボット
装置はあいさつ状態311に遷移する。
In the state 310 for searching for a person, when the image recognition processing succeeds in detecting a person, that is, when the robot apparatus finds a user, a person detection event is transmitted from the operation control section 202 to the scenario execution section 200, and the robot apparatus is detected. Makes a transition to the greeting state 311.

【0083】ロボット装置があいさつ状態311に遷移
すると、シナリオ実行部200は、「あいさつ」シナリ
オをシナリオDB部201より読み込み、実行し、ロボ
ット装置はユーザーに対してあいさつし、ユーザーとの
言葉でのやりとりが開始したことを通知する。すなわ
ち、シナリオ実行部200は、内部時計により判断した
時間帯に応じて「おはよう」,「こんにちは」,「こん
ばんは」等のセリフを動作制御部202に送り、動作制
御部202に音声信号を生成させスピーカー208から
このセリフを出力させ、「会話しましょう」等のセリフ
を動作制御部202に送り、動作制御部202に音声信
号を生成させスピーカー208からこのセリフを出力さ
せる。
When the robot device transits to the greeting state 311, the scenario execution unit 200 reads the "greeting" scenario from the scenario DB unit 201 and executes it, and the robot device greets the user and speaks with the user. Notify that the interaction has started. That is, the scenario execution unit 200 sends the lines such as “Good morning”, “Good afternoon”, and “Good evening” to the operation control unit 202 according to the time zone determined by the internal clock, and causes the operation control unit 202 to generate a voice signal. This dialog is output from the speaker 208, a dialog such as “Let's talk” is sent to the operation control unit 202, and the operation control unit 202 generates a voice signal to output the dialog from the speaker 208.

【0084】シナリオ実行部200が「あいさつ」シナ
リオの実行を終了すると、ロボット装置は機能レッスン
状態312に遷移し、シナリオ実行部200は、「機能
レッスン」シナリオ201AをシナリオDB部201よ
り読み込み、実行する。
When the scenario execution unit 200 finishes executing the "greeting" scenario, the robot apparatus transits to the function lesson state 312, and the scenario execution unit 200 reads the "function lesson" scenario 201A from the scenario DB unit 201 and executes it. To do.

【0085】機能レッスン状態312で行われる処理の
一例として、画像認識による人物検出機能の機能レッス
ンについて、図4のフローチャートと、図5と図6の画
面イメージとを用いて説明する。
As an example of the processing performed in the function lesson state 312, a function lesson of the person detecting function by image recognition will be described with reference to the flowchart of FIG. 4 and the screen images of FIGS. 5 and 6.

【0086】シナリオ実行部200が、「機能レッス
ン」シナリオ201Aを実行すると、ステップS400
において、習得すべき機能が残っているか否かをユーザ
ー習得度判定部214に問い合わせてチェックする。ユ
ーザー習得度判定部214は、パラメータ格納部212
の習得済みフラグをチェックし、習得すべき全ての機能
をユーザーが習得済みか否かを習得済みフラグのセット
状況により調べる。習得済みでない機能が1つ以上存在
するときには、最も優先順位の上位にある機能、言い換
えると最も先に覚えるべき機能名についての使用方法の
説明を、ステップS401以降で行う。全ての機能をユ
ーザーが習得している場合には何もせずに終了し、ロボ
ット装置は対話状態313に遷移する。
When the scenario execution unit 200 executes the "functional lesson" scenario 201A, step S400
At, the user learning degree determination unit 214 is inquired whether or not the function to be learned remains. The user learning degree determination unit 214 includes a parameter storage unit 212.
Check the learned flag of and check whether the user has learned all the functions to be learned by the setting status of the learned flag. When there is one or more unlearned functions, the method of using the function with the highest priority, in other words, the function name that should be remembered first is described in step S401 and subsequent steps. When the user has learned all the functions, the process ends without doing anything, and the robot apparatus transits to the interactive state 313.

【0087】ステップS401では、画面出力可能な状
態かどうかをAVケーブル112がロボット装置のAV
端子111に接続されているか否かをシナリオ実行部2
00が動作制御部202に問い合わせることで調べる。
調べた結果、画面出力可能(AVケーブル112がAV
端子111に接続されている)な場合には、ステップS
404に進む。画面出力可能でない場合には、ステップ
S402に進む。
At step S401, the AV cable 112 determines whether the screen output is possible by the AV cable 112 of the robot apparatus.
Whether the scenario execution unit 2 is connected to the terminal 111 or not
00 inquires of the operation control unit 202 to investigate.
As a result of the examination, screen output is possible (AV cable 112 is AV
If it is connected to the terminal 111), step S
Proceed to 404. If screen output is not possible, the process proceeds to step S402.

【0088】ステップS402では、画面出力可能な状
態にすることをユーザーに要求する内容を発話(例え
ば、シナリオ実行部200が「AVケーブルを挿して、
モニタテレビと接続して下さい」を動作制御部202に
送り、動作制御部202はスピーカにこのセリフを出力
させる。)し、ステップS403に進む。
In step S402, a utterance of a content requesting the user to make the screen output possible (for example, the scenario executing unit 200 inserts an "AV cable,
Please connect to a monitor TV "to the operation control unit 202, and the operation control unit 202 causes the speaker to output this line. ), And it progresses to step S403.

【0089】ステップS403では、シナリオ実行部2
00は、動作制御部202からの画面出力可能状態に遷
移したときに発行されるイベント(画面出力可能イベン
トと記載する。)を所定の時間待つ。動作制御部202
は、センサ206により、AVケーブル112がAV端
子111に接続されていない状態からAVケーブル11
2がAV端子111に接続された状態への変化を検知
し、画面出力可能イベントを発行する。所定時間内に画
面出力可能イベントがあったときには、ステップS40
4に進み、所定時間内に画面出力可能イベントが無かっ
た場合には、終了し、ロボット装置は対話状態313に
遷移する。
In step S403, the scenario execution unit 2
00 waits for a predetermined time for an event (described as a screen output enable event) issued when the operation control unit 202 transits to the screen output enable state. Operation control unit 202
Is detected by the sensor 206 from the state where the AV cable 112 is not connected to the AV terminal 111.
2 detects a change to the state of being connected to the AV terminal 111, and issues a screen output enable event. If there is a screen outputable event within the predetermined time, step S40
If there is no screen outputable event within the predetermined time, the process ends and the robot apparatus transits to the interactive state 313.

【0090】ステップS404では、まず最初に、シナ
リオ実行部200は、ロボット装置に接続したモニタ2
16に、習得済みでない機能の説明画面を表示させる。
例えば、この習得済みでない機能が「画像認識による人
物検出機能」の場合、この機能のサブクリアフラグのセ
ット率(第2の習得度)が例えば”0”の時には、図5
に示すような説明画面をモニタ216に表示させる。
In step S404, first, the scenario execution unit 200 determines that the monitor 2 connected to the robot apparatus has
16 is displayed an explanation screen of a function that has not been learned.
For example, when the unlearned function is the “person detection function by image recognition”, and when the setting rate (second learning degree) of the sub-clear flag of this function is “0”, for example, FIG.
The explanation screen as shown in FIG.

【0091】説明画面の文章説明部500に表示させる
項目について説明する。
Items to be displayed on the sentence explanation section 500 of the explanation screen will be described.

【0092】例えば、この「画像認識による人物検出機
能」の習得すべき項目には、ユーザーはロボットのカ
メラ209の視野角内に顔を持ってくる必要がある。
ロボットのカメラ209から80cmの距離に顔がある
のが最適である。ユーザーは顔を少し動かす必要があ
る。顔をあまり傾けてはいけない。逆光条件や暗い
環境においては人物検出をうまく出来ない。顔の登録
をある程度行わなければ、画像認識による人物同定の精
度は向上しない。の6つがあるが、シナリオ実行部20
0が、ユーザー習得度判定部214に対しこの「画像認
識による人物検出機能」のサブクリアフラグのセット状
況を調べさせ、このセット状況により、セット率(第2
の習得度)を求め、このセット率が例えば”0”の時に
は、数字の小さい方から3つのユーザーはロボットの
カメラ209の視野角内に顔を持ってくる必要がある。
ロボットのカメラ209から80cmの距離に顔があ
るのが最適である。ユーザーは顔を少し動かす必要が
ある。の3つの項目を説明画面に表示させる。そして、
次にロボット装置を起動したときに行われる機能レッス
ンにおいては、この機能の習得出来ていない項目の中
で、数字の小さい3つを説明画面に表示させる。このと
き、サブクリアフラグのセット率の値により、説明画面
に表示させる項目数を増減させたり、説明画面に表示さ
せる項目を選択しても良い。
For example, the user is required to bring his / her face within the viewing angle of the camera 209 of the robot for the item to learn the "person detection function by image recognition".
Optimally, the face is 80 cm from the robot camera 209. The user needs to move his face a little. Don't tilt your face too much. People cannot be detected well in backlit conditions or in dark environments. The accuracy of person identification by image recognition cannot be improved unless face registration is performed to some extent. There are six
0 causes the user learning degree determination unit 214 to check the set status of the sub-clear flag of the “person detection function by image recognition”, and the set rate (second
When the set rate is, for example, “0”, the three users with the smallest numbers must bring their faces within the viewing angle of the camera 209 of the robot.
Optimally, the face is 80 cm from the robot camera 209. The user needs to move his face a little. 3 items are displayed on the explanation screen. And
Next, in the function lesson that is performed when the robot apparatus is started, among the items for which this function has not been learned, three small numbers are displayed on the explanation screen. At this time, the number of items to be displayed on the explanation screen may be increased or decreased, or the items to be displayed on the explanation screen may be selected depending on the value of the set rate of the sub-clear flag.

【0093】シナリオ実行部200は、図5に示すよう
な説明画面をモニタ216に表示させるために、予め記
憶媒体215に格納してあるこの「画像認識による人物
検出機能」の使い方の説明画面を上記の、、の項
目について表示するよう動作制御部202に指示し、動
作制御部202は、記憶媒体215より「画像認識によ
る人物検出機能」の使い方の説明画面を、、の項
目とともに取り出しモニタ216に表示する。
The scenario execution unit 200 displays an explanation screen of how to use the "person detection function by image recognition" stored in advance in the storage medium 215 in order to display the explanation screen as shown in FIG. 5 on the monitor 216. The operation control unit 202 is instructed to display the above items, and the operation control unit 202 retrieves from the storage medium 215 an explanation screen of how to use the “person detection function by image recognition” together with the items and monitor 216. To display.

【0094】ステップS404において、次に、シナリ
オ実行部200は、モニタ216に表示した文章説明部
500の項目をユーザーに読んで理解してもらった後
に、ビデオ再生ボタン501を押してもらい(モニタ2
16に接続したマウス217によりビデオ再生のエリア
をクリックする等)、ビデオ映像を用いて使用方法の説
明を行う。すなわち、シナリオ実行部200は、動作制
御部202よりビデオ再生ボタンONイベントを受ける
と、予め記憶媒体215に格納してあるこの「画像認識
による人物検出機能」の使い方のビデオ映像を表示する
よう動作制御部202に指示し、動作制御部202は、
記憶媒体215より「画像認識による人物検出機能」の
使い方のビデオ映像を取り出しモニタ216に表示す
る。このビデオ映像では、人が上手に機能を使用してい
る様子を上手に使用するために重要な点をキャプション
(字幕)で画面下部に表示しながら動画等により説明す
る。この説明が終わると、図5の説明画面をモニタ21
6に表示する。
In step S404, next, the scenario execution section 200 asks the user to press the video playback button 501 after the user has read and understood the items of the sentence explanation section 500 displayed on the monitor 216 (monitor 2).
A mouse 217 connected to the mouse 16 is used to click a video playback area, etc.) and the method of use will be described using video images. In other words, when the scenario execution unit 200 receives a video playback button ON event from the operation control unit 202, the scenario execution unit 200 operates to display a video image of how to use this "person detection function by image recognition" stored in the storage medium 215 in advance. Instructing the control unit 202, the operation control unit 202
A video image of how to use the “person detection function by image recognition” is extracted from the storage medium 215 and displayed on the monitor 216. In this video image, important points for making good use of a person's skillful use of functions will be explained by moving pictures while displaying captions (captions) at the bottom of the screen. When this explanation ends, the explanation screen of FIG.
Display in 6.

【0095】ステップS404において、最後に、シナ
リオ実行部200は、ユーザーにテストボタン502を
押してもらい(モニタ216に接続したマウス217に
よりテストのエリアをクリックする等)、図6に示すよ
うな「画像認識による人物検出機能」の確認テストの問
題画面をモニタ216に表示させ、ユーザーが「画像認
識による人物検出機能」の使用方法を習得できたか否か
をテスト(チェック)する。(この確認テストの問題画
面は、図5で示した文章説明部500の項目に対応して
いる。)すなわち、シナリオ実行部200は、動作制御
部202よりテストボタンONイベントを受けると、予
め記憶媒体215に格納してある「画像認識による人物
検出機能」の項目数分の複数の確認テストの問題画面の
うちの、図5で示した文章説明部500の項目内の一つ
の項目に対応する問題画面を指定しこの問題画面を表示
するよう動作制御部202に指示し、動作制御部202
は、記憶媒体215に格納してある、シナリオ実行部2
00から指定された「画像認識による人物検出機能」の
確認テストの問題画面を取り出しモニタ216に表示す
る。
In step S404, finally, the scenario execution unit 200 asks the user to press the test button 502 (eg, click the test area with the mouse 217 connected to the monitor 216), and the "image" shown in FIG. 6 is displayed. A question screen of the confirmation test of “person detection function by recognition” is displayed on the monitor 216, and it is tested (checked) whether or not the user has learned how to use the “person detection function by image recognition”. (The question screen of this confirmation test corresponds to the item of the sentence explanation section 500 shown in FIG. 5.) That is, when the scenario execution section 200 receives the test button ON event from the operation control section 202, it is stored in advance. It corresponds to one item in the items of the sentence explanation part 500 shown in FIG. 5 among the question screens of the plurality of confirmation tests corresponding to the number of items of “person detection function by image recognition” stored in the medium 215. The operation control unit 202 is instructed to specify a question screen and display this question screen.
Is the scenario execution unit 2 stored in the storage medium 215.
00, the question screen of the confirmation test of the “person detection function by image recognition” designated from 00 is taken out and displayed on the monitor 216.

【0096】この表示した問題に対し、ユーザーは音声
にて回答すると、動作制御部202は、回答内容である
回答イベントを発生し、シナリオ実行部200は、この
回答イベントを受けこの問題に対して正解か否かを判断
し、動作制御部202に図5で示した文章説明部500
内の項目のうちの次の項目に対応する問題画面を表示さ
せ、同様にして、この問題に対する回答イベントを動作
制御部202より受けこの受けた回答イベントがこの問
題に対して正解か否かを判断する。
When the user answers the displayed question by voice, the operation control section 202 generates an answer event which is the answer content, and the scenario executing section 200 receives this answer event and responds to this question. It is determined whether or not the answer is correct, and the operation control unit 202 displays the sentence explanation unit 500 shown in FIG.
A question screen corresponding to the next item among the items in the above is displayed, and similarly, a response event for this question is received from the operation control unit 202, and whether or not the received response event is the correct answer to this question is displayed. to decide.

【0097】そして、この「画像認識による人物検出機
能」に対する予め用意した複数の習得すべき項目に対応
するすべての問題を終了すると、ステップS405に進
む。
When all the problems corresponding to the plurality of items to be learned prepared in advance for the "person detecting function by image recognition" are completed, the process proceeds to step S405.

【0098】ステップS405では、シナリオ実行部2
00は、ステップS404において出題した問題に対す
るユーザーの回答に正解があったときには、この正解の
問題に対応する機能の項目に関してユーザーが習得でき
たとしてこの項目に対応するサブクリアフラグをセット
するようユーザー習得度判定部214に指示し、ユーザ
ー習得度判定部214は、この指示されたサブクリアフ
ラグをセットする。シナリオ実行部200は、このこと
をステップS404において出題したすべての問題に対
するユーザーの回答に対して行った後に、ユーザーの回
答が一つでも正解があったときには、ステップS406
に進む。ユーザーの回答がすべて不正解のときには、終
了し、ロボット装置は対話状態313に遷移する。
In step S405, the scenario execution unit 2
00 indicates that when the user's answer to the question given in step S404 has a correct answer, it is assumed that the user has learned the item of the function corresponding to this correct question, and the user learns to set the sub-clear flag corresponding to this item. Instructing the degree determining unit 214, the user learning degree determining unit 214 sets the instructed sub clear flag. The scenario execution unit 200 performs this with respect to the user's answers to all the questions set in step S404, and if even one of the user's answers is correct, step S406.
Proceed to. When all the answers of the user are incorrect, the process ends, and the robot apparatus transits to the dialogue state 313.

【0099】ステップS406では、シナリオ実行部2
00は、ユーザーが習得すべき機能の使用方法を習得で
きたか否かを判定するようユーザー習得度判定部214
に指示する。ユーザー習得度判定部214はこの指示を
受け、指定された機能に対応するそれぞれの複数のサブ
クリアフラグのセット状況を調べ、この機能のサブクリ
アフラグのセット率(第2の習得度)を判定し、予め定
めたセット率以上のときには、この機能をユーザーが習
得できたと判定してこの機能に対応する習得済みフラグ
をセットし、終了する。「機能レッスン」シナリオ20
1Aの実行が終了すると、ロボット装置は対話状態31
3に遷移する。
In step S406, the scenario execution unit 2
00 is used by the user learning degree determination unit 214 to determine whether or not the user has learned how to use the function to be learned.
Instruct. Upon receipt of this instruction, the user learning level determination unit 214 checks the setting status of each of the plurality of subclear flags corresponding to the designated function, and determines the setting rate (second learning level) of the subclear flag of this function, When the set rate is equal to or higher than the predetermined set rate, it is determined that the user has learned this function, the learned flag corresponding to this function is set, and the process ends. "Function lesson" scenario 20
When the execution of 1A is completed, the robot apparatus enters the conversation state 31.
Transition to 3.

【0100】ロボット装置が対話状態313に遷移する
と、シナリオ実行部200は、「対話」シナリオをシナ
リオDB部201より読み込み、実行し、ユーザーから
の要求の有無等を聞いたり、要求内容を実現したりす
る。
When the robot apparatus transits to the dialogue state 313, the scenario execution unit 200 reads the "dialogue" scenario from the scenario DB unit 201 and executes it to hear the presence or absence of a request from the user and realize the requested content. Or

【0101】例えば、「何か要求することはありません
か?」等のセリフを動作制御部202に送り、動作制御
部202により音声信号を生成しスピーカー208から
このセリフを出力し、動作制御部202が、ユーザーか
ら「伝言して」のセリフをマイク207より受けこのセ
リフを認識した場合には、マイク207を使用して、ユ
ーザの伝言を受け、この伝言を伝言元ユーザー名と伝言
先ユーザー名をセットにして内部HD(不記載)などの
記憶媒体215に保持する。
For example, a dialogue such as "Are you not requesting anything?" Is sent to the operation control unit 202, the operation control unit 202 generates a voice signal, and this speech is output from the speaker 208. However, if the user receives a message from the user saying "tell me a message" from the microphone 207 and recognizes this line, the user receives a message using the microphone 207, and this message is sent to the message source user name and message destination user name. Is stored in a storage medium 215 such as an internal HD (not shown).

【0102】ロボット装置が対話状態313ときに、ユ
ーザーから、「バイバイ」や「おやすみ」のような対話
の終了を促す意味の音声の入力があったと、音声認識結
果によって得られた場合には、対話終了イベントが動作
制御部202からシナリオ実行部200に送信され、非
対人行動状態30(移動状態301もしくは休息状態3
02)に遷移する。
When it is obtained from the voice recognition result that the user has input a voice such as “Bye-bye” or “Good night” that prompts the end of the dialogue when the robot apparatus is in the dialogue state 313, A dialogue end event is transmitted from the operation control unit 202 to the scenario execution unit 200, and the non-personal action state 30 (moving state 301 or resting state 3
02).

【0103】図7は、本発明のロボット装置の第2の実
施の形態を示すブロック図である。
FIG. 7 is a block diagram showing a second embodiment of the robot apparatus of the present invention.

【0104】この図は、本発明の第1の実施の形態を示
す図2に、ユーザー使用履歴格納部を付加している。
In this figure, a user use history storage section is added to FIG. 2 showing the first embodiment of the present invention.

【0105】図2で使用した番号と同じ番号のものは同
一の機能を有する。
The same number as that used in FIG. 2 has the same function.

【0106】ユーザー使用履歴格納部700には、ユー
ザーの習得すべき機能に対応した本ロボット装置のアク
ション結果の成功回数、非成功回数、アクション結果が
でるまでの平均時間を含んだ使用履歴を格納している。
The user use history storage unit 700 stores a use history including the number of times of success and non-success of the action result of the robot apparatus corresponding to the function to be learned by the user, and the average time until the action result is obtained. is doing.

【0107】すなわち、例えば、2002/02/1
5:1回目の起動:音声認識回数100回:音声認識リ
ジェクト数=38回:音声認識非リジェクト数=62
回;2002/02/15:1回目の起動:人物検出ま
での平均時間=3400[ms]、2002/02/1
5:2回目の起動:音声認識回数50回:音声認識リジ
ェクト数=40回:音声認識非リジェクト数=10回;
2002/02/15:2回目の起動:人物検出までの
平均時間=3000[ms]のようなデータを、例え
ば、現在時刻から過去一週間分程度格納してある。この
データは、例えば、シナリオ実行部702が、音声認識
したり、画像認識して人物を検出したりしたときに、そ
の都度、ユーザー使用履歴格納部700に格納してい
る。
That is, for example, 2002/02/1
5: First activation: 100 times of voice recognition: Number of voice recognition rejects = 38 times: Number of voice recognition non-rejects = 62
No .; 2002/02/15: First activation: average time until human detection = 3400 [ms], 2002/02/1
5: Second activation: 50 times of voice recognition: 40 times of voice recognition rejects: 10 times of voice recognition non-rejections; 10 times;
2002/02/15: Second activation: Data such as average time until person detection = 3000 [ms] is stored for about one week in the past from the current time. For example, this data is stored in the user use history storage unit 700 each time the scenario execution unit 702 performs voice recognition or image recognition to detect a person.

【0108】ユーザー習得度判定部701は、第1の実
施の形態での動作に加え、シナリオ実行部702の指示
により、ユーザー使用履歴格納部700に格納してある
使用履歴を、例えば、現在時刻から過去一週間分集計し
て、過去一週間の音声認識リジェクト率と平均の人物検
出から人物検出までの時間を算出し、音声認識リジェク
ト率が例えば30%以下ならば、パラメータ格納部21
2の音声認識の機能に対応する習得済みフラグをセット
し、平均の人物検出から人物検出までの時間が例えば2
500ms以下ならば、人物検出の機能に対応する習得
済みフラグをセットする。
In addition to the operation in the first embodiment, the user learning degree determination unit 701 receives the usage history stored in the user usage history storage unit 700 according to an instruction from the scenario execution unit 702, for example, the current time. Then, the voice recognition reject rate for the past week and the average time from person detection to person detection for the past week are calculated. If the voice recognition reject rate is, for example, 30% or less, the parameter storage unit 21
The learned flag corresponding to the voice recognition function of 2 is set, and the time from the average person detection to the person detection is, for example, 2
If it is 500 ms or less, the learned flag corresponding to the person detection function is set.

【0109】ユーザー習得度判定部701の、ユーザー
使用履歴格納部700に格納してある使用履歴を調べて
習得済みフラグをセットする動作は、例えば、ロボット
装置の起動直後状態300中や、第1の実施の形態でシ
ナリオ実行部200がユーザー習得度判定部214にユ
ーザーが習得すべき機能の使用方法を習得できたか否か
を判定するように指示したときに実行する。
The operation of the user learning degree judging unit 701 for checking the usage history stored in the user usage history storage unit 700 and setting the learning completed flag is performed, for example, in the state 300 immediately after the robot apparatus is started or in the first state. In the present embodiment, the scenario execution unit 200 executes it when instructing the user learning degree judging unit 214 to judge whether or not the user has learned how to use the function to be learned.

【0110】シナリオ実行部702は、第1の実施の形
態での動作に加え、第1の実施の形態を示す図2に、ユ
ーザー使用履歴格納部を付加したことにより発生する、
前述の動作が加わる。
The scenario execution unit 702 is generated by adding a user use history storage unit to FIG. 2 showing the first embodiment, in addition to the operation in the first embodiment.
The above operation is added.

【0111】[0111]

【発明の効果】以上説明したように、本発明のロボット
装置によれば、第1の習得度判定手段により、ユーザー
の機能の習得の度合いを示す第1の習得度を判定し、成
長度判定手段により、ユーザーの使用経験を判定しこの
判定した使用経験と第1の習得度判定手段が判定した第
1の習得度とに基づいてロボット装置の成長の度合いを
判定し、ロボット装置制御手段により、成長度判定手段
が判定した成長の度合いに基づいてロボット装置を制御
するため、第1の習得度判定手段が判定した第1の習得
度を使用して、成長度判定手段により、ロボット装置の
成長の度合いを判定するので、ユーザーが使用方法を習
得する必要のある機能に対して、ユーザーがこの機能を
習得する前に、ロボット装置が成長することがない。
As described above, according to the robot apparatus of the present invention, the first learning degree judging means judges the first learning degree indicating the degree of learning of the function of the user to judge the growth degree. The means determines the use experience of the user, and the degree of growth of the robot apparatus is determined based on the determined use experience and the first degree of learning determined by the first degree-of-acquisition determination means, and the robot apparatus control means determines In order to control the robot apparatus based on the degree of growth determined by the growth degree determining unit, the first degree of learning determined by the first learning degree determining unit is used, and the growth degree determining unit determines Since the degree of growth is determined, the robot device does not grow before the user learns this function for the function that the user needs to learn how to use.

【0112】また、本発明のロボット装置によれば、第
2の習得度判定手段により、ユーザーの機能の習得の度
合いを機能毎に示す第2の習得度を判定し、機能使用方
法説明手段により、第2の習得度判定手段が判定した機
能の第2の習得度に応じた教示内容をユーザーに教示す
るため、ユーザーは習得度に応じた教示内容により機能
の使用方法の教示をうけるので、わかりにくい機能でも
順を追って容易に習得できる。
Further, according to the robot apparatus of the present invention, the second learning degree judging means judges the second learning degree indicating the degree of learning of the function of the user for each function, and the function using method explaining means. In order to teach the user the teaching content according to the second learning degree of the function judged by the second learning degree judging means, the user is taught how to use the function by the teaching content according to the learning degree. Even difficult-to-understand functions can be learned easily step by step.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明のロボット装置の外観の一例を示す図で
ある。
FIG. 1 is a diagram showing an example of an external appearance of a robot apparatus of the present invention.

【図2】本発明のロボット装置の第1の実施の形態を示
すブロック図である。
FIG. 2 is a block diagram showing a first embodiment of a robot apparatus according to the present invention.

【図3】図2に示すロボット装置の状態と状態間の遷移
との一例を示す図である。
3 is a diagram showing an example of states of the robot apparatus shown in FIG. 2 and transitions between the states.

【図4】機能レッスン状態で行われる処理の一例を示す
フローチャートである。
FIG. 4 is a flowchart showing an example of processing performed in a function lesson state.

【図5】機能レッスン状態で行われる機能の教示内容の
表示の一例を示す図である。
FIG. 5 is a diagram showing an example of display of teaching contents of a function performed in a function lesson state.

【図6】ユーザーの機能の習得度合いを確認するテスト
内容の表示の一例を示す図である。
FIG. 6 is a diagram showing an example of display of test contents for confirming a user's degree of learning of functions.

【図7】本発明のロボット装置の第2の実施の形態を示
すブロック図である。
FIG. 7 is a block diagram showing a second embodiment of the robot apparatus according to the present invention.

【図8】従来のロボット装置の外観を示す図である。FIG. 8 is a diagram showing an appearance of a conventional robot device.

【図9】図8で示す従来のロボット装置に適用する制御
系である。
9 is a control system applied to the conventional robot apparatus shown in FIG.

【符号の説明】[Explanation of symbols]

100 頭ボタン 101 音声認識用マイク 102 CCDカメラ 103 LED 104 音源方向検出用マイク 105 スピーカー 106 超音波センサ 107 近接センサ 108 首 109 車輪 110 電源スイッチ 111 AV端子 112 AVケーブル 113 モニタ 114 マウス 200 シナリオ実行部 201 シナリオDB部 201A 「機能レッスン」シナリオ 202 動作制御部 203 LED 204 頭部ユニット 204A アクチュエータ 205 車輪部ユニット 205A アクチュエータ 206 センサ 207 マイク 208 スピーカー 209 カメラ 210 セリフ選択部 211 セリフDB部 212 パラメータ格納部 213 成長判定部 214 ユーザー習得度判定部 215 記憶媒体 216 モニタ 217 マウス 30 非対人行動状態 31 対人行動状態 300 起動直後状態 301 移動状態 302 休息状態 303 終了処理状態 310 人を探す状態 311 あいさつ状態 312 機能レッスン状態 313 対話状態 500 文章説明部 501 ビデオ再生ボタン 502 テストボタン 600 確認テスト用問題 700 ユーザー使用履歴格納部 701 ユーザー習得度判定部 702 シナリオ実行部 900 シナリオ実行部 901 シナリオDB部 902 動作制御部 903 成長判定部 904 パラメータ格納部 100 head button 101 Microphone for voice recognition 102 CCD camera 103 LED 104 Microphone for sound source direction detection 105 speakers 106 Ultrasonic sensor 107 Proximity sensor 108 neck 109 wheels 110 power switch 111 AV terminal 112 AV cable 113 monitor 114 mice 200 Scenario Execution Unit 201 Scenario DB 201A "Function lesson" scenario 202 operation control unit 203 LED 204 head unit 204A actuator 205 Wheel unit 205A actuator 206 sensor 207 microphone 208 speakers 209 camera 210 Dialogue selection section 211 Dialogue DB 212 Parameter storage 213 Growth determination unit 214 User Acquisition Determining Section 215 storage medium 216 monitor 217 mouse 30 Non-personal behavior 31 Interpersonal behavior 300 Immediately after startup 301 Moving state 302 Resting state 303 Termination processing status State to find 310 people 311 Greeting state 312 Functional lesson status 313 Dialogue state 500 Text explanation section 501 video play button 502 Test button 600 Confirmation Test Questions 700 user usage history storage 701 User learning degree determination unit 702 Scenario execution unit 900 scenario execution unit 901 Scenario DB section 902 operation control unit 903 Growth determination unit 904 Parameter storage

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA01 CA02 CA04 DA06 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 DG02 DG12 DG13 DG14 DG15 EB01 ED10 ED42 ED47 ED52 EF07 EF09 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 3C007 AS36 CS08 KS36 KS39 KT01 WA16 WC00 WC01 WC03    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 2C150 CA01 CA02 CA04 DA06 DA24                       DA25 DA26 DA27 DA28 DF03                       DF04 DF06 DF33 DG02 DG12                       DG13 DG14 DG15 EB01 ED10                       ED42 ED47 ED52 EF07 EF09                       EF16 EF17 EF22 EF23 EF28                       EF29 EF33 EF36                 3C007 AS36 CS08 KS36 KS39 KT01                       WA16 WC00 WC01 WC03

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 複数の機能を有し、ユーザーのロボット
装置の使用経験に応じて成長するロボット装置におい
て、 前記ユーザーの前記機能の習得の度合いを示す第1の習
得度を判定する第1の習得度判定手段と、 前記ユーザーの前記使用経験を判定しこの判定した使用
経験と前記第1の習得度判定手段が判定した前記第1の
習得度とに基づいて自ロボット装置の成長の度合いを判
定する成長度判定手段と、 前記成長度判定手段が判定した前記成長の度合いに基づ
いて自ロボット装置を制御するロボット装置制御手段
と、 を備えたことを特徴とするロボット装置。
1. A robot apparatus having a plurality of functions, which grows according to a user's experience of using the robot apparatus, wherein a first learning degree indicating a degree of learning of the function by the user is determined. A degree of learning determination means, determining the use experience of the user, and determining the degree of growth of the robot apparatus based on the determined use experience and the first degree of learning determined by the first degree of learning determination means. A robot apparatus comprising: a growth degree determining means for determining; and a robot apparatus control means for controlling the robot apparatus itself based on the growth degree determined by the growth degree determining means.
【請求項2】 前記第1の習得度判定手段は、ユーザー
に対して機能の習得の度合いを確認するテストを自ロボ
ット装置の有する複数の機能に対して行い、このテスト
結果に応じて前記第1の習得度を判定することを特徴と
する請求項1記載のロボット装置。
2. The first learning degree judging means performs a test for confirming a degree of learning of a function for a user on a plurality of functions of the robot apparatus itself, and according to a result of the test, the first learning degree judging means. The robot apparatus according to claim 1, wherein the learning degree of 1 is determined.
【請求項3】 前記テストは、自ロボット装置に接続し
た表示手段に表示した表示内容に対して前記ユーザーよ
り応答を受けることにより行うようにしたことを特徴と
する請求項2記載のロボット装置。
3. The robot apparatus according to claim 2, wherein the test is performed by receiving a response from the user with respect to a display content displayed on a display unit connected to the own robot apparatus.
【請求項4】 前記第1の習得度判定手段は、ユーザー
の自ロボット装置の使用履歴に基づいて前記第1の習得
度を判定することを特徴とする請求項1記載のロボット
装置。
4. The robot apparatus according to claim 1, wherein the first learning degree determining unit determines the first learning degree based on a usage history of the user's own robot apparatus.
【請求項5】 前記第1の習得度判定手段は、ユーザー
の習得すべき機能に対応した本ロボット装置のアクショ
ン結果の成功回数、非成功回数、アクション結果がでる
までの平均時間を含んだ使用履歴を、予め定めた期間分
集計して、予め定めた基準に基づきユーザーが機能を習
得出来ているか否かを示す前記第1の習得度を判定する
ことを特徴とする請求項1記載のロボット装置。
5. The use of the first learning degree determining means including the number of successes, the number of non-successes of action results of the robot apparatus corresponding to the function to be learned by the user, and the average time until the action results are obtained. The robot according to claim 1, wherein the history is aggregated for a predetermined period, and the first degree of learning indicating whether or not the user has learned the function is determined based on a predetermined standard. apparatus.
【請求項6】 前記使用経験は、本ロボット装置を初め
て起動してからの経過時間、総起動時間、前記ユーザー
が前記ロボット装置に対して行ったアクションの情報を
前記ロボット装置が捉えた回数を示す、前記ユーザーと
前記ロボット装置とのやりとりの回数を含むことを特徴
とする請求項1、2、3、4又は5記載のロボット装
置。
6. The usage experience is the elapsed time since the robot apparatus was first started, the total startup time, and the number of times the robot apparatus has captured information on actions performed by the user on the robot apparatus. 6. The robot apparatus according to claim 1, including the number of times of the interaction between the user and the robot apparatus shown.
【請求項7】 複数の機能を有し、ユーザーのロボット
装置の使用経験に応じて成長するロボット装置におい
て、 前記ユーザーの前記機能の習得の度合いを機能毎に示す
第2の習得度を判定する第2の習得度判定手段と、 前記第2の習得度判定手段が判定した前記機能の前記第
2の習得度に応じた教示内容を前記ユーザーに教示する
機能使用方法説明手段と、 を備えたことを特徴とするロボット装置。
7. In a robot apparatus having a plurality of functions, which grows according to a user's experience of using the robot apparatus, a second degree of learning indicating the degree of the user's learning of the function is determined for each function. A second learning degree judging means; and a function usage method explaining means for teaching the user the teaching content according to the second learning degree of the function judged by the second learning degree judging means. A robot device characterized by the above.
【請求項8】 前記第2の習得度判定手段は、ユーザー
に対して機能の習得の度合いを確認するテストを機能毎
に行い、このテスト結果に応じて前記第2の習得度を機
能毎に判定することを特徴とする請求項7記載のロボッ
ト装置。
8. The second degree-of-learning determination means performs a test for the user to confirm the degree of learning of the function for each function, and determines the second degree-of-learning for each function according to the test result. The robot apparatus according to claim 7, wherein the robot apparatus determines.
【請求項9】 前記テストは、自ロボット装置に接続し
た表示手段に表示した表示内容に対して前記ユーザーよ
り応答を受けることにより行うようにしたことを特徴と
する請求項8記載のロボット装置。
9. The robot apparatus according to claim 8, wherein the test is performed by receiving a response from the user with respect to a display content displayed on a display means connected to the robot apparatus itself.
【請求項10】 前記機能使用方法説明手段は、前記ユ
ーザーが習得すべき機能における複数の前記教示内容の
うちの前記第2の習得度に応じた前記教示内容を自ロボ
ット装置に接続した表示手段に表示し、ユーザーよりこ
の表示の応答を受けることにより前記ユーザーに教示す
るようにしたことを特徴とする請求項7、8又は9記載
のロボット装置。
10. The function use method explanation means is a display means in which the teaching content corresponding to the second learning degree of the plurality of teaching contents in the function to be learned by the user is connected to the robot apparatus. 10. The robot apparatus according to claim 7, 8 or 9, wherein the robot device is instructed to the user by receiving the response from the user.
JP2002088966A 2002-03-27 2002-03-27 Robot equipment Expired - Fee Related JP3891020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002088966A JP3891020B2 (en) 2002-03-27 2002-03-27 Robot equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002088966A JP3891020B2 (en) 2002-03-27 2002-03-27 Robot equipment

Publications (2)

Publication Number Publication Date
JP2003285286A true JP2003285286A (en) 2003-10-07
JP3891020B2 JP3891020B2 (en) 2007-03-07

Family

ID=29234684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002088966A Expired - Fee Related JP3891020B2 (en) 2002-03-27 2002-03-27 Robot equipment

Country Status (1)

Country Link
JP (1) JP3891020B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076661A1 (en) * 2004-02-10 2005-08-18 Mitsubishi Denki Engineering Kabushiki Kaisha Mobile body with superdirectivity speaker
WO2005076660A1 (en) * 2004-02-10 2005-08-18 Mitsubishi Denki Engineering Kabushiki Kaisha Mobile body with superdirectivity speaker
JP2019018336A (en) * 2017-07-18 2019-02-07 パナソニックIpマネジメント株式会社 Device, method, program, and robot
US20220299999A1 (en) * 2021-03-16 2022-09-22 Casio Computer Co., Ltd. Device control apparatus, device control method, and recording medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108972495A (en) * 2018-07-27 2018-12-11 芜湖市越泽机器人科技有限公司 A kind of self-propelled robot mobile base

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005076661A1 (en) * 2004-02-10 2005-08-18 Mitsubishi Denki Engineering Kabushiki Kaisha Mobile body with superdirectivity speaker
WO2005076660A1 (en) * 2004-02-10 2005-08-18 Mitsubishi Denki Engineering Kabushiki Kaisha Mobile body with superdirectivity speaker
US7424118B2 (en) 2004-02-10 2008-09-09 Honda Motor Co., Ltd. Moving object equipped with ultra-directional speaker
JP2019018336A (en) * 2017-07-18 2019-02-07 パナソニックIpマネジメント株式会社 Device, method, program, and robot
JP7075168B2 (en) 2017-07-18 2022-05-25 パナソニックホールディングス株式会社 Equipment, methods, programs, and robots
US20220299999A1 (en) * 2021-03-16 2022-09-22 Casio Computer Co., Ltd. Device control apparatus, device control method, and recording medium

Also Published As

Publication number Publication date
JP3891020B2 (en) 2007-03-07

Similar Documents

Publication Publication Date Title
JP7254772B2 (en) Methods and devices for robot interaction
KR102334942B1 (en) Data processing method and device for caring robot
RU2336560C2 (en) Dialogue control for electric device
KR101880775B1 (en) Humanoid robot equipped with a natural dialogue interface, method for controlling the robot and corresponding program
KR101336641B1 (en) Emotional Sympathy Robot Service System and Method of the Same
JP7260221B2 (en) Robot interaction method and device
EP3373301A1 (en) Apparatus, robot, method and recording medium having program recorded thereon
JP4622384B2 (en) ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
CN108733209A (en) Man-machine interaction method, device, robot and storage medium
WO2021125647A1 (en) Method and apparatus for dynamic human-computer interaction
CN112204565A (en) System and method for inferring scenes based on visual context-free grammar model
CN112262024A (en) System and method for dynamic robot configuration for enhanced digital experience
JP4555039B2 (en) Robot, robot control method, robot control program
Li et al. " BIRON, let me show you something": evaluating the interaction with a robot companion
JP3891020B2 (en) Robot equipment
JP2004234631A (en) System for managing interaction between user and interactive embodied agent, and method for managing interaction of interactive embodied agent with user
JP6798258B2 (en) Generation program, generation device, control program, control method, robot device and call system
JP2007030050A (en) Robot control device, robot control system, robot device and robot control method
CN111752522A (en) Accelerometer-based selection of audio sources for hearing devices
KR20060091329A (en) Interactive system and method for controlling an interactive system
Goetze et al. Multimodal human-machine interaction for service robots in home-care environments
Wrede et al. Research issues for designing robot companions: BIRON as a case study
JP7024754B2 (en) Controls, robots, control methods and programs
WO2011068390A2 (en) Device and method for inducing use
US20210201139A1 (en) Device and method for measuring a characteristic of an interaction between a user and an interaction device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050218

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061127

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3891020

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131215

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees