JP2003181784A - Automatic answering robot - Google Patents

Automatic answering robot

Info

Publication number
JP2003181784A
JP2003181784A JP2001386524A JP2001386524A JP2003181784A JP 2003181784 A JP2003181784 A JP 2003181784A JP 2001386524 A JP2001386524 A JP 2001386524A JP 2001386524 A JP2001386524 A JP 2001386524A JP 2003181784 A JP2003181784 A JP 2003181784A
Authority
JP
Japan
Prior art keywords
robot
user information
gesture
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001386524A
Other languages
Japanese (ja)
Inventor
Shinya Kataoka
信哉 片岡
Kazue Sumiya
和重 角谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2001386524A priority Critical patent/JP2003181784A/en
Publication of JP2003181784A publication Critical patent/JP2003181784A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Toys (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic answering robot which is able to increase and maintain an intimate feeling between a user and the robot by giving variety to a manner for changing feelings in the robot. <P>SOLUTION: The automatic answering robot is provided with user information inputting means for inputting user information, storage means for storing information about user's gesture as a pattern of a gesture of the robot and also for storing a unique pattern of a gesture due to internal information, movement control means for processing the patterns by comparing the respective gesture patterns stored in the storage means and the patterns corresponding to the user information inputted in the user information inputting means, and regeneration means for regenerating any of gesture patterns based on the output from the movement control means. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は自動応答ロボットに関
し、特にたとえば人間(ユーザ)の生活空間に入り込ん
でユーザに対してペットのような振る舞いで応答し、ユ
ーザにより親近感を与える応答を行うことができる、自
動応答ロボットに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic response robot, and in particular, for example, to enter a living space of a human (user) and respond with a behavior like a pet to the user to give a feeling of familiarity to the user. The present invention relates to an automatic response robot.

【0002】[0002]

【従来の技術】従来、感情をもつロボットでは、例え
ば、タッチスイッチ(圧力センサ)やマイクロホーンあ
るいはカメラ等による外部入力に対してロボット内部の
感情を変化させることにより、ロボットの動作や音声等
の応答を変化させることでより豊な表現をさせ、動作が
単調になってしまう結果として飽きてしまうという問題
の解決や、表現力の向上によって人(ユーザ)がロボッ
トに抱く親近感を増すという一定の効果があった。
2. Description of the Related Art Conventionally, in a robot having an emotion, for example, by changing an emotion in the robot with respect to an external input from a touch switch (pressure sensor), a microphone, a camera, etc. By changing the response, you can express more richly and solve the problem that you get bored as a result of motion becoming monotonous, and improve the expression power to increase the familiarity of humans (users) to the robot. Was effective.

【0003】しかしながら、肝心の感情の変化が上記の
ように外部入力により一元的に決まってしまっては、結
果的にロボットの応答が単調になってしまい、やはりす
ぐに飽きられてしまうという問題があった。
However, if the essential emotional changes are centrally determined by the external input as described above, the response of the robot becomes monotonous as a result, and again, there is a problem that the user gets bored immediately. there were.

【0004】[0004]

【発明が解決しようとする課題】それゆえに、この発明
の主な目的は、ロボットにおける感情の変化の仕方をよ
り変化に富んだものとすることにより、ユーザとロボッ
トの間でより親近感が増して飽きがこない、自動応答ロ
ボットを提供することである。
SUMMARY OF THE INVENTION Therefore, the main object of the present invention is to make the way of changing emotions in a robot more varied, so that the user and the robot become more familiar. The goal is to provide an automatic response robot that never gets tired of being.

【0005】[0005]

【課題を解決するための手段】この発明は、ユーザ情報
を入力するユーザ情報入力手段、ユーザのしぐさ情報を
ロボットのしぐさパターンとして記憶するかつ内部情報
による独自のしぐさパターンを記憶する記憶手段、この
記憶手段に記憶された各しぐさパターンとユーザ情報入
力手段より入力されたユーザ情報に対応するパターンと
を比較して処理する動作制御手段、およびこの動作制御
手段からの出力に基づいていずれかのしぐさパターンを
再生する再生手段を備える、自動応答ロボットである。
The present invention relates to a user information input means for inputting user information, a storage means for storing user gesture information as a robot gesture pattern, and a unique gesture pattern based on internal information. An operation control means for comparing and processing each gesture pattern stored in the storage means with a pattern corresponding to the user information input from the user information input means, and one of the gestures based on the output from this operation control means. It is an automatic response robot provided with a reproducing means for reproducing a pattern.

【0006】[0006]

【作用】ロボットのしぐさパターンにより、同じ外界信
号(ユーザ情報信号)が入力されても、その状態、例え
ば圧力センサによるタッチ時間の長短で異なる結果が得
られるものであり、ロボットからの応答出力も異なるも
のになる。
According to the gesture pattern of the robot, even if the same external signal (user information signal) is input, different results can be obtained depending on the state, for example, the length of the touch time by the pressure sensor, and the response output from the robot is also obtained. It will be different.

【0007】[0007]

【発明の効果】この発明によれば、ユーザとロボットと
の間でより親近感が増し、ユーザに飽きられることのな
い自動応答ロボットを実現する。
According to the present invention, it is possible to realize an automatic response robot in which the user and the robot are more intimate and the user is not bored.

【0008】また、ロボットが人間の生活空間に入り込
むことに違和感が無くなり、ロボットの導入及び運用を
円滑に行うことができる。
Further, it is possible to eliminate discomfort when the robot enters the human living space, and it is possible to smoothly introduce and operate the robot.

【0009】この発明の上述の目的,その他の目的,特
徴および利点は、図面を参照して以下に行う実施例の詳
細な説明により一層明らかとなろう。
The above-mentioned objects, other objects, features and advantages of the present invention will become more apparent by the detailed description of the embodiments given below with reference to the drawings.

【0010】[0010]

【実施例】図1において、この発明の一実施例である自
動応答ロボット(以下、単に「ロボット」という。)1
0は、頭部12を有する胴体部14と、この胴体部14
の両側部に設けた腕部16、18と、胴体部14の底部
に設けた車輪等による移動脚部20、22とを含む。ロ
ボット10の外観形状を、たとえば犬のような動物のぬ
いぐるみにしてもよい。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to FIG. 1, an automatic response robot (hereinafter, simply referred to as "robot") 1 according to an embodiment of the present invention.
0 is a body portion 14 having a head portion 12, and the body portion 14
Arm portions 16 and 18 provided on both sides of the body portion, and movable leg portions 20 and 22 formed by wheels or the like provided on the bottom portion of the body portion 14. The external shape of the robot 10 may be a stuffed animal such as a dog.

【0011】頭部12の前面には眼、鼻、口を有する顔
面部24と、この顔面部24の両側に後で説明する音声
を入力するマイクロホーン38を内蔵する耳部26、2
8を有している。また、顔面部24の口には後述する音
声を出力するスピーカ48を内蔵している。さらに、図
示されないが、たとえば頭部12の上面には後述するユ
ーザの撫でや叩き等の圧力を感知するタッチスイッチと
しての圧力センサ40を設けている。
A face portion 24 having eyes, a nose, and a mouth is provided on the front surface of the head portion 12, and ear portions 26 and 2 each having a microphone 38 for inputting a voice to be described later on both sides of the face portion 24.
Have eight. In addition, the mouth of the face portion 24 has a built-in speaker 48 that outputs a sound to be described later. Further, although not shown, for example, a pressure sensor 40 as a touch switch for sensing the pressure of the user's stroking or tapping described later is provided on the upper surface of the head 12, for example.

【0012】そして、頭部12を前後に振る動作、左右
の腕部16、18を適当に振る動作、および移動脚部2
0、22を駆動して歩行動作を行わせるため、図示しな
いバッテリとこのバッテリにより駆動される駆動モータ
をそれぞれ搭載している。
The head 12 is swung back and forth, the left and right arms 16 and 18 are swung appropriately, and the movable leg 2 is used.
A battery (not shown) and a drive motor driven by the battery are mounted to drive 0 and 22 to perform a walking motion.

【0013】次に図2に示すハード構成について説明す
ると、このロボット10は、入力されたユーザ情報を検
出する外界信号検出部30、この外界信号検出部30で
検出されたアナログ信号を処理する外界信号処理部3
2、この外界信号処理部32でディジタル処理されたデ
ィジタル信号に基づいて動作の演算処理を行うマイクロ
コンピュータ(以下、単に「マイコン」という)を含む
動作制御部34、およびこの動作制御部34の出力に基
づいてロボット10を動作させる出力応答部36を備え
る。
The hardware configuration shown in FIG. 2 will now be described. The robot 10 has an external world signal detecting section 30 for detecting input user information and an external world for processing an analog signal detected by the external world signal detecting section 30. Signal processing unit 3
2. An operation control unit 34 including a microcomputer (hereinafter, simply referred to as “microcomputer”) that performs operation processing based on a digital signal digitally processed by the external signal processing unit 32, and an output of the operation control unit 34 An output response unit 36 that operates the robot 10 based on

【0014】すなわち、動作制御部34は、得られた外
部情報(ユーザ情報)および後述の内部情報に基づいて
ロボット10の行動を決定し、出力応答部36によりロ
ボット10の感情(例えば、「寂しい」・「楽しい」・
「怒り」などの3つの感情)や行動をユーザに伝達する
ようにしている。
That is, the operation control unit 34 determines the behavior of the robot 10 based on the obtained external information (user information) and internal information described later, and the output response unit 36 determines the emotion of the robot 10 (for example, "lonely. "·"pleasant"·
Three emotions such as "anger" and actions are transmitted to the user.

【0015】そして、外界信号検出部30は、たとえば
耳部26、28に設けられるマイクロホーン38あるい
は頭部12の上面に設けられる圧力センサ40を含み、
マイクロホーン38より入力されたユーザの音声情報は
音声処理マイコンと音声認識マイコンを含む音声処理認
識装置42でディジタル音声信号に処理して認識され、
また、圧力センサ40より入力されたユーザの圧力情報
はA/D変換器44でディジタル信号に変換される。
The external signal detector 30 includes, for example, a microphone 38 provided on the ears 26 and 28 or a pressure sensor 40 provided on the upper surface of the head 12.
The voice information of the user input from the microphone 38 is processed into a digital voice signal by a voice processing recognition device 42 including a voice processing microcomputer and a voice recognition microcomputer and recognized.
The user pressure information input from the pressure sensor 40 is converted into a digital signal by the A / D converter 44.

【0016】さらに、動作制御部34のマイコンは、動
作プログラムを記憶したROM、ユーザのしぐさ情報を
ロボットのしぐさパターンとして記憶すると共に内部情
報による独自のしぐさパターンを記憶するRAM、およ
びユーザ情報および内部情報に基づいて対応するパター
ン動作を演算するCPU等を含む。そして、動作制御部
34で演算処理された結果が、出力応答部36の音声出
力回路46からスピーカ48に音声出力され、あるいは
アクチュエータ駆動回路50を介してロボット10の頭
部12、腕部16、18または移動脚部20、22等の
アクチュエータ52が駆動モータにより駆動される。ロ
ボット10のしぐさパターンとしては、例えば、ユーザ
によるロボット10の頭部12に対するタッチ時間(接
触時間)の違いにより上記で説明した3つの感情状態
(寂しい、怒り及び楽しい)の変化を出力応答部36で
表現することができる。
Further, the microcomputer of the operation control unit 34 stores a ROM storing an operation program, a RAM storing user gesture information as a robot gesture pattern and a unique gesture pattern based on internal information, and user information and internal information. It includes a CPU or the like that calculates a corresponding pattern operation based on information. Then, the result of the arithmetic processing by the operation control unit 34 is output as voice from the voice output circuit 46 of the output response unit 36 to the speaker 48, or the head 12, arm 16, and the like of the robot 10 via the actuator drive circuit 50. The actuator 52 such as 18 or the movable legs 20 and 22 is driven by a drive motor. As the gesture pattern of the robot 10, for example, changes in the three emotional states (lonely, angry, and enjoyable) described above depending on the difference in touch time (contact time) of the user with respect to the head 12 of the robot 10 are output by the response unit 36. Can be expressed as

【0017】ここで、図3に示すフローチャートに従い
ロボット10の基本動作を説明する。
Here, the basic operation of the robot 10 will be described with reference to the flowchart shown in FIG.

【0018】先ず、スタートしてステップS1で外界信
号検出部30にてユーザ情報を入力し、ステップS3で
外界信号処理部32を経て動作制御部34に入力された
ユーザ情報を検出し、さらにステップS5では、ステッ
プS3で検出されたユーザ情報のしぐさと予めRAMに
記憶されている複数のしぐさパターンとを比較する。
First, after starting, the user information is input to the external signal detection unit 30 in step S1, the user information input to the operation control unit 34 through the external signal processing unit 32 is detected in step S3, and further steps are performed. In S5, the gesture of the user information detected in step S3 is compared with a plurality of gesture patterns stored in the RAM in advance.

【0019】そして、ステップS7では動作制御部34
によりユーザ情報に基づくユーザのしぐさがロボットの
しぐさパターンと一致するか否かを判断し、その結果、
“YES”であればステップS9でしぐさパターン動作
を再生し、ステップS11で再生出力をロボット10の
出力応答部36に出力して一連の動作を終了する。
Then, in step S7, the operation controller 34
Determines whether the user's gesture based on the user information matches the robot's gesture pattern, and as a result,
If "YES", the gesture pattern motion is reproduced in step S9, and the reproduction output is output to the output response unit 36 of the robot 10 in step S11 to end the series of operations.

【0020】また、ステップS7においてユーザ情報に
対応するしぐさに一致するしぐさパターンが存在しない
“NO”の場合には、ステップS13で予めマイコンの
RAMに記憶されている内部情報に基づく独自のしぐさ
パターン動作を再生し、ステップS11で再生出力をロ
ボット10の出力応答部36に出力し一連の動作を終了
する。
In the case of "NO" in which no gesture pattern matching the gesture corresponding to the user information is present in step S7, the unique gesture pattern based on the internal information stored in advance in the RAM of the microcomputer in step S13. The operation is reproduced, and the reproduction output is output to the output response unit 36 of the robot 10 in step S11 to end the series of operations.

【0021】例えば、動作制御部34は、マイコンに記
憶されているユーザ情報(外部情報)や内部情報に対応
した各しぐさパターンに基づいてロボット10の行動を
決定し、動作表現装置、つまり、スピーカ48による音
声やアクチュエータ52としての頭部12、腕部16、
18あるいは移動脚部20、22の動作によりロボット
10の感情や行動を表現することができる。
For example, the operation control unit 34 determines the action of the robot 10 based on each gesture pattern corresponding to the user information (external information) and internal information stored in the microcomputer, and the action expression device, that is, the speaker. Voice by 48 and head 12, arm 16 as actuator 52,
The emotions and actions of the robot 10 can be expressed by the movements of 18 or the movable legs 20 and 22.

【0022】また、聴覚的情報入力装置としてユーザの
音声を検出するマイクロホーン38を備え、さらに触覚
的情報入力装置として、ユーザによるロボット10の頭
部12の撫でや叩きを検出する感圧センサ等の圧力セン
サ40を備える。また、内部情報としては感情以外に、
図示されないが、ロボット10の飢えの情報を検出する
バッテリ残量計やロボット10の疲れの情報を検出する
モータ温度計を備えてもよい。
Further, a microphone 38 for detecting a user's voice is provided as an auditory information input device, and a pressure sensor for detecting a user's stroking or hitting of the head 12 of the robot 10 is provided as a tactile information input device. The pressure sensor 40 of FIG. Also, as internal information, besides emotions,
Although not shown, a battery fuel gauge for detecting starvation information of the robot 10 and a motor thermometer for detecting fatigue information of the robot 10 may be provided.

【0023】具体的な外部情報に基づく動作としては、
たとえばユーザが帰宅した際、玄関先で「ただいま」と
言うと、ロボット10に搭載されているマイクロホーン
38からこのユーザ情報が入力されて、動作制御部34
で演算処理され、その結果、ロボット10はしぐさパタ
ーンに基づいて「おかえり」とスピーカ48から合成音
声を出力したり、あるいは、ユーザがロボット10の頭
部12を軽く撫でたりあるいはトントンと叩いたりして
やると圧力センサ40からユーザ情報が入力され、動作
制御部34で同様に演算処理され、その結果、ロボット
10は、たとえば頭部12を前後に振り「楽しい(喜
び)」の動作を表現する。 また、各被駆動部、すなわ
ち、頭部12、腕部16、18や移動脚部20、22を
駆動する駆動モータのバッテリ残量が少なくなると、内
部情報に基づき、たとえば、ロボット10は頭部12を
垂れて飢えを表現たり、あるいは腕部16、18や移動
脚部20、22の動作を停止して疲れを表現する。
The operation based on concrete external information is as follows.
For example, when the user returns home, saying "I'm home" at the front door, this user information is input from the microphone 38 mounted on the robot 10, and the operation control unit 34
As a result, the robot 10 outputs "Welcome back" and a synthesized voice from the speaker 48 based on the gesture pattern, or the user strokes the head 12 of the robot 10 lightly or taps it. User information is input from the pressure sensor 40 and is similarly processed by the motion control unit 34. As a result, the robot 10 swings the head 12 back and forth, for example, to express a "pleasant" motion. Further, when the remaining battery level of each of the driven parts, that is, the head 12, the arms 16 and 18, and the drive motors that drive the movable legs 20 and 22 becomes small, for example, the robot 10 may detect the head based on the internal information. 12 is used to express hunger, or the motion of the arms 16 and 18 and the movable legs 20 and 22 is stopped to express fatigue.

【0024】また、このロボット10の他の応用例とし
て、家庭内で高齢者の生活支援を行う場合の実施例を説
明する。
Further, as another application example of the robot 10, an embodiment in which life support for the elderly is performed at home will be described.

【0025】先ず、動作制御部34のマイコンに高齢者
の生活を支援するために、たとえば、高齢者によって予
め設定された時間に起床するかつ就寝するための動作プ
ログラムおよび簡単な会話「おはよう」や「おやすみ」
を交わすための動作プログラム、さらには散歩に連れ出
すための動作プログラムをROMに格納しておく。
First, in order to support the life of the elderly by the microcomputer of the operation control unit 34, for example, an operating program for waking up and going to bed at a time preset by the elderly and a simple conversation "Good morning" and "Good night"
The ROM stores an operation program for exchanging information, and an operation program for taking a walk.

【0026】また、この動作制御部34には動作変数X
[n]があり、X[n]の値でロボット10の動作意思を表
すように、n=1〜5の数値には、例えば、次のような
意味付けがなされている。
Further, the operation control unit 34 has an operation variable X
There are [n], and the numerical values of n = 1 to 5 have the following meanings, for example, so that the value of X [n] represents the intention of the robot 10 to operate.

【0027】すなわち、X[1]=起こしたい、X[2]=
眠りたい、X[3]=声をかけたい、X[4]=声をかけら
れたい、X[5]=散歩したい、の5つの状態を持ってい
る。そして、X[n]は0または1の値をとり、この値が
1の時にその行動を望んでいることを表す。
That is, X [1] = want to occur, X [2] =
I have five states: I want to sleep, X [3] = I want to call, X [4] = I want to be called, X [5] = I want to walk. Then, X [n] takes a value of 0 or 1, and when this value is 1, it indicates that the behavior is desired.

【0028】初期状態では、ロボット10が、X[n]=
0(n=1、・・・5)の状態にある。そして、このロボ
ット10は、高齢者によって予め朝7時に起床し、夜1
0時に就寝するようにROMに動作プログラムが設定さ
れていると仮定する。
In the initial state, the robot 10 has X [n] =
0 (n = 1, ... 5). The robot 10 is woken up by an elderly person in advance at 7 am and
It is assumed that the operation program is set in the ROM so as to go to bed at 0 o'clock.

【0029】この設定状態において、図3の動作フロー
チャートでスタートして、ステップS15でロボット1
0は動作制御部34のマイコンに内蔵されるタイマによ
り設定された時刻(内部情報の1つ)である朝7時にな
ったか否かを判断し、その結果が“YES”であれば、
ステップS17で起床X[1]=1に変化し、ステップS
9でロボットのしぐさパターン動作を再生する。その結
果、ステップS11でロボット10の顔面部24の口に
搭載されたスピーカ48より、たとえば「朝です、起き
てください」という音声が出力される。なお、この音声
出力は、1回だけでなく、数回繰返し出力されるように
設定することもできる。また、ステップS15における
判断結果が“NO”の場合、ステップS15の動作を繰
り返す。
In this set state, the robot 1 is started in step S15 starting from the operation flowchart of FIG.
0 determines whether or not it is 7 o'clock in the morning, which is the time (one of the internal information) set by the timer built in the microcomputer of the operation control unit 34, and if the result is “YES”,
In step S17, the wakeup X [1] = 1 is changed to step S17.
At 9, the gesture pattern motion of the robot is reproduced. As a result, in step S11, the speaker 48 mounted on the mouth of the face portion 24 of the robot 10 outputs, for example, a voice saying "It's morning, please wake up." The audio output can be set not only once but repeatedly several times. If the determination result in step S15 is "NO", the operation in step S15 is repeated.

【0030】同様に、夜10時になると、スピーカ48
より「夜です、おやすみください」という音声が出力さ
れる。
Similarly, at 10 pm, the speaker 48
A voice saying "It's night, good night" is output.

【0031】このように、ロボット10により高齢者の
起床および就寝動作を支援することができる。従って、
独り暮らしの高齢者の生活支援を違和感がなく親近感を
もって容易に行うことができるものである。
In this way, the robot 10 can assist the elderly in getting up and going to bed. Therefore,
The living support for the elderly living alone can be easily performed with a sense of familiarity and familiarity.

【0032】さらに、この発明によるロボットの感情の
変化に対応した他の具体例について以下に説明する。
Further, another concrete example corresponding to the change of the emotion of the robot according to the present invention will be described below.

【0033】具体例1:この場合は感情状態によってセ
ンサ入力(圧力センサ)40の処理の仕方を変える。但
し、Eはロボット10の感情状態を表すパラメータで、
「寂しい」、「楽しい」及び「怒り」の3つの値をとり
うる。また、tはタッチスイッチ(圧力センサ)が押さ
れた時間を表す。
Concrete Example 1: In this case, the processing method of the sensor input (pressure sensor) 40 is changed depending on the emotional state. However, E is a parameter indicating the emotional state of the robot 10,
It can take three values: "lonely", "happy" and "angry". Further, t represents the time when the touch switch (pressure sensor) is pressed.

【0034】この具体例1では、スイッチ入力のみによ
ってロボット10の感情状態を変化させる。そして、タ
ッチスイッチ(圧力センサ)40が押され続けた時間の
違いを押され方の違いとして認識する。この場合にける
感情状態の変化の処理の流れを図4に示す。
In the first specific example, the emotional state of the robot 10 is changed only by the switch input. Then, the difference in the time during which the touch switch (pressure sensor) 40 is continuously pressed is recognized as the difference in the pressed manner. FIG. 4 shows the flow of processing for changing the emotional state in this case.

【0035】図4において、電源投入後、ステップS1
でロボット10は「寂しい」感情状態にあるとする。次
に、ステップS3でタッチスイッチ(圧力センサ)40
の入力読み込みを行い、その時の感情状態によって処理
を3つに分岐させる。
In FIG. 4, after the power is turned on, step S1
Then, it is assumed that the robot 10 is in a "lonely" emotional state. Next, in step S3, the touch switch (pressure sensor) 40
Is read, and the processing is branched into three depending on the emotional state at that time.

【0036】すなわち、ステップS5で動作制御部34
により寂しいか否かを判断して、その結果が“YES”
であればステップS7に進み、後述するタッチスイッチ
入力処理1を実行してステップS3に戻る。また、ステ
ップS5で“NO”の場合は、ステップS9で動作制御
部34により楽しいか否かを判断し、その結果が“YE
S”であればステップS11に進み、ここで後述するタ
ッチスイッチ入力処理2を実行してステップS3に戻
る。そして、ステップS9の判断結果が“NO”の場合
にはステップS13に進み、後述のタッチスイッチ入力
処理3を実行してステップS3に戻る。
That is, in step S5, the operation control unit 34
Determines if you are lonely and the result is "YES"
If so, the process proceeds to step S7, the touch switch input process 1 described later is executed, and the process returns to step S3. If “NO” in the step S5, it is determined in the step S9 by the operation control section 34 whether or not the operation is fun, and the result is “YE”.
If "S", the process proceeds to step S11, the touch switch input process 2 described later is executed, and the process returns to step S3. If the determination result of step S9 is "NO", the process proceeds to step S13, which will be described later. The touch switch input process 3 is executed, and the process returns to step S3.

【0037】このように、動作制御部34で各感情状態
の処理を実行した後は、再びタッチスイッチ入力を読み
込んで、感情状態に応じた処理を繰り返す。
As described above, after the operation control unit 34 has executed the processing for each emotional state, the touch switch input is read again and the processing according to the emotional state is repeated.

【0038】次に図4における各入力処理1〜3の具体
的な動作の流れを、図5〜図7に基づいて説明する。
Next, a concrete operation flow of each of the input processes 1 to 3 in FIG. 4 will be described with reference to FIGS.

【0039】先ず、図5において、開始(スタート)し
て「寂しい」状態の時は、ステップS1で、t<100
ms?を判断し、その結果が“YES”の場合、ステッ
プS3でロボット10は「寂しい」ままとする(これは
いきなり叩かれて気分がよくないままという意味であ
る)。
First, in FIG. 5, when the vehicle is in a "lonely" state after the start (start), t <100 in step S1.
ms? If the result is "YES", the robot 10 remains "lonely" in step S3 (this means that the robot 10 is suddenly hit and feels uncomfortable).

【0040】そして、ステップS1でt<100ms?
を判断し、その結果が“NO”の場合は、ステップS5
で「楽しい」状態に変化させる(これは、人と接触した
ため、寂しい状態を脱すると言う意味である)。
Then, in step S1, t <100 ms?
If the result is “NO”, step S5
To change to a "happy" state (this means leaving the lonely state due to contact with a person).

【0041】次に、図6において、開始(スタート)し
て「楽しい」状態の時は、ステップS1において、t<
100ms?を判断し、その結果が“YES”の場合、
ステップS3で「怒り」状態に変化させる(これは叩か
れたと判断し、怒ったという意味である)。一方、ステ
ップS1における判断結果が、“NO”の場合、ステッ
プS5に進み、ここでt<500ms?を判断し、その
結果“YES”の場合はステップS7で「寂しい」状態
に変化させる(これは、ばかにされたと判断し、寂しく
なったという意味である)。そして、ステップS5にお
いて、t≧500msで“NO”の場合は、ステップS
9に進み、「楽しい」状態のままとする(これはなでら
れたと判断し、機嫌が良いままという意味である)。
Next, in FIG. 6, when the vehicle is in a "fun" state after starting (start), in step S1, t <
100ms? If the result is “YES”,
In step S3, the state is changed to "angry" (this means that the player was struck and angry). On the other hand, if the determination result in step S1 is "NO", the process proceeds to step S5, where t <500 ms? If the result is “YES”, the state is changed to a “lonely” state in step S7 (this means that the person is fooled and becomes lonely). Then, in step S5, if t ≧ 500 ms and “NO”, step S5
Proceed to 9 and remain in a “fun” state (this means that you have been stroked and you remain in a good mood).

【0042】また、図7において、開始(スタート)し
て「怒り」状態の時は、ステップS1で、t<1000
ms?を判断して、その結果が“YES”の場合、ステ
ップS3で怒りの状態で変化させない(これは怒りの状
態では、さわられると機嫌が悪いという意味である)。
そして、ステップS1で“NO”の場合、ステップS5
に進み、ここで「楽しい」状態に変化させる(これは、
なでられたと判断し、機嫌が良くなったという意味であ
る)。
Further, in FIG. 7, when starting (starting) and in an "angry" state, t <1000 in step S1.
ms? If the result is "YES", it is not changed in an angry state in step S3 (this means that in an angry state, when touched, the player is in a bad mood).
Then, if “NO” in the step S1, the step S5
And change it to a "fun" state here (this is
It means that he was stroked, which means he was in a good mood).

【0043】このように感情状態によってセンサ入力の
処理の仕方を変え、ロボット10の応答を変化させるこ
とで、応答の仕方が単調になる問題を解消することがで
きる。
As described above, by changing the way of processing the sensor input depending on the emotional state and changing the response of the robot 10, it is possible to solve the problem that the way of the response becomes monotonous.

【0044】具体例2:ロボット10の応答に対するユ
ーザの返答によってロボットの感情状態を変化させる。
Concrete Example 2: The emotional state of the robot is changed according to the response of the user to the response of the robot 10.

【0045】この具体例2では、ロボット10がスピー
カ48から音声を出力した後、ユーザからの反応の仕方
によってロボット10の感情状態を変化させる。
In the second specific example, after the robot 10 outputs a voice from the speaker 48, the emotional state of the robot 10 is changed according to the reaction from the user.

【0046】このときの処理の流れを図8に示す。図8
において、開始(スタート)して、ステップS1でロボ
ット10が、内部情報に基づいてスピーカ48から「な
でなでして」と音声出力する。これはユーザになでられ
ることを催促する応答である。次にステップS3でタッ
チスイッチ入力を読み取り、ステップS5でタッチスイ
ッチ入力あり?を判断する。その結果“NO”でスイッ
チ入力がなかった場合、ステップS7で「寂しい」状態
に変化させる(これは、ほっておかれたので寂しいとい
う意味である)。例えば、ロボット10が頭部12をう
なだれる状態になる。
The flow of processing at this time is shown in FIG. Figure 8
In step S <b> 1, the robot 10 outputs a voice as “Nanadashi” from the speaker 48 based on the internal information. This is a response prompting the user to be stroked. Next, in step S3, the touch switch input is read, and in step S5, is there touch switch input? To judge. As a result, if there is no switch input with "NO", the state is changed to "lonely" in step S7 (this means that it is lonely because it was left alone). For example, the robot 10 is in a state where the head 12 is drooping.

【0047】一方、ステップ5で“YES”の場合、ス
テップS9に進み、t<200ms?を判断し、その結
果“YES”であれば、ステップS11で「怒り」状態
に変化させる(こえは、なでて欲しかったのにも拘ら
ず、たたかれたので怒ったという意味である)。「怒
り」の状態としては、例えば、ロボット10が格別の動
作をしないで「怒り」を表現できる。
On the other hand, if "YES" in step 5, the process proceeds to step S9, t <200 ms? If the result is “YES”, the state is changed to “angry” in step S11. (This means that he was angry because he was hit even though he wanted to stroke.) . As the state of “anger”, for example, “anger” can be expressed without the robot 10 performing a particular motion.

【0048】そして、ステップS9においてt≧200
msと判断した“NO”の場合には、ステップS13で
「楽しい」状態に変化させる(これは期待通り、なでて
もらえたので機嫌が良くなったという意味である)。こ
の場合のロボット10の動作としては、例えば、頭部1
2を前後にふることで表現できる。
Then, in step S9, t ≧ 200.
In the case of "NO", which is judged to be ms, the state is changed to "fun" in step S13 (this means that I was in good mood because I was stroked as expected). As the operation of the robot 10 in this case, for example, the head 1
It can be expressed by shaking 2 back and forth.

【0049】ここでは、ロボット10がなでて欲しくて
「なでなでして」とスピーカ48から音声出力した実施
例を示したが、他の働きかけを人(ユーザ)に期待する
応答をロボット10が音声出力した場合も同様に、人か
らの反応によって感情状態を変化させることで、人との
インタラクション(相互作用)で感情の変化を起こすこ
とができ、その結果、ロボット10の応答が変わる。
Here, an example is shown in which the robot 10 wants to be stroked and outputs a voice from the speaker 48, saying, "Pandice," but the robot gives a response that expects a person (user) to make another action. Similarly, even when 10 outputs a voice, by changing the emotional state according to the reaction from the person, the emotion can be changed by the interaction with the person, and as a result, the response of the robot 10 changes. .

【0050】これによって人が、ロボット10が自分の
存在を認識しており、ロボット10からの働きかけに応
じた応答を人がすることでより親近感を感じることがで
きる。
As a result, a person can feel a sense of familiarity when the robot 10 recognizes his / her existence and the person responds in response to the action from the robot 10.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明による自動応答ロボットの実施例を示
す外観図である。
FIG. 1 is an external view showing an embodiment of an automatic response robot according to the present invention.

【図2】図1に示すロボットの動作制御を行うハード構
成図である。
FIG. 2 is a hardware configuration diagram for controlling the operation of the robot shown in FIG.

【図3】図2に示すハード構成を備えるロボットの動作
フローチャートである。
FIG. 3 is an operation flowchart of a robot having the hardware configuration shown in FIG.

【図4】この発明による自動応答ロボットの他の実施例
で、タッチスイッチ入力処理のメインフロー図である。
FIG. 4 is a main flowchart of touch switch input processing in another embodiment of the automatic response robot according to the present invention.

【図5】図4におけるタッチスイッチ入力処理1の動作
流れ図である。
5 is an operation flow chart of touch switch input processing 1 in FIG. 4. FIG.

【図6】図4におけるタッチスイッチ入力処理2の動作
流れ図である。
6 is an operation flowchart of touch switch input processing 2 in FIG.

【図7】図4におけるタッチスイッチ入力処理3の動作
流れ図である。
FIG. 7 is an operation flowchart of touch switch input processing 3 in FIG.

【図8】この発明による自動応答ロボットのさらに他の
実施例で、音声出力への反応で感情状態を変化させる処
理の動作流れ図である。
FIG. 8 is an operational flowchart of a process of changing an emotional state in response to a voice output in still another embodiment of the automatic response robot according to the present invention.

【符号の説明】[Explanation of symbols]

10 ・・・自動応答ロボット 12 ・・・頭部 14 ・・・胴体部 16、18 ・・・左右の腕部 20、22 ・・・移動脚部 30 ・・・外界信号検出部(ユーザ情報入力手段) 32 ・・・外界信号処理部 34 ・・・動作制御部(動作制御手段) 36 ・・・出力応答部(再生手段) 10 ... Automatic response robot 12 ... Head 14 ... Body 16, 18 ... Left and right arm 20, 22 ... Moving legs 30 ... External signal detector (user information input means) 32 ... External signal processing unit 34 ... Operation control section (operation control means) 36 ... Output response unit (playback means)

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 CA01 CA02 DA24 DA26 DA27 DA28 DF03 DF04 DF06 DF33 DK02 ED42 ED52 EF03 EF07 EF16 EF17 EF22 EF23 EF28 EF29 EF33 EF36 3C007 AS34 AS36 CS08 KS31 KS39 MT14 WA03 WA04 WA16 WB16 WB19 WB22 WB25 WC07    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 2C150 CA01 CA02 DA24 DA26 DA27                       DA28 DF03 DF04 DF06 DF33                       DK02 ED42 ED52 EF03 EF07                       EF16 EF17 EF22 EF23 EF28                       EF29 EF33 EF36                 3C007 AS34 AS36 CS08 KS31 KS39                       MT14 WA03 WA04 WA16 WB16                       WB19 WB22 WB25 WC07

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】ユーザ情報を入力するユーザ情報入力手
段、 ユーザのしぐさ情報をロボットのしぐさパターンとして
記憶するかつ内部情報を独自のしぐさパターンとして記
憶する記憶手段、 前記記憶手段に記憶された前記各しぐさパターンと前記
ユーザ情報入力手段より入力された前記ユーザ情報に対
応するパターンを比較して処理する動作制御手段、およ
び前記動作制御手段からの出力に基づいて前記いずれか
のしぐさパターンを再生する再生手段を備える、自動応
答ロボット。
1. A user information input means for inputting user information, a storage means for storing user's gesture information as a robot gesture pattern and for storing internal information as a unique gesture pattern, each of the memory elements stored in the storage means. Operation control means for comparing and processing a gesture pattern and a pattern corresponding to the user information input from the user information input means, and reproduction for reproducing any one of the gesture patterns based on the output from the operation control means. An automatic response robot having means.
【請求項2】前記内部情報は、寂しい、楽しいおよび怒
りの3つの感情状態を含む、請求項1記載の自動応答ロ
ボット。
2. The automatic response robot according to claim 1, wherein the internal information includes three emotional states of loneliness, fun and anger.
【請求項3】前記感情状態による前記独自のしぐさパタ
ーンは、前記ユーザ情報が存在しない場合に前記動作制
御手段からの指令に基づき前記再生手段から出力され
る、請求項1または2記載の自動応答ロボット。
3. The automatic response according to claim 1, wherein the unique gesture pattern according to the emotional state is output from the reproducing means based on a command from the operation control means when the user information does not exist. robot.
【請求項4】前記ユーザ情報入力手段は、音声入力手
段、または触覚入力手段の少なくとも1つを含む、請求
項1ないし3のいずれかに記載の自動応答ロボット。
4. The automatic response robot according to claim 1, wherein the user information input unit includes at least one of a voice input unit and a tactile input unit.
【請求項5】前記再生手段は、音声出力手段、またはア
クチュエータ手段の少なくとも1つを含む、請求項1な
いし3のいずれかに記載の自動応答ロボット。
5. The automatic response robot according to claim 1, wherein the reproducing means includes at least one of a voice output means and an actuator means.
JP2001386524A 2001-12-19 2001-12-19 Automatic answering robot Withdrawn JP2003181784A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001386524A JP2003181784A (en) 2001-12-19 2001-12-19 Automatic answering robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001386524A JP2003181784A (en) 2001-12-19 2001-12-19 Automatic answering robot

Publications (1)

Publication Number Publication Date
JP2003181784A true JP2003181784A (en) 2003-07-02

Family

ID=27595658

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001386524A Withdrawn JP2003181784A (en) 2001-12-19 2001-12-19 Automatic answering robot

Country Status (1)

Country Link
JP (1) JP2003181784A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006205343A (en) * 2005-01-31 2006-08-10 Advanced Telecommunication Research Institute International Communication robot system, and robot control device
JP2007517585A (en) * 2004-01-14 2007-07-05 ディズニー エンタープライゼス インコーポレイテッド Computational environment that generates realistic behavior of animatronic figures
JP2008023604A (en) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International Android control system
JP2016012342A (en) * 2014-06-05 2016-01-21 ソフトバンク株式会社 Action control system and program
WO2022064899A1 (en) * 2020-09-28 2022-03-31 ソニーグループ株式会社 Robot device and information processing device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007517585A (en) * 2004-01-14 2007-07-05 ディズニー エンタープライゼス インコーポレイテッド Computational environment that generates realistic behavior of animatronic figures
JP2006205343A (en) * 2005-01-31 2006-08-10 Advanced Telecommunication Research Institute International Communication robot system, and robot control device
JP4517086B2 (en) * 2005-01-31 2010-08-04 株式会社国際電気通信基礎技術研究所 Communication robot system and robot controller
JP2008023604A (en) * 2006-07-18 2008-02-07 Advanced Telecommunication Research Institute International Android control system
JP2016012342A (en) * 2014-06-05 2016-01-21 ソフトバンク株式会社 Action control system and program
WO2022064899A1 (en) * 2020-09-28 2022-03-31 ソニーグループ株式会社 Robot device and information processing device

Similar Documents

Publication Publication Date Title
US6629242B2 (en) Environment adaptive control of pseudo-emotion generating machine by repeatedly updating and adjusting at least either of emotion generation and behavior decision algorithms
JP3687660B2 (en) Massage machine
EP1256931A1 (en) Method and apparatus for voice synthesis and robot apparatus
JP2002049385A (en) Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
WO2001049461A1 (en) Edit device, edit method, and recorded medium
KR20140047273A (en) Robot
JP3930389B2 (en) Motion program generation device and robot during robot utterance
JP2011115932A (en) Emotion engine, emotion engine system, and method of controlling electronic device
CN113375316A (en) Control method and device for air conditioner and air conditioner
JP2003181784A (en) Automatic answering robot
JP2003200370A (en) Growth control system for object and growth control method for object
Yonezawa et al. Context-aware sensor-doll as a music expression device
JP2002224185A (en) Massager
JP2000222378A (en) Method for control over controlled system using dummy feeling and/or dummy character, autonomous device operating adaptively to user, and method for adapting operation of device to feature of user
JP2004034274A (en) Conversation robot and its operation method
KR20180082777A (en) Communion robot system for senior citizen
JP2003305677A (en) Robot device, robot control method, recording medium and program
JP4042108B2 (en) Robot apparatus and control method thereof
JP3566646B2 (en) Music communication device
JP2003340760A (en) Robot device and robot control method, recording medium and program
KR102519599B1 (en) Multimodal based interaction robot, and control method for the same
CN107942738B (en) Intelligent wake-up method and system
JP6023955B2 (en) COMMUNICATION SYSTEM, COMMUNICATION DEVICE, PROGRAM, AND COMMUNICATION CONTROL METHOD
JP2001162058A (en) Autonomous mobile therapeutic apparatus
JP7192905B2 (en) Control device, control method and program

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20050301