JP2002239256A - Emotion determination device in automatic response toy and automatic response toy - Google Patents

Emotion determination device in automatic response toy and automatic response toy

Info

Publication number
JP2002239256A
JP2002239256A JP2001036802A JP2001036802A JP2002239256A JP 2002239256 A JP2002239256 A JP 2002239256A JP 2001036802 A JP2001036802 A JP 2001036802A JP 2001036802 A JP2001036802 A JP 2001036802A JP 2002239256 A JP2002239256 A JP 2002239256A
Authority
JP
Japan
Prior art keywords
emotion
automatic response
determining
voice
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001036802A
Other languages
Japanese (ja)
Inventor
Tomoyoshi Tokumaru
智祥 徳丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2001036802A priority Critical patent/JP2002239256A/en
Publication of JP2002239256A publication Critical patent/JP2002239256A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an emotion determination device in an automatic response toy capable of determining emotions of the automatic response toy on the basis of stimulation from the outside. SOLUTION: An emotion determination device in an automatic response toy has a sound input means has an image input means, a first detection means to detect elements to change an emotion on the basis of sounds inputted to the sound input means, a second detection means to detect elements to change an emotion on the basis of images inputted by the image input means, and a determination means to determine the emotion of the automatic response toy on the basis of the results of detection by the first and second detection means.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、自動応答玩具に
おける感情決定装置および自動応答玩具に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an emotion determination device and an automatic response toy in an automatic response toy.

【0002】[0002]

【従来の技術】本出願人は、人形の形態をした自動応答
玩具において、外部からの刺激に基づいて自動応答玩具
の感情を決定する感情決定手段、外部からの刺激に基づ
いて自動応答玩具の現在のインタラクション状態を決定
する状態決定手段、ならびに感情決定手段によって判別
された自動応答玩具の現在の感情と、状態決定手段によ
って決定された現在のインタラクション状態との組み合
わせに応じた動作を自動応答玩具に行なわせる応答動作
制御手段を備えた自動応答玩具を開発した。
2. Description of the Related Art The present applicant has proposed an automatic response toy in the form of a doll, an emotion determining means for determining the emotion of the automatic response toy based on an external stimulus, and an automatic response toy based on an external stimulus. State determining means for determining the current interaction state; and an automatic response toy which performs an operation according to a combination of the current emotion of the automatic response toy determined by the emotion determination means and the current interaction state determined by the state determination means. We have developed an automatic response toy equipped with a response operation control means to be performed by the user.

【0003】[0003]

【発明が解決しようとする課題】この発明は、外部から
の刺激に基づいて自動応答玩具の感情を決定することが
できる自動応答玩具における感情決定装置を提供するこ
とを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to provide an emotion determining apparatus for an automatic response toy capable of determining the emotion of the automatic response toy based on an external stimulus.

【0004】この発明は、外部からの刺激に基づいて自
動応答玩具の感情を決定することができる感情決定手段
を備えた自動応答玩具を提供することを目的とする。
[0004] It is an object of the present invention to provide an automatic response toy having an emotion determining means capable of determining the emotion of the automatic response toy based on an external stimulus.

【0005】[0005]

【課題を解決するための手段】この発明による自動応答
玩具における感情決定装置は、音声入力手段、画像入力
手段、音声入力手段に入力された音声に基づいて、感情
を変化させる要素を検出する第1の検出手段、画像入力
手段によって入力された画像に基づいて、感情を変化さ
せる要素を検出する第2の検出手段、ならびに第1およ
び第2の検出手段による検出結果に基づいて、自動応答
玩具の感情を決定する決定手段を備えている。
According to the present invention, there is provided an emotion determining apparatus for an automatic response toy according to the present invention, which detects an element for changing an emotion based on voice input to voice input means, image input means, and voice input means. A first detecting means, a second detecting means for detecting an element which changes an emotion based on an image inputted by the image inputting means, and an automatic response toy based on a detection result by the first and second detecting means. Determining means for determining the emotion of the subject.

【0006】この発明による自動応答玩具は、外部から
の刺激に基づいて自動応答玩具の感情を決定する感情決
定手段、外部からの刺激に基づいて自動応答玩具の現在
のインタラクション状態を決定する状態決定手段、なら
びに感情決定手段によって判別された自動応答玩具の現
在の感情と、状態決定手段によって決定された現在のイ
ンタラクション状態との組み合わせに応じた動作を自動
応答玩具に行なわせる応答動作制御手段とを備えてお
り、感情決定手段は、音声入力手段、画像入力手段、音
声入力手段に入力された音声に基づいて、感情を変化さ
せる要素を検出する第1の検出手段、画像入力手段によ
って入力された画像に基づいて、感情を変化させる要素
を検出する第2の検出手段、ならびに第1および第2の
検出手段による検出結果に基づいて、自動応答玩具の感
情を決定する決定手段を備えていることを特徴とする。
An automatic response toy according to the present invention has an emotion determining means for determining an emotion of the automatic response toy based on an external stimulus, and a state determination for determining a current interaction state of the automatic response toy based on an external stimulus. Means, and a response operation control means for causing the automatic response toy to perform an operation in accordance with a combination of the current emotion of the automatic response toy determined by the emotion determination means and the current interaction state determined by the state determination means. Wherein the emotion determining means is provided by the voice input means, the image input means, the first detection means for detecting an element that changes the emotion based on the voice input to the voice input means, and the input by the image input means. Second detection means for detecting an element that changes emotion based on an image, and detection by the first and second detection means Based on the result, characterized in that it comprises a determining means for determining an emotion of the automatic response toy.

【0007】第1の検出手段は、音声入力手段に入力さ
れた音声に基づいて、所定の時間間隔毎に入力音声の大
きさを判別する手段を備えており、第2の検出手段は、
画像入力手段によって入力された画像に基づいて、所定
時間間隔毎に顔が検出されたか否かを判別する手段を備
えている。
[0007] The first detecting means includes means for determining the volume of the input voice at predetermined time intervals based on the voice input to the voice input means.
There is provided a means for determining whether or not a face is detected at predetermined time intervals based on the image input by the image input means.

【0008】第1の検出手段は、音声入力手段に入力さ
れた音声に基づいて、所定の時間間隔毎に入力音声の大
きさを判別する手段および音声入力手段に入力された音
声に基づいて、所定の時間間隔毎にうなづきタイミング
であるか否かを判別する手段を備えており、第2の検出
手段は、画像入力手段によって入力された画像に基づい
て、所定時間間隔毎に顔が検出されたか否かを判別する
手段を備えている。
The first detecting means includes means for judging the volume of the input voice at predetermined time intervals based on the voice input to the voice input means, and based on the voice input to the voice input means. Means for determining whether or not it is a nodding timing at predetermined time intervals; and a second detection means detects a face at predetermined time intervals based on the image input by the image input means. It is provided with a means for judging whether or not it has been fired.

【0009】第1の検出手段は、音声入力手段に入力さ
れた音声に基づいて、所定の時間間隔毎に入力音声の大
きさを判別する手段を備えており、第2の検出手段は、
画像入力手段によって入力された画像に基づいて、所定
時間間隔毎に顔が検出されたか否かを判別する手段およ
び画像入力手段によって入力された画像に基づいて、所
定時間間隔毎に顔の動きの大きさを判別する手段を備え
ている。
The first detecting means includes means for determining the volume of the input voice at predetermined time intervals based on the voice input to the voice input means, and the second detecting means comprises:
Means for determining whether or not a face has been detected at predetermined time intervals based on the image input by the image input means, and movement of the face at predetermined time intervals based on the image input by the image input means. There is provided means for determining the size.

【0010】第1の検出手段は、音声入力手段に入力さ
れた音声に基づいて、所定の時間間隔毎に入力音声の大
きさを判別する手段および音声入力手段に入力された音
声に基づいて、所定の時間間隔毎にうなづきタイミング
であるか否かを判別する手段を備えており、第2の検出
手段は、画像入力手段によって入力された画像に基づい
て、所定時間間隔毎に顔が検出されたか否かを判別する
手段および画像入力手段によって入力された画像に基づ
いて、所定時間間隔毎に顔の動きの大きさを判別する手
段を備えている。
The first detecting means includes means for determining the loudness of the input voice at predetermined time intervals based on the voice input to the voice input means, and based on the voice input to the voice input means. Means for determining whether or not it is a nodding timing at predetermined time intervals; and a second detection means detects a face at predetermined time intervals based on the image input by the image input means. Means for determining whether or not the face has moved, and means for determining the magnitude of the face movement at predetermined time intervals based on the image input by the image input means.

【0011】決定手段としては、たとえば、第1および
第2の検出手段によって検出された要素に基づいて、幸
福の度合いを表す感情パラメータ、悲しみの度合いを表
す感情パラメータおよび怒りの度合いを表す感情パラメ
ータをそれぞれ算出し、これらの感情パラメータの中で
最も大きなものに対応する感情を、自動応答玩具の感情
として決定するものが用いられる。
As the determining means, for example, an emotion parameter indicating the degree of happiness, an emotion parameter indicating the degree of sadness, and an emotion parameter indicating the degree of anger based on the elements detected by the first and second detection means. Are calculated, and the emotion corresponding to the largest of these emotion parameters is determined as the emotion of the automatic response toy.

【0012】より具体的には、決定手段は、各感情を変
化させる要素毎に予め設定されたポイント値と、各感情
を変化させる要素毎にかつ各感情パラメータ毎に予め設
定されたゲインとを用いて、各感情パラメータをそれぞ
れ算出する。
[0012] More specifically, the deciding means sets a point value set in advance for each element that changes each emotion and a gain set in advance for each element that changes each emotion and for each emotion parameter. Each emotion parameter is calculated using the above.

【0013】[0013]

【発明の実施の形態】以下、図面を参照して、この発明
の実施の形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0014】〔1〕自動応答玩具の外観の説明[1] Description of the appearance of the automatic response toy

【0015】図1〜図3は、人形の形態をした自動応答
玩具の外観を示している。
FIGS. 1 to 3 show the appearance of an automatic response toy in the form of a doll.

【0016】この自動応答玩具は、次のような駆動機構
(駆動回路)を備えている。
This automatic response toy has the following drive mechanism (drive circuit).

【0017】(1)目を開閉(目を瞬き)させる機構 (2)目玉を左右方向に移動させる機構 (3)首を左右に傾ける機構 (4)首を前後に傾ける機構 (5)前進、後退、方向転換、回転を行なうための機構 (6)スピーカの駆動回路(1) A mechanism for opening and closing the eyes (blinking the eyes) (2) A mechanism for moving the eyeball in the left-right direction (3) A mechanism for tilting the neck left and right (4) A mechanism for tilting the neck back and forth (5) Forward, Mechanism for reversing, turning and rotating (6) Speaker drive circuit

【0018】また、この自動応答玩具は、次のようなセ
ンサを備えている。
The automatic response toy has the following sensors.

【0019】(1)遊技者の音声を入力するためのマイ
クロフォン (2)遊技者の顔等の映像を入力するためのCCDカメ
ラ (3)テーブル等の走行面の縁に人形が位置しているこ
とを検知するための路面センサ
(1) A microphone for inputting a voice of a player (2) A CCD camera for inputting an image of a player's face and the like (3) A doll is located at an edge of a running surface such as a table. Road surface sensor for detecting

【0020】〔2〕自動応答玩具の電気的構成の説明[2] Description of electrical configuration of automatic response toy

【0021】図4は、自動応答玩具の電気的構成を示し
ている。
FIG. 4 shows the electrical configuration of the automatic response toy.

【0022】自動応答玩具は、中央演算装置10を備え
ている。中央演算装置10は記憶装置11を備えてい
る。
The automatic response toy has a central processing unit 10. The central processing unit 10 includes a storage device 11.

【0023】自動応答玩具は、中央演算装置10の入力
装置として、マイクロフォン1aを有する音声入力装置
1、CCDカメラ2aを有する画像入力装置2および路
面センサ3aを有する危険/安全判定装置3を備えてい
る。
The automatic answering toy includes, as input devices of the central processing unit 10, a voice input device 1 having a microphone 1a, an image input device 2 having a CCD camera 2a, and a danger / safety determining device 3 having a road surface sensor 3a. I have.

【0024】自動応答玩具は、中央演算装置10の出力
装置として、上述した上記各種駆動機構5の駆動回路4
およびスピーカ6aを有する音声出力装置6を備えてい
る。
The automatic response toy is used as an output device of the central processing unit 10 as a drive circuit 4 of the above-described various drive mechanisms 5.
And an audio output device 6 having a speaker 6a.

【0025】〔3〕中央演算装置10の機能の説明[3] Description of Functions of Central Processing Unit 10

【0026】図5は、中央演算装置10の機能を示して
いる。
FIG. 5 shows the functions of the central processing unit 10.

【0027】中央演算装置10は、音声処理部20、画
像処理部30、感情モデル生成部40、状態管理部50
および応答動作制御部60を備えている。
The central processing unit 10 includes a voice processing unit 20, an image processing unit 30, an emotion model generation unit 40, and a state management unit 50.
And a response operation control unit 60.

【0028】感情モデル生成部40は、自動応答玩具
が、幸福であるか、悲しんでいるか、怒っているかを決
定する。状態管理部50は、自動応答玩具のインタラク
ション状態を決定する。応答動作制御部60は、感情モ
デル生成部40によって決定された自動応答玩具の現在
の感情と、状態管理部50によって決定された現在のイ
ンタラクション状態との組み合わせに応じた動作を決定
し、決定した動作を自動応答玩具に行なわせる。
The emotion model generator 40 determines whether the automatic response toy is happy, sad, or angry. The state management unit 50 determines an interaction state of the automatic response toy. The response operation control unit 60 determines and determines an operation according to a combination of the current emotion of the automatic response toy determined by the emotion model generation unit 40 and the current interaction state determined by the state management unit 50. Cause the automatic response toy to perform the action.

【0029】〔4〕音声処理部20の説明[4] Description of the audio processing unit 20

【0030】音声処理部20は、うなづきタイミング検
出部21、入力音声の大きさ判定部22および入力音声
の有無判定部23を備えている。
The voice processing section 20 includes a nodding timing detection section 21, an input voice loudness determination section 22, and an input voice presence / absence determination section 23.

【0031】図6は、うなづきタイミング検出部21の
処理手順を示している。
FIG. 6 shows a processing procedure of the nodding timing detecting section 21.

【0032】まず、マイクロフォン1aから入力された
アナログの音声信号を8msec周期でA/D変換する(ス
テップ1)。変換回数が5回に達する毎に、つまり40
ms周期毎に(ステップ2)、5回分のAD変換値の平均
値を算出する(ステップ3)。得られた平均値をON/
OFFしきい値を用いてしきい値処理することにより、
過去1.6秒の時系列ON/OFFパターンを生成する
(ステップ4)。
First, the analog audio signal input from the microphone 1a is A / D-converted at a cycle of 8 msec (step 1). Every time the number of conversions reaches 5, that is, 40
An average value of the five AD conversion values is calculated for each ms cycle (step 2) (step 3). The obtained average value is set to ON /
By performing threshold processing using the OFF threshold,
A time series ON / OFF pattern for the past 1.6 seconds is generated (step 4).

【0033】そして、時系列ON/OFFパターンの線
形予測モデルでうなづきタイミングであるか否かを判定
し、うなづきタイミングである場合には、そのことを示
すメッセージを感情モデル生成部40に送信する(ステ
ップ5)。ここで、うなずきタイミングとは、相手が言
葉を喋った場合に、その言葉に対して反応を返すのに適
したタイミングをいう。音声時系列(ON/OFFパタ
ーン)の線形予測モデルでうなづきタイミングを推定す
るiRT技術は、岡山県立大学情報工学部 渡辺富夫教
授によって既に開発されている。
Then, it is determined whether or not it is a nodding timing in the linear prediction model of the time-series ON / OFF pattern. If the nodding timing is reached, a message indicating the nodding timing is transmitted to the emotion model generating unit 40 ( Step 5). Here, the nodding timing is a timing suitable for returning a response to the word when the other party speaks the word. The iRT technology for estimating the nodding timing using a linear prediction model of a speech time series (ON / OFF pattern) has already been developed by Prof. Tomio Watanabe, Faculty of Information Engineering, Okayama Prefectural University.

【0034】つまり、うなづきタイミング検出部21
は、40msec毎に、うなづきタイミングであるか否かの
判定を行い、うなづきタイミングであると判定した場合
には、うなづきタイミングであることを示すメッセージ
を感情モデル生成部40に送信する。
That is, the nodding timing detecting section 21
Makes a determination as to whether or not it is a nodding timing every 40 msec, and transmits a message indicating that it is the nodding timing to the emotion model generation unit 40 when it is determined that the nodding timing is reached.

【0035】入力音声の大きさ判定部22は、40msec
毎に、上記ステップ3で得られるAD変換値の平均値
を、3つのしきい値を用いてしきい値処理し、入力音声
の大きさを、大、中、小、無しの4種類に判別する。そ
して、大、中、小である場合に、そのことを示す判別信
号を出力する。この判別信号は、感情モデル生成部40
に送られる。
The input voice loudness determination unit 22 determines that the
Each time, the average value of the AD conversion values obtained in step 3 is subjected to threshold processing using three thresholds, and the loudness of the input voice is classified into four types: large, medium, small, and none. I do. Then, when the value is large, medium, or small, a determination signal indicating that fact is output. This discrimination signal is sent to the emotion model generation unit 40
Sent to

【0036】入力音声の有無判定部23は、1.6秒毎
に、上記ステップ4で得られるON/OFFパターンか
ら、ONパターンの割合を算出し、ONパターンの割合
が所定値(たとえば、0.5)より大きければ音声入力
有りの判別信号を、所定値以下であれば音声入力無しの
判別信号を出力する。この判別信号は、状態管理部50
に送られる。
The input voice presence / absence determination unit 23 calculates the ratio of the ON pattern from the ON / OFF pattern obtained in step 4 every 1.6 seconds, and determines the ratio of the ON pattern to a predetermined value (for example, 0). .5), a determination signal indicating that there is a voice input is output if the value is larger than a predetermined value. This determination signal is sent to the state management unit 50.
Sent to

【0037】〔5〕画像処理部30の説明[5] Description of Image Processing Unit 30

【0038】画像処理部30は、顔検出部31、顔の動
きの大きさ検出部32および暗検出部33を備えてい
る。
The image processing section 30 includes a face detecting section 31, a face motion magnitude detecting section 32, and a dark detecting section 33.

【0039】顔検出部31は、画像入力装置2からの入
力画像データに基づいて、まず、肌色領域を抽出する。
次に、抽出された肌色領域の大きさおよび形状に基づい
て、入力画像中に顔領域が存在するか否かを判定する。
そして、その判定結果を示すメッセージを感情モデル生
成部40および状態管理部50に送信する。顔検出部3
1による顔検出処理は所定時間間隔毎に行なわれる。
The face detecting section 31 first extracts a flesh color region based on the input image data from the image input device 2.
Next, it is determined whether or not a face area exists in the input image based on the size and shape of the extracted skin color area.
Then, a message indicating the determination result is transmitted to emotion model generation unit 40 and state management unit 50. Face detection unit 3
1 is performed at predetermined time intervals.

【0040】顔の動きの大きさ検出部32は、顔検出部
31によって顔領域が検出されている場合に、その顔領
域の動きの大きさを検出することによって、顔の動きの
大小を判定する。そして、その判定結果を示すメッセー
ジを感情モデル生成部40に送信する。顔の動きの大き
さ検出部32による顔の動きの大きさの検出処理は所定
時間間隔毎に行なわれる。
When the face area is detected by the face detecting section 31, the face motion magnitude detecting section 32 determines the magnitude of the face motion by detecting the magnitude of the movement of the face area. I do. Then, a message indicating the determination result is transmitted to emotion model generation unit 40. The processing of detecting the magnitude of the face motion by the face motion magnitude detection unit 32 is performed at predetermined time intervals.

【0041】暗検出部33は、画像入力装置2からの入
力画像データに基づいて、周囲が暗くなったことを検出
すると、そのことを示すメセージを状態管理部50に送
る。暗検出部33による暗検出処理は所定時間間隔毎に
行なわれる。
When detecting that the surroundings have become dark based on the input image data from the image input device 2, the dark detection unit 33 sends a message indicating this to the state management unit 50. The dark detection processing by the dark detection unit 33 is performed at predetermined time intervals.

【0042】状態管理部50には、危険/安全判定装置
3からのメッセージも送られる。危険/安全判定装置3
は、路面センサ3aによって路面が検出されているとき
には安全であることを示すメッセージを状態管理部50
に送信し、路面センサ3aによって路面が検出されなく
なったときには、危険であることを示すメッセージを状
態管理部50に送信する。
A message from the danger / safety determination device 3 is also sent to the state management unit 50. Danger / safety judgment device 3
Sends a message indicating safety when the road surface is detected by the road surface sensor 3a to the state management unit 50.
When the road surface is no longer detected by the road surface sensor 3a, a message indicating danger is transmitted to the state management unit 50.

【0043】〔6〕感情モデル生成部40の説明[6] Description of Emotion Model Generation Unit 40

【0044】ここでは、自動応答玩具は、幸福、悲し
み、怒りの3つの感情をもつものと仮定している。そし
て、幸福、悲しみ、怒り毎に、その度合いを表すパラメ
ータ(以下、感情パラメータという) LevelHap 、 Lev
elSad 、 LevelAng を持っている。
Here, it is assumed that the automatic response toy has three feelings of happiness, sadness, and anger. Then, for each happiness, sadness, and anger, a parameter indicating the degree (hereinafter referred to as an emotion parameter) Level Hap , Lev
Has el Sad and Level Ang .

【0045】各感情パラメータは、いくつかの感情を変
化させる要素(外部から与えられる刺激)によって、変
化していき、3つの感情パラメータの中で最も大きいも
のが、その時の感情となる。ただし、3つの感情パラメ
ータが全て同じである場合には、幸福であると判定して
いる。
Each emotion parameter changes according to some emotion-changing elements (stimuli given from the outside), and the largest of the three emotion parameters is the emotion at that time. However, if all three emotion parameters are the same, it is determined that the user is happy.

【0046】感情を変化させる要素としては、うなづき
タイミング検出部21によって検出されるうなづきタイ
ミング、入力音声の大きさ判定部22によって判定され
入力音声の大きさ、顔検出部31によって検出される
顔、および顔の動きの大きさ検出部32によって検出さ
れる顔の動きの大きさがある。うなづきタイミングは、
話が弾んでいるか否かの指標となり、うなづきタイミン
グの検出回数が多くなるほど話が弾んでいると解釈され
る。
Elements that change the emotion include a nodding timing detected by the nodding timing detecting section 21, a loudness of the input voice determined by the loudness determining section 22, a face detected by the face detecting section 31, and the like. And the magnitude of the face motion detected by the face motion magnitude detection unit 32. The nodding timing is
It is an index of whether or not the story is bouncing, and it is interpreted that the more times the nod timing is detected, the more bouncing the story.

【0047】たとえば、入力音声の声が中程度であり、
遊技者の顔が検出されている場合には、玩具側から見れ
ば楽しく話かけられておりかつ遊技者の顔が見えている
ので、幸福の度合いを示す感情パラメータ LevelHap
上昇し、自動応答玩具は幸福になる。
For example, the voice of the input voice is medium,
When the player's face is detected, since the player is talking happily from the toy's side and the player's face is visible, the emotion parameter Level Hap indicating the degree of happiness rises, and the automatic response Toys will be happy.

【0048】逆に、入力音声の声が小であり、遊技者の
顔が検出されていない場合には、玩具側から見れば寂し
く語られておりかつ遊技者の顔が見えないので悲しみの
度合いを示す感情パラメータ LevelSad が上昇し、自動
応答玩具は悲しむことになる。また、入力音声の声が大
である場合には、玩具側から見れば怒鳴られているの
で、怒りの度合いを示す感情パラメータ LevelAng が上
昇し、自動応答玩具は怒り状態となる。
On the other hand, when the voice of the input voice is low and the face of the player is not detected, the degree of sadness is utterly spoken from the toy side and the face of the player is not visible. The emotional parameter Level Sad increases, and the automatic answering toy becomes sad. When the input voice is loud, since the user is yelling when viewed from the toy side, the emotion parameter Level Ang indicating the degree of anger increases, and the automatic response toy is in an angry state.

【0049】図7は、感情モデル生成部40の処理手順
を示している。
FIG. 7 shows a processing procedure of the emotion model generation unit 40.

【0050】感情モデル生成部40は、感情を変化させ
る要素に基づいて、幸福の度合いを表す感情パラメータ
LevelHap 、悲しみの度合いを表す感情パラメータ Lev
elSa d および怒りの度合いを表す感情パラメータ Level
Ang を制御する。
The emotion model generation unit 40 generates an emotion parameter indicating the degree of happiness based on the element that changes the emotion.
Level Hap , the emotion parameter Lev that indicates the degree of sadness
emotion parameter Level representing the el Sa d and the degree of anger
Control Ang .

【0051】まず、各感情パラメータ LevelHap 、 Lev
elSad 、 LevelAng を初期設定する(ステップ11)。
各感情パラメータ LevelHap 、 LevelSad 、 LevelAng
は、0〜1000の間の値をとる。ステップ11の初期
設定では、各感情パラメータLevelHap 、 LevelSad
LevelAng が500(中立の値)に設定される。
First, each emotion parameter Level Hap , Lev
Initialize el Sad and Level Ang (step 11).
Each emotion parameter Level Hap , Level Sad , Level Ang
Takes a value between 0 and 1000. In the initial setting of step 11, each emotion parameter Level Hap , Level Sad ,
Level Ang is set to 500 (neutral value).

【0052】次に、うなづきタイミング検出部21、入
力音声の大きさ判定部22、顔検出部31または顔の動
きの大きさ検出部32からのメッセージを受信するのを
待機する(ステップ12)。
Next, it waits for a message from the nodding timing detecting section 21, the input voice loudness judging section 22, the face detecting section 31, or the face motion loudness detecting section 32 (step 12).

【0053】これらの各部のうちのいずれからのメッセ
ージを受信すると、受信した信号を解析して(ステップ
13)、各感情パラメータを算出する(ステップ1
4)。
When a message is received from any of these units, the received signal is analyzed (step 13), and each emotion parameter is calculated (step 1).
4).

【0054】算出した各感情パラメータのうち最も大き
い感情パラメータに対応する感情を、自動応答玩具の現
在の感情として応答動作制御部60に送信する(ステッ
プ15)。ただし、各感情パラメータが全て等しい場合
には、幸福を自動応答玩具の現在の感情として応答動作
制御部60に送信する。この後、ステップ12に戻る。
各感情パラメータは、次の数1に基づいて算出される。
The emotion corresponding to the largest emotion parameter among the calculated emotion parameters is transmitted to the response operation control unit 60 as the current emotion of the automatic response toy (step 15). However, if all the emotion parameters are equal, happiness is transmitted to the response operation control unit 60 as the current emotion of the automatic response toy. Thereafter, the process returns to step S12.
Each emotion parameter is calculated based on the following equation (1).

【0055】[0055]

【数1】 (Equation 1)

【0056】ここで、GainAll は、全体ゲインであり、
例えば1である。 PointLocal は、感情を変化させる要
素毎に予め定められたポイントである。GainHap 、Gain
Sad、 Gain Ang は、感情を変化させる要素毎に予め定
められたゲインである。
Here, Gain All is the overall gain,
For example, 1. Point Local is a point predetermined for each element that changes emotion. Gain Hap , Gain
Sad and Gain Ang are gains predetermined for each element that changes emotion.

【0057】PointLocal およびGainHap 、GainSad
Gain Ang は、たとえば、表1に示すように、設定され
ている。 PointLocal は、感情を変化させる要素の出現
頻度、感情変化における要素の重要度等により経験的に
決定している。GainHap 、GainSad 、 Gain Ang は、対
応する感情パラメータを上昇させる要素に関しては正の
値とし、それ以外は負の値としている。
Point Local and Gain Hap , Gain Sad ,
Gain Ang is set, for example, as shown in Table 1. Point Local is empirically determined based on the frequency of appearance of elements that change emotion, the importance of elements in emotion change, and the like. Gain Hap , Gain Sad , and Gain Ang are positive values for the element that increases the corresponding emotion parameter, and negative values for the other elements.

【0058】[0058]

【表1】 [Table 1]

【0059】たとえば、各感情パラメータ LevelHap
LevelSad 、 LevelAng が500である場合に、顔検出
部31からの顔が検出されたことを示すメッセージを受
信した場合には、 PointLocal =5、GainHap =+1、
GainSad =−1、 Gain Ang=−1であるから、 Point
Ctl =5、 LevelHap =505、 LevelSad =495、
Level Ang =495となる。この結果、幸福の度合いを
示す感情パラメータ LevelHap が上昇し、悲しみおよび
怒りの度合いを示す感情パラメータ LevelSad、 Level
Ang が下降する。
For example, each emotion parameter Level Hap ,
When Level Sad and Level Ang are 500 and a message indicating that a face is detected from the face detection unit 31 is received, Point Local = 5, Gain Hap = + 1,
Since Gain Sad = -1 and Gain Ang = -1, Point
Ctl = 5, Level Hap = 505, Level Sad = 495,
Level Ang = 495. As a result, the emotion parameter Level Hap indicating the degree of happiness increases, and the emotion parameters Level Sad and Level indicating the degree of sadness and anger.
Ang falls.

【0060】なお、メッセージを受信していない状態が
継続した場合には、それぞれの感情は落ちつくべきであ
るという考えから、各感情パラメータを中立の値(50
0)に近づくように制御することが好ましい。
When the state in which no message is received continues, each emotion parameter is set to a neutral value (50) based on the idea that each emotion should calm down.
It is preferable to control so as to approach 0).

【0061】感情を変化させる要素としては、上記実施
の形態では、うなづきタイミング検出部21によって検
出されるうなづきタイミング、入力音声の大きさ判定部
22によって判定され入力音声の大きさ、顔検出部31
によって検出される顔、および顔の動きの大きさ検出部
32によって検出される顔の動きの大きさがあるが、こ
れらの任意の組み合わせを感情を変化させる要素として
用いてもよい。
In the above-described embodiment, the nodding timing detected by the nodding timing detecting section 21, the loudness of the input voice determined by the loudness determining section 22, and the face detecting section 31
There is a face detected by the method and a magnitude of the face motion detected by the face motion magnitude detection unit 32. Any combination of these may be used as an element that changes the emotion.

【0062】〔7〕状態管理部50の説明[7] Description of State Management Unit 50

【0063】状態管理部50は、入力音声の有無判定部
23からのメッセージ、顔検出部31からのメッセー
ジ、暗検出部33からのメッセージおよび危険/安全判
定装置3からのメッセージをイベントとして、表2の状
態遷移表にしたがってインタラクション状態を遷移させ
ることにより、自動応答玩具のインタラクション状態を
決定する。そして、決定した自動応答玩具の現在のイン
タラクション状態を、応答動作制御部60に送信する。
The state management section 50 displays a message from the input voice presence / absence determination section 23, a message from the face detection section 31, a message from the dark detection section 33, and a message from the danger / safety determination device 3 as an event. The interaction state of the automatic response toy is determined by transiting the interaction state according to the state transition table of FIG. Then, the current interaction state of the determined automatic response toy is transmitted to the response operation control unit 60.

【0064】[0064]

【表2】 [Table 2]

【0065】この例では、自動応答玩具が取りうるイン
タラクション状態として、”会話中状態”、”会話中断
状態”、”自律行動状態”、”睡眠状態”および”緊急
状態”の5つの種類がある。
In this example, there are five types of interaction states that the automatic answering toy can take, namely, "conversation state", "conversation interruption state", "autonomous action state", "sleep state", and "emergency state". .

【0066】また、イベントとしては、入力音声の有無
判定部23によって検出される入力音声有りを示すイベ
ント、入力音声の有無判定部23によって検出される入
力音声無しを示すイベント、顔検出部31によって検出
される話者不在(顔が検出されていないこと)であるこ
とを示すイベント、暗検出部33によって検出される暗
いことを示すイベント、危険/安全判定装置3によって
検出される危険であることを示すイベントおよび、危険
/安全判定装置3によって判定される安全であることを
示すイベントがある。
The event includes an event indicating that there is an input voice detected by the input voice presence / absence determining unit 23, an event indicating that there is no input voice detected by the input voice presence / absence determining unit 23, and a face detection unit 31. An event indicating that the detected speaker is absent (no face has been detected), an event indicating that darkness is detected by the dark detection unit 33, and a danger detected by the danger / safety determination device 3. And an event indicating that the safety is determined by the danger / safety determination device 3.

【0067】例えば、インタラクション状態が”会話中
状態”であるときに、入力音声無しを示すイベントが発
生すると、”会話中断状態”に遷移する。この状態にお
いて、話者不在であることを示すイベントが発生する
と、”自律行動状態”に遷移する。
For example, when the event indicating that there is no input voice occurs while the interaction state is the “conversation state”, the state transits to the “conversation interruption state”. In this state, when an event indicating absence of a speaker occurs, the state transits to the “autonomous action state”.

【0068】また、インタラクション状態が”自律行動
状態”である場合に、危険であることを示すイベントが
発生すると、”緊急状態”に遷移する。この状態で、安
全であることを示すイベントが発生すると、遷移元の状
態、つまり、”自律行動状態”に遷移する。
If the event indicating danger occurs when the interaction state is "autonomous action state", the state transits to "emergency state". In this state, when an event indicating safety is generated, the state changes to the state of the transition source, that is, the “autonomous action state”.

【0069】また、インタラクション状態が”会話中断
状態”または”自律行動状態”である場合に、暗いこと
を示すイベントが発生すると、”睡眠状態”に遷移す
る。この状態で、入力音声有りを示すイベントが発生す
ると、”会話中状態”に遷移する。
When the event indicating darkness occurs in the case where the interaction state is the “conversation suspended state” or the “autonomous action state”, the state transits to the “sleep state”. In this state, when an event indicating the presence of the input voice occurs, the state transits to the “conversation state”.

【0070】なお、イベントとしては、少なくとも入力
音声の有無判定部23によって検出される入力音声有り
を示すイベントと入力音声の有無判定部23によって検
出される入力音声無しを示すイベント、顔検出部31に
よって検出される話者不在であることを示すイベントが
あればよい。
The event includes at least an event indicating that there is an input voice detected by the input voice presence / absence determining unit 23, an event indicating that there is no input voice detected by the input voice presence / absence determining unit 23, and the face detection unit 31. It is sufficient if there is an event indicating that the speaker is absent, which is detected by.

【0071】〔8〕応答動作制御部60の説明[8] Description of Response Operation Control Unit 60

【0072】応答動作制御部60は、感情モデル生成部
40によって決定された自動応答玩具の現在の感情と、
状態管理部50によって決定された現在のインタラクシ
ョン状態との組み合わせに応じた動作を、図8の応答動
作テーブルに基づいて決定し、決定した動作を自動応答
玩具に行なわせる。なお、図8には記載されていない
が、実際には、感情に応じた鳴き声、つまり、幸福であ
れば楽しげな鳴き声、悲しんでいる場合にはかなしげな
鳴き声、怒っている場合には怒っているような鳴き声が
音声出力装置6から出力される。
The response operation control unit 60 determines the current emotion of the automatic response toy determined by the emotion model generation unit 40,
The operation according to the combination with the current interaction state determined by the state management unit 50 is determined based on the response operation table in FIG. 8, and the determined operation is performed by the automatic response toy. Although not shown in FIG. 8, actually, the squeal according to the emotions, that is, a happy scream if happy, a sloppy call if sad, and a scream if angry. An angry call is output from the audio output device 6.

【0073】上記実施の形態では、応答動作制御部60
は、感情モデル生成部40によって決定された自動応答
玩具の現在の感情と、状態管理部50によって決定され
た現在のインタラクション状態との組み合わせに応じ
て、自動応答玩具の動作を決定しているが、自動応答玩
具の性格をも考慮して自動応答玩具の動作を決定しても
よい。
In the above embodiment, the response operation control unit 60
Determines the operation of the automatic response toy according to a combination of the current emotion of the automatic response toy determined by the emotion model generation unit 40 and the current interaction state determined by the state management unit 50. Alternatively, the operation of the automatic response toy may be determined in consideration of the characteristics of the automatic response toy.

【0074】すなわち、自動応答玩具の性格を設定する
ための性格設定部を設けておく。遊技者は自動応答玩具
の性格を好みに合わせて設定する。性格の種類として
は、たとえば、”怖がり”、”短気”、”優しい”、”
活発”、”おとなしい”等が用途される。また、各性格
毎に、図8に示すような応答動作テーブルが作成され
る。そして、設定されている性格に対する応答動作テー
ブルを用いて、自動応答玩具の動作を決定する。
That is, a personality setting unit for setting the personality of the automatic response toy is provided. The player sets the character of the automatic answering toy to his liking. Types of personality include, for example, "scared", "tempered", "gentle", "
For example, "active", "calm", etc. are used, and a response operation table as shown in Fig. 8 is created for each character, and an automatic response is performed using the response operation table for the set character. Determine the behavior of the toy.

【0075】たとえば、性格が”短気”に設定されてい
れば、話者不在で”自律行動状態”に遷移した場合にお
いて、”怒り”の感情がこみあげてくると、”激しく暴
れる”等のように荒々しい動作をおこさせる。
For example, if the personality is set to "temporarily", and if the state transitions to "autonomous action state" in the absence of a speaker, if the feeling of "anger" rises, it will be "violently violent". Cause rough movements.

【0076】また、性格が”おとなしい”に設定されて
いれば、話者不在で”自律行動状態”に遷移した場合に
おいて、”怒り”の感情がこみあげてくると、”唸り声
をあげる”等のように内に秘めた怒りの感情表現をおこ
させる。
Further, if the character is set to “gentle”, when the state changes to the “autonomous action state” in the absence of the speaker, when the emotion of “anger” is raised, “screaming” etc. The emotional expression of the anger hidden inside is caused to appear.

【0077】[0077]

【発明の効果】この発明によれば、外部からの刺激に基
づいて自動応答玩具の感情を決定することができるよう
になる。
According to the present invention, the emotion of the automatic response toy can be determined based on the stimulus from the outside.

【図面の簡単な説明】[Brief description of the drawings]

【図1】自動応答玩具の正面図である。FIG. 1 is a front view of an automatic response toy.

【図2】自動応答玩具の側面図である。FIG. 2 is a side view of the automatic response toy.

【図3】自動応答玩具の背面図である。FIG. 3 is a rear view of the automatic response toy.

【図4】自動応答玩具の電気的構成を示すブロック図で
ある。
FIG. 4 is a block diagram showing an electrical configuration of the automatic response toy.

【図5】中央演算装置10の機能を示す機能ブロック図
である。
FIG. 5 is a functional block diagram showing functions of the central processing unit 10.

【図6】うなづきタイミング検出部21の処理手順を示
すフローチャートである。
FIG. 6 is a flowchart showing a processing procedure of a nodding timing detecting section 21;

【図7】感情モデル生成部40の処理手順を示すフロー
チャートである。
FIG. 7 is a flowchart showing a processing procedure of an emotion model generation unit 40.

【図8】応答動作テーブルを示す模式図である。FIG. 8 is a schematic diagram showing a response operation table.

【符号の説明】[Explanation of symbols]

1a マイクロフォン 1 音声入力装置 2a CCDカメラ 2 画像入力装置 3a 路面センサ3a 3 危険/安全判定装置 4 駆動回路 5 各種駆動機構 6a スピーカ 6 音声出力装置 10 中央演算装置 11 記憶装置 20 音声処理部 30 画像処理部 40 感情モデル生成部 50 状態管理部 60 応答動作制御部 Reference Signs List 1a microphone 1 voice input device 2a CCD camera 2 image input device 3a road surface sensor 3a 3 danger / safety determination device 4 drive circuit 5 various drive mechanisms 6a speaker 6 voice output device 10 central processing unit 11 storage device 20 voice processing unit 30 image processing Unit 40 emotion model generation unit 50 state management unit 60 response operation control unit

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 音声入力手段、 画像入力手段、 音声入力手段に入力された音声に基づいて、感情を変化
させる要素を検出する第1の検出手段、 画像入力手段によって入力された画像に基づいて、感情
を変化させる要素を検出する第2の検出手段、ならびに
第1および第2の検出手段による検出結果に基づいて、
自動応答玩具の感情を決定する決定手段を備えている自
動応答玩具における感情決定装置。
An input unit configured to detect an element that changes an emotion based on a voice input to the voice input unit, based on an image input by the image input unit; , A second detection means for detecting an element that changes the emotion, and a detection result by the first and second detection means,
An emotion determination device for an automatic response toy, comprising a determination means for determining an emotion of the automatic response toy.
【請求項2】 第1の検出手段は、音声入力手段に入力
された音声に基づいて、所定の時間間隔毎に入力音声の
大きさを判別する手段を備えており、第2の検出手段
は、画像入力手段によって入力された画像に基づいて、
所定時間間隔毎に顔が検出されたか否かを判別する手段
を備えている請求項1に記載の自動応答玩具における感
情決定装置。
2. The method according to claim 1, wherein the first detecting unit includes a unit that determines a loudness of the input voice at predetermined time intervals based on the voice input to the voice input unit. , Based on the image input by the image input means,
The emotion determination device for an automatic response toy according to claim 1, further comprising means for determining whether a face is detected at predetermined time intervals.
【請求項3】 第1の検出手段は、音声入力手段に入力
された音声に基づいて、所定の時間間隔毎に入力音声の
大きさを判別する手段および音声入力手段に入力された
音声に基づいて、所定の時間間隔毎にうなづきタイミン
グであるか否かを判別する手段を備えており、第2の検
出手段は、画像入力手段によって入力された画像に基づ
いて、所定時間間隔毎に顔が検出されたか否かを判別す
る手段を備えている請求項1に記載の自動応答玩具にお
ける感情決定装置。
3. The first detecting means includes means for judging the volume of the input voice at predetermined time intervals based on the voice input to the voice input means, and based on the voice input to the voice input means. Means for determining whether or not it is a nodding timing at predetermined time intervals. The second detecting means detects a face at predetermined time intervals based on the image input by the image input means. The emotion determination device for an automatic response toy according to claim 1, further comprising means for determining whether or not the emotion is detected.
【請求項4】 第1の検出手段は、音声入力手段に入力
された音声に基づいて、所定の時間間隔毎に入力音声の
大きさを判別する手段を備えており、第2の検出手段
は、画像入力手段によって入力された画像に基づいて、
所定時間間隔毎に顔が検出されたか否かを判別する手段
および画像入力手段によって入力された画像に基づい
て、所定時間間隔毎に顔の動きの大きさを判別する手段
を備えている請求項1に記載の自動応答玩具における感
情決定装置。
4. The first detecting means includes means for determining a loudness of the input voice at predetermined time intervals based on the voice input to the voice input means, and the second detecting means includes: , Based on the image input by the image input means,
Means for determining whether or not a face has been detected at predetermined time intervals, and means for determining the magnitude of face movement at predetermined time intervals based on an image input by the image input means. 2. The emotion determination device in the automatic response toy according to 1.
【請求項5】 第1の検出手段は、音声入力手段に入力
された音声に基づいて、所定の時間間隔毎に入力音声の
大きさを判別する手段および音声入力手段に入力された
音声に基づいて、所定の時間間隔毎にうなづきタイミン
グであるか否かを判別する手段を備えており、第2の検
出手段は、画像入力手段によって入力された画像に基づ
いて、所定時間間隔毎に顔が検出されたか否かを判別す
る手段および画像入力手段によって入力された画像に基
づいて、所定時間間隔毎に顔の動きの大きさを判別する
手段を備えている請求項1に記載の自動応答玩具におけ
る感情決定装置。
5. A first detecting means for determining a loudness of an input voice at predetermined time intervals based on a voice input to the voice input means and a voice based on the voice input to the voice input means. Means for determining whether or not it is a nodding timing at predetermined time intervals. The second detecting means detects a face at predetermined time intervals based on the image input by the image input means. 2. The automatic response toy according to claim 1, further comprising: means for determining whether or not the face is detected, and means for determining the magnitude of the face movement at predetermined time intervals based on an image input by the image input means. Emotion determination device in
【請求項6】 決定手段は、第1および第2の検出手段
によって検出された要素に基づいて、幸福の度合いを表
す感情パラメータ、悲しみの度合いを表す感情パラメー
タおよび怒りの度合いを表す感情パラメータをそれぞれ
算出し、これらの感情パラメータの中で最も大きなもの
に対応する感情を、自動応答玩具の感情として決定する
請求項1、2、3、4および5のいずれかに記載の自動
応答玩具における感情決定装置。
6. The determining means determines, based on the elements detected by the first and second detecting means, an emotion parameter representing a degree of happiness, an emotion parameter representing a degree of sadness, and an emotion parameter representing a degree of anger. The emotion in the automatic response toy according to any one of claims 1, 2, 3, 4, and 5, wherein the emotion corresponding to the largest of these emotion parameters is calculated as the emotion of the automatic response toy. Decision device.
【請求項7】 決定手段は、各感情を変化させる要素毎
に予め設定されたポイント値と、各感情を変化させる要
素毎にかつ各感情パラメータ毎に予め設定されたゲイン
とを用いて、各感情パラメータをそれぞれ算出するもの
である請求項6に記載の自動応答玩具における感情決定
装置。
7. The determination means uses a point value preset for each element that changes each emotion and a gain preset for each element that changes each emotion and for each emotion parameter. The emotion determining apparatus for an automatic response toy according to claim 6, wherein the emotion parameter is calculated.
【請求項8】 外部からの刺激に基づいて自動応答玩具
の感情を決定する感情決定手段、 外部からの刺激に基づいて自動応答玩具の現在のインタ
ラクション状態を決定する状態決定手段、ならびに感情
決定手段によって判別された自動応答玩具の現在の感情
と、状態決定手段によって決定された現在のインタラク
ション状態との組み合わせに応じた動作を自動応答玩具
に行なわせる応答動作制御手段とを備えており、 感情決定手段は、 音声入力手段、 画像入力手段、 音声入力手段に入力された音声に基づいて、感情を変化
させる要素を検出する第1の検出手段、 画像入力手段によって入力された画像に基づいて、感情
を変化させる要素を検出する第2の検出手段、ならびに
第1および第2の検出手段による検出結果に基づいて、
自動応答玩具の感情を決定する決定手段を備えている自
動応答玩具。
8. An emotion determining means for determining an emotion of the automatic response toy based on an external stimulus, a state determining means for determining a current interaction state of the automatic response toy based on an external stimulus, and an emotion determining means Response operation control means for causing the automatic response toy to perform an operation in accordance with a combination of the current emotion of the automatic response toy determined by the current interaction state and the current interaction state determined by the state determination means. Means, voice input means, image input means, first detection means for detecting an element that changes emotion based on voice input to the voice input means, emotion detection based on an image input by the image input means. Based on a detection result by the second detection means for detecting an element that changes
An automatic response toy comprising a determination means for determining an emotion of the automatic response toy.
【請求項9】 第1の検出手段は、音声入力手段に入力
された音声に基づいて、所定の時間間隔毎に入力音声の
大きさを判別する手段を備えており、第2の検出手段
は、画像入力手段によって入力された画像に基づいて、
所定時間間隔毎に顔が検出されたか否かを判別する手段
を備えている請求項8に記載の自動応答玩具。
9. The first detecting means includes means for determining a loudness of the input voice at predetermined time intervals based on the voice input to the voice input means, and the second detecting means includes: , Based on the image input by the image input means,
9. The automatic response toy according to claim 8, further comprising: means for determining whether a face is detected at predetermined time intervals.
【請求項10】 第1の検出手段は、音声入力手段に入
力された音声に基づいて、所定の時間間隔毎に入力音声
の大きさを判別する手段および音声入力手段に入力され
た音声に基づいて、所定の時間間隔毎にうなづきタイミ
ングであるか否かを判別する手段を備えており、第2の
検出手段は、画像入力手段によって入力された画像に基
づいて、所定時間間隔毎に顔が検出されたか否かを判別
する手段を備えている請求項8に記載の自動応答玩具に
おける感情決定装置。
10. A first detecting means for determining a loudness of an input voice at predetermined time intervals based on a voice input to the voice input means and a voice based on the voice input to the voice input means. Means for determining whether or not it is a nodding timing at predetermined time intervals. The second detecting means detects a face at predetermined time intervals based on the image input by the image input means. 9. The emotion determination device for an automatic response toy according to claim 8, further comprising means for determining whether or not the emotion is detected.
【請求項11】 第1の検出手段は、音声入力手段に入
力された音声に基づいて、所定の時間間隔毎に入力音声
の大きさを判別する手段を備えており、第2の検出手段
は、画像入力手段によって入力された画像に基づいて、
所定時間間隔毎に顔が検出されたか否かを判別する手段
および画像入力手段によって入力された画像に基づい
て、所定時間間隔毎に顔の動きの大きさを判別する手段
を備えている請求項8に記載の自動応答玩具における感
情決定装置。
11. The first detecting means includes means for determining a loudness of the input voice at predetermined time intervals based on the voice input to the voice input means, and the second detecting means includes: , Based on the image input by the image input means,
Means for determining whether or not a face has been detected at predetermined time intervals, and means for determining the magnitude of face movement at predetermined time intervals based on an image input by the image input means. An emotion determination device for an automatic response toy according to claim 8.
【請求項12】 第1の検出手段は、音声入力手段に入
力された音声に基づいて、所定の時間間隔毎に入力音声
の大きさを判別する手段および音声入力手段に入力され
た音声に基づいて、所定の時間間隔毎にうなづきタイミ
ングであるか否かを判別する手段を備えており、第2の
検出手段は、画像入力手段によって入力された画像に基
づいて、所定時間間隔毎に顔が検出されたか否かを判別
する手段および画像入力手段によって入力された画像に
基づいて、所定時間間隔毎に顔の動きの大きさを判別す
る手段を備えている請求項8に記載の自動応答玩具。
12. A first detecting means for determining a loudness of an input voice at predetermined time intervals based on a voice input to the voice input means, and a first detecting means for determining a loudness of the voice input to the voice input means. Means for determining whether or not it is a nodding timing at predetermined time intervals. The second detecting means detects a face at predetermined time intervals based on the image input by the image input means. 9. The automatic response toy according to claim 8, further comprising: means for determining whether or not the face has been detected, and means for determining the magnitude of the face movement at predetermined time intervals based on an image input by the image input means. .
【請求項13】 決定手段は、第1および第2の検出手
段によって検出された要素に基づいて、幸福の度合いを
表す感情パラメータ、悲しみの度合いを表す感情パラメ
ータおよび怒りの度合いを表す感情パラメータをそれぞ
れ算出し、これらの感情パラメータの中で最も大きなも
のに対応する感情を、自動応答玩具の感情として決定す
る請求項8、9、10、11および12のいずれかに記
載の自動応答玩具。
13. A determining means for converting an emotion parameter representing a degree of happiness, an emotion parameter representing a degree of sadness, and an emotion parameter representing a degree of anger based on the elements detected by the first and second detection means. The automatic response toy according to any one of claims 8, 9, 10, 11 and 12, wherein the emotion corresponding to the largest of these emotion parameters is calculated as the emotion of the automatic response toy.
【請求項14】 決定手段は、各感情を変化させる要素
毎に予め設定されたポイント値と、各感情を変化させる
要素毎にかつ各感情パラメータ毎に予め設定されたゲイ
ンとを用いて、各感情パラメータをそれぞれ算出するも
のである請求項13に記載の自動応答玩具における感情
決定装置。
14. The determining means uses a point value set in advance for each element that changes each emotion and a gain set in advance for each element that changes each emotion and for each emotion parameter. The emotion determination device for an automatic response toy according to claim 13, wherein the emotion parameter is calculated respectively.
JP2001036802A 2001-02-14 2001-02-14 Emotion determination device in automatic response toy and automatic response toy Pending JP2002239256A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001036802A JP2002239256A (en) 2001-02-14 2001-02-14 Emotion determination device in automatic response toy and automatic response toy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001036802A JP2002239256A (en) 2001-02-14 2001-02-14 Emotion determination device in automatic response toy and automatic response toy

Publications (1)

Publication Number Publication Date
JP2002239256A true JP2002239256A (en) 2002-08-27

Family

ID=18900028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001036802A Pending JP2002239256A (en) 2001-02-14 2001-02-14 Emotion determination device in automatic response toy and automatic response toy

Country Status (1)

Country Link
JP (1) JP2002239256A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015154343A (en) * 2014-02-17 2015-08-24 富士通株式会社 Conversation assisting program, conversation assisting method, and conversation system
JP2016012342A (en) * 2014-06-05 2016-01-21 ソフトバンク株式会社 Action control system and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143351A (en) * 1996-11-13 1998-05-29 Sharp Corp Interface unit
JPH10289006A (en) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd Method for controlling object to be controlled using artificial emotion
JPH11179061A (en) * 1997-12-01 1999-07-06 Chin Kyo Stuffed doll provided with eye of lcd
WO2000032361A1 (en) * 1998-11-30 2000-06-08 Sony Corporation Robot, method of robot control, and program recording medium
JP2001025984A (en) * 1999-05-10 2001-01-30 Sony Corp Robot device, its control method and recording medium
JP2001188555A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for information processing and recording medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143351A (en) * 1996-11-13 1998-05-29 Sharp Corp Interface unit
JPH10289006A (en) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd Method for controlling object to be controlled using artificial emotion
JPH11179061A (en) * 1997-12-01 1999-07-06 Chin Kyo Stuffed doll provided with eye of lcd
WO2000032361A1 (en) * 1998-11-30 2000-06-08 Sony Corporation Robot, method of robot control, and program recording medium
JP2001025984A (en) * 1999-05-10 2001-01-30 Sony Corp Robot device, its control method and recording medium
JP2001188555A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for information processing and recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015154343A (en) * 2014-02-17 2015-08-24 富士通株式会社 Conversation assisting program, conversation assisting method, and conversation system
JP2016012342A (en) * 2014-06-05 2016-01-21 ソフトバンク株式会社 Action control system and program

Similar Documents

Publication Publication Date Title
US10702991B2 (en) Apparatus, robot, method and recording medium having program recorded thereon
JP4465768B2 (en) Speech synthesis apparatus and method, and recording medium
CN109120790B (en) Call control method and device, storage medium and wearable device
JP5982840B2 (en) Dialogue device, dialogue program, and dialogue method
CN110609620B (en) Human-computer interaction method and device based on virtual image and electronic equipment
JP6818280B2 (en) Dialogue system, dialogue method, dialogue device, and program
US7065711B2 (en) Information processing device and method, and recording medium
JP7119896B2 (en) Communication robot and communication robot control program
JP6719739B2 (en) Dialogue method, dialogue system, dialogue device, and program
CN109262606B (en) Apparatus, method, recording medium, and robot
CN110774285A (en) Humanoid robot and method for executing dialogue between humanoid robot and user
JP6583765B2 (en) Agent dialogue system and program
WO2022033236A1 (en) Audio enhancement method and apparatus, storage medium, and wearable device
JP2013099823A (en) Robot device, robot control method, robot control program and robot system
JP2019217122A (en) Robot, method for controlling robot and program
CN111475206A (en) Method and apparatus for waking up wearable device
CN107623622A (en) A kind of method and electronic equipment for sending speech animation
JP2005313308A (en) Robot, robot control method, robot control program, and thinking device
CN112185422B (en) Prompt message generation method and voice robot thereof
JP7225642B2 (en) Communication robot, control method and control program
CN109754816A (en) A kind of method and device of language data process
JP2002239256A (en) Emotion determination device in automatic response toy and automatic response toy
JP2002239257A (en) Interactive state determination device in automatic response toy and automatic response toy
JP2021117371A (en) Information processor, information processing method and information processing program
TW202347096A (en) Smart glass interface for impaired users or users with disabilities

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041005

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050302