JP3018865B2 - Emotion expression device - Google Patents

Emotion expression device

Info

Publication number
JP3018865B2
JP3018865B2 JP5251462A JP25146293A JP3018865B2 JP 3018865 B2 JP3018865 B2 JP 3018865B2 JP 5251462 A JP5251462 A JP 5251462A JP 25146293 A JP25146293 A JP 25146293A JP 3018865 B2 JP3018865 B2 JP 3018865B2
Authority
JP
Japan
Prior art keywords
expression
emotion
style
unit
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5251462A
Other languages
Japanese (ja)
Other versions
JPH07104778A (en
Inventor
浩史 川本
賢悟 大村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP5251462A priority Critical patent/JP3018865B2/en
Publication of JPH07104778A publication Critical patent/JPH07104778A/en
Application granted granted Critical
Publication of JP3018865B2 publication Critical patent/JP3018865B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は人工感情を持ち、その感
情状態に従って表情や音声を変化させて出力する感情表
出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an emotion expression device which has artificial emotions and changes and outputs facial expressions and voices according to the emotional state.

【0002】[0002]

【従来の技術】『心をもった機械』という著書の中で、
戸田正直が指摘しているように(1987年)、コンピ
ュータやロボット等の機械が、人間と同じような感情を
もち、喜んだり、悲しんだり、人を思いやったりするこ
とができれば、人間と機械とのコミュニケーションは、
いまよりずっと暖かで、楽しくなり、また人間にとって
親しみやすいものになるものと思われる。
2. Description of the Related Art In a book entitled Machine with Heart,
As Masahide Toda pointed out (1987), if machines such as computers and robots have the same emotions as human beings, and can be happy, sad, and caring for humans, humans and machines The communication of
It will be much warmer, more fun, and more human friendly.

【0003】機械、特に対話システムに人工感情を与え
ようという試みの背後には、このような実用的な期待が
ある。現在までに様々な感情表出装置が提案されている
が、それらの多くは、基本的には次のような構成をとっ
ている。以下、図14を用いて、従来の感情表出装置の
一例について簡単に説明する。
[0003] There is such a practical expectation behind attempts to provide artificial emotions to machines, especially dialog systems. To date, various emotion expression devices have been proposed, and most of them have basically the following configuration. Hereinafter, an example of a conventional emotion expression device will be briefly described with reference to FIG.

【0004】なお、この種の感情表出装置は音声対話装
置などの対話システムに組み込まれて利用されるが、こ
こでは煩雑を避けるために対話システムについては言及
しない。図14は従来の感情表出装置の一例を説明する
基本構成図であって、01は入力、02は認識部、03
は感情喚起部、04は表情・音声合成部、05は出力で
ある。
[0004] Although this type of emotion expression device is used by being incorporated into a dialogue system such as a voice dialogue device, the dialogue system will not be described here to avoid complication. FIG. 14 is a basic configuration diagram illustrating an example of a conventional emotion expression device, where 01 is an input, 02 is a recognition unit, 03
Is an emotion eliciting unit, 04 is an expression / speech synthesis unit, and 05 is an output.

【0005】同図において、感情表出装置への入力情報
01は認識部02においてその意味が認識される。認識
された意味が予め規定された感情喚起入力に該当する場
合には、感情喚起部03において、例えば、「感情喚起
入力Xを認知したなら、感情成分Yの強度をZだけ増加
せよ」等の規則に従って、感情喚起部03に内在する感
情状態レジスタの強度値の書き換えを行なう。
[0005] In FIG. 1, the meaning of input information 01 to the emotion expression device is recognized by a recognition unit 02. If the recognized meaning corresponds to a pre-specified emotion-evoking input, the emotion-evoking unit 03 may increase the intensity of the emotion component Y by Z if the emotion-evoking input X is recognized. According to the rules, the intensity value of the emotional state register included in the emotional arousal unit 03 is rewritten.

【0006】ここで、感情状態レジスタとは、例えば、
“驚き、恐れ、嫌悪、怒り、幸福、悲しみ”といった感
情成分の強度値を記憶するレジスタのことである。感情
状態レジスタの強度値は、上記したように感情喚起入力
が認知される度に感情喚起規則に従って変更されるが、
先行感情の状態や各基本感情間の相互作用などの要因に
よっても変動するように設定される場合もある。
Here, the emotion state register is, for example,
This register stores the intensity value of the emotion component such as “surprise, fear, disgust, anger, happiness, sadness”. The intensity value of the emotional state register is changed according to the emotional arousal rule each time the emotional arousal input is recognized as described above,
In some cases, it is set to fluctuate depending on factors such as the state of the preceding emotion and the interaction between the basic emotions.

【0007】また、通常、喚起された感情を定常状態に
戻すために、感情状態レジスタの強度値を時間経過に伴
って減衰させる工夫が施されることが多い。さて、表情
・音声合成部04は、感情状態レジスタ内のいずれかの
感情成分の強度値が前もって規定された表出閾値を越え
た場合にはその感情に対応した表情や音声を合成する
が、そうでない場合には無感情の表情と感情的な抑揚の
ない音声を合成する。合成された表情や音声は、表示装
置や音声出力装置を介して対話者に出力(05)され
る。
[0007] In addition, in order to return the evoked emotions to a steady state, there are many cases in which the intensity value of the emotion state register is attenuated over time. Now, when the intensity value of any emotion component in the emotion state register exceeds the expression threshold defined in advance, the expression / speech synthesis unit 04 synthesizes an expression or voice corresponding to the emotion. Otherwise, it synthesizes an emotionless expression and a voice without emotional inflection. The synthesized expression and voice are output (05) to the interlocutor via the display device or voice output device.

【0008】なお、このような感情表出装置に関する技
術の詳細は、例えば、「情報処理学会第45回(平成4
年度後期)全国大会講演論文集、2」の『擬人化エージ
ェントの感情モデル』(川本浩史、大村賢悟著)の記事
や、「日本認知科学会1992年度定例シンポジウム論
文集、感情の認知科学」の『調和理論による人工感情』
(原文雄、茂木秀介著)に報告されている。
[0008] For details of the technology related to such an emotion expression device, see, for example, “Information Processing Society of Japan 45th (Heisei 4)
"Letters of National Conventions 2", "Emotion Model of Anthropomorphic Agents" (Hiroshi Kawamoto, Kengo Omura), and "Japanese Cognitive Science Association 1992 Regular Symposium, Cognitive Science of Emotions". "Artificial Emotions by Harmony Theory"
(Written by Fumio Hara and Shusuke Mogi).

【0009】[0009]

【発明が解決しようとする課題】しかし、上記従来の感
情表出装置においては、以下のような問題点がある。 (1)従来の感情表出装置には、利用者が自分の好み
や、好みの変化に合わせて当該感情表出装置の感情表出
スタイルを自在に設定、変更できるような手段が提供さ
れていない。
However, the above-mentioned conventional emotion expression device has the following problems. (1) The conventional emotion expression device is provided with a means by which a user can freely set and change the emotion expression style of the emotion expression device according to his / her taste or change in taste. Absent.

【0010】例えば、喜びの感情は頻繁に表出するが、
嫌悪、怒り、悲しみの感情は滅多に表出しないようなス
タイルに変更したくとも、それを許さないのである。そ
こで、本発明の第1の目的は、感情表出装置の感情表出
スタイルを利用者が自在に設定、変更できるようにする
点にある。 (2)従来の感情表出装置は、対話相手、状況、話題、
過去の対話量等の違いに基づき、感情表出の傾向を適切
なものに自動的に変化させることができない。すなわ
ち、所謂「表示規則」に基づく感情表出の制御機能を具
備しない。
[0010] For example, the emotion of joy often appears,
I don't want to change my style of disgust, anger, and sadness so that it rarely appears. Therefore, a first object of the present invention is to allow a user to freely set and change the emotion expression style of the emotion expression device. (2) A conventional emotion expression device is a device for communicating with a conversation partner, a situation, a topic,
The tendency of emotional expression cannot be automatically changed to an appropriate one based on a difference in the past conversation amount or the like. That is, it does not have a function of controlling emotional expression based on so-called “display rules”.

【0011】ここで「表示規則」とは、本来、様々な社
会的な場面や役割などのもとで、人がどのように感情表
出を行えばよいかについての社会的、文化的規範や因習
をいう。感情表出装置も人間と対話する以上、表示規則
を遵守することが好ましいが、既存の装置ではそれがで
きないのである。なお、上記したように、表示規則は本
来社会的に規定されるものであるが、感情表出装置の場
合には、利用者自身がその表示規則を規定できれば便利
である。
[0011] Here, the "display rules" are originally defined as social and cultural norms on how to express emotions in various social situations and roles. We say custom. It is preferable that the emotion expression device also complies with the display rules as long as it interacts with humans, but the existing device cannot do so. As described above, the display rules are originally defined socially. However, in the case of an emotion expression device, it is convenient if the user can define the display rules.

【0012】そこで、本発明の第2の目的は、対話相
手、状況、過去の対話量等の違いに基づき、感情表出の
傾向を適切なものに自動的に変更することができるよう
にする点にある。
Therefore, a second object of the present invention is to automatically change the tendency of emotional expression to an appropriate one based on a difference in a conversation partner, a situation, a past conversation amount, and the like. On the point.

【0013】[0013]

【課題を解決するための手段】上記第1の目的を達成す
るために、本発明の感情表出装置は、図1に示すよう
に、予め規定された感情喚起情報を認知する感情喚起情
報認識手段2と、“驚き、恐れ、嫌悪、怒り、幸福、悲
しみ”等の各感情成分に感情強度を反映させた数量を与
えることで全体の感情状態を表現し、感情喚起情報が認
知された場合には、予め規定された感情状態遷移規則に
則してその感情状態を遷移せしめる感情喚起手段3と、
感情喚起手段により規定された感情状態に対応づけて表
情や音声の韻律を変化させて出力する表情・音声合成手
段4と、感情成分別にそれぞれの表出閾値を指定するこ
とにより装置の感情表出スタイルの設定または変更を行
なう表出スタイル設定手段6−1と、前記表出スタイル
設定手段に6−1おいて設定された表出閾値を保持する
表出スタイル記憶手段6−21を内在し、そこに保持さ
れた表出閾値と前記感情喚起手段3において規定された
感情状態とを比較して表出すべき表情や音声を決定する
表出内容決定手段6−2と、前記表出スタイル設定手段
において設定された表出閾値を複数記憶・保存すること
ができる表出スタイル群保持手段6−3を備えたことを
特徴とする。
In order to achieve the first object, an emotion expression device of the present invention, as shown in FIG. 1, has an emotion-evoking information recognition device for recognizing predetermined emotion-evoking information. Means 2 and each emotion component such as "surprise, fear, disgust, anger, happiness, and sadness" are given a quantity reflecting the emotion intensity to express the overall emotional state, and the emotional arousal information is recognized. Includes an emotion evoking means 3 for transiting the emotional state in accordance with a predetermined emotional state transition rule;
Expression / speech synthesis means 4 for changing and outputting facial expressions and voice prosody in correspondence with the emotional state specified by the emotion evoking means, and emotion expression of the apparatus by designating each expression threshold for each emotion component A presentation style setting unit 6-1 for setting or changing a style, and a presentation style storage unit 6-21 for holding a presentation threshold set in the presentation style setting unit 6-1 are included. An expression content determining means 6-2 for comparing the expression threshold held therein with the emotional state specified by the emotion evoking means 3 to determine an expression or voice to be expressed, and an expression style setting means Is provided with an expression style group holding unit 6-3 capable of storing and storing a plurality of expression thresholds set in the above.

【0014】また、上記第2の目的を達成するために、
本発明の感情表出装置は、図1に示すように、対話相手
を識別,同定する話者同定手段6−41と、前記話者同
定手段6−41により同定された話者との過去の対話回
数又は対話総時間を計測しそれを記録する対話量記憶手
段6−42と、予め範疇化された複数の状況から目下の
状況を特定する状況認識手段6−43と、対話相手,対
話量,状況の違いに基づいて前記表出スタイル群保持手
段6−3に記憶されている表出閾値集合の中から特定の
表出閾値を読み出して、前記表出スタイル記憶手段6−
21にセットする表出スタイル変更手段6−5とを備え
たことを特徴とする。なお、ここで、表出スタイル変更
手段6−5は、予め規定されたいくつかの変換式の中か
ら特定の変換式を選択して、それを前記表出スタイル記
憶手段6−21に記憶されている表出閾値に適応するこ
とにより直接書き換える方式をとることもできる。
Further, in order to achieve the second object,
As shown in FIG. 1, the emotion expression device of the present invention includes a speaker identification unit 6-41 for identifying and identifying a conversation partner and a past history of the speaker identified by the speaker identification unit 6-41. A dialogue amount storage means 6-42 for measuring and recording the number of dialogues or a total dialogue time; a situation recognition means 6-43 for identifying a current situation from a plurality of situations categorized in advance; A specific expression threshold is read out from the expression threshold set stored in the expression style group holding means 6-3 based on the difference in the situation, and the expression style storage means 6-3 is read out.
21. An expression style changing means 6-5 set to 21. Here, the expression style changing means 6-5 selects a specific conversion equation from some predetermined conversion equations, and stores it in the expression style storage means 6-21. It is also possible to adopt a method of directly rewriting by adapting to the present expression threshold.

【0015】[0015]

【作用】前記第1の目的を達成するための感情表出装置
において、感情喚起情報認識手段2は、入力情報1の中
から予め規定された感情喚起情報を認識する。感情喚起
手段3は、前記感情喚起情報認識手段2の認識結果と予
め規定された感情状態遷移規則に基づいて、“驚き、恐
れ、嫌悪、怒り、幸福、悲しみ”等の各感情成分に付与
された強度値パターンを変化せしめ、これにより現在の
感情状態を規定する。
In the emotion expression device for achieving the first object, the emotion-recognition-information recognizing means 2 recognizes predetermined emotion-reduction information from the input information 1. The emotion-evoking means 3 is provided to each emotion component such as "surprise, fear, disgust, anger, happiness, sadness" based on the recognition result of the emotion-evoking information recognizing means 2 and a predetermined emotion state transition rule. The intensity value pattern is changed to define the current emotional state.

【0016】一方、表出スタイル設定手段6−1は、各
感情成分に対応する表出閾値の設定を利用者7に許し、
それによって全体の表出スタイルを規定する。表出スタ
イル記憶手段6−21は前記表出スタイル設定手段6−
1において設定された表出閾値を保持する。表出内容決
定手段6−2は、前記感情喚起手段3によって規定され
た各感情成分の強度値と前記表出スタイル記憶手段6−
21において保持された各感情成分の表出閾値を比較参
照して予め規定された規則に従って、表出すべき表情と
音声の種類を決定する。
On the other hand, the expression style setting means 6-1 allows the user 7 to set an expression threshold value corresponding to each emotion component,
It defines the overall expression style. The expression style storage means 6-21 stores the expression style setting means 6-
The expression threshold set in 1 is held. The expression content deciding means 6-2 includes an intensity value of each emotion component defined by the emotion eliciting means 3 and the expression style storage means 6-6.
The expression threshold and the type of voice to be expressed are determined according to a predetermined rule with reference to the expression threshold of each emotion component held at 21.

【0017】表情・音声合成手段4は、前記表出内容決
定手段6−2の決定に基づいて表情と音声を合成して出
力する。なお、表出スタイル群保持手段6−3は、幾つ
かの代表的な表出スタイルを反映するような表出閾値パ
ターンを保持するとともに、前記表出スタイル設定手段
6−1において設定された表出閾値パターンも保持す
る。
The expression / speech synthesizing means 4 synthesizes and outputs the expression and the speech based on the determination of the expression content determining means 6-2. The expression style group holding unit 6-3 holds an expression threshold pattern that reflects some representative expression styles, and sets the table set by the expression style setting unit 6-1. The output threshold pattern is also held.

【0018】利用者7は、前記表出スタイル設定手段6
−1を介して、表出スタイル群保持手段6−3から特定
の表出閾値パターンを読み出して、前記表出スタイル記
憶手段6−21にセットすることができる。また、前記
第2の目的を達成するための感情表出装置において、話
者同定手段6−41は、対話相手を識別,同定する。
The user 7 sets the expression style setting means 6
A specific expression threshold pattern can be read out from the expression style group holding means 6-3 via -1 and set in the expression style storage means 6-21. Further, in the emotion expression device for achieving the second object, the speaker identification means 6-41 identifies and identifies a conversation partner.

【0019】対話量記憶手段6−42は、前記話者同定
手段6−41により同定された話者との過去の対話回数
又は対話総時間を計測しそれを記録する。また、状況認
識手段6−43は、予め範疇化された複数の状況から目
下の状況を認識する。表出スタイル変更手段6−5は、
これらの認識結果と予め規定された規則(表示規則)に
則して、前記表出スタイル群保持手段に記憶された表出
閾値集合の中から特定の表出閾値を読み出してそれを前
記表出スタイル記憶手段6−21にセットするか、ある
いは、予め規定されたいくつかの変換式の中から特定の
変換式を適用して、前記表出スタイル記憶手段6−21
に記憶されている表出閾値を直接書き換えることによっ
て、対話相手、対話量、状況の違いに基づいて、表示ス
タイルを自動変更することができる。
The conversation amount storage means 6-42 measures and records the number of past conversations or the total conversation time with the speaker identified by the speaker identification means 6-41. Further, the situation recognition means 6-43 recognizes the current situation from a plurality of situations that are categorized in advance. The expression style changing means 6-5 includes:
In accordance with these recognition results and a predetermined rule (display rule), a specific expression threshold is read out from the expression threshold set stored in the expression style group holding means, and is read out from the expression threshold. The expression style storage means 6-21 is set in the style storage means 6-21, or a specific conversion equation is applied from some predetermined conversion equations.
, The display style can be automatically changed based on the difference between the conversation partner, the conversation amount, and the situation.

【0020】[0020]

【実施例】以下、本発明の実施例につき、図面を参照し
て詳細に説明する。本実施例は、本発明による感情表出
システムを、音声対話型電子秘書に応用したものであ
る。図2は音声対話型電子秘書のシステムを説明するブ
ロック図であって、7は利用者、8は話者特定部、9は
発話理解部、10は意図推定部、11はタスク遂行部、
12は秘書タスク管理情報データベース、13は感情管
理部、14は音声合成/画像表示部、15は音声データ
格納部、16は表情画像データ格納部である。
Embodiments of the present invention will be described below in detail with reference to the drawings. In this embodiment, the emotion expression system according to the present invention is applied to a voice interactive electronic secretary. FIG. 2 is a block diagram illustrating a system of a voice interactive electronic secretary, wherein 7 is a user, 8 is a speaker identification unit, 9 is an utterance understanding unit, 10 is an intention estimation unit, 11 is a task execution unit,
12 is a secretary task management information database, 13 is an emotion management unit, 14 is a voice synthesis / image display unit, 15 is a voice data storage unit, and 16 is a facial expression image data storage unit.

【0021】同図において、話者特定部8は発話者を特
定するサブシステム、発話理解部9は発話の記号内容を
認識するサブシステム、意図推定部10は発話の意味内
容を推定するサブシステム、タスク遂行部11は利用者
7の意図からタスクに関する行為をプラン・遂行するサ
ブシステム、秘書タスク管理情報データベース12はタ
スクに関わる諸情報を格納するデータべース、感情管理
部13は人工感情の生成・表出管理を行うサブシステ
ム、音声合成/画像表示部14はタスク遂行に基づく音
声応答/画像表示を行うサブシステム、音声データ格納
部15は感情タイプ別に構成された音声応答情報を格納
するデータべース、表情画像データ格納部16は感情タ
イプ別に構成された秘書動画像情報を格納するデータべ
ースである。
In FIG. 1, a speaker specifying unit 8 is a subsystem for specifying a speaker, an utterance understanding unit 9 is a subsystem for recognizing the symbol content of the utterance, and an intention estimating unit 10 is a subsystem for estimating the meaning of the utterance. The task execution unit 11 is a subsystem for planning and executing an action related to a task based on the intention of the user 7, the secretary task management information database 12 is a database storing various information related to the task, and the emotion management unit 13 is an artificial emotion. The voice synthesis / image display unit 14 performs a voice response / image display based on task execution, and the voice data storage unit 15 stores voice response information configured for each emotion type. And a facial expression image data storage unit 16 is a database for storing secretary moving image information configured for each emotion type.

【0022】まず、上記ブロック図にもとづいて、電子
秘書全体の機構を概説し、その次にシステムを構成する
各サブシステムについて説明する。 [全体構成]利用者7から電子秘書への音声入力は、話
者特定部8と発話理解部9へ渡されて発話者が特定され
ると同時に、発話の記号的内容が認識される。
First, the overall mechanism of the electronic secretary will be outlined based on the above block diagram, and then each subsystem constituting the system will be described. [Overall Configuration] The voice input from the user 7 to the electronic secretary is passed to the speaker specifying unit 8 and the utterance understanding unit 9 to specify the speaker and, at the same time, recognize the symbolic content of the utterance.

【0023】この発話の記号的内容から、意図推定部1
0において、さらに利用者のタスク要求意図が推定さ
れ、タスク遂行部11へ渡される。一方、話者の特定情
報と発話内容は、話者特定部8と発話理解部9から感情
管理部13へ入力される。感情管理部13では、これら
2つの情報とタスク遂行部11でのイベント発生状態に
より、感情の生成および表出が管理される。ここでの表
出管理とは、生成した感情状態を、対話者や対話状況の
考慮によりどれほど表出するかを制御する機構である。
From the symbolic content of the utterance, the intention estimating unit 1
At 0, the task request intention of the user is further estimated and passed to the task execution unit 11. On the other hand, the speaker identification information and the utterance content are input from the speaker identification unit 8 and the utterance understanding unit 9 to the emotion management unit 13. The emotion management unit 13 manages generation and expression of emotions based on these two pieces of information and the event occurrence state in the task execution unit 11. The expression management here is a mechanism for controlling how much the generated emotional state is expressed in consideration of the interlocutor and the dialogue situation.

【0024】タスク遂行部11では、推定された利用者
の意図に従って、秘書タスク管理情報データベース12
を参照しながら、スケジュール・文書管理等のタスクを
プラン実行する。同時に、感情管理部13に対して利用
者の意図にもとづく感情変動の要求が送られる。また逆
に、感情管理部13における感情状態はタスク遂行部1
1に伝えられ、プラン選択や実行に影響をおよぼす。
In the task execution section 11, a secretary task management information database 12 is provided in accordance with the estimated user's intention.
And perform tasks such as schedule and document management in a plan. At the same time, a request for emotion change based on the user's intention is sent to the emotion management unit 13. Conversely, the emotion state in the emotion management unit 13 is determined by the task execution unit 1.
1, which affects plan selection and execution.

【0025】すなわち、計画された一連のアクションが
遂行される(或るいは失敗する)と、その結果は感情管
理部13に伝えられ、感情状態の変化をひきおこす。感
情管理部13において表出の決定された感情内容は、音
声データ格納部15と表情画像データ格納部16に格納
されている音声データと表情画像データに基づいて音声
合成/画像表示部14が生成する動画像や発話音声とし
て出力される。
That is, when a series of planned actions are performed (or failed), the result is transmitted to the emotion management unit 13 to cause a change in the emotional state. The emotion content determined to be expressed by the emotion management unit 13 is generated by the voice synthesis / image display unit 14 based on the voice data and the facial expression image data stored in the voice data storage unit 15 and the facial expression image data storage unit 16. Is output as a moving image or uttered voice.

【0026】感情管理部13で決定された感情表出内容
は、音声合成/画像表示部14において具体的出力とな
り、利用者7に提示される。以下、本発明の主たる構成
要素である感情管理部について詳説する。 [感情管理部]図3は関連するシステム・モジュールと
共に感情管理部の構成を説明するブロツク図であって、
13は感情管理部、13−1は感情生成部、13−2は
感情表出制御部、前記図2と同一符号は同一部分に対応
する。
The emotion expression contents determined by the emotion management unit 13 are concretely output by the speech synthesis / image display unit 14 and presented to the user 7. Hereinafter, the emotion management unit which is a main component of the present invention will be described in detail. [Emotion Manager] FIG. 3 is a block diagram for explaining the structure of the emotion manager together with related system modules.
Reference numeral 13 denotes an emotion management unit, 13-1 denotes an emotion generation unit, 13-2 denotes an emotion expression control unit, and the same reference numerals as those in FIG.

【0027】同図において、感情管理部13は、感情生
成部13−1と感情表出制御部13−2から構成され
る。感情生成部13−1は、電子秘書の活動する環境か
らの刺激により人工感情を生成・保持するシステムであ
り、例えば本発明者等の出願に係る特願平4−1695
74号に開示されているような構成を採用することが可
能である。
In FIG. 1, the emotion management unit 13 includes an emotion generation unit 13-1 and an emotion expression control unit 13-2. The emotion generation unit 13-1 is a system that generates and holds artificial emotions by stimulation from the environment in which the electronic secretary is active. For example, Japanese Patent Application No. 4-1695 filed by the present inventors.
It is possible to adopt a configuration as disclosed in No. 74.

【0028】感情表出制御部13−2は、感情生成部1
3−1で保持される感情状態をどのように表出するかを
自動的/強制的に制御するシステムである。自動的な制
御とは、電子秘書の対話相手や、活動時間、対話履歴な
どの状況に応じて、自動的に表出スタイルを適応・変化
させる制御である。この適応変化により、電子秘書の対
話態度を状況に適した自然なスタイルへ導くことが可能
となる。
The emotion expression control section 13-2 includes the emotion generation section 1
This is a system for automatically / forcibly controlling how to express the emotional state held in 3-1. The automatic control is a control for automatically adapting and changing the expression style in accordance with the conversation partner of the electronic secretary, the activity time, the conversation history, and the like. This adaptive change can lead the electronic secretary's dialogue attitude to a natural style appropriate to the situation.

【0029】一方、強制的な制御とは、電子秘書の対話
者すなわち利用者が、自分自身の好みにより電子秘書の
感情表出傾向を調整するための機構である。この制御機
構により、感情表出のきらいな利用者が完全にクールな
電子秘書を設定したり、あるいは、電子秘書が怒ること
を許さない利用者は怒りだけは表出しないよう設定する
ことができる。
On the other hand, the compulsory control is a mechanism by which a person who interacts with the electronic secretary, that is, a user, adjusts the tendency of the electronic secretary to express emotions according to his / her own preference. With this control mechanism, a user who does not express emotion can set a completely cool electronic secretary, or a user who does not allow the electronic secretary to get angry can set not to express only anger .

【0030】感情表出制御部13−2では、このような
2種の制御のもとで、感情生成部13−1における感情
状態を音声合成/画像表示部14に伝達する。 [感情表出制御部]図4は感情表出制御部の構成を説明
するブロツク図であって、13−21は表出値決定部、
13−22はシーン構成部、13−23は人工感情値レ
ジスタ(Re)、13−24は表出値レジスタ(R
r)、13−25は表出特性閾値レジスタ(Rt)、1
3−26は表示モード・フラグ(Fm)レジスタ、13
−27は表出特性編集器、13−271は表出特性閾値
設定変更器、13−272は表示モード・フラグ設定変
更器、13−273は表出特性規則編集器、13−27
4は表出特性閾値パタン編集器、13−28は表出特性
規則インタプリタ、13−29は表出特性規則データベ
ース、13−30は表出特性閾値パタンデータベースで
ある。
The emotion expression control section 13-2 transmits the emotion state in the emotion generation section 13-1 to the speech synthesis / image display section 14 under such two kinds of control. [Emotion Expression Control Unit] FIG. 4 is a block diagram for explaining the configuration of the emotion expression control unit.
13-22 is a scene composing unit, 13-23 is an artificial emotion value register (Re), and 13-24 is an expression value register (R).
r) and 13-25 are expression characteristic threshold value registers (Rt), 1
3-26 is a display mode flag (Fm) register, 13
-27 is an expression characteristic editor, 13-271 is an expression characteristic threshold setting changer, 13-272 is a display mode / flag setting changer, 13-273 is an expression characteristic rule editor, 13-27.
4 is an expression characteristic threshold pattern editor, 13-28 is an expression characteristic rule interpreter, 13-29 is an expression characteristic rule database, and 13-30 is an expression characteristic threshold pattern database.

【0031】同図において、この感情表出制御部を構成
するサブシステムは、(1)感情状態や表示モード、表
出特性、最終的な表出値をそれぞれ保持するためのレジ
スタ群(人工感情値レジスタ(Re)13−23,表出
値レジスタ(Rr)13−24,表出特性閾値レジスタ
(Rt)13−25)と、(2)話者特定部8,発話理
解部9,意図推定部10,タスク特定部11からの状況
情報から、表出特性閾値を自動的に決定・変更するため
の表出特性規則インタプリタ13−28および表出特性
規則データベース13−29および表出特性閾値パタン
データベース13−30と、(3)最終的な表出値を決
定する表出値決定部13−21と、(4)表出特性や表
示モードに関する利用者の設定をうけつける表出特性編
集器13−27と、(5)決定された表出値から出力す
るシーンを構成するシーン構成部13−22と、から構
成される。
In the figure, the subsystems constituting the emotion expression control section include (1) a register group (artificial emotion) for holding an emotion state, a display mode, an expression characteristic, and a final expression value. Value register (Re) 13-23, expression value register (Rr) 13-24, expression characteristic threshold value register (Rt) 13-25), (2) speaker identification unit 8, utterance understanding unit 9, intention estimation Expression characteristic rule interpreter 13-28, expression characteristic rule database 13-29, and expression characteristic threshold pattern for automatically determining and changing the expression characteristic threshold from the status information from the section 10 and the task identification section 11. A database 13-30; (3) an expression value determination unit 13-21 for determining a final expression value; and (4) an expression characteristic editor for receiving user settings relating to expression characteristics and display modes. 13-27 and (5) a scene components 13-22 constituting the scene to be output from the determined expression values, and a.

【0032】以下、このサブシステム上でのプロセスを
説明する。 1.表出特性規則インタプリタ13−28上でのプロセ
ス 話者特定部8、発話理解部9、意図推定部10、タスク
遂行部11から得られた情報は、表出特性規則インタプ
リタ13−28に送られる。表出特性規則とは、上記の
状況情報に応じて表出特性を自動的に変化させるための
規則群であり、表出特性規則インタプリタ13−28
は、表出特性規則データベース13−29における表出
特性規則に諸条件を設定し、各時点において条件を満た
す規則を随時適用する機構である。
Hereinafter, the process on this subsystem will be described. 1. Process on Expression Characteristic Rule Interpreter 13-28 Information obtained from the speaker identification unit 8, the utterance understanding unit 9, the intention estimation unit 10, and the task execution unit 11 is sent to the expression characteristic rule interpreter 13-28. . The expression characteristic rule is a group of rules for automatically changing the expression characteristic according to the above-mentioned situation information, and the expression characteristic rule interpreter 13-28
Is a mechanism for setting various conditions in the expression characteristic rules in the expression characteristic rule database 13-29, and applying rules satisfying the conditions at each time.

【0033】下記の[数1]〜[数6]は、表出特性規
則データベース13−29における表出特性規則(ディ
スプレイルール)の一例である。
The following [Equation 1] to [Equation 6] are examples of expression characteristic rules (display rules) in the expression characteristic rule database 13-29.

【0034】[0034]

【数1】 (Equation 1)

【0035】ルールの意味 IF:発話者が利用者リストに含まれない、すなわち未
知の話者に対応している場合である。 THEN:表出閾値Θ1,2 に抑制係数DEPRESS
RATE(>1.0)を乗ずる。表出抑制を開始したこ
とを示すフラグcontrol flgをオンにする。)
Meaning of the rule IF: The speaker is not included in the user list, that is,
This is the case where a speaker of knowledge is supported. THEN: Expression threshold Θ1,2To the suppression coefficient DEPRESS
Multiply by RATE (> 1.0). Start suppressing expression
Control indicating that Turn on flg. )

【0036】[0036]

【数2】 (Equation 2)

【0037】ルールの意味 IF:発話者が利用者リストに含まれる。すなわち現在
応対している相手は、既知の話者である。 THEN:表出閾値Θ1,2 に利用者リストにおける該当
者(発話者)の閾値を設定する。さらに、該当者の閾値
にFRIEDLY RATE(<1.0)を乗じて、感
情表出の頻度を高める。対話回数contact ti
meに1を加算しておく。
Meaning of Rule IF: The speaker is included in the user list. In other words, the partner currently responding is a known speaker. THEN: The threshold of the corresponding person (speaker) in the user list is set to the expression threshold Θ 1,2 . In addition, FRIEDLY Multiply RATE (<1.0) to increase the frequency of emotional expression. Number of conversations contact ti
One is added to me.

【0038】ANDIF:発話者がMY MASTE
R’S FRIENDすなわち主たる利用者の友人リス
トに含まれる。 THEN:表出抑制フラグをオフにして表出抑制を解除
する。
ANDIF: the speaker is MY MASTER
R'S FRIEND, which is included in the main user's friend list. THEN: The expression suppression flag is turned off to cancel the expression suppression.

【0039】[0039]

【数3】 (Equation 3)

【0040】ルールの意味 IF:時刻区分設定(current time ty
pe)が定義から外れている。すなわち、時間タイプ
(勤務中、勤務外)の設定が正しくない。 THEN:時刻区分設定を勤務中(または勤務外)に再
設定する。表出特性閾値にFORMAL RATE(ま
たはRELAX RATE)を乗じ、変更する。
Meaning of rule IF: Time division setting (current time ty
pe) is out of definition. That is, the setting of the time type (on duty, off duty) is incorrect. THEN: Reset the time division setting to work (or off work). FORMAL for expression characteristic threshold RATE (or RELAX RATE) to change.

【0041】[0041]

【数4】 (Equation 4)

【0042】ルールの意味 IF:感情モデルにおける要素感情が怒りまたは嫌悪に
おいて最大であり、かつ、その値が表出閾値Θ1,2 にお
ける強閾値を越えており、かつ、利用者発話語にNEG
ATIVEWORDが含まれている。 THEN:表出閾値における怒りと嫌悪の成分にANG
ER DEPRESS RATE(>1.0)を乗じて引
き上げる。
Meaning of Rule IF: Elemental emotion in emotion model becomes angry or hatred
And the value is the expression threshold Θ1,2In
Exceeds the strong threshold and the user utterance word is NEG
ATIVEWORD is included. THEN: ANG for anger and disgust components in the expression threshold
ER DEPRESS Multiply by RATE (> 1.0) and subtract
Lift up.

【0043】表出抑制フラグをオンにして表出抑制を開
始する。利用者リストにおける現在の対話者の閾値にC
LOSE RATE(>1.0)を乗じて、引き上げ
る。
The expression suppression flag is turned on to start expression suppression. C to the threshold of the current interlocutor in the user list
LOSE Multiply by RATE (> 1.0) and raise.

【0044】[0044]

【数5】 (Equation 5)

【0045】ルールの意味 IF:タスク遂行部により「タスクの失敗が継続」のシ
グナルを受信。 THEN:表出閾値にDEPRES RATE(>1.
0)を乗じて、閾値全体を引き上げる。表出抑制フラグ
をオンにして表出抑制を開始する。
Meaning of Rule IF: A signal indicating that "task failure continues" is received by the task execution unit. THEN: DEPRESS as expression threshold RATE (> 1.
0) to raise the overall threshold. The expression suppression flag is turned on to start the expression suppression.

【0046】[0046]

【数6】 (Equation 6)

【0047】ルールの意味 IF:利用者の発話語にPOSITIVEWORDが含
まれている。 THEN:表出閾値にOPEN DEPRESS RA
TE(<1.0)を乗じて引き下げる。表出抑制フラグ
をオフにして表出抑制を解除する。
Meaning of Rule IF: POSITIVEWORD is included in the utterance of the user. THEN: OPEN for expression threshold DEPRESS RA
Multiply by TE (<1.0) and lower. The expression suppression flag is turned off to cancel the expression suppression.

【0048】なお、〔数1〕における「USER LI
ST〕は、下記〔表1〕に示したようなフォーマットで
構成される。
Note that "USER LI" in [Equation 1]
ST] has a format as shown in the following [Table 1].

【0049】[0049]

【表1】 [Table 1]

【0050】また、Θ1,2 は表出特性閾値で、下記〔表
2〕に示したようなものである。
Also, Θ 1,2 is the expression characteristic threshold, as shown in [Table 2] below.

【0051】[0051]

【表2】 [Table 2]

【0052】これらの規則は条件部をみたすものすべて
が順次実行され、最終的な表出特性閾値の変更が表出値
決定部に提案される。 2.表出値決定部上のプロセス 表出値決定部13−21には、以下の信号が送られる。 (1)表出特性規則インタプリタ13−28からの表出
特性変更。 (2)感情生成部13−1からの感情変化通報。 (3)タスク遂行部11からのタスク遂行イベント発
生。
All of these rules that satisfy the condition part are sequentially executed, and a final change of the expression characteristic threshold is proposed to the expression value determination part. 2. Process on Expressed Value Determination Unit The following signals are sent to the expressed value determination unit 13-21. (1) Expression characteristic change from the expression characteristic rule interpreter 13-28. (2) Emotion change notification from the emotion generation unit 13-1. (3) Task execution event occurrence from the task execution unit 11.

【0053】表出値決定部13−21では、これらの要
求と、表示モードフラグの設定により、表出を決定す
る。図5はモードフラグFmの説明図であって、感情表
出許可fe 、manual<−>オート優先fp の2種
からなる。また、表出値決定部13−21には、図6に
示した3つのレジスタと1つのフラグ・レジスタがあ
る。
The expression value determination unit 13-21 determines the expression based on these requests and the setting of the display mode flag. Figure 5 is an explanatory view of the mode flag Fm, emotional expression permits f e, manual <-> consisting of two automatic priority f p. Also, the expression value determination unit 13-21 has three registers and one flag register shown in FIG.

【0054】図6は感情表出制御部におけるレジスタ群
と格納値の一例の説明図であって、人工感情値レジスタ
(Re)、表出特性閾値レジスタ(Rt)、表出値レジ
スタ(Rr)の3つのレジスタからなる。人工感情値レ
ジスタ(Re)とは、感情生成部13−1から送られて
くる感情状態値を保存するものである。また、表出特性
閾値レジスタ(Rt)とは、感情表出を行うべきか否か
を判断するための閾値を保持するものである。そして、
表出値レジスタ(Rr)とは、表出値決定部が主に人工
感情値レジスタ(Re)と表出特性閾値レジスタ(R
t)とを比較することで決定した感情の表出値を格納す
るものである。
FIG. 6 is an explanatory diagram of an example of a register group and a stored value in the emotion expression control section. The artificial emotion value register (Re), the expression characteristic threshold register (Rt), and the expression value register (Rr). Of three registers. The artificial emotion value register (Re) stores the emotion state value sent from the emotion generation unit 13-1. The expression characteristic threshold value register (Rt) holds a threshold value for determining whether or not emotion expression should be performed. And
The expression value register (Rr) is mainly composed of an expression value determination unit (Re) and an expression characteristic threshold value register (R).
The stored expression value of the emotion determined by comparing the expression with t) is stored.

【0055】なお、図4における表示モード・フラグ・
レジスタ(Fm)は、前記図5に示したような表示に関
する様々な制御情報を設定するものである。図7は表出
特性規則インタプリタ上のプロセスを説明するフローチ
ヤートであって、表示モード・フラグレジスタ(Rm)
からプロセスの起動/停止を指示する表示モード・フラ
グfe が出力されると、表出特性制御プロセスが起動し
(S−1)、話者特定部,発話理解部,意図推定部,タ
スク遂行部からのイベント・シグナルを待つ(S−
2)。
The display mode flag in FIG.
The register (Fm) sets various control information related to the display as shown in FIG. FIG. 7 is a flow chart illustrating a process on the expression characteristic rule interpreter, and includes a display mode flag register (Rm).
When the display mode flag fe for instructing start / stop of the process is output from the CPU, the expression characteristic control process is started (S-1), and the speaker specifying unit, the utterance understanding unit, the intention estimating unit, and the task execution Wait for an event signal from the section (S-
2).

【0056】上記各部からのイベント・シグナルの入力
に応じて、規則条件部を設定し(S−3)、設定した規
則を表出特性規則データべースと表出特性閾値パタンデ
ータべースのデータとの規則照合を実行する(S−
4)。規則照合を実行した結果を表出値決定部に渡す
(S−5)。次に、表出値決定部において基本となる表
出特性変更信号からのプロセスを説明する。
A rule condition section is set in accordance with the input of the event signal from each of the above sections (S-3), and the set rule is expressed by the expression characteristic rule database and the expression characteristic threshold pattern database. Execute the rule matching with the data of (S-
4). The result of executing the rule matching is passed to the expression value determination unit (S-5). Next, a description will be given of a process based on an expression characteristic change signal which is the basis in the expression value determination unit.

【0057】表出値決定プロセス 図8は表出値決定部上のプロセスの概略を説明するフロ
ーチヤートであって、表出値決定部上のプロセスS−1
0は、感情生成部13−1からの感情変化発生信号と表
出特性規則インタプリタ13−28からの表出特性変更
要求に基づいて表出特性値書き換えを行う表出値決定プ
ロセスS−102、およびタスク遂行部11からのタス
ク情報に基づいてタスク遂行シーンへの感情付与を行う
タスク遂行への感情付与プロセスS−103とからな
る。
[0057] exposed value determining process 8 is a flowchart for explaining the outline of processes on exposed value determination section, the process of the exposed value determining unit S-1
0 is an expression value determination process S-102 for rewriting an expression characteristic value based on an emotion change occurrence signal from the emotion generation unit 13-1 and an expression characteristic change request from the expression characteristic rule interpreter 13-28; And an emotion giving process S-103 for giving a feeling to the task performing scene based on the task information from the task performing unit 11.

【0058】この表出値決定部上のプロセスS−10の
プロセス実行結果は、シーン構成部13−22に与えら
れる。以下、上記表出値決定部上のプロセスを構成する
微表情要求プロセス、表出値決定プロセスおよびタスク
遂行への感情付与プロセスの詳細を順次説明する。表出値決定プロセス 図9と図10は表出特性値書き換えプロセスを説明する
フローチヤートであって、感情生成部13−1から感情
変化を通報されたとき(S−36)、および表出特性規
則インタプリタ13−28より表出特性の変更を要求さ
れたとき(S−30)に起動する。
The process execution result of the process S-10 on the expression value determining unit is given to the scene composing unit 13-22. Hereinafter, the details of the expression request process, the expression value determination process, and the process of giving an emotion to the task execution, which constitute the processes on the expression value determination unit, will be sequentially described. Expression value determination process Figure 9 and Figure 10 is a flowchart for explaining the exposed characteristic value rewriting process, when Problem emotion change from the emotion generating unit 13-1 (S-36), and expression characteristics It starts when the rule interpreter 13-28 requests a change in expression characteristics (S-30).

【0059】表出特性の変更は、モード・フラグの感情
表出許可feがオンであり、かつ表出特性閾値レジスタ
Rtのユーザ指定フラグがオフの場合、あるいはユーザ
指定フラグがオンであるがモード・フラグのfpがオン
である場合にのみ許可され、表出特性閾値レジスタRt
における表出特性閾値が書き換えられる(S−33)。
The expression characteristics are changed when the mode flag emotion expression permission fe is on and the user-specified flag of the expression characteristic threshold register Rt is off, or when the user-specified flag is on, • Only when the flag fp is on, the expression characteristic threshold register Rt
Is rewritten (S-33).

【0060】このように表出特性閾値が書き換えられた
とき、および感情変化の通報を受けたときには、人工感
情値レジスタReの最大値検出が行われる(S−3
5)。求められた最大値と、表出特性閾値レジスタRt
における強・弱閾値とが比較され(S−37)、最大値
となった第i感情の表出値が弱−強度(S−38)また
は強−強度(S−39)に決定され、表出値レジスタR
iに格納されると共に、ただちにシーン構成部13−2
2に送信される。
When the expression characteristic threshold value is rewritten as described above and when a notification of an emotion change is received, the maximum value of the artificial emotion value register Re is detected (S-3).
5). The obtained maximum value and the expression characteristic threshold register Rt
Are compared with the strong / weak threshold values (S-37), and the expression value of the i-th emotion having the maximum value is determined as weak-strength (S-38) or strong-strength (S-39). Outgoing value register R
i, and immediately after the scene composition unit 13-2
2 is sent.

【0061】タスク遂行部および感情生成部の通報によ
るプロセス 図11と図12はタスク遂行シーンへの感情付与プロセ
スを説明するフローチヤートである。タスク遂行部にお
いてタスク遂行イベントが発生すると、表出値決定部に
その旨の通報信号が届く。タスク遂行にともなう画像表
示および音声合成を決定するためには、感情情報が必要
である。そのため、先述のプロセスにおいて特性閾値の
書き換えを省略した感情表出値決定プロセスが起動され
る。
According to the notification from the task execution unit and the emotion generation unit
That processes 11 and 12 is a flowchart for describing an emotion imparting process to the task execution scene. When a task execution event occurs in the task execution unit, a notification signal to that effect arrives at the expression value determination unit. In order to determine the image display and the speech synthesis accompanying the task execution, emotion information is required. Therefore, the emotion expression value determination process in which the rewriting of the characteristic threshold is omitted in the above-described process is started.

【0062】タスク遂行発生信号受信待機(S−41)
がタスク遂行の発生を検知すると、モード・フラグfe
がチェックされる(S−42)。feがオフの場合、す
なわち感情表出をしない場合には、以降のプロセスは行
わずにタスク番号のみをシーン構成部13−22に送信
する。feがオン0場合には、人工感情値レジスタにお
ける最大値検出がなされる(S−43)。
Waiting for task execution occurrence signal reception (S-41)
Detects that task execution has occurred, the mode flag fe
Is checked (S-42). When fe is off, that is, when emotion expression is not performed, only the task number is transmitted to the scene configuration unit 13-22 without performing the subsequent processes. When fe is on 0, the maximum value is detected in the artificial emotion value register (S-43).

【0063】求められた最大値と、表出特性閾値レジス
タRtにおける強−弱閾値とが比較され(S−44)、
最大値となった第i感情の表出が弱−強度以下であった
場合にはタスク番号のみがシーン構成部に送信される
が、そうでないときには弱−強度(S−45)または強
−強度(S−46)に決定され、表出値レジスタRiに
格納される。
The obtained maximum value is compared with the strong-weak threshold value in the expression characteristic threshold value register Rt (S-44).
If the expression of the i-th emotion having the maximum value is less than or equal to the low-intensity, only the task number is transmitted to the scene composing unit. Otherwise, the low-intensity (S-45) or the high-intensity is used. (S-46) is determined and stored in the expression value register Ri.

【0064】そしてただちに、表出値レジスタRiの内
容とタスク番号とがシーン構成部に奏しされる(S−7
およびS−8)。 3.ユーザの表出特性編集器による表出制御指定 図4の感情表出制御部のブロック図における表出特性編
集器13−27は、利用者すなわち電子秘書の対話者
が、電子秘書の感情表出を強制的に制御するための編集
装置である。
Immediately, the contents of the expression value register Ri and the task number are output to the scene composing section (S-7).
And S-8). 3. Expression control designation by user's expression characteristic editor The expression characteristic editor 13-27 in the block diagram of the emotion expression controller of FIG. Is an editing device for forcibly controlling the editing.

【0065】表出特性編集器13−27は、表出特性閾
値設定変更器13−271,表示モード・フラグ設定変
更器13−272,表出特性規則編集器13−283,
表出特性閾値パタン編集器13−274の4つのサブモ
ジュールより構成される。表出特性閾値設定変更器13
−271の機能は、表出特性閾値レジスタ上の値を希望
値に固定するものである。この固定をうけた値は表出特
性閾値レジスタに付与されたユーザ指定フラグによって
識別される。
The expression characteristic editor 13-27 includes an expression characteristic threshold setting changer 13-271, a display mode / flag setting changer 13-272, an expression characteristic rule editor 13-283,
It is composed of four sub-modules of an expression characteristic threshold pattern editor 13-274. Expression characteristic threshold setting changer 13
The function -271 fixes the value on the expression characteristic threshold register to a desired value. The fixed value is identified by a user-specified flag assigned to the expression characteristic threshold register.

【0066】表示モード・フラグ設定変更器13−27
2の機能は、表出値決定部13−21の制御情報である
表示モード・フラグを指定するためのものである。この
フラグは微表情の表出許可/不許可や状況による表出特
性の適応を指定したりする。表出特性規則編集器13−
273の機能は、表出特性規則データベース13−29
中の規則を編集するためのエディタである。これらの規
則は、システムが表出特性値を自動的に書き換えるため
のものである。
Display mode / flag setting changer 13-27
The second function is for designating a display mode flag which is control information of the expression value determination unit 13-21. This flag specifies permission / non-permission of the expression of the fine expression and adaptation of the expression characteristic depending on the situation. Expression characteristic rule editor 13-
The function of H.273 is the expression characteristic rule database 13-29.
An editor for editing the rules inside. These rules are for the system to automatically rewrite the expression characteristic value.

【0067】表出特性閾値パタン編集器13−274の
機能は、表出特性閾値パタンデータベース13−30中
のパタン群を編集・登録するためのエディタである。表
出特性閾値パタンの編集により、ユーザは好みの表出特
性を設定することができる。 4.シーン構成部上のプロセス 表出値決定部13−21において、感情表出すべき要素
感情のタイプと強度が決定されると、シーン構成部に出
力構成が要求される。
The function of the expression characteristic threshold pattern editor 13-274 is an editor for editing and registering a group of patterns in the expression characteristic threshold pattern database 13-30. By editing the expression characteristic threshold pattern, the user can set a desired expression characteristic. 4. Process on Scene Constructing Unit When the expression value determining unit 13-21 determines the type and intensity of the element emotion to be expressed, the scene composing unit is required to have an output configuration.

【0068】図13はシーン構成部上のプロセスを説明
するフローチヤートである。同図における表出値決定部
13−21の各機能を順に説明する。 a.タスク遂行要求 タスク遂行シーンが要求された場合には、指定感情およ
び強度の遂行シーンがシーンデータベース15から検索
される。 b.感情変化要求 感情変化表出が要求された場合には、まずタスク遂行シ
ーン構成(S−51)がビジー(busy)でないか確
認され(S−52)、現状の表示状態に関するシーンが
新しい感情モードでシーンデータベース15から検索さ
れ構成される(S−53)。ここで構成されるシーン
は、画像コードおよび発話データコードのシーケンスか
らなっており、ただちに音声合成/画像表示部14に送
られる。
FIG. 13 is a flowchart for explaining the process on the scene composing section. Each function of the expression value determination unit 13-21 in FIG. a. Task Execution Request When a task execution scene is requested, a scene with a specified emotion and intensity is searched from the scene database 15. b. Emotion change request When an emotion change expression is requested, it is first checked whether the task execution scene configuration (S-51) is busy (S-52), and the scene relating to the current display state is changed to a new emotion mode. Is retrieved from the scene database 15 and configured (S-53). The scene configured here is composed of a sequence of an image code and an utterance data code, and is immediately sent to the voice synthesis / image display unit 14.

【0069】[0069]

【発明の効果】以上説明したように、本発明による感情
表出装置は、各感情成分ごとに表出のための閾値を設定
できるために、利用者は装置の感情表出スタイルを自分
の好みにあわせて自在に調節することができる。また、
本発明による感情表出装置では、話者、過去の対話量、
状況などの表出制御情報を認識するとともに、それらの
認識結果に対応づけて表出閾値を変更するので、話者、
親密度、状況の違いに合わせて、感情表示スタイルを自
発的かつ適切に切り換えることができる。
As described above, since the emotion expression device according to the present invention can set a threshold value for expression for each emotion component, the user can change the emotion expression style of the device to his / her preference. It can be adjusted freely to suit. Also,
In the emotion expression device according to the present invention, the speaker, the amount of past dialogue,
Recognizing the expression control information such as the situation, and changing the expression threshold in association with those recognition results, the speaker,
The emotion display style can be spontaneously and appropriately switched according to differences in intimacy and situations.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明による感情表出装置の基本構成を説明
するブロック図である。
FIG. 1 is a block diagram illustrating a basic configuration of an emotion expression device according to the present invention.

【図2】 本発明による感情表出装置の1実施例の構成
を説明するブロック図である。
FIG. 2 is a block diagram illustrating a configuration of an embodiment of an emotion expression device according to the present invention.

【図3】 図2に示した実施例における感情管理部の構
成を説明するブロック図である。
FIG. 3 is a block diagram illustrating a configuration of an emotion management unit in the embodiment shown in FIG.

【図4】 図3に示した感情管理部における感情表出制
御部の構成を説明するブロック図である。
4 is a block diagram illustrating a configuration of an emotion expression control unit in the emotion management unit illustrated in FIG.

【図5】 図5は図4に示した感情表出制御部における
モードフラグの説明図である。
FIG. 5 is an explanatory diagram of a mode flag in the emotion expression control section shown in FIG.

【図6】 図4に示した感情表出制御部におけるレジス
タ群の説明図である。
FIG. 6 is an explanatory diagram of a register group in the emotion expression control section shown in FIG. 4;

【図7】 表出特性規則インタプリタ上のプロセスを説
明するフローチヤートである。
FIG. 7 is a flowchart illustrating a process on the expression characteristic rule interpreter.

【図8】 表出値決定部上のプロセスの概略を説明する
フローチヤートである。
FIG. 8 is a flowchart illustrating an outline of a process on an expression value determination unit.

【図9】 表出特性値書き換えプロセスを説明する部分
フローチヤートである。
FIG. 9 is a partial flow chart for explaining an expression characteristic value rewriting process.

【図10】 表出特性値書き換えプロセスを説明する図
9に続く部分フローチヤートである。
FIG. 10 is a partial flowchart following FIG. 9 for explaining an expression characteristic value rewriting process.

【図11】 タスク遂行シーンへの感情付与プロセスを
説明する部分フローチヤートである。
FIG. 11 is a partial flowchart illustrating a process of giving an emotion to a task execution scene.

【図12】 タスク遂行シーンへの感情付与プロセスを
説明する図11に続く部分フローチヤートである。
FIG. 12 is a partial flowchart following FIG. 11 for explaining a process of giving an emotion to a task execution scene.

【図13】 シーン構成部上のプロセスを説明するフロ
ーチヤートである。
FIG. 13 is a flowchart illustrating a process on a scene composition unit.

【図14】 従来の感情表出装置の一例を説明する基本
構成図である。
FIG. 14 is a basic configuration diagram illustrating an example of a conventional emotion expression device.

【符号の説明】[Explanation of symbols]

1・・・・入力、2・・・・感情喚起情報認識手段、3
・・・・感情喚起手段、4・・・・表情・音声合成手
段、5・・・・出力、6・・・・感情表出制御部、7・
・・・利用者、6−1・・・・表出スタイル設定手段、
6−2・・・・表出内容決定手段、6−21・・・・表
出スタイル記憶手段、6−3・・・・表出スタイル群保
持手段、6−4・・・・表出制御情報認識手段、6−4
1・・・・話者同定手段、6−42・・・・対話量記録
手段、6−43・・・・状況認識手段。
1 ... input, 2 ... emotional information recognition means, 3
··· Emotional arousal means, 4 ··· Expression / voice synthesis means, 5 ··· Output, 6 ··· Emotion expression control unit, 7
... User, 6-1 ... Expression style setting means,
6-2 ... Expression content determination means, 6-21 ... Expression style storage means, 6-3 ... Expression style group holding means, 6-4 ... Expression control Information recognition means, 6-4
1 ... speaker identification means, 6-42 ... dialogue amount recording means, 6-43 ... situation recognition means.

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭60−144799(JP,A) 特開 平2−183371(JP,A) 特開 平4−199098(JP,A) 特開 平5−100692(JP,A) 特開 平5−216618(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 3/00 G06F 3/16 G06T 13/00 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-60-144799 (JP, A) JP-A-2-183371 (JP, A) JP-A-4-199098 (JP, A) JP-A-5-1990 100692 (JP, A) JP-A-5-216618 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G10L 3/00 G06F 3/16 G06T 13/00

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 予め規定された感情喚起情報を認知する
感情喚起情報認識手段と、“驚き、恐れ、嫌悪、怒り、
幸福、悲しみ”等の各感情成分に感情強度を反映させた
数量を与えることで全体の感情状態を表現し、感情喚起
情報が認知された場合には、予め規定された感情状態遷
移規則に即してその感情状態を遷移せしめる感情喚起手
段と、感情喚起手段により規定された感情状態に対応づ
けて表情や音声の韻律を変化させて出力する表情・音声
合成手段とを備えた感情表出装置において、 前記感情成分別にそれぞれの表出閾値を指定することに
より装置の感情表出スタイルの設定または変更を行なう
表出スタイル設定手段と、 前記表出スタイル設定手段において設定された表出閾値
を保持する表出スタイル記憶手段を内在し、そこに保持
された表出閾値と前記感情喚起手段において規定された
感情状態とを比較して表出すべき表情や音声を決定する
表出内容決定手段と、 前記表出スタイル設定手段において設定された表出閾値
を複数記憶し、保存することができる表出スタイル群保
持手段とを具備することを特徴とする感情表出装置。
1. An emotion-evoking information recognizing means for recognizing predetermined emotion-evoking information, comprising: “surprise, fear, disgust, anger,
The emotional state is expressed by giving each emotional component such as “happiness and sadness” a quantity reflecting the emotional intensity, and when the emotional arousal information is recognized, the emotional state transition rules defined in advance are used immediately. And an emotion expression device comprising: an emotion evoking means for causing the emotion state to transit; and an expression / speech synthesis means for changing the expression or voice prosody in accordance with the emotion state defined by the emotion evoking means and outputting the result. An expression style setting means for setting or changing an emotion expression style of the device by designating each expression threshold value for each emotion component; and holding an expression threshold value set by the expression style setting means. An expression style storage means is provided, and the expression threshold and the emotional state defined by the emotion eliciting means are compared with each other to determine an expression or voice to be expressed. A content determining means out, the exposed a set exposed threshold stores plural in style setting means, emotional expression system characterized by comprising the expression style unit holding means can be stored.
【請求項2】 請求項1において、対話相手を識別、同
定する話者同定手段と、 前記話者同定手段により同定された話者との過去の対話
回数又は対話総時間を計測しそれを記録する対話量記憶
手段と、 予め範疇化された複数の状況から目下の状況を特定する
状況認識手段と、 対話相手、対話量、状況の違いに基づいて、前記表出ス
タイル群保持手段に予め記憶されている表出閾値集合の
中から特定の表出閾値を読み出して、前記表出スタイル
記憶手段にセットするか、もしくは予め規定されたいく
つかの変換式の中から特定の変換式を適応して前記表出
スタイル記憶手段に記憶されている表出閾値を直接書き
換える表出スタイル変更手段とを備えたことを特徴とす
る感情表出装置。
2. The method according to claim 1, wherein a speaker identification unit for identifying and identifying a conversation partner, and the number of past conversations or the total conversation time with the speaker identified by the speaker identification unit are measured and recorded. Dialogue amount storage means, a situation recognizing means for specifying the current situation from a plurality of situations categorized in advance, and pre-stored in the expression style group holding means based on the difference in the conversation partner, the conversation amount, and the situation. A specific expression threshold is read out from the set of expression thresholds that have been set, and is set in the expression style storage means, or a specific conversion expression is applied from some predetermined conversion expressions. And an expression style changing means for directly rewriting the expression threshold stored in the expression style storage means.
JP5251462A 1993-10-07 1993-10-07 Emotion expression device Expired - Fee Related JP3018865B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5251462A JP3018865B2 (en) 1993-10-07 1993-10-07 Emotion expression device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5251462A JP3018865B2 (en) 1993-10-07 1993-10-07 Emotion expression device

Publications (2)

Publication Number Publication Date
JPH07104778A JPH07104778A (en) 1995-04-21
JP3018865B2 true JP3018865B2 (en) 2000-03-13

Family

ID=17223187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5251462A Expired - Fee Related JP3018865B2 (en) 1993-10-07 1993-10-07 Emotion expression device

Country Status (1)

Country Link
JP (1) JP3018865B2 (en)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JP3337588B2 (en) * 1995-03-31 2002-10-21 松下電器産業株式会社 Voice response device
JPH0916800A (en) * 1995-07-04 1997-01-17 Fuji Electric Co Ltd Voice interactive system with face image
JPH0973382A (en) * 1995-09-04 1997-03-18 Fujitsu Ltd Computer system
JP3595041B2 (en) * 1995-09-13 2004-12-02 株式会社東芝 Speech synthesis system and speech synthesis method
KR19980065482A (en) * 1997-01-10 1998-10-15 김광호 Speech synthesis method to change the speaking style
JP3159242B2 (en) * 1997-03-13 2001-04-23 日本電気株式会社 Emotion generating apparatus and method
JP3353651B2 (en) * 1997-06-23 2002-12-03 松下電器産業株式会社 Agent interface device
JPH11161298A (en) * 1997-11-28 1999-06-18 Toshiba Corp Method and device for voice synthesizer
JP3681145B2 (en) * 1997-12-11 2005-08-10 株式会社東芝 Utterance device and utterance method
JPH11237971A (en) * 1998-02-23 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> Voice responding device
JP3792882B2 (en) * 1998-03-17 2006-07-05 株式会社東芝 Emotion generation device and emotion generation method
JP3513397B2 (en) * 1998-07-29 2004-03-31 日本電信電話株式会社 Character animation realizing method and recording medium storing the program
US6519506B2 (en) 1999-05-10 2003-02-11 Sony Corporation Robot and control method for controlling the robot's emotions
WO2000067959A1 (en) 1999-05-10 2000-11-16 Sony Corporation Robot device and method for controlling the same
JP3514372B2 (en) * 1999-06-04 2004-03-31 日本電気株式会社 Multimodal dialogue device
KR20010101883A (en) * 1999-11-30 2001-11-15 이데이 노부유끼 Robot apparatus, control method thereof, and method for judging character of robot apparatus
JP3592194B2 (en) * 2000-01-21 2004-11-24 株式会社リコー Video content description generation method, video content description generation device, and recording medium
JP2001209820A (en) * 2000-01-25 2001-08-03 Nec Corp Emotion expressing device and mechanically readable recording medium with recorded program
JP2001277163A (en) 2000-04-03 2001-10-09 Sony Corp Device and method for controlling robot
JP2002268699A (en) * 2001-03-09 2002-09-20 Sony Corp Device and method for voice synthesis, program, and recording medium
JP2002304188A (en) * 2001-04-05 2002-10-18 Sony Corp Word string output device and word string output method, and program and recording medium
JP2003233388A (en) * 2002-02-07 2003-08-22 Sharp Corp Device and method for speech synthesis and program recording medium
KR100564740B1 (en) * 2002-12-14 2006-03-27 한국전자통신연구원 Voice synthesizing method using speech act information and apparatus thereof
WO2006030533A1 (en) * 2004-09-17 2006-03-23 National Institute Of Advanced Industrial Science And Technology Imitated animal having physiological stimulus saturation means
JP2007264284A (en) * 2006-03-28 2007-10-11 Brother Ind Ltd Device, method, and program for adding feeling
JP2007271655A (en) * 2006-03-30 2007-10-18 Brother Ind Ltd System for adding affective content, and method and program for adding affective content
JP4974788B2 (en) 2007-06-29 2012-07-11 キヤノン株式会社 Image processing apparatus, image processing method, program, and storage medium
KR101594057B1 (en) 2009-08-19 2016-02-15 삼성전자주식회사 Method and apparatus for processing text data
JP2016090776A (en) * 2014-11-04 2016-05-23 トヨタ自動車株式会社 Response generation apparatus, response generation method, and program
CN105654949B (en) * 2016-01-07 2019-05-07 北京云知声信息技术有限公司 A kind of voice awakening method and device

Also Published As

Publication number Publication date
JPH07104778A (en) 1995-04-21

Similar Documents

Publication Publication Date Title
JP3018865B2 (en) Emotion expression device
US6513011B1 (en) Multi modal interactive system, method, and medium
CN107077840B (en) Speech synthesis apparatus and method
JP6693111B2 (en) Interactive device, robot, interactive method and program
JP3950802B2 (en) Face information transmission system, face information transmission method, face information transmission program, and computer-readable recording medium
JP6774018B2 (en) Dialogue device
JP2000187435A (en) Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
CN105247609A (en) Technology for responding to remarks using speech synthesis
JP7192222B2 (en) speech system
CN107871503A (en) Speech dialogue system and sounding are intended to understanding method
KR20190046371A (en) Apparatus and method for creating facial expression
CN108073272A (en) A kind of control method for playing back and device for smart machine
JP2004021121A (en) Voice interaction controller unit
KR20210117827A (en) Voice service supply system and supply method using artificial intelligence
JP2002041084A (en) Interactive speech processing system
JP2009151314A (en) Information processing device and information processing method
CN110908576A (en) Vehicle system/vehicle application display method and device and electronic equipment
JP6787472B2 (en) Dialogue control device, dialogue control method and program
JP7020390B2 (en) Control device, voice dialogue device, voice recognition server and program
JP2018132623A (en) Voice interaction apparatus
US12002487B2 (en) Information processing apparatus and information processing method for selecting a character response to a user based on emotion and intimacy
JP2001188788A5 (en)
CN111968632A (en) Call voice acquisition method and device, computer equipment and storage medium
JPWO2020089961A1 (en) Voice processor and program
JP7462995B1 (en) Information processing system, information processing method, and program

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees