JP2002215183A - Method and apparatus for creating sensibility, and software - Google Patents

Method and apparatus for creating sensibility, and software

Info

Publication number
JP2002215183A
JP2002215183A JP2001007726A JP2001007726A JP2002215183A JP 2002215183 A JP2002215183 A JP 2002215183A JP 2001007726 A JP2001007726 A JP 2001007726A JP 2001007726 A JP2001007726 A JP 2001007726A JP 2002215183 A JP2002215183 A JP 2002215183A
Authority
JP
Japan
Prior art keywords
information
emotion
instinct
generating
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001007726A
Other languages
Japanese (ja)
Other versions
JP3676981B2 (en
Inventor
Shunji Mitsuyoshi
俊二 光吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AGI KK
Original Assignee
AGI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AGI KK filed Critical AGI KK
Priority to JP2001007726A priority Critical patent/JP3676981B2/en
Priority to TW090121316A priority patent/TWI221574B/en
Priority to US10/380,279 priority patent/US7340393B2/en
Priority to KR1020037003615A priority patent/KR100714535B1/en
Priority to PCT/JP2001/007646 priority patent/WO2002023524A1/en
Priority to CN2005100590616A priority patent/CN1838237B/en
Priority to EP01961347A priority patent/EP1318505A4/en
Priority to CA002676228A priority patent/CA2676228A1/en
Priority to CNB018154557A priority patent/CN100370414C/en
Priority to RU2003110435/09A priority patent/RU2287856C2/en
Priority to CA2421746A priority patent/CA2421746C/en
Publication of JP2002215183A publication Critical patent/JP2002215183A/en
Priority to HK04103324A priority patent/HK1060429A1/en
Application granted granted Critical
Publication of JP3676981B2 publication Critical patent/JP3676981B2/en
Priority to HK07101134.8A priority patent/HK1096483A1/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method for creating sensibility by which sensibility in a state similar to a human being is outputted, and provide an apparatus for creating sensibility, and a recording medium. SOLUTION: Personality information subjected to sensibility developing which determines at least reason and the will is previously held. Status information which indicates the emotion of an opponent or an environmental status is inputted. Instinctive motivation information which includes at least a first instinct parameter indicating a degree of comfort, a second instinct parameter indicating a degree of risk, and a third instinct parameter indicating a degree of achievement or a degree of change is created based on the status information. Emotional information including at least a basic emotional parameter of pleasure, anger, and grief is created based on the created instinctive motivation information. The created emotional information is controlled based on the personality information.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、感性発生方法及び
感性発生装置並びに記録媒体に関し、仮想的な人間やロ
ボットの感性制御として様々な用途の様々なシステムに
利用することができる。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a kansei generating method, a kansei generating device, and a recording medium, and can be used in various systems for various uses as kansei control of a virtual human or robot.

【0002】[0002]

【従来の技術】本発明と関連のある従来技術としては、
例えば特開平11−265239号公報に開示された
「感情生成装置及び感情生成方法」が知られている。人
間などの内部状態を表す感情は、そのときの状況に応じ
て様々に変化する。特開平11−265239号公報に
おいては、予測不可能な状況における感情の生成を実現
するための技術を開示している。
2. Description of the Related Art The related art related to the present invention includes:
For example, an “emotional generator and an emotion generating method” disclosed in Japanese Patent Application Laid-Open No. H11-265239 is known. The emotion representing the internal state of a human or the like changes variously depending on the situation at that time. Japanese Patent Laying-Open No. 11-265239 discloses a technique for realizing emotion generation in an unpredictable situation.

【0003】すなわち、予測可能な状況に照らして状況
を評価し、装置自身の感情を発生させる。また、実際に
発生した過去の感情とそのときの状況とを分析し、それ
ぞれの状況に特有な予測不可能な付帯条件及びそれに対
応する感情を学習する。新たに入力された状況が学習し
た付帯条件を満足する場合には、その付帯条件に対応す
る感情を出力する。
That is, a situation is evaluated in the light of a predictable situation, and an emotion of the device itself is generated. In addition, it analyzes past emotions that have actually occurred and situations at that time, and learns unpredictable incidental conditions specific to each situation and emotions corresponding thereto. If the newly input situation satisfies the learned incidental condition, the emotion corresponding to the incidental condition is output.

【0004】このような装置によって生成された感情の
状態は、例えば出力される音声や映像に反映される。
[0004] The state of emotion generated by such a device is reflected on, for example, output audio and video.

【0005】[0005]

【発明が解決しようとする課題】従来の装置は、単に入
力された状況の情報から感情を直接生成しているにすぎ
ない。現実の人間においては、本能,理性,個性など様
々なパラメータが複雑に影響し、その結果として行動,
発言,表情などが変化する。従来の装置では、人間の本
能,理性,個性などを結果に精密に反映させることがで
きない。
Conventional devices simply generate emotions directly from input situational information. In a real human being, various parameters such as instinct, reason, and personality affect each other in a complex manner, resulting in behavior,
Remarks, facial expressions, etc. change. The conventional device cannot accurately reflect the instinct, reason, individuality, and the like of the human in the result.

【0006】本能及び感情は情動とみなすことができ
る。また、本能は基本的な生物的情動とその感情発生の
動機になる。また、人間は感情をそのまま出力している
のではなく、理性や個性によって制御された感性を出力
していると考えられる。本発明は、より人間に近い状態
で感性を出力することが可能な感性発生方法及び感性発
生装置並びに記録媒体を提供することを目的とする。
[0006] Instinct and emotion can be considered as emotions. Instinct also motivates basic biological emotions and their emotional development. Also, it is considered that humans do not output emotions as they are, but output sensibility controlled by reason and personality. An object of the present invention is to provide a kansei generating method, a kansei generating device, and a recording medium that can output kansei in a state closer to a human.

【0007】[0007]

【課題を解決するための手段】請求項1の感性発生方法
は、感性発生対象の少なくとも理性,定められた特性及
び意志を決定付ける個性情報を予め保持しておき、相手
の感情もしくは環境の状態を表す状況情報を入力し、前
記状況情報に基づいて、少なくとも快さの程度を表す第
1の本能パラメータと、危険度を表す第2の本能パラメ
ータと、達成度及び変化の程度を表す第3の本能パラメ
ータとを含む本能的動機付け情報を生成し、生成された
前記本能的動機付け情報に基づいて、少なくとも喜び,
怒り及び悲しみの基本感情パラメータを含む感情情報を
生成し、前記個性情報に基づいて、生成される前記感情
情報を制御することを特徴とする。
According to a first aspect of the present invention, there is provided a method for generating a sensibility, wherein at least personality information for determining at least a reason, a predetermined characteristic, and a will of the sensibility generating object is stored in advance, and the emotion or the state of the environment of the partner is generated. The first instinct parameter indicating at least the degree of pleasure, the second instinct parameter indicating the degree of risk, and the third indicating the degree of achievement and the degree of change based on the situation information. Instinct motivational information including instinct motivational information, and based on the generated instinct motivational information,
An emotion information including basic emotion parameters of anger and sadness is generated, and the generated emotion information is controlled based on the personality information.

【0008】請求項1においては、感情を生成するため
の動機付けとなる本能的動機付け情報を、入力される状
況情報(相手の感情,意志,周囲の状況など)に基づい
て生成する。つまり、状況情報から本能的動機付け情報
が生成され、その本能的動機付け情報に基づいて感情情
報が生成される。また、生成される感情情報は前記個性
情報に応じて制御される。このため、個人の理性や意志
によって制御された感情、すなわち感性の情報を出力す
ることができる。
In the present invention, instinctual motivation information for generating an emotion is generated based on input situation information (e.g., emotion, intention, surrounding situation, etc. of a partner). That is, instinctual motivation information is generated from the situation information, and emotion information is generated based on the instinctual motivation information. The generated emotion information is controlled according to the personality information. For this reason, it is possible to output emotion controlled by the individual's reason and intention, that is, information on sensibility.

【0009】また、本能的動機付け情報を介して感情情
報を生成するので、生成する感情をより精密かつ容易に
制御することができる。例えば、人間が既に危険である
と認識している状態で危険な状態に遭遇した場合に発生
する感情と、危険を全く感じていない人が突如として危
険な状態に遭遇した場合に発生する感情とは異なるが、
このような感情の違いを再現することもできる。
Further, since emotion information is generated through instinctual motivational information, the generated emotion can be controlled more precisely and easily. For example, the emotions that occur when a human encounters a dangerous state while already recognizing the danger, and the emotions that occur when a person who does not feel danger suddenly encounters a dangerous state Is different,
Such emotional differences can also be reproduced.

【0010】なお、本能パラメータとしては上記以外に
注目度(拒絶度),確信度(戸惑い度),追随度(主張
度)などを更に加えるのが望ましい。また、感情情報を
構成する基本感情パラメータには、上記以外に驚き,恐
れ,苦しみ,嫌悪,軽蔑,接近,逃避,嫉み,羨望,従
属,いらだち,不安などを更に加えるのが望ましい。請
求項2の感性発生装置は、相手の感情及び環境,意志の
状態を表すエピソード状況情報を入力し、前記エピソー
ド状況情報に基づいて、少なくとも快さの程度を表す第
1の本能パラメータと、危険度を表す第2の本能パラメ
ータと、達成度もしくは変化の程度を表す第3の本能パ
ラメータとを含む本能的動機付け情報を生成する本能決
定手段と、前記本能決定手段から出力される本能的動機
付け情報に基づいて、少なくとも喜び,怒り及び悲しみ
の基本感情パラメータを含む感情情報を生成する感情生
成手段と、感性発生対象の少なくとも理性及び感性的意
志を決定付ける個性情報を提供する個性情報提供手段
と、前記個性情報提供手段から提供される個性情報に基
づいて、前記感情生成手段から出力される感情情報を制
御する感情制御手段とを設けたことを特徴とする。
[0010] Instinct parameters other than the above, it is desirable to further add attention (rejection), confidence (confused), follow-up (declaration), and the like. In addition, it is desirable to further add to the basic emotion parameters constituting emotion information, in addition to the above, surprise, fear, suffering, disgust, disdain, approach, escape, jealousy, envy, subordination, frustration, anxiety, and the like. The emotion generating device according to claim 2 inputs episode situation information indicating a state of a partner's emotion, environment, and will, and based on the episode situation information, at least a first instinct parameter indicating a degree of pleasure and a danger. Instinct determining means for generating instinct motivation information including a second instinct parameter indicating a degree and a third instinct parameter indicating a degree of achievement or a change, and an instinct motivation output from the instinct determining means. Emotion generating means for generating emotion information including at least basic emotion parameters of joy, anger, and sadness based on attachment information, and personality information providing means for providing personality information for determining at least the reason and the emotional intention of the sensibility generating target And an emotion control means for controlling emotion information output from the emotion generating means based on the personality information provided from the personality information providing means. Characterized in that a and.

【0011】請求項2においては、本能決定手段,感情
生成手段,個性情報提供手段及び感情制御手段を設ける
ことにより、請求項1の感性発生方法を実施することが
できる。従って、個人の理性や意志によって制御された
感情、すなわち感性の情報を出力することができる。ま
た、本能的動機付け情報を介して感情情報を生成するの
で、生成する感情をより精密かつ容易に制御することが
できる。
According to the second aspect, the instinctive determining means, the emotion generating means, the personality information providing means, and the emotion controlling means are provided so that the method for generating a feeling according to the first aspect can be implemented. Therefore, it is possible to output the emotion controlled by the individual's reason and will, that is, information on the sensitivity. Further, since emotion information is generated through instinctual motivation information, the generated emotion can be controlled more precisely and easily.

【0012】請求項3は、請求項2の感性発生装置にお
いて、前記感情生成手段に、周期的に変化する環境もし
くは生体の生活リズムを表す情報を生成する生活リズム
発生手段と、前記生活リズム発生手段が出力する生活リ
ズムの情報に応じた確率に従って、前記感情生成手段に
おける自発感情を制御する自発感情制御手段とを設けた
ことを特徴とする。
According to a third aspect of the present invention, in the emotion generating apparatus according to the second aspect, the emotion generating means includes a life rhythm generating means for generating information representing a periodically changing environment or a living rhythm of a living body; And a spontaneous emotion control means for controlling a spontaneous emotion in the emotion generating means according to a probability according to the information of the life rhythm outputted by the means.

【0013】例えば、温度,湿度のような自然環境条件
は不規則ではあるが気象,季節,時刻などの変化に伴っ
て周期的に変化する。また、それぞれの人間についても
個別に肉体のリズム,感情のリズム,知能のリズムなど
を有していると考えられる。このような周期的に変化す
るリズムは、実際の人間の感情に様々な影響を及ぼすと
考えられる。
For example, natural environmental conditions such as temperature and humidity are irregular, but change periodically with changes in weather, season, time and the like. In addition, it is considered that each human has a physical rhythm, an emotional rhythm, an intelligence rhythm, and the like individually. Such a periodically changing rhythm is considered to have various effects on actual human emotions.

【0014】請求項3の自発感情制御手段は、生活リズ
ム発生手段が出力する生活リズムの情報に応じた確率に
従って、前記感情生成手段における自発感情を制御す
る。従って、環境もしくは生体の生活リズムに合わせて
出力する感情を変えることができる。請求項4は、請求
項2の感性発生装置において、前記感情生成手段に、前
記基本感情パラメータと前記本能的動機付け情報とを対
応付けるパターン情報を保持する本能−感情対応情報保
持手段と、前記本能決定手段から出力される本能的動機
付け情報と前記本能−感情対応情報保持手段のパターン
情報との整合/不整合の確率を表す情報を出力する整合
確率学習手段とを設けたことを特徴とする。
According to a third aspect of the present invention, the spontaneous emotion control means controls spontaneous emotion in the emotion generating means in accordance with a probability corresponding to the information of the living rhythm outputted by the living rhythm generating means. Therefore, it is possible to change the output emotion in accordance with the environment or the living rhythm of the living body. In a fourth aspect, the instinct-emotion correspondence information holding unit holds pattern information for associating the basic emotion parameter with the instinctual motivation information in the emotion generating unit. A matching probability learning means for outputting information indicating a probability of matching / mismatch between the instinct motivational information output from the determining means and the pattern information of the instinct-emotion correspondence information holding means; .

【0015】請求項4においては、本能的動機付け情報
とパターン情報との整合の確率を整合確率学習手段から
得て感情の判断要素として利用することができる。例え
ば、人間の精神状態が第1の状態から他の第2の状態に
変化する場合には、途中で第3の状態を経由して状態が
遷移するので、第3の状態ではあるパターン情報と一時
的に整合する可能性がある。しかし、この場合には第3
の状態で整合したパターン情報はあまり利用価値がな
い。整合確率学習手段で得られる整合の確率を利用する
ことにより、確率の低いパターン情報の感情が生成され
るのを抑制することができる。
According to the fourth aspect, the probability of matching between the instinctual motivation information and the pattern information can be obtained from the matching probability learning means and used as an emotion judgment element. For example, when the human mental state changes from the first state to the other second state, the state changes via the third state on the way, so that the third state includes certain pattern information. May be temporarily inconsistent. However, in this case the third
The pattern information matched in the state is not very useful. By using the matching probability obtained by the matching probability learning means, it is possible to suppress the generation of the emotion of the pattern information with low probability.

【0016】請求項5は、請求項2の感性発生装置にお
いて、前記感情生成手段に、少なくとも最後に生成され
た自己の感情情報を入力して次に生成する自己の感情情
報に反映する感情帰還制御手段を設けたことを特徴とす
る。人間の感情は様々な動機の入力によって連鎖的に変
化すると考えることができる。例えば、平常状態の人に
対して怒るべき動機を与えた場合に発生する感情の怒り
の程度と、既に怒っている人に対して更に怒るべき動機
を与えた場合に発生する感情の怒りの程度とは大きく異
なる。
According to a fifth aspect of the present invention, in the sensibility generating device according to the second aspect, at least emotion feedback generated by inputting at least the last generated own emotion information to the emotion generating means is reflected on the next generated self emotion information. A control means is provided. Human emotions can be considered to change in a chain according to various motive inputs. For example, the degree of emotional anger that occurs when a person in a normal state is motivated to be angry, and the degree of emotional anger that occurs when a person who is already angry is further motivated to be angry. Is very different.

【0017】請求項5においては、感情帰還制御手段を
設けることにより、直前に発生した感情の状態を入力に
帰還して次に発生する感情に反映することができる。従
って、より人間に近い感情を生成することができる。請
求項6は、請求項2の感性発生装置において、前記感情
制御手段は、入力される感情情報に対して感性発生対象
の個性である生活リズムの情報を反映することを特徴と
する。
According to the fifth aspect of the present invention, by providing the emotion feedback control means, the state of the emotion which has occurred immediately before can be returned to the input and reflected on the next emotion. Therefore, emotions closer to humans can be generated. According to a sixth aspect of the present invention, in the emotion generating apparatus according to the second aspect, the emotion control means reflects information on a life rhythm, which is a personality of the emotion generation target, in the input emotion information.

【0018】請求項6においては、生活リズムの情報を
感性に反映することができる。例えば、人間が乗り気の
場合と乗り気でない場合とでは理性などによる判断の結
果に違いが発生する。このような感性の違いを生活リズ
ムの反映により再現することができる。請求項7は、請
求項2の感性発生装置において、過去の状況,エピソー
ド及びその結果を示す状況情報を蓄積する知識データベ
ースと、新たに入力された状況情報に似た過去の状況情
報を前記知識データベースから検索して抽出し、過去の
状況情報を前記感情制御手段に与える知識照合手段と、
新たに入力された状況及びその結果を示す状況情報によ
って前記知識データベースの内容を更新するとともに、
前記知識データベースに蓄積された状況情報のうち優先
度の低いものについては時間的に古い順番で内容の重さ
に合わせて自動的に削除するデータ更新制御手段とを更
に設けたことを特徴とする。
According to the sixth aspect, the information of the life rhythm can be reflected on the sensitivity. For example, there is a difference in the result of judgment based on reason or the like between a case where a person is reluctant and a case where a person is not reluctant. Such a difference in sensitivity can be reproduced by reflecting the life rhythm. According to a seventh aspect of the present invention, in the kansei generating device according to the second aspect, a knowledge database for storing situation information indicating past situations, episodes, and the results thereof, and the past situation information similar to newly input situation information is stored in the knowledge database. Knowledge matching means for searching and extracting from a database, and providing past situation information to the emotion control means,
While updating the content of the knowledge database with the newly input status and status information indicating the result,
Data update control means for automatically deleting status information stored in the knowledge database, which has a lower priority, automatically in chronological order according to the weight of the content is further provided. .

【0019】請求項7においては、知識データベースに
過去の状況及びその結果を示す状況情報が蓄積されてい
る。例えば、あるエピソードの状況とその最終的な結果
がうまくいったかどうかなどを示す情報が蓄積されてい
る。このため、現在の状況に似た過去の状況情報を知識
データベースから取得して感情の制御に利用することが
できる。
In the present invention, situation information indicating past situations and their results is stored in the knowledge database. For example, information indicating the status of a certain episode and whether or not the final result was successful is accumulated. For this reason, past situation information similar to the current situation can be acquired from the knowledge database and used for emotion control.

【0020】ところで、知識データベースには時間の経
過に伴って新たに発生した情報を順次に追加しなければ
ならない。しかしながら、知識データベースを構成する
装置の記憶容量は有限である。また、蓄積した情報量が
増えるに従って処理速度が低下することになる。しか
し、請求項7ではデータ更新制御手段の制御により、優
先度の低い状況情報は時間的に古い順番で知識データベ
ースから自動的に削除される。このため、人間の忘却と
同様な結果を実現することができ、記憶容量の不足や処
理速度の低下を防止できる。
By the way, information newly generated with the passage of time must be sequentially added to the knowledge database. However, the storage capacity of a device constituting the knowledge database is limited. Also, the processing speed decreases as the amount of stored information increases. However, according to the seventh aspect, under the control of the data update control means, the status information having the lower priority is automatically deleted from the knowledge database in chronological order. Therefore, a result similar to that of human forgetting can be realized, and shortage of storage capacity and reduction of processing speed can be prevented.

【0021】請求項8は、請求項2の感性発生装置にお
いて、音声信号を入力する音声入力手段と、前記音声入
力手段が入力した音声信号から音声の強度を検出する強
度検出手段と、前記音声入力手段が入力した音声信号か
ら音声の出現速度をテンポとして検出するテンポ検出手
段と、前記音声入力手段が入力した音声信号から音声の
単語内の強度変化パターンを表す抑揚を検出する抑揚検
出手段と、前記強度検出手段が検出した音声の強度,前
記テンポ検出手段が検出した音声のテンポ及び前記抑揚
検出手段が検出した音声の抑揚のそれぞれについて変化
量を求める変化量検出手段と、前記変化量検出手段が検
出した変化量に基づいて、少なくとも怒り,悲しみ及び
喜びのそれぞれの感情状態を表す信号を出力する感情検
出手段とを更に設けたことを特徴とする。
According to an eighth aspect of the present invention, in the sensibility generator according to the second aspect, voice input means for inputting a voice signal, intensity detection means for detecting voice strength from the voice signal input by the voice input means, and Tempo detection means for detecting the appearance speed of voice as a tempo from the voice signal input by the input means, and intonation detection means for detecting intonation representing an intensity change pattern in a word of voice from the voice signal input by the voice input means; A change amount detecting means for obtaining a change amount for each of the sound intensity detected by the strength detecting means, the tempo of the sound detected by the tempo detecting means, and the intonation of the sound detected by the intonation detecting means; Emotion detecting means for outputting a signal representing at least anger, sadness, and joy based on the amount of change detected by the means. Characterized in that was.

【0022】請求項8においては、音声から抽出した特
徴量に基づいて相手の感情状態を検出することができ
る。従って、相手の感情に応じた自己感情を生成するこ
とができる。請求項9は、請求項8の感性発生装置にお
いて、前記音声入力手段から入力される音声を認識して
文字情報を出力する音声認識手段と、前記音声認識手段
が認識した音声の情報を自然言語処理して入力された音
声の意味を表す意味情報を生成する自然言語処理手段と
を更に設けたことを特徴とする。
According to the eighth aspect, the emotional state of the other party can be detected based on the feature amount extracted from the voice. Therefore, it is possible to generate a self-emotion according to the emotion of the other party. According to a ninth aspect of the present invention, in the sensibility generating apparatus according to the eighth aspect, a voice recognition unit that recognizes voice input from the voice input unit and outputs character information, and outputs the voice information recognized by the voice recognition unit in a natural language. Natural language processing means for generating semantic information representing the meaning of the input speech after processing is further provided.

【0023】請求項9においては、相手が話す言葉につ
いて意味情報が得られるので、この意味情報を理解した
結果を自己の感性に反映させることができる。請求項1
0の記録媒体は、感性発生制御に利用されるコンピュー
タで実行可能なプログラム及びデータを備えるソフトウ
ェアであって、前記プログラムには、相手の感情もしく
は環境の状態を表す状況情報を入力し、前記状況情報に
基づいて、少なくとも快さの程度を表す第1の本能パラ
メータと、危険度を表す第2の本能パラメータと、達成
度もしくは変化の程度を表す第3の本能パラメータとを
含む本能的動機付け情報を生成する手順と、生成された
前記本能的動機付け情報に基づいて、少なくとも喜び,
怒り及び悲しみの基本感情パラメータを含む感情情報を
生成する手順と、感性発生対象の少なくとも理性及び意
志を決定付ける個性情報を提供する手順と、前記個性情
報に基づいて、生成された前記感情情報を制御する手順
とを設けたことを特徴とする。
According to the ninth aspect, since the semantic information is obtained with respect to the words spoken by the other party, the result of understanding the semantic information can be reflected on one's own sensitivity. Claim 1
The recording medium of No. 0 is software including a computer-executable program and data used for control of emotion generation, and the program inputs status information representing the emotion or environment state of the other party, Based on the information, an instinct motivation including at least a first instinct parameter indicating a degree of pleasure, a second instinct parameter indicating a degree of risk, and a third instinct parameter indicating a degree of achievement or a change. Based on the procedure for generating information and the generated instinctual motivational information,
A procedure for generating emotion information including basic emotion parameters of anger and sadness, a procedure for providing personality information that determines at least the reason and will of the sensibility generation target, and generating the emotion information based on the personality information. And a control procedure.

【0024】請求項10のソフトウェアを入力して所定
のコンピュータでプログラムを実行することにより、請
求項1の感性発生方法を実施することができる。
By inputting the software of claim 10 and executing the program on a predetermined computer, the method of generating sensibility of claim 1 can be implemented.

【0025】[0025]

【発明の実施の形態】本発明の感性発生方法及び感性発
生装置並びに記録媒体の1つの実施の形態について、図
1〜図11を参照して説明する。この形態は、全ての請
求項に対応する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of a feeling generating method, a feeling generating device and a recording medium according to the present invention will be described with reference to FIGS. This form corresponds to all claims.

【0026】図1は感性発生装置を用いたシステムの構
成例を示すブロック図である。図2は本能情報生成部の
構成を示すブロック図である。図3は感情情報生成部の
構成を示すブロック図である。図4は感情反応パターン
DBにおける反応パターンモデルの例を示す模式図であ
る。図5は感性思考認知部の構成を示すブロック図であ
る。図6は感情検出装置の構成を示すブロック図であ
る。図7は抑揚検出部の構成を示すブロック図である。
図8は感情の状態の変化と音声の強度,テンポ及び抑揚
との関係を示すグラフである。
FIG. 1 is a block diagram showing an example of the configuration of a system using the sensibility generating device. FIG. 2 is a block diagram showing a configuration of the instinct information generation unit. FIG. 3 is a block diagram illustrating a configuration of the emotion information generation unit. FIG. 4 is a schematic diagram showing an example of a reaction pattern model in the emotion reaction pattern DB. FIG. 5 is a block diagram showing the configuration of the emotional thought recognition unit. FIG. 6 is a block diagram showing a configuration of the emotion detection device. FIG. 7 is a block diagram showing a configuration of the intonation detecting unit.
FIG. 8 is a graph showing the relationship between the change in the emotional state and the sound intensity, tempo, and intonation.

【0027】図9は抑揚検出部における音声信号処理の
過程を示すタイムチャートである。図10は忘却処理部
の動作を示すフローチャートである。図11は感情感性
記憶DBに記憶された情報の構成例を示す模式図であ
る。この形態では、請求項2の本能決定手段,感情生成
手段,個性情報提供手段及び感情制御手段は、それぞれ
本能情報生成部110,感情情報生成部130,個人D
B(データベースの略、以下同様)163及び感性思考
認知部150に対応する。また、請求項3の生活リズム
発生手段及び自発感情制御手段は、それぞれ多変量解析
部136及び自発感情制御部137に対応する。
FIG. 9 is a time chart showing a process of audio signal processing in the intonation detecting section. FIG. 10 is a flowchart showing the operation of the forgetting processing unit. FIG. 11 is a schematic diagram illustrating a configuration example of information stored in the emotional emotion storage DB. In this embodiment, the instinct determining means, the emotion generating means, the personality information providing means and the emotion controlling means of the present invention are the instinct information generating section 110, the emotion information generating section 130, and the personal D
B (abbreviation of database, the same applies hereinafter) 163 and kansei thinking recognition unit 150. The life rhythm generating means and the spontaneous emotion control means in claim 3 correspond to the multivariate analysis section 136 and the spontaneous emotion control section 137, respectively.

【0028】また、請求項4の本能−感情対応情報保持
手段及び整合確率学習手段は、それぞれ感情反応パター
ンDB141及び学習処理部135に対応する。請求項
5の感情帰還制御手段は基本感情パラメータ生成部13
3及び一時記憶DB142に対応する。請求項7の知識
データベース,知識照合手段及びデータ更新制御手段
は、それぞれ知識DB161,照合処理部152及び更
新処理部156に対応する。
The instinct-emotion correspondence information holding means and the matching probability learning means in claim 4 correspond to the emotion reaction pattern DB 141 and the learning processing unit 135, respectively. The emotion feedback control means according to claim 5, wherein the basic emotion parameter generation unit 13
3 and the temporary storage DB 142. The knowledge database, the knowledge matching unit, and the data update control unit in claim 7 correspond to the knowledge DB 161, the matching processing unit 152, and the update processing unit 156, respectively.

【0029】請求項8の音声入力手段,強度検出手段,
テンポ検出手段,抑揚検出手段,変化量検出手段及び感
情検出手段は、それぞれマイク11,強度検出部17,
テンポ検出部18,抑揚検出部19,感情変化検出部2
2及び音声感情検出部23に対応する。また、請求項9
の音声認識手段及び自然言語処理手段は、それぞれ音声
認識部20及び文章認識部26に対応する。
The voice input means, the intensity detection means,
The tempo detecting means, intonation detecting means, change amount detecting means, and emotion detecting means are provided by the microphone 11, the intensity detecting unit 17,
Tempo detector 18, intonation detector 19, emotion change detector 2
2 and the voice emotion detection unit 23. Claim 9
The voice recognition unit and the natural language processing unit correspond to the voice recognition unit 20 and the sentence recognition unit 26, respectively.

【0030】図1に示すシステムは、任意の人間とコン
ピュータ(仮想的な人間)との間での自然な感性的な対
話を実現することを想定して構成してある。この例で
は、コンピュータの相手となる人間の感情を検出するた
めに感情検出装置200が設けてあり、コンピュータ自
身の人格や感性を対話に反映するために感性発生装置1
00を設けてある。
The system shown in FIG. 1 is configured on the assumption that a natural emotional dialogue between any human and a computer (virtual human) is realized. In this example, an emotion detection device 200 is provided to detect the emotion of a human being a computer, and the emotion generation device 1 is used to reflect the personality and sensitivity of the computer itself in a dialog.
00 is provided.

【0031】また、様々な環境情報を入力するために環
境情報入力装置300を設けてある。環境情報入力装置
300は、例えば日付,時刻,気象情報,場所,映像の
情報などを出力する。なお、自律的に動作するシステム
に感性発生装置100を利用することもできる。例え
ば、予め創作したシナリオの情報を感性発生装置100
に入力すれば、そのシナリオに応じた反応を感性発生装
置100の出力から得ることができる。その場合、感情
検出装置200は不要である。
An environment information input device 300 is provided for inputting various environment information. The environment information input device 300 outputs, for example, date, time, weather information, location, video information, and the like. The sensibility generating device 100 can be used in a system that operates autonomously. For example, information of a scenario created in advance is sent to
, A response corresponding to the scenario can be obtained from the output of the sensibility generating device 100. In that case, the emotion detection device 200 is unnecessary.

【0032】また、図1の例では対話を実現するために
必要な装置が感性発生装置100の出力に接続してある
が、感性発生装置100が出力する感性データは様々な
用途に利用することができる。例えば、データ通信で感
性発生装置100を利用する場合には、文字情報を出力
すればよいので、音声を出力する必要はない。また、感
性発生装置100から出力される感性データを映像や音
楽並びに情報検索や機械の制御に反映させることも可能
である。
In the example shown in FIG. 1, the devices necessary for realizing the dialogue are connected to the output of the kansei generating device 100, but the kansei data output from the kansei generating device 100 may be used for various purposes. Can be. For example, when the sensibility generating device 100 is used for data communication, it is only necessary to output character information, and there is no need to output sound. In addition, it is also possible to reflect the emotion data output from the emotion generating apparatus 100 on video and music, information retrieval, and machine control.

【0033】次に、感性発生装置100の構成及び動作
について説明する。なお、感情検出装置200について
は後で説明する。図1に示すシステムについては、実際
にはコンピュータシステムとその上で実行されるソフト
ウェアプログラムとで構成することもできるし、専用の
ハードウェアとして実現することもできる。また、ソフ
トウェアプログラムや使用するデータについては、任意
の記録媒体に保存しておき記録媒体からコンピュータに
読み込んで実行することができる。なお、以下の説明に
おいては、図1のシステム自体をコンピュータと称す
る。
Next, the configuration and operation of the sensibility generating device 100 will be described. The emotion detecting device 200 will be described later. The system shown in FIG. 1 can be actually configured by a computer system and a software program executed on the computer system, or can be realized as dedicated hardware. The software program and the data to be used can be stored in an arbitrary recording medium, and can be read from the recording medium into a computer and executed. In the following description, the system itself in FIG. 1 is referred to as a computer.

【0034】感性発生装置100の入力には大きく分け
て2種類のデータD1及びD2が入力される。データD
1は相手の感情を表す情報である。また、データD2は
自然言語処理された文字情報であり、相手の意志,状況
及び環境の情報を含む。自然言語処理により、データD
2は「5W3H」、すなわち「誰が」,「何を」,「い
つ」,「どこで」,「なぜ」,「どうやって」,「どの
くらい」,「いくら」を表す情報として入力される。
The input of the sensibility generator 100 is roughly divided into two types of data D1 and D2. Data D
1 is information indicating the emotion of the other party. The data D2 is character information subjected to natural language processing, and includes information on the will, situation, and environment of the other party. By natural language processing, data D
2 is input as information indicating “5W3H”, that is, “who”, “what”, “when”, “where”, “why”, “how”, “how much”, and “how much”.

【0035】実際には、次のような様々な情報を感性発
生装置100の入力として利用することが可能である。
(A)時間的性質に関わる発声の強弱,リズム,テン
ポ,ポーズ,音階,音程 ,旋律,音の調和,周波数などの変化パターン並びに基
本感情(怒り,喜び,悲しみ,嫌悪,驚愕,恐れなど)
の度合い。
In practice, the following various information can be used as inputs to the sensibility generating device 100.
(A) Changes in vocal strength, rhythm, tempo, pause, scale, pitch, melody, sound harmony, frequency, etc. related to temporal properties and basic emotions (anger, joy, sadness, disgust, startle, fear, etc.)
Degree.

【0036】(B)音調的性質に関わる発声のアクセン
ト,太さ,緻密さ,明るさ,粗さ,音色(JIS−Z8
109),フォルマント,イントネーション,卓立(話
し言葉のある部分を際立たせて意味を明快にするプロミ
ネンス)などの情報。 (C)強勢ストレスの性質に関わる単語,文節内容,文
中の強勢配分,超文節的特徴情報,人工知能により生成
される特徴情報など。
(B) Accent, thickness, fineness, brightness, roughness, timbre (JIS-Z8) of utterance related to tonal properties
109), formants, intonation, prominence (prominence that emphasizes certain parts of spoken language and clarifies meaning). (C) Words related to the nature of stress, phrase content, stress distribution in the sentence, hyperphrasal feature information, feature information generated by artificial intelligence, and the like.

【0037】(D)談話分析されたテキスト情報,エピ
ソード情報(意味情報,人工知能の認知した情報を含
む)など。これらの情報のうち、(A)及び(B)は話
者の意図や情緒の影響を受ける。このような情緒は、感
情検出装置200を用いて検出することができる。図1
に示すように、感性発生装置100は本能情報生成部1
10,韻律パターンDB121,本能言語意味付け辞書
122,感情情報生成部130,感情反応パターンDB
141,一時記憶DB142,感性思考認知部150,
知識DB161,感性DB162,個人DB163及び
モラルハザードDB164を備えている。
(D) Discourse-analyzed text information, episode information (including semantic information, information recognized by artificial intelligence), and the like. Of these pieces of information, (A) and (B) are affected by the intention and emotion of the speaker. Such an emotion can be detected using the emotion detection device 200. Figure 1
As shown in FIG. 2, the instinctive information generating unit 1
10, prosody pattern DB 121, instinct language meaning dictionary 122, emotion information generation unit 130, emotion reaction pattern DB
141, temporary memory DB 142, emotional thinking recognition unit 150,
It has a knowledge DB 161, a sensitivity DB 162, a personal DB 163, and a moral hazard DB 164.

【0038】感性発生装置100の機能は、基本的に本
能情報生成部110,感情情報生成部130及び感性思
考認知部150の3つの機能要素に区分することができ
る。まず最初に、本能情報生成部110について説明す
る。図2に示すように、本能情報生成部110には韻律
パターン同調度認識部111,本能パラメータ生成部1
12及び辞書検索部113が備わっている。
The functions of the sensibility generating device 100 can be basically divided into three functional elements: an instinct information generating unit 110, an emotion information generating unit 130, and a kansei thinking recognition unit 150. First, the instinct information generation unit 110 will be described. As shown in FIG. 2, the instinct information generation unit 110 includes a prosody pattern synchronization degree recognition unit 111 and an instinct parameter generation unit 1.
12 and a dictionary search unit 113.

【0039】韻律パターン同調度認識部111が参照す
る韻律パターンDB121には、このコンピュータ(仮
想的な人間)に入力される韻律パターンの辞書が予め保
存されている。韻律とは発話のリズム要素であり、音
節,単語,句,文,発話全体(単語より長い連続音声)
に対して現れる音声的音韻的特質を表す。すなわち、前
記(A),(B)の入力情報と同等のコンピュータ自体
のパターン情報が個性情報として韻律パターンDB12
1に保持されている。
The prosody pattern DB 121 referred to by the prosody pattern synchronization degree recognition unit 111 stores a dictionary of prosody patterns input to the computer (virtual person) in advance. Prosody is the rhythmic element of speech, syllable, word, phrase, sentence, whole speech (continuous speech longer than word)
Represents the phonetic and phonological properties that appear for. That is, the pattern information of the computer itself equivalent to the input information of (A) and (B) is used as the personality information as the prosody pattern DB12.
It is held at 1.

【0040】韻律パターン同調度認識部111は、感情
検出装置200などから入力される相手の感情解析デー
タD1を韻律パターンDB121に保持された韻律パタ
ーンと比較して両者の同期度合い及び同調度合いを認識
する。韻律パターン同調度認識部111の出力には、強
い語気の有無や感情律変化などを表す情報が現れる。一
方、本能言語意味付け辞書122には本能刺激に関する
情報が予め登録されている。具体的には、強勢ストレス
の性質に関わる単語や文中の強勢配分パターンや超文節
的特徴を表す様々な情報が本能刺激と関連付けて辞書と
して保持されている。
The prosody pattern synchronization degree recognition section 111 compares the emotion analysis data D1 of the other party input from the emotion detection device 200 or the like with the prosody pattern stored in the prosody pattern DB 121 to recognize the degree of synchronization and the degree of synchronization between the two. I do. In the output of the prosody pattern synchronization degree recognition unit 111, information indicating the presence or absence of strong vocabulary, a change in emotional rhythm, and the like appear. On the other hand, information about instinct stimuli is registered in the instinct language meaning dictionary 122 in advance. Specifically, words related to the nature of stress stress, stress distribution patterns in the sentence, and various pieces of information indicating hyper-phrasal features are held as a dictionary in association with instinct stimuli.

【0041】辞書検索部113は、文字情報として入力
されるデータD2(相手の意志や状況)について本能言
語意味付け辞書122の内容との比較を行い、会話の内
容から本能的な反応情報を生成する。本能パラメータ生
成部112は、韻律パターン同調度認識部111から入
力される情報,辞書検索部113から入力される情報及
びデータD3に基づいて、本能的動機付け情報D4を生
成する。データD3は、感性発生装置100の出力から
フィードバックされる情報であり、このコンピュータが
提案したエピソードや希望反応パターンである。
The dictionary search unit 113 compares data D2 (will and situation of the other party) input as character information with the contents of the instinct language meaning dictionary 122, and generates instinctual reaction information from the contents of the conversation. I do. The instinct parameter generation unit 112 generates instinct motivational information D4 based on information input from the prosody pattern synchronization degree recognition unit 111, information input from the dictionary search unit 113, and data D3. The data D3 is information fed back from the output of the sensibility generating device 100, and is an episode or a desired reaction pattern proposed by the computer.

【0042】この例では、本能的動機付け情報D4には
確信度(又は戸惑い度),快度(又は不快度),危険度
(又は安全度),注目度(又は拒絶度),達成度(又は
変化度)及び追随度(又は主張度)の6つの本能パラメ
ータが含まれている。本能パラメータ生成部112は、
次のようにして各本能パラメータの値を決定する。
In this example, the instinct motivational information D4 includes the degree of certainty (or degree of embarrassment), degree of pleasure (or degree of discomfort), degree of danger (or degree of security), degree of attention (or degree of rejection), degree of achievement ( Or the degree of change) and the degree of follow-up (or degree of assertion). The instinct parameter generation unit 112
The value of each instinct parameter is determined as follows.

【0043】快度(不快度):コンピュータが提案した
内容や望んだ状況エピソードに近づくと快度が加算され
その逆だと減算される。また、予め心地いいと定めた韻
律に近づくと快度が加算されその逆だと減算される。 危険度(安全度):予めコンピュータが危険とみなした
内容や危険と想定される状況エピソードに近づくと危険
度が加算され、その逆だと減算される。また、予め危険
とされた韻律に近づくと危険度が加算され、その逆だと
減算される。
Pleasure (discomfort): The degree of pleasure is added when approaching the content suggested by the computer or the desired situation episode, and subtracted when the opposite is true. In addition, the degree of pleasure is added when approaching a prosody that is determined to be comfortable in advance, and is subtracted when the opposite is true. Danger level (security level): The risk level is added when the computer approaches a content that the computer has previously considered to be dangerous or a situation episode that is assumed to be dangerous, and subtracts when the situation is the opposite. In addition, the risk is added when approaching a prosody that is regarded as dangerous in advance, and is subtracted when the prosody is regarded as dangerous.

【0044】達成度(変化度):予め成功・達成と定め
た内容や成功・達成と想定された状況エピソードに近づ
くと達成度が加算されその逆だと減算される。また、急
激な変調としてみなした特定の韻律に近づくと変化度が
加算されその逆だと減算される。 注目度(拒絶度):予め拒絶・否定とした内容や拒絶・
否定と想定される状況エピソードに近づくと拒絶度が加
算(注目度が減算)されその逆だと減算(加算)され
る。また、強い主張や度重なる主張を検出した場合や強
い韻律に近づくと注目度が加算される。また、不快とし
て定めた韻律に近づくと拒絶度が加算される。
Achievement (degree of change): Achievement is added when the content approaches a content that is determined to be successful or achieved in advance or a situation episode assumed to be successful or accomplished, and is subtracted when the opposite is true. In addition, the degree of change is added when approaching a specific prosody regarded as rapid modulation, and is subtracted when the opposite is true. Attention (rejection level): Content that was previously rejected / denied or rejected
When approaching a situation episode that is assumed to be negative, the rejection level is added (subtraction level is subtracted), and vice versa. In addition, when a strong claim or a repeated claim is detected, or when approaching a strong prosody, the attention level is added. In addition, a rejection degree is added when approaching the prosody defined as unpleasant.

【0045】追随度(主張度):予め自己卑下・自己否
定として定めた内容や想定される状況エピソードに近づ
くと追随度が加算(主張度が減算)され、予め得意とし
て定めた内容が現れた場合には主張度が加算(追随度が
減算)される。また、予め不安として定めた韻律が現れ
ると主張度が加算される。なお、強い韻律に近づくと反
発度を加算したり、自己否定度を加算する場合もある。
Follow-up degree (degree of assertion): When approaching the content determined in advance as self-deprecation or self-denial or an assumed situation episode, the degree of follow-up is added (the degree of assertion is subtracted), and the content determined in advance as a specialty appears. In this case, the degree of assertion is added (the degree of following is subtracted). If a prosody determined as anxiety appears in advance, the claim level is added. In addition, when approaching a strong prosody, the degree of repulsion or the degree of self-denial may be added.

【0046】確信度(戸惑い度):戸惑いの内容や想定
される状況エピソードに近づくと、本能に関する各種刺
激(入力)の認識率が低い場合(例えば70%以下)、
戸惑い度は認識率に反比例して発生する。認識率は声の
調子や会話の内容により判断される。
Confidence (degree of embarrassment): When approaching the episode of the content of embarrassment or an assumed situation, if the recognition rate of various stimuli (inputs) related to instinct is low (for example, 70% or less),
The degree of embarrassment occurs in inverse proportion to the recognition rate. The recognition rate is determined based on the tone of the voice and the content of the conversation.

【0047】なお、上記のような制御を実現するため
に、コンピュータが望む内容と状況エピソードの韻律を
予め個性として決定しておく。上記のように、相手の感
情情報がコンピュータの個人的な本能を刺激し、各本能
パラメータの値が変化する。本能情報生成部110から
出力される本能的動機付け情報D4は、感情情報生成部
130に入力される。次に、感情情報生成部130につ
いて説明する。
In order to realize the above control, the contents desired by the computer and the prosody of the situation episode are determined in advance as individuality. As described above, the emotional information of the partner stimulates the personal instinct of the computer, and the value of each instinct parameter changes. The instinct motivational information D4 output from the instinct information generation unit 110 is input to the emotion information generation unit 130. Next, the emotion information generation unit 130 will be described.

【0048】感情情報生成部130は、図3に示すよう
に反応パターン検索部134,学習処理部135,多変
量解析部136,自発感情制御部137及び基本感情パ
ラメータ生成部133を備えている。また、反応パター
ン検索部134,学習処理部135及び感情反応パター
ンDB141はレスポデントシステム131を構成し、
多変量解析部136及び自発感情制御部137はオペラ
ントシステム132を構成している。
As shown in FIG. 3, the emotion information generation section 130 includes a reaction pattern search section 134, a learning processing section 135, a multivariate analysis section 136, a spontaneous emotion control section 137, and a basic emotion parameter generation section 133. In addition, the reaction pattern search unit 134, the learning processing unit 135, and the emotion reaction pattern DB 141 constitute a response system 131,
The multivariate analysis unit 136 and the spontaneous emotion control unit 137 constitute the operant system 132.

【0049】レスポデントシステム131は、刺激誘導
による感情を発生するために設けてある。オペラントシ
ステム132は、自発感情(リビドー)を生成するため
に設けてある。レスポデントシステム131で使用され
る感情反応パターンDB141には、本能的動機付け情
報D4と基本感情パラメータとの対応関係を表す反応パ
ターンモデルの情報が予め保持されている。この反応パ
ターンモデルについては、例えば図4のように表すこと
ができる。
[0049] The response system 131 is provided to generate an emotion by stimulation induction. The operant system 132 is provided for generating spontaneous emotions (libido). In the emotion reaction pattern DB 141 used in the response system 131, information of a reaction pattern model representing the correspondence between the instinct motivational information D4 and the basic emotion parameters is held in advance. This reaction pattern model can be represented, for example, as shown in FIG.

【0050】なお、1つのコンピュータで複数の人間の
人格を選択的に再現する場合には、複数の人間のそれぞ
れ、あるいは個性のタイプ別に対応する反応パターンモ
デルを感情反応パターンDB141に予め登録してお
き、選択した人間の個性に合わせて反応パターンモデル
を選択すればよい。この例では、本能的動機付け情報D
4として入力される本能パラメータとして前述の確信度
(又は戸惑い度),快度(又は不快度),危険度(又は
安全度),注目度(又は拒絶度),達成度(又は変化
度)及び追随度(又は主張度)の6つを想定している。
When one computer selectively reproduces the personalities of a plurality of persons, a reaction pattern model corresponding to each of a plurality of persons or each type of personality is registered in the emotion reaction pattern DB 141 in advance. The reaction pattern model may be selected according to the personality of the selected person. In this example, instinct motivational information D
The instinct parameters input as 4 include the above-mentioned confidence (or embarrassment), pleasure (or discomfort), danger (or safety), attention (or rejection), achievement (or change) and Six degrees of follow-up (or degree of assertion) are assumed.

【0051】また、感情情報生成部130から出力する
基本感情パラメータとしては、次の15種類のパラメー
タを想定している。但し、括弧内は影響を受ける本能パ
ラメータを表している。 1.怒り(不快) 2.喜び・陽気(快) 3.悲しみ(未達成・停滞・不快) 4.驚き(達成・衝撃) 5.恐れ(危険・緊張) 6.苦しみ(危険・緊張・不快) 7.嫌悪(拒絶・拒否・不快) 8.軽蔑(拒絶・弛緩) 9.接近(快・安全) 10.逃避・回避(危険・緊張・不快) 11.嫉み(不快・怒り・羨望・注目) 12.積極(安全・快・確信) 13.従属(達成・追随) 14.いらだち・闘争(主張・停滞・不快・危険) 15.不安(危険・緊張・戸惑い・不快) 感情反応パターンDB141には、15種類の基本感情
パラメータのそれぞれについて、1つ又は複数の基本感
情パラメータとの関連を示す反応パターンが保持されて
いる。
The following 15 types of parameters are assumed as basic emotion parameters output from emotion information generating section 130. However, parentheses indicate the instinct parameters that are affected. 1. Anger (discomfort) 2. Joy and merry (pleasant) 3. Sorrow (not achieved / stagnation / discomfort) Surprise (achievement / shock) Fear (danger, tension) 6. suffering (danger, tension, discomfort) Disgust (rejection / rejection / discomfort) 8. Disdain (rejection / relaxation) Approach (pleasant / safe) 10. Escape / Avoid (Danger / Tension / Discomfort) Jealousy (discomfort, anger, envy, attention) Active (safe, pleasant, convinced) Dependency (achievement / follow) 14. Irritability / Struggle (Claim / Stagnation / Discomfort / Danger) Anxiety (danger, tension, embarrassment, discomfort) The emotion response pattern DB 141 holds a reaction pattern indicating the relationship with one or more basic emotion parameters for each of the 15 types of basic emotion parameters.

【0052】反応パターン検索部134は、感情反応パ
ターンDB141を検索し、入力される本能的動機付け
情報D4とそれぞれの基本感情パラメータの反応パター
ンとの整合/不整合を調べ、整合した基本感情パラメー
タの情報をデータD6として出力する。学習処理部13
5は、感性思考認知部150から出力される情報D3
と、反応パターン検索部134から出力される相手の次
の反応感情に基づいてパターンマッチングのあり方に関
する確率を学習し、感情反応パターンDB141の内容
を学習結果に応じて変更する。
The reaction pattern search unit 134 searches the emotion reaction pattern DB 141, checks whether the input instinct motivational information D4 matches the reaction pattern of each basic emotion parameter, and checks the matched basic emotion parameter. Is output as data D6. Learning processing unit 13
5 is information D3 output from the emotional thought recognition unit 150
Then, the probability of pattern matching is learned based on the next reaction emotion of the partner output from the reaction pattern search unit 134, and the contents of the emotion reaction pattern DB 141 are changed according to the learning result.

【0053】一方、オペラントシステム132の入力に
は、例えば気象情報,季節情報,時刻情報などを含む環
境情報(D2)が入力される。多変量解析部136は、
入力される様々な環境情報について多変量解析を行い、
その結果として生活リズム情報を出力する。生活リズム
情報には、短期リズム(例えば1時間周期),生活リズ
ム(例えば24時間周期),感情長期リズム(例えば2
8日周期),肉体長期リズム(例えば23日周期),知
能リズム(例えば33日周期)のように周期が一定の規
則的な(正弦波状の)リズムと、温度,湿度,天気など
の不規則なリズムとがある。
On the other hand, environmental information (D2) including, for example, weather information, seasonal information, and time information is input to the input of the operant system 132. The multivariate analysis unit 136
Performs multivariate analysis on various input environmental information,
As a result, life rhythm information is output. The life rhythm information includes a short-term rhythm (for example, one-hour cycle), a life rhythm (for example, 24-hour cycle), and a long-term emotion rhythm (for example, 2
Regular (sinusoidal) rhythm with a constant cycle such as an 8-day cycle, a physical long-term rhythm (for example, a 23-day cycle), an intelligent rhythm (for example, a 33-day cycle), and irregularities such as temperature, humidity, and weather There is a rhythm.

【0054】自発感情制御部137は、多変量解析部1
36から出力される生活リズム情報リズムの中で、予め
定めた範囲内の確率に従って、自発感情(リビドー)を
出力する。基本感情パラメータ生成部133は、レスポ
デントシステム131から出力される基本感情パラメー
タ及び整合率の情報と、オペラントシステム132から
出力される自発感情とを総合的に判断した結果(15種
類の基本感情パラメータからなる情報)を自己感情情報
D5として出力する。
The spontaneous emotion control unit 137 includes the multivariate analysis unit 1
The spontaneous emotion (libido) is output according to the probability within a predetermined range in the life rhythm information rhythm output from 36. The basic emotion parameter generation unit 133 comprehensively determines the information on the basic emotion parameter and the matching rate output from the response system 131 and the spontaneous emotion output from the operant system 132 (15 types of basic emotion parameters). Is output as self-emotion information D5.

【0055】また、出力された自己感情情報D5は一時
記憶DB142に一時的に記憶され、基本感情パラメー
タ生成部133の入力にフィードバックされる。基本感
情パラメータ生成部133は、一時記憶DB142から
フィードバックされる情報を直前の自己感情として入力
し、それを次回の感情判断結果に反映する。また、基本
感情パラメータ生成部133が総合的な判断を行う際に
は、個性情報143として定められた個性に従って、各
部の優先度や影響度を決定する。
The output self emotion information D5 is temporarily stored in the temporary storage DB 142, and is fed back to the input of the basic emotion parameter generation unit 133. The basic emotion parameter generation unit 133 inputs the information fed back from the temporary storage DB 142 as the immediately preceding self-emotion and reflects it in the next emotion determination result. Further, when the basic emotion parameter generation unit 133 makes a comprehensive judgment, the priority and the degree of influence of each unit are determined according to the personality defined as the personality information 143.

【0056】例えば、直情型の個性を再現する場合に
は、レスポデントシステム131の影響度を大きく(8
0%以上)するとともに直前の自己感情の影響も大きく
する。また、思考型の個性を再現する場合には、オペラ
ントシステム132の出力が安定している環境下におい
て、レスポデントシステム131の影響度を小さく(3
0%以下)にするとともに直前の自己感情の影響も小さ
くする。
For example, when the personality of the intuition type is reproduced, the influence of the response system 131 is increased (8
0% or more) and the influence of the previous self-emotionality is also increased. In the case where the thinking-type personality is reproduced, the influence of the response system 131 is reduced in an environment where the output of the operant system 132 is stable (3
0% or less) and reduce the influence of the previous self-emotional feeling.

【0057】感情情報生成部130から出力される自己
感情情報D5は感性思考認知部150に入力される。感
情情報生成部130には、図5に示すように重み付け処
理部151,照合処理部152,多変量解析部153,
総合直感意志決定部154及び更新処理部156が備わ
っている。重み付け処理部151は、入力される自己感
情情報D5に対して個性情報155に応じた重み付けを
行う。重み付けされた自己感情情報が重み付け処理部1
51から出力される。
The self-emotional information D5 output from the emotion information generating section 130 is input to the sensible thinking recognition section 150. As shown in FIG. 5, the emotion information generating unit 130 includes a weighting processing unit 151, a matching processing unit 152, a multivariate analysis unit 153,
A total intuition determination unit 154 and an update processing unit 156 are provided. The weighting processing unit 151 weights the input self-emotional information D5 according to the personality information 155. Weighted self-emotion information is weighted by processing unit 1
51.

【0058】一方、照合処理部152の入力にはデータ
D2として環境,状況,相手の意志などを表すエピソー
ド及びその結果を含む文字情報(5W3H)が入力され
る。照合処理部152が参照する知識DB161には、
過去のエピソード及びその結果並びにそれらの意味を表
す意味情報が文字情報(5W3H)の形式で知識として
蓄積されている。また、知識DB161上の知識は各々
のデータが得られた時刻の情報を含み、時刻の順番に従
って並べてある。
On the other hand, to the input of the collation processing unit 152, character information (5W3H) including an episode indicating an environment, a situation, a partner's will, and the like and data of the result are input as data D2. The knowledge DB 161 referenced by the matching processing unit 152 includes
Past episodes, their results, and semantic information indicating their meaning are accumulated as knowledge in the form of character information (5W3H). The knowledge on the knowledge DB 161 includes information on the time when each data is obtained, and is arranged according to the order of the time.

【0059】この例では、知識DB161上の知識は、
長期記憶,宣言的記憶及び手続き記憶に分類できる。宣
言的記憶とは、言葉による記憶であり特定の時間・空間
的文脈の中での出来事であるエピソード情報と一般的知
識としての意味情報を表す。手続き記憶は方法や手法に
関する記憶を表す。エピソード情報は、時間,場所,内
容,意志(賛同,反対,好意など),人称,数量,重
さ,状況,状態,相手の個人情報,情動,意図(目
的),態度,対人関係などを含む。意味情報は、言語辞
書及び感性辞書に相当する。個人情報としては、個人の
気質,性格,情緒性,社会適応性(社交性),欲求,葛
藤,態度,優越,コンプレックス,興味,適正,道徳
性,思考パターン,感情特異点,執着内容(及びその程
度),タブー語,嗜好性,善悪基準などが考えられる。
In this example, the knowledge on the knowledge DB 161 is
It can be classified into long-term memory, declarative memory, and procedural memory. Declarative memory is verbal memory, which represents episodic information that is an event in a specific temporal / spatial context and semantic information as general knowledge. The procedural memory represents a memory related to a method or technique. Episode information includes time, place, content, will (approve, disagree, favor, etc.), personal name, quantity, weight, situation, state, partner's personal information, emotion, intention (purpose), attitude, interpersonal relationship, etc. . The semantic information corresponds to a language dictionary and a sensitivity dictionary. Personal information includes personal temperament, personality, emotion, social adaptability (sociability), desire, conflict, attitude, superiority, complex, interest, adequacy, morality, thinking pattern, emotional singularity, attachment content (and Degree), taboo, preference, good / bad criteria, etc.

【0060】この例では、次のような文法に従って、知
識の情報を知識DB161に蓄積してある。但し、目的
に応じてデータベースの構成内容は変更される。 物語=場面+プロット+解決 場面=登場人物+場所+時間 テーマ=(出来事)+目標 プロット=エピソード エピソード=下位目標+試み+結果 試み=出来事+エピソード 結果=出来事+状態 解決=出来事+状態 下位目標,目標=望ましい状態 登場人物,場所,時間=状態 また、更新処理部156の働きにより知識DB161に
は新たな情報が逐次追加される。また、繰り返し行われ
る忘却処理によって不要な情報は自動的に知識から削除
される。すなわち、優先度の高いデータを除き時間的に
古くなったデータから順番に削除する。例えば反復して
利用された知識や印象が強いと判断されたデータについ
ては優先的に扱い、古くなっても削除しない。また、忘
却の程度や各データの優先順位については個性に応じて
変更することができる。
In this example, knowledge information is stored in the knowledge DB 161 according to the following grammar. However, the configuration of the database is changed according to the purpose. Story = Scene + Plot + Resolution Scene = Character + Location + Time Theme = (Event) + Goal Plot = Episode Episode = Lower Goal + Trial + Result Trial = Event + Episode Result = Event + State Resolution = Event + State Lower Goal , Goal = desired state Character, place, time = state Further, new information is sequentially added to the knowledge DB 161 by the operation of the update processing unit 156. Unnecessary information is automatically deleted from the knowledge by repeated forgetting processing. That is, the data is deleted in order from the data that is older in time except for the data with the higher priority. For example, data that has been repeatedly used and determined to have a strong impression is given priority, and is not deleted even when it becomes old. Also, the degree of forgetting and the priority of each data can be changed according to individuality.

【0061】照合処理部152は、入力されるデータD
2に基づいてそれに近い過去のエピソード及び結果を知
識DB161から検索して抽出し、入力データと抽出さ
れた知識との照合を行う。学習処理部157は、入力さ
れるエピソードの結果に基づいて、そのエピソードに対
する自己価値観の情報を学習により生成する。すなわ
ち、学習処理部157は入力されるエピソードの結果か
ら満足度及び快,不快の度合い付けを行う。
The collation processor 152 receives the input data D
2 and retrieves and extracts past episodes and results from the knowledge DB 161 that are close to the previous episode and collates the input data with the extracted knowledge. The learning processing unit 157 generates, based on the result of the input episode, self-value information for the episode by learning. That is, the learning processing unit 157 assigns a degree of satisfaction and a degree of pleasure or discomfort based on the result of the input episode.

【0062】多変量解析部153は、重み付け処理部1
51から入力される重み付けされた感情情報と、照合処
理部152から入力されるエピソード情報及び結果情報
と、学習処理部157から入力される自己価値観の情報
と、個人DB163から入力される自己意志及び自己本
能の情報とを多変量解析し、その結果を総合直感意志決
定部154に出力する。
The multivariate analysis unit 153 includes the weight processing unit 1
51, the episode information and the result information input from the matching processing unit 152, the self-value information input from the learning processing unit 157, and the self-will input from the personal DB 163. And the information of the self-instinct is multivariately analyzed, and the result is output to the overall intuition determination unit 154.

【0063】総合直感意志決定部154は、個人DB1
63及びモラルハザードDB164の内容を判断辞書と
して利用し、多変量解析部153から入力される情報を
総合的に判断し、何を自発的に実行するかと、その結果
をデータD3として出力する。個人DB163には、次
に示すような様々な情報が辞書情報として保持されてい
る。
The total intuition determination unit 154 stores the personal DB1
Using the contents of the moral hazard DB 164 and the moral hazard DB 164 as a determination dictionary, the information input from the multivariate analysis unit 153 is comprehensively determined, what is spontaneously executed, and the result is output as data D3. The personal DB 163 stores various types of information as dictionary information as described below.

【0064】1.個性情報: (a)個性のタイプ毎の度合いに応じた判断基準:タイ
プとしてはステレオタイプ,他者志向型,内部志向型,
伝統志向型,攻撃志向型,協調志向型,ストレス克服
型,ストレス発散型などが考えられる。また、達成動機
度やリアクタンス度も判断基準として利用できる。
1. Individuality information: (a) Judgment criteria according to the degree of individuality type: stereotype, others-oriented type, internal-oriented type,
Traditional, attack-oriented, collaborative, stress-overcoming, and stress-dissipating types are possible. Further, the achievement motivation degree and the reactance degree can also be used as criteria.

【0065】(b)認知スタイルの判断基準:「熟慮
型」と「衝動型」との区別や「場依存型」と「場独立
型」との区別による認知スタイルを判断基準とする。 (c)性格による判断基準:日本人の場合には、人格検
査法やTPI(東京大学版総合性格検査)などにより分
類される個人の気質,性格,情緒性,社会適応性(社交
性),欲求,葛藤,態度,コンプレックス,興味,適
正,道徳性,思考パターン,感情特異点,執着内容(及
びその度合い),タブー語,嗜好性,善悪基準,恥の基
準,罪の基準,快・不快の基準などを判断基準として利
用する。
(B) Judgment criteria for cognitive style: A cognitive style based on a distinction between “contemplation type” and “impulsive type” and a distinction between “field-dependent type” and “field-independent type” is used as a judgment standard. (C) Judgment criteria based on personality: In the case of Japanese, individual temperament, personality, emotion, social adaptability (sociability), classified by personality test method or TPI (Tokyo University version comprehensive personality test), etc. Desire, Conflict, Attitude, Complex, Interest, Appropriateness, Morality, Thinking Pattern, Emotion Singularity, Attachment Content (and Degree), Taboo, Preference, Good and Evil Criteria, Shame Criteria, Crime Criteria, Pleasure / Discomfort Is used as a criterion.

【0066】(d)ネガティビリティー・バイアスの判
断基準:ネガティブな情報を大きくとらえやすくするた
めにバイアスを与えて性格形成に利用する。 (e)粘着固執時間の判断基準:相手の認知情報やエピ
ソード及び感情情報に対する固執度とそれに対する反応
対応時間を決定する。
(D) Judgment Criteria for Negativeness Bias: Negative information is biased and used for character formation in order to make it easy to catch large amounts of negative information. (E) Criteria for sticking persistence time: Determine the degree of sticking to cognitive information, episodes, and emotion information of the other party and the response response time to it.

【0067】2.イド無意識反応基準情報: (a)本能を刺激する内容の単語辞書及び文節辞書。 (b)個性別の忍耐度,粘着度,直情度のための各種本
能反応時間の基準。 (c)個性として決定された相手の感情に対応する自己
本能パターン。 3.ホメオスタシス(抑制)の基準情報:全体的な本能
の出力を調和と安定に維持しようとするための判断基
準。
2. Id unconscious reaction criterion information: (a) Word dictionary and phrase dictionary of contents that stimulate instinct. (B) Criteria for various instinct reaction times for the degree of patience, stickiness, and intuition of each gender. (C) Self-instinct pattern corresponding to the emotion of the partner determined as personality. 3. Homeostasis Criteria Information: Criteria for trying to maintain the overall instinct output in harmony and stability.

【0068】4.自我意識反応基準情報:個性による自
己の意志を表す判断基準の情報。また、判断辞書として
は真偽,正誤,適不適のような再認判断や同定判断に利
用される情報と、快不快などの本能判断に利用される情
報と、複雑さ,重さなどの対象についての個別認識判断
に利用される情報と、同,大小,異,類似のような対象
間の相対認知判断に利用される情報と、記憶の確信度や
知識の正確さなどのメタ記憶判断に利用される情報と、
真,善,愛などの抽象判断に利用される情報と、帰納的
判断に利用される情報などが含まれている。
4. Ego Consciousness Reaction Criteria Information: Judgment criteria information that expresses one's will by personality. In addition, as a judgment dictionary, information used for recognizing judgment and identification judgment such as true / false, right / wrong, adequacy, information used for instinct judgment such as pleasure and unpleasantness, and objects such as complexity and weight Information used for individual recognition judgment of information, information used for judgment of relative cognition between objects such as same, large, small, different, and similar, and meta-memory judgment such as certainty of memory and accuracy of knowledge Information and
It includes information used for abstract decisions such as true, good, and love, and information used for inductive decisions.

【0069】また、モラルハザードDB164には、職
業モラル,個人モラル,根本的モラルなどに関する辞書
情報が保持されている。例えば、職業モラルとしては
「建築家としては完全な計算を求める」,「仕事は何よ
り優先する」,「プロとして誇りを持っている」などが
登録される。また、個人モラルとしては「僕は女性を大
切にする(私は男の人に偉そうにしない)」,「田舎を
誇りに思う」,「日本人を誇りに思う」などが登録され
る。根本的モラルとしては、「殺人はいけない」,「親
を大切にする」,「自分は男(女)である」などが登録
される。
The moral hazard DB 164 holds dictionary information on occupational morals, personal morals, fundamental morals, and the like. For example, as an occupational moral, "a complete calculation is required as an architect", "work takes precedence over anything", and "we have pride as a professional" are registered. In addition, as personal morals, "I value a woman (I do not like a man)", "I am proud of the countryside", "I am proud of the Japanese" are registered. As a fundamental moral, "do not kill", "value parents", "I am a man (woman)" and the like are registered.

【0070】総合直感意志決定部154は、感情情報生
成部130によって生成された自己感情の情報を重み付
け処理部151,照合処理部152,多変量解析部15
3により解析し、このコンピュータの個性や意志を表す
個人DB163上の判断辞書及びモラルハザードDB1
64上の判断辞書に基づいて抑制し、何に対してどのよ
うな自己感情反応(感性)をどれくらい出力するのかを
決定する。決定の際には、その時の環境や状況並びに相
手の意志を反映する。
The total intuition determination unit 154 includes a weighting unit 151, a matching unit 152, and a multivariate analyzing unit 15.
3 and a moral hazard DB1 and a judgment dictionary on the personal DB 163 representing the personality and will of the computer.
The self-emotion response (sensitivity) is determined based on the suppression dictionary based on the judgment dictionary described above. When making a decision, reflect the environment and situation at that time and the will of the partner.

【0071】感性思考認知部150には、次のような機
能が備わっている。 1.強い印象や語彙あるいは急激な感情変化を検出した
場合には個性に応じて判断の周期を変更する。例えば、
急に大声で強い内容を主張した場合には判断周期を短く
する。 2.個性による自己のバイオリズムに反応して乗り気の
ときと気分が乗らないときとで異なる感性判断を行う。
The sensibility thinking recognition unit 150 has the following functions. 1. When a strong impression or vocabulary or a sudden change in emotion is detected, the cycle of the judgment is changed according to the personality. For example,
When suddenly loud and strong content is claimed, the judgment cycle is shortened. 2. In response to his / her own biorhythm due to personality, different emotional judgments are made when he / she feels tired and when he / she does not feel good.

【0072】3.自己の快・不快や感情量に応じて異な
る感性判断を行う。 4.現在の状況を表す情報について知識DB161上の
知識を利用して理性的な価値判断を行い、感情の判断結
果の影響を反映して最終的な意志を決定する。 5.価値判断を行う際には、社会的価値,職業的価値,
生活的価値,個人的価値などのそれぞれの立場で判断す
る。また、社会的価値,職業的価値,生活的価値及び個
人的価値のそれぞれを更に細かく区別して判断する。例
えば、社会的価値については、宗教,審美,社会,政
治,経済,倫理のそれぞれの観点について価値を算出す
る。
3. Different emotional judgments are made according to their own pleasure / discomfort and emotional amount. 4. A rational value judgment is performed on the information indicating the current situation using the knowledge in the knowledge DB 161, and a final will is determined by reflecting the influence of the emotion judgment result. 5. When making value judgments, social value, occupational value,
Judge from each standpoint, such as living value and personal value. In addition, each of social value, occupational value, living value and personal value is distinguished and judged. For example, regarding social value, the value is calculated for each viewpoint of religion, aesthetics, society, politics, economy, and ethics.

【0073】6.意志決定の判断材料として、満足・不
満足,損得・利害,安全・危険などのそれぞれに関する
価値の判断を行う。安全に関する価値判断を行う場合に
は、例えば次のように判断する。 (a)第三者が自己に「不快」を加えようとしている場
合には敵対感情及び防衛反応についての価値を生成す
る。
6. As a material for decision making, we judge the value of each of satisfaction, dissatisfaction, gain and loss, interest, safety and danger. When making a value determination regarding safety, for example, the following determination is made. (A) Generate value for hostility and defensive reactions if a third party is trying to add "discomfort" to themselves.

【0074】(b)自分が第三者に「不快」を加えよう
としている場合には敵対感情及び攻撃反応についての価
値を生成する。 (c)第三者に別の何かが「不快」を加えようとしてい
るときに第三者に自分が味方しようとするときは好意感
情及び協調攻撃反応についての価値を生成する。
(B) Generate value for hostile emotions and offensive reactions if you are trying to add "discomfort" to a third party. (C) generate value for favor and cooperative attack response when trying to ally with a third party when something else is trying to add "discomfort" to the third party.

【0075】7.生成された価値情報は感性DB162
に蓄積され、それ以降の判断材料として利用される。な
お、感性思考認知部150には人間と同じような様々な
学習機能が備わっているので、経験を積み重ねることに
より個人DB163や感性DB162の内容も逐次更新
される。
7. The generated value information is the sensitivity DB 162
And is used as a material for subsequent judgment. In addition, since the Kansei thinking recognition unit 150 has various learning functions similar to humans, the contents of the personal DB 163 and the Kansei DB 162 are sequentially updated by accumulating experience.

【0076】感性思考認知部150においては、様々な
価値などの数値を基礎とする総合的な判断によって結果
を出力するので、人工知能のような論理的な推理や判断
は行わない。つまり、感性思考認知部150から出力さ
れるデータD3は、コンピュータ自身の直感的な判断で
得られる感性情報である。次に、図1の感性発生装置1
00の入力に接続された感情検出装置200の具体例に
ついて説明する。
The emotional thinking / recognition unit 150 outputs a result based on a comprehensive judgment based on numerical values such as various values, so that logical reasoning and judgment such as artificial intelligence are not performed. That is, the data D3 output from the emotional thought recognition unit 150 is emotional information obtained by intuitive judgment of the computer itself. Next, the sensitivity generating device 1 of FIG.
A specific example of the emotion detection device 200 connected to the input of 00 will be described.

【0077】図6に示すように、この感情検出装置には
マイク11,A/D変換器12,信号処理部13,音声
認識部20,強度検出部17,テンポ検出部18,抑揚
検出部19,一時記憶部21,感情変化検出部22,音
声感情検出部23,感情パターンDB24,キーボード
25,文章認識部26,テレビカメラ31,画像認識部
32,顔パターンDB33,顔感情検出部34,文字認
識部39,感情感性記憶DB41,忘却処理部42,同
期処理部43,人間性情報DB44,個人情報DB4
5,専門情報DB46及び感情認識部60が備わってい
る。
As shown in FIG. 6, the emotion detection device includes a microphone 11, an A / D converter 12, a signal processing unit 13, a voice recognition unit 20, an intensity detection unit 17, a tempo detection unit 18, and an intonation detection unit 19. Temporary storage unit 21, emotion change detection unit 22, voice emotion detection unit 23, emotion pattern DB 24, keyboard 25, sentence recognition unit 26, television camera 31, image recognition unit 32, face pattern DB 33, face emotion detection unit 34, characters Recognition unit 39, emotion and emotion storage DB41, forgetting processing unit 42, synchronization processing unit 43, humanity information DB44, personal information DB4
5, a specialized information DB 46 and an emotion recognition unit 60 are provided.

【0078】また、音声認識部20には信号処理部1
3,音素検出部14,単語検出部15及び文章検出部1
6が設けてある。音声認識部20には、市販の音声認識
(自然言語)デバイスの機能も含まれている。図6にお
いて、音声認識部20,強度検出部17,テンポ検出部
18,抑揚検出部19,一時記憶部21,感情変化検出
部22及び音声感情検出部23は、音声から感情を検出
するための回路である。
The speech recognition unit 20 has a signal processing unit 1
3. Phoneme detector 14, word detector 15, and sentence detector 1
6 are provided. The speech recognition unit 20 also includes a function of a commercially available speech recognition (natural language) device. In FIG. 6, a voice recognition unit 20, an intensity detection unit 17, a tempo detection unit 18, a intonation detection unit 19, a temporary storage unit 21, an emotion change detection unit 22, and a voice emotion detection unit 23 are used to detect emotion from voice. Circuit.

【0079】この感情検出装置は、感情の検出対象とな
る相手の人間の情報を読み取るための入力手段として、
マイク11,キーボード25及びテレビカメラ31を備
えている。すなわち、マイク11から入力される音声,
キーボード25から入力される文字情報及びテレビカメ
ラ31から入力される顔の表情などの情報を利用して相
手の人間の感情を検出する。
This emotion detection device is provided as input means for reading information of a person to be detected as an emotion.
A microphone 11, a keyboard 25, and a television camera 31 are provided. That is, the voice input from the microphone 11,
The emotion of the other person is detected using character information input from the keyboard 25 and information such as facial expressions input from the television camera 31.

【0080】なお、実際にはマイク11から入力される
音声だけに基づいて感情を検出することも可能であり、
キーボード25から入力される文字情報だけに基づいて
感情を検出することも可能であり、テレビカメラ31か
ら入力される顔の表情だけに基づいて相手の人間の感情
を検出することも可能である。しかし、複数の情報源か
ら得られる情報を総合的に判断した方が感情の検出精度
を高めるうえで効果的である。
Note that it is actually possible to detect an emotion based only on the voice input from the microphone 11,
It is also possible to detect the emotion based on only the character information input from the keyboard 25, and it is also possible to detect the emotion of the other person based only on the facial expression input from the television camera 31. However, comprehensively judging information obtained from a plurality of information sources is more effective in increasing the accuracy of emotion detection.

【0081】まず、音声に関する処理について説明す
る。マイク11から入力された音声信号は、A/D変換
器12でサンプリングされ、ディジタル信号に変換され
る。A/D変換器12の出力に得られる音声のディジタ
ル信号は、音声認識部20に入力される。信号処理部1
3は、音声の強度検出に必要な周波数成分を抽出する。
強度検出部17は、信号処理部13の抽出した信号から
その強度を検出する。例えば、音声信号の振幅の大きさ
を平均化した結果を強度として利用することができる。
First, processing related to audio will be described. The audio signal input from the microphone 11 is sampled by the A / D converter 12 and converted into a digital signal. The voice digital signal obtained at the output of the A / D converter 12 is input to the voice recognition unit 20. Signal processing unit 1
Reference numeral 3 extracts a frequency component required for voice intensity detection.
The intensity detector 17 detects the intensity of the signal extracted by the signal processor 13. For example, the result of averaging the amplitude of the audio signal can be used as the intensity.

【0082】音声の強度を検出するための平均化の周期
については、例えば10秒程度に定める。但し、10秒
以内であっても文章毎の区切りを検出した場合には、文
章の最初から区切りを検出した時点までの平均化を行
う。すなわち、音声の文章毎にそれぞれの強度を検出す
る。音声認識部20に備わった音素検出部14は、入力
される音声の音素毎の区切りを検出する。例えば、「今
日はいい天気ですね」の文章が音声で入力された場合に
は、「きょ/う/は/い/い/て/ん/き/で/す/
ね」のように音素毎の区切りを検出する。
The averaging period for detecting the sound intensity is set to, for example, about 10 seconds. However, if a break for each sentence is detected even within 10 seconds, averaging is performed from the beginning of the sentence to the time when the break is detected. That is, the strength of each voice sentence is detected. The phoneme detecting unit 14 provided in the speech recognizing unit 20 detects a segment for each phoneme of the input speech. For example, if a sentence “Today is fine weather” is input by voice, “Kyo / u / ha / i / i / te / n / ki / de / su / su /
”Is detected for each phoneme.

【0083】また、音声認識部20に備わった単語検出
部15は、入力される音声の単語毎の区切りを検出す
る。例えば、「今日はいい天気ですね」の文章が音声で
入力された場合には、「きょう/は/いい/てんき/で
すね」のように単語毎の区切りを検出する。また、音声
認識部20に備わった文章検出部16は、入力される音
声の文章毎の区切りを検出する。特定の長さ以上の無音
状態を検出した場合に、文章毎の区切りが現れたものと
みなす。無音状態の長さの閾値には、(0.1〜2)秒
程度の値が割り当てられる。また、この閾値は一定では
なく、直前に検出された感情の状態を反映するように自
動的に変更される。
The word detecting section 15 provided in the voice recognizing section 20 detects a break of each word of the input voice. For example, when a sentence “Today is fine weather” is input by voice, a break for each word is detected, such as “Today / Ha / Good / Tenki / Ya”. Further, the sentence detection unit 16 provided in the speech recognition unit 20 detects a break of each sentence of the input speech. When a silent state longer than a specific length is detected, it is considered that a break for each sentence has appeared. A value on the order of (0.1 to 2) seconds is assigned to the threshold value of the length of the silent state. The threshold is not constant, but is automatically changed to reflect the state of the emotion detected immediately before.

【0084】テンポ検出部18は、音素検出部14から
出力される音素毎の区切りの信号を入力して、単位時間
に現れた音素の数をテンポとして検出する。テンポの検
出周期については、例えば10秒程度の時間が割り当て
られる。しかし、文章の区切りを検出した場合には、1
0秒以内であってもその時点までで音素数のカウントを
中止してテンポの値を計算する。つまり、文章毎にテン
ポが検出される。
The tempo detecting section 18 receives a signal for each phoneme output from the phoneme detecting section 14 and detects the number of phonemes appearing in a unit time as a tempo. For the tempo detection cycle, for example, a time of about 10 seconds is assigned. However, when a sentence break is detected, 1
Even if it is within 0 seconds, the counting of the number of phonemes is stopped up to that point and the value of the tempo is calculated. That is, the tempo is detected for each sentence.

【0085】抑揚検出部19には、単語検出部15が区
切りを検出した単語毎に区分されて、音声信号が入力さ
れる。抑揚検出部19は、入力される音声信号から各単
語内及び文章検出部16における文章毎の区切り内の音
声の強度変化パターンを表す抑揚を検出する。これによ
り、抑揚検出部19は区切りの中での特徴的な強度パタ
ーンを検出する。
The intonation detecting section 19 receives a speech signal which is divided for each word for which the word detecting section 15 has detected a break. The intonation detecting unit 19 detects the intonation representing the voice intensity change pattern in each word and in each sentence segment in the sentence detecting unit 16 from the input speech signal. As a result, the intonation detecting section 19 detects a characteristic intensity pattern in the break.

【0086】抑揚検出部19の内部には、図7に示すよ
うに、バンドパスフィルタ51,絶対値変換部52,比
較部53,領域中心検出部54及び領域間隔検出部55
が備わっている。また、抑揚検出部19における各部の
信号SG1,SG2,SG3,SG4の波形の例が図9
に示されている。なお、図9における各信号の縦軸は振
幅又は強度を表している。また、図9の例では音声から
取り出された1つの単語の長さが約1.2秒になってい
る。
As shown in FIG. 7, a band-pass filter 51, an absolute value converter 52, a comparator 53, an area center detector 54 and an area interval detector 55 are provided inside the intonation detector 19.
Is provided. FIG. 9 shows an example of the waveforms of the signals SG1, SG2, SG3, and SG4 of each unit in the intonation detecting unit 19.
Is shown in Note that the vertical axis of each signal in FIG. 9 represents amplitude or intensity. In the example of FIG. 9, the length of one word extracted from the voice is about 1.2 seconds.

【0087】バンドパスフィルタ51は、入力された信
号SG1の中から抑揚の検出に必要な周波数成分だけを
抽出する。この例では、800Hz〜1200Hzの範
囲内の周波数成分だけがバンドパスフィルタ51の出力
に信号SG2として現れる。図9を参照すると、単語内
の抑揚による強度変化のパターンが信号SG2に現れて
いることが分かる。
The band-pass filter 51 extracts only frequency components necessary for detecting inflection from the input signal SG1. In this example, only the frequency components within the range of 800 Hz to 1200 Hz appear at the output of the band-pass filter 51 as the signal SG2. Referring to FIG. 9, it can be seen that a pattern of intensity change due to intonation within a word appears in the signal SG2.

【0088】信号の計算処理を容易にするために、抑揚
検出部19には絶対値変換部52を設けてある。絶対値
変換部52は、入力される信号の振幅をその絶対値に変
換する。従って、絶対値変換部52の出力には図9に示
す信号SG3が現れる。比較部53は、信号SG3の大
きさを閾値と比較して閾値よりも大きい成分だけを信号
SG4として出力する。すなわち、比較部53は信号S
G3のパワースペクトルの中で値の大きな成分だけを出
力する。なお、比較部53に印加する閾値については、
判別分析法と呼ばれる方法を用いて適応的に決定してい
る。
In order to facilitate the signal calculation processing, the intonation detecting section 19 is provided with an absolute value converting section 52. The absolute value converter 52 converts the amplitude of the input signal into its absolute value. Accordingly, a signal SG3 shown in FIG. 9 appears at the output of the absolute value converter 52. The comparing unit 53 compares the magnitude of the signal SG3 with a threshold and outputs only a component larger than the threshold as the signal SG4. That is, the comparison unit 53 outputs the signal S
Only a component having a large value in the power spectrum of G3 is output. Note that the threshold value applied to the comparison unit 53 is
It is determined adaptively using a method called discriminant analysis.

【0089】図9を参照すると、信号SG4には音声の
単語における抑揚パターンに相当する2つの領域A1,
A2が明確に現れている。領域中心検出部54は、2つ
の領域A1,A2のそれぞれの中心に相当する位置が現
れた時間t1,t2を検出する。領域間隔検出部55
は、領域中心検出部54の検出した2つの時間t1,t
2に関する時間差を領域間隔Tyとして検出する。この
領域間隔Tyの値は、音声の単語における抑揚パターン
に相当する。実際には、領域間隔Tyの値を平均化した
結果を抑揚の値として利用している。
Referring to FIG. 9, a signal SG4 includes two areas A1 and A2 corresponding to the intonation pattern in a speech word.
A2 clearly appears. The area center detection unit 54 detects times t1 and t2 when a position corresponding to the center of each of the two areas A1 and A2 appears. Area interval detector 55
Are the two times t1, t detected by the area center detection unit 54.
2 is detected as the region interval Ty. The value of the area interval Ty corresponds to an intonation pattern in a voice word. In practice, the result of averaging the values of the area intervals Ty is used as the value of the intonation.

【0090】なお、1つの単語の中で信号SG4に3つ
以上の領域が現れる場合もある。3つ以上の領域が現れ
た場合には、互いに隣接する2つの領域について領域間
隔Tyをそれぞれ計算し、求められた複数の領域間隔T
yを平均化した結果を抑揚の値として利用する。人間の
感情の状態は、例えば図8に示すように変化する。ま
た、怒り,悲しみ,喜びなどの感情を正しく把握するた
めには、強度,テンポ,抑揚のような特徴量の変化を検
出することが重要である。
In some cases, three or more regions appear in signal SG4 in one word. When three or more areas appear, the area intervals Ty are calculated for two areas adjacent to each other, and the plurality of obtained area intervals Ty are calculated.
The result of averaging y is used as the value of the intonation. The state of human emotion changes, for example, as shown in FIG. Further, in order to correctly grasp emotions such as anger, sadness, and joy, it is important to detect a change in a feature amount such as intensity, tempo, and intonation.

【0091】図6に示す感情検出装置においては、過去
の特徴量の参照を可能にするため、強度検出部17が出
力する強度,テンポ検出部18が出力するテンポ及び抑
揚検出部19が出力する抑揚の値を一時的に一時記憶部
21に記憶しておく。また、感情変化検出部22は、強
度検出部17が出力する現在の強度,テンポ検出部18
が出力する現在のテンポ及び抑揚検出部19が出力する
現在の抑揚の値と、一時記憶部21に保持された過去の
(現在よりも少し前の時刻の)強度,テンポ及び抑揚の
値とを入力して、感情状態の変化を検出する。つまり、
音声の強度の変化,テンポの変化及び抑揚の変化をそれ
ぞれ検出する。
In the emotion detection device shown in FIG. 6, in order to make it possible to refer to past feature values, the intensity output by the intensity detection unit 17, the tempo output by the tempo detection unit 18, and the intonation detection unit 19 output. The value of the intonation is temporarily stored in the temporary storage unit 21. In addition, the emotion change detection unit 22 outputs the current intensity output from the intensity detection unit 17 and the tempo detection unit 18.
Output the current tempo and the current intonation value output by the intonation detecting unit 19 and the past (at a slightly earlier time) intensity, tempo and intonation value stored in the temporary storage unit 21. Input to detect changes in emotional state. That is,
A change in voice intensity, a change in tempo, and a change in intonation are detected.

【0092】音声感情検出部23は、感情変化検出部2
2が出力する音声の強度の変化,テンポの変化及び抑揚
の変化を入力し、現在の感情の状態を推定する。感情の
状態として、この例では怒り,悲しみ及び喜びの3種類
の状態をそれぞれ推定している。感情パターンDB24
には、音声の強度の変化,テンポの変化及び抑揚の変化
のパターンと怒りの状態とを関連付ける情報と、音声の
強度の変化,テンポの変化及び抑揚の変化のパターンと
悲しみの状態とを関連付ける情報と、音声の強度の変
化,テンポの変化及び抑揚の変化のパターンと喜びの状
態とを関連付ける情報とが予め保持されている。
[0092] The voice emotion detecting section 23 includes the emotion change detecting section 2.
2, a change in the intensity of the voice output, a change in tempo, and a change in intonation are input, and the current state of emotion is estimated. In this example, three types of states of anger, sadness, and joy are estimated as emotion states. Emotion pattern DB24
Is related to the information that associates the pattern of changes in voice intensity, tempo, and inflection with the state of anger and the pattern of changes in voice intensity, tempo, and inflection is related to the state of sadness Information and information relating the pattern of the change of the voice intensity, the change of the tempo, and the change of the intonation to the state of joy are stored in advance.

【0093】音声感情検出部23は、感情パターンDB
24に保持された情報を推定規則として参照しながら、
感情変化検出部22が出力する強度の変化,テンポの変
化及び抑揚の変化のパターンに基づいて現在の感情の状
態を推定する。音声感情検出部23によって推定された
怒り,悲しみ及び喜びの3種類の各々の状態を表す情報
は、感情認識部60及び感情感性記憶DB41に入力さ
れる。感情感性記憶DB41は、音声感情検出部23か
ら入力される現在の感情の状態を逐次記憶され、蓄積さ
れる。
[0093] The voice emotion detection unit 23 is provided with an emotion pattern DB.
While referring to the information held in 24 as an estimation rule,
The current state of emotion is estimated based on patterns of intensity change, tempo change, and intonation change output from the emotion change detection unit 22. The information representing each of the three states of anger, sadness, and joy estimated by the voice emotion detection unit 23 is input to the emotion recognition unit 60 and the emotion and emotion storage DB 41. The emotional emotion storage DB 41 sequentially stores and accumulates the current emotional state input from the voice emotional detection unit 23.

【0094】従って、感情感性記憶DB41に記憶され
た情報を読み出すことにより、過去の感情の状態を再生
することができる。一方、音声としてマイク11から入
力された文章の内容(相手の発言内容)は、文章認識部
26で認識される。文章認識部26の入力には、音声認
識部20で認識された各音素に対応する文字情報や、単
語の区切り及び文章の区切りを表す情報が入力される。
また、キーボード25から入力された文字情報も文章認
識部26に入力される。
Therefore, the past emotional state can be reproduced by reading the information stored in the emotional emotion storage DB 41. On the other hand, the content of a sentence (speech content of the other party) input from the microphone 11 as voice is recognized by the sentence recognition unit 26. To the input of the sentence recognizing unit 26, character information corresponding to each phoneme recognized by the speech recognizing unit 20, information indicating a word break and a sentence break is input.
The character information input from the keyboard 25 is also input to the text recognition unit 26.

【0095】文章認識部26は、入力される文字列の単
語毎の認識及び構文解析を行い、文章の内容を自然言語
として把握する。実際には、「5W3H」、すなわち
「誰が」,「何を」,「いつ」,「どこで」,「な
ぜ」,「どうやって」,「どのくらい」,「いくら」を
表す発言情報を認識する。文章認識部26が認識した発
言情報は感情認識部60に入力される。
The sentence recognizing unit 26 performs recognition and syntax analysis of the input character string for each word, and grasps the contents of the sentence as a natural language. Actually, it recognizes utterance information indicating “5W3H”, that is, “who”, “what”, “when”, “where”, “why”, “how”, “how much”, “how much”. The utterance information recognized by the text recognition unit 26 is input to the emotion recognition unit 60.

【0096】次に、相手の顔の表情から感情を検出する
ための処理について説明する。テレビカメラ31は、図
6の感情検出装置の被験者となる人間の少なくとも顔の
部分を撮影する。テレビカメラ31の撮影した画像、す
なわち人間の顔の表情が含まれる画像が画像認識部32
に入力される。なお、テレビカメラ31の撮影した画像
の情報は文字認識部39に入力される。すなわち、文章
の映像をテレビカメラ31で撮影した場合には、文字認
識部39は撮影された映像から文章の各文字を認識す
る。文字認識部39の認識した文字情報は文章認識部2
6に入力される。
Next, a process for detecting an emotion from the facial expression of the partner will be described. The television camera 31 captures an image of at least a face of a human being who is a subject of the emotion detection device in FIG. An image captured by the television camera 31, that is, an image including the expression of a human face, is
Is input to The information of the image captured by the television camera 31 is input to the character recognition unit 39. That is, when the video of the text is shot by the television camera 31, the character recognition unit 39 recognizes each character of the text from the shot video. The character information recognized by the character recognition unit 39 is sent to the text recognition unit 2
6 is input.

【0097】画像認識部32は、入力される画像の中か
ら特徴的な要素を認識する。具体的には、被験者の顔に
おける目,口,眉毛,頬骨の部分をそれぞれ認識し、顔
の中における目,口,眉毛,頬骨のそれぞれの相対的な
位置を検出する。また、画像認識部32は顔の表情の変
化に伴う目,口,眉毛,頬骨のそれぞれの位置の変化及
び首を振るなどの表現を検出するために位置の追跡を常
に行う。
The image recognition section 32 recognizes characteristic elements from the input image. Specifically, the eyes, mouth, eyebrows, and cheekbones of the subject's face are respectively recognized, and the relative positions of the eyes, mouth, eyebrows, and cheekbones in the face are detected. Further, the image recognition unit 32 always tracks the position in order to detect changes in the positions of the eyes, mouth, eyebrows, and cheekbones due to changes in the facial expression, and expressions such as shaking the head.

【0098】顔パターンDB33には、顔の中における
目,口,眉毛,頬骨のそれぞれの位置に関する基準位置
の情報(被験者の平常時の顔の表情に相当する情報)が
予め保持されている。なお、顔パターンDB33の内容
を任意に変更することも可能である。また、顔パターン
DB33には顔の表情の変化と6種類の感情(喜び,怒
り,悲しみ,恐れ,楽しみ,驚き)のそれぞれとの対応
関係を表す規則情報が予め保持されている。
The face pattern DB 33 holds in advance reference position information (information corresponding to the normal facial expression of the subject) regarding the positions of the eyes, mouth, eyebrows, and cheekbones in the face. Note that the content of the face pattern DB 33 can be arbitrarily changed. The face pattern DB 33 holds in advance rule information indicating a correspondence between a change in the facial expression and each of the six types of emotions (joy, anger, sadness, fear, enjoyment, and surprise).

【0099】顔感情検出部34は、画像認識部32が認
識した目,口,眉毛,頬骨のそれぞれの位置と顔パター
ンDB33に保持された基準位置の情報とを用いて特徴
量、すなわち平常時の位置に対する表情の違いを検出す
る。また、顔感情検出部34は検出した特徴量の変化量
及び変化の速さと、顔パターンDB33に保持された規
則情報とに基づいて、6種類の感情(喜び,怒り,悲し
み,恐れ,楽しみ,驚き)のそれぞれの状態を推定す
る。推定された6種類の感情の状態を表す情報は、顔感
情検出部34から出力されて感情認識部60及び感情感
性記憶DB41に入力される。
The face emotion detecting section 34 uses the respective positions of the eyes, mouth, eyebrows, and cheekbones recognized by the image recognizing section 32 and the information of the reference position held in the face pattern DB 33, that is, the feature amount, that is, the normal state. The difference of the expression with respect to the position of is detected. In addition, the face emotion detection unit 34 detects six types of emotions (joy, anger, sadness, fear, enjoyment, fun, anger, etc.) based on the detected change amount and change speed of the feature amount and the rule information stored in the face pattern DB 33. Surprise) to estimate each state. Information representing the estimated six types of emotion states is output from the facial emotion detection unit 34 and input to the emotion recognition unit 60 and the emotion and emotion storage DB 41.

【0100】感情認識部60は、音声感情検出部23か
ら入力される感情(怒り,悲しみ,喜び)の状態を表す
情報と、文章認識部26から入力される発言情報と、顔
感情検出部34から入力される感情(喜び,怒り,悲し
み,恐れ,楽しみ,驚き)の状態を表す情報とを総合的
に判断して最終的な感情の状態を推定する。発言情報に
ついては、その文章の内容(5W3H)を予め定めた規
則に従って判断することにより、発言情報に含まれてい
る感情(喜び,怒り,悲しみ,恐れ,楽しみ,驚き)の
状態を推定することができる。
The emotion recognizing section 60 includes information indicating the state of the emotion (anger, sadness, joy) input from the voice emotion detecting section 23, utterance information input from the sentence recognizing section 26, and face emotion detecting section 34. The final emotional state is estimated by comprehensively judging the information representing the state of the emotion (joy, anger, sadness, fear, enjoyment, surprise) input from. For the statement information, the state of the emotion (joy, anger, sadness, fear, enjoyment, surprise) contained in the statement information is estimated by determining the content (5W3H) of the sentence according to a predetermined rule. Can be.

【0101】音声感情検出部23が音声から推定した感
情の状態を表す情報と、文章認識部26が音声又はキー
ボード25から入力された文字から認識した発言内容の
情報と、顔感情検出部34が顔の表情から推定した感情
の状態を表す情報とが、それぞれ感情感性記憶DB41
に入力されて逐次記憶される。感情感性記憶DB41に
記憶されたそれぞれの情報には、それが検出された時刻
あるいは時間ならびに年月日が付加される。
The information indicating the state of the emotion estimated from the voice by the voice emotion detection unit 23, the information on the speech content recognized by the text recognition unit 26 from the voice or the character input from the keyboard 25, and the face emotion detection unit 34 The information representing the state of the emotion estimated from the facial expression is stored in the emotional emotion storage DB 41.
And are sequentially stored. Each piece of information stored in the emotional emotion storage DB 41 is added with the time or time when the information was detected and the date.

【0102】感情感性記憶DB41に入力される情報の
うち、音声感情検出部23から入力される感情の情報
と、文章認識部26から入力される発言内容の情報と、
顔感情検出部34から入力される感情の情報とは互いに
関連付けて把握しなければならない。そこで、同期処理
部43は感情感性記憶DB41に蓄積された複数種類の
情報を、それらの検出された時間(入力された時間)及
び年月日によって互いに関連付ける。例えば、図11に
示されるように、音声感情検出部23の推定した怒り,
悲しみ及び喜びの感情の状態を表す情報と発言の内容
(5W3H)の情報とを、それらの時間によって互いに
関連付ける。
Among the information input to the emotional emotion storage DB 41, information on the emotion input from the voice emotion detection unit 23, information on the utterance content input from the text recognition unit 26,
The emotion information input from the face emotion detection unit 34 must be grasped in association with each other. Therefore, the synchronization processing unit 43 associates a plurality of types of information stored in the emotional emotion storage DB 41 with each other based on the detected time (input time) and the date. For example, as shown in FIG. 11, the anger estimated by the voice emotion detection unit 23,
Information indicating the state of emotion of sadness and joy and information of the content of the statement (5W3H) are associated with each other by their time.

【0103】ところで、感情感性記憶DB41には比較
的大量の情報を蓄積できる十分な記憶容量が備わってい
る。しかしながら、記憶容量には限りがあるのでこの装
置を長期間に渡って使い続けるためには蓄積する情報の
量を抑制する必要がある。そこで、忘却処理部42が設
けてある。忘却処理部42は、古くなった情報を感情感
性記憶DB41上から自動的に削除する。但し、特定の
条件に適合する情報については古くなった場合でも削除
せずに保存される。
Incidentally, the emotional emotion storage DB 41 has a sufficient storage capacity for storing a relatively large amount of information. However, since the storage capacity is limited, it is necessary to suppress the amount of information to be stored in order to continue using this device for a long period of time. Therefore, a forgetting processing unit 42 is provided. The forgetting processing unit 42 automatically deletes outdated information from the emotional and emotional storage DB 41. However, information meeting specific conditions is stored without being deleted even when it becomes old.

【0104】忘却処理部42の動作について、図10を
参照しながら説明する。図10のステップS11におい
ては、感情感性記憶DB41に蓄積されている多数のデ
ータのそれぞれについて、記憶された時刻(あるいは検
出された時刻)及び年月日の情報を参照する。ステップ
S12では、現在の時刻とステップS11で参照したデ
ータの時刻とに基づいて、該当するデータが記憶されて
から予め定めた一定の期間が経過したか否かを識別す
る。記憶してから一定の期間が経過した古いデータを処
理する場合には、ステップS13以降の処理に進む。一
定の期間が経過していない比較的新しいデータについて
は、そのまま保存される。
The operation of the forgetting section 42 will be described with reference to FIG. In step S11 of FIG. 10, the stored time (or detected time) and the date information are referred to for each of a large number of data stored in the emotional emotion storage DB 41. In step S12, based on the current time and the time of the data referred to in step S11, it is determined whether or not a predetermined period has elapsed since the corresponding data was stored. When processing old data for which a certain period has elapsed since the storage, the process proceeds to step S13 and subsequent steps. Relatively new data for which a certain period has not elapsed is stored as it is.

【0105】ステップS13では、データが感情の状態
を表す情報である場合に、その感情の変化量(前後の感
情との違い)を調べる。感情の変化量が予め定めた閾値
を超える場合にはステップS13からS17に進むの
で、そのデータが古い場合であってもそのままデータは
保存される。感情の変化量が閾値以下の場合には、ステ
ップS13からS14に進む。
In step S13, if the data is information indicating the state of the emotion, the amount of change in the emotion (the difference between the previous and next emotions) is examined. If the amount of change in emotion exceeds a predetermined threshold, the process proceeds from step S13 to S17, so that even if the data is old, the data is stored as it is. If the emotion change amount is equal to or smaller than the threshold, the process proceeds from step S13 to S14.

【0106】ステップS14では、そのデータに関する
感情のパターンを検出し、そのパターンが予め定めた特
定のパターンと一致するか否かを識別する。すなわち、
複数の感情の状態及び発言内容の組み合わせが、「印象
が強い」状態を表す特定のパターンと一致するか否かを
調べる。検出したパターンが特定のパターンと一致した
場合には、ステップS14からS17に進むので、その
データが古い場合であってもそのままデータは保存され
る。パターンが一致しない場合にはステップS14から
S15に進む。
In step S14, an emotion pattern relating to the data is detected, and it is determined whether or not the pattern matches a predetermined specific pattern. That is,
It is checked whether or not a combination of a plurality of emotion states and speech contents matches a specific pattern representing a “strong impression” state. If the detected pattern matches the specific pattern, the process proceeds from step S14 to S17, so that even if the data is old, the data is stored as it is. If the patterns do not match, the process proceeds from step S14 to S15.

【0107】ステップS15では、データが発言内容で
ある場合に、その内容と予め定めた発言内容(印象に残
りやすい発言)とが一致するか否かを識別する。なお、
完全に一致しなくても、類似性が高い場合には「一致」
とみなすこともできる。データの発言内容が予め定めた
発言内容と一致した場合には、ステップS15からS1
7に進むので、そのデータが古い場合であっても、その
ままデータは保存される。
In step S15, if the data is the content of a comment, it is determined whether or not the content matches a predetermined content of the comment (a message that is likely to leave an impression). In addition,
"Match" if there is high similarity, even if they do not match exactly
Can also be considered. If the content of the data utterance matches the content of the predetermined utterance, steps S15 to S1 are performed.
Since the process proceeds to step 7, even if the data is old, the data is stored as it is.

【0108】ステップS15で一致しない場合には、ス
テップSS16において当該データは削除される。上記
の処理は感情感性記憶DB41上の全てのデータについ
て実行される。また、図10に示す忘却処理は定期的に
繰り返し実行される。この忘却処理を実行留周期につい
ては、個人の個性として任意に変更することができる。
なお、ステップS14,S15では予め容易されたパタ
ーンDB(図示せず)を参照して処理を行う。このパタ
ーンDBについては、入力情報を学習することにより自
動的に内容が更新される。
If the data does not match in step S15, the data is deleted in step SS16. The above processing is executed for all data on the emotional emotion storage DB 41. Further, the forgetting process shown in FIG. 10 is periodically and repeatedly executed. The period of execution of the forgetting process can be arbitrarily changed as the personality of the individual.
In steps S14 and S15, processing is performed with reference to a previously facilitated pattern DB (not shown). The contents of the pattern DB are automatically updated by learning the input information.

【0109】なお、図10では処理を簡略化して表して
ある。実際には、感情の変化量,感情のパターン及び発
言の内容の全てを総合的に判断する。すなわち、感情の
変化量が大きい情報と、感情のパターンが一致した情報
と、発言内容が同一もしくは近似する情報とが存在する
場合には、総合的に優先順位を判断する。具体的には、
発言内容が同一もしくは近似する情報の優先順位が最も
大きく、感情のパターンが一致した情報の優先順位が2
番目に高く、感情の変化量が大きい情報の優先順位は低
い。従って、発言内容が同一もしくは近似する情報は忘
却処理で削除されにくく、古くなっても記憶として残
る。
In FIG. 10, the processing is simplified. In practice, the amount of change in the emotion, the pattern of the emotion, and the content of the statement are all comprehensively determined. That is, when there is information with a large amount of change in emotion, information with a matching emotion pattern, and information with the same or similar utterance content, the overall priority is determined. In particular,
Information with the same or similar remark has the highest priority, and information with the same emotion pattern has the second priority.
The information with the second highest ranking and the largest change in emotion has the lower priority. Therefore, information with the same or similar remark contents is hard to be deleted by the forgetting process, and remains as a memory even when it becomes old.

【0110】上記のような忘却処理部42の処理によっ
て、感情感性記憶DB41上の古くなったデータについ
ては、感情の変化が大きいもの、「印象が強い」とみな
されるパターンであるもの、幾度も入力を繰り返された
もの、及び発言の内容が印象に残りやすいもののみがそ
の強度と内容に合わせて順位をつけてそのまま保存され
る。その結果、感情感性記憶DB41上の古いデータに
ついては、一部分のみが残った不完全なデータとなる。
このようなデータは、人間の記憶における過去の曖昧な
記憶と同じような内容になる。
As a result of the processing of the forgetting processing unit 42 as described above, old data in the emotional emotion storage DB 41 may have a large emotional change, a pattern that is regarded as having a “strong impression”, or a number of times. Only those that have been repeatedly input and those whose utterance content is likely to remain impressive are stored in that order according to their strength and content. As a result, old data in the emotional emotion storage DB 41 becomes incomplete data in which only a part remains.
Such data has the same content as the past vague memory in human memory.

【0111】感情感性記憶DB41に蓄積された過去の
感情の状態及び発言内容を読み出してデータを分析する
ことにより、例えばこの感情検出装置が正しく動作して
いるか否かを判断したり、感情の推定に利用される各部
のデータベースの内容を改良するように更新することも
可能になる。感情感性記憶DB41に蓄積されたデータ
については、その内容に応じて更に振り分けられ、人間
性情報DB44,個人情報DB45又は専門情報DB4
6に記憶される。
By reading out the past emotional states and remark contents accumulated in the emotional emotion memory DB 41 and analyzing the data, for example, it is possible to judge whether or not this emotion detection device is operating correctly, or to estimate the emotions. It can also be updated to improve the contents of the database of each unit used for. The data stored in the emotional and emotional memory DB 41 is further sorted according to the content thereof, and is classified into the humanity information DB 44, the personal information DB 45,
6 is stored.

【0112】人間性情報DB44には、性別,年齢,攻
撃性,協調性,現在の感情などのように被験者の性格を
決定付ける情報や行動の決定パターンの情報が保持され
る。また、個人情報DB45には、個人の住所,現在の
状況,環境,発言内容(5W3H)などの情報が保持さ
れる。専門情報DB46には、職業,経歴,職業適性
格,職業的行動決定パターンなどの情報が保持される。
The humanity information DB 44 holds information that determines the subject's character and information on the behavior determination pattern, such as gender, age, aggression, coordination, and current emotion. The personal information DB 45 holds information such as the address of the individual, the current situation, the environment, and the content of the statement (5W3H). The specialized information DB 46 holds information such as occupation, career, occupational aptitude, and occupational behavior decision pattern.

【0113】人間性情報DB44,個人情報DB45及
び専門情報DB46から出力されるのは、個人のモラル
パターン情報である。このモラルパターン情報と過去の
相手の感情とに基づいて相手の感性を察知することがで
きる。なお、図6に示すマイク11を電話機の受話器に
置き換えてもよいし、文字などの情報を入力する手段と
してマウスを設けてもよい。
Output from the personality information DB 44, the personal information DB 45, and the specialized information DB 46 are moral pattern information of an individual. Based on the moral pattern information and the past emotion of the partner, the sensitivity of the partner can be detected. The microphone 11 shown in FIG. 6 may be replaced by a telephone receiver, or a mouse may be provided as a means for inputting information such as characters.

【0114】また、図6に示すテレビカメラ31につい
ては、光学式カメラ,ディジタルカメラ,CCDカメラ
のような様々な撮像手段のいずれでも置き換えることが
できる。
Further, the television camera 31 shown in FIG. 6 can be replaced by any of various image pickup means such as an optical camera, a digital camera, and a CCD camera.

【0115】[0115]

【発明の効果】以上説明したように、本発明においては
感情を生成するための動機付けとなる本能的動機付け情
報を入力される状況情報(相手の感情,周囲の状況な
ど)に基づいて生成し、その本能的動機付け情報に基づ
いて感情情報が生成される。更に、生成される感情情報
は個性情報に応じて制御される。
As described above, in the present invention, instinctual motivation information for generating emotions is generated based on input situation information (emotions of the other party, surrounding situations, etc.). Then, emotion information is generated based on the instinctive motivation information. Further, the generated emotion information is controlled according to the personality information.

【0116】このため、個人の理性や意志によって制御
された感情、すなわち感性の情報を出力することができ
る。また、本能的動機付け情報を介して感情情報を生成
するので、生成する感情をより精密かつ容易に制御する
ことができる。
Therefore, it is possible to output emotion controlled by the individual's reason and will, that is, information on sensibility. Further, since emotion information is generated through instinctual motivation information, the generated emotion can be controlled more precisely and easily.

【図面の簡単な説明】[Brief description of the drawings]

【図1】感性発生装置を用いたシステムの構成例を示す
ブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of a system using a sensibility generating device.

【図2】本能情報生成部の構成を示すブロック図であ
る。
FIG. 2 is a block diagram illustrating a configuration of an instinct information generation unit.

【図3】感情情報生成部の構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a configuration of an emotion information generation unit.

【図4】感情反応パターンDBにおける反応パターンモ
デルの例を示す模式図である。
FIG. 4 is a schematic diagram showing an example of a reaction pattern model in an emotion reaction pattern DB.

【図5】感性思考認知部の構成を示すブロック図であ
る。
FIG. 5 is a block diagram illustrating a configuration of a sensible thinking recognition unit.

【図6】感情検出装置の構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of an emotion detection device.

【図7】抑揚検出部の構成を示すブロック図である。FIG. 7 is a block diagram illustrating a configuration of an intonation detecting unit.

【図8】感情の状態の変化と音声の強度,テンポ及び抑
揚との関係を示すグラフである。
FIG. 8 is a graph showing a relationship between a change in an emotional state and a sound intensity, tempo, and intonation.

【図9】抑揚検出部における音声信号処理の過程を示す
タイムチャートである。
FIG. 9 is a time chart showing a process of audio signal processing in the intonation detecting section.

【図10】忘却処理部の動作を示すフローチャートであ
る。
FIG. 10 is a flowchart illustrating an operation of a forgetting processing unit.

【図11】感情感性記憶DBに記憶された情報の構成例
を示す模式図である。
FIG. 11 is a schematic diagram illustrating a configuration example of information stored in an emotional emotion storage DB.

【符号の説明】[Explanation of symbols]

11 マイク 12 A/D変換器 13 信号処理部 14 音素検出部 15 単語検出部 16 文章検出部 17 強度検出部 18 テンポ検出部 19 抑揚検出部 20 音声認識部 21 一時記憶部 22 感情変化検出部 23 音声感情検出部 24 感情パターンDB 25 キーボード 26 文章認識部 31 テレビカメラ 32 画像認識部 33 顔パターンDB 34 顔感情検出部 39 文字認識部 41 感情感性記憶DB 42 忘却処理部 43 同期処理部 44 人間性情報DB 45 個人情報DB 46 専門情報DB 51 バンドパスフィルタ 52 絶対値変換部 53 比較部 54 領域中心検出部 55 領域間隔検出部 60 感情認識部 100 感性発生装置 110 本能情報生成部 111 韻律パターン同調度認識部 112 本能パラメータ生成部 113 辞書検索部 121 韻律パターンDB 122 本能言語意味付け辞書 130 感情情報生成部 131 レスポデントシステム 132 オペラントシステム 133 基本感情パラメータ生成部 134 反応パターン検索部 135 学習処理部 136 多変量解析部 137 自発感情制御部 141 感情反応パターンDB 142 一時記憶DB 143 個性情報 150 感性思考認知部 151 重み付け処理部 152 照合処理部 153 多変量解析部 154 総合直感意志決定部 155 個性情報 156 更新処理部 157 学習処理部 161 知識DB 162 感性DB 163 個人DB 164 モラルハザードDB 200 感情検出装置 300 環境情報入力装置 410 会話制御部 420 会話DB 430 音声出力部 440 音声DB 450 スピーカ Reference Signs List 11 microphone 12 A / D converter 13 signal processing unit 14 phoneme detection unit 15 word detection unit 16 sentence detection unit 17 intensity detection unit 18 tempo detection unit 19 intonation detection unit 20 voice recognition unit 21 temporary storage unit 22 emotion change detection unit 23 Voice emotion detection unit 24 Emotion pattern DB 25 Keyboard 26 Sentence recognition unit 31 TV camera 32 Image recognition unit 33 Face pattern DB 34 Face emotion detection unit 39 Character recognition unit 41 Emotional emotion storage DB 42 Forgetting processing unit 43 Synchronization processing unit 44 Human nature Information DB 45 Personal Information DB 46 Specialized Information DB 51 Bandpass Filter 52 Absolute Value Transformer 53 Comparison Unit 54 Area Center Detector 55 Area Interval Detector 60 Emotion Recognition Unit 100 Sensitivity Generator 110 Instinct Information Generator 111 Prosody Pattern Synchronization Recognition unit 112 Instinct parameter generation unit 113 Dictionary Cable part 121 prosodic pattern DB 122 instinct language meaning dictionary 130 emotion information generation part 131 response system 132 operant system 133 basic emotion parameter generation part 134 reaction pattern search part 135 learning processing part 136 multivariate analysis part 137 spontaneous emotion control part 141 Emotion reaction pattern DB 142 Temporary storage DB 143 Personality information 150 Sensibility thinking recognition unit 151 Weighting processing unit 152 Collation processing unit 153 Multivariate analysis unit 154 Overall intuition determination unit 155 Personality information 156 Update processing unit 157 Learning processing unit 161 Knowledge DB 162 Kansei DB 163 Personal DB 164 Moral hazard DB 200 Emotion detection device 300 Environmental information input device 410 Conversation control unit 420 Conversation DB 430 Audio output unit 440 Audio DB 450 Speaker

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/24 G10L 3/00 571Q 15/22 571T 15/02 7/08 A ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI theme coat ゛ (Reference) G10L 15/24 G10L 3/00 571Q 15/22 571T 15/02 7/08 A

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 感性発生対象の少なくとも理性,定めら
れた特性及び意志を決定付ける個性情報を予め保持して
おき、 相手の感情もしくは環境の状態を表す状況情報を入力
し、前記状況情報に基づいて、少なくとも快さの程度を
表す第1の本能パラメータと、危険度を表す第2の本能
パラメータと、達成度及び変化の程度を表す第3の本能
パラメータとを含む本能的動機付け情報を生成し、 生成された前記本能的動機付け情報に基づいて、少なく
とも喜び,怒り及び悲しみの基本感情パラメータを含む
感情情報を生成し、 前記個性情報に基づいて、生成される前記感情情報を制
御することを特徴とする感性発生方法。
1. At least personality information for determining at least a reason, a predetermined characteristic, and a will of a sensibility generating object is stored in advance, and situation information representing an emotion or environment state of a partner is input, and based on the situation information, Generating instinct motivational information including at least a first instinct parameter indicating a degree of pleasure, a second instinct parameter indicating a degree of risk, and a third instinct parameter indicating a degree of achievement and a degree of change. And generating emotion information including at least basic emotion parameters of joy, anger, and sadness based on the generated instinctive motivation information, and controlling the generated emotion information based on the personality information. A sensibility generating method characterized by the following.
【請求項2】 相手の感情及び環境,意志の状態を表す
エピソード状況情報を入力し、前記エピソード状況情報
に基づいて、少なくとも快さの程度を表す第1の本能パ
ラメータと、危険度を表す第2の本能パラメータと、達
成度もしくは変化の程度を表す第3の本能パラメータと
を含む本能的動機付け情報を生成する本能決定手段と、 前記本能決定手段から出力される本能的動機付け情報に
基づいて、少なくとも喜び,怒り及び悲しみの基本感情
パラメータを含む感情情報を生成する感情生成手段と、 感性発生対象の少なくとも理性及び感性的意志を決定付
ける個性情報を提供する個性情報提供手段と、 前記個性情報提供手段から提供される個性情報に基づい
て、前記感情生成手段から出力される感情情報を制御す
る感情制御手段とを設けたことを特徴とする感性発生装
置。
2. An episode situation information indicating a state of an emotion, an environment, and a will of a partner is input. Based on the episode situation information, a first instinct parameter indicating at least a degree of pleasure, and a second instinct parameter indicating a degree of risk Instinct determination means for generating instinct motivation information including a second instinct parameter and a third instinct parameter indicating a degree of achievement or a degree of change; and based on instinct motivation information output from the instinct determination means. And emotion generating means for generating emotion information including at least basic emotion parameters of joy, anger, and sadness; personality information providing means for providing personality information for determining at least the reason and emotional intention of the sensibility generating object; And an emotion control unit for controlling the emotion information output from the emotion generation unit based on the personality information provided from the information provision unit. A sensibility generator characterized by the following.
【請求項3】 請求項2の感性発生装置において、前記
感情生成手段に、 周期的に変化する環境もしくは生体の生活リズムを表す
情報を生成する生活リズム発生手段と、 前記生活リズム発生手段が出力する生活リズムの情報に
応じた確率に従って、 前記感情生成手段における自発感情を制御する自発感情
制御手段とを設けたことを特徴とする感性発生装置。
3. The sensibility generating device according to claim 2, wherein the emotion generating means includes: a life rhythm generating means for generating information representing a periodically changing environment or a living rhythm of a living body; A spontaneous emotion control unit for controlling a spontaneous emotion in the emotion generation unit in accordance with a probability corresponding to information on a living rhythm to be performed.
【請求項4】 請求項2の感性発生装置において、前記
感情生成手段に、 前記基本感情パラメータと前記本能的動機付け情報とを
対応付けるパターン情報を保持する本能−感情対応情報
保持手段と、 前記本能決定手段から出力される本能的動機付け情報と
前記本能−感情対応情報保持手段のパターン情報との整
合/不整合の確率を表す情報を出力する整合確率学習手
段とを設けたことを特徴とする感性発生装置。
4. The emotion generating apparatus according to claim 2, wherein the emotion generating means includes: an instinct-emotion correspondence information holding means for holding pattern information for associating the basic emotion parameter with the instinct motivation information; A matching probability learning means for outputting information indicating a probability of matching / mismatch between the instinct motivational information output from the determining means and the pattern information of the instinct-emotion correspondence information holding means; Kansei generator.
【請求項5】 請求項2の感性発生装置において、前記
感情生成手段に、少なくとも最後に生成された自己の感
情情報を入力して次に生成する自己の感情情報に反映す
る感情帰還制御手段を設けたことを特徴とする感性発生
装置。
5. The emotion generating device according to claim 2, wherein said emotion generating means includes at least emotion feedback control means for inputting at least the last generated own emotion information and reflecting the information in the next generated self emotion information. A sensibility generator characterized by being provided.
【請求項6】 請求項2の感性発生装置において、前記
感情制御手段は、入力される感情情報に対して感性発生
対象の個性である生活リズムの情報を反映することを特
徴とする感性発生装置。
6. The emotion generating device according to claim 2, wherein said emotion control means reflects information of a life rhythm, which is a personality of the emotion generating target, to the input emotion information. .
【請求項7】 請求項2の感性発生装置において、 過去の状況,エピソード及びその結果を示す状況情報を
蓄積する知識データベースと、 新たに入力された状況情報に似た過去の状況情報を前記
知識データベースから検索して抽出し、過去の状況情報
を前記感情制御手段に与える知識照合手段と、 新たに入力された状況及びその結果を示す状況情報によ
って前記知識データベースの内容を更新するとともに、
前記知識データベースに蓄積された状況情報のうち優先
度の低いものについては時間的に古い順番で内容の重さ
に合わせて自動的に削除するデータ更新制御手段とを更
に設けたことを特徴とする感性発生装置。
7. The sensibility generating device according to claim 2, wherein a knowledge database for storing situation information indicating past situations, episodes and results thereof, and the past situation information similar to newly input situation information is stored in the knowledge database. A knowledge matching means for searching and extracting from the database and providing past situation information to the emotion control means, and updating the content of the knowledge database with situation information indicating a newly inputted situation and its result,
Data update control means for automatically deleting status information having a low priority among the status information accumulated in the knowledge database in chronological order according to the weight of the content is further provided. Kansei generator.
【請求項8】 請求項2の感性発生装置において、 音声信号を入力する音声入力手段と、 前記音声入力手段が入力した音声信号から音声の強度を
検出する強度検出手段と、 前記音声入力手段が入力した音声信号から音声の出現速
度をテンポとして検出するテンポ検出手段と、 前記音声入力手段が入力した音声信号から音声の単語内
の強度変化パターンを表す抑揚を検出する抑揚検出手段
と、 前記強度検出手段が検出した音声の強度,前記テンポ検
出手段が検出した音声のテンポ及び前記抑揚検出手段が
検出した音声の抑揚のそれぞれについて変化量を求める
変化量検出手段と、 前記変化量検出手段が検出した変化量に基づいて、少な
くとも怒り,悲しみ及び喜びのそれぞれの感情状態を表
す信号を出力する感情検出手段とを更に設けたことを特
徴とする感性発生装置。
8. The sensibility generating device according to claim 2, wherein: a voice input unit that inputs a voice signal; an intensity detection unit that detects a voice intensity from the voice signal input by the voice input unit; Tempo detection means for detecting the appearance speed of voice as a tempo from the input voice signal; intonation detection means for detecting intonation representing an intensity change pattern in a word of voice from the voice signal input by the voice input means; A change amount detecting means for obtaining a change amount for each of the intensity of the sound detected by the detecting means, the tempo of the sound detected by the tempo detecting means, and the intonation of the sound detected by the intonation detecting means; And emotion detecting means for outputting a signal representing at least the respective emotional states of anger, sadness, and joy based on the amount of change. A feeling generating device characterized by the following.
【請求項9】 請求項8の感性発生装置において、 前記音声入力手段から入力される音声を認識して文字情
報を出力する音声認識手段と、 前記音声認識手段が認識した音声の情報を自然言語処理
して入力された音声の意味を表す意味情報を生成する自
然言語処理手段とを更に設けたことを特徴とする感性発
生装置。
9. The sensibility generating device according to claim 8, wherein a voice recognition unit that recognizes voice input from the voice input unit and outputs character information, and outputs the voice information recognized by the voice recognition unit in a natural language. And a natural language processing means for generating semantic information representing the meaning of the input speech after processing.
【請求項10】 感性発生制御に利用されるコンピュー
タで実行可能なプログラム及びデータをを備えるソフト
ウェアであって、前記プログラムには、 相手の感情もしくは環境の状態を表す状況情報を入力
し、前記状況情報に基づいて、少なくとも快さの程度を
表す第1の本能パラメータと、危険度を表す第2の本能
パラメータと、達成度もしくは変化の程度を表す第3の
本能パラメータとを含む本能的動機付け情報を生成する
手順と、 生成された前記本能的動機付け情報に基づいて、少なく
とも喜び,怒り及び悲しみの基本感情パラメータを含む
感情情報を生成する手順と、 感性発生対象の少なくとも理性及び意志を決定付ける個
性情報を提供する手順と、 前記個性情報に基づいて、生成された前記感情情報を制
御する手順とを設けたことを特徴とするソフトウェア。
10. A software comprising a computer-executable program and data used for emotion generation control, wherein the program inputs situation information indicating a feeling of an opponent or a state of an environment. Based on the information, an instinct motivation including at least a first instinct parameter indicating a degree of pleasure, a second instinct parameter indicating a degree of risk, and a third instinct parameter indicating a degree of achievement or a change. A procedure for generating information, a procedure for generating emotion information including at least basic emotion parameters of joy, anger, and sadness based on the generated instinctual motivation information; and determining at least a reason and a will of a sensibility generating object. A step of providing personality information to be attached; and a step of controlling the generated emotion information based on the personality information. Software which is characterized in.
JP2001007726A 2000-09-13 2001-01-16 KANSEI GENERATION METHOD, KANSEI GENERATION DEVICE, AND SOFTWARE Expired - Lifetime JP3676981B2 (en)

Priority Applications (13)

Application Number Priority Date Filing Date Title
JP2001007726A JP3676981B2 (en) 2001-01-16 2001-01-16 KANSEI GENERATION METHOD, KANSEI GENERATION DEVICE, AND SOFTWARE
TW090121316A TWI221574B (en) 2000-09-13 2001-08-29 Sentiment sensing method, perception generation method and device thereof and software
RU2003110435/09A RU2287856C2 (en) 2000-09-13 2001-09-04 Method of detecting emotions, method and system for generating sensitivity, machine-readable carrier for realizing them
PCT/JP2001/007646 WO2002023524A1 (en) 2000-09-13 2001-09-04 Emotion recognizing method, sensibility creating method, device, and software
CN2005100590616A CN1838237B (en) 2000-09-13 2001-09-04 Emotion recognizing method and system
EP01961347A EP1318505A4 (en) 2000-09-13 2001-09-04 Emotion recognizing method, sensibility creating method, device, and software
US10/380,279 US7340393B2 (en) 2000-09-13 2001-09-04 Emotion recognizing method, sensibility creating method, device, and software
CNB018154557A CN100370414C (en) 2000-09-13 2001-09-04 Emotion recognizing method, sensibility creating method, system, and software
KR1020037003615A KR100714535B1 (en) 2000-09-13 2001-09-04 Emotion recognizing method, sensibility creating method, device, and software
CA2421746A CA2421746C (en) 2000-09-13 2001-09-04 Emotion detecting method and system
CA002676228A CA2676228A1 (en) 2000-09-13 2001-09-04 Emotion detecting method, sensibility generating method, and system of the same and software for executing the same
HK04103324A HK1060429A1 (en) 2000-09-13 2004-05-12 A sensibility generator and the method thereof
HK07101134.8A HK1096483A1 (en) 2000-09-13 2007-02-01 Emotion detecting method and system of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001007726A JP3676981B2 (en) 2001-01-16 2001-01-16 KANSEI GENERATION METHOD, KANSEI GENERATION DEVICE, AND SOFTWARE

Publications (2)

Publication Number Publication Date
JP2002215183A true JP2002215183A (en) 2002-07-31
JP3676981B2 JP3676981B2 (en) 2005-07-27

Family

ID=18875441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001007726A Expired - Lifetime JP3676981B2 (en) 2000-09-13 2001-01-16 KANSEI GENERATION METHOD, KANSEI GENERATION DEVICE, AND SOFTWARE

Country Status (1)

Country Link
JP (1) JP3676981B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004258108A (en) * 2003-02-24 2004-09-16 Bellsystem 24 Inc Personality characteristic evaluation system and communication service system using the same
JP2006023952A (en) * 2004-07-07 2006-01-26 Sony Corp Robot device and its content management method
WO2006046723A1 (en) * 2004-10-27 2006-05-04 Canon Kabushiki Kaisha Estimation apparatus and its control method
JP2006267464A (en) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The Emotion analyzer, emotion analysis program and program storage medium
JP2007287177A (en) * 2002-12-11 2007-11-01 Sony Corp Information processing device and method, program, and recording medium
US7664627B2 (en) 2002-10-04 2010-02-16 A.G.I. Inc. Inspirational model device, spontaneous emotion model device, and related methods and programs
US8226417B2 (en) 2004-03-26 2012-07-24 A.G.I. Inc. Will expression model device, psychological effect program, and will expression simulation method
JP2013235548A (en) * 2012-05-08 2013-11-21 Linfops Kk Control method for brain type emotion expressing robot
TWI473080B (en) * 2012-04-10 2015-02-11 Nat Univ Chung Cheng The use of phonological emotions or excitement to assist in resolving the gender or age of speech signals
CN106361356A (en) * 2016-08-24 2017-02-01 北京光年无限科技有限公司 Emotion monitoring and early warning method and system
CN107133368A (en) * 2017-06-09 2017-09-05 上海思依暄机器人科技股份有限公司 Man-machine interaction method, system and robot
JP2018109663A (en) * 2016-12-28 2018-07-12 シャープ株式会社 Speech processing unit, dialog system, terminal device, program, and speech processing method
JP2019012255A (en) * 2017-06-29 2019-01-24 ネイバー コーポレーションNAVER Corporation Method and system for emotional conversations between humans and machines
JP2022133188A (en) * 2021-03-01 2022-09-13 Kddi株式会社 Interaction program, device and method which forget noun spoken by user

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512023A (en) * 1991-07-04 1993-01-22 Omron Corp Emotion recognizing device
JPH06139044A (en) * 1992-10-28 1994-05-20 Sony Corp Interface method and device
JPH08339446A (en) * 1995-06-09 1996-12-24 Sharp Corp Interactive system
JPH10143351A (en) * 1996-11-13 1998-05-29 Sharp Corp Interface unit
JP2000187435A (en) * 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method
JP2000222378A (en) * 1998-08-06 2000-08-11 Yamaha Motor Co Ltd Method for control over controlled system using dummy feeling and/or dummy character, autonomous device operating adaptively to user, and method for adapting operation of device to feature of user

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512023A (en) * 1991-07-04 1993-01-22 Omron Corp Emotion recognizing device
JPH06139044A (en) * 1992-10-28 1994-05-20 Sony Corp Interface method and device
JPH08339446A (en) * 1995-06-09 1996-12-24 Sharp Corp Interactive system
JPH10143351A (en) * 1996-11-13 1998-05-29 Sharp Corp Interface unit
JP2000222378A (en) * 1998-08-06 2000-08-11 Yamaha Motor Co Ltd Method for control over controlled system using dummy feeling and/or dummy character, autonomous device operating adaptively to user, and method for adapting operation of device to feature of user
JP2000187435A (en) * 1998-12-24 2000-07-04 Sony Corp Information processing device, portable apparatus, electronic pet device, recording medium with information processing procedure recorded thereon, and information processing method

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7664627B2 (en) 2002-10-04 2010-02-16 A.G.I. Inc. Inspirational model device, spontaneous emotion model device, and related methods and programs
JP2007287177A (en) * 2002-12-11 2007-11-01 Sony Corp Information processing device and method, program, and recording medium
JP4525712B2 (en) * 2002-12-11 2010-08-18 ソニー株式会社 Information processing apparatus and method, program, and recording medium
JP2004258108A (en) * 2003-02-24 2004-09-16 Bellsystem 24 Inc Personality characteristic evaluation system and communication service system using the same
US8226417B2 (en) 2004-03-26 2012-07-24 A.G.I. Inc. Will expression model device, psychological effect program, and will expression simulation method
JP4595407B2 (en) * 2004-07-07 2010-12-08 ソニー株式会社 Robot apparatus and content management method thereof
JP2006023952A (en) * 2004-07-07 2006-01-26 Sony Corp Robot device and its content management method
WO2006046723A1 (en) * 2004-10-27 2006-05-04 Canon Kabushiki Kaisha Estimation apparatus and its control method
US7766828B2 (en) 2004-10-27 2010-08-03 Canon Kabushiki Kaisha Estimation apparatus and its control method
JP4587854B2 (en) * 2005-03-23 2010-11-24 東京電力株式会社 Emotion analysis device, emotion analysis program, program storage medium
JP2006267464A (en) * 2005-03-23 2006-10-05 Tokyo Electric Power Co Inc:The Emotion analyzer, emotion analysis program and program storage medium
TWI473080B (en) * 2012-04-10 2015-02-11 Nat Univ Chung Cheng The use of phonological emotions or excitement to assist in resolving the gender or age of speech signals
JP2013235548A (en) * 2012-05-08 2013-11-21 Linfops Kk Control method for brain type emotion expressing robot
CN106361356A (en) * 2016-08-24 2017-02-01 北京光年无限科技有限公司 Emotion monitoring and early warning method and system
JP2018109663A (en) * 2016-12-28 2018-07-12 シャープ株式会社 Speech processing unit, dialog system, terminal device, program, and speech processing method
CN107133368A (en) * 2017-06-09 2017-09-05 上海思依暄机器人科技股份有限公司 Man-machine interaction method, system and robot
JP2019012255A (en) * 2017-06-29 2019-01-24 ネイバー コーポレーションNAVER Corporation Method and system for emotional conversations between humans and machines
JP2022133188A (en) * 2021-03-01 2022-09-13 Kddi株式会社 Interaction program, device and method which forget noun spoken by user
JP7474211B2 (en) 2021-03-01 2024-04-24 Kddi株式会社 Dialogue program, device and method for forgetting nouns spoken by a user

Also Published As

Publication number Publication date
JP3676981B2 (en) 2005-07-27

Similar Documents

Publication Publication Date Title
WO2002023524A1 (en) Emotion recognizing method, sensibility creating method, device, and software
JP3676969B2 (en) Emotion detection method, emotion detection apparatus, and recording medium
CN111564202B (en) Psychological counseling method based on man-machine conversation, psychological counseling terminal and storage medium
Rao et al. Robust emotion recognition using spectral and prosodic features
CN111368609A (en) Voice interaction method based on emotion engine technology, intelligent terminal and storage medium
US20220059122A1 (en) Providing emotion management assistance
JP3676981B2 (en) KANSEI GENERATION METHOD, KANSEI GENERATION DEVICE, AND SOFTWARE
Aloufi et al. Emotionless: Privacy-preserving speech analysis for voice assistants
WO2018152014A1 (en) Intelligent assistant with intent-based information resolution
KR20020067590A (en) Environment-responsive user interface/entertainment device that simulates personal interaction
KR20020067591A (en) Self-updating user interface/entertainment device that simulates personal interaction
KR20020071917A (en) User interface/entertainment device that simulates personal interaction and charges external database with relevant data
KR20020067592A (en) User interface/entertainment device that simulates personal interaction and responds to user's mental state and/or personality
KR20210070213A (en) Voice user interface
KR101221188B1 (en) Assistive robot with emotional speech synthesizing function, method of synthesizing emotional speech for the assistive robot, and recording medium
Pittermann et al. Handling emotions in human-computer dialogues
Anjum Emotion recognition from speech for an interactive robot agent
Hamidi et al. Emotion recognition from Persian speech with neural network
Qadri et al. A critical insight into multi-languages speech emotion databases
KR20200144216A (en) Emotion recognizing method, sensibility creating method, device, and software
CN114974312B (en) Virtual human emotion generation method and system
JP4015424B2 (en) Voice robot system
Beller Expresso: transformation of expressivity in speech
Atassi et al. Emotional vocal expressions recognition using the COST 2102 Italian database of emotional speech
JP2000075894A (en) Method and device for voice recognition, voice interactive system and recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050502

R150 Certificate of patent or registration of utility model

Ref document number: 3676981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080513

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100513

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120513

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R314531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term