JP3676981B2 - 感性発生方法及び感性発生装置並びにソフトウェア - Google Patents

感性発生方法及び感性発生装置並びにソフトウェア Download PDF

Info

Publication number
JP3676981B2
JP3676981B2 JP2001007726A JP2001007726A JP3676981B2 JP 3676981 B2 JP3676981 B2 JP 3676981B2 JP 2001007726 A JP2001007726 A JP 2001007726A JP 2001007726 A JP2001007726 A JP 2001007726A JP 3676981 B2 JP3676981 B2 JP 3676981B2
Authority
JP
Japan
Prior art keywords
information
emotion
situation
instinct
sensibility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001007726A
Other languages
English (en)
Other versions
JP2002215183A (ja
Inventor
俊二 光吉
Original Assignee
株式会社エイ・ジー・アイ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エイ・ジー・アイ filed Critical 株式会社エイ・ジー・アイ
Priority to JP2001007726A priority Critical patent/JP3676981B2/ja
Priority to TW090121316A priority patent/TWI221574B/zh
Priority to US10/380,279 priority patent/US7340393B2/en
Priority to CN2005100590616A priority patent/CN1838237B/zh
Priority to EP01961347A priority patent/EP1318505A4/en
Priority to CNB018154557A priority patent/CN100370414C/zh
Priority to KR1020037003615A priority patent/KR100714535B1/ko
Priority to PCT/JP2001/007646 priority patent/WO2002023524A1/ja
Priority to RU2003110435/09A priority patent/RU2287856C2/ru
Priority to CA002676228A priority patent/CA2676228A1/en
Priority to CA2421746A priority patent/CA2421746C/en
Publication of JP2002215183A publication Critical patent/JP2002215183A/ja
Priority to HK04103324A priority patent/HK1060429A1/xx
Application granted granted Critical
Publication of JP3676981B2 publication Critical patent/JP3676981B2/ja
Priority to HK07101134.8A priority patent/HK1096483A1/xx
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、感性発生方法及び感性発生装置並びに記録媒体に関し、仮想的な人間やロボットの感性制御として様々な用途の様々なシステムに利用することができる。
【0002】
【従来の技術】
本発明と関連のある従来技術としては、例えば特開平11−265239号公報に開示された「感情生成装置及び感情生成方法」が知られている。
人間などの内部状態を表す感情は、そのときの状況に応じて様々に変化する。特開平11−265239号公報においては、予測不可能な状況における感情の生成を実現するための技術を開示している。
【0003】
すなわち、予測可能な状況に照らして状況を評価し、装置自身の感情を発生させる。また、実際に発生した過去の感情とそのときの状況とを分析し、それぞれの状況に特有な予測不可能な付帯条件及びそれに対応する感情を学習する。新たに入力された状況が学習した付帯条件を満足する場合には、その付帯条件に対応する感情を出力する。
【0004】
このような装置によって生成された感情の状態は、例えば出力される音声や映像に反映される。
【0005】
【発明が解決しようとする課題】
従来の装置は、単に入力された状況の情報から感情を直接生成しているにすぎない。現実の人間においては、本能,理性,個性など様々なパラメータが複雑に影響し、その結果として行動,発言,表情などが変化する。従来の装置では、人間の本能,理性,個性などを結果に精密に反映させることができない。
【0006】
本能及び感情は情動とみなすことができる。また、本能は基本的な生物的情動とその感情発生の動機になる。また、人間は感情をそのまま出力しているのではなく、理性や個性によって制御された感性を出力していると考えられる。
本発明は、より人間に近い状態で感性を出力することが可能な感性発生方法及び感性発生装置並びに記録媒体を提供することを目的とする。
【0007】
【課題を解決するための手段】
請求項1の感性発生方法は、感性発生対象の少なくとも理性,定められた特性及び意志を決定付ける個性情報を予め保持しておき、『相手の感情および環境の状態』または『相手の感情』を表す状況情報を入力する。前記状況情報が、提案内容や望んだ状況エピソードに近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げる。また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が予め心地いいと定めた韻律に近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げる。前記状況情報が、予め危険とみなした内容や危険と想定される状況エピソードに近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げる。また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が予め危険とされた韻律に近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げる。前記状況情報が、予め成功・達成と定めた内容や成功・達成と想定された状況エピソードに近づくと、達成度の程度を表す第3の本能パラメータを高くしてその逆だと下げる。また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が急激な変調としてみなした特定の韻律に近づくと、前記第3の本能パラメータが示す変化度を高くしてその逆だと下げる。少なくとも前記第1ないし第3の本能パラメータを含む本能的動機付け情報を生成し、本能的動機付け情報と基本感情パラメータとの対応関係に、生成された前記本能的動機付け情報を当てはめることにより、少なくとも喜び,怒り,悲しみ,近からなる群のいずれかの基本感情パラメータに応じた感情情報を生成し、前記個性情報に基づいて、生成される前記感情情報を制御することにより、前記理性や前記意志によって制御された感情、すなわち感性の情報を出力することを特徴とする。
【0008】
請求項1においては、感情を生成するための動機付けとなる本能的動機付け情報を、入力される状況情報(相手の感情,意志,周囲の状況など)に基づいて生成する。つまり、状況情報から本能的動機付け情報が生成され、その本能的動機付け情報に基づいて感情情報が生成される。また、生成される感情情報は前記個性情報に応じて制御される。このため、個人の理性や意志によって制御された感情、すなわち感性の情報を出力することができる。
【0009】
また、本能的動機付け情報を介して感情情報を生成するので、生成する感情をより精密かつ容易に制御することができる。
例えば、人間が既に危険であると認識している状態で危険な状態に遭遇した場合に発生する感情と、危険を全く感じていない人が突如として危険な状態に遭遇した場合に発生する感情とは異なるが、このような感情の違いを再現することもできる。
【0010】
なお、本能パラメータとしては上記以外に注目度(拒絶度),確信度(戸惑い度),追随度(主張度)などを更に加えるのが望ましい。また、感情情報を構成する基本感情パラメータには、上記以外に驚き,恐れ,苦しみ,嫌悪,軽蔑,接近,逃避,嫉み,羨望,従属,いらだち,不安などを更に加えるのが望ましい。
請求項2の感性発生装置は、相手の感情及び環境,意志の状態を表すエピソード状況情報を入力し、前記エピソード状況情報が、提案内容や望んだ状況エピソードに近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げ、前記エピソード状況情報が、予め危険とみなした内容や危険と想定される状況エピソードに近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げ、前記エピソード状況情報が、予め成功・達成と定めた内容や成功・達成と想定された状況エピソードに近づくと、達成度の程度を表す第3の本能パラメータを高くしてその逆だと下げ、少なくとも第1ないし第3の本能パラメータを含む本能的動機付け情報を生成する本能決定手段と、本能的動機付け情報と基本感情パラメータとの対応関係に、生成された前記本能的動機付け情報を当てはめることにより、少なくとも喜び,怒り,悲しみ,近からなる群のいずれかの基本感情パラメータに応じた感情情報を生成する感情生成手段と、感性発生対象の少なくとも理性及び感性的意志を決定付ける個性情報を提供する個性情報提供手段と、前記個性情報提供手段から提供される個性情報に基づいて、前記感情生成手段から出力される感情情報を制御することにより、前記理性や前記意志によって制御された感情、すなわち感性の情報を出力する感情制御手段とを設けたことを特徴とする。
【0011】
請求項2においては、本能決定手段,感情生成手段,個性情報提供手段及び感情制御手段を設けることにより、請求項1の感性発生方法を実施することができる。
従って、個人の理性や意志によって制御された感情、すなわち感性の情報を出力することができる。また、本能的動機付け情報を介して感情情報を生成するので、生成する感情をより精密かつ容易に制御することができる。
【0012】
請求項3は、請求項2の感性発生装置において、前記感情生成手段に、周期的に変化する環境もしくは生体の生活リズムを表す情報を生成する生活リズム発生手段と、前記生活リズム発生手段が出力する生活リズムの情報に応じて、環境もしくは生体の生活リズムに合わせて確率的に変化する自発感情(リビドー)を生成する自発感情制御手段とを設け、前記感情制御手段は、前記自発感情を、前記個性情報で決定される影響度で、前記感情情報に反映させることを特徴とする。
【0013】
例えば、温度,湿度のような自然環境条件は不規則ではあるが気象,季節,時刻などの変化に伴って周期的に変化する。また、それぞれの人間についても個別に肉体のリズム,感情のリズム,知能のリズムなどを有していると考えられる。このような周期的に変化するリズムは、実際の人間の感情に様々な影響を及ぼすと考えられる。
【0014】
請求項3の自発感情制御手段は、生活リズム発生手段が出力する生活リズムの情報に応じた確率に従って、前記感情生成手段における自発感情を制御する。従って、環境もしくは生体の生活リズムに合わせて出力する感情を変えることができる。
請求項4は、請求項2の感性発生装置において、前記感情生成手段に、前記本能的動機付け情報と前記基本感情パラメータとの対応関係を表す反応パターンモデルの情報を保持する本能−感情対応情報保持手段と、前記本能決定手段から出力される本能的動機付け情報と前記反応パターンモデルとの整合/不整合の確率を表す情報を出力する整合確率学習手段とを備え、前記感情生成手段は、前記整合確率学習手段で得られる整合の確率によって、確率の低い感情情報が生成されるのを抑制することを特徴とする。
【0015】
請求項4においては、本能的動機付け情報とパターン情報との整合の確率を整合確率学習手段から得て感情の判断要素として利用することができる。
例えば、人間の精神状態が第1の状態から他の第2の状態に変化する場合には、途中で第3の状態を経由して状態が遷移するので、第3の状態ではあるパターン情報と一時的に整合する可能性がある。しかし、この場合には第3の状態で整合したパターン情報はあまり利用価値がない。整合確率学習手段で得られる整合の確率を利用することにより、確率の低いパターン情報の感情が生成されるのを抑制することができる。
【0016】
請求項5は、請求項2の感性発生装置において、前記感情生成手段に、少なくとも最後に生成された感情情報を入力に帰還して次に生成する感情情報に反映する感情帰還制御手段を設けることを特徴とする。
人間の感情は様々な動機の入力によって連鎖的に変化すると考えることができる。例えば、平常状態の人に対して怒るべき動機を与えた場合に発生する感情の怒りの程度と、既に怒っている人に対して更に怒るべき動機を与えた場合に発生する感情の怒りの程度とは大きく異なる。
【0017】
請求項5においては、感情帰還制御手段を設けることにより、直前に発生した感情の状態を入力に帰還して次に発生する感情に反映することができる。従って、より人間に近い感情を生成することができる。
請求項6は、請求項2の感性発生装置において、前記感情制御手段は、生活リズムの情報を前記感情情報の制御に反映することにより、生活リズムによる感性の違いを再現することを特徴とする。
【0018】
請求項6においては、生活リズムの情報を感性に反映することができる。例えば、人間が乗り気の場合と乗り気でない場合とでは理性などによる判断の結果に違いが発生する。このような感性の違いを生活リズムの反映により再現することができる。
請求項7は、請求項2の感性発生装置において、過去の状況,エピソード及びその結果を示す状況情報を蓄積する知識データベースと、新たに入力された状況情報に似た過去の状況情報を前記知識データベースから検索して抽出し、過去の状況情報を前記感情制御手段に与えて、感情情報の制御に利用する知識照合手段と、新たに入力された状況及びその結果を示す状況情報によって前記知識データベースの内容を更新するとともに、前記知識データベースに蓄積された状況情報のうち優先度の低いものについては時間的に古い順番で内容の重さに合わせて自動的に削除するデータ更新制御手段とを更に設けたことを特徴とする。
【0019】
請求項7においては、知識データベースに過去の状況及びその結果を示す状況情報が蓄積されている。例えば、あるエピソードの状況とその最終的な結果がうまくいったかどうかなどを示す情報が蓄積されている。このため、現在の状況に似た過去の状況情報を知識データベースから取得して感情の制御に利用することができる。
【0020】
ところで、知識データベースには時間の経過に伴って新たに発生した情報を順次に追加しなければならない。しかしながら、知識データベースを構成する装置の記憶容量は有限である。また、蓄積した情報量が増えるに従って処理速度が低下することになる。
しかし、請求項7ではデータ更新制御手段の制御により、優先度の低い状況情報は時間的に古い順番で知識データベースから自動的に削除される。このため、人間の忘却と同様な結果を実現することができ、記憶容量の不足や処理速度の低下を防止できる。
【0021】
請求項8は、請求項2の感性発生装置において、音声信号を入力する音声入力手段と、前記音声入力手段が得た音声信号から前記相手の感情を推定し、推定した前記相手の感情を表す前記状況エピソード情報を、前記本能決定手段に与える感情検出手段とを更に設けたことを特徴とする。
【0022】
請求項8においては、音声から抽出した特徴量に基づいて相手の感情状態を検出することができる。従って、相手の感情に応じた自己感情を生成することができる。
請求項9は、請求項8の感性発生装置において、前記音声入力手段から入力される音声を認識して文字情報を出力する音声認識手段と、前記音声認識手段が認識した音声の情報を自然言語処理して入力された音声の意味を表す意味情報を生成し、前記意味情報を状況エピソード情報として前記本能決定手段に与える自然言語処理手段とを更に設けたことを特徴とする。
【0023】
請求項9においては、相手が話す言葉について意味情報が得られるので、この意味情報を理解した結果を自己の感性に反映させることができる。
請求項10のプログラムは、『相手の感情および環境の状態』または『相手の感情』を表す状況情報が入力され、前記状況情報が、提案内容や望んだ状況エピソードに近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げる。また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が予め心地いいと定めた韻律に近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げる。前記状況情報が、予め危険とみなした内容や危険と想定される状況エピソードに近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げる。また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が予め危険とされた韻律に近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げる。前記状況情報が、予め成功・達成と定めた内容や成功・達成と想定された状況エピソードに近づくと、達成度の程度を表す第3の本能パラメータを高くしてその逆だと下げる。また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が急激な変調としてみなした特定の韻律に近づくと、前記第3の本能パラメータが示す変化度を高くしてその逆だと下げる。少なくとも前記第1ないし第3の本能パラメータを含む本能的動機付け情報を生成する手順と、本能的動機付け情報と基本感情パラメータとの対応関係に、生成された前記本能的動機付け情報を当てはめることにより、少なくとも喜び,怒り,悲しみ,近からなる群のいずれかの基本感情パラメータに応じた感情情報を生成する手順と、感性発生対象の少なくとも理性及び意志を決定付ける個性情報を提供する手順と、前記個性情報に基づいて、生成された前記感情情報を制御することにより、前記理性や前記意志によって制御された感情、すなわち感性の情報を出力する手順とを前記コンピュータに実行させるためのプログラムである。
【0024】
請求項10のソフトウェアを入力して所定のコンピュータでプログラムを実行することにより、請求項1の感性発生方法を実施することができる。
【0025】
【発明の実施の形態】
本発明の感性発生方法及び感性発生装置並びに記録媒体の1つの実施の形態について、図1〜図11を参照して説明する。この形態は、全ての請求項に対応する。
【0026】
図1は感性発生装置を用いたシステムの構成例を示すブロック図である。図2は本能情報生成部の構成を示すブロック図である。図3は感情情報生成部の構成を示すブロック図である。図4は感情反応パターンDBにおける反応パターンモデルの例を示す模式図である。
図5は感性思考認知部の構成を示すブロック図である。図6は感情検出装置の構成を示すブロック図である。図7は抑揚検出部の構成を示すブロック図である。図8は感情の状態の変化と音声の強度,テンポ及び抑揚との関係を示すグラフである。
【0027】
図9は抑揚検出部における音声信号処理の過程を示すタイムチャートである。図10は忘却処理部の動作を示すフローチャートである。図11は感情感性記憶DBに記憶された情報の構成例を示す模式図である。
この形態では、請求項2の本能決定手段,感情生成手段,個性情報提供手段及び感情制御手段は、それぞれ本能情報生成部110,感情情報生成部130,個人DB(データベースの略、以下同様)163及び感性思考認知部150に対応する。また、請求項3の生活リズム発生手段及び自発感情制御手段は、それぞれ多変量解析部136及び自発感情制御部137に対応する。
【0028】
また、請求項4の本能−感情対応情報保持手段及び整合確率学習手段は、それぞれ感情反応パターンDB141及び学習処理部135に対応する。請求項5の感情帰還制御手段は基本感情パラメータ生成部133及び一時記憶DB142に対応する。
請求項7の知識データベース,知識照合手段及びデータ更新制御手段は、それぞれ知識DB161,照合処理部152及び更新処理部156に対応する。
【0029】
請求項8の音声入力手段,強度検出手段,テンポ検出手段,抑揚検出手段,変化量検出手段及び感情検出手段は、それぞれマイク11,強度検出部17,テンポ検出部18,抑揚検出部19,感情変化検出部22及び音声感情検出部23に対応する。また、請求項9の音声認識手段及び自然言語処理手段は、それぞれ音声認識部20及び文章認識部26に対応する。
【0030】
図1に示すシステムは、任意の人間とコンピュータ(仮想的な人間)との間での自然な感性的な対話を実現することを想定して構成してある。この例では、コンピュータの相手となる人間の感情を検出するために感情検出装置200が設けてあり、コンピュータ自身の人格や感性を対話に反映するために感性発生装置100を設けてある。
【0031】
また、様々な環境情報を入力するために環境情報入力装置300を設けてある。環境情報入力装置300は、例えば日付,時刻,気象情報,場所,映像の情報などを出力する。
なお、自律的に動作するシステムに感性発生装置100を利用することもできる。例えば、予め創作したシナリオの情報を感性発生装置100に入力すれば、そのシナリオに応じた反応を感性発生装置100の出力から得ることができる。その場合、感情検出装置200は不要である。
【0032】
また、図1の例では対話を実現するために必要な装置が感性発生装置100の出力に接続してあるが、感性発生装置100が出力する感性データは様々な用途に利用することができる。
例えば、データ通信で感性発生装置100を利用する場合には、文字情報を出力すればよいので、音声を出力する必要はない。また、感性発生装置100から出力される感性データを映像や音楽並びに情報検索や機械の制御に反映させることも可能である。
【0033】
次に、感性発生装置100の構成及び動作について説明する。なお、感情検出装置200については後で説明する。
図1に示すシステムについては、実際にはコンピュータシステムとその上で実行されるソフトウェアプログラムとで構成することもできるし、専用のハードウェアとして実現することもできる。また、ソフトウェアプログラムや使用するデータについては、任意の記録媒体に保存しておき記録媒体からコンピュータに読み込んで実行することができる。なお、以下の説明においては、図1のシステム自体をコンピュータと称する。
【0034】
感性発生装置100の入力には大きく分けて2種類のデータD1及びD2が入力される。データD1は相手の感情を表す情報である。また、データD2は自然言語処理された文字情報であり、相手の意志,状況及び環境の情報を含む。自然言語処理により、データD2は「5W3H」、すなわち「誰が」,「何を」,「いつ」,「どこで」,「なぜ」,「どうやって」,「どのくらい」,「いくら」を表す情報として入力される。
【0035】
実際には、次のような様々な情報を感性発生装置100の入力として利用することが可能である。
(A)時間的性質に関わる発声の強弱,リズム,テンポ,ポーズ,音階,音程,旋律,音の調和,周波数などの変化パターン並びに基本感情(怒り,喜び,悲しみ,嫌悪,驚愕,恐れなど)の度合い。
【0036】
(B)音調的性質に関わる発声のアクセント,太さ,緻密さ,明るさ,粗さ,音色(JIS−Z8109),フォルマント,イントネーション,卓立(話し言葉のある部分を際立たせて意味を明快にするプロミネンス)などの情報。
(C)強勢ストレスの性質に関わる単語,文節内容,文中の強勢配分,超文節的特徴情報,人工知能により生成される特徴情報など。
【0037】
(D)談話分析されたテキスト情報,エピソード情報(意味情報,人工知能の認知した情報を含む)など。
これらの情報のうち、(A)及び(B)は話者の意図や情緒の影響を受ける。このような情緒は、感情検出装置200を用いて検出することができる。
図1に示すように、感性発生装置100は本能情報生成部110,韻律パターンDB121,本能言語意味付け辞書122,感情情報生成部130,感情反応パターンDB141,一時記憶DB142,感性思考認知部150,知識DB161,感性DB162,個人DB163及びモラルハザードDB164を備えている。
【0038】
感性発生装置100の機能は、基本的に本能情報生成部110,感情情報生成部130及び感性思考認知部150の3つの機能要素に区分することができる。まず最初に、本能情報生成部110について説明する。
図2に示すように、本能情報生成部110には韻律パターン同調度認識部111,本能パラメータ生成部112及び辞書検索部113が備わっている。
【0039】
韻律パターン同調度認識部111が参照する韻律パターンDB121には、このコンピュータ(仮想的な人間)に入力される韻律パターンの辞書が予め保存されている。韻律とは発話のリズム要素であり、音節,単語,句,文,発話全体(単語より長い連続音声)に対して現れる音声的音韻的特質を表す。すなわち、前記(A),(B)の入力情報と同等のコンピュータ自体のパターン情報が個性情報として韻律パターンDB121に保持されている。
【0040】
韻律パターン同調度認識部111は、感情検出装置200などから入力される相手の感情解析データD1を韻律パターンDB121に保持された韻律パターンと比較して両者の同期度合い及び同調度合いを認識する。韻律パターン同調度認識部111の出力には、強い語気の有無や感情律変化などを表す情報が現れる。一方、本能言語意味付け辞書122には本能刺激に関する情報が予め登録されている。具体的には、強勢ストレスの性質に関わる単語や文中の強勢配分パターンや超文節的特徴を表す様々な情報が本能刺激と関連付けて辞書として保持されている。
【0041】
辞書検索部113は、文字情報として入力されるデータD2(相手の意志や状況)について本能言語意味付け辞書122の内容との比較を行い、会話の内容から本能的な反応情報を生成する。
本能パラメータ生成部112は、韻律パターン同調度認識部111から入力される情報,辞書検索部113から入力される情報及びデータD3に基づいて、本能的動機付け情報D4を生成する。データD3は、感性発生装置100の出力からフィードバックされる情報であり、このコンピュータが提案したエピソードや希望反応パターンである。
【0042】
この例では、本能的動機付け情報D4には確信度(又は戸惑い度),快度(又は不快度),危険度(又は安全度),注目度(又は拒絶度),達成度(又は変化度)及び追随度(又は主張度)の6つの本能パラメータが含まれている。本能パラメータ生成部112は、次のようにして各本能パラメータの値を決定する。
【0043】
快度(不快度):コンピュータが提案した内容や望んだ状況エピソードに近づくと快度が加算されその逆だと減算される。また、予め心地いいと定めた韻律に近づくと快度が加算されその逆だと減算される。
危険度(安全度):予めコンピュータが危険とみなした内容や危険と想定される状況エピソードに近づくと危険度が加算され、その逆だと減算される。また、予め危険とされた韻律に近づくと危険度が加算され、その逆だと減算される。
【0044】
達成度(変化度):予め成功・達成と定めた内容や成功・達成と想定された状況エピソードに近づくと達成度が加算されその逆だと減算される。また、急激な変調としてみなした特定の韻律に近づくと変化度が加算されその逆だと減算される。
注目度(拒絶度):予め拒絶・否定とした内容や拒絶・否定と想定される状況エピソードに近づくと拒絶度が加算(注目度が減算)されその逆だと減算(加算)される。また、強い主張や度重なる主張を検出した場合や強い韻律に近づくと注目度が加算される。また、不快として定めた韻律に近づくと拒絶度が加算される。
【0045】
追随度(主張度):予め自己卑下・自己否定として定めた内容や想定される状況エピソードに近づくと追随度が加算(主張度が減算)され、予め得意として定めた内容が現れた場合には主張度が加算(追随度が減算)される。また、予め不安として定めた韻律が現れると主張度が加算される。なお、強い韻律に近づくと反発度を加算したり、自己否定度を加算する場合もある。
【0046】
確信度(戸惑い度):戸惑いの内容や想定される状況エピソードに近づくと、本能に関する各種刺激(入力)の認識率が低い場合(例えば70%以下)、戸惑い度は認識率に反比例して発生する。認識率は声の調子や会話の内容により判断される。
【0047】
なお、上記のような制御を実現するために、コンピュータが望む内容と状況エピソードの韻律を予め個性として決定しておく。上記のように、相手の感情情報がコンピュータの個人的な本能を刺激し、各本能パラメータの値が変化する。
本能情報生成部110から出力される本能的動機付け情報D4は、感情情報生成部130に入力される。次に、感情情報生成部130について説明する。
【0048】
感情情報生成部130は、図3に示すように反応パターン検索部134,学習処理部135,多変量解析部136,自発感情制御部137及び基本感情パラメータ生成部133を備えている。
また、反応パターン検索部134,学習処理部135及び感情反応パターンDB141はレスポデントシステム131を構成し、多変量解析部136及び自発感情制御部137はオペラントシステム132を構成している。
【0049】
レスポデントシステム131は、刺激誘導による感情を発生するために設けてある。オペラントシステム132は、自発感情(リビドー)を生成するために設けてある。
レスポデントシステム131で使用される感情反応パターンDB141には、本能的動機付け情報D4と基本感情パラメータとの対応関係を表す反応パターンモデルの情報が予め保持されている。この反応パターンモデルについては、例えば図4のように表すことができる。
【0050】
なお、1つのコンピュータで複数の人間の人格を選択的に再現する場合には、複数の人間のそれぞれ、あるいは個性のタイプ別に対応する反応パターンモデルを感情反応パターンDB141に予め登録しておき、選択した人間の個性に合わせて反応パターンモデルを選択すればよい。
この例では、本能的動機付け情報D4として入力される本能パラメータとして前述の確信度(又は戸惑い度),快度(又は不快度),危険度(又は安全度),注目度(又は拒絶度),達成度(又は変化度)及び追随度(又は主張度)の6つを想定している。
【0051】
また、感情情報生成部130から出力する基本感情パラメータとしては、次の15種類のパラメータを想定している。但し、括弧内は影響を受ける本能パラメータを表している。
1.怒り(不快)
2.喜び・陽気(快)
3.悲しみ(未達成・停滞・不快)
4.驚き(達成・衝撃)
5.恐れ(危険・緊張)
6.苦しみ(危険・緊張・不快)
7.嫌悪(拒絶・拒否・不快)
8.軽蔑(拒絶・弛緩)
9.接近(快・安全)
10.逃避・回避(危険・緊張・不快)
11.嫉み(不快・怒り・羨望・注目)
12.積極(安全・快・確信)
13.従属(達成・追随)
14.いらだち・闘争(主張・停滞・不快・危険)
15.不安(危険・緊張・戸惑い・不快)
感情反応パターンDB141には、15種類の基本感情パラメータのそれぞれについて、1つ又は複数の基本感情パラメータとの関連を示す反応パターンが保持されている。
【0052】
反応パターン検索部134は、感情反応パターンDB141を検索し、入力される本能的動機付け情報D4とそれぞれの基本感情パラメータの反応パターンとの整合/不整合を調べ、整合した基本感情パラメータの情報をデータD6として出力する。
学習処理部135は、感性思考認知部150から出力される情報D3と、反応パターン検索部134から出力される相手の次の反応感情に基づいてパターンマッチングのあり方に関する確率を学習し、感情反応パターンDB141の内容を学習結果に応じて変更する。
【0053】
一方、オペラントシステム132の入力には、例えば気象情報,季節情報,時刻情報などを含む環境情報(D2)が入力される。多変量解析部136は、入力される様々な環境情報について多変量解析を行い、その結果として生活リズム情報を出力する。
生活リズム情報には、短期リズム(例えば1時間周期),生活リズム(例えば24時間周期),感情長期リズム(例えば28日周期),肉体長期リズム(例えば23日周期),知能リズム(例えば33日周期)のように周期が一定の規則的な(正弦波状の)リズムと、温度,湿度,天気などの不規則なリズムとがある。
【0054】
自発感情制御部137は、多変量解析部136から出力される生活リズム情報リズムの中で、予め定めた範囲内の確率に従って、自発感情(リビドー)を出力する。
基本感情パラメータ生成部133は、レスポデントシステム131から出力される基本感情パラメータ及び整合率の情報と、オペラントシステム132から出力される自発感情とを総合的に判断した結果(15種類の基本感情パラメータからなる情報)を自己感情情報D5として出力する。
【0055】
また、出力された自己感情情報D5は一時記憶DB142に一時的に記憶され、基本感情パラメータ生成部133の入力にフィードバックされる。基本感情パラメータ生成部133は、一時記憶DB142からフィードバックされる情報を直前の自己感情として入力し、それを次回の感情判断結果に反映する。
また、基本感情パラメータ生成部133が総合的な判断を行う際には、個性情報143として定められた個性に従って、各部の優先度や影響度を決定する。
【0056】
例えば、直情型の個性を再現する場合には、レスポデントシステム131の影響度を大きく(80%以上)するとともに直前の自己感情の影響も大きくする。また、思考型の個性を再現する場合には、オペラントシステム132の出力が安定している環境下において、レスポデントシステム131の影響度を小さく(30%以下)にするとともに直前の自己感情の影響も小さくする。
【0057】
感情情報生成部130から出力される自己感情情報D5は感性思考認知部150に入力される。感情情報生成部130には、図5に示すように重み付け処理部151,照合処理部152,多変量解析部153,総合直感意志決定部154及び更新処理部156が備わっている。
重み付け処理部151は、入力される自己感情情報D5に対して個性情報155に応じた重み付けを行う。重み付けされた自己感情情報が重み付け処理部151から出力される。
【0058】
一方、照合処理部152の入力にはデータD2として環境,状況,相手の意志などを表すエピソード及びその結果を含む文字情報(5W3H)が入力される。照合処理部152が参照する知識DB161には、過去のエピソード及びその結果並びにそれらの意味を表す意味情報が文字情報(5W3H)の形式で知識として蓄積されている。また、知識DB161上の知識は各々のデータが得られた時刻の情報を含み、時刻の順番に従って並べてある。
【0059】
この例では、知識DB161上の知識は、長期記憶,宣言的記憶及び手続き記憶に分類できる。宣言的記憶とは、言葉による記憶であり特定の時間・空間的文脈の中での出来事であるエピソード情報と一般的知識としての意味情報を表す。手続き記憶は方法や手法に関する記憶を表す。
エピソード情報は、時間,場所,内容,意志(賛同,反対,好意など),人称,数量,重さ,状況,状態,相手の個人情報,情動,意図
(目的),態度,対人関係などを含む。意味情報は、言語辞書及び感性辞書に相当する。個人情報としては、個人の気質,性格,情緒性,社会適応性(社交性),欲求,葛藤,態度,優越,コンプレックス,興味,適正,道徳性,思考パターン,感情特異点,執着内容(及びその程度),タブー語,嗜好性,善悪基準などが考えられる。
【0060】
この例では、次のような文法に従って、知識の情報を知識DB161に蓄積してある。但し、目的に応じてデータベースの構成内容は変更される。
物語=場面+プロット+解決
場面=登場人物+場所+時間
テーマ=(出来事)+目標
プロット=エピソード
エピソード=下位目標+試み+結果
試み=出来事+エピソード
結果=出来事+状態
解決=出来事+状態
下位目標,目標=望ましい状態
登場人物,場所,時間=状態
また、更新処理部156の働きにより知識DB161には新たな情報が逐次追加される。また、繰り返し行われる忘却処理によって不要な情報は自動的に知識から削除される。すなわち、優先度の高いデータを除き時間的に古くなったデータから順番に削除する。例えば反復して利用された知識や印象が強いと判断されたデータについては優先的に扱い、古くなっても削除しない。また、忘却の程度や各データの優先順位については個性に応じて変更することができる。
【0061】
照合処理部152は、入力されるデータD2に基づいてそれに近い過去のエピソード及び結果を知識DB161から検索して抽出し、入力データと抽出された知識との照合を行う。
学習処理部157は、入力されるエピソードの結果に基づいて、そのエピソードに対する自己価値観の情報を学習により生成する。すなわち、学習処理部157は入力されるエピソードの結果から満足度及び快,不快の度合い付けを行う。
【0062】
多変量解析部153は、重み付け処理部151から入力される重み付けされた感情情報と、照合処理部152から入力されるエピソード情報及び結果情報と、学習処理部157から入力される自己価値観の情報と、個人DB163から入力される自己意志及び自己本能の情報とを多変量解析し、その結果を総合直感意志決定部154に出力する。
【0063】
総合直感意志決定部154は、個人DB163及びモラルハザードDB164の内容を判断辞書として利用し、多変量解析部153から入力される情報を総合的に判断し、何を自発的に実行するかと、その結果をデータD3として出力する。
個人DB163には、次に示すような様々な情報が辞書情報として保持されている。
【0064】
1.個性情報:
(a)個性のタイプ毎の度合いに応じた判断基準:タイプとしてはステレオタイプ,他者志向型,内部志向型,伝統志向型,攻撃志向型,協調志向型,ストレス克服型,ストレス発散型などが考えられる。また、達成動機度やリアクタンス度も判断基準として利用できる。
【0065】
(b)認知スタイルの判断基準:「熟慮型」と「衝動型」との区別や「場依存型」と「場独立型」との区別による認知スタイルを判断基準とする。
(c)性格による判断基準:日本人の場合には、人格検査法やTPI(東京大学版総合性格検査)などにより分類される個人の気質,性格,情緒性,社会適応性(社交性),欲求,葛藤,態度,コンプレックス,興味,適正,道徳性,思考パターン,感情特異点,執着内容(及びその度合い),タブー語,嗜好性,善悪基準,恥の基準,罪の基準,快・不快の基準などを判断基準として利用する。
【0066】
(d)ネガティビリティー・バイアスの判断基準:ネガティブな情報を大きくとらえやすくするためにバイアスを与えて性格形成に利用する。
(e)粘着固執時間の判断基準:相手の認知情報やエピソード及び感情情報に対する固執度とそれに対する反応対応時間を決定する。
【0067】
2.イド無意識反応基準情報:
(a)本能を刺激する内容の単語辞書及び文節辞書。
(b)個性別の忍耐度,粘着度,直情度のための各種本能反応時間の基準。
(c)個性として決定された相手の感情に対応する自己本能パターン。
3.ホメオスタシス(抑制)の基準情報:全体的な本能の出力を調和と安定に維持しようとするための判断基準。
【0068】
4.自我意識反応基準情報:個性による自己の意志を表す判断基準の情報。
また、判断辞書としては真偽,正誤,適不適のような再認判断や同定判断に利用される情報と、快不快などの本能判断に利用される情報と、複雑さ,重さなどの対象についての個別認識判断に利用される情報と、同,大小,異,類似のような対象間の相対認知判断に利用される情報と、記憶の確信度や知識の正確さなどのメタ記憶判断に利用される情報と、真,善,愛などの抽象判断に利用される情報と、帰納的判断に利用される情報などが含まれている。
【0069】
また、モラルハザードDB164には、職業モラル,個人モラル,根本的モラルなどに関する辞書情報が保持されている。
例えば、職業モラルとしては「建築家としては完全な計算を求める」,「仕事は何より優先する」,「プロとして誇りを持っている」などが登録される。また、個人モラルとしては「僕は女性を大切にする(私は男の人に偉そうにしない)」,「田舎を誇りに思う」,「日本人を誇りに思う」などが登録される。根本的モラルとしては、「殺人はいけない」,「親を大切にする」,「自分は男(女)である」などが登録される。
【0070】
総合直感意志決定部154は、感情情報生成部130によって生成された自己感情の情報を重み付け処理部151,照合処理部152,多変量解析部153により解析し、このコンピュータの個性や意志を表す個人DB163上の判断辞書及びモラルハザードDB164上の判断辞書に基づいて抑制し、何に対してどのような自己感情反応(感性)をどれくらい出力するのかを決定する。決定の際には、その時の環境や状況並びに相手の意志を反映する。
【0071】
感性思考認知部150には、次のような機能が備わっている。
1.強い印象や語彙あるいは急激な感情変化を検出した場合には個性に応じて判断の周期を変更する。例えば、急に大声で強い内容を主張した場合には判断周期を短くする。
2.個性による自己のバイオリズムに反応して乗り気のときと気分が乗らないときとで異なる感性判断を行う。
【0072】
3.自己の快・不快や感情量に応じて異なる感性判断を行う。
4.現在の状況を表す情報について知識DB161上の知識を利用して理性的な価値判断を行い、感情の判断結果の影響を反映して最終的な意志を決定する。
5.価値判断を行う際には、社会的価値,職業的価値,生活的価値,個人的価値などのそれぞれの立場で判断する。また、社会的価値,職業的価値,生活的価値及び個人的価値のそれぞれを更に細かく区別して判断する。例えば、社会的価値については、宗教,審美,社会,政治,経済,倫理のそれぞれの観点について価値を算出する。
【0073】
6.意志決定の判断材料として、満足・不満足,損得・利害,安全・危険などのそれぞれに関する価値の判断を行う。安全に関する価値判断を行う場合には、例えば次のように判断する。
(a)第三者が自己に「不快」を加えようとしている場合には敵対感情及び防衛反応についての価値を生成する。
【0074】
(b)自分が第三者に「不快」を加えようとしている場合には敵対感情及び攻撃反応についての価値を生成する。
(c)第三者に別の何かが「不快」を加えようとしているときに第三者に自分が味方しようとするときは好意感情及び協調攻撃反応についての価値を生成する。
【0075】
7.生成された価値情報は感性DB162に蓄積され、それ以降の判断材料として利用される。
なお、感性思考認知部150には人間と同じような様々な学習機能が備わっているので、経験を積み重ねることにより個人DB163や感性DB162の内容も逐次更新される。
【0076】
感性思考認知部150においては、様々な価値などの数値を基礎とする総合的な判断によって結果を出力するので、人工知能のような論理的な推理や判断は行わない。つまり、感性思考認知部150から出力されるデータD3は、コンピュータ自身の直感的な判断で得られる感性情報である。
次に、図1の感性発生装置100の入力に接続された感情検出装置200の具体例について説明する。
【0077】
図6に示すように、この感情検出装置にはマイク11,A/D変換器12,信号処理部13,音声認識部20,強度検出部17,テンポ検出部18,抑揚検出部19,一時記憶部21,感情変化検出部22,音声感情検出部23,感情パターンDB24,キーボード25,文章認識部26,テレビカメラ31,画像認識部32,顔パターンDB33,顔感情検出部34,文字認識部39,感情感性記憶DB41,忘却処理部42,同期処理部43,人間性情報DB44,個人情報DB45,専門情報DB46及び感情認識部60が備わっている。
【0078】
また、音声認識部20には信号処理部13,音素検出部14,単語検出部15及び文章検出部16が設けてある。音声認識部20には、市販の音声認識(自然言語)デバイスの機能も含まれている。
図6において、音声認識部20,強度検出部17,テンポ検出部18,抑揚検出部19,一時記憶部21,感情変化検出部22及び音声感情検出部23は、音声から感情を検出するための回路である。
【0079】
この感情検出装置は、感情の検出対象となる相手の人間の情報を読み取るための入力手段として、マイク11,キーボード25及びテレビカメラ31を備えている。すなわち、マイク11から入力される音声,キーボード25から入力される文字情報及びテレビカメラ31から入力される顔の表情などの情報を利用して相手の人間の感情を検出する。
【0080】
なお、実際にはマイク11から入力される音声だけに基づいて感情を検出することも可能であり、キーボード25から入力される文字情報だけに基づいて感情を検出することも可能であり、テレビカメラ31から入力される顔の表情だけに基づいて相手の人間の感情を検出することも可能である。しかし、複数の情報源から得られる情報を総合的に判断した方が感情の検出精度を高めるうえで効果的である。
【0081】
まず、音声に関する処理について説明する。マイク11から入力された音声信号は、A/D変換器12でサンプリングされ、ディジタル信号に変換される。A/D変換器12の出力に得られる音声のディジタル信号は、音声認識部20に入力される。
信号処理部13は、音声の強度検出に必要な周波数成分を抽出する。強度検出部17は、信号処理部13の抽出した信号からその強度を検出する。例えば、音声信号の振幅の大きさを平均化した結果を強度として利用することができる。
【0082】
音声の強度を検出するための平均化の周期については、例えば10秒程度に定める。但し、10秒以内であっても文章毎の区切りを検出した場合には、文章の最初から区切りを検出した時点までの平均化を行う。すなわち、音声の文章毎にそれぞれの強度を検出する。
音声認識部20に備わった音素検出部14は、入力される音声の音素毎の区切りを検出する。例えば、「今日はいい天気ですね」の文章が音声で入力された場合には、「きょ/う/は/い/い/て/ん/き/で/す/ね」のように音素毎の区切りを検出する。
【0083】
また、音声認識部20に備わった単語検出部15は、入力される音声の単語毎の区切りを検出する。例えば、「今日はいい天気ですね」の文章が音声で入力された場合には、「きょう/は/いい/てんき/ですね」のように単語毎の区切りを検出する。
また、音声認識部20に備わった文章検出部16は、入力される音声の文章毎の区切りを検出する。特定の長さ以上の無音状態を検出した場合に、文章毎の区切りが現れたものとみなす。無音状態の長さの閾値には、(0.1〜2)秒程度の値が割り当てられる。また、この閾値は一定ではなく、直前に検出された感情の状態を反映するように自動的に変更される。
【0084】
テンポ検出部18は、音素検出部14から出力される音素毎の区切りの信号を入力して、単位時間に現れた音素の数をテンポとして検出する。テンポの検出周期については、例えば10秒程度の時間が割り当てられる。しかし、文章の区切りを検出した場合には、10秒以内であってもその時点までで音素数のカウントを中止してテンポの値を計算する。つまり、文章毎にテンポが検出される。
【0085】
抑揚検出部19には、単語検出部15が区切りを検出した単語毎に区分されて、音声信号が入力される。抑揚検出部19は、入力される音声信号から各単語内及び文章検出部16における文章毎の区切り内の音声の強度変化パターンを表す抑揚を検出する。これにより、抑揚検出部19は区切りの中での特徴的な強度パターンを検出する。
【0086】
抑揚検出部19の内部には、図7に示すように、バンドパスフィルタ51,絶対値変換部52,比較部53,領域中心検出部54及び領域間隔検出部55が備わっている。また、抑揚検出部19における各部の信号SG1,SG2,SG3,SG4の波形の例が図9に示されている。なお、図9における各信号の縦軸は振幅又は強度を表している。また、図9の例では音声から取り出された1つの単語の長さが約1.2秒になっている。
【0087】
バンドパスフィルタ51は、入力された信号SG1の中から抑揚の検出に必要な周波数成分だけを抽出する。この例では、800Hz〜1200Hzの範囲内の周波数成分だけがバンドパスフィルタ51の出力に信号SG2として現れる。図9を参照すると、単語内の抑揚による強度変化のパターンが信号SG2に現れていることが分かる。
【0088】
信号の計算処理を容易にするために、抑揚検出部19には絶対値変換部52を設けてある。絶対値変換部52は、入力される信号の振幅をその絶対値に変換する。従って、絶対値変換部52の出力には図9に示す信号SG3が現れる。
比較部53は、信号SG3の大きさを閾値と比較して閾値よりも大きい成分だけを信号SG4として出力する。すなわち、比較部53は信号SG3のパワースペクトルの中で値の大きな成分だけを出力する。なお、比較部53に印加する閾値については、判別分析法と呼ばれる方法を用いて適応的に決定している。
【0089】
図9を参照すると、信号SG4には音声の単語における抑揚パターンに相当する2つの領域A1,A2が明確に現れている。領域中心検出部54は、2つの領域A1,A2のそれぞれの中心に相当する位置が現れた時間t1,t2を検出する。
領域間隔検出部55は、領域中心検出部54の検出した2つの時間t1,t2に関する時間差を領域間隔Tyとして検出する。この領域間隔Tyの値は、音声の単語における抑揚パターンに相当する。実際には、領域間隔Tyの値を平均化した結果を抑揚の値として利用している。
【0090】
なお、1つの単語の中で信号SG4に3つ以上の領域が現れる場合もある。3つ以上の領域が現れた場合には、互いに隣接する2つの領域について領域間隔Tyをそれぞれ計算し、求められた複数の領域間隔Tyを平均化した結果を抑揚の値として利用する。
人間の感情の状態は、例えば図8に示すように変化する。また、怒り,悲しみ,喜びなどの感情を正しく把握するためには、強度,テンポ,抑揚のような特徴量の変化を検出することが重要である。
【0091】
図6に示す感情検出装置においては、過去の特徴量の参照を可能にするため、強度検出部17が出力する強度,テンポ検出部18が出力するテンポ及び抑揚検出部19が出力する抑揚の値を一時的に一時記憶部21に記憶しておく。
また、感情変化検出部22は、強度検出部17が出力する現在の強度,テンポ検出部18が出力する現在のテンポ及び抑揚検出部19が出力する現在の抑揚の値と、一時記憶部21に保持された過去の(現在よりも少し前の時刻の)強度,テンポ及び抑揚の値とを入力して、感情状態の変化を検出する。つまり、音声の強度の変化,テンポの変化及び抑揚の変化をそれぞれ検出する。
【0092】
音声感情検出部23は、感情変化検出部22が出力する音声の強度の変化,テンポの変化及び抑揚の変化を入力し、現在の感情の状態を推定する。感情の状態として、この例では怒り,悲しみ及び喜びの3種類の状態をそれぞれ推定している。
感情パターンDB24には、音声の強度の変化,テンポの変化及び抑揚の変化のパターンと怒りの状態とを関連付ける情報と、音声の強度の変化,テンポの変化及び抑揚の変化のパターンと悲しみの状態とを関連付ける情報と、音声の強度の変化,テンポの変化及び抑揚の変化のパターンと喜びの状態とを関連付ける情報とが予め保持されている。
【0093】
音声感情検出部23は、感情パターンDB24に保持された情報を推定規則として参照しながら、感情変化検出部22が出力する強度の変化,テンポの変化及び抑揚の変化のパターンに基づいて現在の感情の状態を推定する。
音声感情検出部23によって推定された怒り,悲しみ及び喜びの3種類の各々の状態を表す情報は、感情認識部60及び感情感性記憶DB41に入力される。感情感性記憶DB41は、音声感情検出部23から入力される現在の感情の状態を逐次記憶され、蓄積される。
【0094】
従って、感情感性記憶DB41に記憶された情報を読み出すことにより、過去の感情の状態を再生することができる。
一方、音声としてマイク11から入力された文章の内容(相手の発言内容)は、文章認識部26で認識される。文章認識部26の入力には、音声認識部20で認識された各音素に対応する文字情報や、単語の区切り及び文章の区切りを表す情報が入力される。また、キーボード25から入力された文字情報も文章認識部26に入力される。
【0095】
文章認識部26は、入力される文字列の単語毎の認識及び構文解析を行い、文章の内容を自然言語として把握する。実際には、「5W3H」、すなわち「誰が」,「何を」,「いつ」,「どこで」,「なぜ」,「どうやって」,「どのくらい」,「いくら」を表す発言情報を認識する。文章認識部26が認識した発言情報は感情認識部60に入力される。
【0096】
次に、相手の顔の表情から感情を検出するための処理について説明する。テレビカメラ31は、図6の感情検出装置の被験者となる人間の少なくとも顔の部分を撮影する。テレビカメラ31の撮影した画像、すなわち人間の顔の表情が含まれる画像が画像認識部32に入力される。
なお、テレビカメラ31の撮影した画像の情報は文字認識部39に入力される。すなわち、文章の映像をテレビカメラ31で撮影した場合には、文字認識部39は撮影された映像から文章の各文字を認識する。文字認識部39の認識した文字情報は文章認識部26に入力される。
【0097】
画像認識部32は、入力される画像の中から特徴的な要素を認識する。具体的には、被験者の顔における目,口,眉毛,頬骨の部分をそれぞれ認識し、顔の中における目,口,眉毛,頬骨のそれぞれの相対的な位置を検出する。また、画像認識部32は顔の表情の変化に伴う目,口,眉毛,頬骨のそれぞれの位置の変化及び首を振るなどの表現を検出するために位置の追跡を常に行う。
【0098】
顔パターンDB33には、顔の中における目,口,眉毛,頬骨のそれぞれの位置に関する基準位置の情報(被験者の平常時の顔の表情に相当する情報)が予め保持されている。なお、顔パターンDB33の内容を任意に変更することも可能である。また、顔パターンDB33には顔の表情の変化と6種類の感情(喜び,怒り,悲しみ,恐れ,楽しみ,驚き)のそれぞれとの対応関係を表す規則情報が予め保持されている。
【0099】
顔感情検出部34は、画像認識部32が認識した目,口,眉毛,頬骨のそれぞれの位置と顔パターンDB33に保持された基準位置の情報とを用いて特徴量、すなわち平常時の位置に対する表情の違いを検出する。
また、顔感情検出部34は検出した特徴量の変化量及び変化の速さと、顔パターンDB33に保持された規則情報とに基づいて、6種類の感情(喜び,怒り,悲しみ,恐れ,楽しみ,驚き)のそれぞれの状態を推定する。推定された6種類の感情の状態を表す情報は、顔感情検出部34から出力されて感情認識部60及び感情感性記憶DB41に入力される。
【0100】
感情認識部60は、音声感情検出部23から入力される感情(怒り,悲しみ,喜び)の状態を表す情報と、文章認識部26から入力される発言情報と、顔感情検出部34から入力される感情(喜び,怒り,悲しみ,恐れ,楽しみ,驚き)の状態を表す情報とを総合的に判断して最終的な感情の状態を推定する。発言情報については、その文章の内容(5W3H)を予め定めた規則に従って判断することにより、発言情報に含まれている感情(喜び,怒り,悲しみ,恐れ,楽しみ,驚き)の状態を推定することができる。
【0101】
音声感情検出部23が音声から推定した感情の状態を表す情報と、文章認識部26が音声又はキーボード25から入力された文字から認識した発言内容の情報と、顔感情検出部34が顔の表情から推定した感情の状態を表す情報とが、それぞれ感情感性記憶DB41に入力されて逐次記憶される。感情感性記憶DB41に記憶されたそれぞれの情報には、それが検出された時刻あるいは時間ならびに年月日が付加される。
【0102】
感情感性記憶DB41に入力される情報のうち、音声感情検出部23から入力される感情の情報と、文章認識部26から入力される発言内容の情報と、顔感情検出部34から入力される感情の情報とは互いに関連付けて把握しなければならない。
そこで、同期処理部43は感情感性記憶DB41に蓄積された複数種類の情報を、それらの検出された時間(入力された時間)及び年月日によって互いに関連付ける。例えば、図11に示されるように、音声感情検出部23の推定した怒り,悲しみ及び喜びの感情の状態を表す情報と発言の内容(5W3H)の情報とを、それらの時間によって互いに関連付ける。
【0103】
ところで、感情感性記憶DB41には比較的大量の情報を蓄積できる十分な記憶容量が備わっている。しかしながら、記憶容量には限りがあるのでこの装置を長期間に渡って使い続けるためには蓄積する情報の量を抑制する必要がある。
そこで、忘却処理部42が設けてある。忘却処理部42は、古くなった情報を感情感性記憶DB41上から自動的に削除する。但し、特定の条件に適合する情報については古くなった場合でも削除せずに保存される。
【0104】
忘却処理部42の動作について、図10を参照しながら説明する。
図10のステップS11においては、感情感性記憶DB41に蓄積されている多数のデータのそれぞれについて、記憶された時刻(あるいは検出された時刻)及び年月日の情報を参照する。
ステップS12では、現在の時刻とステップS11で参照したデータの時刻とに基づいて、該当するデータが記憶されてから予め定めた一定の期間が経過したか否かを識別する。記憶してから一定の期間が経過した古いデータを処理する場合には、ステップS13以降の処理に進む。一定の期間が経過していない比較的新しいデータについては、そのまま保存される。
【0105】
ステップS13では、データが感情の状態を表す情報である場合に、その感情の変化量(前後の感情との違い)を調べる。感情の変化量が予め定めた閾値を超える場合にはステップS13からS17に進むので、そのデータが古い場合であってもそのままデータは保存される。感情の変化量が閾値以下の場合には、ステップS13からS14に進む。
【0106】
ステップS14では、そのデータに関する感情のパターンを検出し、そのパターンが予め定めた特定のパターンと一致するか否かを識別する。すなわち、複数の感情の状態及び発言内容の組み合わせが、「印象が強い」状態を表す特定のパターンと一致するか否かを調べる。検出したパターンが特定のパターンと一致した場合には、ステップS14からS17に進むので、そのデータが古い場合であってもそのままデータは保存される。パターンが一致しない場合にはステップS14からS15に進む。
【0107】
ステップS15では、データが発言内容である場合に、その内容と予め定めた発言内容(印象に残りやすい発言)とが一致するか否かを識別する。なお、完全に一致しなくても、類似性が高い場合には「一致」とみなすこともできる。データの発言内容が予め定めた発言内容と一致した場合には、ステップS15からS17に進むので、そのデータが古い場合であっても、そのままデータは保存される。
【0108】
ステップS15で一致しない場合には、ステップSS16において当該データは削除される。
上記の処理は感情感性記憶DB41上の全てのデータについて実行される。また、図10に示す忘却処理は定期的に繰り返し実行される。この忘却処理を実行留周期については、個人の個性として任意に変更することができる。なお、ステップS14,S15では予め容易されたパターンDB(図示せず)を参照して処理を行う。このパターンDBについては、入力情報を学習することにより自動的に内容が更新される。
【0109】
なお、図10では処理を簡略化して表してある。実際には、感情の変化量,感情のパターン及び発言の内容の全てを総合的に判断する。すなわち、感情の変化量が大きい情報と、感情のパターンが一致した情報と、発言内容が同一もしくは近似する情報とが存在する場合には、総合的に優先順位を判断する。具体的には、発言内容が同一もしくは近似する情報の優先順位が最も大きく、感情のパターンが一致した情報の優先順位が2番目に高く、感情の変化量が大きい情報の優先順位は低い。従って、発言内容が同一もしくは近似する情報は忘却処理で削除されにくく、古くなっても記憶として残る。
【0110】
上記のような忘却処理部42の処理によって、感情感性記憶DB41上の古くなったデータについては、感情の変化が大きいもの、「印象が強い」とみなされるパターンであるもの、幾度も入力を繰り返されたもの、及び発言の内容が印象に残りやすいもののみがその強度と内容に合わせて順位をつけてそのまま保存される。その結果、感情感性記憶DB41上の古いデータについては、一部分のみが残った不完全なデータとなる。このようなデータは、人間の記憶における過去の曖昧な記憶と同じような内容になる。
【0111】
感情感性記憶DB41に蓄積された過去の感情の状態及び発言内容を読み出してデータを分析することにより、例えばこの感情検出装置が正しく動作しているか否かを判断したり、感情の推定に利用される各部のデータベースの内容を改良するように更新することも可能になる。
感情感性記憶DB41に蓄積されたデータについては、その内容に応じて更に振り分けられ、人間性情報DB44,個人情報DB45又は専門情報DB46に記憶される。
【0112】
人間性情報DB44には、性別,年齢,攻撃性,協調性,現在の感情などのように被験者の性格を決定付ける情報や行動の決定パターンの情報が保持される。また、個人情報DB45には、個人の住所,現在の状況,環境,発言内容(5W3H)などの情報が保持される。専門情報DB46には、職業,経歴,職業適性格,職業的行動決定パターンなどの情報が保持される。
【0113】
人間性情報DB44,個人情報DB45及び専門情報DB46から出力されるのは、個人のモラルパターン情報である。このモラルパターン情報と過去の相手の感情とに基づいて相手の感性を察知することができる。
なお、図6に示すマイク11を電話機の受話器に置き換えてもよいし、文字などの情報を入力する手段としてマウスを設けてもよい。
【0114】
また、図6に示すテレビカメラ31については、光学式カメラ,ディジタルカメラ,CCDカメラのような様々な撮像手段のいずれでも置き換えることができる。
【0115】
【発明の効果】
以上説明したように、本発明においては感情を生成するための動機付けとなる本能的動機付け情報を入力される状況情報(相手の感情,周囲の状況など)に基づいて生成し、その本能的動機付け情報に基づいて感情情報が生成される。更に、生成される感情情報は個性情報に応じて制御される。
【0116】
このため、個人の理性や意志によって制御された感情、すなわち感性の情報を出力することができる。また、本能的動機付け情報を介して感情情報を生成するので、生成する感情をより精密かつ容易に制御することができる。
【図面の簡単な説明】
【図1】感性発生装置を用いたシステムの構成例を示すブロック図である。
【図2】本能情報生成部の構成を示すブロック図である。
【図3】感情情報生成部の構成を示すブロック図である。
【図4】感情反応パターンDBにおける反応パターンモデルの例を示す模式図である。
【図5】感性思考認知部の構成を示すブロック図である。
【図6】感情検出装置の構成を示すブロック図である。
【図7】抑揚検出部の構成を示すブロック図である。
【図8】感情の状態の変化と音声の強度,テンポ及び抑揚との関係を示すグラフである。
【図9】抑揚検出部における音声信号処理の過程を示すタイムチャートである。
【図10】忘却処理部の動作を示すフローチャートである。
【図11】感情感性記憶DBに記憶された情報の構成例を示す模式図である。
【符号の説明】
11 マイク
12 A/D変換器
13 信号処理部
14 音素検出部
15 単語検出部
16 文章検出部
17 強度検出部
18 テンポ検出部
19 抑揚検出部
20 音声認識部
21 一時記憶部
22 感情変化検出部
23 音声感情検出部
24 感情パターンDB
25 キーボード
26 文章認識部
31 テレビカメラ
32 画像認識部
33 顔パターンDB
34 顔感情検出部
39 文字認識部
41 感情感性記憶DB
42 忘却処理部
43 同期処理部
44 人間性情報DB
45 個人情報DB
46 専門情報DB
51 バンドパスフィルタ
52 絶対値変換部
53 比較部
54 領域中心検出部
55 領域間隔検出部
60 感情認識部
100 感性発生装置
110 本能情報生成部
111 韻律パターン同調度認識部
112 本能パラメータ生成部
113 辞書検索部
121 韻律パターンDB
122 本能言語意味付け辞書
130 感情情報生成部
131 レスポデントシステム
132 オペラントシステム
133 基本感情パラメータ生成部
134 反応パターン検索部
135 学習処理部
136 多変量解析部
137 自発感情制御部
141 感情反応パターンDB
142 一時記憶DB
143 個性情報
150 感性思考認知部
151 重み付け処理部
152 照合処理部
153 多変量解析部
154 総合直感意志決定部
155 個性情報
156 更新処理部
157 学習処理部
161 知識DB
162 感性DB
163 個人DB
164 モラルハザードDB
200 感情検出装置
300 環境情報入力装置
410 会話制御部
420 会話DB
430 音声出力部
440 音声DB
450 スピーカ

Claims (10)

  1. 感性発生対象の少なくとも理性,定められた特性及び意志を決定付ける個性情報を予め保持しておき、
    『相手の感情および環境の状態』または『相手の感情』を表す状況情報を入力し、
    前記状況情報が、提案内容や望んだ状況エピソードに近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げ、また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が予め心地いいと定めた韻律に近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げ、
    前記状況情報が、予め危険とみなした内容や危険と想定される状況エピソードに近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げ、また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が予め危険とされた韻律に近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げ、
    前記状況情報が、予め成功・達成と定めた内容や成功・達成と想定された状況エピソードに近づくと、達成度の程度を表す第3の本能パラメータを高くしてその逆だと下げ、また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が急激な変調としてみなした特定の韻律に近づくと、前記第3の本能パラメータが示す変化度を高くしてその逆だと下げ、
    少なくとも前記第1ないし第3の本能パラメータを含む本能的動機付け情報を生成し、
    本能的動機付け情報と基本感情パラメータとの対応関係に、生成された前記本能的動機付け情報を当てはめることにより、少なくとも喜び,怒り,悲しみ,近からなる群のいずれかの基本感情パラメータに応じた感情情報を生成し、
    前記個性情報に基づいて、生成される前記感情情報を制御することにより、前記理性や前記意志によって制御された感情、すなわち感性の情報を出力する
    ことを特徴とする感性発生方法。
  2. 相手の感情及び環境,意志の状態を表すエピソード状況情報を入力し、前記エピソード状況情報が、提案内容や望んだ状況エピソードに近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げ、前記エピソード状況情報が、予め危険とみなした内容や危険と想定される状況エピソードに近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げ、前記エピソード状況情報が、予め成功・達成と定めた内容や成功・達成と想定された状況エピソードに近づくと、達成度の程度を表す第3の本能パラメータを高くしてその逆だと下げ、少なくとも第1ないし第3の本能パラメータを含む本能的動機付け情報を生成する本能決定手段と、
    本能的動機付け情報と基本感情パラメータとの対応関係に、生成された前記本能的動機付け情報を当てはめることにより、少なくとも喜び,怒り,悲しみ,近からなる群のいずれかの基本感情パラメータに応じた感情情報を生成する感情生成手段と、
    感性発生対象の少なくとも理性及び感性的意志を決定付ける個性情報を提供する個性情報提供手段と、
    前記個性情報提供手段から提供される個性情報に基づいて、前記感情生成手段から出力される感情情報を制御することにより、前記理性や前記意志によって制御された感情、すなわち感性の情報を出力する感情制御手段と
    を設けたことを特徴とする感性発生装置。
  3. 請求項2の感性発生装置において、前記感情生成手段に、
    周期的に変化する環境もしくは生体の生活リズムを表す情報を生成する生活リズム発生手段と、
    前記生活リズム発生手段が出力する生活リズムの情報に応じて、環境もしくは生体の生活リズムに合わせて確率的に変化する自発感情(リビドー)を生成する自発感情制御手段とを設けて、
    前記感情制御手段は、前記自発感情を、前記個性情報で決定される影響度で、前記感情情報に反映させる
    ことを特徴とする感性発生装置。
  4. 請求項2の感性発生装置において、前記感情生成手段に、
    前記本能的動機付け情報と前記基本感情パラメータとの対応関係を表す反応パターンモデルの情報を保持する本能−感情対応情報保持手段と、
    前記本能決定手段から出力される本能的動機付け情報と前記反応パターンモデルとの整合/不整合の確率を表す情報を出力する整合確率学習手段とを備え、
    前記感情生成手段は、前記整合確率学習手段で得られる整合の確率によって、確率の低い感情情報が生成されるのを抑制する
    ことを特徴とする感性発生装置。
  5. 請求項2の感性発生装置において、前記感情生成手段に、少なくとも最後に生成された感情情報を入力に帰還して次に生成する感情情報に反映する感情帰還制御手段を設ける
    とを特徴とする感性発生装置。
  6. 請求項2の感性発生装置において、前記感情制御手段は、生活リズムの情報を前記感情情報の制御に反映することにより、生活リズムによる感性の違いを再現する
    ことを特徴とする感性発生装置。
  7. 請求項2の感性発生装置において、
    過去の状況,エピソード及びその結果を示す状況情報を蓄積する知識データベースと、
    新たに入力された状況情報に似た過去の状況情報を前記知識データベースから検索して抽出し、過去の状況情報を前記感情制御手段に与えて、感情情報の制御に利用する知識照合手段と、
    新たに入力された状況及びその結果を示す状況情報によって前記知識データベースの内容を更新するとともに、前記知識データベースに蓄積された状況情報のうち優先度の低いものについては時間的に古い順番で内容の重さに合わせて自動的に削除するデータ更新制御手段と
    を更に設けたことを特徴とする感性発生装置。
  8. 請求項2の感性発生装置において、
    音声信号を入力する音声入力手段と、
    前記音声入力手段が得た音声信号から前記相手の感情を推定し、推定した前記相手の感情を表す前記状況エピソード情報を、前記本能決定手段に与える感情検出手段と
    を更に設けたことを特徴とする感性発生装置。
  9. 請求項8の感性発生装置において、
    前記音声入力手段から入力される音声を認識して文字情報を出力する音声認識手段と、
    前記音声認識手段が認識した音声の情報を自然言語処理して入力された音声の意味を表す意味情報を生成し、前記意味情報を状況エピソード情報として前記本能決定手段に与える自然言語処理手段と
    を更に設けたことを特徴とする感性発生装置。
  10. 『相手の感情および環境の状態』または『相手の感情』を表す状況情報が入力され、
    前記状況情報が、提案内容や望んだ状況エピソードに近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げ、また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が予め心地いいと定めた韻律に近づくと、快さの程度を表す第1の本能パラメータを高くしてその逆だと下げ、
    前記状況情報が、予め危険とみなした内容や危険と想定される状況エピソードに近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げ、また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が予め危険とされた韻律に近づくと、危険度を表す第2の本能パラメータを高くしてその逆だと下げ、
    前記状況情報が、予め成功・達成と定めた内容や成功・達成と想定された状況エピソードに近づくと、達成度の程度を表す第3の本能パラメータを高くしてその逆だと下げ、また、入力する前記状況情報を相手の感情を表す韻律とした場合は、前記韻律が急激な変調 としてみなした特定の韻律に近づくと、前記第3の本能パラメータが示す変化度を高くしてその逆だと下げ、
    少なくとも前記第1ないし第3の本能パラメータを含む本能的動機付け情報を生成する手順と、
    本能的動機付け情報と基本感情パラメータとの対応関係に、生成された前記本能的動機付け情報を当てはめることにより、少なくとも喜び,怒り,悲しみ,近からなる群のいずれかの基本感情パラメータに応じた感情情報を生成する手順と、
    感性発生対象の少なくとも理性及び意志を決定付ける個性情報を提供する手順と、
    前記個性情報に基づいて、生成された前記感情情報を制御することにより、前記理性や前記意志によって制御された感情、すなわち感性の情報を出力する手順と
    を前記コンピュータに実行させるためのプログラム。
JP2001007726A 2000-09-13 2001-01-16 感性発生方法及び感性発生装置並びにソフトウェア Expired - Lifetime JP3676981B2 (ja)

Priority Applications (13)

Application Number Priority Date Filing Date Title
JP2001007726A JP3676981B2 (ja) 2001-01-16 2001-01-16 感性発生方法及び感性発生装置並びにソフトウェア
TW090121316A TWI221574B (en) 2000-09-13 2001-08-29 Sentiment sensing method, perception generation method and device thereof and software
CA002676228A CA2676228A1 (en) 2000-09-13 2001-09-04 Emotion detecting method, sensibility generating method, and system of the same and software for executing the same
EP01961347A EP1318505A4 (en) 2000-09-13 2001-09-04 MOTION RECOGNITION PROC D, SENSITIVITY CR ATION PROCESS, DEVICE, AND SOFTWARE
CNB018154557A CN100370414C (zh) 2000-09-13 2001-09-04 感受能力生成器及其方法
KR1020037003615A KR100714535B1 (ko) 2000-09-13 2001-09-04 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어를 저장한 컴퓨터로 읽을 수 있는 기록매체
US10/380,279 US7340393B2 (en) 2000-09-13 2001-09-04 Emotion recognizing method, sensibility creating method, device, and software
RU2003110435/09A RU2287856C2 (ru) 2000-09-13 2001-09-04 Способ обнаружения эмоций, способ генерирования чувствительности и система и машиночитаемый носитель для их осуществления
CN2005100590616A CN1838237B (zh) 2000-09-13 2001-09-04 情绪探测方法及其系统
CA2421746A CA2421746C (en) 2000-09-13 2001-09-04 Emotion detecting method and system
PCT/JP2001/007646 WO2002023524A1 (fr) 2000-09-13 2001-09-04 Procédé de reconnaissance d'émotion, procédé de création de sensibilité, dispositif, et logiciel
HK04103324A HK1060429A1 (en) 2000-09-13 2004-05-12 A sensibility generator and the method thereof
HK07101134.8A HK1096483A1 (en) 2000-09-13 2007-02-01 Emotion detecting method and system of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001007726A JP3676981B2 (ja) 2001-01-16 2001-01-16 感性発生方法及び感性発生装置並びにソフトウェア

Publications (2)

Publication Number Publication Date
JP2002215183A JP2002215183A (ja) 2002-07-31
JP3676981B2 true JP3676981B2 (ja) 2005-07-27

Family

ID=18875441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001007726A Expired - Lifetime JP3676981B2 (ja) 2000-09-13 2001-01-16 感性発生方法及び感性発生装置並びにソフトウェア

Country Status (1)

Country Link
JP (1) JP3676981B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4204839B2 (ja) 2002-10-04 2009-01-07 株式会社エイ・ジー・アイ 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
JP4525712B2 (ja) * 2002-12-11 2010-08-18 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
JP4072952B2 (ja) * 2003-02-24 2008-04-09 株式会社ベルシステム24 パーソナリティ特性評価システム
KR101108733B1 (ko) 2004-03-26 2012-03-29 ?지 미쓰요시 의지발현 모델장치, 심리효과 프로그램, 의지발현시뮬레이션방법
JP4595407B2 (ja) * 2004-07-07 2010-12-08 ソニー株式会社 ロボット装置及びそのコンテンツ管理方法
JP4794846B2 (ja) 2004-10-27 2011-10-19 キヤノン株式会社 推定装置、及び推定方法
JP4587854B2 (ja) * 2005-03-23 2010-11-24 東京電力株式会社 感情解析装置、感情解析プログラム、プログラム格納媒体
TWI473080B (zh) * 2012-04-10 2015-02-11 Nat Univ Chung Cheng The use of phonological emotions or excitement to assist in resolving the gender or age of speech signals
JP6792831B2 (ja) * 2012-05-08 2020-12-02 Linfops有限会社 脳型感情表現ロボットの制御方法
CN106361356A (zh) * 2016-08-24 2017-02-01 北京光年无限科技有限公司 情绪监控和预警方法及系统
JP2018109663A (ja) * 2016-12-28 2018-07-12 シャープ株式会社 音声処理装置、対話システム、端末装置、プログラム及び音声処理方法
CN107133368B (zh) * 2017-06-09 2020-11-03 上海思依暄机器人科技股份有限公司 人机交互方法、系统及机器人
KR102034255B1 (ko) * 2017-06-29 2019-10-18 네이버 주식회사 사람-기계 간 감정 대화를 위한 방법 및 시스템
JP7474211B2 (ja) * 2021-03-01 2024-04-24 Kddi株式会社 ユーザから発話された名詞を忘却する対話プログラム、装置及び方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512023A (ja) * 1991-07-04 1993-01-22 Omron Corp 感情認識装置
JPH06139044A (ja) * 1992-10-28 1994-05-20 Sony Corp インターフェース方法及び装置
JPH08339446A (ja) * 1995-06-09 1996-12-24 Sharp Corp 対話装置
JPH10143351A (ja) * 1996-11-13 1998-05-29 Sharp Corp インタフェース装置
JP2000099490A (ja) * 1998-08-06 2000-04-07 Yamaha Motor Co Ltd 擬似的な精神情報に基づいて作動する装置
JP2000187435A (ja) * 1998-12-24 2000-07-04 Sony Corp 情報処理装置、携帯機器、電子ペット装置、情報処理手順を記録した記録媒体及び情報処理方法

Also Published As

Publication number Publication date
JP2002215183A (ja) 2002-07-31

Similar Documents

Publication Publication Date Title
KR100714535B1 (ko) 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어를 저장한 컴퓨터로 읽을 수 있는 기록매체
JP3676969B2 (ja) 感情検出方法及び感情検出装置ならびに記録媒体
WO2020135194A1 (zh) 基于情绪引擎技术的语音交互方法、智能终端及存储介质
JP3676981B2 (ja) 感性発生方法及び感性発生装置並びにソフトウェア
Aloufi et al. Emotionless: Privacy-preserving speech analysis for voice assistants
US20050246165A1 (en) System and method for analyzing and improving a discourse engaged in by a number of interacting agents
Russo et al. Dialogue systems and conversational agents for patients with dementia: The human–robot interaction
CN111696559B (zh) 提供情绪管理辅助
Ren Affective information processing and recognizing human emotion
Johar Emotion, affect and personality in speech: The Bias of language and paralanguage
JP2006071936A (ja) 対話エージェント
KR101221188B1 (ko) 감정 음성 합성 기능을 가지는 보조 로봇 및 보조 로봇용 감정 음성 합성 방법 및 기록 매체
Chiba et al. An analysis of the effect of emotional speech synthesis on non-task-oriented dialogue system
Ball et al. Modeling the emotional state of computer users
Ball et al. Emotion and personality in a conversational character
Qadri et al. A critical insight into multi-languages speech emotion databases
Petrushin Emotion recognition agents in real world
Devillers et al. Automatic detection of emotion from vocal expression
KR20200144216A (ko) 감정검출방법, 감성발생방법 및 그 장치 및 소프트웨어를 저장한 컴퓨터로 읽을 수 있는 기록매체
JP4015424B2 (ja) 音声ロボットシステム
JP2000075894A (ja) 音声認識方法及び装置、音声対話システム、記録媒体
Telembici et al. Emotion Recognition Audio Database for Service Robots
Marpaung Context-Centric Affect Recognition From Paralinguistic Features of Speech
CN117352002B (zh) 一种远程智能语音分析监管方法
US20240354514A1 (en) Mood- and Mental State-Aware Interaction With Multimodal Large Language Models

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050502

R150 Certificate of patent or registration of utility model

Ref document number: 3676981

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080513

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090513

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100513

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110513

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120513

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S201 Request for registration of exclusive licence

Free format text: JAPANESE INTERMEDIATE CODE: R314201

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130513

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 9

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R314531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term