JP2005237668A - Interactive device considering emotion in computer network - Google Patents

Interactive device considering emotion in computer network Download PDF

Info

Publication number
JP2005237668A
JP2005237668A JP2004051489A JP2004051489A JP2005237668A JP 2005237668 A JP2005237668 A JP 2005237668A JP 2004051489 A JP2004051489 A JP 2004051489A JP 2004051489 A JP2004051489 A JP 2004051489A JP 2005237668 A JP2005237668 A JP 2005237668A
Authority
JP
Japan
Prior art keywords
emotion
user
emotions
physiological information
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004051489A
Other languages
Japanese (ja)
Inventor
Kazuya Mera
和也 目良
Takumi Ichimura
匠 市村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2004051489A priority Critical patent/JP2005237668A/en
Publication of JP2005237668A publication Critical patent/JP2005237668A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a physiological information abnormality detecting device capable of not only detecting physical abnormality but also expressing the situation such as the delicate emotional change and the simultaneous rise of a plurality of emotions, and a care support system capable of providing effects of mental care. <P>SOLUTION: The interactive device extracts a plurality of emotions from the image of the face, uttered voice, physiological information and language information obtained from a user. If an abnormality is found in the extracted emotions or physiological information, the user, a server, and a health management institution are informed of the detected abnormality; and if the calculated psychological state of the user is not psychologically desirable, such a response as to soften the psychological state is returned. As the interactive device has the functions mentioned above, the face-to-face natural language interactive communication and the abnormality detection function on both mental and physical phases can be achieved. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、インターネットに接続されたコンピュータにおける人間との対話的コミュニケーションを通じて、ユーザの生理状態及び心理状態の異常を検出し、健康管理機関への通知を行うとともに、対話的コミュニケーションによってそれらの状態を緩和することを目的とした感情を考慮した対話装置に関するものである。 The present invention detects abnormalities of a user's physiological state and psychological state through interactive communication with a human being in a computer connected to the Internet, notifies a health care organization, and also detects those states through interactive communication. The present invention relates to an interactive device that takes into account emotions intended to ease.

従来の異常検出装置としては、被験者の生理情報を監視し、異常となった場合に自動的に最寄りの機関に連絡を行う装置が知られている(例えば、特許文献1参照。)。この従来の異常検出装置は、ブレスレット状の外囲器に内蔵された脈拍センサと血圧センサから脈拍情報、血圧情報を監視し、登録した平常時情報から大きく異なる値を検出した場合に、緊急医療機関に連絡を行うものである(図37参照。)。 As a conventional abnormality detection apparatus, an apparatus is known that monitors physiological information of a subject and automatically contacts the nearest institution when an abnormality occurs (see, for example, Patent Document 1). This conventional abnormality detection device monitors pulse information and blood pressure information from a pulse sensor and a blood pressure sensor built in a bracelet-shaped envelope, and detects a greatly different value from registered normal information. This is to contact the organization (see FIG. 37).

しかし生理情報は、怒りや悲しみなどといった被験者の感情状態によって大きく影響されるため、これらの手法のように単純に平常値からの差分を条件とした場合、誤報が数多く起こるという問題点がある。 However, since physiological information is greatly influenced by the emotional state of the subject such as anger and sadness, there is a problem that many false alarms occur when the difference from the normal value is simply used as a condition as in these methods.

また、このような被験者の身体的な側面からの危機管理だけでは、被験者の心理的な側面での異常や要支援状態を見逃す恐れがある。特に、少子高齢化社会に伴う介護者の人手不足からの機械による介護支援を想定した場合、機械だからといって心理的な異常を放置していては、重大な問題を引き起こす可能性がある。 Moreover, there is a risk that an abnormality in the psychological aspect of the subject or a state requiring support may be missed only by crisis management from the physical aspect of the subject. In particular, when it is assumed that a caregiver is supported by a machine due to a shortage of caregivers due to a declining birthrate and an aging society, leaving a psychological abnormality just because it is a machine may cause a serious problem.

機械経由で心身両面からのケアを目指す装置として、図38のような被介護者側とヘルパー側にカメラ、測定器、マイク、スピーカを設置し、ヘルパーが不在のときには代理のエージェントが応対するようなシステムがある(特許文献2参照。)。しかしこの装置も人間の負担は減らないため、心的介護の肩代わりを果たすまでには至らない。 As a device aiming for both mind and body care via a machine, a camera, a measuring instrument, a microphone, and a speaker are installed on the care receiver side and helper side as shown in FIG. (See Patent Document 2). However, this device does not reduce the burden on human beings, so it cannot be used as a substitute for mental care.

感情を考慮した対話装置としては、各ユーザの個人情報やその時々の状況、対話の内容に応じて感情を判定し応答を行う対話装置が知られている(例えば、特許文献3参照。)。この従来の対話装置は、入力された音声、顔画像、言語情報などから感情を判定し、言語情報を解析して得られた意味構造やユーザの個人情報に基づいて、予め格納されている応答パターンを選択し、出力文を生成するものである(図39参照。)。 As an interactive device that takes emotions into account, an interactive device that determines and responds to emotions according to the personal information of each user, the situation at that time, and the content of the dialogue is known (see, for example, Patent Document 3). This conventional interactive device determines emotions from input speech, face images, language information, etc., and stores pre-stored responses based on semantic structures obtained by analyzing language information and user personal information A pattern is selected and an output sentence is generated (see FIG. 39).

しかしこの手法では、判定する感情は一種類であり、また、ユーザに対する反応も条件反射的なシンプルなものである。 However, with this method, there is only one kind of emotion to be determined, and the reaction to the user is simple and reflexive.

そこで我々は、判別される感情が少ないという問題点に対して、非特許文献1において、情緒計算手法という手法を提案している。この手法では、ユーザが発した言語情報の内容に対して、ユーザの嗜好情報に基づいて快/不快を計算し、さらに状況や他者からの視点などを考慮して、20種類の情緒を生起することができる。その際、複数の情緒を同時に生起することができる。 In view of this, we have proposed a technique called an emotion calculation method in Non-Patent Document 1 for the problem that there are few emotions to be distinguished. This method calculates pleasantness / discomfort based on the user's preference information for the content of language information issued by the user, and generates 20 types of emotions in consideration of the situation and the viewpoints of others. can do. At that time, multiple emotions can occur simultaneously.

また、感情の認識に言語情報、表情、生理情報など複数の種類の情報を用いる場合、これらの情報から解析される感情に食い違いが起こる事があるため、より正確に感情を認識するには、それぞれの情報から感情を解析し、そこから複合的な感情を計算する必要がある。 Also, when using multiple types of information such as language information, facial expressions, physiological information, etc. for emotion recognition, there may be discrepancies in emotions analyzed from these information, so in order to recognize emotions more accurately, It is necessary to analyze emotions from each information and calculate complex emotions from them.

特開2002−34940号(第5頁、第1図)JP 2002-34940 (5th page, FIG. 1) 特開2001−204774号(第5頁、第2図)JP 2001-204774 (5th page, FIG. 2) 特開2000−207214号JP 2000-207214 A 目良和也、“Emotion Oriented Intelligent Interface”、東京都立科学技術大学博士(学術)学位論文、2003年Kazuya Mera, “Emotion Oriented Intelligent Interface”, Doctoral Dissertation, Tokyo Metropolitan University of Science and Technology, 2003

本発明は、ユーザから得られた顔画像、発話音声、生理情報、言語情報からそれぞれ複数の感情を抽出し、抽出した感情や生理情報に異常が見つかれば、それをユーザ、サーバ、健康管理機関に通知することを目的とする。さらに、算出した心理状態があまり心理的に良くないものであれば、それを和らげるような反応を返すことを目的とする。 The present invention extracts a plurality of emotions from face images, speech sounds, physiological information, and language information obtained from a user, and if any abnormality is found in the extracted emotions or physiological information, the user, server, health management organization The purpose is to notify. Furthermore, if the calculated psychological state is not very psychologically good, it is intended to return a reaction that softens it.

コンピュータネットワークにおける感情を考慮した対話装置において、カメラ、マイク、キーボード、生理情報測定器、タッチパネルなどを通じてユーザの顔画像、発話音声、生理情報、テキスト情報を取得する手段と、それらの情報から感情を測定、解析する手段と、その解析結果の値を装置に保存する手段と、その値をサーバに送信する手段と、サーバ側でユーザの生起感情の度合(感情値)とその経時変化に応じた発話内容を生成する手段と、その値をもとに対話者の顔画像を生成する手段とを有する。 In an interactive device considering emotions in a computer network, means for acquiring a user's face image, speech voice, physiological information, text information through a camera, a microphone, a keyboard, a physiological information measuring device, a touch panel, etc., and emotions from those information A means for measuring and analyzing, a means for storing the value of the analysis result in the device, a means for transmitting the value to the server, and the degree of emotion (emotion value) of the user on the server side and its change over time Means for generating utterance content and means for generating a face image of a conversation person based on the value.

請求項1記載の対話装置において、ユーザから取得した生理情報および感情情報の異常を検知した場合、医療機関もしくは緊急管理用外部機関に通知する手段を有する。 The interactive apparatus according to claim 1, further comprising means for notifying a medical institution or an external organization for emergency management when abnormality of physiological information and emotion information acquired from a user is detected.

請求項1記載の対話装置において、まず、取得した顔画像、発話音声、生理情報、テキスト情報に基づいてそれぞれの感情解析要素を抽出する手段と、次に抽出した各感情解析要素からユーザの複合的な感情を表す値を算出する感情解析手段を有する。 2. The interactive apparatus according to claim 1, wherein first, a means for extracting each emotion analysis element based on the acquired face image, speech voice, physiological information, and text information, and a user's composite from each extracted emotion analysis element. Emotion analysis means for calculating a value representing a typical emotion.

請求項1記載の対話装置において、サーバ側で、対話内容に応じてユーザへの返答発話および対話者の顔画像を生成、表出し、さらにその履歴を保存する手段を有する。 5. The dialogue apparatus according to claim 1, further comprising means for generating and displaying a reply utterance to the user and a face image of the dialogue person on the server side in accordance with the content of the dialogue, and further storing the history.

請求項1記載の対話装置において、請求項4記載の返答発話および顔画像生成手段によって生成された返答発話および顔画像を、ユーザ側の端末に表示する手段を有する。 The interactive apparatus according to claim 1, further comprising means for displaying the reply utterance and face image generated by the reply utterance and face image generating means according to claim 4 on a terminal on the user side.

請求項1記載の対話装置において、取得した生理情報について、システムに保存している平常値や請求項2記載の生起感情の状態をもとにして、異常の有無を判定する手段と、判定した結果を日常的にサポートできる機関へ通知する手段を有する。 The interactive apparatus according to claim 1, wherein the acquired physiological information is determined as means for determining the presence / absence of an abnormality based on a normal value stored in the system and a state of occurrence emotion according to claim 2. It has a means to notify the organization that can support the results on a daily basis.

請求項1記載の対話装置において、請求項3記載の感情解析手段によって得られたユーザの感情値の推移からユーザの情緒不安定状態を判定する手段と、判定した結果を日常的にサポートできる機関へ通知する手段を有する。 The interactive apparatus according to claim 1, wherein means for determining the emotional unstable state of the user from the transition of the emotion value of the user obtained by the emotion analyzing means according to claim 3, and an organization that can support the determined result on a daily basis Means to notify

医療診断支援や健康支援などの地域職域あるいは学校ネットワークや医療機関における医療診断、健康サポート、コンサルティングシステム上で、対話者の感情として算出された文章、音声、顔画像を表示することで、対話者の感情を表現可能なグラフィカルユーザインタフェースを有する。 Dialogue by displaying sentences, voices, and facial images calculated as dialogue's emotions on the medical diagnosis, health support, and consulting systems in medical areas such as medical diagnosis support and health support. It has a graphical user interface that can express emotions.

上述のように本発明の情緒解析手段では、ユーザの顔画像、発話音声、生理情報、言語情報それぞれ
から感情値を算出し、それらを統合した値を個人感情値として扱うため、従来の手法では実現できなかったマルチモーダルな感情生起や、複数の感情の共起や葛藤を表すことができる。
As described above, the emotion analysis means of the present invention calculates emotion values from each of the user's face image, speech voice, physiological information, and linguistic information, and treats the integrated value as a personal emotion value. It can express multimodal emotions that could not be realized, and the co-occurrence and conflict of multiple emotions.

生理情報異常検出手段では、平常値や生起感情を考慮して異常検出を行うため、検知器の位置や接触の度合といった外部要因や、怒りや失望などの感情による一時的な数値の変動の影響を除外することができる。 Physiological information anomaly detection means detect anomalies in consideration of normal values and generated emotions. Can be excluded.

顔表情生成手段では、カメラから入力した顔画像やユーザが用意した顔画像を容易に学習させることができるため、実画像に対して表情を付与することが容易に行える。また、20種類の情緒のうち複数が同時に生起していても、それぞれの強度に応じた表情を表出することが可能となる。 Since the facial expression generation means can easily learn the facial image input from the camera and the facial image prepared by the user, it is easy to add facial expressions to the actual image. Further, even if a plurality of 20 types of emotions occur at the same time, it is possible to express facial expressions corresponding to the respective strengths.

感情情報異常検出手段では、サーバにて個人感情値の推移を監視することで、身体面だけではなく、精神面でのケアや異変の通知なども可能となる。 The emotion information abnormality detection means can monitor not only the physical aspect but also the mental aspect and notification of anomalies by monitoring the transition of the personal emotion value by the server.

さらに、現在の感情状態があまり良くないものである場合、反応生成手段にてその状態を軽減するような反応をユーザに返すことが可能となる。 Furthermore, when the current emotional state is not so good, the reaction generating means can return a response that reduces the state to the user.

また、本発明に基づく感情指向型知的対話装置を用いて、介護施設や自宅での介護などにおけるコミュニケーションの不足を補うこともできる。 In addition, using the emotion-oriented intelligent dialogue device according to the present invention, it is possible to make up for a lack of communication in a care facility or care at home.

以下、図面を参照して本発明の実施例を説明する。本発明のインタフェース装置の基本的な実施形態を図2に示す。まず、コンピュータに接続されたカメラを通じてユーザの顔画像がクライアントマシンに入力される。同様に、コンピュータに接続されたマイクを通じてユーザの発話音声、キーボードやタッチパネルなどを通じてテキスト情報、生理情報計測機器を通じて生理情報がクライアントマシンに入力される。発話音声はコンピュータの中で解析され、抑揚や強勢などの非言語情報と発話内容を文字列で表現したテキスト情報が抽出される。カメラから取得した顔画像は、ユーザの顔を学習したニューラルネットワークに入力され、各生起感情とその強度(感情値)が算出される。発話音声から取得した非言語情報も、感情値抽出用ニューラルネットワークに入力され、感情値が算出される。発話音声やキーボードなどを通じて取得したテキスト情報は、構文解析の後、情緒計算手法(Emotion Generating Calculations: EGC)を適用することで、感情値を算出する。計測機器から取得したユーザの生理情報は、ユーザパソコンに蓄積している平常値と比較したのち、感情値抽出用ニューラルネットワークに入力され、感情値が算出される。平常値と比較した際、なんらかの異常が発見されれば、外部の医療診断支援システムに通知される。上記各手法によって得られた感情値は、それぞれの特性を考慮して、一つの感情値(個人感情値)に合成される。個人感情値は、サーバに送られると共に、ユーザの感情生起履歴としてユーザパソコンに蓄積される。サーバに蓄積された感情生起履歴と個人感情値を比較して、サポートすべき状況であると認識されれば、緊急管理システムに通知される。 Embodiments of the present invention will be described below with reference to the drawings. A basic embodiment of the interface device of the present invention is shown in FIG. First, a user's face image is input to a client machine through a camera connected to a computer. Similarly, a user's uttered voice through a microphone connected to a computer, text information through a keyboard, a touch panel, and the like, and physiological information through a physiological information measuring device are input to the client machine. Speech speech is analyzed in a computer, and non-linguistic information such as intonation and stress and text information expressing speech content in character strings are extracted. The face image acquired from the camera is input to a neural network that learned the user's face, and each occurrence emotion and its intensity (emotion value) are calculated. The non-linguistic information acquired from the uttered voice is also input to the emotion value extraction neural network, and the emotion value is calculated. The text information acquired through speech voice, keyboard, etc. is subjected to syntactic analysis, and then the emotion value is calculated by applying an emotion calculation method (EGC). The user's physiological information acquired from the measuring device is compared with the normal value stored in the user personal computer, and then input to the emotion value extraction neural network to calculate the emotion value. If any abnormality is found when compared with the normal value, an external medical diagnosis support system is notified. The emotion values obtained by the above methods are combined into one emotion value (individual emotion value) in consideration of each characteristic. The personal emotion value is sent to the server and stored in the user personal computer as the user's emotion occurrence history. The emotion occurrence history stored in the server is compared with the personal emotion value, and if it is recognized that the situation should be supported, the emergency management system is notified.

サーバに送られた個人感情値もユーザパソコンと同様に感情生起履歴として蓄積される。そして現在感情と過去の感情の推移をもとに、ユーザを不快にしないような反応として、顔画像と返答文を生成する。生成した顔画像と返答文は、コメントすべき医療情報が医療診断支援システムから送られてきた場合は、そのコメントを優先して出力する。顔画像もそのコメントに応じたものにする。生成された返答発話と顔画像は、ユーザパソコンに送られ、スピーカ、ディスプレイ等を通じてユーザに提示される。
顔表情画像は、ディスプレイを通じてユーザに提示される。
The personal emotion value sent to the server is also accumulated as an emotion occurrence history like the user personal computer. Then, based on the transition of the current emotion and the past emotion, a face image and a response sentence are generated as a reaction that does not make the user uncomfortable. When the medical information to be commented is sent from the medical diagnosis support system, the generated face image and response text are output with priority. The face image is also made according to the comment. The generated response utterance and face image are sent to the user personal computer and presented to the user through a speaker, a display, or the like.
The facial expression image is presented to the user through the display.

インタフェースシステムに用いられるコンピュータ装置の基本的なハードウェア構成は、図3に示したものである。CPU、RAM、ROM、システム制御手段などを有し、音声を入力するためのマイク、ユーザの顔画像を入力するカメラ、テキスト情報を入力するためのキーボードおよびタッチパネル、生理情報を取得するための計測機器、プログラムやデータを記憶しておく記憶手段、顔画像やデータなどの出力表示をするためのディスプレイ、エージェントからの返答発話を音声で出力するためのスピーカより構成される。 The basic hardware configuration of the computer device used in the interface system is as shown in FIG. CPU, RAM, ROM, system control means, etc., microphone for inputting voice, camera for inputting user's face image, keyboard and touch panel for inputting text information, measurement for acquiring physiological information It comprises a device, storage means for storing programs and data, a display for outputting and displaying face images and data, and a speaker for outputting a reply utterance from the agent by voice.

本発明の生理情報異常検出手段では、まず、生理情報測定器から血圧、筋電位、皮膚導電率、呼吸、心拍数などの生理情報を入力する。次に、カメラから入力したユーザの顔画像、マイクから入力した音声情報、キーボードやタッチパネルなどを用いて入力したテキスト情報から、ユーザの現在の感情を抽出する。そして、入力された生理情報を、平常状態の値や現在の感情の影響を考慮して、異常の有無を調べる。異常が発見されれば、外部の地域・職域・学校健康管理ネットワークにアラームとして通知される(図4参照。)。 In the physiological information abnormality detecting means of the present invention, first, physiological information such as blood pressure, myoelectric potential, skin conductivity, respiration, heart rate and the like is input from a physiological information measuring device. Next, the user's current emotion is extracted from the user's face image input from the camera, voice information input from the microphone, and text information input using a keyboard, touch panel, or the like. Then, the input physiological information is examined for the presence or absence of abnormality in consideration of the value of the normal state and the influence of the current emotion. If an abnormality is found, it is notified as an alarm to an external area / workplace / school health management network (see FIG. 4).

入力された生理情報は、その強度や変化をより細かく捉えられるように、以下の値へと変換される(非特許文献2参照。)。本手段では、各生理情報についてμX、σX、δX、δ'X、γX、γ'Xの6種類、計30種類を用いる(数式1参照。)。 The inputted physiological information is converted into the following values so that the intensity and change can be captured more precisely (see Non-Patent Document 2). In this means, six types of μ X , σ X , δ X , δ ′ X , γ X , and γ ′ X are used for each physiological information (see Formula 1).

本手法ではこれらの値を平常値と比較する。比較の対象となる平常値として、一般人における平常値、ユーザの健康状態を考慮した平常値、その日の調査開始からの平均値の3種類を用いる。これは、もともと持病を持つユーザにおいて最初から一般の平常値を外れている場合や、生理情報測定器の検知器の測定位置や接触度合の違いなどの外的要因からの影響を除外するためである。 In this method, these values are compared with normal values. As normal values to be compared, three types are used: a normal value for ordinary people, a normal value considering the health condition of the user, and an average value from the start of the survey on that day. This is to exclude the influence of external factors such as differences in the measurement position and contact degree of the detector of the physiological information measuring device from the beginning of the normal normal value for users with chronic illness from the beginning. is there.

一方、現在のユーザの感情を求めるために入力されたユーザの顔画像に対して、まずAffine変換によって傾きを補正し(図5参照)、次にその顔画像に対して2次元離散コサイン変換を行う(図6参照。)。このようにして得られた低周波成分をもとに感情の抽出を行う。 On the other hand, the inclination of the user's face image input to obtain the current user's emotion is first corrected by Affine transformation (see FIG. 5), and then the two-dimensional discrete cosine transformation is performed on the face image. Perform (see FIG. 6). Emotions are extracted based on the low frequency components obtained in this way.

発話音声には、その発話内容と音声波形の2種類の情報が含まれる。 The utterance voice includes two types of information, that is, the utterance content and the voice waveform.

音声波形からは、強弱や速度の度合をもとに、感情の抽出を行う。その際、生理情報の処理に用いた
μX、σX、δX、δ'X、γX、γ'Xの6つの要因を入力音声の波形から算出し、これらの値を利用する。
From the speech waveform, emotions are extracted based on the strength and speed. At that time, six factors of μ X , σ X , δ X , δ ′ X , γ X , and γ ′ X used for the physiological information processing are calculated from the waveform of the input speech, and these values are used.

音声認識手段およびテキスト情報解析手段では、まず、コンピュータに接続したマイクからユーザの発話音声を入力し、コンピュータ上のソフトウェアを通じて文字列に変換する。次に、得られた発話文字列に対して、形態素解析、構文解析などを行い、意味構造を抽出する。次に、その意味構造を深層格フレームに変換する(図7参照。)。なお、構文解析によって得られる意味構造は表層格フレーム表現であるため、それを以下の処理で用いる深層格フレーム表現に変換する必要がある。変換のための対応表は図8のようになっている。 In the speech recognition means and the text information analysis means, first, a user's speech is input from a microphone connected to the computer, and converted into a character string through software on the computer. Next, morphological analysis and syntax analysis are performed on the obtained utterance character string to extract a semantic structure. Next, the semantic structure is converted into a deep case frame (see FIG. 7). Since the semantic structure obtained by parsing is a surface case frame expression, it must be converted into a deep case frame expression used in the following processing. The correspondence table for conversion is as shown in FIG.

テキスト情報からの情緒計算手段では、まず、発話内容に対して感じる快/不快を、情緒生起者の嗜好情報に応じて計算する。次に、発話内容の表す状況や、他者に対する好き嫌い、他者が発話内容に対して生起する快/不快などの状況をもとに、算出していた快/不快を、より詳細な20種類の情緒へと分類する。 In the emotion calculation means from the text information, first, the pleasantness / discomfort felt for the utterance content is calculated according to the preference information of the emotion creator. Next, more detailed 20 types of pleasure / discomfort calculated based on the situation represented by the utterance content, the likes / dislikes of others, and the pleasure / discomfort caused by others to the utterance content. Classify into emotions.

まず発話内容が表す事象がユーザにとって快なものか不快なものかを判別する。判別には事象中の格要素に対してエージェントがあらかじめ持っているユーザの好感度を用いる。例えば「私が太郎に勝つ」という事象では、“私”、“太郎”、“勝つ”の三つの語の好感度をもとに計算を行う。そしてこれらの語の好感度をベクトルとして三次元空間(感情空間)の直交軸に配置し、それらの合成ベクトルを計算する(図9参照。)。そして、合成ベクトルの存在する象限により、図10のように快/不快を判別する。快/不快の強度は、ベクトルの長さから算出する。 First, it is determined whether the event represented by the utterance content is pleasant or unpleasant for the user. For the discrimination, the user's likability that the agent has in advance for the case element in the event is used. For example, in the event of “I win Taro”, the calculation is performed based on the favorability of three words “I”, “Taro”, and “Win”. Then, the likability of these words is arranged as a vector on the orthogonal axis of the three-dimensional space (emotional space), and a combined vector thereof is calculated (see FIG. 9). Then, the pleasant / unpleasant feeling is discriminated as shown in FIG. The intensity of comfort / discomfort is calculated from the length of the vector.

各述語タイプにおける主要要素は、述語の分類に沿って、図11のように定義されている。 The main elements in each predicate type are defined as shown in FIG. 11 along the predicate classification.

算出された快/不快は、他者の視点、将来予測、承認/非難などの条件を参照することで、喜び、苦しみ、嬉しい、ほくそ笑む、憤慨、気の毒、望み、恐れ、満足、安堵、恐れていた通り、失望、誇り、賞賛、羞恥、叱責、感謝、怒り、自己満足、自責の念の20種類の感情に分類される。各情緒の分類条件は図12のようになっている。 The calculated comfort / discomfort is determined by referring to the conditions of others' perspective, future prediction, approval / blame, etc. As you can see, there are 20 types of emotions: disappointment, pride, praise, shame, reproach, appreciation, anger, self-satisfaction, self-responsibility. The classification conditions for each emotion are as shown in FIG.

「他者の運命」に属する情緒は、ある事象が生起したとき、それを他者がどう感じるかによって生じる。これには嬉しい、ほくそ笑む、憤慨、気の毒がある。他者にとって望ましい事象について、自分が喜ぶ場合と不快になる場合の両方がある。本研究では、望ましい事象が起こった他者のことを、自分が好きならば喜び、嫌いなら不快と判断する。つまり、好きな人に良いことがあれば嬉しく、嫌いな人に良いことがあれば不快であると考える。これに基づき、他者にとっての事象の望ましさと自分にとっての他者の好感度を用いて、他者の運命に関する情緒を図13のように求める。表中のAは自分以外のある他者を表している。図13に基づいて作成した処理手順を図14に示す。 The emotions that belong to “the fate of others” are caused by how others feel when an event occurs. This is happy, laughing, jealous, sorry. There are both cases where you are pleased and uncomfortable about what is desirable for others. In this study, we judge others who have had a desirable event as joyful if they like it and uncomfortable if they don't like it. In other words, if you like something good for someone you like, you'll be happy. Based on this, using the desirability of the event for the other person and the favorability of the other person for himself, the emotion related to the fate of the other person is obtained as shown in FIG. A in the table represents some other person other than yourself. A processing procedure created based on FIG. 13 is shown in FIG.

「将来的」に属する情緒は、未来に起こると予想した事象が自分自身にとってどういうものかを考慮することにより生じる。これには望み、恐れがある。起こると推測している事象が望ましいものであれば望み、望ましくなければ恐れを算出する。予測した事象は、予測事象リストに蓄えられ、確認の情緒の評価に利用される。図15に処理手順を示す。 Emotions that belong to the “future” arise from considering what is expected to happen in the future. There is hope and fear in this. If the event that you suspect is going to happen is desired, calculate the fear if it is not desired. Predicted events are stored in a predicted event list and used for evaluation of confirmation emotions. FIG. 15 shows the processing procedure.

「確認」に属する情緒は、予測していた事象が生起した/しなかった時に、その事象の自分自身にとっての望ましさによって生じる。これには満足、安堵、恐れていた通り、失望がある。現在認識した事象が以前に予測したものである、つまり将来的の処理で蓄積した予測事象リストに存在するか、 “予測通りであったことを暗示する副詞”が含まれていれば、その事象の望ましさによって満足、恐れていた通りを算出する。また、現在認識した事象によって予測した事象が生起しなかったことが判明すれば、予測事象の望ましさにより安堵、失望を算出する。この関係を図16に、処理手順を図17に示す。 The emotion that belongs to “confirmation” is caused by the desirability of the event for itself when the event that was predicted has occurred or has not occurred. There are satisfaction, relief, and, as feared, disappointment. If the currently recognized event is one that was previously predicted, that is, it is in the list of predicted events accumulated in future processing, or contains an “adverb that implies that it was as predicted” Calculate what you were satisfied and afraid of depending on your desirability. Also, if it becomes clear that the predicted event has not occurred by the currently recognized event, relief and disappointment are calculated according to the desirability of the predicted event. FIG. 16 shows this relationship, and FIG. 17 shows the processing procedure.

「幸福」に属する情緒は、ある事象が自分にとって望ましいか否かによって生じる。これには喜び、苦しみがある。ある事象に対して快反応を生起すれば喜び、不快反応を生起すれば苦しみを生起する。ここでまず喜びを生起する事象に注目する。図12によると、この“ある事象”には、自分自身が望ましいと思う事象だけでなく、他者の運命、将来、確認の情緒群に含まれる以下の情緒も該当する。
・ 自分自身にとって望ましい事象
・ 好きな他者にとって望ましい事象(嬉しい)
・ 嫌いな他者にとって望ましくない事象(ほくそえむ)
・ 将来の望ましい事象(望み)
・ 確認された望ましい事象(満足)
・ 確認されなかった望ましくない事象(安堵)
このうち、「自分自身にとって望ましい」の判断は従来の情緒計算手法の出力をそのまま適用すればよい。それ以外は他の手法で生起した情緒から判断できる。なお、ここで述べた条件は快の場合についてであり、不快の場合はこの逆となる。もしある事象が喜びの条件と苦しみの条件の両方を満たした場合にはその強度によって葛藤が生じると思われる。しかし本研究では葛藤について考えず、そのまま喜びと苦しみの両方に分類する。処理手順を図18に示す。
Emotions that belong to “happiness” are caused by whether or not an event is desirable to you. This has joy and suffering. If a pleasant reaction occurs in response to an event, it will be a pleasure, and if an unpleasant reaction occurs, it will cause suffering. First, let us focus on the phenomenon that causes joy. According to FIG. 12, this “certain event” includes not only an event that is desired by itself but also the following emotions included in the emotional group of the destiny, future, and confirmation of others.
・ Preferable events for yourself ・ Preferable events for others you like (happy)
・ Undesirable events for others who dislike
・ Desired future events (hope)
・ Confirmed desirable event (satisfaction)
・ Unwanted events that were not confirmed (anxiety)
Of these, the determination of “desirable for myself” may be performed by directly applying the output of the conventional emotion calculation method. Other than that, it can be judged from the emotions generated by other methods. It should be noted that the conditions described here are for comfort, and vice versa for discomfort. If an event meets both joyful conditions and suffering conditions, it is likely that there will be conflicts depending on its intensity. However, in this study, we don't consider conflicts, and we classify them as both joy and suffering. The processing procedure is shown in FIG.

「帰属」に属する情緒は、ある事象が生起した時、その行為者に対して生じる。これには誇り、賞賛、羞恥、叱責がある。ある望ましい事象に対して、その事象を行ったのが自分であれば誇り、他者であれば賞賛を算出する。また、望ましくない事象に対して、その事象を行ったのが自分であれば羞恥、他者であれば叱責を算出する。この関係を図19に、処理手順を図20に示す。 The emotion that belongs to “Attribution” occurs for an actor when an event occurs. This has pride, praise, shame and reproach. For a desired event, it is pride if the person has performed the event, and praise is calculated if it is others. Also, for an undesired event, a shame is calculated if the event is performed by the user, and a reprimand is calculated if the other is performed. FIG. 19 shows this relationship, and FIG. 20 shows the processing procedure.

「幸福/帰属」に属する情緒は、幸福に関する情緒と帰属に関する情緒が同時に生起した場合にそれらの複合情緒として生じる。これには感謝、怒り、自己満足、自責の念がある。図21に示した通り、幸福、帰属それぞれの情緒の組み合わせによってさらに複合情緒が算出される。なお図21で(C)となっているところは、2つの情緒が複合せず、葛藤を起こすと考えられるが、葛藤については考慮せず、同じ強度の相対する情緒として扱う。処理手順を図22に示す。 Emotions that belong to “happiness / attribute” occur as a combination of emotions related to happiness and emotions related to attribution. There are gratitude, anger, self-satisfaction and remorse. As shown in FIG. 21, a composite emotion is further calculated by a combination of emotions of happiness and belonging. In FIG. 21, (C) is considered that the two emotions do not combine and cause a conflict, but the conflict is not considered and is treated as an opposite emotion of the same strength. The processing procedure is shown in FIG.

このように本手法では、ある情緒生起が他の情緒生起の引き金となり、連鎖的に情緒を生起している。情緒生気の依存関係は図23のようになっている。まず自分にとっての事象の望ましさを計算する。それがもし未来の様相を持っているなら将来的に関する情緒が算出される。将来的で算出された事象は、それが実際に起こったかどうかによってさらに確認の情緒が算出される。一方、他者にとっての事象の望ましさから他者の運命の情緒が算出される。これら将来的、確認、他者の運命と自分にとっての事象の望ましさから幸福の情緒が算出される。もし対象となる事象の述語がV(S,O,*)タイプの事象ならば、主体にとっての行為者の好感度に基づいて帰属の情緒が算出される。幸福と帰属の両方の情緒が算出されている場合は、幸福/帰属の情緒が算出される。 In this way, in this method, one emotional occurrence triggers another emotional occurrence, and emotions are generated in a chained manner. The dependency relationship of emotion and animation is as shown in FIG. First, calculate the desirability of the event for you. If it has an aspect of the future, emotions about the future are calculated. Future calculated events can be further validated depending on whether they actually happened. On the other hand, the emotion of the other person's fate is calculated from the desirability of the event for the other person. The emotion of happiness is calculated from these future, confirmation, destiny of others and desirability of events for me. If the target event predicate is an event of type V (S, O, *), the attribution emotion is calculated based on the actor's preference for the subject. If both happiness and attribution are calculated, the happiness / attribute is calculated.

本手法を適用した結果および処理の流れの例を図24に示す。この例では、“迷惑な隣人のことが嫌い”、“家主のことは好きでも嫌いでもない”という好感度情報を持っていた場合に、「ゆうべ家主が迷惑な隣人を叱った」ことに対しての情緒を計算する。まず、述語“叱る”の事象タイプが動詞VIであるため、主体、客体、述語の3要素の好感度からベクトルを合成する。その結果、合成ベクトルは領域VIに存在するため、この事象は「快」とみなされる。さらに、同一事象について家主と隣人の視点からも快不快を計算すると、隣人はこの事象に対して「不快」を感じていることが分かる。ここで、“嫌いな人間が不快を感じている”ことから、“ほくそ笑む”が生起する。さらに、この“ほくそ笑む”から“喜び”が生起する。また、自分が快に思うことを他者(大家)が行ったことから、大家に対する“賞賛”と“感謝”が生起する。 FIG. 24 shows an example of the result of applying this method and the flow of processing. In this example, if you have favorable information such as “I hate annoying neighbors” or “I do n’t like or dislike landlords”, “Yuwe landlord scolded annoying neighbors” Calculate the emotions. First, since the event type of the predicate “speak” is the verb VI, a vector is synthesized from the favorable sensitivity of the three elements of the subject, the object, and the predicate. As a result, since the composite vector exists in the region VI, this event is regarded as “good”. Furthermore, when calculating the pleasant discomfort from the viewpoint of the landlord and the neighbor for the same event, it can be seen that the neighbor feels “discomfort” for the event. Here, “smile” occurs because “disliked people feel uncomfortable”. Furthermore, “joy” arises from this “smile”. Also, because others (landers) have done what they feel comfortable with, “praise” and “thanks” to the landlords arise.

顔画像、音声情報、テキスト情報から得られた感情抽出のための要素は、ニューラルネットワーク(図25参照)に入力され、中間層の状態に基づいて20種類の感情が抽出される。 Elements for emotion extraction obtained from face images, voice information, and text information are input to a neural network (see FIG. 25), and 20 types of emotions are extracted based on the state of the intermediate layer.

ニューラルネットでは、入力層に入力された情報が中間層を経由して出力層に伝播されていく。しかし正しい学習が行われていなければ、出力されるべき情報と実際に出力される情報は異なる。そこでこの誤差を減らすように学習させることで、ニューラルネットワーク自身を学習させていく手法として、BP学習手法(誤差逆伝播法)というものがある。BP学習では、入力層に情報を入力して出力層に情報を出力する前向き演算だけでなく、出力層に出力されるべき情報を入力し入力層に対応する情報が出力される後ろ向き演算も行う。その結果、前向き演算と後ろ向き演算によってネットワークの重みに誤差が生じる。この誤差が最少になるようにネットワークの重みを変更していく手法が、BP学習手法である。 In the neural network, information input to the input layer is propagated to the output layer via the intermediate layer. However, if correct learning is not performed, information to be output is different from information to be actually output. Therefore, there is a BP learning method (error back propagation method) as a method of learning the neural network itself by learning to reduce this error. In BP learning, not only forward calculation to input information to the input layer and output information to the output layer, but also backward calculation to input information to be output to the output layer and output information corresponding to the input layer . As a result, an error occurs in the network weight due to the forward calculation and the backward calculation. A technique for changing the network weight so that this error is minimized is the BP learning technique.

一般的にニューラルネットワークの学習にはBP学習が用いられるが、我々は第3層と第5層において、数式2のようなsigmoid関数の代わりに、数式3のようなbias関数を使用している。 In general, BP learning is used for neural network learning, but we use a bias function such as Equation 3 instead of a sigmoid function such as Equation 2 in the third and fifth layers. .

ω21は第1層と第2層の間の重みを表している。第2層に対するoutput activationは数式4のようになる。なお、x1は第一層のoutput activationである。 ω 21 represents the weight between the first layer and the second layer. The output activation for the second layer is as shown in Equation 4. X 1 is the first layer output activation.

第3層では、数式5のoutput activationを用いている。 In the third layer, the output activation of Formula 5 is used.

同様に、第4層、第5層のoutput activationは、それぞれ数式6、数式7のようになる。 Similarly, the output activations of the fourth layer and the fifth layer are expressed by Equation 6 and Equation 7, respectively.

本提案手法で用いるニューラルネットワークは第1層に顔画像、音声情報、テキスト情報から得られた感情抽出のための要素の値をそれぞれ入力し、第3層に感情が出力として現れる。そのため、第1層及び第5層のニューロン数は305(255+30+20)個、第3層のニューロン数は20個となる。 In the neural network used in the proposed method, element values for emotion extraction obtained from face images, voice information, and text information are input to the first layer, and emotions appear as output in the third layer. Therefore, the number of neurons in the first layer and the fifth layer is 305 (255 + 30 + 20), and the number of neurons in the third layer is 20.

本手法では、事前に各データとそれに対応する感情の関係をニューラルネットワークに学習させておく。そして、第1層に顔画像、音声情報、テキスト情報から得られた感情抽出のための要素の値をそれぞれ入力し、第3層から各感情とその強度を抽出する。 In this method, the neural network learns the relationship between each data and the corresponding emotion in advance. Then, element values for emotion extraction obtained from the face image, voice information, and text information are input to the first layer, and each emotion and its intensity are extracted from the third layer.

生理情報からの異常検出手段では、このようにして得られた感情値及び生理情報の平常値と、現在獲得した生理情報を比較することで、異常状態を検出する。 The abnormality detection means from the physiological information detects the abnormal state by comparing the emotion value and the normal value of the physiological information thus obtained with the physiological information currently acquired.

生理情報からの異常検出手段では、血圧、心拍数、呼吸から取得した各数値が、平常値からある閾値以上のずれを生じた場合、何らかの異常があるとして地域・職域・学校健康管理ネットワークに通知する。 In the abnormality detection means based on physiological information, if each numerical value obtained from blood pressure, heart rate, and breathing deviates from a normal value by a certain threshold value or more, it is notified to the local / work / school health management network that there is some abnormality To do.

異常を知らせるアラーム情報は連続値で表され、その度合に応じて、“要経過観察”、“要警告”、“要通知”といった意味合いを持つ。 The alarm information that informs the abnormality is represented by a continuous value, and has the meanings of “observation required”, “warning required”, “notification required” depending on the degree.

次に、精神的な面における異常を検出する手段では、まず、生理情報測定器から入力した生理情報、カメラから入力したユーザの顔画像、マイクから入力した音声情報、キーボードやタッチパネルなどを用いて入力したテキスト情報から、ユーザの現在の感情を抽出する。そして、得られた感情に対して、生起感情の履歴やユーザの健康状態や精神状態を考慮して、異常の有無を調べる。異常が発見されれば、外部の地域・職域・学校健康管理ネットワークにアラームとして通知される(図26参照。)。 Next, in the means for detecting abnormalities in the mental aspect, first, physiological information input from a physiological information measuring device, user's face image input from a camera, voice information input from a microphone, a keyboard, a touch panel, and the like are used. The user's current emotion is extracted from the input text information. And the presence or absence of abnormality is investigated with respect to the obtained emotion in consideration of the history of occurrence emotion and the health and mental state of the user. If an abnormality is found, it is notified as an alarm to an external area / work area / school health management network (see FIG. 26).

生理状態における異常を検出する手段では感情抽出に生理情報を用いていなかったが、この感情情報異常検出手段では、抽出感情の精度を上げるため、生理情報も感情抽出に用いる。そのため、感情抽出に用いるニューラルネットワークの第1層および第5層のニューロン数は、335個に増加させる。 The means for detecting abnormalities in the physiological state did not use physiological information for emotion extraction, but this emotion information abnormality detecting means also uses physiological information for emotion extraction in order to increase the accuracy of the extracted emotion. Therefore, the number of neurons in the first layer and the fifth layer of the neural network used for emotion extraction is increased to 335.

生起した感情は、ユーザパソコンとサーバの両方で管理、蓄積される。その際、最新の感情以外を破棄するのではなく、過去の感情生起も履歴として残すようにする。 The emotions that occur are managed and stored on both the user computer and the server. At that time, instead of discarding other than the latest emotion, the past emotion occurrence is also left as a history.

感情情報からの異常検出手段では、抽出した感情値に対して、生起感情の履歴やユーザの健康状態や精神状態と比較して、異常や要支援状態でないかどうかを判別する。何らかの異常があった場合、地域・職域・学校健康管理ネットワークに通知する。 The abnormality detection means from the emotion information compares the extracted emotion value with the history of occurrence emotion, the health state and the mental state of the user, and determines whether or not there is an abnormality or a state requiring support. If there are any abnormalities, notify the local / work / school health management network.

ここで、異常や要支援状態と見なす感情状態としては、図27に示すように、“長期間ネガティブな感情を持ちつづけている”、“興奮性の感情を強く生起した”、“全体的な感情生起が減少している”などがある。これらの感情生起自体には問題はないが、このような感情が身体に悪影響を及ぼしたり、健康状態の悪化を示唆したりしている恐れのあるものがアラームの対象となっている。 Here, as shown in FIG. 27, the emotional state that is regarded as an abnormality or a state requiring support is, as shown in FIG. 27, “having negative emotions for a long time”, “exciting emotions strongly occurred”, “overall “Emotions are decreasing”. There is no problem with these emotional occurrences themselves, but alarms are for those emotions that could have an adverse effect on the body or suggest a deterioration in health.

異常を知らせるアラーム情報は連続値で表され、その度合に応じて、“要経過観察”、“要警告”、“要通知”といった意味合いを持つ。 The alarm information that informs the abnormality is represented by a continuous value, and has the meanings of “observation required”, “warning required”, “notification required” depending on the degree.

アラームの値は、該当条件と該当度合をもとにファジィ推論を用いて算出される。 The alarm value is calculated using fuzzy inference based on the corresponding condition and the corresponding degree.

ファジィ推論は、命題論理に基づく推論過程に「あいまいさ」を導入したものである。本来命題論理では、命題は真か偽の二値によってあらわされる。しかしこのファジィ推論では、命題は真偽だけでなく、その度合も表すことができる。例えば、“興奮性の感情を強く生起すれば、血圧が上がる”という推論規則は、数式8のように表現される。 Fuzzy reasoning introduces "ambiguity" to the reasoning process based on propositional logic. Essentially in propositional logic, a proposition is represented by a binary value, true or false. However, in this fuzzy reasoning, the proposition can express not only the truth but also the degree. For example, an inference rule that “if a strong emotion of excitement occurs, blood pressure increases” is expressed as Equation 8.

数式8中の“生起感情が興奮性である”や“生起感情が強い”といった命題は真偽の二値で表せるものではないため、ファジィ集合を用いてその度合を決める。この度合は、命題ごとに用意したメンバーシップ関数によって求められる。今回の例のように前件部に2つ以上の条件がある場合、低いほうの度合を前件部全体の度合(グレード値)とする。そして、得られた前件部のグレード値を数式8全体のメンバーシップ関数に適用することで、後件部のグレード値を求める(図28参照。)。 Since the propositions such as “the occurrence emotion is excitability” and “the occurrence emotion is strong” in Formula 8 cannot be expressed by a true binary value, the degree is determined using a fuzzy set. This degree is obtained by a membership function prepared for each proposition. When there are two or more conditions in the antecedent part as in this example, the lower degree is set as the degree (grade value) of the entire antecedent part. And the grade value of a consequent part is calculated | required by applying the obtained grade value of the antecedent part to the membership function of the whole Formula 8 (refer FIG. 28).

さらに、図27に示すように、複数の推論規則によって後件部の値(本手法ではアラーム値)が得られる場合、これらの値を合成する必要がある。このような状況で後件部のグレード値を算出するための手法として、Min-Max法というものがある。Min-Max法では、後件部のファジィ集合を前件部のグレード値で切り取って台形型のファジィ集合を作り、この集合の和の重心を後件部のグレード値とする(図29参照。)。 Furthermore, as shown in FIG. 27, when a consequent part value (in this method, an alarm value) is obtained by a plurality of inference rules, it is necessary to synthesize these values. In such a situation, there is a Min-Max method as a method for calculating the grade value of the consequent part. In the Min-Max method, the fuzzy set of the consequent part is cut out with the grade value of the antecedent part to create a trapezoidal fuzzy set, and the center of gravity of the sum of the set is used as the grade value of the consequent part (see FIG. 29). ).

該当条件は重要度によってそれぞれ異なるメンバーシップ関数を持っている。例えば“興奮性の感情を強く生起した”という条件の場合、該当の度合が余程大きく無い限りさほど問題ではない(図30参照)が、“全体的な感情生起が減少している”という条件の場合、該当の度合が大きくなくても注意が必要である(図31参照。)。 The relevant conditions have different membership functions depending on their importance. For example, in the case of the condition “exciting emotions are strongly generated”, this is not a problem as long as the corresponding degree is not so large (see FIG. 30), but the condition that “the overall generation of emotions is reduced”. In the case of, attention should be paid even if the degree of correspondence is not large (see FIG. 31).

反応生成手段では、算出したユーザの感情値と医療診断支援システムから受信したカウンセリングコメントをもとにユーザに対する対話者の反応を計算する。その際、基本的にはユーザへの同調を表すため、ユーザの情緒に沿った表情を表出させるが、暗い話題が続いていれば元気付けるために笑顔を返す、鬱状態のユーザには無理に元気付けない、医療診断支援システムから受信したカウンセリングコメントなどシステムから自発的に何か話すときにはその発話内容に付随した感情に沿って表情画像を生成する。 The response generation means calculates the response of the interlocutor to the user based on the calculated emotion value of the user and the counseling comment received from the medical diagnosis support system. At that time, in order to express synchronization with the user, it is necessary to express a facial expression that matches the user's emotion, but it is impossible for depressed users who return a smile to reassure if a dark topic continues. When something is voluntarily spoken from the system, such as a counseling comment received from the medical diagnosis support system, a facial expression image is generated according to the emotion associated with the utterance content.

本手法では、6種類の感情(喜び、悲しみ、怒り、嫌悪、恐れ、驚き)それぞれにおける表情画像の特徴を、ニューラルネットワークに学習させる。このニューラルネットワークは第3層が2つのニューロンから構成されているため、各表情における顔画像の特徴が、二次元平面に展開される(図32参照。)。そして、その二次元平面の一箇所を入力として第三層に与えると、第五層で学習させた顔画像をもとにした表情画像が出力される(図33参照)。 In this method, the neural network learns the characteristics of facial expression images in each of six types of emotions (joy, sadness, anger, disgust, fear, and surprise). In this neural network, since the third layer is composed of two neurons, the features of the facial image in each facial expression are developed on a two-dimensional plane (see FIG. 32). Then, when one part of the two-dimensional plane is given as input to the third layer, a facial expression image based on the face image learned in the fifth layer is output (see FIG. 33).

情緒計算手段にて算出した20種類の感情を一つの表情画像として表出するためには、まずこれら20種類の感情を表情用の6種類の感情に変換し、さらに、これらを合成した感情が上記の二次元平面のどこに該当するのかを計算する必要がある。まず、20種類の感情を6種類に再分類する規則は、各感情の特徴を考慮して、図34のようになっている。 In order to express the 20 types of emotions calculated by the emotion calculation means as one facial expression image, these 20 types of emotions are first converted into 6 types of emotions for facial expressions, It is necessary to calculate where in the two-dimensional plane. First, the rules for reclassifying 20 types of emotions into 6 types are as shown in FIG. 34 in consideration of the characteristics of each emotion.

6種類に分類された感情は、感情平面上の該当感情部分に各感情の強度を足した値を重みとして加え、それらの重心を個人感情値を合成した表情とする(図35参照。)。 For the emotions classified into six types, a value obtained by adding the intensity of each emotion to the corresponding emotion part on the emotion plane is added as a weight, and the center of gravity is used as a facial expression obtained by synthesizing the personal emotion values (see FIG. 35).

返答発話生成手段では、これまでの個人感情値の推移とユーザとの対話履歴に基づいてあいづちを生成する。あいづちは、基本的に現時点での感情値に対応した表に基づいて生成される(図36参照。)。また、うまく音声を認識出来なかった場合には聞き返し、同じ話題が長く続き過ぎれば新しい話題の提示、サーバからカウンセリング結果が届いたなら結果の出力なども行う。 The response utterance generating means generates a greeting based on the transition of the personal emotion value so far and the dialogue history with the user. Aizu is basically generated based on a table corresponding to the current emotion value (see FIG. 36). In addition, if the speech cannot be recognized well, it is listened back, if the same topic continues for a long time, a new topic is presented, and if a counseling result arrives from the server, the result is output.

反応出力手段では、サーバにて生成された顔画像および返答発話といった反応は、再びユーザパソコンに送られ、ユーザパソコンのディスプレイや音声合成装置およびスピーカを通じて出力される。 In the reaction output means, the reaction such as the face image generated by the server and the response utterance is sent again to the user personal computer, and is output through the display of the user personal computer, the voice synthesizer, and the speaker.

地域・職域・学校健康管理ネットワークでは、ユーザパソコン及びサーバからアラームを受け取り、その深刻度に応じて、医療機関に通知、ユーザへのメッセージ送信、引き続き注意して監視、という対応を行う。 In the region / work / school health management network, alarms are received from user personal computers and servers, and depending on the severity, notifications are sent to medical institutions, messages are sent to users, and monitoring is continued with caution.

本発明の手法を従来の生起情報管理システムに導入する事により、感情による影響を考慮することが可能となり、過剰検出を増やすことなく異常検出の精度を上げる事ができる。また、本発明の手法により、身体面だけでなく精神面での異常も発見できるため、24時間の対応が不可能な状況において、有効な介護支援システムとなり得る。さらに、感情的な反応を返す擬人的なエージェントとのやりとりは、高齢者介護などの状況において不十分となりがちな、精神面でのケアの効果も期待できる。 By introducing the method of the present invention into the conventional occurrence information management system, it becomes possible to consider the influence of emotions, and the accuracy of abnormality detection can be increased without increasing excessive detection. In addition, since the method of the present invention can detect not only physical but also mental problems, it can be an effective care support system in situations where 24-hour response is impossible. Furthermore, interaction with anthropomorphic agents that return emotional responses can also be expected to have mental effects that tend to be insufficient in situations such as elderly care.

本発明の一実施例の処理手順Processing procedure of one embodiment of the present invention 同実施例の構成図Configuration diagram of the embodiment 同実施例のハードウェア構成図Hardware configuration diagram of the embodiment 生理情報危険検出手段の処理手順Processing procedure of physiological information danger detection means Affine変換Affine transformation 2次元離散コサイン変換2D discrete cosine transform 同実施例における音声認識および入力文解析手順Speech recognition and input sentence analysis procedure in the same embodiment 表層格フレーム表現と深層格フレーム表現の対応表Correspondence table of surface case frame expression and deep case frame expression 感情空間上の合成ベクトルSynthetic vector on emotion space 感情空間上の象限と快不快の対応Correspondence between quadrants in emotional space and pleasant discomfort 各述語タイプにおける主要要素Main elements in each predicate type 出力する感情とその生起条件Output emotions and conditions for their occurrence “他者の運命”に関する情緒の生起状況Emergence of emotions related to “the fate of others” “他者の運命”に関する情緒の判別手順Procedures for determining emotions related to “the fate of others” “将来的”に関する情緒の判別手順Procedure for discriminating “future” emotions “確認”に関する情緒の生起状況Occurrence of emotions related to “confirmation” “確認”に関する情緒の判別手順Procedure for discriminating emotion related to “confirmation” “幸福”に関する情緒の判別手順Procedure for determining emotions related to “happiness” “帰属”に関する情緒の生起状況Occurrence of emotions related to attribution “帰属”に関する情緒の判別手順How to determine the emotion related to “Attribution” “幸福/帰属”に関する情緒の生起状況Emergence of emotions related to “happiness / attribute” “幸福/帰属”に関する情緒の判別手順Procedure for discriminating emotions related to “happiness / attribute” 生起情緒の依存関係Dependence of emotion 情緒生起処理の実施例Example of emotion occurrence processing ニューラルネットワークneural network 感情情報異常検出手段の処理手順Processing procedure of emotion information abnormality detection means 要注意感情状態Attention required emotional state ファジィ推論Fuzzy reasoning Min-Max法Min-Max method “興奮性の感情を強く生起した”のメンバーシップ関数Membership function of “excited emotions” “全体的な感情生起が減少している”のメンバーシップ関数Membership function of “decreasing overall emotional occurrence” 第3層に構築された感情平面Emotional plane built on the third layer 感情平面から再現した顔表情画像Facial expression image reproduced from the emotion plane 感情の再分類規則Emotional reclassification rules 全生起感情の合成Synthesis of all-occurring emotions 返答発話データベースResponse utterance database 従来の生理情報異常検出装置Conventional physiological information abnormality detection device 従来の介護コミュニケーション支援システムConventional care communication support system 従来の感情を考慮した対話装置A conventional dialogue device that takes emotions into account

符号の説明Explanation of symbols

Er 右目の中心点
El 左目の中心点
M 口の中心点
c1〜c4, d 画像切り取り用変数
D01 ユーザ
D02 発話入力用マイク
D03 入力音声
D04 音声認識結果
D05 形態素解析結果
D06 構文解析結果
D07 構文解析結果を表層格フレーム表現で表したもの
D08 深層格フレーム表現
F01 必須格要素1の好感度
F02 必須格要素2の好感度
F03 必須格要素3の好感度
F04 合成ベクトル
T01 情緒計算手法によって得られた快/不快
T02 「将来」に関する情緒生起処理
T03 「確認」に関する情緒生起処理
T04 「他者の運命」に関する情緒生起処理
T05 「幸福」に関する情緒生起処理
T06 「帰属」に関する情緒生起処理
T07 「幸福/帰属」に関する情緒生起処理
V01 怒りの表情を出力する領域
V02 嫌悪の表情を出力する領域
V03 恐れの表情を出力する領域
V04 悲しみの表情を出力する領域
V05 幸福の表情を出力する領域
V06 驚きの表情を出力する領域
V07 ニュートラルの表情を出力する領域
V08 ニューラルネットワーク第三層1つめのニューロンの活性度
V09 ニューラルネットワーク第三層2つめのニューロンの活性度
S01 1つめの感情の重心
S02 2つめの感情の重心
S03 3つめの感情の重心
S04 4つめの感情の重心
S05 5つめの感情の重心
S06 6つめの感情の重心
S07 1つめの感情の強度
S08 2つめの感情の強度
S09 3つめの感情の強度
S10 4つめの感情の強度
S11 5つめの感情の強度
S12 6つめの感情の強度
S13 全感情の合成地点
S14 合成感情の強度
Er Right eye center point
El left eye center point
M Center of mouth
c1 to c4, d Image cropping variables
D01 user
D02 Speech input microphone
D03 Input audio
D04 Speech recognition result
D05 Morphological analysis results
D06 Parsing result
D07 Parsing result expressed in surface case frame representation
D08 Deep case frame expression
F01 Favorability of essential case element 1
F02 Favorability of essential case element 2
F03 Favorability of essential case element 3
F04 Composite vector
T01 Pleasure / discomfort obtained by the emotion calculation method
T02 Emotional process for the future
T03 Emotion generation processing related to "confirmation"
T04 Emotional process related to "the fate of others"
T05 Emotional process for “happiness”
T06 Emotional process related to “Attribution”
T07 Emotional process for “happiness / attribute”
V01 Area where angry facial expression is output
V02 Area for outputting expressions of disgust
V03 Area that outputs fear expressions
V04 Area where sadness expression is output
V05 Area where happiness expression is output
V06 Area that outputs surprising facial expressions
V07 Neutral expression output area
V08 Neural network third layer activity of first neuron
V09 Neural network third layer second neuron activity
S01 Center of gravity of the first emotion
S02 Center of gravity of the second emotion
S03 The center of gravity of the third emotion
S04 The center of gravity of the fourth emotion
S05 The center of gravity of the fifth emotion
S06 The center of gravity of the sixth emotion
S07 The intensity of the first emotion
S08 The intensity of the second emotion
S09 Third emotional intensity
S10 Fourth emotional intensity
S11 Fifth emotional intensity
S12 Strength of sixth emotion
S13 Synthesis point of all emotions
S14 Strength of synthetic emotion

Claims (6)

コンピュータネットワークにおける感情を考慮した対話装置において、カメラ、マイク、キーボード、生理情報測定器、タッチパネルを通じてユーザの顔画像、発話音声、生理情報、テキスト情報を取得する手段と、それらの情報から感情を測定し、感情の要素を求める手段と、その解析結果の値を装置に保存する手段と、その値をサーバに送信する手段と、サーバ側でユーザの顔画像、発話音声、生理情報、テキスト情報から求めた生起感情の度合(感情値)と、経時変化に応じたユーザの感情値をもとに、コンピュータによる対話者の発話内容を生成する手段と、サーバ側でユーザの顔画像、発話音声、生理情報、テキスト情報から求めた感情値をもとに対話者の顔画像を生成する手段を持つ、コンピュータネットワークにおける感情を考慮した対話装置。 In a dialogue device considering emotions in a computer network, a camera, microphone, keyboard, physiological information measuring device, means for acquiring a user's face image, speech voice, physiological information, text information through a touch panel, and measuring emotions from those information Then, a means for obtaining an element of emotion, a means for storing the value of the analysis result in the device, a means for transmitting the value to the server, and the user's face image, speech voice, physiological information, and text information on the server side Based on the degree of emotion that has been found (emotion value) and the emotion value of the user according to the change over time, a means for generating the utterance content of the conversation by the computer, the user's face image, speech voice on the server side, Emotions in computer networks that have means to generate dialogue face images based on emotion values obtained from physiological information and text information Into account the interaction device. カメラ、マイク、生理情報測定器を通じてユーザから取得した生理情報から、生命に危険が及ぶ異常を検知した場合、ユーザの健康を日常的に管理している地域・職域・学校健康管理ネットワークに通知する手段を有する請求項1記載のコンピュータネットワークにおける感情を考慮した対話装置。 When an abnormality that is dangerous to life is detected from physiological information acquired from a user through a camera, microphone, or physiological information measuring device, the health / health network that regularly manages the user's health is notified. The interactive apparatus in consideration of the emotion in the computer network according to claim 1, further comprising means. カメラ、マイク、キーボード、生理情報測定器、タッチパネルを通じて取得した顔画像、発話音声、生理情報、テキスト情報に基づいてそれぞれの感情解析要素を抽出する手段と、次に抽出した各感情解析要素からユーザの複合的な感情を表す値を算出する感情解析手段。 A means for extracting each emotion analysis element based on the face image, uttered voice, physiological information, and text information acquired through the camera, microphone, keyboard, physiological information measuring device, and touch panel, and the user from each extracted emotion analysis element Emotion analysis means for calculating a value representing a complex emotion. サーバ側で、対話内容に応じてユーザへの返答発話およびあらかじめ設定されたコンピュータによる対話者の顔画像を生成、表出し、さらにその履歴を保存する手段を有する請求項1記載のコンピュータネットワークにおける感情を考慮した対話装置。 2. The emotion in the computer network according to claim 1, further comprising means for generating a response utterance to the user on the server side and generating and displaying a face image of a conversation person by a computer set in advance, and further storing the history. An interactive device that takes into account. 請求項1記載の対話装置において、カメラ、マイク、生理情報測定器を通じて取得した生理情報について、システムに保存している平常値や請求項3記載の生起感情の状態をもとにして、異常の有無を判定する手段と、カメラ、マイク、キーボード、生理情報測定器、タッチパネルを通じて取得した顔画像、発話音声、生理情報、テキスト情報をもとに請求項3記載の感情解析手段によって得られたユーザの感情値の推移からユーザの情緒不安定状態を判定する手段と、判定した結果をユーザの健康を日常的に管理している地域・職域・学校健康管理ネットワークへ通知する、請求項1記載のコンピュータネットワークにおける感情を考慮した対話装置。 The interactive apparatus according to claim 1, wherein the physiological information acquired through the camera, the microphone, and the physiological information measuring device is determined based on the normal value stored in the system and the state of the occurrence emotion described in claim 3. The user obtained by the emotion analysis means according to claim 3 based on means for determining presence / absence, and a face image, speech voice, physiological information, and text information acquired through a camera, a microphone, a keyboard, a physiological information measuring instrument, and a touch panel The means for determining the emotional instability state of the user from the transition of the emotion value of the user, and the determination result is notified to the region / work area / school health management network that regularly manages the user's health. An interactive device that takes into account emotions in computer networks. 医療診断支援や健康支援を目的とした地域職域あるいは学校ネットワークや医療機関における医療診断、健康サポート、コンサルティングシステム上で、対話者の感情として算出された文章、音声、顔画像を表示することで、対話者の感情を表現可能なグラフィカルユーザインタフェースを備えた対話装置。
By displaying sentences, voices, and facial images calculated as emotions of the interlocutor on the medical diagnosis, health support, and consulting system in the local occupational area or school network or medical institution for the purpose of medical diagnosis support and health support, An interactive device with a graphical user interface that can express the emotions of the interlocutor.
JP2004051489A 2004-02-26 2004-02-26 Interactive device considering emotion in computer network Pending JP2005237668A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004051489A JP2005237668A (en) 2004-02-26 2004-02-26 Interactive device considering emotion in computer network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004051489A JP2005237668A (en) 2004-02-26 2004-02-26 Interactive device considering emotion in computer network

Publications (1)

Publication Number Publication Date
JP2005237668A true JP2005237668A (en) 2005-09-08

Family

ID=35020017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004051489A Pending JP2005237668A (en) 2004-02-26 2004-02-26 Interactive device considering emotion in computer network

Country Status (1)

Country Link
JP (1) JP2005237668A (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042671A (en) * 2007-08-10 2009-02-26 Kao Corp Method for determining feeling
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
WO2011076243A1 (en) 2009-12-21 2011-06-30 Fundacion Fatronik Affective well-being supervision system and method
GB2478035A (en) * 2010-02-18 2011-08-24 Bank Of America Systems for inducing change in a human physiological characteristic representative of an emotional state
GB2478036A (en) * 2010-02-18 2011-08-24 Bank Of America Systems for inducing change in a human physiological characteristic representative of an emotional state
GB2478034A (en) * 2010-02-18 2011-08-24 Bank Of America Systems for inducing change in a human physiological characteristic representative of an emotional state
WO2012001890A1 (en) * 2010-06-30 2012-01-05 テルモ株式会社 Health-monitoring device
JP2013206320A (en) * 2012-03-29 2013-10-07 Lassic Co Ltd Multi-modal type tracking system and its program
JP2015014834A (en) * 2013-07-03 2015-01-22 株式会社Lassic Feeling estimation system and program by mechanic dialog
JP2015064828A (en) * 2013-09-26 2015-04-09 日本電信電話株式会社 Dialog tendency scoring device, method and program
JP2015184597A (en) * 2014-03-25 2015-10-22 国立大学法人埼玉大学 Communication Support robot system
WO2016004425A1 (en) * 2014-07-04 2016-01-07 Intelligent Digital Avatars, Inc. Systems and methods for assessing, verifying and adjusting the affective state of a user
JP2016076117A (en) * 2014-10-07 2016-05-12 株式会社Nttドコモ Information processing device and utterance content output method
CN106310487A (en) * 2016-10-14 2017-01-11 智爱亿慈(北京)科技有限公司 Controllable inflatable suit, control system and method
JP2018511870A (en) * 2015-03-13 2018-04-26 中国科学院声学研究所Institute Of Acoustics, Chinese Academy Of Sciences Big data processing method for segment-based two-stage deep learning model
CN107972028A (en) * 2017-07-28 2018-05-01 北京物灵智能科技有限公司 Man-machine interaction method, device and electronic equipment
CN108305640A (en) * 2017-01-13 2018-07-20 深圳大森智能科技有限公司 Intelligent robot active service method and device
WO2019087987A1 (en) * 2017-11-02 2019-05-09 日本電信電話株式会社 Malfunction sensing device, malfunction sensing method, and program
CN110743078A (en) * 2019-08-05 2020-02-04 北京泷信科技有限公司 Psychological adjustment training scheme generation method and equipment
CN111160697A (en) * 2019-11-22 2020-05-15 深圳壹账通智能科技有限公司 Method for judging on duty of bus driver based on pattern recognition and related equipment
CN112102850A (en) * 2019-06-18 2020-12-18 杭州海康威视数字技术股份有限公司 Processing method, device and medium for emotion recognition and electronic equipment
JP2021033434A (en) * 2019-08-19 2021-03-01 キヤノンメディカルシステムズ株式会社 Medical support device and program
CN112515674A (en) * 2020-11-30 2021-03-19 重庆工程职业技术学院 Psychological crisis early warning system
WO2021071155A1 (en) * 2019-10-08 2021-04-15 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
JP2021525421A (en) * 2018-05-23 2021-09-24 アイオロス ロボティクス, インク.Aeolus Robotics, Inc. Robotic dialogue for observable signs of health
JP6963668B1 (en) * 2020-12-03 2021-11-10 ポーラ化成工業株式会社 Solution provision system
WO2022118955A1 (en) * 2020-12-03 2022-06-09 ポーラ化成工業株式会社 Solution providing system
CN116072297A (en) * 2023-03-09 2023-05-05 深圳市人马互动科技有限公司 Method and related device for determining mental health data based on novel interaction
WO2023135939A1 (en) * 2022-01-17 2023-07-20 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023146030A1 (en) * 2022-01-28 2023-08-03 주식회사 마블러스 Device, method, and program for interaction based on artificial intelligence in which emotion, concentration degree, and conversation are integrated

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009042671A (en) * 2007-08-10 2009-02-26 Kao Corp Method for determining feeling
JP2010094493A (en) * 2008-09-22 2010-04-30 Koichi Kikuchi System for deciding viewer's feeling on viewing scene
WO2011076243A1 (en) 2009-12-21 2011-06-30 Fundacion Fatronik Affective well-being supervision system and method
GB2478036A (en) * 2010-02-18 2011-08-24 Bank Of America Systems for inducing change in a human physiological characteristic representative of an emotional state
US9138186B2 (en) 2010-02-18 2015-09-22 Bank Of America Corporation Systems for inducing change in a performance characteristic
GB2478034A (en) * 2010-02-18 2011-08-24 Bank Of America Systems for inducing change in a human physiological characteristic representative of an emotional state
US8715179B2 (en) 2010-02-18 2014-05-06 Bank Of America Corporation Call center quality management tool
US8715178B2 (en) 2010-02-18 2014-05-06 Bank Of America Corporation Wearable badge with sensor
GB2478035A (en) * 2010-02-18 2011-08-24 Bank Of America Systems for inducing change in a human physiological characteristic representative of an emotional state
GB2478036B (en) * 2010-02-18 2015-06-10 Bank Of America Systems for inducing change in a human physiological characteristic
GB2478034B (en) * 2010-02-18 2015-09-16 Bank Of America System for inducing change in a human physiological characteristic
GB2478035B (en) * 2010-02-18 2015-09-16 Bank Of America Systems for inducing change in a human physiological characteristic
WO2012001890A1 (en) * 2010-06-30 2012-01-05 テルモ株式会社 Health-monitoring device
CN102985007A (en) * 2010-06-30 2013-03-20 泰尔茂株式会社 Health-monitoring device
JP2013206320A (en) * 2012-03-29 2013-10-07 Lassic Co Ltd Multi-modal type tracking system and its program
JP2015014834A (en) * 2013-07-03 2015-01-22 株式会社Lassic Feeling estimation system and program by mechanic dialog
JP2015064828A (en) * 2013-09-26 2015-04-09 日本電信電話株式会社 Dialog tendency scoring device, method and program
JP2015184597A (en) * 2014-03-25 2015-10-22 国立大学法人埼玉大学 Communication Support robot system
WO2016004425A1 (en) * 2014-07-04 2016-01-07 Intelligent Digital Avatars, Inc. Systems and methods for assessing, verifying and adjusting the affective state of a user
JP2016076117A (en) * 2014-10-07 2016-05-12 株式会社Nttドコモ Information processing device and utterance content output method
JP2018511870A (en) * 2015-03-13 2018-04-26 中国科学院声学研究所Institute Of Acoustics, Chinese Academy Of Sciences Big data processing method for segment-based two-stage deep learning model
CN106310487A (en) * 2016-10-14 2017-01-11 智爱亿慈(北京)科技有限公司 Controllable inflatable suit, control system and method
CN108305640A (en) * 2017-01-13 2018-07-20 深圳大森智能科技有限公司 Intelligent robot active service method and device
CN107972028A (en) * 2017-07-28 2018-05-01 北京物灵智能科技有限公司 Man-machine interaction method, device and electronic equipment
WO2019087987A1 (en) * 2017-11-02 2019-05-09 日本電信電話株式会社 Malfunction sensing device, malfunction sensing method, and program
JPWO2019087987A1 (en) * 2017-11-02 2020-11-12 日本電信電話株式会社 Anomaly detection device, anomaly detection method, and program
US11615343B2 (en) 2017-11-02 2023-03-28 Nippon Telegraph And Telephone Corporation Anomaly detection apparatus, anomaly detection method, and program
US11717203B2 (en) 2018-05-23 2023-08-08 Aeolus Robotics, Inc. Robotic interactions for observable signs of core health
US11701041B2 (en) 2018-05-23 2023-07-18 Aeolus Robotics, Inc. Robotic interactions for observable signs of intent
JP2021525421A (en) * 2018-05-23 2021-09-24 アイオロス ロボティクス, インク.Aeolus Robotics, Inc. Robotic dialogue for observable signs of health
CN112102850A (en) * 2019-06-18 2020-12-18 杭州海康威视数字技术股份有限公司 Processing method, device and medium for emotion recognition and electronic equipment
CN112102850B (en) * 2019-06-18 2023-06-20 杭州海康威视数字技术股份有限公司 Emotion recognition processing method and device, medium and electronic equipment
CN110743078B (en) * 2019-08-05 2022-07-26 北京泷信科技有限公司 Psychological adjustment training scheme generation method and equipment
CN110743078A (en) * 2019-08-05 2020-02-04 北京泷信科技有限公司 Psychological adjustment training scheme generation method and equipment
JP7382760B2 (en) 2019-08-19 2023-11-17 キヤノンメディカルシステムズ株式会社 Medical support equipment and programs
JP2021033434A (en) * 2019-08-19 2021-03-01 キヤノンメディカルシステムズ株式会社 Medical support device and program
US11538278B2 (en) 2019-10-08 2022-12-27 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US11676419B2 (en) 2019-10-08 2023-06-13 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
WO2021071155A1 (en) * 2019-10-08 2021-04-15 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
CN111160697A (en) * 2019-11-22 2020-05-15 深圳壹账通智能科技有限公司 Method for judging on duty of bus driver based on pattern recognition and related equipment
CN112515674B (en) * 2020-11-30 2023-07-07 重庆工程职业技术学院 Psychological crisis early warning system
CN112515674A (en) * 2020-11-30 2021-03-19 重庆工程职业技术学院 Psychological crisis early warning system
JP2022088791A (en) * 2020-12-03 2022-06-15 ポーラ化成工業株式会社 Solution provision system
WO2022118955A1 (en) * 2020-12-03 2022-06-09 ポーラ化成工業株式会社 Solution providing system
JP6963668B1 (en) * 2020-12-03 2021-11-10 ポーラ化成工業株式会社 Solution provision system
WO2023135939A1 (en) * 2022-01-17 2023-07-20 ソニーグループ株式会社 Information processing device, information processing method, and program
WO2023146030A1 (en) * 2022-01-28 2023-08-03 주식회사 마블러스 Device, method, and program for interaction based on artificial intelligence in which emotion, concentration degree, and conversation are integrated
CN116072297A (en) * 2023-03-09 2023-05-05 深圳市人马互动科技有限公司 Method and related device for determining mental health data based on novel interaction
CN116072297B (en) * 2023-03-09 2023-06-06 深圳市人马互动科技有限公司 Method and related device for determining mental health data based on novel interaction

Similar Documents

Publication Publication Date Title
JP2005237668A (en) Interactive device considering emotion in computer network
Nunamaker et al. Embodied conversational agent-based kiosk for automated interviewing
Mergenthaler et al. Linking verbal and non‐verbal representations: Computer analysis of referential activity
López et al. Towards an ontology for describing emotions
Lotfian et al. Formulating emotion perception as a probabilistic model with application to categorical emotion classification
KR20210061126A (en) Apparatus and method for providing chatbot service for psychological counselling
Abdusattorova REVEALING EMOTION OF JOY AND SADNESS
CN112035634A (en) Text emotion detection method, device and equipment and storage medium
Samareh et al. Detect depression from communication: How computer vision, signal processing, and sentiment analysis join forces
KR20040106960A (en) Natural Language Based Emotion Recognition , Emotion Expression System and its Method
Yamashita et al. Visualizing health with emotion polarity history using voice
Jarwar et al. Exploring web objects enabled data-driven microservices for E-health service provision in IoT environment
Prabhu et al. Harnessing emotions for depression detection
JP7285046B2 (en) Information processing device, information processing method and program
Charness Aging and communication: Human factors issues
CN110473534A (en) A kind of nursing old people conversational system based on deep neural network
Purohit et al. Chatgpt in healthcare: Exploring ai chatbot for spontaneous word retrieval in aphasia
Garay-Vitoria et al. Application of an ontology-based platform for developing affective interaction systems
Matsumoto et al. Estimating human emotions using wording and sentence patterns
Dammavalam et al. AI Based Chatbot for Hospital Management System
Barange et al. Impact of adaptive multimodal empathic behavior on the user interaction
Ichimura et al. Emotion-oriented agent in mental state transition learning network
Beltrán et al. Detecting disruptive vocalizations for ambient assisted interventions for dementia
Mihai et al. Multimodal emotion detection from multiple data streams for improved decision making
O'Dwyer et al. Affective computing using speech and eye gaze: a review and bimodal system proposal for continuous affect prediction

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20050825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051111