JP6343823B2 - Emotion estimation system by machine dialogue and its program - Google Patents

Emotion estimation system by machine dialogue and its program Download PDF

Info

Publication number
JP6343823B2
JP6343823B2 JP2013139773A JP2013139773A JP6343823B2 JP 6343823 B2 JP6343823 B2 JP 6343823B2 JP 2013139773 A JP2013139773 A JP 2013139773A JP 2013139773 A JP2013139773 A JP 2013139773A JP 6343823 B2 JP6343823 B2 JP 6343823B2
Authority
JP
Japan
Prior art keywords
emotional state
positive
negative
neutral
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013139773A
Other languages
Japanese (ja)
Other versions
JP2015014834A (en
Inventor
知宏 西尾
知宏 西尾
石井 克典
克典 石井
俊幸 植田
俊幸 植田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LASSIC
Original Assignee
LASSIC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LASSIC filed Critical LASSIC
Priority to JP2013139773A priority Critical patent/JP6343823B2/en
Publication of JP2015014834A publication Critical patent/JP2015014834A/en
Application granted granted Critical
Publication of JP6343823B2 publication Critical patent/JP6343823B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、人とコンピューターとが対話するための対話システム及びそれを稼働する対話プログラムに関する。   The present invention relates to a dialogue system for dialogue between a person and a computer and a dialogue program that operates the dialogue system.

近年、気分状態であるメンタルヘルスに不安を抱える患者が増加しており、それに伴いメンタルヘルスを良好な状態に導くメンタルヘルスケアサービスが注目されている。通常は、診断対象者が治療者のもとを訪ね、治療者が診断対象者に問診し、治療者が診断して結果を伝える、という一連の流れで行われる。しかしながら、この診断結果は治療者の知識や経験値に大きく依存し、また的確な問診を行うための時間も必要となる。   In recent years, an increasing number of patients are anxious about mental health, which is in a mood state, and accordingly, mental health care services that lead mental health to a good state are attracting attention. Usually, the diagnosis target person visits the therapist, the therapist interviews the diagnosis target person, and the therapist diagnoses and conveys the result. However, this diagnosis result greatly depends on the knowledge and experience value of the therapist, and it takes time to make an accurate inquiry.

そこで、コンピューターネットワークを用いた診断が提案されている。例えば、特許文献1には、ネットワーク接続されたコンピューターにより利用者の生活習慣を改善する技術が示されている。これによれば、利用者が入力した情報に基づいてコンピューターからアドバイスが出力される。このようなシステムは、治療を対象とするものではなく、重症化する前の患者が利用することで軽微な症状のうちに改善することを目的とするものである。   Therefore, a diagnosis using a computer network has been proposed. For example, Patent Document 1 discloses a technique for improving a user's lifestyle using a computer connected to a network. According to this, advice is output from the computer based on information input by the user. Such a system is not intended for treatment, but is intended to be improved by the use of a patient before becoming ill with minor symptoms.

ところで、コンピューターへの入力方法に関して、音声情報や画像情報などのマルチメディア情報を入出力する技術であるマルチモーダルインターフェースが開発されている(特許文献2参照)。   By the way, regarding the input method to a computer, a multimodal interface which is a technique for inputting and outputting multimedia information such as audio information and image information has been developed (see Patent Document 2).

特開2001−22837号公報JP 2001-22837 A 特許第3844874号公報Japanese Patent No. 3844874

しかしながら、特許文献1では利用者から入力される日々の情報が少なく、生活習慣改善支援装置側で利用者の生活内容の多くは把握できない。このように入力される情報が少ないと、対象者の感情等、対象者の現在の状態を大雑把に分析することしかできず、高精度で分析することが難しい。一方、特許文献2ではマルチモーダルインターフェースを用いた具体的な応用例は示されていない。したがって、入力される情報を有効に活用することができず、対象者の感情等を高精度で分析することができない。   However, in Patent Document 1, there is little daily information input from the user, and the lifestyle habit improvement support device cannot grasp much of the user's life content. When there is little information input in this way, it is only possible to roughly analyze the current state of the subject, such as the subject's emotions, and it is difficult to analyze with high accuracy. On the other hand, Patent Document 2 does not show a specific application example using a multimodal interface. Therefore, the input information cannot be used effectively, and the emotion of the subject cannot be analyzed with high accuracy.

上述したものも含めてメンタルヘルスケアサービスにおける課題は多い。例えば問診を行う場合には、問診する人の知識や経験値によって診断結果にバラツキが生じる。また、問診される人の自己認知度や伝達能力に差が大きいため、情報収集に時間がかかって診断が遅くなり、診断精度が低下する要因となる。診断対象者が気分障害などの精神障害を抱えている場合、自己認知自体が体調に悪影響を与えることもある。   There are many challenges in mental health care services, including those mentioned above. For example, when an inquiry is performed, the diagnosis results vary depending on the knowledge and experience of the person who makes the inquiry. In addition, since there is a large difference in the degree of self-recognition and communication ability of the person being interrogated, it takes time to collect information and the diagnosis is delayed, which causes a decrease in diagnostic accuracy. If the person being diagnosed has a mental disorder such as a mood disorder, self-recognition itself may adversely affect the physical condition.

診断対象者は、相手から個人情報をたずねられることに心理的な負担を感じやすく、問診を受けるための時間・労力・金銭等の負担も大きい。気分障害は罹患した時点がはっきりしない特徴をもち、とくに初期には本人の自覚が難しい。したがって、正しい診断のためには、診察場面だけでなく生活の実態を把握した情報が必要である。   The person to be diagnosed easily feels a psychological burden when asked by the other person for personal information, and the burden of time, labor, money, etc. for receiving an inquiry is large. Mood disorders have characteristics that are not clear when they are affected, and it is difficult to identify themselves, especially in the early stages. Therefore, in order to make a correct diagnosis, information that grasps the actual situation of life as well as the examination scene is necessary.

診断対象者の回復に関する情報のうち、自己認知の陽性変容の持続時間は判定に重要であるが、この情報は自己申告によって得られる。また、気分を低下させる問題への対処には、実際の行動の把握が必要だが、この多くは自己申告に基づいている。これらの情報を得るにあたり、問診者の知識と経験に依存する部分が大きいため、不適切な問診は行動事実の把握を誤り、さらには対象者の気分を低下させる危険性がある。   Of the information about the recovery of the person being diagnosed, the duration of positive transformation of self-cognition is important for judgment, but this information can be obtained by self-reporting. In addition, coping with problems that lower mood requires grasping of actual behavior, most of which is based on self-reporting. In obtaining such information, since there is a large part that depends on the knowledge and experience of the interviewer, improper interviewing has a risk of misunderstanding behavior facts and further lowering the mood of the subject.

診断対象者の気分状態は、高揚と低下が時系列で変化するが、それを常時測定する手段がない。抑うつ状態などのために診断対象者が人との接触回数が少ない場合には、状態を把握するための問診を頻繁に行うことができないため、気分状態を把握するために簡便な手法を開発することが有用である。   Although the mood state of the person to be diagnosed changes ups and downs in time series, there is no means for constantly measuring it. If the person being diagnosed has few contacts with the person due to depression, etc., a simple method for grasping the mood state will be developed because frequent interviews are not possible. It is useful.

気分障害の治療で有効とされている認知行動療法では、本人が意識せずに取ってしまう思考パターン(自動思考)について話し合うが、自己申告された自動思考が必ずしも最も治療に有効な情報とは限らない。治療者が本人の生活全ての情報を知りえないために、重要な課題の特定には時間がかかり、治療者の技術による違いが生じやすくなる。自動思考の矯正には、日常生活での実践状況を治療者が観測し指導する必要があるが、介入は断続的にしかできないために、被治療者の自立した習慣づけには時間がかかる。   In cognitive behavioral therapy, which is effective in treating mood disorders, we discuss the thought patterns (automatic thinking) that the person takes without being conscious, but self-reported automatic thinking is not necessarily the most effective information for treatment. Not exclusively. Since the therapist does not know all the information about the person's life, it takes time to identify important issues, and differences due to the technology of the therapist tend to occur. For correction of automatic thinking, it is necessary for the therapist to observe and guide the practice situation in daily life. However, since intervention is possible only intermittently, it takes time for the treated person to become independent.

不安障害や発達障害の治療によく用いられる行動療法には、大きな目標に向けて段階的に行動内容を変えていく方法があるが、行動記録は主に自己申告であるために、精度に対する信頼性が不安定である。呼吸や脈などの自律神経機能を自分でコントロールする自律訓練法もあるが、物理的変化を一意にまたは時系列で認識する手法はない。   Behavioral therapy, which is often used to treat anxiety and developmental disorders, has a method of changing the content of actions step by step toward a major goal. However, since behavior records are mainly self-reported, confidence in accuracy is required. Sex is unstable. Although there are autonomous training methods that control the autonomic nervous functions such as breathing and pulse by themselves, there is no method for recognizing physical changes uniquely or in time series.

行動療法を行う際に行動分析を行うが、行動の収集は主に本人の自己申告によるため精度が低く、診断の誤りにつながる可能性がある。未就学児童などの言語能力が未発達な診断対象者では、言語だけでは心理状態の変化を把握できず、障害の発見が困難になる。診断対象者が未成年の場合で、親などの監督者が行動を観察できない時には、行動に問題があっても客観的に記録するシステムがない。   Behavioral analysis is performed when behavioral therapy is performed, but the collection of behavior is mainly based on the self-report of the person, so the accuracy is low, which may lead to a diagnosis error. Diagnosed subjects with undeveloped language skills, such as preschool children, cannot understand changes in psychological state by language alone, making it difficult to find disabilities. When the person being diagnosed is a minor and the supervisor such as a parent cannot observe the behavior, there is no system for objectively recording even if there is a problem in the behavior.

診断対象者が「感情の自己認知を表現するのは悪いことだ」という信念を抱いている場合には、感情に関する言語表出が得られにくいため、心理状態の変化は客観的なバイタルサインで把握しなければならない。診断対象者が独居の場合、家庭内の客観的情報がないため、他者からみた客観的な変化を知るためには、本人の社会性に依存することになる。診断対象者が言語障害など自分の状態を言語化しにくい障害を持っている場合にも、診断に必要な情報が獲得しにくくなる。   If the person being diagnosed has the belief that “it is bad to express self-perception of emotions”, it is difficult to obtain language expressions about emotions, so changes in psychological state are objective vital signs. I have to figure it out. When the person to be diagnosed is alone, there is no objective information in the home, so in order to know the objective changes seen by others, it depends on the social nature of the person. Even if the person to be diagnosed has a disorder such as a language disorder that makes it difficult to translate his / her state, it is difficult to obtain information necessary for the diagnosis.

診断対象者が症状の治療を受けている時には、保護者による支援が必要なことがあるが、時間的な制約などのために、支援が必ずしも必要な時にできないことがある。診断対象者が労働者で休職中の場合、所属会社の上司の監督が必要とされているが、本人の状態把握は属人的である。   When the person being diagnosed is receiving treatment for symptoms, assistance from a guardian may be required, but due to time constraints, assistance may not always be possible. If the person to be diagnosed is a worker who is on leave, supervision of the supervisor of the affiliated company is required, but grasping the person's status is personal.

幼少時の家庭内暴力などの体験が、後のストレス障害や抑うつ状態などに関連する可能性があるが、個人の心的外傷となりうる体験を計測する統一された手段はなく、症状の兆候の発見されやすさは個人の社会性に依存している。学校や会社でのいじめは、自殺にもつながる重大な問題であるが、その兆候の発見と対処は教師や上司などの情報収集力に依存するところが大きい。アルコール依存症や過食症などの嗜癖行動の問題では、行動記録は本人の自己申告であり精度が低く、客観的情報との乖離が問題になりやすい。   Although experiences such as domestic violence in childhood may be related to later stress disorders or depression, there is no unified means of measuring experiences that can cause personal trauma, and there is no indication of symptoms. Ease of discovery depends on the social nature of the individual. Bullying in schools and companies is a serious problem that can lead to suicide, but the detection and response of signs is largely dependent on the ability to gather information from teachers and supervisors. In addiction behavior problems such as alcoholism and bulimia, the behavior record is self-reported and the accuracy is low, and deviation from objective information tends to be a problem.

本発明は、知識や経験値を必要とせず、対象者の状態を高精度で分析し、的確な応答を生成することができる対話システム及び対話プログラムを提供することを目的とする。   An object of the present invention is to provide a dialogue system and a dialogue program that do not require knowledge and experience values, can analyze a subject's state with high accuracy, and can generate an accurate response.

上記目的を達成するために本発明の対話システムは、対象者が入力した入力文を取得する取得部と、
感情状態と文字列とをそれぞれ対応させて定義した応答マスタと、
前記感情状態の経時変化を感情状態履歴として記憶する記憶部と、
前記入力文から前記感情状態を算出して前記感情状態履歴を更新し、前記感情状態履歴に基づき、前記応答マスタから文字列を複数組読み出して繋げることで応答文を生成する制御部と、を備える。
In order to achieve the above object, the dialogue system of the present invention includes an acquisition unit that acquires an input sentence input by a subject,
A response master that defines emotion states and character strings
A storage unit for storing a change in the emotional state over time as an emotional state history;
A controller that calculates the emotional state from the input sentence, updates the emotional state history, and generates a response sentence by reading and connecting a plurality of character strings from the response master based on the emotional state history; Prepare.

上記の対話システムにおいて、前記制御部は、直近の所定数の感情状態の組み合わせに応じて前記応答マスタから読み出す複数組の文字列を決定するようにしてもよい。   In the above interactive system, the control unit may determine a plurality of sets of character strings to be read from the response master in accordance with the most recent combination of a predetermined number of emotional states.

また上記の対話システムにおいて、前記感情状態がポジティブ、ニュートラル、ネガティブの何れかで表され、
感情語に応じた感情値が記された感情語マスタを備え、
前記制御部は、前記感情語マスタに基づいて前記入力文の感情値の総和を算出し、該感情値の総和を正規化し、
θ≦|E|≦1(E:感情値の総和を正規化した値、θ:閾値(正の値))の場合、前記感情状態はEが正ならばポジティブに、Eが負ならばネガティブに遷移したと判定し、
-θ<E<0の場合、前記感情状態は現状態を継続しているか、ニュートラル又はネガティブに遷移したと判定し、
0≦E<θの場合、前記感情状態は現状態を継続しているか、ニュートラル又はポジティブに遷移したと判定するようにしてもよい。
Further, in the above dialogue system, the emotional state is represented by positive, neutral, or negative,
Emotion word master with emotion values according to emotion words
The control unit calculates a sum of emotion values of the input sentence based on the emotion word master, normalizes the sum of the emotion values,
When θ ≦ | E | ≦ 1 (E: value obtained by normalizing the sum of emotion values, θ: threshold value (positive value)), the emotional state is positive if E is positive, and negative if E is negative It has been determined that
When -θ <E <0, it is determined that the emotional state continues the current state, or has transitioned to neutral or negative,
In the case of 0 ≦ E <θ, it may be determined that the emotional state continues the current state or has transitioned to neutral or positive.

また上記の対話システムにおいて、前記感情状態を特定するための計算式が、
Mk (S0) = max(Mk-1(S0)+ Lk 0→0, Mk-1(S1)+ Lk 1→0 , Mk-1(S-1)+ Lk -1→0
Mk (S1) = max(Mk-1(S0)+ Lk 0→1, Mk-1(S1)+ Lk 1→1 , Mk-1(S-1)+ Lk -1→1
Mk (S-1) = max(Mk-1(S0)+ Lk 0→-1, Mk-1(S1)+ Lk 1→-1 , Mk-1(S-1)+ Lk -1→-1
Mk (Si):時刻kにおける感情状態のパスメトリック値
Lk i→j:時刻kにおいて状態iから状態jに遷移する状態遷移確率に基づくブランチメトリック値
であり、
Lk i→j= 1 / (-ln Pk i→j)
i:-1(ネガティブ)、0(ニュートラル)、1(ポジティブ)の何れか
Lk -1→-1:感情状態がネガティブから遷移しないブランチメトリック値
Lk -1→0:感情状態がネガティブからニュートラルへ遷移するブランチメトリック値
Lk -1→1:感情状態がネガティブからポジティブへ遷移するブランチメトリック値
Lk 0→-1:感情状態がニュートラルからネガティブへ遷移するブランチメトリック値
Lk 0→0:感情状態がニュートラルから遷移しないブランチメトリック値
Lk 0→1:感情状態がニュートラルからポジティブへ遷移するブランチメトリック値
Lk 1→-1:感情状態がポジティブからネガティブへ遷移するブランチメトリック値
Lk 1→0:感情状態がポジティブからニュートラルへ遷移するブランチメトリック値
Lk 1→1:感情状態がポジティブから遷移しないブランチメトリック値
Pk -1→1:感情状態がネガティブからポジティブへ遷移する確率
Pk -1→0:感情状態がネガティブからニュートラルへ遷移する確率
Pk -1→-1:感情状態がネガティブから遷移しない確率
Pk 0→1:感情状態がニュートラルからポジティブへ遷移する確率
Pk 0→0:感情状態がニュートラルから遷移しない確率
Pk 0→-1:感情状態がニュートラルからネガティブへ遷移する確率
Pk 1→1:感情状態がポジティブから遷移しない確率
Pk 1→0:感情状態がポジティブからニュートラルへ遷移する確率
Pk 1→-1:感情状態がポジティブからネガティブルへ遷移する確率
であることとしてもよい。
In the above dialogue system, the calculation formula for specifying the emotional state is:
M k (S 0 ) = max (M k-1 (S 0 ) + L k 0 → 0 , M k-1 (S 1 ) + L k 1 → 0 , M k-1 (S -1 ) + L k -1 → 0 )
M k (S 1 ) = max (M k-1 (S 0 ) + L k 0 → 1 , M k-1 (S 1 ) + L k 1 → 1 , M k-1 (S -1 ) + L k -1 → 1 )
M k (S -1 ) = max (M k-1 (S 0 ) + L k 0 → -1 , M k-1 (S 1 ) + L k 1 → -1 , M k-1 (S -1 ) + L k -1 → -1 )
M k (S i ): Path metric value of emotional state at time k
L k i → j : a branch metric value based on the state transition probability of transition from state i to state j at time k,
L k i → j = 1 / (-ln P k i → j )
i: Either -1 (negative), 0 (neutral), or 1 (positive)
L k -1 → -1 : Branch metric value where emotional state does not change from negative
L k -1 → 0 : Branch metric value where the emotional state transitions from negative to neutral
L k -1 → 1 : Branch metric value where emotional state transitions from negative to positive
L k 0 → -1 : Branch metric value where emotional state transitions from neutral to negative
L k 0 → 0 : Branch metric value where emotional state does not change from neutral
L k 0 → 1 : Branch metric value where emotional state transitions from neutral to positive
L k 1 → -1 : Branch metric value where emotional state transitions from positive to negative
L k 1 → 0 : Branch metric value where emotional state transitions from positive to neutral
L k 1 → 1 : Branch metric value where emotional state does not change from positive
P k -1 → 1 : Probability of emotional state transition from negative to positive
P k -1 → 0 : Probability of emotional state transition from negative to neutral
P k -1 → -1 : Probability that emotional state does not change from negative
P k 0 → 1 : Probability of emotional state transitioning from neutral to positive
P k 0 → 0 : Probability that emotional state does not change from neutral
P k 0 → -1 : Probability of emotional state transitioning from neutral to negative
P k 1 → 1 : Probability that emotional state does not change from positive
P k 1 → 0 : Probability of emotional state transitioning from positive to neutral
P k 1 → -1 : It may be the probability that the emotional state changes from positive to negative.

また上記の対話システムにおいて、複数のパスが算出されている場合、パスが収束した段階で、各時刻における最大のパスメトリック値を有する感情状態を選択することで1つの繋がったパスである生き残りパスを決定するようにしてもよい。   In the above interactive system, when a plurality of paths are calculated, a survival path that is one connected path by selecting an emotional state having the maximum path metric value at each time when the paths converge. May be determined.

また上記の対話システムにおいて、前記感情状態がポジティブ、ニュートラル、ネガティブからなるノードの比率で表され、
感情語に応じた感情値が記された感情語マスタを備え、
前記制御部は、前記感情語マスタに基づいて前記入力文の感情値の総和を算出し、該感情値の総和を正規化し、
θ≦|E|≦1(E:感情値の総和を正規化した値、θ:閾値(正の値))の場合、前記感情状態はEが正ならばポジティブに、Eが負ならばネガティブに遷移したと判定し、
-θ<E<0の場合、前記感情状態は現状態を継続しているとともに、ニュートラル及びネガティブに遷移したと判定し、
0≦E<θの場合、前記感情状態は現状態を継続しているとともに、ニュートラル及びポジティブに遷移したと判定し、
前記感情状態を特定するための計算式が、
Rk i=Mk(Si)/(Mk (S0) + Mk (S1) + Mk(S-1))
i:-1(ネガティブ)、0(ニュートラル)、1(ポジティブ)の何れか
Rk i:時刻kにおける感情状態に占める各ノードの比率
Mk (Si):時刻kにおける感情状態のパスメトリック値
であり、
Mk (S0) = max(Mk-1(S0)+ Lk 0→0, Mk-1(S1)+ Lk 1→0 , Mk-1(S-1)+ Lk -1→0
Mk (S1) = max(Mk-1(S0)+ Lk 0→1, Mk-1(S1)+ Lk 1→1 , Mk-1(S-1)+ Lk -1→1
Mk (S-1) = max(Mk-1(S0)+ Lk 0→-1, Mk-1(S1)+ Lk 1→-1 , Mk-1(S-1)+ Lk -1→-1
であることとしてもよい。
In the above dialogue system, the emotional state is expressed as a ratio of nodes including positive, neutral, and negative.
Emotion word master with emotion values according to emotion words
The control unit calculates a sum of emotion values of the input sentence based on the emotion word master, normalizes the sum of the emotion values,
When θ ≦ | E | ≦ 1 (E: value obtained by normalizing the sum of emotion values, θ: threshold value (positive value)), the emotional state is positive if E is positive, and negative if E is negative It has been determined that
When -θ <E <0, it is determined that the emotional state continues the current state and has transitioned to neutral and negative,
If 0 ≦ E <θ, it is determined that the emotional state continues the current state and transitions to neutral and positive,
A calculation formula for specifying the emotional state is:
R k i = M k (S i ) / (M k (S 0 ) + M k (S 1 ) + M k (S -1 ))
i: Either -1 (negative), 0 (neutral), or 1 (positive)
R k i : Ratio of each node in the emotional state at time k
M k (S i ): Path metric value of emotional state at time k
M k (S 0 ) = max (M k-1 (S 0 ) + L k 0 → 0 , M k-1 (S 1 ) + L k 1 → 0 , M k-1 (S -1 ) + L k -1 → 0 )
M k (S 1 ) = max (M k-1 (S 0 ) + L k 0 → 1 , M k-1 (S 1 ) + L k 1 → 1 , M k-1 (S -1 ) + L k -1 → 1 )
M k (S -1 ) = max (M k-1 (S 0 ) + L k 0 → -1 , M k-1 (S 1 ) + L k 1 → -1 , M k-1 (S -1 ) + L k -1 → -1 )
It is good also as being.

また上記の対話システムにおいて、文字入力部及び/又は音声入力部を備え、
前記取得部が取得する入力文は、前記対象者が前記文字入力部から入力したテキストデータ、又は前記対象者が前記音声入力部から入力した音声データを変換したテキストデータであることとしてもよい。
In the above dialogue system, a character input unit and / or a voice input unit are provided,
The input sentence acquired by the acquisition unit may be text data input from the character input unit by the target person or text data obtained by converting voice data input from the voice input unit by the target person.

また上記の対話システムにおいて、個人特性マスタを備え、
前記制御部は、前記入力文を品詞に分解し、分解した語に所定の感情値を対応させて前記個人特性マスタに記憶し、前記個人特性マスタの情報を加味して前記感情値の総和を算出するようにしてもよい。
In the above dialogue system, a personal characteristic master is provided.
The control unit decomposes the input sentence into parts of speech, associates the decomposed word with a predetermined emotion value and stores it in the personal characteristic master, and adds the information of the personal characteristic master to the sum of the emotion values. You may make it calculate.

また上記の対話システムにおいて、前記制御部は、前記個人特性マスタに記憶されている語を使用して前記応答文を生成するようにしてもよい。   In the above interactive system, the control unit may generate the response sentence using a word stored in the personal characteristic master.

また上記の対話システムにおいて、前記取得部は、音声情報、表情情報、顔面温度情報、眼球運動情報、脈拍情報、心拍情報、呼吸情報、血圧情報の中の少なくとも1以上の情報を含む生体情報を取得し、
前記制御部は、前記生体情報を感情値に変換し、該変換した感情値を加味して前記感情値の総和を算出するようにしてもよい。
Further, in the above dialogue system, the acquisition unit is configured to obtain biological information including at least one or more information among audio information, facial expression information, facial temperature information, eye movement information, pulse information, heart rate information, respiratory information, and blood pressure information. Acquired,
The control unit may convert the biometric information into an emotion value, and calculate the sum of the emotion values in consideration of the converted emotion value.

また上記の対話システムにおいて、前記応答文の出力先である出力部を備えるようにしてもよい。   In the above interactive system, an output unit that is an output destination of the response sentence may be provided.

また本発明の対話プログラムは、上記の何れかに記載の対話システムを稼働させるものである。   The interactive program of the present invention operates any of the interactive systems described above.

本発明によると、知識や経験値を必要とせず、対象者の状態を高精度で分析し、的確な応答を生成することができる対話システム及び対話プログラムを提供することができる。   According to the present invention, it is possible to provide a dialogue system and a dialogue program that do not require knowledge and experience values, can analyze the state of a subject with high accuracy, and generate an accurate response.

本発明の一実施形態の対話システムの構成を示すブロック図である。It is a block diagram which shows the structure of the dialogue system of one Embodiment of this invention. 本発明の一実施形態の対話システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the dialogue system of one Embodiment of this invention. 本発明の一実施形態の個人特性マスタの一例である。It is an example of the personal characteristic master of one Embodiment of this invention. 本発明の一実施形態の感情語マスタの一例である。It is an example of the emotion word master of one Embodiment of this invention. 本発明の一実施形態の反転語マスタの一例である。It is an example of the inversion word master of one Embodiment of this invention. 本発明の一実施形態の感情状態の変化を示すトレリス線図の一例である。It is an example of the trellis diagram which shows the change of the emotional state of one Embodiment of this invention. 本発明の一実施形態の感情状態の変化を示すトレリス線図の一例である。It is an example of the trellis diagram which shows the change of the emotional state of one Embodiment of this invention. 本発明の一実施形態の応答マスタの一例である。It is an example of the response master of one Embodiment of this invention.

図1は、本発明の一実施形態の対話システムの構成を示すブロック図である。対話システム10は、インターネットなどの通信ネットワーク11に、サーバ装置などデータの蓄積及び演算が可能な中央装置12と、パーソナルコンピューターなどの端末装置13、14と、携帯電話機などの携帯端末装置15、16と、文字列化装置26が接続されて構成される。中央装置12及び端末装置13、14には、それぞれプリンターなどの印刷装置17〜19が接続されている。また、端末装置13、14には、カメラ20、23、マイク21、24、スピーカー22、25が接続されている。   FIG. 1 is a block diagram showing a configuration of an interactive system according to an embodiment of the present invention. The dialogue system 10 includes a central device 12 capable of storing and calculating data, such as a server device, a terminal device 13, 14 such as a personal computer, and a mobile terminal device 15, 16 such as a mobile phone, in a communication network 11 such as the Internet. The character string converting device 26 is connected. Printing devices 17 to 19 such as printers are connected to the central device 12 and the terminal devices 13 and 14, respectively. Further, cameras 20 and 23, microphones 21 and 24, and speakers 22 and 25 are connected to the terminal devices 13 and 14.

各端末装置13、14及び携帯端末装置15、16は、キーやタッチパネルなどからなる入力部13a、14a、15a、16aと、文字や画像を表示する液晶表示装置などからなる出力部13b、14b、15b、16bとを備えている。また、携帯端末装置15、16は、カメラ15c、16c、マイク15d、16d、スピーカー15e、16eも備えている。ここで、入力部は文字を入力する文字入力部としての役割がある。また、マイクは対象者の声を検出する音声入力部としての役割がある。また、カメラ及びマイクは生体情報を検知するセンサーとしての役割がある。生体情報は、例えば、対象者が発した言葉による音声情報、表情情報、顔面温度情報、眼球運動情報、脈拍情報、心拍情報、呼吸情報、血圧情報の中の少なくとも1以上の情報である。   Each of the terminal devices 13 and 14 and the mobile terminal devices 15 and 16 includes input units 13a, 14a, 15a, and 16a including keys and a touch panel, and output units 13b and 14b including a liquid crystal display device that displays characters and images. 15b and 16b. The mobile terminal devices 15 and 16 also include cameras 15c and 16c, microphones 15d and 16d, and speakers 15e and 16e. Here, the input unit serves as a character input unit for inputting characters. The microphone also serves as a voice input unit that detects the voice of the subject. In addition, the camera and the microphone serve as sensors that detect biological information. The biological information is, for example, at least one or more information among speech information, facial expression information, facial temperature information, eye movement information, pulse information, heart rate information, respiratory information, and blood pressure information based on words uttered by the subject.

文字列化装置26は、音声情報を文字列化する装置である。なお、音声情報を文字列化する技術は、従来から開発されている技術を適宜採用できる。   The character string converting device 26 is a device that converts voice information into a character string. In addition, the technique developed conventionally can be employ | adopted suitably for the technique which makes speech information into a character string.

図1の構成では、中央装置12に対話プログラムが格納されており、端末装置13、14及び携帯端末装置15、16は中央装置12との間で情報を送受信して出力部やスピーカーから出力したり、入力部やカメラやマイクから入力された情報を中央装置12等へ送信したりする。   In the configuration of FIG. 1, a dialogue program is stored in the central device 12, and the terminal devices 13 and 14 and the mobile terminal devices 15 and 16 transmit and receive information to and from the central device 12 and output from the output unit or speakers. Or information input from the input unit, camera, or microphone is transmitted to the central device 12 or the like.

なお、印刷装置17〜19は必ずしも必要ではない。また、端末装置13、14及び携帯端末装置15、16は、何れか1つ以上あればよく、中央装置12は例えば演算装置(制御部12b)とデータベース(記憶部12a)と取得部12cとが別々であるなど複数の装置が連携しているものでもよい。また本発明のシステムは、必ずしも図1のような通信ネットワーク11で繋がった複数の装置から構成される必要はなく、通信ネットワーク11なしで直接装置同士を接続した構成であってもよいし、1つの装置内に全ての構成が組み込まれていてもよい。   Note that the printing devices 17 to 19 are not necessarily required. The terminal devices 13 and 14 and the mobile terminal devices 15 and 16 may be any one or more, and the central device 12 includes, for example, an arithmetic device (control unit 12b), a database (storage unit 12a), and an acquisition unit 12c. A plurality of devices may be linked such as being separate. Further, the system of the present invention does not necessarily need to be configured by a plurality of devices connected by the communication network 11 as shown in FIG. 1, and may have a configuration in which the devices are directly connected without the communication network 11. All the configurations may be incorporated in one apparatus.

次に、対話システム10における応答文の自動生成について説明する。対話システム10によれば、個人(対象者)毎に現在の状況に適した応答文が作成される。   Next, automatic response sentence generation in the dialogue system 10 will be described. According to the dialogue system 10, a response sentence suitable for the current situation is created for each individual (subject).

図2は、対話システム10の動作を示すフローチャートである。図中の破線はデータの流れを示している。ここでは、リハビリ中のNさん(対象者)が対話システム10を利用する場合を例に説明する。   FIG. 2 is a flowchart showing the operation of the dialogue system 10. The broken lines in the figure indicate the data flow. Here, the case where Mr. N (subject) who is rehabilitating uses the dialogue system 10 will be described as an example.

まず、例えば、Nさんが起床したときなど、Nさんの活動が始まったときに、ベッドの近くに設置されたカメラ20がNさんの動きを撮影し、端末装置13を介して中央装置12へデータが送信されることで起床したことが検知される。また例えば、起床したNさんが携帯端末装置15の入力部15a等を操作してシステムにチェックインすることで中央装置12へデータが送信され起床したことが検知される。チェックインにはGPS(Global Positioning System)で検出された対象者の位置を用いることもできる。このようなNさんの活動のデータは、中央装置12の記憶部12aに記憶される。   First, for example, when Mr. N's activities start, such as when Mr. N wakes up, the camera 20 installed near the bed takes a picture of Mr. N's movement and passes through the terminal device 13 to the central device 12. It is detected that the user has woken up by transmitting data. In addition, for example, when Mr. N who gets up operates the input unit 15a of the mobile terminal device 15 and checks in the system, the data is transmitted to the central device 12 and is detected to be up. The position of the subject detected by GPS (Global Positioning System) can also be used for check-in. The data of Mr. N's activity is stored in the storage unit 12a of the central device 12.

上記のように起床を検知したりチェックインが行われたりすると、図2のフローチャートの処理を開始する。そして、ステップS10へ進んで中央装置12の制御部12bは、質問文を生成し、端末装置15の出力部13bに表示させるようにする。質問文は予め記憶部12aに記憶されている複数の例文から適当に選択されうる。なお、ステップS10は必ずしも必要ではなく、以下のステップS11から開始してもよい。   When waking up is detected or check-in is performed as described above, the processing of the flowchart of FIG. 2 is started. And it progresses to step S10, and the control part 12b of the central apparatus 12 produces | generates a question sentence, and makes it display on the output part 13b of the terminal device 15. FIG. The question sentence can be appropriately selected from a plurality of example sentences previously stored in the storage unit 12a. Note that step S10 is not always necessary, and may be started from the following step S11.

ステップS10からはステップS11へ進んで、Nさんによって携帯端末装置15の入力部15a等が操作され、又はマイクを通じてテキスト又は音声が入力されると、入力されたデータに応じてステップS12又はステップS13へ進む。入力されたデータがテキストデータである場合、ステップS12へ進んでNさんが操作した携帯端末装置15等から中央装置12へテキストデータが送信され、ステップS14へ進んで中央装置12の取得部12cがそのテキストデータを入力文として取得する。   From step S10, the process proceeds to step S11. When the user operates the input unit 15a of the mobile terminal device 15 or the like or inputs text or voice through the microphone, step S12 or step S13 is performed according to the input data. Proceed to If the input data is text data, the process proceeds to step S12, the text data is transmitted from the mobile terminal device 15 or the like operated by Mr. N to the central apparatus 12, and the process proceeds to step S14 where the acquisition unit 12c of the central apparatus 12 The text data is acquired as an input sentence.

一方、入力されたデータが音声データである場合、ステップS13へ進んでNさんが発した音声を拾ったマイク21等から文字列化装置26へ音声データが送信され、ステップS15へ進んで文字列化装置26で音声データがテキストデータに変換され、ステップS14へ進んで中央装置12の取得部12cがその変換されたテキストデータを入力文として取得する。   On the other hand, if the input data is voice data, the process proceeds to step S13, where the voice data is transmitted from the microphone 21 or the like that picks up the voice uttered by Mr. N to the character string forming device 26, and the process proceeds to step S15. The voice data is converted into text data by the converting device 26, and the process proceeds to step S14 where the acquisition unit 12c of the central device 12 acquires the converted text data as an input sentence.

ステップS14からはステップS16及びステップS17へ進む。ステップS16では制御部12bが入力文を品詞に分解し、分解した文から必要な語句を抽出し、その語句に所定の感情値を対応させて記憶部12aに格納されている個人特性マスタに記憶する。この個人特性マスタは後で感情値の総和を算出する際に用いる。図3に個人特性マスタの一例を示す。対象者のID番号に対応して、単語の標準型、品詞情報、詳細な品詞の情報、感情値、記憶した日時が記されている。感情値は一律に0.5としているが、例えば単語や品詞に応じて異なる値を割り当ててもよい。記憶する語句は名詞又は動詞とすることが好ましい。   From step S14, the process proceeds to step S16 and step S17. In step S16, the control unit 12b decomposes the input sentence into parts of speech, extracts necessary words / phrases from the decomposed sentence, and associates predetermined emotion values with the words / phrases and stores them in the personal characteristic master stored in the storage unit 12a. To do. This personal characteristic master is used later when calculating the sum of emotion values. FIG. 3 shows an example of the personal characteristic master. Corresponding to the ID number of the subject, the standard type of the word, the part of speech information, the detailed part of speech information, the emotion value, and the stored date and time are written. Although the emotion value is uniformly set to 0.5, for example, a different value may be assigned according to a word or a part of speech. The words to be stored are preferably nouns or verbs.

一方、ステップS17では制御部12bが入力文から感情値の総和を算出する。記憶部12aには、感情語に応じた感情値が記された感情語マスタ、反転語に応じた感情値が記された反転語マスタが格納されており、この感情語マスタ及び反転語マスタと、先程の個人特性マスタとに基づいて入力文の感情値の総和を算出する。具体的には、入力文を品詞に分解し、それぞれの語句を各マスタで検索し、一致すればその感情値を読み出し、加算していくことで総和を算出する。なお、感情語マスタ、反転語マスタ、個人特性マスタを区別することなく、全てを感情語マスタに含めてもよい。   On the other hand, in step S17, the control unit 12b calculates the sum of emotion values from the input sentence. The storage unit 12a stores an emotion word master in which an emotion value according to an emotion word is recorded, and an inversion word master in which an emotion value according to an inversion word is recorded. The sum of emotion values of the input sentence is calculated based on the personal characteristic master. Specifically, the input sentence is decomposed into parts of speech, each phrase is searched with each master, and if they match, the emotion value is read and added to calculate the sum. In addition, you may include all in an emotion word master, without distinguishing an emotion word master, an inversion word master, and a personal characteristic master.

図4に感情語マスタの一例を示す。対象者のID番号に対応して、感情語、品詞情報、詳細品詞情報、感情値が記されている。図4では感情値がマイナスとなっているが、当然プラスのものも含まれる。   FIG. 4 shows an example of the emotion word master. Corresponding to the ID number of the subject, emotion words, part of speech information, detailed part of speech information, and emotion values are written. Although the emotion value is negative in FIG. 4, naturally the emotion value is also included.

図5に反転語マスタの一例を示す。対象者のID番号に対応して、反転語、品詞情報、詳細品詞情報、感情値が記されている。反転語は文章の意味を反対にする語であり、反転語を含む文章内の他の単語がポジティブな場合にはその文章をネガティブな意味に変化させ、一方、反転語を含む文章内の他の単語がネガティブな場合にはその文章をポジティブな意味に変化させる。   FIG. 5 shows an example of the inverted word master. Corresponding to the ID number of the subject, inversion words, part of speech information, detailed part of speech information, and emotion values are written. An inverted word is a word that reverses the meaning of a sentence.If another word in a sentence containing an inverted word is positive, it changes the sentence to a negative meaning, while another word in a sentence containing an inverted word If the word is negative, the sentence is changed to a positive meaning.

例えば、入力文が「今日はゴルフの予定がつぶれて退屈だ。」という内容であった場合、制御部12bはステップS17において、図3の個人特性マスタから「ゴルフ」に対応した感情値「0.5」、図5の反転語マスタから「つぶれる」に対応した感情値「−0.5」、図4の感情語マスタから「退屈」に対応した「−0.3」を抽出し、それらの総和を−0.3と算出する。なお、反転語が含まれる場合、図5のような感情値が記された反転語マスタを用いることに代えて、感情値の正負を逆転させるなどの処理を行ってもよい。   For example, if the input sentence is “Today, the golf schedule is crushed and boring.” In step S17, the control unit 12b determines in step S17 the emotion value “0” corresponding to “golf” from the personal characteristic master of FIG. .5 ”, the emotion value“ −0.5 ”corresponding to“ Crush ”from the inverted word master of FIG. 5, and“ −0.3 ”corresponding to“ boring ”from the emotion word master of FIG. Is calculated as -0.3. When an inverted word is included, instead of using an inverted word master in which an emotion value is written as shown in FIG. 5, processing such as reversing the sign of the emotion value may be performed.

なお、感情値の総和を計算する際に生体情報を加味してもよい。この場合、カメラやマイクで検知した生体情報を、生体情報と感情値とを対応させたマスタを用いて感情値に変換し、変換した感情値を加味(例えば加算)して感情値の総和を算出する。   Biometric information may be taken into account when calculating the sum of emotion values. In this case, the biometric information detected by the camera or the microphone is converted into an emotion value using a master in which the biometric information and the emotion value are associated, and the total of the emotion values is calculated by adding (for example, adding) the converted emotion values. calculate.

次に、ステップS17からステップS18へ進んで、算出した感情値の総和を記憶部12aの感情値の総和の履歴に記憶し、ステップS19へ進む。ステップS19で制御部12bは、記憶した感情値の総和から対象者の現在の感情状態を推定して軟判定する。本実施形態において、感情状態は経時変化するものとして取り扱い、ある時刻(例えば対象者が入力文を入力した時点)の感情状態はポジティブ、ニュートラル、ネガティブの何れかで表されるものとする。   Next, the process proceeds from step S17 to step S18, where the calculated sum of emotion values is stored in the history of the sum of emotion values in the storage unit 12a, and the process proceeds to step S19. In step S19, the control unit 12b makes a soft decision by estimating the current emotional state of the subject from the total of the stored emotion values. In this embodiment, the emotional state is handled as changing with time, and the emotional state at a certain time (for example, when the subject inputs an input sentence) is expressed as positive, neutral, or negative.

感情状態を軟判定するには、まず、感情値の総和を正規化する。これにより、感情値の総和を正規化した値Eは、-1≦E≦1となる。続いて、感情値の総和を正規化した値Eに応じて3つのパターンに当て嵌める。1つ目はθ≦|E|≦1(θ:閾値(正の値))の場合であり、感情状態はEが正ならばポジティブに、Eが負ならばネガティブに遷移したと判定する。2つ目は-θ<E<0の場合であり、感情状態は現状態を継続しているか、ニュートラル又はネガティブに遷移したと判定する。3つ目は0≦E<θの場合であり、感情状態は現状態を継続しているか、ニュートラル又はポジティブに遷移したと判定する。   To softly determine the emotional state, first, the summation of emotional values is normalized. Thus, the value E obtained by normalizing the sum of emotion values is −1 ≦ E ≦ 1. Then, it applies to three patterns according to the value E which normalized the sum total of the emotion value. The first is the case of θ ≦ | E | ≦ 1 (θ: threshold value (positive value)), and the emotional state is determined to be positive if E is positive and negative if E is negative. The second is a case where -θ <E <0, and it is determined that the emotional state continues the current state or has transitioned to neutral or negative. The third is a case of 0 ≦ E <θ, and it is determined that the emotional state continues the current state or has transitioned to neutral or positive.

そして、感情状態を特定するために、時刻kにおける各状態(S0, S1, S-1)のパスメトリック値Mk (Si)を用い、その計算式は、
Mk(S0) = max(Mk-1(S0)+ Lk 0→0, Mk-1(S1)+ Lk 1→0 , Mk-1(S-1)+ Lk -1→0
Mk(S1) = max(Mk-1(S0)+ Lk 0→1, Mk-1(S1)+ Lk 1→1 , Mk-1(S-1)+ Lk -1→1
Mk(S-1) = max(Mk-1(S0)+ Lk 0→-1, Mk-1(S1)+ Lk 1→-1 , Mk-1(S-1)+ Lk -1→-1
とする。
Then, in order to specify the emotional state, the path metric value M k (S i ) of each state (S 0 , S 1 , S −1 ) at time k is used, and the calculation formula is
M k (S 0 ) = max (M k-1 (S 0 ) + L k 0 → 0 , M k-1 (S 1 ) + L k 1 → 0 , M k-1 (S -1 ) + L k -1 → 0 )
M k (S 1 ) = max (M k-1 (S 0 ) + L k 0 → 1 , M k-1 (S 1 ) + L k 1 → 1 , M k-1 (S -1 ) + L k -1 → 1 )
M k (S -1 ) = max (M k-1 (S 0 ) + L k 0 → -1 , M k-1 (S 1 ) + L k 1 → -1 , M k-1 (S -1 ) + L k -1 → -1 )
And

上記Lk i→jは時刻kにおいて状態iから状態jに遷移する状態遷移確率に基づくブランチメトリック値であり、その計算式は、
Lk i→j= 1 / (-ln Pk i→j)
i:-1(ネガティブ)、0(ニュートラル)、1(ポジティブ)の何れか
Lk -1→-1:感情状態がネガティブから遷移しないブランチメトリック値
Lk -1→0:感情状態がネガティブからニュートラルへ遷移するブランチメトリック値
Lk -1→1:感情状態がネガティブからポジティブへ遷移するブランチメトリック値
Lk 0→-1:感情状態がニュートラルからネガティブへ遷移するブランチメトリック値
Lk 0→0:感情状態がニュートラルから遷移しないブランチメトリック値
Lk 0→1:感情状態がニュートラルからポジティブへ遷移するブランチメトリック値
Lk 1→-1:感情状態がポジティブからネガティブへ遷移するブランチメトリック値
Lk 1→0:感情状態がポジティブからニュートラルへ遷移するブランチメトリック値
Lk 1→1:感情状態がポジティブから遷移しないブランチメトリック値
Pk -1→1:感情状態がネガティブからポジティブへ遷移する確率
Pk -1→0:感情状態がネガティブからニュートラルへ遷移する確率
Pk -1→-1:感情状態がネガティブから遷移しない確率
Pk 0→1:感情状態がニュートラルからポジティブへ遷移する確率
Pk 0→0:感情状態がニュートラルから遷移しない確率
Pk 0→-1:感情状態がニュートラルからネガティブへ遷移する確率
Pk 1→1:感情状態がポジティブから遷移しない確率
Pk 1→0:感情状態がポジティブからニュートラルへ遷移する確率
Pk 1→-1:感情状態がポジティブからネガティブルへ遷移する確率
とする。
L k i → j is a branch metric value based on the state transition probability of transition from state i to state j at time k, and its calculation formula is
L k i → j = 1 / (-ln P k i → j )
i: Either -1 (negative), 0 (neutral), or 1 (positive)
L k -1 → -1 : Branch metric value where emotional state does not change from negative
L k -1 → 0 : Branch metric value where the emotional state transitions from negative to neutral
L k -1 → 1 : Branch metric value where emotional state transitions from negative to positive
L k 0 → -1 : Branch metric value where emotional state transitions from neutral to negative
L k 0 → 0 : Branch metric value where emotional state does not change from neutral
L k 0 → 1 : Branch metric value where emotional state transitions from neutral to positive
L k 1 → -1 : Branch metric value where emotional state transitions from positive to negative
L k 1 → 0 : Branch metric value where emotional state transitions from positive to neutral
L k 1 → 1 : Branch metric value where emotional state does not change from positive
P k -1 → 1 : Probability of emotional state transition from negative to positive
P k -1 → 0 : Probability of emotional state transition from negative to neutral
P k -1 → -1 : Probability that emotional state does not change from negative
P k 0 → 1 : Probability of emotional state transitioning from neutral to positive
P k 0 → 0 : Probability that emotional state does not change from neutral
P k 0 → -1 : Probability of emotional state transitioning from neutral to negative
P k 1 → 1 : Probability that emotional state does not change from positive
P k 1 → 0 : Probability of emotional state transitioning from positive to neutral
P k 1 → -1 : The probability that the emotional state changes from positive to negative.

そして、状態遷移毎(例えば、入力文が入力された時刻毎)にブランチメトリック値Lk i→jを加算していく。このとき、パスがマージする場合は、それらの値の中から最大値を選択する。また、複数のパスが算出されている場合は、パスが収束した段階で、各時刻における最大のパスメトリック値を有する感情状態を選択することで1つの繋がったパスである生き残りパスを決定する。また、パスが収束しない場合は、適宜トランケイト(truncate)してその時点での最大パスメトリックのパスを選択すればよい。例えば、2〜8回の状態遷移でトランケイトすればよく、3〜6回であることが好ましく、5回程度がより好ましい。あるいは、各状態のパスメトリックを常に相対比較し、他に比べ数%以上大きくなったときにトランケイトして強制判定してもよい。これにより、パスが収束した段階又はトランケイトした段階で過去の時刻における感情状態の判定が確定する。そして、生き残りパスが決定した時点又はトランケイトした時点で一旦フェーズを終了し、ブランチメトリック値を加算していった値を0に設定するとよい。 Then, the branch metric value L k i → j is added for each state transition (for example, every time the input sentence is input). At this time, if the paths merge, the maximum value is selected from those values. If a plurality of paths are calculated, a surviving path that is one connected path is determined by selecting an emotional state having the maximum path metric value at each time when the paths converge. If the path does not converge, it is sufficient to truncate appropriately and select the path with the maximum path metric at that time. For example, it may be truncated at 2 to 8 state transitions, preferably 3 to 6 times, more preferably about 5 times. Alternatively, the path metrics in each state may always be relatively compared, and may be forcibly determined by truncating when they are several percent larger than others. Thereby, the determination of the emotional state at the past time is finalized at the stage where the path converges or is truncated. Then, when the surviving path is determined or truncated, the phase is temporarily ended, and a value obtained by adding the branch metric value may be set to 0.

ここで、上記の感情状態の判定を具体例に沿って説明する。状態遷移のパス生成のロジックは、例えば図6〜図7のようなトレリス線図で表すことができる。ここでは、閾値θを例えば0.25とする。また、感情状態が状態遷移しない確率を0.5、ニュートラルからポジティブ又はネガティブへ状態遷移する確率及び逆にポジティブ又はネガティブからニュートラルへ状態遷移する確率を0.4、ポジティブからネガティブへ状態遷移する確率及び逆にネガティブからポジティブへ状態遷移する確率を0.1とする。   Here, the determination of the emotional state will be described along a specific example. The logic of path transition for state transition can be represented by a trellis diagram as shown in FIGS. Here, the threshold θ is set to 0.25, for example. In addition, the probability that the emotional state does not change state is 0.5, the probability that state transition is from neutral to positive or negative, and conversely, the probability that state transition is from positive or negative to neutral is 0.4, and the probability that state transition is from positive to negative On the contrary, the probability of state transition from negative to positive is set to 0.1.

上記のように各状態遷移の確率を定めることにより、パスの値(Lk i→j)が次のように決まる。
Lk 0→0 = Lk 1→1 = Lk -1→-1 = 1 / (-ln 0.5) = 1.43
Lk 0→1 = Lk 1→0 = Lk 0→-1 = Lk -1→0 = 1 / (-ln 0.4) = 1.11
Lk 1→-1 = Lk -1→1 = 1 / (-ln 0.1) = 0.43
By determining the probability of each state transition as described above, the path value (L k i → j ) is determined as follows.
L k 0 → 0 = L k 1 → 1 = L k -1 → -1 = 1 / (-ln 0.5) = 1.43
L k 0 → 1 = L k 1 → 0 = L k 0 → -1 = L k -1 → 0 = 1 / (-ln 0.4) = 1.11
L k 1 → -1 = L k -1 → 1 = 1 / (-ln 0.1) = 0.43

以下、図6を例に説明する。まず、初期状態を時刻が0、感情状態がニュートラルNt、パスの初期値が0である。そして、時刻1において入力文が入力され、感情値の総和を正規化した値E(正規化感情値)が+0.5であった場合、0.25≦|E|≦1かつEが正であるので、感情状態はポジティブに遷移したと判定する。つまり、ニュートラルからポジティブへ状態遷移したことになる。このとき状態遷移毎にブランチメトリック値Lkを加算していった値は、0+1.11=1.11となる。 Hereinafter, FIG. 6 will be described as an example. First, the initial state is time 0, the emotional state is neutral Nt, and the pass initial value is 0. When an input sentence is input at time 1 and the value E (normalized emotion value) obtained by normalizing the sum of emotion values is +0.5, 0.25 ≦ | E | ≦ 1 and E is positive. It is determined that the emotional state has changed to positive. In other words, the state transition is from neutral to positive. At this time, the value obtained by adding the branch metric value L k for each state transition is 0 + 1.11 = 1.11.

続いて、時刻2において入力文が入力され、正規化感情値Eが−0.5であった場合、0.25≦|E|≦1かつEが負であるので、感情状態はネガティブに遷移したと判定する。つまり、ポジティブからネガティブへ遷移したことになる。このとき状態遷移毎にブランチメトリック値Lkを加算していった値は、1.11+0.43=1.55となる。 Subsequently, when an input sentence is input at time 2 and the normalized emotion value E is −0.5, since 0.25 ≦ | E | ≦ 1 and E is negative, the emotional state transitions to negative. judge. In other words, it has transitioned from positive to negative. At this time, the value obtained by adding the branch metric value L k for each state transition is 1.11 + 0.43 = 1.55.

続いて、時刻3において入力文が入力され、正規化感情値Eが−0.3であった場合、0.25≦|E|≦1かつEが負であるので、感情状態はネガティブに遷移したと判定する。つまり、ネガティブから遷移しないことになる。このとき状態遷移毎にブランチメトリック値Lkを加算していった値は、1.55+1.43=2.97となる。 Subsequently, when an input sentence is input at time 3 and the normalized emotion value E is −0.3, since 0.25 ≦ | E | ≦ 1 and E is negative, the emotional state transitions to negative. judge. In other words, there is no transition from negative. At this time, the value obtained by adding the branch metric value L k for each state transition is 1.55 + 1.43 = 2.97.

続いて、時刻4において入力文が入力され、正規化感情値Eが−0.1であった場合、-0.25<E<0であるので、感情状態は現状態を継続しているか、ニュートラル又はネガティブに遷移したと判定する。つまり、ネガティブからニュートラルへ遷移したか、ネガティブから遷移しないことになる。このとき状態遷移毎にブランチメトリック値Lkを加算していった値は、ニュートラルへ遷移したとすれば2.97+1.11=4.08となり、ネガティブから遷移しないとすれば2.97+1.43=4.4となる。よって、時刻4の時点では感情状態は未確定である。 Subsequently, when an input sentence is input at time 4 and the normalized emotion value E is −0.1, since −0.25 <E <0, the emotional state continues the current state, It is determined that the transition is negative. That is, the transition from negative to neutral or no transition from negative. At this time, the value obtained by adding the branch metric value L k for each state transition is 2.97 + 1.11 = 4.08 if the transition is to neutral, and 2.97 + 1.43 if the transition is not from negative. = 4.4. Therefore, the emotional state is uncertain at time 4.

続いて、時刻5において入力文が入力され、正規化感情値Eが+0.2であった場合、0≦E<0.25であるので、感情状態は現状態を継続しているか、ニュートラル又はポジティブに遷移したと判定する。つまり、ネガティブから遷移しないか、ネガティブからニュートラルへ遷移したか、ネガティブからポジティブへ遷移したか、ニュートラルから遷移しないか、ニュートラルからポジティブへ遷移したことになり、計5つのパスをとりうる。このとき状態遷移毎にブランチメトリック値Lkを加算していった値は、ネガティブから遷移しないとすれば、4.4+1.43=5.83となる。また、ニュートラルへ遷移する場合は、2つのパスがあり、ネガティブからニュートラルへ遷移したとすれば4.4+1.11=5.51となり、ニュートラルから遷移しないとすれば4.08+1.43=5.51となる。そして、2つの値のうち最大値をとるが、ここではどちらも同じ5.51である。また、ポジティブへ遷移する場合は、2つのパスがあり、ネガティブからポジティブへ遷移したとすれば4.4+0.43=4.83となり、ニュートラルからポジティブへ遷移したとすれば4.08+1.11=5.19となる。そして、2つの値のうち最大値をとって5.19とする。よって、時刻5の時点では感情状態は未確定である。 Subsequently, when an input sentence is input at time 5 and the normalized emotion value E is +0.2, since 0 ≦ E <0.25, the emotional state continues the current state, or is neutral or positive. It is determined that a transition has occurred. In other words, there is no transition from negative, transition from negative to neutral, transition from negative to positive, transition from neutral, transition from neutral to positive, and a total of five paths can be taken. At this time, the value obtained by adding the branch metric value L k for each state transition is 4.4 + 1.43 = 5.83 if no transition is made from negative. In addition, when transitioning to neutral, there are two paths. If the transition is from negative to neutral, 4.4 + 1.11 = 5.51, and if not transitioning from neutral, 4.08 + 1.43 = 5.5. 51. Then, the maximum value is taken out of the two values, both of which are the same 5.51 here. In the case of transition from positive to negative, there are two paths. If the transition from negative to positive is 4.4 + 0.43 = 4.83, and if the transition is from neutral to positive, 4.08 + 1.11 = 5.19. The maximum value of the two values is taken as 5.19. Therefore, the emotional state is not yet determined at time 5.

続いて、時刻6において入力文が入力され、正規化感情値Eが+0.5であった場合、0.25≦|E|≦1かつEが正であるので、感情状態はポジティブに遷移したと判定する。つまり、ネガティブからポジティブへ遷移したか、ニュートラルからポジティブへ遷移したか、ポジティブから遷移しないことになり、ポジティブへパスが収束したことになる。このとき状態遷移毎にブランチメトリック値Lkを加算していった値は、ネガティブからポジティブへ遷移したとすれば5.83+0.43=6.26となり、ニュートラルからポジティブへ遷移したとすれば5.51+1.11=6.62となり、ポジティブから遷移しないとすれば5.19+1.43=6.62となる。そして、3つのうち最大値をとって6.62とする。そして、時刻6でパスが収束したので、生き残りパスを決定する。すなわち、時刻5においてブランチメトリック値Lkを加算していった値(5.51又は5.19又は5.83)の最大値は5.83であるので、その値を有するネガティブを時刻5における感情状態と判定する。また、時刻4から時刻5のネガティブへ遷移するパスは、時刻4のネガティブからのパスだけなので、時刻4における感情状態はネガティブであると判定できる。よって、時刻6の時点で生き残りパスが決定するので時刻4〜6の感情状態が確定する。生き残りパスが確定したので、時刻8で一旦フェーズを終了し、ブランチメトリック値Lkを加算していった値を0に設定する。 Subsequently, when an input sentence is input at time 6 and the normalized emotion value E is +0.5, since 0.25 ≦ | E | ≦ 1 and E is positive, it is determined that the emotion state has changed to positive. To do. In other words, the transition from negative to positive, transition from neutral to positive, or no transition from positive, and the path has converged to positive. At this time, the value obtained by adding the branch metric value L k for each state transition is 5.83 + 0.43 = 6.26 if the transition is from negative to positive, and 5 if the transition is from neutral to positive. .51 + 1.11 = 6.62, and 5.19 + 1.43 = 6.62 if there is no transition from positive. The maximum value among the three is taken as 6.62. Since the path has converged at time 6, a surviving path is determined. That is, since the maximum value (5.51 or 5.19 or 5.83) obtained by adding the branch metric value L k at time 5 is 5.83, the negative having the value is determined at time 5. Judged as emotional state. Further, since the path from time 4 to time 5 is the only path from time 4 to negative, it can be determined that the emotional state at time 4 is negative. Therefore, since the surviving path is determined at time 6, the emotional state at times 4 to 6 is determined. Since the surviving path is determined, the phase is temporarily terminated at time 8 and the value obtained by adding the branch metric value L k is set to 0.

続いて、時刻7において入力文が入力され、正規化感情値Eが−0.9であった場合、0.25≦|E|≦1かつEが負であるので、感情状態はネガティブに遷移したと判定する。つまり、ポジティブからネガティブへ状態遷移したことになる。このとき状態遷移毎にブランチメトリック値Lkを加算していった値は、0+0.43=0.43となる。 Subsequently, when an input sentence is input at time 7 and the normalized emotion value E is −0.9, since 0.25 ≦ | E | ≦ 1 and E is negative, the emotional state transitions to negative. judge. That is, the state transition is from positive to negative. At this time, the value obtained by adding the branch metric value L k for each state transition is 0 + 0.43 = 0.43.

続いて、時刻8において入力文が入力され、正規化感情値Eが+0.7であった場合、0.25≦|E|≦1かつEが正であるので、感情状態はポジティブに遷移したと判定する。つまり、ネガティブからポジティブへ状態遷移したことになる。このとき状態遷移毎にブランチメトリック値Lkを加算していった値は、0.43+0.43=0.86となる。このようにして入力文が入力された各時刻における感情状態を判定していく。 Subsequently, when an input sentence is input at time 8 and the normalized emotion value E is +0.7, since 0.25 ≦ | E | ≦ 1 and E is positive, it is determined that the emotion state has changed to positive. To do. That is, the state transition is from negative to positive. At this time, the value obtained by adding the branch metric value L k for each state transition is 0.43 + 0.43 = 0.86. In this way, the emotional state at each time when the input sentence is input is determined.

また、図7では、時刻4〜8の5回に亘って感情状態が未確定のまま継続したので、時刻8においてトランケイトしてその時点での最大パスメトリックのパスを選択している。これにより、時刻4〜8の感情状態がネガティブであることが確定している。   In FIG. 7, since the emotional state has been undecided for five times from time 4 to time 8, the path is truncated at time 8 and the path with the maximum path metric at that time is selected. Thereby, it is determined that the emotional state at times 4 to 8 is negative.

図2の説明に戻り、ステップS19からはステップS20へ進んで、感情状態が確定したか否かを判別し、未確定の場合はステップS21へ、確定している場合はステップS22へ進む。つまり、図6で説明したように時刻4及び5の時点では感情状態が未確定であると判別してステップS21へ、時刻1〜3及び6〜8の時点では感情状態が確定していると判別してステップS22へ進む。   Returning to the description of FIG. 2, the process proceeds from step S19 to step S20 to determine whether or not the emotional state has been determined. If it has not been determined, the process proceeds to step S21, and if it has been determined, the process proceeds to step S22. That is, as described in FIG. 6, it is determined that the emotional state is not yet determined at the time points 4 and 5, and the process proceeds to step S <b> 21, and the emotional state is determined at the time points 1 to 3 and 6 to 8. It discriminate | determines and progresses to step S22.

ステップS20からステップS21へ進んだ場合は、制御部12bが記憶部12aに格納されている質問文を読み出し、ステップS10に戻ってその質問文を端末装置15の出力部13bに表示させるようにする。なお、質問文は後述する対話アルゴリズムを用いて生成してもよい。   When the process proceeds from step S20 to step S21, the control unit 12b reads the question text stored in the storage unit 12a, and returns to step S10 to display the question text on the output unit 13b of the terminal device 15. . Note that the question sentence may be generated using a dialogue algorithm described later.

一方、ステップS20からステップS22へ進んだ場合は、感情状態の経時変化を感情状態履歴として記憶部12aに記憶する。すなわち、確定した感情状態を時刻に対応させて感情状態履歴として記憶する。そして、ステップS23へ進んで感情状態履歴を対話アルゴリズムで処理する。すなわち、制御部12bが感情状態履歴に基づき、応答マスタから文字列を複数組読み出して繋げることで応答文を生成する。例えば、制御部12bが感情状態履歴から直近の所定数の感情状態を読み出し、その組み合わせに応じて応答マスタから読み出す複数組の文字列を決定する。決定のアルゴリズムとしては、例えば、組み合わせの順序や各感情状態の回数や感情状態の起伏の程度などを考慮することができる。   On the other hand, when the process proceeds from step S20 to step S22, the temporal change of the emotional state is stored in the storage unit 12a as the emotional state history. That is, the determined emotional state is stored as an emotional state history corresponding to the time. And it progresses to step S23 and processes an emotional state log | history with a dialogue algorithm. That is, the control unit 12b generates a response sentence by reading and connecting a plurality of sets of character strings from the response master based on the emotional state history. For example, the control unit 12b reads a predetermined number of recent emotion states from the emotion state history, and determines a plurality of sets of character strings to be read from the response master according to the combination. As the determination algorithm, for example, the order of combination, the number of emotion states, the degree of undulation of emotion states, and the like can be considered.

応答マスタは、応答文を生成するためのフレーズ(文字列)が複数記されたものであり、記憶部12aに記憶されている。各フレーズは種別毎にサブマスタに分けておいてもよい。図8に応答マスタの一例を示す。サブマスタとして、相槌マスタ、促進マスタ、具体化マスタ、共感マスタ、解釈マスタ等があり、各サブマスタに複数のフレーズが記されている。例えば、相槌マスタには、フレーズ1として「おお!」が、フレーズ2として「ほおー。」が、フレーズ3として「おー。」等が記されている。   The response master describes a plurality of phrases (character strings) for generating a response sentence, and is stored in the storage unit 12a. Each phrase may be divided into submasters for each type. FIG. 8 shows an example of the response master. Submasters include a conflict master, promotion master, materialization master, empathy master, interpretation master, and the like, and a plurality of phrases are written in each submaster. For example, in the master master, “Oh!” Is written as the phrase 1, “Hoo.” Is written as the phrase 2, “Oh.” Is written as the phrase 3, and the like.

例えば、直近の5回の感情状態に応じて応答文を生成する場合、その組み合わせの順序や各感情状態の回数や感情状態の起伏の程度などを解析し、どのサブマスタのどのフレーズをどういう順序で繋げて応答文を生成するかを決定する。その結果、例えば、相槌マスタのフレーズ3+共感マスタのフレーズ3+具体化マスタのフレーズ2をこの順序で繋げると決定した場合、それらのフレーズを読み出して「おー。大変だね。具体的にはどうだったかな?」という応答文を生成する。   For example, when generating a response sentence according to the latest five emotional states, analyze the order of the combination, the number of each emotional state, the degree of undulation of the emotional state, etc., and which submaster of which phrase in what order Decide whether to create a response sentence by connecting. As a result, for example, if it is determined that phrase 3 of the master master + phrase 3 of the sympathy master + phrase 2 of the materialization master are connected in this order, these phrases are read out and “Oh. A response sentence is generated.

なお、応答文において入力文中の語を用いてオウム返しするフレーズがある場合は、個人特性マスタから適宜読み出して応答文中に挿入するものとする。例えば、「週末はゴルフに行くんだよね。」という入力文に対して「おお!ゴルフですね。それはいいですね!」という応答文を生成する場合に、「ゴルフ」を個人特性マスタから読み出して挿入する。   If there is a phrase that returns a parrot using a word in the input sentence in the response sentence, it is appropriately read from the personal characteristic master and inserted into the response sentence. For example, when generating a response sentence “Oh! Golf. That's good!” For the input sentence “Go on golf on weekends”, read “Golf” from the personal characteristics master. Insert.

ステップS23からはステップS10へ進んで、Nさんが操作している携帯端末装置15の出力部15bに応答文を表示させる。なお、応答文の出力先はスピーカー15eであってもよい。つまり、応答文をスピーカー15eから音声で出力してもよい。また、表示と音声を両方出力してもよい。出力する文字列の音声への変換は文字列化装置26を用いて行うことができる。   From step S23, it progresses to step S10 and a response sentence is displayed on the output part 15b of the portable terminal device 15 which Mr. N is operating. Note that the output destination of the response sentence may be the speaker 15e. That is, the response sentence may be output by voice from the speaker 15e. Further, both display and sound may be output. Conversion of the character string to be output to speech can be performed using the character string converting device 26.

そして、応答文を表示した後、ステップS11において対象者からの次の入力がない場合に本フローチャートを終了するようにしてもよい。また、対象者が終了を入力した場合や対象者が就寝したことを検知した場合に本フローチャートを終了するようにしてもよい。また、ステップS23の処理によって応答文を生成しないという処理結果の場合に本フローチャートを終了するようにしてもよい。   And after displaying a response sentence, you may make it complete | finish this flowchart, when there is no next input from a subject in step S11. Further, this flowchart may be ended when the subject inputs the end or when it is detected that the subject has gone to bed. In addition, in the case of a processing result that a response sentence is not generated by the processing in step S23, this flowchart may be ended.

このように、自動的に応答を出力する対話システムは、知識や経験値を必要とせず、対象者の状態を高精度で分析し、的確な応答を生成して出力することができる。よって、対象者は端末装置を通じてあたかも誰かと対話しているように感じる。   Thus, the dialogue system that automatically outputs a response does not require knowledge and experience values, and can analyze the state of the subject with high accuracy and generate and output an accurate response. Therefore, the subject feels as if he / she is interacting with someone through the terminal device.

なお、上記の対話内容(入力文、応答文、質問文)は中央装置12及び/又は対象者が操作している端末装置に記憶するようにしてもよい。これにより、後から対話の履歴を確認することができる。   The dialogue contents (input sentence, response sentence, question sentence) may be stored in the central device 12 and / or the terminal device operated by the subject. As a result, the history of dialogue can be confirmed later.

次に、感情状態を軟判定する他の手法について説明する。図2のステップS19の処理を以下の処理に置き換えることができる。   Next, another method for softly determining the emotional state will be described. The processing in step S19 in FIG. 2 can be replaced with the following processing.

制御部12bは、記憶した感情値の総和から対象者の現在の感情状態を推定して軟判定する。ここで、感情状態は経時変化するものとして取り扱い、ある時刻(例えば対象者が入力文を入力した時点)の感情状態はポジティブ、ニュートラル、ネガティブからなるノードの比率で表されるものとする。   The controller 12b makes a soft decision by estimating the current emotional state of the subject from the sum of the stored emotion values. Here, it is assumed that the emotional state changes over time, and the emotional state at a certain time (for example, when the subject inputs an input sentence) is represented by the ratio of nodes consisting of positive, neutral, and negative.

感情状態を軟判定するには、まず、感情値の総和を正規化する。これにより、感情値の総和を正規化した値Eは、-1≦E≦1となる。続いて、感情値の総和を正規化した値Eに応じて3つのパターンに当て嵌める。1つ目はθ≦|E|≦1(θ:閾値(正の値))の場合であり、感情状態はEが正ならばポジティブに、Eが負ならばネガティブに遷移したと判定する。2つ目は-θ<E<0の場合であり、感情状態は現状態を継続しているとともに、ニュートラル及びネガティブに遷移したと判定する。3つ目は0≦E<θの場合であり、感情状態は現状態を継続しているとともに、ニュートラル及びポジティブに遷移したと判定する。   To softly determine the emotional state, first, the summation of emotional values is normalized. Thus, the value E obtained by normalizing the sum of emotion values is −1 ≦ E ≦ 1. Then, it applies to three patterns according to the value E which normalized the sum total of the emotion value. The first is the case of θ ≦ | E | ≦ 1 (θ: threshold value (positive value)), and the emotional state is determined to be positive if E is positive and negative if E is negative. The second is a case where -θ <E <0, and it is determined that the emotional state continues the current state and has transitioned to neutral and negative. The third is a case of 0 ≦ E <θ, and it is determined that the emotional state continues the current state and has transitioned to neutral and positive.

そして、感情状態を特定するために、時刻kにおける感情状態に占める各ノードの比率を用い、その計算式は、
Rk i=Mk(Si)/(Mk(S0) + Mk (S1) + Mk (S-1))
i:-1(ネガティブ)、0(ニュートラル)、1(ポジティブ)の何れか
Rk i:時刻kにおける感情状態に占める各ノードの比率
Mk (Si):時刻kにおける感情状態のパスメトリック値
とする。
And in order to identify the emotional state, using the ratio of each node occupying the emotional state at time k, the calculation formula is
R k i = M k (S i ) / (M k (S 0 ) + M k (S 1 ) + M k (S -1 ))
i: Either -1 (negative), 0 (neutral), or 1 (positive)
R k i : Ratio of each node in the emotional state at time k
M k (S i ): The path metric value of the emotional state at time k.

上記Mk (Si)の計算式は、下記の(i)、(ii)、(iii)とする。
(i) Mk (S0) = max(Mk-1(S0)+ Lk 0→0, Mk-1(S1)+ Lk 1→0 , Mk-1(S-1)+ Lk -1→0
(ii) Mk (S1) = max(Mk-1(S0)+ Lk 0→1, Mk-1(S1)+ Lk 1→1 , Mk-1(S-1)+ Lk -1→1
(iii) Mk (S-1) = max(Mk-1(S0)+ Lk 0→-1, Mk-1(S1)+ Lk 1→-1 , Mk-1(S-1)+ Lk -1→-1
The calculation formula of M k (S i ) is the following (i), (ii), and (iii).
(i) M k (S 0 ) = max (M k-1 (S 0 ) + L k 0 → 0 , M k-1 (S 1 ) + L k 1 → 0 , M k-1 (S -1 ) + L k -1 → 0 )
(ii) M k (S 1 ) = max (M k-1 (S 0 ) + L k 0 → 1 , M k-1 (S 1 ) + L k 1 → 1 , M k-1 (S -1 ) + L k -1 → 1 )
(iii) M k (S -1 ) = max (M k-1 (S 0 ) + L k 0 → -1 , M k-1 (S 1 ) + L k 1 → -1 , M k-1 ( S -1 ) + L k -1 → -1 )

そして、状態遷移毎(例えば、入力文が入力された時刻毎)に、感情状態を各ノードの比率Rk iで表す。例えば、感情状態を(ニュートラルであるらしい確率,ポジティブであるらしい確率,ネガティブであるらしい確率)で表すこととすると、ニュートラルであるらしい確率が40%、ポジティブであるらしい確率が50%、ネガティブであるらしい確率が10%の場合、(40%,50%,10%)と表すことができる。 Then, for each state transition (for example, every time the input sentence is input), the emotional state is represented by the ratio R k i of each node. For example, if the emotional state is expressed by (probability of being neutral, probability of being positive, probability of being negative), the probability of being neutral is 40%, the probability of being positive is 50%, and negative. If the probability is 10%, it can be expressed as (40%, 50%, 10%).

上記の感情状態の判定を、例えば、図6の時刻5を用いて説明する。時刻5において、ニュートラルのパスメトリック値M5(S0)が5.51、ポジティブのパスメトリック値M5(S1)が5.19、ネガティブのパスメトリック値M5(S-1)が5.83である。したがって、ΣM5=5.51+5.19+5.83=16.53であり、ニュートラルであるらしい確率が5.51/16.53≒0.33、ポジティブであるらしい確率が5.19/16.53≒0.31、ネガティブであるらしい確率が5.83/16.53≒.0.35となる。よって、感情状態は(33%,31%,35%)で表される。 The determination of the emotional state will be described using, for example, time 5 in FIG. At time 5, the neutral path metric value M 5 (S 0 ) is 5.51, the positive path metric value M 5 (S 1 ) is 5.19, and the negative path metric value M 5 (S −1 ) is 5. .83. Therefore, ΣM 5 = 5.51 + 5.19 + 5.83 = 16.53, the probability of being neutral is 5.51 / 16.53≈0.33, and the probability of being positive is 5.19 / 16.53. ≈0.31, the probability of being negative is 5.83 / 16.53≈. 0.35. Therefore, the emotional state is represented by (33%, 31%, 35%).

このような手法によっても感情状態を判定することができ、この手法によれば入力文が入力された時点で感情状態が必ず確定する。なお、感情状態が必ず確定するというのは、各時点で感情状態を必ず各ノードの比率で表すことができ、トランケイトする必要がないことを意味する。   The emotional state can also be determined by such a method, and according to this method, the emotional state is surely determined when the input sentence is input. Note that the emotional state is always determined means that the emotional state can be always represented by the ratio of each node at each time point, and it is not necessary to truncate.

なお、上記の各種パラメーターの値は一例であり、特に限定されるものではない。また、応答をはじめ、各種マスタの情報や感情状態の履歴などは適宜印刷装置で印刷できるものとする。   In addition, the value of said various parameters is an example, and is not specifically limited. In addition, responses, information on various masters, emotional history, and the like can be appropriately printed by a printing apparatus.

なお、上記のメンタルヘルスケアサービスは、気分が優れない等の治療導入検討期、リハビリ勤務可能等の時期に行うサービスであり、治療行為には該当しない。   The mental health care service mentioned above is a service that is performed during the period of studying for the introduction of treatment, such as when the patient is not feeling well, or when rehabilitation work is possible.

上記の対話システムの用途としては、1.精神的に何らかの不安を抱える一般のユーザが誰にも知られることなく機械との対話を通じて自身の感情状態を定量的に分析する場合、2.精神的に何らかの不安を抱える一般のユーザが誰にも知られることなく機械対話を通じて自身の感情状態を自己認知する場合、3.精神的に何らかの不安を抱える一般のユーザが誰にも知られることなく機械対話を通じて自身の感情状態を改善しようとする場合などが想定される。   The use of the above dialogue system is as follows. 1. When a general user who has some kind of anxiety knows his emotional state quantitatively through dialogue with a machine without anyone knowing. 2. When a general user who has some kind of anxiety self-recognizes his / her emotional state through machine dialogue without anyone knowing; There may be a case where a general user who has some kind of anxiety tries to improve his / her emotional state through machine dialogue without anybody knowing it.

本発明は、メンタルヘルスケアのリハビリテーションに限られたことではなく、身体的なリハビリテーションにも利用することができる。さらに、医療従事者向けのカウンセリング研修、整形外科のリハビリテーション、ジムトレーニングメニュー、ダイエットメニュー、メタボリック解消メニュー、個人の健康状態を日常的に測定・記録する健康管理システム、学習塾の課題メニュー、職場マネジメント支援、人事考課システム、テレビ会議システム、カーナビゲーションシステムなどにも応用できる。   The present invention is not limited to mental health care rehabilitation but can also be used for physical rehabilitation. In addition, counseling training for healthcare professionals, orthopedic rehabilitation, gym training menu, diet menu, metabolic elimination menu, health management system for daily measurement and recording of individual health status, school cram school assignment menu, workplace management It can also be applied to support, personnel evaluation system, video conference system, car navigation system, etc.

10 対話システム
12a 記憶部
12b 制御部
12c 取得部
13a〜16a 入力部
13b〜16b 出力部
13.14 端末装置
15、16 携帯端末装置
26 文字列化装置
DESCRIPTION OF SYMBOLS 10 Dialog system 12a Memory | storage part 12b Control part 12c Acquisition part 13a-16a Input part 13b-16b Output part 13.14 Terminal device 15, 16 Portable terminal device 26 Character string conversion apparatus

Claims (12)

対象者が入力した入力文を取得する取得部と、
感情状態と文字列とをそれぞれ対応させて定義した応答マスタと、
前記感情状態の経時変化を感情状態履歴として記憶する記憶部と、
前記入力文から前記感情状態を算出して前記感情状態履歴を更新し、前記感情状態履歴に基づき、前記応答マスタから文字列を複数組読み出して繋げることで応答文を生成する制御部と、を備え、
前記感情状態が、ポジティブ、ニュートラル、ネガティブの何れかで表され、
感情語に応じた感情値が記された感情語マスタを備え、
前記制御部は、前記感情語マスタに基づいて前記入力文の感情値の総和を算出し、該感情値の総和を正規化し、
θ≦|E|≦1(E:感情値の総和を正規化した値、θ:閾値(正の値))の場合、前記感情状態はEが正ならばポジティブに、Eが負ならばネガティブに遷移したと判定し、
-θ<E<0の場合、前記感情状態は現状態を継続しているか、ニュートラル又はネガティブに遷移したと判定し、
0≦E<θの場合、前記感情状態は現状態を継続しているか、ニュートラル又はポジティブに遷移したと判定する対話システム。
An acquisition unit for acquiring an input sentence input by the target person,
A response master that defines emotion states and character strings
A storage unit for storing a change in the emotional state over time as an emotional state history;
A controller that calculates the emotional state from the input sentence, updates the emotional state history, and generates a response sentence by reading and connecting a plurality of character strings from the response master based on the emotional state history; Prepared,
The emotional state is represented by one of positive, neutral and negative,
Emotion word master with emotion values according to emotion words
The control unit calculates a sum of emotion values of the input sentence based on the emotion word master, normalizes the sum of the emotion values,
When θ ≦ | E | ≦ 1 (E: value obtained by normalizing the sum of emotion values, θ: threshold value (positive value)), the emotional state is positive if E is positive, and negative if E is negative It has been determined that
When -θ <E <0, it is determined that the emotional state continues the current state, or has transitioned to neutral or negative,
When 0 ≦ E <θ, the dialogue system determines that the emotional state continues the current state or has transitioned to neutral or positive.
前記感情状態を特定するための計算式が、
Mk(S0) = max(Mk-1(S0)+ Lk 0→0, Mk-1(S1)+ Lk 1→0 , Mk-1(S-1)+ Lk -1→0
Mk(S1) = max(Mk-1(S0)+ Lk 0→1, Mk-1(S1)+ Lk 1→1 , Mk-1(S-1)+ Lk -1→1
Mk(S-1) = max(Mk-1(S0)+ Lk 0→-1, Mk-1(S1)+ Lk 1→-1 , Mk-1(S-1)+ Lk -1→-1
Mk(Si):時刻kにおける感情状態のパスメトリック値
Lk i→j:時刻kにおいて状態iから状態jに遷移する状態遷移確率に基づくブランチメトリック値
であり、
Lk i→j= 1 / (-ln Pk i→j)
i:-1(ネガティブ)、0(ニュートラル)、1(ポジティブ)の何れか
Lk -1→-1:感情状態がネガティブから遷移しないブランチメトリック値
Lk -1→0:感情状態がネガティブからニュートラルへ遷移するブランチメトリック値
Lk -1→1:感情状態がネガティブからポジティブへ遷移するブランチメトリック値
Lk 0→-1:感情状態がニュートラルからネガティブへ遷移するブランチメトリック値
Lk 0→0:感情状態がニュートラルから遷移しないブランチメトリック値
Lk 0→1:感情状態がニュートラルからポジティブへ遷移するブランチメトリック値
Lk 1→-1:感情状態がポジティブからネガティブへ遷移するブランチメトリック値
Lk 1→0:感情状態がポジティブからニュートラルへ遷移するブランチメトリック値
Lk 1→1:感情状態がポジティブから遷移しないブランチメトリック値
Pk -1→1:感情状態がネガティブからポジティブへ遷移する確率
Pk -1→0:感情状態がネガティブからニュートラルへ遷移する確率
Pk -1→-1:感情状態がネガティブから遷移しない確率
Pk 0→1:感情状態がニュートラルからポジティブへ遷移する確率
Pk 0→0:感情状態がニュートラルから遷移しない確率
Pk 0→-1:感情状態がニュートラルからネガティブへ遷移する確率
Pk 1→1:感情状態がポジティブから遷移しない確率
Pk 1→0:感情状態がポジティブからニュートラルへ遷移する確率
Pk 1→-1:感情状態がポジティブからネガティブルへ遷移する確率
であることを特徴とする請求項1に記載の対話システム。
A calculation formula for specifying the emotional state is:
M k (S 0 ) = max (M k-1 (S 0 ) + L k 0 → 0, M k-1 (S 1 ) + L k 1 → 0 , M k-1 (S -1 ) + L k -1 → 0 )
M k (S 1 ) = max (M k-1 (S 0 ) + L k 0 → 1 , M k-1 (S 1 ) + L k 1 → 1 , M k-1 (S -1 ) + L k -1 → 1 )
M k (S -1 ) = max (M k-1 (S 0 ) + L k 0 → -1 , M k-1 (S 1 ) + L k 1 → -1 , M k-1 (S -1 ) + L k -1 → -1 )
M k (S i ): Path metric value of emotional state at time k
L k i → j : a branch metric value based on the state transition probability of transition from state i to state j at time k,
L k i → j = 1 / (-ln P k i → j )
i: Either -1 (negative), 0 (neutral), or 1 (positive)
L k -1 → -1 : Branch metric value where emotional state does not change from negative
L k -1 → 0 : Branch metric value where the emotional state transitions from negative to neutral
L k -1 → 1 : Branch metric value where emotional state transitions from negative to positive
L k 0 → -1 : Branch metric value where emotional state transitions from neutral to negative
L k 0 → 0 : Branch metric value where emotional state does not change from neutral
L k 0 → 1 : Branch metric value where emotional state transitions from neutral to positive
L k 1 → -1 : Branch metric value where emotional state transitions from positive to negative
L k 1 → 0 : Branch metric value where emotional state transitions from positive to neutral
L k 1 → 1 : Branch metric value where emotional state does not change from positive
P k -1 → 1 : Probability of emotional state transition from negative to positive
P k -1 → 0 : Probability of emotional state transition from negative to neutral
P k -1 → -1 : Probability that emotional state does not change from negative
P k 0 → 1 : Probability of emotional state transitioning from neutral to positive
P k 0 → 0 : Probability that emotional state does not change from neutral
P k 0 → -1 : Probability of emotional state transitioning from neutral to negative
P k 1 → 1 : Probability that emotional state does not change from positive
P k 1 → 0 : Probability of emotional state transitioning from positive to neutral
The interactive system according to claim 1, wherein P k 1 → −1 is a probability that the emotional state changes from positive to negative.
複数のパスが算出されている場合、パスが収束した段階で、各時刻における最大のパスメトリック値を有する感情状態を選択することで1つの繋がったパスである生き残りパスを決定することを特徴とする請求項2に記載の対話システム。   When a plurality of paths are calculated, a survival path that is one connected path is determined by selecting an emotional state having a maximum path metric value at each time when the paths converge. The dialogue system according to claim 2. 対象者が入力した入力文を取得する取得部と、
感情状態と文字列とをそれぞれ対応させて定義した応答マスタと、
前記感情状態の経時変化を感情状態履歴として記憶する記憶部と、
前記入力文から前記感情状態を算出して前記感情状態履歴を更新し、前記感情状態履歴に基づき、前記応答マスタから文字列を複数組読み出して繋げることで応答文を生成する制御部と、を備え、
前記感情状態がポジティブ、ニュートラル、ネガティブからなるノードの比率で表され、
感情語に応じた感情値が記された感情語マスタを備え、
前記制御部は、前記感情語マスタに基づいて前記入力文の感情値の総和を算出し、該感情値の総和を正規化し、
θ≦|E|≦1(E:感情値の総和を正規化した値、θ:閾値(正の値))の場合、前記感情状態はEが正ならばポジティブに、Eが負ならばネガティブに遷移したと判定し、
-θ<E<0の場合、前記感情状態は現状態を継続しているとともに、ニュートラル及びネガティブに遷移したと判定し、
0≦E<θの場合、前記感情状態は現状態を継続しているとともに、ニュートラル及びポジティブに遷移したと判定する対話システム。
An acquisition unit for acquiring an input sentence input by the target person,
A response master that defines emotion states and character strings
A storage unit for storing a change in the emotional state over time as an emotional state history;
A controller that calculates the emotional state from the input sentence, updates the emotional state history, and generates a response sentence by reading and connecting a plurality of character strings from the response master based on the emotional state history; Prepared,
The emotional state is represented by the ratio of nodes consisting of positive, neutral and negative,
Emotion word master with emotion values according to emotion words
The control unit calculates a sum of emotion values of the input sentence based on the emotion word master, normalizes the sum of the emotion values,
When θ ≦ | E | ≦ 1 (E: value obtained by normalizing the sum of emotion values, θ: threshold value (positive value)), the emotional state is positive if E is positive, and negative if E is negative It has been determined that
When -θ <E <0, it is determined that the emotional state continues the current state and has transitioned to neutral and negative,
When 0 ≦ E <θ, the dialogue system determines that the emotional state continues the current state and has transitioned to neutral and positive.
前記感情状態を特定するための計算式が、
Rk i=Mk(Si)/(Mk (S0) + Mk(S1) + Mk(S-1))
i:-1(ネガティブ)、0(ニュートラル)、1(ポジティブ)の何れか
Rk i:時刻kにおける感情状態に占める各ノードの比率
Mk(Si):時刻kにおける感情状態のパスメトリック値
であり、
Mk(S0) = max(Mk-1(S0)+ Lk 0→0, Mk-1(S1)+ Lk 1→0 , Mk-1(S-1)+ Lk -1→0
Mk(S1) = max(Mk-1(S0)+ Lk 0→1, Mk-1(S1)+ Lk 1→1 , Mk-1(S-1)+ Lk -1→1
Mk(S-1) = max(Mk-1(S0)+ Lk 0→-1, Mk-1(S1)+ Lk 1→-1 , Mk-1(S-1)+ Lk -1→-1
であり、
Lk i→j:時刻kにおいて状態iから状態jに遷移する状態遷移確率に基づくブランチメトリック値
であり、
Lk i→j= 1 / (-ln Pk i→j)
Lk -1→-1:感情状態がネガティブから遷移しないブランチメトリック値
Lk -1→0:感情状態がネガティブからニュートラルへ遷移するブランチメトリック値
Lk -1→1:感情状態がネガティブからポジティブへ遷移するブランチメトリック値
Lk 0→-1:感情状態がニュートラルからネガティブへ遷移するブランチメトリック値
Lk 0→0:感情状態がニュートラルから遷移しないブランチメトリック値
Lk 0→1:感情状態がニュートラルからポジティブへ遷移するブランチメトリック値
Lk 1→-1:感情状態がポジティブからネガティブへ遷移するブランチメトリック値
Lk 1→0:感情状態がポジティブからニュートラルへ遷移するブランチメトリック値
Lk 1→1:感情状態がポジティブから遷移しないブランチメトリック値
Pk -1→1:感情状態がネガティブからポジティブへ遷移する確率
Pk -1→0:感情状態がネガティブからニュートラルへ遷移する確率
Pk -1→-1:感情状態がネガティブから遷移しない確率
Pk 0→1:感情状態がニュートラルからポジティブへ遷移する確率
Pk 0→0:感情状態がニュートラルから遷移しない確率
Pk 0→-1:感情状態がニュートラルからネガティブへ遷移する確率
Pk 1→1:感情状態がポジティブから遷移しない確率
Pk 1→0:感情状態がポジティブからニュートラルへ遷移する確率
Pk 1→-1:感情状態がポジティブからネガティブルへ遷移する確率
であることを特徴とする請求項4に記載の対話システム。
A calculation formula for specifying the emotional state is:
R k i = M k (S i ) / (M k (S 0 ) + M k (S 1 ) + M k (S -1 ))
i: Either -1 (negative), 0 (neutral), or 1 (positive)
R k i : Ratio of each node in the emotional state at time k
M k (S i ): Path metric value of emotional state at time k
M k (S 0 ) = max (M k-1 (S 0 ) + L k 0 → 0 , M k-1 (S 1 ) + L k 1 → 0 , M k-1 (S -1 ) + L k -1 → 0 )
M k (S 1 ) = max (M k-1 (S 0 ) + L k 0 → 1 , M k-1 (S 1 ) + L k 1 → 1 , M k-1 (S -1 ) + L k -1 → 1 )
M k (S -1 ) = max (M k-1 (S 0 ) + L k 0 → -1 , M k-1 (S 1 ) + L k 1 → -1 , M k-1 (S -1 ) + L k -1 → -1 )
And
L k i → j : a branch metric value based on the state transition probability of transition from state i to state j at time k,
L k i → j = 1 / (-ln P k i → j )
L k -1 → -1 : Branch metric value where emotional state does not change from negative
L k -1 → 0 : Branch metric value where the emotional state transitions from negative to neutral
L k -1 → 1 : Branch metric value where emotional state transitions from negative to positive
L k 0 → -1 : Branch metric value where emotional state transitions from neutral to negative
L k 0 → 0 : Branch metric value where emotional state does not change from neutral
L k 0 → 1 : Branch metric value where emotional state transitions from neutral to positive
L k 1 → -1 : Branch metric value where emotional state transitions from positive to negative
L k 1 → 0 : Branch metric value where emotional state transitions from positive to neutral
L k 1 → 1 : Branch metric value where emotional state does not change from positive
P k -1 → 1 : Probability of emotional state transition from negative to positive
P k -1 → 0 : Probability of emotional state transition from negative to neutral
P k -1 → -1 : Probability that emotional state does not change from negative
P k 0 → 1 : Probability of emotional state transitioning from neutral to positive
P k 0 → 0 : Probability that emotional state does not change from neutral
P k 0 → -1 : Probability of emotional state transitioning from neutral to negative
P k 1 → 1 : Probability that emotional state does not change from positive
P k 1 → 0 : Probability of emotional state transitioning from positive to neutral
5. The dialogue system according to claim 4, wherein P k 1 → −1 is a probability that the emotional state changes from positive to negative.
前記制御部は、直近の所定数の感情状態の組み合わせに応じて前記応答マスタから読み出す複数組の文字列を決定することを特徴とする請求項1〜請求項5の何れかに記載の対話システム。   The interactive system according to claim 1, wherein the control unit determines a plurality of sets of character strings to be read from the response master according to a combination of a predetermined predetermined number of emotional states. . 文字入力部及び/又は音声入力部を備え、
前記取得部が取得する入力文は、前記対象者が前記文字入力部から入力したテキストデータ、又は前記対象者が前記音声入力部から入力した音声データを変換したテキストデータであることを特徴とする請求項1〜6の何れかに記載の対話システム。
A character input unit and / or a voice input unit,
The input sentence acquired by the acquisition unit is text data input from the character input unit by the target person, or text data obtained by converting voice data input from the voice input unit by the target person. The dialogue system according to any one of claims 1 to 6.
個人特性マスタを備え、
前記制御部は、前記入力文を品詞に分解し、分解した語に所定の感情値を対応させて前記個人特性マスタに記憶し、前記個人特性マスタの情報を加味して前記感情値の総和を算出することを特徴とする請求項1〜7の何れかに記載の対話システム。
With personal characteristic master,
The control unit decomposes the input sentence into parts of speech, associates the decomposed word with a predetermined emotion value and stores it in the personal characteristic master, and adds the information of the personal characteristic master to the sum of the emotion values. The dialogue system according to claim 1, wherein the dialogue system is calculated.
前記制御部は、前記個人特性マスタに記憶されている語を使用して前記応答文を生成することを特徴とする請求項8に記載の対話システム。   The dialogue system according to claim 8, wherein the control unit generates the response sentence using a word stored in the personal characteristic master. 前記取得部は、音声情報、表情情報、顔面温度情報、眼球運動情報、脈拍情報、心拍情報、呼吸情報、血圧情報の中の少なくとも1以上の情報を含む生体情報を取得し、
前記制御部は、前記生体情報を感情値に変換し、該変換した感情値を加味して前記感情値の総和を算出することを特徴とする請求項〜9の何れかに記載の対話システム。
The acquisition unit acquires biological information including at least one information of voice information, facial expression information, facial temperature information, eye movement information, pulse information, heart rate information, respiratory information, blood pressure information,
Wherein the control unit, the interactive system according to any one of claims 1-9, wherein the biometric information is converted to the emotion value, and calculates the sum of the emotion value by adding the converted emotion value .
前記応答文の出力先である出力部を備えたことを特徴とする請求項1〜10の何れかに記載の対話システム。   The dialogue system according to claim 1, further comprising an output unit that is an output destination of the response sentence. 請求項1〜11の何れかに記載の対話システムを稼働させる対話プログラム。   The dialogue program which operates the dialogue system in any one of Claims 1-11.
JP2013139773A 2013-07-03 2013-07-03 Emotion estimation system by machine dialogue and its program Active JP6343823B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013139773A JP6343823B2 (en) 2013-07-03 2013-07-03 Emotion estimation system by machine dialogue and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013139773A JP6343823B2 (en) 2013-07-03 2013-07-03 Emotion estimation system by machine dialogue and its program

Publications (2)

Publication Number Publication Date
JP2015014834A JP2015014834A (en) 2015-01-22
JP6343823B2 true JP6343823B2 (en) 2018-06-20

Family

ID=52436545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013139773A Active JP6343823B2 (en) 2013-07-03 2013-07-03 Emotion estimation system by machine dialogue and its program

Country Status (1)

Country Link
JP (1) JP6343823B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6617053B2 (en) * 2016-02-29 2019-12-04 Kddi株式会社 Utterance semantic analysis program, apparatus and method for improving understanding of context meaning by emotion classification
JP6660770B2 (en) * 2016-03-02 2020-03-11 株式会社アイ・ビジネスセンター Dialogue systems and programs
CN106844627B (en) * 2017-01-20 2020-06-19 竹间智能科技(上海)有限公司 Online learning method and device based on dialog system
JP6884947B2 (en) * 2017-03-16 2021-06-09 国立研究開発法人情報通信研究機構 Dialogue system and computer programs for it
JP6563466B2 (en) * 2017-11-30 2019-08-21 株式会社サイバーエージェント Chat system, server, chat method, terminal device and computer program
JP7024451B2 (en) * 2018-01-29 2022-02-24 大日本印刷株式会社 Telemedicine terminal device and computer program
JP6671672B1 (en) * 2019-05-13 2020-03-25 株式会社計数技研 Dialogue device, utterance generation method, and program
JP2021071883A (en) * 2019-10-30 2021-05-06 株式会社感性リサーチ Information processing system, information processing method, and program
JP7474211B2 (en) * 2021-03-01 2024-04-24 Kddi株式会社 Dialogue program, device and method for forgetting nouns spoken by a user

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0981632A (en) * 1995-09-13 1997-03-28 Toshiba Corp Information publication device
JP2005157494A (en) * 2003-11-20 2005-06-16 Aruze Corp Conversation control apparatus and conversation control method
JP2005237668A (en) * 2004-02-26 2005-09-08 Kazuya Mera Interactive device considering emotion in computer network
JP2006178063A (en) * 2004-12-21 2006-07-06 Toyota Central Res & Dev Lab Inc Interactive processing device
JP2006313287A (en) * 2005-05-09 2006-11-16 Toyota Motor Corp Speech dialogue apparatus
WO2011042989A1 (en) * 2009-10-09 2011-04-14 Kikuchi Kouichi Viewer's feeling determination device for visually-recognized scene
JP5539842B2 (en) * 2010-10-27 2014-07-02 Mtiジャパン株式会社 Dialogue processing device

Also Published As

Publication number Publication date
JP2015014834A (en) 2015-01-22

Similar Documents

Publication Publication Date Title
JP6343823B2 (en) Emotion estimation system by machine dialogue and its program
US10950332B2 (en) Targeted sensation of touch
US10229755B1 (en) Personal assistant computing system monitoring
JP6263308B1 (en) Dementia diagnosis apparatus, dementia diagnosis method, and dementia diagnosis program
Narayanan et al. Behavioral signal processing: Deriving human behavioral informatics from speech and language
CN115004308A (en) Method and system for providing an interface for activity recommendations
JP2019527864A (en) Virtual health assistant to promote a safe and independent life
WO2015091223A1 (en) System and method for assessing the cognitive style of a person
US20190013092A1 (en) System and method for facilitating determination of a course of action for an individual
Alepis et al. Object-oriented user interfaces for personalized mobile learning
US20140324470A1 (en) Information processing device, information processing method, and non-temporary computer-readable recording medium with program recorded thereon
WO2016092103A1 (en) Device, system and method for assessing information needs of a person
CN114828743A (en) Automated and objective symptom severity scoring
CN113035232A (en) Psychological state prediction system, method and device based on voice recognition
JP5987238B2 (en) Multimodal tracking system and program
Papangelis et al. An adaptive dialogue system for assessing post traumatic stress disorder
Johnson Speech, voice, and communication
US20230053198A1 (en) System and method for promoting, tracking, and assessing mental wellness
US20230290482A1 (en) Digital Apparatus and Application for Treating Social Communication Disorder
KR102314332B1 (en) Medical dialog support system and method for physicians and patient using machine learning and NLP
JP2019109859A (en) Guidance support system, guidance support method, and guidance support program
JP7515934B2 (en) Conversation-based mental disorder screening method and device
US11521715B2 (en) System and method for promoting, tracking, and assessing mental wellness
US20210174933A1 (en) Social-Emotional Skills Improvement
US11694797B2 (en) Virtual healthcare communication platform

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180426

R150 Certificate of patent or registration of utility model

Ref document number: 6343823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250