JP5947237B2 - Emotion estimation device, emotion estimation method, and program - Google Patents

Emotion estimation device, emotion estimation method, and program Download PDF

Info

Publication number
JP5947237B2
JP5947237B2 JP2013059880A JP2013059880A JP5947237B2 JP 5947237 B2 JP5947237 B2 JP 5947237B2 JP 2013059880 A JP2013059880 A JP 2013059880A JP 2013059880 A JP2013059880 A JP 2013059880A JP 5947237 B2 JP5947237 B2 JP 5947237B2
Authority
JP
Japan
Prior art keywords
emotion
word
value
negative
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013059880A
Other languages
Japanese (ja)
Other versions
JP2014186451A (en
Inventor
千智 富田
千智 富田
将司 外山
将司 外山
駿介 車谷
駿介 車谷
一深 千葉
一深 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013059880A priority Critical patent/JP5947237B2/en
Publication of JP2014186451A publication Critical patent/JP2014186451A/en
Application granted granted Critical
Publication of JP5947237B2 publication Critical patent/JP5947237B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、感情推定装置、感情推定方法、および、プログラムに関する。   The present invention relates to an emotion estimation device, an emotion estimation method, and a program.

従来、一般的にネガティブな発言、ポジティブな発言に用いられる単語を教師データとして用いることで、発言者であるユーザの感情を推定する技術がある。例えば、ユーザごとに、そのユーザが怒っている場合に使われる単語や文章の組み立て方等を教師データとして用意しておき、その教師データを用いて、入力されたテキストや音声に対して分析を行い、ユーザが怒っているか否かを判断する技術がある。この技術によれば、コールセンタ等でユーザ(お客)が怒っていると判断されたとき、その旨をコールセンタのスタッフ等に通知することができる(特許文献1参照)。   2. Description of the Related Art Conventionally, there is a technique for estimating the emotion of a user who is a speaker by using, as teacher data, words that are generally used for negative speech and positive speech. For example, for each user, prepare as teacher data how to assemble words and sentences used when the user is angry, and use the teacher data to analyze the input text and voice There is a technique for determining whether or not a user is angry. According to this technique, when it is determined that the user (customer) is angry at the call center or the like, the fact can be notified to the call center staff or the like (see Patent Document 1).

特開2012−113542号公報JP 2012-113542 A

しかし、ユーザごとの意思表示の表現にはユーザ(個人)の判断基準に基づくバイアスがかかっていることが多い。例えば、いつもネガティブな発言をしているユーザのネガティブな単語を含む発言と、いつもポジティブな発言をしているユーザのネガティブな単語を含む発言とでは、同じ単語を含む発言であっても、それぞれのユーザでその発言の意味するネガティブさが異なる可能性が高い。つまり、特許文献1のように、ユーザの感情を、単語の有する一般的な判断基準(一般的にネガティブな発言、ポジティブな発言に用いられる単語)だけを用いて推定する技術では、必ずしもユーザの感情を正確に推定することができない。そこで、本発明は、前記した課題を解決し、ユーザの感情の推定精度を向上させることを目的とする。   However, the expression of intention display for each user is often biased based on the judgment criteria of the user (individual). For example, an utterance that includes a negative word of a user who always makes a negative utterance and an utterance that contains a negative word of a user who always makes a positive utterance, There is a high possibility that the negative meaning of the remarks is different among users. In other words, as in Patent Document 1, a technique for estimating a user's emotion using only general judgment criteria (generally negative utterances and words used for positive utterances) possessed by words is not necessarily the user's. Emotions cannot be estimated accurately. Therefore, an object of the present invention is to solve the above-described problems and improve the estimation accuracy of the user's emotion.

前記した課題を解決するため、本発明は、ユーザごとの発言内容を示した過去ログを格納する過去ログ記録部と、ある特定の感情とその相反する感情を示す語句である感情表記ワードを格納する一般感情表記ワード記録部と、前記一般感情表記ワード記録部を参照して、前記ユーザの過去ログから、前記感情表記ワードのいずれかを含む発言を検索する感情表記ワード検索部と、前記ユーザの過去ログから、前記検索された感情表記ワードを含む発言を中心として前後所定範囲内の発言である周辺発言を抽出する前後発言抽出部と、前記ユーザごとに、前記発言に含まれる単語それぞれの前記ある特定の感情の強さの度合いを表す感情ベクトルの値を示した教師データを作成する特徴量抽出部と、前記ユーザの前記教師データを用いて、前記ユーザの発言が意味する前記ある特定の感情の傾向を判断し、前記判断結果を出力する発言解析部とを備え、前記特徴量抽出部は、前記単語それぞれの感情ベクトルの値を決定するとき、前記感情表記ワード検索部により検索された発言に含まれる感情表記ワードに対し、前記発言に含まれる感情表記ワードが示す感情の種別に応じた所定の感情の強さの度合いを示す値を前記感情表記ワードの感情ベクトルの値として付与し、前記発言の周辺発言の単語のうち、前記感情表記ワード以外の単語それぞれに対する感情ベクトルの値として、前記感情表記ワードに付与した前記感情ベクトルの値と比較して前記ある特定の感情の強さの度合いを軽減した所定の値を付与することを特徴とする感情推定装置とした。
In order to solve the above-described problems, the present invention stores a past log recording unit that stores a past log that indicates the content of a message for each user, and an emotion notation word that is a phrase that indicates a specific emotion and an opposite emotion. A general emotion expression word recording unit, an emotion expression word search unit that refers to the general emotion expression word recording unit, and searches the user's past log for a statement including any of the emotion expression words, and the user From the past log, a front-rear speech extraction unit that extracts a peripheral speech that is a speech within a predetermined range around the speech including the searched emotion notation word, and for each user, each word included in the speech Using a feature quantity extraction unit that creates teacher data indicating a value of an emotion vector representing the degree of strength of the specific emotion, and using the teacher data of the user, A speech analysis unit that determines a tendency of the specific emotion that the user's speech means, and outputs the determination result, wherein the feature amount extraction unit determines the value of the emotion vector of each of the words , A value indicating the degree of strength of a predetermined emotion according to the type of emotion indicated by the emotion notation word included in the statement with respect to the emotion notation word included in the statement searched by the emotion notation word search unit The value of the emotion vector given to the emotion notation word is given as the value of the emotion vector of the emotion notation word, and the value of the emotion vector for each word other than the emotion notation word among the words of the surrounding speech of the statement In comparison, the emotion estimation apparatus is characterized in that a predetermined value that reduces the degree of strength of the specific emotion is given.

このような感情推定装置によれば、ユーザの発言解析に用いる教師データについて、一般的に用いられる感情表記ワードのほかに、当該ユーザがそのワード(単語)の周辺発言で用いる単語にも所定の感情ベクトルの値を付与する。つまり、感情推定装置は、ユーザの普段の発言傾向を反映して教師データを作成するので、ユーザの発言から感情推定を行う際の感情精度を向上させることができる。   According to such an emotion estimation apparatus, in addition to a commonly used emotion notation word for teacher data used for user speech analysis, a predetermined word is used for words used by the user in surrounding speech of the word (word). Gives the value of the emotion vector. That is, since the emotion estimation device creates teacher data reflecting the user's usual speech tendency, emotion accuracy when performing emotion estimation from the user's speech can be improved.

本発明によれば、ユーザの感情の推定精度を向上させることができる。   According to the present invention, it is possible to improve the estimation accuracy of a user's emotion.

図1は、本実施の形態の感情推定装置を含むシステムの構成例を示す図である。FIG. 1 is a diagram illustrating a configuration example of a system including an emotion estimation apparatus according to the present embodiment. 図2は、図1の感情推定装置の処理手順例を示す図である。FIG. 2 is a diagram illustrating a processing procedure example of the emotion estimation apparatus in FIG. 1. 図3は、図1の感情推定装置の処理手順を示す図である。FIG. 3 is a diagram showing a processing procedure of the emotion estimation apparatus of FIG. 図4は、図3のS17の処理の詳細を示す図である。FIG. 4 is a diagram showing details of the processing in S17 of FIG. 図5は、図1の発言解析部の処理手順を示す図である。FIG. 5 is a diagram illustrating a processing procedure of the speech analysis unit in FIG. 図6は、図1の教師データ作成部の処理手順を示す図である。FIG. 6 is a diagram showing a processing procedure of the teacher data creation unit of FIG. 図7は、図6のS105で抽出した単語がネガティブワードであったときの処理手順を示す図である。FIG. 7 is a diagram showing a processing procedure when the word extracted in S105 of FIG. 6 is a negative word. 図8は、図6のS105で抽出した単語がポジティブワードであったときの処理手順を示す図である。FIG. 8 is a diagram showing a processing procedure when the word extracted in S105 of FIG. 6 is a positive word. 図9は、図1の感情推定装置の機能を実現するためのプログラムを実行するコンピュータを示す図である。FIG. 9 is a diagram illustrating a computer that executes a program for realizing the function of the emotion estimation apparatus in FIG. 1.

(実施の形態)
以下、図面を参照しながら、本発明を実施の形態を説明する。まず、図1を用いて、感情推定装置1を含むシステムの構成例を説明する。システムは、例えば、図1に示すように、感情推定装置1とユーザ端末2とを備え、感情推定装置1とユーザ端末2とは、ネットワーク(インターネットやLAN(Local Area Network)等)により接続される。感情推定装置1は、ネットワーク経由で、ユーザ端末2から、ユーザの発言内容(例えば、Twitter(登録商標)、Facebook(登録商標)、ブログ、チャット等における発言内容)を受信すると、この発言内容を過去ログとして蓄積し、各ユーザの過去ログの内容から、ユーザの現在の発言の解析を行うための教師モデルを作成する。この発言の解析とは、ユーザの発言が意味する感情の傾向を判断することであり、本実施の形態においては、感情推定装置1が、ユーザの発言がネガティブな感情を意味するものか、ポジティブな感情を意味するものかの判断する場合を例に説明する。また、この教師モデルは、ユーザごとに、各単語のある特定の感情の強さの度合いを示す感情ベクトルの値を示したものであり、本実施の形態においては、この感情ベクトルの値として、ネガポジ値を用いる場合を例に説明する。このネガポジ値は、各単語のポジティブ(またはネガティブ)な感情の強さの度合いであるポジティブ度(またはネガティブ度)を「0〜1」の値で示したものである。感情推定装置1は、教師データのネガポジ値に、ユーザそれぞれの発言が意味する感情の傾向(例えば、ネガティブな発言が多いか、ポジティブな発言が多いか)を反映させる。そして、感情推定装置1は、当該ユーザに関する教師モデルを用いて、ユーザの現在の発言の示す感情(例えば、ネガティブかポジティブか)の推定(解析)を行う。
(Embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the drawings. First, a configuration example of a system including the emotion estimation device 1 will be described with reference to FIG. For example, as shown in FIG. 1, the system includes an emotion estimation device 1 and a user terminal 2, and the emotion estimation device 1 and the user terminal 2 are connected by a network (such as the Internet or a LAN (Local Area Network)). The When the emotion estimation device 1 receives the user's message content (for example, the message content in Twitter (registered trademark), Facebook (registered trademark), blog, chat, etc.) from the user terminal 2 via the network, the emotion estimation device 1 A teacher model for analyzing the user's current utterance is created from the contents of the past log stored in the past log. The analysis of the utterance is to determine the tendency of the emotion that the user's utterance means. In the present embodiment, the emotion estimation device 1 is positive whether the utterance of the user means a negative emotion. An example will be described in which it is determined whether the emotions mean different emotions. In addition, this teacher model shows the value of an emotion vector indicating the degree of the strength of a specific emotion of each word for each user. In this embodiment, as the value of this emotion vector, A case where a negative / positive value is used will be described as an example. This negative / positive value indicates a positive degree (or negative degree), which is a degree of positive (or negative) emotional strength of each word, as a value of “0 to 1”. The emotion estimation apparatus 1 reflects the tendency of emotion (for example, whether there are a lot of negative statements or a lot of positive statements) in the negative / positive value of the teacher data. And the emotion estimation apparatus 1 estimates (analyzes) the emotion (for example, negative or positive) indicated by the user's current speech using the teacher model related to the user.

ここで、図2を用いて、図1の感情推定装置1の概要を説明する。感情推定装置1は、ユーザごとの発言の過去ログ(発言ログ)を蓄積している。ここでの過去ログは、ユーザごとに、そのユーザの発言が発言日時とともに時系列で記録されたテキストデータであり、例えば、符号201に示す内容であるものとする。ここでは、感情推定装置1は、ユーザの発言からネガティブワードとして「どうせ」という単語を含む発言とその周辺発言の単語を抽出して、それぞれの単語にネガポジ値(各単語のネガティブ度(またはポジティブ度)を示す値)を付与し、教師データに記録する場合を例に説明する。また、以下の説明において、ネガポジ値は、最もネガティブ「0」〜ニュートラル「0.5」〜最もネガティブ「1」であるものとする。   Here, the outline of the emotion estimation apparatus 1 in FIG. 1 will be described with reference to FIG. The emotion estimation device 1 accumulates a past log (utterance log) of a speech for each user. Here, the past log is text data in which the utterance of the user is recorded in chronological order together with the date and time of utterance for each user. Here, the emotion estimation apparatus 1 extracts a utterance including the word “whatever” as a negative word and words in the vicinity thereof from the user's utterance, and sets a negative / positive value (negative degree (or positive) of each word to each word. A case will be described as an example in which a value indicating (degree) is assigned and recorded in teacher data. In the following description, it is assumed that the negative / positive value is most negative “0” to neutral “0.5” to most negative “1”.

(S1)
感情推定装置1は、ユーザの過去ログを検索し、ネガティブワード「どうせ」が含まれた発言を抽出する。ここでは、時刻「10:04:30」における「どうせ私なんて」という発言が抽出された場合を考える。
(S1)
The emotion estimation device 1 searches the user's past log, and extracts a comment including the negative word “whatever”. Here, let us consider a case where a comment “whatever I am” at time “10:04:30” is extracted.

(S2)
次に、感情推定装置1は、過去ログからS1で抽出した発言(例えば、「どうせ私なんて」)の前後数分間の発言(周辺発言)を抽出する。例えば、感情推定装置1は、符号202に示すように、「どうせ私なんて」を中心とした前後数分間の発言「やばい」「全然できなかった」「どうせ私なんて」「。。。。」「うーん」の発言を抽出する。
(S2)
Next, the emotion estimation device 1 extracts a message (peripheral message) for several minutes before and after the message extracted in S1 from the past log (for example, “I am I anyway”). For example, as indicated by reference numeral 202, the emotion estimation apparatus 1 utters “Yabai”, “I couldn't do it at all” for several minutes around “Whatever I am” ”,“ Whatever I am, ”“. Extract the remarks of "mmmm".

(S3)
その後、感情推定装置1は、S1で抽出したユーザの発言およびS2で抽出したその周辺発言に対し、形態素解析等を行い、単語の抽出を行う。そして、感情推定装置1は、抽出した単語それぞれに付与するネガポジ値を付与する。例えば、感情推定装置1は、一般ワード(ここでは、S1で検索された発言に含まれるネガティブワード)のネガポジ値を「0」、周辺単語(S2で検索された周辺発言に含まれる単語)のネガポジ値を比較的ネガティブなネガポジ値である「0.2」を付与する(符号203参照)。つまり、当該単語がネガティブワードではなくても、その周辺に登場する単語ならば、その単語は、当該ユーザにとってネガティブな意味で使われる可能性が高い単語なので、感情推定装置1は、ネガティブワードのネガポジ値よりも若干ネガティブ度を軽減したネガポジ値を付与する。そして、感情推定装置1は、抽出した単語と付与したネガポジ値とのペアを当該ユーザの教師データとして記録する。なお、S3において付与するネガポジ値は、そのユーザの日常の発言がネガポジ(ネガティブ、ポジティブ)のどちらが多いかによって調整される。
(S3)
Thereafter, the emotion estimation device 1 performs morphological analysis on the user's utterance extracted in S1 and the surrounding utterance extracted in S2, and performs word extraction. And the emotion estimation apparatus 1 assign | provides the negative positive value provided to each extracted word. For example, the emotion estimation device 1 sets the negative / positive value of the general word (here, the negative word included in the utterance searched in S1) to “0” and the peripheral word (the word included in the peripheral utterance searched in S2). The negative / positive value is assigned with a relatively negative negative / positive value “0.2” (see reference numeral 203). That is, even if the word is not a negative word, if the word appears in the vicinity of the word, the word is likely to be used in a negative sense for the user. A negative / positive value with a slightly reduced negative degree than the negative / positive value is applied. Then, the emotion estimation device 1 records a pair of the extracted word and the assigned negative / positive value as teacher data of the user. Note that the negative / positive value assigned in S3 is adjusted depending on which of the user's daily statements is more negative (negative or positive).

例えば、感情推定装置1が、S1でネガティブワード「どうせ」を含む発言を抽出した場合、そのネガティブワードを含む発言をしたユーザが日常において発言のネガポジ割合の等しい人であれば、一般ワード(ネガティブワード)のネガポジ値を「0」、その周辺単語のネガポジ値を「0.2」のままとする。一方、そのユーザが普段ネガ(ネガティブな)発言の割合の多い人であれば、一般ワード(ネガティブワード)のネガポジ値を「0.4」、その周辺単語のネガポジ値を「0.5」にする。つまり、ネガポジ値を全体的にポジティブ寄りに修正する。さらに、そのユーザが普段ポジ(ポジティブな)発言が多い人であれば、一般ワード(ネガティブワード)のネガポジ値を「0」のままとするが、その周辺単語のネガポジ値を「0.1」にする。つまり、ネガポジ値を全体的にネガティブ寄りに修正する。なお、ここで、一般ワード(ネガティブワード)のネガポジ値を「0」のままとしたのは、ネガポジ値は0未満の値はとらないからである。   For example, when the emotion estimation device 1 extracts a utterance including the negative word “Anything” in S1, if the user who made the utterance including the negative word is a person who has the same negative / positive ratio of utterances in daily life, the general word (negative The negative / positive value of word) remains “0”, and the negative / positive values of the surrounding words remain “0.2”. On the other hand, if the user has a high percentage of negative (negative) utterances, the negative / positive value of a general word (negative word) is set to “0.4”, and the negative / positive values of surrounding words are set to “0.5”. To do. That is, the negative / positive value is corrected to be closer to the positive overall. Further, if the user usually has a lot of positive (positive) utterances, the negative / positive value of the general word (negative word) remains “0”, but the negative / positive value of the surrounding words becomes “0.1”. To. That is, the negative / positive value is corrected so as to be negative overall. Here, the reason why the negative / positive value of the general word (negative word) remains “0” is because the negative / positive value does not take a value less than zero.

感情推定装置1は、このようなS1〜S3の処理を、ユーザの発言内からネガティブワードを発見するたびに実行し、当該ユーザの教師データを作成する。   The emotion estimation apparatus 1 executes such processes of S1 to S3 every time a negative word is found from within a user's speech, and creates teacher data for the user.

(S4)
そして、感情推定装置1は、当該ユーザの教師データを用いて、当該ユーザの発言がネガティブなものかポジティブなものかの解析を行い、その結果を出力する。例えば、感情推定装置1は、解析の結果を記憶部の所定領域に記憶したり、解析の結果、ユーザがネガティブな発言をしたと判断したとき、その旨をそのユーザのユーザ端末2へ送信したりする。なお、ここでは説明を省略したが、感情推定装置1は、予め登録されたポジティブワードを含む発言と、その周辺発言の単語についても同様の手順により、各単語にネガポジ値を付与し、教師データに記録する。このときの手順は後記する。
(S4)
Then, the emotion estimation apparatus 1 analyzes whether the user's utterance is negative or positive using the teacher data of the user, and outputs the result. For example, when the emotion estimation apparatus 1 stores the analysis result in a predetermined area of the storage unit or determines that the user has made a negative statement as a result of the analysis, the emotion estimation apparatus 1 transmits the fact to the user terminal 2 of the user. Or Although explanation is omitted here, the emotion estimation apparatus 1 assigns a negative / positive value to each word by using the same procedure for the utterance including the positive word registered in advance and the word of the surrounding utterance. To record. The procedure at this time will be described later.

図1に戻り、感情推定装置1を詳細に説明する。感情推定装置1は、記憶部、制御部、および、入出力部(いずれも図示省略)を備えるコンピュータにより実現される。記憶部は、制御部が教師データの作成や発言解析に用いる各種情報(ネガポジワード、過去ログ等)を格納する。制御部は、主に、教師データの作成と、その教師データを用いた発言解析とを行う。入出力部は、感情推定装置1へのユーザの発言の入力を受け付けたり、解析結果を出力したりする。   Returning to FIG. 1, the emotion estimation apparatus 1 will be described in detail. Emotion estimation device 1 is realized by a computer including a storage unit, a control unit, and an input / output unit (all not shown). The storage unit stores various types of information (eg, negative / positive words and past logs) used by the control unit for creating teacher data and analyzing speech. The control unit mainly creates teacher data and performs speech analysis using the teacher data. The input / output unit accepts input of a user's speech to the emotion estimation device 1 or outputs an analysis result.

図1の一般ネガポジワード記録部131、過去ログ記録部132、教師データ記録部133、および、解析結果記録部134は、前記した記憶部に含まれ、教師データ作成部121、および、発言解析部125は、前記した制御部に含まれる。   The general negative / positive word recording unit 131, the past log recording unit 132, the teacher data recording unit 133, and the analysis result recording unit 134 of FIG. 1 are included in the storage unit described above, and the teacher data creation unit 121 and the speech analysis unit 125 is included in the control unit described above.

一般ネガポジワード記録部(一般感情表記ワード記録部)131は、ある特定の感情とその感情と相反する感情を示す語句(感情表記ワード)を格納する。例えば、この一般ネガポジワード記録部131は、一般的な意味で、ネガティブな感情を示す単語であるネガティブワードと、一般的な意味でポジティブな感情を示す単語であるポジティブワード(両者をまとめて「ネガポジワード」とする)を格納する。例えば、ネガティブワードは、「どうせ」等であり、ポジティブワードは、「うれしい」や「楽しい」等である。このネガポジワードは、入出力部経由で登録される。なお、以下の説明において、感情表記ワードが、前記したネガポジワードである場合を例に説明するが、ネガポジワード以外であってももちろんよく、例えば、「うれしい、悲しい」「好き、嫌い」、「安心、不安」、「楽しい、怖い」、「可愛い、気持ち悪い」といった語句を用いてもよい。   The general negative / positive word recording unit (general emotion notation word recording unit) 131 stores a phrase (emotion notation word) indicating a specific emotion and an emotion opposite to that emotion. For example, the general negative / positive word recording unit 131 has, in a general sense, a negative word that is a word indicating a negative emotion, and a positive word that is a word that indicates a positive emotion in a general sense (collectively, “ Negative positive word "). For example, the negative word is “whatever” or the like, and the positive word is “happy” or “fun” or the like. This negative / positive word is registered via the input / output unit. In the following description, the case where the emotion notation word is the negative positive word will be described as an example, but it may of course be other than the negative positive word, for example, “happy, sad”, “like, dislike”, “ Phrases such as “safe and anxious”, “fun and scary”, and “cute and uncomfortable” may be used.

過去ログ記録部132は、ユーザごとの発言内容を示した過去ログを格納する。この過去ログは、当該ユーザの発言内容を、その発言の発言日時等とともに示した情報である。この発言内容は、例えば、ユーザ端末2から入出力部経由で入力され、格納される。   The past log recording unit 132 stores a past log indicating the content of a message for each user. This past log is information indicating the content of the user's statement together with the date and time of the statement. This message content is input from the user terminal 2 via the input / output unit and stored, for example.

教師データ記録部133は、教師データ作成部121により作成された教師データを格納する。この教師データは、ユーザごとに、そのユーザの発言の単語それぞれのネガティブ度(またはポジティブ度)を示すネガポジ値を示した情報である。このネガポジ値は、前記したとおり、例えば、最もネガティブな単語の値を「0」、ニュートラルな単語の値を「0.5」、最もポジティブな単語の値を「1」として、数値化したものである。つまり、ネガティブ度が高い単語ほど、ネガポジ値は「0」に近い値であり、ポジティブ度が高い単語ほど、ネガポジ値は「1」に近い値となる。ネガポジ値の表し方は、上記の方法以外であってももちろんよい。   The teacher data recording unit 133 stores the teacher data created by the teacher data creation unit 121. The teacher data is information indicating a negative / positive value indicating the negative degree (or positive degree) of each word of the user's utterance for each user. As described above, this negative / positive value is numerically expressed, for example, by setting the value of the most negative word as “0”, the value of the neutral word as “0.5”, and the value of the most positive word as “1”. It is. In other words, the negative positive value is closer to “0” as the negative degree is higher, and the negative positive value is closer to “1” as the positive degree is higher. Of course, the negative / positive value may be expressed by a method other than the above method.

解析結果記録部134は、発言解析部125による各ユーザの発言の解析結果(当該ユーザの発言に対し、その発言がネガティブなものかポジティブなものかの解析の結果)を格納する。   The analysis result recording unit 134 stores the analysis result of each user's utterance by the utterance analysis unit 125 (the analysis result of whether the utterance is negative or positive with respect to the user's utterance).

教師データ作成部121は、ネガポジワード検索部122、前後発言抽出部123、および、特徴量抽出部124を備える。   The teacher data creation unit 121 includes a negative / positive word search unit 122, a forward / backward speech extraction unit 123, and a feature amount extraction unit 124.

ネガポジワード検索部(感情表記ワード検索部)122は、一般ネガポジワード記録部131に格納される感情表記ワード(例えば、ネガポジワード)を参照して、ユーザの過去ログ(過去ログ記録部132に格納)から、感情表記ワード(例えば、ネガポジワード)のいずれかを含む発言を検索する。   The negative / positive word search unit (emotion expression word search unit) 122 refers to the emotion expression word (for example, negative / positive word) stored in the general negative / positive word recording unit 131 and stores the user's past log (past log recording unit 132). ) To search for remarks including any of emotion expression words (for example, negative / positive words).

前後発言抽出部123は、検索されたネガポジワードを含む発言を中心として前後所定範囲内の発言である周辺発言を抽出する。周辺発言は、例えば、ネガポジワードを含む発言の前後数分間の発言や、前後数個分の発言等である。この周辺発言の範囲は、日ごろのユーザの発言頻度によって変更可能である。例えば、比較的発言頻度が多いユーザについては、周辺発言として抽出する範囲を広くしてもよい。   The front / rear speech extraction unit 123 extracts peripheral speech that is a speech within a predetermined range before and after the speech including the searched negative / positive word. Peripheral utterances are, for example, utterances for several minutes before and after utterances including negative / positive words, and utterances for several words before and after. The range of the surrounding utterances can be changed according to the daily utterance frequency of the user. For example, for a user with a relatively high speech frequency, the range extracted as a peripheral speech may be widened.

特徴量抽出部124は、ユーザの発言およびその周辺発言の単語それぞれにネガポジ値を付与した教師データを作成する。   The feature amount extraction unit 124 creates teacher data in which a negative / positive value is assigned to each word of the user's utterance and surrounding words.

ここでの各単語へのネガポジ値の付与方法の詳細は、後記するが、例えば、以下の処理を行う。まず、特徴量抽出部124は、ネガポジワード検索部122により検索された発言が、ネガティブワードを含む発言であるとき、(1)この発言に含まれるネガティブワードに対し付与するネガポジ値を、最もネガティブであることを示すネガポジ値(例えば、「0」)とする。次に、(2)この発言の周辺発言の単語(周辺単語)それぞれに対し付与するネガポジ値を、ネガティブワードに付与したネガポジ値(例えば、「0」)よりもネガティブ度を軽減した値(例えば、「0.2」)とする。その後、特徴量抽出部124は、(3)当該ユーザが比較的ネガティブワードの発言が多いユーザならば、(1)および(2)で決定したネガポジ値について、さらにネガティブ度を軽減した値(例えば、ネガティブワード「0.4」、周辺単語「0.5」)にする。一方、特徴量抽出部124は、当該ユーザが、ポジティブワードの発言が比較的多いユーザならば、(1)および(2)で決定したネガポジ値について、ネガティブ度を高くした値(例えば、ネガティブワード「0」、周辺単語「0.1」)にする。つまり、同じ単語であっても普段のユーザの発言傾向によって、その単語の意味するネガティブ度(ポジティブ度)が異なるので、特徴量抽出部124は、そのユーザの発言傾向に基づき、各単語のネガポジ値の調整を行う。なお、当該ユーザは比較的ネガティブワードの発言が多いユーザか否かは、特徴量抽出部124が当該ユーザの過去ログ(過去ログ記録部132に格納)と、ネガポジワード(一般ネガポジワード記録部131に格納)とを参照して判断する。
つまり、特徴量抽出部124は、単語それぞれのネガポジ値を決定するとき、一般ネガポジワード検索部122により検索された発言に含まれるネガポジワードに対し、発言に含まれるネガポジワードの示す、ある特定の感情(例えば、ポジティブな感情またはネガティブな感情)の強さの度合いを示す値をこの単語のネガポジ値とする。また、特徴量抽出部124は、この発言の周辺発言の単語のうち、ネガポジワード以外の単語それぞれに対するネガポジ値として、ネガポジワードに付与したネガポジ値と比較してその感情の強さの度合いを軽減した所定の値とする。さらに、特徴量抽出部124は、ユーザの過去ログとネガポジワードとを参照して、ユーザの発言において、ある特定の感情(例えば、ネガティブ)を示す単語の発言頻度が所定の閾値よりも多いと判断された場合は、ネガポジワードに付与されたネガポジ値について、特定の感情(例えば、ネガティブな感情)の強さの度合いを軽減した値に修正し、ある特定の感情と相反する感情(例えば、ポジティブ感情)を示す単語の発言頻度が所定の閾値よりも多いと判断された場合は、ネガポジワードに付与されたネガポジ値について、ある特定の感情(例えば、ネガティブな感情)の強さの度合いを増大した値に修正する。
Details of the method for assigning a negative / positive value to each word here will be described later. For example, the following processing is performed. First, when the utterance searched by the negative / positive word search unit 122 is a utterance including a negative word, the feature amount extraction unit 124 (1) sets the negative / positive value assigned to the negative word included in the utterance as the most negative. Negative-positive value (for example, “0”). Next, (2) a negative positive value assigned to each word (neighboring word) of the peripheral utterance of this utterance is a value (eg, “0”) that is less negative than the negative positive value (eg, “0”) assigned to the negative word. , “0.2”). After that, the feature amount extraction unit 124 (3) If the user is a user who has a relatively large number of negative word utterances, the negative positive value determined in (1) and (2) is further reduced in the negative degree (for example, , Negative word “0.4”, peripheral word “0.5”). On the other hand, if the user is a user who has a relatively large number of positive word utterances, the feature amount extraction unit 124 increases the negative value (eg, negative word) for the negative / positive values determined in (1) and (2). “0” and surrounding word “0.1”). That is, even if it is the same word, the negative degree (positive degree) that the word means differs depending on the usual user's utterance tendency. Therefore, the feature amount extraction unit 124 determines the negative / positive of each word based on the utterance tendency of the user. Adjust the value. It should be noted that whether the user is a user who has a relatively large number of negative word utterances is determined by the feature amount extraction unit 124 and the user's past log (stored in the past log recording unit 132) and negative / positive word (general negative / positive word recording unit 131). To store).
That is, when the feature amount extraction unit 124 determines the negative / positive value of each word, the negative / positive word included in the utterance is indicated by a specific positive word included in the utterance searched by the general negative / positive word search unit 122. A value indicating the degree of strength of emotion (for example, positive emotion or negative emotion) is set as the negative / positive value of this word. In addition, the feature amount extraction unit 124 reduces the degree of emotional strength compared to the negative / positive value assigned to the negative / positive word as the negative / positive value for each word other than the negative / positive word among the words of the peripheral utterances of the utterance To a predetermined value. Furthermore, the feature quantity extraction unit 124 refers to the user's past log and negative / positive word, and in the user's utterance, the utterance frequency of a word indicating a specific emotion (for example, negative) is higher than a predetermined threshold. If it is determined, the negative / positive value given to the negative / positive word is corrected to a value that reduces the degree of strength of a specific emotion (for example, negative emotion), and an emotion (for example, If it is determined that the utterance frequency of a word indicating “positive emotion” is higher than a predetermined threshold, the degree of strength of a specific emotion (for example, negative emotion) is determined for the negative-positive value assigned to the negative-positive word. Correct to an increased value.

このように、特徴量抽出部124は、同じネガティブな意味合いの単語でも、その単語を含む発言をしたユーザが普段からネガティブな発言をするユーザならば、その単語のネガポジ値の示すネガティブ度を低減し、その単語を含む発言をしたユーザが、普段はポジティブな発言をするユーザならば、その単語のネガポジ値の示すネガティブ度を高くする。すなわち、特徴量抽出部124は、各ユーザが、ネガティブな発言が多いか、ポジティブな発言が多いかを考慮して、教師データのネガポジ値の調整を行うので、感情推定の精度の高い教師データを作成することができる。   As described above, the feature amount extraction unit 124 reduces the negative degree indicated by the negative / positive value of the word if the user who made the utterance including the word even in the same negative meaning is the user who usually makes a negative utterance. If the user who made a statement including the word usually makes a positive statement, the negative degree indicated by the negative / positive value of the word is increased. That is, the feature quantity extraction unit 124 adjusts the negative / positive value of the teacher data in consideration of whether each user has many negative utterances or many positive utterances. Can be created.

発言解析部125は、当該ユーザの教師データを用いて、入出力部経由でユーザ端末2から入力される当該ユーザの発言について、その発言の意味する感情(例えば、ネガティブな感情かポジティブな感情か)の傾向を解析する。例えば、発言解析部125は、ユーザの発言のネガポジ値(発言に含まれる単語のネガポジ値の平均値)の示すネガティブ度が所定の閾値を超えるとき、ユーザの発言がネガティブである旨の解析結果(判断結果)を出力する。この解析結果は、解析結果記録部134等に出力する。また、発言解析部125は、この解析結果を、警告発信部126(後記)経由で、ユーザ端末2へ送信してもよい。   The utterance analysis unit 125 uses the teacher data of the user, and for the user's utterance input from the user terminal 2 via the input / output unit, an emotion (for example, negative emotion or positive emotion) that the utterance means ). For example, when the negative degree indicated by the negative / positive value of the user's utterance (the average value of the negative / positive values of the words included in the utterance) exceeds a predetermined threshold, the utterance analysis unit 125 analyzes that the user's utterance is negative. (Judgment result) is output. This analysis result is output to the analysis result recording unit 134 and the like. In addition, the speech analysis unit 125 may transmit the analysis result to the user terminal 2 via the warning transmission unit 126 (described later).

警告発信部126および結果表示部127は、装備しない場合と、装備する場合とがあり、装備する場合については後記する。   The warning transmission unit 126 and the result display unit 127 may or may not be equipped, and the case of being equipped will be described later.

次に、図1を参照しつつ、図3を用いて、感情推定装置1の処理手順の概要を説明する。まず、事前準備として、感情推定装置1は、一般ネガポジワード記録部131にネガポジワードを登録しておく(S11)。また、感情推定装置1は、過去ログ記録部132にユーザごとの過去の発言ログを蓄積する(S12)。   Next, the outline of the processing procedure of the emotion estimation apparatus 1 will be described with reference to FIG. First, as a preliminary preparation, the emotion estimation device 1 registers a negative / positive word in the general negative / positive word recording unit 131 (S11). Moreover, the emotion estimation apparatus 1 accumulate | stores the past remark log for every user in the past log recording part 132 (S12).

そして、教師データ作成部121は、一般ネガポジワード記録部131に登録されたネガポジワードと、過去ログ記録部132に蓄積された当該ユーザの発言の過去ログとを参照して、当該ユーザの教師データを作成する(S13)。ここでの教師データの作成手順の詳細は後記する。そして、教師データ作成部121は、作成した教師データを教師データ記録部133に格納する(S14)。   Then, the teacher data creation unit 121 refers to the negative positive word registered in the general negative / positive word recording unit 131 and the past log of the user's utterance accumulated in the past log recording unit 132, and the teacher data of the user Is created (S13). Details of the teacher data creation procedure will be described later. Then, the teacher data creation unit 121 stores the created teacher data in the teacher data recording unit 133 (S14).

ユーザ端末2の発言入力部21から発言が入力され(S15)、感情推定装置1の発言解析部125がこの発言を受信すると(S16)、この発言の発言元のユーザの教師データを教師データ記録部133から読み出し、この教師データを参照して、発言を解析する(S17)。そして、発言解析部125は解析結果を解析結果記録部134へ出力する(S18)。   When a utterance is input from the utterance input unit 21 of the user terminal 2 (S15) and the utterance analysis unit 125 of the emotion estimation apparatus 1 receives this utterance (S16), the teacher data of the user who has made the utterance of this utterance is recorded as teacher data. The message is read from the unit 133, and the utterance is analyzed with reference to the teacher data (S17). Then, the statement analysis unit 125 outputs the analysis result to the analysis result recording unit 134 (S18).

次に、図4を用いて、図3のS13を詳細に説明する。まず、教師データ作成部121の特徴量抽出部124は、各ユーザの発言の過去ログから、当該ユーザがどれぐらいの頻度でネガティブな発言をしているのか、またポジティブな発言をしているのかを分析する。すなわち、教師データ作成部121は、まず、過去ログ記録部132からユーザそれぞれの過去ログを取得する(S21)。そして、特徴量抽出部124は、一般ネガポジワード記録部131に登録されているネガポジワードを参照して、当該ユーザの過去ログのネガポジを分析する(S22)。つまり、特徴量抽出部124は、一般ネガポジワード記録部131に登録されているネガポジワードを参照して、当該ユーザの過去ログに登場する各単語のネガポジ(ネガティブかポジティブか)を判断する。そして、特徴量抽出部124は、当該ユーザの過去ログ全体におけるネガティブワードおよびポジティブワードそれぞれの登場頻度をカウントし(S23)、カウントした登場頻度をネガポジ頻度情報として感情推定装置1の記憶部の所定領域に記録する(S24)。   Next, S13 of FIG. 3 will be described in detail with reference to FIG. First, the feature amount extraction unit 124 of the teacher data creation unit 121 indicates how often the user is making a negative statement or a positive statement from the past log of each user's statement. Analyze. That is, the teacher data creation unit 121 first acquires each user's past log from the past log recording unit 132 (S21). Then, the feature quantity extraction unit 124 refers to the negative / positive words registered in the general negative / positive word recording unit 131 and analyzes the negative / positive of the past log of the user (S22). That is, the feature amount extraction unit 124 refers to the negative / positive words registered in the general negative / positive word recording unit 131 and determines the negative / positive (negative or positive) of each word appearing in the user's past log. Then, the feature amount extraction unit 124 counts the appearance frequencies of the negative words and the positive words in the entire past log of the user (S23), and uses the counted appearance frequencies as negative / positive frequency information in the predetermined storage unit of the emotion estimation device 1. Record in the area (S24).

また、教師データ作成部121のネガポジワード検索部122は、一般ネガポジワード記録部131に示されるネガポジワードと、過去ログ記録部132に蓄積された当該ユーザの発言の過去ログとを参照して、当該ユーザの過去ログからネガポジワードを含む発言を抽出し(S25)、この検索にヒットした発言と、その発言日時とを前後発言抽出部123へ出力する(S26)。   Further, the negative / positive word search unit 122 of the teacher data creation unit 121 refers to the negative / positive word shown in the general negative / positive word recording unit 131 and the past log of the user's utterance accumulated in the past log recording unit 132, An utterance including a negative / positive word is extracted from the user's past log (S25), and an utterance hit by this search and its utterance date and time are output to the preceding and following utterance extraction unit 123 (S26).

前後発言抽出部123は、当該ユーザの過去ログから、検索にヒットした発言の前後数分間の発言(周辺発言)を抽出する(S27)。そして、S25で検索した発言とその周辺発言とを特徴量抽出部124へ出力する(S28)。   The forward / backward utterance extraction unit 123 extracts utterances (peripheral utterances) for several minutes before and after the utterance hit in the search from the user's past log (S27). Then, the utterance searched in S25 and its peripheral utterances are output to the feature amount extraction unit 124 (S28).

特徴量抽出部124は、S25で抽出した発言とその周辺発言に含まれる各単語のネガポジ値を付与する(S29)。つまり、[単語、ネガポジ値]のペアを当該ユーザの教師データに記録する。なお、特徴量抽出部124は、S24における各単語のネガポジ値の付与にあたり、周辺発言の単語のネガポジ値についてはネガティブワード(またはポジティブワード)よりもネガティブ度(またはポジティブ度)を軽減した値とする。例えば、ネガティブワードの周辺発言のネガポジ値は「0(最もネガティブ度の高い値)」よりもネガティブ度を軽減した値である「0.2」とする。また、ポジティブワードの周辺発言のネガポジ値は「1(最もポジティブ度の高い値)」よりもポジティブ度を軽減した値である「0.8」とする。   The feature quantity extraction unit 124 assigns a negative / positive value of each word included in the utterance extracted in S25 and its peripheral utterances (S29). That is, a pair of [word, negative / positive value] is recorded in the teacher data of the user. It should be noted that the feature amount extraction unit 124 assigns a negative / positive value of each word in S24 to a value obtained by reducing the negative degree (or positive degree) of the negative / positive value of the words of surrounding utterances than the negative word (or positive word). To do. For example, the negative / positive value of the utterances around the negative word is set to “0.2”, which is a value obtained by reducing the negative degree than “0 (value having the highest negative degree)”. Further, the negative / positive value of the peripheral utterances of the positive word is set to “0.8” which is a value obtained by reducing the positive degree than “1 (value having the highest positive degree)”.

また、特徴量抽出部124は、S24で記録したネガポジ頻度情報を参照し、当該ユーザがネガティブな発言が多いユーザか、ポジティブな発言が多いユーザかを判断する。例えば、特徴量抽出部124は、前記したネガポジ頻度情報を参照し、当該ユーザのネガティブワードの発言頻度が所定の閾値よりも多いとき、当該ユーザはネガティブな発言が多いと判断する。一方、当該ユーザのポジティブワードの発言頻度が所定の閾値よりも多いとき、ポジティブな発言が多いと判断する。特徴量抽出部124は、当該ユーザがネガティブな発言が多いユーザか、ポジティブな発言が多いユーザかによりネガポジ値の調整を行う。ここでのネガポジ値の調整の詳細は後記する。そして、特徴量抽出部124は、各単語のネガポジ値を決定すると、その決定したネガポジ値と、単語とのペアを当該ユーザの教師データに記録する。   Further, the feature amount extraction unit 124 refers to the negative / positive frequency information recorded in S24, and determines whether the user is a user with many negative utterances or a user with many positive utterances. For example, the feature amount extraction unit 124 refers to the negative / positive frequency information described above, and determines that the user has many negative utterances when the utterance frequency of the negative word of the user is higher than a predetermined threshold. On the other hand, when the utterance frequency of the positive word of the user is higher than a predetermined threshold, it is determined that there are many positive utterances. The feature amount extraction unit 124 adjusts the negative / positive value depending on whether the user has a lot of negative utterances or a user who has a lot of positive utterances. Details of the adjustment of the negative / positive value will be described later. When the feature value extraction unit 124 determines the negative / positive value of each word, the feature value extraction unit 124 records the determined negative / positive value and the word pair in the teacher data of the user.

次に、図5を用いて、図3のS17を詳細に説明する。図5に示すように、感情推定装置1の発言解析部125は、ユーザ端末2の発言入力部21経由で入力された発言を受信すると、当該ユーザ端末2のユーザの教師データをもとに、当該発言を、ポジティブな発言、ネガティブな発言、ニュートラルな発言のいずれかに分類して、解析結果記録部134に格納する。なお、ユーザの発言の分類は、例えば、発言解析部125が、当該発言に含まれる各単語のネガポジ値の合計値を単語数で割った値a、つまり単語1つあたりのネガポジ値の平均値が、以下の表1に示されるどの範囲に属するか判断することにより行われる。   Next, S17 in FIG. 3 will be described in detail with reference to FIG. As shown in FIG. 5, when the speech analysis unit 125 of the emotion estimation device 1 receives a speech input via the speech input unit 21 of the user terminal 2, based on the teacher data of the user of the user terminal 2, The utterances are classified into positive utterances, negative utterances, and neutral utterances, and stored in the analysis result recording unit 134. The user's speech classification is, for example, a value a obtained by the speech analysis unit 125 dividing the total negative / positive value of each word included in the speech by the number of words, that is, an average value of negative positive values per word. Is performed by determining which range shown in Table 1 below.

Figure 0005947237
Figure 0005947237

なお、発言の分類は、上記の3段階に限定されない。例えば、ポジティブ、ややポジティブ、ニュートラル、ややネガティブ、ネガティブの5段階の分類であってもよいし、それ以上の段階の分類であってもよい。この場合、感情推定装置1にそれぞれの分類に対応するaの値の範囲を設定しておくものとする。   Note that the categorization of comments is not limited to the above three stages. For example, it may be classified into five levels of positive, slightly positive, neutral, slightly negative, and negative, or may be classified at a higher level. In this case, it is assumed that a range of a values corresponding to each classification is set in the emotion estimation device 1.

次に、図1を参照しつつ、図6を用いて、図4のS25からS29までの処理の詳細を説明する。まず、図1の教師データ作成部121において、過去ログ記録部132に新たな発言ログが格納されたことを検知すると(S100)、教師データ作成部121のネガポジワード検索部122は、当該発言の発言元のユーザの教師データの作成が初回であるか否かを判断する(S101)。初回と判断された場合(S101のYes)、ネガポジワード検索部122は、過去ログ記録部132から当該ユーザの最も古いログ(発言ログ)から時系列順に検索し、一般ネガポジワード記録部131に登録されているネガティブワードまたはポジティブワードを含む発言を抽出する(S102)。一方、教師データの作成が初回ではないと判断された場合(S101のNo)、ネガポジワード検索部122は、過去ログ記録部132から前回検索した箇所から時系列順に検索し、一般ネガポジワード記録部131に登録されているネガティブワードまたはポジティブワードを抽出する(S103)。   Next, details of the processing from S25 to S29 in FIG. 4 will be described with reference to FIG. 1 and FIG. First, when the teacher data creation unit 121 in FIG. 1 detects that a new message log is stored in the past log recording unit 132 (S100), the negative / positive word search unit 122 of the teacher data creation unit 121 reads the message. It is determined whether or not the teacher data of the user who made the statement is the first time (S101). When it is determined to be the first time (Yes in S101), the negative / positive word search unit 122 searches the oldest log (utterance log) of the user from the past log recording unit 132 in chronological order and registers it in the general negative / positive word recording unit 131. The utterance including the negative word or the positive word being extracted is extracted (S102). On the other hand, if it is determined that the teacher data is not created for the first time (No in S101), the negative / positive word search unit 122 searches the past log recording unit 132 from the previously searched location in chronological order, and the general negative / positive word recording unit A negative word or a positive word registered in 131 is extracted (S103).

S101,S102の後、前後発言抽出部123は、過去ログ記録部132における当該ユーザの過去ログから、S102またはS103で抽出した発言の前後数分間の発言(周辺発言)を取得する(S104)。   After S101 and S102, the forward / backward utterance extraction unit 123 acquires utterances (peripheral utterances) for several minutes before and after the utterance extracted in S102 or S103 from the past log of the user in the past log recording unit 132 (S104).

S104の後、特徴量抽出部124は、一般ネガポジワード記録部131に示されるネガポジワードを参照して、S102またはS103で抽出した単語がネガティブワードであると判断したとき(S105のYes)、図7のS110へ進む。一方、S102またはS103で抽出した単語がネガティブワードではないと判断したとき(S105のNo)、図8のS120へ進む。   After S104, the feature quantity extraction unit 124 refers to the negative / positive word indicated in the general negative / positive word recording unit 131 and determines that the word extracted in S102 or S103 is a negative word (Yes in S105). It progresses to S110 of 7. On the other hand, when it is determined that the word extracted in S102 or S103 is not a negative word (No in S105), the process proceeds to S120 in FIG.

図7のS110において、特徴量抽出部124は、一般ワード(ここでは、一般ワードはネガティブワードなので「一般ネガティブワード」と呼ぶ)のネガポジ値を最もネガティブな値である「0」とし、その周辺単語のネガポジ値を比較的ネガティブな値である「0.2」とする。その後、特徴量抽出部124は、当該ユーザの過去ログと、一般ネガポジワード記録部131に登録されたネガポジワードとを参照して、当該発言のユーザが普段ネガティブな発言が多いか否かを判断する(S111)。ここでの判断方法はさまざまな方法が考えられるが、例えば、特徴量抽出部124が、当該ユーザの過去ログを参照して、前記した表1等のような判断基準により、ユーザの各発言を、ポジティブな発言、ネガティブな発言、ニュートラルな発言のいずれかに分類する。そして、特徴量抽出部124は、3種類の発言のうち、ネガティブな発言が最も多いユーザについて、そのユーザは普段ネガティブな発言が多いユーザと判断し(S111のYes)、そのユーザの一般ネガティブワードのネガポジ値を「0」から「0.4」に修正し、その周辺単語のネガポジ値を「0.2」から「0.5」に修正する(S112)。つまり、特徴量抽出部124は、S110で付与した一般ネガティブワードおよびその周辺単語のネガポジ値のネガティブ度を低減する。すなわち、一般ネガティブワードおよびその周辺単語のネガポジ値をポジティブ寄りに修正する。   In S110 of FIG. 7, the feature amount extraction unit 124 sets the negative / positive value of a general word (referred to as “general negative word” because the general word is a negative word here) to “0”, which is the most negative value, and its surroundings. The negative / positive value of the word is set to “0.2”, which is a relatively negative value. Thereafter, the feature amount extraction unit 124 refers to the user's past log and the negative / positive word registered in the general negative / positive word recording unit 131 to determine whether the user of the utterance usually has many negative utterances. (S111). Various determination methods are conceivable here. For example, the feature amount extraction unit 124 refers to the user's past log and determines each user's remark based on the determination criteria such as Table 1 described above. Categorized as positive, negative, or neutral. Then, the feature amount extraction unit 124 determines that the user who has the most negative utterances among the three types of utterances is the user who usually has many negative utterances (Yes in S111), and the user's general negative word The negative / positive value is corrected from “0” to “0.4”, and the negative / positive value of the surrounding word is corrected from “0.2” to “0.5” (S112). That is, the feature amount extraction unit 124 reduces the negative degree of the negative / positive values of the general negative word and its surrounding words assigned in S110. In other words, the negative / positive values of the general negative word and the surrounding words are corrected closer to positive.

一方、特徴量抽出部124は、3種類の発言のうち、最も多い発言がネガティブな発言ではないユーザについては普段ネガティブな発言の多くないユーザと判断し(S111のNo)、一般ネガティブワードのネガポジ値を「0」のままにし、周辺単語のネガポジ値を「0.2」から「0.1」に修正する(S113)。   On the other hand, the feature amount extraction unit 124 determines that a user whose number of utterances is not a negative utterance among the three types of utterances is usually a user who does not have many negative utterances (No in S111). The value is left as “0”, and the negative / positive value of surrounding words is corrected from “0.2” to “0.1” (S113).

特徴量抽出部124は、S112およびS113でネガポジ値を与えた単語が、既に当該ユーザの教師データに登録されていないかを判断し(S114)、まだ登録されていなければ(S114のYes)、[単語、ネガポジ値]のペアを当該ユーザの教師データに登録する(S115)。そして、S100へ戻る。一方、S112およびS113でネガポジ値を与えた単語が、既に当該ユーザの教師データに登録されていれば(S114のNo)、S112またはS113で付与したネガポジ値−0.1を計算し、計算した値を付与した[単語、ネガポジ値]のペアを当該ユーザの教師データに登録する(S116)。そして、S100へ戻る。ただし、ネガポジ値は0以上の値とし、S116の計算の結果、値が0より小さい値になったときは、値を0とする。このようにすることで、例えば、ネガティブワードの周辺単語について、ネガティブワードの周辺単語として抽出されるたびに、当該単語のネガポジ値が減っていく(ネガティブ度を増す)ことになる。よって、教師モデルにおけるネガポジ値の精度を向上させることができる。   The feature amount extraction unit 124 determines whether or not the word that gave the negative / positive value in S112 and S113 has already been registered in the teacher data of the user (S114), and if not yet registered (Yes in S114), A pair of [word, negative / positive value] is registered in the teacher data of the user (S115). Then, the process returns to S100. On the other hand, if the word that gave the negative / positive value in S112 and S113 has already been registered in the teacher data of the user (No in S114), the negative / positive value given in S112 or S113 was calculated as -0.1. A pair of [word, negative / positive value] to which a value is assigned is registered in the teacher data of the user (S116). Then, the process returns to S100. However, the negative / positive value is 0 or more. If the value is smaller than 0 as a result of the calculation in S116, the value is 0. In this way, for example, each time a word around a negative word is extracted as a word around the negative word, the negative / positive value of the word decreases (increases the negative degree). Therefore, the accuracy of the negative / positive value in the teacher model can be improved.

次に、図8のS120以降の処理を説明する。特徴量抽出部124は、一般ワード(ここでは、一般ワードはポジティブワードなので「一般ポジティブワード」と呼ぶ))のネガポジ値を最もポジティブな値である「1」とし、その周辺単語のネガポジ値を比較的ポジティブな値である「0.8」とする(S120)。その後、特徴量抽出部124は、当該ユーザの過去ログと、一般ネガポジワード記録部131に登録されたネガポジワードとを参照して、当該発言のユーザが普段ポジティブな発言が多いか否かを判断する(S121)。ここでの判断はS111と同様に、特徴量抽出部124が、当該ユーザの発言は、前記した3種類の発言のうち、どの発言が最も多いかにより行われる。ここで、特徴量抽出部124が、当該ユーザは、普段ポジティブな発言が多いユーザと判断したとき(S121のYes)、当該ユーザの一般ポジティブワードのネガポジ値を「1」から「0.6」に修正し、その周辺単語のネガポジ値を「0.8」から「0.5」に修正する(S122)。つまり、特徴量抽出部124は、S110で付与した一般ポジティブワードおよびその周辺単語のネガポジ値のポジティブ度を低減する。すなわち、一般ポジティブワードおよびその周辺単語のネガポジ値をネガティブ寄りに修正する。   Next, the processing after S120 in FIG. 8 will be described. The feature amount extraction unit 124 sets the negative / positive value of a general word (here, the general word is a positive word and is referred to as “general positive word”) to be the most positive value “1”, and the negative / positive values of the surrounding words are A relatively positive value “0.8” is set (S120). Thereafter, the feature amount extraction unit 124 refers to the user's past log and the negative / positive word registered in the general negative / positive word recording unit 131 to determine whether the user of the utterance usually has many positive utterances. (S121). Similar to S111, the feature amount extraction unit 124 makes the determination here based on which of the three types of statements is the most. Here, when the feature amount extraction unit 124 determines that the user is a user who usually has many positive utterances (Yes in S121), the negative / positive value of the user's general positive word is changed from “1” to “0.6”. The negative / positive value of the surrounding word is corrected from “0.8” to “0.5” (S122). That is, the feature amount extraction unit 124 reduces the positive degree of the negative / positive value of the general positive word and its surrounding words assigned in S110. That is, the negative / positive values of the general positive word and the surrounding words are corrected toward negative.

一方、特徴量抽出部124は、当該ユーザは普段ポジティブな発言が多くないユーザと判断したとき(S121のNo)、一般ポジティブワードのネガポジ値を「1」のままにし、その周辺単語のネガポジ値を「0.9」に修正する(S123)。そして、S100へ戻る。   On the other hand, when the feature amount extraction unit 124 determines that the user is a user who usually does not have many positive utterances (No in S121), the negative / positive value of the general positive word remains “1” and the negative / positive value of the surrounding words. Is corrected to "0.9" (S123). Then, the process returns to S100.

特徴量抽出部124は、S112およびS113でネガポジ値を与えた単語が、既に当該ユーザの教師データに登録されていないか否かを判断し(S124)、登録されていなければ(S124のYes)、[単語,ネガポジ値]のペアを当該ユーザの教師データに記録する(S125)。一方、S112およびS113でネガポジ値を与えた単語が、既に当該ユーザの教師データに登録されていれば(S124のNo)、S122またはS123で付与したネガポジ値+0.1を計算し、計算した値を付与した[単語、ネガポジ値]のペアを当該ユーザの教師データに登録する(S126)。そして、S100へ戻る。ただし、ネガポジ値は1以下の値とし、S126の計算の結果、値が1より大きい値になったときは、値を「1」とする。このようにすることで、例えば、ポジティブワードの周辺単語について、ポジティブワードの周辺語として抽出されるたびに、当該単語のネガポジ値が増加していく(ポジティブ度を増す)ことになる。よって、教師モデルにおけるネガポジ値の精度を向上させることができる。   The feature amount extraction unit 124 determines whether or not the word to which the negative / positive value is given in S112 and S113 is not already registered in the teacher data of the user (S124), and if not registered (Yes in S124). , [Word, negative / positive value] pair is recorded in the teacher data of the user (S125). On the other hand, if the word that gave the negative / positive value in S112 and S113 has already been registered in the teacher data of the user (No in S124), the negative / positive value given in S122 or S123 +0.1 is calculated, and the calculated value The pair of [word, negative / positive value] to which is added is registered in the teacher data of the user (S126). Then, the process returns to S100. However, the negative / positive value is set to a value of 1 or less, and when the value is larger than 1 as a result of the calculation in S126, the value is set to “1”. By doing so, for example, each time a word around a positive word is extracted as a word around the positive word, the negative / positive value of the word increases (increases the degree of positiveness). Therefore, the accuracy of the negative / positive value in the teacher model can be improved.

以上説明したとおり、感情推定装置1の教師データ作成部121は、ユーザごとに当該ユーザはネガティブ発言が多いか、ポジティブ発言が多いか等を考慮して、ユーザごとの教師データを作成する。つまり、教師データ作成部121は感情推定精度の高い教師データを作成する。   As described above, the teacher data creation unit 121 of the emotion estimation apparatus 1 creates teacher data for each user in consideration of whether the user has many negative utterances or many positive utterances for each user. That is, the teacher data creation unit 121 creates teacher data with high emotion estimation accuracy.

なお、感情推定装置1の特徴量抽出部124は、図6〜図8に示す処理に基づき教師データの各単語のネガポジ値を付与した後、ネガポジ値の調整を行うようにしてもよい。例えば、特徴量抽出部124は、ユーザの教師データにおける、ネガティブワードおよびその周辺発言に含まれる単語のうち、当該ユーザの過去ログにおいて、ポジティブワードを含む発言の周辺発言にも登場する単語があれば、その単語のネガポジ値を、ネガティブ度を軽減した値に修正する。つまり、特徴量抽出部124は、比較的ネガティブな発言であっても当該ユーザの過去の発言においてポジティブワードの周辺単語としても登場する単語については、ネガティブ度はさほど高くない可能性があるので、ネガポジ値をよりポジティブ寄りの値に修正する。   Note that the feature amount extraction unit 124 of the emotion estimation device 1 may adjust the negative / positive value after assigning the negative / positive value of each word of the teacher data based on the processing shown in FIGS. For example, the feature amount extraction unit 124 may include words that appear in the peripheral utterances of the utterances including the positive words in the past log of the user among the words included in the negative words and the utterances around the negative words in the user's teacher data. For example, the negative / positive value of the word is corrected to a value that reduces the negative degree. That is, since the feature amount extraction unit 124 may be a relatively negative utterance, the negative degree may not be so high for words that appear as peripheral words of the positive word in the user's past utterances. Correct the negative / positive value to a value closer to positive.

また、特徴量抽出部124は、ユーザの教師データにおける、ポジティブワードおよびその周辺発言に含まれる単語のうち、当該ユーザの過去ログにおいて、ネガティブワードを含む発言の周辺発言にも登場する単語についても、その単語のネガポジ値を、ポジティブ度を軽減した値に修正する。つまり、特徴量抽出部124は、比較的ポジティブな発言であっても、当該ユーザの過去の発言においてネガティブワードの周辺単語としても登場する単語については、ポジティブ度はさほど高くない可能性があるので、ネガポジ値をよりネガティブ寄りの値に修正する。ただし、ここでも、ネガポジ値の値は0〜1までの間とする。つまり、ネガポジ値は「1」で頭打ち、「0」で底打ちとする。   The feature amount extraction unit 124 also includes words that appear in peripheral utterances of utterances including negative words in the user's past log among words included in positive words and utterances around the positive words in the user's teacher data. Then, the negative / positive value of the word is corrected to a value that reduces the positive degree. That is, even if the feature amount extraction unit 124 is a relatively positive utterance, there is a possibility that the positive degree is not so high for a word that appears as a peripheral word of the negative word in the past utterance of the user. The negative / positive value is corrected to a more negative value. Here, however, the negative / positive value is between 0 and 1. That is, the negative / positive value reaches a peak at “1” and bottoms out at “0”.

このようにネガポジ値の調整を行うことで、特徴量抽出部124はユーザの教師データの精度をさらに向上させることができる。   By adjusting the negative / positive value in this way, the feature amount extraction unit 124 can further improve the accuracy of the user's teacher data.

なお、感情推定装置1は、図1に示すように、警告発信部126をさらに備えていてもよい。この警告発信部126は、発言解析部が含まれていた場合、その旨の警告をユーザ端末2へ送信する。例えば、感情推定装置1は、ユーザ端末2の発言入力部21経由で入力されたユーザの発言をリアルタイムで受信し、発言解析部125が、受信した発言の発言解析を行う。そして、発言解析の結果、その発言にネガティブ発言が含まれていた場合、警告発信部126は、ユーザ端末2へ警告を送信する。この警告は、ユーザ端末2の警告表示部22により表示装置(図示省略)等に表示される。これにより、ユーザ端末2のユーザは、自分がネガティブな発言をしたか否かをリアルタイムに知ることができる。なお、感情推定装置1はユーザ端末2からこのような警告を送信するか否かの設定を受信しておき、このような警告を送信する旨が設定されているユーザ端末2に対し、警告を送信するようにしてもよい。   The emotion estimation device 1 may further include a warning transmission unit 126 as shown in FIG. If the message analysis unit is included, the warning transmission unit 126 transmits a warning to that effect to the user terminal 2. For example, the emotion estimation apparatus 1 receives a user's utterance input via the utterance input unit 21 of the user terminal 2 in real time, and the utterance analysis unit 125 analyzes the received utterance. Then, as a result of the utterance analysis, if the utterance includes a negative utterance, the warning transmission unit 126 transmits a warning to the user terminal 2. This warning is displayed on a display device (not shown) or the like by the warning display unit 22 of the user terminal 2. Thereby, the user of the user terminal 2 can know in real time whether he / she has made a negative statement. The emotion estimation device 1 receives a setting as to whether or not to transmit such a warning from the user terminal 2 and issues a warning to the user terminal 2 that is set to transmit such a warning. You may make it transmit.

また、感情推定装置1は、図1に示す結果表示部127を備えていてもよい。この結果表示部127は、ユーザ端末2からの要求に応じてユーザの過去所定期間における発言の解析結果を送信する。結果表示部127は、ユーザ端末2の閲覧部23から過去所定期間における発言の解析結果の閲覧要求を受け付けると、解析結果記録部134に格納された当該ユーザの過去所定期間の発言の解析結果をユーザ端末2へ送信する。そして、この解析結果を受信したユーザ端末2は、閲覧部23によりこの解析結果を表示装置等に表示させる。これにより、ユーザ端末2のユーザは、自分の過去の発言における感情(ネガティブ、ポジティブ)の推移等を知ることができる。   Moreover, the emotion estimation apparatus 1 may be provided with the result display part 127 shown in FIG. In response to a request from the user terminal 2, the result display unit 127 transmits a speech analysis result in the past predetermined period of the user. When the result display unit 127 accepts a browsing request for the analysis result of the speech in the past predetermined period from the browsing unit 23 of the user terminal 2, the result display unit 127 displays the analysis result of the user in the past predetermined period stored in the analysis result recording unit 134. It transmits to the user terminal 2. The user terminal 2 that has received the analysis result causes the browsing unit 23 to display the analysis result on a display device or the like. Thereby, the user of the user terminal 2 can know the transition of emotion (negative, positive) in his / her past utterance.

また、感情推定装置1の一般ネガポジワード記録部131に登録されるネガポジワードは、一般的な意味でのネガティブワードおよびポジティブワードのみならず、ユーザそれぞれが設定したネガティブワードおよびポジティブワードを含んでいてもよい。例えば、ユーザAのネガティブワードとして「微妙」という単語が登録されていた場合、感情推定装置1が、ユーザAの「微妙」という単語を含む発言の入力を受け付けたときは、この単語のネガポジ値を「0」とする。このように一般ネガポジワード記録部131がユーザ特有のネガポジワードをさらに登録しておくことで、特徴量抽出部124は、感情推定精度の高い教師データを作成することができる。   Further, the negative / positive words registered in the general negative / positive word recording unit 131 of the emotion estimation apparatus 1 include not only negative words and positive words in a general sense but also negative words and positive words set by the respective users. Also good. For example, when the word “subtle” is registered as the negative word of the user A, when the emotion estimation apparatus 1 accepts an input of a utterance including the word “subtle” of the user A, the negative / positive value of the word Is “0”. As described above, when the general negative / positive word recording unit 131 further registers a negative / positive word specific to the user, the feature amount extracting unit 124 can create teacher data with high emotion estimation accuracy.

また、一般ネガポジワード記録部131は、ネガポジワードの単語ごとに、その単語に付与するネガポジ値の設定情報をさらに含んでいてもよい。例えば、一般ネガポジワード記録部131は、「どうせ」という単語についてはネガポジ値を「0」とするが、「面倒」という単語についてはネガポジ値を「0.1」とする、という情報をさらに含んでいてもよい。つまり、前記した実施の形態において、特徴量抽出部124は、発言に登場する単語のうち、一般ネガポジワード記録部131に登録されるネガティブワードに対してはネガポジ値「0」を付与し(図7のS110参照)、ポジティブワードにはネガポジ値「1」を付与する(図8のS120参照)ことしたが、一般ネガポジワード記録部131に設定された当該単語のネガポジ値を付与するようにしてもよい。このようにすることで、特徴量抽出部124は教師データにおける各単語のネガポジ値として、より細やかな値を設定できので、感情推定精度の高い教師データを作成することができる。   Further, the general negative / positive word recording unit 131 may further include setting information of a negative / positive value to be assigned to each word of the negative / positive word. For example, the general negative / positive word recording unit 131 further includes information that the negative / positive value is set to “0” for the word “anything”, but the negative / positive value is set to “0.1” for the word “troublesome”. You may go out. That is, in the above-described embodiment, the feature amount extraction unit 124 assigns a negative positive value “0” to the negative words registered in the general negative / positive word recording unit 131 among the words appearing in the utterance (see FIG. 7 (see S110 in FIG. 7), a negative positive value “1” is assigned to the positive word (see S120 in FIG. 8), but the negative / positive value of the word set in the general negative / positive word recording unit 131 is assigned. Also good. In this way, the feature quantity extraction unit 124 can set a finer value as the negative / positive value of each word in the teacher data, so that teacher data with high emotion estimation accuracy can be created.

なお、前記した実施の形態において、特徴量抽出部124が作成するネガポジ頻度情報は、ユーザの発言に含まれる単語のネガポジ値の範囲ごとに、その範囲のネガポジ値を持つ単語の登場頻度を示した情報であってもよい(表2参照)。ここでのネガポジ頻度情報の作成は、当該ユーザの教師データを参照して行われる。   In the above-described embodiment, the negative / positive frequency information created by the feature amount extraction unit 124 indicates the appearance frequency of a word having a negative / positive value in that range for each range of negative / positive values of the word included in the user's utterance. Information (see Table 2). The creation of the negative / positive frequency information here is performed with reference to the teacher data of the user.

Figure 0005947237
Figure 0005947237

そして、特徴量抽出部124は、このネガポジ値の範囲ごとの登場頻度の値をもとに、スコアを計算し、そのスコア値をもとに、各ユーザがネガティブな発言が多いか、ポジティブな発言が多いか(あるいは、それともそのどちらでもないか)を判断するようにしてもよい。   Then, the feature amount extraction unit 124 calculates a score based on the appearance frequency value for each range of the negative / positive value, and based on the score value, each user has a lot of negative statements or is positive. You may make it judge whether there are many remarks (or it is neither of them).

また、前記した実施の形態において説明した感情推定装置1が実行する処理をコンピュータが実行可能な言語で記述したプログラムで実現してもよい。この場合、コンピュータがプログラムを実行することにより、実施の形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより前記した実施の形態と同様の処理を実現してもよい。以下に、図1に示した感情推定装置1と同様の機能を実現するプログラムを実行するコンピュータの一例を説明する。   Further, the processing executed by the emotion estimation apparatus 1 described in the above embodiment may be realized by a program described in a language that can be executed by a computer. In this case, the same effect as the embodiment can be obtained by executing the program by the computer. Further, such a program may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer and executed to execute the same processing as in the above-described embodiment. Below, an example of the computer which performs the program which implement | achieves the function similar to the emotion estimation apparatus 1 shown in FIG. 1 is demonstrated.

図9に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。   As illustrated in FIG. 9, the computer 1000 includes, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. These units are connected by a bus 1080.

メモリ1010は、図9に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図9に例示するように、ハードディスクドライブ1031に接続される。ディスクドライブインタフェース1040は、図9に例示するように、ディスクドライブ1041に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブに挿入される。シリアルポートインタフェース1050は、図9に例示するように、例えばマウス1051、キーボード1052に接続される。ビデオアダプタ1060は、図9に例示するように、例えばディスプレイ1061に接続される。   The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012 as illustrated in FIG. The ROM 1011 stores a boot program such as BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1031 as illustrated in FIG. The disk drive interface 1040 is connected to the disk drive 1041 as illustrated in FIG. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive. The serial port interface 1050 is connected to a mouse 1051 and a keyboard 1052, for example, as illustrated in FIG. The video adapter 1060 is connected to a display 1061, for example, as illustrated in FIG.

ここで、図9に例示するように、ハードディスクドライブ1031は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1031に記憶される。   Here, as illustrated in FIG. 9, the hard disk drive 1031 stores, for example, an OS 1091, an application program 1092, a program module 1093, and program data 1094. That is, the program is stored in, for example, the hard disk drive 1031 as a program module in which a command to be executed by the computer 1000 is described.

また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1031に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1031に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、アクセス監視手順、アクセス制御手順、プロセス監視手順、プロセス制御手順を実行する。   The various data described in the above embodiment is stored as program data, for example, in the memory 1010 or the hard disk drive 1031. Then, the CPU 1020 reads the program module 1093 and program data 1094 stored in the memory 1010 and the hard disk drive 1031 to the RAM 1012 as necessary, and executes an access monitoring procedure, an access control procedure, a process monitoring procedure, and a process control procedure.

なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1031に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、監視プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。   Note that the program module 1093 and the program data 1094 related to the program are not limited to being stored in the hard disk drive 1031, but may be stored in, for example, a removable storage medium and read out by the CPU 1020 via the disk drive or the like. . Alternatively, the program module 1093 and the program data 1094 related to the monitoring program are stored in another computer connected via a network (LAN, WAN (Wide Area Network), etc.) and read by the CPU 1020 via the network interface 1070. May be.

1 感情推定装置
2 ユーザ端末
21 発言入力部
22 警告表示部
23 閲覧部
121 教師データ作成部
122 ネガポジワード検索部(感情表記ワード検索部)
123 前後発言抽出部
124 特徴量抽出部
125 発言解析部
126 警告発信部
127 結果表示部
131 一般ネガポジワード記録部(一般感情表記ワード記録部)
132 過去ログ記録部
133 教師データ記録部
134 解析結果記録部
DESCRIPTION OF SYMBOLS 1 Emotion estimation apparatus 2 User terminal 21 Statement input part 22 Warning display part 23 Browse part 121 Teacher data creation part 122 Negative positive word search part (Emotion expression word search part)
123 Pre- and post-utterance extraction unit 124 Feature amount extraction unit 125 Speech analysis unit 126 Warning transmission unit 127 Result display unit 131 General negative / positive word recording unit (general emotion expression word recording unit)
132 Past log recording unit 133 Teacher data recording unit 134 Analysis result recording unit

Claims (7)

ユーザごとの発言内容を示した過去ログを格納する過去ログ記録部と、
ある特定の感情とその相反する感情を示す語句である感情表記ワードを格納する一般感情表記ワード記録部と、
前記一般感情表記ワード記録部を参照して、前記ユーザの過去ログから、前記感情表記ワードのいずれかを含む発言を検索する感情表記ワード検索部と、
前記ユーザの過去ログから、前記検索された感情表記ワードを含む発言を中心として前後所定範囲内の発言である周辺発言を抽出する前後発言抽出部と、
前記ユーザごとに、前記発言に含まれる単語それぞれの前記ある特定の感情の強さの度合いを表す感情ベクトルの値を示した教師データを作成する特徴量抽出部と、
前記ユーザの前記教師データを用いて、前記ユーザの発言が意味する前記ある特定の感情の傾向を判断し、前記判断結果を出力する発言解析部とを備え、
前記特徴量抽出部は、
前記単語それぞれの感情ベクトルの値を決定するとき、前記感情表記ワード検索部により検索された発言に含まれる感情表記ワードに対し、前記発言に含まれる感情表記ワードが示す感情の種別に応じた所定の感情の強さの度合いを示す値を前記感情表記ワードの感情ベクトルの値として付与し、前記発言の周辺発言の単語のうち、前記感情表記ワード以外の単語それぞれに対する感情ベクトルの値として、前記感情表記ワードに付与した前記感情ベクトルの値と比較して前記ある特定の感情の強さの度合いを軽減した所定の値を付与し、
前記ユーザの過去ログと前記感情表記ワードとを参照して、前記ユーザの発言において、前記ある特定の感情を示す前記感情表記ワードの発言頻度が所定の閾値よりも多いと判断された場合は、前記感情表記ワードに付与された前記感情ベクトルの値について、前記ある特定の感情の強さの度合いを軽減した値に修正し、前記ある特定の感情と相反する感情を示す感情表記ワードの発言頻度が所定の閾値よりも多いと判断された場合は、前記感情表記ワードに付与された前記感情ベクトルの値について、前記ある特定の感情の強さの度合いを増大した値に修正する
ことを特徴とする感情推定装置。
A past log recording unit for storing a past log indicating the content of a message for each user;
A general emotion notation word recording unit for storing an emotion notation word which is a phrase indicating a specific emotion and an opposite emotion;
Referring to the general emotion expression word recording unit, an emotion expression word search unit for searching a remark including any of the emotion expression words from the past log of the user;
Before-and-after utterance extraction unit for extracting a peripheral utterance that is a utterance within a predetermined range around the utterance including the searched emotion expression word from the user's past log;
A feature amount extraction unit that creates teacher data indicating a value of an emotion vector representing the degree of strength of the specific emotion of each word included in the utterance for each user;
Using the teacher data of the user, and determining a tendency of the certain emotion that means the user's remarks, and a remark analysis unit that outputs the determination result,
The feature amount extraction unit includes:
When determining the value of the emotion vector for each of the words, a predetermined value corresponding to the type of emotion indicated by the emotion expression word included in the statement with respect to the emotion expression word included in the statement searched by the emotion expression word search unit A value indicating the degree of emotion strength is given as the value of the emotion vector of the emotion notation word, and the value of the emotion vector for each of the words other than the emotion notation word among the words of the surrounding speech of the statement, A predetermined value that reduces the degree of strength of the specific emotion compared to the value of the emotion vector assigned to the emotion notation word ,
With reference to the user's past log and the emotion notation word, in the user's remarks, when it is determined that the remark frequency of the emotion notation word indicating the specific emotion is greater than a predetermined threshold, The value of the emotion vector assigned to the emotion notation word is corrected to a value that reduces the degree of strength of the specific emotion, and the frequency of the emotion notation word indicating an emotion that conflicts with the specific emotion Is determined to be greater than a predetermined threshold, the value of the emotion vector assigned to the emotion notation word is corrected to an increased value of the strength of the specific emotion. Emotion estimation device.
前記特徴量抽出部は、さらに、
前記発言に含まれる前記感情表記ワードが示す感情の種別がネガティブである場合、
ネガティブな感情を示す前記感情表記ワードに対する前記感情ベクトルの値として、ネガティブな感情の強さの度合いを示すネガティブ度としての所定の値を付与し、前記発言の周辺発言の単語のうち、前記感情表記ワード以外の単語それぞれに対する前記感情ベクトルの値として、前記ネガティブな感情を示す感情表記ワードに付与した前記感情ベクトルの値と比較してネガティブ度を軽減した所定の値を付与し、
前記発言に含まれる前記感情表記ワードが示す感情の種別がポジティブである場合、
ポジティブな感情を示す前記感情表記ワードに対する前記感情ベクトルの値として、ポジティブな感情の強さの度合いを示すポジティブ度としての所定の値を付与し、前記発言の周辺発言の単語のうち、前記感情表記ワード以外の単語それぞれに対する前記感情ベクトルの値として、前記ポジティブな感情を示す感情表記ワードに付与した前記感情ベクトルの値と比較してポジティブ度を軽減した所定の値を付与する
ことを特徴とする請求項1に記載の感情推定装置。
The feature amount extraction unit further includes:
When the emotion type indicated by the emotion notation word included in the statement is negative,
As the value of the emotion vector for the emotion notation word indicating negative emotion, a predetermined value as a negative degree indicating the degree of strength of negative emotion is given, and the emotion among the words of the peripheral statements of the statement As a value of the emotion vector for each word other than a notation word, a predetermined value with a reduced negative degree compared to the value of the emotion vector given to the emotion notation word indicating the negative emotion is given,
When the emotion type indicated by the emotion notation word included in the statement is positive,
As a value of the emotion vector for the emotion notation word indicating positive emotion, a predetermined value as a positive degree indicating the degree of strength of positive emotion is given, and the emotion among the words of the peripheral statements of the statement The emotion vector value for each word other than the notation word is given a predetermined value with a reduced positive degree compared to the emotion vector value given to the emotion notation word indicating the positive emotion, The emotion estimation apparatus according to claim 1 .
前記特徴量抽出部は、さらに、
前記ユーザの発言において、前記ある特定の感情としてネガティブな感情を示す感情表記ワードであるネガティブワードの発言頻度が所定の閾値よりも多いと判断された場合、前記ネガティブワードに付与された前記感情ベクトルの値について、ネガティブな感情の強さの度合いであるネガティブ度を軽減した値に修正し、前記ネガティブな感情と反対のポジティブな感情を示す感情表記ワードであるポジティブワードの発言頻度が所定の閾値よりも多いと判断された場合、前記ネガティブワードである感情表記ワードに付与された感情ベクトルの値について、ネガティブ度を高くした値に修正し、
前記ユーザの発言において、前記ある特定の感情としてポジティブな感情を示す感情表記ワードであるポジティブワードの発言頻度が所定の閾値よりも多いと判断された場合、前記ポジティブワードに付与された前記感情ベクトルの値について、ポジティブな感情の強さの度合いであるポジティブ度を軽減した値に修正し、前記ポジティブな感情と反対のネガティブな感情を示す感情表記ワードであるネガティブワードの発言頻度が所定の閾値よりも多いと判断された場合、前記ポジティブワードである感情表記ワードに付与された感情ベクトルの値について、ポジティブ度を高くした値に修正する、
ことを特徴とする請求項に記載の感情推定装置。
The feature amount extraction unit further includes:
In the user's utterance, when it is determined that the utterance frequency of a negative word, which is an emotion expression word indicating negative emotion as the specific emotion, is higher than a predetermined threshold, the emotion vector assigned to the negative word The value of the positive word is corrected to a value that reduces the negative degree, which is the degree of strength of negative emotion, and the utterance frequency of a positive word that is an emotion expression word indicating a positive emotion opposite to the negative emotion is a predetermined threshold value If it is determined that there are more than, the value of the emotion vector given to the emotion expression word that is the negative word is corrected to a value with a higher negative degree,
In the user's utterance, when it is determined that the utterance frequency of a positive word that is an emotion expression word indicating a positive emotion as the specific emotion is higher than a predetermined threshold, the emotion vector assigned to the positive word The value of the negative word is corrected to a value that reduces the positive degree, which is the degree of the strength of positive emotion, and the negative word utterance frequency indicating the negative emotion opposite to the positive emotion is a predetermined threshold value. If it is determined that there are more than, the value of the emotion vector assigned to the emotion notation word that is the positive word is corrected to a value with a higher positive degree.
The emotion estimation apparatus according to claim 2 , wherein:
前記特徴抽出部は、さらに、
前記ユーザの教師データにおける、前記ネガティブワードおよびその周辺発言に含まれる単語のうち、前記ユーザの過去ログにおいて、前記ポジティブワードを含む発言の周辺発言にも登場する単語の感情ベクトルの値について、ネガティブ度を軽減した値に修正することを特徴とする請求項に記載の感情推定装置。
The feature extraction unit further includes:
Among the words included in the negative word and the surrounding utterances in the user's teacher data, the negative emotion value of the word that also appears in the peripheral utterance of the utterance including the positive word in the user's past log. The emotion estimation apparatus according to claim 3 , wherein the emotion is corrected to a value with a reduced degree.
前記特徴抽出部は、さらに、
前記ユーザの教師データにおける、前記ポジティブワードおよびその周辺発言に含まれる単語のうち、前記ユーザの過去ログにおいて、前記ネガティブワードを含む発言の周辺発言にも登場する単語の感情ベクトルの値について、ポジティブ度を軽減した値に修正することを特徴とする請求項または請求項に記載の感情推定装置。
The feature extraction unit further includes:
Among the words included in the positive word and the surrounding utterances in the user's teacher data, positive about the emotion vector value of the word that also appears in the peripheral utterances of the utterance including the negative word in the user's past log The emotion estimation apparatus according to claim 3 or 4 , wherein the emotion is corrected to a value with a reduced degree.
感情推定装置が、
ある特定の感情とその相反する感情を示す語句である感情表記ワードを格納する一般感情表記ワード記録部を参照して、ユーザごとの発言内容を示した過去ログから、ネガティブまたはポジティブな感情を示す語句である感情表記ワードのいずれかを含む発言を検索する感情表記ワード検索ステップと、
前記ユーザの過去ログから、前記検索された感情表記ワードを含む発言を中心として前後所定範囲内の発言である周辺発言を抽出する前後発言抽出ステップと、
前記ユーザごとに、前記発言の単語それぞれの意味する個人の感情の強さの度合いを表す感情ベクトルの値を示した教師データを作成する特徴量抽出ステップと、
前記ユーザの前記教師データを用いて、前記ユーザの発言が意味する前記ある特定の感情の傾向を判断して、前記判断結果を出力する発言解析ステップとを実行し、
前記特徴量抽出ステップは、
前記単語それぞれの感情ベクトルの値を決定するとき、前記感情表記ワード検索ステップにより検索された発言に含まれる感情表記ワードに対し、前記発言に含まれる感情表記ワードが示す感情の種別に応じた所定の感情の強さの度合いを示す値を前記感情表記ワードの感情ベクトルの値として付与し、前記発言の周辺発言の単語のうち、前記感情表記ワード以外の単語それぞれに対する感情ベクトルの値として、前記感情表記ワードに付与した前記感情ベクトルの値と比較して前記ある特定の感情の強さの度合いを軽減した所定の値を付与し、
前記ユーザの過去ログと前記感情表記ワードとを参照して、前記ユーザの発言において、前記ある特定の感情を示す前記感情表記ワードの発言頻度が所定の閾値よりも多いと判断された場合は、前記感情表記ワードに付与された前記感情ベクトルの値について、前記ある特定の感情の強さの度合いを軽減した値に修正し、前記ある特定の感情と相反する感情を示す感情表記ワードの発言頻度が所定の閾値よりも多いと判断された場合は、前記感情表記ワードに付与された前記感情ベクトルの値について、前記ある特定の感情の強さの度合いを増大した値に修正する
ことを特徴とする感情推定方法。
Emotion estimation device
Refers to the general emotion notation word recording unit that stores the emotion notation word, which is a phrase indicating a specific emotion and the opposite emotion, and indicates negative or positive emotion from the past log showing the content of each user's utterance An emotion expression word search step for searching for a statement including any of the emotion expression words that are phrases;
Before-and-after utterance extraction step of extracting peripheral utterances that are utterances within a predetermined range around the utterance including the searched emotion expression word from the user's past log;
A feature amount extraction step for creating teacher data indicating a value of an emotion vector representing the degree of the strength of personal emotion that each of the words of the speech means for each user,
Using the teacher data of the user, determining a tendency of the certain emotion that the user's statement means, and executing a statement analysis step of outputting the determination result;
The feature amount extraction step includes:
When determining the value of the emotion vector for each of the words, a predetermined value corresponding to the type of emotion indicated by the emotion notation word included in the statement with respect to the emotion notation word included in the statement searched by the emotion notation word search step A value indicating the degree of emotion strength is given as the value of the emotion vector of the emotion notation word, and the value of the emotion vector for each of the words other than the emotion notation word among the words of the surrounding speech of the statement, A predetermined value that reduces the degree of strength of the specific emotion compared to the value of the emotion vector assigned to the emotion notation word ,
With reference to the user's past log and the emotion notation word, in the user's remarks, when it is determined that the remark frequency of the emotion notation word indicating the specific emotion is greater than a predetermined threshold, The value of the emotion vector assigned to the emotion notation word is corrected to a value that reduces the degree of strength of the specific emotion, and the frequency of the emotion notation word indicating an emotion that conflicts with the specific emotion Is determined to be greater than a predetermined threshold, the value of the emotion vector assigned to the emotion notation word is corrected to an increased value of the strength of the specific emotion. Emotion estimation method.
感情推定装置に、
ある特定の感情とその相反する感情を示す語句である感情表記ワードを格納する一般感情表記ワード記録部を参照して、ユーザごとの発言内容を示した過去ログから、ネガティブまたはポジティブな感情を示す語句である感情表記ワードのいずれかを含む発言を検索する感情表記ワード検索ステップと、
前記ユーザの過去ログから、前記検索された感情表記ワードを含む発言を中心として前後所定範囲内の発言である周辺発言を抽出する前後発言抽出ステップと、
前記ユーザごとに、前記発言の単語それぞれの意味する個人の感情の強さの度合いを表す感情ベクトルの値を示した教師データを作成する特徴量抽出ステップと、
前記ユーザの前記教師データを用いて、前記ユーザの発言が意味する前記ある特定の感情の傾向を判断して、前記判断結果を出力する発言解析ステップとを実行させ、
前記特徴量抽出ステップは、
前記単語それぞれの感情ベクトルの値を決定するとき、前記感情表記ワード検索ステップにより検索された発言に含まれる感情表記ワードに対し、前記発言に含まれる感情表記ワードが示す感情の種別に応じた所定の感情の強さの度合いを示す値を前記感情表記ワードの感情ベクトルの値として付与し、前記発言の周辺発言の単語のうち、前記感情表記ワード以外の単語それぞれに対する感情ベクトルの値として、前記感情表記ワードに付与した前記感情ベクトルの値と比較して前記ある特定の感情の強さの度合いを軽減した所定の値を付与し、
前記ユーザの過去ログと前記感情表記ワードとを参照して、前記ユーザの発言において、前記ある特定の感情を示す前記感情表記ワードの発言頻度が所定の閾値よりも多いと判断された場合は、前記感情表記ワードに付与された前記感情ベクトルの値について、前記ある特定の感情の強さの度合いを軽減した値に修正し、前記ある特定の感情と相反する感情を示す感情表記ワードの発言頻度が所定の閾値よりも多いと判断された場合は、前記感情表記ワードに付与された前記感情ベクトルの値について、前記ある特定の感情の強さの度合いを増大した値に修正する
ためのプログラム。
Emotion estimation device
Refers to the general emotion notation word recording unit that stores the emotion notation word, which is a phrase indicating a specific emotion and the opposite emotion, and indicates negative or positive emotion from the past log showing the content of each user's utterance An emotion expression word search step for searching for a statement including any of the emotion expression words that are phrases;
Before-and-after utterance extraction step of extracting peripheral utterances that are utterances within a predetermined range around the utterance including the searched emotion expression word from the user's past log;
A feature amount extraction step for creating teacher data indicating a value of an emotion vector representing the degree of the strength of personal emotion that each of the words of the speech means for each user,
Using the teacher data of the user to determine the tendency of the certain emotion that the user's statement means, and to execute a statement analysis step of outputting the determination result;
The feature amount extraction step includes:
When determining the value of the emotion vector for each of the words, a predetermined value corresponding to the type of emotion indicated by the emotion notation word included in the statement with respect to the emotion notation word included in the statement searched by the emotion notation word search step A value indicating the degree of emotion strength is given as the value of the emotion vector of the emotion notation word, and the value of the emotion vector for each of the words other than the emotion notation word among the words of the surrounding speech of the statement, A predetermined value that reduces the degree of strength of the specific emotion compared to the value of the emotion vector assigned to the emotion notation word ,
With reference to the user's past log and the emotion notation word, in the user's remarks, when it is determined that the remark frequency of the emotion notation word indicating the specific emotion is greater than a predetermined threshold, The value of the emotion vector assigned to the emotion notation word is corrected to a value that reduces the degree of strength of the specific emotion, and the frequency of the emotion notation word indicating an emotion that conflicts with the specific emotion A program for correcting the value of the emotion vector assigned to the emotion notation word to a value that increases the degree of strength of the specific emotion when it is determined that is greater than a predetermined threshold .
JP2013059880A 2013-03-22 2013-03-22 Emotion estimation device, emotion estimation method, and program Active JP5947237B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013059880A JP5947237B2 (en) 2013-03-22 2013-03-22 Emotion estimation device, emotion estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013059880A JP5947237B2 (en) 2013-03-22 2013-03-22 Emotion estimation device, emotion estimation method, and program

Publications (2)

Publication Number Publication Date
JP2014186451A JP2014186451A (en) 2014-10-02
JP5947237B2 true JP5947237B2 (en) 2016-07-06

Family

ID=51833989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013059880A Active JP5947237B2 (en) 2013-03-22 2013-03-22 Emotion estimation device, emotion estimation method, and program

Country Status (1)

Country Link
JP (1) JP5947237B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6285377B2 (en) * 2015-02-26 2018-02-28 日本電信電話株式会社 Communication skill evaluation feedback device, communication skill evaluation feedback method, and communication skill evaluation feedback program
JP6617053B2 (en) * 2016-02-29 2019-12-04 Kddi株式会社 Utterance semantic analysis program, apparatus and method for improving understanding of context meaning by emotion classification
JP6605410B2 (en) * 2016-07-15 2019-11-13 Kddi株式会社 Emotion factor estimation support device, emotion factor estimation support method, and emotion factor estimation support program
CN107506349A (en) * 2017-08-04 2017-12-22 卓智网络科技有限公司 A kind of user's negative emotions Forecasting Methodology and system based on network log
CN111259674B (en) * 2020-01-13 2023-07-25 山东浪潮科学研究院有限公司 Text proofreading and emotion analysis method, equipment and medium based on GAN network
WO2022024355A1 (en) * 2020-07-31 2022-02-03 株式会社I’mbesideyou Emotion analysis system
JP7368335B2 (en) * 2020-09-24 2023-10-24 Kddi株式会社 Programs, devices and methods for interacting with positive parroting responses

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6622140B1 (en) * 2000-11-15 2003-09-16 Justsystem Corporation Method and apparatus for analyzing affect and emotion in text
JP2002230011A (en) * 2001-02-05 2002-08-16 Seiko Epson Corp Sensitivity recognizing system
JP2004280190A (en) * 2003-03-12 2004-10-07 Nippon Telegr & Teleph Corp <Ntt> Word of mouth information analysis method
JP3903993B2 (en) * 2004-02-05 2007-04-11 セイコーエプソン株式会社 Sentiment recognition device, sentence emotion recognition method and program
US8352405B2 (en) * 2011-04-21 2013-01-08 Palo Alto Research Center Incorporated Incorporating lexicon knowledge into SVM learning to improve sentiment classification

Also Published As

Publication number Publication date
JP2014186451A (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP5947237B2 (en) Emotion estimation device, emotion estimation method, and program
JP5775466B2 (en) Chat extraction system, method, and program for extracting chat part from conversation
US10650801B2 (en) Language recognition method, apparatus and device and computer storage medium
JP2015506515A (en) Method, apparatus and computer storage medium for automatically adding tags to a document
JP5496863B2 (en) Emotion estimation apparatus, method, program, and recording medium
JP6429706B2 (en) Voice dialogue apparatus, voice dialogue method and program
EP3542282B1 (en) Autonomously providing search results post-facto, including in conversational assistant context
WO2017020454A1 (en) Search method and apparatus
CN111883137B (en) Text processing method and device based on voice recognition
US20200219487A1 (en) Information processing apparatus and information processing method
WO2016015431A1 (en) Search method, apparatus and device and non-volatile computer storage medium
JP2016192020A5 (en)
US11082369B1 (en) Domain-specific chatbot utterance collection
CN112836016B (en) Conference summary generation method, device, equipment and storage medium
WO2014036827A1 (en) Text correcting method and user equipment
JP6165657B2 (en) Information processing apparatus, information processing method, and program
KR101625787B1 (en) Method and server for estimating the sentiment value of word
JP2018185561A (en) Dialogue support system, dialogue support method, and dialogue support program
JP5084297B2 (en) Conversation analyzer and conversation analysis program
KR20130022075A (en) Method for building emotional lexical information and apparatus for the same
CN111881672A (en) Intention identification method
Malandrakis et al. Sail: Sentiment analysis using semantic similarity and contrast features
JP2006209332A (en) Sense of value estimation method and device and its program
WO2024037483A1 (en) Text processing method and apparatus, and electronic device and medium
US11763803B1 (en) System, method, and computer program for extracting utterances corresponding to a user problem statement in a conversation between a human agent and a user

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150226

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160602

R150 Certificate of patent or registration of utility model

Ref document number: 5947237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150