JP6970641B2 - Emotion Guessing Method, Emotion Guessing Device and Program - Google Patents

Emotion Guessing Method, Emotion Guessing Device and Program Download PDF

Info

Publication number
JP6970641B2
JP6970641B2 JP2018084088A JP2018084088A JP6970641B2 JP 6970641 B2 JP6970641 B2 JP 6970641B2 JP 2018084088 A JP2018084088 A JP 2018084088A JP 2018084088 A JP2018084088 A JP 2018084088A JP 6970641 B2 JP6970641 B2 JP 6970641B2
Authority
JP
Japan
Prior art keywords
information
user
emotion
posted
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018084088A
Other languages
Japanese (ja)
Other versions
JP2019191937A (en
Inventor
シャイマ ダヒリ
啓一郎 帆足
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018084088A priority Critical patent/JP6970641B2/en
Publication of JP2019191937A publication Critical patent/JP2019191937A/en
Application granted granted Critical
Publication of JP6970641B2 publication Critical patent/JP6970641B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、人の感情を推測するための感情推測方法、感情推測装置及びプログラムに関する。 The present invention relates to an emotion estimation method, an emotion estimation device, and a program for estimating a person's emotions.

従来、人の感情(ムード)を推測するシステムが知られている。非特許文献1には、システムを利用するユーザにカードゲームをさせた結果に基づいてユーザの感情を推測する方法が開示されている。非特許文献2には、ユーザがスマートフォンのアプリケーションソフトウェアを用いて記録した自分の行動等に基づいてユーザの感情を推測する方法が開示されている。 Conventionally, a system for inferring a person's emotion (mood) is known. Non-Patent Document 1 discloses a method of inferring a user's emotion based on the result of causing a user who uses the system to play a card game. Non-Patent Document 2 discloses a method of inferring a user's emotion based on his / her own behavior or the like recorded by the user using application software of a smartphone.

[online]、[平成30年4月1日検索]、インターネット(URL: https://www.moodscope.com/about/how-it-works/how-does-moodscope-work)[Online], [Search on April 1, 2018], Internet (URL: https://www.moodscope.com/about/how-it-works/how-does-moodscope-work) [online]、[平成30年4月1日検索]、インターネット(URL:http://papers.www2017.com.au.s3-website-ap-southeast-2.amazonaws.com/proceedings/p715.pdf)[Online], [Search on April 1, 2018], Internet (URL: http://papers.www2017.com.au.s3-website-ap-southeast-2.amazonaws.com/proceedings/p715.pdf )

従来のシステムを利用することで、ユーザは、システムが推測した感情の通知を受けることで、自身がどのような感情を抱いていたのかを把握することができる。しかしながら、ユーザが、システムから通知された結果に納得できない場合、ユーザはシステムを信頼できなくなり、システムを利用しなくなってしまうという問題があった。 By using the conventional system, the user can grasp what kind of emotion he / she had by receiving the notification of the emotion estimated by the system. However, if the user is not satisfied with the result notified from the system, there is a problem that the user cannot trust the system and does not use the system.

そこで、本発明はこれらの点に鑑みてなされたものであり、ユーザが、感情を予測するシステムを継続的に利用する確率を高めるようにすることを目的とする。 Therefore, the present invention has been made in view of these points, and an object thereof is to increase the probability that a user continuously uses a system for predicting emotions.

本発明の第1の態様の感情推測方法は、コンピュータが実行する、ユーザの感情との関連性がある事象を示す複数の事象情報を取得するステップと、前記複数の事象情報に基づいて前記ユーザの感情を推測するステップと、前記感情の推測結果とともに、前記ユーザが当該感情を有すると推測した理由を含む説明を前記ユーザの携帯端末に通知するステップと、を有する。 The emotion estimation method of the first aspect of the present invention includes a step of acquiring a plurality of event information indicating an event related to the user's emotion, which is executed by a computer, and the user based on the plurality of event information. It has a step of inferring the emotion of the user, and a step of notifying the user's mobile terminal of an explanation including a reason for presuming that the user has the emotion, together with the estimation result of the emotion.

前記複数の事象情報を取得するステップにおいて、前記複数の事象情報として、前記ユーザの携帯端末の状態を示す複数の端末状態情報と、前記ユーザがネットワークを介して投稿した複数の投稿情報とを取得してもよい。 In the step of acquiring the plurality of event information, as the plurality of event information, a plurality of terminal state information indicating the state of the user's mobile terminal and a plurality of posted information posted by the user via the network are acquired. You may.

前記ユーザの感情を推測するステップにおいて、前記複数の端末状態情報及び前記複数の投稿情報のうち、前記感情の推測結果との関連性が相対的に大きい一以上の前記端末状態情報及び前記投稿情報を選択し、前記通知するステップにおいて、選択した前記一以上の前記端末状態情報及び前記投稿情報に基づく前記説明を前記ユーザの携帯端末に通知してもよい。 In the step of estimating the emotion of the user, one or more of the plurality of terminal state information and the plurality of posted information having a relatively large relationship with the estimation result of the emotion, the terminal state information and the posted information. In the step of notifying the user, the user's mobile terminal may be notified of the explanation based on the selected one or more terminal state information and the posted information.

感情推測方法は、前記端末状態情報が示す前記携帯端末の状態が取得された時刻と、前記投稿情報が示すイベントが発生した時刻とに基づいて、前記端末状態情報と前記投稿情報とを同期化するステップと、同期化した前記端末状態情報及び前記投稿情報を機械学習モデルに入力するステップと、をさらに有し、前記ユーザの感情を推測するステップにおいて、前記機械学習モデルから出力された結果に基づいて前記感情を推測してもよい。 The emotion estimation method synchronizes the terminal state information and the posted information based on the time when the state of the mobile terminal indicated by the terminal state information is acquired and the time when the event indicated by the posted information occurs. In the step of estimating the emotion of the user, which further has a step of inputting the synchronized terminal state information and the posted information into the machine learning model, the result output from the machine learning model is obtained. The emotion may be inferred based on this.

前記機械学習モデルに入力するステップにおいて、前記感情を推測する時点より前の所定の期間内に取得された前記端末状態情報及び前記投稿情報を機械学習モデルに入力してもよい。前記機械学習モデルが、前記感情の変化を特定する時間間隔として予め設定された再帰単位時間ごとに再帰する再帰型ニューラルネットワークであり、前記機械学習モデルに入力するステップにおいて、連続する複数の前記再帰単位時間において同期化された前記端末状態情報及び前記投稿情報を前記機械学習モデルに順次入力してもよい。 In the step of inputting to the machine learning model, the terminal state information and the posted information acquired within a predetermined period before the time when the emotion is estimated may be input to the machine learning model. The machine learning model is a recursive neural network that recurses every recursive unit time preset as a time interval for specifying the change in emotion, and a plurality of continuous recursion in the step of inputting to the machine learning model. The terminal state information and the posted information synchronized in a unit time may be sequentially input to the machine learning model.

前記選択するステップにおいて、前記機械学習モデルを用いて前記感情を推測した後に、前記機械学習モデルにおける複数の伝搬路に割り当てられた複数の重み係数の大きさに基づいて、前記一以上の前記端末状態情報及び前記投稿情報を選択してもよい。 The one or more terminals based on the magnitudes of the plurality of weighting coefficients assigned to the plurality of propagation paths in the machine learning model after inferring the emotion using the machine learning model in the selection step. The status information and the posted information may be selected.

前記通知するステップにおいて、選択した前記一以上の端末状態情報及び投稿情報により特定される前記ユーザの行動内容を示す前記説明を前記ユーザの携帯端末に通知してもよい。 In the notification step, the user's mobile terminal may be notified of the explanation indicating the behavior content of the user specified by the selected one or more terminal state information and the posted information.

本発明の第2の態様の感情推測装置は、ユーザの感情との関連性がある事象を示す複数の事象情報を取得する情報取得部と、前記複数の事象情報に基づいて前記ユーザの感情を推測する推測部と、前記感情の推測結果とともに、前記ユーザが当該感情を有すると推測した理由を含む説明を前記ユーザの携帯端末に通知する通知部と、を有する。 The emotion estimation device of the second aspect of the present invention has an information acquisition unit that acquires a plurality of event information indicating an event related to the user's emotion, and the user's emotion based on the plurality of event information. It has a guessing unit for guessing, and a notification unit for notifying the user's mobile terminal of an explanation including a reason for presuming that the user has the emotion, together with the estimation result of the emotion.

本発明の第3の態様のプログラムは、コンピュータに、ユーザの感情との関連性がある事象を示す複数の事象情報を取得するステップと、前記複数の事象情報に基づいて前記ユーザの感情を推測するステップと、前記感情の推測結果とともに、前記ユーザが当該感情を有すると推測した理由を含む説明を前記ユーザの携帯端末に通知するステップと、を実行させる。 The program of the third aspect of the present invention has a step of acquiring a plurality of event information indicating an event related to the user's emotion on a computer, and guessing the user's emotion based on the plurality of event information. A step of notifying the user's mobile terminal of an explanation including the reason why the user presumed to have the emotion, together with the step of estimating the emotion.

本発明によれば、ユーザが、感情を予測するシステムを継続的に利用する確率を高めることができる効果を奏する。 According to the present invention, there is an effect that the user can increase the probability of continuously using the system for predicting emotions.

感情推測システムの構成を示す図である。It is a figure which shows the structure of an emotion guessing system. 情報取得部の詳細構成を示す図である。It is a figure which shows the detailed structure of an information acquisition part. RNNの詳細構成を示す図である。It is a figure which shows the detailed structure of an RNN. LRPアルゴリズムについて説明するための図である。It is a figure for demonstrating the LRP algorithm. データベースの概要を示す図である。It is a figure which shows the outline of a database. ワンホットエンコーダーモデルを用いてユーザの行動に関する説明を作成する手順を示す。The procedure for creating a description of user behavior using the one-hot encoder model is shown. 感情推測システムがカテゴリーベクターモデルを用いてユーザの行動に関する説明を作成する手順を示す。The procedure by which the emotion guessing system creates a description of the user's behavior using the category vector model is shown.

[感情推測システムSの構成及び動作]
図1は、感情推測システムSの構成を示す図である。感情推測システムSは、ユーザによる携帯端末の使用状況、及びソーシャルネットワークアカウントでの投稿等の行動状況に関するデータを収集し、収集したデータに基づいてユーザの感情を推測する。
[Configuration and operation of emotion estimation system S]
FIG. 1 is a diagram showing a configuration of an emotion guessing system S. The emotion estimation system S collects data on the usage status of the mobile terminal by the user and the behavior status such as posting on the social network account, and estimates the user's emotion based on the collected data.

感情推測システムSは、ユーザの感情を推測するために、図1に示す(C1)〜(C9)の構成部を有する。具体的には、感情推測システムSは、OSN API(C1)(Online Social Network Application Programming Interface)、OSNクローラ(C2)、端末クローラ(C3)、情報取得部(C4)、推定部(C5)、関連性特定部(C6)、通知部(C7)、データベース(C8)、及び特徴クラウド(C9)を有する。 The emotion estimation system S has the components (C1) to (C9) shown in FIG. 1 for estimating the emotion of the user. Specifically, the emotion estimation system S includes an OSN API (C1) (Online Social Network Application Programming Interface), an OSN crawler (C2), a terminal crawler (C3), an information acquisition unit (C4), and an estimation unit (C5). It has a relevance identification unit (C6), a notification unit (C7), a database (C8), and a feature cloud (C9).

感情推測システムSが有する構成部のうち、一部の構成部は、感情推測装置として機能するサーバにより実現されてもよい。例えば、感情推測装置として機能するサーバのプロセッサがプログラムを実行することにより、情報取得部(C4)、推定部(C5)、関連性特定部(C6)、通知部(C7)として機能する。 Among the components of the emotion guessing system S, some of the components may be realized by a server that functions as an emotion guessing device. For example, when the processor of the server that functions as an emotion estimation device executes a program, it functions as an information acquisition unit (C4), an estimation unit (C5), a relevance identification unit (C6), and a notification unit (C7).

OSN API(C1)は、ツイッター(登録商標)、インスタグラム(登録商標)、Facebook(登録商標)等のソーシャルネットワークサービス(以下、SNSという)のサーバにアクセスするためのインターフェースである。 The OSN API (C1) is an interface for accessing a server of a social network service (hereinafter referred to as SNS) such as Twitter (registered trademark), Instagram (registered trademark), Facebook (registered trademark) and the like.

OSNクローラ(C2)は、OSN API(C1)を介して、ユーザがSNSに投稿したテキスト及び画像等の投稿情報をSNSのサーバから収集する。OSNクローラ(C2)は、例えばOAuth1プロトコル又はOAuth2プロトコルを使用して投稿情報を収集する。OSNクローラ(C2)は、収集した投稿情報を情報取得部(C4)に通知する。 The OSN crawler (C2) collects posted information such as texts and images posted by the user on the SNS from the SNS server via the OSN API (C1). The OSN crawler (C2) collects posted information using, for example, the OOut1 protocol or the OAuth2 protocol. The OSN crawler (C2) notifies the information acquisition unit (C4) of the collected posted information.

端末クローラ(C3)は、例えばユーザのスマートフォン等の携帯端末にインストールされたソフトウェアであり、携帯端末が内蔵するセンサー等のデバイスから出力される信号に基づく端末状態情報を定期的に収集する。端末クローラ(C3)は、携帯端末がWi−Fi(登録商標)等のネットワークに接続されている間に、収集した端末状態情報を情報取得部(C4)に送信する。端末状態情報は、例えば、通話ログ、メール送信ログ、ショートメッセージ送信ログ、位置情報、又は動き情報のように、ユーザの行為に関連する任意の情報である。端末状態情報は、温度情報、湿度情報、明るさ情報のように、ユーザが置かれた環境を示す情報であってもよい。 The terminal crawler (C3) is software installed in a mobile terminal such as a user's smartphone, and periodically collects terminal status information based on a signal output from a device such as a sensor built in the mobile terminal. The terminal crawler (C3) transmits the collected terminal status information to the information acquisition unit (C4) while the mobile terminal is connected to a network such as Wi-Fi (registered trademark). The terminal status information is arbitrary information related to the user's action, such as a call log, an email transmission log, a short message transmission log, location information, or motion information. The terminal state information may be information indicating the environment in which the user is placed, such as temperature information, humidity information, and brightness information.

情報取得部(C4)は、ユーザの感情との関連性がある事象を示す複数の事象情報を取得する。情報取得部(C4)は、複数の事象情報として、ユーザがネットワークを介して投稿した複数の投稿情報をOSNクローラ(C2)から取得し、ユーザの携帯端末の状態を示す複数の端末状態情報を端末クローラ(C3)から取得し、取得した情報を集計する。投稿情報は散発的に発生するテキスト情報又は画像情報であるのに対して、端末状態情報は、投稿情報よりも高い頻度で発生する数値情報である。そこで、それぞれ性質が異なるこれらの情報を集計するために、情報取得部(C4)は、OSN情報解析部41と、端末情報解析部42と、同期部43とを有する。 The information acquisition unit (C4) acquires a plurality of event information indicating an event related to the user's emotion. The information acquisition unit (C4) acquires a plurality of posted information posted by the user via the network as a plurality of event information from the OSN crawler (C2), and obtains a plurality of terminal status information indicating the status of the user's mobile terminal. It is acquired from the terminal crawler (C3) and the acquired information is totaled. The posted information is text information or image information that occurs sporadically, whereas the terminal state information is numerical information that occurs more frequently than the posted information. Therefore, in order to aggregate these information having different properties, the information acquisition unit (C4) has an OSN information analysis unit 41, a terminal information analysis unit 42, and a synchronization unit 43.

図2は、情報取得部(C4)の詳細構成を示す図である。
OSN情報解析部41は、投稿情報に含まれる時間に関連する用語に基づいてテキスト解析して、ユーザのそれぞれの投稿内容が示しているイベントが行われた日時や場所を特定する。OSN情報解析部41は、特定した日時や場所と投稿内容とを関連付けて同期部43に入力する。
FIG. 2 is a diagram showing a detailed configuration of the information acquisition unit (C4).
The OSN information analysis unit 41 performs text analysis based on the term related to the time included in the posted information, and specifies the date and time and the place where the event indicated by each posted content of the user is performed. The OSN information analysis unit 41 associates the specified date and time and place with the posted content and inputs them to the synchronization unit 43.

端末情報解析部42は、端末クローラ(C3)から入力された端末状態情報が取得された日時及び場所に関連付けて、端末の各種の状態を特定する。端末情報解析部42は、例えば、携帯端末に内蔵されたGPS(Global Positioning System)センサーを介して特定された緯度・経度情報に基づいて、端末状態情報が取得された場所を特定する。端末情報解析部42は、携帯端末に内蔵された各種のセンサーに基づいてユーザの動きを特定したり、通話相手・通話日時・通話位置を特定したりする。端末情報解析部42は、特定した日時や場所と端末の状態とを関連付けて同期部43に入力する。 The terminal information analysis unit 42 identifies various states of the terminal in association with the date and time and place where the terminal state information input from the terminal crawler (C3) is acquired. The terminal information analysis unit 42 identifies the place where the terminal state information is acquired, for example, based on the latitude / longitude information specified via the GPS (Global Positioning System) sensor built in the mobile terminal. The terminal information analysis unit 42 identifies the movement of the user based on various sensors built in the mobile terminal, and specifies the other party, the date and time of the call, and the position of the call. The terminal information analysis unit 42 associates the specified date and time and place with the state of the terminal and inputs them to the synchronization unit 43.

同期部43は、端末情報解析部42から入力された端末状態情報が示す携帯端末の状態が取得された時刻と、OSN情報解析部41から入力された投稿情報が示すイベントが発生した時刻とに基づいて、端末状態情報と投稿情報とを同期化する。具体的には、同期部43は、投稿情報により特定されたイベントと、当該イベントが行われた日時における端末の状態とを関連付ける。 The synchronization unit 43 sets the time when the state of the mobile terminal indicated by the terminal state information input from the terminal information analysis unit 42 is acquired and the time when the event indicated by the posted information input from the OSN information analysis unit 41 occurs. Based on, the terminal status information and the posted information are synchronized. Specifically, the synchronization unit 43 associates the event specified by the posted information with the state of the terminal at the date and time when the event was performed.

同期部43は、同期化した端末状態情報及び投稿情報を機械学習モデルに入力する。同期部43は、例えば、端末状態情報及び投稿情報を機械学習モデルに入力する前に、ユーザが自宅にいたこと、仕事をしていたこと、野球を見に行っていたこと、食事をしていたこと等を特定し、特定したユーザの行動を示す情報を、機械学習モデルを有する推測部(C5)に通知する。同期部43は、特定した行動をカテゴリー化し、行動のカテゴリーを推測部(C5)に通知してもよい。 The synchronization unit 43 inputs the synchronized terminal state information and posting information into the machine learning model. The synchronization unit 43, for example, had the user at home, worked, went to see baseball, and had a meal before inputting the terminal state information and the posted information into the machine learning model. It identifies things and the like, and notifies the guessing unit (C5) having a machine learning model of information indicating the behavior of the specified user. The synchronization unit 43 may categorize the specified behavior and notify the guessing unit (C5) of the behavior category.

推測部(C5)は、複数の事象情報に基づいてユーザの感情を推測する。推測部(C5)は、同期部43から入力されたユーザの行動を示す情報を機械学習モデルに入力し、機械学習モデルから出力された結果に基づいて感情を推測するに基づいて、ユーザの感情を推測する。機械学習モデルは、例えば、予めユーザの行動と感情との関係を学習した再帰型ニューラルネットワーク(以下、RNN(Recurrent Neural Networks)という)である。 The guessing unit (C5) infers the user's emotions based on a plurality of event information. The guessing unit (C5) inputs information indicating the user's behavior input from the synchronization unit 43 into the machine learning model, and estimates the emotion based on the result output from the machine learning model. Guess. The machine learning model is, for example, a recurrent neural network (hereinafter referred to as RNN (Recurrent Neural Networks)) in which the relationship between a user's behavior and emotion is learned in advance.

推測部(C5)は、感情を推測する時点より前の所定の期間内に取得された端末状態情報及び投稿情報を機械学習モデルに入力する。所定の期間は、例えば、感情推測システムSの管理者又はユーザにより設定された期間であり、ユーザの感情に影響が及ぶと考えられる過去の期間である。推測部(C5)は、連続する複数の再帰単位時間ごとに、同期化された端末状態情報及び投稿情報を機械学習モデルに順次入力する。 The guessing unit (C5) inputs the terminal state information and the posted information acquired within a predetermined period before the time of guessing the emotion into the machine learning model. The predetermined period is, for example, a period set by the administrator or the user of the emotion guessing system S, and is a past period considered to affect the emotion of the user. The guessing unit (C5) sequentially inputs synchronized terminal state information and posted information into the machine learning model for each of a plurality of consecutive recursive unit times.

推測部(C5)は、エンベッド層51及びRNN52を有する。エンベッド層51は、同期部43から入力されたユーザの行動の内容を数値化することにより、RNN52がユーザの行動に基づいてユーザの感情を推測できるようにする。エンベッド層51は、例えばワンホットエンコーダーモデル(OHE:One-Hot Encoder)又はカテゴリーベクターモデル(Cat2Vec)を使用することにより、ユーザの行動の内容を数値化する。 The guessing unit (C5) has an embed layer 51 and an RNN 52. The embed layer 51 quantifies the content of the user's behavior input from the synchronization unit 43, so that the RNN 52 can infer the user's emotion based on the user's behavior. The embed layer 51 quantifies the content of the user's behavior by using, for example, a one-hot encoder model (OHE: One-Hot Encoder) or a category vector model (Cat2Vec).

図3は、RNN52の詳細構成を示す図である。RNN52は、感情の変化を特定する時間間隔として予め設定された再帰単位時間ごとに再帰する再帰型ニューラルネットワークである。ユーザは、リアルタイムでSNSに投稿せず、一日ごとに投稿する場合も多いので、再帰単位時間は、例えば1日であることが望ましいが、ユーザが投稿するタイミングの傾向を示す投稿特性に基づいて再帰単位時間が設定されていてもよい。 FIG. 3 is a diagram showing a detailed configuration of the RNN 52. The RNN 52 is a recurrent neural network that recurses every recursive unit time set as a time interval for specifying emotional changes. Since users often do not post to SNS in real time, but post every day, it is desirable that the recursion unit time is, for example, one day, but it is based on the posting characteristics that indicate the tendency of the user's posting timing. The recursive unit time may be set.

図3に示すように、RNN52は、再帰単位時間ごとに割り当てられた複数のRNNセル(ニューロン)を有する。少なくとも一部のRNNセルは、LSTM(Long Short-Term Memory)層であってもよい。図3に示す例においては、ユーザの感情の推測に1日目からt日目(tは整数)までの間に取得された投稿情報及び端末状態情報に基づいて情報取得部(C4)が特定したユーザの行動を示す情報が、日ごとに割り当てられたRNNセルを含む層に入力される。推測部(C5)は、複数のRNNセルに入力されたユーザの行動を示す情報を、複数の層間で伝搬させることにより、ユーザの感情を推測する。 As shown in FIG. 3, the RNN 52 has a plurality of RNN cells (neurons) allocated per recursive unit time. At least some RNN cells may be RSTM (Long Short-Term Memory) layers. In the example shown in FIG. 3, the information acquisition unit (C4) is specified based on the posted information and the terminal state information acquired between the first day and the t day (t is an integer) for guessing the user's emotion. Information indicating the behavior of the user is input to the layer including the RNN cell assigned to each day. The guessing unit (C5) infers the user's emotion by propagating the information indicating the user's behavior input to the plurality of RNN cells between the plurality of layers.

なお、RNN52がユーザの感情を推測できるようにするために、ユーザの携帯端末にインストールされたアプリケーションソフトウェアは、所定の学習期間において、再帰単位時間に対応する時間間隔(例えば1日間隔)で、ユーザが抱いている感情を取得する。具体的には、アプリケーションソフトウェアは、感情を入力又は選択する画面をディスプレイに表示し、ユーザが入力又は選択した感情を示す情報(以下、感情情報という)をメモリに記憶させる。アプリケーションソフトウェアは、感情情報を取得した日に関連付けて、取得した感情情報を推測部(C5)に通知する。 In order for the RNN 52 to be able to infer the user's emotions, the application software installed on the user's mobile terminal is installed at a time interval corresponding to the recursive unit time (for example, one day interval) in a predetermined learning period. Get the emotions that the user has. Specifically, the application software displays a screen for inputting or selecting an emotion on a display, and stores information indicating the emotion input or selected by the user (hereinafter referred to as emotion information) in a memory. The application software notifies the guessing unit (C5) of the acquired emotion information in association with the day when the emotion information is acquired.

推測部(C5)は、所定の学習期間において、通知された感情情報と、同期部43から入力された投稿情報及び端末状態情報に基づいて特定されたユーザの行動を示す情報とに基づいて学習し、各ユーザ用の学習モデルを作成する。学習期間が終了すると、アプリケーションソフトウェアは、ユーザが感情を入力又は選択する画面の表示を終了し、RNN52は、複数のRNNセルに入力されたユーザの行動を示す情報に基づいて、ユーザの感情を推測する。このようにすることで、RNN52は、ユーザが情報を入力する手間をかけることなくユーザの感情を推測することができる。RNN52は、感情の推測結果を関連性特定部(C6)及び通知部(C7)に入力する。 The guessing unit (C5) learns based on the notified emotion information, the posted information input from the synchronization unit 43, and the information indicating the user's behavior specified based on the terminal state information in the predetermined learning period. And create a learning model for each user. At the end of the learning period, the application software ends the display of the screen on which the user inputs or selects emotions, and the RNN 52 inputs the user's emotions based on the information indicating the user's behavior input to the plurality of RNN cells. Infer. By doing so, the RNN 52 can infer the user's emotions without taking the trouble of inputting the information. The RNN 52 inputs the emotion estimation result to the relevance identification unit (C6) and the notification unit (C7).

なお、RNN52は、学習期間を短縮するために、学習モデルを作成する対象となるユーザの感情情報が十分に収集されるまでの間、感情推測システムSが感情を推測する対象となる他のユーザの投稿情報及び端末状態情報と感情情報とを使用してもよい。RNN52は、複数の層のうち、入力層に近い層の学習に他のユーザの感情情報を使用し、出力層に近い層の学習には、学習モデルを作成する対象となるユーザ自身の感情情報を使用するようにしてもよい。このようにすることで、精度の高い学習モデルを短期間で作成することができる。 In addition, in order to shorten the learning period, the RNN 52 is a target for which the emotion estimation system S estimates emotions until the emotion information of the user for which the learning model is created is sufficiently collected. Posting information, terminal state information, and emotional information may be used. The RNN 52 uses the emotional information of another user for learning the layer close to the input layer among the plurality of layers, and the emotion information of the user himself / herself for creating the learning model for learning the layer close to the output layer. May be used. By doing so, a highly accurate learning model can be created in a short period of time.

関連性特定部(C6)は、推測部(C5)が機械学習モデルを用いて感情を推測した後に、機械学習モデルにおける複数の伝搬路に割り当てられた複数の重み係数の大きさに基づいて、一以上の端末状態情報及び投稿情報を選択する。具体的には、関連性特定部(C6)は、複数の端末状態情報及び複数の投稿情報のうち、RNN52による感情の推測結果との関連性が相対的に大きい一以上の端末状態情報及び投稿情報を選択する。関連性特定部(C6)は、関連性が大きい端末状態情報及び投稿情報を選択するために、例えばLRP(Layer-wise Relevance Propagation)アルゴリズムを使用する。 The relevance identification unit (C6) is based on the magnitude of the plurality of weighting coefficients assigned to the plurality of propagation paths in the machine learning model after the guessing unit (C5) infers the emotion using the machine learning model. Select one or more terminal status information and posting information. Specifically, the relevance identification unit (C6) has one or more terminal status information and posts that are relatively highly related to the emotion estimation result by the RNN 52 among the plurality of terminal status information and the plurality of posted information. Select information. The relevance identification unit (C6) uses, for example, an LRP (Layer-wise Relevance Propagation) algorithm to select terminal state information and posted information that are highly relevant.

図4は、LRPアルゴリズムについて説明するための図である。図4(a)に示すように、RNN52にデータXが入力され、RNN52からF(x)が出力されたとする。この場合、RNN52の内部処理は以下のように表される。

Figure 0006970641
上記の式において、Riは、各ニューロンとユーザの感情の推測結果との関連性の大きさを示す値である。 FIG. 4 is a diagram for explaining the LRP algorithm. As shown in FIG. 4A, it is assumed that the data X is input to the RNN 52 and the F (x) is output from the RNN 52. In this case, the internal processing of RNN52 is expressed as follows.
Figure 0006970641
In the above equation, Ri is a value indicating the magnitude of the relationship between each neuron and the estimation result of the user's emotion.

ここで、図4(b)に示すように、RNN52にF(x)を入力し、入力したF(x)を逆方向に伝搬させる場合、以下の式により、感情の推定結果に対する各ニューロンの関連性を算出することができる。

Figure 0006970641
Here, as shown in FIG. 4 (b), when F (x) is input to RNN52 and the input F (x) is propagated in the reverse direction, the following equation is used to determine the emotion estimation result of each neuron. Relevance can be calculated.
Figure 0006970641

このようにして得られる値が大きなニューロンに対応するユーザの行動は、感情の推定結果との関連性が大きいといえる。例えば、図4(b)に示す例において、黒丸で示すニューロンの関連性が大きい場合、関連性特定部(C6)は、f3で示されるユーザの行動と感情の推定結果との関連性が大きいと特定する。 It can be said that the user's behavior corresponding to the neuron having a large value obtained in this way is highly related to the emotion estimation result. For example, in the example shown in FIG. 4 (b), when the neuron indicated by the black circle has a large relationship, the relationship identification unit (C6) has a large relationship between the user's behavior indicated by f3 and the emotion estimation result. To specify.

通知部(C7)は、感情の推測結果とともに、当該感情を有すると推測した理由を含む説明をユーザの携帯端末に通知する。通知部(C7)は、例えば、関連性特定部(C6)が選択した一以上の端末状態情報及び投稿情報により特定されるユーザの行動内容を示す説明をユーザの携帯端末に通知する。通知部(C7)は、ユーザに通知する説明を作成するために、推測部(C5)から入力された感情の推測結果をデコードすることにより、ユーザの感情を特定するとともに、関連性特定部(C6)から入力された関連性が大きいユーザの行動に基づいて、特定した感情との関連性が大きいユーザの行動を特定する。 The notification unit (C7) notifies the user's mobile terminal of the estimation result of the emotion and the explanation including the reason for estimating that the emotion is possessed. The notification unit (C7) notifies the user's mobile terminal, for example, an explanation indicating the behavior content of the user specified by one or more terminal state information and posted information selected by the relevance identification unit (C6). The notification unit (C7) identifies the user's emotion by decoding the emotion estimation result input from the estimation unit (C5) in order to create an explanation to be notified to the user, and also identifies the user's emotion and the relevance identification unit (relevance identification unit (C7). Based on the behavior of the user who has a large relevance input from C6), the behavior of the user who has a large relevance to the specified emotion is specified.

具体的には、通知部(C7)は、デコード部71及び集計部72を有している。デコード部71は、推測部(C5)から入力された感情の推測結果をデコードして特定したユーザの感情を集計部72に通知する。 Specifically, the notification unit (C7) has a decoding unit 71 and an aggregation unit 72. The decoding unit 71 decodes the estimation result of the emotion input from the estimation unit (C5) and notifies the aggregation unit 72 of the identified user's emotion.

集計部72は、ユーザの感情の推測結果との関連性が大きいユーザの行動を特定し、感情の推測結果とともに、推測結果との関連性が大きいユーザの行動に関する説明を作成する。集計部72は、作成した説明をユーザの携帯端末に通知する。集計部72は、例えば、各感情種別に関連付けられた条件のうち、感情との関連性が大きい上位N個(Nは整数)を選択し、選択した一以上の端末状態情報及び投稿情報に基づく説明をユーザの携帯端末に通知する。集計部72は、作成した説明をデータベース(C8)に登録してもよい。 The aggregation unit 72 identifies the user's behavior that is highly relevant to the user's emotional estimation result, and creates a description of the user's behavior that is highly relevant to the estimation result together with the emotional estimation result. The tabulation unit 72 notifies the user's mobile terminal of the created explanation. For example, the tabulation unit 72 selects the top N (N is an integer) that are highly related to emotions from the conditions associated with each emotion type, and is based on one or more selected terminal state information and posted information. Notify the user's mobile terminal of the explanation. The tabulation unit 72 may register the created description in the database (C8).

ユーザの行動に関する説明は、例えば、「いつ」、「どこで」、「誰と」、「何を」ユーザが行っていたかを示すテキスト情報を含む。ユーザは、これらの説明を読むことにより、推測結果の妥当性を確認するとともに、どのような行動をすることが良い感情を抱くことにつながるかを認識することが可能になる。 The description of the user's behavior includes, for example, textual information indicating "when", "where", "with whom", and "what" the user was doing. By reading these explanations, the user can confirm the validity of the guess result and recognize what kind of action leads to having good feelings.

データベース(C8)は、ユーザの感情を記憶している。図5はデータベース(C8)の概要を示す図である。データベース(C8)は、感情種別(ポジティブ、ネガティブ、中間)に関連付けて、各感情が生じた条件を記憶している。具体的には、データベース(C8)は、感情種別ごとに、ユーザが「いつ」、「どこで」、「誰と」、「何を」行っていたかを記憶している。データベース(C8)は、各感情種別に関連付けられた条件のうち、感情との関連性が大きい上位N個(Nは整数)を選択し、選択した条件を特徴クラウド(C9)に通知する。 The database (C8) stores the user's emotions. FIG. 5 is a diagram showing an outline of the database (C8). The database (C8) stores the conditions under which each emotion occurs in association with the emotion type (positive, negative, intermediate). Specifically, the database (C8) stores "when", "where", "who", and "what" for each emotion type. The database (C8) selects the top N (N is an integer) that are highly related to emotions from the conditions associated with each emotion type, and notifies the feature cloud (C9) of the selected conditions.

特徴クラウド(C9)は、ユーザが任意の場所からアクセスできるサーバであり、ユーザは、自身の携帯端末等を用いて特徴クラウド(C9)にアクセスすることにより、自身がどのような感情を抱いていたかを認識することができる。 The feature cloud (C9) is a server that the user can access from any place, and the user has what kind of emotions he / she has by accessing the feature cloud (C9) using his / her own mobile terminal or the like. I can recognize it.

[ユーザへの説明を作成する手順]
図6及び図7は、感情の推測結果と関連性の大きいユーザの行動に関する説明を作成する手順を説明するための図である。図6は、ワンホットエンコーダーモデルを用いてユーザの行動に関する説明を作成する手順を示す。
[Procedure to create a description for the user]
6 and 7 are diagrams for explaining a procedure for creating an explanation regarding a user's behavior that is highly related to the emotional estimation result. FIG. 6 shows a procedure for creating a description of user behavior using a one-hot encoder model.

図6においては、RNNに入力される特徴として、特徴f1及び特徴f2が示されているが、他の多数の特徴も入力される。RNNに入力される特徴は、例えばユーザが行動した日時に関する特徴、場所に関する特徴、行動した内容に関する特徴、共に行動した人に関する特徴等である。 In FIG. 6, the feature f1 and the feature f2 are shown as the features to be input to the RNN, but many other features are also input. The characteristics input to the RNN are, for example, characteristics related to the date and time when the user acted, characteristics related to the place, characteristics related to the content of the action, characteristics related to the person who acted together, and the like.

ワンホットエンコーダー(OHE)は、特徴が示す数値を2値化する。図6に示す例において、OHEは、特徴f1及び特徴f2が示す2値データとして、00010100を生成し、生成したデータをRNNに入力している。 The one-hot encoder (OHE) binarizes the numerical value indicated by the feature. In the example shown in FIG. 6, OHE generates 0001100100 as binary data shown by the feature f1 and the feature f2, and inputs the generated data to the RNN.

続いて、RNNから出力されたデータを、LRPを用いて逆伝搬処理を行うことにより、それぞれの特徴に対する関連性スコア(RS)を算出する。図6に示す例においては、特徴f1に対応するRS5と特徴f2に対応するRS8とが相対的に高いスコアを示しているものとする。 Subsequently, the data output from the RNN is back-propagated using LRP to calculate the relevance score (RS) for each feature. In the example shown in FIG. 6, it is assumed that RS5 corresponding to the feature f1 and RS8 corresponding to the feature f2 show relatively high scores.

RNNが特徴f1及び特徴f2に対して相対的に高いスコアを示している原因を特定するために、最大値を出力する入力の値を示すArgmax関数とともにワンホットエンコーダが使用される。このデコーダの出力の多くは0に近い数値であり、関連性スコアの出力結果との関連性が大きい一つのカテゴリーに対応する数値だけが1に近い値を示す。図6に示す例においては、特徴f1におけるカテゴリー4に対応する値が相対的に大きく、特徴f2におけるカテゴリー1に対応する値が相対的に大きい。この結果を集計部72が集計することにより、ユーザへの説明を生成することができる。 A one-hot encoder is used with the Argmax function, which indicates the value of the input that outputs the maximum value, to identify the reason why the RNN shows a relatively high score with respect to the feature f1 and the feature f2. Most of the output of this decoder is a numerical value close to 0, and only the numerical value corresponding to one category having a large relevance to the output result of the relevance score shows a value close to 1. In the example shown in FIG. 6, the value corresponding to category 4 in the feature f1 is relatively large, and the value corresponding to category 1 in the feature f2 is relatively large. By totaling this result by the totaling unit 72, it is possible to generate an explanation to the user.

ところで、ワンホットエンコーダにより生成されたベクトルは高次元であり低密度である。したがって、大きなデータセットにおいては、ワンホットデンコーダを用いることが効率的とはいえない。さらに、ワンホットデンコーダは、特徴間の相関を考慮することができない。このような問題を解決するために、エンティティエンベディングを実行するカテゴリーベクターモデルを使用することが好ましい。 By the way, the vector generated by the one-hot encoder is high-dimensional and low-density. Therefore, it is not efficient to use a one-hot dencoder for large data sets. Moreover, the one-hot dencoder cannot take into account the correlation between features. To solve such problems, it is preferable to use a category vector model that performs entity embedding.

図7は、感情推測システムSがカテゴリーベクターモデルを用いてユーザの行動に関する説明を作成する手順を示す。この方法を用いることで、感情推測システムSは、入力ベクターのサイズを小さくすることが可能になるとともに、カテゴリーを越えて、感情の推測結果との関連性が高い特徴を示すことが可能になる。 FIG. 7 shows a procedure in which the emotion guessing system S creates a description of user behavior using a category vector model. By using this method, the emotion guessing system S can reduce the size of the input vector and can show features that are highly relevant to the emotion guessing result across categories. ..

感情推測システムSは、潜在ベクトルを生成するために、それぞれの特徴に何個の潜在ベクトルを割り当てるかを決定する必要があるが、例えば学習期間中に、潜在ベクトルの数を決定することができる。感情推測システムSは、学習期間中に行った学習の結果に基づいて、多次元空間内で、どのカテゴリーが他のカテゴリーに類似するかを探索し、感情に対応する何個の潜在ベクトルが存在するかを特定することができる。 The emotion guessing system S needs to determine how many latent vectors should be assigned to each feature in order to generate latent vectors, but can determine the number of latent vectors, for example, during the learning period. .. The emotion estimation system S searches for which category is similar to other categories in the multidimensional space based on the result of learning performed during the learning period, and there are several latent vectors corresponding to the emotions. You can specify whether to do it.

RNNにより推定された結果との関連性が高い特徴を特定するために、感情推測システムSは、LRPとともに、データを撹乱(perturb)してから、次元削減アルゴリズムの逆関数を実行する。このようにすることにより、RNNにより推定された結果との関連性が高い特徴を特定することができる。 To identify features that are highly relevant to the results estimated by the RNN, the emotion estimation system S, along with the LRP, perturbs the data and then executes the inverse function of the dimensionality reduction algorithm. By doing so, it is possible to identify features that are highly relevant to the results estimated by the RNN.

以下、次元削減アルゴリズムの逆関数について説明する。次元を減らすための線形技術として、主成分分析(PCA:Principal Component Analysis)が用いられる。主成分分析において、感情推測システムSは、低次元で表される場合のデータの分散が最大化するように、データを低次元空間にマッピングする。続いて、感情推測システムSは、データの共分散行列を生成し、この行列の固有ベクトルを算出する。 Hereinafter, the inverse function of the dimension reduction algorithm will be described. Principal component analysis (PCA) is used as a linear technique for reducing dimensions. In principal component analysis, the emotion guessing system S maps the data to a low dimensional space so that the variance of the data when represented in low dimensions is maximized. Subsequently, the emotion estimation system S generates a covariance matrix of data and calculates the eigenvectors of this matrix.

感情推測システムSは、最も大きな固有値(主成分)に対応する固有ベクトルを、元データにおいて分散が最も大きな部分を再構築するために用いる。感情推測システムSは、一以上の固有ベクトルを用いることにより、元空間を、固有ベクトルによって伸長された空間に絞り込むことができる。 The emotion guessing system S uses the eigenvector corresponding to the largest eigenvalue (principal component) to reconstruct the part of the original data with the largest variance. The emotion guessing system S can narrow down the original space to the space extended by the eigenvectors by using one or more eigenvectors.

ここで、元のXがn行/p列のデータ行列であるとする。平均ベクトルμを各行から減算することにより、中心化されたデータ行列Xを得ることができる。さらに、Vが、使用するk個の固有ベクトルに対応するp行/k列のデータ行列であるとする。k個の固有ベクトルは、相対的に大きな固有ベクトルであることが好ましい。 Here, it is assumed that the original X is a data matrix of n rows / p columns. By subtracting the average vector μ from each row, a centralized data matrix X can be obtained. Further assume that V is a p-row / k-column data matrix corresponding to the k eigenvectors used. The k eigenvectors are preferably relatively large eigenvectors.

この場合、PCA投射のn行/k列の行列は、単にZ=XVにより求められる。元データを再構築できるようにするために、行列Vの転置行列Vを用いることにより、行列Zをp次元に変換する。その結果、X^=ZV=XVVとなる。 In this case, the matrix of n rows / k columns of PCA projection is simply obtained by Z = XV. To be able to reconstruct the original data, by using the transposed matrix V T of the matrix V, it converts the matrix Z in p-dimensional. As a result, X ^ = ZV T = XVV T.

感情推測システムSは、さらに平均ベクトルμを加算することにより、PCスコア×固有ベクトルの転置行列+平均ベクトルμとして、最終的なPCA再構築値(元のX)を得ることができる。 By further adding the average vector μ, the emotion estimation system S can obtain the final PCA reconstruction value (original X) as the transposed matrix of the PC score × the eigenvector + the average vector μ.

[感情推測システムSによる効果]
以上説明したように、感情推測システムSは、ユーザの感情との関連性がある事象を示す複数の事象情報を取得し、取得した複数の事象情報に基づいてユーザの感情を推測する。そして、感情推測システムSは、ユーザの感情の推測結果とともに、ユーザが当該感情を有すると推測した理由を含む説明をユーザの携帯端末に通知する。このようにすることで、ユーザは、感情推測システムSが推測した理由を把握できるので、ユーザが想定していた自身の感情と異なる推測結果が通知されたとしても、感情推測システムSの推測結果に納得しやすくなる。その結果、ユーザが感情推測システムSにより提供されるサービスを継続的に利用する可能性が高まる。
[Effect of Emotion Guessing System S]
As described above, the emotion estimation system S acquires a plurality of event information indicating an event related to the user's emotion, and estimates the user's emotion based on the acquired plurality of event information. Then, the emotion estimation system S notifies the user's mobile terminal of the explanation including the reason why the user estimates that the user has the emotion, together with the estimation result of the user's emotion. By doing so, the user can grasp the reason why the emotion guessing system S guessed, so even if the guessing result different from the user's own feeling is notified, the guessing result of the emotion guessing system S is notified. It will be easier to understand. As a result, the possibility that the user continuously uses the service provided by the emotion guessing system S increases.

また、感情推測システムSは、ユーザの感情との関連性がある事象として、ユーザの携帯端末の状態、及びユーザによるSNSへの投稿内容を利用する。したがって、RNNの学習期間が終了すると、従来の技術のように、ユーザが定期的に自身の行動を入力する作業を行う必要がないのでユーザの負担が少なく、この点からも、ユーザが感情推測システムSにより提供されるサービスを継続的に利用する確率が高まる。 Further, the emotion guessing system S uses the state of the user's mobile terminal and the content posted to the SNS by the user as an event related to the user's emotion. Therefore, when the learning period of the RNN is completed, unlike the conventional technique, the user does not have to perform the work of inputting his / her own action on a regular basis, so that the burden on the user is small, and from this point as well, the user guesses emotions. The probability of continuously using the service provided by the system S increases.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の分散・統合の具体的な実施の形態は、以上の実施の形態に限られず、その全部又は一部について、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を合わせ持つ。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, the specific embodiment of the distribution / integration of the device is not limited to the above embodiment, and all or a part thereof may be functionally or physically distributed / integrated in any unit. Can be done. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.

C1 OSN API
C2 OSNクローラ
C3 端末クローラ
C4 情報取得部
C5 推定部
C6 関連性特定部
C7 通知部
C8 データベース
C9 特徴クラウド
41 OSN情報解析部
42 端末情報解析部
43 同期部
51 エンベッド層
71 デコード部
72 集計部
C1 OSN API
C2 OSN crawler C3 Terminal crawler C4 Information acquisition unit C5 Estimating unit C6 Relevance identification unit C7 Notification unit C8 Database C9 Features Cloud 41 OSN information analysis unit 42 Terminal information analysis unit 43 Synchronization unit 51 Embed layer 71 Decoding unit 72 Aggregation unit

Claims (9)

コンピュータが実行する、
ユーザの感情との関連性がある事象を示す複数の事象情報を取得するステップと、
前記複数の事象情報に基づいて前記ユーザの感情を推測するステップと、
前記感情の推測結果とともに、前記ユーザが当該感情を有すると推測した理由を含む説明を前記ユーザの携帯端末に通知するステップと、
を有し、
前記複数の事象情報を取得するステップにおいて、前記複数の事象情報として、前記ユーザの携帯端末の状態を示す複数の端末状態情報と、前記ユーザがネットワークを介して投稿した複数の投稿情報とを取得し、
前記ユーザの感情を推測するステップにおいて、前記複数の端末状態情報及び前記複数の投稿情報のうち、前記感情の推測結果との関連性が相対的に大きい一以上の前記端末状態情報及び前記投稿情報を選択し、
前記通知するステップにおいて、選択した前記一以上の前記端末状態情報及び前記投稿情報に基づく前記説明を前記ユーザの携帯端末に通知する感情推測方法。
Computer runs,
Steps to acquire multiple event information indicating events related to the user's emotions,
A step of inferring the user's emotions based on the plurality of event information,
A step of notifying the user's mobile terminal of an explanation including the reason why the user presumed to have the emotion, together with the estimation result of the emotion.
Have a,
In the step of acquiring the plurality of event information, as the plurality of event information, a plurality of terminal state information indicating the state of the user's mobile terminal and a plurality of posted information posted by the user via the network are acquired. death,
In the step of estimating the emotion of the user, one or more of the plurality of terminal state information and the plurality of posted information having a relatively large relationship with the estimation result of the emotion, the terminal state information and the posted information. Select and
An emotion estimation method for notifying the user's mobile terminal of the explanation based on the one or more selected terminal state information and the posted information in the notification step.
前記複数の事象情報を取得するステップにおいて、前記複数の事象情報として、前記複数の端末状態情報と、前記複数の投稿情報とを取得する、
請求項1に記載の感情推測方法。
In the step of acquiring the plurality of event information, the plurality of terminal state information and the plurality of posted information are acquired as the plurality of event information.
The emotion estimation method according to claim 1.
前記端末状態情報が示す前記携帯端末の状態が取得された時刻と、前記投稿情報が示すイベントが発生した時刻とに基づいて、前記端末状態情報と前記投稿情報とを同期化するステップと、
同期化した前記端末状態情報及び前記投稿情報を機械学習モデルに入力するステップと、
をさらに有し、
前記ユーザの感情を推測するステップにおいて、前記機械学習モデルから出力された結果に基づいて前記感情を推測する、
請求項1又は2に記載の感情推測方法。
A step of synchronizing the terminal state information and the posted information based on the time when the state of the mobile terminal indicated by the terminal state information is acquired and the time when the event indicated by the posted information occurs.
The step of inputting the synchronized terminal state information and the posted information into the machine learning model,
Have more
In the step of estimating the emotion of the user, the emotion is estimated based on the result output from the machine learning model.
The emotion estimation method according to claim 1 or 2.
前記機械学習モデルに入力するステップにおいて、前記感情を推測する時点より前の所定の期間内に取得された前記端末状態情報及び前記投稿情報を機械学習モデルに入力する、
請求項3に記載の感情推測方法。
In the step of inputting to the machine learning model, the terminal state information and the posted information acquired within a predetermined period before the time of guessing the emotion are input to the machine learning model.
The emotion estimation method according to claim 3.
前記機械学習モデルが、前記感情の変化を特定する時間間隔として予め設定された再帰単位時間ごとに再帰する再帰型ニューラルネットワークであり、
前記機械学習モデルに入力するステップにおいて、連続する複数の前記再帰単位時間において同期化された前記端末状態情報及び前記投稿情報を前記機械学習モデルに順次入力する、
請求項3又は4に記載の感情推測方法。
The machine learning model is a recurrent neural network that recurses every recursive unit time preset as a time interval for specifying the emotional change.
In the step of inputting to the machine learning model, the terminal state information and the posted information synchronized in a plurality of consecutive recursive unit times are sequentially input to the machine learning model.
The emotion estimation method according to claim 3 or 4.
前記選択するステップにおいて、前記機械学習モデルを用いて前記感情を推測した後に、前記機械学習モデルにおける複数の伝搬路に割り当てられた複数の重み係数の大きさに基づいて、前記一以上の前記端末状態情報及び前記投稿情報を選択する、
請求項3から5のいずれか一項に記載の感情推測方法。
The one or more terminals based on the magnitudes of the plurality of weighting coefficients assigned to the plurality of propagation paths in the machine learning model after inferring the emotion using the machine learning model in the selection step. Select the status information and the posted information,
The emotion estimation method according to any one of claims 3 to 5.
前記通知するステップにおいて、選択した前記一以上の端末状態情報及び投稿情報により特定される前記ユーザの行動内容を示す前記説明を前記ユーザの携帯端末に通知する、
請求項3から6のいずれか一項に記載の感情推測方法。
In the notification step, the user's mobile terminal is notified of the explanation indicating the behavior content of the user specified by the selected one or more terminal state information and the posted information.
The emotion estimation method according to any one of claims 3 to 6.
ユーザの感情との関連性がある事象を示す複数の事象情報として、前記ユーザの携帯端末の状態を示す複数の端末状態情報と、前記ユーザがネットワークを介して投稿した複数の投稿情報とを取得する情報取得部と、
前記複数の事象情報に基づいて前記ユーザの感情を推測する推測部と、
前記複数の端末状態情報及び前記複数の投稿情報のうち、前記感情の推測結果との関連性が相対的に大きい一以上の前記端末状態情報及び前記投稿情報を選択する関連性特定部と、
前記感情の推測結果とともに、前記ユーザが当該感情を有すると推測した理由を含む説明として、前記関連性特定部が選択した前記一以上の前記端末状態情報及び前記投稿情報に基づく前記説明を前記ユーザの携帯端末に通知する通知部と、
を有する感情推測装置。
As a plurality of event information indicating an event related to the user's emotion , a plurality of terminal state information indicating the state of the user's mobile terminal and a plurality of posted information posted by the user via a network are acquired. Information acquisition department and
A guessing unit that infers the user's emotions based on the plurality of event information,
Among the plurality of terminal state information and the plurality of posted information, one or more of the terminal state information and the posted information having a relatively large relevance to the estimation result of the emotion, and a relevance specifying unit for selecting the posted information.
As an explanation including the reason why the user presumes that the user has the emotion, the user describes the explanation based on the one or more terminal state information and the posted information selected by the relevance specifying unit together with the estimation result of the emotion. Notification unit to notify the mobile terminal of
Emotion guessing device with.
コンピュータに、
ユーザの感情との関連性がある事象を示す複数の事象情報を取得するステップと、
前記複数の事象情報に基づいて前記ユーザの感情を推測するステップと、
前記感情の推測結果とともに、前記ユーザが当該感情を有すると推測した理由を含む説明であって、前記事象情報として取得された前記ユーザの携帯端末の状態を示す複数の端末状態情報及び前記ユーザがネットワークを介して投稿した複数の投稿情報のうち、前記感情の推測結果との関連性が相対的に大きい一以上の前記端末状態情報及び前記投稿情報に基づいて選択した説明を前記ユーザの携帯端末に通知するステップと、
を実行させ
前記複数の事象情報を取得するステップにおいて、前記複数の事象情報として、前記ユーザの携帯端末の状態を示す複数の端末状態情報と、前記ユーザがネットワークを介して投稿した複数の投稿情報とを取得させ、
前記ユーザの感情を推測するステップにおいて、前記複数の端末状態情報及び前記複数の投稿情報のうち、前記感情の推測結果との関連性が相対的に大きい一以上の前記端末状態情報及び前記投稿情報を選択させ、
前記通知するステップにおいて、選択した前記一以上の前記端末状態情報及び前記投稿情報に基づく前記説明を前記ユーザの携帯端末に通知させるためのプログラム。
On the computer
Steps to acquire multiple event information indicating events related to the user's emotions,
A step of inferring the user's emotions based on the plurality of event information,
Along with the estimation result of the emotion, the explanation including the reason why the user presumes to have the emotion, the plurality of terminal state information indicating the state of the mobile terminal of the user acquired as the event information, and the user. Of the plurality of posted information posted via the network, one or more terminal state information having a relatively large relevance to the emotional estimation result and an explanation selected based on the posted information are carried by the user. Steps to notify the terminal and
To execute ,
In the step of acquiring the plurality of event information, as the plurality of event information, a plurality of terminal state information indicating the state of the user's mobile terminal and a plurality of posted information posted by the user via the network are acquired. Let me
In the step of estimating the emotion of the user, one or more of the plurality of terminal state information and the plurality of posted information having a relatively large relationship with the estimation result of the emotion, the terminal state information and the posted information. Let me select
In the step of notifying, because the program is notified of the explanation based on the selected the one or more of the terminal status information and the post information to the portable terminal of the user.
JP2018084088A 2018-04-25 2018-04-25 Emotion Guessing Method, Emotion Guessing Device and Program Active JP6970641B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018084088A JP6970641B2 (en) 2018-04-25 2018-04-25 Emotion Guessing Method, Emotion Guessing Device and Program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018084088A JP6970641B2 (en) 2018-04-25 2018-04-25 Emotion Guessing Method, Emotion Guessing Device and Program

Publications (2)

Publication Number Publication Date
JP2019191937A JP2019191937A (en) 2019-10-31
JP6970641B2 true JP6970641B2 (en) 2021-11-24

Family

ID=68391364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018084088A Active JP6970641B2 (en) 2018-04-25 2018-04-25 Emotion Guessing Method, Emotion Guessing Device and Program

Country Status (1)

Country Link
JP (1) JP6970641B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7420220B2 (en) 2020-03-24 2024-01-23 ヤマハ株式会社 Trained model establishment method, estimation method, performance agent recommendation method, performance agent adjustment method, trained model establishment system, estimation system, trained model establishment program and estimation program
JP7400965B2 (en) 2020-05-28 2023-12-19 日本電信電話株式会社 Mood prediction method, mood prediction device and program
JP7495363B2 (en) 2021-02-03 2024-06-04 Kddi株式会社 Personality information generation model, device and method using domain-independent RNN

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4352340B2 (en) * 2006-03-24 2009-10-28 富士電機システムズ株式会社 Neural network output value evaluation method and storage medium
KR101830767B1 (en) * 2011-07-14 2018-02-22 삼성전자주식회사 Apparuatus and Method for recognition of user's emotion
JP5875005B2 (en) * 2012-08-30 2016-03-02 日本電信電話株式会社 Human emotion estimation device, human emotion estimation method, and human emotion estimation program
US20170004269A1 (en) * 2015-06-30 2017-01-05 BWW Holdings, Ltd. Systems and methods for estimating mental health assessment results
JP2017134689A (en) * 2016-01-28 2017-08-03 Kddi株式会社 Management server, system, program, and method for determining user state of each terminal

Also Published As

Publication number Publication date
JP2019191937A (en) 2019-10-31

Similar Documents

Publication Publication Date Title
US11526720B2 (en) Artificial intelligence system for supporting communication
US11659050B2 (en) Discovering signature of electronic social networks
Peterson et al. Deep models of superficial face judgments
CN110162703A (en) Content recommendation method, training method, device, equipment and storage medium
JP5454357B2 (en) Information processing apparatus and method, and program
JP6911603B2 (en) How to generate predictive models for the categories of facilities visited by users, programs, server equipment, and processing equipment
KR20190084278A (en) Automatic suggestions for sharing images
JP6970641B2 (en) Emotion Guessing Method, Emotion Guessing Device and Program
CN111339404A (en) Content popularity prediction method and device based on artificial intelligence and computer equipment
CN109903127A (en) Group recommendation method and device, storage medium and server
KR101693429B1 (en) System for identifying human relationships around users and coaching based on identified human relationships
KR20150142610A (en) Method and system for coaching based on relationshinp type
CN111125507B (en) Group activity recommendation method and device, server and computer storage medium
JP7348230B2 (en) Generation device, generation method, and generation program
US20220015657A1 (en) Processing eeg data with twin neural networks
US20230075408A1 (en) Methods and systems for interactively counseling a user with respect to supervised content
Mahmud et al. Optimizing the selection of strangers to answer questions in social media
US20220368986A1 (en) Methods and systems for counseling a user with respect to supervised content
Liu et al. An agent-based modeling analysis of helpful vote on online product reviews
CN112749332B (en) Data processing method, device and computer readable medium
JP2020144411A (en) Attribute estimation apparatus, attribute estimation method, attribute estimator learning apparatus and program
JP6659011B2 (en) Search system, data collection device and search program
JP2019091260A (en) Apparatus, method and program for time-series analysis
JP2017199258A (en) Related topic detection device
US20200192958A1 (en) System and method for quantifying public disposition with respect to electronic media content

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211026

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211029

R150 Certificate of patent or registration of utility model

Ref document number: 6970641

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150