JP2019109620A - Estimation device, method for estimation, and estimation program - Google Patents
Estimation device, method for estimation, and estimation program Download PDFInfo
- Publication number
- JP2019109620A JP2019109620A JP2017241030A JP2017241030A JP2019109620A JP 2019109620 A JP2019109620 A JP 2019109620A JP 2017241030 A JP2017241030 A JP 2017241030A JP 2017241030 A JP2017241030 A JP 2017241030A JP 2019109620 A JP2019109620 A JP 2019109620A
- Authority
- JP
- Japan
- Prior art keywords
- user
- estimation
- target user
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000009471 action Effects 0.000 claims description 234
- 208000019901 Anxiety disease Diseases 0.000 claims description 156
- 230000036506 anxiety Effects 0.000 claims description 155
- 230000003340 mental effect Effects 0.000 claims description 112
- 230000036541 health Effects 0.000 claims description 65
- 230000006996 mental state Effects 0.000 claims description 61
- 238000012545 processing Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 30
- 238000009826 distribution Methods 0.000 claims description 5
- 230000006399 behavior Effects 0.000 abstract description 56
- 230000002996 emotional effect Effects 0.000 abstract 1
- 238000003860 storage Methods 0.000 description 184
- 230000004048 modification Effects 0.000 description 73
- 238000012986 modification Methods 0.000 description 73
- 230000006400 anxiety behaviour Effects 0.000 description 52
- 238000010586 diagram Methods 0.000 description 29
- 206010028980 Neoplasm Diseases 0.000 description 11
- 201000011510 cancer Diseases 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000010365 information processing Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 101150105144 UL21 gene Proteins 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 201000010099 disease Diseases 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 239000003814 drug Substances 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 206010002942 Apathy Diseases 0.000 description 1
- 241000237858 Gastropoda Species 0.000 description 1
- 101001136140 Pinus strobus Putative oxygen-evolving enhancer protein 2 Proteins 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000004800 psychological effect Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、推定装置、推定方法、及び推定プログラムに関する。 The present invention relates to an estimation apparatus, an estimation method, and an estimation program.
従来、ユーザの種々の状態を判定したり、推定したりする技術が提供されている。例えば、ユーザの脳波や撮像されたユーザの様子等により、ユーザの気分を判定する技術が提供されている。 Conventionally, techniques for determining or estimating various states of the user are provided. For example, there is provided a technology for determining the mood of the user based on the user's brain waves, the appearance of the imaged user, and the like.
しかしながら、上記の従来技術では、ユーザの状態を適切に推定することが難しい場合がある。例えば、ユーザの脳波を用いる場合、ユーザの脳波を収集するための装置等が必要になり、ユーザにとって負担が大きい。また、ユーザを撮像する場合、ユーザが常に撮像範囲に位置する必要が有り、ユーザにとって負担が大きい。このように、上記の従来技術では、ユーザにとって負担が大きく、ユーザに負担を掛けずに、ユーザの状態を推定することは難しい。また、上記の従来技術では、脳波を収集するための装置や撮像するための装置を適切な箇所に配置する必要が有り、これらの装置が適切な箇所に配置されていない場合、ユーザの状態を適切に推定することができるとは限らない。 However, in the above-described prior art, it may be difficult to appropriately estimate the state of the user. For example, in the case of using the brain waves of the user, a device or the like for collecting the brain waves of the user is required, which places a heavy burden on the user. Moreover, when imaging a user, the user needs to be always positioned within the imaging range, which places a heavy burden on the user. As described above, in the above-described conventional technology, the burden on the user is large, and it is difficult to estimate the state of the user without placing a burden on the user. Further, in the above-mentioned prior art, it is necessary to arrange an apparatus for collecting brain waves and an apparatus for imaging at an appropriate place, and when these apparatuses are not arranged at an appropriate place, the state of the user It can not always be estimated properly.
本願は、上記に鑑みてなされたものであって、ユーザの状態を適切に推定する推定装置、推定方法、及び推定プログラムを提供することを目的とする。 This application is made in view of the above, and an object of the present application is to provide an estimation device, an estimation method, and an estimation program which estimate a user's state appropriately.
本願に係る推定装置は、対象ユーザの行動情報を取得する取得部と、前記取得部により取得された前記対象ユーザの行動を示す行動情報に基づいて、前記対象ユーザの心身状態を推定する推定部と、を備えたことを特徴とする。 An estimation apparatus according to the present application estimates an object's mental and physical state based on an acquisition unit that acquires behavior information of a target user and behavior information indicating the behavior of the target user acquired by the acquisition unit. And.
実施形態の一態様によれば、ユーザの状態を適切に推定することができるという効果を奏する。 According to an aspect of the embodiment, an effect is obtained that the user's state can be appropriately estimated.
以下に、本願に係る推定装置、推定方法、及び推定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る推定装置、推定方法、及び推定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an estimation apparatus, an estimation method, and a form for implementing an estimation program (hereinafter, referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. Note that the estimation apparatus, estimation method, and estimation program according to the present application are not limited by this embodiment. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.
(実施形態)
〔1.推定処理のフロー〕
まず、図1を用いて、実施形態に係る推定処理の一例について説明する。図1は、実施形態に係る推定処理の一例を示す図である。図1の例では、推定装置100は、ユーザ及びカテゴリの組合せごとに生成された学習モデル(以下、「モデル」ともいう)を用いて、ユーザの心身状態を推定する場合を一例として説明する。図1の例では、ユーザの心身状態が通常と異なる負の状態である不安な状態かどうかを推定する。また、図1の例では、ユーザの心身状態が不安かどうかを推定する場合を一例として説明するが、ユーザの心身状態は不安に限らず、安心や疾病中等の種々の心身状態であってもよい。また、図1の例では、心身状態を推定するカテゴリとして、仕事、健康、将来、不明等を示すが、カテゴリは、種々のカテゴリであってもよい。
(Embodiment)
[1. Flow of estimation process]
First, an example of the estimation process according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of estimation processing according to the embodiment. In the example of FIG. 1, the
〔推定システムの構成〕
まず、図1及び図2に示す推定システム1について説明する。図2に示すように、推定システム1は、端末装置10と、情報提供元装置20と、推定装置100とが含まれる。端末装置10と、情報提供元装置20と、推定装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図2は、実施形態に係る推定システムの構成例を示す図である。なお、図2に示した推定システム1には、複数台の端末装置10や、複数台の情報提供元装置20や複数台の推定装置100が含まれてもよい。
[Configuration of estimation system]
First, the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1は、端末装置10がスマートフォンである場合を示す。
The
また、端末装置10は、GPS(Global Positioning System)センサ等の機能を有し、ユーザの位置を検知し、取得可能であるものとする。また、端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。また、端末装置10は、心拍センサ等の種々の機能を有し、ユーザの生体情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。
In addition, the
また、端末装置10は、外部装置から提供されたコンテンツを表示する。例えば、端末装置10は、推定装置100に種々の情報等を送信する。例えば、端末装置10は、ユーザによる投稿等の入力情報やユーザが検索に用いた検索クエリに関する情報等の行動情報等を推定装置100へ送信する。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。端末装置10は、ユーザによる種々の操作を受け付ける。
Also, the
推定装置100は、対象ユーザの行動を示す行動情報に基づいて、対象ユーザの心身状態を推定する情報処理装置である。例えば、推定装置100は、ユーザごとのモデルを用いて、対象ユーザの心身状態が不安かどうかを推定する。
The
推定装置100は、外部の情報処理装置からユーザの行動情報を取得する。例えば、推定装置100は、ユーザが利用する端末装置10からユーザの行動情報を取得する。
The
例えば、推定装置100は、端末装置10から取得したクエリ(検索クエリ)に対する検索結果を端末装置10に提供する検索サービスを提供してもよい。例えば、推定装置100は、クエリに対応する所定の情報を検索結果として、クエリの送信元である端末装置10へ提供してもよい。例えば、推定装置100は、検索サービスや電子商取引サービスを提供する外部の情報処理装置等からユーザの行動情報を取得してもよい。
For example, the
例えば、推定装置100は、端末装置10を利用するユーザが所定のサービスにおいて投稿した情報を端末装置10や所定のサービスを提供する外部装置から取得してもよい。例えば、推定装置100は、端末装置10を利用するユーザがTwitter(登録商標)やFacebook(登録商標)等のSNS(Social Networking Service)において投稿した情報を端末装置10や所定の外部装置から取得してもよい。例えば、推定装置100は、端末装置10を利用するユーザが所定の検索サービスにおいて用いた検索クエリ(以下、単に「クエリ」ともいう)に関する情報を端末装置10や検索サービスを提供する外部装置から取得してもよい。
For example, the
情報提供元装置20は、推定装置100に種々の情報提供を行うための情報が格納された情報処理装置である。例えば、情報提供元装置20は、ウェブサーバ等の種々の外部装置から収集した情報等が格納されてもよい。例えば、情報提供元装置20は、モデル情報やレベル情報等の種々の情報を推定装置100に提供する。
The information
ここから、図1を用いて、推定装置100がユーザU1を対象ユーザとして、ユーザU1の心理状態が不安かどうかを推定する場合を説明する。
From here, a case where the
推定装置100は、ユーザU1が利用する端末装置10からユーザU1の行動情報を取得する(ステップS11)。例えば、推定装置100は、端末装置10からユーザU1のインターネット上における行動情報を取得する。図1の例では、推定装置100は、ユーザU1がクエリ#11を用いた検索を行ったことを示す行動情報ADT11を取得する。なお、「クエリ#11」といった抽象的な符号で図示するが、「クエリ#11」は、「業績不振」や「不況」等の仕事に関するクエリであってもよい。このように、行動情報ADT11は、ユーザU1がクエリ#11を用いた検索(行動AC11)を日時dt11に行ったことを示す情報を含む。また、行動情報ADT11は、ユーザU1がクエリ#11を用いた検索を行った際の位置が位置LC11であり、天候が晴れ、気温が摂氏25度(25℃)、湿度が60%であったことを示す情報を含む。
The
図1の例では、推定装置100は、ユーザU1がSNS#12において投稿を行ったことを示す行動情報ADT12を取得する。なお、「SNS#12」といった抽象的な符号で図示するが、「SNS#12」は、Twitter(登録商標)やFacebook(登録商標)等のSNSにおいて投稿した文字情報や画像情報等であってもよい。このように、行動情報ADT12は、ユーザU1がSNS#12における投稿(行動AC12)を日時dt12に行ったことを示す情報を含む。また、行動情報ADT12は、ユーザU1がSNS#12における投稿を行った際の位置が位置LC12であり、天候が晴れ、気温が摂氏25度(25℃)、湿度が60%であったことを示す情報を含む。
In the example of FIG. 1, the
なお、ユーザU1の行動情報には、上記に限らず、例えばウェブコンテンツを閲覧したことを示す情報等のウェブ等のインターネット上での行動情報が含まれてもよい。また、例えば、推定装置100は、ユーザU1のインターネット上以外の行動情報を取得してもよい。例えば、推定装置100は、ユーザU1がAコンビニでB商品の購入を行ったことを示す情報や、Bレストランで飲食を行ったことを示す情報等の種々の行動情報を取得してもよい。
The action information of the user U1 is not limited to the above, and may include action information on the Internet such as the web such as information indicating that the web content has been browsed. Also, for example, the
そして、推定装置100は、ユーザU1の行動情報を収集する。図1の例では、推定装置100は、収集したユーザU1の行動情報を行動情報記憶部122に記憶する。例えば、推定装置100は、ユーザU1の行動情報ADT11や行動情報ADT12をユーザU1に対応付けて行動情報記憶部122に記憶する。
Then, the
そして、推定装置100は、モデル情報記憶部123から対象ユーザに対応するモデルを選択する(ステップS12)。図1中のモデル情報記憶部123には、モデルデータセット123−1やモデルデータセット123−2やモデルデータセット123−3等のように対象ユーザごとに情報(テーブル)が記憶されるが、図6で詳細は後述する。図1中のモデル情報記憶部123には、ユーザU1に対応するモデルデータセット123−1やユーザU2に対応するモデルデータセット123−2やユーザU3に対応するモデルデータセット123−3が記憶される。そのため、推定装置100は、モデル情報記憶部123から対象ユーザであるユーザU1に対応するモデルデータセット123−1を選択する。
Then, the
モデルデータセット123−1に示すモデルM1−1は、対象カテゴリが「仕事(CTG1)」であり、対象ユーザであるユーザU1の仕事における心身状態が不安かどうかの推定に用いられることを示す。また、モデルM1−1のモデルデータは、モデルデータMDT1−1であることを示す。 The model M1-1 illustrated in the model data set 123-1 indicates that the target category is “work (CTG1)” and is used to estimate whether the physical and mental state of the user U1 who is the target user is uneasy. Further, model data of the model M1-1 indicates that it is model data MDT1-1.
上記のように、「モデルM*(*は任意の文字列)」と記載した場合、そのモデルはモデルID「M*」により識別されるモデルであることを示す。例えば、「モデルM1−1」と記載した場合、そのモデルはモデルID「M1−1」により識別されるモデルである。また、図1中のモデルデータセット123−1に示すように、モデルM1−1は、対象ユーザU1の対象カテゴリ「仕事」における心身状態が不安であるかの推定のために用いられるモデルであり、その具体的なモデルデータが「モデルデータMDT1−1」であることを示す。例えば、推定装置100は、モデルM1−1にユーザの行動情報を入力することにより、入力した行動情報に対応するユーザの対象カテゴリ「仕事」における心身状態が不安かどうかの度合い(確率)を示すスコアを、モデルM1−1に出力させ、モデルM1−1が出力するスコアに基づいて、ユーザの対象カテゴリ「仕事」における心身状態が不安の度合いを推定する。なお、モデルM1−1等の各モデルの生成については、過去のユーザの行動情報の履歴から生成されてもよい。例えば、モデルM1−1等の各モデルの生成については、各ユーザの過去の行動を示す行動情報とその行動が行われた際のユーザの心身状態が不安を示す正解情報とを含む学習データから生成されてもよい。例えば、モデルM1−1等の各モデルの生成については、変形例に示す推定装置100Aに示すような処理により生成されてもよい。過去のユーザの行動情報の履歴から生成されてもよい。また、推定装置100は、推定に用いるモデルを情報提供元装置20等の外部装置から取得してもよい。
As described above, when “model M * (* is an arbitrary character string)” is described, it indicates that the model is a model identified by the model ID “M *”. For example, when describing as "model M1-1", the model is a model identified by model ID "M1-1". In addition, as shown in a model data set 123-1 in FIG. 1, the model M1-1 is a model used to estimate whether the mind-body state in the target category "work" of the target user U1 is anxiety. , Indicates that the specific model data is "model data MDT1-1". For example, the
そして、推定装置100は、モデルデータセット123−1から推定の対象とするカテゴリのモデルを選択する(ステップS13)。例えば、推定装置100は、ユーザの属性情報やユーザの行動内容やユーザに関する種々の情報に基づいて、推定の対象とするカテゴリのモデルを選択する。図1の例では、ユーザ情報記憶部121に示すようにユーザU1の興味が「経済」であるため、推定装置100は、ユーザU1の対象カテゴリ「仕事」における心身状態が不安かどうかを推定する。そのため、図1の例では、推定装置100は、対象カテゴリ「仕事」に対応するモデルM1−1を選択する。なお、推定装置100は、モデルM1−1に限らず、対象カテゴリ「健康」に対応するモデルM1−2や対象カテゴリ「将来」に対応するモデルM1−3等のモデルを選択してもよい。
The
図1の例では、推定装置100は、処理群PS11に示すような処理により、ユーザU1の対象カテゴリ「仕事」における心身状態が不安かどうかを示すスコアを算出する。推定装置100は、行動情報ADT11、ADT12をモデルM1−1に入力する(ステップS14)。行動情報ADT11、ADT12が入力されたモデルM1は、スコアを出力する(ステップS15)。図1の例では、行動情報ADT11、ADT12が入力されたモデルM1−1は、スコアSC11に示すようなスコア「0.85」を出力する。
In the example of FIG. 1, the
なお、モデルM1−1が1つの行動に対応する行動情報を入力とする場合、推定装置100は、行動情報ADT11をモデルM1−1に入力し、モデルM1−1が出力するスコアを、ユーザU1の対象カテゴリ「仕事」における心身状態が不安かどうかを示すスコア(推定用スコア)として用いてもよい。また、推定装置100は、行動情報ADT11、ADT12ごとにモデルM1−1に入力し、モデルM1−1が出力するスコアの平均を、ユーザU1の対象カテゴリ「仕事」における心身状態が不安かどうかを示すスコア(推定用スコア)として用いてもよい。
When the model M1-1 receives action information corresponding to one action, the
そして、推定装置100は、モデルM1−1が出力したスコアと、レベル情報記憶部124に記憶されたレベル情報とに基づいて、ユーザU1の不安レベルを推定する(ステップS16)。
Then, the
図1中のレベル情報記憶部124には、「レベル」と「カテゴリ」との組み合わせによる判定条件を示す。「レベル」は、対応するカテゴリにおけるユーザの心身状態が不安であるレベルを示す。図1では、「レベル」には、「低(LV1)」、「中(LV2)」、「高(LV3)」といった項目が含まれる。「カテゴリ」は、ユーザの心身状態が不安かを推定する対象となるカテゴリを示す。図7では、「カテゴリ」には、「仕事(CTG1)」、「健康(CTG2)」、「将来(CTG3)」、「不明(CTG4)」といった項目が含まれる。図1中のレベル情報記憶部124は、各レベルと、各カテゴリとが交差するマスには、モデルが出力したスコアに応じたそのレベルに属するかの判定条件を示す。
The level
図1の例では、レベル「低(LV1)」と、カテゴリ「仕事(CTG1)」とが交差するマスには、「0.2以上0.5未満」が記憶されている。すなわち、図1の例では、カテゴリ「仕事(CTG1)」を対象カテゴリとした場合、対象ユーザの行動情報が出力したスコアが0.2以上0.5未満である場合、仕事における対象ユーザの不安は「低(LV1)」、すなわち低レベルであることを示す。また、カテゴリ「仕事(CTG1)」を対象カテゴリとした場合、対象ユーザの行動情報が出力したスコアが0.5以上0.8未満である場合、仕事における対象ユーザの不安は「中(LV2)」、すなわち中レベルであることを示す。また、カテゴリ「仕事(CTG1)」を対象カテゴリとした場合、対象ユーザの行動情報が出力したスコアが0.8以上である場合、仕事における対象ユーザの不安は「高(LV3)」、すなわち高レベルであることを示す。なお、レベル情報記憶部124に示すレベルや判定条件は一例であり、レベルの段階や各レベルの判定条件は目的や用途に応じて適宜設定されてもよい。
In the example of FIG. 1, “0.2 or more and less than 0.5” is stored in the mass at which the level “low (LV1)” and the category “work (CTG1)” intersect. That is, in the example of FIG. 1, when the category "work (CTG1)" is set as the target category, when the score output by the target user's action information is 0.2 or more and less than 0.5, the target user's anxiety in work Indicates “low (LV1)”, that is, low level. In addition, when the category “job (CTG1)” is the target category, when the score output from the action information of the target user is 0.5 or more and less than 0.8, the target user's anxiety in work is “medium (LV2) That is, the medium level is indicated. When the category “job (CTG1)” is the target category and the score output by the action information of the target user is 0.8 or more, the target user's anxiety at work is “high (LV3)”, that is, high Indicates that it is a level. The levels and the determination conditions shown in the level
すなわち、図1の例では、推定装置100は、対象ユーザの行動情報が入力されたモデルM1−1が出力するスコアが0.2以上である場合、その対象ユーザの心身状態が不安であると推定する。この場合、推定装置100は、モデルM1−1が出力するスコアに応じて、その対象ユーザの不安のレベルを推定する。また、例えば、推定装置100は、対象ユーザの行動情報が入力されたモデルM1−1が出力するスコアが0.2未満である場合、その対象ユーザの心身状態が不安ではないと推定する。
That is, in the example of FIG. 1, when the score output by the model M 1-1 to which the action information of the target user is input is 0.2 or more in the example of FIG. presume. In this case, the
図1の例では、推定装置100は、モデルM1−1が出力したスコアが「0.85」であり、最低レベルの「低(LV1)」の下限値「0.2」以上であるため、ユーザU1の仕事における心身状態が不安であると推定する。また、推定装置100は、推定一覧ES11に示すように、モデルM1−1が出力したスコアが「0.85」であり、「高(LV3)」の判定条件を満たすため、ユーザU1の仕事における不安レベルが高であると推定する。すなわち、推定装置100は、ユーザU1が仕事での不安度が高いと推定する。
In the example of FIG. 1, the
そして、推定装置100は、推定したユーザU1の不安レベルに応じて、ユーザU1に提供するコンテンツ(提供コンテンツ)を決定する(ステップS17)。図1の例では、推定装置100は、コンテンツ情報記憶部125に記憶されたコンテンツから、ユーザU1への提供コンテンツを決定する。
Then, the
図1中のコンテンツ情報記憶部125において、コンテンツID「CT11」により識別されるAコンテンツ(コンテンツCT11)は、ジャンルがスポーツであることを示す。また、コンテンツCT11は、閲覧したユーザを「楽しい」という心身状態にさせることを示す。すなわち、コンテンツCT11は、閲覧したユーザの心身状態を正の状態にさせることを示す。例えば、コンテンツCT11は、閲覧したユーザの心身状態を安心の状態にさせることを示す。
In the content
また、コンテンツID「CT12」により識別されるBコンテンツ(コンテンツCT12)は、ジャンルが国際であることを示す。また、コンテンツCT12は、閲覧したユーザを「悲しい」という心身状態にさせることを示す。すなわち、コンテンツCT12は、閲覧したユーザの心身状態を負の状態にさせることを示す。例えば、コンテンツCT12は、閲覧したユーザの心身状態を不安の状態にさせることを示す。 Also, the B content (content CT12) identified by the content ID “CT12” indicates that the genre is international. Further, the content CT12 indicates that the browsing user is put in a mind-body state of "sad". That is, the content CT12 indicates that the mental and physical state of the browsed user is made negative. For example, the content CT12 indicates that the mental and physical state of the browsed user is put in a state of anxiety.
例えば、推定装置100は、ユーザU1の不安レベルが高いと推定したため、コンテンツ情報記憶部125に記憶されたコンテンツのうち、ユーザの心身状態を正の状態にさせるコンテンツを、ユーザU1への提供コンテンツとして決定する。例えば、推定装置100は、ユーザU1の不安レベルが高いと推定したため、ユーザの感情や気分を高揚させるコンテンツを、ユーザU1への提供コンテンツとして決定する。図1の例では、推定装置100は、ユーザU1の不安レベルが高いと推定したため、ユーザを「楽しい」という心身状態にさせるAコンテンツやCコンテンツを提供コンテンツとして決定する。
For example, since the
そして、推定装置100は、ユーザU1が利用する端末装置10にコンテンツを提供する(ステップS18)。例えば、推定装置100は、ステップS17において決定した提供コンテンツを端末装置10に送信する。図1の例では、推定装置100は、端末装置10にAコンテンツやCコンテンツを提供コンテンツとして配信する。
Then, the
上述のように、推定装置100は、ユーザのインターネット上における行動等の種々の行動情報に基づいて、ユーザの心身状態を推定することにより、ユーザの行動からユーザの状態を適切に推定することができる。また、推定装置100は、ユーザの行動情報を入力とするモデルを用いることにより、ユーザの行動からユーザの状態を適切に推定することができる。また、推定装置100は、ユーザの心身状態のレベルを判定するレベル情報を用いることにより、ユーザの心身状態がどのレベルかを適切に推定することができる。また、推定装置100は、心身状態が不安であるユーザに、ユーザの心身状態を正の状態にさせるコンテンツを提供することができる。したがって、推定装置100は、ユーザの心身状態に応じたコンテンツをユーザに適切に提供することができる。なお、上記推定処理は、推定処理でのユーザの情報の利用を許諾したユーザ、すなわちオプトインしたユーザのみを対象としてもよい。
As described above, the
〔1−1.提供コンテンツ〕
上述した例では、ユーザに提供するコンテンツが、各ジャンルに対応する記事等のコンテンツである場合を示したが、ユーザに提供するコンテンツは、記事に限らず、種々のコンテンツであってもよい。例えば、ユーザに提供するコンテンツは、広告であってもよい。この場合、推定装置100は、ユーザの心身状態に応じて、ユーザに広告を提供する。すなわち、推定装置100は、ユーザの心身状態に応じて、ユーザに広告を配信する。例えば、推定装置100は、ユーザの仕事における心身状態が不安である場合、ユーザに仕事の不安を和らげる広告を提供してもよい。例えば、推定装置100は、ユーザの仕事における心身状態が不安である場合、ユーザに転職サイトの広告や自己啓発の広告等を提供してもよい。
[1-1. Provided content]
In the example described above, the case where the content to be provided to the user is content such as an article corresponding to each genre is shown, but the content to be provided to the user is not limited to an article, but may be various content. For example, the content provided to the user may be an advertisement. In this case, the
また、例えば、推定装置100は、ユーザの健康における心身状態が不安である場合、ユーザに健康の不安を和らげる広告を提供してもよい。例えば、推定装置100は、ユーザの健康における心身状態が不安である場合、ユーザに保険の広告やスポーツジムの広告等を提供してもよい。また、例えば、推定装置100は、ユーザの将来における心身状態が不安である場合、ユーザに将来の不安を和らげる広告を提供してもよい。例えば、推定装置100は、ユーザの将来における心身状態が不安である場合、ユーザに年金の広告や資格取得の広告等を提供してもよい。なお、上記は一例であり、推定装置100は、ユーザの心身状態に応じて種々の広告をユーザに提供してもよい。
Also, for example, when the mind and body state of the user's health is anxiety, for example, the
また、推定装置100は、推定した対象ユーザの心身状態に応じて、広告等のコンテンツのクリエイティブを最適化してもよい。例えば、推定装置100は、推定した対象ユーザの心身状態に応じて、対象ユーザへ提供するコンテンツの内容を変更してもよい。例えば、推定装置100は、推定した対象ユーザの不安レベルが高である場合、保険料を通常よりも高くした保険の広告を対象ユーザへ提供してもよい。図1の例では、推定装置100は、推定した対象ユーザであるユーザU1の不安レベルが高であるため、A生命保険の通常の保険料(例えばX円)も高くした保険料(例えば、UX円)に設定されたA生命保険の広告ACZを生成してもよい。この場合、推定装置100は、広告を生成する生成部を有し、生成部がA生命保険の保険料が「UX円」であることを示すA生命保険の広告ACZを生成してもよい。そして、推定装置100は、A生命保険の保険料が「UX円」であることを示すA生命保険の広告ACZをユーザU1の端末装置10へ配信してもよい。なお、推定装置100は、ユーザの心身状態に限らず、社会(世の中)で報じられたニュース(悲報等)に応じて広告クリエイティブを最適化してもよい。例えば、推定装置100は、対象ユーザが属する社会でテロや有名人が病気による訃報等の悲報が報じられた場合、広告の表現を抑えた(自重した)内容に変更してもよい。
Further, the
〔1−2.心身状態〕
上述した例では、ユーザの心身状態が不安であるかを推定する場合を示したが、推定装置100は、ユーザの心身状態であれば、どのようなユーザの心身状態を推定してもよい。例えば、推定装置100は、ユーザの心身状態が安心であるかを推定してもよい。この場合、推定装置100は、ユーザの心身状態が安心であるかを推定するモデルを用いて推定処理を行ってもよい。また、例えば、推定装置100は、ユーザの心身状態が疾病中であるかを推定してもよい。この場合、推定装置100は、ユーザの心身状態が疾病中であるかを推定するモデルを用いて推定処理を行ってもよい。また、推定装置100が推定する心身状態は、喜び、怒り、悲しみ、楽しみ、無感情等の感情であってもよい。
[1-2. Mental and physical condition]
In the example described above, the case where it is estimated that the user's physical and mental state is anxiety is shown, but the
〔1−3.カテゴリ〕
また、上述した例では、心身状態を推定する対象カテゴリが「仕事」である場合を一例として説明したが、心身状態を推定する対象カテゴリは、「健康」、「将来」、「不明」であってもよい。また、心身状態を推定する対象カテゴリは、「家庭」や「お金」等のユーザの心身状態を推定する対象となるカテゴリであれば、どのようなカテゴリであってもよい。
[1-3. category〕
In the example described above, although the case where the target category for estimating the mental and physical state is "work" is described as an example, the target categories for estimating the physical and mental state are "health", "future", "unknown" May be Further, the target category for estimating the mental and physical state may be any category as long as it is a target for estimating the physical and mental state of the user, such as "home" or "money".
〔2.推定装置の構成〕
次に、図3を用いて、実施形態に係る推定装置100の構成について説明する。図3は、実施形態に係る推定装置100の構成例を示す図である。図3に示すように、推定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、推定装置100は、推定装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of estimation device]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図3に示すように、ユーザ情報記憶部121と、行動情報記憶部122と、モデル情報記憶部123と、レベル情報記憶部124と、コンテンツ情報記憶部125とを有する。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 3, the storage unit 120 according to the embodiment includes a user
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性に関する各種情報を記憶する。図4は、実施形態に係るユーザ情報記憶部の一例を示す図である。図4に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「興味」、「保険情報」といった項目が含まれる。また、図示は省略するが、ユーザ情報記憶部121は、「自宅」、「勤務地」といったユーザの生活圏に関する位置情報が記憶されてもよい。
(User information storage unit 121)
The user
「ユーザID」は、ユーザを識別するための識別情報を示す。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。 "User ID" indicates identification information for identifying a user. "Age" indicates the age of the user identified by the user ID. The “age” may be a specific age of the user identified by the user ID, such as 35, for example. Also, “sex” indicates the gender of the user identified by the user ID.
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図4に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。「保険情報」は、ユーザIDにより識別されるユーザが加入している保険に関する情報が記憶される。例えば、「保険情報」は、ユーザIDにより識別されるユーザが加入している保険の種別や保険料等の種々の保険に関する情報が記憶される。なお、図4に示す例では、「保険情報」は、各ユーザに1つずつ図示するが、複数であってもよい。 Also, “interest” indicates the interest of the user identified by the user ID. That is, “interesting” indicates an object that the user identified by the user ID is highly interested in. In the example shown in FIG. 4, although one “interest” is illustrated for each user, it may be plural. The “insurance information” stores information on the insurance to which the user identified by the user ID subscribes. For example, as “insurance information”, information related to various types of insurance such as the type of insurance to which the user identified by the user ID has subscribed and the insurance premium is stored. In the example shown in FIG. 4, “insurance information” is illustrated for each user, but may be plural.
例えば、図4の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)の年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、ユーザU1は経済に興味があることを示す。また、例えば、ユーザU1は、加入している保険がないことを示す。 For example, in the example of FIG. 4, the age of the user (user U1) identified by the user ID “U1” is “twenties” and the gender is “male”. Also, for example, it indicates that the user U1 is interested in the economy. Also, for example, the user U1 indicates that there is no insurance subscribed.
例えば、図4の例では、ユーザID「U3」により識別されるユーザ(ユーザU3)の年齢は、「30代」であり、性別は、「男性」であることを示す。また、例えば、ユーザU3はスポーツに興味があることを示す。また、例えば、ユーザU3は、B損害保険に加入しており、保険料はY円であることを示す。 For example, in the example of FIG. 4, the age of the user (user U3) identified by the user ID “U3” is “30s”, and the gender is “male”. Also, for example, it indicates that the user U3 is interested in sports. Also, for example, the user U3 indicates that B insurance is enrolled and the premium is Y yen.
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、デモグラフィック属性情報やサイコグラフィック属性情報等の種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、家族構成、収入等の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザについて最後に取得された位置情報を最新の位置情報として記憶してもよい。
The user
(行動情報記憶部122)
実施形態に係る行動情報記憶部122は、ユーザの行動に関する各種情報を記憶する。図5は、実施形態に係る行動情報記憶部の一例を示す図である。例えば、行動情報記憶部122は、ユーザのインターネット上における行動等のユーザの行動情報を記憶する。図5に示す行動情報記憶部122には、「ユーザID」、「行動ID」、「日時」、「位置」、「気象(天候、気温、湿度…)」、「内容」、「行動情報」といった項目が含まれる。また、図示は省略するが、行動情報記憶部122は、ユーザの健康状態を示す情報(健康情報)を記憶する。例えば、行動情報記憶部122は、各ユーザが通常の状態であるか、または通常の状態とは異なる状態であるかを示す情報を記憶する。例えば、行動情報記憶部122は、各ユーザが通常の状態であるか、または疾病中や負傷中等の負の状態であるかを示す情報を記憶する。例えば、行動情報記憶部122は、各ユーザが通常の状態である場合は「0」を記憶し、疾病中や負傷中等の負の状態である場合は「1」を健康情報として記憶する。なお、推定装置100は、推定してもよいし、外部の情報処理装置から各ユーザの健康状態を示す情報を取得してもよい。例えば、推定装置100は、情報提供元装置20から各ユーザの健康状態を示す情報を取得してもよい。
(Action information storage unit 122)
The action
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動ID」は、ユーザの行動を識別する情報を示す。「日時」は、対応するユーザの行動が行われた日時を示す。「日時」には、「dt11」等のように抽象的に図示するが、「2017年12月5日23時15分48秒」等の具体的な日時が記憶されてもよい。 "User ID" indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. Also, "action ID" indicates information identifying a user's action. "Date" indicates the date when the corresponding user's action was taken. Although “dt11” and the like are abstractly illustrated as “date and time”, a specific date and time such as “December 5, 2017 23:15:48” may be stored.
また、「位置」は、行動IDにより識別される行動が行われた際のユーザの位置情報を示す。なお、図5に示す例では、「位置」は、「LC11」といった抽象的な符号を図示するが、緯度経度情報等であってもよい。「気象(天候、気温、湿度…)」は、行動IDにより識別される行動が行われた際のユーザの位置に対応する気象情報を示す。なお、気象情報は、天候、気温、湿度等に限らず、種々の情報が含まれてもよい。 Further, “position” indicates position information of the user when the action identified by the action ID is performed. In the example shown in FIG. 5, the “position” is illustrated as an abstract code such as “LC11”, but may be latitude / longitude information or the like. "Weather (weather, air temperature, humidity ...)" indicates weather information corresponding to the position of the user when the action identified by the action ID is performed. The weather information may include various information as well as weather, temperature, humidity and the like.
また、「内容」は、対応するユーザの行動の具体的な内容を示す。また、「行動情報」は、行動IDにより識別される行動に対応するユーザの行動情報を示す。図5では「行動情報」に「ADT11」といった概念的な情報が格納される例を示したが、実際には、ユーザが行った行動に関する種々の情報、または、その格納場所を示すファイルパス名などが格納される。例えば、「行動情報」は、対応する「日時」、「位置」、「気象(天候、気温、湿度…)」、「内容」に記憶された各種情報を含んでもよい。 Also, "content" indicates the specific content of the corresponding user's action. Also, “action information” indicates action information of the user corresponding to the action identified by the action ID. Although an example in which conceptual information such as "ADT11" is stored in "action information" is shown in FIG. 5, actually, various information related to the action taken by the user, or a file path name indicating the storage location thereof Etc. are stored. For example, the "action information" may include various information stored in the corresponding "date and time", "position", "weather (weather, temperature, humidity ...)", and "content".
例えば、図5の例では、ユーザID「U1」により識別されるユーザ(ユーザU1)は、行動ID「AC11」により識別される行動(行動AC11)や行動ID「AC12」により識別される行動(行動AC12)等を行ったことを示す。具体的には、図5の例ではユーザU1は、クエリ#11を用いた検索(行動AC11)を日時dt11に行ったことを示す。また、ユーザU1がクエリ#11を用いた検索を行った際の位置が位置LC11であり、天候が晴れ、気温が摂氏25度(25℃)、湿度が60%であったことを示す。また、行動情報ADT11は、上記のような行動AC11に対応する行動情報であることを示す。
For example, in the example of FIG. 5, the user (user U1) identified by the user ID “U1” is identified by the action (action AC11) identified by the action ID “AC11” or the action identified by the action ID “AC12” Indicates that action AC12) etc. have been performed. Specifically, in the example of FIG. 5, the user U1 indicates that the search (action AC11) using the
なお、行動情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図5では、ユーザIDごとに行動情報が行動情報記憶部122に記憶される場合を示したが、行動情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。
The behavior
(モデル情報記憶部123)
実施形態に係るモデル情報記憶部123は、モデルに関する情報を記憶する。例えば、モデル情報記憶部123は、ユーザごとに生成されたモデル情報(モデルデータ)を記憶する。図6は、実施形態に係るモデル情報記憶部の一例を示す図である。図6の例では、モデル情報記憶部123は、モデルデータセット123−1やモデルデータセット123−2やモデルデータセット123−3等のように対象ユーザごとに情報(テーブル)を記憶する。図6に示すモデルデータセット123−1〜123−3等は、「対象ユーザ」、「モデルID」、「対象カテゴリ」、「モデルデータ」といった項目が含まれる。なお、図6では、モデルM1−1〜M3−4等を図示するが、M1−5、M3−5等、各ユーザとカテゴリの組合せに応じて多数のモデル情報が記憶されてもよい。
(Model information storage unit 123)
The model
図6の例では、モデルデータセット123−1は、対象ユーザであるユーザID「U1」により識別されるユーザ(ユーザU1)に対応するモデル群が記憶される。また、モデルデータセット123−2は、対象ユーザであるユーザID「U2」により識別されるユーザ(ユーザU2)に対応するモデル群が記憶される。また、モデルデータセット123−3は、対象ユーザであるユーザID「U3」により識別されるユーザ(ユーザU3)に対応するモデル群が記憶される。 In the example of FIG. 6, in the model data set 123-1, a model group corresponding to the user (user U1) identified by the user ID “U1” who is the target user is stored. The model data set 123-2 stores a group of models corresponding to the user (user U2) identified by the user ID "U2" who is the target user. The model data set 123-3 stores a model group corresponding to the user (user U3) identified by the user ID "U3" who is the target user.
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1−1」により識別されるモデルは、図1の例に示したモデルM1−1に対応する。「対象カテゴリ」は、対応するモデルの対象カテゴリを示す。また、「モデルデータ」は、対応するモデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 "Model ID" indicates identification information for identifying a model. For example, the model identified by the model ID “M1-1” corresponds to the model M1-1 illustrated in the example of FIG. The “target category” indicates the target category of the corresponding model. Also, “model data” indicates data of the corresponding model. For example, “model data” includes information including nodes in each layer, functions adopted by each node, connection relationships between nodes, and connection coefficients set for connections between nodes.
例えば、図6に示す例において、モデルID「M1−1」により識別されるモデル(モデルM1−1)は、対象カテゴリが「仕事(CTG1)」であり、対象ユーザの仕事における心身状態が不安かどうかの推定に用いられることを示す。また、モデルM1−1のモデルデータは、モデルデータMDT1−1であることを示す。 For example, in the example illustrated in FIG. 6, the model (model M1-1) identified by the model ID "M1-1" has a target category "work (CTG1)", and the mind-body state of the target user's work is uneasy Indicates that it is used to estimate whether or not. Further, model data of the model M1-1 indicates that it is model data MDT1-1.
例えば、モデルM1−1(モデルデータMDT1−1)は、ユーザの行動情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された行動情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザの心身状態の推定に用いられるスコアの値を出力層から出力するよう、コンピュータを機能させるためのモデルである。 For example, the model M1-1 (model data MDT1-1) is any layer from the input layer to which the user's action information is input, the output layer, and the input layer to the output layer, and is a layer other than the output layer And the second element whose value is calculated based on the first element and the weight of the first element, and the action information input to the input layer is included in each layer other than the output layer. The computer functions so that the value of the score used to estimate the user's mental and physical state is output from the output layer by performing an operation based on the first element and the weight of the first element with each element to which it belongs as the first element. It is a model to make
ここで、モデルM1−1〜M3−4等が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、例えば、モデルM1−1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, the model M1-1~M3-4 like are realized by the regression model indicated by "y = a 1 * x 1 + a 2 * x 2 + ··· + a i * x i ." In this case, for example, the first element included in the model M1-1 corresponds to input data (xi) such as x1 and x2. Also, the weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element can correspond to any node of the input layer, and the second element can be regarded as a node of the output layer.
また、モデルM1−1〜M3−4等がDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワーク(Neural Network)で実現されるとする。この場合、例えば、モデルM1−1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 Further, it is assumed that the models M1-1 to M3-4 and the like are realized by a neural network such as DNN (Deep Neural Network) having one or more intermediate layers. In this case, for example, the first element included in the model M1-1 corresponds to any node that the input layer or the middle layer has. Also, the second element corresponds to the next-stage node that is a node to which a value is transmitted from the node corresponding to the first element. Also, the weight of the first element corresponds to the connection coefficient, which is a weight considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.
なお、モデル情報記憶部123は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。例えば、モデル情報記憶部123は、ユーザ属性ごとに生成されたモデルであって、そのユーザ属性に対応するユーザの心身状態の推定に用いられるモデルを記憶してもよい。例えば、モデル情報記憶部123は、20代男性、20代女性、30代男性等のユーザ属性ごとに生成されたモデルであって、そのユーザ属性に対応するユーザの心身状態の推定に用いられるモデルを記憶してもよい。
The model
(レベル情報記憶部124)
実施形態に係るレベル情報記憶部124は、レベルに関する各種情報を記憶する。例えば、レベル情報記憶部124は、各カテゴリのレベルに関する各種情報を記憶する。図7は、実施形態に係るレベル情報記憶部の一例を示す図である。例えば、レベル情報記憶部124には、「レベル」と「カテゴリ」との組み合わせによる判定条件が記憶される。具体的には、レベル情報記憶部124には、行「レベル」と列「カテゴリ」とする各マスには、対応するカテゴリにおけるユーザの心身状態のレベルのスコアに基づく判定条件を示す情報が記憶される。図7の例では、レベル情報記憶部124には、行「レベル」と列「カテゴリ」とする各マスには、対応するカテゴリにおけるユーザの不安のレベルのスコアに基づく判定条件を示す情報が記憶される。
(Level information storage unit 124)
The level
「レベル」は、対応するカテゴリにおけるユーザの心身状態のレベルを示す。図7では、「レベル」には、「低(LV1)」、「中(LV2)」、「高(LV3)」といった項目が含まれる。なお、上記は一例であり、「レベル」には、低、中、高の3段階に限らず、種々の段階(例えば10段階等)であってもよい。 "Level" indicates the level of the user's mental and physical state in the corresponding category. In FIG. 7, “level” includes items such as “low (LV1)”, “middle (LV2)”, and “high (LV3)”. Note that the above is an example, and the “level” is not limited to three levels of low, medium, and high, and may be various stages (for example, ten stages).
「カテゴリ」は、ユーザの心身状態を推定する対象となるカテゴリを示す。図7では、「カテゴリ」には、「仕事(CTG1)」、「健康(CTG2)」、「将来(CTG3)」、「不明(CTG4)」といった項目が含まれる。なお、上記は一例であり、「カテゴリ」には、「家庭」や「お金」等のユーザの心身状態を推定する対象となるカテゴリであれば、どのようなカテゴリであってもよい。 “Category” indicates a category for which the user's mental and physical state is to be estimated. In FIG. 7, “category” includes items such as “work (CTG1)”, “health (CTG2)”, “future (CTG3)”, and “unknown (CTG4)”. Note that the above is an example, and any category may be used as the "category" as long as the category is a target for estimating the physical and mental state of the user, such as "home" and "money".
図7の例では、各レベルと、各カテゴリとが交差するマスには、モデルが出力したスコアに応じたそのレベルに属するかの判定条件を示す。 In the example of FIG. 7, the squares at which each level and each category intersect indicate a determination condition as to whether the level belongs to the level corresponding to the score output by the model.
図7の例では、レベル「低(LV1)」と、カテゴリ「仕事(CTG1)」とが交差するマスには、「0.2以上0.5未満」が記憶されている。すなわち、図7の例では、カテゴリ「仕事(CTG1)」を対象カテゴリとした場合、対象ユーザの行動情報が出力したスコアが0.2以上0.5未満(例えば0.35等)である場合、仕事における対象ユーザの不安は「低(LV1)」、すなわち低レベルであることを示す。また、カテゴリ「仕事(CTG1)」を対象カテゴリとした場合、対象ユーザの行動情報が出力したスコアが0.5以上0.8未満(例えば0.7等)である場合、仕事における対象ユーザの不安は「中(LV2)」、すなわち中レベルであることを示す。また、カテゴリ「仕事(CTG1)」を対象カテゴリとした場合、対象ユーザの行動情報が出力したスコアが0.8以上(例えば0.9等)である場合、仕事における対象ユーザの不安は「高(LV3)」、すなわち高レベルであることを示す。 In the example of FIG. 7, “0.2 or more and less than 0.5” is stored in the mass at which the level “low (LV1)” and the category “work (CTG1)” intersect. That is, in the example of FIG. 7, when the category “job (CTG1)” is the target category, the score output by the action information of the target user is 0.2 or more and less than 0.5 (for example, 0.35). Anxiety of the target user at work indicates "low (LV1)", that is, low level. When the category “job (CTG1)” is the target category, if the score output by the action information of the target user is 0.5 or more and less than 0.8 (for example, 0.7 or the like), Anxiety indicates "Medium (LV2)", or medium level. When the category “job (CTG1)” is the target category, the target user's anxiety at work is “high” when the score output by the target user's action information is 0.8 or more (for example, 0.9) (LV3) ", which indicates high level.
なお、レベル情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
The level
(コンテンツ情報記憶部125)
実施形態に係るコンテンツ情報記憶部125は、コンテンツ(記事)に関する各種情報を記憶する。図8は、実施形態に係るコンテンツ情報記憶部の一例を示す図である。図8に示すコンテンツ情報記憶部125は、「コンテンツID」、「コンテンツ」、「内容」といった項目を有する。
(Content information storage unit 125)
The content
「コンテンツID」は、コンテンツを識別するための識別情報を示す。「コンテンツ」は、いわゆるコンテンツプロバイダ等の提供元から取得したコンテンツを示す。図8では「コンテンツ」に「Aコンテンツ」といった概念的な情報が格納される例を示したが、実際には、文字情報や文字情報と画像との組合せ、または、これらの格納場所を示すファイルパス名などが格納される。 "Content ID" indicates identification information for identifying content. "Content" indicates content acquired from a provider such as a so-called content provider. Although FIG. 8 shows an example in which conceptual information such as "A content" is stored in "content", actually, character information or a combination of character information and an image, or a file indicating the storage location of these Path name etc. are stored.
また、「内容」は、対応するコンテンツの具体的な内容を示す。例えば、「内容」は、対応するコンテンツのジャンル(種別)を示す。また、「内容」は、そのコンテンツを閲覧したユーザに与える心理的な作用を示す情報が記憶される。図8に示す「内容」中の括弧内は、コンテンツを閲覧したユーザがどのような心身状態になるかを示す。 Also, "content" indicates the specific content of the corresponding content. For example, "content" indicates the genre (type) of the corresponding content. Also, “content” stores information indicating a psychological action to be given to the user who browsed the content. The parentheses in the “content” shown in FIG. 8 indicate what kind of mind and body the user who browsed the content becomes.
図8の例では、コンテンツID「CT11」により識別されるAコンテンツ(コンテンツCT11)は、ジャンルがスポーツであることを示す。また、コンテンツCT11は、閲覧したユーザを「楽しい」という心身状態にさせることを示す。すなわち、コンテンツCT11は、閲覧したユーザの心身状態を正の状態にさせることを示す。例えば、コンテンツCT11は、閲覧したユーザの心身状態を安心の状態にさせることを示す。 In the example of FIG. 8, the A content (content CT11) identified by the content ID "CT11" indicates that the genre is sports. Further, the content CT11 indicates that the browsed user is made to have a mental and physical state of "fun". That is, the content CT11 indicates that the mental and physical state of the browsed user is brought into a positive state. For example, the content CT11 indicates that the mental and physical state of the browsed user is made safe.
また、コンテンツID「CT12」により識別されるBコンテンツ(コンテンツCT12)は、ジャンルが国際であることを示す。また、コンテンツCT12は、閲覧したユーザを「悲しい」という心身状態にさせることを示す。すなわち、コンテンツCT12は、閲覧したユーザの心身状態を負の状態にさせることを示す。例えば、コンテンツCT12は、閲覧したユーザの心身状態を不安の状態にさせることを示す。 Also, the B content (content CT12) identified by the content ID “CT12” indicates that the genre is international. Further, the content CT12 indicates that the browsing user is put in a mind-body state of "sad". That is, the content CT12 indicates that the mental and physical state of the browsed user is made negative. For example, the content CT12 indicates that the mental and physical state of the browsed user is put in a state of anxiety.
なお、コンテンツ情報記憶部125は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、コンテンツ情報記憶部125は、コンテンツを取得した日時やコンテンツが作成された日時に関する情報を記憶してもよい。コンテンツ情報記憶部125は、各提供元の評価値に関する情報を記憶してもよい。また、コンテンツ情報記憶部125は、コンテンツの提供元を識別するための識別情報を記憶してもよい。
The content
(制御部130)
図3の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、推定装置100内部の記憶装置に記憶されている各種プログラム(配信プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130は、モデル情報記憶部123に記憶されているモデルM1−1等に従った情報処理により、ユーザの行動情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された行動情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザの心身状態の推定に用いられるスコアの値を出力層から出力する。
(Control unit 130)
Returning to the description of FIG. 3, the control unit 130 is a controller, and is stored in a storage device inside the
図3に示すように、制御部130は、取得部131と、選択部132と、推定部133と、選定部134と、決定部135と、提供部136とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。例えば、制御部130は、推定装置100がモデルを生成する場合、変形例に係る推定装置100Aの生成部136を有してもよい。また、この場合、記憶部120は、レベル推定規則情報記憶部123Aや不安行動リスト情報記憶部124Aを有してもよい。例えば、推定装置100がモデルを生成する場合、推定装置100は、変形例に係る推定装置100Aと一体であってもよい。
As shown in FIG. 3, the control unit 130 includes an
制御部130は、記憶部120に記憶されているモデルM1−1(モデルデータMDT1−1)に従った情報処理により、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された行動情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザの心身状態の推定に用いられるスコアの値を出力層から出力する。なお、モデルM1−1等のモデルは、人工知能ソフトウェアの一部であるプログラムモジュールとしての利用が想定されるものであってもよい。モデルM1−1等のモデルは、プログラムであってもよい。 The control unit 130 calculates a value based on the first element and the weight of the first element by information processing according to the model M1-1 (model data MDT1-1) stored in the storage unit 120. By performing an operation based on the first element and the weight of the first element, with each element belonging to each layer other than the output layer being the first element, including two elements, with respect to the behavior information input to the input layer , The value of the score used to estimate the user's mental and physical state is output from the output layer. The model such as the model M1-1 may be assumed to be used as a program module which is a part of artificial intelligence software. The model such as the model M1-1 may be a program.
(取得部131)
取得部131は、種々の情報を取得する。例えば、取得部131は、外部の情報処理装置から情報要求を取得する。例えば、取得部131は、端末装置10等の外部装置から各種情報を取得する。また、取得部131は、記憶部120から各種情報を取得する。また、取得部131は、ユーザ情報記憶部121や、行動情報記憶部122や、モデル情報記憶部123や、レベル情報記憶部124や、コンテンツ情報記憶部125等から各種情報を取得する。また、取得部131は、選択部132の選択に応じた情報を取得する。また、取得部131は、推定部133の推定に応じた情報を取得する。また、取得部131は、対象ユーザの健康状態を示す情報を取得する。取得部131は、ユーザ情報記憶部121から対象ユーザの健康状態を示す情報を取得する。例えば、取得部131は、外部の情報処理装置から対象ユーザの健康状態を示す情報を取得する。また、取得部131は、決定部135の決定に応じた情報を取得する。
(Acquisition unit 131)
The
取得部131は、対象ユーザの行動情報を取得する。また、取得部131は、インターネット上における対象ユーザの行動情報を取得する。また、取得部131は、対象ユーザが検索に用いたクエリ情報を含む行動情報を取得する。また、取得部131は、対象ユーザの購買情報を含む行動情報を取得する。また、取得部131は、対象ユーザの位置情報を含む行動情報を取得する。また、取得部131は、対象ユーザに対応する位置における気象情報を含む行動情報を取得する。
The
また、取得部131は、ユーザの行動情報からユーザの心身状態の推定に用いるモデルを取得する。また、取得部131は、心身状態の複数のレベルのうち、ユーザの心身状態がいずれのレベルであるかの推定に用いるモデルを取得する。また、取得部131は、ユーザごとに生成される複数のモデルを取得する。また、取得部131は、ユーザの心身状態を推定する対象となる複数のカテゴリ毎に生成される複数のモデルを取得する。
In addition, the
取得部131は、ユーザの行動情報を取得する。例えば、取得部131は、ユーザが利用する端末装置10からユーザの行動情報を取得する。例えば、取得部131は、コンテンツの提供対象となる対象ユーザの行動情報を取得する。
The
図1の例では、取得部131は、ユーザU1が利用する端末装置10からユーザU1の行動情報を取得する。例えば、取得部131は、端末装置10からユーザU1のインターネット上における行動情報を取得する。例えば、取得部131は、ユーザU1がクエリ#11を用いた検索を行ったことを示す行動情報ADT11を取得する。例えば、取得部131は、ユーザU1がSNS#12において投稿を行ったことを示す行動情報ADT12を取得する。
In the example of FIG. 1, the
(選択部132)
選択部132は、種々の情報を選択する。例えば、選択部132は、心身状態の推定に用いるモデルを選択する。
(Selection unit 132)
The selection unit 132 selects various pieces of information. For example, the selection unit 132 selects a model used for estimation of the mind-body state.
選択部132は、所定の対象毎に生成された複数のモデルのうち、所定の条件に基づいて一のモデルを選択する。選択部132は、所定の対象毎に生成された複数のモデルのうち、対象ユーザに対応する一のモデルを選択する。選択部132は、複数のモデルのうち、推定の対象となる対象カテゴリに対応する一のモデルを選択する。 The selection unit 132 selects one model based on a predetermined condition among a plurality of models generated for each predetermined object. The selection unit 132 selects one model corresponding to the target user among the plurality of models generated for each predetermined target. The selection unit 132 selects one of the plurality of models that corresponds to a target category to be estimated.
図1の例では、選択部132は、モデル情報記憶部123から対象ユーザに対応するモデルを選択する。選択部132は、モデル情報記憶部123から対象ユーザであるユーザU1に対応するモデルデータセット123−1を選択する。また、選択部132は、モデルデータセット123−1から推定の対象とするカテゴリのモデルを選択する。選択部132は、ユーザの属性情報やユーザの行動内容やユーザに関する種々の情報に基づいて、推定の対象とするカテゴリのモデルを選択する。図1の例では、ユーザ情報記憶部121に示すようにユーザU1の興味が「経済」であるため、選択部132は、ユーザU1の対象カテゴリ「仕事」における心身状態が不安かどうかを推定する。選択部132は、対象カテゴリ「仕事」に対応するモデルM1−1を選択する。
In the example of FIG. 1, the selection unit 132 selects a model corresponding to the target user from the model
(推定部133)
推定部133は、種々の情報を推定する。例えば、推定部133は、取得部131に取得された情報を用いてユーザの心身状態を推定する。例えば、推定部133は、ユーザの心身状態を推定する。
(Estimation unit 133)
The
推定部133は、取得部131により取得された対象ユーザの行動を示す行動情報に基づいて、対象ユーザの心身状態を推定する。また、推定部133は、対象ユーザの心身状態が通常の状態とは異なる他の状態かどうかを推定する。また、推定部133は、対象ユーザの心身状態が通常の状態とは異なる負の状態かどうかを推定する。また、推定部133は、対象ユーザの心身状態が不安かどうかを推定する。
The
推定部133は、対象ユーザの行動情報とモデルとに基づいて、対象ユーザの心身状態を推定する。推定部133は、対象ユーザの行動情報が入力された場合にモデルが出力するスコアに基づいて、対象ユーザの心身状態のレベルを推定する。推定部133は、選択部132により選択された一のモデルに基づいて、対象ユーザの心身状態を推定する。推定部133は、選択部132により選択された一のモデルに基づいて、対象ユーザの心身状態を推定する。推定部133は、選択部132により選択された一のモデルに基づいて、対象カテゴリにおける対象ユーザの心身状態を推定する。
The
図1の例では、推定部133は、ユーザ情報記憶部121に示すようにユーザU1の興味が「経済」であるため、ユーザU1の対象カテゴリ「仕事」における心身状態が不安かどうかを推定する。推定部133は、モデルM1−1が出力したスコアと、レベル情報記憶部124に記憶されたレベル情報とに基づいて、ユーザU1の不安レベルを推定する。推定部133は、対象ユーザの行動情報が入力されたモデルM1−1が出力するスコアが0.2以上である場合、その対象ユーザの心身状態が不安であると推定する。推定部133は、モデルM1−1が出力するスコアに応じて、その対象ユーザの不安のレベルを推定する。また、例えば、推定部133は、対象ユーザの行動情報が入力されたモデルM1−1が出力するスコアが0.2未満である場合、その対象ユーザの心身状態が不安ではないと推定する。
In the example of FIG. 1, since the interest of the user U1 is "economic" as shown in the user
図1の例では、推定部133は、モデルM1−1が出力したスコアが「0.85」であり、最低レベルの「低(LV1)」の下限値「0.2」以上であるため、ユーザU1の仕事における心身状態が不安であると推定する。また、推定部133は、推定一覧ES11に示すように、モデルM1−1が出力したスコアが「0.85」であり、「高(LV3)」の判定条件を満たすため、ユーザU1の仕事における不安レベルが高であると推定する。例えば、推定部133は、ユーザU1が仕事での不安度が高いと推定する。
In the example of FIG. 1, the
(選定部134)
選定部134は、種々の情報を選定する。例えば、選定部134は、ユーザの心身状態を示す情報やユーザの健康状態を示す情報に基づいて、所定の処理の対象となるユーザ(処理対象ユーザ)を選定する。
(Selection unit 134)
The
例えば、選定部134は、ユーザの健康状態を示す情報と、推定部133により推定された当該ユーザの心身状態とに基づいて、所定の処理を行う対象となるユーザである処理対象ユーザを選定する。選定部134は、対象ユーザの健康状態と、対象ユーザの心身状態との差が所定の条件を満たす場合、対象ユーザを処理対象ユーザとして選定する。選定部134は、対象ユーザの健康状態が通常の状態であり、対象ユーザの心身状態が通常の状態とは異なる他の状態である場合、対象ユーザを処理対象ユーザとして選定する。
For example, the
例えば、選定部134は、対象ユーザの健康状態が通常の状態であり、対象ユーザの心身状態が負の状態である場合、対象ユーザを処理対象ユーザとして選定する。例えば、選定部134は、対象ユーザの健康状態が通常の状態であり、対象ユーザの心身状態が不安な状態である場合、対象ユーザを処理対象ユーザとして選定する。
For example, the selecting
図1の例では、選定部134は、対象ユーザであるユーザU1の仕事の不安レベルが「高」であるため、ユーザU1の心身状態が負の状態であるとして、ユーザU1の健康状態に応じて、ユーザU1を処理対象ユーザとして選定してもよい。例えば、選定部134は、ユーザ情報記憶部121に記憶されたユーザU1の健康状態に基づいて、ユーザU1を処理対象ユーザとして選定してもよい。例えば、選定部134は、ユーザU1の健康状態が通常の状態である場合、ユーザU1を処理対象ユーザとして選定してもよい。また、例えば、選定部134は、ユーザU1の健康状態が通常の状態とは異なる負の状態である場合、ユーザU1を処理対象ユーザとして選定しなくてもよい。このように、推定装置100は、ユーザの心理状態と健康状態とに乖離がある場合に、そのユーザを処理対象ユーザとして選定することにより、より効率的に処理対象のターゲットとなるユーザを選定することができる。
In the example of FIG. 1, the
(決定部135)
決定部135は、種々の情報を決定する。例えば、決定部135は、端末装置10へ配信するコンテンツを決定する。例えば、決定部135は、選定部134により選定された処理対象ユーザに対して提供するサービスを決定する。例えば、決定部135は、選定部134により選定された処理対象ユーザに対して種々のサービスを提供すると決定する。例えば、決定部135は、選定部134により選定された処理対象ユーザに対して、保険の営業サービスや保険のセールスサービス等の種々のサービスを提供すると決定する。
(Determination unit 135)
The determination unit 135 determines various information. For example, the determination unit 135 determines the content to be distributed to the
例えば、決定部135は、推定部133により推定された対象ユーザの心身状態に基づいて、対象ユーザに適用する保険料を決定する。決定部135は、推定部133により推定された対象ユーザの心身状態に基づいて、対象ユーザに配信するコンテンツを決定する。決定部135は、推定部133により推定された対象ユーザの心身状態に基づいて、対象ユーザに提供するコンテンツを決定する。
For example, the determination unit 135 determines the premium to be applied to the target user based on the physical and mental state of the target user estimated by the
図1の例では、決定部135は、推定したユーザU1の不安レベルに応じて、ユーザU1に提供するコンテンツ(提供コンテンツ)を決定する。決定部135は、コンテンツ情報記憶部125に記憶されたコンテンツから、ユーザU1への提供コンテンツを決定する。決定部135は、推定部133によりユーザU1の不安レベルが高いと推定されたため、コンテンツ情報記憶部125に記憶されたコンテンツのうち、ユーザの心身状態を正の状態にさせるコンテンツを、ユーザU1への提供コンテンツとして決定する。決定部135は、推定部133によりユーザU1の不安レベルが高いと推定されたため、ユーザの感情や気分を高揚させるコンテンツを、ユーザU1への提供コンテンツとして決定する。決定部135は、推定部133によりユーザU1の不安レベルが高いと推定されたため、ユーザを「楽しい」という心身状態にさせるAコンテンツやCコンテンツを提供コンテンツとして決定する。
In the example of FIG. 1, the determination unit 135 determines the content (provided content) to be provided to the user U1 in accordance with the estimated anxiety level of the user U1. From the content stored in the content
(提供部136)
提供部136は、種々の情報を提供する。例えば、提供部136は、端末装置10や情報提供元装置20等の外部装置に各種情報を提供する。例えば、提供部136は、端末装置10等の外部装置に各種情報を送信する。例えば、提供部136は、端末装置10等の外部装置に各種情報を配信する。例えば、提供部136は、決定部135により決定された提供コンテンツを端末装置10に提供する。例えば、提供部136は、選定部134により選定された処理対象ユーザに対して種々のサービスを提供する。例えば、提供部136は、選定部134により選定された処理対象ユーザに対して、決定部135により決定されたサービスを提供する。例えば、提供部136は、選定部134により選定された処理対象ユーザに対して、保険の営業サービスや保険のセールスサービス等の種々のサービスを提供する。例えば、提供部136は、選定部134により選定された処理対象ユーザに対して、コンテンツ提供等の種々の情報提供サービスを行う。
(Provision unit 136)
The providing
例えば、提供部136は、推定部133により推定された対象ユーザの心身状態に基づくサービスを提供する。また、提供部136は、推定部133により推定された対象ユーザの心身状態に基づく情報提供サービスを提供する。また、提供部136は、推定部133により推定された対象ユーザの心身状態に基づく広告配信サービスを提供する。
For example, the providing
図1の例では、提供部136は、ユーザU1が利用する端末装置10にコンテンツを提供する。また、提供部136は、決定部135により決定された提供コンテンツを端末装置10に送信する。図1の例では、提供部136は、端末装置10にAコンテンツやCコンテンツを提供コンテンツとして配信する。例えば、提供部136は、ユーザU1が選定部134により処理対象ユーザとして選定された場合、端末装置10−1に情報を提供してもよい。また、例えば、提供部136は、ユーザU1が選定部134により処理対象ユーザとして選定されなかった場合、端末装置10−1に情報を提供しなくもよい。
In the example of FIG. 1, the providing
〔3.推定処理のフロー〕
次に、図9を用いて、実施形態に係る推定システム1による推定処理の手順について説明する。図9は、実施形態に係る推定処理の一例を示すフローチャートである。
[3. Flow of estimation process]
Next, the procedure of the estimation process by the
まず、図9を用いて、コンテンツに関連付けるタグ情報の推定処理について説明する。図9に示すように、推定装置100は、ユーザの心身状態の推定に用いるモデルを取得する(ステップS101)。例えば、推定装置100は、対象ユーザに対応するモデルを取得する。図1の例では、推定装置100は、モデル情報記憶部123から対象ユーザに対応するモデルを選択し、取得する。
First, estimation processing of tag information to be associated with content will be described with reference to FIG. As shown in FIG. 9, the
また、推定装置100は、対象ユーザの行動情報を取得する(ステップS102)。例えば、推定装置100は、ユーザU1の行動情報を取得する。図1の例では、推定装置100は、ユーザU1の行動情報ADT11や行動情報ADT12等を取得する。
In addition, the
そして、推定装置100は、対象ユーザの行動情報とモデルとに基づいて、対象ユーザの心身状態を推定する(ステップS103)。例えば、推定装置100は、対象ユーザの行動情報をモデルに入力することにより、モデルが出力するスコアに基づいて、対象ユーザの心身状態を推定する。図1の例では、推定装置100は、カテゴリ「仕事」に対応するモデルM1−1にユーザU1の行動情報ADT11や行動情報ADT12等を入力し、モデルM1−1が出力したスコアに応じて、カテゴリ「仕事」におけるユーザU1の不安レベルを推定する。
Then, the
〔4.変形例〕
上述した実施形態に係る推定システム1は、上記実施形態以外にも種々の異なる態様にて実施されてもよい。例えば、所定の不安行動のリストとレベル推定規則とを用いた推定処理が行われてもよい。そこで、以下では、上記の推定システム1の他の実施形態について説明する。なお、上述した実施形態と同様の点については同様の符号を付す等して適宜説明を省略する。例えば、実施形態に係る推定システム1と変形例における推定システムとは、推定装置100と推定装置100Aとの相違以外は同様の構成である。以下、推定装置100Aによる推定処理について説明する。
[4. Modified example]
The
〔4−1.推定処理〕
まず、図10を用いて、変形例に係る推定システムにおける推定処理について説明する。図10は、変形例に係る推定処理の一例を示す図である。図10を用いて、推定装置100AがユーザU2を対象ユーザとして、ユーザU2の心理状態が不安かどうかを推定する場合を説明する。
[4-1. Estimation process]
First, estimation processing in the estimation system according to the modification will be described with reference to FIG. FIG. 10 is a diagram illustrating an example of estimation processing according to a modification. The case where
推定装置100Aは、ユーザU2が利用する端末装置10からユーザU2の行動情報を取得する(ステップS21)。例えば、推定装置100Aは、所定の期間(例えば1週間等)におけるユーザU2の行動情報を取得する。例えば、推定装置100Aは、直近1週間のユーザU2の行動情報ADT21、ADT22を取得する。
The
例えば、推定装置100Aは、端末装置10からユーザU2のインターネット上における行動情報を取得する。図10の例では、推定装置100Aは、ユーザU2がコンテンツ#21を閲覧したことを示す行動情報ADT21を取得する。なお、「コンテンツ#21」といった抽象的な符号で図示するが、「コンテンツ#21」は、所定の疾病に関するサイトである「DSサイト」や所定の薬に関するサイトである「MSサイト」等であってもよい。このように、行動情報ADT21は、ユーザU2がコンテンツ#21の閲覧(行動AC21)を日時dt21に行ったことを示す情報を含む。また、行動情報ADT21は、ユーザU2がコンテンツ#21を用いた検索を行った際の位置が位置LC21であり、天候が雨、気温が摂氏27度(27℃)、湿度が90%であったことを示す情報を含む。
For example, the
図10の例では、推定装置100Aは、ユーザU2が商品#22を購買(購入)したことを示す行動情報ADT22を取得する。なお、「商品#22」といった抽象的な符号で図示するが、「商品#22」は、睡眠導入剤である「P薬」や占いの本である「F書籍」等であってもよい。このように、行動情報ADT22は、ユーザU2が商品#22の購入(行動AC22)を日時dt22に行ったことを示す情報を含む。また、行動情報ADT22は、ユーザU2が商品#22の購入を行った際の位置が位置LC22であり、天候が雲り、気温が摂氏29度(29℃)、湿度が80%であったことを示す情報を含む。
In the example of FIG. 10, the
そして、推定装置100Aは、ユーザU2の行動情報を収集する。図10の例では、推定装置100Aは、収集したユーザU2の行動情報を行動情報記憶部122に記憶する。例えば、推定装置100Aは、ユーザU2の行動情報ADT21や行動情報ADT22をユーザU2に対応付けて行動情報記憶部122に記憶する。
Then, the
そして、推定装置100Aは、カテゴリごとにユーザU2の不安レベルを推定する(ステップS22)。図10の例では、推定装置100Aは、レベル推定規則情報記憶部123Aや不安行動リスト情報記憶部124Aに記憶された情報を用いて、ユーザU2の不安レベルを推定する。
Then, the
図10中の不安行動リスト情報記憶部124Aは、カテゴリごとに対応付けられた不安行動の一覧情報が記憶される。不安行動リスト情報記憶部124Aは、カテゴリごとに不安行動としてカウント(集計)される行動に関する情報が記憶される。なお、不安行動リスト情報記憶部124Aの詳細は図13で詳述する。
The anxiety action list
例えば、推定装置100Aは、所定の期間におけるユーザU2の行動情報ADT21、ADT22等に含まれる不安行動の回数をカテゴリごとにカウントする。例えば、推定装置100Aは、直近1週間のユーザU2の行動情報ADT21、ADT22等に含まれる不安行動の回数をカテゴリごとにカウントする。図10の例では、図示を省略するが、説明を簡単にするために、直近1週間のユーザU2の行動情報ADT21、ADT22等に含まれるカテゴリ「健康」に対応する不安行動の回数が「12」回であり、カテゴリ「仕事」、「将来」、「不明」に対応する不安行動の回数が「0」回である場合を説明する。
For example, the
例えば、推定装置100Aは、カウントした各カテゴリの不安行動の回数と、レベル推定規則情報記憶部123Aの情報とを用いて、各カテゴリにおけるユーザU2の不安レベルを推定する。
For example, the
図10中のレベル推定規則情報記憶部123Aは、行「レベル」と列「カテゴリ」とする各マスには、対応するカテゴリにおけるユーザの心身状態のレベルのスコアに基づく推定規則を示す情報(ルール情報)を示す。「レベル」は、対応するカテゴリにおけるユーザの心身状態のレベルを示す。図10では、「レベル」には、「低(LV1)」、「中(LV2)」、「高(LV3)」といった項目が含まれる。
The level estimation rule
「カテゴリ」は、ユーザの心身状態を推定する対象となるカテゴリを示す。図10では、「カテゴリ」には、「仕事(CTG1)」、「健康(CTG2)」、「将来(CTG3)」、「不明(CTG4)」といった項目が含まれる。 “Category” indicates a category for which the user's mental and physical state is to be estimated. In FIG. 10, the “category” includes items such as “work (CTG1)”, “health (CTG2)”, “future (CTG3)”, and “unknown (CTG4)”.
例えば、各レベルと、各カテゴリとが交差するマスには、対応するカテゴリにおける各レベルにユーザの心身状態があるかを推定するレベル推定規則(レベル推定モデル)を示す。図10の例では、各レベルと、各カテゴリとが交差するマスには、対応するカテゴリにおける各レベルにユーザの不安レベルが該当するかを推定するレベル推定規則を示す。 For example, in the box where each level and each category intersect, a level estimation rule (level estimation model) for estimating whether the user's mental and physical state exists in each level in the corresponding category is indicated. In the example of FIG. 10, a level estimation rule for estimating whether the user's anxiety level falls under each level in the corresponding category is shown in the box in which each level and each category intersect.
図10の例では、レベル「高(LV3)」と、カテゴリ「健康(CTG2)」とが交差するマスには、「所定期間の不安行動の回数が10回以上」が記憶されている。すなわち、図10の例では、カテゴリ「健康(CTG2)」では、所定の期間(例えば1週間等)における対象ユーザの行動情報に含まれる不安行動の回数が10回以上である場合、対象ユーザの不安は「高(LV3)」、すなわち高レベルであることを示す。 In the example of FIG. 10, “the number of times of anxiety behavior for a predetermined period is 10 times or more” is stored in the box where the level “high (LV3)” and the category “health (CTG2)” intersect. That is, in the example of FIG. 10, in the category “health (CTG 2)”, when the number of times of anxiety behavior included in the action information of the target user in a predetermined period (for example, one week) is 10 or more, Anxiety indicates "high (LV3)" or high level.
例えば、推定装置100Aは、直近の1週間の対象ユーザの行動情報に含まれる不安行動の回数(以下「不安回数」ともいう)と、各レベルの閾値(3回や5回や10回等)とを比較する。例えば、推定装置100Aは、不安回数が、高レベルの閾値「10」以上である場合、対象ユーザの健康における不安は高レベルであると推定する。また、例えば、推定装置100Aは、不安回数が、高レベルの閾値「10」未満であり中レベルの閾値「5」以上である場合、対象ユーザの健康における不安は中レベルであると推定する。また、例えば、推定装置100Aは、不安回数が、中レベルの閾値「5」未満であり低レベルの閾値「3」以上である場合、対象ユーザの健康における不安は低レベルであると推定する。
For example, the
図10の例では、推定装置100Aは、カテゴリ「健康」に対応する不安行動の回数が「12」回であり、カテゴリ「健康(CTG2)」のレベル「高(LV3)」の「所定期間の不安行動の回数が10回以上」の条件を満たすと判定する。そのため、推定装置100Aは、推定レベル一覧UL21に示すように、ユーザU2の健康の不安レベルを高と推定する。
In the example of FIG. 10, the
また、図10の例では、推定装置100Aは、カテゴリ「仕事」、「将来」、「不明」に対応する不安行動の回数が「0」回であるため、ユーザU2の仕事、将来、及び不明の不安はないと推定する。そのため、推定装置100Aは、推定レベル一覧UL21に示すように、ユーザU2の仕事、将来、及び不明の不安レベルを「無し(LV0)」と推定する。
Further, in the example of FIG. 10, since the number of anxiety behaviors corresponding to the categories “work”, “future”, and “unknown” is “0” times in the
そして、推定装置100Aは、推定したユーザU2の不安レベルに応じて、ユーザU2の保険料を決定する(ステップS23)。図10の例では、推定装置100Aは、ユーザ情報記憶部121に示すように、ユーザU2は保険に未加入であるため、推定したユーザU2の不安レベルに応じて、ユーザU2の加入を推奨する際に提示する保険料を決定する。
Then, the
例えば、推定装置100Aは、ユーザU2の健康の不安レベルが高いと推定したため、他のユーザが支払う保険料よりも高い保険料をユーザU2に提示すると決定する。例えば、推定装置100Aは、ユーザU2とユーザ属性が類似するユーザが加入している保険への加入を推奨する情報提供をユーザU2に行うと決定する。また、推定装置100Aは、ユーザU2の健康の不安レベルが高いと推定したため、ユーザU2とユーザ属性が類似するユーザが支払う保険料よりも高い保険料をユーザU2に提示すると決定する。
For example, since the
図10の例では、推定装置100Aは、20代女性であるユーザU5が加入しているCがん保険を、ユーザU5が支払う保険料よりも高い保険料でユーザU2に提示すると決定する。例えば、推定装置100Aは、ユーザU5が支払う保険料Z円よりも高いUZ円を保険料としてCがん保険をユーザU2に推奨すると決定する。
In the example of FIG. 10, the
そして、推定装置100Aは、ユーザU2が利用する端末装置10に情報を提供する(ステップS24)。例えば、推定装置100Aは、ユーザU2が利用する端末装置10にCがん保険への加入を勧誘する情報を送信する。図10の例では、推定装置100Aは、ユーザU5が支払う保険料Z円よりも高いUZ円を保険料としてCがん保険を勧める広告(例えば、広告ACX)をユーザU2が利用する端末装置10に配信する。例えば、推定装置100Aは、Cがん保険を示す情報と、その保険料がUZ円であることを示す情報を含む広告ACXをユーザU2が利用する端末装置10に配信する。
Then, the
上述のように、推定装置100Aは、ユーザのインターネット上における行動等の種々の行動情報に基づいて、ユーザの心身状態を推定することにより、ユーザの行動からユーザの状態を適切に推定することができる。また、推定装置100Aは、ユーザの行動情報に含まれる不安行動の回数とレベル推定規則とを用いることにより、ユーザの行動からユーザの状態を適切に推定することができる。また、推定装置100Aは、心身状態が不安であるユーザに、ユーザが不安に感じている対象(カテゴリ)に対応する情報を提供することができる。例えば、推定装置100Aは、ユーザの心身状態に応じた広告等の情報をユーザに適切に提供することができる。
As described above, the
〔4−2.推定装置の構成〕
次に、図11を用いて、変形例に係る推定装置100Aの構成について説明する。図11は、変形例に係る推定装置100Aの構成例を示す図である。図11に示すように、推定装置100Aは、通信部110と、記憶部120Aと、制御部130Aとを有する。なお、推定装置100Aについては、実施形態に係る推定装置100と同様の点については、適宜説明を省略する。
[4-2. Configuration of estimation device]
Next, the configuration of an
(記憶部120A)
記憶部120Aは、例えば、RAM、フラッシュメモリ等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。変形例に係る記憶部120Aは、図11に示すように、ユーザ情報記憶部121と、行動情報記憶部122と、レベル推定規則情報記憶部123Aと、不安行動リスト情報記憶部124Aとを有する。
(Storage unit 120A)
The storage unit 120A is implemented by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 11, the storage unit 120A according to the modification includes a user
(レベル推定規則情報記憶部123A)
変形例に係るレベル推定規則情報記憶部123Aは、レベル推定規則(レベル推定モデル)に関する各種情報を記憶する。レベル推定規則情報記憶部123Aは、ユーザの心身状態のレベルの推定に用いる各種情報を記憶する。例えば、レベル推定規則情報記憶部123Aは、各カテゴリのレベルの推定に用いる各種情報を記憶する。図12は、変形例に係るレベル推定規則情報記憶部の一例を示す図である。例えば、レベル推定規則情報記憶部123Aには、「レベル」と「カテゴリ」との組み合わせによる推定モデル(推定規則)が記憶される。具体的には、レベル推定規則情報記憶部123Aには、行「レベル」と列「カテゴリ」とする各マスには、対応するカテゴリにおけるユーザの心身状態のレベルのスコアに基づく推定規則を示す情報(ルール情報)が記憶される。図12の例では、レベル推定規則情報記憶部123Aには、行「レベル」と列「カテゴリ」とする各マスには、ユーザの不安行動に基づくカテゴリごとの不安レベルの推定モデルを示す情報が記憶される。
(Level estimation rule
The level estimation rule
「レベル」は、対応するカテゴリにおけるユーザの心身状態のレベルを示す。図12では、「レベル」には、「低(LV1)」、「中(LV2)」、「高(LV3)」といった項目が含まれる。なお、上記は一例であり、「レベル」には、低、中、高の3段階に限らず、種々の段階(例えば10段階等)であってもよい。 "Level" indicates the level of the user's mental and physical state in the corresponding category. In FIG. 12, “level” includes items such as “low (LV1)”, “middle (LV2)”, and “high (LV3)”. Note that the above is an example, and the “level” is not limited to three levels of low, medium, and high, and may be various stages (for example, ten stages).
「カテゴリ」は、ユーザの心身状態を推定する対象となるカテゴリを示す。図12では、「カテゴリ」には、「仕事(CTG1)」、「健康(CTG2)」、「将来(CTG3)」、「不明(CTG4)」といった項目が含まれる。なお、上記は一例であり、「カテゴリ」には、「家庭」や「お金」等のユーザの心身状態を推定する対象となるカテゴリであれば、どのようなカテゴリであってもよい。 “Category” indicates a category for which the user's mental and physical state is to be estimated. In FIG. 12, “category” includes items such as “work (CTG1)”, “health (CTG2)”, “future (CTG3)”, and “unknown (CTG4)”. Note that the above is an example, and any category may be used as the "category" as long as the category is a target for estimating the physical and mental state of the user, such as "home" and "money".
例えば、各レベルと、各カテゴリとが交差するマスには、対応するカテゴリにおける各レベルにユーザの心身状態があるかを推定するレベル推定規則を示す。図12の例では、各レベルと、各カテゴリとが交差するマスには、対応するカテゴリにおける各レベルにユーザの不安レベルが該当するかを推定するレベル推定規則を示す。 For example, in the box at which each level intersects with each category, a level estimation rule for estimating whether the user's mental and physical state exists at each level in the corresponding category is indicated. In the example of FIG. 12, the squares at which each level intersects with each category indicate level estimation rules for estimating whether the user's anxiety level falls under each level in the corresponding category.
図12の例では、レベル「低(LV1)」と、カテゴリ「仕事(CTG1)」とが交差するマスには、「所定期間の不安行動の回数が通常時の1.2倍以上」が記憶されている。すなわち、図12の例では、カテゴリ「仕事(CTG1)」では、所定の期間(例えば1週間等)における対象ユーザの行動情報に含まれる不安行動の回数が通常時の1.2倍以上である場合、対象ユーザの不安は「低(LV1)」、すなわち低レベルであることを示す。 In the example of FIG. 12, in the box where the level "low (LV1)" and the category "job (CTG1)" intersect, "the number of times of anxiety behavior in a predetermined period is at least 1.2 times the normal time" is stored It is done. That is, in the example of FIG. 12, in the category “work (CTG1)”, the number of times of anxiety behaviors included in the action information of the target user in a predetermined period (for example, one week) is 1.2 times or more as normal. In this case, the target user's anxiety indicates "low (LV1)", that is, low level.
例えば、推定装置100Aは、直近の1週間の対象ユーザの行動情報に含まれる不安行動の回数と、過去1年間における対象ユーザの行動情報に含まれる不安行動の回数の1週間の平均回数(通常時平均)とを比較する。例えば、推定装置100Aは、過去1年間における対象ユーザの行動情報に含まれる不安行動の回数を所定の期間(1週間場合、「7」)で除算することにより通常時平均を算出する。そして、推定装置100Aは、直近の1週間の対象ユーザの行動情報に含まれる不安行動の回数が、通常時平均の1.2倍以上である場合、対象ユーザの仕事における不安は低レベルであると推定する。例えば、推定装置100Aは、直近の1週間の対象ユーザの不安行動の回数が15回であり、通常時平均が10回である場合、直近の1週間が通常時の「1.5(=15/10)」倍と算出する。この場合、推定装置100Aは、直近の1週間が通常時の1.2倍以上であるため、対象ユーザの仕事における不安は低レベルであると推定する。なお、通常時平均の算出の基となる対象は、過去1年に限らず、過去半年や過去3年等の種々の期間であってもよい。
For example, the
図12の例では、レベル「中(LV2)」と、カテゴリ「仕事(CTG1)」とが交差するマスには、「所定期間の不安行動の回数が通常時の2倍以上」が記憶されている。すなわち、図12の例では、カテゴリ「仕事(CTG1)」では、所定の期間(例えば1週間等)における対象ユーザの行動情報に含まれる不安行動の回数が通常時の2倍以上である場合、対象ユーザの不安は「中(LV2)」、すなわち中レベルであることを示す。例えば、推定装置100Aは、直近の1週間の対象ユーザの不安行動の回数が25回であり、通常時平均が10回である場合、直近の1週間が通常時の「2.5(=25/10)」倍と算出する。この場合、推定装置100Aは、直近の1週間が通常時の2倍以上であるため、対象ユーザの仕事における不安は中レベルであると推定する。
In the example of FIG. 12, “the number of times of anxiety behavior in a predetermined period is twice or more as normal” is stored in the cell where the level “middle (LV2)” and the category “job (CTG1)” intersect There is. That is, in the example of FIG. 12, in the category “job (CTG1)”, when the number of times of anxious behavior included in the action information of the target user in a predetermined period (for example, one week etc.) The target user's anxiety indicates "medium (LV2)", ie, medium level. For example, in the case where the number of anxiety behaviors of the target user for the latest one week is 25 and the average for the normal time is 10, the
図12の例では、レベル「高(LV3)」と、カテゴリ「仕事(CTG1)」とが交差するマスには、「所定期間の不安行動の回数が通常時の5倍以上」が記憶されている。すなわち、図12の例では、カテゴリ「仕事(CTG1)」では、所定の期間(例えば1週間等)における対象ユーザの行動情報に含まれる不安行動の回数が通常時の5倍以上である場合、対象ユーザの不安は「高(LV3)」、すなわち高レベルであることを示す。例えば、推定装置100Aは、直近の1週間の対象ユーザの不安行動の回数が100回であり、通常時平均が10回である場合、直近の1週間が通常時の「10(=100/10)」倍と算出する。この場合、推定装置100Aは、直近の1週間が通常時の5倍以上であるため、対象ユーザの仕事における不安は高レベルであると推定する。
In the example of FIG. 12, “the number of times of anxiety behavior for a predetermined period is five or more times the normal time” is stored in the cell where the level “high (LV3)” and the category “work (CTG1)” intersect There is. That is, in the example of FIG. 12, in the category “job (CTG1)”, when the number of anxiety behaviors included in the action information of the target user in a predetermined period (for example, one week) is five or more times the normal time, The target user's anxiety indicates "high (LV3)", that is, high level. For example, when the number of anxiety behaviors of the target user for the latest one week is 100 times and the average for the normal time is 10 times, the
このように、レベル推定規則情報記憶部123Aには、通常時との相対的な比較に基づくレベル推定のモデルが記憶されてもよい。推定装置100Aは、通常時との相対的な比較に基づいてユーザの心身状態のレベルを推定してもよい。
As described above, the level estimation rule
また、レベル推定規則情報記憶部123Aには、カテゴリ「健康(CTG2)」の欄に示すように、不安行動の回数等の絶対値を用いて、ユーザの心身状態を推定してもよい。例えば、レベル「低(LV1)」と、カテゴリ「健康(CTG2)」とが交差するマスには、「所定期間の不安行動の回数が3回以上」が記憶されている。この場合、推定装置100Aは、直近の1週間の対象ユーザの行動情報に含まれる不安行動の回数が3回以上である場合、対象ユーザの仕事における不安は低レベルであると推定する。このように、推定装置100Aは、対象ユーザの行動情報に含まれる不安行動の回数と所定の閾値との比較に基づいて、ユーザの心身状態のレベルを推定してもよい。
Further, as shown in the column of the category "health (CTG2)", the level estimation rule
なお、レベル推定規則情報記憶部123Aは、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、レベル推定規則情報記憶部123Aは、その行動のみでユーザが不安であると推定する特定の行動(特定行動)がある場合、その情報を記憶してもよい。例えば、レベル推定規則情報記憶部123Aは、対象ユーザが特定行動を行っている場合、その対象ユーザのあるカテゴリにおける不安を高レベルと推定する規則を記憶してもよい。例えば、レベル推定規則情報記憶部123Aは、対象ユーザの行動情報にクエリ「退職届」等の特定のクエリを用いた行動が含まれる場合、その対象ユーザの仕事における不安を高レベルと推定する規則を記憶してもよい。
The level estimation rule
(不安行動リスト情報記憶部124A)
変形例に係る不安行動リスト情報記憶部124Aは、不安行動に関する情報を記憶する。例えば、不安行動リスト情報記憶部124Aは、カテゴリごとに対応付けられた不安行動のリスト(一覧)情報を記憶する。図13は、変形例に係る不安行動リスト情報記憶部の一例を示す図である。図13の例では、不安行動リスト情報記憶部124Aは、行動一覧セット124A−1や行動一覧セット124A−2や行動一覧セット124A−3や行動一覧セット124A−4等のようにカテゴリごとに情報(テーブル)を記憶する。図13に示す行動一覧セット124A−1〜124A−4等は、「カテゴリ」、「種別」、「不安行動リスト」といった項目が含まれる。なお、各カテゴリ及び種別の不安行動は推定装置100Aの管理者が設定してもよい。また、推定装置100Aは、全カテゴリに共通の不安行動リストを用いてもよい。
(Anxiety behavior list
The anxiety action list
図13の例では、行動一覧セット124A−1は、カテゴリが「仕事(CTG1)」に対応する不安行動リストが記憶される。また、行動一覧セット124A−2は、カテゴリが「健康(CTG2)」に対応する不安行動リストが記憶される。また、行動一覧セット124A−3は、カテゴリが「将来(CTG3)」に対応する不安行動リストが記憶される。また、行動一覧セット124A−4は、カテゴリが「不明(CTG4)」に対応する不安行動リストが記憶される。 In the example of FIG. 13, in the action list set 124A-1, the anxiety action list corresponding to the category “work (CTG1)” is stored. In addition, in the action list set 124A-2, the anxiety action list corresponding to the category "health (CTG2)" is stored. In addition, in the action list set 124A-3, the anxiety action list corresponding to the category “future (CTG3)” is stored. In addition, in the action list set 124A-4, the anxiety action list corresponding to the category "unknown (CTG 4)" is stored.
「種別」は、不安行動を取得(集計)する行動の種別を示す。図13の例では、「種別」は、「検索」、「購買」、「閲覧」、「保険加入」、「位置」を図示するが、「投稿」等の種々の種別が含まれてもよい。また、「種別」には、「天候」や「気温」等、ユーザが行動を行う際の気象条件等が含まれてもよい。すなわち、不安行動には、ユーザの行動に関連する情報であれば、どのような情報が含まれてもよい。 "Type" indicates the type of action for acquiring (counting) anxiety behaviors. In the example of FIG. 13, “type” is illustrated as “search”, “purchase”, “browse”, “insurance participation”, “position” but various types such as “post” may be included. . Further, the “type” may include weather conditions and the like when the user performs an action, such as “weather” and “air temperature”. That is, any kind of information may be included in the anxiety behavior as long as the information is related to the behavior of the user.
「不安行動リスト」には、各種別に対応する不安行動の一覧が記憶される。「不安行動リスト」には、「不安行動#1」、「不安行動#2」、「不安行動#3」といった項目が含まれる。なお、図13では、不安行動#1〜不安行動#3等を図示するが、カテゴリ及び種別に対応する不安行動が4つ以上ある場合は、不安行動#4、不安行動#5等、4つ以上の不安行動が記憶されてもよい。
In the "anxiety behavior list", a list of the corresponding anxiety behaviors is stored. The “anxiety behavior list” includes items such as “
例えば、図13に示す例において、カテゴリ「仕事(CTG1)」において、種別「検索」に対応する不安行動は、「クエリUQ1」や「クエリUQ2」や「クエリUQ3」等のクエリを用いた検索であることを示す。なお、図13では、「クエリUQ1」といった抽象的な符号で図示するが、「クエリUQ1」等は、「業績不振」や「不況」等の仕事に関するクエリ(文字情報)であってもよい。なお、「クエリUQ1」等は、文字情報に限らず、画像等の情報であってもよい。 For example, in the example shown in FIG. 13, in the category “job (CTG1)”, the anxiety action corresponding to the type “search” is a search using a query such as “query UQ1”, “query UQ2” or “query UQ3” To indicate that In FIG. 13, although it is illustrated by an abstract code such as “query UQ1”, “query UQ1” or the like may be a query (character information) related to work such as “performance slump” or “recession”. The “query UQ1” or the like is not limited to the text information, and may be information such as an image.
例えば、図13に示す例において、カテゴリ「仕事(CTG1)」において、種別「購買」に対応する不安行動は、「取引対象UT1」や「取引対象UT2」や「取引対象UT3」等の取引対象の購入であることを示す。例えば、取引対象は、商品またはサービス等の種々の取引対象であってもよい。なお、図13では、「取引対象UT1」といった抽象的な符号で図示するが、「取引対象UT1」等は、睡眠導入剤である「P薬」や占いの本である「F書籍」等の取引対象であってもよい。 For example, in the example shown in FIG. 13, in the category “job (CTG1)”, the anxiety behavior corresponding to the type “purchase” is a transaction target such as “trading target UT1”, “trading target UT2” or “trading target UT3” Indicates that it is a purchase of For example, trading objects may be various trading objects such as goods or services. In FIG. 13, although it is illustrated by an abstract code such as “Trading target UT1”, “Trading target UT1” and the like are “P drug” which is a sleep introducing agent and “F book” which is a fortune telling book It may be a transaction object.
例えば、図13に示す例において、カテゴリ「仕事(CTG1)」において、種別「閲覧」に対応する不安行動は、「コンテンツUC1」や「コンテンツUC2」や「コンテンツUC3」等のコンテンツの閲覧であることを示す。なお、図13では、「コンテンツUC1」といった抽象的な符号で図示するが、「コンテンツUC1」等は、大規模災害のニュースである「Nニュース」や占いのサイト「Fサイト」等のコンテンツ(ウェブページ)であってもよい。なお、「コンテンツUC1」等は、ウェブページ等に限らず、動画や音声等の種々のコンテンツであってもよい。 For example, in the example shown in FIG. 13, in the category “job (CTG1)”, the anxiety action corresponding to the type “view” is viewing of content such as “content UC1”, “content UC2” or “content UC3” Indicates that. In FIG. 13, although it is illustrated by an abstract code such as “content UC1”, “content UC1” and the like are contents such as “N news” which is news of a large scale disaster and “F site” of a fortune telling site Web page). Note that “content UC1” and the like are not limited to web pages and the like, and may be various contents such as moving pictures and sounds.
例えば、図13に示す例において、カテゴリ「仕事(CTG1)」において、種別「保険加入」に対応する不安行動は、「保険IS1」や「保険IS2」や「保険IS3」等の保険への加入であることを示す。なお、図13では、「保険IS1」といった抽象的な符号で図示するが、「保険IS1」等は、「XX生命保険」や「YYがん保険」等の保険であってもよい。 For example, in the example shown in FIG. 13, in the category “job (CTG1)”, anxiety behavior corresponding to the type “insurance participation” is participation in insurance such as “insurance IS1”, “insurance IS2” or “insurance IS3” To indicate that In FIG. 13, although illustrated with an abstract code such as “insurance IS1”, “insurance IS1” or the like may be an insurance such as “XX life insurance” or “YY cancer insurance”.
例えば、図13に示す例において、カテゴリ「仕事(CTG1)」において、種別「位置」に対応する不安行動は、「位置UL1」や「位置UL2」や「位置UL3」等の位置へのユーザの訪問であることを示す。なお、図13では、「位置UL1」といった抽象的な符号で図示するが、「位置UL1」等は、職業安定所が位置する場所や病院が位置する場所等の具体的な緯度経度や住所等の情報であってもよい。 For example, in the example shown in FIG. 13, in the category “work (CTG1)”, the anxiety action corresponding to the type “position” is the user's move to a position such as “position UL1”, “position UL2” or “position UL3”. Indicates that it is a visit. In FIG. 13, although it is illustrated by an abstract code such as “location UL1”, “location UL1” and the like indicate specific latitude and longitude, an address, etc. of the place where the job security office is located or the place where the hospital is located. It may be information of
なお、不安行動リスト情報記憶部124Aは、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、不安行動リスト情報記憶部124Aは、ユーザ属性ごとに対応付けられた不安行動リストを記憶してもよい。例えば、不安行動リスト情報記憶部124Aは、20代男性、20代女性、30代男性等のユーザ属性ごと対応付けられた不安行動リストを記憶してもよい。
The anxiety action list
(制御部130A)
制御部130Aは、コントローラ(controller)であり、例えば、CPUやMPU等によって、推定装置100A内部の記憶装置に記憶されている各種プログラム(推定プログラムや生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130Aは、コントローラ(controller)であり、例えば、ASICやFPGA等の集積回路により実現される。
(Control unit 130A)
The control unit 130A is a controller, and for example, various programs (corresponding to an example of an estimation program and a generation program) stored in a storage device in the
図11に示すように、制御部130Aは、取得部131と、推定部133Aと、決定部135Aと、提供部136Aと、生成部136とを有し、以下に説明する推定処理の機能や作用を実現または実行する。なお、制御部130Aは、図11に示した構成に限られず、後述する推定処理を行う構成であれば他の構成であってもよい。
As illustrated in FIG. 11, the control unit 130A includes an
(取得部131)
変形例に係る取得部131は、実施形態に係る取得部131と同様の処理を行う。取得部131は、実施形態に係る取得部131と同様に種々の情報を取得する。
(Acquisition unit 131)
The
図10の例では、取得部131は、ユーザU2が利用する端末装置10からユーザU2の行動情報を取得する。取得部131は、所定の期間(例えば1週間等)におけるユーザU2の行動情報を取得する。例えば、推定装置100Aは、直近1週間のユーザU2の行動情報ADT21、ADT22を取得する。取得部131は、端末装置10からユーザU2のインターネット上における行動情報を取得する。取得部131は、ユーザU2がコンテンツ#21を閲覧したことを示す行動情報ADT21を取得する。取得部131は、ユーザU2が商品#22を購買(購入)したことを示す行動情報ADT22を取得する。
In the example of FIG. 10, the
(推定部133A)
変形例に係る推定部133Aは、実施形態に係る推定部133と同様の処理を行う。推定部133Aは、実施形態に係る推定部133と同様に種々の推定を行う。推定部133Aは、実施形態に係る推定部133と同様に種々の情報を推定する。
(Estimation unit 133A)
The estimation unit 133A according to the modification performs the same process as the
図10の例では、推定部133Aは、カテゴリごとにユーザU2の不安レベルを推定する。推定部133Aは、レベル推定規則情報記憶部123Aや不安行動リスト情報記憶部124Aに記憶された情報を用いて、ユーザU2の不安レベルを推定する。推定部133Aは、カウントした各カテゴリの不安行動の回数と、レベル推定規則情報記憶部123Aの情報とを用いて、各カテゴリにおけるユーザU2の不安レベルを推定する。
In the example of FIG. 10, the estimation unit 133A estimates the anxiety level of the user U2 for each category. The estimation unit 133A estimates the anxiety level of the user U2 using the information stored in the level estimation rule
図10の例では、推定部133Aは、直近の1週間の対象ユーザの行動情報に含まれる不安行動の回数(不安回数)と、各レベルの閾値(3回や5回や10回等)とを比較する。例えば、推定部133Aは、不安回数が、高レベルの閾値「10」以上である場合、対象ユーザの健康における不安は高レベルであると推定する。また、例えば、推定部133Aは、不安回数が、高レベルの閾値「10」未満であり中レベルの閾値「5」以上である場合、対象ユーザの健康における不安は中レベルであると推定する。また、例えば、推定部133Aは、不安回数が、中レベルの閾値「5」未満であり低レベルの閾値「3」以上である場合、対象ユーザの健康における不安は低レベルであると推定する。 In the example of FIG. 10, the estimation unit 133A calculates the number of anxiety behaviors (the number of anxiety) included in the action information of the target user for the last week, and the threshold of each level (three times, five times, ten times, etc.) Compare For example, when the number of times of anxiety is equal to or higher than the high level threshold “10”, the estimation unit 133A estimates that the anxiety in the health of the target user is high. Also, for example, when the number of anxiety is less than the high level threshold “10” and equal to or higher than the middle level threshold “5”, the estimation unit 133A estimates that the health user's anxiety is at the middle level. Also, for example, when the number of anxiety is less than the middle level threshold “5” and the low level threshold “3”, the estimation unit 133A estimates that the health user's anxiety is low.
図10の例では、推定部133Aは、カテゴリ「健康」に対応する不安行動の回数が「12」回であり、カテゴリ「健康(CTG2)」のレベル「高(LV3)」の「所定期間の不安行動の回数が10回以上」の条件を満たすと判定する。そのため、推定部133Aは、推定レベル一覧UL21に示すように、ユーザU2の健康の不安レベルを高と推定する。 In the example of FIG. 10, the estimation unit 133A determines that the number of times of anxiety behavior corresponding to the category "health" is "12" times and the "predetermined period of time" of the level "high (LV3)" of the category "health (CTG2)". It is determined that the condition of “the number of anxiety behaviors is 10 or more” is satisfied. Therefore, as shown in the estimated level list UL21, the estimation unit 133A estimates that the anxiety level of health of the user U2 is high.
また、図10の例では、推定部133Aは、カテゴリ「仕事」、「将来」、「不明」に対応する不安行動の回数が「0」回であるため、ユーザU2の仕事、将来、及び不明の不安はないと推定する。そのため、推定部133Aは、推定レベル一覧UL21に示すように、ユーザU2の仕事、将来、及び不明の不安レベルを「無し(LV0)」と推定する。 Further, in the example of FIG. 10, since the estimation unit 133A determines that the number of anxiety behaviors corresponding to the categories “work”, “future”, and “unknown” is “0” times, the work of the user U2, the future, and the unknown It is estimated that there is no anxiety. Therefore, as shown in the estimated level list UL21, the estimation unit 133A estimates the work, future, and unknown anxiety levels of the user U2 as "none (LV0)."
(決定部135A)
変形例に係る決定部135Aは、実施形態に係る決定部135と同様の処理を行う。決定部135Aは、実施形態に係る決定部135と同様に種々の決定を行う。決定部135Aは、実施形態に係る決定部135と同様に種々の情報を決定する。
(Determination unit 135A)
The determination unit 135A according to the modification performs the same process as the determination unit 135 according to the embodiment. The determination unit 135A performs various determinations in the same manner as the determination unit 135 according to the embodiment. The determination unit 135A determines various pieces of information in the same manner as the determination unit 135 according to the embodiment.
図10の例では、決定部135Aは、推定部133Aにより推定されたユーザU2の不安レベルに応じて、ユーザU2の保険料を決定する。決定部135Aは、ユーザ情報記憶部121に示すように、ユーザU2は保険に未加入であるため、推定部133Aにより推定されたユーザU2の不安レベルに応じて、ユーザU2の加入を推奨する際に提示する保険料を決定する。
In the example of FIG. 10, the determination unit 135A determines the premium of the user U2 in accordance with the anxiety level of the user U2 estimated by the estimation unit 133A. As shown in the user
例えば、決定部135Aは、ユーザU2の健康の不安レベルが高いと推定部133Aにより推定されたため、他のユーザが支払う保険料よりも高い保険料をユーザU2に提示すると決定する。例えば、決定部135Aは、ユーザU2とユーザ属性が類似するユーザが加入している保険への加入を推奨する情報提供をユーザU2に行うと決定する。また、決定部135Aは、ユーザU2の健康の不安レベルが高いと推定部133Aにより推定されたため、ユーザU2とユーザ属性が類似するユーザが支払う保険料よりも高い保険料をユーザU2に提示すると決定する。 For example, since the determination unit 135A estimates that the anxiety level of the user U2 is high by the estimation unit 133A, the determination unit 135A determines to present the user U2 a premium higher than the premium paid by the other users. For example, the determination unit 135A determines that the user U2 is to be provided with information to recommend subscription to the insurance to which the user having the user attribute similar to that of the user U2 has subscribed. In addition, since the determination unit 135A estimates that the anxiety level of health of the user U2 is high by the estimation unit 133A, the determination unit 135A determines to present the user U2 a premium higher than the premium paid by the user whose user attribute is similar to that of the user U2. Do.
図10の例では、決定部135Aは、20代女性であるユーザU5が加入しているCがん保険を、ユーザU5が支払う保険料よりも高い保険料でユーザU2に提示すると決定する。例えば、決定部135Aは、ユーザU5が支払う保険料Z円よりも高いUZ円を保険料としてCがん保険をユーザU2に推奨すると決定する。 In the example of FIG. 10, the determination unit 135A determines to present the C cancer insurance to which the user U5 who is a twentieth woman is subscribed to the user U2 with a premium higher than the premium paid by the user U5. For example, the determination unit 135A determines to recommend the C cancer insurance to the user U2 as a premium UZ yen higher than the premium Z yen paid by the user U5.
(提供部136A)
変形例に係る提供部136Aは、実施形態に係る提供部136と同様の処理を行う。提供部136Aは、実施形態に係る提供部136と同様に種々の提供を行う。提供部136Aは、実施形態に係る提供部136と同様に種々の情報を提供する。
(Providing portion 136A)
The providing unit 136A according to the modification performs the same process as the providing
図10の例では、提供部136Aは、ユーザU2が利用する端末装置10に情報を提供する。提供部136Aは、ユーザU2が利用する端末装置10にCがん保険への加入を勧誘する情報を送信する。提供部136Aは、ユーザU5が支払う保険料Z円よりも高いUZ円を保険料としてCがん保険を勧める広告(広告ACX)をユーザU2が利用する端末装置10に配信する。提供部136Aは、Cがん保険を示す情報と、その保険料がUZ円であることを示す情報を含む広告ACXをユーザU2が利用する端末装置10に配信する。
In the example of FIG. 10, the providing unit 136A provides information to the
(生成部136)
生成部136は、種々の生成を行う。例えば、生成部136は、モデルを生成する。例えば、生成部136は、図6中のモデル情報記憶部123に示すような各種モデルを生成する。
(Generation unit 136)
The
例えば、生成部136は、図10に示すような推定処理により収集される学習データを用いて、図6中のモデル情報記憶部122に示すようなモデルを生成する。例えば、生成部136は、図10において推定した不安レベルを正解情報として、各ユーザや各カテゴリに対応するモデルを生成してもよい。例えば、生成部136は、図10に示す対象ユーザの行動情報と推定した不安レベルとの組合せを学習データとして、モデルを生成してもよい。
For example, the
例えば、生成部136は、図10中の推定レベル一覧UL21に示すような各カテゴリの不安レベルを正解情報として用いてもよい。例えば、生成部136は、図10に示す所定の期間におけるユーザU2の行動情報ATD21、ADT22等(「入力用データ」とする)と、その入力用データに対応する各カテゴリの不安レベルを学習データとして、各ユーザや各カテゴリに対応するモデルを生成してもよい。例えば、生成部136は、ユーザU2の入力用データの場合、カテゴリ「健康」の不安レベルは高レベルと推定されるため、ユーザU2の入力用データが入力された場合に高いスコアを出力するモデルM2−2(図6参照)を生成してもよい。
For example, the
このように、生成部136は、ユーザU2の入力用データが入力された場合に高いスコア(例えば「1」)を出力するユーザU2及びカテゴリ「健康」に対応するモデルを生成してもよい。例えば、生成部136は、ユーザU2の入力用データがモデルM2−2に入力された場合に、モデルM2−2が出力するスコアが「1」に近づくように、学習処理を行う。
As described above, the
また、例えば、生成部136は、ユーザU2の入力用データの場合、カテゴリ「仕事」の不安レベルは無し「LV0」と推定されるため、ユーザU2の入力用データが入力された場合に低いスコアを出力するモデルM2−1(図6参照)を生成してもよい。このように、生成部136は、ユーザU2の入力用データが入力された場合に低いスコア(例えば「0」)を出力するユーザU2及びカテゴリ「仕事」に対応するモデルを生成してもよい。例えば、生成部136は、ユーザU2の入力用データがモデルM2−1に入力された場合に、モデルM2−1が出力するスコアが「0」に近づくように、学習処理を行う。
Further, for example, in the case of the input data of the user U2, the
また、例えば、生成部136は、不安レベルが低レベルや中レベルと推定される場合、その行動情報が入力された場合に、所定のレベル情報(図7中のレベル情報記憶部124参照)に対応するスコアを出力するようにモデルを生成してもよい。例えば、生成部136は、カテゴリ「仕事」の不安レベルが低レベルと推定される場合、その行動情報が入力された場合に、カテゴリ「仕事」の低レベルに対応する「0.2以上0.5未満」のスコア(例えば、「0.4」等)等を出力するカテゴリ「仕事」に対応するモデルを生成してもよい。例えば、生成部136は、カテゴリ「仕事」の不安レベルが低レベルと推定される行動情報がモデルに入力された場合に、そのモデルが出力するスコアが「0.4」に近づくように、学習処理を行う。
Also, for example, when the anxiety level is estimated to be low level or middle level, the
また、例えば、生成部136は、カテゴリ「仕事」の不安レベルが中レベルと推定される場合、その行動情報が入力された場合に、カテゴリ「仕事」の中レベルに対応する「0.5以上0.8未満」のスコア(例えば、「0.7」等)等を出力するカテゴリ「仕事」に対応するモデルを生成してもよい。例えば、生成部136は、カテゴリ「仕事」の不安レベルが中レベルと推定される行動情報がモデルに入力された場合に、そのモデルが出力するスコアが「0.7」に近づくように、学習処理を行う。
Also, for example, when the anxiety level of the category “work” is estimated to be the middle level, the
例えば、生成部136は、図6に示すようなモデルM1−1〜M3−4等を生成し、生成したモデルM1−1〜M3−4等を記憶部120Aに格納する。なお、生成部136は、いかなる学習アルゴリズムを用いてモデルM1−1〜M3−4等を生成してもよい。例えば、生成部136は、ニューラルネットワーク、サポートベクターマシン(SVM:Support Vector Machine)、クラスタリング、強化学習等の学習アルゴリズムを用いてモデルM1−1〜M3−4等を生成する。一例として、生成部136がニューラルネットワークを用いてモデルM1−1〜M3−4等を生成する場合、モデルM1−1〜M3−4等は、一以上のニューロンを含む入力層と、一以上のニューロンを含む中間層と、一以上のニューロンを含む出力層とを有する。
For example, the
生成部136は、モデルを生成し、生成したモデルを記憶部120Aに格納する。具体的には、生成部136は、ユーザの行動情報が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された行動情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、ユーザの心身状態の推定に用いられるスコアの値を出力層から出力するモデルを生成する。
The
なお、モデルの学習手法については、上述した手法に限定されるものではなく、任意の公知技術が適用可能である。なお、各モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、モデルの生成は、サポートベクターマシン等の教師あり学習の機械学習に関する技術を用いて行われてもよい。また、例えば、モデルの生成は、教師なし学習の機械学習に関する技術を用いて行われてもよい。例えば、モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、モデルの生成は、DNNやRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記モデルの生成に関する記載は例示であり、モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。すなわち、生成部136は、学習データに含まれる行動情報が入力された場合に、正解情報に対応するスコアを出力するようにモデルM1−1〜M3−4等を学習可能であれば、どのような手法によりモデルM1−1〜M3−4等の生成を行ってもよい。
In addition, about the learning method of a model, it is not limited to the method mentioned above, Arbitrary well-known techniques are applicable. Note that generation of each model may be performed using various conventional techniques related to machine learning as appropriate. For example, model generation may be performed using techniques related to machine learning of supervised learning such as support vector machines. Also, for example, model generation may be performed using a technique related to machine learning of unsupervised learning. For example, model generation may be performed using deep learning techniques. For example, generation of a model may be performed using various deep learning techniques such as DNN, Recurrent Neural Network (RNN), Convolutional Neural Network (CNN), etc. as appropriate. In addition, the description regarding the production | generation of the said model is an illustration, and the production | generation of a model may be performed by the learning method suitably selected according to the information etc. which can be acquired. That is, when
このように、生成部136は、ユーザの行動情報と各カテゴリの不安レベルとを正解情報とする学習データに基づいてモデルを生成する。例えば、生成部136は、行動情報に関する特徴量を用いて、モデルを生成する。例えば、生成部136は、ユーザの行動の内容に関する特徴量を用いて、モデルを生成する。例えば、生成部136は、ユーザが用いたクエリやユーザが購入した取引対象等のユーザの行動の対象に関する特徴量を用いて、モデルを生成する。また、例えば、生成部136は、ユーザの行動における時間情報や位置情報や気象情報に関する特徴量を用いて、モデルを生成する。例えば、生成部136は、図10に示す例において収集されたユーザの行動情報に含まれるその行動に関する特徴を学習し、その行動を行っているユーザの心理状態を推定するモデルを生成する。なお、生成部136が学習する行動情報に含まれる特徴は、推定装置100Aの管理者等の人間が生成部136に入力してもよいし、推定装置100Aに自動的に学習(抽出)させてもよい。
Thus, the
また、推定装置100Aと推定装置100とが別体である場合、推定装置100Aは、推定装置100にモデル情報を提供してもよい。この場合、例えば、推定装置100Aは、実施形態に係る推定システム1における情報提供元装置20であってもよい。
Also, when the
〔5.レベル推定規則情報について〕
また、推定装置100Aは、ユーザ属性ごとに対応付けられたレベル推定規則情報を用いてもよい。例えば、推定装置100Aは、20代男性、20代女性、30代男性等のユーザ属性ごと対応付けられたレベル推定規則情報を用いてもよい。この点について図14を用いて説明する。図14は、変形例に係るレベル推定規則情報記憶部の他の一例を示す図である。
[5. About level estimation rule information]
Further, the
(レベル推定規則情報記憶部123B)
変形例に係るレベル推定規則情報記憶部123Bは、レベル推定規則に関する各種情報を記憶する。レベル推定規則情報記憶部123Bは、ユーザの心身状態のレベルの推定に用いる各種情報を記憶する。例えば、レベル推定規則情報記憶部123Bは、各カテゴリのレベルの推定に用いる各種情報を記憶する。図14は、変形例に係るレベル推定規則情報記憶部の一例を示す図である。図14の例では、レベル推定規則情報記憶部123Bは、レベル推定規則セット123B−1やレベル推定規則セット123B−2やレベル推定規則セット123B−3等のようにユーザ属性ごとに情報(テーブル)を記憶する。図14に示すレベル推定規則セット123B−1〜123B−3等は、「ユーザ属性」の項目を有し、「レベル」と「カテゴリ」との組み合わせによる推定モデル(推定規則)が記憶される。具体的には、レベル推定規則セット123B−1〜123B−3等には、行「レベル」と列「カテゴリ」とする各マスには、対応するカテゴリにおけるユーザの心身状態のレベルのスコアに基づく推定規則を示す情報(ルール情報)が記憶される。図14の例では、レベル推定規則情報記憶部123Bには、行「レベル」と列「カテゴリ」とする各マスには、ユーザの不安行動に基づくカテゴリごとの不安レベルの推定モデルを示す情報が記憶される。
(Level estimation rule
The level estimation rule
図14の例では、レベル推定規則セット123B−1は、ユーザ属性が「20代男性」に対応する不安行動リストが記憶される。また、レベル推定規則セット123B−2は、ユーザ属性が「20代女性」に対応する不安行動リストが記憶される。また、レベル推定規則セット123B−3は、ユーザ属性が「30代男性」に対応する不安行動リストが記憶される。 In the example of FIG. 14, the level estimation rule set 123B-1 stores the anxiety action list corresponding to the user attribute “male in twenties”. Further, the level estimation rule set 123B-2 stores the anxiety action list whose user attribute corresponds to "20's female". In the level estimation rule set 123B-3, the anxiety action list corresponding to the user attribute "male in thirties" is stored.
「レベル」は、対応するカテゴリにおけるユーザの心身状態のレベルを示す。図14では、「レベル」には、「低(LV1)」、「中(LV2)」、「高(LV3)」といった項目が含まれる。なお、上記は一例であり、「レベル」には、低、中、高の3段階に限らず、種々の段階(例えば10段階等)であってもよい。 "Level" indicates the level of the user's mental and physical state in the corresponding category. In FIG. 14, “level” includes items such as “low (LV1)”, “middle (LV2)”, and “high (LV3)”. Note that the above is an example, and the “level” is not limited to three levels of low, medium, and high, and may be various stages (for example, ten stages).
「カテゴリ」は、ユーザの心身状態を推定する対象となるカテゴリを示す。図14では、「カテゴリ」には、「仕事(CTG1)」、「健康(CTG2)」、「将来(CTG3)」、「不明(CTG4)」といった項目が含まれる。なお、上記は一例であり、「カテゴリ」には、「家庭」や「お金」等のユーザの心身状態を推定する対象となるカテゴリであれば、どのようなカテゴリであってもよい。 “Category” indicates a category for which the user's mental and physical state is to be estimated. In FIG. 14, the “category” includes items such as “work (CTG1)”, “health (CTG2)”, “future (CTG3)”, and “unknown (CTG4)”. Note that the above is an example, and any category may be used as the "category" as long as the category is a target for estimating the physical and mental state of the user, such as "home" and "money".
例えば、各レベルと、各カテゴリとが交差するマスには、対応するカテゴリにおける各レベルにユーザの心身状態があるかを推定するレベル推定規則を示す。図14の例では、各レベルと、各カテゴリとが交差するマスには、対応するカテゴリにおける各レベルにユーザの不安レベルが該当するかを推定するレベル推定規則を示す。 For example, in the box at which each level intersects with each category, a level estimation rule for estimating whether the user's mental and physical state exists at each level in the corresponding category is indicated. In the example of FIG. 14, level squares at which each level intersects with each category indicate level estimation rules for estimating whether the user's anxiety level falls under each level in the corresponding category.
図14のレベル推定規則情報記憶部123Bの情報を用いる場合、推定装置100Aは、対象ユーザのユーザ属性に対応するレベル推定規則セットを用いて、対象ユーザの心身状態を推定する。例えば、推定装置100Aは、対象ユーザのユーザ属性が「20代女性」である場合、レベル推定規則セット123B−2に記憶されたレベル推定規則を用いて、対象ユーザの心身状態を推定する。これにより、推定装置100Aは、対象ユーザの属するユーザ属性に応じて、対象ユーザの心身状態を適切に推定することができる。
When using the information of the level estimation rule
また、例えば、推定装置100Aは、ユーザ属性ごとにレベル推定規則を用いて推定した心身状態を正解情報として、ユーザ属性ごとのモデルを生成してもよい。このようなユーザ属性ごとのモデルを用いることにより、推定装置100Aは、対象ユーザが属するユーザ属性におけるユーザ群との比較に基づいて、対象ユーザの心身状態を推定することができる。
Further, for example, the
〔6.実施形態と変形例の組合せについて〕
例えば、推定装置100Aは、生成したモデルを用いた推定を行う場合、実施形態に係る推定装置100と同様の処理を行ってもよい。また、この場合、推定装置100Aの記憶部120Aは、モデル情報記憶部123やレベル情報記憶部124やコンテンツ情報記憶部125を有してもよい。また、推定装置100Aの制御部130Aは、選択部132を有してもよい。例えば、推定装置100Aがモデルを用いた推定を行う場合、推定装置100Aは、実施形態に係る推定装置100と一体であってもよい。
[6. About combination of embodiment and modification]
For example, when performing estimation using the generated model, the
この場合、例えば、推定装置100Aは、モデルが生成前の対象ユーザや対象カテゴリについては、レベル推定規則情報記憶部123Aや不安行動リスト情報記憶部124Aの情報を用いて推定処理を行う。例えば、推定装置100Aは、ユーザU1がモデル生成前である場合、ユーザU1のカテゴリ「仕事」における心身状態をレベル推定規則情報記憶部123Aや不安行動リスト情報記憶部124Aの情報を用いて推定する。例えば、推定装置100Aは、図10に示すように、ユーザU2がモデル生成前である場合、ユーザU2の心身状態をレベル推定規則情報記憶部123Aや不安行動リスト情報記憶部124Aの情報を用いて推定する。
In this case, for example, the
また、推定装置100Aは、モデルが生成後の対象ユーザや対象カテゴリについては、モデル情報記憶部123やレベル情報記憶部124の情報を用いて推定処理を行う。例えば、推定装置100Aは、図1に示すように、ユーザU1がモデル生成後である場合、ユーザU1の心身状態をモデル情報記憶部123やレベル情報記憶部124の情報を用いて推定する。例えば、推定装置100Aは、図1に示すように、ユーザU1に対応するモデルM1−1を用いて、ユーザU1のカテゴリ「仕事」における心身状態が不安かどうかを推定する。例えば、推定装置100Aは、ユーザU2がモデル生成後である場合、ユーザU2の心身状態をモデル情報記憶部123やレベル情報記憶部124の情報を用いて推定する。例えば、推定装置100Aは、ユーザU2がモデル生成後である場合、ユーザU2に対応するモデルM2−1を用いて、ユーザU2のカテゴリ「仕事」における心身状態が不安かどうかを推定する。
Further, the
例えば、推定装置100Aは、モデルを生成するための学習データが所定の閾値以上となったユーザやカテゴリから順にモデルを生成してもよい。この場合、推定装置100Aは、モデルを生成済みの推定対象についてはモデルを用いて推定を行い、モデルを未生成の推定対象についてはレベル推定規則情報記憶部123Aや不安行動リスト情報記憶部124Aの情報を用いて推定を行ってもよい。
For example, the
〔7.効果〕
上述してきたように、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、取得部131と、推定部133、133Aとを有する。取得部131は、対象ユーザの行動情報を取得する。また、推定部133、133Aは、取得部131により取得された対象ユーザの行動を示す行動情報に基づいて、対象ユーザの心身状態を推定する。
[7. effect〕
As described above, the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの行動に基づいて、対象ユーザの心身状態を推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、インターネット上における対象ユーザの行動情報を取得する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、インターネット上における対象ユーザの行動に基づいて、対象ユーザの心身状態を推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、対象ユーザが検索に用いたクエリ情報を含む行動情報を取得する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザが検索に用いたクエリ情報に基づいて、対象ユーザの心身状態を推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、対象ユーザの購買情報を含む行動情報を取得する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの購買情報に基づいて、対象ユーザの心身状態を推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、対象ユーザの位置情報を含む行動情報を取得する。
In addition, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの位置情報に基づいて、対象ユーザの心身状態を推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、対象ユーザに対応する位置における気象情報を含む行動情報を取得する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザに対応する位置における気象情報に基づいて、対象ユーザの心身状態を推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、推定部133、133Aは、対象ユーザの心身状態が通常の状態とは異なる他の状態かどうかを推定する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの心身状態が通常の状態とは異なる他の状態かどうかを推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、推定部133、133Aは、対象ユーザの心身状態が通常の状態とは異なる負の状態かどうかを推定する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの心身状態が通常の状態とは異なる負の状態かどうかを推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、推定部133、133Aは、対象ユーザの心身状態が不安かどうかを推定する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの心身状態が不安かどうかを推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、ユーザの行動情報からユーザの心身状態の推定に用いるモデルを取得する。推定部133、133Aは、対象ユーザの行動情報とモデルとに基づいて、対象ユーザの心身状態を推定する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、モデルを用いて対象ユーザの心身状態を推定することができ、ユーザの状態を適切に推定することができる。
Thus, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、心身状態の複数のレベルのうち、ユーザの心身状態がいずれのレベルであるかの推定に用いるモデルを取得する。推定部133、133Aは、対象ユーザの行動情報が入力された場合にモデルが出力するスコアに基づいて、対象ユーザの心身状態のレベルを推定する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの行動情報が入力された場合にモデルが出力するスコアに基づいて、対象ユーザの心身状態のレベルを推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、選択部132を有する。選択部132は、所定の対象毎に生成された複数のモデルのうち、所定の条件に基づいて一のモデルを選択する。推定部133、133Aは、選択部132により選択された一のモデルに基づいて、対象ユーザの心身状態を推定する。
Further, the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの行動情報が入力された場合にモデルが出力するスコアに基づいて、対象ユーザの心身状態のレベルを推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、ユーザごとに生成される複数のモデルを取得する。選択部132は、所定の対象毎に生成された複数のモデルのうち、対象ユーザに対応する一のモデルを選択する。推定部133、133Aは、選択部132により選択された一のモデルに基づいて、対象ユーザの心身状態を推定する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、所定の対象毎に生成された複数のモデルのうち、対象ユーザに対応する一のモデルを選択し、選択した一のモデルに基づいて、一のモデルに対応する所定の対象に関する対象ユーザの心身状態のレベルを推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、ユーザの心身状態を推定する対象となる複数のカテゴリ毎に生成される複数のモデルを取得する。選択部132は、複数のモデルのうち、推定の対象となる対象カテゴリに対応する一のモデルを選択する。推定部133、133Aは、選択部132により選択された一のモデルに基づいて、対象カテゴリにおける対象ユーザの心身状態を推定する。
In addition, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、複数のカテゴリ毎に生成された複数のモデルのうち、対象ユーザに対応する一のモデルを選択し、選択した一のモデルに基づいて、一のモデルに対応するカテゴリに関する対象ユーザの心身状態のレベルを推定することができ、ユーザの状態を適切に推定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、選定部134を有する。選定部134は、ユーザの健康状態を示す情報と、推定部133、133Aにより推定された当該ユーザの心身状態とに基づいて、所定の処理を行う対象となるユーザである処理対象ユーザを選定する。
Further, the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、ユーザの健康状態を示す情報と、推定部133、133Aにより推定された当該ユーザの心身状態とに基づいて、所定の処理を行う対象となるユーザである処理対象ユーザを選定することにより、ユーザの健康及び心身の両方の状態に応じて適切に処理対象となるユーザを選定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、取得部131は、対象ユーザの健康状態を示す情報を取得する。選定部134は、対象ユーザの健康状態と、対象ユーザの心身状態との差が所定の条件を満たす場合、対象ユーザを処理対象ユーザとして選定する。
In addition, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの健康状態と、対象ユーザの心身状態との差が所定の条件を満たす場合、対象ユーザを処理対象ユーザとして選定することにより、ユーザの健康及び心身の両方の状態に応じて適切に処理対象となるユーザを選定することができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、選定部134は、対象ユーザの健康状態が通常の状態であり、対象ユーザの心身状態が通常の状態とは異なる他の状態である場合、対象ユーザを処理対象ユーザとして選定する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、対象ユーザの健康状態が通常の状態であり、対象ユーザの心身状態が通常の状態とは異なる他の状態である場合、対象ユーザを処理対象ユーザとして選定することにより、ユーザの健康及び心身の両方の状態に応じて適切に処理対象となるユーザを選定することができる。
Accordingly, when the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、決定部135、135Aを有する。決定部135、135Aは、推定部133、133Aにより推定された対象ユーザの心身状態に基づいて、対象ユーザに適用する保険料を決定する。
Further, the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、推定された対象ユーザの心身状態に基づいて、対象ユーザに適用する保険料を決定でき、ユーザの状態に応じて適切な保険サービスを提供可能にすることができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、提供部136、136Aを有する。提供部136、136Aは、推定部133、133Aにより推定された対象ユーザの心身状態に基づくサービスを提供する。
The
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、推定された対象ユーザの心身状態に基づいて、対象ユーザにサービスを提供でき、ユーザの状態に応じて適切なサービスを提供可能にすることができる。
Thereby, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、提供部136、136Aは、推定部133、133Aにより推定された対象ユーザの心身状態に基づく情報提供サービスを提供する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、推定された対象ユーザの心身状態に基づいて、対象ユーザに適切な情報を提供することができ、ユーザの状態に応じて適切な情報提供サービスを提供可能にすることができる。
As a result, the
また、実施形態に係る推定装置100及び変形例に係る推定装置100Aにおいて、提供部136、136Aは、推定部133、133Aにより推定された対象ユーザの心身状態に基づくコンテンツ配信サービスを提供する。
Further, in the
これにより、実施形態に係る推定装置100及び変形例に係る推定装置100Aは、推定された対象ユーザの心身状態に基づいて、対象ユーザに適切なコンテンツを配信することができ、ユーザの状態に応じて適切なコンテンツ配信サービスを提供可能にすることができる。
As a result, the
〔8.ハードウェア構成〕
上述してきた実施形態に係る推定装置100及び変形例に係る推定装置100Aは、例えば図15に示すような構成のコンピュータ1000によって実現される。図15は、推定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[8. Hardware configuration]
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る推定装置100や変形例に係る推定装置100Aとして機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラム(例えば、モデルM1−1(モデルデータMDT1−1))を実行することにより、制御部130、130Aの機能を実現する。コンピュータ1000のCPU1100は、これらのプログラム(例えば、モデルM1−1(モデルデータMDT1−1))を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態及び変形例のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments and modifications of the present application have been described above in detail based on the drawings, these are merely examples, and various aspects can be obtained based on the knowledge of those skilled in the art, including the aspects described in the rows of the disclosure. It is possible to carry out the present invention in other forms that have been modified and improved.
〔9.その他〕
また、上記実施形態及び変形例において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[9. Other]
Further, among the processes described in the embodiment and the modification, all or part of the process described as being automatically performed can be manually performed, or it is described as manually performed. All or part of the treatment may be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to that shown in the drawings, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.
また、上述してきた実施形態及び変形例は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Moreover, it is possible to combine suitably the embodiment and modification which were mentioned above in the range which does not contradict process content.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition unit or an acquisition circuit.
1 推定システム
100 推定装置
121 ユーザ情報記憶部
122 行動情報記憶部
123 モデル情報記憶部
124 レベル情報記憶部
125 コンテンツ情報記憶部
130 制御部
131 取得部
132 選択部
133 推定部
134 選定部
135 決定部
136 提供部
10 端末装置
50 情報提供元装置
N ネットワーク
DESCRIPTION OF
Claims (23)
前記取得部により取得された前記対象ユーザの行動を示す行動情報に基づいて、前記対象ユーザの心身状態を推定する推定部と、
を備えることを特徴とする推定装置。 An acquisition unit for acquiring action information of a target user;
An estimation unit configured to estimate the mental and physical state of the target user based on the action information indicating the action of the target user acquired by the acquisition unit;
An estimation apparatus comprising:
インターネット上における前記対象ユーザの前記行動情報を取得する
ことを特徴とする請求項1に記載の推定装置。 The acquisition unit
The estimation device according to claim 1, wherein the behavior information of the target user on the Internet is acquired.
前記対象ユーザが検索に用いたクエリ情報を含む前記行動情報を取得する
ことを特徴とする請求項2に記載の推定装置。 The acquisition unit
The estimation apparatus according to claim 2, wherein the action information including the query information used for the search by the target user is acquired.
前記対象ユーザの購買情報を含む前記行動情報を取得する
ことを特徴とする請求項1〜3のいずれか1項に記載の推定装置。 The acquisition unit
The estimation apparatus according to any one of claims 1 to 3, wherein the action information including purchase information of the target user is acquired.
前記対象ユーザの位置情報を含む前記行動情報を取得する
ことを特徴とする請求項1〜4のいずれか1項に記載の推定装置。 The acquisition unit
The estimation apparatus according to any one of claims 1 to 4, wherein the action information including position information of the target user is acquired.
前記対象ユーザに対応する位置における気象情報を含む前記行動情報を取得する
ことを特徴とする請求項1〜5のいずれか1項に記載の推定装置。 The acquisition unit
The estimation apparatus according to any one of claims 1 to 5, wherein the behavior information including weather information at a position corresponding to the target user is acquired.
前記対象ユーザの心身状態が通常の状態とは異なる他の状態かどうかを推定する
ことを特徴とする請求項1〜6のいずれか1項に記載の推定装置。 The estimation unit
The estimation apparatus according to any one of claims 1 to 6, wherein it is estimated whether the physical and mental state of the target user is another state different from a normal state.
前記対象ユーザの心身状態が通常の状態とは異なる負の状態かどうかを推定する
ことを特徴とする請求項7に記載の推定装置。 The estimation unit
The estimation apparatus according to claim 7, wherein it is estimated whether the mental and physical state of the target user is a negative state different from a normal state.
前記対象ユーザの心身状態が不安かどうかを推定する
ことを特徴とする請求項8に記載の推定装置。 The estimation unit
The estimation apparatus according to claim 8, wherein it is estimated whether the mind-body state of the target user is anxiety.
ユーザの行動情報から前記ユーザの心身状態の推定に用いるモデルを取得し、
前記推定部は、
前記対象ユーザの行動情報と前記モデルとに基づいて、前記対象ユーザの心身状態を推定する
ことを特徴とする請求項1〜9のいずれか1項に記載の推定装置。 The acquisition unit
Obtain a model used to estimate the user's mental and physical state from the user's action information,
The estimation unit
The estimation apparatus according to any one of claims 1 to 9, wherein the mental and physical state of the target user is estimated based on the action information of the target user and the model.
前記心身状態の複数のレベルのうち、前記ユーザの前記心身状態がいずれのレベルであるかの推定に用いる前記モデルを取得し、
前記推定部は、
前記対象ユーザの行動情報が入力された場合に前記モデルが出力するスコアに基づいて、前記対象ユーザの前記心身状態のレベルを推定する
ことを特徴とする請求項10に記載の推定装置。 The acquisition unit
Acquiring, from among the plurality of levels of the mind-body state, the model used to estimate which level the mind-body state of the user is.
The estimation unit
The estimation apparatus according to claim 10, wherein the level of the mind-body state of the target user is estimated based on a score output by the model when the action information of the target user is input.
をさらに備え、
前記推定部は、
前記選択部により選択された前記一のモデルに基づいて、前記対象ユーザの心身状態を推定する
ことを特徴とする請求項10または請求項11に記載の推定装置。 A selection unit that selects one model based on a predetermined condition among a plurality of models generated for each predetermined object,
And further
The estimation unit
The estimation apparatus according to claim 10, wherein the mental and physical state of the target user is estimated based on the one model selected by the selection unit.
前記ユーザごとに生成される前記複数のモデルを取得し、
前記選択部は、
前記複数のモデルのうち、前記対象ユーザに対応する前記一のモデルを選択し、
前記推定部は、
前記選択部により選択された前記一のモデルに基づいて、前記対象ユーザの心身状態を推定する
ことを特徴とする請求項12に記載の推定装置。 The acquisition unit
Acquiring the plurality of models generated for each of the users,
The selection unit is
The one model corresponding to the target user is selected from the plurality of models,
The estimation unit
The estimation apparatus according to claim 12, wherein the mental and physical state of the target user is estimated based on the one model selected by the selection unit.
前記ユーザの前記心身状態を推定する対象となる複数のカテゴリ毎に生成される前記複数のモデルを取得し、
前記選択部は、
前記複数のモデルのうち、推定の対象となる対象カテゴリに対応する前記一のモデルを選択し、
前記推定部は、
前記選択部により選択された前記一のモデルに基づいて、前記対象カテゴリにおける前記対象ユーザの心身状態を推定する
ことを特徴とする請求項12または請求項13に記載の推定装置。 The acquisition unit
Acquiring the plurality of models generated for each of a plurality of categories for which the user's mental and physical state is to be estimated;
The selection unit is
Among the plurality of models, the one model corresponding to a target category to be estimated is selected;
The estimation unit
The estimation apparatus according to claim 12 or 13, wherein the mental and physical state of the target user in the target category is estimated based on the one model selected by the selection unit.
をさらに備えることを特徴とする請求項1〜14のいずれか1項に記載の推定装置。 A selection unit that selects a processing target user who is a user who is a target for performing a predetermined process based on information indicating a user's health condition and the mind and body condition of the user estimated by the estimation unit;
The estimation device according to any one of claims 1 to 14, further comprising:
前記対象ユーザの健康状態を示す情報を取得し、
前記選定部は、
前記対象ユーザの健康状態と、前記対象ユーザの心身状態との差が所定の条件を満たす場合、前記対象ユーザを前記処理対象ユーザとして選定する
ことを特徴とする請求項15に記載の推定装置。 The acquisition unit
Acquiring information indicating the health condition of the target user;
The selection unit is
The estimation device according to claim 15, wherein the target user is selected as the processing target user when a difference between the health state of the target user and the physical and mental state of the target user satisfies a predetermined condition.
前記対象ユーザの健康状態が通常の状態であり、前記対象ユーザの心身状態が前記通常の状態とは異なる他の状態である場合、前記対象ユーザを前記処理対象ユーザとして選定する
ことを特徴とする請求項16に記載の推定装置。 The selection unit is
The target user is selected as the processing target user when the health state of the target user is a normal state and the physical and mental state of the target user is another state different from the normal state. The estimation device according to claim 16.
をさらに備えることを特徴とする請求項1〜17のいずれか1項に記載の推定装置。 A determination unit that determines a premium to be applied to the target user based on the physical and mental state of the target user estimated by the estimation unit;
The estimation device according to any one of claims 1 to 17, further comprising:
をさらに備えることを特徴とする請求項1〜18のいずれか1項に記載の推定装置。 A providing unit that provides a service based on the mind-body state of the target user estimated by the estimation unit;
The estimation device according to any one of claims 1 to 18, further comprising:
前記推定部により推定された前記対象ユーザの前記心身状態に基づく情報提供サービスを提供する
ことを特徴とする請求項19に記載の推定装置。 The providing unit is
20. The estimation apparatus according to claim 19, providing an information providing service based on the mind-body state of the target user estimated by the estimation unit.
前記推定部により推定された前記対象ユーザの前記心身状態に基づくコンテンツ配信サービスを提供する
ことを特徴とする請求項19または請求項20に記載の推定装置。 The providing unit is
The estimation device according to claim 19 or 20, which provides a content distribution service based on the mind-body state of the target user estimated by the estimation unit.
対象ユーザの行動情報を取得する取得工程と、
前記取得工程により取得された前記対象ユーザの行動を示す行動情報に基づいて、前記対象ユーザの心身状態を推定する推定工程と、
を含むことを特徴とする推定方法。 A computer implemented estimation method,
An acquisition step of acquiring action information of a target user;
An estimation step of estimating the mental and physical state of the target user based on the action information indicating the action of the target user acquired by the acquisition step;
Estimation method characterized by including.
前記取得手順により取得された前記対象ユーザの行動を示す行動情報に基づいて、前記対象ユーザの心身状態を推定する推定手順と、
をコンピュータに実行させることを特徴とする推定プログラム。 An acquisition procedure for acquiring action information of a target user;
An estimation procedure for estimating the mental and physical state of the target user based on the action information indicating the action of the target user acquired by the acquisition procedure;
An estimation program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017241030A JP6885858B2 (en) | 2017-12-15 | 2017-12-15 | Estimator, estimation method, and estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017241030A JP6885858B2 (en) | 2017-12-15 | 2017-12-15 | Estimator, estimation method, and estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019109620A true JP2019109620A (en) | 2019-07-04 |
JP6885858B2 JP6885858B2 (en) | 2021-06-16 |
Family
ID=67179784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017241030A Active JP6885858B2 (en) | 2017-12-15 | 2017-12-15 | Estimator, estimation method, and estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6885858B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021153314A1 (en) * | 2020-01-29 | 2021-08-05 | キヤノン株式会社 | Medical information processing system, medical information processing device, control method for medical information processing system, and program |
JP7004886B1 (en) * | 2021-03-09 | 2022-01-21 | 合同会社Famc | A system, method, and program for determining the product or service that is suitable for the user. |
JP7016980B1 (en) * | 2021-03-18 | 2022-02-07 | ヤフー株式会社 | Information processing equipment, information processing methods and information processing programs |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002245253A (en) * | 2001-02-20 | 2002-08-30 | Sony Corp | Information processing apparatus, information processing method and program for the information processing apparatus |
JP2004234513A (en) * | 2003-01-31 | 2004-08-19 | Mitsui Sumitomo Insurance Co Ltd | Insurance presentation system, insurance presentation server, insurance presentation method, and program |
JP2005190388A (en) * | 2003-12-26 | 2005-07-14 | Matsushita Electric Ind Co Ltd | Method for executing program, electronic device and personal digital assistant |
JP2009181478A (en) * | 2008-01-31 | 2009-08-13 | Ntt Docomo Inc | Condition estimating device and condition estimating program |
JP2013105232A (en) * | 2011-11-11 | 2013-05-30 | Nippon Telegr & Teleph Corp <Ntt> | Emotion estimation device and emotion estimation method |
JP2014222397A (en) * | 2013-05-13 | 2014-11-27 | 日本電信電話株式会社 | Feeling estimation method, device, and program |
US20160063874A1 (en) * | 2014-08-28 | 2016-03-03 | Microsoft Corporation | Emotionally intelligent systems |
WO2016072117A1 (en) * | 2014-11-07 | 2016-05-12 | ソニー株式会社 | Information processing device, control method, and storage medium |
JP2017016452A (en) * | 2015-07-02 | 2017-01-19 | Kddi株式会社 | Server and program estimating user state in portable terminal having sensors not loaded |
JP2017027614A (en) * | 2016-10-05 | 2017-02-02 | ヤフー株式会社 | Model generation device, model generation method, and model generation program |
US9566411B1 (en) * | 2016-01-21 | 2017-02-14 | Trungram Gyaltrul R. Sherpa | Computer system for determining a state of mind and providing a sensory-type antidote to a subject |
JP2017059044A (en) * | 2015-09-17 | 2017-03-23 | トヨタ自動車株式会社 | Life log recording system |
JP2017167752A (en) * | 2016-03-15 | 2017-09-21 | ヤフー株式会社 | Device, method, and program for determination |
-
2017
- 2017-12-15 JP JP2017241030A patent/JP6885858B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002245253A (en) * | 2001-02-20 | 2002-08-30 | Sony Corp | Information processing apparatus, information processing method and program for the information processing apparatus |
JP2004234513A (en) * | 2003-01-31 | 2004-08-19 | Mitsui Sumitomo Insurance Co Ltd | Insurance presentation system, insurance presentation server, insurance presentation method, and program |
JP2005190388A (en) * | 2003-12-26 | 2005-07-14 | Matsushita Electric Ind Co Ltd | Method for executing program, electronic device and personal digital assistant |
JP2009181478A (en) * | 2008-01-31 | 2009-08-13 | Ntt Docomo Inc | Condition estimating device and condition estimating program |
JP2013105232A (en) * | 2011-11-11 | 2013-05-30 | Nippon Telegr & Teleph Corp <Ntt> | Emotion estimation device and emotion estimation method |
JP2014222397A (en) * | 2013-05-13 | 2014-11-27 | 日本電信電話株式会社 | Feeling estimation method, device, and program |
US20160063874A1 (en) * | 2014-08-28 | 2016-03-03 | Microsoft Corporation | Emotionally intelligent systems |
WO2016072117A1 (en) * | 2014-11-07 | 2016-05-12 | ソニー株式会社 | Information processing device, control method, and storage medium |
JP2017016452A (en) * | 2015-07-02 | 2017-01-19 | Kddi株式会社 | Server and program estimating user state in portable terminal having sensors not loaded |
JP2017059044A (en) * | 2015-09-17 | 2017-03-23 | トヨタ自動車株式会社 | Life log recording system |
US9566411B1 (en) * | 2016-01-21 | 2017-02-14 | Trungram Gyaltrul R. Sherpa | Computer system for determining a state of mind and providing a sensory-type antidote to a subject |
JP2017167752A (en) * | 2016-03-15 | 2017-09-21 | ヤフー株式会社 | Device, method, and program for determination |
JP2017027614A (en) * | 2016-10-05 | 2017-02-02 | ヤフー株式会社 | Model generation device, model generation method, and model generation program |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021153314A1 (en) * | 2020-01-29 | 2021-08-05 | キヤノン株式会社 | Medical information processing system, medical information processing device, control method for medical information processing system, and program |
JP7004886B1 (en) * | 2021-03-09 | 2022-01-21 | 合同会社Famc | A system, method, and program for determining the product or service that is suitable for the user. |
WO2022191210A1 (en) * | 2021-03-09 | 2022-09-15 | 株式会社Advasa | System, method, and program for determining commodity or service suitable for user |
JP7016980B1 (en) * | 2021-03-18 | 2022-02-07 | ヤフー株式会社 | Information processing equipment, information processing methods and information processing programs |
Also Published As
Publication number | Publication date |
---|---|
JP6885858B2 (en) | 2021-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10387898B2 (en) | Crowd-based personalized recommendations of food using measurements of affective response | |
US10318534B2 (en) | Recommendations in a computing advice facility | |
US10198505B2 (en) | Personalized experience scores based on measurements of affective response | |
US8972314B2 (en) | Interestingness recommendations in a computing advice facility | |
US9159034B2 (en) | Geographically localized recommendations in a computing advice facility | |
Herzog et al. | Social engagement and its relationship to health | |
US8494978B2 (en) | Inferring user preferences from an internet based social interactive construct | |
US20160350834A1 (en) | Systems and methods for constructing and applying synaptic networks | |
US20160224803A1 (en) | Privacy-guided disclosure of crowd-based scores computed based on measurements of affective response | |
US20190108191A1 (en) | Affective response-based recommendation of a repeated experience | |
KR20140049087A (en) | Internet preference learning facility | |
JP6885858B2 (en) | Estimator, estimation method, and estimation program | |
JP5523222B2 (en) | Product information providing system, product information providing device, product information providing method and program | |
JP6601821B2 (en) | Determination apparatus, determination method, determination program, information processing apparatus, information processing method, and information processing program | |
Agarwal et al. | Multi-faceted ranking of news articles using post-read actions | |
Goller et al. | Anchoring effects in facial attractiveness | |
Settle | Attribution theory and acceptance of information | |
CN115862806A (en) | Health portrait construction method based on privacy protection | |
JP6865153B2 (en) | Estimator, estimation method, and estimation program | |
JP7459040B2 (en) | Information processing device, information processing method, and information processing program | |
JP7079867B1 (en) | Generator, generation method and generation program | |
JP7464346B2 (en) | Object attribute expression generation model capable of generating object attribute expressions, object attribute estimation device and method | |
Butt | Semantic Embedded Sequential Recommendation for E-commerce Products through Mining Customers’ Historical Interactions and Products’ Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180516 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180516 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180516 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190513 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190716 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191003 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20191003 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20191011 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20191015 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20200214 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20200218 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20200804 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20201006 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20201215 |
|
C302 | Record of communication |
Free format text: JAPANESE INTERMEDIATE CODE: C302 Effective date: 20210204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210212 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20210309 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20210413 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20210413 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210513 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6885858 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |