JP2019028488A - Extraction apparatus, extraction method, extraction program, learning data and model - Google Patents
Extraction apparatus, extraction method, extraction program, learning data and model Download PDFInfo
- Publication number
- JP2019028488A JP2019028488A JP2017143449A JP2017143449A JP2019028488A JP 2019028488 A JP2019028488 A JP 2019028488A JP 2017143449 A JP2017143449 A JP 2017143449A JP 2017143449 A JP2017143449 A JP 2017143449A JP 2019028488 A JP2019028488 A JP 2019028488A
- Authority
- JP
- Japan
- Prior art keywords
- user
- extraction
- position information
- information
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 308
- 239000000284 extract Substances 0.000 claims abstract description 97
- 230000008859 change Effects 0.000 claims abstract description 47
- 230000006870 function Effects 0.000 claims abstract description 16
- 230000006399 behavior Effects 0.000 claims description 178
- 230000009471 action Effects 0.000 claims description 92
- 238000000034 method Methods 0.000 claims description 26
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000003860 storage Methods 0.000 description 77
- 238000010586 diagram Methods 0.000 description 17
- 230000010365 information processing Effects 0.000 description 17
- 230000008569 process Effects 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 11
- 235000013361 beverage Nutrition 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 230000035622 drinking Effects 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 238000007796 conventional method Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 101001111655 Homo sapiens Retinol dehydrogenase 11 Proteins 0.000 description 2
- 102100031829 Myosin light polypeptide 6 Human genes 0.000 description 2
- 101710101143 Myosin light polypeptide 6 Proteins 0.000 description 2
- 102100023916 Retinol dehydrogenase 11 Human genes 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルに関する。 The present invention relates to an extraction device, an extraction method, an extraction program, learning data, and a model.
従来、ユーザの行動に関する情報を抽出する技術が提供されている。例えば、ユーザの行動や移動に伴って断続的に得られる履歴情報を用いながら、ユーザが立ち寄った又は滞在した施設を間接的に推定する技術が提供されている。 Conventionally, a technique for extracting information related to user behavior has been provided. For example, there is provided a technique for indirectly estimating a facility where a user has stopped or stayed while using history information obtained intermittently with the user's behavior or movement.
しかしながら、上記の従来技術では、規則性を満たすユーザの情報を適切に抽出することが難しい場合がある。例えば、ユーザの行動や移動に伴って断続的に得られる履歴情報を用いるだけでは、例えばユーザの行動の連続による行動に関する情報等を適切に抽出することが難しい場合がある。 However, in the above-described conventional technology, it may be difficult to appropriately extract user information that satisfies regularity. For example, it may be difficult to appropriately extract, for example, information related to a user's continuous behavior by using history information obtained intermittently with the user's behavior and movement.
本願は、上記に鑑みてなされたものであって、規則性を満たすユーザの情報を適切に抽出する抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルを提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide an extraction device, an extraction method, an extraction program, learning data, and a model that appropriately extract user information satisfying regularity.
本願に係る抽出装置は、所定の期間において検知されたユーザの複数の位置情報を取得する取得部と、前記取得部により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出部とを備えたことを特徴とする。 The extraction device according to the present application has an acquisition unit that acquires a plurality of pieces of position information of a user detected in a predetermined period, and a predetermined regularity regarding a change in position among the plurality of pieces of position information acquired by the acquisition unit. And an extraction unit for extracting a position information group to be satisfied.
実施形態の一態様によれば、規則性を満たすユーザの情報を適切に抽出することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to appropriately extract user information that satisfies regularity.
以下に、本願に係る抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an extraction apparatus, an extraction method, an extraction program, learning data, and a form for implementing a model (hereinafter referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. In addition, the extraction apparatus, the extraction method, the extraction program, the learning data, and the model according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.
(実施形態)
〔1.抽出処理〕
図1及び図2を用いて、実施形態に係る抽出処理の一例について説明する。図1及び図2は、実施形態に係る抽出処理の一例を示す図である。図1及び図2の例では、ユーザが利用する端末装置10が検知したセンサ情報(位置情報)から、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。また、図1及び図2に示す抽出処理には、位置情報群とユーザの所定の行動の有無を示す情報を用いてモデルを生成する処理が含まれる。なお、抽出処理には、モデルを生成する処理が含まれなくてもよい。
(Embodiment)
[1. (Extraction process)
An example of the extraction process according to the embodiment will be described with reference to FIGS. 1 and 2. 1 and 2 are diagrams illustrating an example of an extraction process according to the embodiment. The example of FIGS. 1 and 2 shows a case where a position information group satisfying a predetermined regularity regarding a change in position is extracted from sensor information (position information) detected by the
〔1−1.抽出システムの構成〕
まず、図1及び図2の説明に先立って、図3に示す抽出システム1について説明する。図3に示すように、抽出システム1は、端末装置10と、抽出装置100とが含まれる。端末装置10と、抽出装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る抽出システムの構成例を示す図である。なお、図3に示した抽出システム1には、複数台の端末装置10や、複数台の抽出装置100が含まれてもよい。
[1-1. (Configuration of extraction system)
First, prior to the description of FIGS. 1 and 2, the extraction system 1 shown in FIG. 3 will be described. As illustrated in FIG. 3, the extraction system 1 includes a
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1及び図2は、端末装置10がスマートフォンである場合を示す。
The
また、端末装置10は、GPS(Global Positioning System)センサ等の機能を有し、ユーザの位置情報(センサ情報)を検知し、取得するものとする。また、端末装置10は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。
The
また、端末装置10は、GPSセンサ等に限らず種々のセンサにより、各種センサ情報を検知してもよい。例えば、端末装置10は、加速度センサの機能を有し、ユーザの移動における加速度情報(センサ情報)を検知し、取得可能であってもよい。また、端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。また、端末装置10は、心拍センサ等の種々の機能を有し、ユーザの生体情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。
Moreover, the
また、端末装置10は、ユーザによる操作を受け付ける。また、端末装置10は、抽出装置100に種々の情報を送信する。例えば、端末装置10は、抽出装置100に位置情報や行動情報等を送信する。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。
Moreover, the
以下では、ユーザID「U1」により識別されるユーザを「ユーザU1」とする場合がある。このように、以下では、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU2」と記載した場合、そのユーザはユーザID「U2」により識別されるユーザである。例えば、図3に示した抽出システム1には、ユーザU1が利用する端末装置10や、ユーザU2が利用する端末装置10等の多数の端末装置10が含まれる。
Hereinafter, the user identified by the user ID “U1” may be referred to as “user U1”. Thus, hereinafter, when “user U * (* is an arbitrary numerical value)” is described, this indicates that the user is a user identified by the user ID “U *”. For example, when “user U2” is described, the user is a user identified by the user ID “U2”. For example, the extraction system 1 illustrated in FIG. 3 includes a large number of
図1に示す端末装置10は、ユーザU1によって利用される情報処理装置である。図2に示す端末装置10は、ユーザU2によって利用される情報処理装置である。端末装置10は、ユーザによる種々の操作を受け付ける。なお、端末装置10をユーザと表記する場合がある。すなわち、ユーザを端末装置10と読み替えることもできる。
A
抽出装置100は、所定の期間において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報(位置情報群)を抽出する情報処理装置である。また、抽出装置100は、位置情報群と、位置情報群に対応する行動情報(以下、「対象行動情報」ともいう)とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。
The
〔1−2.移動(位置変化有)について〕
図1の例では、抽出装置100がユーザU1について、日時dt11〜dt18において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。なお、ユーザU1は、端末装置10を利用するユーザであり、抽出装置100は端末装置10が有するGPSセンサ等の機能により端末装置10の位置を取得する。図1に示す地図情報MP1は、ユーザU1の位置を模式的に示す。また、地図情報MP1において、端末装置10(端末装置10を所有するユーザ)の位置を位置LC11〜LC18により示す。なお、位置LC11〜LC18を区別しない場合は、位置LCとする場合がある。また、以下では、抽出装置100がユーザU1の位置やユーザU1の行動情報をリアルタイムに取得する場合を示すが、抽出装置100は適宜のタイミングでユーザU1の位置やユーザU1の行動情報を取得し、抽出処理を行ってもよい。例えば、抽出装置100は、定期的(例えば1日おき)に各ユーザの位置や行動情報を取得し、抽出処理を行ってもよい。
[1-2. About movement (with position change)
In the example of FIG. 1, the
まず、抽出装置100は、日時dt11においてユーザU1の位置LC11を取得する。そして、抽出装置100は、日時dt11よりも後の日時dt12においてユーザU1が、XX公園(関心地点POI1)内にいることを示す位置LC12を取得する。例えば、抽出装置100は、図1に示すXX公園(関心地点POI1)や図2に示すYY映画館(関心地点POI2)のような各種の施設等(関心地点)が所在する位置等、関心地点(POI:Point of Interest)に関する各種情報(以下、「POI情報」ともいう)を有するものとする。
First, the
例えば、抽出装置100は、POI情報と、ユーザU1の位置LCとの比較により、ユーザU1がXX公園に向かっていると推定する。例えば、抽出装置100は、日時dt11よりも後の日時dt12においてユーザU1が、位置LC11とは異なる位置であって、XX公園内にいることを示す位置LC12を取得する。例えば、抽出装置100は、POI情報と、ユーザU1の位置LCの変化との比較により、ユーザU1がXX公園に向かっていると推定する。図1の例では、抽出装置100は、位置LC11、LC12により、ユーザU1がXX公園に向かって(図1では下から上方向へ)移動していると推定する。なお、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。また、抽出装置100は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。
For example, the
そして、抽出装置100は、日時dt12よりも後の日時dt13においてユーザU1が、XX公園内において、位置LC12とは異なる位置にいることを示す位置LC13を取得する。図1の例では、抽出装置100は、位置LC12、LC13により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC12、LC13により、ユーザU1の移動速度を推定する。また、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動速度を推定してもよい。
Then, the
そして、抽出装置100は、日時dt13よりも後の日時dt14においてユーザU1が、XX公園内において、位置LC13とは異なる位置にいることを示す位置LC14を取得する。図1の例では、抽出装置100は、位置LC13、LC14により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC13、LC14により、ユーザU1の移動速度を推定する。
Then, the
そして、抽出装置100は、日時dt14よりも後の日時dt15においてユーザU1が、XX公園内において、位置LC14とは異なる位置にいることを示す位置LC15を取得する。図1の例では、抽出装置100は、位置LC14、LC15により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC14、LC15により、ユーザU1の移動速度を推定する。
Then, the
そして、抽出装置100は、日時dt15よりも後の日時dt16においてユーザU1が、XX公園内において、位置LC15とは異なる位置にいることを示す位置LC16を取得する。図1の例では、抽出装置100は、位置LC15、LC16により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC15、LC16により、ユーザU1の移動速度を推定する。
Then, the
そして、抽出装置100は、日時dt16よりも後の日時dt17においてユーザU1が、XX公園から離れたことを示す位置LC17を取得する。そして、抽出装置100は、日時dt17よりも後の日時dt18においてユーザU1が、Aコンビニ(ショップSP1)にいることを示す位置LC18を取得する。また、抽出装置100は、日時dt18においてユーザU1が、AコンビニでW水を購入したことを示す行動情報AC11を取得する。
Then, the
抽出装置100は、日時dt11〜dt18において検知されたユーザの複数の位置情報LC11〜LC18のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS11)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出装置100は、ユーザU1の位置情報の変化が例えば時速10km等のランニングに対応する速度で変化している位置情報群を抽出する。図1の例では、抽出装置100は、ユーザU1がXX公園(関心地点POI1)においてランニングを行っている際の位置情報群を抽出する。例えば、抽出装置100は、ユーザU1の位置情報の変化が例えば時速10km等でXX公園の周囲を移動している位置情報群を抽出する。
The
図1の例では、XX公園内において、位置LC14から位置LC15への移動は、ユーザU1の周回方向(図1の例では時計回りの方向)に、位置LC12を通過している。抽出装置100は、上記のようなユーザU1の移動経過やユーザU1の速度に基づいて、ユーザU1がXX公園内をランニングしていると推定する。そのため、抽出装置100は、日時dt12〜dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12〜LC16を抽出する。図1の例では、抽出装置100は、日時dt12〜dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12〜LC16を抽出する。
In the example of FIG. 1, in the XX park, the movement from the position LC14 to the position LC15 passes through the position LC12 in the circulation direction of the user U1 (the clockwise direction in the example of FIG. 1). The
そして、抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動のうち、所定の条件を満たす行動(以下、「対象行動」ともいう)を抽出する(ステップS12)。例えば、抽出装置100は、位置情報群(位置情報LC12〜LC16)が検知された対象期間(日時dt12〜dt16)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。図1の例では、抽出装置100は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。抽出装置100は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。図1の例では、抽出装置100は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内の日時dt18においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。また、抽出装置100は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内(例えば1km以内)においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。なお、図1の例では、ユーザU1のみの情報を抽出する例を示したが、多数(例えば、1万人等)のユーザについても同様の情報が抽出されているものとする。
Then, the
そして、抽出装置100は、位置情報群と対象行動情報とに基づいて、モデルを生成する(ステップS13)。図1の例では、抽出装置100は、位置情報LC12〜LC16と、行動情報AC11とに基づいて、モデルM1を生成する。例えば、抽出装置100は、位置情報群が抽出されたユーザが飲料を購入するかを予測するモデルM1を生成する。例えば、抽出装置100は、ランニング後にユーザが飲料を購入するかを予測するモデルM1を生成する。図1の例では、抽出装置100は、ユーザU1を含む多数(例えば、1万人等)のユーザについて抽出した位置情報群を用いて、モデルM1を生成する。
Then, the
例えば、抽出装置100は、行動パターンPT1の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲料の購入が行われたことを示す情報との組合せを正例として、モデルM1を生成する。例えば、抽出装置100は、正例となる位置情報群が入力された場合に、スコア「1」を出力するように学習処理を行うことにより、モデルM1を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「1」に近いスコアを出力する程、行動パターンPT1の行動後に飲料の購入が行われる可能性が高いことを示すモデルM1を生成する。また、例えば、抽出装置100は、飲料の購入が行われていない前後において検知されたユーザの位置情報群を負例として、モデルM1を生成してもよい。例えば、抽出装置100は、負例となる位置情報群が入力された場合に、スコア「0」を出力するように学習処理を行うことにより、モデルM1を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「0」に近いスコアを出力する程、飲料の購入が行われる可能性が低いことを示すモデルM1を生成する。例えば、抽出装置100は、行動パターンPT1の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲料の購入が行われていないことを示す情報との組合せを負例として、モデルM1を生成してもよい。
For example, the
なお、各モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、モデルの生成は、SVM(Support Vector Machine)等の教師あり学習の機械学習に関する技術を用いて行われてもよい。また、例えば、モデルの生成は、教師なし学習の機械学習に関する技術を用いて行われてもよい。例えば、モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、モデルの生成は、DNN(Deep Neural Network)やRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記モデルの生成に関する記載は例示であり、モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。 Each model may be generated using various conventional techniques relating to machine learning as appropriate. For example, the model generation may be performed using a technique related to machine learning of supervised learning such as SVM (Support Vector Machine). Further, for example, the model generation may be performed using a technique related to machine learning of unsupervised learning. For example, the generation of the model may be performed using a deep learning technique. For example, the model generation may be performed by appropriately using various deep learning techniques such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), and CNN (Convolutional Neural Network). The description relating to the generation of the model is merely an example, and the generation of the model may be performed by a learning method appropriately selected according to information that can be acquired.
〔1−3.滞在(位置変化無)について〕
図2の例では、抽出装置100がユーザU2について、日時dt21〜dt26において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。なお、ユーザU2は、端末装置10を利用するユーザであり、抽出装置100は端末装置10が有するGPSセンサ等の機能により端末装置10の位置を取得する。図2に示す地図情報MP2は、ユーザU2の位置を模式的に示す。また、地図情報MP2において、端末装置10(端末装置10を所有するユーザ)の位置を位置LC21〜LC23により示す。なお、位置LC21〜LC23を区別しない場合は、位置LCとする場合がある。また、以下では、抽出装置100がユーザU2の位置やユーザU2の行動情報をリアルタイムに取得する場合を示すが、抽出装置100は適宜のタイミングでユーザU2の位置やユーザU2の行動情報を取得し、抽出処理を行ってもよい。例えば、抽出装置100は、定期的(例えば1時間おき)に各ユーザの位置や行動情報を取得し、抽出処理を行ってもよい。
[1-3. About stay (no change in position)
In the example of FIG. 2, the
まず、抽出装置100は、日時dt21においてユーザU2の位置LC21を取得する。そして、抽出装置100は、日時dt21よりも後の日時dt22においてユーザU2が、YY映画館(関心地点POI2)内にいることを示す位置LC22を取得する。
First, the
例えば、抽出装置100は、POI情報と、ユーザU2の位置LCとの比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、抽出装置100は、日時dt21よりも後の日時dt22においてユーザU2が、位置LC21とは異なる位置であって、YY映画館内にいることを示す位置LC22を取得する。例えば、抽出装置100は、POI情報と、ユーザU2の位置LCの変化との比較により、ユーザU2がYY映画館に向かっていると推定する。図2の例では、抽出装置100は、位置LC21、LC22により、ユーザU2がYY映画館に向かって(図2では下から上方向へ)移動していると推定する。なお、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。また、抽出装置100は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。
For example, the
そして、抽出装置100は、日時dt22よりも後の日時dt23においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22及び日時dt23に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。
Then, the
そして、抽出装置100は、日時dt23よりも後の日時dt24においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22〜日時dt24に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。また、抽出装置100は、日時dt24よりも後の日時dt25においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22〜日時dt25に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。また、例えば、抽出装置100は、ユーザU2の位置LC22が連続して検知された日時dt22〜日時dt25間の時間に基づいて、ユーザU2がYY映画館内において映画を観ていると推定してもよい。例えば、抽出装置100は、日時dt22〜日時dt25間の時間が所定の閾値(例えば1時間30分等)以上である場合、ユーザU2がYY映画館内において映画を観ていると推定してもよい。なお、日時dt22〜日時dt25の各々において検知される位置LC22は、ユーザU2がYY映画館内に位置することが推定できれば位置LC22から所定の範囲(誤差の範囲)内の位置であってもよい。
Then, the
そして、抽出装置100は、日時dt25よりも後の日時dt26においてユーザU2が、YY映画館から離れたことを示す位置LC23を取得する。図2の例では、抽出装置100は、日時dt26においてユーザU2が、Bレストラン(ショップSP2)にいることを示す位置LC23を取得する。また、抽出装置100は、日時dt26においてユーザU2が、Bレストランで飲食を行ったことを示す行動情報AC21を取得する。
Then, the
抽出装置100は、日時dt21〜dt26において検知されたユーザの複数の位置情報LC21〜LC23のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS21)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出装置100は、ユーザU2の位置情報の変化が例えば所定の時間に亘って変更していない位置情報群を抽出する。なお、ここでいう変更していない位置には、誤差の範囲内で変化した位置を含むものとする。図2の例では、抽出装置100は、ユーザU2がYY映画館(関心地点POI2)において滞在している際の位置情報群を抽出する。例えば、抽出装置100は、ユーザU2の位置情報の変化が例えば所定の時間に亘ってYY映画館内にある位置情報群を抽出する。
The
図2の例では、YY映画館内において、位置LC22は、日時dt22〜dt25の間に亘って継続して検知されているため、ユーザU2がYY映画館内に滞在していると推定する。そのため、抽出装置100は、日時dt22〜dt25においてユーザU2がYY映画館内に滞在していることを示す日時dt22〜dt25に各々対応する位置情報LC22を抽出する。図2の例では、抽出装置100は、日時dt22〜dt25においてユーザU2がYY映画館内に滞在していることを示す日時dt22〜dt25に各々対応する複数の位置情報LC22を抽出する。
In the example of FIG. 2, in the YY movie hall, since the position LC22 is continuously detected between the dates dt22 to dt25, it is estimated that the user U2 is staying in the YY movie hall. Therefore, the
そして、抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動のうち、所定の条件を満たす対象行動を抽出する(ステップS22)。例えば、抽出装置100は、位置情報群(4つの位置情報LC22)が検知された対象期間(日時dt22〜dt25)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。図2の例では、抽出装置100は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出装置100は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。図2の例では、抽出装置100は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内の日時dt26においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。また、抽出装置100は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内(例えば2km以内)においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。なお、図2の例では、ユーザU2のみの情報を抽出する例を示したが、多数(例えば、10万人等)のユーザについても同様の情報が抽出されているものとする。
And the
そして、抽出装置100は、位置情報群と対象行動情報とに基づいて、モデルを生成する(ステップS23)。図2の例では、抽出装置100は、4つの位置情報LC22と、行動情報AC21とに基づいて、モデルM2を生成する。例えば、抽出装置100は、位置情報群が抽出されたユーザが飲食を行うか予測するモデルM2を生成する。例えば、抽出装置100は、滞在後にユーザが飲食を行うかを予測するモデルM2を生成する。図2の例では、抽出装置100は、ユーザU2を含む多数(例えば、10万人等)のユーザについて抽出した位置情報群を用いて、モデルM2を生成する。
And the extracting
例えば、抽出装置100は、行動パターンPT2の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲食が行われたことを示す情報との組合せを正例として、モデルM2を生成する。例えば、抽出装置100は、正例となる位置情報群が入力された場合に、スコア「1」を出力するように学習処理を行うことにより、モデルM2を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「1」に近いスコアを出力する程、行動パターンPT2の行動後に飲食が行われる可能性が高いことを示すモデルM2を生成する。また、例えば、抽出装置100は、飲食が行われていない前後において検知されたユーザの位置情報群を負例として、モデルM2を生成してもよい。例えば、抽出装置100は、負例となる位置情報群が入力された場合に、スコア「0」を出力するように学習処理を行うことにより、モデルM2を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「0」に近いスコアを出力する程、飲食が行われる可能性が低いことを示すモデルM2を生成する。例えば、抽出装置100は、行動パターンPT2の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲食が行われていないことを示す情報との組合せを負例として、モデルM2を生成してもよい。
For example, the
上述したように、抽出装置100は、規則性を満たすユーザの情報を適切に抽出することができる。図1の例では、抽出装置100は、ユーザがXX公園を周回するような行動を行っている場合、ユーザの位置が位置の変化に関する所定の規則性を満たすとして、その位置情報群を抽出する。また、抽出装置100は、位置情報群が検知された期間である対象期間外における対象行動を抽出する。これにより、抽出装置100は、ユーザがランニングをしていることを示す位置情報群と、その前後におけるユーザの対象行動とを対応付けて抽出することが可能となる。また、図2の例では、抽出装置100は、ユーザが所定の関心地点(YY映画館等)に滞在している場合、ユーザの位置が位置の変化に関する所定の規則性を満たすとして、その位置情報群を抽出する。これにより、抽出装置100は、ユーザが所定の位置に滞在していることを示す位置情報群と、その前後におけるユーザの対象行動とを対応付けて抽出することが可能となる。また、抽出装置100は、このように抽出された位置情報群を用いてモデルを生成することにより、ユーザの対象行動の発生有無を適切に推定することができるモデルを生成することができる。このように、抽出装置100は、ユーザの行動を適切に推定することができるモデルを生成することができる。
As described above, the
〔1−4.対象行動(時間)及び情報提供〕
上述した例では、位置情報群が検知された期間である対象期間後にユーザが対象行動を行った場合を例に説明したが、ユーザの対象行動は、対象期間よりも前に行われてもよい。例えば、図1の例において、ユーザU1が対象期間(日時dt12〜dt16)よりも前の時点(例えば日時dt10)にZコンビニでX飲料を購入している場合、抽出装置100は、ZコンビニでX飲料の購入を対象行動として抽出してもよい。例えば、抽出装置100は、対象期間の開始時(日時dt12)の位置LC12から所定の範囲内(例えば1km以内)においてユーザU1がZコンビニでX飲料を購入したことを示す行動情報を対象行動情報として抽出する。このように、抽出装置100は、対象期間前におけるユーザの対象行動を抽出し、位置情報群と対象期間前におけるユーザの対象行動とを対応付けて記憶してもよい。また、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を外部の情報処理装置へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近に出店を計画している事業者へ提供してもよい。
[1-4. (Target action (time) and information provision)
In the example described above, the case where the user performs the target action after the target period that is the period in which the position information group is detected has been described as an example. However, the target action of the user may be performed before the target period. . For example, in the example of FIG. 1, when the user U1 purchases X beverage at a Z convenience store at a time point (for example, date dt10) before the target period (dates dt12 to dt16), the
例えば、図2の例において、ユーザU2が対象期間(日時dt22〜dt25)よりも前の時点(例えば日時dt20)にCレストランで飲食を行っている場合、抽出装置100は、Cレストランでの飲食を対象行動として抽出してもよい。例えば、抽出装置100は、対象期間の開始時(日時dt22)の位置LC22から所定の範囲内(例えば2km以内)においてユーザU2がCレストランで飲食を行ったことを示す行動情報を対象行動情報として抽出する。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近に出店を計画している事業者へ提供してもよい。
For example, in the example of FIG. 2, when the user U2 eats and drinks at the C restaurant at a time point (for example, the date and time dt20) before the target period (date and time dt22 to dt25), the
なお、抽出装置100は、位置情報群と対象期間前の対象行動とに基づいて、モデルを生成してもよい。例えば、抽出装置100は、位置情報群が抽出される前にユーザが飲食を行っていたかを推定するモデルを生成してもよい。例えば、抽出装置100は、滞在前にユーザが飲食を行ったかを推定するモデルを生成する。
Note that the
〔1−5.対象行動(空間)及び情報提供〕
上述した例では、ユーザが対象行動を実空間において行った場合を例に説明したが、ユーザの対象行動は実空間に限らず、例えばインターネット空間(ウェブ上)において行われてもよい。
[1-5. (Target action (space) and information provision)
In the example described above, the case where the user performs the target action in the real space has been described as an example. However, the target action of the user is not limited to the real space, and may be performed in, for example, the Internet space (on the web).
例えば、図1の例において、ユーザU1が対象期間(日時dt12〜dt16)後の日時(例えば日時dt17)において、端末装置10によりクエリ「コンビニ」を用いて検索を行っている場合、抽出装置100は、ユーザU1によるクエリ「コンビニ」を用いた検索を対象行動として抽出してもよい。このように、抽出装置100は、対象期間後のウェブ上におけるユーザの対象行動を抽出し、位置情報群とウェブ上におけるユーザの対象行動とを対応付けて記憶してもよい。また、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を外部の情報処理装置へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近に出店を計画している事業者へ提供してもよい。
For example, in the example of FIG. 1, when the user U1 performs a search using the query “convenience store” by the
例えば、図2の例において、ユーザU2が対象期間(日時dt22〜dt25)後の日時(例えば日時dt26)において、端末装置10によりクエリ「レストラン」を用いて検索を行っている場合、抽出装置100は、ユーザU2によるクエリ「レストラン」を用いた検索を対象行動として抽出してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近に出店を計画している事業者へ提供してもよい。このように、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報に基づく、需要を予測する情報を外部の情報処理装置へ提供してもよい。
For example, in the example of FIG. 2, when the user U2 performs a search using the query “restaurant” by the
〔1−6.モデルの利用〕
抽出装置100は、上述した例で生成したモデルM1、M2等を用いてユーザの所定の行動の発生有無を推定してもよい。
[1-6. (Use of model)
The
例えば、抽出装置100は、ユーザU5について抽出した位置情報群をモデルM1に入力することにより、ユーザU5が所定の行動を行うかどうかを予測してもよい。例えば、抽出装置100は、ZZ公園の周囲に位置するユーザU5について抽出した位置情報群をモデルM1に入力し、出力されたスコアが所定の閾値以上である場合、ユーザU5が購入行動を行うと予測してもよい。
For example, the
例えば、抽出装置100は、ユーザU10について抽出した位置情報群をモデルM2に入力することにより、ユーザU10が所定の行動を行うかどうかを予測してもよい。例えば、抽出装置100は、所定の期間位置が変化しないユーザU10について抽出した位置情報群をモデルM2に入力し、出力されたスコアが所定の閾値以上である場合、ユーザU10が飲食を行うと予測してもよい。
For example, the
〔1−7.端末装置側での抽出〕
なお、上述した例では、抽出装置100が端末装置10から取得した複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する例を示したが、各端末装置10が検知した複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出してもよい。この場合、端末装置10が抽出装置であってもよい。この場合、抽出システムには、抽出装置としての端末装置10と、端末装置10が抽出した規則性に関する情報を収集してサービスを提供するサービス提供装置とが含まれてもよい。この点について、以下説明する。
[1-7. (Extraction on the terminal device side)
In the above-described example, the example in which the
各ユーザが利用する端末装置10は、検知した複数の位置情報のうち、各ユーザの位置の変化に関する所定の規則性を満たす位置情報群を抽出する。これにより、端末装置10は、各ユーザ個別の規則性を満たす位置情報群を抽出する。また、端末装置10は、その端末装置10を利用する個別のユーザについて抽出した規則性や位置に対するコンテキスト等に関する情報を生成(計算)し、その結果(情報)をサービス提供装置に送信してもよい。
The
例えば、端末装置10は、「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出し、位置情報群に基づいて生成したその規則性に関する情報(例えば周回移動)等を示す情報やランニング中を示すコンテキスト情報をサービス提供装置に送信してもよい。また、例えば、端末装置10は、「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出し、位置情報群に基づいて生成したその規則性に関する情報(例えば位置変化無し)等を示す情報や一定期間滞在中を示すコンテキスト情報をサービス提供装置に送信してもよい。なお、上記は一例であり、端末装置10は、種々の規則性を示す情報やコンテキストを示す情報を生成してもよい。そして、端末装置10は、生成した情報を、端末装置10を識別する情報や端末装置10を利用するユーザを識別する情報とともに送信してもよい。端末装置10から情報を取得したサービス提供装置は、規則性を示す情報やコンテキストを示す情報と、ユーザとを関連付けて記憶し、その情報に基づいて、各ユーザにサービスを提供してもよい。
For example, the
このような抽出システムにおいては、サーバ側(サービス提供装置)に位置情報を送信することなく、クライアント側(端末装置10)において生成した情報を端末装置10がサービス提供装置に送信し、サービス提供装置がサービスを提供することができる。この場合、例えば、サービス提供装置は、関心地点の一覧情報(POIリスト)と、端末装置10から取得した規則性に関する情報やコンテキストに関する情報に基づいてサービスを提供する。例えば、サービス提供装置は、所定のPOI付近において、同様の規則性を示す情報が取得された場合に、その規則性を示す行動の後に同様の行動を行うと予測してサービスを提供してもよい。例えば、サービス提供装置は、所定のPOI付近において、規則性PTXを示す情報が取得された場合に、その規則性PTXを示す行動の後に商品Xを購入するという行動パターンを示す情報が所定数以上取得されている場合、所定のPOI付近において、規則性PTXを示す情報が取得された端末装置10に、商品Xの購入を促す情報を提供してもよい。なお、上記は一例であり、サービス提供装置は、POIの情報と、ユーザの行動の規則性を示す情報やコンテキストを示す情報に基づいて、種々のサービスを提供してもよい。このように、サービス提供装置は、端末装置10から取得した位置情報よりも抽象度が高い情報に基づいてサービスを提供することができる。これにより、抽出システムにおいては、各ユーザのプライバシーに配慮しつつ、ユーザに対してサービスを提供することができる。
In such an extraction system, the
〔2.抽出装置の構成〕
次に、図4を用いて、実施形態に係る抽出装置100の構成について説明する。図4は、実施形態に係る抽出装置の構成例を示す図である。図4に示すように、抽出装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、抽出装置100は、抽出装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. (Extractor configuration)
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワーク(例えば図3中のネットワークN)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to a network (for example, the network N in FIG. 3) by wire or wireless, and transmits / receives information to / from the
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、ユーザ情報記憶部121と、行動情報記憶部122と、位置情報記憶部123と、モデル情報記憶部124とを有する。なお、図4では、図示を省略するが、記憶部120には、図1に示すXX公園(関心地点POI1)のような各種の施設等(関心地点)が所在する位置等、関心地点に関する各種情報が記憶される。
(Storage unit 120)
The
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性に関する各種情報やユーザの行動に関する各種情報を記憶する。図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。図5に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」といった項目が含まれる。
(User information storage unit 121)
The user
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。 “User ID” indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. “Age” indicates the age of the user identified by the user ID. The “age” may be a specific age of the user identified by the user ID, such as 35 years old. “Gender” indicates the gender of the user identified by the user ID.
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザの年齢は、「30代」であり、性別は、「男性」であることを示す。また、例えば、図5に示す例において、ユーザID「U2」により識別されるユーザの年齢は、「20代」であり、性別は、「女性」であることを示す。 For example, in the example illustrated in FIG. 5, the age of the user identified by the user ID “U1” is “30s”, and the gender is “male”. Further, for example, in the example illustrated in FIG. 5, the age of the user identified by the user ID “U2” is “20s”, and the gender is “female”.
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、年齢や性別に加えて他のデモグラフィック属性情報やサイコグラフィック属性情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、自宅、勤務地、興味、家族構成、収入、ライフスタイル等の情報を記憶してもよい。
The user
(行動情報記憶部122)
実施形態に係る行動情報記憶部122は、ユーザの行動に関する各種情報を記憶する。図6は、実施形態に係る行動情報記憶部の一例を示す図である。例えば、行動情報記憶部122は、各ユーザの行動等の各種の行動情報を記憶する。図6に示す行動情報記憶部122には、「ユーザID」、「行動ID」、「日時」、「種別」、「内容」といった項目が含まれる。
(Behavior information storage unit 122)
The behavior
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動ID」は、ユーザの行動を識別する情報を示す。「日時」は、対応するユーザの行動が行われた日時を示す。なお、図6の例では、「dt18」等で図示するが、「日時」には、「2017年7月6日19時31分52秒」等の具体的な日時が記憶されてもよい。また、「種別」は、対応するユーザの行動の種別に関する情報を示す。また、「内容」は、対応するユーザの行動において対象となった内容を示す。 “User ID” indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. The “behavior ID” indicates information for identifying the user's behavior. “Date and time” indicates the date and time when the corresponding user action was performed. In the example of FIG. 6, “dt18” or the like is illustrated, but “date and time” may store a specific date and time such as “July 6, 2017 19:31:52”. The “type” indicates information related to the type of action of the corresponding user. Further, “content” indicates content that is targeted in the corresponding user's action.
例えば、図6に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、行動ID「AC18」により識別される行動(行動AC18)を行ったことを示す。例えば、図6に示す例においてユーザU1は、日時dt18において、AコンビニでW水の購入(行動AC18)を行ったことを示す。 For example, in the example illustrated in FIG. 6, the user (user U1) identified by the user ID “U1” has performed the action (behavior AC18) identified by the action ID “AC18”. For example, in the example illustrated in FIG. 6, the user U1 indicates that W water has been purchased (action AC18) at the A convenience store at the date dt18.
例えば、図6に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)は、行動ID「AC26」により識別される行動(行動AC26)を行ったことを示す。例えば、図6に示す例においてユーザU2は、日時dt26において、Bレストランでの飲食の決済(行動AC26)を行ったことを示す。すなわち、行動AC26は、ユーザU2がBレストランで飲食を行ったことを示唆する。 For example, in the example illustrated in FIG. 6, the user identified by the user ID “U2” (user U2) indicates that the behavior identified by the behavior ID “AC26” (behavior AC26) has been performed. For example, in the example illustrated in FIG. 6, the user U2 indicates that the settlement of eating and drinking at the restaurant B (action AC26) is performed at the date and time dt26. That is, the action AC26 suggests that the user U2 has eaten or eaten at the B restaurant.
なお、行動情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図6では、ユーザIDごとに行動情報が行動情報記憶部122に記憶される場合を示したが、行動情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。
The behavior
(位置情報記憶部123)
実施形態に係る位置情報記憶部123は、位置に関する各種情報を記憶する。例えば、位置情報記憶部123は、センサにより検知された位置に関する各種情報を記憶する。図7は、実施形態に係る位置情報記憶部の一例を示す図である。図7に示す位置情報記憶部123は、「ユーザID」、「位置情報」といった項目が含まれる。「位置情報」には、「日時」、「位置」といった項目が含まれる。
(Position information storage unit 123)
The position
「ユーザID」は、ユーザを識別するための識別情報を示す。「位置情報」は、ユーザの位置情報の履歴を示す。「日時」は、各位置情報が取得された日時を示す。なお、図7の例では「日時」を抽象的な符号「dt11」等で図示するが、「日時」には、「2017年7月6日18時59分48秒」等の具体的な日時が記憶されてもよい。また、「位置」は、対応する日時における対応するユーザの位置情報を示す。なお、図7の例では「位置」を抽象的な符号「LC11」等で図示するが、「位置」には、具体的な緯度経度情報等が記憶されてもよい。 “User ID” indicates identification information for identifying a user. “Position information” indicates a history of user position information. “Date and time” indicates the date and time when each piece of position information was acquired. In the example of FIG. 7, “date and time” is illustrated by an abstract code “dt11” and the like, but “date and time” is a specific date and time such as “July 6, 2017 18:59:48”. May be stored. “Position” indicates position information of the corresponding user at the corresponding date and time. In the example of FIG. 7, “position” is illustrated by an abstract code “LC11” or the like, but specific latitude and longitude information or the like may be stored in “position”.
例えば、図7に示す例において、ユーザID「U1」により識別されるユーザの位置「LC11」が、日時「dt11」に取得されたことを示す。例えば、ユーザID「U1」により識別されるユーザが利用する端末装置10の位置「LC11」が、日時「dt11」に取得されたことを示す。例えば、図7に示す例において、ユーザID「U1」により識別されるユーザの位置「LC12」が、日時「dt12」に取得されたことを示す。例えば、ユーザID「U1」により識別されるユーザが利用する端末装置10の位置「LC13」が、日時「dt13」に取得されたことを示す。
For example, in the example illustrated in FIG. 7, the user position “LC11” identified by the user ID “U1” is acquired at the date “dt11”. For example, the position “LC11” of the
なお、位置情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、位置情報記憶部123は、抽出処理により抽出された位置情報群であることを示す情報(フラグ)等を記憶してもよい。また、位置情報記憶部123は、ユーザのコンテキストに関する情報を記憶してもよい。
Note that the position
(モデル情報記憶部124)
実施形態に係るモデル情報記憶部124は、モデルに関する情報を記憶する。例えば、モデル情報記憶部124は、生成処理により生成されたモデル情報(モデルデータ)を記憶する。図8は、実施形態に係るモデル情報記憶部の一例を示す図である。図8に示すモデル情報記憶部124は、「モデルID」、「行動パターン」、「モデルデータ」といった項目が含まれる。なお、図8では、モデルM1及びモデルM2のみを図示するが、各行動パターンに対応する複数のモデル情報(モデルM3、M4等)が記憶されてもよい。
(Model information storage unit 124)
The model
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1の例に示したモデルM1に対応する。「行動パターン」は、対応するモデルの行動パターンを示す。また、「行動パターン」には、各行動パターンに対応する条件等が記憶される。例えば、「行動パターンPT1(ランニング)」には、ユーザの行動パターンがランニングに対応するための条件(例えば時速5〜30kmで移動)等が記憶される。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 “Model ID” indicates identification information for identifying a model. For example, the model identified by the model ID “M1” corresponds to the model M1 illustrated in the example of FIG. “Behavior pattern” indicates a behavior pattern of a corresponding model. The “behavior pattern” stores conditions corresponding to each behavior pattern. For example, the “behavior pattern PT1 (running)” stores conditions (for example, movement at a speed of 5 to 30 km per hour) for the user behavior pattern to correspond to running. “Model data” indicates data of a corresponding model associated with the model data. For example, “model data” includes information including nodes in each layer, functions adopted by the nodes, connection relationships between the nodes, and connection coefficients set for connections between the nodes.
例えば、図8に示す例において、モデルID「M1」により識別されるモデル(モデルM1)は、行動パターンが「PT1(ランニング)」であり、行動パターンPT1が行われた前後に対象行動情報が発生するかを予測するために用いられることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。 For example, in the example shown in FIG. 8, the model (model M1) identified by the model ID “M1” has the action pattern “PT1 (running)”, and the target action information before and after the action pattern PT1 is performed. It is used to predict what will happen. The model data of the model M1 is model data MDT1.
モデルM1(モデルデータMDT1)は、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を出力層から出力するよう、コンピュータを機能させるためのモデルである。 The model M1 (model data MDT1) is a user position information group, and an input layer to which a position information group satisfying a predetermined regularity regarding a change in position is input, an output layer, an input layer to an output layer A first element belonging to any layer other than the output layer, and a second element whose value is calculated based on the first element and the weight of the first element, and is input to the input layer The sensor information is used to predict the occurrence of a predetermined action by performing an operation based on the first element and the weight of the first element, with each element belonging to each layer other than the output layer as the first element. This is a model for causing a computer to function so as to output score values from an output layer.
ここで、モデルM1、M2等が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, it is assumed that the models M1, M2, etc. are realized by a regression model represented by “y = a 1 * x 1 + a 2 * x 2 +... + A i * x i ”. In this case, for example, the first element included in the model M1 corresponds to input data (xi) such as x1 or x2. The weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element can correspond to any node of the input layer, and the second element can be regarded as a node of the output layer.
また、モデルM1、M2等がDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 Further, it is assumed that the models M1, M2, etc. are realized by a neural network having one or a plurality of intermediate layers, such as DNN (Deep Neural Network). In this case, for example, the first element included in the model M1 corresponds to any node of the input layer or the intermediate layer. The second element corresponds to the next node, which is a node to which a value is transmitted from the node corresponding to the first element. The weight of the first element corresponds to a connection coefficient that is a weight considered for a value transmitted from a node corresponding to the first element to a node corresponding to the second element.
なお、モデル情報記憶部124は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
The model
(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、抽出装置100内部の記憶装置に記憶されている各種プログラム(抽出プログラムや生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130は、モデル情報記憶部124に記憶されているモデルM1やモデルM2等に従った情報処理により、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を出力層から出力する。
(Control unit 130)
Returning to the description of FIG. 4, the control unit 130 is a controller, and is stored in a storage device inside the
例えば、抽出装置100は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、利用スコアや入札スコアの算出を行う。具体的には、モデルM1、M2等は、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群(すなわち、上述したスコアの算出に用いられる各要素)が入力された場合に、所定の行動の発生有無に関するスコア(すなわち、ユーザが所定の行動を行う可能性がどの程度であるかを示唆するスコア)を出力するように係数が設定される。情報提供装置10は、このようなモデルM1、M2等を用いて、対応する行動パターンにおける各ユーザのスコアを算出する。
For example, the
なお、上記例では、モデルM1、M2等が、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力された場合に、所定の行動の発生有無に関するスコアを出力するモデルである例を示した。しかし、実施形態に係るモデルM1、M2等は、データの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルは、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力とし、モデルM1が出力する利用スコアを出力とするよう学習されたモデル(モデルM1b)であってもよい。または、モデルは、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力とし、モデルM1bの出力値を出力とするよう学習されたモデルであってもよい。 In the above example, when the models M1, M2, etc. are user position information groups, and a position information group satisfying a predetermined regularity related to a change in position is input, a score related to the occurrence of a predetermined action The example which is the model which outputs is shown. However, the models M1, M2, and the like according to the embodiment may be models generated based on results obtained by repeating data input / output. For example, the model is a user's position information group, and a model (model M1b) that is learned to receive a use score output from the model M1 with a position information group that satisfies a predetermined regularity regarding a change in position as an input. ). Alternatively, the model may be a user's position information group that has been learned so that a position information group that satisfies a predetermined regularity regarding a change in position is input and an output value of the model M1b is output. .
また、抽出装置100がGAN(Generative Adversarial Networks)を用いた予測処理を行う場合、モデルM1、M2等は、GANの一部を構成するモデルであってもよい。
Further, when the
図4に示すように、制御部130は、取得部131と、抽出部132と、生成部133と、予測部134と、提供部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As illustrated in FIG. 4, the control unit 130 includes an acquisition unit 131, an extraction unit 132, a
(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、端末装置10等の外部の情報処理装置から各種情報を取得する。例えば、取得部131は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123やモデル情報記憶部124等の記憶部120から各種情報を取得する。例えば、取得部131は、端末装置10が検知した各種の情報を取得する。例えば、取得部131は、端末装置10が検知した位置情報や加速度情報を取得する。
(Acquisition part 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires various types of information from an external information processing device such as the
例えば、取得部131は、所定の期間において検知されたユーザの複数の位置情報を取得する。例えば、取得部131は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報を取得する。 For example, the acquisition unit 131 acquires a plurality of pieces of user position information detected in a predetermined period. For example, the acquisition unit 131 acquires user behavior information outside the target period, which is a period in which the position information group is detected.
図1の例では、取得部131は、日時dt11においてユーザU1の位置LC11を取得する。そして、取得部131は、日時dt11よりも後の日時dt12においてユーザU1が、XX公園(関心地点POI1)内にいることを示す位置LC12を取得する。例えば、取得部131は、日時dt11よりも後の日時dt12においてユーザU1が、位置LC11とは異なる位置であって、XX公園内にいることを示す位置LC12を取得する。例えば、取得部131は、日時dt12よりも後の日時dt13においてユーザU1が、XX公園内において、位置LC12とは異なる位置にいることを示す位置LC13を取得する。例えば、取得部131は、日時dt13よりも後の日時dt14においてユーザU1が、XX公園内において、位置LC13とは異なる位置にいることを示す位置LC14を取得する。 In the example of FIG. 1, the acquisition unit 131 acquires the position LC11 of the user U1 at the date and time dt11. And the acquisition part 131 acquires position LC12 which shows that the user U1 exists in XX park (interesting point POI1) in the date dt12 after the date dt11. For example, the acquisition unit 131 acquires a position LC12 indicating that the user U1 is in a position different from the position LC11 at a date and time dt12 later than the date and time dt11 and is in the XX park. For example, the acquisition unit 131 acquires a position LC13 indicating that the user U1 is in a position different from the position LC12 in the XX park at a date and time dt13 later than the date and time dt12. For example, the acquisition unit 131 acquires a position LC14 indicating that the user U1 is in a position different from the position LC13 in the XX park at a date dt14 later than the date dt13.
例えば、取得部131は、日時dt14よりも後の日時dt15においてユーザU1が、XX公園内において、位置LC14とは異なる位置にいることを示す位置LC15を取得する。例えば、取得部131は、日時dt15よりも後の日時dt16においてユーザU1が、XX公園内において、位置LC15とは異なる位置にいることを示す位置LC16を取得する。例えば、取得部131は、日時dt16よりも後の日時dt17においてユーザU1が、XX公園から離れたことを示す位置LC17を取得する。 For example, the acquisition unit 131 acquires a position LC15 indicating that the user U1 is at a position different from the position LC14 in the XX park at a date and time dt15 later than the date and time dt14. For example, the acquiring unit 131 acquires a position LC16 indicating that the user U1 is at a position different from the position LC15 in the XX park at a date and time dt16 later than the date and time dt15. For example, the acquisition unit 131 acquires a position LC17 indicating that the user U1 has left the XX park at a date and time dt17 later than the date and time dt16.
図1の例では、取得部131は、日時dt17よりも後の日時dt18においてユーザU1が、Aコンビニ(ショップSP1)にいることを示す位置LC18を取得する。例えば、取得部131は、日時dt18においてユーザU1が、AコンビニでW水を購入したことを示す行動情報AC11を取得する。 In the example of FIG. 1, the acquisition unit 131 acquires a position LC18 indicating that the user U1 is at the A convenience store (shop SP1) at a date dt18 later than the date dt17. For example, the acquisition unit 131 acquires action information AC11 indicating that the user U1 purchased W water at the A convenience store at the date dt18.
図2の例では、取得部131は、日時dt21においてユーザU2の位置LC21を取得する。そして、取得部131は、日時dt21よりも後の日時dt22においてユーザU2が、YY映画館(関心地点POI2)内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt21よりも後の日時dt22においてユーザU2が、位置LC21とは異なる位置であって、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt22よりも後の日時dt23においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt23よりも後の日時dt24においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt24よりも後の日時dt25においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt25よりも後の日時dt26においてユーザU2が、YY映画館から離れたことを示す位置LC23を取得する。 In the example of FIG. 2, the acquisition unit 131 acquires the position LC21 of the user U2 at the date and time dt21. Then, the acquiring unit 131 acquires a position LC22 indicating that the user U2 is in the YY movie theater (point of interest POI2) at a date and time dt22 later than the date and time dt21. For example, the acquisition unit 131 acquires a position LC22 indicating that the user U2 is at a position different from the position LC21 and is in the YY movie hall at a date and time dt22 later than the date and time dt21. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie hall at the date dt23 later than the date dt22. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie hall at the date dt24 after the date dt23. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie hall at the date dt25 after the date dt24. For example, the acquiring unit 131 acquires a position LC23 indicating that the user U2 has left the YY movie theater at a date dt26 later than the date dt25.
図2の例では、取得部131は、日時dt26においてユーザU2が、Bレストラン(ショップSP2)にいることを示す位置LC23を取得する。例えば、取得部131は、日時dt26においてユーザU2が、Bレストランで飲食を行ったことを示す行動情報AC21を取得する。 In the example of FIG. 2, the acquisition unit 131 acquires a position LC23 indicating that the user U2 is at the B restaurant (shop SP2) at the date and time dt26. For example, the acquisition unit 131 acquires action information AC21 indicating that the user U2 has eaten or eaten at the restaurant B at the date and time dt26.
(抽出部132)
抽出部132は、各種情報を抽出する。例えば、抽出部132は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123やモデル情報記憶部124等の記憶部120から各種情報を抽出する。
(Extractor 132)
The extraction unit 132 extracts various information. For example, the extraction unit 132 extracts various types of information from the
例えば、抽出部132は、取得部131により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、連続して検知された複数の位置情報を位置情報群として抽出する。 For example, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity regarding a change in position from among a plurality of pieces of position information acquired by the acquisition unit 131. For example, the extraction unit 132 extracts a plurality of pieces of position information detected continuously as a position information group.
例えば、抽出部132は、ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間後における対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。例えば、抽出部132は、対象期間前における対象行動情報を抽出する。例えば、抽出部132は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。 For example, the extraction unit 132 extracts target behavior information that is behavior information satisfying a predetermined condition from user behavior information. For example, the extraction unit 132 extracts target behavior information after the target period. For example, the extraction unit 132 extracts the target behavior information within a predetermined range from the position corresponding to the position information at the end of the target period. For example, the extraction unit 132 extracts target behavior information before the target period. For example, the extraction unit 132 extracts the target behavior information within a predetermined range from the position corresponding to the position information at the start of the target period.
図1の例では、抽出部132は、日時dt11〜dt18において検知されたユーザの複数の位置情報LC11〜LC18のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、ユーザU1の位置情報の変化が例えば時速10km等のランニングに対応する速度で変化している位置情報群を抽出する。例えば、抽出部132は、ユーザU1がXX公園(関心地点POI1)においてランニングを行っている際の位置情報群を抽出する。例えば、抽出部132は、ユーザU1の位置情報の変化が例えば時速10km等でXX公園の周囲を移動している位置情報群を抽出する。例えば、抽出部132は、日時dt12〜dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12〜LC16を抽出する。 In the example of FIG. 1, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity related to a change in position, from among a plurality of pieces of position information LC11 to LC18 of the user detected at dates dt11 to dt18. For example, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity corresponding to the “behavior pattern PT1 (running)” as shown in the model information storage unit 124 (see FIG. 8). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U1 is changing at a speed corresponding to running such as 10 km / h. For example, the extraction unit 132 extracts a position information group when the user U1 is running in the XX park (the point of interest POI1). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U1 is moving around the XX park at, for example, 10 km / h. For example, the extraction unit 132 extracts the position information LC12 to LC16 where the user U1 is moving around the XX park at the date and time dt12 to dt16.
図1の例では、抽出部132は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、位置情報群(位置情報LC12〜LC16)が検知された対象期間(日時dt12〜dt16)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。例えば、抽出部132は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内の日時dt18においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。 In the example of FIG. 1, the extraction unit 132 extracts target behavior information that is behavior information that satisfies a predetermined condition from user behavior information outside the target period, which is a period in which the position information group is detected. For example, the extraction unit 132 includes target behavior information that is behavior information satisfying a predetermined condition among user behavior information outside the target period (dates dt12 to dt16) in which the position information group (position information LC12 to LC16) is detected. To extract. For example, the extraction unit 132 extracts target behavior information that is behavior information satisfying a predetermined condition from user behavior information within a predetermined period (period PD1) from the end of the target period (date and time dt16). For example, the extraction unit 132 may extract target behavior information that is behavior information satisfying a predetermined condition among user behavior information within a predetermined range from the position LC16 at the end of the target period (date dt16). . For example, the extraction unit 132 uses the behavior information AC11 indicating that the user U1 has purchased W water at the A convenience store at the date and time dt18 within the predetermined period (period PD1) from the end of the target period (date and time dt16). Extract as information.
図2の例では、抽出部132は、日時dt21〜dt26において検知されたユーザの複数の位置情報LC21〜LC23のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、ユーザU2の位置情報の変化が例えば所定の時間に亘って変更していない位置情報群を抽出する。例えば、抽出部132は、ユーザU2がYY映画館(関心地点POI2)において滞在している際の位置情報群を抽出する。例えば、抽出部132は、ユーザU2の位置情報の変化が例えば所定の時間に亘ってYY映画館内にある位置情報群を抽出する。例えば、抽出部132は、日時dt22〜dt25においてユーザU2がYY映画館内に滞在していることを示す複数の位置情報LC22を抽出する。 In the example of FIG. 2, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity related to a change in position from the plurality of pieces of position information LC21 to LC23 of the user detected at the dates dt21 to dt26. For example, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity corresponding to the “behavior pattern PT2 (stay)” as shown in the model information storage unit 124 (see FIG. 8). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U2 has not changed over, for example, a predetermined time. For example, the extraction unit 132 extracts a position information group when the user U2 is staying at a YY movie theater (interesting point POI2). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U2 is, for example, in the YY movie hall over a predetermined time. For example, the extraction unit 132 extracts a plurality of pieces of position information LC22 indicating that the user U2 is staying in the YY movie hall at the dates dt22 to dt25.
図2の例では、抽出部132は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、位置情報群(4つの位置情報LC22)が検知された対象期間(日時dt22〜dt25)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。例えば、抽出部132は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内の日時dt26においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。 In the example of FIG. 2, the extraction unit 132 extracts target behavior information that is behavior information satisfying a predetermined condition from user behavior information outside the target period, which is a period in which the position information group is detected. For example, the extraction unit 132 includes target behavior information that is behavior information that satisfies a predetermined condition among user behavior information outside the target period (dates dt22 to dt25) in which the position information group (four position information LC22) is detected. To extract. For example, the extraction unit 132 extracts target behavior information that is behavior information satisfying a predetermined condition from user behavior information within a predetermined period (period PD2) from the end of the target period (date and time dt25). For example, the extraction unit 132 may extract target behavior information that is behavior information satisfying a predetermined condition among user behavior information within a predetermined range from the position LC22 at the end of the target period (date dt25). . For example, the extraction unit 132 uses the behavior information AC21 indicating that the user U2 has eaten or eaten at the restaurant B at the date and time dt26 within the predetermined period (period PD2) from the end of the target period (date and time dt25). Extract as
(生成部133)
生成部133は、各種情報を生成する。例えば、生成部133は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123等に記憶された情報からモデルを生成する。例えば、生成部133は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。例えば、生成部133は、位置情報記憶部123に記憶された位置情報群と、行動情報記憶部122に記憶された対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。
(Generator 133)
The
例えば、生成部133は、モデルM1、M2等を生成し、生成したモデルM1、M2等をモデル情報記憶部124に格納する。なお、生成部133は、いかなる学習アルゴリズムを用いてモデルM1、M2等を生成してもよい。例えば、生成部133は、ニューラルネットワーク(neural network)、サポートベクターマシン(support vector machine)、クラスタリング、強化学習等の学習アルゴリズムを用いてモデルM1、M2等を生成する。一例として、生成部133がニューラルネットワークを用いてモデルM1、M2等を生成する場合、モデルM1、M2等は、一以上のニューロンを含む入力層と、一以上のニューロンを含む中間層と、一以上のニューロンを含む出力層とを有する。
For example, the
図1の例では、生成部133は、位置情報群と対象行動情報とに基づいて、モデルを生成する。例えば、生成部133は、位置情報LC12〜LC16と、行動情報AC11とに基づいて、モデルM1を生成する。例えば、生成部133は、位置情報群が抽出されたユーザが飲料を購入するかを予測するモデルM1を生成する。例えば、生成部133は、ランニング後にユーザが飲料を購入するかを予測するモデルM1を生成する。
In the example of FIG. 1, the
図2の例では、生成部133は、位置情報群と対象行動情報とに基づいて、モデルを生成する。例えば、生成部133は、4つの位置情報LC22と、行動情報AC21とに基づいて、モデルM2を生成する。例えば、生成部133は、位置情報群が抽出されたユーザが飲食を行うか予測するモデルM2を生成する。例えば、生成部133は、滞在後にユーザが飲食を行うかを予測するモデルM2を生成する。
In the example of FIG. 2, the
(予測部134)
予測部134は、各種情報を予測する。例えば、予測部134は、位置情報記憶部123に記憶された位置情報に基づいて、ユーザの所定の行動の有無を予測する。例えば、予測部134は、位置情報記憶部123に記憶された位置情報をモデル情報記憶部124に記憶されたモデルに入力することにより、ユーザの所定の行動の有無を予測する。
(Prediction unit 134)
The prediction unit 134 predicts various types of information. For example, the prediction unit 134 predicts the presence / absence of a predetermined action of the user based on the position information stored in the position
例えば、予測部134は、抽出部132により抽出された位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測する。例えば、予測部134は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測する。 For example, the prediction unit 134 predicts user behavior before and after a predetermined period based on the position information group extracted by the extraction unit 132. For example, the prediction unit 134 is a model used for predicting the occurrence or non-occurrence of a predetermined action, and predicts the presence or absence of the user's predetermined action based on the output of the model to which the position information group is input.
例えば、予測部134は、モデルM1、M2等に従った情報処理により、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力層に入力する。そして、予測部134は、入力データを中間層と出力層に伝播させることで出力層から所定の行動の発生有無に関するスコアを出力させる。 For example, the prediction unit 134 inputs, to the input layer, a position information group that satisfies a predetermined regularity regarding a change in position, which is a position information group of the user, by information processing according to models M1, M2, and the like. Then, the predicting unit 134 causes the input data to propagate to the intermediate layer and the output layer, thereby outputting a score relating to the presence or absence of the predetermined action from the output layer.
図1の例では、予測部134は、POI情報と、ユーザU1の位置LCとの比較により、ユーザU1がXX公園に向かっていると推定する。例えば、予測部134は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。例えば、予測部134は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。
In the example of FIG. 1, the prediction unit 134 estimates that the user U1 is heading to the XX park by comparing the POI information with the position LC of the user U1. For example, the prediction unit 134 may estimate the moving direction of the user based on the acceleration detected by the
図1の例では、予測部134は、POI情報と、ユーザU1の位置LCの変化との比較により、ユーザU1がXX公園に向かっていると推定する。例えば、予測部134は、位置LC11、LC12により、ユーザU1がXX公園に向かって(図1では下から上方向へ)移動していると推定する。例えば、予測部134は、位置LC12、LC13により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC12、LC13により、ユーザU1の移動速度を推定する。例えば、予測部134は、端末装置10が検知した加速度に基づいて、ユーザの移動速度を推定してもよい。例えば、予測部134は、位置LC13、LC14により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC13、LC14により、ユーザU1の移動速度を推定する。例えば、予測部134は、位置LC14、LC15により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC14、LC15により、ユーザU1の移動速度を推定する。例えば、予測部134は、位置LC15、LC16により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC15、LC16により、ユーザU1の移動速度を推定する。例えば、予測部134は、ユーザU1の移動経過やユーザU1の速度に基づいて、ユーザU1がXX公園内をランニングしていると推定する。
In the example of FIG. 1, the prediction unit 134 estimates that the user U1 is heading toward the XX park by comparing the POI information with the change in the position LC of the user U1. For example, the prediction unit 134 estimates that the user U1 is moving toward the XX park (from the bottom to the top in FIG. 1) based on the positions LC11 and LC12. For example, the prediction unit 134 estimates that the user U1 is moving in the XX park based on the positions LC12 and LC13. For example, the prediction unit 134 estimates the moving speed of the user U1 based on the positions LC12 and LC13. For example, the prediction unit 134 may estimate the moving speed of the user based on the acceleration detected by the
図2の例では、予測部134は、POI情報と、ユーザU2の位置LCとの比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、予測部134は、POI情報と、ユーザU2の位置LCの変化との比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、予測部134は、位置LC21、LC22により、ユーザU2がYY映画館に向かって(図2では下から上方向へ)移動していると推定する。例えば、予測部134は、日時dt22及び日時dt23に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。例えば、予測部134は、日時dt22〜日時dt24に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。例えば、予測部134は、日時dt22〜日時dt25に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。 In the example of FIG. 2, the prediction unit 134 estimates that the user U2 is heading for the YY movie theater by comparing the POI information with the position LC of the user U2. For example, the prediction unit 134 estimates that the user U2 is heading for the YY movie theater by comparing the POI information with the change in the position LC of the user U2. For example, the prediction unit 134 estimates that the user U2 is moving toward the YY movie theater (from bottom to top in FIG. 2) at the positions LC21 and LC22. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie hall based on the position LC22 acquired at the date dt22 and the date dt23. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie hall based on the position LC22 acquired from the date dt22 to the date dt24. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie hall based on the position LC22 acquired from the date dt22 to the date dt25.
(提供部135)
提供部135は、種々の情報を提供する。例えば、提供部135は、端末装置10等の外部装置に各種情報を提供する。例えば、提供部135は、モデル情報記憶部124に記憶された各モデルを外部の情報処理装置へ提供する。例えば、提供部135は、予測結果に基づく情報を外部の情報処理装置へ提供する。例えば、提供部135は、XX公園内をランニングしていると推定されたユーザU1の端末装置10に、XX公園付近のコンビニに関する広告を配信してもよい。また、例えば、提供部135は、YY映画館内滞在していると推定されたユーザU2の端末装置10に、YY映画館付近の飲食店(レストラン)に関する広告を配信してもよい。
(Providing unit 135)
The providing unit 135 provides various information. For example, the providing unit 135 provides various types of information to an external device such as the
例えば、提供部135は、抽出部132により抽出された位置情報群に関する情報を所定のサービス提供者に提供してもよい。また、例えば、提供部135は、生成部133により生成されたモデルに関する情報を外部の情報処理装置へ提供してもよい。また、例えば、提供部135は、モデルが出力する情報を外部の情報処理装置へ提供してもよい。なお、上記は一例であり、提供部135は、抽出部132により抽出された位置情報群に基づく、種々の情報を外部の情報処理装置へ提供してもよい。
For example, the providing unit 135 may provide information regarding the position information group extracted by the extracting unit 132 to a predetermined service provider. Further, for example, the providing unit 135 may provide information related to the model generated by the generating
〔3.抽出処理のフロー〕
次に、図9を用いて、実施形態に係る抽出システム1による抽出処理の手順について説明する。図9は、実施形態に係る抽出処理の一例を示すフローチャートである。また、図9に示す抽出処理には、対象行動情報の抽出及びモデルの生成の処理が含まれる。
[3. (Extraction process flow)
Next, the procedure of extraction processing by the extraction system 1 according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of the extraction process according to the embodiment. Further, the extraction process illustrated in FIG. 9 includes extraction of target behavior information and generation of a model.
図9に示すように、抽出装置100は、所定の期間において検知されたユーザの複数の位置情報を取得する(ステップS101)。例えば、抽出装置100は、位置情報記憶部123(図7参照)に示すような位置情報の履歴を取得する。図1の例では、抽出装置100は、端末装置10から日時dt11〜dt18に検知された位置情報LC11〜LC18等を取得する。
As illustrated in FIG. 9, the
また、抽出装置100は、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS102)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような移動に関する行動パターンPT1を満たすような位置情報群を抽出する。図1の例では、抽出装置100は、位置情報LC11〜LC18のうち、XX公園内を周回している位置に対応する位置情報群(位置情報LC12〜LC16)を抽出する。
In addition, the
また、抽出装置100は、ユーザの行動情報のうち、所定の条件を満たす対象行動情報を抽出する(ステップS103)。例えば、抽出装置100は、行動情報記憶部122(図6参照)に示すような行動履歴から、対象期間(日時dt12〜dt16)後における対象行動情報を抽出する。図1の例では、抽出装置100は、日時dt18においてAコンビニでW水を購入したことを示す行動情報AC11を抽出する。
Further, the
そして、抽出装置100は、位置情報群と、対象行動情報とに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する(ステップS104)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような行動パターンPT1に対応するモデルM1を生成する。図1の例では、抽出装置100は、位置情報LC12〜LC16と、位置情報LC12〜LC16に対応する行動情報AC11を正解情報として、モデルM1を生成する。
Then, the
〔4.効果〕
上述してきたように、実施形態に係る抽出装置100は、取得部131と、抽出部132とを有する。取得部131は、所定の期間において検知されたユーザの複数の位置情報を取得する。抽出部132は、取得部131により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。
[4. effect〕
As described above, the
このように、実施形態に係る抽出装置100は、ユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100において、抽出部132は、連続して検知された複数の位置情報を位置情報群として抽出する。
In the
このように、実施形態に係る抽出装置100は、連続して検知された複数の位置情報を位置情報群として抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100は、予測部134を有する。予測部134は、抽出部132により抽出された位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測する。
In addition, the
このように、実施形態に係る抽出装置100は、抽出した位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測することにより、ユーザの行動を適切に予測することができる。
As described above, the
また、実施形態に係る抽出装置100において、予測部134は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測する。
Further, in the
このように、実施形態に係る抽出装置100は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測することにより、ユーザの行動を適切に予測することができる。
As described above, the
また、実施形態に係る抽出装置100において、取得部131は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報を取得する。抽出部132は、ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。
In the
このように、実施形態に係る抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100において、抽出部132は、対象期間後における対象行動情報を抽出する。
In the
このように、実施形態に係る抽出装置100は、対象期間後における対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100において、抽出部132は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。
In the
このように、実施形態に係る抽出装置100は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100において、抽出部132は、対象期間前における対象行動情報を抽出する。
In the
このように、実施形態に係る抽出装置100は、対象期間前における対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100において、抽出部132は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。
In the
このように、実施形態に係る抽出装置100は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100は、生成部133を有する。生成部133は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。
In addition, the
このように、実施形態に係る抽出装置100は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成することにより、ユーザの行動の適切な予測を可能にすることができる。
As described above, the
〔5.ハードウェア構成〕
上述してきた実施形態に係る抽出装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、抽出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration)
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る抽出装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1、M2等)を実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1、M2等)を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. It is possible to implement the present invention in other forms with improvements.
〔6.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.
また、上述してきた各実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the processes described in the embodiments described above can be appropriately combined within a range in which the process contents are not contradictory.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 抽出システム
100 抽出装置
121 ユーザ情報記憶部
122 行動情報記憶部
123 位置情報記憶部
124 モデル情報記憶部
130 制御部
131 取得部
132 抽出部
133 生成部
134 予測部
135 提供部
10 端末装置
N ネットワーク
DESCRIPTION OF SYMBOLS 1
Claims (14)
前記取得部により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出部と、
を備えることを特徴とする抽出装置。 An acquisition unit for acquiring a plurality of pieces of position information of users detected in a predetermined period;
An extraction unit that extracts a position information group that satisfies a predetermined regularity regarding a change in position among the plurality of position information acquired by the acquisition unit;
An extraction device comprising:
連続して検知された複数の位置情報を前記位置情報群として抽出する
ことを特徴とする請求項1に記載の抽出装置。 The extraction unit includes:
The extraction apparatus according to claim 1, wherein a plurality of pieces of position information detected in succession are extracted as the position information group.
をさらに備えることを特徴とする請求項1または請求項2に記載の抽出装置。 A prediction unit that predicts the user's behavior before and after the predetermined period based on the position information group extracted by the extraction unit;
The extraction device according to claim 1, further comprising:
所定の行動の発生有無の予測に用いられるモデルであって、前記位置情報群が入力されたモデルの出力に基づいて、前記ユーザの前記所定の行動の有無を予測する
ことを特徴とする請求項3に記載の抽出装置。 The prediction unit
The model used for predicting the presence or absence of a predetermined action, wherein the presence or absence of the predetermined action of the user is predicted based on an output of the model to which the position information group is input. 3. The extraction device according to 3.
前記位置情報群が検知された期間である対象期間外における前記ユーザの行動情報を取得し、
前記抽出部は、
前記ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する
ことを特徴とする請求項1〜4のいずれか1項に記載の抽出装置。 The acquisition unit
Obtaining the user's behavior information outside the target period, which is a period in which the position information group is detected,
The extraction unit includes:
The extraction device according to claim 1, wherein target behavior information that is behavior information satisfying a predetermined condition is extracted from the user behavior information.
前記対象期間後における前記対象行動情報を抽出する
ことを特徴とする請求項5に記載の抽出装置。 The extraction unit includes:
The extraction apparatus according to claim 5, wherein the target behavior information after the target period is extracted.
前記対象期間の終了時における位置情報に対応する位置から所定の範囲内に前記対象行動情報を抽出する
ことを特徴とする請求項6に記載の抽出装置。 The extraction unit includes:
The extraction apparatus according to claim 6, wherein the target behavior information is extracted within a predetermined range from a position corresponding to the position information at the end of the target period.
前記対象期間前における前記対象行動情報を抽出する
ことを特徴とする請求項5〜7のいずれか1項に記載の抽出装置。 The extraction unit includes:
The extraction device according to any one of claims 5 to 7, wherein the target behavior information before the target period is extracted.
前記対象期間の開始時における位置情報に対応する位置から所定の範囲内に前記対象行動情報を抽出する
ことを特徴とする請求項8に記載の抽出装置。 The extraction unit includes:
The extraction device according to claim 8, wherein the target behavior information is extracted within a predetermined range from a position corresponding to the position information at the start of the target period.
をさらに備えることを特徴とする請求項5〜9のいずれか1項に記載の抽出装置。 A generating unit that generates a model used for predicting the occurrence of a predetermined action based on learning data including the position information group and the target action information corresponding to the position information group;
The extraction apparatus according to claim 5, further comprising:
所定の期間において検知されたユーザの複数の位置情報を取得する取得工程と、
前記取得工程により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出工程と、
を含むことを特徴とする抽出方法。 An extraction method performed by a computer,
An acquisition step of acquiring a plurality of pieces of position information of users detected in a predetermined period;
An extraction step of extracting a position information group satisfying a predetermined regularity regarding a change in position among the plurality of position information acquired by the acquisition step;
The extraction method characterized by including.
前記取得手順により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出手順と、
をコンピュータに実行させることを特徴とする抽出プログラム。 An acquisition procedure for acquiring a plurality of pieces of position information of a user detected in a predetermined period;
An extraction procedure for extracting a position information group satisfying a predetermined regularity related to a change in position among a plurality of pieces of position information acquired by the acquisition procedure;
An extraction program characterized by causing a computer to execute.
入力層と出力層とを有し、前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、前記入力層に入力された前記位置情報群に対し、前記出力層以外の各層に属する各要素を前記第1要素として、前記第1要素と前記第1要素の重みとに基づく演算を行うモデルの前記入力層に入力されることにより、演算結果を示す出力値を前記モデルの前記出力層から出力させ、前記位置情報群に対応する正解情報と前記出力値との比較に基づく学習を行なうよう、
コンピュータを機能させるための学習データ。 Learning data including a position information group of users satisfying a predetermined regularity regarding a change in position, and correct information indicating whether or not a predetermined action by a user corresponding to the position information group has occurred,
A first element having an input layer and an output layer, the layer belonging to any layer from the input layer to the output layer other than the output layer, and weights of the first element and the first element A second element whose value is calculated on the basis of the above, and for each of the position information groups input to the input layer, each element belonging to each layer other than the output layer as the first element, Correct information corresponding to the position information group is output from the output layer of the model by being input to the input layer of the model that performs the calculation based on the weight of the first element. And learning based on the comparison between the output value and
Learning data to make the computer function.
出力層と、
前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、
前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、を含み、
前記入力層に入力されたセンサ情報に対し、前記出力層以外の各層に属する各要素を前記第1要素として、前記第1要素と前記第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を前記出力層から出力するよう、
コンピュータを機能させ生成されたモデル。 An input layer in which a position information group that is a user's position information group and satisfies a predetermined regularity regarding a change in position is input;
The output layer,
A first element belonging to any layer from the input layer to the output layer other than the output layer;
A second element whose value is calculated based on the first element and a weight of the first element;
The sensor information input to the input layer is subjected to a calculation based on the first element and the weight of the first element, with each element belonging to each layer other than the output layer as the first element. So as to output from the output layer the score value used for predicting the occurrence of the behavior of
A model generated by a computer function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143449A JP7221586B2 (en) | 2017-07-25 | 2017-07-25 | Extraction device, extraction method, and extraction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143449A JP7221586B2 (en) | 2017-07-25 | 2017-07-25 | Extraction device, extraction method, and extraction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019028488A true JP2019028488A (en) | 2019-02-21 |
JP7221586B2 JP7221586B2 (en) | 2023-02-14 |
Family
ID=65476294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017143449A Active JP7221586B2 (en) | 2017-07-25 | 2017-07-25 | Extraction device, extraction method, and extraction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7221586B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008065381A (en) * | 2006-09-04 | 2008-03-21 | Toyota Motor Corp | Vehicle with outside user protecting function |
JP2008123317A (en) * | 2006-11-14 | 2008-05-29 | Dainippon Printing Co Ltd | Information providing system |
JP2010014592A (en) * | 2008-07-04 | 2010-01-21 | Univ Waseda | Moving means determining device and moving means determination method |
US20110071881A1 (en) * | 2009-09-18 | 2011-03-24 | Microsoft Corporation | Mining life pattern based on location history |
JP2011081431A (en) * | 2009-10-02 | 2011-04-21 | Sony Corp | Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program |
JP2011198292A (en) * | 2010-03-23 | 2011-10-06 | Nippon Telegr & Teleph Corp <Ntt> | Modeling device, method, and program for action prediction, and prediction device, method, and program using the modeling information |
-
2017
- 2017-07-25 JP JP2017143449A patent/JP7221586B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008065381A (en) * | 2006-09-04 | 2008-03-21 | Toyota Motor Corp | Vehicle with outside user protecting function |
JP2008123317A (en) * | 2006-11-14 | 2008-05-29 | Dainippon Printing Co Ltd | Information providing system |
JP2010014592A (en) * | 2008-07-04 | 2010-01-21 | Univ Waseda | Moving means determining device and moving means determination method |
US20110071881A1 (en) * | 2009-09-18 | 2011-03-24 | Microsoft Corporation | Mining life pattern based on location history |
JP2011081431A (en) * | 2009-10-02 | 2011-04-21 | Sony Corp | Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program |
JP2011198292A (en) * | 2010-03-23 | 2011-10-06 | Nippon Telegr & Teleph Corp <Ntt> | Modeling device, method, and program for action prediction, and prediction device, method, and program using the modeling information |
Also Published As
Publication number | Publication date |
---|---|
JP7221586B2 (en) | 2023-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10726438B2 (en) | Personalized contextual coupon engine | |
CN104170472B (en) | Focus is provided to the user's set in server controls region | |
US11030653B2 (en) | Dynamic geofencing based on an availability of a product | |
TW201303773A (en) | Multi-step impression campaigns | |
US20170293860A1 (en) | System and methods for suggesting beneficial actions | |
JP6823612B2 (en) | Predictors, prediction methods, and prediction programs | |
JP6804505B2 (en) | Predictors, prediction methods, and prediction programs | |
JP6753833B2 (en) | Grant device, grant method, grant program, and program | |
JP2018129004A (en) | Generation apparatus, generation method, and generation program | |
US20160042367A1 (en) | Networked Location Targeted Communication and Analytics | |
US10491709B2 (en) | Time and location based distribution of additional content for content items | |
JP7249103B2 (en) | Selection device, selection method and selection program | |
JP6374573B1 (en) | Generating device, generating method, and generating program | |
JP6809993B2 (en) | Extractor, extraction method, extraction program, and model | |
JP6852019B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP6983739B2 (en) | Information processing equipment, information processing methods and information processing programs | |
JP7221586B2 (en) | Extraction device, extraction method, and extraction program | |
JP6882116B2 (en) | Generator, generation method, generation program, training data, and model | |
JP2019036116A (en) | Decision device, decision method, and decision program | |
JP2020177532A (en) | Generation device, generation method, and generation program | |
JP6587660B2 (en) | Estimation apparatus, estimation method, and estimation program | |
JP2018152124A (en) | Extraction device, extraction method, and extraction program | |
JP7071940B2 (en) | Providing equipment, providing method and providing program | |
JP6918748B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP6797870B2 (en) | Generation device, generation method, and generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210603 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220203 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220203 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220215 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220222 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20220318 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20220329 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220705 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221007 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20221011 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20221122 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20230104 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7221586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |