JP7221586B2 - Extraction device, extraction method, and extraction program - Google Patents
Extraction device, extraction method, and extraction program Download PDFInfo
- Publication number
- JP7221586B2 JP7221586B2 JP2017143449A JP2017143449A JP7221586B2 JP 7221586 B2 JP7221586 B2 JP 7221586B2 JP 2017143449 A JP2017143449 A JP 2017143449A JP 2017143449 A JP2017143449 A JP 2017143449A JP 7221586 B2 JP7221586 B2 JP 7221586B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- position information
- extraction
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000605 extraction Methods 0.000 title claims description 285
- 230000006399 behavior Effects 0.000 claims description 132
- 230000009471 action Effects 0.000 claims description 129
- 239000000284 extract Substances 0.000 claims description 110
- 238000000034 method Methods 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 16
- 230000000875 corresponding effect Effects 0.000 description 38
- 238000012545 processing Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 17
- 230000010365 information processing Effects 0.000 description 17
- 230000006870 function Effects 0.000 description 13
- 230000001133 acceleration Effects 0.000 description 11
- 235000013361 beverage Nutrition 0.000 description 10
- 230000035622 drinking Effects 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000007796 conventional method Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 101001111655 Homo sapiens Retinol dehydrogenase 11 Proteins 0.000 description 2
- 102100031829 Myosin light polypeptide 6 Human genes 0.000 description 2
- 101710101143 Myosin light polypeptide 6 Proteins 0.000 description 2
- 102100023916 Retinol dehydrogenase 11 Human genes 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、抽出装置、抽出方法、及び抽出プログラムに関する。 The present invention relates to an extraction device, an extraction method, and an extraction program .
従来、ユーザの行動に関する情報を抽出する技術が提供されている。例えば、ユーザの行動や移動に伴って断続的に得られる履歴情報を用いながら、ユーザが立ち寄った又は滞在した施設を間接的に推定する技術が提供されている。 Conventionally, techniques for extracting information on user behavior have been provided. For example, there is provided a technology for indirectly estimating the facility where the user visited or stayed while using history information intermittently obtained along with the user's actions and movements.
しかしながら、上記の従来技術では、規則性を満たすユーザの情報を適切に抽出することが難しい場合がある。例えば、ユーザの行動や移動に伴って断続的に得られる履歴情報を用いるだけでは、例えばユーザの行動の連続による行動に関する情報等を適切に抽出することが難しい場合がある。 However, with the conventional technology described above, it may be difficult to appropriately extract user information that satisfies the regularity. For example, it may be difficult to appropriately extract, for example, information related to a user's continuous behavior only by using history information intermittently obtained according to the user's behavior or movement.
本願は、上記に鑑みてなされたものであって、規則性を満たすユーザの情報を適切に抽出する抽出装置、抽出方法、及び抽出プログラムを提供することを目的とする。 The present application has been made in view of the above, and aims to provide an extraction device, an extraction method, and an extraction program for appropriately extracting user information that satisfies regularity.
本願に係る抽出装置は、所定の期間において検知されたユーザの複数の位置情報を取得する取得部と、前記取得部により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出部とを備えたことを特徴とする。 An extraction device according to the present application includes an acquisition unit that acquires a plurality of pieces of location information of a user detected during a predetermined period of time, and a predetermined regularity regarding changes in location among the pieces of location information acquired by the acquisition unit. and an extraction unit for extracting a group of position information that satisfies the requirements.
実施形態の一態様によれば、規則性を満たすユーザの情報を適切に抽出することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to appropriately extract user information that satisfies the regularity.
以下に、本願に係る抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments for implementing the extraction device, extraction method, extraction program, learning data, and model (hereinafter referred to as "embodiments") according to the present application will be described in detail below with reference to the drawings. Note that the extraction device, extraction method, extraction program, learning data, and model according to the present application are not limited by this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.
(実施形態)
〔1.抽出処理〕
図1及び図2を用いて、実施形態に係る抽出処理の一例について説明する。図1及び図2は、実施形態に係る抽出処理の一例を示す図である。図1及び図2の例では、ユーザが利用する端末装置10が検知したセンサ情報(位置情報)から、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。また、図1及び図2に示す抽出処理には、位置情報群とユーザの所定の行動の有無を示す情報を用いてモデルを生成する処理が含まれる。なお、抽出処理には、モデルを生成する処理が含まれなくてもよい。
(embodiment)
[1. Extraction process]
An example of extraction processing according to the embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 and 2 are diagrams illustrating an example of extraction processing according to an embodiment. The examples of FIGS. 1 and 2 show the case of extracting a position information group that satisfies a predetermined regularity regarding changes in position from sensor information (position information) detected by the
〔1-1.抽出システムの構成〕
まず、図1及び図2の説明に先立って、図3に示す抽出システム1について説明する。図3に示すように、抽出システム1は、端末装置10と、抽出装置100とが含まれる。端末装置10と、抽出装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る抽出システムの構成例を示す図である。なお、図3に示した抽出システム1には、複数台の端末装置10や、複数台の抽出装置100が含まれてもよい。
[1-1. Configuration of extraction system]
First, before describing FIGS. 1 and 2, an
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1及び図2は、端末装置10がスマートフォンである場合を示す。
The
また、端末装置10は、GPS(Global Positioning System)センサ等の機能を有し、ユーザの位置情報(センサ情報)を検知し、取得するものとする。また、端末装置10は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。
Also, the
また、端末装置10は、GPSセンサ等に限らず種々のセンサにより、各種センサ情報を検知してもよい。例えば、端末装置10は、加速度センサの機能を有し、ユーザの移動における加速度情報(センサ情報)を検知し、取得可能であってもよい。また、端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。また、端末装置10は、心拍センサ等の種々の機能を有し、ユーザの生体情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。
Moreover, the
また、端末装置10は、ユーザによる操作を受け付ける。また、端末装置10は、抽出装置100に種々の情報を送信する。例えば、端末装置10は、抽出装置100に位置情報や行動情報等を送信する。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。
Also, the
以下では、ユーザID「U1」により識別されるユーザを「ユーザU1」とする場合がある。このように、以下では、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU2」と記載した場合、そのユーザはユーザID「U2」により識別されるユーザである。例えば、図3に示した抽出システム1には、ユーザU1が利用する端末装置10や、ユーザU2が利用する端末装置10等の多数の端末装置10が含まれる。
Hereinafter, the user identified by the user ID "U1" may be referred to as "user U1". Thus, hereinafter, when "user U* (* is an arbitrary number)" is described, it indicates that the user is identified by the user ID "U*". For example, when "user U2" is described, the user is identified by the user ID "U2". For example, the
図1に示す端末装置10は、ユーザU1によって利用される情報処理装置である。図2に示す端末装置10は、ユーザU2によって利用される情報処理装置である。端末装置10は、ユーザによる種々の操作を受け付ける。なお、端末装置10をユーザと表記する場合がある。すなわち、ユーザを端末装置10と読み替えることもできる。
A
抽出装置100は、所定の期間において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報(位置情報群)を抽出する情報処理装置である。また、抽出装置100は、位置情報群と、位置情報群に対応する行動情報(以下、「対象行動情報」ともいう)とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。
The
〔1-2.移動(位置変化有)について〕
図1の例では、抽出装置100がユーザU1について、日時dt11~dt18において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。なお、ユーザU1は、端末装置10を利用するユーザであり、抽出装置100は端末装置10が有するGPSセンサ等の機能により端末装置10の位置を取得する。図1に示す地図情報MP1は、ユーザU1の位置を模式的に示す。また、地図情報MP1において、端末装置10(端末装置10を所有するユーザ)の位置を位置LC11~LC18により示す。なお、位置LC11~LC18を区別しない場合は、位置LCとする場合がある。また、以下では、抽出装置100がユーザU1の位置やユーザU1の行動情報をリアルタイムに取得する場合を示すが、抽出装置100は適宜のタイミングでユーザU1の位置やユーザU1の行動情報を取得し、抽出処理を行ってもよい。例えば、抽出装置100は、定期的(例えば1日おき)に各ユーザの位置や行動情報を取得し、抽出処理を行ってもよい。
[1-2. Regarding movement (with position change)]
The example of FIG. 1 shows a case where the
まず、抽出装置100は、日時dt11においてユーザU1の位置LC11を取得する。そして、抽出装置100は、日時dt11よりも後の日時dt12においてユーザU1が、XX公園(関心地点POI1)内にいることを示す位置LC12を取得する。例えば、抽出装置100は、図1に示すXX公園(関心地点POI1)や図2に示すYY映画館(関心地点POI2)のような各種の施設等(関心地点)が所在する位置等、関心地点(POI:Point of Interest)に関する各種情報(以下、「POI情報」ともいう)を有するものとする。
First, the
例えば、抽出装置100は、POI情報と、ユーザU1の位置LCとの比較により、ユーザU1がXX公園に向かっていると推定する。例えば、抽出装置100は、日時dt11よりも後の日時dt12においてユーザU1が、位置LC11とは異なる位置であって、XX公園内にいることを示す位置LC12を取得する。例えば、抽出装置100は、POI情報と、ユーザU1の位置LCの変化との比較により、ユーザU1がXX公園に向かっていると推定する。図1の例では、抽出装置100は、位置LC11、LC12により、ユーザU1がXX公園に向かって(図1では下から上方向へ)移動していると推定する。なお、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。また、抽出装置100は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。
For example, the
そして、抽出装置100は、日時dt12よりも後の日時dt13においてユーザU1が、XX公園内において、位置LC12とは異なる位置にいることを示す位置LC13を取得する。図1の例では、抽出装置100は、位置LC12、LC13により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC12、LC13により、ユーザU1の移動速度を推定する。また、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動速度を推定してもよい。
Then, the
そして、抽出装置100は、日時dt13よりも後の日時dt14においてユーザU1が、XX公園内において、位置LC13とは異なる位置にいることを示す位置LC14を取得する。図1の例では、抽出装置100は、位置LC13、LC14により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC13、LC14により、ユーザU1の移動速度を推定する。
Then, the
そして、抽出装置100は、日時dt14よりも後の日時dt15においてユーザU1が、XX公園内において、位置LC14とは異なる位置にいることを示す位置LC15を取得する。図1の例では、抽出装置100は、位置LC14、LC15により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC14、LC15により、ユーザU1の移動速度を推定する。
Then, the
そして、抽出装置100は、日時dt15よりも後の日時dt16においてユーザU1が、XX公園内において、位置LC15とは異なる位置にいることを示す位置LC16を取得する。図1の例では、抽出装置100は、位置LC15、LC16により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC15、LC16により、ユーザU1の移動速度を推定する。
Then, the
そして、抽出装置100は、日時dt16よりも後の日時dt17においてユーザU1が、XX公園から離れたことを示す位置LC17を取得する。そして、抽出装置100は、日時dt17よりも後の日時dt18においてユーザU1が、Aコンビニ(ショップSP1)にいることを示す位置LC18を取得する。また、抽出装置100は、日時dt18においてユーザU1が、AコンビニでW水を購入したことを示す行動情報AC11を取得する。
Then, the
抽出装置100は、日時dt11~dt18において検知されたユーザの複数の位置情報LC11~LC18のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS11)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出装置100は、ユーザU1の位置情報の変化が例えば時速10km等のランニングに対応する速度で変化している位置情報群を抽出する。図1の例では、抽出装置100は、ユーザU1がXX公園(関心地点POI1)においてランニングを行っている際の位置情報群を抽出する。例えば、抽出装置100は、ユーザU1の位置情報の変化が例えば時速10km等でXX公園の周囲を移動している位置情報群を抽出する。
The
図1の例では、XX公園内において、位置LC14から位置LC15への移動は、ユーザU1の周回方向(図1の例では時計回りの方向)に、位置LC12を通過している。抽出装置100は、上記のようなユーザU1の移動経過やユーザU1の速度に基づいて、ユーザU1がXX公園内をランニングしていると推定する。そのため、抽出装置100は、日時dt12~dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12~LC16を抽出する。図1の例では、抽出装置100は、日時dt12~dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12~LC16を抽出する。
In the example of FIG. 1, movement from position LC14 to position LC15 in XX park passes through position LC12 in the circling direction of user U1 (clockwise direction in the example of FIG. 1). The
そして、抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動のうち、所定の条件を満たす行動(以下、「対象行動」ともいう)を抽出する(ステップS12)。例えば、抽出装置100は、位置情報群(位置情報LC12~LC16)が検知された対象期間(日時dt12~dt16)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。図1の例では、抽出装置100は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。抽出装置100は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。図1の例では、抽出装置100は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内の日時dt18においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。また、抽出装置100は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内(例えば1km以内)においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。なお、図1の例では、ユーザU1のみの情報を抽出する例を示したが、多数(例えば、1万人等)のユーザについても同様の情報が抽出されているものとする。
Then, the
そして、抽出装置100は、位置情報群と対象行動情報とに基づいて、モデルを生成する(ステップS13)。図1の例では、抽出装置100は、位置情報LC12~LC16と、行動情報AC11とに基づいて、モデルM1を生成する。例えば、抽出装置100は、位置情報群が抽出されたユーザが飲料を購入するかを予測するモデルM1を生成する。例えば、抽出装置100は、ランニング後にユーザが飲料を購入するかを予測するモデルM1を生成する。図1の例では、抽出装置100は、ユーザU1を含む多数(例えば、1万人等)のユーザについて抽出した位置情報群を用いて、モデルM1を生成する。
Then, the
例えば、抽出装置100は、行動パターンPT1の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲料の購入が行われたことを示す情報との組合せを正例として、モデルM1を生成する。例えば、抽出装置100は、正例となる位置情報群が入力された場合に、スコア「1」を出力するように学習処理を行うことにより、モデルM1を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「1」に近いスコアを出力する程、行動パターンPT1の行動後に飲料の購入が行われる可能性が高いことを示すモデルM1を生成する。また、例えば、抽出装置100は、飲料の購入が行われていない前後において検知されたユーザの位置情報群を負例として、モデルM1を生成してもよい。例えば、抽出装置100は、負例となる位置情報群が入力された場合に、スコア「0」を出力するように学習処理を行うことにより、モデルM1を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「0」に近いスコアを出力する程、飲料の購入が行われる可能性が低いことを示すモデルM1を生成する。例えば、抽出装置100は、行動パターンPT1の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲料の購入が行われていないことを示す情報との組合せを負例として、モデルM1を生成してもよい。
For example, the
なお、各モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、モデルの生成は、SVM(Support Vector Machine)等の教師あり学習の機械学習に関する技術を用いて行われてもよい。また、例えば、モデルの生成は、教師なし学習の機械学習に関する技術を用いて行われてもよい。例えば、モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、モデルの生成は、DNN(Deep Neural Network)やRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記モデルの生成に関する記載は例示であり、モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。 Note that each model may be generated using various conventional techniques related to machine learning as appropriate. For example, a model may be generated using a technology related to supervised learning machine learning such as SVM (Support Vector Machine). Also, for example, model generation may be performed using techniques related to unsupervised machine learning. For example, model generation may be performed using deep learning techniques. For example, the model may be generated using various deep learning techniques such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), and CNN (Convolutional Neural Network). Note that the above description of model generation is an example, and model generation may be performed by a learning method appropriately selected according to obtainable information and the like.
〔1-3.滞在(位置変化無)について〕
図2の例では、抽出装置100がユーザU2について、日時dt21~dt26において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。なお、ユーザU2は、端末装置10を利用するユーザであり、抽出装置100は端末装置10が有するGPSセンサ等の機能により端末装置10の位置を取得する。図2に示す地図情報MP2は、ユーザU2の位置を模式的に示す。また、地図情報MP2において、端末装置10(端末装置10を所有するユーザ)の位置を位置LC21~LC23により示す。なお、位置LC21~LC23を区別しない場合は、位置LCとする場合がある。また、以下では、抽出装置100がユーザU2の位置やユーザU2の行動情報をリアルタイムに取得する場合を示すが、抽出装置100は適宜のタイミングでユーザU2の位置やユーザU2の行動情報を取得し、抽出処理を行ってもよい。例えば、抽出装置100は、定期的(例えば1時間おき)に各ユーザの位置や行動情報を取得し、抽出処理を行ってもよい。
[1-3. Regarding stay (no position change)]
The example of FIG. 2 shows a case where the
まず、抽出装置100は、日時dt21においてユーザU2の位置LC21を取得する。そして、抽出装置100は、日時dt21よりも後の日時dt22においてユーザU2が、YY映画館(関心地点POI2)内にいることを示す位置LC22を取得する。
First, the
例えば、抽出装置100は、POI情報と、ユーザU2の位置LCとの比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、抽出装置100は、日時dt21よりも後の日時dt22においてユーザU2が、位置LC21とは異なる位置であって、YY映画館内にいることを示す位置LC22を取得する。例えば、抽出装置100は、POI情報と、ユーザU2の位置LCの変化との比較により、ユーザU2がYY映画館に向かっていると推定する。図2の例では、抽出装置100は、位置LC21、LC22により、ユーザU2がYY映画館に向かって(図2では下から上方向へ)移動していると推定する。なお、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。また、抽出装置100は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。
For example, the
そして、抽出装置100は、日時dt22よりも後の日時dt23においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22及び日時dt23に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。
Then, the
そして、抽出装置100は、日時dt23よりも後の日時dt24においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22~日時dt24に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。また、抽出装置100は、日時dt24よりも後の日時dt25においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22~日時dt25に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。また、例えば、抽出装置100は、ユーザU2の位置LC22が連続して検知された日時dt22~日時dt25間の時間に基づいて、ユーザU2がYY映画館内において映画を観ていると推定してもよい。例えば、抽出装置100は、日時dt22~日時dt25間の時間が所定の閾値(例えば1時間30分等)以上である場合、ユーザU2がYY映画館内において映画を観ていると推定してもよい。なお、日時dt22~日時dt25の各々において検知される位置LC22は、ユーザU2がYY映画館内に位置することが推定できれば位置LC22から所定の範囲(誤差の範囲)内の位置であってもよい。
Then, the
そして、抽出装置100は、日時dt25よりも後の日時dt26においてユーザU2が、YY映画館から離れたことを示す位置LC23を取得する。図2の例では、抽出装置100は、日時dt26においてユーザU2が、Bレストラン(ショップSP2)にいることを示す位置LC23を取得する。また、抽出装置100は、日時dt26においてユーザU2が、Bレストランで飲食を行ったことを示す行動情報AC21を取得する。
Then, the
抽出装置100は、日時dt21~dt26において検知されたユーザの複数の位置情報LC21~LC23のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS21)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出装置100は、ユーザU2の位置情報の変化が例えば所定の時間に亘って変更していない位置情報群を抽出する。なお、ここでいう変更していない位置には、誤差の範囲内で変化した位置を含むものとする。図2の例では、抽出装置100は、ユーザU2がYY映画館(関心地点POI2)において滞在している際の位置情報群を抽出する。例えば、抽出装置100は、ユーザU2の位置情報の変化が例えば所定の時間に亘ってYY映画館内にある位置情報群を抽出する。
The
図2の例では、YY映画館内において、位置LC22は、日時dt22~dt25の間に亘って継続して検知されているため、ユーザU2がYY映画館内に滞在していると推定する。そのため、抽出装置100は、日時dt22~dt25においてユーザU2がYY映画館内に滞在していることを示す日時dt22~dt25に各々対応する位置情報LC22を抽出する。図2の例では、抽出装置100は、日時dt22~dt25においてユーザU2がYY映画館内に滞在していることを示す日時dt22~dt25に各々対応する複数の位置情報LC22を抽出する。
In the example of FIG. 2, since the position LC22 is continuously detected in the YY movie theater during the period from dt22 to dt25, it is estimated that the user U2 is staying in the YY movie theater. Therefore, the
そして、抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動のうち、所定の条件を満たす対象行動を抽出する(ステップS22)。例えば、抽出装置100は、位置情報群(4つの位置情報LC22)が検知された対象期間(日時dt22~dt25)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。図2の例では、抽出装置100は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出装置100は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。図2の例では、抽出装置100は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内の日時dt26においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。また、抽出装置100は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内(例えば2km以内)においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。なお、図2の例では、ユーザU2のみの情報を抽出する例を示したが、多数(例えば、10万人等)のユーザについても同様の情報が抽出されているものとする。
Then, the
そして、抽出装置100は、位置情報群と対象行動情報とに基づいて、モデルを生成する(ステップS23)。図2の例では、抽出装置100は、4つの位置情報LC22と、行動情報AC21とに基づいて、モデルM2を生成する。例えば、抽出装置100は、位置情報群が抽出されたユーザが飲食を行うか予測するモデルM2を生成する。例えば、抽出装置100は、滞在後にユーザが飲食を行うかを予測するモデルM2を生成する。図2の例では、抽出装置100は、ユーザU2を含む多数(例えば、10万人等)のユーザについて抽出した位置情報群を用いて、モデルM2を生成する。
Then, the
例えば、抽出装置100は、行動パターンPT2の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲食が行われたことを示す情報との組合せを正例として、モデルM2を生成する。例えば、抽出装置100は、正例となる位置情報群が入力された場合に、スコア「1」を出力するように学習処理を行うことにより、モデルM2を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「1」に近いスコアを出力する程、行動パターンPT2の行動後に飲食が行われる可能性が高いことを示すモデルM2を生成する。また、例えば、抽出装置100は、飲食が行われていない前後において検知されたユーザの位置情報群を負例として、モデルM2を生成してもよい。例えば、抽出装置100は、負例となる位置情報群が入力された場合に、スコア「0」を出力するように学習処理を行うことにより、モデルM2を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「0」に近いスコアを出力する程、飲食が行われる可能性が低いことを示すモデルM2を生成する。例えば、抽出装置100は、行動パターンPT2の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲食が行われていないことを示す情報との組合せを負例として、モデルM2を生成してもよい。
For example, the
上述したように、抽出装置100は、規則性を満たすユーザの情報を適切に抽出することができる。図1の例では、抽出装置100は、ユーザがXX公園を周回するような行動を行っている場合、ユーザの位置が位置の変化に関する所定の規則性を満たすとして、その位置情報群を抽出する。また、抽出装置100は、位置情報群が検知された期間である対象期間外における対象行動を抽出する。これにより、抽出装置100は、ユーザがランニングをしていることを示す位置情報群と、その前後におけるユーザの対象行動とを対応付けて抽出することが可能となる。また、図2の例では、抽出装置100は、ユーザが所定の関心地点(YY映画館等)に滞在している場合、ユーザの位置が位置の変化に関する所定の規則性を満たすとして、その位置情報群を抽出する。これにより、抽出装置100は、ユーザが所定の位置に滞在していることを示す位置情報群と、その前後におけるユーザの対象行動とを対応付けて抽出することが可能となる。また、抽出装置100は、このように抽出された位置情報群を用いてモデルを生成することにより、ユーザの対象行動の発生有無を適切に推定することができるモデルを生成することができる。このように、抽出装置100は、ユーザの行動を適切に推定することができるモデルを生成することができる。
As described above, the
〔1-4.対象行動(時間)及び情報提供〕
上述した例では、位置情報群が検知された期間である対象期間後にユーザが対象行動を行った場合を例に説明したが、ユーザの対象行動は、対象期間よりも前に行われてもよい。例えば、図1の例において、ユーザU1が対象期間(日時dt12~dt16)よりも前の時点(例えば日時dt10)にZコンビニでX飲料を購入している場合、抽出装置100は、ZコンビニでX飲料の購入を対象行動として抽出してもよい。例えば、抽出装置100は、対象期間の開始時(日時dt12)の位置LC12から所定の範囲内(例えば1km以内)においてユーザU1がZコンビニでX飲料を購入したことを示す行動情報を対象行動情報として抽出する。このように、抽出装置100は、対象期間前におけるユーザの対象行動を抽出し、位置情報群と対象期間前におけるユーザの対象行動とを対応付けて記憶してもよい。また、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を外部の情報処理装置へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近に出店を計画している事業者へ提供してもよい。
[1-4. Target behavior (time) and information provision]
In the above example, the case where the user performs the target action after the target period during which the position information group is detected has been described as an example, but the user's target action may be performed before the target period. . For example, in the example of FIG. 1, when user U1 purchases X beverage at Z convenience store at a point in time (for example, date and time dt10) before the target period (dates dt12 to dt16),
例えば、図2の例において、ユーザU2が対象期間(日時dt22~dt25)よりも前の時点(例えば日時dt20)にCレストランで飲食を行っている場合、抽出装置100は、Cレストランでの飲食を対象行動として抽出してもよい。例えば、抽出装置100は、対象期間の開始時(日時dt22)の位置LC22から所定の範囲内(例えば2km以内)においてユーザU2がCレストランで飲食を行ったことを示す行動情報を対象行動情報として抽出する。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近に出店を計画している事業者へ提供してもよい。
For example, in the example of FIG. 2, if the user U2 is eating and drinking at restaurant C at a time (for example, date and time dt20) before the target period (date and time dt22 to dt25), the
なお、抽出装置100は、位置情報群と対象期間前の対象行動とに基づいて、モデルを生成してもよい。例えば、抽出装置100は、位置情報群が抽出される前にユーザが飲食を行っていたかを推定するモデルを生成してもよい。例えば、抽出装置100は、滞在前にユーザが飲食を行ったかを推定するモデルを生成する。
Note that the
〔1-5.対象行動(空間)及び情報提供〕
上述した例では、ユーザが対象行動を実空間において行った場合を例に説明したが、ユーザの対象行動は実空間に限らず、例えばインターネット空間(ウェブ上)において行われてもよい。
[1-5. Target behavior (space) and information provision]
In the above example, the case where the user performed the target action in the real space was described as an example, but the user's target action is not limited to the real space, and may be performed in the Internet space (on the web), for example.
例えば、図1の例において、ユーザU1が対象期間(日時dt12~dt16)後の日時(例えば日時dt17)において、端末装置10によりクエリ「コンビニ」を用いて検索を行っている場合、抽出装置100は、ユーザU1によるクエリ「コンビニ」を用いた検索を対象行動として抽出してもよい。このように、抽出装置100は、対象期間後のウェブ上におけるユーザの対象行動を抽出し、位置情報群とウェブ上におけるユーザの対象行動とを対応付けて記憶してもよい。また、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を外部の情報処理装置へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近に出店を計画している事業者へ提供してもよい。
For example, in the example of FIG. 1, when the user U1 performs a search using the query "convenience store" using the
例えば、図2の例において、ユーザU2が対象期間(日時dt22~dt25)後の日時(例えば日時dt26)において、端末装置10によりクエリ「レストラン」を用いて検索を行っている場合、抽出装置100は、ユーザU2によるクエリ「レストラン」を用いた検索を対象行動として抽出してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近に出店を計画している事業者へ提供してもよい。このように、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報に基づく、需要を予測する情報を外部の情報処理装置へ提供してもよい。
For example, in the example of FIG. 2, when the user U2 performs a search using the query "restaurant" using the
〔1-6.モデルの利用〕
抽出装置100は、上述した例で生成したモデルM1、M2等を用いてユーザの所定の行動の発生有無を推定してもよい。
[1-6. Use of model]
The
例えば、抽出装置100は、ユーザU5について抽出した位置情報群をモデルM1に入力することにより、ユーザU5が所定の行動を行うかどうかを予測してもよい。例えば、抽出装置100は、ZZ公園の周囲に位置するユーザU5について抽出した位置情報群をモデルM1に入力し、出力されたスコアが所定の閾値以上である場合、ユーザU5が購入行動を行うと予測してもよい。
For example, the
例えば、抽出装置100は、ユーザU10について抽出した位置情報群をモデルM2に入力することにより、ユーザU10が所定の行動を行うかどうかを予測してもよい。例えば、抽出装置100は、所定の期間位置が変化しないユーザU10について抽出した位置情報群をモデルM2に入力し、出力されたスコアが所定の閾値以上である場合、ユーザU10が飲食を行うと予測してもよい。
For example, the
〔1-7.端末装置側での抽出〕
なお、上述した例では、抽出装置100が端末装置10から取得した複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する例を示したが、各端末装置10が検知した複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出してもよい。この場合、端末装置10が抽出装置であってもよい。この場合、抽出システムには、抽出装置としての端末装置10と、端末装置10が抽出した規則性に関する情報を収集してサービスを提供するサービス提供装置とが含まれてもよい。この点について、以下説明する。
[1-7. Extraction on the terminal device side]
In the above example, the
各ユーザが利用する端末装置10は、検知した複数の位置情報のうち、各ユーザの位置の変化に関する所定の規則性を満たす位置情報群を抽出する。これにより、端末装置10は、各ユーザ個別の規則性を満たす位置情報群を抽出する。また、端末装置10は、その端末装置10を利用する個別のユーザについて抽出した規則性や位置に対するコンテキスト等に関する情報を生成(計算)し、その結果(情報)をサービス提供装置に送信してもよい。
The
例えば、端末装置10は、「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出し、位置情報群に基づいて生成したその規則性に関する情報(例えば周回移動)等を示す情報やランニング中を示すコンテキスト情報をサービス提供装置に送信してもよい。また、例えば、端末装置10は、「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出し、位置情報群に基づいて生成したその規則性に関する情報(例えば位置変化無し)等を示す情報や一定期間滞在中を示すコンテキスト情報をサービス提供装置に送信してもよい。なお、上記は一例であり、端末装置10は、種々の規則性を示す情報やコンテキストを示す情報を生成してもよい。そして、端末装置10は、生成した情報を、端末装置10を識別する情報や端末装置10を利用するユーザを識別する情報とともに送信してもよい。端末装置10から情報を取得したサービス提供装置は、規則性を示す情報やコンテキストを示す情報と、ユーザとを関連付けて記憶し、その情報に基づいて、各ユーザにサービスを提供してもよい。
For example, the
このような抽出システムにおいては、サーバ側(サービス提供装置)に位置情報を送信することなく、クライアント側(端末装置10)において生成した情報を端末装置10がサービス提供装置に送信し、サービス提供装置がサービスを提供することができる。この場合、例えば、サービス提供装置は、関心地点の一覧情報(POIリスト)と、端末装置10から取得した規則性に関する情報やコンテキストに関する情報に基づいてサービスを提供する。例えば、サービス提供装置は、所定のPOI付近において、同様の規則性を示す情報が取得された場合に、その規則性を示す行動の後に同様の行動を行うと予測してサービスを提供してもよい。例えば、サービス提供装置は、所定のPOI付近において、規則性PTXを示す情報が取得された場合に、その規則性PTXを示す行動の後に商品Xを購入するという行動パターンを示す情報が所定数以上取得されている場合、所定のPOI付近において、規則性PTXを示す情報が取得された端末装置10に、商品Xの購入を促す情報を提供してもよい。なお、上記は一例であり、サービス提供装置は、POIの情報と、ユーザの行動の規則性を示す情報やコンテキストを示す情報に基づいて、種々のサービスを提供してもよい。このように、サービス提供装置は、端末装置10から取得した位置情報よりも抽象度が高い情報に基づいてサービスを提供することができる。これにより、抽出システムにおいては、各ユーザのプライバシーに配慮しつつ、ユーザに対してサービスを提供することができる。
In such an extraction system, the
〔2.抽出装置の構成〕
次に、図4を用いて、実施形態に係る抽出装置100の構成について説明する。図4は、実施形態に係る抽出装置の構成例を示す図である。図4に示すように、抽出装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、抽出装置100は、抽出装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of extraction device]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワーク(例えば図3中のネットワークN)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to a network (for example, network N in FIG. 3) by wire or wirelessly, and transmits and receives information to and from the
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、ユーザ情報記憶部121と、行動情報記憶部122と、位置情報記憶部123と、モデル情報記憶部124とを有する。なお、図4では、図示を省略するが、記憶部120には、図1に示すXX公園(関心地点POI1)のような各種の施設等(関心地点)が所在する位置等、関心地点に関する各種情報が記憶される。
(storage unit 120)
The
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性に関する各種情報やユーザの行動に関する各種情報を記憶する。図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。図5に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」といった項目が含まれる。
(User information storage unit 121)
The user
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。 "User ID" indicates identification information for identifying a user. For example, a user identified by user ID "U1" corresponds to user U1 shown in the example of FIG. "Age" indicates the age of the user identified by the user ID. Note that the “age” may be a specific age of the user identified by the user ID, such as 35 years old. "Gender" indicates the gender of the user identified by the user ID.
例えば、図5に示す例において、ユーザID「U1」により識別されるユーザの年齢は、「30代」であり、性別は、「男性」であることを示す。また、例えば、図5に示す例において、ユーザID「U2」により識別されるユーザの年齢は、「20代」であり、性別は、「女性」であることを示す。 For example, in the example shown in FIG. 5, the age of the user identified by the user ID "U1" is "30's" and the gender is "male". Also, for example, in the example shown in FIG. 5, the age of the user identified by the user ID "U2" is "twenties" and the gender is "female."
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、年齢や性別に加えて他のデモグラフィック属性情報やサイコグラフィック属性情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、自宅、勤務地、興味、家族構成、収入、ライフスタイル等の情報を記憶してもよい。
Note that the user
(行動情報記憶部122)
実施形態に係る行動情報記憶部122は、ユーザの行動に関する各種情報を記憶する。図6は、実施形態に係る行動情報記憶部の一例を示す図である。例えば、行動情報記憶部122は、各ユーザの行動等の各種の行動情報を記憶する。図6に示す行動情報記憶部122には、「ユーザID」、「行動ID」、「日時」、「種別」、「内容」といった項目が含まれる。
(Action information storage unit 122)
The behavior
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動ID」は、ユーザの行動を識別する情報を示す。「日時」は、対応するユーザの行動が行われた日時を示す。なお、図6の例では、「dt18」等で図示するが、「日時」には、「2017年7月6日19時31分52秒」等の具体的な日時が記憶されてもよい。また、「種別」は、対応するユーザの行動の種別に関する情報を示す。また、「内容」は、対応するユーザの行動において対象となった内容を示す。 "User ID" indicates identification information for identifying a user. For example, a user identified by user ID "U1" corresponds to user U1 shown in the example of FIG. Also, the "action ID" indicates information for identifying the action of the user. "Date and time" indicates the date and time when the corresponding user action was performed. In the example of FIG. 6, "dt18" or the like is shown, but the "date and time" may store a specific date and time such as "July 6, 2017, 19:31:52". "Type" indicates information about the type of the corresponding user's action. Also, "content" indicates the content targeted in the corresponding user's behavior.
例えば、図6に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、行動ID「AC18」により識別される行動(行動AC18)を行ったことを示す。例えば、図6に示す例においてユーザU1は、日時dt18において、AコンビニでW水の購入(行動AC18)を行ったことを示す。 For example, in the example shown in FIG. 6, the user (user U1) identified by the user ID "U1" has performed the action (action AC18) identified by the action ID "AC18". For example, in the example shown in FIG. 6, user U1 purchases W water (action AC18) at A convenience store at date and time dt18.
例えば、図6に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)は、行動ID「AC26」により識別される行動(行動AC26)を行ったことを示す。例えば、図6に示す例においてユーザU2は、日時dt26において、Bレストランでの飲食の決済(行動AC26)を行ったことを示す。すなわち、行動AC26は、ユーザU2がBレストランで飲食を行ったことを示唆する。 For example, in the example shown in FIG. 6, the user (user U2) identified by the user ID "U2" has performed the action (action AC26) identified by the action ID "AC26". For example, in the example shown in FIG. 6, user U2 has made a payment for eating and drinking at B restaurant (action AC26) on date and time dt26. In other words, action AC26 suggests that user U2 ate at B restaurant.
なお、行動情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図6では、ユーザIDごとに行動情報が行動情報記憶部122に記憶される場合を示したが、行動情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。
Note that the behavior
(位置情報記憶部123)
実施形態に係る位置情報記憶部123は、位置に関する各種情報を記憶する。例えば、位置情報記憶部123は、センサにより検知された位置に関する各種情報を記憶する。図7は、実施形態に係る位置情報記憶部の一例を示す図である。図7に示す位置情報記憶部123は、「ユーザID」、「位置情報」といった項目が含まれる。「位置情報」には、「日時」、「位置」といった項目が含まれる。
(Position information storage unit 123)
The position
「ユーザID」は、ユーザを識別するための識別情報を示す。「位置情報」は、ユーザの位置情報の履歴を示す。「日時」は、各位置情報が取得された日時を示す。なお、図7の例では「日時」を抽象的な符号「dt11」等で図示するが、「日時」には、「2017年7月6日18時59分48秒」等の具体的な日時が記憶されてもよい。また、「位置」は、対応する日時における対応するユーザの位置情報を示す。なお、図7の例では「位置」を抽象的な符号「LC11」等で図示するが、「位置」には、具体的な緯度経度情報等が記憶されてもよい。 "User ID" indicates identification information for identifying a user. "Position information" indicates the history of the user's position information. "Date and time" indicates the date and time when each piece of position information was acquired. In the example of FIG. 7, "date and time" is illustrated by an abstract code such as "dt11". may be stored. "Position" indicates the position information of the corresponding user at the corresponding date and time. In the example of FIG. 7, the "position" is illustrated by an abstract code "LC11" or the like, but specific latitude/longitude information or the like may be stored in the "position".
例えば、図7に示す例において、ユーザID「U1」により識別されるユーザの位置「LC11」が、日時「dt11」に取得されたことを示す。例えば、ユーザID「U1」により識別されるユーザが利用する端末装置10の位置「LC11」が、日時「dt11」に取得されたことを示す。例えば、図7に示す例において、ユーザID「U1」により識別されるユーザの位置「LC12」が、日時「dt12」に取得されたことを示す。例えば、ユーザID「U1」により識別されるユーザが利用する端末装置10の位置「LC13」が、日時「dt13」に取得されたことを示す。
For example, in the example shown in FIG. 7, it indicates that the location "LC11" of the user identified by the user ID "U1" was obtained at date and time "dt11". For example, it indicates that the position "LC11" of the
なお、位置情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、位置情報記憶部123は、抽出処理により抽出された位置情報群であることを示す情報(フラグ)等を記憶してもよい。また、位置情報記憶部123は、ユーザのコンテキストに関する情報を記憶してもよい。
It should be noted that the position
(モデル情報記憶部124)
実施形態に係るモデル情報記憶部124は、モデルに関する情報を記憶する。例えば、モデル情報記憶部124は、生成処理により生成されたモデル情報(モデルデータ)を記憶する。図8は、実施形態に係るモデル情報記憶部の一例を示す図である。図8に示すモデル情報記憶部124は、「モデルID」、「行動パターン」、「モデルデータ」といった項目が含まれる。なお、図8では、モデルM1及びモデルM2のみを図示するが、各行動パターンに対応する複数のモデル情報(モデルM3、M4等)が記憶されてもよい。
(Model information storage unit 124)
The model
「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1の例に示したモデルM1に対応する。「行動パターン」は、対応するモデルの行動パターンを示す。また、「行動パターン」には、各行動パターンに対応する条件等が記憶される。例えば、「行動パターンPT1(ランニング)」には、ユーザの行動パターンがランニングに対応するための条件(例えば時速5~30kmで移動)等が記憶される。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 "Model ID" indicates identification information for identifying a model. For example, the model identified by model ID "M1" corresponds to model M1 shown in the example of FIG. "Behavioral pattern" indicates the behavioral pattern of the corresponding model. Also, in the "behavior pattern", conditions and the like corresponding to each behavior pattern are stored. For example, the "behavior pattern PT1 (running)" stores conditions for the behavior pattern of the user to correspond to running (for example, moving at a speed of 5 to 30 km/h). Also, "model data" indicates the data of the associated corresponding model. For example, "model data" includes information including nodes in each layer, functions adopted by each node, connection relations of nodes, and connection coefficients set for connections between nodes.
例えば、図8に示す例において、モデルID「M1」により識別されるモデル(モデルM1)は、行動パターンが「PT1(ランニング)」であり、行動パターンPT1が行われた前後に対象行動情報が発生するかを予測するために用いられることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。 For example, in the example shown in FIG. 8, the model (model M1) identified by the model ID "M1" has a behavior pattern "PT1 (running)", and the target behavior information is before and after the behavior pattern PT1 is performed. Indicates that it is used to predict what will happen. It also indicates that the model data of the model M1 is the model data MDT1.
モデルM1(モデルデータMDT1)は、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を出力層から出力するよう、コンピュータを機能させるためのモデルである。 A model M1 (model data MDT1) is a group of position information of a user, an input layer into which a group of position information satisfying a predetermined regularity regarding changes in position is input, an output layer, and a layer from the input layer to the output layer. A first element belonging to any layer other than the output layer and a second element whose value is calculated based on the first element and the weight of the first element, and is input to the input layer For the sensor information obtained, each element belonging to each layer other than the output layer is set as the first element, and calculation is performed based on the first element and the weight of the first element. It is a model for making the computer function so that the score value is output from the output layer.
ここで、モデルM1、M2等が「y=a1*x1+a2*x2+・・・+ai*xi」で示す回帰モデルで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, it is assumed that the models M1, M2, etc. are realized by a regression model represented by "y= a1 * x1 + a2 * x2 +...+ ai * xi ". In this case, for example, the first element included in model M1 corresponds to input data (xi) such as x1 and x2. Also, the weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be viewed as a simple perceptron with an input layer and an output layer. When each model is regarded as a simple perceptron, the first element can be regarded as a node of the input layer, and the second element can be regarded as a node of the output layer.
また、モデルM1、M2等がDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 It is also assumed that the models M1, M2, etc. are implemented by a neural network having one or more intermediate layers, such as a DNN (Deep Neural Network). In this case, for example, the first element included in the model M1 corresponds to any node of the input layer or the intermediate layer. Also, the second element corresponds to the next node, which is a node to which the value is transmitted from the node corresponding to the first element. Also, the weight of the first element corresponds to the connection coefficient, which is the weight considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.
なお、モデル情報記憶部124は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。
It should be noted that the model
(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、抽出装置100内部の記憶装置に記憶されている各種プログラム(抽出プログラムや生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130は、モデル情報記憶部124に記憶されているモデルM1やモデルM2等に従った情報処理により、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を出力層から出力する。
(control unit 130)
Returning to the description of FIG. 4, the control unit 130 is a controller, and is stored in the storage device inside the
例えば、抽出装置100は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、利用スコアや入札スコアの算出を行う。具体的には、モデルM1、M2等は、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群(すなわち、上述したスコアの算出に用いられる各要素)が入力された場合に、所定の行動の発生有無に関するスコア(すなわち、ユーザが所定の行動を行う可能性がどの程度であるかを示唆するスコア)を出力するように係数が設定される。情報提供装置10は、このようなモデルM1、M2等を用いて、対応する行動パターンにおける各ユーザのスコアを算出する。
For example, the
なお、上記例では、モデルM1、M2等が、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力された場合に、所定の行動の発生有無に関するスコアを出力するモデルである例を示した。しかし、実施形態に係るモデルM1、M2等は、データの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルは、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力とし、モデルM1が出力する利用スコアを出力とするよう学習されたモデル(モデルM1b)であってもよい。または、モデルは、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力とし、モデルM1bの出力値を出力とするよう学習されたモデルであってもよい。 In the above example, the models M1, M2, etc. are a group of user position information, and when a group of position information that satisfies a predetermined regularity regarding changes in position is input, a score regarding the occurrence or non-occurrence of a predetermined action is obtained. An example of a model that outputs is shown. However, the models M1, M2, etc. according to the embodiment may be models generated based on results obtained by repeating data input/output. For example, the model is a learned model (model M1b ). Alternatively, the model may be a learned model that receives a group of user position information that satisfies a predetermined regularity regarding changes in position as an input and outputs the output value of the model M1b. .
また、抽出装置100がGAN(Generative Adversarial Networks)を用いた予測処理を行う場合、モデルM1、M2等は、GANの一部を構成するモデルであってもよい。
Further, when the
図4に示すように、制御部130は、取得部131と、抽出部132と、生成部133と、予測部134と、提供部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。
As shown in FIG. 4, the control unit 130 includes an acquisition unit 131, an
(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、端末装置10等の外部の情報処理装置から各種情報を取得する。例えば、取得部131は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123やモデル情報記憶部124等の記憶部120から各種情報を取得する。例えば、取得部131は、端末装置10が検知した各種の情報を取得する。例えば、取得部131は、端末装置10が検知した位置情報や加速度情報を取得する。
(Acquisition unit 131)
Acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires various types of information from an external information processing device such as the
例えば、取得部131は、所定の期間において検知されたユーザの複数の位置情報を取得する。例えば、取得部131は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報を取得する。 For example, the acquisition unit 131 acquires a plurality of pieces of location information of the user detected during a predetermined period. For example, the acquisition unit 131 acquires the user's behavior information outside the target period, which is the period during which the position information group was detected.
図1の例では、取得部131は、日時dt11においてユーザU1の位置LC11を取得する。そして、取得部131は、日時dt11よりも後の日時dt12においてユーザU1が、XX公園(関心地点POI1)内にいることを示す位置LC12を取得する。例えば、取得部131は、日時dt11よりも後の日時dt12においてユーザU1が、位置LC11とは異なる位置であって、XX公園内にいることを示す位置LC12を取得する。例えば、取得部131は、日時dt12よりも後の日時dt13においてユーザU1が、XX公園内において、位置LC12とは異なる位置にいることを示す位置LC13を取得する。例えば、取得部131は、日時dt13よりも後の日時dt14においてユーザU1が、XX公園内において、位置LC13とは異なる位置にいることを示す位置LC14を取得する。 In the example of FIG. 1, the acquisition unit 131 acquires the position LC11 of the user U1 at the date and time dt11. Then, the obtaining unit 131 obtains the position LC12 indicating that the user U1 is in the XX park (point of interest POI1) at the date and time dt12 later than the date and time dt11. For example, the acquisition unit 131 acquires a position LC12 indicating that the user U1 is in the XX park at a date and time dt12 later than the date and time dt11, which is different from the position LC11. For example, the acquisition unit 131 acquires a position LC13 indicating that the user U1 is at a position different from the position LC12 in the XX park at a date and time dt13 later than the date and time dt12. For example, the acquisition unit 131 acquires a position LC14 indicating that the user U1 is at a position different from the position LC13 in the XX park at a date and time dt14 later than the date and time dt13.
例えば、取得部131は、日時dt14よりも後の日時dt15においてユーザU1が、XX公園内において、位置LC14とは異なる位置にいることを示す位置LC15を取得する。例えば、取得部131は、日時dt15よりも後の日時dt16においてユーザU1が、XX公園内において、位置LC15とは異なる位置にいることを示す位置LC16を取得する。例えば、取得部131は、日時dt16よりも後の日時dt17においてユーザU1が、XX公園から離れたことを示す位置LC17を取得する。 For example, the acquisition unit 131 acquires a position LC15 indicating that the user U1 is at a position different from the position LC14 in the XX park at a date and time dt15 later than the date and time dt14. For example, the acquisition unit 131 acquires a position LC16 indicating that the user U1 is at a position different from the position LC15 in the XX park at a date and time dt16 later than the date and time dt15. For example, the acquisition unit 131 acquires a position LC17 indicating that the user U1 left the XX park at a date and time dt17 later than the date and time dt16.
図1の例では、取得部131は、日時dt17よりも後の日時dt18においてユーザU1が、Aコンビニ(ショップSP1)にいることを示す位置LC18を取得する。例えば、取得部131は、日時dt18においてユーザU1が、AコンビニでW水を購入したことを示す行動情報AC11を取得する。 In the example of FIG. 1, the acquisition unit 131 acquires the position LC18 indicating that the user U1 is at the A convenience store (shop SP1) at the date and time dt18 later than the date and time dt17. For example, the acquisition unit 131 acquires action information AC11 indicating that user U1 purchased W water at A convenience store at date and time dt18.
図2の例では、取得部131は、日時dt21においてユーザU2の位置LC21を取得する。そして、取得部131は、日時dt21よりも後の日時dt22においてユーザU2が、YY映画館(関心地点POI2)内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt21よりも後の日時dt22においてユーザU2が、位置LC21とは異なる位置であって、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt22よりも後の日時dt23においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt23よりも後の日時dt24においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt24よりも後の日時dt25においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt25よりも後の日時dt26においてユーザU2が、YY映画館から離れたことを示す位置LC23を取得する。 In the example of FIG. 2, the acquisition unit 131 acquires the position LC21 of the user U2 at the date and time dt21. Then, the acquiring unit 131 acquires a position LC22 indicating that the user U2 is inside the YY movie theater (point of interest POI2) at a date and time dt22 later than the date and time dt21. For example, the acquisition unit 131 acquires a position LC22 indicating that the user U2 is in the YY movie theater at a different position from the position LC21 at a date and time dt22 later than the date and time dt21. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie theater at the date and time dt23 later than the date and time dt22. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie theater at the date and time dt24 later than the date and time dt23. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie theater at date dt25 later than date dt24. For example, the acquisition unit 131 acquires a position LC23 indicating that the user U2 left the YY movie theater at date dt26 later than date dt25.
図2の例では、取得部131は、日時dt26においてユーザU2が、Bレストラン(ショップSP2)にいることを示す位置LC23を取得する。例えば、取得部131は、日時dt26においてユーザU2が、Bレストランで飲食を行ったことを示す行動情報AC21を取得する。 In the example of FIG. 2, the acquisition unit 131 acquires the position LC23 indicating that the user U2 is at the B restaurant (shop SP2) at the date and time dt26. For example, the acquisition unit 131 acquires action information AC21 indicating that the user U2 ate at restaurant B on date and time dt26.
(抽出部132)
抽出部132は、各種情報を抽出する。例えば、抽出部132は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123やモデル情報記憶部124等の記憶部120から各種情報を抽出する。
(Extraction unit 132)
The
例えば、抽出部132は、取得部131により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、連続して検知された複数の位置情報を位置情報群として抽出する。
For example, the
例えば、抽出部132は、ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間後における対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。例えば、抽出部132は、対象期間前における対象行動情報を抽出する。例えば、抽出部132は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。
For example, the
図1の例では、抽出部132は、日時dt11~dt18において検知されたユーザの複数の位置情報LC11~LC18のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、ユーザU1の位置情報の変化が例えば時速10km等のランニングに対応する速度で変化している位置情報群を抽出する。例えば、抽出部132は、ユーザU1がXX公園(関心地点POI1)においてランニングを行っている際の位置情報群を抽出する。例えば、抽出部132は、ユーザU1の位置情報の変化が例えば時速10km等でXX公園の周囲を移動している位置情報群を抽出する。例えば、抽出部132は、日時dt12~dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12~LC16を抽出する。
In the example of FIG. 1, the
図1の例では、抽出部132は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、位置情報群(位置情報LC12~LC16)が検知された対象期間(日時dt12~dt16)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。例えば、抽出部132は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内の日時dt18においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。
In the example of FIG. 1, the
図2の例では、抽出部132は、日時dt21~dt26において検知されたユーザの複数の位置情報LC21~LC23のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、ユーザU2の位置情報の変化が例えば所定の時間に亘って変更していない位置情報群を抽出する。例えば、抽出部132は、ユーザU2がYY映画館(関心地点POI2)において滞在している際の位置情報群を抽出する。例えば、抽出部132は、ユーザU2の位置情報の変化が例えば所定の時間に亘ってYY映画館内にある位置情報群を抽出する。例えば、抽出部132は、日時dt22~dt25においてユーザU2がYY映画館内に滞在していることを示す複数の位置情報LC22を抽出する。
In the example of FIG. 2, the
図2の例では、抽出部132は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、位置情報群(4つの位置情報LC22)が検知された対象期間(日時dt22~dt25)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。例えば、抽出部132は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内の日時dt26においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。
In the example of FIG. 2, the
(生成部133)
生成部133は、各種情報を生成する。例えば、生成部133は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123等に記憶された情報からモデルを生成する。例えば、生成部133は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。例えば、生成部133は、位置情報記憶部123に記憶された位置情報群と、行動情報記憶部122に記憶された対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。
(Generating unit 133)
The generation unit 133 generates various types of information. For example, the generation unit 133 generates a model from information stored in the user
例えば、生成部133は、モデルM1、M2等を生成し、生成したモデルM1、M2等をモデル情報記憶部124に格納する。なお、生成部133は、いかなる学習アルゴリズムを用いてモデルM1、M2等を生成してもよい。例えば、生成部133は、ニューラルネットワーク(neural network)、サポートベクターマシン(support vector machine)、クラスタリング、強化学習等の学習アルゴリズムを用いてモデルM1、M2等を生成する。一例として、生成部133がニューラルネットワークを用いてモデルM1、M2等を生成する場合、モデルM1、M2等は、一以上のニューロンを含む入力層と、一以上のニューロンを含む中間層と、一以上のニューロンを含む出力層とを有する。
For example, the generation unit 133 generates models M1, M2, etc., and stores the generated models M1, M2, etc. in the model
図1の例では、生成部133は、位置情報群と対象行動情報とに基づいて、モデルを生成する。例えば、生成部133は、位置情報LC12~LC16と、行動情報AC11とに基づいて、モデルM1を生成する。例えば、生成部133は、位置情報群が抽出されたユーザが飲料を購入するかを予測するモデルM1を生成する。例えば、生成部133は、ランニング後にユーザが飲料を購入するかを予測するモデルM1を生成する。 In the example of FIG. 1, the generation unit 133 generates a model based on the position information group and the target behavior information. For example, the generator 133 generates the model M1 based on the position information LC12 to LC16 and the action information AC11. For example, the generation unit 133 generates a model M1 that predicts whether a user whose position information group is extracted will purchase a beverage. For example, the generation unit 133 generates a model M1 that predicts whether the user will purchase a beverage after running.
図2の例では、生成部133は、位置情報群と対象行動情報とに基づいて、モデルを生成する。例えば、生成部133は、4つの位置情報LC22と、行動情報AC21とに基づいて、モデルM2を生成する。例えば、生成部133は、位置情報群が抽出されたユーザが飲食を行うか予測するモデルM2を生成する。例えば、生成部133は、滞在後にユーザが飲食を行うかを予測するモデルM2を生成する。 In the example of FIG. 2, the generation unit 133 generates a model based on the position information group and the target behavior information. For example, the generator 133 generates the model M2 based on the four pieces of position information LC22 and the action information AC21. For example, the generation unit 133 generates a model M2 that predicts whether the user whose position information group is extracted will eat and drink. For example, the generation unit 133 generates a model M2 that predicts whether the user will eat or drink after staying.
(予測部134)
予測部134は、各種情報を予測する。例えば、予測部134は、位置情報記憶部123に記憶された位置情報に基づいて、ユーザの所定の行動の有無を予測する。例えば、予測部134は、位置情報記憶部123に記憶された位置情報をモデル情報記憶部124に記憶されたモデルに入力することにより、ユーザの所定の行動の有無を予測する。
(Prediction unit 134)
The prediction unit 134 predicts various information. For example, the prediction unit 134 predicts whether or not the user will perform a predetermined action based on the position information stored in the position
例えば、予測部134は、抽出部132により抽出された位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測する。例えば、予測部134は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測する。
For example, the prediction unit 134 predicts the behavior of the user before and after the predetermined period based on the position information group extracted by the
例えば、予測部134は、モデルM1、M2等に従った情報処理により、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力層に入力する。そして、予測部134は、入力データを中間層と出力層に伝播させることで出力層から所定の行動の発生有無に関するスコアを出力させる。 For example, the prediction unit 134 inputs, to the input layer, a group of position information of the user that satisfies a predetermined regularity regarding changes in position, through information processing according to the models M1, M2, and the like. Then, the prediction unit 134 propagates the input data to the intermediate layer and the output layer, thereby outputting a score regarding whether or not a predetermined action occurs from the output layer.
図1の例では、予測部134は、POI情報と、ユーザU1の位置LCとの比較により、ユーザU1がXX公園に向かっていると推定する。例えば、予測部134は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。例えば、予測部134は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。
In the example of FIG. 1, the prediction unit 134 estimates that the user U1 is heading to XX Park by comparing the POI information and the position LC of the user U1. For example, the prediction unit 134 may estimate the moving direction of the user based on the acceleration detected by the
図1の例では、予測部134は、POI情報と、ユーザU1の位置LCの変化との比較により、ユーザU1がXX公園に向かっていると推定する。例えば、予測部134は、位置LC11、LC12により、ユーザU1がXX公園に向かって(図1では下から上方向へ)移動していると推定する。例えば、予測部134は、位置LC12、LC13により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC12、LC13により、ユーザU1の移動速度を推定する。例えば、予測部134は、端末装置10が検知した加速度に基づいて、ユーザの移動速度を推定してもよい。例えば、予測部134は、位置LC13、LC14により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC13、LC14により、ユーザU1の移動速度を推定する。例えば、予測部134は、位置LC14、LC15により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC14、LC15により、ユーザU1の移動速度を推定する。例えば、予測部134は、位置LC15、LC16により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC15、LC16により、ユーザU1の移動速度を推定する。例えば、予測部134は、ユーザU1の移動経過やユーザU1の速度に基づいて、ユーザU1がXX公園内をランニングしていると推定する。
In the example of FIG. 1, the prediction unit 134 estimates that the user U1 is heading to XX park by comparing the POI information and the change in the position LC of the user U1. For example, the prediction unit 134 estimates that the user U1 is moving toward the XX park (from the bottom to the top in FIG. 1) from the positions LC11 and LC12. For example, the prediction unit 134 estimates that the user U1 is moving in the XX park from the positions LC12 and LC13. For example, the prediction unit 134 estimates the moving speed of the user U1 from the positions LC12 and LC13. For example, the prediction unit 134 may estimate the moving speed of the user based on the acceleration detected by the
図2の例では、予測部134は、POI情報と、ユーザU2の位置LCとの比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、予測部134は、POI情報と、ユーザU2の位置LCの変化との比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、予測部134は、位置LC21、LC22により、ユーザU2がYY映画館に向かって(図2では下から上方向へ)移動していると推定する。例えば、予測部134は、日時dt22及び日時dt23に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。例えば、予測部134は、日時dt22~日時dt24に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。例えば、予測部134は、日時dt22~日時dt25に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。 In the example of FIG. 2, the prediction unit 134 estimates that the user U2 is heading to the YY movie theater by comparing the POI information and the position LC of the user U2. For example, the prediction unit 134 estimates that the user U2 is heading to the YY movie theater by comparing the POI information and the change in the position LC of the user U2. For example, the prediction unit 134 estimates that the user U2 is moving toward the YY theater (from bottom to top in FIG. 2) based on the positions LC21 and LC22. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie theater from the position LC22 obtained at the dates and times dt22 and dt23. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie theater based on the position LC22 obtained from date/time dt22 to date/time dt24. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie theater based on the position LC22 obtained from date/time dt22 to date/time dt25.
(提供部135)
提供部135は、種々の情報を提供する。例えば、提供部135は、端末装置10等の外部装置に各種情報を提供する。例えば、提供部135は、モデル情報記憶部124に記憶された各モデルを外部の情報処理装置へ提供する。例えば、提供部135は、予測結果に基づく情報を外部の情報処理装置へ提供する。例えば、提供部135は、XX公園内をランニングしていると推定されたユーザU1の端末装置10に、XX公園付近のコンビニに関する広告を配信してもよい。また、例えば、提供部135は、YY映画館内滞在していると推定されたユーザU2の端末装置10に、YY映画館付近の飲食店(レストラン)に関する広告を配信してもよい。
(Providing unit 135)
The providing unit 135 provides various information. For example, the providing unit 135 provides various types of information to an external device such as the
例えば、提供部135は、抽出部132により抽出された位置情報群に関する情報を所定のサービス提供者に提供してもよい。また、例えば、提供部135は、生成部133により生成されたモデルに関する情報を外部の情報処理装置へ提供してもよい。また、例えば、提供部135は、モデルが出力する情報を外部の情報処理装置へ提供してもよい。なお、上記は一例であり、提供部135は、抽出部132により抽出された位置情報群に基づく、種々の情報を外部の情報処理装置へ提供してもよい。
For example, the providing unit 135 may provide a predetermined service provider with information regarding the location information group extracted by the extracting
〔3.抽出処理のフロー〕
次に、図9を用いて、実施形態に係る抽出システム1による抽出処理の手順について説明する。図9は、実施形態に係る抽出処理の一例を示すフローチャートである。また、図9に示す抽出処理には、対象行動情報の抽出及びモデルの生成の処理が含まれる。
[3. Extraction process flow]
Next, a procedure of extraction processing by the
図9に示すように、抽出装置100は、所定の期間において検知されたユーザの複数の位置情報を取得する(ステップS101)。例えば、抽出装置100は、位置情報記憶部123(図7参照)に示すような位置情報の履歴を取得する。図1の例では、抽出装置100は、端末装置10から日時dt11~dt18に検知された位置情報LC11~LC18等を取得する。
As shown in FIG. 9, the
また、抽出装置100は、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS102)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような移動に関する行動パターンPT1を満たすような位置情報群を抽出する。図1の例では、抽出装置100は、位置情報LC11~LC18のうち、XX公園内を周回している位置に対応する位置情報群(位置情報LC12~LC16)を抽出する。
The
また、抽出装置100は、ユーザの行動情報のうち、所定の条件を満たす対象行動情報を抽出する(ステップS103)。例えば、抽出装置100は、行動情報記憶部122(図6参照)に示すような行動履歴から、対象期間(日時dt12~dt16)後における対象行動情報を抽出する。図1の例では、抽出装置100は、日時dt18においてAコンビニでW水を購入したことを示す行動情報AC11を抽出する。
In addition, the
そして、抽出装置100は、位置情報群と、対象行動情報とに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する(ステップS104)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような行動パターンPT1に対応するモデルM1を生成する。図1の例では、抽出装置100は、位置情報LC12~LC16と、位置情報LC12~LC16に対応する行動情報AC11を正解情報として、モデルM1を生成する。
Then, the
〔4.効果〕
上述してきたように、実施形態に係る抽出装置100は、取得部131と、抽出部132とを有する。取得部131は、所定の期間において検知されたユーザの複数の位置情報を取得する。抽出部132は、取得部131により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。
[4. effect〕
As described above, the
このように、実施形態に係る抽出装置100は、ユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100において、抽出部132は、連続して検知された複数の位置情報を位置情報群として抽出する。
In addition, in the
このように、実施形態に係る抽出装置100は、連続して検知された複数の位置情報を位置情報群として抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100は、予測部134を有する。予測部134は、抽出部132により抽出された位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測する。
Also, the
このように、実施形態に係る抽出装置100は、抽出した位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測することにより、ユーザの行動を適切に予測することができる。
As described above, the
また、実施形態に係る抽出装置100において、予測部134は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測する。
In addition, in the
このように、実施形態に係る抽出装置100は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測することにより、ユーザの行動を適切に予測することができる。
As described above, the
また、実施形態に係る抽出装置100において、取得部131は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報を取得する。抽出部132は、ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。
In addition, in the
このように、実施形態に係る抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100において、抽出部132は、対象期間後における対象行動情報を抽出する。
In addition, in the
このように、実施形態に係る抽出装置100は、対象期間後における対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
In this way, the
また、実施形態に係る抽出装置100において、抽出部132は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。
In addition, in the
このように、実施形態に係る抽出装置100は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100において、抽出部132は、対象期間前における対象行動情報を抽出する。
In addition, in the
このように、実施形態に係る抽出装置100は、対象期間前における対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
In this way, the
また、実施形態に係る抽出装置100において、抽出部132は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。
In addition, in the
このように、実施形態に係る抽出装置100は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。
As described above, the
また、実施形態に係る抽出装置100は、生成部133を有する。生成部133は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。
Further, the
このように、実施形態に係る抽出装置100は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成することにより、ユーザの行動の適切な予測を可能にすることができる。
As described above, the
〔5.ハードウェア構成〕
上述してきた実施形態に係る抽出装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、抽出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。
The HDD 1400 stores programs executed by the
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が実施形態に係る抽出装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1、M2等)を実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1、M2等)を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings, but these are merely examples, and various modifications, It is possible to carry out the invention in other forms with modifications.
〔6.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. others〕
Further, among the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.
また、上述してきた各実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, each process described in each embodiment described above can be appropriately combined within a range in which the contents of the process are not inconsistent.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.
1 抽出システム
100 抽出装置
121 ユーザ情報記憶部
122 行動情報記憶部
123 位置情報記憶部
124 モデル情報記憶部
130 制御部
131 取得部
132 抽出部
133 生成部
134 予測部
135 提供部
10 端末装置
N ネットワーク
1
Claims (12)
前記取得部により取得された複数の位置情報のうち、位置の変化に関する所定の規則性であって、前記位置の変化に基づく前記ユーザに移動速度がランニングに対応していることを示す所定の規則性を満たし、前記ユーザが所定の範囲を周回していることを示す位置情報群を抽出する抽出部と、
前記位置情報群に基づいて、前記所定の範囲を周回してランニングする前記ユーザに広告を配信するサービスを提供する提供部と、
を備えることを特徴とする抽出装置。 an acquisition unit that acquires a plurality of location information of a user detected during a predetermined period;
Predetermined regularity regarding positional changes among the plurality of pieces of positional information obtained by the obtaining unit, the predetermined rule indicating to the user that a moving speed corresponds to running based on the positional changes. an extraction unit that extracts a group of position information that satisfies the requirements and indicates that the user is circling a predetermined range ;
a providing unit that provides a service of distributing advertisements to the user running in the predetermined range based on the position information group;
An extraction device comprising:
連続して検知された複数の位置情報を前記位置情報群として抽出する
ことを特徴とする請求項1に記載の抽出装置。 The extractor is
2. The extracting device according to claim 1, wherein a plurality of continuously detected positional information are extracted as said positional information group.
をさらに備えることを特徴とする請求項1または請求項2に記載の抽出装置。 a prediction unit that predicts behavior of the user before and after the predetermined period based on the position information group extracted by the extraction unit;
3. A brewing device according to claim 1 or claim 2, further comprising:
所定の行動の発生有無の予測に用いられるモデルであって、前記位置情報群が入力されたモデルの出力に基づいて、前記ユーザの前記所定の行動の有無を予測する
ことを特徴とする請求項3に記載の抽出装置。 The prediction unit
A model used for predicting whether or not a predetermined action will occur, wherein the model predicts whether or not the user will perform the predetermined action based on the output of the model to which the position information group is input. 3. The extraction device according to 3.
前記位置情報群が検知された期間である対象期間ではない期間における前記ユーザの行動情報を取得し、
前記抽出部は、
前記ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する
ことを特徴とする請求項1~4のいずれか1項に記載の抽出装置。 The acquisition unit
Acquiring the behavior information of the user during a period other than the target period, which is the period during which the position information group is detected;
The extractor is
The extracting device according to any one of claims 1 to 4, wherein target action information, which is action information that satisfies a predetermined condition, is extracted from the user's action information.
前記対象期間よりも後における前記対象行動情報を抽出する
ことを特徴とする請求項5に記載の抽出装置。 The extractor is
6. The extracting device according to claim 5, wherein the target behavior information after the target period is extracted.
前記対象期間の終了時における位置情報に対応する位置から所定の範囲内に前記対象行動情報を抽出する
ことを特徴とする請求項6に記載の抽出装置。 The extractor is
7. The extracting device according to claim 6, wherein the target action information is extracted within a predetermined range from a position corresponding to position information at the end of the target period.
前記対象期間よりも前における前記対象行動情報を抽出する
ことを特徴とする請求項5~7のいずれか1項に記載の抽出装置。 The extractor is
The extracting device according to any one of claims 5 to 7, wherein the target behavior information before the target period is extracted.
前記対象期間の開始時における位置情報に対応する位置から所定の範囲内に前記対象行動情報を抽出する
ことを特徴とする請求項8に記載の抽出装置。 The extractor is
9. The extraction device according to claim 8, wherein the target action information is extracted within a predetermined range from a position corresponding to position information at the start of the target period.
をさらに備えることを特徴とする請求項5~9のいずれか1項に記載の抽出装置。 a generation unit that generates a model to be used for predicting whether or not a predetermined action will occur, based on learning data including the position information group and the target action information corresponding to the position information group;
The extraction device according to any one of claims 5 to 9, further comprising:
所定の期間において検知されたユーザの複数の位置情報を取得する取得工程と、
前記取得工程により取得された複数の位置情報のうち、位置の変化に関する所定の規則性であって、前記位置の変化に基づく前記ユーザに移動速度がランニングに対応していることを示す所定の規則性を満たし、前記ユーザが所定の範囲を周回していることを示す位置情報群を抽出する抽出工程と、
前記位置情報群に基づいて、前記所定の範囲を周回してランニングする前記ユーザに広告を配信するサービスを提供する提供工程と、
を含むことを特徴とする抽出方法。 A computer implemented extraction method comprising:
an obtaining step of obtaining a plurality of location information of the user detected over a predetermined period of time;
Predetermined regularity regarding changes in position among the plurality of pieces of position information obtained by the obtaining step, the predetermined rule indicating to the user that the movement speed corresponds to running based on the change in position. an extracting step of extracting a position information group that satisfies the requirements and indicates that the user is circling a predetermined range ;
a providing step of providing a service of distributing advertisements to the user running in the predetermined range based on the position information group;
An extraction method comprising:
前記取得手順により取得された複数の位置情報のうち、位置の変化に関する所定の規則性であって、前記位置の変化に基づく前記ユーザに移動速度がランニングに対応していることを示す所定の規則性を満たし、前記ユーザが所定の範囲を周回していることを示す位置情報群を抽出する抽出手順と、
前記位置情報群に基づいて、前記所定の範囲を周回してランニングする前記ユーザに広告を配信するサービスを提供する提供手順と、
をコンピュータに実行させることを特徴とする抽出プログラム。 an acquisition procedure for acquiring a plurality of location information of a user detected over a predetermined period of time;
Predetermined regularity regarding changes in position among the plurality of pieces of position information obtained by the obtaining procedure, the predetermined rule indicating to the user that the movement speed corresponds to running based on the change in position. an extraction procedure for extracting a position information group that satisfies the requirements and indicates that the user is circling a predetermined range ;
a providing step of providing a service of distributing advertisements to the user running in the predetermined range based on the position information group;
An extraction program characterized by causing a computer to execute
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143449A JP7221586B2 (en) | 2017-07-25 | 2017-07-25 | Extraction device, extraction method, and extraction program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017143449A JP7221586B2 (en) | 2017-07-25 | 2017-07-25 | Extraction device, extraction method, and extraction program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019028488A JP2019028488A (en) | 2019-02-21 |
JP7221586B2 true JP7221586B2 (en) | 2023-02-14 |
Family
ID=65476294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017143449A Active JP7221586B2 (en) | 2017-07-25 | 2017-07-25 | Extraction device, extraction method, and extraction program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7221586B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008065381A (en) | 2006-09-04 | 2008-03-21 | Toyota Motor Corp | Vehicle with outside user protecting function |
JP2008123317A (en) | 2006-11-14 | 2008-05-29 | Dainippon Printing Co Ltd | Information providing system |
US20110071881A1 (en) | 2009-09-18 | 2011-03-24 | Microsoft Corporation | Mining life pattern based on location history |
JP2011081431A (en) | 2009-10-02 | 2011-04-21 | Sony Corp | Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program |
JP2011198292A (en) | 2010-03-23 | 2011-10-06 | Nippon Telegr & Teleph Corp <Ntt> | Modeling device, method, and program for action prediction, and prediction device, method, and program using the modeling information |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010014592A (en) * | 2008-07-04 | 2010-01-21 | Univ Waseda | Moving means determining device and moving means determination method |
-
2017
- 2017-07-25 JP JP2017143449A patent/JP7221586B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008065381A (en) | 2006-09-04 | 2008-03-21 | Toyota Motor Corp | Vehicle with outside user protecting function |
JP2008123317A (en) | 2006-11-14 | 2008-05-29 | Dainippon Printing Co Ltd | Information providing system |
US20110071881A1 (en) | 2009-09-18 | 2011-03-24 | Microsoft Corporation | Mining life pattern based on location history |
JP2011081431A (en) | 2009-10-02 | 2011-04-21 | Sony Corp | Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program |
JP2011198292A (en) | 2010-03-23 | 2011-10-06 | Nippon Telegr & Teleph Corp <Ntt> | Modeling device, method, and program for action prediction, and prediction device, method, and program using the modeling information |
Also Published As
Publication number | Publication date |
---|---|
JP2019028488A (en) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10726438B2 (en) | Personalized contextual coupon engine | |
US10572887B2 (en) | Electronically capturing consumer location data for analyzing consumer behavior | |
US9736652B2 (en) | Activity recognition systems and methods | |
US20130006754A1 (en) | Multi-step impression campaigns | |
KR20120052951A (en) | Advertising as a real-time video call | |
US20140229323A1 (en) | Location and transaction-based recommendations | |
US11127031B1 (en) | Systems and methods for providing dimensional promotional offers | |
JP6804505B2 (en) | Predictors, prediction methods, and prediction programs | |
JP6814115B2 (en) | Specific device, specific method and specific program | |
JP2019139521A (en) | Prediction device, prediction method, and prediction program | |
US10491709B2 (en) | Time and location based distribution of additional content for content items | |
US11379875B2 (en) | Systems and methods for time-based advertising | |
JP2019053409A (en) | Addition device, addition method, addition program and model | |
JP7249103B2 (en) | Selection device, selection method and selection program | |
JP6809993B2 (en) | Extractor, extraction method, extraction program, and model | |
US20210342925A1 (en) | Virtual Shopping Assistant | |
JP6955392B2 (en) | Decision device, decision method, and decision program | |
JP6983739B2 (en) | Information processing equipment, information processing methods and information processing programs | |
JP7221586B2 (en) | Extraction device, extraction method, and extraction program | |
JP7071940B2 (en) | Providing equipment, providing method and providing program | |
US20210174395A1 (en) | System and method for location-based product solutions using artificial intelligence | |
Ravi et al. | Predicting consumer level brand preferences using persistent mobility patterns | |
JP6587660B2 (en) | Estimation apparatus, estimation method, and estimation program | |
US20160063565A1 (en) | Marketing platform that determines advertisements for third party users | |
JP7023253B2 (en) | Collection device, collection method and collection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210603 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220203 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220203 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220215 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220222 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20220318 |
|
C211 | Notice of termination of reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C211 Effective date: 20220329 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20220705 |
|
C13 | Notice of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: C13 Effective date: 20220816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221007 |
|
C22 | Notice of designation (change) of administrative judge |
Free format text: JAPANESE INTERMEDIATE CODE: C22 Effective date: 20221011 |
|
C23 | Notice of termination of proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C23 Effective date: 20221122 |
|
C03 | Trial/appeal decision taken |
Free format text: JAPANESE INTERMEDIATE CODE: C03 Effective date: 20230104 |
|
C30A | Notification sent |
Free format text: JAPANESE INTERMEDIATE CODE: C3012 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7221586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |