JP2019028488A - Extraction apparatus, extraction method, extraction program, learning data and model - Google Patents

Extraction apparatus, extraction method, extraction program, learning data and model Download PDF

Info

Publication number
JP2019028488A
JP2019028488A JP2017143449A JP2017143449A JP2019028488A JP 2019028488 A JP2019028488 A JP 2019028488A JP 2017143449 A JP2017143449 A JP 2017143449A JP 2017143449 A JP2017143449 A JP 2017143449A JP 2019028488 A JP2019028488 A JP 2019028488A
Authority
JP
Japan
Prior art keywords
user
extraction
position information
information
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017143449A
Other languages
Japanese (ja)
Other versions
JP7221586B2 (en
Inventor
博基 谷口
Hiroki Taniguchi
博基 谷口
玲 田島
Rei Tajima
玲 田島
孝太 坪内
Kota Tsubouchi
孝太 坪内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017143449A priority Critical patent/JP7221586B2/en
Publication of JP2019028488A publication Critical patent/JP2019028488A/en
Application granted granted Critical
Publication of JP7221586B2 publication Critical patent/JP7221586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an extraction apparatus, an extraction method, an extraction program, a learning data and a model for appropriately extracting information on a user satisfying regularity.SOLUTION: An extraction apparatus 100 includes an acquisition unit 131 and an extraction unit 132. The acquisition unit 131 acquires a plurality of positional information of a user by a function such as a GPS sensor included in a terminal apparatus of the user in a predetermined period. The extraction unit 132 extracts a set of positional information satisfying a predetermined regularity with regard to a change of a position among the plurality of positional information acquired by the acquisition unit.SELECTED DRAWING: Figure 4

Description

本発明は、抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルに関する。   The present invention relates to an extraction device, an extraction method, an extraction program, learning data, and a model.

従来、ユーザの行動に関する情報を抽出する技術が提供されている。例えば、ユーザの行動や移動に伴って断続的に得られる履歴情報を用いながら、ユーザが立ち寄った又は滞在した施設を間接的に推定する技術が提供されている。   Conventionally, a technique for extracting information related to user behavior has been provided. For example, there is provided a technique for indirectly estimating a facility where a user has stopped or stayed while using history information obtained intermittently with the user's behavior or movement.

特開2010−244433号公報JP 2010-244433 A

しかしながら、上記の従来技術では、規則性を満たすユーザの情報を適切に抽出することが難しい場合がある。例えば、ユーザの行動や移動に伴って断続的に得られる履歴情報を用いるだけでは、例えばユーザの行動の連続による行動に関する情報等を適切に抽出することが難しい場合がある。   However, in the above-described conventional technology, it may be difficult to appropriately extract user information that satisfies regularity. For example, it may be difficult to appropriately extract, for example, information related to a user's continuous behavior by using history information obtained intermittently with the user's behavior and movement.

本願は、上記に鑑みてなされたものであって、規則性を満たすユーザの情報を適切に抽出する抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルを提供することを目的とする。   The present application has been made in view of the above, and an object thereof is to provide an extraction device, an extraction method, an extraction program, learning data, and a model that appropriately extract user information satisfying regularity.

本願に係る抽出装置は、所定の期間において検知されたユーザの複数の位置情報を取得する取得部と、前記取得部により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出部とを備えたことを特徴とする。   The extraction device according to the present application has an acquisition unit that acquires a plurality of pieces of position information of a user detected in a predetermined period, and a predetermined regularity regarding a change in position among the plurality of pieces of position information acquired by the acquisition unit. And an extraction unit for extracting a position information group to be satisfied.

実施形態の一態様によれば、規則性を満たすユーザの情報を適切に抽出することができるという効果を奏する。   According to one aspect of the embodiment, it is possible to appropriately extract user information that satisfies regularity.

図1は、実施形態に係る抽出処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of an extraction process according to the embodiment. 図2は、実施形態に係る抽出処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of the extraction process according to the embodiment. 図3は、実施形態に係る抽出システムの構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of the extraction system according to the embodiment. 図4は、実施形態に係る抽出装置の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of the extraction device according to the embodiment. 図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。FIG. 5 is a diagram illustrating an example of a user information storage unit according to the embodiment. 図6は、実施形態に係る行動情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of the behavior information storage unit according to the embodiment. 図7は、実施形態に係る位置情報記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of the position information storage unit according to the embodiment. 図8は、実施形態に係るモデル情報記憶部の一例を示す図である。FIG. 8 is a diagram illustrating an example of a model information storage unit according to the embodiment. 図9は、実施形態に係る抽出処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of the extraction process according to the embodiment. 図10は、抽出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the extraction device.

以下に、本願に係る抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, an extraction apparatus, an extraction method, an extraction program, learning data, and a form for implementing a model (hereinafter referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. In addition, the extraction apparatus, the extraction method, the extraction program, the learning data, and the model according to the present application are not limited by this embodiment. In the following embodiments, the same portions are denoted by the same reference numerals, and redundant description is omitted.

(実施形態)
〔1.抽出処理〕
図1及び図2を用いて、実施形態に係る抽出処理の一例について説明する。図1及び図2は、実施形態に係る抽出処理の一例を示す図である。図1及び図2の例では、ユーザが利用する端末装置10が検知したセンサ情報(位置情報)から、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。また、図1及び図2に示す抽出処理には、位置情報群とユーザの所定の行動の有無を示す情報を用いてモデルを生成する処理が含まれる。なお、抽出処理には、モデルを生成する処理が含まれなくてもよい。
(Embodiment)
[1. (Extraction process)
An example of the extraction process according to the embodiment will be described with reference to FIGS. 1 and 2. 1 and 2 are diagrams illustrating an example of an extraction process according to the embodiment. The example of FIGS. 1 and 2 shows a case where a position information group satisfying a predetermined regularity regarding a change in position is extracted from sensor information (position information) detected by the terminal device 10 used by the user. Moreover, the extraction process shown in FIGS. 1 and 2 includes a process of generating a model using the position information group and information indicating the presence or absence of the user's predetermined action. Note that the extraction process may not include the process of generating a model.

〔1−1.抽出システムの構成〕
まず、図1及び図2の説明に先立って、図3に示す抽出システム1について説明する。図3に示すように、抽出システム1は、端末装置10と、抽出装置100とが含まれる。端末装置10と、抽出装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る抽出システムの構成例を示す図である。なお、図3に示した抽出システム1には、複数台の端末装置10や、複数台の抽出装置100が含まれてもよい。
[1-1. (Configuration of extraction system)
First, prior to the description of FIGS. 1 and 2, the extraction system 1 shown in FIG. 3 will be described. As illustrated in FIG. 3, the extraction system 1 includes a terminal device 10 and an extraction device 100. The terminal device 10 and the extraction device 100 are connected via a predetermined network N so as to be communicable by wire or wirelessly. FIG. 3 is a diagram illustrating a configuration example of the extraction system according to the embodiment. Note that the extraction system 1 illustrated in FIG. 3 may include a plurality of terminal devices 10 and a plurality of extraction devices 100.

端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1及び図2は、端末装置10がスマートフォンである場合を示す。   The terminal device 10 is an information processing device used by a user. The terminal device 10 is realized by, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. FIG.1 and FIG.2 shows the case where the terminal device 10 is a smart phone.

また、端末装置10は、GPS(Global Positioning System)センサ等の機能を有し、ユーザの位置情報(センサ情報)を検知し、取得するものとする。また、端末装置10は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。   The terminal device 10 has a function such as a GPS (Global Positioning System) sensor, and detects and acquires user position information (sensor information). Further, the terminal device 10 may estimate and acquire the position information of the user using the position information of the base station with which communication is performed or the radio wave of WiFi (registered trademark) (Wireless Fidelity). Hereinafter, the position information may be simply referred to as “position”.

また、端末装置10は、GPSセンサ等に限らず種々のセンサにより、各種センサ情報を検知してもよい。例えば、端末装置10は、加速度センサの機能を有し、ユーザの移動における加速度情報(センサ情報)を検知し、取得可能であってもよい。また、端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。また、端末装置10は、心拍センサ等の種々の機能を有し、ユーザの生体情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。   Moreover, the terminal device 10 may detect various sensor information not only with a GPS sensor etc. but with various sensors. For example, the terminal device 10 has a function of an acceleration sensor, and may be able to detect and acquire acceleration information (sensor information) in the movement of the user. Further, the terminal device 10 may have various functions such as a temperature sensor and an atmospheric pressure sensor, and may be able to detect and acquire environmental information where the user is placed such as temperature and atmospheric pressure. Moreover, the terminal device 10 may have various functions such as a heart rate sensor, and may be able to detect and acquire a user's biological information. For example, a user using the terminal device 10 may acquire a user's own context information by the terminal device 10 by wearing a wearable device that can communicate with the terminal device 10. For example, a user who uses the terminal device 10 wears a wristband type wearable device that can communicate with the terminal device 10, and the terminal device 10 acquires information on the user's own heartbeat (pulse) by the terminal device 10. It may be possible.

また、端末装置10は、ユーザによる操作を受け付ける。また、端末装置10は、抽出装置100に種々の情報を送信する。例えば、端末装置10は、抽出装置100に位置情報や行動情報等を送信する。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。   Moreover, the terminal device 10 receives an operation by a user. In addition, the terminal device 10 transmits various information to the extraction device 100. For example, the terminal device 10 transmits position information, behavior information, and the like to the extraction device 100. Hereinafter, the terminal device 10 may be referred to as a user. That is, hereinafter, the user can be read as the terminal device 10.

以下では、ユーザID「U1」により識別されるユーザを「ユーザU1」とする場合がある。このように、以下では、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU2」と記載した場合、そのユーザはユーザID「U2」により識別されるユーザである。例えば、図3に示した抽出システム1には、ユーザU1が利用する端末装置10や、ユーザU2が利用する端末装置10等の多数の端末装置10が含まれる。   Hereinafter, the user identified by the user ID “U1” may be referred to as “user U1”. Thus, hereinafter, when “user U * (* is an arbitrary numerical value)” is described, this indicates that the user is a user identified by the user ID “U *”. For example, when “user U2” is described, the user is a user identified by the user ID “U2”. For example, the extraction system 1 illustrated in FIG. 3 includes a large number of terminal devices 10 such as the terminal device 10 used by the user U1 and the terminal device 10 used by the user U2.

図1に示す端末装置10は、ユーザU1によって利用される情報処理装置である。図2に示す端末装置10は、ユーザU2によって利用される情報処理装置である。端末装置10は、ユーザによる種々の操作を受け付ける。なお、端末装置10をユーザと表記する場合がある。すなわち、ユーザを端末装置10と読み替えることもできる。   A terminal device 10 illustrated in FIG. 1 is an information processing device used by a user U1. The terminal device 10 illustrated in FIG. 2 is an information processing device used by the user U2. The terminal device 10 receives various operations by the user. The terminal device 10 may be referred to as a user. That is, the user can be read as the terminal device 10.

抽出装置100は、所定の期間において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報(位置情報群)を抽出する情報処理装置である。また、抽出装置100は、位置情報群と、位置情報群に対応する行動情報(以下、「対象行動情報」ともいう)とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。   The extraction apparatus 100 is an information processing apparatus that extracts position information (position information group) that satisfies a predetermined regularity regarding a change in position, from among a plurality of pieces of position information of a user detected in a predetermined period. Further, the extraction device 100 is used to predict whether or not a predetermined action has occurred based on learning data including a position information group and action information corresponding to the position information group (hereinafter also referred to as “target action information”). Generate the model

〔1−2.移動(位置変化有)について〕
図1の例では、抽出装置100がユーザU1について、日時dt11〜dt18において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。なお、ユーザU1は、端末装置10を利用するユーザであり、抽出装置100は端末装置10が有するGPSセンサ等の機能により端末装置10の位置を取得する。図1に示す地図情報MP1は、ユーザU1の位置を模式的に示す。また、地図情報MP1において、端末装置10(端末装置10を所有するユーザ)の位置を位置LC11〜LC18により示す。なお、位置LC11〜LC18を区別しない場合は、位置LCとする場合がある。また、以下では、抽出装置100がユーザU1の位置やユーザU1の行動情報をリアルタイムに取得する場合を示すが、抽出装置100は適宜のタイミングでユーザU1の位置やユーザU1の行動情報を取得し、抽出処理を行ってもよい。例えば、抽出装置100は、定期的(例えば1日おき)に各ユーザの位置や行動情報を取得し、抽出処理を行ってもよい。
[1-2. About movement (with position change)
In the example of FIG. 1, the extraction apparatus 100 extracts a position information group that satisfies a predetermined regularity regarding a change in position from among a plurality of pieces of position information of the user detected at dates dt11 to dt18 for the user U1. . Note that the user U1 is a user who uses the terminal device 10, and the extraction device 100 acquires the position of the terminal device 10 by a function such as a GPS sensor included in the terminal device 10. The map information MP1 shown in FIG. 1 schematically shows the position of the user U1. In the map information MP1, the positions of the terminal device 10 (the user who owns the terminal device 10) are indicated by positions LC11 to LC18. If the positions LC11 to LC18 are not distinguished, the position LC may be used. Moreover, although the case where the extraction apparatus 100 acquires the position of the user U1 and the action information of the user U1 in real time will be described below, the extraction apparatus 100 acquires the position of the user U1 and the action information of the user U1 at an appropriate timing. The extraction process may be performed. For example, the extraction device 100 may acquire the position and behavior information of each user periodically (for example, every other day) and perform the extraction process.

まず、抽出装置100は、日時dt11においてユーザU1の位置LC11を取得する。そして、抽出装置100は、日時dt11よりも後の日時dt12においてユーザU1が、XX公園(関心地点POI1)内にいることを示す位置LC12を取得する。例えば、抽出装置100は、図1に示すXX公園(関心地点POI1)や図2に示すYY映画館(関心地点POI2)のような各種の施設等(関心地点)が所在する位置等、関心地点(POI:Point of Interest)に関する各種情報(以下、「POI情報」ともいう)を有するものとする。   First, the extraction device 100 acquires the position LC11 of the user U1 at the date and time dt11. Then, the extraction device 100 acquires a position LC12 indicating that the user U1 is in the XX park (the point of interest POI1) at the date dt12 after the date dt11. For example, the extraction apparatus 100 may be a point of interest such as a location where various facilities (point of interest) such as XX park (point of interest POI1) shown in FIG. 1 or YY movie theater (point of interest POI2) shown in FIG. It is assumed that various information (hereinafter also referred to as “POI information”) regarding (POI: Point of Interest) is included.

例えば、抽出装置100は、POI情報と、ユーザU1の位置LCとの比較により、ユーザU1がXX公園に向かっていると推定する。例えば、抽出装置100は、日時dt11よりも後の日時dt12においてユーザU1が、位置LC11とは異なる位置であって、XX公園内にいることを示す位置LC12を取得する。例えば、抽出装置100は、POI情報と、ユーザU1の位置LCの変化との比較により、ユーザU1がXX公園に向かっていると推定する。図1の例では、抽出装置100は、位置LC11、LC12により、ユーザU1がXX公園に向かって(図1では下から上方向へ)移動していると推定する。なお、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。また、抽出装置100は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。   For example, the extraction device 100 estimates that the user U1 is heading to the XX park by comparing the POI information with the position LC of the user U1. For example, the extraction apparatus 100 acquires a position LC12 indicating that the user U1 is in a position different from the position LC11 at a date and time dt12 later than the date and time dt11 and is in the XX park. For example, the extraction apparatus 100 estimates that the user U1 is heading to the XX park by comparing the POI information with the change in the position LC of the user U1. In the example of FIG. 1, the extraction device 100 estimates that the user U1 is moving toward the XX park (from the bottom to the top in FIG. 1) based on the positions LC11 and LC12. Note that the extraction device 100 may estimate the moving direction of the user based on the acceleration detected by the terminal device 10. Further, the extraction device 100 may estimate movement from the point where the position information was last detected based on the acceleration detected by the terminal device 10 by appropriately using various conventional techniques.

そして、抽出装置100は、日時dt12よりも後の日時dt13においてユーザU1が、XX公園内において、位置LC12とは異なる位置にいることを示す位置LC13を取得する。図1の例では、抽出装置100は、位置LC12、LC13により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC12、LC13により、ユーザU1の移動速度を推定する。また、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動速度を推定してもよい。   Then, the extraction device 100 acquires a position LC13 indicating that the user U1 is at a position different from the position LC12 in the XX park at a date and time dt13 later than the date and time dt12. In the example of FIG. 1, the extraction apparatus 100 estimates that the user U1 is moving in the XX park based on the positions LC12 and LC13. Further, the extraction device 100 estimates the moving speed of the user U1 based on the positions LC12 and LC13. In addition, the extraction device 100 may estimate the moving speed of the user based on the acceleration detected by the terminal device 10.

そして、抽出装置100は、日時dt13よりも後の日時dt14においてユーザU1が、XX公園内において、位置LC13とは異なる位置にいることを示す位置LC14を取得する。図1の例では、抽出装置100は、位置LC13、LC14により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC13、LC14により、ユーザU1の移動速度を推定する。   Then, the extraction device 100 acquires a position LC14 indicating that the user U1 is at a position different from the position LC13 in the XX park at a date and time dt14 later than the date and time dt13. In the example of FIG. 1, the extraction apparatus 100 estimates that the user U1 is moving in the XX park based on the positions LC13 and LC14. Further, the extraction device 100 estimates the moving speed of the user U1 based on the positions LC13 and LC14.

そして、抽出装置100は、日時dt14よりも後の日時dt15においてユーザU1が、XX公園内において、位置LC14とは異なる位置にいることを示す位置LC15を取得する。図1の例では、抽出装置100は、位置LC14、LC15により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC14、LC15により、ユーザU1の移動速度を推定する。   Then, the extraction device 100 acquires a position LC15 indicating that the user U1 is at a position different from the position LC14 in the XX park at a date and time dt15 later than the date and time dt14. In the example of FIG. 1, the extraction device 100 estimates that the user U1 is moving in the XX park based on the positions LC14 and LC15. Further, the extraction device 100 estimates the moving speed of the user U1 based on the positions LC14 and LC15.

そして、抽出装置100は、日時dt15よりも後の日時dt16においてユーザU1が、XX公園内において、位置LC15とは異なる位置にいることを示す位置LC16を取得する。図1の例では、抽出装置100は、位置LC15、LC16により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC15、LC16により、ユーザU1の移動速度を推定する。   Then, the extraction apparatus 100 acquires a position LC16 indicating that the user U1 is at a position different from the position LC15 in the XX park at a date and time dt16 after the date and time dt15. In the example of FIG. 1, the extraction apparatus 100 estimates that the user U1 is moving in the XX park based on the positions LC15 and LC16. Further, the extraction device 100 estimates the moving speed of the user U1 from the positions LC15 and LC16.

そして、抽出装置100は、日時dt16よりも後の日時dt17においてユーザU1が、XX公園から離れたことを示す位置LC17を取得する。そして、抽出装置100は、日時dt17よりも後の日時dt18においてユーザU1が、Aコンビニ(ショップSP1)にいることを示す位置LC18を取得する。また、抽出装置100は、日時dt18においてユーザU1が、AコンビニでW水を購入したことを示す行動情報AC11を取得する。   Then, the extraction device 100 acquires a position LC17 indicating that the user U1 has left the XX park at a date dt17 later than the date dt16. Then, the extraction device 100 acquires a position LC18 indicating that the user U1 is at the A convenience store (shop SP1) at the date dt18 after the date dt17. In addition, the extraction device 100 acquires action information AC11 indicating that the user U1 purchased W water at the A convenience store at the date dt18.

抽出装置100は、日時dt11〜dt18において検知されたユーザの複数の位置情報LC11〜LC18のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS11)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出装置100は、ユーザU1の位置情報の変化が例えば時速10km等のランニングに対応する速度で変化している位置情報群を抽出する。図1の例では、抽出装置100は、ユーザU1がXX公園(関心地点POI1)においてランニングを行っている際の位置情報群を抽出する。例えば、抽出装置100は、ユーザU1の位置情報の変化が例えば時速10km等でXX公園の周囲を移動している位置情報群を抽出する。   The extraction apparatus 100 extracts a position information group satisfying a predetermined regularity regarding a change in position from the plurality of position information LC11 to LC18 of the user detected at the date and time dt11 to dt18 (step S11). For example, the extraction apparatus 100 extracts a position information group that satisfies a predetermined regularity corresponding to “behavior pattern PT1 (running)” as shown in the model information storage unit 124 (see FIG. 8). For example, the extraction device 100 extracts a position information group in which the change in the position information of the user U1 is changing at a speed corresponding to running, such as 10 km / h. In the example of FIG. 1, the extraction device 100 extracts a position information group when the user U1 is running in the XX park (point of interest POI1). For example, the extraction apparatus 100 extracts a position information group in which the change in the position information of the user U1 is moving around the XX park at, for example, 10 km / h.

図1の例では、XX公園内において、位置LC14から位置LC15への移動は、ユーザU1の周回方向(図1の例では時計回りの方向)に、位置LC12を通過している。抽出装置100は、上記のようなユーザU1の移動経過やユーザU1の速度に基づいて、ユーザU1がXX公園内をランニングしていると推定する。そのため、抽出装置100は、日時dt12〜dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12〜LC16を抽出する。図1の例では、抽出装置100は、日時dt12〜dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12〜LC16を抽出する。   In the example of FIG. 1, in the XX park, the movement from the position LC14 to the position LC15 passes through the position LC12 in the circulation direction of the user U1 (the clockwise direction in the example of FIG. 1). The extraction device 100 estimates that the user U1 is running in the XX park based on the movement progress of the user U1 and the speed of the user U1 as described above. Therefore, the extraction device 100 extracts the position information LC12 to LC16 in which the user U1 is moving around the XX park at the date and time dt12 to dt16. In the example of FIG. 1, the extraction device 100 extracts position information LC12 to LC16 in which the user U1 is moving around the XX park at the date and time dt12 to dt16.

そして、抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動のうち、所定の条件を満たす行動(以下、「対象行動」ともいう)を抽出する(ステップS12)。例えば、抽出装置100は、位置情報群(位置情報LC12〜LC16)が検知された対象期間(日時dt12〜dt16)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。図1の例では、抽出装置100は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。抽出装置100は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。図1の例では、抽出装置100は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内の日時dt18においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。また、抽出装置100は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内(例えば1km以内)においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。なお、図1の例では、ユーザU1のみの情報を抽出する例を示したが、多数(例えば、1万人等)のユーザについても同様の情報が抽出されているものとする。   Then, the extraction apparatus 100 extracts an action satisfying a predetermined condition (hereinafter, also referred to as “target action”) from the user action outside the target period, which is the period in which the position information group is detected (step S12). . For example, the extraction apparatus 100 includes target behavior information that is behavior information satisfying a predetermined condition among user behavior information outside the target period (dates dt12 to dt16) in which the position information group (position information LC12 to LC16) is detected. To extract. In the example of FIG. 1, the extraction apparatus 100 includes target behavior information that is behavior information satisfying a predetermined condition among user behavior information within a predetermined period (period PD1) from the end of the target period (date and time dt16). To extract. The extraction apparatus 100 may extract target behavior information that is behavior information satisfying a predetermined condition among user behavior information within a predetermined range from the position LC16 at the end of the target period (date and time dt16). In the example of FIG. 1, the extraction apparatus 100 has behavior information indicating that the user U1 has purchased W water at the A convenience store at a date and time dt18 within a predetermined period (period PD1) from the end of the target period (date and time dt16). AC11 is extracted as target action information. Further, the extraction apparatus 100 uses the behavior information AC11 indicating that the user U1 has purchased W water at the A convenience store within a predetermined range (for example, within 1 km) from the position LC16 at the end of the target period (date dt16). Extract as information. In the example of FIG. 1, an example in which only the information of the user U1 is extracted is shown, but it is assumed that the same information is extracted for a large number of users (for example, 10,000 people).

そして、抽出装置100は、位置情報群と対象行動情報とに基づいて、モデルを生成する(ステップS13)。図1の例では、抽出装置100は、位置情報LC12〜LC16と、行動情報AC11とに基づいて、モデルM1を生成する。例えば、抽出装置100は、位置情報群が抽出されたユーザが飲料を購入するかを予測するモデルM1を生成する。例えば、抽出装置100は、ランニング後にユーザが飲料を購入するかを予測するモデルM1を生成する。図1の例では、抽出装置100は、ユーザU1を含む多数(例えば、1万人等)のユーザについて抽出した位置情報群を用いて、モデルM1を生成する。   Then, the extraction device 100 generates a model based on the position information group and the target behavior information (Step S13). In the example of FIG. 1, the extraction device 100 generates a model M1 based on the position information LC12 to LC16 and the behavior information AC11. For example, the extraction device 100 generates a model M1 that predicts whether the user from whom the position information group has been extracted purchases a beverage. For example, the extraction device 100 generates a model M1 that predicts whether a user purchases a beverage after running. In the example of FIG. 1, the extraction apparatus 100 generates a model M1 using the position information group extracted for a large number of users (for example, 10,000 people) including the user U1.

例えば、抽出装置100は、行動パターンPT1の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲料の購入が行われたことを示す情報との組合せを正例として、モデルM1を生成する。例えば、抽出装置100は、正例となる位置情報群が入力された場合に、スコア「1」を出力するように学習処理を行うことにより、モデルM1を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「1」に近いスコアを出力する程、行動パターンPT1の行動後に飲料の購入が行われる可能性が高いことを示すモデルM1を生成する。また、例えば、抽出装置100は、飲料の購入が行われていない前後において検知されたユーザの位置情報群を負例として、モデルM1を生成してもよい。例えば、抽出装置100は、負例となる位置情報群が入力された場合に、スコア「0」を出力するように学習処理を行うことにより、モデルM1を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「0」に近いスコアを出力する程、飲料の購入が行われる可能性が低いことを示すモデルM1を生成する。例えば、抽出装置100は、行動パターンPT1の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲料の購入が行われていないことを示す情報との組合せを負例として、モデルM1を生成してもよい。   For example, the extraction apparatus 100 uses the combination of the position information group extracted as satisfying the regularity of the behavior pattern PT1 and information indicating that the beverage has been purchased before and after the behavior as a positive example, as a model M1. Is generated. For example, the extraction device 100 generates a model M1 by performing a learning process so as to output a score “1” when a position information group as a positive example is input. For example, when the position information group is input, the extraction device 100 outputs a model M1 indicating that the more likely a beverage is purchased after the action of the action pattern PT1 is output, the closer the score is to “1”. Generate. In addition, for example, the extraction device 100 may generate the model M1 by using, as a negative example, a user position information group detected before and after a beverage is not purchased. For example, the extraction apparatus 100 generates a model M1 by performing a learning process so as to output a score “0” when a position information group serving as a negative example is input. For example, when the position information group is input, the extraction device 100 generates a model M1 indicating that the more likely a beverage is purchased, the more a score close to “0” is output. For example, the extraction apparatus 100 uses, as a negative example, a combination of a position information group extracted as satisfying the regularity of the action pattern PT1 and information indicating that a beverage is not purchased before and after the action. M1 may be generated.

なお、各モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、モデルの生成は、SVM(Support Vector Machine)等の教師あり学習の機械学習に関する技術を用いて行われてもよい。また、例えば、モデルの生成は、教師なし学習の機械学習に関する技術を用いて行われてもよい。例えば、モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、モデルの生成は、DNN(Deep Neural Network)やRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記モデルの生成に関する記載は例示であり、モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。   Each model may be generated using various conventional techniques relating to machine learning as appropriate. For example, the model generation may be performed using a technique related to machine learning of supervised learning such as SVM (Support Vector Machine). Further, for example, the model generation may be performed using a technique related to machine learning of unsupervised learning. For example, the generation of the model may be performed using a deep learning technique. For example, the model generation may be performed by appropriately using various deep learning techniques such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), and CNN (Convolutional Neural Network). The description relating to the generation of the model is merely an example, and the generation of the model may be performed by a learning method appropriately selected according to information that can be acquired.

〔1−3.滞在(位置変化無)について〕
図2の例では、抽出装置100がユーザU2について、日時dt21〜dt26において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。なお、ユーザU2は、端末装置10を利用するユーザであり、抽出装置100は端末装置10が有するGPSセンサ等の機能により端末装置10の位置を取得する。図2に示す地図情報MP2は、ユーザU2の位置を模式的に示す。また、地図情報MP2において、端末装置10(端末装置10を所有するユーザ)の位置を位置LC21〜LC23により示す。なお、位置LC21〜LC23を区別しない場合は、位置LCとする場合がある。また、以下では、抽出装置100がユーザU2の位置やユーザU2の行動情報をリアルタイムに取得する場合を示すが、抽出装置100は適宜のタイミングでユーザU2の位置やユーザU2の行動情報を取得し、抽出処理を行ってもよい。例えば、抽出装置100は、定期的(例えば1時間おき)に各ユーザの位置や行動情報を取得し、抽出処理を行ってもよい。
[1-3. About stay (no change in position)
In the example of FIG. 2, the extraction apparatus 100 extracts a position information group that satisfies a predetermined regularity related to a change in position among a plurality of pieces of position information of the user detected at dates dt21 to dt26 for the user U2. . Note that the user U <b> 2 is a user who uses the terminal device 10, and the extraction device 100 acquires the position of the terminal device 10 by a function such as a GPS sensor included in the terminal device 10. The map information MP2 shown in FIG. 2 schematically shows the position of the user U2. In the map information MP2, the positions of the terminal device 10 (the user who owns the terminal device 10) are indicated by positions LC21 to LC23. If the positions LC21 to LC23 are not distinguished, the position LC may be used. Moreover, although the case where the extraction apparatus 100 acquires the position of the user U2 and the action information of the user U2 in real time will be described below, the extraction apparatus 100 acquires the position of the user U2 and the action information of the user U2 at an appropriate timing. The extraction process may be performed. For example, the extraction apparatus 100 may acquire the position and behavior information of each user periodically (for example, every hour) and perform the extraction process.

まず、抽出装置100は、日時dt21においてユーザU2の位置LC21を取得する。そして、抽出装置100は、日時dt21よりも後の日時dt22においてユーザU2が、YY映画館(関心地点POI2)内にいることを示す位置LC22を取得する。   First, the extraction device 100 acquires the position LC21 of the user U2 at the date and time dt21. Then, the extraction device 100 acquires a position LC22 indicating that the user U2 is in the YY movie theater (the point of interest POI2) at a date dt22 later than the date dt21.

例えば、抽出装置100は、POI情報と、ユーザU2の位置LCとの比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、抽出装置100は、日時dt21よりも後の日時dt22においてユーザU2が、位置LC21とは異なる位置であって、YY映画館内にいることを示す位置LC22を取得する。例えば、抽出装置100は、POI情報と、ユーザU2の位置LCの変化との比較により、ユーザU2がYY映画館に向かっていると推定する。図2の例では、抽出装置100は、位置LC21、LC22により、ユーザU2がYY映画館に向かって(図2では下から上方向へ)移動していると推定する。なお、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。また、抽出装置100は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。   For example, the extraction apparatus 100 estimates that the user U2 is heading to the YY movie theater by comparing the POI information with the position LC of the user U2. For example, the extraction apparatus 100 acquires a position LC22 indicating that the user U2 is in a position different from the position LC21 and is in the YY movie hall at a date and time dt22 later than the date and time dt21. For example, the extraction apparatus 100 estimates that the user U2 is heading to the YY movie theater by comparing the POI information with the change in the position LC of the user U2. In the example of FIG. 2, the extraction device 100 estimates that the user U2 is moving toward the YY movie theater (from the bottom to the top in FIG. 2) based on the positions LC21 and LC22. Note that the extraction device 100 may estimate the moving direction of the user based on the acceleration detected by the terminal device 10. Further, the extraction device 100 may estimate movement from the point where the position information was last detected based on the acceleration detected by the terminal device 10 by appropriately using various conventional techniques.

そして、抽出装置100は、日時dt22よりも後の日時dt23においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22及び日時dt23に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。   Then, the extraction device 100 acquires a position LC22 indicating that the user U2 is in the YY movie hall at a date and time dt23 later than the date and time dt22. In the example of FIG. 2, the extraction apparatus 100 estimates that the user U2 is staying in the YY movie hall based on the position LC22 acquired at the date dt22 and the date dt23.

そして、抽出装置100は、日時dt23よりも後の日時dt24においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22〜日時dt24に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。また、抽出装置100は、日時dt24よりも後の日時dt25においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22〜日時dt25に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。また、例えば、抽出装置100は、ユーザU2の位置LC22が連続して検知された日時dt22〜日時dt25間の時間に基づいて、ユーザU2がYY映画館内において映画を観ていると推定してもよい。例えば、抽出装置100は、日時dt22〜日時dt25間の時間が所定の閾値(例えば1時間30分等)以上である場合、ユーザU2がYY映画館内において映画を観ていると推定してもよい。なお、日時dt22〜日時dt25の各々において検知される位置LC22は、ユーザU2がYY映画館内に位置することが推定できれば位置LC22から所定の範囲(誤差の範囲)内の位置であってもよい。   Then, the extraction device 100 acquires the position LC22 indicating that the user U2 is in the YY movie hall at the date dt24 after the date dt23. In the example of FIG. 2, the extraction apparatus 100 estimates that the user U2 is staying in the YY movie hall from the position LC22 acquired from the date dt22 to the date dt24. Further, the extraction device 100 acquires the position LC22 indicating that the user U2 is in the YY movie hall at the date dt25 after the date dt24. In the example of FIG. 2, the extraction apparatus 100 estimates that the user U2 is staying in the YY movie hall from the position LC22 acquired from the date dt22 to the date dt25. Further, for example, the extraction apparatus 100 estimates that the user U2 is watching a movie in the YY movie hall based on the time between the date dt22 and the date dt25 when the position LC22 of the user U2 is continuously detected. Good. For example, when the time between the date and time dt22 to the date and time dt25 is equal to or greater than a predetermined threshold (for example, 1 hour 30 minutes), the extraction device 100 may estimate that the user U2 is watching a movie in the YY movie hall. . The position LC22 detected in each of the date and time dt22 to the date and time dt25 may be a position within a predetermined range (error range) from the position LC22 as long as it can be estimated that the user U2 is located in the YY movie hall.

そして、抽出装置100は、日時dt25よりも後の日時dt26においてユーザU2が、YY映画館から離れたことを示す位置LC23を取得する。図2の例では、抽出装置100は、日時dt26においてユーザU2が、Bレストラン(ショップSP2)にいることを示す位置LC23を取得する。また、抽出装置100は、日時dt26においてユーザU2が、Bレストランで飲食を行ったことを示す行動情報AC21を取得する。   Then, the extraction device 100 acquires a position LC23 indicating that the user U2 has left the YY movie theater at a date dt26 later than the date dt25. In the example of FIG. 2, the extraction apparatus 100 acquires a position LC23 indicating that the user U2 is at the B restaurant (shop SP2) at the date and time dt26. In addition, the extraction device 100 acquires action information AC21 indicating that the user U2 has eaten or eaten at the restaurant B at the date and time dt26.

抽出装置100は、日時dt21〜dt26において検知されたユーザの複数の位置情報LC21〜LC23のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS21)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出装置100は、ユーザU2の位置情報の変化が例えば所定の時間に亘って変更していない位置情報群を抽出する。なお、ここでいう変更していない位置には、誤差の範囲内で変化した位置を含むものとする。図2の例では、抽出装置100は、ユーザU2がYY映画館(関心地点POI2)において滞在している際の位置情報群を抽出する。例えば、抽出装置100は、ユーザU2の位置情報の変化が例えば所定の時間に亘ってYY映画館内にある位置情報群を抽出する。   The extraction apparatus 100 extracts a position information group satisfying a predetermined regularity regarding a change in position from the plurality of pieces of position information LC21 to LC23 of the user detected at the dates dt21 to dt26 (step S21). For example, the extraction apparatus 100 extracts a position information group that satisfies a predetermined regularity corresponding to “behavior pattern PT2 (stay)” as shown in the model information storage unit 124 (see FIG. 8). For example, the extraction device 100 extracts a position information group in which the change in the position information of the user U2 has not changed over, for example, a predetermined time. Here, the position that has not been changed includes a position that has changed within the error range. In the example of FIG. 2, the extraction device 100 extracts a position information group when the user U2 is staying at the YY movie theater (the point of interest POI2). For example, the extraction apparatus 100 extracts a position information group in which the change in the position information of the user U2 is in the YY movie hall, for example, over a predetermined time.

図2の例では、YY映画館内において、位置LC22は、日時dt22〜dt25の間に亘って継続して検知されているため、ユーザU2がYY映画館内に滞在していると推定する。そのため、抽出装置100は、日時dt22〜dt25においてユーザU2がYY映画館内に滞在していることを示す日時dt22〜dt25に各々対応する位置情報LC22を抽出する。図2の例では、抽出装置100は、日時dt22〜dt25においてユーザU2がYY映画館内に滞在していることを示す日時dt22〜dt25に各々対応する複数の位置情報LC22を抽出する。   In the example of FIG. 2, in the YY movie hall, since the position LC22 is continuously detected between the dates dt22 to dt25, it is estimated that the user U2 is staying in the YY movie hall. Therefore, the extraction apparatus 100 extracts the position information LC22 corresponding to each of the dates dt22 to dt25 indicating that the user U2 is staying in the YY movie hall at the dates dt22 to dt25. In the example of FIG. 2, the extraction apparatus 100 extracts a plurality of pieces of position information LC22 respectively corresponding to the dates dt22 to dt25 indicating that the user U2 is staying in the YY movie hall at the dates dt22 to dt25.

そして、抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動のうち、所定の条件を満たす対象行動を抽出する(ステップS22)。例えば、抽出装置100は、位置情報群(4つの位置情報LC22)が検知された対象期間(日時dt22〜dt25)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。図2の例では、抽出装置100は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出装置100は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。図2の例では、抽出装置100は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内の日時dt26においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。また、抽出装置100は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内(例えば2km以内)においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。なお、図2の例では、ユーザU2のみの情報を抽出する例を示したが、多数(例えば、10万人等)のユーザについても同様の情報が抽出されているものとする。   And the extraction apparatus 100 extracts the target action which satisfy | fills predetermined conditions among the user's action out of the target period which is the period when the positional information group was detected (step S22). For example, the extraction device 100 includes target behavior information that is behavior information satisfying a predetermined condition among user behavior information outside the target period (dates dt22 to dt25) in which the position information group (four position information LC22) is detected. To extract. In the example of FIG. 2, the extraction device 100 includes target behavior information that is behavior information that satisfies a predetermined condition among user behavior information within a predetermined period (period PD2) from the end of the target period (date and time dt25). To extract. For example, the extraction apparatus 100 may extract target behavior information that is behavior information satisfying a predetermined condition among user behavior information within a predetermined range from the position LC22 at the end of the target period (date and time dt25). . In the example of FIG. 2, the extraction apparatus 100 includes behavior information AC21 indicating that the user U2 has eaten or eaten at the B restaurant from the end of the target period (date and time dt25) to a date and time dt26 within a predetermined period (period PD2). Is extracted as target behavior information. In addition, the extraction apparatus 100 uses the behavior information AC21 indicating that the user U2 has eaten or eaten at the restaurant B within a predetermined range (for example, within 2 km) from the position LC22 at the end of the target period (date dt25). Extract as In the example of FIG. 2, an example in which only the information on the user U2 is extracted has been described. However, it is assumed that the same information is extracted for a large number of users (for example, 100,000 people).

そして、抽出装置100は、位置情報群と対象行動情報とに基づいて、モデルを生成する(ステップS23)。図2の例では、抽出装置100は、4つの位置情報LC22と、行動情報AC21とに基づいて、モデルM2を生成する。例えば、抽出装置100は、位置情報群が抽出されたユーザが飲食を行うか予測するモデルM2を生成する。例えば、抽出装置100は、滞在後にユーザが飲食を行うかを予測するモデルM2を生成する。図2の例では、抽出装置100は、ユーザU2を含む多数(例えば、10万人等)のユーザについて抽出した位置情報群を用いて、モデルM2を生成する。   And the extracting device 100 produces | generates a model based on a positional information group and object action information (step S23). In the example of FIG. 2, the extraction device 100 generates a model M2 based on the four pieces of position information LC22 and the behavior information AC21. For example, the extraction device 100 generates a model M2 that predicts whether the user from whom the position information group has been extracted will eat or drink. For example, the extraction device 100 generates a model M2 that predicts whether the user will eat or drink after staying. In the example of FIG. 2, the extraction apparatus 100 generates a model M2 using the position information group extracted for a large number of users (for example, 100,000 people) including the user U2.

例えば、抽出装置100は、行動パターンPT2の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲食が行われたことを示す情報との組合せを正例として、モデルM2を生成する。例えば、抽出装置100は、正例となる位置情報群が入力された場合に、スコア「1」を出力するように学習処理を行うことにより、モデルM2を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「1」に近いスコアを出力する程、行動パターンPT2の行動後に飲食が行われる可能性が高いことを示すモデルM2を生成する。また、例えば、抽出装置100は、飲食が行われていない前後において検知されたユーザの位置情報群を負例として、モデルM2を生成してもよい。例えば、抽出装置100は、負例となる位置情報群が入力された場合に、スコア「0」を出力するように学習処理を行うことにより、モデルM2を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「0」に近いスコアを出力する程、飲食が行われる可能性が低いことを示すモデルM2を生成する。例えば、抽出装置100は、行動パターンPT2の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲食が行われていないことを示す情報との組合せを負例として、モデルM2を生成してもよい。   For example, the extraction apparatus 100 generates a model M2 using a combination of a position information group extracted as satisfying the regularity of the behavior pattern PT2 and information indicating that eating and drinking has been performed before and after the behavior as a positive example. To do. For example, the extraction apparatus 100 generates a model M2 by performing a learning process so as to output a score “1” when a position information group as a positive example is input. For example, when the position information group is input, the extraction apparatus 100 generates the model M2 indicating that the possibility of eating and drinking after the action of the action pattern PT2 is higher as the score closer to “1” is output. . In addition, for example, the extraction device 100 may generate the model M2 by using, as a negative example, a user position information group detected before and after no eating or drinking is performed. For example, the extraction apparatus 100 generates a model M2 by performing a learning process so as to output a score “0” when a position information group serving as a negative example is input. For example, when the position information group is input, the extraction device 100 generates a model M2 indicating that the possibility of eating and drinking is lower as the score closer to “0” is output. For example, the extraction apparatus 100 takes a model M2 as a negative example of a combination of a positional information group extracted as satisfying the regularity of the behavior pattern PT2 and information indicating that eating and drinking is not performed before and after the behavior. It may be generated.

上述したように、抽出装置100は、規則性を満たすユーザの情報を適切に抽出することができる。図1の例では、抽出装置100は、ユーザがXX公園を周回するような行動を行っている場合、ユーザの位置が位置の変化に関する所定の規則性を満たすとして、その位置情報群を抽出する。また、抽出装置100は、位置情報群が検知された期間である対象期間外における対象行動を抽出する。これにより、抽出装置100は、ユーザがランニングをしていることを示す位置情報群と、その前後におけるユーザの対象行動とを対応付けて抽出することが可能となる。また、図2の例では、抽出装置100は、ユーザが所定の関心地点(YY映画館等)に滞在している場合、ユーザの位置が位置の変化に関する所定の規則性を満たすとして、その位置情報群を抽出する。これにより、抽出装置100は、ユーザが所定の位置に滞在していることを示す位置情報群と、その前後におけるユーザの対象行動とを対応付けて抽出することが可能となる。また、抽出装置100は、このように抽出された位置情報群を用いてモデルを生成することにより、ユーザの対象行動の発生有無を適切に推定することができるモデルを生成することができる。このように、抽出装置100は、ユーザの行動を適切に推定することができるモデルを生成することができる。   As described above, the extraction apparatus 100 can appropriately extract user information that satisfies regularity. In the example of FIG. 1, when the user is performing an action such as going around the XX park, the extraction apparatus 100 extracts the position information group assuming that the position of the user satisfies a predetermined regularity regarding the change in position. . Further, the extraction apparatus 100 extracts a target action outside the target period, which is a period in which the position information group is detected. Thereby, the extraction device 100 can extract the positional information group indicating that the user is running and the target behavior of the user before and after the position information group in association with each other. Further, in the example of FIG. 2, when the user is staying at a predetermined point of interest (YY movie theater or the like), the extraction apparatus 100 assumes that the position of the user satisfies a predetermined regularity regarding the change in position. Extract information group. Thereby, the extraction device 100 can extract the position information group indicating that the user is staying at a predetermined position and the user's target behavior before and after the position information group in association with each other. In addition, the extraction apparatus 100 can generate a model that can appropriately estimate whether the user's target action has occurred by generating a model using the position information group extracted in this way. As described above, the extraction device 100 can generate a model that can appropriately estimate the user's behavior.

〔1−4.対象行動(時間)及び情報提供〕
上述した例では、位置情報群が検知された期間である対象期間後にユーザが対象行動を行った場合を例に説明したが、ユーザの対象行動は、対象期間よりも前に行われてもよい。例えば、図1の例において、ユーザU1が対象期間(日時dt12〜dt16)よりも前の時点(例えば日時dt10)にZコンビニでX飲料を購入している場合、抽出装置100は、ZコンビニでX飲料の購入を対象行動として抽出してもよい。例えば、抽出装置100は、対象期間の開始時(日時dt12)の位置LC12から所定の範囲内(例えば1km以内)においてユーザU1がZコンビニでX飲料を購入したことを示す行動情報を対象行動情報として抽出する。このように、抽出装置100は、対象期間前におけるユーザの対象行動を抽出し、位置情報群と対象期間前におけるユーザの対象行動とを対応付けて記憶してもよい。また、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を外部の情報処理装置へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近に出店を計画している事業者へ提供してもよい。
[1-4. (Target action (time) and information provision)
In the example described above, the case where the user performs the target action after the target period that is the period in which the position information group is detected has been described as an example. However, the target action of the user may be performed before the target period. . For example, in the example of FIG. 1, when the user U1 purchases X beverage at a Z convenience store at a time point (for example, date dt10) before the target period (dates dt12 to dt16), the extraction device 100 is a Z convenience store. You may extract purchase of X drink as object action. For example, the extraction device 100 uses the behavior information indicating that the user U1 has purchased the X beverage at the Z convenience store within a predetermined range (for example, within 1 km) from the position LC12 at the start of the target period (date dt12). Extract as As described above, the extraction device 100 may extract the target behavior of the user before the target period, and store the positional information group and the target behavior of the user before the target period in association with each other. In addition, the extraction device 100 may provide information that associates the position information group with the target behavior of the user before the target period to an external information processing device. For example, the extraction apparatus 100 may provide information that associates the position information group with the target action of the user before the target period to a business operator who is researching the vicinity of the area including the XX park. For example, the extraction device 100 may provide information that associates the position information group with the target behavior of the user before the target period to a business operator planning to open a store near the area including the XX park.

例えば、図2の例において、ユーザU2が対象期間(日時dt22〜dt25)よりも前の時点(例えば日時dt20)にCレストランで飲食を行っている場合、抽出装置100は、Cレストランでの飲食を対象行動として抽出してもよい。例えば、抽出装置100は、対象期間の開始時(日時dt22)の位置LC22から所定の範囲内(例えば2km以内)においてユーザU2がCレストランで飲食を行ったことを示す行動情報を対象行動情報として抽出する。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近に出店を計画している事業者へ提供してもよい。   For example, in the example of FIG. 2, when the user U2 eats and drinks at the C restaurant at a time point (for example, the date and time dt20) before the target period (date and time dt22 to dt25), the extraction device 100 uses the food and drink at the C restaurant. May be extracted as the target action. For example, the extraction device 100 uses, as the target behavior information, behavior information indicating that the user U2 has eaten or eaten at the C restaurant within a predetermined range (for example, within 2 km) from the position LC22 at the start of the target period (date and time dt22). Extract. For example, the extraction device 100 may provide information that associates the position information group with the target action of the user before the target period to a business operator who is researching the vicinity of the area including the YY movie theater. For example, the extraction apparatus 100 may provide information that associates the position information group with the target behavior of the user before the target period to a business operator planning to open a store near the area including the YY movie theater.

なお、抽出装置100は、位置情報群と対象期間前の対象行動とに基づいて、モデルを生成してもよい。例えば、抽出装置100は、位置情報群が抽出される前にユーザが飲食を行っていたかを推定するモデルを生成してもよい。例えば、抽出装置100は、滞在前にユーザが飲食を行ったかを推定するモデルを生成する。   Note that the extraction apparatus 100 may generate a model based on the position information group and the target behavior before the target period. For example, the extraction apparatus 100 may generate a model that estimates whether the user was eating or drinking before the position information group was extracted. For example, the extraction apparatus 100 generates a model that estimates whether the user has eaten or eaten before staying.

〔1−5.対象行動(空間)及び情報提供〕
上述した例では、ユーザが対象行動を実空間において行った場合を例に説明したが、ユーザの対象行動は実空間に限らず、例えばインターネット空間(ウェブ上)において行われてもよい。
[1-5. (Target action (space) and information provision)
In the example described above, the case where the user performs the target action in the real space has been described as an example. However, the target action of the user is not limited to the real space, and may be performed in, for example, the Internet space (on the web).

例えば、図1の例において、ユーザU1が対象期間(日時dt12〜dt16)後の日時(例えば日時dt17)において、端末装置10によりクエリ「コンビニ」を用いて検索を行っている場合、抽出装置100は、ユーザU1によるクエリ「コンビニ」を用いた検索を対象行動として抽出してもよい。このように、抽出装置100は、対象期間後のウェブ上におけるユーザの対象行動を抽出し、位置情報群とウェブ上におけるユーザの対象行動とを対応付けて記憶してもよい。また、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を外部の情報処理装置へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近に出店を計画している事業者へ提供してもよい。   For example, in the example of FIG. 1, when the user U1 performs a search using the query “convenience store” by the terminal device 10 at a date and time (for example, date and time dt17) after the target period (date and time dt12 to dt16), the extraction device 100 May extract a search using the query “convenience store” by the user U1 as the target action. As described above, the extraction apparatus 100 may extract the target behavior of the user on the web after the target period, and store the positional information group and the target behavior of the user on the web in association with each other. In addition, the extraction device 100 may provide information that associates the position information group with the target behavior of the user on the web to an external information processing device. For example, the extraction apparatus 100 may provide information that associates the position information group with the target behavior of the user on the web to a business operator who is researching the vicinity of the area including the XX park. For example, the extraction apparatus 100 may provide information that associates the position information group with the target behavior of the user on the web to a business operator planning to open a store near an area including the XX park.

例えば、図2の例において、ユーザU2が対象期間(日時dt22〜dt25)後の日時(例えば日時dt26)において、端末装置10によりクエリ「レストラン」を用いて検索を行っている場合、抽出装置100は、ユーザU2によるクエリ「レストラン」を用いた検索を対象行動として抽出してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近に出店を計画している事業者へ提供してもよい。このように、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報に基づく、需要を予測する情報を外部の情報処理装置へ提供してもよい。   For example, in the example of FIG. 2, when the user U2 performs a search using the query “restaurant” by the terminal device 10 at the date and time (for example, date and time dt26) after the target period (date and time dt22 to dt25), the extraction device 100 May extract a search using the query “restaurant” by the user U2 as the target action. For example, the extraction device 100 may provide information that associates the position information group with the target behavior of the user on the web to a business operator who is researching the vicinity of the area including the YY movie theater. For example, the extraction device 100 may provide information that associates the position information group with the target behavior of the user on the web to a business operator planning to open a store near an area including a YY movie theater. As described above, the extraction apparatus 100 may provide information for predicting demand to an external information processing apparatus based on information in which the position information group and the user's target behavior on the web are associated with each other.

〔1−6.モデルの利用〕
抽出装置100は、上述した例で生成したモデルM1、M2等を用いてユーザの所定の行動の発生有無を推定してもよい。
[1-6. (Use of model)
The extraction apparatus 100 may estimate whether or not a predetermined action of the user has occurred using the models M1 and M2 generated in the above-described example.

例えば、抽出装置100は、ユーザU5について抽出した位置情報群をモデルM1に入力することにより、ユーザU5が所定の行動を行うかどうかを予測してもよい。例えば、抽出装置100は、ZZ公園の周囲に位置するユーザU5について抽出した位置情報群をモデルM1に入力し、出力されたスコアが所定の閾値以上である場合、ユーザU5が購入行動を行うと予測してもよい。   For example, the extraction apparatus 100 may predict whether or not the user U5 performs a predetermined action by inputting the position information group extracted for the user U5 to the model M1. For example, when the extraction apparatus 100 inputs the position information group extracted for the user U5 located around the ZZ park to the model M1 and the output score is equal to or greater than a predetermined threshold, the user U5 performs a purchase action. It may be predicted.

例えば、抽出装置100は、ユーザU10について抽出した位置情報群をモデルM2に入力することにより、ユーザU10が所定の行動を行うかどうかを予測してもよい。例えば、抽出装置100は、所定の期間位置が変化しないユーザU10について抽出した位置情報群をモデルM2に入力し、出力されたスコアが所定の閾値以上である場合、ユーザU10が飲食を行うと予測してもよい。   For example, the extraction apparatus 100 may predict whether or not the user U10 performs a predetermined action by inputting the position information group extracted for the user U10 to the model M2. For example, the extraction apparatus 100 inputs a position information group extracted for the user U10 whose position does not change for a predetermined period to the model M2, and predicts that the user U10 will eat and drink when the output score is equal to or greater than a predetermined threshold. May be.

〔1−7.端末装置側での抽出〕
なお、上述した例では、抽出装置100が端末装置10から取得した複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する例を示したが、各端末装置10が検知した複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出してもよい。この場合、端末装置10が抽出装置であってもよい。この場合、抽出システムには、抽出装置としての端末装置10と、端末装置10が抽出した規則性に関する情報を収集してサービスを提供するサービス提供装置とが含まれてもよい。この点について、以下説明する。
[1-7. (Extraction on the terminal device side)
In the above-described example, the example in which the extraction apparatus 100 extracts the position information group satisfying the predetermined regularity regarding the change of the position from the plurality of position information acquired from the terminal apparatus 10 has been described. Among a plurality of pieces of position information detected by, a position information group satisfying a predetermined regularity regarding a change in position may be extracted. In this case, the terminal device 10 may be an extraction device. In this case, the extraction system may include a terminal device 10 as an extraction device and a service providing device that collects information on regularity extracted by the terminal device 10 and provides a service. This point will be described below.

各ユーザが利用する端末装置10は、検知した複数の位置情報のうち、各ユーザの位置の変化に関する所定の規則性を満たす位置情報群を抽出する。これにより、端末装置10は、各ユーザ個別の規則性を満たす位置情報群を抽出する。また、端末装置10は、その端末装置10を利用する個別のユーザについて抽出した規則性や位置に対するコンテキスト等に関する情報を生成(計算)し、その結果(情報)をサービス提供装置に送信してもよい。   The terminal device 10 used by each user extracts a position information group satisfying a predetermined regularity regarding a change in the position of each user from the detected plurality of position information. Thereby, the terminal device 10 extracts a position information group satisfying the regularity of each user. Further, the terminal device 10 may generate (calculate) information related to the regularity extracted for each individual user who uses the terminal device 10 and the context regarding the position, and transmit the result (information) to the service providing device. Good.

例えば、端末装置10は、「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出し、位置情報群に基づいて生成したその規則性に関する情報(例えば周回移動)等を示す情報やランニング中を示すコンテキスト情報をサービス提供装置に送信してもよい。また、例えば、端末装置10は、「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出し、位置情報群に基づいて生成したその規則性に関する情報(例えば位置変化無し)等を示す情報や一定期間滞在中を示すコンテキスト情報をサービス提供装置に送信してもよい。なお、上記は一例であり、端末装置10は、種々の規則性を示す情報やコンテキストを示す情報を生成してもよい。そして、端末装置10は、生成した情報を、端末装置10を識別する情報や端末装置10を利用するユーザを識別する情報とともに送信してもよい。端末装置10から情報を取得したサービス提供装置は、規則性を示す情報やコンテキストを示す情報と、ユーザとを関連付けて記憶し、その情報に基づいて、各ユーザにサービスを提供してもよい。   For example, the terminal device 10 extracts a position information group satisfying a predetermined regularity corresponding to the “behavior pattern PT1 (running)”, information on the regularity generated based on the position information group (for example, circular movement), etc. And information indicating running or context information indicating running may be transmitted to the service providing apparatus. Further, for example, the terminal device 10 extracts a position information group satisfying a predetermined regularity corresponding to the “behavior pattern PT2 (stay)”, and information on the regularity generated based on the position information group (for example, position change) No)) or context information indicating that the user is staying for a certain period of time may be transmitted to the service providing apparatus. Note that the above is an example, and the terminal device 10 may generate information indicating various regularities and information indicating context. Then, the terminal device 10 may transmit the generated information together with information for identifying the terminal device 10 and information for identifying a user who uses the terminal device 10. The service providing apparatus that has acquired information from the terminal device 10 may store information indicating regularity or information indicating context and the user in association with each other, and provide the service to each user based on the information.

このような抽出システムにおいては、サーバ側(サービス提供装置)に位置情報を送信することなく、クライアント側(端末装置10)において生成した情報を端末装置10がサービス提供装置に送信し、サービス提供装置がサービスを提供することができる。この場合、例えば、サービス提供装置は、関心地点の一覧情報(POIリスト)と、端末装置10から取得した規則性に関する情報やコンテキストに関する情報に基づいてサービスを提供する。例えば、サービス提供装置は、所定のPOI付近において、同様の規則性を示す情報が取得された場合に、その規則性を示す行動の後に同様の行動を行うと予測してサービスを提供してもよい。例えば、サービス提供装置は、所定のPOI付近において、規則性PTXを示す情報が取得された場合に、その規則性PTXを示す行動の後に商品Xを購入するという行動パターンを示す情報が所定数以上取得されている場合、所定のPOI付近において、規則性PTXを示す情報が取得された端末装置10に、商品Xの購入を促す情報を提供してもよい。なお、上記は一例であり、サービス提供装置は、POIの情報と、ユーザの行動の規則性を示す情報やコンテキストを示す情報に基づいて、種々のサービスを提供してもよい。このように、サービス提供装置は、端末装置10から取得した位置情報よりも抽象度が高い情報に基づいてサービスを提供することができる。これにより、抽出システムにおいては、各ユーザのプライバシーに配慮しつつ、ユーザに対してサービスを提供することができる。   In such an extraction system, the terminal device 10 transmits information generated on the client side (terminal device 10) to the service providing device without transmitting position information to the server side (service providing device), and the service providing device. Can provide services. In this case, for example, the service providing apparatus provides a service based on the list information (POI list) of the points of interest and the information on the regularity and the context acquired from the terminal device 10. For example, when information indicating the same regularity is acquired in the vicinity of a predetermined POI, the service providing apparatus may provide a service by predicting that the same action will be performed after the action indicating the regularity. Good. For example, when information indicating regularity PTX is acquired in the vicinity of a predetermined POI, the service providing apparatus has a predetermined number or more of information indicating an action pattern of purchasing the product X after the behavior indicating the regularity PTX If acquired, information prompting the purchase of the product X may be provided to the terminal device 10 from which information indicating the regularity PTX is acquired in the vicinity of a predetermined POI. Note that the above is an example, and the service providing apparatus may provide various services based on the POI information, information indicating the regularity of the user's behavior, and information indicating the context. As described above, the service providing apparatus can provide a service based on information having a higher abstraction level than the position information acquired from the terminal apparatus 10. Thereby, in the extraction system, it is possible to provide a service to the user while considering the privacy of each user.

〔2.抽出装置の構成〕
次に、図4を用いて、実施形態に係る抽出装置100の構成について説明する。図4は、実施形態に係る抽出装置の構成例を示す図である。図4に示すように、抽出装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、抽出装置100は、抽出装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. (Extractor configuration)
Next, the configuration of the extraction apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 4 is a diagram illustrating a configuration example of the extraction device according to the embodiment. As illustrated in FIG. 4, the extraction device 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The extraction device 100 includes an input unit (for example, a keyboard and a mouse) that receives various operations from an administrator of the extraction device 100, and a display unit (for example, a liquid crystal display) for displaying various types of information. May be.

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワーク(例えば図3中のネットワークN)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card). The communication unit 110 is connected to a network (for example, the network N in FIG. 3) by wire or wireless, and transmits / receives information to / from the terminal device 10.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、ユーザ情報記憶部121と、行動情報記憶部122と、位置情報記憶部123と、モデル情報記憶部124とを有する。なお、図4では、図示を省略するが、記憶部120には、図1に示すXX公園(関心地点POI1)のような各種の施設等(関心地点)が所在する位置等、関心地点に関する各種情報が記憶される。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 4, the storage unit 120 according to the embodiment includes a user information storage unit 121, a behavior information storage unit 122, a position information storage unit 123, and a model information storage unit 124. Although not shown in FIG. 4, the storage unit 120 stores various types of points of interest such as locations where various facilities (points of interest) such as XX park (point of interest POI1) shown in FIG. 1 are located. Information is stored.

(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性に関する各種情報やユーザの行動に関する各種情報を記憶する。図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。図5に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」といった項目が含まれる。
(User information storage unit 121)
The user information storage unit 121 according to the embodiment stores various types of information regarding the user. For example, the user information storage unit 121 stores various types of information regarding user attributes and various types of information regarding user behavior. FIG. 5 is a diagram illustrating an example of a user information storage unit according to the embodiment. The user information storage unit 121 illustrated in FIG. 5 includes items such as “user ID”, “age”, and “sex”.

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。   “User ID” indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. “Age” indicates the age of the user identified by the user ID. The “age” may be a specific age of the user identified by the user ID, such as 35 years old. “Gender” indicates the gender of the user identified by the user ID.

例えば、図5に示す例において、ユーザID「U1」により識別されるユーザの年齢は、「30代」であり、性別は、「男性」であることを示す。また、例えば、図5に示す例において、ユーザID「U2」により識別されるユーザの年齢は、「20代」であり、性別は、「女性」であることを示す。   For example, in the example illustrated in FIG. 5, the age of the user identified by the user ID “U1” is “30s”, and the gender is “male”. Further, for example, in the example illustrated in FIG. 5, the age of the user identified by the user ID “U2” is “20s”, and the gender is “female”.

なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、年齢や性別に加えて他のデモグラフィック属性情報やサイコグラフィック属性情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、自宅、勤務地、興味、家族構成、収入、ライフスタイル等の情報を記憶してもよい。   The user information storage unit 121 is not limited to the above, and may store various types of information according to the purpose. For example, the user information storage unit 121 may store other demographic attribute information and psychographic attribute information in addition to age and sex. For example, the user information storage unit 121 may store information such as name, home, work location, interest, family structure, income, lifestyle, and the like.

(行動情報記憶部122)
実施形態に係る行動情報記憶部122は、ユーザの行動に関する各種情報を記憶する。図6は、実施形態に係る行動情報記憶部の一例を示す図である。例えば、行動情報記憶部122は、各ユーザの行動等の各種の行動情報を記憶する。図6に示す行動情報記憶部122には、「ユーザID」、「行動ID」、「日時」、「種別」、「内容」といった項目が含まれる。
(Behavior information storage unit 122)
The behavior information storage unit 122 according to the embodiment stores various types of information regarding the user's behavior. FIG. 6 is a diagram illustrating an example of the behavior information storage unit according to the embodiment. For example, the behavior information storage unit 122 stores various behavior information such as the behavior of each user. The action information storage unit 122 illustrated in FIG. 6 includes items such as “user ID”, “action ID”, “date / time”, “type”, and “content”.

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動ID」は、ユーザの行動を識別する情報を示す。「日時」は、対応するユーザの行動が行われた日時を示す。なお、図6の例では、「dt18」等で図示するが、「日時」には、「2017年7月6日19時31分52秒」等の具体的な日時が記憶されてもよい。また、「種別」は、対応するユーザの行動の種別に関する情報を示す。また、「内容」は、対応するユーザの行動において対象となった内容を示す。   “User ID” indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. The “behavior ID” indicates information for identifying the user's behavior. “Date and time” indicates the date and time when the corresponding user action was performed. In the example of FIG. 6, “dt18” or the like is illustrated, but “date and time” may store a specific date and time such as “July 6, 2017 19:31:52”. The “type” indicates information related to the type of action of the corresponding user. Further, “content” indicates content that is targeted in the corresponding user's action.

例えば、図6に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、行動ID「AC18」により識別される行動(行動AC18)を行ったことを示す。例えば、図6に示す例においてユーザU1は、日時dt18において、AコンビニでW水の購入(行動AC18)を行ったことを示す。   For example, in the example illustrated in FIG. 6, the user (user U1) identified by the user ID “U1” has performed the action (behavior AC18) identified by the action ID “AC18”. For example, in the example illustrated in FIG. 6, the user U1 indicates that W water has been purchased (action AC18) at the A convenience store at the date dt18.

例えば、図6に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)は、行動ID「AC26」により識別される行動(行動AC26)を行ったことを示す。例えば、図6に示す例においてユーザU2は、日時dt26において、Bレストランでの飲食の決済(行動AC26)を行ったことを示す。すなわち、行動AC26は、ユーザU2がBレストランで飲食を行ったことを示唆する。   For example, in the example illustrated in FIG. 6, the user identified by the user ID “U2” (user U2) indicates that the behavior identified by the behavior ID “AC26” (behavior AC26) has been performed. For example, in the example illustrated in FIG. 6, the user U2 indicates that the settlement of eating and drinking at the restaurant B (action AC26) is performed at the date and time dt26. That is, the action AC26 suggests that the user U2 has eaten or eaten at the B restaurant.

なお、行動情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図6では、ユーザIDごとに行動情報が行動情報記憶部122に記憶される場合を示したが、行動情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。   The behavior information storage unit 122 is not limited to the above, and may store various types of information according to the purpose. Moreover, although the case where action information was memorize | stored in the action information storage part 122 for every user ID was shown in FIG. 6, action information may be memorize | stored not only for every user ID but in order of time, for example.

(位置情報記憶部123)
実施形態に係る位置情報記憶部123は、位置に関する各種情報を記憶する。例えば、位置情報記憶部123は、センサにより検知された位置に関する各種情報を記憶する。図7は、実施形態に係る位置情報記憶部の一例を示す図である。図7に示す位置情報記憶部123は、「ユーザID」、「位置情報」といった項目が含まれる。「位置情報」には、「日時」、「位置」といった項目が含まれる。
(Position information storage unit 123)
The position information storage unit 123 according to the embodiment stores various types of information regarding the position. For example, the position information storage unit 123 stores various types of information related to the position detected by the sensor. FIG. 7 is a diagram illustrating an example of the position information storage unit according to the embodiment. The position information storage unit 123 illustrated in FIG. 7 includes items such as “user ID” and “position information”. “Position information” includes items such as “date and time” and “position”.

「ユーザID」は、ユーザを識別するための識別情報を示す。「位置情報」は、ユーザの位置情報の履歴を示す。「日時」は、各位置情報が取得された日時を示す。なお、図7の例では「日時」を抽象的な符号「dt11」等で図示するが、「日時」には、「2017年7月6日18時59分48秒」等の具体的な日時が記憶されてもよい。また、「位置」は、対応する日時における対応するユーザの位置情報を示す。なお、図7の例では「位置」を抽象的な符号「LC11」等で図示するが、「位置」には、具体的な緯度経度情報等が記憶されてもよい。   “User ID” indicates identification information for identifying a user. “Position information” indicates a history of user position information. “Date and time” indicates the date and time when each piece of position information was acquired. In the example of FIG. 7, “date and time” is illustrated by an abstract code “dt11” and the like, but “date and time” is a specific date and time such as “July 6, 2017 18:59:48”. May be stored. “Position” indicates position information of the corresponding user at the corresponding date and time. In the example of FIG. 7, “position” is illustrated by an abstract code “LC11” or the like, but specific latitude and longitude information or the like may be stored in “position”.

例えば、図7に示す例において、ユーザID「U1」により識別されるユーザの位置「LC11」が、日時「dt11」に取得されたことを示す。例えば、ユーザID「U1」により識別されるユーザが利用する端末装置10の位置「LC11」が、日時「dt11」に取得されたことを示す。例えば、図7に示す例において、ユーザID「U1」により識別されるユーザの位置「LC12」が、日時「dt12」に取得されたことを示す。例えば、ユーザID「U1」により識別されるユーザが利用する端末装置10の位置「LC13」が、日時「dt13」に取得されたことを示す。   For example, in the example illustrated in FIG. 7, the user position “LC11” identified by the user ID “U1” is acquired at the date “dt11”. For example, the position “LC11” of the terminal device 10 used by the user identified by the user ID “U1” is acquired at the date “dt11”. For example, in the example illustrated in FIG. 7, the user position “LC12” identified by the user ID “U1” is acquired at the date “dt12”. For example, the position “LC13” of the terminal device 10 used by the user identified by the user ID “U1” is acquired at the date “dt13”.

なお、位置情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、位置情報記憶部123は、抽出処理により抽出された位置情報群であることを示す情報(フラグ)等を記憶してもよい。また、位置情報記憶部123は、ユーザのコンテキストに関する情報を記憶してもよい。   Note that the position information storage unit 123 is not limited to the above, and may store various types of information according to the purpose. Further, the position information storage unit 123 may store information (flag) indicating that the position information group is extracted by the extraction process. The position information storage unit 123 may store information related to the user context.

(モデル情報記憶部124)
実施形態に係るモデル情報記憶部124は、モデルに関する情報を記憶する。例えば、モデル情報記憶部124は、生成処理により生成されたモデル情報(モデルデータ)を記憶する。図8は、実施形態に係るモデル情報記憶部の一例を示す図である。図8に示すモデル情報記憶部124は、「モデルID」、「行動パターン」、「モデルデータ」といった項目が含まれる。なお、図8では、モデルM1及びモデルM2のみを図示するが、各行動パターンに対応する複数のモデル情報(モデルM3、M4等)が記憶されてもよい。
(Model information storage unit 124)
The model information storage unit 124 according to the embodiment stores information about the model. For example, the model information storage unit 124 stores model information (model data) generated by the generation process. FIG. 8 is a diagram illustrating an example of a model information storage unit according to the embodiment. The model information storage unit 124 illustrated in FIG. 8 includes items such as “model ID”, “behavior pattern”, and “model data”. In FIG. 8, only the model M1 and the model M2 are illustrated, but a plurality of model information (models M3, M4, etc.) corresponding to each behavior pattern may be stored.

「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1の例に示したモデルM1に対応する。「行動パターン」は、対応するモデルの行動パターンを示す。また、「行動パターン」には、各行動パターンに対応する条件等が記憶される。例えば、「行動パターンPT1(ランニング)」には、ユーザの行動パターンがランニングに対応するための条件(例えば時速5〜30kmで移動)等が記憶される。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。   “Model ID” indicates identification information for identifying a model. For example, the model identified by the model ID “M1” corresponds to the model M1 illustrated in the example of FIG. “Behavior pattern” indicates a behavior pattern of a corresponding model. The “behavior pattern” stores conditions corresponding to each behavior pattern. For example, the “behavior pattern PT1 (running)” stores conditions (for example, movement at a speed of 5 to 30 km per hour) for the user behavior pattern to correspond to running. “Model data” indicates data of a corresponding model associated with the model data. For example, “model data” includes information including nodes in each layer, functions adopted by the nodes, connection relationships between the nodes, and connection coefficients set for connections between the nodes.

例えば、図8に示す例において、モデルID「M1」により識別されるモデル(モデルM1)は、行動パターンが「PT1(ランニング)」であり、行動パターンPT1が行われた前後に対象行動情報が発生するかを予測するために用いられることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。   For example, in the example shown in FIG. 8, the model (model M1) identified by the model ID “M1” has the action pattern “PT1 (running)”, and the target action information before and after the action pattern PT1 is performed. It is used to predict what will happen. The model data of the model M1 is model data MDT1.

モデルM1(モデルデータMDT1)は、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を出力層から出力するよう、コンピュータを機能させるためのモデルである。   The model M1 (model data MDT1) is a user position information group, and an input layer to which a position information group satisfying a predetermined regularity regarding a change in position is input, an output layer, an input layer to an output layer A first element belonging to any layer other than the output layer, and a second element whose value is calculated based on the first element and the weight of the first element, and is input to the input layer The sensor information is used to predict the occurrence of a predetermined action by performing an operation based on the first element and the weight of the first element, with each element belonging to each layer other than the output layer as the first element. This is a model for causing a computer to function so as to output score values from an output layer.

ここで、モデルM1、M2等が「y=a*x+a*x+・・・+a*x」で示す回帰モデルで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, it is assumed that the models M1, M2, etc. are realized by a regression model represented by “y = a 1 * x 1 + a 2 * x 2 +... + A i * x i ”. In this case, for example, the first element included in the model M1 corresponds to input data (xi) such as x1 or x2. The weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be regarded as a simple perceptron having an input layer and an output layer. When each model is regarded as a simple perceptron, the first element can correspond to any node of the input layer, and the second element can be regarded as a node of the output layer.

また、モデルM1、M2等がDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。   Further, it is assumed that the models M1, M2, etc. are realized by a neural network having one or a plurality of intermediate layers, such as DNN (Deep Neural Network). In this case, for example, the first element included in the model M1 corresponds to any node of the input layer or the intermediate layer. The second element corresponds to the next node, which is a node to which a value is transmitted from the node corresponding to the first element. The weight of the first element corresponds to a connection coefficient that is a weight considered for a value transmitted from a node corresponding to the first element to a node corresponding to the second element.

なお、モデル情報記憶部124は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。   The model information storage unit 124 is not limited to the above, and may store various model information according to the purpose.

(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、抽出装置100内部の記憶装置に記憶されている各種プログラム(抽出プログラムや生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130は、モデル情報記憶部124に記憶されているモデルM1やモデルM2等に従った情報処理により、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を出力層から出力する。
(Control unit 130)
Returning to the description of FIG. 4, the control unit 130 is a controller, and is stored in a storage device inside the extraction apparatus 100 by, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or the like. Various programs (corresponding to an example of an extraction program or a generation program) are implemented by using the RAM as a work area. The control unit 130 is a controller, and is realized by an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). The control unit 130 is a position information group of the user that satisfies a predetermined regularity regarding a change in position by information processing according to the model M1, the model M2, or the like stored in the model information storage unit 124. Is input based on the input layer, the output layer, the first element belonging to any layer other than the output layer from the input layer to the output layer, and the weight of the first element and the first element A first element and a weight of the first element, with each element belonging to each layer other than the output layer as a first element for sensor information input to the input layer. By performing the calculation based on the above, the score value used for predicting the occurrence of the predetermined action is output from the output layer.

例えば、抽出装置100は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、利用スコアや入札スコアの算出を行う。具体的には、モデルM1、M2等は、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群(すなわち、上述したスコアの算出に用いられる各要素)が入力された場合に、所定の行動の発生有無に関するスコア(すなわち、ユーザが所定の行動を行う可能性がどの程度であるかを示唆するスコア)を出力するように係数が設定される。情報提供装置10は、このようなモデルM1、M2等を用いて、対応する行動パターンにおける各ユーザのスコアを算出する。   For example, the extraction device 100 calculates a usage score and a bid score using a model having an arbitrary structure such as the above-described regression model or neural network. Specifically, the models M1, M2, and the like are user position information groups, and position information groups satisfying predetermined regularity related to position changes (that is, each element used for calculating the above-described score) are input. In such a case, the coefficient is set so as to output a score relating to the occurrence or non-occurrence of the predetermined action (that is, a score indicating how likely the user is to perform the predetermined action). The information providing apparatus 10 calculates the score of each user in the corresponding behavior pattern using such models M1, M2, and the like.

なお、上記例では、モデルM1、M2等が、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力された場合に、所定の行動の発生有無に関するスコアを出力するモデルである例を示した。しかし、実施形態に係るモデルM1、M2等は、データの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルは、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力とし、モデルM1が出力する利用スコアを出力とするよう学習されたモデル(モデルM1b)であってもよい。または、モデルは、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力とし、モデルM1bの出力値を出力とするよう学習されたモデルであってもよい。   In the above example, when the models M1, M2, etc. are user position information groups, and a position information group satisfying a predetermined regularity related to a change in position is input, a score related to the occurrence of a predetermined action The example which is the model which outputs is shown. However, the models M1, M2, and the like according to the embodiment may be models generated based on results obtained by repeating data input / output. For example, the model is a user's position information group, and a model (model M1b) that is learned to receive a use score output from the model M1 with a position information group that satisfies a predetermined regularity regarding a change in position as an input. ). Alternatively, the model may be a user's position information group that has been learned so that a position information group that satisfies a predetermined regularity regarding a change in position is input and an output value of the model M1b is output. .

また、抽出装置100がGAN(Generative Adversarial Networks)を用いた予測処理を行う場合、モデルM1、M2等は、GANの一部を構成するモデルであってもよい。   Further, when the extraction apparatus 100 performs a prediction process using GAN (Generative Adversarial Networks), the models M1, M2, and the like may be models that constitute part of the GAN.

図4に示すように、制御部130は、取得部131と、抽出部132と、生成部133と、予測部134と、提供部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。   As illustrated in FIG. 4, the control unit 130 includes an acquisition unit 131, an extraction unit 132, a generation unit 133, a prediction unit 134, and a provision unit 135, and functions and operations of information processing described below. Realize or execute. Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 4, and may be another configuration as long as information processing described later is performed.

(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、端末装置10等の外部の情報処理装置から各種情報を取得する。例えば、取得部131は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123やモデル情報記憶部124等の記憶部120から各種情報を取得する。例えば、取得部131は、端末装置10が検知した各種の情報を取得する。例えば、取得部131は、端末装置10が検知した位置情報や加速度情報を取得する。
(Acquisition part 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires various types of information from an external information processing device such as the terminal device 10. For example, the acquisition unit 131 acquires various types of information from the storage unit 120 such as the user information storage unit 121, the behavior information storage unit 122, the position information storage unit 123, and the model information storage unit 124. For example, the acquisition unit 131 acquires various types of information detected by the terminal device 10. For example, the acquisition unit 131 acquires position information and acceleration information detected by the terminal device 10.

例えば、取得部131は、所定の期間において検知されたユーザの複数の位置情報を取得する。例えば、取得部131は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報を取得する。   For example, the acquisition unit 131 acquires a plurality of pieces of user position information detected in a predetermined period. For example, the acquisition unit 131 acquires user behavior information outside the target period, which is a period in which the position information group is detected.

図1の例では、取得部131は、日時dt11においてユーザU1の位置LC11を取得する。そして、取得部131は、日時dt11よりも後の日時dt12においてユーザU1が、XX公園(関心地点POI1)内にいることを示す位置LC12を取得する。例えば、取得部131は、日時dt11よりも後の日時dt12においてユーザU1が、位置LC11とは異なる位置であって、XX公園内にいることを示す位置LC12を取得する。例えば、取得部131は、日時dt12よりも後の日時dt13においてユーザU1が、XX公園内において、位置LC12とは異なる位置にいることを示す位置LC13を取得する。例えば、取得部131は、日時dt13よりも後の日時dt14においてユーザU1が、XX公園内において、位置LC13とは異なる位置にいることを示す位置LC14を取得する。   In the example of FIG. 1, the acquisition unit 131 acquires the position LC11 of the user U1 at the date and time dt11. And the acquisition part 131 acquires position LC12 which shows that the user U1 exists in XX park (interesting point POI1) in the date dt12 after the date dt11. For example, the acquisition unit 131 acquires a position LC12 indicating that the user U1 is in a position different from the position LC11 at a date and time dt12 later than the date and time dt11 and is in the XX park. For example, the acquisition unit 131 acquires a position LC13 indicating that the user U1 is in a position different from the position LC12 in the XX park at a date and time dt13 later than the date and time dt12. For example, the acquisition unit 131 acquires a position LC14 indicating that the user U1 is in a position different from the position LC13 in the XX park at a date dt14 later than the date dt13.

例えば、取得部131は、日時dt14よりも後の日時dt15においてユーザU1が、XX公園内において、位置LC14とは異なる位置にいることを示す位置LC15を取得する。例えば、取得部131は、日時dt15よりも後の日時dt16においてユーザU1が、XX公園内において、位置LC15とは異なる位置にいることを示す位置LC16を取得する。例えば、取得部131は、日時dt16よりも後の日時dt17においてユーザU1が、XX公園から離れたことを示す位置LC17を取得する。   For example, the acquisition unit 131 acquires a position LC15 indicating that the user U1 is at a position different from the position LC14 in the XX park at a date and time dt15 later than the date and time dt14. For example, the acquiring unit 131 acquires a position LC16 indicating that the user U1 is at a position different from the position LC15 in the XX park at a date and time dt16 later than the date and time dt15. For example, the acquisition unit 131 acquires a position LC17 indicating that the user U1 has left the XX park at a date and time dt17 later than the date and time dt16.

図1の例では、取得部131は、日時dt17よりも後の日時dt18においてユーザU1が、Aコンビニ(ショップSP1)にいることを示す位置LC18を取得する。例えば、取得部131は、日時dt18においてユーザU1が、AコンビニでW水を購入したことを示す行動情報AC11を取得する。   In the example of FIG. 1, the acquisition unit 131 acquires a position LC18 indicating that the user U1 is at the A convenience store (shop SP1) at a date dt18 later than the date dt17. For example, the acquisition unit 131 acquires action information AC11 indicating that the user U1 purchased W water at the A convenience store at the date dt18.

図2の例では、取得部131は、日時dt21においてユーザU2の位置LC21を取得する。そして、取得部131は、日時dt21よりも後の日時dt22においてユーザU2が、YY映画館(関心地点POI2)内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt21よりも後の日時dt22においてユーザU2が、位置LC21とは異なる位置であって、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt22よりも後の日時dt23においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt23よりも後の日時dt24においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt24よりも後の日時dt25においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt25よりも後の日時dt26においてユーザU2が、YY映画館から離れたことを示す位置LC23を取得する。   In the example of FIG. 2, the acquisition unit 131 acquires the position LC21 of the user U2 at the date and time dt21. Then, the acquiring unit 131 acquires a position LC22 indicating that the user U2 is in the YY movie theater (point of interest POI2) at a date and time dt22 later than the date and time dt21. For example, the acquisition unit 131 acquires a position LC22 indicating that the user U2 is at a position different from the position LC21 and is in the YY movie hall at a date and time dt22 later than the date and time dt21. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie hall at the date dt23 later than the date dt22. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie hall at the date dt24 after the date dt23. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie hall at the date dt25 after the date dt24. For example, the acquiring unit 131 acquires a position LC23 indicating that the user U2 has left the YY movie theater at a date dt26 later than the date dt25.

図2の例では、取得部131は、日時dt26においてユーザU2が、Bレストラン(ショップSP2)にいることを示す位置LC23を取得する。例えば、取得部131は、日時dt26においてユーザU2が、Bレストランで飲食を行ったことを示す行動情報AC21を取得する。   In the example of FIG. 2, the acquisition unit 131 acquires a position LC23 indicating that the user U2 is at the B restaurant (shop SP2) at the date and time dt26. For example, the acquisition unit 131 acquires action information AC21 indicating that the user U2 has eaten or eaten at the restaurant B at the date and time dt26.

(抽出部132)
抽出部132は、各種情報を抽出する。例えば、抽出部132は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123やモデル情報記憶部124等の記憶部120から各種情報を抽出する。
(Extractor 132)
The extraction unit 132 extracts various information. For example, the extraction unit 132 extracts various types of information from the storage unit 120 such as the user information storage unit 121, the behavior information storage unit 122, the position information storage unit 123, and the model information storage unit 124.

例えば、抽出部132は、取得部131により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、連続して検知された複数の位置情報を位置情報群として抽出する。   For example, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity regarding a change in position from among a plurality of pieces of position information acquired by the acquisition unit 131. For example, the extraction unit 132 extracts a plurality of pieces of position information detected continuously as a position information group.

例えば、抽出部132は、ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間後における対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。例えば、抽出部132は、対象期間前における対象行動情報を抽出する。例えば、抽出部132は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。   For example, the extraction unit 132 extracts target behavior information that is behavior information satisfying a predetermined condition from user behavior information. For example, the extraction unit 132 extracts target behavior information after the target period. For example, the extraction unit 132 extracts the target behavior information within a predetermined range from the position corresponding to the position information at the end of the target period. For example, the extraction unit 132 extracts target behavior information before the target period. For example, the extraction unit 132 extracts the target behavior information within a predetermined range from the position corresponding to the position information at the start of the target period.

図1の例では、抽出部132は、日時dt11〜dt18において検知されたユーザの複数の位置情報LC11〜LC18のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、ユーザU1の位置情報の変化が例えば時速10km等のランニングに対応する速度で変化している位置情報群を抽出する。例えば、抽出部132は、ユーザU1がXX公園(関心地点POI1)においてランニングを行っている際の位置情報群を抽出する。例えば、抽出部132は、ユーザU1の位置情報の変化が例えば時速10km等でXX公園の周囲を移動している位置情報群を抽出する。例えば、抽出部132は、日時dt12〜dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12〜LC16を抽出する。   In the example of FIG. 1, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity related to a change in position, from among a plurality of pieces of position information LC11 to LC18 of the user detected at dates dt11 to dt18. For example, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity corresponding to the “behavior pattern PT1 (running)” as shown in the model information storage unit 124 (see FIG. 8). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U1 is changing at a speed corresponding to running such as 10 km / h. For example, the extraction unit 132 extracts a position information group when the user U1 is running in the XX park (the point of interest POI1). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U1 is moving around the XX park at, for example, 10 km / h. For example, the extraction unit 132 extracts the position information LC12 to LC16 where the user U1 is moving around the XX park at the date and time dt12 to dt16.

図1の例では、抽出部132は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、位置情報群(位置情報LC12〜LC16)が検知された対象期間(日時dt12〜dt16)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。例えば、抽出部132は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内の日時dt18においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。   In the example of FIG. 1, the extraction unit 132 extracts target behavior information that is behavior information that satisfies a predetermined condition from user behavior information outside the target period, which is a period in which the position information group is detected. For example, the extraction unit 132 includes target behavior information that is behavior information satisfying a predetermined condition among user behavior information outside the target period (dates dt12 to dt16) in which the position information group (position information LC12 to LC16) is detected. To extract. For example, the extraction unit 132 extracts target behavior information that is behavior information satisfying a predetermined condition from user behavior information within a predetermined period (period PD1) from the end of the target period (date and time dt16). For example, the extraction unit 132 may extract target behavior information that is behavior information satisfying a predetermined condition among user behavior information within a predetermined range from the position LC16 at the end of the target period (date dt16). . For example, the extraction unit 132 uses the behavior information AC11 indicating that the user U1 has purchased W water at the A convenience store at the date and time dt18 within the predetermined period (period PD1) from the end of the target period (date and time dt16). Extract as information.

図2の例では、抽出部132は、日時dt21〜dt26において検知されたユーザの複数の位置情報LC21〜LC23のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、ユーザU2の位置情報の変化が例えば所定の時間に亘って変更していない位置情報群を抽出する。例えば、抽出部132は、ユーザU2がYY映画館(関心地点POI2)において滞在している際の位置情報群を抽出する。例えば、抽出部132は、ユーザU2の位置情報の変化が例えば所定の時間に亘ってYY映画館内にある位置情報群を抽出する。例えば、抽出部132は、日時dt22〜dt25においてユーザU2がYY映画館内に滞在していることを示す複数の位置情報LC22を抽出する。   In the example of FIG. 2, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity related to a change in position from the plurality of pieces of position information LC21 to LC23 of the user detected at the dates dt21 to dt26. For example, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity corresponding to the “behavior pattern PT2 (stay)” as shown in the model information storage unit 124 (see FIG. 8). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U2 has not changed over, for example, a predetermined time. For example, the extraction unit 132 extracts a position information group when the user U2 is staying at a YY movie theater (interesting point POI2). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U2 is, for example, in the YY movie hall over a predetermined time. For example, the extraction unit 132 extracts a plurality of pieces of position information LC22 indicating that the user U2 is staying in the YY movie hall at the dates dt22 to dt25.

図2の例では、抽出部132は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、位置情報群(4つの位置情報LC22)が検知された対象期間(日時dt22〜dt25)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。例えば、抽出部132は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内の日時dt26においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。   In the example of FIG. 2, the extraction unit 132 extracts target behavior information that is behavior information satisfying a predetermined condition from user behavior information outside the target period, which is a period in which the position information group is detected. For example, the extraction unit 132 includes target behavior information that is behavior information that satisfies a predetermined condition among user behavior information outside the target period (dates dt22 to dt25) in which the position information group (four position information LC22) is detected. To extract. For example, the extraction unit 132 extracts target behavior information that is behavior information satisfying a predetermined condition from user behavior information within a predetermined period (period PD2) from the end of the target period (date and time dt25). For example, the extraction unit 132 may extract target behavior information that is behavior information satisfying a predetermined condition among user behavior information within a predetermined range from the position LC22 at the end of the target period (date dt25). . For example, the extraction unit 132 uses the behavior information AC21 indicating that the user U2 has eaten or eaten at the restaurant B at the date and time dt26 within the predetermined period (period PD2) from the end of the target period (date and time dt25). Extract as

(生成部133)
生成部133は、各種情報を生成する。例えば、生成部133は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123等に記憶された情報からモデルを生成する。例えば、生成部133は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。例えば、生成部133は、位置情報記憶部123に記憶された位置情報群と、行動情報記憶部122に記憶された対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。
(Generator 133)
The generation unit 133 generates various information. For example, the generation unit 133 generates a model from information stored in the user information storage unit 121, the behavior information storage unit 122, the position information storage unit 123, and the like. For example, the generation unit 133 generates a model used for predicting the occurrence of a predetermined action based on learning data including a position information group and target action information corresponding to the position information group. For example, the generation unit 133 predicts whether or not a predetermined action has occurred based on learning data including the position information group stored in the position information storage unit 123 and the target action information stored in the action information storage unit 122. Generate the model used for.

例えば、生成部133は、モデルM1、M2等を生成し、生成したモデルM1、M2等をモデル情報記憶部124に格納する。なお、生成部133は、いかなる学習アルゴリズムを用いてモデルM1、M2等を生成してもよい。例えば、生成部133は、ニューラルネットワーク(neural network)、サポートベクターマシン(support vector machine)、クラスタリング、強化学習等の学習アルゴリズムを用いてモデルM1、M2等を生成する。一例として、生成部133がニューラルネットワークを用いてモデルM1、M2等を生成する場合、モデルM1、M2等は、一以上のニューロンを含む入力層と、一以上のニューロンを含む中間層と、一以上のニューロンを含む出力層とを有する。   For example, the generation unit 133 generates models M1, M2, etc., and stores the generated models M1, M2, etc. in the model information storage unit 124. Note that the generation unit 133 may generate the models M1, M2, and the like using any learning algorithm. For example, the generation unit 133 generates models M1, M2, and the like using a learning algorithm such as a neural network, a support vector machine, clustering, and reinforcement learning. As an example, when the generation unit 133 generates models M1, M2, etc. using a neural network, the models M1, M2, etc. include an input layer including one or more neurons, an intermediate layer including one or more neurons, and one And an output layer including the above neurons.

図1の例では、生成部133は、位置情報群と対象行動情報とに基づいて、モデルを生成する。例えば、生成部133は、位置情報LC12〜LC16と、行動情報AC11とに基づいて、モデルM1を生成する。例えば、生成部133は、位置情報群が抽出されたユーザが飲料を購入するかを予測するモデルM1を生成する。例えば、生成部133は、ランニング後にユーザが飲料を購入するかを予測するモデルM1を生成する。   In the example of FIG. 1, the generation unit 133 generates a model based on the position information group and the target behavior information. For example, the generation unit 133 generates the model M1 based on the position information LC12 to LC16 and the behavior information AC11. For example, the production | generation part 133 produces | generates the model M1 which estimates whether the user from which the positional information group was extracted will purchase a drink. For example, the generation unit 133 generates a model M1 that predicts whether the user purchases a beverage after running.

図2の例では、生成部133は、位置情報群と対象行動情報とに基づいて、モデルを生成する。例えば、生成部133は、4つの位置情報LC22と、行動情報AC21とに基づいて、モデルM2を生成する。例えば、生成部133は、位置情報群が抽出されたユーザが飲食を行うか予測するモデルM2を生成する。例えば、生成部133は、滞在後にユーザが飲食を行うかを予測するモデルM2を生成する。   In the example of FIG. 2, the generation unit 133 generates a model based on the position information group and the target behavior information. For example, the generation unit 133 generates a model M2 based on the four pieces of position information LC22 and the behavior information AC21. For example, the generation unit 133 generates a model M2 that predicts whether the user from whom the position information group has been extracted eats or drinks. For example, the generation unit 133 generates a model M2 that predicts whether the user will eat or drink after staying.

(予測部134)
予測部134は、各種情報を予測する。例えば、予測部134は、位置情報記憶部123に記憶された位置情報に基づいて、ユーザの所定の行動の有無を予測する。例えば、予測部134は、位置情報記憶部123に記憶された位置情報をモデル情報記憶部124に記憶されたモデルに入力することにより、ユーザの所定の行動の有無を予測する。
(Prediction unit 134)
The prediction unit 134 predicts various types of information. For example, the prediction unit 134 predicts the presence / absence of a predetermined action of the user based on the position information stored in the position information storage unit 123. For example, the prediction unit 134 predicts the presence / absence of a predetermined action of the user by inputting the position information stored in the position information storage unit 123 to the model stored in the model information storage unit 124.

例えば、予測部134は、抽出部132により抽出された位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測する。例えば、予測部134は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測する。   For example, the prediction unit 134 predicts user behavior before and after a predetermined period based on the position information group extracted by the extraction unit 132. For example, the prediction unit 134 is a model used for predicting the occurrence or non-occurrence of a predetermined action, and predicts the presence or absence of the user's predetermined action based on the output of the model to which the position information group is input.

例えば、予測部134は、モデルM1、M2等に従った情報処理により、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力層に入力する。そして、予測部134は、入力データを中間層と出力層に伝播させることで出力層から所定の行動の発生有無に関するスコアを出力させる。   For example, the prediction unit 134 inputs, to the input layer, a position information group that satisfies a predetermined regularity regarding a change in position, which is a position information group of the user, by information processing according to models M1, M2, and the like. Then, the predicting unit 134 causes the input data to propagate to the intermediate layer and the output layer, thereby outputting a score relating to the presence or absence of the predetermined action from the output layer.

図1の例では、予測部134は、POI情報と、ユーザU1の位置LCとの比較により、ユーザU1がXX公園に向かっていると推定する。例えば、予測部134は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。例えば、予測部134は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。   In the example of FIG. 1, the prediction unit 134 estimates that the user U1 is heading to the XX park by comparing the POI information with the position LC of the user U1. For example, the prediction unit 134 may estimate the moving direction of the user based on the acceleration detected by the terminal device 10. For example, the prediction unit 134 may estimate the movement from the point where the position information was last detected based on the acceleration detected by the terminal device 10 by appropriately using various conventional techniques.

図1の例では、予測部134は、POI情報と、ユーザU1の位置LCの変化との比較により、ユーザU1がXX公園に向かっていると推定する。例えば、予測部134は、位置LC11、LC12により、ユーザU1がXX公園に向かって(図1では下から上方向へ)移動していると推定する。例えば、予測部134は、位置LC12、LC13により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC12、LC13により、ユーザU1の移動速度を推定する。例えば、予測部134は、端末装置10が検知した加速度に基づいて、ユーザの移動速度を推定してもよい。例えば、予測部134は、位置LC13、LC14により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC13、LC14により、ユーザU1の移動速度を推定する。例えば、予測部134は、位置LC14、LC15により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC14、LC15により、ユーザU1の移動速度を推定する。例えば、予測部134は、位置LC15、LC16により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC15、LC16により、ユーザU1の移動速度を推定する。例えば、予測部134は、ユーザU1の移動経過やユーザU1の速度に基づいて、ユーザU1がXX公園内をランニングしていると推定する。   In the example of FIG. 1, the prediction unit 134 estimates that the user U1 is heading toward the XX park by comparing the POI information with the change in the position LC of the user U1. For example, the prediction unit 134 estimates that the user U1 is moving toward the XX park (from the bottom to the top in FIG. 1) based on the positions LC11 and LC12. For example, the prediction unit 134 estimates that the user U1 is moving in the XX park based on the positions LC12 and LC13. For example, the prediction unit 134 estimates the moving speed of the user U1 based on the positions LC12 and LC13. For example, the prediction unit 134 may estimate the moving speed of the user based on the acceleration detected by the terminal device 10. For example, the prediction unit 134 estimates that the user U1 is moving in the XX park based on the positions LC13 and LC14. For example, the prediction unit 134 estimates the moving speed of the user U1 based on the positions LC13 and LC14. For example, the prediction unit 134 estimates that the user U1 is moving in the XX park based on the positions LC14 and LC15. For example, the prediction unit 134 estimates the moving speed of the user U1 based on the positions LC14 and LC15. For example, the prediction unit 134 estimates that the user U1 is moving in the XX park based on the positions LC15 and LC16. For example, the prediction unit 134 estimates the moving speed of the user U1 based on the positions LC15 and LC16. For example, the predicting unit 134 estimates that the user U1 is running in the XX park based on the movement progress of the user U1 and the speed of the user U1.

図2の例では、予測部134は、POI情報と、ユーザU2の位置LCとの比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、予測部134は、POI情報と、ユーザU2の位置LCの変化との比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、予測部134は、位置LC21、LC22により、ユーザU2がYY映画館に向かって(図2では下から上方向へ)移動していると推定する。例えば、予測部134は、日時dt22及び日時dt23に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。例えば、予測部134は、日時dt22〜日時dt24に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。例えば、予測部134は、日時dt22〜日時dt25に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。   In the example of FIG. 2, the prediction unit 134 estimates that the user U2 is heading for the YY movie theater by comparing the POI information with the position LC of the user U2. For example, the prediction unit 134 estimates that the user U2 is heading for the YY movie theater by comparing the POI information with the change in the position LC of the user U2. For example, the prediction unit 134 estimates that the user U2 is moving toward the YY movie theater (from bottom to top in FIG. 2) at the positions LC21 and LC22. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie hall based on the position LC22 acquired at the date dt22 and the date dt23. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie hall based on the position LC22 acquired from the date dt22 to the date dt24. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie hall based on the position LC22 acquired from the date dt22 to the date dt25.

(提供部135)
提供部135は、種々の情報を提供する。例えば、提供部135は、端末装置10等の外部装置に各種情報を提供する。例えば、提供部135は、モデル情報記憶部124に記憶された各モデルを外部の情報処理装置へ提供する。例えば、提供部135は、予測結果に基づく情報を外部の情報処理装置へ提供する。例えば、提供部135は、XX公園内をランニングしていると推定されたユーザU1の端末装置10に、XX公園付近のコンビニに関する広告を配信してもよい。また、例えば、提供部135は、YY映画館内滞在していると推定されたユーザU2の端末装置10に、YY映画館付近の飲食店(レストラン)に関する広告を配信してもよい。
(Providing unit 135)
The providing unit 135 provides various information. For example, the providing unit 135 provides various types of information to an external device such as the terminal device 10. For example, the providing unit 135 provides each model stored in the model information storage unit 124 to an external information processing apparatus. For example, the providing unit 135 provides information based on the prediction result to an external information processing apparatus. For example, the providing unit 135 may distribute an advertisement related to a convenience store near the XX park to the terminal device 10 of the user U1 estimated to be running in the XX park. Further, for example, the providing unit 135 may distribute an advertisement regarding a restaurant (restaurant) near the YY movie theater to the terminal device 10 of the user U2 who is estimated to be staying in the YY movie theater.

例えば、提供部135は、抽出部132により抽出された位置情報群に関する情報を所定のサービス提供者に提供してもよい。また、例えば、提供部135は、生成部133により生成されたモデルに関する情報を外部の情報処理装置へ提供してもよい。また、例えば、提供部135は、モデルが出力する情報を外部の情報処理装置へ提供してもよい。なお、上記は一例であり、提供部135は、抽出部132により抽出された位置情報群に基づく、種々の情報を外部の情報処理装置へ提供してもよい。   For example, the providing unit 135 may provide information regarding the position information group extracted by the extracting unit 132 to a predetermined service provider. Further, for example, the providing unit 135 may provide information related to the model generated by the generating unit 133 to an external information processing apparatus. For example, the providing unit 135 may provide information output by the model to an external information processing apparatus. Note that the above is an example, and the providing unit 135 may provide various information based on the position information group extracted by the extracting unit 132 to an external information processing apparatus.

〔3.抽出処理のフロー〕
次に、図9を用いて、実施形態に係る抽出システム1による抽出処理の手順について説明する。図9は、実施形態に係る抽出処理の一例を示すフローチャートである。また、図9に示す抽出処理には、対象行動情報の抽出及びモデルの生成の処理が含まれる。
[3. (Extraction process flow)
Next, the procedure of extraction processing by the extraction system 1 according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of the extraction process according to the embodiment. Further, the extraction process illustrated in FIG. 9 includes extraction of target behavior information and generation of a model.

図9に示すように、抽出装置100は、所定の期間において検知されたユーザの複数の位置情報を取得する(ステップS101)。例えば、抽出装置100は、位置情報記憶部123(図7参照)に示すような位置情報の履歴を取得する。図1の例では、抽出装置100は、端末装置10から日時dt11〜dt18に検知された位置情報LC11〜LC18等を取得する。   As illustrated in FIG. 9, the extraction apparatus 100 acquires a plurality of pieces of position information of a user detected in a predetermined period (step S101). For example, the extraction apparatus 100 acquires a history of position information as shown in the position information storage unit 123 (see FIG. 7). In the example of FIG. 1, the extraction device 100 acquires position information LC11 to LC18 detected at the date and time dt11 to dt18 from the terminal device 10.

また、抽出装置100は、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS102)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような移動に関する行動パターンPT1を満たすような位置情報群を抽出する。図1の例では、抽出装置100は、位置情報LC11〜LC18のうち、XX公園内を周回している位置に対応する位置情報群(位置情報LC12〜LC16)を抽出する。   In addition, the extraction apparatus 100 extracts a position information group that satisfies a predetermined regularity regarding a change in position (step S102). For example, the extraction apparatus 100 extracts a position information group that satisfies the behavior pattern PT1 related to movement as shown in the model information storage unit 124 (see FIG. 8). In the example of FIG. 1, the extraction apparatus 100 extracts a position information group (position information LC12 to LC16) corresponding to a position circling in the XX park from the position information LC11 to LC18.

また、抽出装置100は、ユーザの行動情報のうち、所定の条件を満たす対象行動情報を抽出する(ステップS103)。例えば、抽出装置100は、行動情報記憶部122(図6参照)に示すような行動履歴から、対象期間(日時dt12〜dt16)後における対象行動情報を抽出する。図1の例では、抽出装置100は、日時dt18においてAコンビニでW水を購入したことを示す行動情報AC11を抽出する。   Further, the extraction apparatus 100 extracts target behavior information satisfying a predetermined condition from the user behavior information (step S103). For example, the extraction device 100 extracts the target behavior information after the target period (dates dt12 to dt16) from the behavior history as shown in the behavior information storage unit 122 (see FIG. 6). In the example of FIG. 1, the extraction device 100 extracts behavior information AC11 indicating that W water has been purchased at the A convenience store at the date dt18.

そして、抽出装置100は、位置情報群と、対象行動情報とに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する(ステップS104)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような行動パターンPT1に対応するモデルM1を生成する。図1の例では、抽出装置100は、位置情報LC12〜LC16と、位置情報LC12〜LC16に対応する行動情報AC11を正解情報として、モデルM1を生成する。   Then, the extraction apparatus 100 generates a model used for predicting the occurrence / non-occurrence of the predetermined behavior based on the position information group and the target behavior information (Step S104). For example, the extraction device 100 generates a model M1 corresponding to the behavior pattern PT1 as shown in the model information storage unit 124 (see FIG. 8). In the example of FIG. 1, the extraction device 100 generates the model M1 using the position information LC12 to LC16 and the action information AC11 corresponding to the position information LC12 to LC16 as correct answer information.

〔4.効果〕
上述してきたように、実施形態に係る抽出装置100は、取得部131と、抽出部132とを有する。取得部131は、所定の期間において検知されたユーザの複数の位置情報を取得する。抽出部132は、取得部131により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。
[4. effect〕
As described above, the extraction device 100 according to the embodiment includes the acquisition unit 131 and the extraction unit 132. The acquisition unit 131 acquires a plurality of pieces of position information of a user detected in a predetermined period. The extraction unit 132 extracts a position information group that satisfies a predetermined regularity regarding a change in position from among a plurality of pieces of position information acquired by the acquisition unit 131.

このように、実施形態に係る抽出装置100は、ユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。   As described above, the extraction apparatus 100 according to the embodiment appropriately extracts user information satisfying regularity by extracting a position information group satisfying predetermined regularity regarding a change in position from among a plurality of pieces of position information of the user. Can be extracted.

また、実施形態に係る抽出装置100において、抽出部132は、連続して検知された複数の位置情報を位置情報群として抽出する。   In the extraction device 100 according to the embodiment, the extraction unit 132 extracts a plurality of pieces of position information detected continuously as a position information group.

このように、実施形態に係る抽出装置100は、連続して検知された複数の位置情報を位置情報群として抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。   As described above, the extraction apparatus 100 according to the embodiment can appropriately extract user information satisfying regularity by extracting a plurality of pieces of position information detected continuously as a position information group.

また、実施形態に係る抽出装置100は、予測部134を有する。予測部134は、抽出部132により抽出された位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測する。   In addition, the extraction device 100 according to the embodiment includes a prediction unit 134. The prediction unit 134 predicts user behavior before and after a predetermined period based on the position information group extracted by the extraction unit 132.

このように、実施形態に係る抽出装置100は、抽出した位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測することにより、ユーザの行動を適切に予測することができる。   As described above, the extraction apparatus 100 according to the embodiment can appropriately predict the user's behavior by predicting the user's behavior before and after the predetermined period based on the extracted position information group.

また、実施形態に係る抽出装置100において、予測部134は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測する。   Further, in the extraction device 100 according to the embodiment, the prediction unit 134 is a model used for predicting whether or not a predetermined action has occurred, and based on the output of the model in which the position information group is input, Predict the presence or absence of action.

このように、実施形態に係る抽出装置100は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測することにより、ユーザの行動を適切に予測することができる。   As described above, the extraction apparatus 100 according to the embodiment is a model used for predicting whether or not a predetermined action has occurred, and based on the output of the model in which the position information group is input, whether or not the user has the predetermined action By predicting, it is possible to appropriately predict the user's behavior.

また、実施形態に係る抽出装置100において、取得部131は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報を取得する。抽出部132は、ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。   In the extraction device 100 according to the embodiment, the acquisition unit 131 acquires user behavior information outside the target period, which is a period in which the position information group is detected. The extraction unit 132 extracts target behavior information that is behavior information satisfying a predetermined condition from the user behavior information.

このように、実施形態に係る抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。   As described above, the extraction apparatus 100 according to the embodiment extracts target behavior information that is behavior information satisfying a predetermined condition from user behavior information outside the target period that is a period in which the position information group is detected. Thus, it is possible to appropriately extract user information satisfying regularity.

また、実施形態に係る抽出装置100において、抽出部132は、対象期間後における対象行動情報を抽出する。   In the extraction device 100 according to the embodiment, the extraction unit 132 extracts target behavior information after the target period.

このように、実施形態に係る抽出装置100は、対象期間後における対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。   As described above, the extraction apparatus 100 according to the embodiment can appropriately extract user information satisfying regularity by extracting the target behavior information after the target period.

また、実施形態に係る抽出装置100において、抽出部132は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。   In the extraction device 100 according to the embodiment, the extraction unit 132 extracts the target behavior information within a predetermined range from the position corresponding to the position information at the end of the target period.

このように、実施形態に係る抽出装置100は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。   As described above, the extraction apparatus 100 according to the embodiment appropriately extracts user information satisfying regularity by extracting the target behavior information within a predetermined range from the position corresponding to the position information at the end of the target period. Can be extracted.

また、実施形態に係る抽出装置100において、抽出部132は、対象期間前における対象行動情報を抽出する。   In the extraction device 100 according to the embodiment, the extraction unit 132 extracts target behavior information before the target period.

このように、実施形態に係る抽出装置100は、対象期間前における対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。   As described above, the extraction apparatus 100 according to the embodiment can appropriately extract user information satisfying regularity by extracting the target behavior information before the target period.

また、実施形態に係る抽出装置100において、抽出部132は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。   In the extraction device 100 according to the embodiment, the extraction unit 132 extracts target behavior information within a predetermined range from a position corresponding to the position information at the start of the target period.

このように、実施形態に係る抽出装置100は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。   As described above, the extraction apparatus 100 according to the embodiment appropriately extracts user behavior information that satisfies regularity by extracting target behavior information within a predetermined range from a position corresponding to position information at the start of the target period. Can be extracted.

また、実施形態に係る抽出装置100は、生成部133を有する。生成部133は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。   In addition, the extraction device 100 according to the embodiment includes a generation unit 133. The generation unit 133 generates a model used for predicting the occurrence or non-occurrence of a predetermined action based on learning data including a position information group and target action information corresponding to the position information group.

このように、実施形態に係る抽出装置100は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成することにより、ユーザの行動の適切な予測を可能にすることができる。   As described above, the extraction apparatus 100 according to the embodiment generates a model used for predicting the occurrence of a predetermined action based on learning data including a position information group and target action information corresponding to the position information group. By doing so, it is possible to appropriately predict the user's behavior.

〔5.ハードウェア構成〕
上述してきた実施形態に係る抽出装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、抽出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration)
The extraction apparatus 100 according to the embodiment described above is realized by a computer 1000 having a configuration as shown in FIG. 10, for example. FIG. 10 is a hardware configuration diagram illustrating an example of a computer that realizes the function of the extraction device. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, an HDD (Hard Disk Drive) 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F). ) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 and controls each unit. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。   The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from other devices via the network N and sends the data to the CPU 1100, and transmits data generated by the CPU 1100 to other devices via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via the input / output interface 1600. The CPU 1100 acquires data from the input device via the input / output interface 1600. In addition, the CPU 1100 outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides it to the CPU 1100 via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or PD (Phase change rewritable disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が実施形態に係る抽出装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1、M2等)を実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1、M2等)を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the extraction device 100 according to the embodiment, the CPU 1100 of the computer 1000 executes a program or data (for example, models M1, M2, etc.) loaded on the RAM 1200, thereby controlling the control unit 130. Realize the function. The CPU 1100 of the computer 1000 reads and executes these programs or data (for example, models M1 and M2) from the recording medium 1800. As another example, these programs or data are acquired from other devices via the network N. May be.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present application have been described in detail with reference to the drawings. It is possible to implement the present invention in other forms with improvements.

〔6.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Others]
In addition, among the processes described in the above embodiment, all or part of the processes described as being automatically performed can be performed manually, or the processes described as being performed manually can be performed. All or a part can be automatically performed by a known method. In addition, the processing procedures, specific names, and information including various data and parameters shown in the document and drawings can be arbitrarily changed unless otherwise specified. For example, the various types of information illustrated in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured.

また、上述してきた各実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   In addition, the processes described in the embodiments described above can be appropriately combined within a range in which the process contents are not contradictory.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。   In addition, the “section (module, unit)” described above can be read as “means” or “circuit”. For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

1 抽出システム
100 抽出装置
121 ユーザ情報記憶部
122 行動情報記憶部
123 位置情報記憶部
124 モデル情報記憶部
130 制御部
131 取得部
132 抽出部
133 生成部
134 予測部
135 提供部
10 端末装置
N ネットワーク
DESCRIPTION OF SYMBOLS 1 Extraction system 100 Extraction apparatus 121 User information storage part 122 Behavior information storage part 123 Position information storage part 124 Model information storage part 130 Control part 131 Acquisition part 132 Extraction part 133 Generation part 134 Prediction part 135 Provision part 10 Terminal apparatus N network

Claims (14)

所定の期間において検知されたユーザの複数の位置情報を取得する取得部と、
前記取得部により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出部と、
を備えることを特徴とする抽出装置。
An acquisition unit for acquiring a plurality of pieces of position information of users detected in a predetermined period;
An extraction unit that extracts a position information group that satisfies a predetermined regularity regarding a change in position among the plurality of position information acquired by the acquisition unit;
An extraction device comprising:
前記抽出部は、
連続して検知された複数の位置情報を前記位置情報群として抽出する
ことを特徴とする請求項1に記載の抽出装置。
The extraction unit includes:
The extraction apparatus according to claim 1, wherein a plurality of pieces of position information detected in succession are extracted as the position information group.
前記抽出部により抽出された位置情報群に基づいて、前記所定の期間の前後における前記ユーザの行動を予測する予測部、
をさらに備えることを特徴とする請求項1または請求項2に記載の抽出装置。
A prediction unit that predicts the user's behavior before and after the predetermined period based on the position information group extracted by the extraction unit;
The extraction device according to claim 1, further comprising:
前記予測部は、
所定の行動の発生有無の予測に用いられるモデルであって、前記位置情報群が入力されたモデルの出力に基づいて、前記ユーザの前記所定の行動の有無を予測する
ことを特徴とする請求項3に記載の抽出装置。
The prediction unit
The model used for predicting the presence or absence of a predetermined action, wherein the presence or absence of the predetermined action of the user is predicted based on an output of the model to which the position information group is input. 3. The extraction device according to 3.
前記取得部は、
前記位置情報群が検知された期間である対象期間外における前記ユーザの行動情報を取得し、
前記抽出部は、
前記ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する
ことを特徴とする請求項1〜4のいずれか1項に記載の抽出装置。
The acquisition unit
Obtaining the user's behavior information outside the target period, which is a period in which the position information group is detected,
The extraction unit includes:
The extraction device according to claim 1, wherein target behavior information that is behavior information satisfying a predetermined condition is extracted from the user behavior information.
前記抽出部は、
前記対象期間後における前記対象行動情報を抽出する
ことを特徴とする請求項5に記載の抽出装置。
The extraction unit includes:
The extraction apparatus according to claim 5, wherein the target behavior information after the target period is extracted.
前記抽出部は、
前記対象期間の終了時における位置情報に対応する位置から所定の範囲内に前記対象行動情報を抽出する
ことを特徴とする請求項6に記載の抽出装置。
The extraction unit includes:
The extraction apparatus according to claim 6, wherein the target behavior information is extracted within a predetermined range from a position corresponding to the position information at the end of the target period.
前記抽出部は、
前記対象期間前における前記対象行動情報を抽出する
ことを特徴とする請求項5〜7のいずれか1項に記載の抽出装置。
The extraction unit includes:
The extraction device according to any one of claims 5 to 7, wherein the target behavior information before the target period is extracted.
前記抽出部は、
前記対象期間の開始時における位置情報に対応する位置から所定の範囲内に前記対象行動情報を抽出する
ことを特徴とする請求項8に記載の抽出装置。
The extraction unit includes:
The extraction device according to claim 8, wherein the target behavior information is extracted within a predetermined range from a position corresponding to the position information at the start of the target period.
前記位置情報群と、前記位置情報群に対応する前記対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する生成部、
をさらに備えることを特徴とする請求項5〜9のいずれか1項に記載の抽出装置。
A generating unit that generates a model used for predicting the occurrence of a predetermined action based on learning data including the position information group and the target action information corresponding to the position information group;
The extraction apparatus according to claim 5, further comprising:
コンピュータが実行する抽出方法であって、
所定の期間において検知されたユーザの複数の位置情報を取得する取得工程と、
前記取得工程により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出工程と、
を含むことを特徴とする抽出方法。
An extraction method performed by a computer,
An acquisition step of acquiring a plurality of pieces of position information of users detected in a predetermined period;
An extraction step of extracting a position information group satisfying a predetermined regularity regarding a change in position among the plurality of position information acquired by the acquisition step;
The extraction method characterized by including.
所定の期間において検知されたユーザの複数の位置情報を取得する取得手順と、
前記取得手順により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出手順と、
をコンピュータに実行させることを特徴とする抽出プログラム。
An acquisition procedure for acquiring a plurality of pieces of position information of a user detected in a predetermined period;
An extraction procedure for extracting a position information group satisfying a predetermined regularity related to a change in position among a plurality of pieces of position information acquired by the acquisition procedure;
An extraction program characterized by causing a computer to execute.
位置の変化に関する所定の規則性を満たすユーザの位置情報群と、当該位置情報群に対応するユーザによる所定の行動の発生有無を示す正解情報とを含む学習データであって、
入力層と出力層とを有し、前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、前記入力層に入力された前記位置情報群に対し、前記出力層以外の各層に属する各要素を前記第1要素として、前記第1要素と前記第1要素の重みとに基づく演算を行うモデルの前記入力層に入力されることにより、演算結果を示す出力値を前記モデルの前記出力層から出力させ、前記位置情報群に対応する正解情報と前記出力値との比較に基づく学習を行なうよう、
コンピュータを機能させるための学習データ。
Learning data including a position information group of users satisfying a predetermined regularity regarding a change in position, and correct information indicating whether or not a predetermined action by a user corresponding to the position information group has occurred,
A first element having an input layer and an output layer, the layer belonging to any layer from the input layer to the output layer other than the output layer, and weights of the first element and the first element A second element whose value is calculated on the basis of the above, and for each of the position information groups input to the input layer, each element belonging to each layer other than the output layer as the first element, Correct information corresponding to the position information group is output from the output layer of the model by being input to the input layer of the model that performs the calculation based on the weight of the first element. And learning based on the comparison between the output value and
Learning data to make the computer function.
ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力される入力層と、
出力層と、
前記入力層から前記出力層までのいずれかの層であって前記出力層以外の層に属する第1要素と、
前記第1要素と前記第1要素の重みとに基づいて値が算出される第2要素と、を含み、
前記入力層に入力されたセンサ情報に対し、前記出力層以外の各層に属する各要素を前記第1要素として、前記第1要素と前記第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を前記出力層から出力するよう、
コンピュータを機能させ生成されたモデル。
An input layer in which a position information group that is a user's position information group and satisfies a predetermined regularity regarding a change in position is input;
The output layer,
A first element belonging to any layer from the input layer to the output layer other than the output layer;
A second element whose value is calculated based on the first element and a weight of the first element;
The sensor information input to the input layer is subjected to a calculation based on the first element and the weight of the first element, with each element belonging to each layer other than the output layer as the first element. So as to output from the output layer the score value used for predicting the occurrence of the behavior of
A model generated by a computer function.
JP2017143449A 2017-07-25 2017-07-25 Extraction device, extraction method, and extraction program Active JP7221586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017143449A JP7221586B2 (en) 2017-07-25 2017-07-25 Extraction device, extraction method, and extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143449A JP7221586B2 (en) 2017-07-25 2017-07-25 Extraction device, extraction method, and extraction program

Publications (2)

Publication Number Publication Date
JP2019028488A true JP2019028488A (en) 2019-02-21
JP7221586B2 JP7221586B2 (en) 2023-02-14

Family

ID=65476294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143449A Active JP7221586B2 (en) 2017-07-25 2017-07-25 Extraction device, extraction method, and extraction program

Country Status (1)

Country Link
JP (1) JP7221586B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065381A (en) * 2006-09-04 2008-03-21 Toyota Motor Corp Vehicle with outside user protecting function
JP2008123317A (en) * 2006-11-14 2008-05-29 Dainippon Printing Co Ltd Information providing system
JP2010014592A (en) * 2008-07-04 2010-01-21 Univ Waseda Moving means determining device and moving means determination method
US20110071881A1 (en) * 2009-09-18 2011-03-24 Microsoft Corporation Mining life pattern based on location history
JP2011081431A (en) * 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program
JP2011198292A (en) * 2010-03-23 2011-10-06 Nippon Telegr & Teleph Corp <Ntt> Modeling device, method, and program for action prediction, and prediction device, method, and program using the modeling information

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065381A (en) * 2006-09-04 2008-03-21 Toyota Motor Corp Vehicle with outside user protecting function
JP2008123317A (en) * 2006-11-14 2008-05-29 Dainippon Printing Co Ltd Information providing system
JP2010014592A (en) * 2008-07-04 2010-01-21 Univ Waseda Moving means determining device and moving means determination method
US20110071881A1 (en) * 2009-09-18 2011-03-24 Microsoft Corporation Mining life pattern based on location history
JP2011081431A (en) * 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program
JP2011198292A (en) * 2010-03-23 2011-10-06 Nippon Telegr & Teleph Corp <Ntt> Modeling device, method, and program for action prediction, and prediction device, method, and program using the modeling information

Also Published As

Publication number Publication date
JP7221586B2 (en) 2023-02-14

Similar Documents

Publication Publication Date Title
US10726438B2 (en) Personalized contextual coupon engine
CN104170472B (en) Focus is provided to the user&#39;s set in server controls region
US11030653B2 (en) Dynamic geofencing based on an availability of a product
TW201303773A (en) Multi-step impression campaigns
US20170293860A1 (en) System and methods for suggesting beneficial actions
JP6823612B2 (en) Predictors, prediction methods, and prediction programs
JP6804505B2 (en) Predictors, prediction methods, and prediction programs
JP6753833B2 (en) Grant device, grant method, grant program, and program
JP2018129004A (en) Generation apparatus, generation method, and generation program
US20160042367A1 (en) Networked Location Targeted Communication and Analytics
US10491709B2 (en) Time and location based distribution of additional content for content items
JP7249103B2 (en) Selection device, selection method and selection program
JP6374573B1 (en) Generating device, generating method, and generating program
JP6809993B2 (en) Extractor, extraction method, extraction program, and model
JP6852019B2 (en) Information processing equipment, information processing methods, and information processing programs
JP6983739B2 (en) Information processing equipment, information processing methods and information processing programs
JP7221586B2 (en) Extraction device, extraction method, and extraction program
JP6882116B2 (en) Generator, generation method, generation program, training data, and model
JP2019036116A (en) Decision device, decision method, and decision program
JP2020177532A (en) Generation device, generation method, and generation program
JP6587660B2 (en) Estimation apparatus, estimation method, and estimation program
JP2018152124A (en) Extraction device, extraction method, and extraction program
JP7071940B2 (en) Providing equipment, providing method and providing program
JP6918748B2 (en) Information processing equipment, information processing methods, and information processing programs
JP6797870B2 (en) Generation device, generation method, and generation program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220203

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220215

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220222

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220318

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220329

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220705

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221011

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221122

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230104

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230202

R150 Certificate of patent or registration of utility model

Ref document number: 7221586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350