JP7221586B2 - Extraction device, extraction method, and extraction program - Google Patents

Extraction device, extraction method, and extraction program Download PDF

Info

Publication number
JP7221586B2
JP7221586B2 JP2017143449A JP2017143449A JP7221586B2 JP 7221586 B2 JP7221586 B2 JP 7221586B2 JP 2017143449 A JP2017143449 A JP 2017143449A JP 2017143449 A JP2017143449 A JP 2017143449A JP 7221586 B2 JP7221586 B2 JP 7221586B2
Authority
JP
Japan
Prior art keywords
user
information
position information
extraction
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017143449A
Other languages
Japanese (ja)
Other versions
JP2019028488A (en
Inventor
博基 谷口
玲 田島
孝太 坪内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017143449A priority Critical patent/JP7221586B2/en
Publication of JP2019028488A publication Critical patent/JP2019028488A/en
Application granted granted Critical
Publication of JP7221586B2 publication Critical patent/JP7221586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、抽出装置、抽出方法、及び抽出プログラムに関する。 The present invention relates to an extraction device, an extraction method, and an extraction program .

従来、ユーザの行動に関する情報を抽出する技術が提供されている。例えば、ユーザの行動や移動に伴って断続的に得られる履歴情報を用いながら、ユーザが立ち寄った又は滞在した施設を間接的に推定する技術が提供されている。 Conventionally, techniques for extracting information on user behavior have been provided. For example, there is provided a technology for indirectly estimating the facility where the user visited or stayed while using history information intermittently obtained along with the user's actions and movements.

特開2010-244433号公報JP 2010-244433 A

しかしながら、上記の従来技術では、規則性を満たすユーザの情報を適切に抽出することが難しい場合がある。例えば、ユーザの行動や移動に伴って断続的に得られる履歴情報を用いるだけでは、例えばユーザの行動の連続による行動に関する情報等を適切に抽出することが難しい場合がある。 However, with the conventional technology described above, it may be difficult to appropriately extract user information that satisfies the regularity. For example, it may be difficult to appropriately extract, for example, information related to a user's continuous behavior only by using history information intermittently obtained according to the user's behavior or movement.

本願は、上記に鑑みてなされたものであって、規則性を満たすユーザの情報を適切に抽出する抽出装置、抽出方法、及び抽出プログラムを提供することを目的とする。 The present application has been made in view of the above, and aims to provide an extraction device, an extraction method, and an extraction program for appropriately extracting user information that satisfies regularity.

本願に係る抽出装置は、所定の期間において検知されたユーザの複数の位置情報を取得する取得部と、前記取得部により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する抽出部とを備えたことを特徴とする。 An extraction device according to the present application includes an acquisition unit that acquires a plurality of pieces of location information of a user detected during a predetermined period of time, and a predetermined regularity regarding changes in location among the pieces of location information acquired by the acquisition unit. and an extraction unit for extracting a group of position information that satisfies the requirements.

実施形態の一態様によれば、規則性を満たすユーザの情報を適切に抽出することができるという効果を奏する。 According to one aspect of the embodiment, it is possible to appropriately extract user information that satisfies the regularity.

図1は、実施形態に係る抽出処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of extraction processing according to an embodiment. 図2は、実施形態に係る抽出処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of extraction processing according to the embodiment. 図3は、実施形態に係る抽出システムの構成例を示す図である。FIG. 3 is a diagram showing a configuration example of an extraction system according to the embodiment. 図4は、実施形態に係る抽出装置の構成例を示す図である。FIG. 4 is a diagram illustrating a configuration example of an extraction device according to the embodiment. 図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。5 is a diagram illustrating an example of a user information storage unit according to the embodiment; FIG. 図6は、実施形態に係る行動情報記憶部の一例を示す図である。6 is a diagram illustrating an example of an action information storage unit according to the embodiment; FIG. 図7は、実施形態に係る位置情報記憶部の一例を示す図である。7 is a diagram illustrating an example of a position information storage unit according to the embodiment; FIG. 図8は、実施形態に係るモデル情報記憶部の一例を示す図である。8 is a diagram illustrating an example of a model information storage unit according to the embodiment; FIG. 図9は、実施形態に係る抽出処理の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of extraction processing according to the embodiment. 図10は、抽出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 10 is a hardware configuration diagram showing an example of a computer that implements the functions of the extraction device.

以下に、本願に係る抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る抽出装置、抽出方法、抽出プログラム、学習データ、及びモデルが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Embodiments for implementing the extraction device, extraction method, extraction program, learning data, and model (hereinafter referred to as "embodiments") according to the present application will be described in detail below with reference to the drawings. Note that the extraction device, extraction method, extraction program, learning data, and model according to the present application are not limited by this embodiment. Also, in each of the following embodiments, the same parts are denoted by the same reference numerals, and overlapping descriptions are omitted.

(実施形態)
〔1.抽出処理〕
図1及び図2を用いて、実施形態に係る抽出処理の一例について説明する。図1及び図2は、実施形態に係る抽出処理の一例を示す図である。図1及び図2の例では、ユーザが利用する端末装置10が検知したセンサ情報(位置情報)から、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。また、図1及び図2に示す抽出処理には、位置情報群とユーザの所定の行動の有無を示す情報を用いてモデルを生成する処理が含まれる。なお、抽出処理には、モデルを生成する処理が含まれなくてもよい。
(embodiment)
[1. Extraction process]
An example of extraction processing according to the embodiment will be described with reference to FIGS. 1 and 2. FIG. 1 and 2 are diagrams illustrating an example of extraction processing according to an embodiment. The examples of FIGS. 1 and 2 show the case of extracting a position information group that satisfies a predetermined regularity regarding changes in position from sensor information (position information) detected by the terminal device 10 used by the user. Also, the extraction processing shown in FIGS. 1 and 2 includes processing for generating a model using a position information group and information indicating the presence or absence of a predetermined action of the user. Note that the extraction process does not have to include the process of generating the model.

〔1-1.抽出システムの構成〕
まず、図1及び図2の説明に先立って、図3に示す抽出システム1について説明する。図3に示すように、抽出システム1は、端末装置10と、抽出装置100とが含まれる。端末装置10と、抽出装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。図3は、実施形態に係る抽出システムの構成例を示す図である。なお、図3に示した抽出システム1には、複数台の端末装置10や、複数台の抽出装置100が含まれてもよい。
[1-1. Configuration of extraction system]
First, before describing FIGS. 1 and 2, an extraction system 1 shown in FIG. 3 will be described. As shown in FIG. 3 , the extraction system 1 includes a terminal device 10 and an extraction device 100 . The terminal device 10 and the extraction device 100 are connected via a predetermined network N so as to be communicable by wire or wirelessly. FIG. 3 is a diagram showing a configuration example of an extraction system according to the embodiment. Note that the extraction system 1 shown in FIG. 3 may include a plurality of terminal devices 10 and a plurality of extraction devices 100 .

端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1及び図2は、端末装置10がスマートフォンである場合を示す。 The terminal device 10 is an information processing device used by a user. The terminal device 10 is realized by, for example, a smart phone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. 1 and 2 show a case where the terminal device 10 is a smart phone.

また、端末装置10は、GPS(Global Positioning System)センサ等の機能を有し、ユーザの位置情報(センサ情報)を検知し、取得するものとする。また、端末装置10は、通信を行っている基地局の位置情報や、WiFi(登録商標)(Wireless Fidelity)の電波を用いてユーザの位置情報を推定し、取得してもよい。なお、以下では位置情報を単に「位置」と記載する場合がある。 Also, the terminal device 10 has a function such as a GPS (Global Positioning System) sensor, and detects and acquires user position information (sensor information). In addition, the terminal device 10 may estimate and acquire the location information of the user by using the location information of the base station with which it is communicating and the radio waves of WiFi (registered trademark) (Wireless Fidelity). In addition, below, position information may be simply described as a "position."

また、端末装置10は、GPSセンサ等に限らず種々のセンサにより、各種センサ情報を検知してもよい。例えば、端末装置10は、加速度センサの機能を有し、ユーザの移動における加速度情報(センサ情報)を検知し、取得可能であってもよい。また、端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。また、端末装置10は、心拍センサ等の種々の機能を有し、ユーザの生体情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。 Moreover, the terminal device 10 may detect various sensor information by various sensors other than a GPS sensor or the like. For example, the terminal device 10 may have a function of an acceleration sensor, and may be capable of detecting and acquiring acceleration information (sensor information) in movement of the user. Further, the terminal device 10 may have various functions such as a temperature sensor and an air pressure sensor, and may be capable of detecting and acquiring environment information such as temperature and air pressure in which the user is placed. In addition, the terminal device 10 may have various functions such as a heartbeat sensor, and may be capable of detecting and acquiring biological information of the user. For example, a user using the terminal device 10 may acquire the user's own context information from the terminal device 10 by wearing a wearable device capable of communicating with the terminal device 10 . For example, a user using the terminal device 10 wears a wristband-type wearable device that can communicate with the terminal device 10, so that the terminal device 10 acquires information about the user's own heartbeat (pulse). It may be possible.

また、端末装置10は、ユーザによる操作を受け付ける。また、端末装置10は、抽出装置100に種々の情報を送信する。例えば、端末装置10は、抽出装置100に位置情報や行動情報等を送信する。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。 Also, the terminal device 10 receives an operation by the user. Also, the terminal device 10 transmits various information to the extraction device 100 . For example, the terminal device 10 transmits position information, action information, and the like to the extraction device 100 . In addition, below, the terminal device 10 may be described as a user. That is, hereinafter, the user can also be read as the terminal device 10 .

以下では、ユーザID「U1」により識別されるユーザを「ユーザU1」とする場合がある。このように、以下では、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU2」と記載した場合、そのユーザはユーザID「U2」により識別されるユーザである。例えば、図3に示した抽出システム1には、ユーザU1が利用する端末装置10や、ユーザU2が利用する端末装置10等の多数の端末装置10が含まれる。 Hereinafter, the user identified by the user ID "U1" may be referred to as "user U1". Thus, hereinafter, when "user U* (* is an arbitrary number)" is described, it indicates that the user is identified by the user ID "U*". For example, when "user U2" is described, the user is identified by the user ID "U2". For example, the extraction system 1 shown in FIG. 3 includes many terminal devices 10 such as the terminal device 10 used by the user U1 and the terminal device 10 used by the user U2.

図1に示す端末装置10は、ユーザU1によって利用される情報処理装置である。図2に示す端末装置10は、ユーザU2によって利用される情報処理装置である。端末装置10は、ユーザによる種々の操作を受け付ける。なお、端末装置10をユーザと表記する場合がある。すなわち、ユーザを端末装置10と読み替えることもできる。 A terminal device 10 shown in FIG. 1 is an information processing device used by a user U1. The terminal device 10 shown in FIG. 2 is an information processing device used by the user U2. The terminal device 10 accepts various operations by the user. Note that the terminal device 10 may be referred to as a user. That is, the user can also be read as the terminal device 10 .

抽出装置100は、所定の期間において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報(位置情報群)を抽出する情報処理装置である。また、抽出装置100は、位置情報群と、位置情報群に対応する行動情報(以下、「対象行動情報」ともいう)とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。 The extraction device 100 is an information processing device that extracts position information (position information group) that satisfies a predetermined regularity regarding changes in position from among a plurality of pieces of position information of a user detected during a predetermined period. In addition, the extraction device 100 predicts whether or not a predetermined action will occur based on learning data including a position information group and action information corresponding to the position information group (hereinafter also referred to as "target action information"). Generate a model that can be

〔1-2.移動(位置変化有)について〕
図1の例では、抽出装置100がユーザU1について、日時dt11~dt18において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。なお、ユーザU1は、端末装置10を利用するユーザであり、抽出装置100は端末装置10が有するGPSセンサ等の機能により端末装置10の位置を取得する。図1に示す地図情報MP1は、ユーザU1の位置を模式的に示す。また、地図情報MP1において、端末装置10(端末装置10を所有するユーザ)の位置を位置LC11~LC18により示す。なお、位置LC11~LC18を区別しない場合は、位置LCとする場合がある。また、以下では、抽出装置100がユーザU1の位置やユーザU1の行動情報をリアルタイムに取得する場合を示すが、抽出装置100は適宜のタイミングでユーザU1の位置やユーザU1の行動情報を取得し、抽出処理を行ってもよい。例えば、抽出装置100は、定期的(例えば1日おき)に各ユーザの位置や行動情報を取得し、抽出処理を行ってもよい。
[1-2. Regarding movement (with position change)]
The example of FIG. 1 shows a case where the extraction device 100 extracts a group of location information that satisfies a predetermined regularity regarding changes in location from among a plurality of pieces of location information of the user detected during dates dt11 to dt18 for user U1. . Note that the user U1 is a user who uses the terminal device 10, and the extraction device 100 acquires the position of the terminal device 10 using a function of the terminal device 10, such as a GPS sensor. Map information MP1 shown in FIG. 1 schematically indicates the position of user U1. Further, in the map information MP1, the positions of the terminal device 10 (the user who owns the terminal device 10) are indicated by positions LC11 to LC18. Incidentally, when the positions LC11 to LC18 are not distinguished, they may be referred to as the position LC. In the following description, the extraction device 100 acquires the position of the user U1 and the behavior information of the user U1 in real time. , extraction processing may be performed. For example, the extraction device 100 may periodically (for example, every other day) acquire the location and action information of each user and perform extraction processing.

まず、抽出装置100は、日時dt11においてユーザU1の位置LC11を取得する。そして、抽出装置100は、日時dt11よりも後の日時dt12においてユーザU1が、XX公園(関心地点POI1)内にいることを示す位置LC12を取得する。例えば、抽出装置100は、図1に示すXX公園(関心地点POI1)や図2に示すYY映画館(関心地点POI2)のような各種の施設等(関心地点)が所在する位置等、関心地点(POI:Point of Interest)に関する各種情報(以下、「POI情報」ともいう)を有するものとする。 First, the extraction device 100 acquires the position LC11 of the user U1 at the date and time dt11. Then, the extraction device 100 acquires a position LC12 indicating that the user U1 is in the XX park (point of interest POI1) at a date and time dt12 later than the date and time dt11. For example, the extraction device 100 extracts points of interest, such as locations where various facilities (points of interest) are located, such as XX park (point of interest POI1) shown in FIG. 1 and YY movie theater (point of interest POI2) shown in FIG. (POI: Point of Interest) has various information (hereinafter also referred to as "POI information").

例えば、抽出装置100は、POI情報と、ユーザU1の位置LCとの比較により、ユーザU1がXX公園に向かっていると推定する。例えば、抽出装置100は、日時dt11よりも後の日時dt12においてユーザU1が、位置LC11とは異なる位置であって、XX公園内にいることを示す位置LC12を取得する。例えば、抽出装置100は、POI情報と、ユーザU1の位置LCの変化との比較により、ユーザU1がXX公園に向かっていると推定する。図1の例では、抽出装置100は、位置LC11、LC12により、ユーザU1がXX公園に向かって(図1では下から上方向へ)移動していると推定する。なお、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。また、抽出装置100は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。 For example, the extraction device 100 estimates that the user U1 is heading to XX Park by comparing the POI information and the position LC of the user U1. For example, the extraction device 100 acquires a position LC12 indicating that the user U1 is in XX Park at a date and time dt12 later than the date and time dt11, which is different from the position LC11. For example, the extraction device 100 estimates that the user U1 is heading to XX Park by comparing the POI information and the change in the position LC of the user U1. In the example of FIG. 1, the extraction device 100 estimates that the user U1 is moving toward the XX park (from bottom to top in FIG. 1) from the positions LC11 and LC12. Note that the extraction device 100 may estimate the direction of movement of the user based on the acceleration detected by the terminal device 10 . Further, the extraction device 100 may appropriately use various conventional techniques to estimate the movement from the point where the position information was last detected based on the acceleration detected by the terminal device 10 .

そして、抽出装置100は、日時dt12よりも後の日時dt13においてユーザU1が、XX公園内において、位置LC12とは異なる位置にいることを示す位置LC13を取得する。図1の例では、抽出装置100は、位置LC12、LC13により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC12、LC13により、ユーザU1の移動速度を推定する。また、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動速度を推定してもよい。 Then, the extraction device 100 acquires a position LC13 indicating that the user U1 is at a position different from the position LC12 in the XX park at a date and time dt13 later than the date and time dt12. In the example of FIG. 1, the extraction device 100 estimates that the user U1 is moving in the XX park from the positions LC12 and LC13. The extraction device 100 also estimates the moving speed of the user U1 from the positions LC12 and LC13. Also, the extraction device 100 may estimate the moving speed of the user based on the acceleration detected by the terminal device 10 .

そして、抽出装置100は、日時dt13よりも後の日時dt14においてユーザU1が、XX公園内において、位置LC13とは異なる位置にいることを示す位置LC14を取得する。図1の例では、抽出装置100は、位置LC13、LC14により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC13、LC14により、ユーザU1の移動速度を推定する。 Then, the extraction device 100 acquires a position LC14 indicating that the user U1 is at a position different from the position LC13 in the XX park at a date and time dt14 later than the date and time dt13. In the example of FIG. 1, the extraction device 100 estimates that the user U1 is moving in the XX park from the positions LC13 and LC14. Also, the extraction device 100 estimates the moving speed of the user U1 from the positions LC13 and LC14.

そして、抽出装置100は、日時dt14よりも後の日時dt15においてユーザU1が、XX公園内において、位置LC14とは異なる位置にいることを示す位置LC15を取得する。図1の例では、抽出装置100は、位置LC14、LC15により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC14、LC15により、ユーザU1の移動速度を推定する。 Then, the extraction device 100 acquires a position LC15 indicating that the user U1 is at a position different from the position LC14 in the XX park at a date and time dt15 later than the date and time dt14. In the example of FIG. 1, the extraction device 100 estimates that the user U1 is moving in the XX park from the positions LC14 and LC15. The extraction device 100 also estimates the moving speed of the user U1 from the positions LC14 and LC15.

そして、抽出装置100は、日時dt15よりも後の日時dt16においてユーザU1が、XX公園内において、位置LC15とは異なる位置にいることを示す位置LC16を取得する。図1の例では、抽出装置100は、位置LC15、LC16により、ユーザU1がXX公園内を移動していると推定する。また、抽出装置100は、位置LC15、LC16により、ユーザU1の移動速度を推定する。 Then, the extraction device 100 acquires a position LC16 indicating that the user U1 is at a position different from the position LC15 in the XX park at a date and time dt16 later than the date and time dt15. In the example of FIG. 1, the extraction device 100 estimates that the user U1 is moving in the XX park from the positions LC15 and LC16. Also, the extraction device 100 estimates the moving speed of the user U1 from the positions LC15 and LC16.

そして、抽出装置100は、日時dt16よりも後の日時dt17においてユーザU1が、XX公園から離れたことを示す位置LC17を取得する。そして、抽出装置100は、日時dt17よりも後の日時dt18においてユーザU1が、Aコンビニ(ショップSP1)にいることを示す位置LC18を取得する。また、抽出装置100は、日時dt18においてユーザU1が、AコンビニでW水を購入したことを示す行動情報AC11を取得する。 Then, the extraction device 100 acquires a position LC17 indicating that the user U1 left XX Park at a date and time dt17 later than the date and time dt16. Then, the extraction device 100 acquires a position LC18 indicating that the user U1 is at the A convenience store (shop SP1) at a date and time dt18 later than the date and time dt17. The extraction device 100 also acquires action information AC11 indicating that the user U1 purchased W water at the A convenience store at date and time dt18.

抽出装置100は、日時dt11~dt18において検知されたユーザの複数の位置情報LC11~LC18のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS11)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出装置100は、ユーザU1の位置情報の変化が例えば時速10km等のランニングに対応する速度で変化している位置情報群を抽出する。図1の例では、抽出装置100は、ユーザU1がXX公園(関心地点POI1)においてランニングを行っている際の位置情報群を抽出する。例えば、抽出装置100は、ユーザU1の位置情報の変化が例えば時速10km等でXX公園の周囲を移動している位置情報群を抽出する。 The extraction device 100 extracts a position information group that satisfies a predetermined regularity regarding changes in position from among the plurality of pieces of position information LC11 to LC18 of the user detected during the dates and times dt11 to dt18 (step S11). For example, the extraction device 100 extracts a position information group that satisfies a predetermined regularity corresponding to the "behavior pattern PT1 (running)" as shown in the model information storage unit 124 (see FIG. 8). For example, the extraction device 100 extracts a position information group in which the position information of the user U1 changes at a speed corresponding to running, such as 10 km/h. In the example of FIG. 1, the extraction device 100 extracts the position information group when the user U1 is running in the XX park (point of interest POI1). For example, the extraction device 100 extracts a position information group in which the change in the position information of the user U1 is moving around XX Park at a speed of 10 km/h, for example.

図1の例では、XX公園内において、位置LC14から位置LC15への移動は、ユーザU1の周回方向(図1の例では時計回りの方向)に、位置LC12を通過している。抽出装置100は、上記のようなユーザU1の移動経過やユーザU1の速度に基づいて、ユーザU1がXX公園内をランニングしていると推定する。そのため、抽出装置100は、日時dt12~dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12~LC16を抽出する。図1の例では、抽出装置100は、日時dt12~dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12~LC16を抽出する。 In the example of FIG. 1, movement from position LC14 to position LC15 in XX park passes through position LC12 in the circling direction of user U1 (clockwise direction in the example of FIG. 1). The extraction device 100 estimates that the user U1 is running in the XX park based on the progress of movement of the user U1 and the speed of the user U1 as described above. Therefore, the extraction device 100 extracts position information LC12 to LC16 in which the user U1 is moving around XX Park during the dates dt12 to dt16. In the example of FIG. 1, the extraction device 100 extracts location information LC12 to LC16 where the user U1 is moving around XX Park on dates and times dt12 to dt16.

そして、抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動のうち、所定の条件を満たす行動(以下、「対象行動」ともいう)を抽出する(ステップS12)。例えば、抽出装置100は、位置情報群(位置情報LC12~LC16)が検知された対象期間(日時dt12~dt16)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。図1の例では、抽出装置100は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。抽出装置100は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。図1の例では、抽出装置100は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内の日時dt18においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。また、抽出装置100は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内(例えば1km以内)においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。なお、図1の例では、ユーザU1のみの情報を抽出する例を示したが、多数(例えば、1万人等)のユーザについても同様の情報が抽出されているものとする。 Then, the extraction device 100 extracts a behavior that satisfies a predetermined condition (hereinafter, also referred to as a “target behavior”) from among the behaviors of the user outside the target period, which is the period in which the position information group was detected (step S12). . For example, the extraction device 100 extracts target behavior information, which is behavior information that satisfies a predetermined condition, among the behavior information of the user outside the target period (dates and times dt12 to dt16) in which the position information group (position information LC12 to LC16) was detected. to extract In the example of FIG. 1, the extraction device 100 extracts target action information, which is action information that satisfies a predetermined condition among the user's action information within a predetermined period (period PD1) from the end of the target period (date and time dt16). to extract The extraction device 100 may extract target action information, which is action information that satisfies a predetermined condition, from the user's action information within a predetermined range from the position LC16 at the end of the target period (date and time dt16). In the example of FIG. 1, the extraction device 100 extracts action information indicating that the user U1 purchased W water at a convenience store A at a date and time dt18 within a predetermined period (period PD1) from the end of the target period (date and time dt16). AC11 is extracted as the target behavior information. Further, the extraction device 100 extracts action information AC11 indicating that user U1 purchased W water at convenience store A within a predetermined range (for example, within 1 km) from position LC16 at the end of the target period (date and time dt16). Extract as information. Although the example of FIG. 1 shows an example of extracting information only for user U1, it is assumed that similar information is extracted for a large number of users (for example, 10,000).

そして、抽出装置100は、位置情報群と対象行動情報とに基づいて、モデルを生成する(ステップS13)。図1の例では、抽出装置100は、位置情報LC12~LC16と、行動情報AC11とに基づいて、モデルM1を生成する。例えば、抽出装置100は、位置情報群が抽出されたユーザが飲料を購入するかを予測するモデルM1を生成する。例えば、抽出装置100は、ランニング後にユーザが飲料を購入するかを予測するモデルM1を生成する。図1の例では、抽出装置100は、ユーザU1を含む多数(例えば、1万人等)のユーザについて抽出した位置情報群を用いて、モデルM1を生成する。 Then, the extraction device 100 generates a model based on the position information group and the target behavior information (step S13). In the example of FIG. 1, extraction device 100 generates model M1 based on position information LC12 to LC16 and action information AC11. For example, the extraction device 100 generates a model M1 that predicts whether a user whose position information group is extracted will purchase a beverage. For example, the extraction device 100 generates a model M1 that predicts whether the user will purchase a beverage after running. In the example of FIG. 1, the extraction device 100 generates a model M1 using a group of position information extracted for a large number of users (eg, 10,000 users) including the user U1.

例えば、抽出装置100は、行動パターンPT1の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲料の購入が行われたことを示す情報との組合せを正例として、モデルM1を生成する。例えば、抽出装置100は、正例となる位置情報群が入力された場合に、スコア「1」を出力するように学習処理を行うことにより、モデルM1を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「1」に近いスコアを出力する程、行動パターンPT1の行動後に飲料の購入が行われる可能性が高いことを示すモデルM1を生成する。また、例えば、抽出装置100は、飲料の購入が行われていない前後において検知されたユーザの位置情報群を負例として、モデルM1を生成してもよい。例えば、抽出装置100は、負例となる位置情報群が入力された場合に、スコア「0」を出力するように学習処理を行うことにより、モデルM1を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「0」に近いスコアを出力する程、飲料の購入が行われる可能性が低いことを示すモデルM1を生成する。例えば、抽出装置100は、行動パターンPT1の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲料の購入が行われていないことを示す情報との組合せを負例として、モデルM1を生成してもよい。 For example, the extraction device 100 uses a combination of a position information group extracted as satisfying the regularity of the behavior pattern PT1 and information indicating that a beverage was purchased before and after the behavior as a positive example, and extracts the model M1 to generate For example, the extraction device 100 generates the model M1 by performing learning processing so as to output a score of "1" when a positive example position information group is input. For example, the extraction device 100 generates a model M1 indicating that the closer the score to "1" is output when the position information group is input, the more likely it is that a beverage will be purchased after the behavior of the behavior pattern PT1. Generate. Further, for example, the brewing device 100 may generate the model M1 using a group of position information of the user detected before and after the purchase of the beverage is not performed as negative examples. For example, the extraction device 100 generates the model M1 by performing learning processing so as to output a score of "0" when a negative example position information group is input. For example, the extraction device 100 generates a model M1 indicating that the closer the score to "0" is output when the location information group is input, the lower the possibility that the beverage will be purchased. For example, the extraction device 100 uses, as a negative example, a combination of a group of position information extracted as satisfying the regularity of the behavior pattern PT1 and information indicating that beverages were not purchased before and after the behavior, and a model M1 may be generated.

なお、各モデルの生成は、機械学習に関する種々の従来技術を適宜用いて行われてもよい。例えば、モデルの生成は、SVM(Support Vector Machine)等の教師あり学習の機械学習に関する技術を用いて行われてもよい。また、例えば、モデルの生成は、教師なし学習の機械学習に関する技術を用いて行われてもよい。例えば、モデルの生成は、深層学習(ディープラーニング)の技術を用いて行われてもよい。例えば、モデルの生成は、DNN(Deep Neural Network)やRNN(Recurrent Neural Network)やCNN(Convolutional Neural Network)等の種々のディープラーニングの技術を適宜用いて行われてもよい。なお、上記モデルの生成に関する記載は例示であり、モデルの生成は、取得可能な情報等に応じて適宜選択された学習手法により行われてもよい。 Note that each model may be generated using various conventional techniques related to machine learning as appropriate. For example, a model may be generated using a technology related to supervised learning machine learning such as SVM (Support Vector Machine). Also, for example, model generation may be performed using techniques related to unsupervised machine learning. For example, model generation may be performed using deep learning techniques. For example, the model may be generated using various deep learning techniques such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), and CNN (Convolutional Neural Network). Note that the above description of model generation is an example, and model generation may be performed by a learning method appropriately selected according to obtainable information and the like.

〔1-3.滞在(位置変化無)について〕
図2の例では、抽出装置100がユーザU2について、日時dt21~dt26において検知されたユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する場合を示す。なお、ユーザU2は、端末装置10を利用するユーザであり、抽出装置100は端末装置10が有するGPSセンサ等の機能により端末装置10の位置を取得する。図2に示す地図情報MP2は、ユーザU2の位置を模式的に示す。また、地図情報MP2において、端末装置10(端末装置10を所有するユーザ)の位置を位置LC21~LC23により示す。なお、位置LC21~LC23を区別しない場合は、位置LCとする場合がある。また、以下では、抽出装置100がユーザU2の位置やユーザU2の行動情報をリアルタイムに取得する場合を示すが、抽出装置100は適宜のタイミングでユーザU2の位置やユーザU2の行動情報を取得し、抽出処理を行ってもよい。例えば、抽出装置100は、定期的(例えば1時間おき)に各ユーザの位置や行動情報を取得し、抽出処理を行ってもよい。
[1-3. Regarding stay (no position change)]
The example of FIG. 2 shows a case where the extraction device 100 extracts a position information group that satisfies a predetermined regularity regarding changes in position from among a plurality of pieces of position information of the user detected during the dates dt21 to dt26 for the user U2. . Note that the user U2 is a user who uses the terminal device 10, and the extraction device 100 acquires the position of the terminal device 10 using a function of the terminal device 10, such as a GPS sensor. The map information MP2 shown in FIG. 2 schematically shows the position of the user U2. Further, in the map information MP2, the positions of the terminal device 10 (the user who owns the terminal device 10) are indicated by positions LC21 to LC23. If the positions LC21 to LC23 are not distinguished, they may be called the position LC. Further, the following describes a case where the extraction device 100 acquires the position of the user U2 and the behavior information of the user U2 in real time. , extraction processing may be performed. For example, the extraction device 100 may periodically (for example, every hour) acquire the location and action information of each user and perform extraction processing.

まず、抽出装置100は、日時dt21においてユーザU2の位置LC21を取得する。そして、抽出装置100は、日時dt21よりも後の日時dt22においてユーザU2が、YY映画館(関心地点POI2)内にいることを示す位置LC22を取得する。 First, the extraction device 100 acquires the position LC21 of the user U2 at date and time dt21. Then, the extraction device 100 acquires a position LC22 indicating that the user U2 is inside the YY movie theater (point of interest POI2) at date and time dt22 later than date and time dt21.

例えば、抽出装置100は、POI情報と、ユーザU2の位置LCとの比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、抽出装置100は、日時dt21よりも後の日時dt22においてユーザU2が、位置LC21とは異なる位置であって、YY映画館内にいることを示す位置LC22を取得する。例えば、抽出装置100は、POI情報と、ユーザU2の位置LCの変化との比較により、ユーザU2がYY映画館に向かっていると推定する。図2の例では、抽出装置100は、位置LC21、LC22により、ユーザU2がYY映画館に向かって(図2では下から上方向へ)移動していると推定する。なお、抽出装置100は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。また、抽出装置100は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。 For example, the extraction device 100 estimates that the user U2 is heading to the YY movie theater by comparing the POI information and the position LC of the user U2. For example, the extraction device 100 acquires a position LC22 indicating that the user U2 is in the YY movie theater at a date and time dt22 later than the date and time dt21, which is different from the position LC21. For example, the extraction device 100 estimates that the user U2 is heading to the YY movie theater by comparing the POI information and the change in the position LC of the user U2. In the example of FIG. 2, the extraction device 100 estimates that the user U2 is moving toward the YY movie theater (from bottom to top in FIG. 2) from the positions LC21 and LC22. Note that the extraction device 100 may estimate the direction of movement of the user based on the acceleration detected by the terminal device 10 . Further, the extraction device 100 may appropriately use various conventional techniques to estimate the movement from the point where the position information was last detected based on the acceleration detected by the terminal device 10 .

そして、抽出装置100は、日時dt22よりも後の日時dt23においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22及び日時dt23に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。 Then, the extraction device 100 acquires a position LC22 indicating that the user U2 is in the YY movie theater at a date and time dt23 later than the date and time dt22. In the example of FIG. 2, the extraction device 100 estimates that the user U2 is staying in the YY movie theater based on the position LC22 acquired at the dates and times dt22 and dt23.

そして、抽出装置100は、日時dt23よりも後の日時dt24においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22~日時dt24に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。また、抽出装置100は、日時dt24よりも後の日時dt25においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。図2の例では、抽出装置100は、日時dt22~日時dt25に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。また、例えば、抽出装置100は、ユーザU2の位置LC22が連続して検知された日時dt22~日時dt25間の時間に基づいて、ユーザU2がYY映画館内において映画を観ていると推定してもよい。例えば、抽出装置100は、日時dt22~日時dt25間の時間が所定の閾値(例えば1時間30分等)以上である場合、ユーザU2がYY映画館内において映画を観ていると推定してもよい。なお、日時dt22~日時dt25の各々において検知される位置LC22は、ユーザU2がYY映画館内に位置することが推定できれば位置LC22から所定の範囲(誤差の範囲)内の位置であってもよい。 Then, the extraction device 100 acquires a position LC22 indicating that the user U2 is in the YY movie theater at a date and time dt24 later than the date and time dt23. In the example of FIG. 2, the extraction device 100 estimates that the user U2 is staying in the YY movie theater from the position LC22 acquired during the dates dt22 to dt24. In addition, the extraction device 100 acquires a position LC22 indicating that the user U2 is in the YY movie theater at a date and time dt25 later than the date and time dt24. In the example of FIG. 2, the extraction device 100 estimates that the user U2 is staying in the YY movie theater based on the position LC22 obtained from date/time dt22 to date/time dt25. Also, for example, the extraction device 100 estimates that the user U2 is watching a movie in the YY movie theater based on the time between the date/time dt22 and the date/time dt25 when the position LC22 of the user U2 is continuously detected. good. For example, the extraction device 100 may estimate that the user U2 is watching a movie in the YY movie theater when the time between date/time dt22 and date/time dt25 is equal to or greater than a predetermined threshold value (for example, 1 hour and 30 minutes). . Note that the position LC22 detected at each of the dates dt22 to dt25 may be a position within a predetermined range (error range) from the position LC22 as long as it can be estimated that the user U2 is located in the YY movie theater.

そして、抽出装置100は、日時dt25よりも後の日時dt26においてユーザU2が、YY映画館から離れたことを示す位置LC23を取得する。図2の例では、抽出装置100は、日時dt26においてユーザU2が、Bレストラン(ショップSP2)にいることを示す位置LC23を取得する。また、抽出装置100は、日時dt26においてユーザU2が、Bレストランで飲食を行ったことを示す行動情報AC21を取得する。 Then, the extraction device 100 acquires a position LC23 indicating that the user U2 left the YY movie theater at a date and time dt26 later than the date and time dt25. In the example of FIG. 2, the extraction device 100 acquires the position LC23 indicating that the user U2 is at the B restaurant (shop SP2) at the date and time dt26. The extraction device 100 also acquires action information AC21 indicating that the user U2 ate at restaurant B on date and time dt26.

抽出装置100は、日時dt21~dt26において検知されたユーザの複数の位置情報LC21~LC23のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS21)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出装置100は、ユーザU2の位置情報の変化が例えば所定の時間に亘って変更していない位置情報群を抽出する。なお、ここでいう変更していない位置には、誤差の範囲内で変化した位置を含むものとする。図2の例では、抽出装置100は、ユーザU2がYY映画館(関心地点POI2)において滞在している際の位置情報群を抽出する。例えば、抽出装置100は、ユーザU2の位置情報の変化が例えば所定の時間に亘ってYY映画館内にある位置情報群を抽出する。 The extraction device 100 extracts a position information group that satisfies a predetermined regularity regarding changes in position from among a plurality of pieces of position information LC21 to LC23 of the user detected during dates dt21 to dt26 (step S21). For example, the extraction device 100 extracts a position information group that satisfies a predetermined regularity corresponding to the "behavior pattern PT2 (stay)" as shown in the model information storage unit 124 (see FIG. 8). For example, the extraction device 100 extracts a group of location information in which the location information of the user U2 has not changed over a predetermined period of time, for example. It should be noted that the position that has not changed here includes the position that has changed within the range of error. In the example of FIG. 2, the extraction device 100 extracts a position information group when the user U2 is staying at the YY movie theater (point of interest POI2). For example, the extraction device 100 extracts a position information group in which the change in position information of the user U2 is within the YY movie theater over a predetermined period of time, for example.

図2の例では、YY映画館内において、位置LC22は、日時dt22~dt25の間に亘って継続して検知されているため、ユーザU2がYY映画館内に滞在していると推定する。そのため、抽出装置100は、日時dt22~dt25においてユーザU2がYY映画館内に滞在していることを示す日時dt22~dt25に各々対応する位置情報LC22を抽出する。図2の例では、抽出装置100は、日時dt22~dt25においてユーザU2がYY映画館内に滞在していることを示す日時dt22~dt25に各々対応する複数の位置情報LC22を抽出する。 In the example of FIG. 2, since the position LC22 is continuously detected in the YY movie theater during the period from dt22 to dt25, it is estimated that the user U2 is staying in the YY movie theater. Therefore, the extraction device 100 extracts the position information LC22 corresponding to each of the dates dt22 to dt25 indicating that the user U2 is staying in the YY movie theater during the dates dt22 to dt25. In the example of FIG. 2, the extraction device 100 extracts a plurality of pieces of position information LC22 corresponding respectively to dates dt22 to dt25 indicating that the user U2 is staying in the YY movie theater during dates dt22 to dt25.

そして、抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動のうち、所定の条件を満たす対象行動を抽出する(ステップS22)。例えば、抽出装置100は、位置情報群(4つの位置情報LC22)が検知された対象期間(日時dt22~dt25)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。図2の例では、抽出装置100は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出装置100は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。図2の例では、抽出装置100は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内の日時dt26においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。また、抽出装置100は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内(例えば2km以内)においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。なお、図2の例では、ユーザU2のみの情報を抽出する例を示したが、多数(例えば、10万人等)のユーザについても同様の情報が抽出されているものとする。 Then, the extraction device 100 extracts a target action that satisfies a predetermined condition from the user's actions outside the target period, which is the period in which the position information group was detected (step S22). For example, the extraction device 100 extracts target action information, which is action information that satisfies a predetermined condition, among the user's action information outside the target period (dates dt22 to dt25) in which the position information group (four pieces of position information LC22) was detected. to extract In the example of FIG. 2, the extraction device 100 extracts target action information, which is action information that satisfies a predetermined condition, out of the user's action information within a predetermined period (period PD2) from the end of the target period (date and time dt25). to extract For example, the extraction device 100 may extract target action information, which is action information that satisfies a predetermined condition, from the user's action information within a predetermined range from the position LC22 at the end of the target period (date and time dt25). . In the example of FIG. 2, the extraction device 100 extracts action information AC21 indicating that the user U2 ate at restaurant B on date and time dt26 within a predetermined period (period PD2) from the end of the target period (date and time dt25). is extracted as target behavior information. In addition, the extraction device 100 extracts behavior information AC21 indicating that user U2 ate at restaurant B within a predetermined range (for example, within 2 km) from position LC22 at the end of the target period (date and time dt25). Extract as Although the example of FIG. 2 shows an example of extracting information only for user U2, it is assumed that similar information is extracted for a large number of users (eg, 100,000).

そして、抽出装置100は、位置情報群と対象行動情報とに基づいて、モデルを生成する(ステップS23)。図2の例では、抽出装置100は、4つの位置情報LC22と、行動情報AC21とに基づいて、モデルM2を生成する。例えば、抽出装置100は、位置情報群が抽出されたユーザが飲食を行うか予測するモデルM2を生成する。例えば、抽出装置100は、滞在後にユーザが飲食を行うかを予測するモデルM2を生成する。図2の例では、抽出装置100は、ユーザU2を含む多数(例えば、10万人等)のユーザについて抽出した位置情報群を用いて、モデルM2を生成する。 Then, the extraction device 100 generates a model based on the position information group and the target behavior information (step S23). In the example of FIG. 2, the extraction device 100 generates the model M2 based on four pieces of position information LC22 and action information AC21. For example, the extraction device 100 generates a model M2 that predicts whether a user whose position information group is extracted will eat and drink. For example, the extraction device 100 generates a model M2 that predicts whether the user will eat or drink after staying. In the example of FIG. 2, the extraction device 100 generates the model M2 using a group of position information extracted for a large number of users (eg, 100,000 users) including the user U2.

例えば、抽出装置100は、行動パターンPT2の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲食が行われたことを示す情報との組合せを正例として、モデルM2を生成する。例えば、抽出装置100は、正例となる位置情報群が入力された場合に、スコア「1」を出力するように学習処理を行うことにより、モデルM2を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「1」に近いスコアを出力する程、行動パターンPT2の行動後に飲食が行われる可能性が高いことを示すモデルM2を生成する。また、例えば、抽出装置100は、飲食が行われていない前後において検知されたユーザの位置情報群を負例として、モデルM2を生成してもよい。例えば、抽出装置100は、負例となる位置情報群が入力された場合に、スコア「0」を出力するように学習処理を行うことにより、モデルM2を生成する。例えば、抽出装置100は、位置情報群が入力された場合に、「0」に近いスコアを出力する程、飲食が行われる可能性が低いことを示すモデルM2を生成する。例えば、抽出装置100は、行動パターンPT2の規則性を満たすとして抽出された位置情報群と、その行動の前後において飲食が行われていないことを示す情報との組合せを負例として、モデルM2を生成してもよい。 For example, the extraction device 100 generates the model M2 by using as a positive example a combination of a position information group extracted as satisfying the regularity of the behavior pattern PT2 and information indicating that eating and drinking was performed before and after the behavior. do. For example, the extraction device 100 generates the model M2 by performing learning processing so as to output a score of "1" when a positive example position information group is input. For example, the extraction device 100 generates a model M2 indicating that the closer the score to "1" is output when the position information group is input, the more likely it is that eating and drinking will be performed after the action of the action pattern PT2. . Further, for example, the extraction device 100 may generate the model M2 by using a group of user position information detected before and after eating and drinking as negative examples. For example, the extraction device 100 generates the model M2 by performing learning processing so as to output a score of "0" when a negative position information group is input. For example, the extraction device 100 generates a model M2 indicating that the closer the score to "0" is output when the location information group is input, the lower the possibility of eating and drinking. For example, the extraction device 100 uses as a negative example a combination of a position information group extracted as satisfying the regularity of the behavior pattern PT2 and information indicating that eating and drinking was not performed before and after the behavior, and generates a model M2. may be generated.

上述したように、抽出装置100は、規則性を満たすユーザの情報を適切に抽出することができる。図1の例では、抽出装置100は、ユーザがXX公園を周回するような行動を行っている場合、ユーザの位置が位置の変化に関する所定の規則性を満たすとして、その位置情報群を抽出する。また、抽出装置100は、位置情報群が検知された期間である対象期間外における対象行動を抽出する。これにより、抽出装置100は、ユーザがランニングをしていることを示す位置情報群と、その前後におけるユーザの対象行動とを対応付けて抽出することが可能となる。また、図2の例では、抽出装置100は、ユーザが所定の関心地点(YY映画館等)に滞在している場合、ユーザの位置が位置の変化に関する所定の規則性を満たすとして、その位置情報群を抽出する。これにより、抽出装置100は、ユーザが所定の位置に滞在していることを示す位置情報群と、その前後におけるユーザの対象行動とを対応付けて抽出することが可能となる。また、抽出装置100は、このように抽出された位置情報群を用いてモデルを生成することにより、ユーザの対象行動の発生有無を適切に推定することができるモデルを生成することができる。このように、抽出装置100は、ユーザの行動を適切に推定することができるモデルを生成することができる。 As described above, the extraction device 100 can appropriately extract user information that satisfies the regularity. In the example of FIG. 1, the extraction device 100 extracts a group of position information, assuming that the user's position satisfies a predetermined regularity regarding changes in position when the user is making an action such as going around XX park. . In addition, the extraction device 100 extracts the target behavior outside the target period, which is the period during which the position information group is detected. As a result, the extraction device 100 can associate and extract a group of position information indicating that the user is running and the user's target behavior before and after the position information group. In addition, in the example of FIG. 2, when the user is staying at a predetermined point of interest (YY movie theater, etc.), the extraction apparatus 100 assumes that the user's position satisfies a predetermined regularity regarding changes in position. Extract information group. As a result, the extraction device 100 can extract a position information group indicating that the user is staying at a predetermined position in association with the user's target behavior before and after the position information group. In addition, the extraction device 100 can generate a model that can appropriately estimate whether or not the user's target behavior occurs by generating a model using the position information group extracted in this way. Thus, the extraction device 100 can generate a model that can appropriately estimate the behavior of the user.

〔1-4.対象行動(時間)及び情報提供〕
上述した例では、位置情報群が検知された期間である対象期間後にユーザが対象行動を行った場合を例に説明したが、ユーザの対象行動は、対象期間よりも前に行われてもよい。例えば、図1の例において、ユーザU1が対象期間(日時dt12~dt16)よりも前の時点(例えば日時dt10)にZコンビニでX飲料を購入している場合、抽出装置100は、ZコンビニでX飲料の購入を対象行動として抽出してもよい。例えば、抽出装置100は、対象期間の開始時(日時dt12)の位置LC12から所定の範囲内(例えば1km以内)においてユーザU1がZコンビニでX飲料を購入したことを示す行動情報を対象行動情報として抽出する。このように、抽出装置100は、対象期間前におけるユーザの対象行動を抽出し、位置情報群と対象期間前におけるユーザの対象行動とを対応付けて記憶してもよい。また、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を外部の情報処理装置へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近に出店を計画している事業者へ提供してもよい。
[1-4. Target behavior (time) and information provision]
In the above example, the case where the user performs the target action after the target period during which the position information group is detected has been described as an example, but the user's target action may be performed before the target period. . For example, in the example of FIG. 1, when user U1 purchases X beverage at Z convenience store at a point in time (for example, date and time dt10) before the target period (dates dt12 to dt16), extraction device 100 Purchase of X drink may be extracted as a target behavior. For example, the extraction device 100 extracts action information indicating that user U1 purchased X drink at Z convenience store within a predetermined range (for example, within 1 km) from position LC12 at the start of the target period (date and time dt12). Extract as In this way, the extraction device 100 may extract the user's target behavior before the target period, associate the position information group with the user's target behavior before the target period, and store them. Further, the extraction device 100 may provide an external information processing device with information that associates the position information group with the target behavior of the user before the target period. For example, the extraction device 100 may provide information that associates the position information group with the target behavior of the user before the target period to a business operator that is researching the vicinity of the area including XX Park. For example, the extraction device 100 may provide information that associates the position information group with the target behavior of the user before the target period to a business operator planning to open a store near an area including XX Park.

例えば、図2の例において、ユーザU2が対象期間(日時dt22~dt25)よりも前の時点(例えば日時dt20)にCレストランで飲食を行っている場合、抽出装置100は、Cレストランでの飲食を対象行動として抽出してもよい。例えば、抽出装置100は、対象期間の開始時(日時dt22)の位置LC22から所定の範囲内(例えば2km以内)においてユーザU2がCレストランで飲食を行ったことを示す行動情報を対象行動情報として抽出する。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群と対象期間前におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近に出店を計画している事業者へ提供してもよい。 For example, in the example of FIG. 2, if the user U2 is eating and drinking at restaurant C at a time (for example, date and time dt20) before the target period (date and time dt22 to dt25), the extraction device 100 may be extracted as the target behavior. For example, the extraction device 100 uses behavior information indicating that the user U2 ate at restaurant C within a predetermined range (for example, within 2 km) from the position LC22 at the start of the target period (date and time dt22) as the target behavior information. Extract. For example, the extraction device 100 may provide information that associates the position information group with the target behavior of the user before the target period to a business operator that is researching the vicinity of the area including the YY movie theater. For example, the extraction device 100 may provide information that associates a group of position information with target behavior of the user before the target period to a business operator planning to open a store near an area including the YY movie theater.

なお、抽出装置100は、位置情報群と対象期間前の対象行動とに基づいて、モデルを生成してもよい。例えば、抽出装置100は、位置情報群が抽出される前にユーザが飲食を行っていたかを推定するモデルを生成してもよい。例えば、抽出装置100は、滞在前にユーザが飲食を行ったかを推定するモデルを生成する。 Note that the extraction device 100 may generate a model based on the position information group and the target behavior before the target period. For example, the extraction device 100 may generate a model for estimating whether the user was eating or drinking before the location information group was extracted. For example, the extraction device 100 generates a model that estimates whether the user ate or ate before the stay.

〔1-5.対象行動(空間)及び情報提供〕
上述した例では、ユーザが対象行動を実空間において行った場合を例に説明したが、ユーザの対象行動は実空間に限らず、例えばインターネット空間(ウェブ上)において行われてもよい。
[1-5. Target behavior (space) and information provision]
In the above example, the case where the user performed the target action in the real space was described as an example, but the user's target action is not limited to the real space, and may be performed in the Internet space (on the web), for example.

例えば、図1の例において、ユーザU1が対象期間(日時dt12~dt16)後の日時(例えば日時dt17)において、端末装置10によりクエリ「コンビニ」を用いて検索を行っている場合、抽出装置100は、ユーザU1によるクエリ「コンビニ」を用いた検索を対象行動として抽出してもよい。このように、抽出装置100は、対象期間後のウェブ上におけるユーザの対象行動を抽出し、位置情報群とウェブ上におけるユーザの対象行動とを対応付けて記憶してもよい。また、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を外部の情報処理装置へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、XX公園を含むエリア付近に出店を計画している事業者へ提供してもよい。 For example, in the example of FIG. 1, when the user U1 performs a search using the query "convenience store" using the terminal device 10 at a date and time (for example, date and time dt17) after the target period (dates and times dt12 to dt16), the extraction device 100 may extract the search using the query "convenience store" by the user U1 as the target behavior. In this way, the extraction device 100 may extract the user's target behavior on the web after the target period, and store the position information group and the user's target behavior on the web in association with each other. Further, the extraction device 100 may provide an external information processing device with information that associates the position information group with the user's target behavior on the web. For example, the extraction device 100 may provide information that associates a group of position information with target behavior of the user on the web to a business operator that is researching the vicinity of an area including XX Park. For example, the extraction device 100 may provide information that associates a group of position information with target behavior of the user on the web to a business operator planning to open a store near an area including XX Park.

例えば、図2の例において、ユーザU2が対象期間(日時dt22~dt25)後の日時(例えば日時dt26)において、端末装置10によりクエリ「レストラン」を用いて検索を行っている場合、抽出装置100は、ユーザU2によるクエリ「レストラン」を用いた検索を対象行動として抽出してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近をリサーチしている事業者へ提供してもよい。例えば、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報を、YY映画館を含むエリア付近に出店を計画している事業者へ提供してもよい。このように、抽出装置100は、位置情報群とウェブ上におけるユーザの対象行動とを対応付けた情報に基づく、需要を予測する情報を外部の情報処理装置へ提供してもよい。 For example, in the example of FIG. 2, when the user U2 performs a search using the query "restaurant" using the terminal device 10 at a date and time (for example, date and time dt26) after the target period (date and time dt22 to dt25), the extraction device 100 may extract the search using the query "restaurant" by the user U2 as the target behavior. For example, the extraction device 100 may provide information that associates a group of position information with target behavior of the user on the web to a business operator that is researching the vicinity of the area including the YY movie theater. For example, the extraction device 100 may provide information that associates a group of position information with target behavior of the user on the web to a business operator planning to open a store near an area including the YY movie theater. In this way, the extraction device 100 may provide the external information processing device with information for predicting demand based on information that associates the position information group with the user's target behavior on the web.

〔1-6.モデルの利用〕
抽出装置100は、上述した例で生成したモデルM1、M2等を用いてユーザの所定の行動の発生有無を推定してもよい。
[1-6. Use of model]
The extraction device 100 may use the models M1, M2, etc. generated in the example described above to estimate whether or not a predetermined action of the user has occurred.

例えば、抽出装置100は、ユーザU5について抽出した位置情報群をモデルM1に入力することにより、ユーザU5が所定の行動を行うかどうかを予測してもよい。例えば、抽出装置100は、ZZ公園の周囲に位置するユーザU5について抽出した位置情報群をモデルM1に入力し、出力されたスコアが所定の閾値以上である場合、ユーザU5が購入行動を行うと予測してもよい。 For example, the extraction device 100 may predict whether or not the user U5 will perform a predetermined action by inputting a group of position information extracted for the user U5 into the model M1. For example, the extraction device 100 inputs to the model M1 a group of position information extracted for the user U5 located around ZZ Park, and if the output score is equal to or greater than a predetermined threshold, the user U5 makes a purchase. You can predict.

例えば、抽出装置100は、ユーザU10について抽出した位置情報群をモデルM2に入力することにより、ユーザU10が所定の行動を行うかどうかを予測してもよい。例えば、抽出装置100は、所定の期間位置が変化しないユーザU10について抽出した位置情報群をモデルM2に入力し、出力されたスコアが所定の閾値以上である場合、ユーザU10が飲食を行うと予測してもよい。 For example, the extraction device 100 may predict whether or not the user U10 will perform a predetermined action by inputting the position information group extracted for the user U10 to the model M2. For example, the extraction device 100 inputs to the model M2 a group of extracted position information about the user U10 whose position does not change for a predetermined period of time, and predicts that the user U10 eats and drinks when the output score is equal to or greater than a predetermined threshold. You may

〔1-7.端末装置側での抽出〕
なお、上述した例では、抽出装置100が端末装置10から取得した複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する例を示したが、各端末装置10が検知した複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出してもよい。この場合、端末装置10が抽出装置であってもよい。この場合、抽出システムには、抽出装置としての端末装置10と、端末装置10が抽出した規則性に関する情報を収集してサービスを提供するサービス提供装置とが含まれてもよい。この点について、以下説明する。
[1-7. Extraction on the terminal device side]
In the above example, the extraction device 100 extracts a position information group that satisfies a predetermined regularity regarding changes in position from among a plurality of pieces of position information acquired from the terminal device 10, but each terminal device 10 may extract a position information group that satisfies a predetermined regularity regarding changes in position from among the plurality of pieces of position information detected by . In this case, the terminal device 10 may be the extraction device. In this case, the extraction system may include a terminal device 10 as an extraction device and a service providing device that collects information about the regularity extracted by the terminal device 10 and provides a service. This point will be described below.

各ユーザが利用する端末装置10は、検知した複数の位置情報のうち、各ユーザの位置の変化に関する所定の規則性を満たす位置情報群を抽出する。これにより、端末装置10は、各ユーザ個別の規則性を満たす位置情報群を抽出する。また、端末装置10は、その端末装置10を利用する個別のユーザについて抽出した規則性や位置に対するコンテキスト等に関する情報を生成(計算)し、その結果(情報)をサービス提供装置に送信してもよい。 The terminal device 10 used by each user extracts a position information group that satisfies a predetermined regularity regarding changes in the position of each user from among the plurality of pieces of detected position information. Thereby, the terminal device 10 extracts a position information group that satisfies the regularity of each user. Further, the terminal device 10 may generate (calculate) information related to the regularity extracted for each individual user who uses the terminal device 10, the context for the position, etc., and transmit the result (information) to the service providing device. good.

例えば、端末装置10は、「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出し、位置情報群に基づいて生成したその規則性に関する情報(例えば周回移動)等を示す情報やランニング中を示すコンテキスト情報をサービス提供装置に送信してもよい。また、例えば、端末装置10は、「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出し、位置情報群に基づいて生成したその規則性に関する情報(例えば位置変化無し)等を示す情報や一定期間滞在中を示すコンテキスト情報をサービス提供装置に送信してもよい。なお、上記は一例であり、端末装置10は、種々の規則性を示す情報やコンテキストを示す情報を生成してもよい。そして、端末装置10は、生成した情報を、端末装置10を識別する情報や端末装置10を利用するユーザを識別する情報とともに送信してもよい。端末装置10から情報を取得したサービス提供装置は、規則性を示す情報やコンテキストを示す情報と、ユーザとを関連付けて記憶し、その情報に基づいて、各ユーザにサービスを提供してもよい。 For example, the terminal device 10 extracts a group of position information that satisfies a predetermined regularity corresponding to the "behavior pattern PT1 (running)", and information about the regularity generated based on the group of position information (for example, circular movement). or context information indicating that the user is running may be transmitted to the service providing apparatus. Further, for example, the terminal device 10 extracts a position information group that satisfies a predetermined regularity corresponding to the “behavior pattern PT2 (stay)”, and information about the regularity generated based on the position information group (for example, position change None) or context information indicating that the user is staying for a certain period of time may be transmitted to the service providing apparatus. The above is just an example, and the terminal device 10 may generate information indicating various regularities and information indicating context. Then, the terminal device 10 may transmit the generated information together with information identifying the terminal device 10 and information identifying the user using the terminal device 10 . The service providing device that has acquired the information from the terminal device 10 may store the information indicating the regularity or the information indicating the context in association with the user, and provide the service to each user based on the information.

このような抽出システムにおいては、サーバ側(サービス提供装置)に位置情報を送信することなく、クライアント側(端末装置10)において生成した情報を端末装置10がサービス提供装置に送信し、サービス提供装置がサービスを提供することができる。この場合、例えば、サービス提供装置は、関心地点の一覧情報(POIリスト)と、端末装置10から取得した規則性に関する情報やコンテキストに関する情報に基づいてサービスを提供する。例えば、サービス提供装置は、所定のPOI付近において、同様の規則性を示す情報が取得された場合に、その規則性を示す行動の後に同様の行動を行うと予測してサービスを提供してもよい。例えば、サービス提供装置は、所定のPOI付近において、規則性PTXを示す情報が取得された場合に、その規則性PTXを示す行動の後に商品Xを購入するという行動パターンを示す情報が所定数以上取得されている場合、所定のPOI付近において、規則性PTXを示す情報が取得された端末装置10に、商品Xの購入を促す情報を提供してもよい。なお、上記は一例であり、サービス提供装置は、POIの情報と、ユーザの行動の規則性を示す情報やコンテキストを示す情報に基づいて、種々のサービスを提供してもよい。このように、サービス提供装置は、端末装置10から取得した位置情報よりも抽象度が高い情報に基づいてサービスを提供することができる。これにより、抽出システムにおいては、各ユーザのプライバシーに配慮しつつ、ユーザに対してサービスを提供することができる。 In such an extraction system, the terminal device 10 transmits information generated on the client side (terminal device 10) to the service providing device without transmitting position information to the server side (service providing device). can provide the service. In this case, for example, the service providing device provides the service based on list information of points of interest (POI list) and information on regularity and information on context acquired from the terminal device 10 . For example, when information indicating similar regularity is acquired in the vicinity of a predetermined POI, the service providing apparatus may predict that the similar behavior will be performed after the behavior indicating the regularity and provide the service. good. For example, when information indicating regularity PTX is acquired near a predetermined POI, the service providing apparatus has a predetermined number or more of information indicating a behavior pattern of purchasing product X after behavior indicating the regularity PTX. If it has been acquired, information prompting purchase of product X may be provided to the terminal device 10 from which the information indicating the regularity PTX has been acquired in the vicinity of the predetermined POI. Note that the above is just an example, and the service providing apparatus may provide various services based on POI information, information indicating the regularity of user behavior, and information indicating context. In this way, the service providing device can provide services based on information with a higher degree of abstraction than the location information acquired from the terminal device 10 . As a result, the extraction system can provide services to users while taking into consideration the privacy of each user.

〔2.抽出装置の構成〕
次に、図4を用いて、実施形態に係る抽出装置100の構成について説明する。図4は、実施形態に係る抽出装置の構成例を示す図である。図4に示すように、抽出装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、抽出装置100は、抽出装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of extraction device]
Next, the configuration of the extraction device 100 according to the embodiment will be described using FIG. FIG. 4 is a diagram illustrating a configuration example of an extraction device according to the embodiment. As shown in FIG. 4, the extraction device 100 has a communication unit 110, a storage unit 120, and a control unit . The extraction device 100 has an input unit (for example, a keyboard, a mouse, etc.) that receives various operations from the administrator of the extraction device 100, and a display unit (for example, a liquid crystal display, etc.) for displaying various information. may

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワーク(例えば図3中のネットワークN)と有線または無線で接続され、端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a NIC (Network Interface Card) or the like. The communication unit 110 is connected to a network (for example, network N in FIG. 3) by wire or wirelessly, and transmits and receives information to and from the terminal device 10 .

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図4に示すように、ユーザ情報記憶部121と、行動情報記憶部122と、位置情報記憶部123と、モデル情報記憶部124とを有する。なお、図4では、図示を省略するが、記憶部120には、図1に示すXX公園(関心地点POI1)のような各種の施設等(関心地点)が所在する位置等、関心地点に関する各種情報が記憶される。
(storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a RAM (Random Access Memory) or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 according to the embodiment has a user information storage unit 121, a behavior information storage unit 122, a position information storage unit 123, and a model information storage unit 124, as shown in FIG. Although not shown in FIG. 4, the storage unit 120 stores various information related to points of interest, such as the locations of various facilities (points of interest) such as XX park (point of interest POI1) shown in FIG. Information is stored.

(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性に関する各種情報やユーザの行動に関する各種情報を記憶する。図5は、実施形態に係るユーザ情報記憶部の一例を示す図である。図5に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」といった項目が含まれる。
(User information storage unit 121)
The user information storage unit 121 according to the embodiment stores various information about users. For example, the user information storage unit 121 stores various types of information regarding user attributes and various types of information regarding user behavior. 5 is a diagram illustrating an example of a user information storage unit according to the embodiment; FIG. The user information storage unit 121 shown in FIG. 5 includes items such as "user ID", "age", and "sex".

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。 "User ID" indicates identification information for identifying a user. For example, a user identified by user ID "U1" corresponds to user U1 shown in the example of FIG. "Age" indicates the age of the user identified by the user ID. Note that the “age” may be a specific age of the user identified by the user ID, such as 35 years old. "Gender" indicates the gender of the user identified by the user ID.

例えば、図5に示す例において、ユーザID「U1」により識別されるユーザの年齢は、「30代」であり、性別は、「男性」であることを示す。また、例えば、図5に示す例において、ユーザID「U2」により識別されるユーザの年齢は、「20代」であり、性別は、「女性」であることを示す。 For example, in the example shown in FIG. 5, the age of the user identified by the user ID "U1" is "30's" and the gender is "male". Also, for example, in the example shown in FIG. 5, the age of the user identified by the user ID "U2" is "twenties" and the gender is "female."

なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、年齢や性別に加えて他のデモグラフィック属性情報やサイコグラフィック属性情報を記憶してもよい。例えば、ユーザ情報記憶部121は、氏名、自宅、勤務地、興味、家族構成、収入、ライフスタイル等の情報を記憶してもよい。 Note that the user information storage unit 121 may store various types of information, not limited to the above, depending on the purpose. For example, the user information storage unit 121 may store other demographic attribute information and psychographic attribute information in addition to age and gender. For example, the user information storage unit 121 may store information such as name, home, place of work, interests, family composition, income, lifestyle, and the like.

(行動情報記憶部122)
実施形態に係る行動情報記憶部122は、ユーザの行動に関する各種情報を記憶する。図6は、実施形態に係る行動情報記憶部の一例を示す図である。例えば、行動情報記憶部122は、各ユーザの行動等の各種の行動情報を記憶する。図6に示す行動情報記憶部122には、「ユーザID」、「行動ID」、「日時」、「種別」、「内容」といった項目が含まれる。
(Action information storage unit 122)
The behavior information storage unit 122 according to the embodiment stores various types of information regarding user behavior. 6 is a diagram illustrating an example of an action information storage unit according to the embodiment; FIG. For example, the behavior information storage unit 122 stores various behavior information such as behavior of each user. The action information storage unit 122 shown in FIG. 6 includes items such as "user ID", "action ID", "date and time", "type", and "content".

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「行動ID」は、ユーザの行動を識別する情報を示す。「日時」は、対応するユーザの行動が行われた日時を示す。なお、図6の例では、「dt18」等で図示するが、「日時」には、「2017年7月6日19時31分52秒」等の具体的な日時が記憶されてもよい。また、「種別」は、対応するユーザの行動の種別に関する情報を示す。また、「内容」は、対応するユーザの行動において対象となった内容を示す。 "User ID" indicates identification information for identifying a user. For example, a user identified by user ID "U1" corresponds to user U1 shown in the example of FIG. Also, the "action ID" indicates information for identifying the action of the user. "Date and time" indicates the date and time when the corresponding user action was performed. In the example of FIG. 6, "dt18" or the like is shown, but the "date and time" may store a specific date and time such as "July 6, 2017, 19:31:52". "Type" indicates information about the type of the corresponding user's action. Also, "content" indicates the content targeted in the corresponding user's behavior.

例えば、図6に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、行動ID「AC18」により識別される行動(行動AC18)を行ったことを示す。例えば、図6に示す例においてユーザU1は、日時dt18において、AコンビニでW水の購入(行動AC18)を行ったことを示す。 For example, in the example shown in FIG. 6, the user (user U1) identified by the user ID "U1" has performed the action (action AC18) identified by the action ID "AC18". For example, in the example shown in FIG. 6, user U1 purchases W water (action AC18) at A convenience store at date and time dt18.

例えば、図6に示す例において、ユーザID「U2」により識別されるユーザ(ユーザU2)は、行動ID「AC26」により識別される行動(行動AC26)を行ったことを示す。例えば、図6に示す例においてユーザU2は、日時dt26において、Bレストランでの飲食の決済(行動AC26)を行ったことを示す。すなわち、行動AC26は、ユーザU2がBレストランで飲食を行ったことを示唆する。 For example, in the example shown in FIG. 6, the user (user U2) identified by the user ID "U2" has performed the action (action AC26) identified by the action ID "AC26". For example, in the example shown in FIG. 6, user U2 has made a payment for eating and drinking at B restaurant (action AC26) on date and time dt26. In other words, action AC26 suggests that user U2 ate at B restaurant.

なお、行動情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図6では、ユーザIDごとに行動情報が行動情報記憶部122に記憶される場合を示したが、行動情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。 Note that the behavior information storage unit 122 may store various types of information, not limited to the above, depending on the purpose. In addition, although FIG. 6 shows the case where the action information is stored in the action information storage unit 122 for each user ID, the action information may be stored not only for each user ID but also in order of time, for example.

(位置情報記憶部123)
実施形態に係る位置情報記憶部123は、位置に関する各種情報を記憶する。例えば、位置情報記憶部123は、センサにより検知された位置に関する各種情報を記憶する。図7は、実施形態に係る位置情報記憶部の一例を示す図である。図7に示す位置情報記憶部123は、「ユーザID」、「位置情報」といった項目が含まれる。「位置情報」には、「日時」、「位置」といった項目が含まれる。
(Position information storage unit 123)
The position information storage unit 123 according to the embodiment stores various types of information regarding positions. For example, the position information storage unit 123 stores various information regarding the position detected by the sensor. 7 is a diagram illustrating an example of a position information storage unit according to the embodiment; FIG. The position information storage unit 123 shown in FIG. 7 includes items such as "user ID" and "position information". "Location information" includes items such as "date and time" and "location".

「ユーザID」は、ユーザを識別するための識別情報を示す。「位置情報」は、ユーザの位置情報の履歴を示す。「日時」は、各位置情報が取得された日時を示す。なお、図7の例では「日時」を抽象的な符号「dt11」等で図示するが、「日時」には、「2017年7月6日18時59分48秒」等の具体的な日時が記憶されてもよい。また、「位置」は、対応する日時における対応するユーザの位置情報を示す。なお、図7の例では「位置」を抽象的な符号「LC11」等で図示するが、「位置」には、具体的な緯度経度情報等が記憶されてもよい。 "User ID" indicates identification information for identifying a user. "Position information" indicates the history of the user's position information. "Date and time" indicates the date and time when each piece of position information was acquired. In the example of FIG. 7, "date and time" is illustrated by an abstract code such as "dt11". may be stored. "Position" indicates the position information of the corresponding user at the corresponding date and time. In the example of FIG. 7, the "position" is illustrated by an abstract code "LC11" or the like, but specific latitude/longitude information or the like may be stored in the "position".

例えば、図7に示す例において、ユーザID「U1」により識別されるユーザの位置「LC11」が、日時「dt11」に取得されたことを示す。例えば、ユーザID「U1」により識別されるユーザが利用する端末装置10の位置「LC11」が、日時「dt11」に取得されたことを示す。例えば、図7に示す例において、ユーザID「U1」により識別されるユーザの位置「LC12」が、日時「dt12」に取得されたことを示す。例えば、ユーザID「U1」により識別されるユーザが利用する端末装置10の位置「LC13」が、日時「dt13」に取得されたことを示す。 For example, in the example shown in FIG. 7, it indicates that the location "LC11" of the user identified by the user ID "U1" was obtained at date and time "dt11". For example, it indicates that the position "LC11" of the terminal device 10 used by the user identified by the user ID "U1" was obtained at the date and time "dt11". For example, in the example shown in FIG. 7, it indicates that the location "LC12" of the user identified by the user ID "U1" was acquired at date and time "dt12". For example, it indicates that the position "LC13" of the terminal device 10 used by the user identified by the user ID "U1" was acquired at the date and time "dt13".

なお、位置情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、位置情報記憶部123は、抽出処理により抽出された位置情報群であることを示す情報(フラグ)等を記憶してもよい。また、位置情報記憶部123は、ユーザのコンテキストに関する情報を記憶してもよい。 It should be noted that the position information storage unit 123 may store various types of information, not limited to the above, depending on the purpose. Further, the position information storage unit 123 may store information (flag) or the like indicating that the position information group is extracted by the extraction process. Also, the position information storage unit 123 may store information about the user's context.

(モデル情報記憶部124)
実施形態に係るモデル情報記憶部124は、モデルに関する情報を記憶する。例えば、モデル情報記憶部124は、生成処理により生成されたモデル情報(モデルデータ)を記憶する。図8は、実施形態に係るモデル情報記憶部の一例を示す図である。図8に示すモデル情報記憶部124は、「モデルID」、「行動パターン」、「モデルデータ」といった項目が含まれる。なお、図8では、モデルM1及びモデルM2のみを図示するが、各行動パターンに対応する複数のモデル情報(モデルM3、M4等)が記憶されてもよい。
(Model information storage unit 124)
The model information storage unit 124 according to the embodiment stores information about models. For example, the model information storage unit 124 stores model information (model data) generated by the generation process. 8 is a diagram illustrating an example of a model information storage unit according to the embodiment; FIG. The model information storage unit 124 shown in FIG. 8 includes items such as "model ID", "behavior pattern", and "model data". Although only the model M1 and the model M2 are illustrated in FIG. 8, a plurality of model information (models M3, M4, etc.) corresponding to each behavior pattern may be stored.

「モデルID」は、モデルを識別するための識別情報を示す。例えば、モデルID「M1」により識別されるモデルは、図1の例に示したモデルM1に対応する。「行動パターン」は、対応するモデルの行動パターンを示す。また、「行動パターン」には、各行動パターンに対応する条件等が記憶される。例えば、「行動パターンPT1(ランニング)」には、ユーザの行動パターンがランニングに対応するための条件(例えば時速5~30kmで移動)等が記憶される。また、「モデルデータ」は、対応付けられた対応するモデルのデータを示す。例えば、「モデルデータ」には、各層におけるノードと、各ノードが採用する関数と、ノードの接続関係と、ノード間の接続に対して設定される接続係数とを含む情報が含まれる。 "Model ID" indicates identification information for identifying a model. For example, the model identified by model ID "M1" corresponds to model M1 shown in the example of FIG. "Behavioral pattern" indicates the behavioral pattern of the corresponding model. Also, in the "behavior pattern", conditions and the like corresponding to each behavior pattern are stored. For example, the "behavior pattern PT1 (running)" stores conditions for the behavior pattern of the user to correspond to running (for example, moving at a speed of 5 to 30 km/h). Also, "model data" indicates the data of the associated corresponding model. For example, "model data" includes information including nodes in each layer, functions adopted by each node, connection relations of nodes, and connection coefficients set for connections between nodes.

例えば、図8に示す例において、モデルID「M1」により識別されるモデル(モデルM1)は、行動パターンが「PT1(ランニング)」であり、行動パターンPT1が行われた前後に対象行動情報が発生するかを予測するために用いられることを示す。また、モデルM1のモデルデータは、モデルデータMDT1であることを示す。 For example, in the example shown in FIG. 8, the model (model M1) identified by the model ID "M1" has a behavior pattern "PT1 (running)", and the target behavior information is before and after the behavior pattern PT1 is performed. Indicates that it is used to predict what will happen. It also indicates that the model data of the model M1 is the model data MDT1.

モデルM1(モデルデータMDT1)は、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を出力層から出力するよう、コンピュータを機能させるためのモデルである。 A model M1 (model data MDT1) is a group of position information of a user, an input layer into which a group of position information satisfying a predetermined regularity regarding changes in position is input, an output layer, and a layer from the input layer to the output layer. A first element belonging to any layer other than the output layer and a second element whose value is calculated based on the first element and the weight of the first element, and is input to the input layer For the sensor information obtained, each element belonging to each layer other than the output layer is set as the first element, and calculation is performed based on the first element and the weight of the first element. It is a model for making the computer function so that the score value is output from the output layer.

ここで、モデルM1、M2等が「y=a*x+a*x+・・・+a*x」で示す回帰モデルで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、x1やx2等といった入力データ(xi)に対応する。また、第1要素の重みは、xiに対応する係数aiに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンと見做すことができる。各モデルを単純パーセプトロンと見做した場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードと見做すことができる。 Here, it is assumed that the models M1, M2, etc. are realized by a regression model represented by "y= a1 * x1 + a2 * x2 +...+ ai * xi ". In this case, for example, the first element included in model M1 corresponds to input data (xi) such as x1 and x2. Also, the weight of the first element corresponds to the coefficient ai corresponding to xi. Here, the regression model can be viewed as a simple perceptron with an input layer and an output layer. When each model is regarded as a simple perceptron, the first element can be regarded as a node of the input layer, and the second element can be regarded as a node of the output layer.

また、モデルM1、M2等がDNN(Deep Neural Network)等、1つまたは複数の中間層を有するニューラルネットワークで実現されるとする。この場合、例えば、モデルM1が含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。 It is also assumed that the models M1, M2, etc. are implemented by a neural network having one or more intermediate layers, such as a DNN (Deep Neural Network). In this case, for example, the first element included in the model M1 corresponds to any node of the input layer or the intermediate layer. Also, the second element corresponds to the next node, which is a node to which the value is transmitted from the node corresponding to the first element. Also, the weight of the first element corresponds to the connection coefficient, which is the weight considered for the value transmitted from the node corresponding to the first element to the node corresponding to the second element.

なお、モデル情報記憶部124は、上記に限らず、目的に応じて種々のモデル情報を記憶してもよい。 It should be noted that the model information storage unit 124 may store various types of model information, not limited to the above, depending on the purpose.

(制御部130)
図4の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、抽出装置100内部の記憶装置に記憶されている各種プログラム(抽出プログラムや生成プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。制御部130は、モデル情報記憶部124に記憶されているモデルM1やモデルM2等に従った情報処理により、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力されたセンサ情報に対し、出力層以外の各層に属する各要素を第1要素として、第1要素と第1要素の重みとに基づく演算を行うことにより、所定の行動の発生有無の予測に用いられるスコアの値を出力層から出力する。
(control unit 130)
Returning to the description of FIG. 4, the control unit 130 is a controller, and is stored in the storage device inside the extraction device 100 by, for example, a CPU (Central Processing Unit) or MPU (Micro Processing Unit). Various programs (corresponding to an example of an extraction program and a generation program) are implemented by executing them using the RAM as a work area. Also, the control unit 130 is a controller, and is implemented by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control unit 130 performs information processing according to the model M1, the model M2, etc. stored in the model information storage unit 124 to obtain a group of position information of the user that satisfies a predetermined regularity regarding changes in position. is input, the output layer, the first element belonging to any layer from the input layer to the output layer other than the output layer, and the first element and the weight of the first element and a second element whose value is calculated by using the first element and the weight of the first element with respect to the sensor information input to the input layer, with each element belonging to each layer other than the output layer as the first element , the output layer outputs a score value used for predicting whether or not a predetermined action will occur.

例えば、抽出装置100は、上述した回帰モデルやニューラルネットワーク等、任意の構造を有するモデルを用いて、利用スコアや入札スコアの算出を行う。具体的には、モデルM1、M2等は、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群(すなわち、上述したスコアの算出に用いられる各要素)が入力された場合に、所定の行動の発生有無に関するスコア(すなわち、ユーザが所定の行動を行う可能性がどの程度であるかを示唆するスコア)を出力するように係数が設定される。情報提供装置10は、このようなモデルM1、M2等を用いて、対応する行動パターンにおける各ユーザのスコアを算出する。 For example, the extraction device 100 calculates a usage score and a bid score using a model having an arbitrary structure such as the regression model or neural network described above. Specifically, the models M1, M2, etc. are a group of user position information, and a group of position information that satisfies a predetermined regularity regarding changes in position (that is, each element used to calculate the score described above) is input. The coefficient is set so as to output a score regarding the occurrence or non-occurrence of a predetermined action (that is, a score indicating how likely the user is to perform the predetermined action) when the user is asked to do so. The information providing device 10 uses such models M1, M2, etc. to calculate the score of each user in the corresponding action pattern.

なお、上記例では、モデルM1、M2等が、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群が入力された場合に、所定の行動の発生有無に関するスコアを出力するモデルである例を示した。しかし、実施形態に係るモデルM1、M2等は、データの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、モデルは、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力とし、モデルM1が出力する利用スコアを出力とするよう学習されたモデル(モデルM1b)であってもよい。または、モデルは、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力とし、モデルM1bの出力値を出力とするよう学習されたモデルであってもよい。 In the above example, the models M1, M2, etc. are a group of user position information, and when a group of position information that satisfies a predetermined regularity regarding changes in position is input, a score regarding the occurrence or non-occurrence of a predetermined action is obtained. An example of a model that outputs is shown. However, the models M1, M2, etc. according to the embodiment may be models generated based on results obtained by repeating data input/output. For example, the model is a learned model (model M1b ). Alternatively, the model may be a learned model that receives a group of user position information that satisfies a predetermined regularity regarding changes in position as an input and outputs the output value of the model M1b. .

また、抽出装置100がGAN(Generative Adversarial Networks)を用いた予測処理を行う場合、モデルM1、M2等は、GANの一部を構成するモデルであってもよい。 Further, when the extraction device 100 performs prediction processing using a GAN (Generative Adversarial Networks), the models M1, M2, etc. may be models forming part of the GAN.

図4に示すように、制御部130は、取得部131と、抽出部132と、生成部133と、予測部134と、提供部135とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 As shown in FIG. 4, the control unit 130 includes an acquisition unit 131, an extraction unit 132, a generation unit 133, a prediction unit 134, and a provision unit 135, and has functions and actions of information processing described below. realize or perform Note that the internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 4, and may be another configuration as long as it performs information processing to be described later.

(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、端末装置10等の外部の情報処理装置から各種情報を取得する。例えば、取得部131は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123やモデル情報記憶部124等の記憶部120から各種情報を取得する。例えば、取得部131は、端末装置10が検知した各種の情報を取得する。例えば、取得部131は、端末装置10が検知した位置情報や加速度情報を取得する。
(Acquisition unit 131)
Acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires various types of information from an external information processing device such as the terminal device 10 . For example, the acquisition unit 131 acquires various types of information from the storage unit 120 such as the user information storage unit 121, the behavior information storage unit 122, the position information storage unit 123, the model information storage unit 124, and the like. For example, the acquisition unit 131 acquires various information detected by the terminal device 10 . For example, the acquisition unit 131 acquires position information and acceleration information detected by the terminal device 10 .

例えば、取得部131は、所定の期間において検知されたユーザの複数の位置情報を取得する。例えば、取得部131は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報を取得する。 For example, the acquisition unit 131 acquires a plurality of pieces of location information of the user detected during a predetermined period. For example, the acquisition unit 131 acquires the user's behavior information outside the target period, which is the period during which the position information group was detected.

図1の例では、取得部131は、日時dt11においてユーザU1の位置LC11を取得する。そして、取得部131は、日時dt11よりも後の日時dt12においてユーザU1が、XX公園(関心地点POI1)内にいることを示す位置LC12を取得する。例えば、取得部131は、日時dt11よりも後の日時dt12においてユーザU1が、位置LC11とは異なる位置であって、XX公園内にいることを示す位置LC12を取得する。例えば、取得部131は、日時dt12よりも後の日時dt13においてユーザU1が、XX公園内において、位置LC12とは異なる位置にいることを示す位置LC13を取得する。例えば、取得部131は、日時dt13よりも後の日時dt14においてユーザU1が、XX公園内において、位置LC13とは異なる位置にいることを示す位置LC14を取得する。 In the example of FIG. 1, the acquisition unit 131 acquires the position LC11 of the user U1 at the date and time dt11. Then, the obtaining unit 131 obtains the position LC12 indicating that the user U1 is in the XX park (point of interest POI1) at the date and time dt12 later than the date and time dt11. For example, the acquisition unit 131 acquires a position LC12 indicating that the user U1 is in the XX park at a date and time dt12 later than the date and time dt11, which is different from the position LC11. For example, the acquisition unit 131 acquires a position LC13 indicating that the user U1 is at a position different from the position LC12 in the XX park at a date and time dt13 later than the date and time dt12. For example, the acquisition unit 131 acquires a position LC14 indicating that the user U1 is at a position different from the position LC13 in the XX park at a date and time dt14 later than the date and time dt13.

例えば、取得部131は、日時dt14よりも後の日時dt15においてユーザU1が、XX公園内において、位置LC14とは異なる位置にいることを示す位置LC15を取得する。例えば、取得部131は、日時dt15よりも後の日時dt16においてユーザU1が、XX公園内において、位置LC15とは異なる位置にいることを示す位置LC16を取得する。例えば、取得部131は、日時dt16よりも後の日時dt17においてユーザU1が、XX公園から離れたことを示す位置LC17を取得する。 For example, the acquisition unit 131 acquires a position LC15 indicating that the user U1 is at a position different from the position LC14 in the XX park at a date and time dt15 later than the date and time dt14. For example, the acquisition unit 131 acquires a position LC16 indicating that the user U1 is at a position different from the position LC15 in the XX park at a date and time dt16 later than the date and time dt15. For example, the acquisition unit 131 acquires a position LC17 indicating that the user U1 left the XX park at a date and time dt17 later than the date and time dt16.

図1の例では、取得部131は、日時dt17よりも後の日時dt18においてユーザU1が、Aコンビニ(ショップSP1)にいることを示す位置LC18を取得する。例えば、取得部131は、日時dt18においてユーザU1が、AコンビニでW水を購入したことを示す行動情報AC11を取得する。 In the example of FIG. 1, the acquisition unit 131 acquires the position LC18 indicating that the user U1 is at the A convenience store (shop SP1) at the date and time dt18 later than the date and time dt17. For example, the acquisition unit 131 acquires action information AC11 indicating that user U1 purchased W water at A convenience store at date and time dt18.

図2の例では、取得部131は、日時dt21においてユーザU2の位置LC21を取得する。そして、取得部131は、日時dt21よりも後の日時dt22においてユーザU2が、YY映画館(関心地点POI2)内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt21よりも後の日時dt22においてユーザU2が、位置LC21とは異なる位置であって、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt22よりも後の日時dt23においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt23よりも後の日時dt24においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt24よりも後の日時dt25においてユーザU2が、YY映画館内にいることを示す位置LC22を取得する。例えば、取得部131は、日時dt25よりも後の日時dt26においてユーザU2が、YY映画館から離れたことを示す位置LC23を取得する。 In the example of FIG. 2, the acquisition unit 131 acquires the position LC21 of the user U2 at the date and time dt21. Then, the acquiring unit 131 acquires a position LC22 indicating that the user U2 is inside the YY movie theater (point of interest POI2) at a date and time dt22 later than the date and time dt21. For example, the acquisition unit 131 acquires a position LC22 indicating that the user U2 is in the YY movie theater at a different position from the position LC21 at a date and time dt22 later than the date and time dt21. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie theater at the date and time dt23 later than the date and time dt22. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie theater at the date and time dt24 later than the date and time dt23. For example, the acquisition unit 131 acquires the position LC22 indicating that the user U2 is in the YY movie theater at date dt25 later than date dt24. For example, the acquisition unit 131 acquires a position LC23 indicating that the user U2 left the YY movie theater at date dt26 later than date dt25.

図2の例では、取得部131は、日時dt26においてユーザU2が、Bレストラン(ショップSP2)にいることを示す位置LC23を取得する。例えば、取得部131は、日時dt26においてユーザU2が、Bレストランで飲食を行ったことを示す行動情報AC21を取得する。 In the example of FIG. 2, the acquisition unit 131 acquires the position LC23 indicating that the user U2 is at the B restaurant (shop SP2) at the date and time dt26. For example, the acquisition unit 131 acquires action information AC21 indicating that the user U2 ate at restaurant B on date and time dt26.

(抽出部132)
抽出部132は、各種情報を抽出する。例えば、抽出部132は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123やモデル情報記憶部124等の記憶部120から各種情報を抽出する。
(Extraction unit 132)
The extraction unit 132 extracts various information. For example, the extraction unit 132 extracts various information from the storage unit 120 such as the user information storage unit 121, the behavior information storage unit 122, the position information storage unit 123, the model information storage unit 124, and the like.

例えば、抽出部132は、取得部131により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、連続して検知された複数の位置情報を位置情報群として抽出する。 For example, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity regarding changes in position from among the plurality of pieces of position information acquired by the acquisition unit 131 . For example, the extraction unit 132 extracts a plurality of continuously detected position information as a position information group.

例えば、抽出部132は、ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間後における対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。例えば、抽出部132は、対象期間前における対象行動情報を抽出する。例えば、抽出部132は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。 For example, the extraction unit 132 extracts target behavior information, which is behavior information that satisfies a predetermined condition, from the behavior information of the user. For example, the extraction unit 132 extracts target behavior information after the target period. For example, the extraction unit 132 extracts the target behavior information within a predetermined range from the position corresponding to the position information at the end of the target period. For example, the extraction unit 132 extracts target behavior information before the target period. For example, the extraction unit 132 extracts the target behavior information within a predetermined range from the position corresponding to the position information at the start of the target period.

図1の例では、抽出部132は、日時dt11~dt18において検知されたユーザの複数の位置情報LC11~LC18のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT1(ランニング)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、ユーザU1の位置情報の変化が例えば時速10km等のランニングに対応する速度で変化している位置情報群を抽出する。例えば、抽出部132は、ユーザU1がXX公園(関心地点POI1)においてランニングを行っている際の位置情報群を抽出する。例えば、抽出部132は、ユーザU1の位置情報の変化が例えば時速10km等でXX公園の周囲を移動している位置情報群を抽出する。例えば、抽出部132は、日時dt12~dt16においてユーザU1がXX公園の周囲を移動している位置情報LC12~LC16を抽出する。 In the example of FIG. 1, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity regarding changes in position from among the plurality of pieces of position information LC11 to LC18 of the user detected at dates dt11 to dt18. For example, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity corresponding to the "behavior pattern PT1 (running)" shown in the model information storage unit 124 (see FIG. 8). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U1 changes at a speed corresponding to running, such as 10 km/h. For example, the extraction unit 132 extracts a position information group when the user U1 is running in the XX park (point of interest POI1). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U1 is moving around XX Park at a speed of 10 km/h, for example. For example, the extraction unit 132 extracts position information LC12 to LC16 in which the user U1 is moving around XX Park on dates dt12 to dt16.

図1の例では、抽出部132は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、位置情報群(位置情報LC12~LC16)が検知された対象期間(日時dt12~dt16)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt16)の位置LC16から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。例えば、抽出部132は、対象期間の終了時(日時dt16)から所定の期間内(期間PD1)内の日時dt18においてユーザU1がAコンビニでW水を購入したことを示す行動情報AC11を対象行動情報として抽出する。 In the example of FIG. 1, the extraction unit 132 extracts target action information, which is action information that satisfies a predetermined condition, from the user's action information outside the target period, which is the period in which the position information group was detected. For example, the extraction unit 132 extracts the target behavior information, which is behavior information that satisfies a predetermined condition, among the behavior information of the user outside the target period (dates and times dt12 to dt16) in which the position information group (position information LC12 to LC16) was detected. to extract For example, the extracting unit 132 extracts target action information, which is action information that satisfies a predetermined condition, from the user's action information within a predetermined period (period PD1) from the end of the target period (date and time dt16). For example, the extraction unit 132 may extract target action information, which is action information that satisfies a predetermined condition, from the user's action information within a predetermined range from the position LC16 at the end of the target period (date and time dt16). . For example, the extraction unit 132 extracts action information AC11 indicating that user U1 purchased W water at convenience store A at date and time dt18 within a predetermined period (period PD1) from the end of the target period (date and time dt16). Extract as information.

図2の例では、抽出部132は、日時dt21~dt26において検知されたユーザの複数の位置情報LC21~LC23のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、モデル情報記憶部124(図8参照)に示すような「行動パターンPT2(滞在)」に対応する所定の規則性を満たす位置情報群を抽出する。例えば、抽出部132は、ユーザU2の位置情報の変化が例えば所定の時間に亘って変更していない位置情報群を抽出する。例えば、抽出部132は、ユーザU2がYY映画館(関心地点POI2)において滞在している際の位置情報群を抽出する。例えば、抽出部132は、ユーザU2の位置情報の変化が例えば所定の時間に亘ってYY映画館内にある位置情報群を抽出する。例えば、抽出部132は、日時dt22~dt25においてユーザU2がYY映画館内に滞在していることを示す複数の位置情報LC22を抽出する。 In the example of FIG. 2, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity regarding changes in position from among the plurality of pieces of position information LC21 to LC23 of the user detected at dates dt21 to dt26. For example, the extraction unit 132 extracts a position information group that satisfies a predetermined regularity corresponding to the "behavior pattern PT2 (stay)" as shown in the model information storage unit 124 (see FIG. 8). For example, the extracting unit 132 extracts a position information group in which the position information of the user U2 has not changed over a predetermined period of time, for example. For example, the extraction unit 132 extracts a position information group when the user U2 is staying at the YY movie theater (point of interest POI2). For example, the extraction unit 132 extracts a position information group in which the change in the position information of the user U2 is within the YY movie theater over a predetermined period of time, for example. For example, the extraction unit 132 extracts a plurality of pieces of position information LC22 indicating that the user U2 is staying in the YY movie theater during the dates dt22 to dt25.

図2の例では、抽出部132は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、位置情報群(4つの位置情報LC22)が検知された対象期間(日時dt22~dt25)外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。例えば、抽出部132は、対象期間の終了時(日時dt25)の位置LC22から所定の範囲内におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出してもよい。例えば、抽出部132は、対象期間の終了時(日時dt25)から所定の期間内(期間PD2)内の日時dt26においてユーザU2がBレストランで飲食を行ったことを示す行動情報AC21を対象行動情報として抽出する。 In the example of FIG. 2, the extraction unit 132 extracts target action information, which is action information that satisfies a predetermined condition, from the user's action information outside the target period during which the position information group was detected. For example, the extracting unit 132 extracts target action information, which is action information that satisfies a predetermined condition, among the user's action information outside the target period (dates dt22 to dt25) in which the position information group (four pieces of position information LC22) was detected. to extract For example, the extracting unit 132 extracts target action information, which is action information that satisfies a predetermined condition, from the user's action information within a predetermined period (period PD2) from the end of the target period (date and time dt25). For example, the extraction unit 132 may extract target action information, which is action information that satisfies a predetermined condition, from the user's action information within a predetermined range from the position LC22 at the end of the target period (date and time dt25). . For example, the extraction unit 132 extracts behavior information AC21 indicating that user U2 ate at restaurant B on date and time dt26 within a predetermined period (period PD2) from the end of the target period (date and time dt25) as the target behavior information. Extract as

(生成部133)
生成部133は、各種情報を生成する。例えば、生成部133は、ユーザ情報記憶部121や行動情報記憶部122や位置情報記憶部123等に記憶された情報からモデルを生成する。例えば、生成部133は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。例えば、生成部133は、位置情報記憶部123に記憶された位置情報群と、行動情報記憶部122に記憶された対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。
(Generating unit 133)
The generation unit 133 generates various types of information. For example, the generation unit 133 generates a model from information stored in the user information storage unit 121, the behavior information storage unit 122, the position information storage unit 123, and the like. For example, the generation unit 133 generates a model used for predicting whether or not a predetermined action will occur, based on learning data including a position information group and target action information corresponding to the position information group. For example, the generation unit 133 predicts whether or not a predetermined action will occur based on learning data including the position information group stored in the position information storage unit 123 and the target action information stored in the action information storage unit 122. Generate the model used for

例えば、生成部133は、モデルM1、M2等を生成し、生成したモデルM1、M2等をモデル情報記憶部124に格納する。なお、生成部133は、いかなる学習アルゴリズムを用いてモデルM1、M2等を生成してもよい。例えば、生成部133は、ニューラルネットワーク(neural network)、サポートベクターマシン(support vector machine)、クラスタリング、強化学習等の学習アルゴリズムを用いてモデルM1、M2等を生成する。一例として、生成部133がニューラルネットワークを用いてモデルM1、M2等を生成する場合、モデルM1、M2等は、一以上のニューロンを含む入力層と、一以上のニューロンを含む中間層と、一以上のニューロンを含む出力層とを有する。 For example, the generation unit 133 generates models M1, M2, etc., and stores the generated models M1, M2, etc. in the model information storage unit 124 . Note that the generation unit 133 may generate the models M1, M2, etc. using any learning algorithm. For example, the generation unit 133 generates the models M1, M2, etc. using learning algorithms such as neural networks, support vector machines, clustering, and reinforcement learning. As an example, when the generating unit 133 generates the models M1, M2, etc. using a neural network, the models M1, M2, etc. are composed of an input layer including one or more neurons, an intermediate layer including one or more neurons, and one and an output layer containing the above neurons.

図1の例では、生成部133は、位置情報群と対象行動情報とに基づいて、モデルを生成する。例えば、生成部133は、位置情報LC12~LC16と、行動情報AC11とに基づいて、モデルM1を生成する。例えば、生成部133は、位置情報群が抽出されたユーザが飲料を購入するかを予測するモデルM1を生成する。例えば、生成部133は、ランニング後にユーザが飲料を購入するかを予測するモデルM1を生成する。 In the example of FIG. 1, the generation unit 133 generates a model based on the position information group and the target behavior information. For example, the generator 133 generates the model M1 based on the position information LC12 to LC16 and the action information AC11. For example, the generation unit 133 generates a model M1 that predicts whether a user whose position information group is extracted will purchase a beverage. For example, the generation unit 133 generates a model M1 that predicts whether the user will purchase a beverage after running.

図2の例では、生成部133は、位置情報群と対象行動情報とに基づいて、モデルを生成する。例えば、生成部133は、4つの位置情報LC22と、行動情報AC21とに基づいて、モデルM2を生成する。例えば、生成部133は、位置情報群が抽出されたユーザが飲食を行うか予測するモデルM2を生成する。例えば、生成部133は、滞在後にユーザが飲食を行うかを予測するモデルM2を生成する。 In the example of FIG. 2, the generation unit 133 generates a model based on the position information group and the target behavior information. For example, the generator 133 generates the model M2 based on the four pieces of position information LC22 and the action information AC21. For example, the generation unit 133 generates a model M2 that predicts whether the user whose position information group is extracted will eat and drink. For example, the generation unit 133 generates a model M2 that predicts whether the user will eat or drink after staying.

(予測部134)
予測部134は、各種情報を予測する。例えば、予測部134は、位置情報記憶部123に記憶された位置情報に基づいて、ユーザの所定の行動の有無を予測する。例えば、予測部134は、位置情報記憶部123に記憶された位置情報をモデル情報記憶部124に記憶されたモデルに入力することにより、ユーザの所定の行動の有無を予測する。
(Prediction unit 134)
The prediction unit 134 predicts various information. For example, the prediction unit 134 predicts whether or not the user will perform a predetermined action based on the position information stored in the position information storage unit 123 . For example, the prediction unit 134 predicts whether or not the user will perform a predetermined action by inputting the position information stored in the position information storage unit 123 to the model stored in the model information storage unit 124 .

例えば、予測部134は、抽出部132により抽出された位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測する。例えば、予測部134は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測する。 For example, the prediction unit 134 predicts the behavior of the user before and after the predetermined period based on the position information group extracted by the extraction unit 132 . For example, the prediction unit 134 predicts whether or not the user will perform a predetermined action based on the output of a model that is used to predict whether or not a predetermined action will occur, and to which the position information group is input.

例えば、予測部134は、モデルM1、M2等に従った情報処理により、ユーザの位置情報群であって、位置の変化に関する所定の規則性を満たす位置情報群を入力層に入力する。そして、予測部134は、入力データを中間層と出力層に伝播させることで出力層から所定の行動の発生有無に関するスコアを出力させる。 For example, the prediction unit 134 inputs, to the input layer, a group of position information of the user that satisfies a predetermined regularity regarding changes in position, through information processing according to the models M1, M2, and the like. Then, the prediction unit 134 propagates the input data to the intermediate layer and the output layer, thereby outputting a score regarding whether or not a predetermined action occurs from the output layer.

図1の例では、予測部134は、POI情報と、ユーザU1の位置LCとの比較により、ユーザU1がXX公園に向かっていると推定する。例えば、予測部134は、端末装置10が検知した加速度に基づいて、ユーザの移動方向を推定してもよい。例えば、予測部134は、種々の従来技術を適宜用いることにより、端末装置10が検知した加速度に基づいて、最後に位置情報が検知された地点からの移動を推定してもよい。 In the example of FIG. 1, the prediction unit 134 estimates that the user U1 is heading to XX Park by comparing the POI information and the position LC of the user U1. For example, the prediction unit 134 may estimate the moving direction of the user based on the acceleration detected by the terminal device 10 . For example, the prediction unit 134 may appropriately use various conventional techniques to estimate the movement from the point where the position information was last detected based on the acceleration detected by the terminal device 10 .

図1の例では、予測部134は、POI情報と、ユーザU1の位置LCの変化との比較により、ユーザU1がXX公園に向かっていると推定する。例えば、予測部134は、位置LC11、LC12により、ユーザU1がXX公園に向かって(図1では下から上方向へ)移動していると推定する。例えば、予測部134は、位置LC12、LC13により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC12、LC13により、ユーザU1の移動速度を推定する。例えば、予測部134は、端末装置10が検知した加速度に基づいて、ユーザの移動速度を推定してもよい。例えば、予測部134は、位置LC13、LC14により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC13、LC14により、ユーザU1の移動速度を推定する。例えば、予測部134は、位置LC14、LC15により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC14、LC15により、ユーザU1の移動速度を推定する。例えば、予測部134は、位置LC15、LC16により、ユーザU1がXX公園内を移動していると推定する。例えば、予測部134は、位置LC15、LC16により、ユーザU1の移動速度を推定する。例えば、予測部134は、ユーザU1の移動経過やユーザU1の速度に基づいて、ユーザU1がXX公園内をランニングしていると推定する。 In the example of FIG. 1, the prediction unit 134 estimates that the user U1 is heading to XX park by comparing the POI information and the change in the position LC of the user U1. For example, the prediction unit 134 estimates that the user U1 is moving toward the XX park (from the bottom to the top in FIG. 1) from the positions LC11 and LC12. For example, the prediction unit 134 estimates that the user U1 is moving in the XX park from the positions LC12 and LC13. For example, the prediction unit 134 estimates the moving speed of the user U1 from the positions LC12 and LC13. For example, the prediction unit 134 may estimate the moving speed of the user based on the acceleration detected by the terminal device 10 . For example, the prediction unit 134 estimates that the user U1 is moving in the XX park from the positions LC13 and LC14. For example, the prediction unit 134 estimates the moving speed of the user U1 from the positions LC13 and LC14. For example, the prediction unit 134 estimates that the user U1 is moving in the XX park from the positions LC14 and LC15. For example, the prediction unit 134 estimates the moving speed of the user U1 from the positions LC14 and LC15. For example, the prediction unit 134 estimates that the user U1 is moving in the XX park from the positions LC15 and LC16. For example, the prediction unit 134 estimates the moving speed of the user U1 from the positions LC15 and LC16. For example, the prediction unit 134 estimates that the user U1 is running in the XX park based on the progress of movement of the user U1 and the speed of the user U1.

図2の例では、予測部134は、POI情報と、ユーザU2の位置LCとの比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、予測部134は、POI情報と、ユーザU2の位置LCの変化との比較により、ユーザU2がYY映画館に向かっていると推定する。例えば、予測部134は、位置LC21、LC22により、ユーザU2がYY映画館に向かって(図2では下から上方向へ)移動していると推定する。例えば、予測部134は、日時dt22及び日時dt23に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。例えば、予測部134は、日時dt22~日時dt24に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。例えば、予測部134は、日時dt22~日時dt25に取得した位置LC22により、ユーザU2がYY映画館内に滞在していると推定する。 In the example of FIG. 2, the prediction unit 134 estimates that the user U2 is heading to the YY movie theater by comparing the POI information and the position LC of the user U2. For example, the prediction unit 134 estimates that the user U2 is heading to the YY movie theater by comparing the POI information and the change in the position LC of the user U2. For example, the prediction unit 134 estimates that the user U2 is moving toward the YY theater (from bottom to top in FIG. 2) based on the positions LC21 and LC22. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie theater from the position LC22 obtained at the dates and times dt22 and dt23. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie theater based on the position LC22 obtained from date/time dt22 to date/time dt24. For example, the prediction unit 134 estimates that the user U2 is staying in the YY movie theater based on the position LC22 obtained from date/time dt22 to date/time dt25.

(提供部135)
提供部135は、種々の情報を提供する。例えば、提供部135は、端末装置10等の外部装置に各種情報を提供する。例えば、提供部135は、モデル情報記憶部124に記憶された各モデルを外部の情報処理装置へ提供する。例えば、提供部135は、予測結果に基づく情報を外部の情報処理装置へ提供する。例えば、提供部135は、XX公園内をランニングしていると推定されたユーザU1の端末装置10に、XX公園付近のコンビニに関する広告を配信してもよい。また、例えば、提供部135は、YY映画館内滞在していると推定されたユーザU2の端末装置10に、YY映画館付近の飲食店(レストラン)に関する広告を配信してもよい。
(Providing unit 135)
The providing unit 135 provides various information. For example, the providing unit 135 provides various types of information to an external device such as the terminal device 10 . For example, the providing unit 135 provides each model stored in the model information storage unit 124 to an external information processing device. For example, the providing unit 135 provides information based on the prediction result to an external information processing device. For example, the provision unit 135 may distribute an advertisement regarding a convenience store near XX park to the terminal device 10 of the user U1 who is estimated to be running in XX park. Further, for example, the providing unit 135 may distribute an advertisement regarding restaurants near the YY movie theater to the terminal device 10 of the user U2 who is estimated to be staying in the YY movie theater.

例えば、提供部135は、抽出部132により抽出された位置情報群に関する情報を所定のサービス提供者に提供してもよい。また、例えば、提供部135は、生成部133により生成されたモデルに関する情報を外部の情報処理装置へ提供してもよい。また、例えば、提供部135は、モデルが出力する情報を外部の情報処理装置へ提供してもよい。なお、上記は一例であり、提供部135は、抽出部132により抽出された位置情報群に基づく、種々の情報を外部の情報処理装置へ提供してもよい。 For example, the providing unit 135 may provide a predetermined service provider with information regarding the location information group extracted by the extracting unit 132 . Further, for example, the providing unit 135 may provide information regarding the model generated by the generating unit 133 to an external information processing device. Further, for example, the providing unit 135 may provide information output by the model to an external information processing device. Note that the above is just an example, and the providing unit 135 may provide various types of information based on the position information group extracted by the extracting unit 132 to an external information processing device.

〔3.抽出処理のフロー〕
次に、図9を用いて、実施形態に係る抽出システム1による抽出処理の手順について説明する。図9は、実施形態に係る抽出処理の一例を示すフローチャートである。また、図9に示す抽出処理には、対象行動情報の抽出及びモデルの生成の処理が含まれる。
[3. Extraction process flow]
Next, a procedure of extraction processing by the extraction system 1 according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating an example of extraction processing according to the embodiment. Also, the extraction processing shown in FIG. 9 includes processing for extracting target behavior information and generating a model.

図9に示すように、抽出装置100は、所定の期間において検知されたユーザの複数の位置情報を取得する(ステップS101)。例えば、抽出装置100は、位置情報記憶部123(図7参照)に示すような位置情報の履歴を取得する。図1の例では、抽出装置100は、端末装置10から日時dt11~dt18に検知された位置情報LC11~LC18等を取得する。 As shown in FIG. 9, the extraction device 100 acquires a plurality of pieces of location information of a user detected during a predetermined period (step S101). For example, the extraction device 100 acquires a history of position information as shown in the position information storage unit 123 (see FIG. 7). In the example of FIG. 1, the extraction device 100 acquires from the terminal device 10 the location information LC11 to LC18 detected during the dates and times dt11 to dt18.

また、抽出装置100は、位置の変化に関する所定の規則性を満たす位置情報群を抽出する(ステップS102)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような移動に関する行動パターンPT1を満たすような位置情報群を抽出する。図1の例では、抽出装置100は、位置情報LC11~LC18のうち、XX公園内を周回している位置に対応する位置情報群(位置情報LC12~LC16)を抽出する。 The extraction device 100 also extracts a position information group that satisfies a predetermined regularity regarding changes in position (step S102). For example, the extraction device 100 extracts a position information group that satisfies a behavior pattern PT1 regarding movement as shown in the model information storage unit 124 (see FIG. 8). In the example of FIG. 1, the extraction device 100 extracts a position information group (position information LC12 to LC16) corresponding to positions traveling around the XX park from among the position information LC11 to LC18.

また、抽出装置100は、ユーザの行動情報のうち、所定の条件を満たす対象行動情報を抽出する(ステップS103)。例えば、抽出装置100は、行動情報記憶部122(図6参照)に示すような行動履歴から、対象期間(日時dt12~dt16)後における対象行動情報を抽出する。図1の例では、抽出装置100は、日時dt18においてAコンビニでW水を購入したことを示す行動情報AC11を抽出する。 In addition, the extraction device 100 extracts target behavior information that satisfies a predetermined condition from the behavior information of the user (step S103). For example, the extraction device 100 extracts the target behavior information after the target period (dates dt12 to dt16) from the behavior history shown in the behavior information storage unit 122 (see FIG. 6). In the example of FIG. 1, the extraction device 100 extracts action information AC11 indicating that W water was purchased at A convenience store on date and time dt18.

そして、抽出装置100は、位置情報群と、対象行動情報とに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する(ステップS104)。例えば、抽出装置100は、モデル情報記憶部124(図8参照)に示すような行動パターンPT1に対応するモデルM1を生成する。図1の例では、抽出装置100は、位置情報LC12~LC16と、位置情報LC12~LC16に対応する行動情報AC11を正解情報として、モデルM1を生成する。 Then, the extraction device 100 generates a model used for predicting whether or not a predetermined action will occur, based on the position information group and the target action information (step S104). For example, the extraction device 100 generates a model M1 corresponding to the behavior pattern PT1 as shown in the model information storage unit 124 (see FIG. 8). In the example of FIG. 1, the extraction device 100 generates the model M1 using the position information LC12 to LC16 and the action information AC11 corresponding to the position information LC12 to LC16 as correct information.

〔4.効果〕
上述してきたように、実施形態に係る抽出装置100は、取得部131と、抽出部132とを有する。取得部131は、所定の期間において検知されたユーザの複数の位置情報を取得する。抽出部132は、取得部131により取得された複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出する。
[4. effect〕
As described above, the extraction device 100 according to the embodiment has the acquisition unit 131 and the extraction unit 132 . Acquisition unit 131 acquires a plurality of pieces of location information of a user detected during a predetermined period. The extraction unit 132 extracts a position information group that satisfies a predetermined regularity regarding changes in position from among the plurality of pieces of position information acquired by the acquisition unit 131 .

このように、実施形態に係る抽出装置100は、ユーザの複数の位置情報のうち、位置の変化に関する所定の規則性を満たす位置情報群を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。 As described above, the extraction device 100 according to the embodiment extracts a group of position information that satisfies a predetermined regularity regarding changes in position from among a plurality of pieces of position information of the user, thereby appropriately extracting user information that satisfies the regularity. can be extracted to

また、実施形態に係る抽出装置100において、抽出部132は、連続して検知された複数の位置情報を位置情報群として抽出する。 In addition, in the extraction device 100 according to the embodiment, the extraction unit 132 extracts a plurality of continuously detected position information as a position information group.

このように、実施形態に係る抽出装置100は、連続して検知された複数の位置情報を位置情報群として抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。 As described above, the extraction device 100 according to the embodiment can appropriately extract user information that satisfies the regularity by extracting a plurality of pieces of continuously detected position information as a position information group.

また、実施形態に係る抽出装置100は、予測部134を有する。予測部134は、抽出部132により抽出された位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測する。 Also, the extraction device 100 according to the embodiment has a prediction unit 134 . The prediction unit 134 predicts the behavior of the user before and after the predetermined period based on the position information group extracted by the extraction unit 132 .

このように、実施形態に係る抽出装置100は、抽出した位置情報群に基づいて、所定の期間の前後におけるユーザの行動を予測することにより、ユーザの行動を適切に予測することができる。 As described above, the extraction device 100 according to the embodiment can appropriately predict the user's behavior by predicting the user's behavior before and after the predetermined period based on the extracted position information group.

また、実施形態に係る抽出装置100において、予測部134は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測する。 In addition, in the extraction device 100 according to the embodiment, the prediction unit 134 is a model used for predicting whether or not a predetermined action will occur, and based on the output of the model to which the position information group is input, the user's predetermined Predict the presence or absence of action.

このように、実施形態に係る抽出装置100は、所定の行動の発生有無の予測に用いられるモデルであって、位置情報群が入力されたモデルの出力に基づいて、ユーザの所定の行動の有無を予測することにより、ユーザの行動を適切に予測することができる。 As described above, the extraction device 100 according to the embodiment is a model used for predicting whether or not a predetermined action will occur. By predicting the user's behavior can be appropriately predicted.

また、実施形態に係る抽出装置100において、取得部131は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報を取得する。抽出部132は、ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する。 In addition, in the extraction device 100 according to the embodiment, the acquisition unit 131 acquires the user's behavior information outside the target period, which is the period during which the position information group was detected. The extraction unit 132 extracts target behavior information, which is behavior information that satisfies a predetermined condition, from the behavior information of the user.

このように、実施形態に係る抽出装置100は、位置情報群が検知された期間である対象期間外におけるユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。 As described above, the extraction device 100 according to the embodiment extracts target action information, which is action information that satisfies a predetermined condition, from the user's action information outside the target period, which is the period in which the position information group is detected. Therefore, it is possible to appropriately extract user information that satisfies the regularity.

また、実施形態に係る抽出装置100において、抽出部132は、対象期間後における対象行動情報を抽出する。 In addition, in the extraction device 100 according to the embodiment, the extraction unit 132 extracts target behavior information after the target period.

このように、実施形態に係る抽出装置100は、対象期間後における対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。 In this way, the extraction device 100 according to the embodiment can appropriately extract user information that satisfies the regularity by extracting the target behavior information after the target period.

また、実施形態に係る抽出装置100において、抽出部132は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。 In addition, in the extraction device 100 according to the embodiment, the extraction unit 132 extracts the target behavior information within a predetermined range from the position corresponding to the position information at the end of the target period.

このように、実施形態に係る抽出装置100は、対象期間の終了時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。 As described above, the extraction device 100 according to the embodiment extracts the target behavior information within a predetermined range from the position corresponding to the position information at the end of the target period, thereby appropriately extracting user information that satisfies the regularity. can be extracted.

また、実施形態に係る抽出装置100において、抽出部132は、対象期間前における対象行動情報を抽出する。 In addition, in the extraction device 100 according to the embodiment, the extraction unit 132 extracts target behavior information before the target period.

このように、実施形態に係る抽出装置100は、対象期間前における対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。 In this way, the extraction device 100 according to the embodiment can appropriately extract user information that satisfies the regularity by extracting the target behavior information before the target period.

また、実施形態に係る抽出装置100において、抽出部132は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出する。 In addition, in the extraction device 100 according to the embodiment, the extraction unit 132 extracts the target behavior information within a predetermined range from the position corresponding to the position information at the start of the target period.

このように、実施形態に係る抽出装置100は、対象期間の開始時における位置情報に対応する位置から所定の範囲内に対象行動情報を抽出することにより、規則性を満たすユーザの情報を適切に抽出することができる。 As described above, the extraction device 100 according to the embodiment extracts the target behavior information within a predetermined range from the position corresponding to the position information at the start of the target period, thereby appropriately extracting user information that satisfies the regularity. can be extracted.

また、実施形態に係る抽出装置100は、生成部133を有する。生成部133は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する。 Further, the extraction device 100 according to the embodiment has a generator 133 . The generation unit 133 generates a model used for predicting whether or not a predetermined action will occur, based on learning data including a position information group and target action information corresponding to the position information group.

このように、実施形態に係る抽出装置100は、位置情報群と、位置情報群に対応する対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成することにより、ユーザの行動の適切な予測を可能にすることができる。 As described above, the extraction device 100 according to the embodiment generates a model used for predicting whether or not a predetermined action will occur, based on learning data including a position information group and target action information corresponding to the position information group. By doing so, it is possible to appropriately predict the behavior of the user.

〔5.ハードウェア構成〕
上述してきた実施形態に係る抽出装置100は、例えば図10に示すような構成のコンピュータ1000によって実現される。図10は、抽出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
The extraction device 100 according to the above-described embodiments is implemented by a computer 1000 configured as shown in FIG. 10, for example. FIG. 10 is a hardware configuration diagram showing an example of a computer that implements the functions of the extraction device. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM (Read Only Memory) 1300, a HDD (Hard Disk Drive) 1400, a communication interface (I/F) 1500, an input/output interface (I/F) 1600, and a media interface (I/F). ) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。 The CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 is started up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ送信する。 The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. Communication interface 1500 receives data from other devices via network N, sends the data to CPU 1100, and transmits data generated by CPU 1100 to other devices via network N. FIG.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。 The CPU 1100 controls output devices such as displays and printers, and input devices such as keyboards and mice, through an input/output interface 1600 . CPU 1100 acquires data from an input device via input/output interface 1600 . CPU 1100 also outputs the generated data to an output device via input/output interface 1600 .

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。 Media interface 1700 reads programs or data stored in recording medium 1800 and provides them to CPU 1100 via RAM 1200 . CPU 1100 loads such a program from recording medium 1800 onto RAM 1200 via media interface 1700, and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc) or a PD (Phase change rewritable disc), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. etc.

例えば、コンピュータ1000が実施形態に係る抽出装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムまたはデータ(例えば、モデルM1、M2等)を実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムまたはデータ(例えば、モデルM1、M2等)を記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。 For example, when the computer 1000 functions as the extraction device 100 according to the embodiment, the CPU 1100 of the computer 1000 executes a program or data (for example, models M1, M2, etc.) loaded on the RAM 1200 to control the control unit 130 to realize the function of The CPU 1100 of the computer 1000 reads and executes these programs or data (for example, models M1, M2, etc.) from the recording medium 1800. As another example, these programs are obtained from other devices via the network N. You may

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As described above, some of the embodiments of the present application have been described in detail based on the drawings, but these are merely examples, and various modifications, It is possible to carry out the invention in other forms with modifications.

〔6.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. others〕
Further, among the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being performed manually can be performed manually. All or part of this can also be done automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. In other words, the specific form of distribution and integration of each device is not limited to the one shown in the figure, and all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions. Can be integrated and configured.

また、上述してきた各実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 Further, each process described in each embodiment described above can be appropriately combined within a range in which the contents of the process are not inconsistent.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 Also, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the acquisition unit can be read as acquisition means or an acquisition circuit.

1 抽出システム
100 抽出装置
121 ユーザ情報記憶部
122 行動情報記憶部
123 位置情報記憶部
124 モデル情報記憶部
130 制御部
131 取得部
132 抽出部
133 生成部
134 予測部
135 提供部
10 端末装置
N ネットワーク
1 extraction system 100 extraction device 121 user information storage unit 122 action information storage unit 123 position information storage unit 124 model information storage unit 130 control unit 131 acquisition unit 132 extraction unit 133 generation unit 134 prediction unit 135 provision unit 10 terminal device N network

Claims (12)

所定の期間において検知されたユーザの複数の位置情報を取得する取得部と、
前記取得部により取得された複数の位置情報のうち、位置の変化に関する所定の規則性であって、前記位置の変化に基づく前記ユーザに移動速度がランニングに対応していることを示す所定の規則性を満たし、前記ユーザが所定の範囲を周回していることを示す位置情報群を抽出する抽出部と、
前記位置情報群に基づいて、前記所定の範囲を周回してランニングする前記ユーザに広告を配信するサービスを提供する提供部と、
を備えることを特徴とする抽出装置。
an acquisition unit that acquires a plurality of location information of a user detected during a predetermined period;
Predetermined regularity regarding positional changes among the plurality of pieces of positional information obtained by the obtaining unit, the predetermined rule indicating to the user that a moving speed corresponds to running based on the positional changes. an extraction unit that extracts a group of position information that satisfies the requirements and indicates that the user is circling a predetermined range ;
a providing unit that provides a service of distributing advertisements to the user running in the predetermined range based on the position information group;
An extraction device comprising:
前記抽出部は、
連続して検知された複数の位置情報を前記位置情報群として抽出する
ことを特徴とする請求項1に記載の抽出装置。
The extractor is
2. The extracting device according to claim 1, wherein a plurality of continuously detected positional information are extracted as said positional information group.
前記抽出部により抽出された位置情報群に基づいて、前記所定の期間の前後における前記ユーザの行動を予測する予測部、
をさらに備えることを特徴とする請求項1または請求項2に記載の抽出装置。
a prediction unit that predicts behavior of the user before and after the predetermined period based on the position information group extracted by the extraction unit;
3. A brewing device according to claim 1 or claim 2, further comprising:
前記予測部は、
所定の行動の発生有無の予測に用いられるモデルであって、前記位置情報群が入力されたモデルの出力に基づいて、前記ユーザの前記所定の行動の有無を予測する
ことを特徴とする請求項3に記載の抽出装置。
The prediction unit
A model used for predicting whether or not a predetermined action will occur, wherein the model predicts whether or not the user will perform the predetermined action based on the output of the model to which the position information group is input. 3. The extraction device according to 3.
前記取得部は、
前記位置情報群が検知された期間である対象期間ではない期間における前記ユーザの行動情報を取得し、
前記抽出部は、
前記ユーザの行動情報のうち、所定の条件を満たす行動情報である対象行動情報を抽出する
ことを特徴とする請求項1~4のいずれか1項に記載の抽出装置。
The acquisition unit
Acquiring the behavior information of the user during a period other than the target period, which is the period during which the position information group is detected;
The extractor is
The extracting device according to any one of claims 1 to 4, wherein target action information, which is action information that satisfies a predetermined condition, is extracted from the user's action information.
前記抽出部は、
前記対象期間よりも後における前記対象行動情報を抽出する
ことを特徴とする請求項5に記載の抽出装置。
The extractor is
6. The extracting device according to claim 5, wherein the target behavior information after the target period is extracted.
前記抽出部は、
前記対象期間の終了時における位置情報に対応する位置から所定の範囲内に前記対象行動情報を抽出する
ことを特徴とする請求項6に記載の抽出装置。
The extractor is
7. The extracting device according to claim 6, wherein the target action information is extracted within a predetermined range from a position corresponding to position information at the end of the target period.
前記抽出部は、
前記対象期間よりも前における前記対象行動情報を抽出する
ことを特徴とする請求項5~7のいずれか1項に記載の抽出装置。
The extractor is
The extracting device according to any one of claims 5 to 7, wherein the target behavior information before the target period is extracted.
前記抽出部は、
前記対象期間の開始時における位置情報に対応する位置から所定の範囲内に前記対象行動情報を抽出する
ことを特徴とする請求項8に記載の抽出装置。
The extractor is
9. The extraction device according to claim 8, wherein the target action information is extracted within a predetermined range from a position corresponding to position information at the start of the target period.
前記位置情報群と、前記位置情報群に対応する前記対象行動情報とを含む学習データに基づいて、所定の行動の発生有無の予測に用いられるモデルを生成する生成部、
をさらに備えることを特徴とする請求項5~9のいずれか1項に記載の抽出装置。
a generation unit that generates a model to be used for predicting whether or not a predetermined action will occur, based on learning data including the position information group and the target action information corresponding to the position information group;
The extraction device according to any one of claims 5 to 9, further comprising:
コンピュータが実行する抽出方法であって、
所定の期間において検知されたユーザの複数の位置情報を取得する取得工程と、
前記取得工程により取得された複数の位置情報のうち、位置の変化に関する所定の規則性であって、前記位置の変化に基づく前記ユーザに移動速度がランニングに対応していることを示す所定の規則性を満たし、前記ユーザが所定の範囲を周回していることを示す位置情報群を抽出する抽出工程と、
前記位置情報群に基づいて、前記所定の範囲を周回してランニングする前記ユーザに広告を配信するサービスを提供する提供工程と、
を含むことを特徴とする抽出方法。
A computer implemented extraction method comprising:
an obtaining step of obtaining a plurality of location information of the user detected over a predetermined period of time;
Predetermined regularity regarding changes in position among the plurality of pieces of position information obtained by the obtaining step, the predetermined rule indicating to the user that the movement speed corresponds to running based on the change in position. an extracting step of extracting a position information group that satisfies the requirements and indicates that the user is circling a predetermined range ;
a providing step of providing a service of distributing advertisements to the user running in the predetermined range based on the position information group;
An extraction method comprising:
所定の期間において検知されたユーザの複数の位置情報を取得する取得手順と、
前記取得手順により取得された複数の位置情報のうち、位置の変化に関する所定の規則性であって、前記位置の変化に基づく前記ユーザに移動速度がランニングに対応していることを示す所定の規則性を満たし、前記ユーザが所定の範囲を周回していることを示す位置情報群を抽出する抽出手順と、
前記位置情報群に基づいて、前記所定の範囲を周回してランニングする前記ユーザに広告を配信するサービスを提供する提供手順と、
をコンピュータに実行させることを特徴とする抽出プログラム。
an acquisition procedure for acquiring a plurality of location information of a user detected over a predetermined period of time;
Predetermined regularity regarding changes in position among the plurality of pieces of position information obtained by the obtaining procedure, the predetermined rule indicating to the user that the movement speed corresponds to running based on the change in position. an extraction procedure for extracting a position information group that satisfies the requirements and indicates that the user is circling a predetermined range ;
a providing step of providing a service of distributing advertisements to the user running in the predetermined range based on the position information group;
An extraction program characterized by causing a computer to execute
JP2017143449A 2017-07-25 2017-07-25 Extraction device, extraction method, and extraction program Active JP7221586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017143449A JP7221586B2 (en) 2017-07-25 2017-07-25 Extraction device, extraction method, and extraction program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017143449A JP7221586B2 (en) 2017-07-25 2017-07-25 Extraction device, extraction method, and extraction program

Publications (2)

Publication Number Publication Date
JP2019028488A JP2019028488A (en) 2019-02-21
JP7221586B2 true JP7221586B2 (en) 2023-02-14

Family

ID=65476294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017143449A Active JP7221586B2 (en) 2017-07-25 2017-07-25 Extraction device, extraction method, and extraction program

Country Status (1)

Country Link
JP (1) JP7221586B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065381A (en) 2006-09-04 2008-03-21 Toyota Motor Corp Vehicle with outside user protecting function
JP2008123317A (en) 2006-11-14 2008-05-29 Dainippon Printing Co Ltd Information providing system
US20110071881A1 (en) 2009-09-18 2011-03-24 Microsoft Corporation Mining life pattern based on location history
JP2011081431A (en) 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program
JP2011198292A (en) 2010-03-23 2011-10-06 Nippon Telegr & Teleph Corp <Ntt> Modeling device, method, and program for action prediction, and prediction device, method, and program using the modeling information

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010014592A (en) * 2008-07-04 2010-01-21 Univ Waseda Moving means determining device and moving means determination method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065381A (en) 2006-09-04 2008-03-21 Toyota Motor Corp Vehicle with outside user protecting function
JP2008123317A (en) 2006-11-14 2008-05-29 Dainippon Printing Co Ltd Information providing system
US20110071881A1 (en) 2009-09-18 2011-03-24 Microsoft Corporation Mining life pattern based on location history
JP2011081431A (en) 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program
JP2011198292A (en) 2010-03-23 2011-10-06 Nippon Telegr & Teleph Corp <Ntt> Modeling device, method, and program for action prediction, and prediction device, method, and program using the modeling information

Also Published As

Publication number Publication date
JP2019028488A (en) 2019-02-21

Similar Documents

Publication Publication Date Title
US10726438B2 (en) Personalized contextual coupon engine
US10572887B2 (en) Electronically capturing consumer location data for analyzing consumer behavior
US9736652B2 (en) Activity recognition systems and methods
US20130006754A1 (en) Multi-step impression campaigns
KR20120052951A (en) Advertising as a real-time video call
US20140229323A1 (en) Location and transaction-based recommendations
US11127031B1 (en) Systems and methods for providing dimensional promotional offers
JP6804505B2 (en) Predictors, prediction methods, and prediction programs
JP6814115B2 (en) Specific device, specific method and specific program
JP2019139521A (en) Prediction device, prediction method, and prediction program
US10491709B2 (en) Time and location based distribution of additional content for content items
US11379875B2 (en) Systems and methods for time-based advertising
JP2019053409A (en) Addition device, addition method, addition program and model
JP7249103B2 (en) Selection device, selection method and selection program
JP6809993B2 (en) Extractor, extraction method, extraction program, and model
US20210342925A1 (en) Virtual Shopping Assistant
JP6955392B2 (en) Decision device, decision method, and decision program
JP6983739B2 (en) Information processing equipment, information processing methods and information processing programs
JP7221586B2 (en) Extraction device, extraction method, and extraction program
JP7071940B2 (en) Providing equipment, providing method and providing program
US20210174395A1 (en) System and method for location-based product solutions using artificial intelligence
Ravi et al. Predicting consumer level brand preferences using persistent mobility patterns
JP6587660B2 (en) Estimation apparatus, estimation method, and estimation program
US20160063565A1 (en) Marketing platform that determines advertisements for third party users
JP7023253B2 (en) Collection device, collection method and collection program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210603

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220203

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220203

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220215

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220222

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220318

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220329

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220705

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221007

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221011

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221122

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20230104

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20230104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230202

R150 Certificate of patent or registration of utility model

Ref document number: 7221586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350