JP2019079418A - Estimation apparatus, estimation method, and estimation program - Google Patents

Estimation apparatus, estimation method, and estimation program Download PDF

Info

Publication number
JP2019079418A
JP2019079418A JP2017207446A JP2017207446A JP2019079418A JP 2019079418 A JP2019079418 A JP 2019079418A JP 2017207446 A JP2017207446 A JP 2017207446A JP 2017207446 A JP2017207446 A JP 2017207446A JP 2019079418 A JP2019079418 A JP 2019079418A
Authority
JP
Japan
Prior art keywords
user
date
time
context
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017207446A
Other languages
Japanese (ja)
Other versions
JP6974114B2 (en
Inventor
孝太 坪内
Kota Tsubouchi
孝太 坪内
照彦 寺岡
Teruhiko Teraoka
照彦 寺岡
秀仁 五味
Hidehito Gomi
秀仁 五味
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017207446A priority Critical patent/JP6974114B2/en
Publication of JP2019079418A publication Critical patent/JP2019079418A/en
Application granted granted Critical
Publication of JP6974114B2 publication Critical patent/JP6974114B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To properly estimate context of a user.SOLUTION: An estimation apparatus according to the present application includes an acquisition unit and an estimation unit. The acquisition unit acquires common action information which indicates that first user and second user has taken common action, and first context information indicating context of the first user on a first date and time. The estimation unit estimates context of the second user on a second date and time, which is different from the first date and time, on the basis of the common action information and the first context information acquired by the acquisition unit.SELECTED DRAWING: Figure 5

Description

本発明は、推定装置、推定方法、及び推定プログラムに関する。   The present invention relates to an estimation apparatus, an estimation method, and an estimation program.

従来、一のユーザの情報として、他のユーザの情報を利用する技術が提供されている。例えば、ユーザが非スマートスペース又は異なるスマートスペースにおいてアプリケーションにアクセスする場合に、ユーザにより不足する環境コンテキストも取得する技術が知られている。   Conventionally, there is provided a technology that uses information of another user as information of one user. For example, when a user accesses an application in a non-smart space or in a different smart space, a technique is known that also acquires an environment context that is deficient by the user.

特表2017−503371号公報JP-A-2017-503371

しかしながら、上記の従来技術では、ユーザのコンテキストを適切に推定することができるとは限らない。例えば、上記の従来技術では、情報が不足した場合に他のユーザの情報を取得しているに過ぎず、ユーザのコンテキストを適切に推定することが難しい場合がある。例えば、ある時点における他のユーザについて情報が取得されていない場合等においては、その時点のユーザのコンテキストを適切に推定することが難しい。   However, the above-mentioned prior art can not necessarily estimate the context of the user appropriately. For example, in the above-mentioned prior art, it may be difficult to appropriately estimate the context of the user, since the information of the other user is only acquired when the information is insufficient. For example, when information is not acquired for another user at a certain time, it is difficult to appropriately estimate the context of the user at that time.

本願は、上記に鑑みてなされたものであって、ユーザのコンテキストを適切に推定する推定装置、推定方法、及び推定プログラムを提供することを目的とする。   This application is made in view of the above, and an object of the present application is to provide an estimation device, an estimation method, and an estimation program which estimate a user's context appropriately.

本願に係る推定装置は、第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における前記第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する取得部と、前記取得部により取得された前記共通行動情報と前記第1コンテキスト情報とに基づいて、前記第1日時とは異なる第2日時における前記第2ユーザのコンテキストを推定する推定部と、を備えることを特徴とする。   The estimation apparatus according to the present application includes common action information indicating that the first user and the second user have performed common actions that are common actions, and first context information indicating the context of the first user at a first date and time And estimating the context of the second user at a second date and time different from the first date and time, based on the common behavior information and the first context information acquired by the acquisition unit and the acquisition unit for acquiring the And an estimation unit.

実施形態の一態様によれば、ユーザのコンテキストを適切に推定することができるという効果を奏する。   According to an aspect of the embodiment, an effect is obtained that the context of the user can be appropriately estimated.

図1は、実施形態に係る推定処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of estimation processing according to the embodiment. 図2は、実施形態に係る推定処理の一例を示す図である。FIG. 2 is a diagram showing an example of estimation processing according to the embodiment. 図3は、実施形態に係る推定処理の一例を示す図である。FIG. 3 is a diagram showing an example of estimation processing according to the embodiment. 図4は、実施形態に係る推定システムの構成例を示す図である。FIG. 4 is a diagram showing an example of the configuration of the estimation system according to the embodiment. 図5は、実施形態に係る推定装置の構成例を示す図である。FIG. 5 is a diagram showing an example of the configuration of the estimation apparatus according to the embodiment. 図6は、実施形態に係るユーザ情報記憶部の一例を示す図である。FIG. 6 is a diagram illustrating an example of the user information storage unit according to the embodiment. 図7は、実施形態に係るコンテキスト情報記憶部の一例を示す図である。FIG. 7 is a diagram illustrating an example of the context information storage unit according to the embodiment. 図8は、実施形態に係る共通行動情報記憶部の一例を示す図である。FIG. 8 is a diagram illustrating an example of the common behavior information storage unit according to the embodiment. 図9は、実施形態に係る推定情報記憶部の一例を示す図である。FIG. 9 is a diagram illustrating an example of the estimated information storage unit according to the embodiment. 図10は、実施形態に係る推定処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of estimation processing according to the embodiment. 図11は、実施形態に係る推定処理の一例を示す図である。FIG. 11 is a diagram illustrating an example of estimation processing according to the embodiment. 図12は、推定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 12 is a hardware configuration diagram showing an example of a computer for realizing the function of the estimation device.

以下に、本願に係る推定装置、推定方法、及び推定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る推定装置、推定方法、及び推定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。   Hereinafter, an estimation apparatus, an estimation method, and a form for implementing an estimation program (hereinafter, referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. Note that the estimation apparatus, estimation method, and estimation program according to the present application are not limited by this embodiment. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.

(実施形態)
〔1.推定処理〕
図1〜図3を用いて、実施形態に係る推定処理の一例について説明する。図1〜図3は、実施形態に係る推定処理の一例を示す図である。図1の例では、推定装置100が第1ユーザであるユーザU1と、第2ユーザであるユーザU2とがある共通行動を行ったことを示す情報(共通行動情報)を用いて、位置情報(以下、単に「位置」ともいう)が取得されていないユーザU2の位置を推定する場合を示す。また、図1の例では、推定装置100が第1日時におけるユーザU1の位置を示すコンテキスト情報に基づいて、第1日時とは異なる第2日時におけるユーザU2の位置を推定する。すなわち、ここでいう第1ユーザは、コンテキスト情報が利用されるユーザに対応し、第2ユーザは、コンテキストが推定されるユーザに対応する。なお、共通行動やコンテキストについての詳細は後述する。なお、ここでいう日時には、ある時点(時分秒)であってもよいし、ある程度の期間(例えば分単位の期間等)を含んでもよい。
(Embodiment)
[1. Estimation process]
An example of the estimation process according to the embodiment will be described using FIGS. 1 to 3. 1 to 3 are diagrams showing an example of estimation processing according to the embodiment. In the example of FIG. 1, using the information (common action information) indicating that the estimation apparatus 100 has performed a common action with the user U1 as the first user and the user U2 as the second user, position information ( Hereinafter, a case where the position of the user U2 whose status is simply referred to as "position" is not estimated will be shown. Further, in the example of FIG. 1, the estimation apparatus 100 estimates the position of the user U2 at a second date and time different from the first date and time based on the context information indicating the position of the user U1 at the first date and time. That is, the first user here corresponds to the user whose context information is used, and the second user corresponds to the user whose context is estimated. The details of the common action and the context will be described later. Note that the date and time referred to here may be a certain time point (hour, minute, second), or may include a certain period (for example, a period in minutes).

〔推定システムの構成〕
まず、図1〜図3の説明に先だって、図4を用いて推定システム1の構成について説明する。図4は、実施形態に係る推定システムの構成例を示す図である。図4に示すように、推定システム1は、端末装置10−1と、端末装置10−2と、端末装置10−3と、推定装置100とが含まれる。端末装置10−1と、端末装置10−2と、端末装置10−3と、推定装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。
[Configuration of estimation system]
First, prior to the description of FIGS. 1 to 3, the configuration of the estimation system 1 will be described using FIG. 4. FIG. 4 is a diagram showing an example of the configuration of the estimation system according to the embodiment. As shown in FIG. 4, the estimation system 1 includes a terminal device 10-1, a terminal device 10-2, a terminal device 10-3, and an estimation device 100. The terminal device 10-1, the terminal device 10-2, the terminal device 10-3, and the estimation device 100 are communicably connected by wire or wireless via a predetermined network N.

以下では、端末装置10−1〜10−3について、特に区別なく説明する場合には、端末装置10と記載する。なお、図4に示した推定システム1では、3台の端末装置10−1〜10−3を図示するが、推定システム1には、4台以上の端末装置10が含まれてもよい。例えば、推定システム1には、各ユーザに対応する端末装置10が含まれ、ユーザが100万人である場合、100万台の端末装置10が含まれてもよい。また、図4に示した推定システム1には、複数台の推定装置100が含まれてもよい。   Hereinafter, the terminal devices 10-1 to 10-3 will be referred to as the terminal device 10 when the description is made without particular distinction. Although three terminal devices 10-1 to 10-3 are illustrated in the estimation system 1 shown in FIG. 4, four or more terminal devices 10 may be included in the estimation system 1. For example, the estimation system 1 may include the terminal device 10 corresponding to each user, and may include one million terminal devices 10 when the number of users is one million. Further, the estimation system 1 illustrated in FIG. 4 may include a plurality of estimation devices 100.

端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1に示す例においては、端末装置10がユーザが利用するスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。   The terminal device 10 is an information processing device used by a user. The terminal device 10 is realized by, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. In the example shown in FIG. 1, the case where the terminal device 10 is a smart phone which a user utilizes is shown. In the following, the terminal device 10 may be described as a user. That is, the user can be read as the terminal device 10 below.

例えば、端末装置10−1は、図1に示すユーザU1が利用する端末装置10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。例えば、端末装置10−2、10−3は、図2に示すユーザU2、U3が各々利用する端末装置10に対応する。また、以下では、ユーザが利用する端末装置10とそのユーザとは互いに読み替えられてもよい。例えば、「ユーザU1」と記載した場合、ユーザU1が利用する端末装置10である「端末装置10−1」と読み替えられてもよい。「端末装置10−1」と記載した場合、端末装置10−1を利用するユーザである「ユーザU1」と読み替えられてもよい。以下では、説明を簡単にするために、ユーザIDによりユーザが利用する端末装置10が特定可能である場合を例に説明する。   For example, the terminal device 10-1 corresponds to the terminal device 10 used by the user U1 illustrated in FIG. As described above, when “user U * (* is any numerical value)” is described, it indicates that the user is a user identified by the user ID “U *”. For example, when "user U1" is described, the user is a user identified by user ID "U1". For example, the terminal devices 10-2 and 10-3 correspond to the terminal devices 10 used by the users U2 and U3 shown in FIG. Moreover, below, the terminal device 10 which a user utilizes, and the user may be mutually read. For example, when it describes as "the user U1", it may be read as "the terminal device 10-1" which is the terminal device 10 which the user U1 utilizes. When described as "terminal device 10-1," it may be read as "user U1" which is a user who uses the terminal device 10-1. In the following, in order to simplify the description, a case where the terminal device 10 used by the user can be specified by the user ID will be described as an example.

また、端末装置10は、GPS(Global Positioning System)センサ等の各種センサにより、各種センサ情報を検知してもよい。また、端末装置10は、加速度センサの機能を有し、ユーザの移動における加速度情報(センサ情報)を検知し、取得する。また、端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。また、端末装置10は、心拍センサ等の種々の機能を有し、ユーザの生体情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、ユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。   In addition, the terminal device 10 may detect various sensor information by using various sensors such as a GPS (Global Positioning System) sensor. The terminal device 10 also has a function of an acceleration sensor, and detects and acquires acceleration information (sensor information) in the movement of the user. In addition, the terminal device 10 may have various functions such as a temperature sensor and an air pressure sensor, and may detect and acquire environment information on which the user is placed, such as temperature and air pressure. Further, the terminal device 10 may have various functions such as a heart rate sensor, and may be capable of detecting and acquiring biometric information of the user. For example, the user using the terminal device 10 may be able to acquire the user's own context information from the terminal device 10 by wearing a wearable device capable of communicating with the terminal device 10. For example, the user using the terminal device 10 may be able to obtain information on the user's own heartbeat (pulse) by wearing the wristband type wearable device capable of communicating with the terminal device 10 .

また、端末装置10は、近距離無線通信技術により、他の端末装置10と近接通信を行う。例えば、端末装置10は、NFC(Near Field Communication)に関する種々の従来技術を適宜用いて、他の端末装置10と近接通信を行う機能を有する。例えば、端末装置10は、Bluetooth(登録商標)やWiFi(登録商標)(Wireless Fidelity)等の種々の従来の無線通信に関する技術を適宜用いて、他の端末装置10と近接通信を行ってもよい。すなわち、端末装置10は、他の端末装置10との近接通信、いわゆるすれ違い通信が可能であれば、どのような機能により他の端末装置10と近接通信を行ってもよい。   Further, the terminal device 10 performs near-field communication with another terminal device 10 by near field communication technology. For example, the terminal device 10 has a function of performing proximity communication with another terminal device 10 by using various conventional techniques related to NFC (Near Field Communication) as appropriate. For example, the terminal device 10 may perform proximity communication with another terminal device 10 by appropriately using various conventional wireless communication technologies such as Bluetooth (registered trademark) and WiFi (registered trademark) (Wireless Fidelity). . That is, the terminal device 10 may perform proximity communication with another terminal device 10 using any function as long as proximity communication with the other terminal device 10, that is, so-called passing communication, is possible.

なお、ここでいう近接とは、無線通信が可能な範囲であってもよいし、所定の閾値以内の範囲であってもよい。例えば、近接とは、1メートルや10メートル等の具体的な距離であってもよい。また、以下では、端末装置10は、Bluetooth(登録商標)により、他の端末装置10と近接通信を行うものとする。   Here, the proximity may be a range in which wireless communication is possible, or may be a range within a predetermined threshold. For example, proximity may be a specific distance such as 1 meter or 10 meters. Furthermore, in the following, it is assumed that the terminal device 10 performs near-field communication with another terminal device 10 by Bluetooth (registered trademark).

また、端末装置10は、ユーザのコンテキストに関する情報(以下、「コンテキスト情報」ともいう)を収集し、推定装置100へ送信する。例えば、端末装置10は、ユーザのコンテキスト情報を検知(取得)した時点で、随時(リアルタイムに)推定装置100へコンテキスト情報を送信してもよいし、所定のタイミング(例えば、1時間おきや1日おき)で推定装置100へコンテキスト情報を送信してもよい。   Further, the terminal device 10 collects information on the context of the user (hereinafter, also referred to as “context information”), and transmits the information to the estimation device 100. For example, the terminal device 10 may transmit context information to the estimation device 100 at any time (in real time) when detecting (acquiring) context information of the user, or at predetermined timing (for example, every hour or one) Context information may be transmitted to the estimation apparatus 100 on a daily basis.

ここでいうコンテキストとは、ユーザが置かれた環境等を含む概念であってもよい。例えば、端末装置10は、ユーザの位置情報を収集し、推定装置100へ送信する。例えば、端末装置10は、端末装置10上におけるユーザの各種の行動情報を収集し、推定装置100へ送信する。例えば、端末装置10は、端末装置10上においてユーザが閲覧したコンテンツに関する情報を収集し、推定装置100へ送信する。   The context herein may be a concept including an environment in which the user is placed. For example, the terminal device 10 collects user's position information and transmits it to the estimation device 100. For example, the terminal device 10 collects various types of behavior information of the user on the terminal device 10 and transmits the information to the estimation device 100. For example, the terminal device 10 collects information on the content browsed by the user on the terminal device 10 and transmits the information to the estimation device 100.

例えば、ここでいうコンテキストは、ユーザやそのユーザが利用する端末装置10の状況やユーザや端末装置10の環境(背景)に基づくユーザの種々の状況を含む概念であってもよい。また、コンテキスト情報には、ユーザの現在位置、現在時刻、ユーザが置かれた物理環境、ユーザが置かれた社会環境、ユーザの行動、ユーザの運動状態、ユーザに提供されるコンテンツの内容、ユーザが反応したコンテンツの内容、ユーザの属性、ユーザの感情等の種々の情報が含まれる。例えば、コンテキスト情報は、ユーザの各種行動に基づく情報等が含まれる。また、例えば、コンテキスト情報は、ユーザの位置やユーザの移動手段やユーザの状態等が含まれる。また、例えば、コンテキスト情報は、ユーザが利用する端末装置10の通信状態や表示する情報等が含まれる。なお、上記は一例であり、コンテキスト情報には、上記に限らず、種々の情報が含まれてもよい。   For example, the context referred to here may be a concept including the user or the situation of the terminal device 10 used by the user, or the user's various situations based on the user or the environment (background) of the terminal device 10. Further, the context information includes the current position of the user, the current time, the physical environment in which the user is placed, the social environment in which the user is placed, the user's behavior, the user's exercise state, the content of the content provided to the user, the user Contains various information such as the content of the content to which the user has responded, the attribute of the user, and the emotion of the user. For example, the context information includes information based on various actions of the user. Also, for example, the context information includes the position of the user, the moving means of the user, the state of the user, and the like. Also, for example, the context information includes the communication state of the terminal device 10 used by the user, information to be displayed, and the like. The above is an example, and the context information is not limited to the above, and various information may be included.

推定装置100は、第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における第1ユーザのコンテキストを示す第1コンテキスト情報とに基づいて、第2ユーザのコンテキストを推定する情報処理装置である。例えば、推定装置100は、第1ユーザと第2ユーザとの共通行動情報と、第1日時における第1ユーザの第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定する。   The estimation apparatus 100 is based on common action information indicating that the first user and the second user have performed common actions that are common actions, and first context information indicating the context of the first user at the first date and time. Is an information processing apparatus that estimates the context of the second user. For example, the estimation apparatus 100 determines a second date and time at a second date and time that is different from the first date and time based on common behavior information between the first user and the second user and the first context information on the first user at the first date and time. Estimate the context of the user.

例えば、推定装置100は、推定したユーザのコンテキストに関する情報を用いた種々のサービスを提供してもよい。例えば、推定装置100は、推定したユーザのコンテキストに関する情報を他の情報処理装置へ提供するサービスを行ってもよい。また、例えば、推定装置100は、ユーザにコンテンツを提供するサービス(コンテンツ提供サービス)を行ってもよい。推定装置100は、端末装置10からの要求に応じて、端末装置10において表示されるコンテンツを配信してもよい。例えば、推定装置100は、ユーザが利用する端末装置10からの要求に応じて、そのユーザのコンテキストに応じたコンテンツを提供してもよい。また、推定システム1においては、推定装置100が検索サービスや電子商取引サービス等の種々のサービスを提供してもよい。   For example, the estimation apparatus 100 may provide various services using information on the estimated context of the user. For example, the estimation apparatus 100 may perform a service of providing information on the estimated context of the user to another information processing apparatus. Also, for example, the estimation apparatus 100 may perform a service (content providing service) for providing content to the user. The estimation device 100 may distribute the content displayed on the terminal device 10 in response to a request from the terminal device 10. For example, the estimation apparatus 100 may provide the content according to the context of the user in response to a request from the terminal device 10 used by the user. Further, in the estimation system 1, the estimation device 100 may provide various services such as a search service and an electronic commerce service.

例えば、推定装置100は、端末装置10に商品またはサービス(以下、併せて「商品」ともいう)の情報を提供したり、ユーザからの購入意思を示す情報に応じて、ユーザへの商品の配送等を行ったりする電子商取引サービスを提供してもよい。また、例えば、推定装置100は、端末装置10から取得したクエリ(検索クエリ)に対する検索結果を端末装置10に提供する検索サービスを提供してもよい。   For example, the estimation apparatus 100 provides the terminal device 10 with information of a product or service (hereinafter also referred to as a “product”), or delivers the product to the user according to the information indicating the purchase intention from the user. , Etc. may be provided. Also, for example, the estimation apparatus 100 may provide a search service for providing the terminal device 10 with a search result for a query (search query) acquired from the terminal device 10.

〔1−1.第1ユーザが一人の場合〕
ここから、図1を用いて、ユーザU2の位置を推定する場合を一例として説明する。図1に示す地図情報MP11(以下、単に「地図MP11」ともいう)は、ユーザU1やユーザU2等の位置を模式的に示す。図1に示す地図MP11−1は、道路情報RD11を示すためのものであり、地図MP11−1は、地図MP11と、同一のエリアである。また、以下では、地図MP11−1について、特に区別なく説明する場合には、地図MP11と記載する。また、地図MP11に示す、位置LC11や位置LC1〜LC6は、具体的な緯度経度を示す情報であってもよい。なお、図1〜図3の例では、共通行動が各ユーザが近接する位置に位置することであり、各ユーザが利用する端末装置10が近接通信を行うことにより近接する位置に位置することが特定される場合を示す。
[1-1. When the first user is one person]
From here, the case where the position of the user U2 is estimated will be described as an example using FIG. Map information MP11 (hereinafter, also simply referred to as "map MP11") shown in FIG. 1 schematically indicates the positions of the user U1, the user U2, and the like. Map MP11-1 shown in FIG. 1 is for showing road information RD11, and map MP11-1 is the same area as map MP11. Moreover, in the following, the map MP11-1 will be described as the map MP11 when the description is made without particular distinction. Further, the position LC11 and the positions LC1 to LC6 illustrated in the map MP11 may be information indicating specific latitude and longitude. In the example of FIGS. 1 to 3, the common action is to be located at a position where each user approaches, and the terminal device 10 used by each user may be located at a proximity position by performing proximity communication. Indicates the identified case.

まず、推定装置100(図5参照)は、日時dt11におけるユーザU1のコンテキスト情報を取得する(ステップS11)。図1の例では、ユーザU1が利用する端末装置10−1は、GPS等の所定の位置情報を検知する機能により、日時dt11における端末装置10−1(ユーザU1)の位置が位置LC11であることを示すコンテキスト情報を取得する。例えば、端末装置10−1がユーザU1の位置が位置LC11であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt11におけるユーザU1のコンテキスト情報を取得する。   First, the estimation apparatus 100 (see FIG. 5) acquires context information of the user U1 at the date and time dt11 (step S11). In the example of FIG. 1, the terminal device 10-1 used by the user U1 has a position LC11 at which the position of the terminal device 10-1 (user U1) at the date and time dt11 is the position LC11 by the function of detecting predetermined position information such as GPS. Get context information to indicate that. For example, when the terminal device 10-1 transmits context information indicating that the position of the user U1 is the position LC11 to the estimation device 100, the estimation device 100 acquires context information of the user U1 at the date dt11.

そして、端末装置10−1は、日時dt12において、ユーザU2が利用する端末装置10−2と近接通信を行う(ステップS12)。例えば、端末装置10−1と端末装置10−2とは、Bluetooth(登録商標)等の機能により、日時dt12において、すれ違い通信を行う。すなわち、端末装置10−1や端末装置10−2は、日時dt12において、ユーザU1がユーザU2と近傍に位置したことを示す情報を検知する。例えば、端末装置10−1や端末装置10−2は、日時dt12において、ユーザU1がユーザU2とすれ違ったことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、端末装置10−1と端末装置10−2とのいずれか一方のみが、日時dt12において、ユーザU1がユーザU2とすれ違ったことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt12において、ユーザU1とユーザU2とが近接したことを示す共通行動情報(コンテキスト情報)を取得する(ステップS13)。例えば、推定装置100は、日時dt12において、ユーザU1とユーザU2とがすれ違ったことを示す共通行動情報を取得する。   Then, the terminal device 10-1 performs near-field communication with the terminal device 10-2 used by the user U2 at the date and time dt12 (step S12). For example, the terminal device 10-1 and the terminal device 10-2 perform passing communication at the date and time dt12 by a function such as Bluetooth (registered trademark). That is, the terminal device 10-1 and the terminal device 10-2 detect information indicating that the user U1 is located near the user U2 at the date and time dt12. For example, the terminal device 10-1 and the terminal device 10-2 collect context information indicating that the user U1 has passed the user U2 at the date and time dt12, and transmit the context information to the estimation device 100. Note that only one of the terminal device 10-1 and the terminal device 10-2 may transmit context information indicating that the user U1 has passed the user U2 to the estimation device 100 at the date dt12. Thereby, the estimation apparatus 100 acquires common action information (context information) indicating that the user U1 and the user U2 approach each other at the date and time dt12 (step S13). For example, the estimation apparatus 100 acquires common action information indicating that the user U1 and the user U2 have passed each other at the date dt12.

そして、推定装置100は、日時dt11におけるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt12におけるユーザU2の位置を推定する(ステップS14)。例えば、推定装置100は、日時dt11におけるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、ユーザU2がユーザU1と近接通信を行った位置を推定する。   Then, the estimation apparatus 100 estimates the position of the user U2 at the date dt12 based on the position LC11 of the user U1 at the date dt11 and the common action information indicating that the user U1 and the user U2 approach at the date dt12. (Step S14). For example, the estimation apparatus 100 performs proximity communication with the user U1 based on the position LC11 of the user U1 at the date dt11 and the common action information indicating that the user U1 and the user U2 approach at the date dt12. Estimate the position.

図1の例では、推定装置100は、日時dt11と日時dt12との間の時間(以下、「経過時間」ともいう)と、ユーザU1の歩行速度に基づいて、日時dt12におけるユーザU2の位置を推定する。例えば、推定装置100は、ユーザ情報記憶部121(図6参照)に示すようなユーザU1の歩行速度WS1に基づいて、ユーザU1が経過時間において位置LC11から移動可能な範囲を推定する。なお、推定装置100は、ユーザU1に対応する歩行速度を有しない場合、ユーザU1が属するユーザ属性、すなわち20代男性の平均的な歩行速度に基づいて、ユーザU1が経過時間において位置LC11から移動可能な範囲を推定してもよい。   In the example of FIG. 1, the estimation apparatus 100 determines the position of the user U2 at the date dt12 based on the time between the date dt11 and the date dt12 (hereinafter, also referred to as “elapsed time”) and the walking speed of the user U1. presume. For example, the estimation apparatus 100 estimates the movable range of the user U1 from the position LC11 in the elapsed time based on the walking speed WS1 of the user U1 as shown in the user information storage unit 121 (see FIG. 6). If the estimation device 100 does not have the walking speed corresponding to the user U1, the user U1 moves from the position LC11 in the elapsed time based on the user attribute to which the user U1 belongs, that is, the average walking speed of a 20's male. The possible range may be estimated.

例えば、推定装置100は、ユーザU1の歩行速度が「6km/h(キロメートル毎時)」であり、日時dt11と日時dt12との間の経過時間が30分である場合、ユーザU1が経過時間において、約「3km(=6*0.5)」だけ移動可能であると推定する。この場合、推定装置100は、位置LC11を中心とする半径3kmの円周状において、ユーザU1とユーザU2とがすれ違ったと推定する。   For example, when the walking speed of the user U1 is “6 km / h (kilometers per hour)” and the elapsed time between the date and time dt11 and the date and time dt12 is 30 minutes, the estimation device 100 determines that the user U1 is in the elapsed time It is estimated that it can move by about "3 km (= 6 * 0.5)". In this case, the estimating apparatus 100 estimates that the user U1 and the user U2 have passed each other around a radius of 3 km centered on the position LC11.

図1の例では、推定装置100は、日時dt12において、ユーザU1とユーザU2とが円CR11上のいずれかの位置ですれ違ったことと推定する。すなわち、推定装置100は、日時dt12におけるユーザU2の位置が円CR11上のいずれかの位置であると推定する。なお、図1中の円CR11が所定の幅(例えば1mや50m等)を有する円環状であってもよく、推定装置100は、ユーザU2がその円環状の円CR11内のどこかに位置すると推定してもよい。なお、推定装置100は、ユーザU1についても同様に、日時dt12におけるユーザU2の位置が円CR11上のいずれかの位置であると推定してもよい。   In the example of FIG. 1, the estimation apparatus 100 estimates that the user U1 and the user U2 pass each other at any position on the circle CR11 at the date dt12. That is, the estimation apparatus 100 estimates that the position of the user U2 at the date and time dt12 is any position on the circle CR11. Note that the circle CR11 in FIG. 1 may be an annular shape having a predetermined width (for example, 1 m, 50 m, etc.), and the estimation device 100 assumes that the user U2 is located somewhere in the annular circle CR11. It may be estimated. Note that the estimation apparatus 100 may also estimate that the position of the user U2 at the date and time dt12 is any position on the circle CR11 for the user U1.

このように、推定装置100は、ユーザU2以外のユーザであるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt12におけるユーザU2の位置を推定することができる。このように、推定装置100は、位置情報が取得されていないユーザであっても、他のユーザの情報や他のユーザとの共通行動情報を用いることにより、適切にそのユーザの位置を推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。   As described above, the estimation apparatus 100 uses the user at the date dt12 based on the position LC11 of the user U1 other than the user U2 and the common action information indicating that the user U1 and the user U2 approach each other at the date dt12. The position of U2 can be estimated. Thus, the estimation apparatus 100 appropriately estimates the position of the user by using information of another user or common behavior information with another user, even if the user has not acquired position information. be able to. Therefore, the estimation device 100 can appropriately estimate the context of the user.

〔1−1−1.道路情報の利用〕
また、推定装置100は、他のユーザのコンテキスト情報や共通行動情報に加えて、道路情報を用いることにより、ユーザの位置を推定してもよい。例えば、推定装置100は、道路情報に基づいて、ユーザの位置の候補を絞り込んでもよい。
[1-1-1. Use of road information]
Further, the estimation device 100 may estimate the position of the user by using road information in addition to the context information and the common action information of other users. For example, the estimation apparatus 100 may narrow down the candidates for the position of the user based on the road information.

推定装置100は、道路情報を取得する(ステップS15)。図1の例では、地図MP11内の道路情報を取得する。例えば、推定装置100は、道路地図情報記憶部125(図5参照)から地図MP11内の道路情報を取得する。図1の例では、推定装置100は、図1中の地図MP11内に示すような道路情報RD11を取得する。なお、推定装置100は、所定の外部装置から地図MP11内の道路情報を取得してもよい。例えば、推定装置100は、道路地図サービスを提供するサービス提供装置から地図MP11内の道路情報を取得してもよい。   The estimation device 100 acquires road information (step S15). In the example of FIG. 1, road information in the map MP11 is acquired. For example, the estimation apparatus 100 acquires road information in the map MP11 from the road map information storage unit 125 (see FIG. 5). In the example of FIG. 1, the estimation device 100 acquires road information RD11 as shown in the map MP11 in FIG. Note that the estimation device 100 may acquire road information in the map MP11 from a predetermined external device. For example, the estimation device 100 may acquire road information in the map MP11 from a service providing device that provides a road map service.

そして、推定装置100は、図1中の円CR11と、道路情報RD11とに基づいて、日時dt12におけるユーザU2の位置を推定する(ステップS16)。例えば、推定装置100は、図1中の円CR11と、道路情報RD11とに基づいて、日時dt12におけるユーザU2の位置を円CR11から絞り込む。具体的には、推定装置100は、図1中の円CR11と、道路情報RD11とが交わる地点(位置)を、日時dt12におけるユーザU2の位置として推定する。図1の例では、推定装置100は、図1中の円CR11と、道路情報RD11とが交わる6つの位置LC1〜LC6を、日時dt12におけるユーザU2の位置として推定する。   Then, the estimation apparatus 100 estimates the position of the user U2 at the date dt12 based on the circle CR11 in FIG. 1 and the road information RD11 (step S16). For example, the estimation apparatus 100 narrows down the position of the user U2 at the date dt12 from the circle CR11 based on the circle CR11 in FIG. 1 and the road information RD11. Specifically, the estimation apparatus 100 estimates a point (position) where the circle CR11 in FIG. 1 intersects with the road information RD11 as the position of the user U2 at the date dt12. In the example of FIG. 1, the estimation device 100 estimates six positions LC1 to LC6 where the circle CR11 in FIG. 1 intersects the road information RD11 as the position of the user U2 at the date dt12.

このように、推定装置100は、道路情報RD11を用いることにより、日時dt12におけるユーザU2の位置を、図1中の円CR11から6つの位置LC1〜LC6まで絞り込むことができる。このように、推定装置100は、他のユーザのコンテキスト情報や共通行動情報に加えて、道路情報を用いることにより、適切にユーザの位置を推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。   Thus, the estimation apparatus 100 can narrow down the position of the user U2 at the date dt12 from the circle CR11 to six positions LC1 to LC6 by using the road information RD11. As described above, the estimation apparatus 100 can appropriately estimate the position of the user by using the road information in addition to the context information and the common action information of the other users. Therefore, the estimation device 100 can appropriately estimate the context of the user.

このように、推定装置100は、ユーザU2以外のユーザであるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt12におけるユーザU2の位置を推定することができる。このように、推定装置100は、位置情報が取得されていないユーザであっても、他のユーザの情報や他のユーザとの共通行動情報を用いることにより、適切にそのユーザの位置を推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。図1の例では、推定装置100は、位置情報が取得できていないユーザU2の日時dt12における位置情報を、他のユーザU1の情報により補完することができる。このように、推定装置100は、コンテキスト情報が取得できていない日時におけるユーザのコンテキスト情報を補完することができる。   As described above, the estimation apparatus 100 uses the user at the date dt12 based on the position LC11 of the user U1 other than the user U2 and the common action information indicating that the user U1 and the user U2 approach each other at the date dt12. The position of U2 can be estimated. Thus, the estimation apparatus 100 appropriately estimates the position of the user by using information of another user or common behavior information with another user, even if the user has not acquired position information. be able to. Therefore, the estimation device 100 can appropriately estimate the context of the user. In the example of FIG. 1, the estimation apparatus 100 can complement the position information at the date dt12 of the user U2 whose position information has not been acquired, with the information of the other user U1. As described above, the estimation apparatus 100 can supplement the context information of the user at the date and time when the context information can not be acquired.

〔1−2.第1ユーザが二人の場合〕
なお、図1の例では、ユーザU2の位置を推定する日時dt12が、ユーザU1が位置LC11に位置した日時dt11よりも後である場合を示したが、コンテキストの推定対象となる日時は、いずれの日時であってもよい。例えば、ユーザU2の位置を推定する日時が、ユーザU1の位置が検知された日時よりも前であってもよい。また、第1ユーザの数は一人に限らず、二人以上であってもよい。これらの点について、図2を用いて説明する。
[1-2. When the first user is two people]
In the example shown in FIG. 1, the date / time dt12 for estimating the position of the user U2 is later than the date / time dt11 for which the user U1 is located at the position LC11. The date and time of For example, the date and time when the position of the user U2 is estimated may be earlier than the date and time when the position of the user U1 is detected. Also, the number of first users is not limited to one, and may be two or more. These points will be described with reference to FIG.

図2に示す地図情報MP21(以下、単に「地図MP21」ともいう)は、ユーザU1やユーザU2等の位置を模式的に示す。また、地図MP21に示す、位置LC21や位置LC31は、具体的な緯度経度を示す情報であってもよい。   The map information MP21 (hereinafter, also simply referred to as "map MP21") shown in FIG. 2 schematically indicates the positions of the user U1, the user U2, and the like. Further, the position LC21 and the position LC31 illustrated in the map MP21 may be information indicating specific latitude and longitude.

まず、端末装置10−1は、日時dt21において、ユーザU2が利用する端末装置10−2と近接通信を行う(ステップS21)。例えば、端末装置10−1と端末装置10−2とは、Bluetooth(登録商標)等の機能により、日時dt21において、すれ違い通信を行う。すなわち、端末装置10−1や端末装置10−2は、日時dt21において、ユーザU1がユーザU2と近傍に位置したことを示す情報を検知する。例えば、端末装置10−1や端末装置10−2は、日時dt21において、ユーザU1がユーザU2とすれ違ったことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、端末装置10−1と端末装置10−2とのいずれか一方のみが、日時dt21において、ユーザU1がユーザU2とすれ違ったことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt21において、ユーザU1とユーザU2とが近接したことを示す共通行動情報(コンテキスト情報)を取得する(ステップS22)。例えば、推定装置100は、日時dt21において、ユーザU1とユーザU2とがすれ違ったことを示す共通行動情報を取得する。   First, the terminal device 10-1 performs proximity communication with the terminal device 10-2 used by the user U2 at the date and time dt21 (step S21). For example, the terminal device 10-1 and the terminal device 10-2 perform passing communication at the date and time dt21 using a function such as Bluetooth (registered trademark). That is, the terminal device 10-1 and the terminal device 10-2 detect information indicating that the user U1 is located near the user U2 at the date dt21. For example, the terminal device 10-1 and the terminal device 10-2 collect context information indicating that the user U1 has passed the user U2 at the date and time dt21, and transmit the context information to the estimation device 100. Note that only one of the terminal device 10-1 and the terminal device 10-2 may transmit context information indicating that the user U1 has passed the user U2 to the estimation device 100 at the date dt21. Thereby, the estimation apparatus 100 acquires common action information (context information) indicating that the user U1 and the user U2 approach each other at the date and time dt21 (step S22). For example, the estimation apparatus 100 acquires common action information indicating that the user U1 and the user U2 have passed each other at the date and time dt21.

そして、推定装置100(図5参照)は、日時dt22におけるユーザU1のコンテキスト情報を取得する(ステップS23)。図2の例では、ユーザU1が利用する端末装置10−1は、GPS等の所定の位置情報を検知する機能により、日時dt22における端末装置10−1(ユーザU1)の位置が位置LC21であることを示すコンテキスト情報を取得する。例えば、端末装置10−1がユーザU1の位置が位置LC21であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt22におけるユーザU1のコンテキスト情報を取得する。   Then, the estimation apparatus 100 (see FIG. 5) acquires context information of the user U1 at the date and time dt22 (step S23). In the example of FIG. 2, the terminal device 10-1 used by the user U1 has a position LC21 at which the position of the terminal device 10-1 (user U1) at the date and time dt22 is determined by the function of detecting predetermined position information such as GPS. Get context information to indicate that. For example, when the terminal device 10-1 transmits context information indicating that the position of the user U1 is the position LC21 to the estimation device 100, the estimation device 100 acquires context information of the user U1 at the date dt22.

また、推定装置100(図5参照)は、日時dt23におけるユーザU3のコンテキスト情報を取得する(ステップS24)。図2の例では、ユーザU3が利用する端末装置10−3は、GPS等の所定の位置情報を検知する機能により、日時dt23における端末装置10−3(ユーザU3)の位置が位置LC31であることを示すコンテキスト情報を取得する。例えば、端末装置10−3がユーザU3の位置が位置LC31であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt23におけるユーザU3のコンテキスト情報を取得する。   The estimation apparatus 100 (see FIG. 5) acquires context information of the user U3 at the date and time dt23 (step S24). In the example of FIG. 2, the terminal device 10-3 used by the user U3 has a position LC31 at which the position of the terminal device 10-3 (user U3) at the date and time dt23 is determined by the function of detecting predetermined position information such as GPS. Get context information to indicate that. For example, when the terminal device 10-3 transmits context information indicating that the position of the user U3 is the position LC31 to the estimation device 100, the estimation device 100 acquires context information of the user U3 at the date and time dt23.

そして、端末装置10−3は、日時dt24において、ユーザU2が利用する端末装置10−2と近接通信を行う(ステップS25)。例えば、端末装置10−3と端末装置10−2とは、Bluetooth(登録商標)等の機能により、日時dt24において、すれ違い通信を行う。すなわち、端末装置10−3や端末装置10−2は、日時dt24において、ユーザU3がユーザU2と近傍に位置したことを示す情報を検知する。例えば、端末装置10−3や端末装置10−2は、日時dt24において、ユーザU3がユーザU2とすれ違ったことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、端末装置10−3と端末装置10−2とのいずれか一方のみが、日時dt24において、ユーザU3がユーザU2とすれ違ったことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt24において、ユーザU3とユーザU2とが近接したことを示す共通行動情報(コンテキスト情報)を取得する(ステップS26)。例えば、推定装置100は、日時dt24において、ユーザU3とユーザU2とがすれ違ったことを示す共通行動情報を取得する。   The terminal device 10-3 performs near-field communication with the terminal device 10-2 used by the user U2 at the date and time dt24 (step S25). For example, the terminal device 10-3 and the terminal device 10-2 perform passing communication at the date and time dt24 by a function such as Bluetooth (registered trademark). That is, the terminal device 10-3 and the terminal device 10-2 detect information indicating that the user U3 is located near the user U2 at the date and time dt24. For example, the terminal device 10-3 and the terminal device 10-2 collect context information indicating that the user U3 has passed the user U2 at the date and time dt24, and transmit the context information to the estimation device 100. Note that only one of the terminal device 10-3 and the terminal device 10-2 may transmit context information indicating that the user U3 has passed the user U2 to the estimation device 100 at the date dt24. Thereby, the estimation apparatus 100 acquires common action information (context information) indicating that the user U3 and the user U2 approach each other at the date and time dt24 (step S26). For example, the estimation apparatus 100 acquires common action information indicating that the user U3 and the user U2 have passed each other at the date and time dt24.

そして、推定装置100は、日時dt21においてユーザU1とユーザU2とが近接したことを示す共通行動情報と、日時dt22におけるユーザU1の位置LC21とに基づいて、日時dt21におけるユーザU2の位置を推定する(ステップS27)。例えば、推定装置100は、日時dt21においてユーザU1とユーザU2とが近接したことを示す共通行動情報と、日時dt22におけるユーザU1の位置LC21とに基づいて、ユーザU2がユーザU1と近接通信を行った位置を推定する。例えば、図1と同様に、推定装置100は、日時dt21から日時dt22までの経過時間とユーザU1の歩行速度に基づいて、位置LC21を中心とし、ユーザU1が経過時間において移動可能な距離を半径とする円(「第1円」とする)を推定する。   Then, the estimation apparatus 100 estimates the position of the user U2 at the date dt21 based on the common action information indicating that the user U1 and the user U2 approach each other at the date dt21, and the position LC21 of the user U1 at the date dt22. (Step S27). For example, in the estimation apparatus 100, the user U2 performs proximity communication with the user U1 based on the common behavior information indicating that the user U1 and the user U2 approach at the date dt21 and the position LC21 of the user U1 at the date dt22. Estimate the position. For example, as in FIG. 1, the estimation apparatus 100 centers the position LC21 on the basis of the elapsed time from the date and time dt21 to the date and time dt22 and the walking speed of the user U1 and radiuses the distance that the user U1 can move in the elapsed time Estimate the circle to be taken ("the first circle").

また、推定装置100は、日時dt23におけるユーザU3の位置LC31と、日時dt24においてユーザU3とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt24におけるユーザU2の位置を推定する(ステップS28)。例えば、推定装置100は、日時dt23におけるユーザU3の位置LC31と、日時dt24においてユーザU3とユーザU2とが近接したことを示す共通行動情報とに基づいて、ユーザU3がユーザU2と近接通信を行った位置を推定する。例えば、図1と同様に、推定装置100は、日時dt23から日時dt24までの経過時間とユーザU3の歩行速度に基づいて、位置LC31を中心とし、ユーザU3が経過時間において移動可能な距離を半径とする円(「第2円」とする)を推定する。   Further, the estimation apparatus 100 estimates the position of the user U2 at the date dt24 based on the position LC31 of the user U3 at the date dt23 and the common action information indicating that the user U3 and the user U2 approach at the date dt24. (Step S28). For example, estimation apparatus 100 performs proximity communication with user U2 based on position LC31 of user U3 at date dt23 and common action information indicating that user U3 and user U2 approach at date dt24. Estimate the position. For example, as in FIG. 1, the estimation apparatus 100 centers the position LC31 on the basis of the elapsed time from the date dt23 to the date dt24 and the walking speed of the user U3 and radiuses the distance that the user U3 can move in the elapsed time. Estimate the circle to be taken ("the second circle").

そして、推定装置100は、ユーザU2の位置の推定対象となる日時dt21と日時dt24との間の経過時間と、ユーザU2の歩行速度に基づいて、第1円におけるユーザU2の位置や第2円におけるユーザU2の位置を絞り込む。例えば、推定装置100は、日時dt21と日時dt24との間の経過時間においてユーザU2が移動可能な距離(以下、「移動距離」ともいう)に基づいて、第1円におけるユーザU2の位置や第2円におけるユーザU2の位置を絞り込む。   Then, the estimation apparatus 100 determines the position of the user U2 in the first circle and the second circle based on the elapsed time between the date and time dt21 and the date and time dt24 for which the position of the user U2 is to be estimated and the date and time dt24. The position of the user U2 in is narrowed down. For example, the estimation apparatus 100 determines the position of the user U2 in the first circle or the first distance based on the distance that the user U2 can move in the elapsed time between the date dt21 and the date dt24 (hereinafter, also referred to as “moving distance”). The position of the user U2 in 2 yen is narrowed down.

例えば、推定装置100は、日時dt21におけるユーザU2の位置が、第2円の円周上のいずれかの点との間の距離が移動距離以内となる第1円の円弧CA21上であると推定する。なお、図2中の円弧CA21は、所定の幅(例えば1mや50m等)を有してもよく、ユーザU2が幅を有する円弧CA21内のどこかに位置すると推定してもよい。すなわち、推定装置100は、日時dt21におけるユーザU2の位置を、第1円よりも絞り込まれた円弧CA21と推定する。   For example, the estimation apparatus 100 estimates that the position of the user U2 at the date and time dt21 is on the arc CA21 of the first circle in which the distance to any point on the circumference of the second circle is within the movement distance. Do. Note that the arc CA21 in FIG. 2 may have a predetermined width (for example, 1 m, 50 m, etc.), and it may be estimated that the user U2 is located somewhere in the arc CA21 having a width. That is, the estimation apparatus 100 estimates that the position of the user U2 at the date dt21 is a circular arc CA21 narrowed more than the first circle.

また、例えば、推定装置100は、日時dt24におけるユーザU2の位置が、第1円の円周上のいずれかの点との間の距離が移動距離以内となる第2円の円弧CA31上であると推定する。なお、図2中の円弧CA31は、所定の幅(例えば1mや50m等)を有してもよく、ユーザU2が幅を有する円弧CA31内のどこかに位置すると推定してもよい。すなわち、推定装置100は、日時dt24におけるユーザU2の位置を、第2円よりも絞り込まれた円弧CA31と推定する。   Also, for example, in the estimation device 100, the position of the user U2 at the date and time dt24 is on the arc CA31 of the second circle in which the distance between any of the points on the circumference of the first circle is within the movement distance. Estimate. In addition, circular arc CA31 in FIG. 2 may have a predetermined width (for example, 1 m, 50 m, etc.), and it may be estimated that user U2 is located somewhere in circular arc CA31 having a width. That is, the estimation apparatus 100 estimates that the position of the user U2 at the date dt24 is a circular arc CA31 narrowed more than the second circle.

このように、推定装置100は、ユーザU2以外の複数の第1ユーザの情報を用いることにより、ユーザU2の位置をより絞り込んで推定することができる。このように、推定装置100は、位置情報が取得されていないユーザであっても、他のユーザの情報や他のユーザとの共通行動情報を用いることにより、適切にそのユーザの位置を推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。   As described above, the estimation apparatus 100 can narrow down and estimate the position of the user U2 by using information of a plurality of first users other than the user U2. Thus, the estimation apparatus 100 appropriately estimates the position of the user by using information of another user or common behavior information with another user, even if the user has not acquired position information. be able to. Therefore, the estimation device 100 can appropriately estimate the context of the user.

〔1−3.第1ユーザが三人以上の場合〕
ここから、図3を用いて、ユーザU2の位置を推定する場合を一例として説明する。図3に示す地図情報MP31−1及び地図情報MP31−2は、ユーザU30の位置の候補地点の絞り込みを示すためのものであり、地図情報MP31−1及び地図情報MP31−2に示す範囲(エリア)は、同一のエリアである。また、以下では、地図情報MP31−1、MP31−2について、特に区別なく説明する場合には、地図情報MP31(以下、単に「地図MP31」ともいう)と記載する。また、地図MP31に示す、三角形は、それぞれユーザU31〜U33を示す。また、地図MP31に示す、ハッチングが付された丸は、各候補地点PT31−1〜PT33−2を示す。各候補地点PT31−1〜PT33−2は、位置を示し、具体的な緯度経度を示す情報であってもよい。
[1-3. When the first user is three or more people]
From here, the case where the position of the user U2 is estimated will be described as an example using FIG. The map information MP31-1 and the map information MP31-2 shown in FIG. 3 are for showing narrowing down of the candidate points of the position of the user U30, and the range (area (area) shown in the map information MP31-1 and the map information MP31-2 ) Are the same area. Further, hereinafter, the map information MP 31-1 and MP 31-2 will be described as map information MP 31 (hereinafter, also simply referred to as “map MP 31”) when the description is made without particular distinction. The triangles shown on the map MP31 indicate the users U31 to U33, respectively. Further, hatched circles shown on the map MP31 indicate candidate points PT31-1 to PT33-2. Each of the candidate points PT31-1 to PT33-2 may be information indicating a position and indicating specific latitude and longitude.

図3の例では、推定装置100は、道路情報を取得する。図3の例では、地図MP31内の道路情報を取得する。例えば、推定装置100は、道路地図情報記憶部125(図5参照)から地図MP31内の道路情報を取得する。図3の例では、推定装置100は、地図MP31内に示すような道路情報RD31を取得する。   In the example of FIG. 3, the estimation device 100 acquires road information. In the example of FIG. 3, the road information in the map MP31 is acquired. For example, the estimation device 100 acquires road information in the map MP31 from the road map information storage unit 125 (see FIG. 5). In the example of FIG. 3, the estimation device 100 acquires road information RD31 as shown in the map MP31.

また、図3の例では、推定装置100は、ユーザU30が、日時dt31において、ユーザU31と近傍に位置したことを示す情報を取得する。例えば、ユーザU30が利用する端末装置10と、ユーザU31が利用する端末装置10とが、Bluetooth(登録商標)等の機能により、日時dt31において、すれ違い通信を行う。また、推定装置100は、日時dt31よりも後の所定の日時におけるユーザU31の位置を取得する。例えば、推定装置100は、図3の地図MP31中のユーザU31に対応する三角形の位置をユーザU31の位置として取得する。   Further, in the example of FIG. 3, the estimation apparatus 100 acquires information indicating that the user U30 is located near the user U31 at the date dt31. For example, the terminal device 10 used by the user U30 and the terminal device 10 used by the user U31 perform passing communication at the date and time dt31 by a function such as Bluetooth (registered trademark). In addition, the estimation apparatus 100 acquires the position of the user U31 at a predetermined date and time after the date and time dt31. For example, the estimation apparatus 100 acquires the position of the triangle corresponding to the user U31 in the map MP31 of FIG. 3 as the position of the user U31.

また、図3の例では、推定装置100は、ユーザU30が、日時dt32において、ユーザU32と近傍に位置したことを示す情報を取得する。例えば、ユーザU30が利用する端末装置10と、ユーザU32が利用する端末装置10とが、Bluetooth(登録商標)等の機能により、日時dt32において、すれ違い通信を行う。また、推定装置100は、日時dt32よりも前の所定の日時におけるユーザU32の位置を取得する。例えば、推定装置100は、図3の地図MP31中のユーザU32に対応する三角形の位置をユーザU32の位置として取得する。   Further, in the example of FIG. 3, the estimation apparatus 100 acquires information indicating that the user U30 is located near the user U32 at the date dt32. For example, the terminal device 10 used by the user U30 and the terminal device 10 used by the user U32 perform passing communication at the date and time dt32 by a function such as Bluetooth (registered trademark). Further, the estimation apparatus 100 acquires the position of the user U32 at a predetermined date and time before the date and time dt32. For example, the estimation apparatus 100 acquires, as the position of the user U32, the position of the triangle corresponding to the user U32 in the map MP31 of FIG.

また、図3の例では、推定装置100は、ユーザU30が、日時dt33において、ユーザU33と近傍に位置したことを示す情報を取得する。例えば、ユーザU30が利用する端末装置10と、ユーザU33が利用する端末装置10とが、Bluetooth(登録商標)等の機能により、日時dt33において、すれ違い通信を行う。また、推定装置100は、日時dt33よりも後の所定の日時におけるユーザU33の位置を取得する。例えば、推定装置100は、図3の地図MP31中のユーザU33に対応する三角形の位置をユーザU33の位置として取得する。   Further, in the example of FIG. 3, the estimation apparatus 100 acquires information indicating that the user U30 is located near the user U33 at the date dt33. For example, the terminal device 10 used by the user U30 and the terminal device 10 used by the user U33 perform passing communication at the date and time dt33 by a function such as Bluetooth (registered trademark). In addition, the estimation apparatus 100 acquires the position of the user U33 at a predetermined date and time after the date and time dt33. For example, the estimation apparatus 100 acquires the position of the triangle corresponding to the user U33 in the map MP31 of FIG. 3 as the position of the user U33.

そして、推定装置100は、日時dt31〜dt33におけるユーザU30の位置を推定する(ステップS31)。例えば、推定装置100は、日時dt31よりも後の所定の日時におけるユーザU31の位置と、日時dt31においてユーザU30とユーザU31とが近接したことを示す共通行動情報とに基づいて、日時dt31におけるユーザU30の位置を推定する。   Then, the estimation apparatus 100 estimates the position of the user U30 at the date and time dt31 to dt33 (step S31). For example, based on the position of user U31 at a predetermined date and time after date and time dt31, and the common action information indicating that user U30 and user U31 approach each other at date and time dt31, estimation device 100 determines the user at date and time dt31 Estimate the position of U30.

図3の例では、推定装置100は、日時dt31において、ユーザU30とユーザU31とが円CR31上のいずれかの位置ですれ違ったことと推定する。また、推定装置100は、図3中の円CR31と、道路情報RD31とに基づいて、日時dt31におけるユーザU30の位置を推定する。具体的には、推定装置100は、図3中の円CR31と、道路情報RD31とが交わる地点(位置)を、日時dt31におけるユーザU30の位置として推定する。例えば、推定装置100は、図3中の地点PT31−1、PT31−2を含む円CR31と、道路情報RD31とが交わる地点(位置)を、日時dt31におけるユーザU30の位置として推定する。   In the example of FIG. 3, the estimation apparatus 100 estimates that the user U30 and the user U31 pass each other at any position on the circle CR31 at the date dt31. Further, the estimation apparatus 100 estimates the position of the user U30 at the date dt31 based on the circle CR31 in FIG. 3 and the road information RD31. Specifically, the estimation apparatus 100 estimates a point (position) where the circle CR31 in FIG. 3 intersects with the road information RD31 as the position of the user U30 at the date dt31. For example, the estimation apparatus 100 estimates a point (position) where the circle CR31 including the points PT31-1 and PT31-2 in FIG. 3 and the road information RD31 intersect as the position of the user U30 at the date dt31.

例えば、推定装置100は、日時dt32よりも前の所定の日時におけるユーザU32の位置と、日時dt32においてユーザU30とユーザU32とが近接したことを示す共通行動情報とに基づいて、日時dt32におけるユーザU30の位置を推定する。   For example, based on the position of the user U32 at a predetermined date and time before the date and time dt32 and the common action information indicating that the user U30 and the user U32 approach each other at the date and time dt32, the estimation device 100 determines the user at the date and time dt32 Estimate the position of U30.

図3の例では、推定装置100は、日時dt32において、ユーザU30とユーザU32とが円CR32上のいずれかの位置ですれ違ったことと推定する。また、推定装置100は、図3中の円CR32と、道路情報RD31とに基づいて、日時dt32におけるユーザU30の位置を推定する。具体的には、推定装置100は、図3中の円CR32と、道路情報RD31とが交わる地点(位置)を、日時dt32におけるユーザU30の位置として推定する。例えば、推定装置100は、図3中の地点PT32−1〜PT32−4を含む円CR31と、道路情報RD31とが交わる地点(位置)を、日時dt32におけるユーザU30の位置として推定する。   In the example of FIG. 3, the estimation apparatus 100 estimates that the user U30 and the user U32 pass each other at any position on the circle CR32 at the date dt32. Further, the estimation apparatus 100 estimates the position of the user U30 at the date dt32 based on the circle CR32 in FIG. 3 and the road information RD31. Specifically, the estimation apparatus 100 estimates a point (position) where the circle CR32 in FIG. 3 intersects with the road information RD31 as the position of the user U30 at the date and time dt32. For example, the estimation apparatus 100 estimates a point (position) where the circle CR31 including the points PT32-1 to PT32-4 in FIG. 3 and the road information RD31 intersect as the position of the user U30 at the date dt32.

例えば、推定装置100は、日時dt33よりも後の所定の日時におけるユーザU33の位置と、日時dt33においてユーザU30とユーザU33とが近接したことを示す共通行動情報とに基づいて、日時dt33におけるユーザU30の位置を推定する。   For example, based on the position of the user U33 at a predetermined date and time after the date and time dt33 and the common action information indicating that the user U30 and the user U33 approach each other at the date and time dt33, the estimation device 100 determines the user at the date and time dt33 Estimate the position of U30.

図3の例では、推定装置100は、日時dt33において、ユーザU30とユーザU33とが円CR33上のいずれかの位置ですれ違ったことと推定する。また、推定装置100は、図3中の円CR33と、道路情報RD31とに基づいて、日時dt33におけるユーザU30の位置を推定する。具体的には、推定装置100は、図3中の円CR33と、道路情報RD31とが交わる地点(位置)を、日時dt33におけるユーザU30の位置として推定する。例えば、推定装置100は、図3中の地点PT33−1、PT33−2を含む円CR33と、道路情報RD31とが交わる地点(位置)を、日時dt33におけるユーザU30の位置として推定する。   In the example of FIG. 3, the estimation apparatus 100 estimates that the user U30 and the user U33 pass each other at any position on the circle CR33 at the date dt33. Further, the estimation apparatus 100 estimates the position of the user U30 at the date dt33 based on the circle CR33 in FIG. 3 and the road information RD31. Specifically, the estimation apparatus 100 estimates a point (position) where the circle CR33 in FIG. 3 intersects with the road information RD31 as the position of the user U30 at the date dt33. For example, the estimation apparatus 100 estimates a point (position) where the circle CR33 including the points PT33-1 and PT33-2 in FIG. 3 intersects the road information RD31 as the position of the user U30 at the date dt33.

そして、推定装置100は、日時dt31〜dt33におけるユーザU30の位置の候補(候補地点)を絞り込む(ステップS32)。例えば、推定装置100は、日時dt31における地点PT31−1、PT31−2、日時dt32における地点PT32−1〜PT32−4、日時dt33における地点PT33−1、PT33−2の位置関係に基づいて、各日時dt31〜dt33における候補地点を絞り込む。   Then, the estimation apparatus 100 narrows down candidates (candidate points) of the position of the user U30 at the dates and times dt31 to dt33 (step S32). For example, the estimation apparatus 100 is based on the positional relationship between the points PT31-1 and PT31-2 at the date dt31, the points PT32-1 to PT32-4 at the date dt32, and the points PT33-1 and PT33-2 at the date dt33. The candidate points at the date and time dt31 to dt33 are narrowed down.

例えば、推定装置100は、日時dt33における地点PT33−1、PT33−2のうち、地点PT33−1が日時dt31に対応する地点の方が日時dt32に対応する地点よりも近接するため、地点PT33−1を候補地点から除外する。これにより、例えば、推定装置100は、日時dt33における候補地点を地点PT33−2に絞り込む。   For example, among the points PT33-1 and PT33-2 at the date and time dt33, the estimation device 100 places the point PT33-1 corresponding to the date and time dt31 closer to the point corresponding to the date and time dt32. Exclude 1 from candidate points. Thereby, for example, the estimation device 100 narrows down the candidate points at the date dt33 to the point PT33-2.

そして、推定装置100は、日時dt32における地点PT32−1〜PT32−4のうち、日時dt31における地点PT31−1、PT31−2と、日時dt33における地点PT33−2との間の経路に位置しない地点PT32−3、PT32−4を候補地点から除外する。これにより、例えば、推定装置100は、日時dt32における候補地点を地点PT32−1、PT32−2に絞り込む。   Then, among the points PT32-1 to PT32-4 at the date and time dt32, the estimation device 100 is not located on the route between the points PT31-1 and PT31-2 at the date and time dt31 and the point PT33-2 at the date and time dt33. PT32-3 and PT32-4 are excluded from the candidate points. Thus, for example, the estimation apparatus 100 narrows down the candidate points at the date and time dt32 to the points PT32-1 and PT32-2.

このように、推定装置100は、三人以上の第1ユーザの情報を用いることにより、各日時におけるユーザの位置を精度よく絞り込むことができる。図3の例では、推定装置100は、3つの日時における候補地点間の関係に基づく経路に応じて、各日時の候補地点を絞り込むことにより、ユーザの位置を精度よく推定することができる。すなわち、推定装置100は、複数の第1ユーザの端末装置10(マルチピア)から取得される情報を用いることにより、第2ユーザの位置を精度よく絞り込むことができる。   As described above, the estimation apparatus 100 can narrow down the position of the user at each date and time with high accuracy by using information of three or more first users. In the example of FIG. 3, the estimation apparatus 100 can accurately estimate the position of the user by narrowing down the candidate points of each date according to the route based on the relationship between the candidate points at the three dates. That is, the estimation apparatus 100 can narrow down the position of the second user with high accuracy by using the information acquired from the terminal devices 10 (multipeers) of the plurality of first users.

例えば、推定装置100は、信号で立ち止まったりするなど、ユーザの移動が等速ではない場合であっても、複数の第1ユーザの情報を用いて、移動経路を推定することにより、第2ユーザの位置の候補を精度よく絞り込むことができる。例えば、推定装置100は、複数の第1ユーザとの共通行動情報を用いることにより、異常検出等により、おかしなデータを除去することができる。例えば、推定装置100は、GPS等により取得された第1ユーザの位置が誤差を含んでいる場合であっても、複数の第1ユーザの情報を用いることにより、各日時における候補を絞り込むことができる。例えば、推定装置100は、複数の第1ユーザの情報を用いることにより、各日時における候補間の関係に基づいて、各日時における候補を絞り込むことができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。   For example, even if the movement of the user is not at the same speed, such as stopping at a signal, the estimation device 100 estimates the movement path by using information on a plurality of first users. It is possible to narrow down the candidates for the position of For example, the estimation apparatus 100 can remove strange data by abnormality detection or the like by using common action information with a plurality of first users. For example, even if the position of the first user acquired by GPS or the like includes an error, the estimation apparatus 100 may narrow down the candidates at each date and time by using information of a plurality of first users. it can. For example, the estimation apparatus 100 can narrow down the candidates at each date and time based on the relationship between the candidates at each date and time by using the information of the plurality of first users. Therefore, the estimation device 100 can appropriately estimate the context of the user.

〔1−4.他の情報の利用〕
図1の例では、日時dt11におけるユーザU1の位置と、日時dt12におけるユーザU1及びユーザU2の近接に基づいて、日時dt12におけるユーザU2の位置を推定する場合を示したが、推定装置100は、他の情報を用いて推定精度を向上させてもよい。例えば、推定装置100は、ユーザU1のスケジュール情報やユーザU2のスケジュール情報を用いて、日時dt12におけるユーザU2の位置の推定精度を向上させてもよい。
[1-4. Use of other information]
The example of FIG. 1 shows the case where the position of the user U2 at the date dt12 is estimated based on the position of the user U1 at the date dt11 and the proximity of the user U1 and the user U2 at the date dt12. Other information may be used to improve the estimation accuracy. For example, the estimation apparatus 100 may improve the estimation accuracy of the position of the user U2 at the date dt12 using the schedule information of the user U1 and the schedule information of the user U2.

例えば、推定装置100は、ユーザ情報記憶部121(図6参照)中に示すユーザU2のスケジュール情報SC2を用いて、日時dt12におけるユーザU2の位置の推定精度を向上させてもよい。例えば、推定装置100は、日時dt11において、ユーザU2が位置LC11よりも地図MP11の左側に位置することを示す予定が含まれる場合、ユーザU2が地図MP11の左側から右側へ移動していると推定してもよい。そして、推定装置100は、日時dt12においてユーザU1とユーザU2とが、円CR11の左側部分のいずれかの位置で近接したと推定してもよい。すなわち、推定装置100は、日時dt12においてユーザU2が、円CR11の左側部分のいずれかの位置に位置すると推定してもよい。   For example, the estimation apparatus 100 may improve the estimation accuracy of the position of the user U2 at the date dt12, using the schedule information SC2 of the user U2 shown in the user information storage unit 121 (see FIG. 6). For example, the estimation apparatus 100 estimates that the user U2 is moving from the left side to the right side of the map MP11 when the schedule indicating that the user U2 is positioned on the left side of the map MP11 with respect to the position LC11 at the date dt11 is included. You may Then, the estimation apparatus 100 may estimate that the user U1 and the user U2 approach each other at any position of the left side portion of the circle CR11 at the date and time dt12. That is, the estimation apparatus 100 may estimate that the user U2 is positioned at any position of the left portion of the circle CR11 at the date and time dt12.

また、例えば、推定装置100は、日時dt12後の日時dt13において、ユーザU1が位置LC11よりも地図MP11の左側に位置することを示す予定が含まれる場合、ユーザU1が地図MP11の右側から左側へ移動していると推定してもよい。そして、推定装置100は、日時dt12においてユーザU1とユーザU2とが、円CR11の左側部分のいずれかの位置で近接したと推定してもよい。すなわち、推定装置100は、日時dt12においてユーザU2が、円CR11の左側部分のいずれかの位置に位置すると推定してもよい。なお、上記は一例であり、推定装置100は、種々の情報を適宜用いて、推定精度を向上させてもよい。   Also, for example, when the estimation device 100 includes a schedule indicating that the user U1 is positioned on the left side of the map MP11 relative to the position LC11 at the date dt13 after the date dt12, the user U1 moves from the right to the left of the map MP11. It may be estimated that it is moving. Then, the estimation apparatus 100 may estimate that the user U1 and the user U2 approach each other at any position of the left side portion of the circle CR11 at the date and time dt12. That is, the estimation apparatus 100 may estimate that the user U2 is positioned at any position of the left portion of the circle CR11 at the date and time dt12. Note that the above is an example, and the estimation device 100 may improve estimation accuracy using various information as appropriate.

〔1−5.他の推定例〕
図1〜図3の例では、第2ユーザのコンテキストとして第2ユーザの位置を推定する場合を一例として説明したが、推定装置100は、種々のコンテキストを推定してもよい。例えば、推定装置100は、第2ユーザのコンテキストとして第2ユーザの移動手段や第2ユーザの状態等を推定してもよい。
[1-5. Other estimation example]
Although the example of estimating the position of the 2nd user as a 2nd user's context was explained as an example in the example of Drawing 1-Drawing 3, estimating device 100 may presume various contexts. For example, the estimation apparatus 100 may estimate the moving means of the second user, the state of the second user, and the like as the context of the second user.

〔1−5−1.移動手段の推定〕
例えば、推定装置100は、ユーザの移動手段を推定してもよい。例えば、推定装置100は、第1ユーザ及び第2ユーザの共通行動情報と、第1ユーザのコンテキスト情報とに基づいて、第2ユーザの移動手段を推定してもよい。この点について、図11を用いて説明する。図11は、実施形態に係る推定処理の一例を示す図である。
[1-5-1. Estimation of moving means]
For example, the estimation device 100 may estimate the moving means of the user. For example, the estimation apparatus 100 may estimate the moving means of the second user based on the common behavior information of the first user and the second user and the context information of the first user. This point will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of estimation processing according to the embodiment.

図11の例では、推定装置100は、二人の第1ユーザであるユーザU61、U62と第2ユーザであるユーザU6との共通行動情報と、ユーザU61、U62の各々のコンテキスト情報に基づいて、ユーザU6の移動手段(交通手段)を推定する場合を示す。なお、ここでいう移動手段には、ユーザをある位置から別の位置まで移動(運送)可能であれば、飛行機等を含む飛行体やバス等を含む車両や新幹線等を含む鉄道等の種々の移動手段(運送手段)が含まれてもよい。   In the example of FIG. 11, the estimation apparatus 100 is based on common behavior information of two first users U61 and U62 and a second user U6, and context information of each of the users U61 and U62. 11 illustrates the case of estimating the moving means (traffic means) of the user U6. In addition, as the moving means mentioned here, it is possible to move the user from one position to another position (carry), various vehicles such as an aircraft including an airplane etc., a vehicle including a bus etc., a railway including a bullet train etc. Means of transport (means of transport) may be included.

図11に示す地図情報MP61(以下、単に「地図MP61」ともいう)は、ユーザU61やユーザU6等の位置を模式的に示す。また、地図MP61に示す、位置LC61や位置LC62は、具体的な緯度経度を示す情報であってもよい。   Map information MP61 (hereinafter, also simply referred to as "map MP61") illustrated in FIG. 11 schematically indicates the positions of the user U61, the user U6, and the like. Further, the position LC61 and the position LC62 shown on the map MP61 may be information indicating specific latitude and longitude.

まず、推定装置100(図5参照)は、日時dt65において、ユーザU61とユーザU6とが同行していることを示す共通行動情報を取得する(ステップS61)。例えば、ユーザU61とユーザU6とが複数回に亘って近接していることを示す共通行動情報を取得する。例えば、推定装置100は、日時dt65を含む所定の期間(例えば15分や1時間)において、ユーザU61が利用する端末装置10と、ユーザU6が利用する端末装置10とが複数回に亘って近接通信を行ったことを示す共通行動情報を取得する。   First, the estimation apparatus 100 (see FIG. 5) acquires common action information indicating that the user U61 and the user U6 are traveling together at the date and time dt 65 (step S61). For example, common action information indicating that the user U61 and the user U6 approach each other multiple times is acquired. For example, in a predetermined period (for example, 15 minutes or one hour) including the date and time dt 65, the estimation device 100 causes the terminal device 10 used by the user U61 and the terminal device 10 used by the user U6 to approach multiple times. Common action information indicating that communication has been performed is acquired.

例えば、ユーザU61が利用する端末装置10と、ユーザU6が利用する端末装置10とは、所定のNFC等の機能により、日時dt65を含む所定の期間において、複数回に亘ってすれ違い通信を行う。すなわち、ユーザU61が利用する端末装置10やユーザU6が利用する端末装置10は、日時dt65を含む所定の期間において、ユーザU61がユーザU6と近傍に位置したことを示す情報を検知する。   For example, the terminal device 10 used by the user U61 and the terminal device 10 used by the user U6 perform passing communication a plurality of times in a predetermined period including the date and time dt 65 by a predetermined function such as NFC. That is, the terminal device 10 used by the user U61 and the terminal device 10 used by the user U6 detect information indicating that the user U61 is located near the user U6 in a predetermined period including the date and time dt65.

例えば、ユーザU61が利用する端末装置10やユーザU6が利用する端末装置10は、日時dt65を含む所定の期間において、ユーザU61がユーザU6と近接していたことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、ユーザU61が利用する端末装置10とユーザU6が利用する端末装置10とのいずれか一方のみが、ユーザU61がユーザU6と近接していたことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt65において、ユーザU61とユーザU6とが同行していたことを示す共通行動情報(コンテキスト情報)を取得する。   For example, the terminal device 10 used by the user U61 and the terminal device 10 used by the user U6 collect context information indicating that the user U61 is in proximity to the user U6 in a predetermined period including the date and time dt 65, and estimate Transmit to device 100. Note that only one of the terminal device 10 used by the user U61 and the terminal device 10 used by the user U6 transmits context information indicating that the user U61 is close to the user U6 to the estimation device 100 It is also good. Thereby, the estimation device 100 acquires common action information (context information) indicating that the user U61 and the user U6 are accompanied at the date dt65.

そして、推定装置100は、日時dt65におけるユーザU61のコンテキスト情報を取得する(ステップS62)。図11の例では、ユーザU61が利用する端末装置10は、GPS等の所定の位置情報を検知する機能により、日時dt65におけるユーザU61が利用する端末装置10(ユーザU61)の位置が位置LC61であることを示すコンテキスト情報を取得する。例えば、ユーザU61が利用する端末装置10がユーザU61の位置が位置LC61であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt65におけるユーザU61のコンテキスト情報を取得する。   Then, the estimation device 100 acquires context information of the user U 61 at the date and time dt 65 (step S 62). In the example of FIG. 11, the terminal device 10 used by the user U61 detects the predetermined position information such as GPS so that the position of the terminal device 10 (user U61) used by the user U61 at the date and time dt65 is the position LC61. Get context information to indicate that there is. For example, when the terminal device 10 used by the user U61 transmits context information indicating that the position of the user U61 is the position LC61 to the estimation device 100, the estimation device 100 acquires context information of the user U61 at the date dt65. Do.

また、推定装置100は、日時dt67において、ユーザU62とユーザU6とが同行していることを示す共通行動情報を取得する(ステップS63)。例えば、ユーザU62とユーザU6とが複数回に亘って近接していることを示す共通行動情報を取得する。例えば、推定装置100は、日時dt67を含む所定の期間(例えば15分や1時間)において、ユーザU62が利用する端末装置10と、ユーザU6が利用する端末装置10とが複数回に亘って近接通信を行ったことを示す共通行動情報を取得する。   Further, the estimation device 100 acquires common action information indicating that the user U62 and the user U6 are traveling together at the date and time dt 67 (step S63). For example, common action information indicating that the user U62 and the user U6 approach each other multiple times is acquired. For example, in a predetermined period (for example, 15 minutes or one hour) including the date and time dt 67, the estimation apparatus 100 causes the terminal device 10 used by the user U62 and the terminal device 10 used by the user U6 to approach multiple times. Common action information indicating that communication has been performed is acquired.

例えば、ユーザU62が利用する端末装置10と、ユーザU6が利用する端末装置10とは、所定のNFC等の機能により、日時dt67を含む所定の期間において、複数回に亘ってすれ違い通信を行う。すなわち、ユーザU62が利用する端末装置10やユーザU6が利用する端末装置10は、日時dt67を含む所定の期間において、ユーザU62がユーザU6と近傍に位置したことを示す情報を検知する。   For example, the terminal device 10 used by the user U62 and the terminal device 10 used by the user U6 perform passing communication a plurality of times in a predetermined period including the date and time dt67 by a predetermined function such as NFC. That is, the terminal device 10 used by the user U62 and the terminal device 10 used by the user U6 detect information indicating that the user U62 is located near the user U6 in a predetermined period including the date and time dt67.

例えば、ユーザU62が利用する端末装置10やユーザU6が利用する端末装置10は、日時dt67を含む所定の期間において、ユーザU62がユーザU6と近接していたことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、ユーザU62が利用する端末装置10とユーザU6が利用する端末装置10とのいずれか一方のみが、ユーザU62がユーザU6と近接していたことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt67において、ユーザU62とユーザU6とが同行していたことを示す共通行動情報(コンテキスト情報)を取得する。   For example, the terminal device 10 used by the user U62 and the terminal device 10 used by the user U6 collect and estimate context information indicating that the user U62 is close to the user U6 in a predetermined period including the date and time dt67. Transmit to device 100. Note that only one of the terminal device 10 used by the user U62 and the terminal device 10 used by the user U6 transmits context information indicating that the user U62 is close to the user U6 to the estimation device 100 It is also good. Thereby, the estimation apparatus 100 acquires common action information (context information) indicating that the user U62 and the user U6 are accompanied at the date and time dt67.

そして、推定装置100は、日時dt67におけるユーザU62のコンテキスト情報を取得する(ステップS64)。図11の例では、ユーザU62が利用する端末装置10は、GPS等の所定の位置情報を検知する機能により、日時dt67におけるユーザU62が利用する端末装置10(ユーザU62)の位置が位置LC62であることを示すコンテキスト情報を取得する。例えば、ユーザU62が利用する端末装置10がユーザU62の位置が位置LC62であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt67におけるユーザU62のコンテキスト情報を取得する。   Then, the estimation apparatus 100 acquires context information of the user U 62 at the date and time dt 67 (step S 64). In the example of FIG. 11, the terminal device 10 used by the user U62 detects the predetermined position information such as GPS so that the position of the terminal device 10 (user U62) used by the user U62 at the date dt67 is the position LC62. Get context information to indicate that there is. For example, the terminal device 10 used by the user U62 transmits context information indicating that the position of the user U62 is the position LC62 to the estimation device 100, whereby the estimation device 100 acquires context information of the user U62 at the date and time dt67. Do.

そして、推定装置100は、ユーザU61、U62と第2ユーザであるユーザU6との共通行動情報と、ユーザU61、U62の各々の位置とに基づいて、ユーザU6の移動手段を推定する(ステップS65)。図11の例では、推定装置100は、日時dt65においてユーザU61とユーザU6とが同行していたことを示す共通行動情報と、日時dt67においてユーザU62とユーザU6とが同行していたことを示す共通行動情報とを用いて、日時dt65から日時dt67の間の移動手段を推定する。すなわち、推定装置100は、日時dt65におけるユーザU61(ユーザU6)の位置LC61から、日時dt67におけるユーザU62(ユーザU6)の位置LC62まで移動する移動手段を推定する。   The estimating apparatus 100 estimates the moving means of the user U6 based on the common behavior information of the users U61 and U62 and the user U6 who is the second user, and the position of each of the users U61 and U62 (step S65). ). In the example of FIG. 11, the estimation apparatus 100 indicates that common behavior information indicating that the user U61 and the user U6 are traveling together at the date and time dt65 and that the user U62 and the user U6 are traveling together at the date and time dt67. The moving means between the date and time dt 65 and the date and time dt 67 is estimated using the common behavior information. That is, the estimation apparatus 100 estimates a moving means that moves from the position LC61 of the user U61 (user U6) at the date dt65 to the position LC62 of the user U62 (user U6) at the date dt67.

例えば、推定装置100は、位置LC61から位置LC62までの距離や日時dt65と日時dt67との間の経過時間に基づいて、ユーザU6の移動手段を推定する。例えば、推定装置100は、位置LC61から位置LC62までの間において提供される複数の移動手段のうち、経過時間に対応する移動手段をユーザU6の移動手段として推定する。   For example, the estimation apparatus 100 estimates the moving means of the user U6 based on the distance from the position LC61 to the position LC62 and the elapsed time between the date and time dt65 and the date and time dt67. For example, among the plurality of moving means provided between the position LC61 and the position LC62, the estimating apparatus 100 estimates the moving means corresponding to the elapsed time as the moving means of the user U6.

図11の例では、位置LC61から位置LC62までの間においては、バスによる移動手段TR61と、新幹線による移動手段TR62と、飛行機による移動手段TR63とが利用可能であるものとする。例えば、推定装置100は、移動手段TR61〜TR63のような、各地点間において提供される移動手段に関する情報(移動手段情報)を道路地図情報記憶部125(図5参照)や外部の情報処理装置から取得する。   In the example of FIG. 11, between the position LC61 and the position LC62, it is assumed that a means of transfer TR61 by bus, a means of transfer TR62 by Shinkansen, and a means of transfer TR63 by airplane are available. For example, the estimation apparatus 100 may use the road map information storage unit 125 (refer to FIG. 5) or the information processing apparatus outside, such as the transportation means TR61 to TR63, regarding the transportation means provided between the points (traveling means information). Get from

例えば、推定装置100は、道路地図情報記憶部125(図5参照)に記憶された上記のような移動手段情報を用いて、ユーザU6の移動手段を推定する。例えば、推定装置100は、外部の情報処理装置から取得した上記のような移動手段情報を用いて、ユーザU6の移動手段を推定してもよい。   For example, the estimation apparatus 100 estimates the moving means of the user U6 using the moving means information as described above stored in the road map information storage unit 125 (see FIG. 5). For example, the estimation apparatus 100 may estimate the moving means of the user U6 using the moving means information as described above acquired from an external information processing apparatus.

また、図11の例では、バスによる移動手段TR61の所要時間は5時間であり、新幹線による移動手段TR62の所要時間は3時間であり、飛行機による移動手段TR63の所要時間は2時間であるものとする。また、日時dt65と日時dt67との間の経過時間は、2時間であるものとする。そのため、図11の例では、推定装置100は、経過時間「2時間」に対応する飛行機による移動手段TR63を、ユーザU6の移動手段として推定する。   Further, in the example of FIG. 11, the required time of the moving means TR61 by bus is 5 hours, the required time of the moving means TR62 by Shinkansen is 3 hours, and the required time of the moving means TR63 by airplane is 2 hours I assume. In addition, an elapsed time between the date and time dt65 and the date and time dt67 is 2 hours. Therefore, in the example of FIG. 11, the estimation apparatus 100 estimates the moving means TR63 by the airplane corresponding to the elapsed time "two hours" as the moving means of the user U6.

このように、推定装置100は、ユーザU61、U62と第2ユーザであるユーザU6との共通行動情報と、ユーザU61、U62の各々の位置とに基づいて、ユーザU6の移動手段を適切に推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。   Thus, the estimation apparatus 100 appropriately estimates the moving means of the user U6 based on the common behavior information of the users U61 and U62 and the user U6 who is the second user, and the position of each of the users U61 and U62. can do. Therefore, the estimation device 100 can appropriately estimate the context of the user.

〔1−5−2.状態の推定〕
また、推定装置100は、ユーザの状態を推定してもよい。例えば、推定装置100は、状態の開始や終了を推定してもよい。例えば、推定装置100は、第1ユーザの状態の遷移に基づいて、第2ユーザの状態を推定してもよい。この点について、以下説明する。以下の説明においては、「busy」は、何らかの事物に注力しており他の事物への即時の対応不可な状態であり、「free」は、特に注力した状態ではなく、即時に対応可能な状態であるものとする。
[1-5-2. Estimation of state]
Further, the estimation device 100 may estimate the state of the user. For example, the estimation device 100 may estimate the start and the end of the state. For example, the estimation apparatus 100 may estimate the state of the second user based on the transition of the state of the first user. This point will be described below. In the following explanation, “busy” is focused on some kind of thing and is in a state where it can not immediately respond to other things, and “free” is not in a state of being particularly focused but is in a state where it is possible to respond immediately Shall be

以下の例では、第2ユーザの状態推定の一例として、第2ユーザが電話できる状態かの推定を行う場合を一例として説明する。すなわち、以下の例では、「busy」は、そのユーザが電話対応不可である場合に対応し、「free」は、そのユーザが電話対応可能である場合に対応する。   In the following example, as an example of state estimation of the second user, the case of estimating whether the second user can make a call will be described as an example. That is, in the following example, "busy" corresponds to the case where the user is not capable of making telephone calls, and "free" corresponds to the case where the user is capable of making telephone calls.

上記のように、推定装置100は、第2ユーザの状態を適切に推定することができる。具体的には、推定装置100は、ある第2ユーザ(第2ユーザAA)がある日時(日時XX)から、第1ユーザ(第1ユーザBB)とある状態(状態ST1)を共有していることを示す共通行動情報を取得する。例えば、推定装置100は、第2ユーザAAが日時XXを含む期間において、第1ユーザBBと電話会議を行うことを示す第2ユーザAAのスケジュール情報を取得する。例えば、推定装置100は、第1ユーザBBと第2ユーザAAとが日時XXにおいて、電話会議を行っていることを示す共通行動情報を取得する。   As described above, the estimation apparatus 100 can appropriately estimate the state of the second user. Specifically, the estimation apparatus 100 shares a state (state ST1) with a first user (first user BB) from a certain date (date and time XX) of a certain second user (second user AA). Get common behavior information that indicates that. For example, the estimation apparatus 100 acquires schedule information of the second user AA indicating that the second user AA performs a conference call with the first user BB in a period including the date and time XX. For example, the estimation apparatus 100 acquires common behavior information indicating that the first user BB and the second user AA are holding a conference call on the date and time XX.

第1ユーザBBは、日時XXよりも後の日時(日時XY)から、第2ユーザAAではなく他のユーザ(ユーザCC)とある状態(状態ST2)を共有していることを示す共通行動情報を取得する。例えば、推定装置100は、第1ユーザBBが日時XYを始点とする期間において、ユーザCCと電話会議を行うことを示す第1ユーザBBのスケジュール情報を取得する。例えば、推定装置100は、第1ユーザBBが日時XYを始点とする期間において、ユーザCCと電話会議を行うことを示す第1ユーザBBのスケジュール情報を、第1ユーザBBのコンテキスト情報として取得する。   Common action information indicating that the first user BB shares a state (state ST2) with another user (user CC) instead of the second user AA from the date and time (date and time XY) after the date and time XX To get For example, the estimation apparatus 100 acquires the schedule information of the first user BB indicating that the conference call is held with the user CC in a period in which the first user BB starts from the date and time XY. For example, the estimation apparatus 100 acquires, as context information of the first user BB, the schedule information of the first user BB indicating that the first user BB holds a conference call with the user CC in a period starting from the date and time XY. .

そして、推定装置100は、日時XXにおける第1ユーザBBと第2ユーザAAとの共通行動情報と、日時XYにおける第1ユーザBBのコンテキスト情報とに基づいて、第2ユーザAAのコンテキストを推定する。例えば、推定装置100は、日時XXにおける第1ユーザBBと第2ユーザAAとの共通行動情報と、日時XYにおける第1ユーザBBのコンテキスト情報とに基づいて、日時XYにおける第2ユーザAAのコンテキストを推定する。   Then, the estimation apparatus 100 estimates the context of the second user AA based on the common behavior information of the first user BB and the second user AA at the date and time XX and the context information of the first user BB at the date and time XY. . For example, based on the common behavior information of the first user BB and the second user AA at the date and time XX, and the context information of the first user BB at the date and time XY, the estimation device 100 determines the context of the second user AA at the date and time XY Estimate

推定装置100は、日時XXにおいて第2ユーザAAと電話会議を行っていた第1ユーザBBが日時XYにおいて他のユーザCCと電話会議を行っているため、第2ユーザAAが日時XYにおいては電話会議を終了していると推定する。そして、推定装置100は、日時XYにおける第2ユーザAAの状態を「free」と推定する。すなわち、推定装置100は、日時XYにおいては、第2ユーザAAが電話できる状態であると推定する。   The estimation apparatus 100 performs a conference call with the second user AA at the date and time XX with the other user CC at the date and time XY, so the second user AA makes a phone call at the date and time XY Estimate that the meeting has ended. Then, the estimation apparatus 100 estimates the state of the second user AA at the date and time XY as "free". That is, the estimation apparatus 100 estimates that the second user AA can make a call on the date and time XY.

このように、上述した例では、推定装置100は、第2日時である日時XXにおける共通行動情報と、第1日時である日時XYにおける第1ユーザBBのコンテキスト情報とに基づいて、日時XYにおける第2ユーザAAのコンテキストを推定する。すなわち、推定装置100は、第2日時における第1ユーザ及び第2ユーザの共通行動と、第2日時よりも後の第1日時における第1ユーザのコンテキスト情報とに基づいて、第1日時における第2ユーザのコンテキストを推定する。具体的には、推定装置100は、第2日時における第1ユーザ及び第2ユーザの共通行動(電話会議)と、第1日時における第1ユーザの状態(他のユーザとの電話)に基づいて、第1日時における第2ユーザの状態(電話可能)を推定する。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。また、推定装置100は、日時XXにおける第2ユーザAAの状態を「busy」と推定してもよい。なお、上記は一例であり、推定装置100は、電話を行っている状態に限らず、種々のユーザの状態を推定してもよい。また、上記の「busy」、「free」は一例であり、「busy」、「free」に限らず、他の状態を推定してもよい。   As described above, in the example described above, the estimation apparatus 100 determines the date and time XY based on the common behavior information at the date and time XX, which is the second date and time, and the context information of the first user BB at the date and time XY, which is the first date and time. Estimate the context of the second user AA. That is, based on the common behavior of the first user and the second user at the second date and time, and the context information of the first user at the first date and time after the second date and time, the estimation device 100 determines the first 2 Estimate the context of the user. Specifically, the estimation apparatus 100 is based on the common behavior (telephone conference) of the first user and the second user at the second date and time, and the state of the first user at the first date and time (telephone with another user). , Estimate the state (telephone available) of the second user at the first date and time. Therefore, the estimation device 100 can appropriately estimate the context of the user. Further, the estimation apparatus 100 may estimate the state of the second user AA at the date and time XX as “busy”. Note that the above is an example, and the estimation device 100 may estimate the states of various users without being limited to the state in which a telephone call is being made. Also, the above “busy” and “free” are examples, and not limited to “busy” and “free”, other states may be estimated.

〔1−6.第1ユーザについて〕
なお、推定装置100は、推定処理に情報を用いる第1ユーザを選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補のうち、推定処理に情報を用いる第1ユーザを選択してもよい。例えば、推定装置100は、推定処理に用いる第1コンテキスト情報を選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補のうち、推定処理に情報を用いる第1ユーザを選択し、選択した第1ユーザの情報を取得してもよい。例えば、推定装置100は、推定処理に用いる第1コンテキスト情報を選択し、取得してもよい。
[1-6. About the first user]
In addition, the estimation apparatus 100 may select the first user who uses information in the estimation process. For example, the estimation apparatus 100 may select, from among the plurality of first user candidates, a first user who uses information for estimation processing. For example, the estimation apparatus 100 may select first context information to be used for the estimation process. For example, the estimation apparatus 100 may select a first user who uses information for estimation processing among a plurality of first user candidates, and may acquire information of the selected first user. For example, the estimation apparatus 100 may select and acquire first context information used for the estimation process.

例えば、第2ユーザが複数のユーザ(候補ユーザ)とすれ違い通信(近接通信)を行っている場合、推定装置100は、候補ユーザ(第1ユーザの候補)から、所定の条件に基づいて第1ユーザを選択してもよい。例えば、推定装置100は、候補ユーザのうち、候補ユーザ自身の挙動が所定の条件を満たすユーザを第1ユーザとして選択してもよい。   For example, when the second user is performing passing communication (proximity communication) with a plurality of users (candidate users), the estimation apparatus 100 sets the first candidate based on a predetermined condition from the candidate users (candidates of the first user). The user may be selected. For example, the estimation apparatus 100 may select, as the first user, a user who satisfies the predetermined condition among the candidate users.

例えば、推定装置100は、すれ違い通信(近接通信)後に走り去ったユーザを第1ユーザとして選択しなくてもよい。例えば、推定装置100は、候補ユーザから、移動速度が所定の閾値以上である等により走り去ったと推定されるユーザを除外してもよい。例えば、推定装置100は、候補ユーザから、走り去ったと推定されるユーザを推定精度の向上に寄与しないユーザとして除外してもよい。   For example, the estimation apparatus 100 may not select a user who has run away after passing communication (proximity communication) as the first user. For example, the estimation apparatus 100 may exclude, from the candidate users, users who are estimated to have run away because the moving speed is equal to or higher than a predetermined threshold. For example, the estimation apparatus 100 may exclude, from the candidate users, users who are estimated to have run away as users who do not contribute to improvement in estimation accuracy.

例えば、推定装置100は、急に立ち止まったり、走ったり不規則な動きをしているユーザを第1ユーザとして選択しなくてもよい。例えば、推定装置100は、候補ユーザから、位置情報の変化が不規則なユーザを除外してもよい。例えば、推定装置100は、候補ユーザから、位置情報の変化が不規則なユーザを推定精度の向上に寄与しないユーザとして除外してもよい。   For example, the estimation apparatus 100 may not select a user who is suddenly stopped, running, or moves irregularly as the first user. For example, the estimation apparatus 100 may exclude, from the candidate users, users whose location information changes irregularly. For example, the estimation apparatus 100 may exclude, from the candidate users, users who do not contribute to the improvement of the estimation accuracy as users whose changes in position information are irregular.

例えば、推定装置100は、上記のような推定精度に関する条件を満たさないユーザが除外された候補ユーザから、第1ユーザを選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補(候補ユーザ)のうち、第2ユーザと同行しているユーザを第1ユーザとして選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補(候補ユーザ)のうち、所定の期間に立ち止まっているユーザを第1ユーザとして選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補(候補ユーザ)のうち、所定の期間に亘って所定の範囲内(例えば5m以内)の位置情報が連続して検知されたユーザを第1ユーザとして選択してもよい。なお、上記は一例であり、推定装置100は、種々の情報を用いて複数の第1ユーザの候補(候補ユーザ)から、第1ユーザを選択してもよい。例えば、推定装置100は、第2ユーザに同行しているユーザや立ち止まっているユーザを、推定精度の向上に寄与する第1ユーザとして選択してもよい。   For example, the estimation apparatus 100 may select the first user from among candidate users excluded from users who do not satisfy the above-mentioned condition regarding estimation accuracy. For example, the estimation apparatus 100 may select, as the first user, a user who is accompanied by the second user among the plurality of first user candidates (candidate users). For example, the estimation apparatus 100 may select a user who has stopped for a predetermined period as the first user among the plurality of first user candidates (candidate users). For example, among the plurality of first user candidates (candidate users), the estimation apparatus 100 may first use, as a first user, a user whose position information within a predetermined range (for example, within 5 m) is continuously detected over a predetermined period. It may be selected as a user. Note that the above is an example, and the estimation apparatus 100 may select the first user from among a plurality of first user candidates (candidate users) using various pieces of information. For example, the estimation apparatus 100 may select the user accompanying the second user or the stationary user as the first user contributing to the improvement of the estimation accuracy.

〔1−7.第2コンテキスト情報の利用について〕
なお、推定装置100は、推定処理により推定した情報(推定情報)を用いて、さらに推定処理を行ってもよい。例えば、推定装置100は、推定処理を再帰的に行ってもよい。すなわち、推定装置100は、取得(検知)されたコンテキスト情報だけでなく、推定されたコンテキスト情報も用いて、推定処理を行ってもよい。例えば、取得(検知)されたコンテキスト情報がスパースな場合、推定装置100は、取得(検知)されたコンテキスト情報だけでなく、推定されたコンテキスト情報も用いて、推定処理を行ってもよい。例えば、取得(検知)されたコンテキスト情報が所定量未満である場合、推定装置100は、取得(検知)されたコンテキスト情報だけでなく、推定されたコンテキスト情報も用いて、推定処理を行ってもよい。
[1-7. Regarding Use of Second Context Information]
The estimation apparatus 100 may further perform estimation processing using information (estimated information) estimated by the estimation processing. For example, the estimation apparatus 100 may perform the estimation process recursively. That is, the estimation apparatus 100 may perform the estimation process using not only the acquired (detected) context information but also the estimated context information. For example, when the acquired (detected) context information is sparse, the estimating apparatus 100 may perform the estimation process using not only the acquired (detected) context information but also the estimated context information. For example, when the acquired (detected) context information is less than the predetermined amount, the estimating apparatus 100 performs estimation processing using not only the acquired (detected) context information but also the estimated context information. Good.

例えば、推定装置100は、第1ユーザのコンテキスト情報を使って推定された第2日時における第2ユーザのコンテキスト情報に基づいて、第1日時及び第2日時のいずれとも異なる第3日時における第3ユーザのコンテキストを推定してもよい。例えば、推定装置100は、第1日時(日時dt11)における第1ユーザ(ユーザU1)のコンテキスト情報を使って推定された第2日時(日時dt12)における第2ユーザ(ユーザU2)のコンテキスト情報に基づいて、第3日時(日時dt13)における第3ユーザ(ユーザU3)のコンテキストを推定してもよい。例えば、推定装置100は、日時dt13においてユーザU2と近接したユーザU3の位置を、日時dt12におけるユーザU2の位置に基づいて、推定してもよい。なお、上記は一例であり、推定装置100は、推定処理により推定した情報(推定情報)を用いて、さらに種々の情報を推定してもよい。   For example, the estimating apparatus 100 may calculate a third date and time at a third date and time that is different from both the first date and the second date based on the second user's context information at the second date and time estimated using the first user's context information. The context of the user may be inferred. For example, the estimating apparatus 100 may set the context information of the second user (user U2) at the second date (date dt12) estimated using the context information of the first user (user U1) at the first date (date dt11). The context of the third user (user U3) at the third date and time (date and time dt13) may be estimated based on that. For example, the estimation apparatus 100 may estimate the position of the user U3 who is close to the user U2 at the date dt13, based on the position of the user U2 at the date dt12. Note that the above is an example, and the estimation apparatus 100 may further estimate various information using information (estimated information) estimated by the estimation process.

〔1−8.システム構成について〕
なお、上記推定処理を実現するシステム構成については、図4に示す推定システム1に限らず種々の態様であってもよい。図4の例では、サーバとしての推定装置100とクライアントとしての端末装置10とを備える構成であり、推定装置100と端末装置10とは別体(別装置)であったが、推定装置100と端末装置10とは一体であってもよい。すなわち、推定システムにおいて、ユーザが利用する各端末装置10が、上述した推定処理を行う推定装置100であってもよい。この場合、推定装置100である端末装置10が、すれ違い通信時等において他の端末装置10からコンテキスト情報等を取得し、取得したコンテキスト情報に基づいて、推定処理を行ってもよい。このように、各端末装置10は、サーバ装置を介さずに、端末装置10間でコンテキスト情報の通信を行ってもよい。例えば、各端末装置10は、いわゆるP2P(Peer to Peer)のような態様により、各端末装置10間でコンテキスト情報の通信を行ったり、共有を行ったりしてもよい。
[1-8. About system configuration]
The system configuration for realizing the above estimation process is not limited to the estimation system 1 shown in FIG. 4 and may be various modes. In the example of FIG. 4, the configuration is provided with the estimation device 100 as a server and the terminal device 10 as a client, and the estimation device 100 and the terminal device 10 are separate bodies (different devices). The terminal device 10 may be integrated. That is, in the estimation system, each terminal device 10 used by the user may be the estimation device 100 that performs the estimation process described above. In this case, the terminal device 10 that is the estimation device 100 may acquire context information and the like from another terminal device 10 during passing communication and the like, and may perform estimation processing based on the acquired context information. Thus, each terminal device 10 may perform communication of context information between the terminal devices 10 without passing through the server device. For example, each terminal device 10 may communicate or share context information between the terminal devices 10 in a mode such as so-called P2P (Peer to Peer).

また、推定システムは、ユーザが利用する各端末装置10が上述した推定処理を行う推定装置100であっても、サーバ装置を備えてもよい。この場合、推定装置100である端末装置10は、推定処理により推定した情報(推定情報)をサーバ装置へ送信したり、推定処理に用いる情報をサーバ装置から取得したりしてもよい。例えば、端末装置10は、地図情報やフライト情報等の移動経路に関する情報等をサーバ装置から取得したりしてもよい。なお、上記は一例であり、推定システムは、どのような構成により実現されてもよい。   Further, the estimation system may be the estimation device 100 in which each of the terminal devices 10 used by the user performs the above-described estimation process, or may include a server device. In this case, the terminal device 10 which is the estimation device 100 may transmit information (estimated information) estimated by the estimation process to the server device, or may acquire information used for the estimation process from the server device. For example, the terminal device 10 may acquire, from the server device, information on moving routes such as map information and flight information. The above is an example, and the estimation system may be realized with any configuration.

〔2.推定装置の構成〕
次に、図5を用いて、実施形態に係る推定装置100の構成について説明する。図5は、実施形態に係る推定装置の構成例を示す図である。図5に示すように、推定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、推定装置100は、推定装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of estimation device]
Next, the configuration of the estimation apparatus 100 according to the embodiment will be described using FIG. FIG. 5 is a diagram showing an example of the configuration of the estimation apparatus according to the embodiment. As shown in FIG. 5, the estimation apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130. The estimation apparatus 100 has an input unit (for example, a keyboard or a mouse) that receives various operations from the administrator of the estimation apparatus 100 or the like, and a display unit (for example, a liquid crystal display or the like) for displaying various information. May be

(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば推定システム1に含まれる端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC). The communication unit 110 is connected to the network by wire or wirelessly, and transmits and receives information to and from, for example, the terminal device 10 included in the estimation system 1.

(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図5に示すように、ユーザ情報記憶部121と、コンテキスト情報記憶部122と、共通行動情報記憶部123と、推定情報記憶部124と、道路地図情報記憶部125とを有する。なお、道路地図情報記憶部125は、図示を省略するが、図1中の地図MP11に示すような地図情報や、道路RD11等のような道路情報等、推定処理に用いる地図や道路に関する各種情報を記憶する。また、地図情報記憶部121は、推定処理に用いる地図や道路に関する情報であれば、どのような情報を記憶してもよい。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 5, the storage unit 120 according to the embodiment includes a user information storage unit 121, a context information storage unit 122, a common action information storage unit 123, an estimated information storage unit 124, and a road map information storage unit. And 125. Although not shown, the road map information storage unit 125 uses map information such as map information shown in map MP11 in FIG. 1 and road information such as road RD11, etc. Remember. Further, the map information storage unit 121 may store any information as long as it is information on a map or a road used for the estimation process.

(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザ属性に関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性情報を記憶する。図6は、実施形態に係るユーザ情報記憶部の一例を示す図である。図6に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「スケジュール情報」、「歩行速度」、「興味」といった項目が含まれる。
(User information storage unit 121)
The user information storage unit 121 according to the embodiment stores various types of information related to user attributes. For example, the user information storage unit 121 stores user attribute information. FIG. 6 is a diagram illustrating an example of the user information storage unit according to the embodiment. The user information storage unit 121 illustrated in FIG. 6 includes items such as “user ID”, “age”, “sex”, “schedule information”, “walking speed”, and “interest”.

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。   "User ID" indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. "Age" indicates the age of the user identified by the user ID. The “age” may be a specific age of the user identified by the user ID, such as 35, for example. Also, “sex” indicates the gender of the user identified by the user ID.

また、「スケジュール情報」は、ユーザIDにより識別されるユーザの行動予定を示すスケジュール情報が記憶される。なお、図6に示す例では、「スケジュール情報」は、「SC1」といった抽象的な符号を図示するが、スケジュール情報にはユーザの予定の内容や日時(期間)等の種々の情報が記憶される。例えば、「スケジュール情報」には、ユーザの電話会議や旅行等に関する予定を示す情報が記憶される。   Further, “schedule information” stores schedule information indicating an action schedule of the user identified by the user ID. In the example shown in FIG. 6, “schedule information” shows an abstract code such as “SC1”, but the schedule information stores various information such as the contents of the user's schedule and the date and time (period). Ru. For example, “schedule information” stores information indicating a schedule for a user's conference call, travel, and the like.

また、「歩行速度」は、ユーザIDにより識別されるユーザの平均的な歩行速度が記憶される。なお、図6に示す例では、「歩行速度」は、「WS1」といった抽象的な符号を図示するが、歩行速度には「5km/h(キロメートル毎時)」等の具体的な数値が記憶されてもよい。例えば、推定装置100は、ユーザの行動パターン等からユーザの歩行速度を推定してもよい。   Further, the “walking speed” stores the average walking speed of the user identified by the user ID. In the example shown in FIG. 6, “walking speed” indicates an abstract code such as “WS1”, but a specific numerical value such as “5 km / h (hours per kilometer)” is stored as the walking speed. May be For example, the estimation device 100 may estimate the walking speed of the user from the user's action pattern or the like.

なお、ユーザに対応する歩行速度が記憶されていない場合、ユーザが属するユーザ属性のユーザの平均的な歩行速度が用いられてもよい。例えば、ユーザU2に対応する歩行速度が記憶されていない場合、ユーザU2が属するユーザ属性、すなわち20代女性の平均的な歩行速度が用いられてもよい。   In addition, when the walking speed corresponding to the user is not stored, the average walking speed of the user having the user attribute to which the user belongs may be used. For example, if the walking speed corresponding to the user U2 is not stored, the user attribute to which the user U2 belongs, that is, the average walking speed of a woman in her twenties may be used.

また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図6に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。   Also, “interest” indicates the interest of the user identified by the user ID. That is, “interesting” indicates an object that the user identified by the user ID is highly interested in. In the example shown in FIG. 6, although one “interest” is illustrated for each user, it may be plural.

例えば、図6に示す例において、ユーザID「U1」により識別されるユーザの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、スケジュール情報が「SC1」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、歩行速度が「WS1」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、「スポーツ」に興味があることを示す。   For example, in the example illustrated in FIG. 6, the age of the user identified by the user ID "U1" is "twenties", and the gender indicates "male". Also, for example, the user identified by the user ID “U1” indicates that the schedule information is “SC1”. Also, for example, the user identified by the user ID “U1” indicates that the walking speed is “WS1”. Also, for example, the user identified by the user ID “U1” indicates that he / she is interested in “sports”.

なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザのデモグラフィック属性に関する情報やサイコグラフィック属性に関する情報を記憶してもよい。例えば、ユーザ情報記憶部121は、自宅の位置(住所)、勤務先の位置(住所)、氏名、家族構成、収入、興味、ライフスタイル等の情報を記憶してもよい。まず、図6では、図示を省略するが、ユーザ情報記憶部121は、各ユーザが利用する端末装置10を識別する情報をユーザに対応付けて記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザU1が利用する端末装置10−1を識別する情報をユーザU1に対応付けて記憶してもよい。   The user information storage unit 121 is not limited to the above, and may store various information according to the purpose. For example, the user information storage unit 121 may store information on demographic attributes of the user and information on psychographic attributes. For example, the user information storage unit 121 may store information such as home position (address), work position (address), name, family structure, income, interest, lifestyle, and the like. First, although not shown in FIG. 6, the user information storage unit 121 may store information identifying the terminal device 10 used by each user in association with the user. For example, the user information storage unit 121 may store information for identifying the terminal device 10-1 used by the user U1 in association with the user U1.

(コンテキスト情報記憶部122)
実施形態に係るコンテキスト情報記憶部122は、ユーザのコンテキストに関する各種情報を記憶する。図7は、実施形態に係るコンテキスト情報記憶部の一例を示す図である。例えば、コンテキスト情報記憶部122は、各ユーザの位置や端末装置10の通信やユーザの行動等の各種のコンテキスト情報を記憶する。図7に示すコンテキスト情報記憶部122には、「ユーザID」、「コンテキストID」、「日時」、「種別」、「内容」といった項目が含まれる。
(Context information storage unit 122)
The context information storage unit 122 according to the embodiment stores various information related to the context of the user. FIG. 7 is a diagram illustrating an example of the context information storage unit according to the embodiment. For example, the context information storage unit 122 stores various pieces of context information such as the position of each user, the communication of the terminal device 10, and the user's action. The context information storage unit 122 illustrated in FIG. 7 includes items such as “user ID”, “context ID”, “date and time”, “type”, and “content”.

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「コンテキストID」は、ユーザのコンテキストを識別する情報を示す。「日時」は、対応するユーザのコンテキストが行われた日時を示す。なお、図7の例では、「dt11」等で図示するが、「日時」には、「2017年10月18日23時41分58秒」等の具体的な日時が記憶されてもよい。また、「種別」は、対応するユーザのコンテキストの種別に関する情報を示す。また、「内容」は、対応するユーザのコンテキストの具体的な内容を示す。   "User ID" indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. Also, “context ID” indicates information that identifies the context of the user. “Date and time” indicates the date and time when the context of the corresponding user was performed. In the example of FIG. 7, although illustrated as “dt 11” or the like, a specific date and time such as “Oct 18, 2017 23:41:58” may be stored in the “date and time”. Also, “type” indicates information on the type of context of the corresponding user. Also, “content” indicates the specific content of the context of the corresponding user.

例えば、図7に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、コンテキストID「AC11」やコンテキストID「AC12」等により各々識別されるコンテキストが取得されたことを示す。   For example, in the example illustrated in FIG. 7, the user (user U1) identified by the user ID “U1” indicates that the context identified by the context ID “AC11” or the context ID “AC12” has been acquired. .

例えば、図7に示す例においてユーザU1は、コンテキストAC11に示すように、日時dt11において、種別が位置のコンテキスト情報が取得されたことを示す。コンテキストAC11は、日時dt11におけるユーザU1の位置が位置「LC11」であることを示す。図7に示す例では、位置「LC11」といった抽象的な符号を図示するが、緯度や経度を示す情報であってもよい。また、例えば、位置「LC11」は、地域名や住所であってもよい。このように、「コンテキストAC*(*は任意の数値)」と記載した場合、そのコンテキストはコンテキストID「AC*」により識別されるコンテキストであることを示す。   For example, in the example illustrated in FIG. 7, as illustrated in the context AC11, the user U1 indicates that context information whose type is the position is acquired at the date and time dt11. The context AC11 indicates that the position of the user U1 at the date and time dt11 is the position “LC11”. In the example shown in FIG. 7, an abstract code such as the position "LC11" is illustrated, but it may be information indicating latitude or longitude. Also, for example, the position “LC11” may be a region name or an address. Thus, when "context AC * (* is any numerical value)" is described, it indicates that the context is the context identified by the context ID "AC *".

また、例えば、図7に示す例においてユーザU1は、コンテキストAC12に示すように、日時dt12において、種別が近接通信のコンテキスト情報が取得されたことを示す。コンテキストAC12は、日時dt12において、ユーザU1が利用する端末装置10−1がユーザU2が利用する端末装置10−2と近接通信を行ったこと、すなわちユーザU1がユーザU2と近傍に位置したことを示す。例えば、コンテキストAC12は、日時dt12において、ユーザU1がユーザU2とすれ違ったことを示す。   Further, for example, in the example illustrated in FIG. 7, as illustrated in the context AC12, the user U1 indicates that the date information dt12 has acquired context information of the type near field communication. The context AC 12 indicates that the terminal device 10-1 used by the user U1 performs near-field communication with the terminal device 10-2 used by the user U2 at the date and time dt12, that is, the user U1 is located near the user U2 Show. For example, the context AC12 indicates that the user U1 has passed the user U2 at the date dt12.

また、例えば、図7に示す例においてユーザU2は、コンテキストAC21に示すように、日時dt12において、種別が近接通信のコンテキスト情報が取得されたことを示す。コンテキストAC21は、日時dt12において、ユーザU2が利用する端末装置10−2がユーザU1が利用する端末装置10−1と近接通信を行ったこと、すなわちユーザU2がユーザU1と近傍に位置したことを示す。   Further, for example, in the example illustrated in FIG. 7, as illustrated in the context AC21, the user U2 indicates that, at the date and time dt12, context information whose type is proximity communication is acquired. The context AC 21 indicates that the terminal device 10-2 used by the user U2 performs near-field communication with the terminal device 10-1 used by the user U1 at the date and time dt12, that is, the user U2 is located near the user U1. Show.

また、例えば、ユーザU2のコンテキストAC22は、推定されたコンテキストに関する推定コンテキストEAC1であることを示す。コンテキストAC22は、日時dt12におけるユーザU2の位置が、円CR11上のいずれかであると推定されたことを示す。   Also, for example, the context AC22 of the user U2 indicates that it is an estimated context EAC1 related to the estimated context. The context AC22 indicates that the position of the user U2 at the date dt12 is estimated to be any one on the circle CR11.

なお、コンテキスト情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図7では、ユーザIDごとにコンテキスト情報がコンテキスト情報記憶部122に記憶される場合を示したが、コンテキスト情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。   The context information storage unit 122 is not limited to the above, and may store various information according to the purpose. Although FIG. 7 shows the case where context information is stored in the context information storage unit 122 for each user ID, the context information is not limited to each user ID, and may be stored, for example, in time sequence.

(共通行動情報記憶部123)
実施形態に係る共通行動情報記憶部123は、共通行動に関する各種情報を記憶する。図8は、実施形態に係る共通行動情報記憶部の一例を示す図である。図8に示す共通行動情報記憶部123は、「共通行動ID」、「内容」、「ユーザID」、「日時」、「コンテキストID」、「行動概要」といった項目が含まれる。
(Common action information storage unit 123)
The common action information storage unit 123 according to the embodiment stores various pieces of information on common actions. FIG. 8 is a diagram illustrating an example of the common behavior information storage unit according to the embodiment. The common action information storage unit 123 illustrated in FIG. 8 includes items such as “common action ID”, “content”, “user ID”, “date and time”, “context ID”, and “action summary”.

「共通行動ID」は、共通行動を識別するための識別情報を示す。「内容」は、共通行動IDにより識別される共通行動の内容を示す。   The “common action ID” indicates identification information for identifying a common action. "Content" indicates the content of the common action identified by the common action ID.

「ユーザID」は、共通行動IDにより識別される共通行動を行ったユーザとして抽出されたユーザを識別するための識別情報を示す。例えば、ユーザU1及びユーザU2は、図1の例に示したユーザU1及びユーザU2に対応する。なお、共通行動を行うユーザの数が3人以上であってもよい。   The “user ID” indicates identification information for identifying the user extracted as the user who has performed the common action identified by the common action ID. For example, the user U1 and the user U2 correspond to the user U1 and the user U2 illustrated in the example of FIG. Note that the number of users who perform the common action may be three or more.

「日時」は、対応するユーザのコンテキストが行われた日時を示す。また、「コンテキストID」は、共通行動として抽出されたユーザのコンテキストを識別する情報を示す。例えば、コンテキストAC12及びコンテキストAC21は、図1の例に示したステップS12における端末装置10−1及び端末装置10−2の近接通信に関するコンテキストに対応する。また、「行動概要」は、対応するユーザが行った共通行動の概要を示す。   “Date and time” indicates the date and time when the context of the corresponding user was performed. Also, “context ID” indicates information identifying the context of the user extracted as the common action. For example, the context AC12 and the context AC21 correspond to the context related to the near field communication of the terminal device 10-1 and the terminal device 10-2 in step S12 illustrated in the example of FIG. 1. Also, “action summary” indicates a summary of common actions performed by the corresponding user.

例えば、図8に示す例において、共通行動ID「CM1」により識別される共通行動情報(共通行動情報CM1)の内容は、「近接」であることを示す。共通行動情報CM1は、ユーザが近接していることを条件として抽出される情報(コンテキスト情報)であることを示す。共通行動情報CM1に対応する行動を共に行ったユーザとして、ユーザU1及びユーザU2が抽出されたことを示す。また、ユーザU1及びユーザU2は、日時dt12において近接したことを示す。また、共通行動情報CM1に対応する行動を共に行ったユーザとして、ユーザU6及びユーザU61が抽出されたことを示す。また、ユーザU6及びユーザU61は、日時dt65において近接したことを示す。   For example, in the example illustrated in FIG. 8, the content of the common behavior information (common behavior information CM1) identified by the common behavior ID “CM1” indicates that the content is “proximity”. The common behavior information CM1 indicates that it is information (context information) extracted on condition that the user is in proximity. It shows that the user U1 and the user U2 are extracted as the user who has performed the action corresponding to the common action information CM1. Also, the user U1 and the user U2 indicate that they have approached at the date and time dt12. It also indicates that the user U6 and the user U61 have been extracted as the users who have performed the action corresponding to the common action information CM1. Further, the user U6 and the user U61 indicate that they approach each other at the date dt65.

なお、共通行動情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。   The common behavior information storage unit 123 may store various information according to the purpose, not limited to the above.

(推定情報記憶部124)
実施形態に係る推定情報記憶部124は、推定された各種情報を記憶する。図9は、実施形態に係る推定情報記憶部の一例を示す図である。図9に示す推定情報記憶部124は、実施形態に係る推定情報記憶部の一例を示す図である。推定情報記憶部124は、推定されたコンテキスト(推定コンテキスト)に関する情報を記憶する。例えば、推定情報記憶部124は、各ユーザの位置や端末装置10の通信やユーザの行動等の各種の推定コンテキスト情報を記憶する。図9に示す推定情報記憶部124には、「ユーザID」、「推定コンテキストID」、「日時」、「種別」、「内容」といった項目が含まれる。
(Estimated information storage unit 124)
The estimated information storage unit 124 according to the embodiment stores various types of estimated information. FIG. 9 is a diagram illustrating an example of the estimated information storage unit according to the embodiment. The estimated information storage unit 124 illustrated in FIG. 9 is a diagram illustrating an example of the estimated information storage unit according to the embodiment. The estimated information storage unit 124 stores information on the estimated context (estimated context). For example, the estimated information storage unit 124 stores various estimated context information such as the position of each user, the communication of the terminal device 10, the action of the user, and the like. The estimated information storage unit 124 illustrated in FIG. 9 includes items such as “user ID”, “estimated context ID”, “date and time”, “type”, and “content”.

「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「推定コンテキストID」は、推定ユーザのコンテキスト(推定コンテキスト)を識別する情報を示す。「日時」は、推定コンテキストに対応する日時を示す。また、「種別」は、対応するユーザの推定コンテキストの種別に関する情報を示す。また、「内容」は、対応するユーザの推定コンテキストの具体的な内容を示す。   "User ID" indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. Also, “estimated context ID” indicates information identifying a context (estimated context) of the estimated user. "Date" indicates the date corresponding to the estimated context. Also, “type” indicates information regarding the type of estimated context of the corresponding user. Also, “content” indicates the specific content of the corresponding user's estimated context.

例えば、図9に示す例において、ユーザU2は、推定コンテキストID「EAC1」により各々識別されるコンテキスト(推定コンテキスト)が推定されたことを示す。例えば、図9に示す例においてユーザU2は、推定コンテキストEAC1に示すように、日時dt12において、種別が位置のコンテキスト情報が推定されたことを示す。推定コンテキストEAC1は、日時dt12におけるユーザU2の位置が、円CR11上のいずれかであると推定されたことを示す。このように、「推定コンテキストEAC*(*は任意の数値)」と記載した場合、その推定コンテキストは推定コンテキストID「EAC*」により識別される推定コンテキストであることを示す。   For example, in the example shown in FIG. 9, the user U2 indicates that the context (estimated context) identified by the estimated context ID "EAC1" has been estimated. For example, in the example illustrated in FIG. 9, as indicated by the estimated context EAC1, the user U2 indicates that, at the date dt12, context information whose type is the position is estimated. The estimated context EAC1 indicates that the position of the user U2 at the date and time dt12 is estimated to be anywhere on the circle CR11. Thus, when stated as "estimated context EAC * (* is any numerical value)", it indicates that the estimated context is the estimated context identified by the estimated context ID "EAC *".

なお、推定情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図9では、ユーザIDごとに推定コンテキスト情報が推定情報記憶部124に記憶される場合を示したが、推定コンテキスト情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。   The estimated information storage unit 124 is not limited to the above, and may store various information according to the purpose. Although FIG. 9 shows a case where estimated context information is stored in the estimated information storage unit 124 for each user ID, estimated context information is not limited to each user ID, and may be stored, for example, in time order.

(制御部130)
図5の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、推定装置100内部の記憶装置に記憶されている各種プログラム(推定プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 5, the control unit 130 is a controller, and is stored in a storage device inside the estimation apparatus 100 by, for example, a central processing unit (CPU) or a micro processing unit (MPU). Various programs (corresponding to an example of an estimation program) are realized by executing the RAM as a work area. The control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図5に示すように、制御部130は、取得部131と、推定部132と、提供部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。   As illustrated in FIG. 5, the control unit 130 includes an acquisition unit 131, an estimation unit 132, and a provision unit 133, and implements or executes the functions and operations of the information processing described below.

(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、記憶部120から各種情報を取得する。例えば、取得部131は、ユーザ情報記憶部121やコンテキスト情報記憶部122や共通行動情報記憶部123や推定情報記憶部124や道路地図情報記憶部125から各種情報を取得する。
(Acquisition unit 131)
The acquisition unit 131 acquires various types of information. For example, the acquisition unit 131 acquires various types of information from the storage unit 120. For example, the acquisition unit 131 acquires various types of information from the user information storage unit 121, the context information storage unit 122, the common behavior information storage unit 123, the estimation information storage unit 124, and the road map information storage unit 125.

例えば、取得部131は、端末装置10から各種情報を取得する。例えば、取得部131は、端末装置10からユーザのコンテキスト情報を取得する。例えば、取得部131は、端末装置10から他の端末装置10との通信に関する情報を取得する。例えば、取得部131は、端末装置10から他の端末装置10と近接通信を行ったことを示すコンテキスト情報を取得する。   For example, the acquisition unit 131 acquires various types of information from the terminal device 10. For example, the acquisition unit 131 acquires context information of the user from the terminal device 10. For example, the acquisition unit 131 acquires information related to communication with another terminal device 10 from the terminal device 10. For example, the acquisition unit 131 acquires context information indicating that proximity communication has been performed with another terminal device 10 from the terminal device 10.

例えば、取得部131は、端末装置10からユーザの行動情報を取得する。取得部131は、ユーザの位置情報を取得する。例えば、取得部131は、端末装置10や外部の情報処理装置からユーザの共通行動情報を取得する。   For example, the acquisition unit 131 acquires behavior information of the user from the terminal device 10. The acquisition unit 131 acquires position information of the user. For example, the acquisition unit 131 acquires common behavior information of the user from the terminal device 10 or an external information processing device.

例えば、取得部131は、第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する。取得部131は、第1日時における第1ユーザの位置を示す第1コンテキスト情報を取得する。取得部131は、第1日時における第1ユーザの状態を示す第1コンテキスト情報を取得する。   For example, the acquisition unit 131 may include common action information indicating that the first user and the second user have performed common actions that are common actions, and first context information indicating the context of the first user at the first date and time. To get The acquisition unit 131 acquires first context information indicating the position of the first user at the first date and time. The acquisition unit 131 acquires first context information indicating the state of the first user at the first date and time.

例えば、取得部131は、第1ユーザと第2ユーザとが同日時に所定の範囲内に位置することを示す共通行動情報を取得する。取得部131は、第1ユーザが利用する第1端末と、第2ユーザとが利用する第2端末とが所定の近接通信を行うことにより検知される共通行動情報であって、第1ユーザと第2ユーザとが近接することを示す共通行動情報を取得する。   For example, the acquisition unit 131 acquires common action information indicating that the first user and the second user are located within the predetermined range at the same date and time. The acquisition unit 131 is common behavior information detected by performing predetermined proximity communication between the first terminal used by the first user and the second terminal used by the second user, and Common action information indicating that the second user approaches is acquired.

例えば、取得部131は、第2日時よりも前の日時である第1日時における第1ユーザの第1コンテキスト情報を取得する。取得部131は、第2日時よりも後の日時である第1日時における第1ユーザの第1コンテキスト情報を取得する。   For example, the acquisition unit 131 acquires first context information of the first user at the first date and time that is a date and time before the second date and time. The acquisition unit 131 acquires first context information of the first user at the first date and time, which is a date and time later than the second date and time.

例えば、取得部131は、第2日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得する。取得部131は、第1日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得する。取得部131は、複数の第1ユーザの各々と第2ユーザとが共通行動を行ったことを示す複数の共通行動情報と、複数の第1ユーザの各々に対応する複数の第1日時における複数の第1ユーザの各々のコンテキストを示す複数の第1コンテキスト情報とを取得する。   For example, the acquisition unit 131 acquires common action information indicating that the first user and the second user performed the common action at the second date and time. The acquisition unit 131 acquires common action information indicating that the first user and the second user have performed common actions at the first date and time. The acquisition unit 131 includes a plurality of common action information indicating that each of the plurality of first users and the second user performed the common action, and a plurality of pieces of information on a plurality of first dates and times corresponding to the plurality of first users. Obtaining a plurality of pieces of first context information indicating context of each of the first users of

また、取得部131は、第1ユーザと第2ユーザとが所定の期間内に同じコンテンツを閲覧したことを示す共通行動情報を取得する。例えば、取得部131は、インターネット上において、第1ユーザと第2ユーザとが所定の期間内に同じコンテンツを閲覧したことを示す共通行動情報を取得する。   Further, the acquisition unit 131 acquires common action information indicating that the first user and the second user browse the same content within a predetermined period. For example, the acquisition unit 131 acquires common action information indicating that the first user and the second user browse the same content within a predetermined period on the Internet.

また、例えば、取得部131は、第1日時とは異なる他の第1日時において第1ユーザとは異なる他の第1ユーザと第2ユーザとが他の共通行動を行ったことを示す他の共通行動情報と、他の第1日時における他の第1ユーザのコンテキストを示す他の第1コンテキスト情報とを取得する。例えば、取得部131は、第2日時とは異なる第3日時における第2ユーザのコンテキストを示す第2コンテキスト情報を取得する。   Also, for example, the acquiring unit 131 indicates that the other first user different from the first user and the second user perform another common action at another first date and time different from the first date and time. Common behavior information and other first context information indicating the context of another first user at another first date and time are acquired. For example, the acquisition unit 131 acquires second context information indicating the context of the second user at a third date and time different from the second date and time.

図1の例では、取得部131は、日時dt11におけるユーザU1のコンテキスト情報を取得する。例えば、取得部131は、端末装置10−1からユーザU1の位置が位置LC11であることを示すコンテキスト情報を取得する。また、取得部131は、日時dt12において、ユーザU1とユーザU2とが近接したことを示す共通行動情報(コンテキスト情報)を取得する。例えば、取得部131は、日時dt12において、ユーザU1とユーザU2とがすれ違ったことを示す共通行動情報を取得する。例えば、取得部131は、推定処理に情報を用いる第1ユーザを選択し、取得してもよい。例えば、推定部132は、複数の第1ユーザの候補のうち、推定処理に情報を用いる第1ユーザを選択し、選択した第1ユーザの情報を取得してもよい。例えば、推定部132は、推定処理に用いる第1コンテキスト情報を選択し、取得してもよい。   In the example of FIG. 1, the acquisition unit 131 acquires context information of the user U1 at the date and time dt11. For example, the acquisition unit 131 acquires context information indicating that the position of the user U1 is the position LC11 from the terminal device 10-1. Further, the acquisition unit 131 acquires common action information (context information) indicating that the user U1 and the user U2 approach each other at the date and time dt12. For example, the acquisition unit 131 acquires common action information indicating that the user U1 and the user U2 have passed each other at the date and time dt12. For example, the acquisition unit 131 may select and acquire a first user who uses information in the estimation process. For example, the estimation unit 132 may select a first user who uses information for estimation processing among the plurality of first user candidates, and may acquire information of the selected first user. For example, the estimation unit 132 may select and acquire first context information used for estimation processing.

(推定部132)
推定部132は、種々の情報を推定する。例えば、推定部132は、記憶部120に記憶された情報に基づいて、種々の情報を推定する。推定部132は、ユーザ情報記憶部121やコンテキスト情報記憶部122や共通行動情報記憶部123や推定情報記憶部124や道路地図情報記憶部125に記憶された情報に基づいて、種々の情報を推定する。例えば、推定部132は、取得部131により取得された情報を用いて、ユーザのコンテキストを推定する。
(Estimater 132)
The estimation unit 132 estimates various information. For example, the estimation unit 132 estimates various information based on the information stored in the storage unit 120. The estimation unit 132 estimates various information based on the information stored in the user information storage unit 121, the context information storage unit 122, the common behavior information storage unit 123, the estimation information storage unit 124, and the road map information storage unit 125. Do. For example, the estimation unit 132 estimates the context of the user using the information acquired by the acquisition unit 131.

推定部132は、取得部131により取得された共通行動情報と第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定する。また、推定部132は、第2日時における第2ユーザの位置を含むコンテキストを推定する。推定部132は、第2日時における第2ユーザの状態を第2ユーザのコンテキストとして推定する。推定部132は、第2日時に第2ユーザが利用している移動手段を第2ユーザのコンテキストとして推定する。推定部132は、取得部131により取得された複数の共通行動情報と複数の第1コンテキスト情報とに基づいて、複数の第1日時のいずれとも異なる第2日時における第2ユーザのコンテキストを推定する。   The estimation unit 132 estimates the context of the second user at the second date and time different from the first date and time, based on the common behavior information and the first context information acquired by the acquisition unit 131. Further, the estimation unit 132 estimates a context including the position of the second user at the second date and time. The estimation unit 132 estimates the state of the second user at the second date and time as the context of the second user. The estimation unit 132 estimates the moving means used by the second user at the second date and time as the second user's context. The estimation unit 132 estimates the context of the second user at the second date and time that is different from any of the multiple first date and times based on the plurality of common behavior information acquired by the acquisition unit 131 and the plurality of pieces of first context information. .

推定部132は、共通行動情報と第1コンテキスト情報と他の共通行動情報と他の第1コンテキスト情報とに基づいて、第2日時における第2ユーザのコンテキストを推定する。推定部132は、第1日時と他の第1日時との間の第2日時における第2ユーザのコンテキストを推定する。推定部132は、第2コンテキスト情報に基づいて、第2日時における第2ユーザのコンテキストを推定する。   The estimation unit 132 estimates the context of the second user at the second date and time based on the common behavior information, the first context information, the other common behavior information, and the other first context information. The estimation unit 132 estimates the context of the second user at the second date and time between the first date and time and the other first date and time. The estimation unit 132 estimates the context of the second user at the second date and time based on the second context information.

図1の例では、推定部132は、日時dt11におけるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt12におけるユーザU2の位置を推定する。例えば、推定部132は、日時dt11におけるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、ユーザU2がユーザU1と近接通信を行った位置を推定する。   In the example of FIG. 1, the estimation unit 132 calculates the position LC11 of the user U1 at the date dt11 and the common action information indicating that the user U1 and the user U2 approach each other at the date dt12. Estimate the position. For example, estimation unit 132 performs proximity communication with user U1 based on position LC11 of user U1 at date dt11 and common action information indicating that user U1 and user U2 approach at date dt12. Estimate the position.

図1の例では、推定部132は、日時dt11と日時dt12との間の経過時間と、ユーザU1の歩行速度に基づいて、日時dt12におけるユーザU2の位置を推定する。例えば、推定部132は、ユーザ情報記憶部121(図6参照)に示すようなユーザU1の歩行速度WS1に基づいて、ユーザU1が経過時間において位置LC11から移動可能な範囲を推定する。なお、推定部132は、ユーザU1に対応する歩行速度を有しない場合、ユーザU1が属するユーザ属性、すなわち20代男性の平均的な歩行速度に基づいて、ユーザU1が経過時間において位置LC11から移動可能な範囲を推定してもよい。   In the example of FIG. 1, the estimation unit 132 estimates the position of the user U2 at the date dt12 based on the elapsed time between the date dt11 and the date dt12 and the walking speed of the user U1. For example, the estimation unit 132 estimates the movable range of the user U1 from the position LC11 in the elapsed time based on the walking speed WS1 of the user U1 as shown in the user information storage unit 121 (see FIG. 6). In addition, when the estimation unit 132 does not have the walking speed corresponding to the user U1, the user U1 moves from the position LC11 in the elapsed time based on the user attribute to which the user U1 belongs, that is, the average walking speed of a 20's male. The possible range may be estimated.

例えば、推定部132は、ユーザU1の歩行速度が「6km/h(キロメートル毎時)」であり、日時dt11と日時dt12との間の経過時間が30分である場合、ユーザU1が経過時間において、約「3km(=6*0.5)」だけ移動可能であると推定する。この場合、推定部132は、位置LC11を中心とする半径3kmの円周状において、ユーザU1とユーザU2とがすれ違ったと推定する。   For example, when the walking speed of the user U1 is “6 km / h (kilometers per hour)” and the elapsed time between the date and time dt11 and the date and time dt12 is 30 minutes, the estimation unit 132 determines that the user U1 is in the elapsed time It is estimated that it can move by about "3 km (= 6 * 0.5)". In this case, the estimation unit 132 estimates that the user U1 and the user U2 have passed each other around a radius of 3 km centered on the position LC11.

図1の例では、推定部132は、日時dt12において、ユーザU1とユーザU2とが円CR11上のいずれかの位置ですれ違ったことと推定する。すなわち、推定部132は、日時dt12におけるユーザU2の位置が円CR11上のいずれかの位置であると推定する。   In the example of FIG. 1, the estimation unit 132 estimates that the user U1 and the user U2 pass each other at any position on the circle CR11 at the date dt12. That is, the estimation unit 132 estimates that the position of the user U2 at the date and time dt12 is any position on the circle CR11.

(提供部133)
提供部133は、外部の情報処理装置へ各種情報を提供する。例えば、提供部133は、端末装置10へ各種情報を提供する。提供部133は、推定部132により推定された情報を用いたサービスを提供する。例えば、提供部133は、推定部132により推定されたユーザのコンテキストを用いたサービスを提供する。提供部133は、推定部132により推定された第2日時における第2ユーザのコンテキストに関する情報を用いたサービスを提供する。
(Provision unit 133)
The providing unit 133 provides various information to an external information processing apparatus. For example, the providing unit 133 provides various types of information to the terminal device 10. The providing unit 133 provides a service using the information estimated by the estimating unit 132. For example, the providing unit 133 provides a service using the context of the user estimated by the estimating unit 132. The providing unit 133 provides a service using information on the context of the second user at the second date and time estimated by the estimating unit 132.

例えば、提供部133は、推定したユーザのコンテキストを用いてコンテンツを配信するサービスを提供する。例えば、提供部133は、推定したユーザのコンテキストを用いて、端末装置10にコンテンツを提供する。例えば、提供部133は、推定したユーザの位置に応じて、端末装置10に広告を提供する。例えば、提供部133は、推定したユーザの位置から最寄りの駅や施設の位置までの案内を行うナビゲーション情報を、端末装置10に提供する。   For example, the providing unit 133 provides a service for distributing content using the estimated user context. For example, the providing unit 133 provides the terminal device 10 with content using the estimated user context. For example, the providing unit 133 provides an advertisement to the terminal device 10 according to the estimated position of the user. For example, the providing unit 133 provides the terminal device 10 with navigation information for providing guidance from the estimated position of the user to the position of the nearest station or facility.

〔3.推定処理のフロー〕
ここで、図10を用いて、実施形態に係る推定装置100による推定処理の手順について説明する。図10は、実施形態に係る推定処理の一例を示すフローチャートである。
[3. Flow of estimation process]
Here, the procedure of the estimation process by the estimation apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 10 is a flowchart illustrating an example of estimation processing according to the embodiment.

図10に示すように、推定装置100は、第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報を取得する(ステップS101)。図1の例では、例えば、推定装置100は、共通行動情報記憶部123(図8参照)からユーザU1とユーザU2との共通行動情報を取得する。   As shown in FIG. 10, the estimation apparatus 100 acquires common action information indicating that the first user and the second user have performed the common action that is the common action (step S101). In the example of FIG. 1, for example, the estimation device 100 acquires common behavior information between the user U1 and the user U2 from the common behavior information storage unit 123 (see FIG. 8).

また、推定装置100は、第1日時における第1ユーザのコンテキストを示す第1コンテキスト情報を取得する(ステップS102)。図1の例では、例えば、推定装置100は、コンテキスト情報記憶部122(図7参照)から、日時dt11におけるユーザU1の位置が位置LC11であることを示すコンテキスト情報AC11を取得する。   Further, the estimation apparatus 100 acquires first context information indicating the context of the first user at the first date and time (step S102). In the example of FIG. 1, for example, the estimation apparatus 100 acquires context information AC11 indicating that the position of the user U1 at the date dt11 is the position LC11 from the context information storage unit 122 (see FIG. 7).

そして、推定装置100は、共通行動情報と第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定する(ステップS103)。図1の例では、例えば、推定装置100は、日時dt12におけるユーザU2の位置が、円CR11上のいずれかであると推定する。   Then, the estimation apparatus 100 estimates the context of the second user at a second date and time different from the first date and time, based on the common behavior information and the first context information (step S103). In the example of FIG. 1, for example, the estimation apparatus 100 estimates that the position of the user U2 at the date and time dt12 is any one on the circle CR11.

そして、推定装置100は、第2ユーザのコンテキストに基づくサービスを提供する(ステップS104)。例えば、推定装置100は、推定したユーザU2の位置に応じて、ユーザU2が利用する端末装置10−2に広告等のコンテンツを提供する。   Then, the estimation apparatus 100 provides a service based on the context of the second user (step S104). For example, the estimation apparatus 100 provides the terminal device 10-2 used by the user U2 with content such as an advertisement according to the estimated position of the user U2.

〔4.効果〕
上述してきたように、実施形態に係る推定装置100は、取得部131と、推定部132とを有する。取得部131は、第1ユーザ(実施形態においては、例えばユーザU1)と第2ユーザ(実施形態においては、例えばユーザU2)とが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する。推定部132は、取得部131により取得された共通行動情報と第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定する。
[4. effect〕
As described above, the estimation apparatus 100 according to the embodiment includes the acquisition unit 131 and the estimation unit 132. The acquisition unit 131 is common action information indicating that the first user (for example, the user U1 in the embodiment) and the second user (for example, the user U2 in the embodiment) perform a common action that is a common action. And first context information indicating the context of the first user at the first date and time. The estimation unit 132 estimates the context of the second user at the second date and time different from the first date and time, based on the common behavior information and the first context information acquired by the acquisition unit 131.

このように、実施形態に係る推定装置100は、第1ユーザと第2ユーザとの共通行動情報と、第1日時における第1ユーザの第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定することにより、ユーザ(「第2ユーザ」以下同様)のコンテキストを適切に推定することができる。   Thus, the estimation apparatus 100 according to the embodiment is different from the first date and time based on the common behavior information of the first user and the second user and the first context information of the first user at the first date and time. By estimating the context of the second user at the second date and time, it is possible to properly estimate the context of the user (the same applies to the “second user” and the like).

また、実施形態に係る推定装置100において、取得部131は、第1日時における第1ユーザの位置を示す第1コンテキスト情報を取得する。   In addition, in the estimation device 100 according to the embodiment, the acquisition unit 131 acquires first context information indicating the position of the first user at the first date and time.

このように、実施形態に係る推定装置100は、第1日時における第1ユーザの位置を示す第1コンテキスト情報を取得することにより、ユーザのコンテキストを適切に推定することができる。   Thus, the estimation apparatus 100 according to the embodiment can appropriately estimate the context of the user by acquiring the first context information indicating the position of the first user at the first date and time.

また、実施形態に係る推定装置100において、推定部132は、第2日時における第2ユーザの位置を含むコンテキストを推定する。   Further, in the estimation device 100 according to the embodiment, the estimation unit 132 estimates a context including the position of the second user at the second date and time.

このように、実施形態に係る推定装置100は、第2日時における第2ユーザの位置を含むコンテキストを推定することにより、ユーザのコンテキストを適切に推定することができる。   Thus, the estimation apparatus 100 according to the embodiment can appropriately estimate the context of the user by estimating the context including the position of the second user at the second date and time.

また、実施形態に係る推定装置100において、取得部131は、第1日時における第1ユーザの状態を示す第1コンテキスト情報を取得する。   Further, in the estimation apparatus 100 according to the embodiment, the acquisition unit 131 acquires first context information indicating the state of the first user at the first date and time.

このように、実施形態に係る推定装置100は、第1日時における第1ユーザの状態を示す第1コンテキスト情報を取得することにより、ユーザのコンテキストを適切に推定することができる。   As described above, the estimation apparatus 100 according to the embodiment can appropriately estimate the context of the user by acquiring the first context information indicating the state of the first user at the first date and time.

また、実施形態に係る推定装置100において、推定部132は、第2日時における第2ユーザの状態を第2ユーザのコンテキストとして推定する。   Further, in the estimation device 100 according to the embodiment, the estimation unit 132 estimates the state of the second user at the second date and time as the context of the second user.

このように、実施形態に係る推定装置100は、第2日時における第2ユーザの位置を含むコンテキストを推定することにより、ユーザのコンテキストを適切に推定することができる。   Thus, the estimation apparatus 100 according to the embodiment can appropriately estimate the context of the user by estimating the context including the position of the second user at the second date and time.

また、実施形態に係る推定装置100において、推定部132は、第2日時に第2ユーザが利用している移動手段を第2ユーザのコンテキストとして推定する。   Further, in the estimation device 100 according to the embodiment, the estimation unit 132 estimates the moving means used by the second user at the second date and time as the context of the second user.

このように、実施形態に係る推定装置100は、第2日時に第2ユーザが利用している移動手段を第2ユーザのコンテキストとして推定することにより、ユーザのコンテキストを適切に推定することができる。   Thus, the estimation apparatus 100 according to the embodiment can appropriately estimate the context of the user by estimating the moving means used by the second user at the second date and time as the context of the second user. .

また、実施形態に係る推定装置100において、取得部131は、第1ユーザと第2ユーザとが同日時に所定の範囲内に位置することを示す共通行動情報を取得する。   Further, in the estimation device 100 according to the embodiment, the acquisition unit 131 acquires common behavior information indicating that the first user and the second user are located within the predetermined range at the same date and time.

このように、実施形態に係る推定装置100は、第1ユーザと第2ユーザとが同日時に所定の範囲内に位置することを示す共通行動情報を取得することにより、ユーザのコンテキストを適切に推定することができる。   Thus, the estimation device 100 according to the embodiment appropriately estimates the context of the user by acquiring common action information indicating that the first user and the second user are located within the predetermined range at the same date and time. can do.

また、実施形態に係る推定装置100において、取得部131は、第1ユーザが利用する第1端末(実施形態においては、例えば端末装置10−1)と、第2ユーザが利用する第2端末(実施形態においては、例えば端末装置10−2)とが所定の近接通信を行うことにより検知される共通行動情報であって、第1ユーザと第2ユーザとが近接することを示す共通行動情報を取得する。   In the estimation device 100 according to the embodiment, the acquisition unit 131 is a first terminal (for example, the terminal device 10-1 in the embodiment) used by the first user and a second terminal (second embodiment) used by the second user. In the embodiment, common action information detected by, for example, the terminal device 10-2) performing predetermined proximity communication, the common action information indicating that the first user and the second user are close to each other get.

このように、実施形態に係る推定装置100は、第1ユーザが利用する第1端末と、第2ユーザが利用する第2端末とが所定の近接通信を行うことにより検知される共通行動情報であって、第1ユーザと第2ユーザとが近接することを示す共通行動情報を取得することにより、ユーザのコンテキストを適切に推定することができる。   Thus, the estimation apparatus 100 according to the embodiment is common action information detected by the first terminal used by the first user and the second terminal used by the second user performing predetermined proximity communication. The context of the user can be appropriately estimated by acquiring common behavior information indicating that the first user and the second user are close to each other.

また、実施形態に係る推定装置100において、取得部131は、第2日時よりも前の日時である第1日時における第1ユーザの第1コンテキスト情報を取得する。   In addition, in the estimation device 100 according to the embodiment, the acquisition unit 131 acquires first context information of the first user at the first date and time that is a date and time before the second date and time.

このように、実施形態に係る推定装置100は、第2日時よりも前の日時である第1日時における第1ユーザの第1コンテキスト情報を取得することにより、ユーザのコンテキストを適切に推定することができる。   As described above, the estimation apparatus 100 according to the embodiment appropriately estimates the context of the user by acquiring the first context information of the first user at the first date and time that is the date and time before the second date and time. Can.

また、実施形態に係る推定装置100において、取得部131は、第2日時よりも後の日時である第1日時における第1ユーザの第1コンテキスト情報を取得する。   Further, in the estimation apparatus 100 according to the embodiment, the acquisition unit 131 acquires first context information of the first user at the first date and time that is a date and time after the second date and time.

このように、実施形態に係る推定装置100は、第2日時よりも後の日時である第1日時における第1ユーザの第1コンテキスト情報を取得することにより、ユーザのコンテキストを適切に推定することができる。   As described above, the estimation apparatus 100 according to the embodiment appropriately estimates the context of the user by acquiring the first context information of the first user at the first date and time that is the date and time after the second date and time. Can.

また、実施形態に係る推定装置100において、取得部131は、第2日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得する。   In addition, in the estimation device 100 according to the embodiment, the acquisition unit 131 acquires common action information indicating that the first user and the second user performed the common action at the second date and time.

このように、実施形態に係る推定装置100は、第2日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得することにより、ユーザのコンテキストを適切に推定することができる。   As described above, the estimation apparatus 100 according to the embodiment appropriately estimates the context of the user by acquiring common action information indicating that the first user and the second user performed the common action at the second date and time. can do.

また、実施形態に係る推定装置100において、取得部131は、第1日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得する。   In addition, in the estimation device 100 according to the embodiment, the acquisition unit 131 acquires common action information indicating that the first user and the second user performed the common action at the first date and time.

このように、実施形態に係る推定装置100は、第1日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得することにより、ユーザのコンテキストを適切に推定することができる。   Thus, the estimation apparatus 100 according to the embodiment appropriately estimates the context of the user by acquiring common action information indicating that the first user and the second user have performed common action at the first date and time. can do.

また、実施形態に係る推定装置100において、取得部131は、複数の第1ユーザの各々と第2ユーザとが共通行動を行ったことを示す複数の共通行動情報と、複数の第1ユーザの各々に対応する複数の第1日時における複数の第1ユーザの各々のコンテキストを示す複数の第1コンテキスト情報とを取得する。推定部132は、取得部131により取得された複数の共通行動情報と複数の第1コンテキスト情報とに基づいて、複数の第1日時のいずれとも異なる第2日時における第2ユーザのコンテキストを推定する。   Further, in the estimation device 100 according to the embodiment, the acquiring unit 131 is configured to include a plurality of common behavior information indicating that each of the plurality of first users and the second user performed a common behavior, and a plurality of first users. A plurality of pieces of first context information indicating contexts of a plurality of first users at a plurality of corresponding first date and time are acquired. The estimation unit 132 estimates the context of the second user at the second date and time that is different from any of the multiple first date and times based on the plurality of common behavior information acquired by the acquisition unit 131 and the plurality of pieces of first context information. .

このように、実施形態に係る推定装置100は、複数の第1ユーザの各々と第2ユーザとの複数の共通行動情報と、複数の第1ユーザの各々に対応する複数の第1日時における複数の第1コンテキスト情報とに基づいて、複数の第1日時のいずれとも異なる第2日時における第2ユーザのコンテキストを推定することにより、ユーザのコンテキストを適切に推定することができる。   As described above, the estimation apparatus 100 according to the embodiment includes the plurality of common behavior information of each of the plurality of first users and the second user, and the plurality of plurality of first dates and times corresponding to each of the plurality of first users. The context of the user can be appropriately estimated by estimating the context of the second user at a second date and time that is different from any of the multiple first dates and times based on the first context information.

また、実施形態に係る推定装置100において、提供部133は、推定部132により推定された第2日時における第2ユーザのコンテキストに関する情報を用いたサービスを提供する。   Further, in the estimation apparatus 100 according to the embodiment, the providing unit 133 provides a service using information on the context of the second user at the second date and time estimated by the estimation unit 132.

このように、実施形態に係る推定装置100は、第2日時における第2ユーザのコンテキストに関する情報を用いたサービスを提供することにより、ユーザのコンテキストに応じた適切なサービスを提供することができる。   Thus, the estimation apparatus 100 according to the embodiment can provide an appropriate service according to the context of the user by providing the service using the information on the context of the second user at the second date and time.

〔5.ハードウェア構成〕
上述してきた実施形態に係る推定装置100は、例えば図12に示すような構成のコンピュータ1000によって実現される。図12は、推定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
The estimation apparatus 100 according to the embodiment described above is realized by, for example, a computer 1000 configured as shown in FIG. FIG. 12 is a hardware configuration diagram showing an example of a computer for realizing the function of the estimation device. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, a hard disk drive (HDD) 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 to control each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 starts up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ提供する。   The HDD 1400 stores a program executed by the CPU 1100, data used by the program, and the like. The communication interface 1500 receives data from another device via the network N, sends the data to the CPU 1100, and provides data generated by the CPU 1100 to the other device via the network N.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from an input device via the input / output interface 1600. The CPU 1100 also outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the CPU 1100 with the program via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a digital versatile disc (DVD) or a phase change rewritable disc (PD), an optical magnetic recording medium such as a magneto-optical disk (MO), a tape medium, a magnetic recording medium Etc.

例えば、コンピュータ1000が実施形態に係る推定装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the estimation device 100 according to the embodiment, the CPU 1100 of the computer 1000 realizes the function of the control unit 130 by executing a program loaded on the RAM 1200. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the network N.

以上、本願の実施形態を図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   Although the embodiments of the present application have been described above in detail based on the drawings, these are only examples, and various modifications and improvements can be made based on the knowledge of those skilled in the art, including the embodiments described in the rows of the disclosure of the invention. It is possible to practice the invention in other forms as well.

〔6.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に生成することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Other]
Further, among the processes described in the above embodiment, all or part of the process described as being automatically performed may be manually performed, or the process described as being manually performed. All or part of them can be performed automatically by known methods. In addition, information including processing procedures, specific names, various types of data and parameters shown in the above-mentioned document and drawings can be generated arbitrarily unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.

また、上述してきた実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。   In addition, the processes described in the above-described embodiment can be appropriately combined within the range in which the process contents do not conflict.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。   In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition unit or an acquisition circuit.

1 推定システム
100 推定装置
121 ユーザ情報記憶部
122 コンテキスト情報記憶部
123 共通行動情報記憶部
124 推定情報記憶部
130 制御部
131 取得部
132 推定部
133 提供部
10 端末装置
N ネットワーク
DESCRIPTION OF SYMBOLS 1 estimation system 100 estimation device 121 user information storage unit 122 context information storage unit 123 common behavior information storage unit 124 estimation information storage unit 130 control unit 131 acquisition unit 132 estimation unit 133 provision unit 10 terminal device N network

Claims (16)

第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における前記第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する取得部と、
前記取得部により取得された前記共通行動情報と前記第1コンテキスト情報とに基づいて、前記第1日時とは異なる第2日時における前記第2ユーザのコンテキストを推定する推定部と、
を備えることを特徴とする推定装置。
An acquisition unit configured to acquire common action information indicating that the first user and the second user performed common action that is common action, and first context information indicating a context of the first user at a first date and time; ,
An estimation unit configured to estimate a context of the second user at a second date and time different from the first date and time based on the common behavior information acquired by the acquisition unit and the first context information;
An estimation apparatus comprising:
前記取得部は、
前記第1日時における前記第1ユーザの位置を示す前記第1コンテキスト情報を取得する
ことを特徴とする請求項1に記載の推定装置。
The acquisition unit
The estimation apparatus according to claim 1, wherein the first context information indicating the position of the first user at the first date and time is acquired.
前記推定部は、
前記第2日時における前記第2ユーザの位置を含むコンテキストを推定する
ことを特徴とする請求項1または請求項2に記載の推定装置。
The estimation unit
The estimation apparatus according to claim 1 or 2, wherein a context including the position of the second user at the second date and time is estimated.
前記取得部は、
前記第1日時における前記第1ユーザの状態を示す前記第1コンテキスト情報を取得する
ことを特徴とする請求項1に記載の推定装置。
The acquisition unit
The estimation apparatus according to claim 1, wherein the first context information indicating a state of the first user at the first date and time is acquired.
前記推定部は、
前記第2日時における前記第2ユーザの状態を前記第2ユーザのコンテキストとして推定する
ことを特徴とする請求項1または請求項4に記載の推定装置。
The estimation unit
The estimation apparatus according to claim 1 or 4, wherein a state of the second user at the second date and time is estimated as a context of the second user.
前記推定部は、
前記第2日時に前記第2ユーザが利用している移動手段を前記第2ユーザのコンテキストとして推定する
ことを特徴とする請求項1または請求項2に記載の推定装置。
The estimation unit
The estimation device according to claim 1 or 2, wherein the moving means used by the second user at the second date and time is estimated as a context of the second user.
前記取得部は、
前記第1ユーザと前記第2ユーザとが同日時に所定の範囲内に位置することを示す前記共通行動情報を取得する
ことを特徴とする請求項1〜6のいずれか1項に記載の推定装置。
The acquisition unit
The estimation device according to any one of claims 1 to 6, wherein the common action information indicating that the first user and the second user are located within a predetermined range at the same date and time is acquired. .
前記取得部は、
前記第1ユーザが利用する第1端末と、前記第2ユーザとが利用する第2端末とが所定の近接通信を行うことにより検知される前記共通行動情報であって、前記第1ユーザと前記第2ユーザとが近接することを示す前記共通行動情報を取得する
ことを特徴とする請求項1〜7のいずれか1項に記載の推定装置。
The acquisition unit
The common action information detected by performing predetermined proximity communication between the first terminal used by the first user and the second terminal used by the second user, the first user and the common user The estimation device according to any one of claims 1 to 7, wherein the common action information indicating that the second user approaches is acquired.
前記取得部は、
前記第2日時よりも前の日時である前記第1日時における前記第1ユーザの前記第1コンテキスト情報を取得する
ことを特徴とする請求項1〜8のいずれか1項に記載の推定装置。
The acquisition unit
The estimation device according to any one of claims 1 to 8, wherein the first context information of the first user at the first date and time, which is a date and time before the second date and time, is acquired.
前記取得部は、
前記第2日時よりも後の日時である前記第1日時における前記第1ユーザの前記第1コンテキスト情報を取得する
ことを特徴とする請求項1〜8のいずれか1項に記載の推定装置。
The acquisition unit
The estimation apparatus according to any one of claims 1 to 8, wherein the first context information of the first user at the first date and time, which is a date and time later than the second date and time, is acquired.
前記取得部は、
前記第2日時において前記第1ユーザと前記第2ユーザとが前記共通行動を行ったことを示す前記共通行動情報を取得する
ことを特徴とする請求項1〜10のいずれか1項に記載の推定装置。
The acquisition unit
The common action information indicating that the first user and the second user performed the common action at the second date and time is acquired. The method according to any one of claims 1 to 10, Estimator.
前記取得部は、
前記第1日時において前記第1ユーザと前記第2ユーザとが前記共通行動を行ったことを示す前記共通行動情報を取得する
ことを特徴とする請求項1〜10のいずれか1項に記載の推定装置。
The acquisition unit
The common action information indicating that the first user and the second user performed the common action at the first date and time is acquired. The method according to any one of claims 1 to 10, Estimator.
前記取得部は、
複数の第1ユーザの各々と第2ユーザとが共通行動を行ったことを示す複数の共通行動情報と、前記複数の第1ユーザの各々に対応する複数の第1日時における前記複数の第1ユーザの各々のコンテキストを示す複数の第1コンテキスト情報とを取得し、
前記推定部は、
前記取得部により取得された前記複数の共通行動情報と前記複数の第1コンテキスト情報とに基づいて、前記複数の第1日時のいずれとも異なる第2日時における前記第2ユーザのコンテキストを推定する
ことを特徴とする請求項1〜12のいずれか1項に記載の推定装置。
The acquisition unit
The plurality of common behavior information indicating that each of the plurality of first users and the second user performed the common behavior, and the plurality of first behaviors at the plurality of first dates and times corresponding to the plurality of first users. Obtaining a plurality of first context information indicating the context of each of the users;
The estimation unit
Estimating the context of the second user at a second date and time different from any of the first dates and times based on the plurality of common behavior information acquired by the acquisition unit and the plurality of first context information. The estimation apparatus according to any one of claims 1 to 12, characterized by
前記推定部により推定された前記第2日時における前記第2ユーザのコンテキストに関する情報を用いたサービスを提供する提供部、
をさらに備えることを特徴とする請求項1〜13のいずれか1項に記載の推定装置。
A providing unit for providing a service using information on the context of the second user at the second date and time estimated by the estimation unit;
The estimation apparatus according to any one of claims 1 to 13, further comprising:
コンピュータが実行する推定方法であって、
第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における前記第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する取得工程と、
前記取得工程により取得された前記共通行動情報と前記第1コンテキスト情報とに基づいて、前記第1日時とは異なる第2日時における前記第2ユーザのコンテキストを推定する推定工程と、
を含むことを特徴とする推定方法。
A computer implemented estimation method,
An acquisition step of acquiring common action information indicating that the first user and the second user performed common action that is common action, and first context information indicating the context of the first user at a first date and time; ,
Estimating the context of the second user at a second date and time different from the first date and time based on the common behavior information and the first context information acquired by the acquisition step;
Estimation method characterized by including.
第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における前記第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する取得手順と、
前記取得手順により取得された前記共通行動情報と前記第1コンテキスト情報とに基づいて、前記第1日時とは異なる第2日時における前記第2ユーザのコンテキストを推定する推定手順と、
をコンピュータに実行させることを特徴とする推定プログラム。
An acquisition procedure for acquiring common action information indicating that the first user and the second user performed common action that is common action, and first context information indicating the context of the first user at a first date and time; ,
An estimation procedure for estimating the context of the second user at a second date and time different from the first date and time based on the common action information acquired by the acquisition procedure and the first context information;
An estimation program that causes a computer to execute.
JP2017207446A 2017-10-26 2017-10-26 Estimator, estimation method, and estimation program Active JP6974114B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017207446A JP6974114B2 (en) 2017-10-26 2017-10-26 Estimator, estimation method, and estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017207446A JP6974114B2 (en) 2017-10-26 2017-10-26 Estimator, estimation method, and estimation program

Publications (2)

Publication Number Publication Date
JP2019079418A true JP2019079418A (en) 2019-05-23
JP6974114B2 JP6974114B2 (en) 2021-12-01

Family

ID=66627877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017207446A Active JP6974114B2 (en) 2017-10-26 2017-10-26 Estimator, estimation method, and estimation program

Country Status (1)

Country Link
JP (1) JP6974114B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007094854A (en) * 2005-09-29 2007-04-12 Toshiba Corp Behavior support device
JP2007304009A (en) * 2006-05-12 2007-11-22 Yafoo Japan Corp Method and system for finding movement means from positional information
JP2010226174A (en) * 2009-03-19 2010-10-07 Ntt Docomo Inc Moving means estimation device and moving means estimation method
JP2012212260A (en) * 2011-03-30 2012-11-01 Fujitsu Ltd Destination determination program and destination determination method
US20170090850A1 (en) * 2015-09-29 2017-03-30 International Business Machines Corporation Enabling proximity-aware visual identification
JP2017152982A (en) * 2016-02-25 2017-08-31 スマートイノベーション株式会社 Search support server, search supporting system, and search support method
JP2017184098A (en) * 2016-03-31 2017-10-05 沖電気工業株式会社 Information processing system, information processing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007094854A (en) * 2005-09-29 2007-04-12 Toshiba Corp Behavior support device
JP2007304009A (en) * 2006-05-12 2007-11-22 Yafoo Japan Corp Method and system for finding movement means from positional information
JP2010226174A (en) * 2009-03-19 2010-10-07 Ntt Docomo Inc Moving means estimation device and moving means estimation method
JP2012212260A (en) * 2011-03-30 2012-11-01 Fujitsu Ltd Destination determination program and destination determination method
US20170090850A1 (en) * 2015-09-29 2017-03-30 International Business Machines Corporation Enabling proximity-aware visual identification
JP2017152982A (en) * 2016-02-25 2017-08-31 スマートイノベーション株式会社 Search support server, search supporting system, and search support method
JP2017184098A (en) * 2016-03-31 2017-10-05 沖電気工業株式会社 Information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP6974114B2 (en) 2021-12-01

Similar Documents

Publication Publication Date Title
Alzoubi et al. Integrating BLE beacon technology with intelligent information systems IIS for operations’ performance: A managerial perspective
Ghose et al. Mobile targeting using customer trajectory patterns
US9860699B1 (en) Using geolocation information in a social graph with sharing activity of users of the open web
US9037527B2 (en) Determining a dynamic user profile indicative of a user behavior context with a mobile device
US9165304B2 (en) Analyzing consumer behavior using electronically-captured consumer location data
JP7117089B2 (en) Decision device, decision method and decision program
US20180352378A1 (en) Assisted venue staff guidance
KR20180026406A (en) Providing, organizing, and managing location history records of mobile devices
US10762119B2 (en) Semantic labeling apparatus and method thereof
US20140222568A1 (en) Targeted advertisement distribution to mobile devices
JP6804505B2 (en) Predictors, prediction methods, and prediction programs
US20220341746A1 (en) Systems and methods for personalized ground transportation processing and user intent predictions
JP6089764B2 (en) Activity status processing apparatus and activity status processing method
JP6379305B1 (en) User context detection using mobile devices based on wireless signal characteristics
JP6998849B2 (en) Information processing equipment, information processing methods, and information processing programs
JP6974114B2 (en) Estimator, estimation method, and estimation program
JP6687648B2 (en) Estimating device, estimating method, and estimating program
JP6664582B2 (en) Estimation device, estimation method and estimation program
US11272318B2 (en) Proximity measurement system
JP2020046982A (en) Proposal apparatus, proposal method, and proposal program
JP7166790B2 (en) Information processing device, information processing method, and information processing program
JP7258960B2 (en) Information processing device, information processing method, and information processing program
Demirbas et al. Eywa: Crowdsourced and cloudsourced omniscience
JP7221586B2 (en) Extraction device, extraction method, and extraction program
JP7030748B2 (en) Estimator, estimation method and estimation program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211104

R150 Certificate of patent or registration of utility model

Ref document number: 6974114

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350