JP2019079418A - Estimation apparatus, estimation method, and estimation program - Google Patents
Estimation apparatus, estimation method, and estimation program Download PDFInfo
- Publication number
- JP2019079418A JP2019079418A JP2017207446A JP2017207446A JP2019079418A JP 2019079418 A JP2019079418 A JP 2019079418A JP 2017207446 A JP2017207446 A JP 2017207446A JP 2017207446 A JP2017207446 A JP 2017207446A JP 2019079418 A JP2019079418 A JP 2019079418A
- Authority
- JP
- Japan
- Prior art keywords
- user
- date
- time
- context
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 39
- 230000009471 action Effects 0.000 claims abstract description 120
- 230000006399 behavior Effects 0.000 claims description 56
- 238000004891 communication Methods 0.000 claims description 55
- 238000013459 approach Methods 0.000 claims description 27
- 230000008569 process Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 21
- 238000012545 processing Methods 0.000 description 19
- 102100037224 Noncompact myelin-associated protein Human genes 0.000 description 15
- 101710184695 Noncompact myelin-associated protein Proteins 0.000 description 15
- 230000010365 information processing Effects 0.000 description 8
- 230000006872 improvement Effects 0.000 description 4
- 101001005165 Bos taurus Lens fiber membrane intrinsic protein Proteins 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、推定装置、推定方法、及び推定プログラムに関する。 The present invention relates to an estimation apparatus, an estimation method, and an estimation program.
従来、一のユーザの情報として、他のユーザの情報を利用する技術が提供されている。例えば、ユーザが非スマートスペース又は異なるスマートスペースにおいてアプリケーションにアクセスする場合に、ユーザにより不足する環境コンテキストも取得する技術が知られている。 Conventionally, there is provided a technology that uses information of another user as information of one user. For example, when a user accesses an application in a non-smart space or in a different smart space, a technique is known that also acquires an environment context that is deficient by the user.
しかしながら、上記の従来技術では、ユーザのコンテキストを適切に推定することができるとは限らない。例えば、上記の従来技術では、情報が不足した場合に他のユーザの情報を取得しているに過ぎず、ユーザのコンテキストを適切に推定することが難しい場合がある。例えば、ある時点における他のユーザについて情報が取得されていない場合等においては、その時点のユーザのコンテキストを適切に推定することが難しい。 However, the above-mentioned prior art can not necessarily estimate the context of the user appropriately. For example, in the above-mentioned prior art, it may be difficult to appropriately estimate the context of the user, since the information of the other user is only acquired when the information is insufficient. For example, when information is not acquired for another user at a certain time, it is difficult to appropriately estimate the context of the user at that time.
本願は、上記に鑑みてなされたものであって、ユーザのコンテキストを適切に推定する推定装置、推定方法、及び推定プログラムを提供することを目的とする。 This application is made in view of the above, and an object of the present application is to provide an estimation device, an estimation method, and an estimation program which estimate a user's context appropriately.
本願に係る推定装置は、第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における前記第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する取得部と、前記取得部により取得された前記共通行動情報と前記第1コンテキスト情報とに基づいて、前記第1日時とは異なる第2日時における前記第2ユーザのコンテキストを推定する推定部と、を備えることを特徴とする。 The estimation apparatus according to the present application includes common action information indicating that the first user and the second user have performed common actions that are common actions, and first context information indicating the context of the first user at a first date and time And estimating the context of the second user at a second date and time different from the first date and time, based on the common behavior information and the first context information acquired by the acquisition unit and the acquisition unit for acquiring the And an estimation unit.
実施形態の一態様によれば、ユーザのコンテキストを適切に推定することができるという効果を奏する。 According to an aspect of the embodiment, an effect is obtained that the context of the user can be appropriately estimated.
以下に、本願に係る推定装置、推定方法、及び推定プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る推定装置、推定方法、及び推定プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Hereinafter, an estimation apparatus, an estimation method, and a form for implementing an estimation program (hereinafter, referred to as “embodiment”) according to the present application will be described in detail with reference to the drawings. Note that the estimation apparatus, estimation method, and estimation program according to the present application are not limited by this embodiment. Moreover, the same code | symbol is attached | subjected to the same site | part in the following each embodiment, and the overlapping description is abbreviate | omitted.
(実施形態)
〔1.推定処理〕
図1〜図3を用いて、実施形態に係る推定処理の一例について説明する。図1〜図3は、実施形態に係る推定処理の一例を示す図である。図1の例では、推定装置100が第1ユーザであるユーザU1と、第2ユーザであるユーザU2とがある共通行動を行ったことを示す情報(共通行動情報)を用いて、位置情報(以下、単に「位置」ともいう)が取得されていないユーザU2の位置を推定する場合を示す。また、図1の例では、推定装置100が第1日時におけるユーザU1の位置を示すコンテキスト情報に基づいて、第1日時とは異なる第2日時におけるユーザU2の位置を推定する。すなわち、ここでいう第1ユーザは、コンテキスト情報が利用されるユーザに対応し、第2ユーザは、コンテキストが推定されるユーザに対応する。なお、共通行動やコンテキストについての詳細は後述する。なお、ここでいう日時には、ある時点(時分秒)であってもよいし、ある程度の期間(例えば分単位の期間等)を含んでもよい。
(Embodiment)
[1. Estimation process]
An example of the estimation process according to the embodiment will be described using FIGS. 1 to 3. 1 to 3 are diagrams showing an example of estimation processing according to the embodiment. In the example of FIG. 1, using the information (common action information) indicating that the
〔推定システムの構成〕
まず、図1〜図3の説明に先だって、図4を用いて推定システム1の構成について説明する。図4は、実施形態に係る推定システムの構成例を示す図である。図4に示すように、推定システム1は、端末装置10−1と、端末装置10−2と、端末装置10−3と、推定装置100とが含まれる。端末装置10−1と、端末装置10−2と、端末装置10−3と、推定装置100とは所定のネットワークNを介して、有線または無線により通信可能に接続される。
[Configuration of estimation system]
First, prior to the description of FIGS. 1 to 3, the configuration of the estimation system 1 will be described using FIG. 4. FIG. 4 is a diagram showing an example of the configuration of the estimation system according to the embodiment. As shown in FIG. 4, the estimation system 1 includes a terminal device 10-1, a terminal device 10-2, a terminal device 10-3, and an
以下では、端末装置10−1〜10−3について、特に区別なく説明する場合には、端末装置10と記載する。なお、図4に示した推定システム1では、3台の端末装置10−1〜10−3を図示するが、推定システム1には、4台以上の端末装置10が含まれてもよい。例えば、推定システム1には、各ユーザに対応する端末装置10が含まれ、ユーザが100万人である場合、100万台の端末装置10が含まれてもよい。また、図4に示した推定システム1には、複数台の推定装置100が含まれてもよい。
Hereinafter, the terminal devices 10-1 to 10-3 will be referred to as the
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等により実現される。図1に示す例においては、端末装置10がユーザが利用するスマートフォンである場合を示す。なお、以下では、端末装置10をユーザと表記する場合がある。すなわち、以下では、ユーザを端末装置10と読み替えることもできる。
The
例えば、端末装置10−1は、図1に示すユーザU1が利用する端末装置10に対応する。このように、「ユーザU*(*は任意の数値)」と記載した場合、そのユーザはユーザID「U*」により識別されるユーザであることを示す。例えば、「ユーザU1」と記載した場合、そのユーザはユーザID「U1」により識別されるユーザである。例えば、端末装置10−2、10−3は、図2に示すユーザU2、U3が各々利用する端末装置10に対応する。また、以下では、ユーザが利用する端末装置10とそのユーザとは互いに読み替えられてもよい。例えば、「ユーザU1」と記載した場合、ユーザU1が利用する端末装置10である「端末装置10−1」と読み替えられてもよい。「端末装置10−1」と記載した場合、端末装置10−1を利用するユーザである「ユーザU1」と読み替えられてもよい。以下では、説明を簡単にするために、ユーザIDによりユーザが利用する端末装置10が特定可能である場合を例に説明する。
For example, the terminal device 10-1 corresponds to the
また、端末装置10は、GPS(Global Positioning System)センサ等の各種センサにより、各種センサ情報を検知してもよい。また、端末装置10は、加速度センサの機能を有し、ユーザの移動における加速度情報(センサ情報)を検知し、取得する。また、端末装置10は、温度センサや気圧センサ等の種々の機能を有し、温度や気圧等のユーザの置かれている環境情報を検知し、取得可能であってもよい。また、端末装置10は、心拍センサ等の種々の機能を有し、ユーザの生体情報を検知し、取得可能であってもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なウェアラブルデバイスを身に付けることにより、端末装置10によりユーザ自身のコンテキスト情報を取得可能としてもよい。例えば、端末装置10を利用するユーザは、端末装置10と通信可能なリストバンド型のウェアラブルデバイスを身に付けることにより、ユーザ自身の心拍(脈拍)に関する情報を端末装置10が取得可能としてもよい。
In addition, the
また、端末装置10は、近距離無線通信技術により、他の端末装置10と近接通信を行う。例えば、端末装置10は、NFC(Near Field Communication)に関する種々の従来技術を適宜用いて、他の端末装置10と近接通信を行う機能を有する。例えば、端末装置10は、Bluetooth(登録商標)やWiFi(登録商標)(Wireless Fidelity)等の種々の従来の無線通信に関する技術を適宜用いて、他の端末装置10と近接通信を行ってもよい。すなわち、端末装置10は、他の端末装置10との近接通信、いわゆるすれ違い通信が可能であれば、どのような機能により他の端末装置10と近接通信を行ってもよい。
Further, the
なお、ここでいう近接とは、無線通信が可能な範囲であってもよいし、所定の閾値以内の範囲であってもよい。例えば、近接とは、1メートルや10メートル等の具体的な距離であってもよい。また、以下では、端末装置10は、Bluetooth(登録商標)により、他の端末装置10と近接通信を行うものとする。
Here, the proximity may be a range in which wireless communication is possible, or may be a range within a predetermined threshold. For example, proximity may be a specific distance such as 1 meter or 10 meters. Furthermore, in the following, it is assumed that the
また、端末装置10は、ユーザのコンテキストに関する情報(以下、「コンテキスト情報」ともいう)を収集し、推定装置100へ送信する。例えば、端末装置10は、ユーザのコンテキスト情報を検知(取得)した時点で、随時(リアルタイムに)推定装置100へコンテキスト情報を送信してもよいし、所定のタイミング(例えば、1時間おきや1日おき)で推定装置100へコンテキスト情報を送信してもよい。
Further, the
ここでいうコンテキストとは、ユーザが置かれた環境等を含む概念であってもよい。例えば、端末装置10は、ユーザの位置情報を収集し、推定装置100へ送信する。例えば、端末装置10は、端末装置10上におけるユーザの各種の行動情報を収集し、推定装置100へ送信する。例えば、端末装置10は、端末装置10上においてユーザが閲覧したコンテンツに関する情報を収集し、推定装置100へ送信する。
The context herein may be a concept including an environment in which the user is placed. For example, the
例えば、ここでいうコンテキストは、ユーザやそのユーザが利用する端末装置10の状況やユーザや端末装置10の環境(背景)に基づくユーザの種々の状況を含む概念であってもよい。また、コンテキスト情報には、ユーザの現在位置、現在時刻、ユーザが置かれた物理環境、ユーザが置かれた社会環境、ユーザの行動、ユーザの運動状態、ユーザに提供されるコンテンツの内容、ユーザが反応したコンテンツの内容、ユーザの属性、ユーザの感情等の種々の情報が含まれる。例えば、コンテキスト情報は、ユーザの各種行動に基づく情報等が含まれる。また、例えば、コンテキスト情報は、ユーザの位置やユーザの移動手段やユーザの状態等が含まれる。また、例えば、コンテキスト情報は、ユーザが利用する端末装置10の通信状態や表示する情報等が含まれる。なお、上記は一例であり、コンテキスト情報には、上記に限らず、種々の情報が含まれてもよい。
For example, the context referred to here may be a concept including the user or the situation of the
推定装置100は、第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における第1ユーザのコンテキストを示す第1コンテキスト情報とに基づいて、第2ユーザのコンテキストを推定する情報処理装置である。例えば、推定装置100は、第1ユーザと第2ユーザとの共通行動情報と、第1日時における第1ユーザの第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定する。
The
例えば、推定装置100は、推定したユーザのコンテキストに関する情報を用いた種々のサービスを提供してもよい。例えば、推定装置100は、推定したユーザのコンテキストに関する情報を他の情報処理装置へ提供するサービスを行ってもよい。また、例えば、推定装置100は、ユーザにコンテンツを提供するサービス(コンテンツ提供サービス)を行ってもよい。推定装置100は、端末装置10からの要求に応じて、端末装置10において表示されるコンテンツを配信してもよい。例えば、推定装置100は、ユーザが利用する端末装置10からの要求に応じて、そのユーザのコンテキストに応じたコンテンツを提供してもよい。また、推定システム1においては、推定装置100が検索サービスや電子商取引サービス等の種々のサービスを提供してもよい。
For example, the
例えば、推定装置100は、端末装置10に商品またはサービス(以下、併せて「商品」ともいう)の情報を提供したり、ユーザからの購入意思を示す情報に応じて、ユーザへの商品の配送等を行ったりする電子商取引サービスを提供してもよい。また、例えば、推定装置100は、端末装置10から取得したクエリ(検索クエリ)に対する検索結果を端末装置10に提供する検索サービスを提供してもよい。
For example, the
〔1−1.第1ユーザが一人の場合〕
ここから、図1を用いて、ユーザU2の位置を推定する場合を一例として説明する。図1に示す地図情報MP11(以下、単に「地図MP11」ともいう)は、ユーザU1やユーザU2等の位置を模式的に示す。図1に示す地図MP11−1は、道路情報RD11を示すためのものであり、地図MP11−1は、地図MP11と、同一のエリアである。また、以下では、地図MP11−1について、特に区別なく説明する場合には、地図MP11と記載する。また、地図MP11に示す、位置LC11や位置LC1〜LC6は、具体的な緯度経度を示す情報であってもよい。なお、図1〜図3の例では、共通行動が各ユーザが近接する位置に位置することであり、各ユーザが利用する端末装置10が近接通信を行うことにより近接する位置に位置することが特定される場合を示す。
[1-1. When the first user is one person]
From here, the case where the position of the user U2 is estimated will be described as an example using FIG. Map information MP11 (hereinafter, also simply referred to as "map MP11") shown in FIG. 1 schematically indicates the positions of the user U1, the user U2, and the like. Map MP11-1 shown in FIG. 1 is for showing road information RD11, and map MP11-1 is the same area as map MP11. Moreover, in the following, the map MP11-1 will be described as the map MP11 when the description is made without particular distinction. Further, the position LC11 and the positions LC1 to LC6 illustrated in the map MP11 may be information indicating specific latitude and longitude. In the example of FIGS. 1 to 3, the common action is to be located at a position where each user approaches, and the
まず、推定装置100(図5参照)は、日時dt11におけるユーザU1のコンテキスト情報を取得する(ステップS11)。図1の例では、ユーザU1が利用する端末装置10−1は、GPS等の所定の位置情報を検知する機能により、日時dt11における端末装置10−1(ユーザU1)の位置が位置LC11であることを示すコンテキスト情報を取得する。例えば、端末装置10−1がユーザU1の位置が位置LC11であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt11におけるユーザU1のコンテキスト情報を取得する。
First, the estimation apparatus 100 (see FIG. 5) acquires context information of the user U1 at the date and time dt11 (step S11). In the example of FIG. 1, the terminal device 10-1 used by the user U1 has a position LC11 at which the position of the terminal device 10-1 (user U1) at the date and time dt11 is the position LC11 by the function of detecting predetermined position information such as GPS. Get context information to indicate that. For example, when the terminal device 10-1 transmits context information indicating that the position of the user U1 is the position LC11 to the
そして、端末装置10−1は、日時dt12において、ユーザU2が利用する端末装置10−2と近接通信を行う(ステップS12)。例えば、端末装置10−1と端末装置10−2とは、Bluetooth(登録商標)等の機能により、日時dt12において、すれ違い通信を行う。すなわち、端末装置10−1や端末装置10−2は、日時dt12において、ユーザU1がユーザU2と近傍に位置したことを示す情報を検知する。例えば、端末装置10−1や端末装置10−2は、日時dt12において、ユーザU1がユーザU2とすれ違ったことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、端末装置10−1と端末装置10−2とのいずれか一方のみが、日時dt12において、ユーザU1がユーザU2とすれ違ったことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt12において、ユーザU1とユーザU2とが近接したことを示す共通行動情報(コンテキスト情報)を取得する(ステップS13)。例えば、推定装置100は、日時dt12において、ユーザU1とユーザU2とがすれ違ったことを示す共通行動情報を取得する。
Then, the terminal device 10-1 performs near-field communication with the terminal device 10-2 used by the user U2 at the date and time dt12 (step S12). For example, the terminal device 10-1 and the terminal device 10-2 perform passing communication at the date and time dt12 by a function such as Bluetooth (registered trademark). That is, the terminal device 10-1 and the terminal device 10-2 detect information indicating that the user U1 is located near the user U2 at the date and time dt12. For example, the terminal device 10-1 and the terminal device 10-2 collect context information indicating that the user U1 has passed the user U2 at the date and time dt12, and transmit the context information to the
そして、推定装置100は、日時dt11におけるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt12におけるユーザU2の位置を推定する(ステップS14)。例えば、推定装置100は、日時dt11におけるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、ユーザU2がユーザU1と近接通信を行った位置を推定する。
Then, the
図1の例では、推定装置100は、日時dt11と日時dt12との間の時間(以下、「経過時間」ともいう)と、ユーザU1の歩行速度に基づいて、日時dt12におけるユーザU2の位置を推定する。例えば、推定装置100は、ユーザ情報記憶部121(図6参照)に示すようなユーザU1の歩行速度WS1に基づいて、ユーザU1が経過時間において位置LC11から移動可能な範囲を推定する。なお、推定装置100は、ユーザU1に対応する歩行速度を有しない場合、ユーザU1が属するユーザ属性、すなわち20代男性の平均的な歩行速度に基づいて、ユーザU1が経過時間において位置LC11から移動可能な範囲を推定してもよい。
In the example of FIG. 1, the
例えば、推定装置100は、ユーザU1の歩行速度が「6km/h(キロメートル毎時)」であり、日時dt11と日時dt12との間の経過時間が30分である場合、ユーザU1が経過時間において、約「3km(=6*0.5)」だけ移動可能であると推定する。この場合、推定装置100は、位置LC11を中心とする半径3kmの円周状において、ユーザU1とユーザU2とがすれ違ったと推定する。
For example, when the walking speed of the user U1 is “6 km / h (kilometers per hour)” and the elapsed time between the date and time dt11 and the date and time dt12 is 30 minutes, the
図1の例では、推定装置100は、日時dt12において、ユーザU1とユーザU2とが円CR11上のいずれかの位置ですれ違ったことと推定する。すなわち、推定装置100は、日時dt12におけるユーザU2の位置が円CR11上のいずれかの位置であると推定する。なお、図1中の円CR11が所定の幅(例えば1mや50m等)を有する円環状であってもよく、推定装置100は、ユーザU2がその円環状の円CR11内のどこかに位置すると推定してもよい。なお、推定装置100は、ユーザU1についても同様に、日時dt12におけるユーザU2の位置が円CR11上のいずれかの位置であると推定してもよい。
In the example of FIG. 1, the
このように、推定装置100は、ユーザU2以外のユーザであるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt12におけるユーザU2の位置を推定することができる。このように、推定装置100は、位置情報が取得されていないユーザであっても、他のユーザの情報や他のユーザとの共通行動情報を用いることにより、適切にそのユーザの位置を推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。
As described above, the
〔1−1−1.道路情報の利用〕
また、推定装置100は、他のユーザのコンテキスト情報や共通行動情報に加えて、道路情報を用いることにより、ユーザの位置を推定してもよい。例えば、推定装置100は、道路情報に基づいて、ユーザの位置の候補を絞り込んでもよい。
[1-1-1. Use of road information]
Further, the
推定装置100は、道路情報を取得する(ステップS15)。図1の例では、地図MP11内の道路情報を取得する。例えば、推定装置100は、道路地図情報記憶部125(図5参照)から地図MP11内の道路情報を取得する。図1の例では、推定装置100は、図1中の地図MP11内に示すような道路情報RD11を取得する。なお、推定装置100は、所定の外部装置から地図MP11内の道路情報を取得してもよい。例えば、推定装置100は、道路地図サービスを提供するサービス提供装置から地図MP11内の道路情報を取得してもよい。
The
そして、推定装置100は、図1中の円CR11と、道路情報RD11とに基づいて、日時dt12におけるユーザU2の位置を推定する(ステップS16)。例えば、推定装置100は、図1中の円CR11と、道路情報RD11とに基づいて、日時dt12におけるユーザU2の位置を円CR11から絞り込む。具体的には、推定装置100は、図1中の円CR11と、道路情報RD11とが交わる地点(位置)を、日時dt12におけるユーザU2の位置として推定する。図1の例では、推定装置100は、図1中の円CR11と、道路情報RD11とが交わる6つの位置LC1〜LC6を、日時dt12におけるユーザU2の位置として推定する。
Then, the
このように、推定装置100は、道路情報RD11を用いることにより、日時dt12におけるユーザU2の位置を、図1中の円CR11から6つの位置LC1〜LC6まで絞り込むことができる。このように、推定装置100は、他のユーザのコンテキスト情報や共通行動情報に加えて、道路情報を用いることにより、適切にユーザの位置を推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。
Thus, the
このように、推定装置100は、ユーザU2以外のユーザであるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt12におけるユーザU2の位置を推定することができる。このように、推定装置100は、位置情報が取得されていないユーザであっても、他のユーザの情報や他のユーザとの共通行動情報を用いることにより、適切にそのユーザの位置を推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。図1の例では、推定装置100は、位置情報が取得できていないユーザU2の日時dt12における位置情報を、他のユーザU1の情報により補完することができる。このように、推定装置100は、コンテキスト情報が取得できていない日時におけるユーザのコンテキスト情報を補完することができる。
As described above, the
〔1−2.第1ユーザが二人の場合〕
なお、図1の例では、ユーザU2の位置を推定する日時dt12が、ユーザU1が位置LC11に位置した日時dt11よりも後である場合を示したが、コンテキストの推定対象となる日時は、いずれの日時であってもよい。例えば、ユーザU2の位置を推定する日時が、ユーザU1の位置が検知された日時よりも前であってもよい。また、第1ユーザの数は一人に限らず、二人以上であってもよい。これらの点について、図2を用いて説明する。
[1-2. When the first user is two people]
In the example shown in FIG. 1, the date / time dt12 for estimating the position of the user U2 is later than the date / time dt11 for which the user U1 is located at the position LC11. The date and time of For example, the date and time when the position of the user U2 is estimated may be earlier than the date and time when the position of the user U1 is detected. Also, the number of first users is not limited to one, and may be two or more. These points will be described with reference to FIG.
図2に示す地図情報MP21(以下、単に「地図MP21」ともいう)は、ユーザU1やユーザU2等の位置を模式的に示す。また、地図MP21に示す、位置LC21や位置LC31は、具体的な緯度経度を示す情報であってもよい。 The map information MP21 (hereinafter, also simply referred to as "map MP21") shown in FIG. 2 schematically indicates the positions of the user U1, the user U2, and the like. Further, the position LC21 and the position LC31 illustrated in the map MP21 may be information indicating specific latitude and longitude.
まず、端末装置10−1は、日時dt21において、ユーザU2が利用する端末装置10−2と近接通信を行う(ステップS21)。例えば、端末装置10−1と端末装置10−2とは、Bluetooth(登録商標)等の機能により、日時dt21において、すれ違い通信を行う。すなわち、端末装置10−1や端末装置10−2は、日時dt21において、ユーザU1がユーザU2と近傍に位置したことを示す情報を検知する。例えば、端末装置10−1や端末装置10−2は、日時dt21において、ユーザU1がユーザU2とすれ違ったことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、端末装置10−1と端末装置10−2とのいずれか一方のみが、日時dt21において、ユーザU1がユーザU2とすれ違ったことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt21において、ユーザU1とユーザU2とが近接したことを示す共通行動情報(コンテキスト情報)を取得する(ステップS22)。例えば、推定装置100は、日時dt21において、ユーザU1とユーザU2とがすれ違ったことを示す共通行動情報を取得する。
First, the terminal device 10-1 performs proximity communication with the terminal device 10-2 used by the user U2 at the date and time dt21 (step S21). For example, the terminal device 10-1 and the terminal device 10-2 perform passing communication at the date and time dt21 using a function such as Bluetooth (registered trademark). That is, the terminal device 10-1 and the terminal device 10-2 detect information indicating that the user U1 is located near the user U2 at the date dt21. For example, the terminal device 10-1 and the terminal device 10-2 collect context information indicating that the user U1 has passed the user U2 at the date and time dt21, and transmit the context information to the
そして、推定装置100(図5参照)は、日時dt22におけるユーザU1のコンテキスト情報を取得する(ステップS23)。図2の例では、ユーザU1が利用する端末装置10−1は、GPS等の所定の位置情報を検知する機能により、日時dt22における端末装置10−1(ユーザU1)の位置が位置LC21であることを示すコンテキスト情報を取得する。例えば、端末装置10−1がユーザU1の位置が位置LC21であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt22におけるユーザU1のコンテキスト情報を取得する。
Then, the estimation apparatus 100 (see FIG. 5) acquires context information of the user U1 at the date and time dt22 (step S23). In the example of FIG. 2, the terminal device 10-1 used by the user U1 has a position LC21 at which the position of the terminal device 10-1 (user U1) at the date and time dt22 is determined by the function of detecting predetermined position information such as GPS. Get context information to indicate that. For example, when the terminal device 10-1 transmits context information indicating that the position of the user U1 is the position LC21 to the
また、推定装置100(図5参照)は、日時dt23におけるユーザU3のコンテキスト情報を取得する(ステップS24)。図2の例では、ユーザU3が利用する端末装置10−3は、GPS等の所定の位置情報を検知する機能により、日時dt23における端末装置10−3(ユーザU3)の位置が位置LC31であることを示すコンテキスト情報を取得する。例えば、端末装置10−3がユーザU3の位置が位置LC31であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt23におけるユーザU3のコンテキスト情報を取得する。
The estimation apparatus 100 (see FIG. 5) acquires context information of the user U3 at the date and time dt23 (step S24). In the example of FIG. 2, the terminal device 10-3 used by the user U3 has a position LC31 at which the position of the terminal device 10-3 (user U3) at the date and time dt23 is determined by the function of detecting predetermined position information such as GPS. Get context information to indicate that. For example, when the terminal device 10-3 transmits context information indicating that the position of the user U3 is the position LC31 to the
そして、端末装置10−3は、日時dt24において、ユーザU2が利用する端末装置10−2と近接通信を行う(ステップS25)。例えば、端末装置10−3と端末装置10−2とは、Bluetooth(登録商標)等の機能により、日時dt24において、すれ違い通信を行う。すなわち、端末装置10−3や端末装置10−2は、日時dt24において、ユーザU3がユーザU2と近傍に位置したことを示す情報を検知する。例えば、端末装置10−3や端末装置10−2は、日時dt24において、ユーザU3がユーザU2とすれ違ったことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、端末装置10−3と端末装置10−2とのいずれか一方のみが、日時dt24において、ユーザU3がユーザU2とすれ違ったことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt24において、ユーザU3とユーザU2とが近接したことを示す共通行動情報(コンテキスト情報)を取得する(ステップS26)。例えば、推定装置100は、日時dt24において、ユーザU3とユーザU2とがすれ違ったことを示す共通行動情報を取得する。
The terminal device 10-3 performs near-field communication with the terminal device 10-2 used by the user U2 at the date and time dt24 (step S25). For example, the terminal device 10-3 and the terminal device 10-2 perform passing communication at the date and time dt24 by a function such as Bluetooth (registered trademark). That is, the terminal device 10-3 and the terminal device 10-2 detect information indicating that the user U3 is located near the user U2 at the date and time dt24. For example, the terminal device 10-3 and the terminal device 10-2 collect context information indicating that the user U3 has passed the user U2 at the date and time dt24, and transmit the context information to the
そして、推定装置100は、日時dt21においてユーザU1とユーザU2とが近接したことを示す共通行動情報と、日時dt22におけるユーザU1の位置LC21とに基づいて、日時dt21におけるユーザU2の位置を推定する(ステップS27)。例えば、推定装置100は、日時dt21においてユーザU1とユーザU2とが近接したことを示す共通行動情報と、日時dt22におけるユーザU1の位置LC21とに基づいて、ユーザU2がユーザU1と近接通信を行った位置を推定する。例えば、図1と同様に、推定装置100は、日時dt21から日時dt22までの経過時間とユーザU1の歩行速度に基づいて、位置LC21を中心とし、ユーザU1が経過時間において移動可能な距離を半径とする円(「第1円」とする)を推定する。
Then, the
また、推定装置100は、日時dt23におけるユーザU3の位置LC31と、日時dt24においてユーザU3とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt24におけるユーザU2の位置を推定する(ステップS28)。例えば、推定装置100は、日時dt23におけるユーザU3の位置LC31と、日時dt24においてユーザU3とユーザU2とが近接したことを示す共通行動情報とに基づいて、ユーザU3がユーザU2と近接通信を行った位置を推定する。例えば、図1と同様に、推定装置100は、日時dt23から日時dt24までの経過時間とユーザU3の歩行速度に基づいて、位置LC31を中心とし、ユーザU3が経過時間において移動可能な距離を半径とする円(「第2円」とする)を推定する。
Further, the
そして、推定装置100は、ユーザU2の位置の推定対象となる日時dt21と日時dt24との間の経過時間と、ユーザU2の歩行速度に基づいて、第1円におけるユーザU2の位置や第2円におけるユーザU2の位置を絞り込む。例えば、推定装置100は、日時dt21と日時dt24との間の経過時間においてユーザU2が移動可能な距離(以下、「移動距離」ともいう)に基づいて、第1円におけるユーザU2の位置や第2円におけるユーザU2の位置を絞り込む。
Then, the
例えば、推定装置100は、日時dt21におけるユーザU2の位置が、第2円の円周上のいずれかの点との間の距離が移動距離以内となる第1円の円弧CA21上であると推定する。なお、図2中の円弧CA21は、所定の幅(例えば1mや50m等)を有してもよく、ユーザU2が幅を有する円弧CA21内のどこかに位置すると推定してもよい。すなわち、推定装置100は、日時dt21におけるユーザU2の位置を、第1円よりも絞り込まれた円弧CA21と推定する。
For example, the
また、例えば、推定装置100は、日時dt24におけるユーザU2の位置が、第1円の円周上のいずれかの点との間の距離が移動距離以内となる第2円の円弧CA31上であると推定する。なお、図2中の円弧CA31は、所定の幅(例えば1mや50m等)を有してもよく、ユーザU2が幅を有する円弧CA31内のどこかに位置すると推定してもよい。すなわち、推定装置100は、日時dt24におけるユーザU2の位置を、第2円よりも絞り込まれた円弧CA31と推定する。
Also, for example, in the
このように、推定装置100は、ユーザU2以外の複数の第1ユーザの情報を用いることにより、ユーザU2の位置をより絞り込んで推定することができる。このように、推定装置100は、位置情報が取得されていないユーザであっても、他のユーザの情報や他のユーザとの共通行動情報を用いることにより、適切にそのユーザの位置を推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。
As described above, the
〔1−3.第1ユーザが三人以上の場合〕
ここから、図3を用いて、ユーザU2の位置を推定する場合を一例として説明する。図3に示す地図情報MP31−1及び地図情報MP31−2は、ユーザU30の位置の候補地点の絞り込みを示すためのものであり、地図情報MP31−1及び地図情報MP31−2に示す範囲(エリア)は、同一のエリアである。また、以下では、地図情報MP31−1、MP31−2について、特に区別なく説明する場合には、地図情報MP31(以下、単に「地図MP31」ともいう)と記載する。また、地図MP31に示す、三角形は、それぞれユーザU31〜U33を示す。また、地図MP31に示す、ハッチングが付された丸は、各候補地点PT31−1〜PT33−2を示す。各候補地点PT31−1〜PT33−2は、位置を示し、具体的な緯度経度を示す情報であってもよい。
[1-3. When the first user is three or more people]
From here, the case where the position of the user U2 is estimated will be described as an example using FIG. The map information MP31-1 and the map information MP31-2 shown in FIG. 3 are for showing narrowing down of the candidate points of the position of the user U30, and the range (area (area) shown in the map information MP31-1 and the map information MP31-2 ) Are the same area. Further, hereinafter, the map information MP 31-1 and MP 31-2 will be described as map information MP 31 (hereinafter, also simply referred to as “map MP 31”) when the description is made without particular distinction. The triangles shown on the map MP31 indicate the users U31 to U33, respectively. Further, hatched circles shown on the map MP31 indicate candidate points PT31-1 to PT33-2. Each of the candidate points PT31-1 to PT33-2 may be information indicating a position and indicating specific latitude and longitude.
図3の例では、推定装置100は、道路情報を取得する。図3の例では、地図MP31内の道路情報を取得する。例えば、推定装置100は、道路地図情報記憶部125(図5参照)から地図MP31内の道路情報を取得する。図3の例では、推定装置100は、地図MP31内に示すような道路情報RD31を取得する。
In the example of FIG. 3, the
また、図3の例では、推定装置100は、ユーザU30が、日時dt31において、ユーザU31と近傍に位置したことを示す情報を取得する。例えば、ユーザU30が利用する端末装置10と、ユーザU31が利用する端末装置10とが、Bluetooth(登録商標)等の機能により、日時dt31において、すれ違い通信を行う。また、推定装置100は、日時dt31よりも後の所定の日時におけるユーザU31の位置を取得する。例えば、推定装置100は、図3の地図MP31中のユーザU31に対応する三角形の位置をユーザU31の位置として取得する。
Further, in the example of FIG. 3, the
また、図3の例では、推定装置100は、ユーザU30が、日時dt32において、ユーザU32と近傍に位置したことを示す情報を取得する。例えば、ユーザU30が利用する端末装置10と、ユーザU32が利用する端末装置10とが、Bluetooth(登録商標)等の機能により、日時dt32において、すれ違い通信を行う。また、推定装置100は、日時dt32よりも前の所定の日時におけるユーザU32の位置を取得する。例えば、推定装置100は、図3の地図MP31中のユーザU32に対応する三角形の位置をユーザU32の位置として取得する。
Further, in the example of FIG. 3, the
また、図3の例では、推定装置100は、ユーザU30が、日時dt33において、ユーザU33と近傍に位置したことを示す情報を取得する。例えば、ユーザU30が利用する端末装置10と、ユーザU33が利用する端末装置10とが、Bluetooth(登録商標)等の機能により、日時dt33において、すれ違い通信を行う。また、推定装置100は、日時dt33よりも後の所定の日時におけるユーザU33の位置を取得する。例えば、推定装置100は、図3の地図MP31中のユーザU33に対応する三角形の位置をユーザU33の位置として取得する。
Further, in the example of FIG. 3, the
そして、推定装置100は、日時dt31〜dt33におけるユーザU30の位置を推定する(ステップS31)。例えば、推定装置100は、日時dt31よりも後の所定の日時におけるユーザU31の位置と、日時dt31においてユーザU30とユーザU31とが近接したことを示す共通行動情報とに基づいて、日時dt31におけるユーザU30の位置を推定する。
Then, the
図3の例では、推定装置100は、日時dt31において、ユーザU30とユーザU31とが円CR31上のいずれかの位置ですれ違ったことと推定する。また、推定装置100は、図3中の円CR31と、道路情報RD31とに基づいて、日時dt31におけるユーザU30の位置を推定する。具体的には、推定装置100は、図3中の円CR31と、道路情報RD31とが交わる地点(位置)を、日時dt31におけるユーザU30の位置として推定する。例えば、推定装置100は、図3中の地点PT31−1、PT31−2を含む円CR31と、道路情報RD31とが交わる地点(位置)を、日時dt31におけるユーザU30の位置として推定する。
In the example of FIG. 3, the
例えば、推定装置100は、日時dt32よりも前の所定の日時におけるユーザU32の位置と、日時dt32においてユーザU30とユーザU32とが近接したことを示す共通行動情報とに基づいて、日時dt32におけるユーザU30の位置を推定する。
For example, based on the position of the user U32 at a predetermined date and time before the date and time dt32 and the common action information indicating that the user U30 and the user U32 approach each other at the date and time dt32, the
図3の例では、推定装置100は、日時dt32において、ユーザU30とユーザU32とが円CR32上のいずれかの位置ですれ違ったことと推定する。また、推定装置100は、図3中の円CR32と、道路情報RD31とに基づいて、日時dt32におけるユーザU30の位置を推定する。具体的には、推定装置100は、図3中の円CR32と、道路情報RD31とが交わる地点(位置)を、日時dt32におけるユーザU30の位置として推定する。例えば、推定装置100は、図3中の地点PT32−1〜PT32−4を含む円CR31と、道路情報RD31とが交わる地点(位置)を、日時dt32におけるユーザU30の位置として推定する。
In the example of FIG. 3, the
例えば、推定装置100は、日時dt33よりも後の所定の日時におけるユーザU33の位置と、日時dt33においてユーザU30とユーザU33とが近接したことを示す共通行動情報とに基づいて、日時dt33におけるユーザU30の位置を推定する。
For example, based on the position of the user U33 at a predetermined date and time after the date and time dt33 and the common action information indicating that the user U30 and the user U33 approach each other at the date and time dt33, the
図3の例では、推定装置100は、日時dt33において、ユーザU30とユーザU33とが円CR33上のいずれかの位置ですれ違ったことと推定する。また、推定装置100は、図3中の円CR33と、道路情報RD31とに基づいて、日時dt33におけるユーザU30の位置を推定する。具体的には、推定装置100は、図3中の円CR33と、道路情報RD31とが交わる地点(位置)を、日時dt33におけるユーザU30の位置として推定する。例えば、推定装置100は、図3中の地点PT33−1、PT33−2を含む円CR33と、道路情報RD31とが交わる地点(位置)を、日時dt33におけるユーザU30の位置として推定する。
In the example of FIG. 3, the
そして、推定装置100は、日時dt31〜dt33におけるユーザU30の位置の候補(候補地点)を絞り込む(ステップS32)。例えば、推定装置100は、日時dt31における地点PT31−1、PT31−2、日時dt32における地点PT32−1〜PT32−4、日時dt33における地点PT33−1、PT33−2の位置関係に基づいて、各日時dt31〜dt33における候補地点を絞り込む。
Then, the
例えば、推定装置100は、日時dt33における地点PT33−1、PT33−2のうち、地点PT33−1が日時dt31に対応する地点の方が日時dt32に対応する地点よりも近接するため、地点PT33−1を候補地点から除外する。これにより、例えば、推定装置100は、日時dt33における候補地点を地点PT33−2に絞り込む。
For example, among the points PT33-1 and PT33-2 at the date and time dt33, the
そして、推定装置100は、日時dt32における地点PT32−1〜PT32−4のうち、日時dt31における地点PT31−1、PT31−2と、日時dt33における地点PT33−2との間の経路に位置しない地点PT32−3、PT32−4を候補地点から除外する。これにより、例えば、推定装置100は、日時dt32における候補地点を地点PT32−1、PT32−2に絞り込む。
Then, among the points PT32-1 to PT32-4 at the date and time dt32, the
このように、推定装置100は、三人以上の第1ユーザの情報を用いることにより、各日時におけるユーザの位置を精度よく絞り込むことができる。図3の例では、推定装置100は、3つの日時における候補地点間の関係に基づく経路に応じて、各日時の候補地点を絞り込むことにより、ユーザの位置を精度よく推定することができる。すなわち、推定装置100は、複数の第1ユーザの端末装置10(マルチピア)から取得される情報を用いることにより、第2ユーザの位置を精度よく絞り込むことができる。
As described above, the
例えば、推定装置100は、信号で立ち止まったりするなど、ユーザの移動が等速ではない場合であっても、複数の第1ユーザの情報を用いて、移動経路を推定することにより、第2ユーザの位置の候補を精度よく絞り込むことができる。例えば、推定装置100は、複数の第1ユーザとの共通行動情報を用いることにより、異常検出等により、おかしなデータを除去することができる。例えば、推定装置100は、GPS等により取得された第1ユーザの位置が誤差を含んでいる場合であっても、複数の第1ユーザの情報を用いることにより、各日時における候補を絞り込むことができる。例えば、推定装置100は、複数の第1ユーザの情報を用いることにより、各日時における候補間の関係に基づいて、各日時における候補を絞り込むことができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。
For example, even if the movement of the user is not at the same speed, such as stopping at a signal, the
〔1−4.他の情報の利用〕
図1の例では、日時dt11におけるユーザU1の位置と、日時dt12におけるユーザU1及びユーザU2の近接に基づいて、日時dt12におけるユーザU2の位置を推定する場合を示したが、推定装置100は、他の情報を用いて推定精度を向上させてもよい。例えば、推定装置100は、ユーザU1のスケジュール情報やユーザU2のスケジュール情報を用いて、日時dt12におけるユーザU2の位置の推定精度を向上させてもよい。
[1-4. Use of other information]
The example of FIG. 1 shows the case where the position of the user U2 at the date dt12 is estimated based on the position of the user U1 at the date dt11 and the proximity of the user U1 and the user U2 at the date dt12. Other information may be used to improve the estimation accuracy. For example, the
例えば、推定装置100は、ユーザ情報記憶部121(図6参照)中に示すユーザU2のスケジュール情報SC2を用いて、日時dt12におけるユーザU2の位置の推定精度を向上させてもよい。例えば、推定装置100は、日時dt11において、ユーザU2が位置LC11よりも地図MP11の左側に位置することを示す予定が含まれる場合、ユーザU2が地図MP11の左側から右側へ移動していると推定してもよい。そして、推定装置100は、日時dt12においてユーザU1とユーザU2とが、円CR11の左側部分のいずれかの位置で近接したと推定してもよい。すなわち、推定装置100は、日時dt12においてユーザU2が、円CR11の左側部分のいずれかの位置に位置すると推定してもよい。
For example, the
また、例えば、推定装置100は、日時dt12後の日時dt13において、ユーザU1が位置LC11よりも地図MP11の左側に位置することを示す予定が含まれる場合、ユーザU1が地図MP11の右側から左側へ移動していると推定してもよい。そして、推定装置100は、日時dt12においてユーザU1とユーザU2とが、円CR11の左側部分のいずれかの位置で近接したと推定してもよい。すなわち、推定装置100は、日時dt12においてユーザU2が、円CR11の左側部分のいずれかの位置に位置すると推定してもよい。なお、上記は一例であり、推定装置100は、種々の情報を適宜用いて、推定精度を向上させてもよい。
Also, for example, when the
〔1−5.他の推定例〕
図1〜図3の例では、第2ユーザのコンテキストとして第2ユーザの位置を推定する場合を一例として説明したが、推定装置100は、種々のコンテキストを推定してもよい。例えば、推定装置100は、第2ユーザのコンテキストとして第2ユーザの移動手段や第2ユーザの状態等を推定してもよい。
[1-5. Other estimation example]
Although the example of estimating the position of the 2nd user as a 2nd user's context was explained as an example in the example of Drawing 1-Drawing 3, estimating
〔1−5−1.移動手段の推定〕
例えば、推定装置100は、ユーザの移動手段を推定してもよい。例えば、推定装置100は、第1ユーザ及び第2ユーザの共通行動情報と、第1ユーザのコンテキスト情報とに基づいて、第2ユーザの移動手段を推定してもよい。この点について、図11を用いて説明する。図11は、実施形態に係る推定処理の一例を示す図である。
[1-5-1. Estimation of moving means]
For example, the
図11の例では、推定装置100は、二人の第1ユーザであるユーザU61、U62と第2ユーザであるユーザU6との共通行動情報と、ユーザU61、U62の各々のコンテキスト情報に基づいて、ユーザU6の移動手段(交通手段)を推定する場合を示す。なお、ここでいう移動手段には、ユーザをある位置から別の位置まで移動(運送)可能であれば、飛行機等を含む飛行体やバス等を含む車両や新幹線等を含む鉄道等の種々の移動手段(運送手段)が含まれてもよい。
In the example of FIG. 11, the
図11に示す地図情報MP61(以下、単に「地図MP61」ともいう)は、ユーザU61やユーザU6等の位置を模式的に示す。また、地図MP61に示す、位置LC61や位置LC62は、具体的な緯度経度を示す情報であってもよい。 Map information MP61 (hereinafter, also simply referred to as "map MP61") illustrated in FIG. 11 schematically indicates the positions of the user U61, the user U6, and the like. Further, the position LC61 and the position LC62 shown on the map MP61 may be information indicating specific latitude and longitude.
まず、推定装置100(図5参照)は、日時dt65において、ユーザU61とユーザU6とが同行していることを示す共通行動情報を取得する(ステップS61)。例えば、ユーザU61とユーザU6とが複数回に亘って近接していることを示す共通行動情報を取得する。例えば、推定装置100は、日時dt65を含む所定の期間(例えば15分や1時間)において、ユーザU61が利用する端末装置10と、ユーザU6が利用する端末装置10とが複数回に亘って近接通信を行ったことを示す共通行動情報を取得する。
First, the estimation apparatus 100 (see FIG. 5) acquires common action information indicating that the user U61 and the user U6 are traveling together at the date and time dt 65 (step S61). For example, common action information indicating that the user U61 and the user U6 approach each other multiple times is acquired. For example, in a predetermined period (for example, 15 minutes or one hour) including the date and time dt 65, the
例えば、ユーザU61が利用する端末装置10と、ユーザU6が利用する端末装置10とは、所定のNFC等の機能により、日時dt65を含む所定の期間において、複数回に亘ってすれ違い通信を行う。すなわち、ユーザU61が利用する端末装置10やユーザU6が利用する端末装置10は、日時dt65を含む所定の期間において、ユーザU61がユーザU6と近傍に位置したことを示す情報を検知する。
For example, the
例えば、ユーザU61が利用する端末装置10やユーザU6が利用する端末装置10は、日時dt65を含む所定の期間において、ユーザU61がユーザU6と近接していたことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、ユーザU61が利用する端末装置10とユーザU6が利用する端末装置10とのいずれか一方のみが、ユーザU61がユーザU6と近接していたことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt65において、ユーザU61とユーザU6とが同行していたことを示す共通行動情報(コンテキスト情報)を取得する。
For example, the
そして、推定装置100は、日時dt65におけるユーザU61のコンテキスト情報を取得する(ステップS62)。図11の例では、ユーザU61が利用する端末装置10は、GPS等の所定の位置情報を検知する機能により、日時dt65におけるユーザU61が利用する端末装置10(ユーザU61)の位置が位置LC61であることを示すコンテキスト情報を取得する。例えば、ユーザU61が利用する端末装置10がユーザU61の位置が位置LC61であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt65におけるユーザU61のコンテキスト情報を取得する。
Then, the
また、推定装置100は、日時dt67において、ユーザU62とユーザU6とが同行していることを示す共通行動情報を取得する(ステップS63)。例えば、ユーザU62とユーザU6とが複数回に亘って近接していることを示す共通行動情報を取得する。例えば、推定装置100は、日時dt67を含む所定の期間(例えば15分や1時間)において、ユーザU62が利用する端末装置10と、ユーザU6が利用する端末装置10とが複数回に亘って近接通信を行ったことを示す共通行動情報を取得する。
Further, the
例えば、ユーザU62が利用する端末装置10と、ユーザU6が利用する端末装置10とは、所定のNFC等の機能により、日時dt67を含む所定の期間において、複数回に亘ってすれ違い通信を行う。すなわち、ユーザU62が利用する端末装置10やユーザU6が利用する端末装置10は、日時dt67を含む所定の期間において、ユーザU62がユーザU6と近傍に位置したことを示す情報を検知する。
For example, the
例えば、ユーザU62が利用する端末装置10やユーザU6が利用する端末装置10は、日時dt67を含む所定の期間において、ユーザU62がユーザU6と近接していたことを示すコンテキスト情報を収集し、推定装置100へ送信する。なお、ユーザU62が利用する端末装置10とユーザU6が利用する端末装置10とのいずれか一方のみが、ユーザU62がユーザU6と近接していたことを示すコンテキスト情報を推定装置100へ送信してもよい。これにより、推定装置100は、日時dt67において、ユーザU62とユーザU6とが同行していたことを示す共通行動情報(コンテキスト情報)を取得する。
For example, the
そして、推定装置100は、日時dt67におけるユーザU62のコンテキスト情報を取得する(ステップS64)。図11の例では、ユーザU62が利用する端末装置10は、GPS等の所定の位置情報を検知する機能により、日時dt67におけるユーザU62が利用する端末装置10(ユーザU62)の位置が位置LC62であることを示すコンテキスト情報を取得する。例えば、ユーザU62が利用する端末装置10がユーザU62の位置が位置LC62であることを示すコンテキスト情報を推定装置100に送信することにより、推定装置100は、日時dt67におけるユーザU62のコンテキスト情報を取得する。
Then, the
そして、推定装置100は、ユーザU61、U62と第2ユーザであるユーザU6との共通行動情報と、ユーザU61、U62の各々の位置とに基づいて、ユーザU6の移動手段を推定する(ステップS65)。図11の例では、推定装置100は、日時dt65においてユーザU61とユーザU6とが同行していたことを示す共通行動情報と、日時dt67においてユーザU62とユーザU6とが同行していたことを示す共通行動情報とを用いて、日時dt65から日時dt67の間の移動手段を推定する。すなわち、推定装置100は、日時dt65におけるユーザU61(ユーザU6)の位置LC61から、日時dt67におけるユーザU62(ユーザU6)の位置LC62まで移動する移動手段を推定する。
The estimating
例えば、推定装置100は、位置LC61から位置LC62までの距離や日時dt65と日時dt67との間の経過時間に基づいて、ユーザU6の移動手段を推定する。例えば、推定装置100は、位置LC61から位置LC62までの間において提供される複数の移動手段のうち、経過時間に対応する移動手段をユーザU6の移動手段として推定する。
For example, the
図11の例では、位置LC61から位置LC62までの間においては、バスによる移動手段TR61と、新幹線による移動手段TR62と、飛行機による移動手段TR63とが利用可能であるものとする。例えば、推定装置100は、移動手段TR61〜TR63のような、各地点間において提供される移動手段に関する情報(移動手段情報)を道路地図情報記憶部125(図5参照)や外部の情報処理装置から取得する。
In the example of FIG. 11, between the position LC61 and the position LC62, it is assumed that a means of transfer TR61 by bus, a means of transfer TR62 by Shinkansen, and a means of transfer TR63 by airplane are available. For example, the
例えば、推定装置100は、道路地図情報記憶部125(図5参照)に記憶された上記のような移動手段情報を用いて、ユーザU6の移動手段を推定する。例えば、推定装置100は、外部の情報処理装置から取得した上記のような移動手段情報を用いて、ユーザU6の移動手段を推定してもよい。
For example, the
また、図11の例では、バスによる移動手段TR61の所要時間は5時間であり、新幹線による移動手段TR62の所要時間は3時間であり、飛行機による移動手段TR63の所要時間は2時間であるものとする。また、日時dt65と日時dt67との間の経過時間は、2時間であるものとする。そのため、図11の例では、推定装置100は、経過時間「2時間」に対応する飛行機による移動手段TR63を、ユーザU6の移動手段として推定する。
Further, in the example of FIG. 11, the required time of the moving means TR61 by bus is 5 hours, the required time of the moving means TR62 by Shinkansen is 3 hours, and the required time of the moving means TR63 by airplane is 2 hours I assume. In addition, an elapsed time between the date and time dt65 and the date and time dt67 is 2 hours. Therefore, in the example of FIG. 11, the
このように、推定装置100は、ユーザU61、U62と第2ユーザであるユーザU6との共通行動情報と、ユーザU61、U62の各々の位置とに基づいて、ユーザU6の移動手段を適切に推定することができる。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。
Thus, the
〔1−5−2.状態の推定〕
また、推定装置100は、ユーザの状態を推定してもよい。例えば、推定装置100は、状態の開始や終了を推定してもよい。例えば、推定装置100は、第1ユーザの状態の遷移に基づいて、第2ユーザの状態を推定してもよい。この点について、以下説明する。以下の説明においては、「busy」は、何らかの事物に注力しており他の事物への即時の対応不可な状態であり、「free」は、特に注力した状態ではなく、即時に対応可能な状態であるものとする。
[1-5-2. Estimation of state]
Further, the
以下の例では、第2ユーザの状態推定の一例として、第2ユーザが電話できる状態かの推定を行う場合を一例として説明する。すなわち、以下の例では、「busy」は、そのユーザが電話対応不可である場合に対応し、「free」は、そのユーザが電話対応可能である場合に対応する。 In the following example, as an example of state estimation of the second user, the case of estimating whether the second user can make a call will be described as an example. That is, in the following example, "busy" corresponds to the case where the user is not capable of making telephone calls, and "free" corresponds to the case where the user is capable of making telephone calls.
上記のように、推定装置100は、第2ユーザの状態を適切に推定することができる。具体的には、推定装置100は、ある第2ユーザ(第2ユーザAA)がある日時(日時XX)から、第1ユーザ(第1ユーザBB)とある状態(状態ST1)を共有していることを示す共通行動情報を取得する。例えば、推定装置100は、第2ユーザAAが日時XXを含む期間において、第1ユーザBBと電話会議を行うことを示す第2ユーザAAのスケジュール情報を取得する。例えば、推定装置100は、第1ユーザBBと第2ユーザAAとが日時XXにおいて、電話会議を行っていることを示す共通行動情報を取得する。
As described above, the
第1ユーザBBは、日時XXよりも後の日時(日時XY)から、第2ユーザAAではなく他のユーザ(ユーザCC)とある状態(状態ST2)を共有していることを示す共通行動情報を取得する。例えば、推定装置100は、第1ユーザBBが日時XYを始点とする期間において、ユーザCCと電話会議を行うことを示す第1ユーザBBのスケジュール情報を取得する。例えば、推定装置100は、第1ユーザBBが日時XYを始点とする期間において、ユーザCCと電話会議を行うことを示す第1ユーザBBのスケジュール情報を、第1ユーザBBのコンテキスト情報として取得する。
Common action information indicating that the first user BB shares a state (state ST2) with another user (user CC) instead of the second user AA from the date and time (date and time XY) after the date and time XX To get For example, the
そして、推定装置100は、日時XXにおける第1ユーザBBと第2ユーザAAとの共通行動情報と、日時XYにおける第1ユーザBBのコンテキスト情報とに基づいて、第2ユーザAAのコンテキストを推定する。例えば、推定装置100は、日時XXにおける第1ユーザBBと第2ユーザAAとの共通行動情報と、日時XYにおける第1ユーザBBのコンテキスト情報とに基づいて、日時XYにおける第2ユーザAAのコンテキストを推定する。
Then, the
推定装置100は、日時XXにおいて第2ユーザAAと電話会議を行っていた第1ユーザBBが日時XYにおいて他のユーザCCと電話会議を行っているため、第2ユーザAAが日時XYにおいては電話会議を終了していると推定する。そして、推定装置100は、日時XYにおける第2ユーザAAの状態を「free」と推定する。すなわち、推定装置100は、日時XYにおいては、第2ユーザAAが電話できる状態であると推定する。
The
このように、上述した例では、推定装置100は、第2日時である日時XXにおける共通行動情報と、第1日時である日時XYにおける第1ユーザBBのコンテキスト情報とに基づいて、日時XYにおける第2ユーザAAのコンテキストを推定する。すなわち、推定装置100は、第2日時における第1ユーザ及び第2ユーザの共通行動と、第2日時よりも後の第1日時における第1ユーザのコンテキスト情報とに基づいて、第1日時における第2ユーザのコンテキストを推定する。具体的には、推定装置100は、第2日時における第1ユーザ及び第2ユーザの共通行動(電話会議)と、第1日時における第1ユーザの状態(他のユーザとの電話)に基づいて、第1日時における第2ユーザの状態(電話可能)を推定する。したがって、推定装置100は、ユーザのコンテキストを適切に推定することができる。また、推定装置100は、日時XXにおける第2ユーザAAの状態を「busy」と推定してもよい。なお、上記は一例であり、推定装置100は、電話を行っている状態に限らず、種々のユーザの状態を推定してもよい。また、上記の「busy」、「free」は一例であり、「busy」、「free」に限らず、他の状態を推定してもよい。
As described above, in the example described above, the
〔1−6.第1ユーザについて〕
なお、推定装置100は、推定処理に情報を用いる第1ユーザを選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補のうち、推定処理に情報を用いる第1ユーザを選択してもよい。例えば、推定装置100は、推定処理に用いる第1コンテキスト情報を選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補のうち、推定処理に情報を用いる第1ユーザを選択し、選択した第1ユーザの情報を取得してもよい。例えば、推定装置100は、推定処理に用いる第1コンテキスト情報を選択し、取得してもよい。
[1-6. About the first user]
In addition, the
例えば、第2ユーザが複数のユーザ(候補ユーザ)とすれ違い通信(近接通信)を行っている場合、推定装置100は、候補ユーザ(第1ユーザの候補)から、所定の条件に基づいて第1ユーザを選択してもよい。例えば、推定装置100は、候補ユーザのうち、候補ユーザ自身の挙動が所定の条件を満たすユーザを第1ユーザとして選択してもよい。
For example, when the second user is performing passing communication (proximity communication) with a plurality of users (candidate users), the
例えば、推定装置100は、すれ違い通信(近接通信)後に走り去ったユーザを第1ユーザとして選択しなくてもよい。例えば、推定装置100は、候補ユーザから、移動速度が所定の閾値以上である等により走り去ったと推定されるユーザを除外してもよい。例えば、推定装置100は、候補ユーザから、走り去ったと推定されるユーザを推定精度の向上に寄与しないユーザとして除外してもよい。
For example, the
例えば、推定装置100は、急に立ち止まったり、走ったり不規則な動きをしているユーザを第1ユーザとして選択しなくてもよい。例えば、推定装置100は、候補ユーザから、位置情報の変化が不規則なユーザを除外してもよい。例えば、推定装置100は、候補ユーザから、位置情報の変化が不規則なユーザを推定精度の向上に寄与しないユーザとして除外してもよい。
For example, the
例えば、推定装置100は、上記のような推定精度に関する条件を満たさないユーザが除外された候補ユーザから、第1ユーザを選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補(候補ユーザ)のうち、第2ユーザと同行しているユーザを第1ユーザとして選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補(候補ユーザ)のうち、所定の期間に立ち止まっているユーザを第1ユーザとして選択してもよい。例えば、推定装置100は、複数の第1ユーザの候補(候補ユーザ)のうち、所定の期間に亘って所定の範囲内(例えば5m以内)の位置情報が連続して検知されたユーザを第1ユーザとして選択してもよい。なお、上記は一例であり、推定装置100は、種々の情報を用いて複数の第1ユーザの候補(候補ユーザ)から、第1ユーザを選択してもよい。例えば、推定装置100は、第2ユーザに同行しているユーザや立ち止まっているユーザを、推定精度の向上に寄与する第1ユーザとして選択してもよい。
For example, the
〔1−7.第2コンテキスト情報の利用について〕
なお、推定装置100は、推定処理により推定した情報(推定情報)を用いて、さらに推定処理を行ってもよい。例えば、推定装置100は、推定処理を再帰的に行ってもよい。すなわち、推定装置100は、取得(検知)されたコンテキスト情報だけでなく、推定されたコンテキスト情報も用いて、推定処理を行ってもよい。例えば、取得(検知)されたコンテキスト情報がスパースな場合、推定装置100は、取得(検知)されたコンテキスト情報だけでなく、推定されたコンテキスト情報も用いて、推定処理を行ってもよい。例えば、取得(検知)されたコンテキスト情報が所定量未満である場合、推定装置100は、取得(検知)されたコンテキスト情報だけでなく、推定されたコンテキスト情報も用いて、推定処理を行ってもよい。
[1-7. Regarding Use of Second Context Information]
The
例えば、推定装置100は、第1ユーザのコンテキスト情報を使って推定された第2日時における第2ユーザのコンテキスト情報に基づいて、第1日時及び第2日時のいずれとも異なる第3日時における第3ユーザのコンテキストを推定してもよい。例えば、推定装置100は、第1日時(日時dt11)における第1ユーザ(ユーザU1)のコンテキスト情報を使って推定された第2日時(日時dt12)における第2ユーザ(ユーザU2)のコンテキスト情報に基づいて、第3日時(日時dt13)における第3ユーザ(ユーザU3)のコンテキストを推定してもよい。例えば、推定装置100は、日時dt13においてユーザU2と近接したユーザU3の位置を、日時dt12におけるユーザU2の位置に基づいて、推定してもよい。なお、上記は一例であり、推定装置100は、推定処理により推定した情報(推定情報)を用いて、さらに種々の情報を推定してもよい。
For example, the estimating
〔1−8.システム構成について〕
なお、上記推定処理を実現するシステム構成については、図4に示す推定システム1に限らず種々の態様であってもよい。図4の例では、サーバとしての推定装置100とクライアントとしての端末装置10とを備える構成であり、推定装置100と端末装置10とは別体(別装置)であったが、推定装置100と端末装置10とは一体であってもよい。すなわち、推定システムにおいて、ユーザが利用する各端末装置10が、上述した推定処理を行う推定装置100であってもよい。この場合、推定装置100である端末装置10が、すれ違い通信時等において他の端末装置10からコンテキスト情報等を取得し、取得したコンテキスト情報に基づいて、推定処理を行ってもよい。このように、各端末装置10は、サーバ装置を介さずに、端末装置10間でコンテキスト情報の通信を行ってもよい。例えば、各端末装置10は、いわゆるP2P(Peer to Peer)のような態様により、各端末装置10間でコンテキスト情報の通信を行ったり、共有を行ったりしてもよい。
[1-8. About system configuration]
The system configuration for realizing the above estimation process is not limited to the estimation system 1 shown in FIG. 4 and may be various modes. In the example of FIG. 4, the configuration is provided with the
また、推定システムは、ユーザが利用する各端末装置10が上述した推定処理を行う推定装置100であっても、サーバ装置を備えてもよい。この場合、推定装置100である端末装置10は、推定処理により推定した情報(推定情報)をサーバ装置へ送信したり、推定処理に用いる情報をサーバ装置から取得したりしてもよい。例えば、端末装置10は、地図情報やフライト情報等の移動経路に関する情報等をサーバ装置から取得したりしてもよい。なお、上記は一例であり、推定システムは、どのような構成により実現されてもよい。
Further, the estimation system may be the
〔2.推定装置の構成〕
次に、図5を用いて、実施形態に係る推定装置100の構成について説明する。図5は、実施形態に係る推定装置の構成例を示す図である。図5に示すように、推定装置100は、通信部110と、記憶部120と、制御部130とを有する。なお、推定装置100は、推定装置100の管理者等から各種操作を受け付ける入力部(例えば、キーボードやマウス等)や、各種情報を表示するための表示部(例えば、液晶ディスプレイ等)を有してもよい。
[2. Configuration of estimation device]
Next, the configuration of the
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークと有線または無線で接続され、例えば推定システム1に含まれる端末装置10との間で情報の送受信を行う。
(Communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC). The communication unit 110 is connected to the network by wire or wirelessly, and transmits and receives information to and from, for example, the
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。実施形態に係る記憶部120は、図5に示すように、ユーザ情報記憶部121と、コンテキスト情報記憶部122と、共通行動情報記憶部123と、推定情報記憶部124と、道路地図情報記憶部125とを有する。なお、道路地図情報記憶部125は、図示を省略するが、図1中の地図MP11に示すような地図情報や、道路RD11等のような道路情報等、推定処理に用いる地図や道路に関する各種情報を記憶する。また、地図情報記憶部121は、推定処理に用いる地図や道路に関する情報であれば、どのような情報を記憶してもよい。
(Storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk. As illustrated in FIG. 5, the storage unit 120 according to the embodiment includes a user
(ユーザ情報記憶部121)
実施形態に係るユーザ情報記憶部121は、ユーザ属性に関する各種情報を記憶する。例えば、ユーザ情報記憶部121は、ユーザ属性情報を記憶する。図6は、実施形態に係るユーザ情報記憶部の一例を示す図である。図6に示すユーザ情報記憶部121は、「ユーザID」、「年齢」、「性別」、「スケジュール情報」、「歩行速度」、「興味」といった項目が含まれる。
(User information storage unit 121)
The user
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「年齢」は、ユーザIDにより識別されるユーザの年齢を示す。なお、「年齢」は、例えば35歳など、ユーザIDにより識別されるユーザの具体的な年齢であってもよい。また、「性別」は、ユーザIDにより識別されるユーザの性別を示す。 "User ID" indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. "Age" indicates the age of the user identified by the user ID. The “age” may be a specific age of the user identified by the user ID, such as 35, for example. Also, “sex” indicates the gender of the user identified by the user ID.
また、「スケジュール情報」は、ユーザIDにより識別されるユーザの行動予定を示すスケジュール情報が記憶される。なお、図6に示す例では、「スケジュール情報」は、「SC1」といった抽象的な符号を図示するが、スケジュール情報にはユーザの予定の内容や日時(期間)等の種々の情報が記憶される。例えば、「スケジュール情報」には、ユーザの電話会議や旅行等に関する予定を示す情報が記憶される。 Further, “schedule information” stores schedule information indicating an action schedule of the user identified by the user ID. In the example shown in FIG. 6, “schedule information” shows an abstract code such as “SC1”, but the schedule information stores various information such as the contents of the user's schedule and the date and time (period). Ru. For example, “schedule information” stores information indicating a schedule for a user's conference call, travel, and the like.
また、「歩行速度」は、ユーザIDにより識別されるユーザの平均的な歩行速度が記憶される。なお、図6に示す例では、「歩行速度」は、「WS1」といった抽象的な符号を図示するが、歩行速度には「5km/h(キロメートル毎時)」等の具体的な数値が記憶されてもよい。例えば、推定装置100は、ユーザの行動パターン等からユーザの歩行速度を推定してもよい。
Further, the “walking speed” stores the average walking speed of the user identified by the user ID. In the example shown in FIG. 6, “walking speed” indicates an abstract code such as “WS1”, but a specific numerical value such as “5 km / h (hours per kilometer)” is stored as the walking speed. May be For example, the
なお、ユーザに対応する歩行速度が記憶されていない場合、ユーザが属するユーザ属性のユーザの平均的な歩行速度が用いられてもよい。例えば、ユーザU2に対応する歩行速度が記憶されていない場合、ユーザU2が属するユーザ属性、すなわち20代女性の平均的な歩行速度が用いられてもよい。 In addition, when the walking speed corresponding to the user is not stored, the average walking speed of the user having the user attribute to which the user belongs may be used. For example, if the walking speed corresponding to the user U2 is not stored, the user attribute to which the user U2 belongs, that is, the average walking speed of a woman in her twenties may be used.
また、「興味」は、ユーザIDにより識別されるユーザの興味を示す。すなわち、「興味」は、ユーザIDにより識別されるユーザが関心の高い対象を示す。なお、図6に示す例では、「興味」は、各ユーザに1つずつ図示するが、複数であってもよい。 Also, “interest” indicates the interest of the user identified by the user ID. That is, “interesting” indicates an object that the user identified by the user ID is highly interested in. In the example shown in FIG. 6, although one “interest” is illustrated for each user, it may be plural.
例えば、図6に示す例において、ユーザID「U1」により識別されるユーザの年齢は、「20代」であり、性別は、「男性」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、スケジュール情報が「SC1」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、歩行速度が「WS1」であることを示す。また、例えば、ユーザID「U1」により識別されるユーザは、「スポーツ」に興味があることを示す。 For example, in the example illustrated in FIG. 6, the age of the user identified by the user ID "U1" is "twenties", and the gender indicates "male". Also, for example, the user identified by the user ID “U1” indicates that the schedule information is “SC1”. Also, for example, the user identified by the user ID “U1” indicates that the walking speed is “WS1”. Also, for example, the user identified by the user ID “U1” indicates that he / she is interested in “sports”.
なお、ユーザ情報記憶部121は、上記に限らず、目的に応じて種々の情報を記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザのデモグラフィック属性に関する情報やサイコグラフィック属性に関する情報を記憶してもよい。例えば、ユーザ情報記憶部121は、自宅の位置(住所)、勤務先の位置(住所)、氏名、家族構成、収入、興味、ライフスタイル等の情報を記憶してもよい。まず、図6では、図示を省略するが、ユーザ情報記憶部121は、各ユーザが利用する端末装置10を識別する情報をユーザに対応付けて記憶してもよい。例えば、ユーザ情報記憶部121は、ユーザU1が利用する端末装置10−1を識別する情報をユーザU1に対応付けて記憶してもよい。
The user
(コンテキスト情報記憶部122)
実施形態に係るコンテキスト情報記憶部122は、ユーザのコンテキストに関する各種情報を記憶する。図7は、実施形態に係るコンテキスト情報記憶部の一例を示す図である。例えば、コンテキスト情報記憶部122は、各ユーザの位置や端末装置10の通信やユーザの行動等の各種のコンテキスト情報を記憶する。図7に示すコンテキスト情報記憶部122には、「ユーザID」、「コンテキストID」、「日時」、「種別」、「内容」といった項目が含まれる。
(Context information storage unit 122)
The context
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「コンテキストID」は、ユーザのコンテキストを識別する情報を示す。「日時」は、対応するユーザのコンテキストが行われた日時を示す。なお、図7の例では、「dt11」等で図示するが、「日時」には、「2017年10月18日23時41分58秒」等の具体的な日時が記憶されてもよい。また、「種別」は、対応するユーザのコンテキストの種別に関する情報を示す。また、「内容」は、対応するユーザのコンテキストの具体的な内容を示す。 "User ID" indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. Also, “context ID” indicates information that identifies the context of the user. “Date and time” indicates the date and time when the context of the corresponding user was performed. In the example of FIG. 7, although illustrated as “dt 11” or the like, a specific date and time such as “Oct 18, 2017 23:41:58” may be stored in the “date and time”. Also, “type” indicates information on the type of context of the corresponding user. Also, “content” indicates the specific content of the context of the corresponding user.
例えば、図7に示す例において、ユーザID「U1」により識別されるユーザ(ユーザU1)は、コンテキストID「AC11」やコンテキストID「AC12」等により各々識別されるコンテキストが取得されたことを示す。 For example, in the example illustrated in FIG. 7, the user (user U1) identified by the user ID “U1” indicates that the context identified by the context ID “AC11” or the context ID “AC12” has been acquired. .
例えば、図7に示す例においてユーザU1は、コンテキストAC11に示すように、日時dt11において、種別が位置のコンテキスト情報が取得されたことを示す。コンテキストAC11は、日時dt11におけるユーザU1の位置が位置「LC11」であることを示す。図7に示す例では、位置「LC11」といった抽象的な符号を図示するが、緯度や経度を示す情報であってもよい。また、例えば、位置「LC11」は、地域名や住所であってもよい。このように、「コンテキストAC*(*は任意の数値)」と記載した場合、そのコンテキストはコンテキストID「AC*」により識別されるコンテキストであることを示す。 For example, in the example illustrated in FIG. 7, as illustrated in the context AC11, the user U1 indicates that context information whose type is the position is acquired at the date and time dt11. The context AC11 indicates that the position of the user U1 at the date and time dt11 is the position “LC11”. In the example shown in FIG. 7, an abstract code such as the position "LC11" is illustrated, but it may be information indicating latitude or longitude. Also, for example, the position “LC11” may be a region name or an address. Thus, when "context AC * (* is any numerical value)" is described, it indicates that the context is the context identified by the context ID "AC *".
また、例えば、図7に示す例においてユーザU1は、コンテキストAC12に示すように、日時dt12において、種別が近接通信のコンテキスト情報が取得されたことを示す。コンテキストAC12は、日時dt12において、ユーザU1が利用する端末装置10−1がユーザU2が利用する端末装置10−2と近接通信を行ったこと、すなわちユーザU1がユーザU2と近傍に位置したことを示す。例えば、コンテキストAC12は、日時dt12において、ユーザU1がユーザU2とすれ違ったことを示す。 Further, for example, in the example illustrated in FIG. 7, as illustrated in the context AC12, the user U1 indicates that the date information dt12 has acquired context information of the type near field communication. The context AC 12 indicates that the terminal device 10-1 used by the user U1 performs near-field communication with the terminal device 10-2 used by the user U2 at the date and time dt12, that is, the user U1 is located near the user U2 Show. For example, the context AC12 indicates that the user U1 has passed the user U2 at the date dt12.
また、例えば、図7に示す例においてユーザU2は、コンテキストAC21に示すように、日時dt12において、種別が近接通信のコンテキスト情報が取得されたことを示す。コンテキストAC21は、日時dt12において、ユーザU2が利用する端末装置10−2がユーザU1が利用する端末装置10−1と近接通信を行ったこと、すなわちユーザU2がユーザU1と近傍に位置したことを示す。 Further, for example, in the example illustrated in FIG. 7, as illustrated in the context AC21, the user U2 indicates that, at the date and time dt12, context information whose type is proximity communication is acquired. The context AC 21 indicates that the terminal device 10-2 used by the user U2 performs near-field communication with the terminal device 10-1 used by the user U1 at the date and time dt12, that is, the user U2 is located near the user U1. Show.
また、例えば、ユーザU2のコンテキストAC22は、推定されたコンテキストに関する推定コンテキストEAC1であることを示す。コンテキストAC22は、日時dt12におけるユーザU2の位置が、円CR11上のいずれかであると推定されたことを示す。 Also, for example, the context AC22 of the user U2 indicates that it is an estimated context EAC1 related to the estimated context. The context AC22 indicates that the position of the user U2 at the date dt12 is estimated to be any one on the circle CR11.
なお、コンテキスト情報記憶部122は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図7では、ユーザIDごとにコンテキスト情報がコンテキスト情報記憶部122に記憶される場合を示したが、コンテキスト情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。
The context
(共通行動情報記憶部123)
実施形態に係る共通行動情報記憶部123は、共通行動に関する各種情報を記憶する。図8は、実施形態に係る共通行動情報記憶部の一例を示す図である。図8に示す共通行動情報記憶部123は、「共通行動ID」、「内容」、「ユーザID」、「日時」、「コンテキストID」、「行動概要」といった項目が含まれる。
(Common action information storage unit 123)
The common action
「共通行動ID」は、共通行動を識別するための識別情報を示す。「内容」は、共通行動IDにより識別される共通行動の内容を示す。 The “common action ID” indicates identification information for identifying a common action. "Content" indicates the content of the common action identified by the common action ID.
「ユーザID」は、共通行動IDにより識別される共通行動を行ったユーザとして抽出されたユーザを識別するための識別情報を示す。例えば、ユーザU1及びユーザU2は、図1の例に示したユーザU1及びユーザU2に対応する。なお、共通行動を行うユーザの数が3人以上であってもよい。 The “user ID” indicates identification information for identifying the user extracted as the user who has performed the common action identified by the common action ID. For example, the user U1 and the user U2 correspond to the user U1 and the user U2 illustrated in the example of FIG. Note that the number of users who perform the common action may be three or more.
「日時」は、対応するユーザのコンテキストが行われた日時を示す。また、「コンテキストID」は、共通行動として抽出されたユーザのコンテキストを識別する情報を示す。例えば、コンテキストAC12及びコンテキストAC21は、図1の例に示したステップS12における端末装置10−1及び端末装置10−2の近接通信に関するコンテキストに対応する。また、「行動概要」は、対応するユーザが行った共通行動の概要を示す。 “Date and time” indicates the date and time when the context of the corresponding user was performed. Also, “context ID” indicates information identifying the context of the user extracted as the common action. For example, the context AC12 and the context AC21 correspond to the context related to the near field communication of the terminal device 10-1 and the terminal device 10-2 in step S12 illustrated in the example of FIG. 1. Also, “action summary” indicates a summary of common actions performed by the corresponding user.
例えば、図8に示す例において、共通行動ID「CM1」により識別される共通行動情報(共通行動情報CM1)の内容は、「近接」であることを示す。共通行動情報CM1は、ユーザが近接していることを条件として抽出される情報(コンテキスト情報)であることを示す。共通行動情報CM1に対応する行動を共に行ったユーザとして、ユーザU1及びユーザU2が抽出されたことを示す。また、ユーザU1及びユーザU2は、日時dt12において近接したことを示す。また、共通行動情報CM1に対応する行動を共に行ったユーザとして、ユーザU6及びユーザU61が抽出されたことを示す。また、ユーザU6及びユーザU61は、日時dt65において近接したことを示す。 For example, in the example illustrated in FIG. 8, the content of the common behavior information (common behavior information CM1) identified by the common behavior ID “CM1” indicates that the content is “proximity”. The common behavior information CM1 indicates that it is information (context information) extracted on condition that the user is in proximity. It shows that the user U1 and the user U2 are extracted as the user who has performed the action corresponding to the common action information CM1. Also, the user U1 and the user U2 indicate that they have approached at the date and time dt12. It also indicates that the user U6 and the user U61 have been extracted as the users who have performed the action corresponding to the common action information CM1. Further, the user U6 and the user U61 indicate that they approach each other at the date dt65.
なお、共通行動情報記憶部123は、上記に限らず、目的に応じて種々の情報を記憶してもよい。
The common behavior
(推定情報記憶部124)
実施形態に係る推定情報記憶部124は、推定された各種情報を記憶する。図9は、実施形態に係る推定情報記憶部の一例を示す図である。図9に示す推定情報記憶部124は、実施形態に係る推定情報記憶部の一例を示す図である。推定情報記憶部124は、推定されたコンテキスト(推定コンテキスト)に関する情報を記憶する。例えば、推定情報記憶部124は、各ユーザの位置や端末装置10の通信やユーザの行動等の各種の推定コンテキスト情報を記憶する。図9に示す推定情報記憶部124には、「ユーザID」、「推定コンテキストID」、「日時」、「種別」、「内容」といった項目が含まれる。
(Estimated information storage unit 124)
The estimated
「ユーザID」は、ユーザを識別するための識別情報を示す。例えば、ユーザID「U1」により識別されるユーザは、図1の例に示したユーザU1に対応する。また、「推定コンテキストID」は、推定ユーザのコンテキスト(推定コンテキスト)を識別する情報を示す。「日時」は、推定コンテキストに対応する日時を示す。また、「種別」は、対応するユーザの推定コンテキストの種別に関する情報を示す。また、「内容」は、対応するユーザの推定コンテキストの具体的な内容を示す。 "User ID" indicates identification information for identifying a user. For example, the user identified by the user ID “U1” corresponds to the user U1 illustrated in the example of FIG. Also, “estimated context ID” indicates information identifying a context (estimated context) of the estimated user. "Date" indicates the date corresponding to the estimated context. Also, “type” indicates information regarding the type of estimated context of the corresponding user. Also, “content” indicates the specific content of the corresponding user's estimated context.
例えば、図9に示す例において、ユーザU2は、推定コンテキストID「EAC1」により各々識別されるコンテキスト(推定コンテキスト)が推定されたことを示す。例えば、図9に示す例においてユーザU2は、推定コンテキストEAC1に示すように、日時dt12において、種別が位置のコンテキスト情報が推定されたことを示す。推定コンテキストEAC1は、日時dt12におけるユーザU2の位置が、円CR11上のいずれかであると推定されたことを示す。このように、「推定コンテキストEAC*(*は任意の数値)」と記載した場合、その推定コンテキストは推定コンテキストID「EAC*」により識別される推定コンテキストであることを示す。 For example, in the example shown in FIG. 9, the user U2 indicates that the context (estimated context) identified by the estimated context ID "EAC1" has been estimated. For example, in the example illustrated in FIG. 9, as indicated by the estimated context EAC1, the user U2 indicates that, at the date dt12, context information whose type is the position is estimated. The estimated context EAC1 indicates that the position of the user U2 at the date and time dt12 is estimated to be anywhere on the circle CR11. Thus, when stated as "estimated context EAC * (* is any numerical value)", it indicates that the estimated context is the estimated context identified by the estimated context ID "EAC *".
なお、推定情報記憶部124は、上記に限らず、目的に応じて種々の情報を記憶してもよい。また、図9では、ユーザIDごとに推定コンテキスト情報が推定情報記憶部124に記憶される場合を示したが、推定コンテキスト情報は、ユーザIDごとに限らず、例えば時刻順に記憶されてもよい。
The estimated
(制御部130)
図5の説明に戻って、制御部130は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、推定装置100内部の記憶装置に記憶されている各種プログラム(推定プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(Control unit 130)
Returning to the description of FIG. 5, the control unit 130 is a controller, and is stored in a storage device inside the
図5に示すように、制御部130は、取得部131と、推定部132と、提供部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。
As illustrated in FIG. 5, the control unit 130 includes an
(取得部131)
取得部131は、各種情報を取得する。例えば、取得部131は、記憶部120から各種情報を取得する。例えば、取得部131は、ユーザ情報記憶部121やコンテキスト情報記憶部122や共通行動情報記憶部123や推定情報記憶部124や道路地図情報記憶部125から各種情報を取得する。
(Acquisition unit 131)
The
例えば、取得部131は、端末装置10から各種情報を取得する。例えば、取得部131は、端末装置10からユーザのコンテキスト情報を取得する。例えば、取得部131は、端末装置10から他の端末装置10との通信に関する情報を取得する。例えば、取得部131は、端末装置10から他の端末装置10と近接通信を行ったことを示すコンテキスト情報を取得する。
For example, the
例えば、取得部131は、端末装置10からユーザの行動情報を取得する。取得部131は、ユーザの位置情報を取得する。例えば、取得部131は、端末装置10や外部の情報処理装置からユーザの共通行動情報を取得する。
For example, the
例えば、取得部131は、第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する。取得部131は、第1日時における第1ユーザの位置を示す第1コンテキスト情報を取得する。取得部131は、第1日時における第1ユーザの状態を示す第1コンテキスト情報を取得する。
For example, the
例えば、取得部131は、第1ユーザと第2ユーザとが同日時に所定の範囲内に位置することを示す共通行動情報を取得する。取得部131は、第1ユーザが利用する第1端末と、第2ユーザとが利用する第2端末とが所定の近接通信を行うことにより検知される共通行動情報であって、第1ユーザと第2ユーザとが近接することを示す共通行動情報を取得する。
For example, the
例えば、取得部131は、第2日時よりも前の日時である第1日時における第1ユーザの第1コンテキスト情報を取得する。取得部131は、第2日時よりも後の日時である第1日時における第1ユーザの第1コンテキスト情報を取得する。
For example, the
例えば、取得部131は、第2日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得する。取得部131は、第1日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得する。取得部131は、複数の第1ユーザの各々と第2ユーザとが共通行動を行ったことを示す複数の共通行動情報と、複数の第1ユーザの各々に対応する複数の第1日時における複数の第1ユーザの各々のコンテキストを示す複数の第1コンテキスト情報とを取得する。
For example, the
また、取得部131は、第1ユーザと第2ユーザとが所定の期間内に同じコンテンツを閲覧したことを示す共通行動情報を取得する。例えば、取得部131は、インターネット上において、第1ユーザと第2ユーザとが所定の期間内に同じコンテンツを閲覧したことを示す共通行動情報を取得する。
Further, the
また、例えば、取得部131は、第1日時とは異なる他の第1日時において第1ユーザとは異なる他の第1ユーザと第2ユーザとが他の共通行動を行ったことを示す他の共通行動情報と、他の第1日時における他の第1ユーザのコンテキストを示す他の第1コンテキスト情報とを取得する。例えば、取得部131は、第2日時とは異なる第3日時における第2ユーザのコンテキストを示す第2コンテキスト情報を取得する。
Also, for example, the acquiring
図1の例では、取得部131は、日時dt11におけるユーザU1のコンテキスト情報を取得する。例えば、取得部131は、端末装置10−1からユーザU1の位置が位置LC11であることを示すコンテキスト情報を取得する。また、取得部131は、日時dt12において、ユーザU1とユーザU2とが近接したことを示す共通行動情報(コンテキスト情報)を取得する。例えば、取得部131は、日時dt12において、ユーザU1とユーザU2とがすれ違ったことを示す共通行動情報を取得する。例えば、取得部131は、推定処理に情報を用いる第1ユーザを選択し、取得してもよい。例えば、推定部132は、複数の第1ユーザの候補のうち、推定処理に情報を用いる第1ユーザを選択し、選択した第1ユーザの情報を取得してもよい。例えば、推定部132は、推定処理に用いる第1コンテキスト情報を選択し、取得してもよい。
In the example of FIG. 1, the
(推定部132)
推定部132は、種々の情報を推定する。例えば、推定部132は、記憶部120に記憶された情報に基づいて、種々の情報を推定する。推定部132は、ユーザ情報記憶部121やコンテキスト情報記憶部122や共通行動情報記憶部123や推定情報記憶部124や道路地図情報記憶部125に記憶された情報に基づいて、種々の情報を推定する。例えば、推定部132は、取得部131により取得された情報を用いて、ユーザのコンテキストを推定する。
(Estimater 132)
The
推定部132は、取得部131により取得された共通行動情報と第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定する。また、推定部132は、第2日時における第2ユーザの位置を含むコンテキストを推定する。推定部132は、第2日時における第2ユーザの状態を第2ユーザのコンテキストとして推定する。推定部132は、第2日時に第2ユーザが利用している移動手段を第2ユーザのコンテキストとして推定する。推定部132は、取得部131により取得された複数の共通行動情報と複数の第1コンテキスト情報とに基づいて、複数の第1日時のいずれとも異なる第2日時における第2ユーザのコンテキストを推定する。
The
推定部132は、共通行動情報と第1コンテキスト情報と他の共通行動情報と他の第1コンテキスト情報とに基づいて、第2日時における第2ユーザのコンテキストを推定する。推定部132は、第1日時と他の第1日時との間の第2日時における第2ユーザのコンテキストを推定する。推定部132は、第2コンテキスト情報に基づいて、第2日時における第2ユーザのコンテキストを推定する。
The
図1の例では、推定部132は、日時dt11におけるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、日時dt12におけるユーザU2の位置を推定する。例えば、推定部132は、日時dt11におけるユーザU1の位置LC11と、日時dt12においてユーザU1とユーザU2とが近接したことを示す共通行動情報とに基づいて、ユーザU2がユーザU1と近接通信を行った位置を推定する。
In the example of FIG. 1, the
図1の例では、推定部132は、日時dt11と日時dt12との間の経過時間と、ユーザU1の歩行速度に基づいて、日時dt12におけるユーザU2の位置を推定する。例えば、推定部132は、ユーザ情報記憶部121(図6参照)に示すようなユーザU1の歩行速度WS1に基づいて、ユーザU1が経過時間において位置LC11から移動可能な範囲を推定する。なお、推定部132は、ユーザU1に対応する歩行速度を有しない場合、ユーザU1が属するユーザ属性、すなわち20代男性の平均的な歩行速度に基づいて、ユーザU1が経過時間において位置LC11から移動可能な範囲を推定してもよい。
In the example of FIG. 1, the
例えば、推定部132は、ユーザU1の歩行速度が「6km/h(キロメートル毎時)」であり、日時dt11と日時dt12との間の経過時間が30分である場合、ユーザU1が経過時間において、約「3km(=6*0.5)」だけ移動可能であると推定する。この場合、推定部132は、位置LC11を中心とする半径3kmの円周状において、ユーザU1とユーザU2とがすれ違ったと推定する。
For example, when the walking speed of the user U1 is “6 km / h (kilometers per hour)” and the elapsed time between the date and time dt11 and the date and time dt12 is 30 minutes, the
図1の例では、推定部132は、日時dt12において、ユーザU1とユーザU2とが円CR11上のいずれかの位置ですれ違ったことと推定する。すなわち、推定部132は、日時dt12におけるユーザU2の位置が円CR11上のいずれかの位置であると推定する。
In the example of FIG. 1, the
(提供部133)
提供部133は、外部の情報処理装置へ各種情報を提供する。例えば、提供部133は、端末装置10へ各種情報を提供する。提供部133は、推定部132により推定された情報を用いたサービスを提供する。例えば、提供部133は、推定部132により推定されたユーザのコンテキストを用いたサービスを提供する。提供部133は、推定部132により推定された第2日時における第2ユーザのコンテキストに関する情報を用いたサービスを提供する。
(Provision unit 133)
The providing
例えば、提供部133は、推定したユーザのコンテキストを用いてコンテンツを配信するサービスを提供する。例えば、提供部133は、推定したユーザのコンテキストを用いて、端末装置10にコンテンツを提供する。例えば、提供部133は、推定したユーザの位置に応じて、端末装置10に広告を提供する。例えば、提供部133は、推定したユーザの位置から最寄りの駅や施設の位置までの案内を行うナビゲーション情報を、端末装置10に提供する。
For example, the providing
〔3.推定処理のフロー〕
ここで、図10を用いて、実施形態に係る推定装置100による推定処理の手順について説明する。図10は、実施形態に係る推定処理の一例を示すフローチャートである。
[3. Flow of estimation process]
Here, the procedure of the estimation process by the
図10に示すように、推定装置100は、第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報を取得する(ステップS101)。図1の例では、例えば、推定装置100は、共通行動情報記憶部123(図8参照)からユーザU1とユーザU2との共通行動情報を取得する。
As shown in FIG. 10, the
また、推定装置100は、第1日時における第1ユーザのコンテキストを示す第1コンテキスト情報を取得する(ステップS102)。図1の例では、例えば、推定装置100は、コンテキスト情報記憶部122(図7参照)から、日時dt11におけるユーザU1の位置が位置LC11であることを示すコンテキスト情報AC11を取得する。
Further, the
そして、推定装置100は、共通行動情報と第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定する(ステップS103)。図1の例では、例えば、推定装置100は、日時dt12におけるユーザU2の位置が、円CR11上のいずれかであると推定する。
Then, the
そして、推定装置100は、第2ユーザのコンテキストに基づくサービスを提供する(ステップS104)。例えば、推定装置100は、推定したユーザU2の位置に応じて、ユーザU2が利用する端末装置10−2に広告等のコンテンツを提供する。
Then, the
〔4.効果〕
上述してきたように、実施形態に係る推定装置100は、取得部131と、推定部132とを有する。取得部131は、第1ユーザ(実施形態においては、例えばユーザU1)と第2ユーザ(実施形態においては、例えばユーザU2)とが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する。推定部132は、取得部131により取得された共通行動情報と第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定する。
[4. effect〕
As described above, the
このように、実施形態に係る推定装置100は、第1ユーザと第2ユーザとの共通行動情報と、第1日時における第1ユーザの第1コンテキスト情報とに基づいて、第1日時とは異なる第2日時における第2ユーザのコンテキストを推定することにより、ユーザ(「第2ユーザ」以下同様)のコンテキストを適切に推定することができる。
Thus, the
また、実施形態に係る推定装置100において、取得部131は、第1日時における第1ユーザの位置を示す第1コンテキスト情報を取得する。
In addition, in the
このように、実施形態に係る推定装置100は、第1日時における第1ユーザの位置を示す第1コンテキスト情報を取得することにより、ユーザのコンテキストを適切に推定することができる。
Thus, the
また、実施形態に係る推定装置100において、推定部132は、第2日時における第2ユーザの位置を含むコンテキストを推定する。
Further, in the
このように、実施形態に係る推定装置100は、第2日時における第2ユーザの位置を含むコンテキストを推定することにより、ユーザのコンテキストを適切に推定することができる。
Thus, the
また、実施形態に係る推定装置100において、取得部131は、第1日時における第1ユーザの状態を示す第1コンテキスト情報を取得する。
Further, in the
このように、実施形態に係る推定装置100は、第1日時における第1ユーザの状態を示す第1コンテキスト情報を取得することにより、ユーザのコンテキストを適切に推定することができる。
As described above, the
また、実施形態に係る推定装置100において、推定部132は、第2日時における第2ユーザの状態を第2ユーザのコンテキストとして推定する。
Further, in the
このように、実施形態に係る推定装置100は、第2日時における第2ユーザの位置を含むコンテキストを推定することにより、ユーザのコンテキストを適切に推定することができる。
Thus, the
また、実施形態に係る推定装置100において、推定部132は、第2日時に第2ユーザが利用している移動手段を第2ユーザのコンテキストとして推定する。
Further, in the
このように、実施形態に係る推定装置100は、第2日時に第2ユーザが利用している移動手段を第2ユーザのコンテキストとして推定することにより、ユーザのコンテキストを適切に推定することができる。
Thus, the
また、実施形態に係る推定装置100において、取得部131は、第1ユーザと第2ユーザとが同日時に所定の範囲内に位置することを示す共通行動情報を取得する。
Further, in the
このように、実施形態に係る推定装置100は、第1ユーザと第2ユーザとが同日時に所定の範囲内に位置することを示す共通行動情報を取得することにより、ユーザのコンテキストを適切に推定することができる。
Thus, the
また、実施形態に係る推定装置100において、取得部131は、第1ユーザが利用する第1端末(実施形態においては、例えば端末装置10−1)と、第2ユーザが利用する第2端末(実施形態においては、例えば端末装置10−2)とが所定の近接通信を行うことにより検知される共通行動情報であって、第1ユーザと第2ユーザとが近接することを示す共通行動情報を取得する。
In the
このように、実施形態に係る推定装置100は、第1ユーザが利用する第1端末と、第2ユーザが利用する第2端末とが所定の近接通信を行うことにより検知される共通行動情報であって、第1ユーザと第2ユーザとが近接することを示す共通行動情報を取得することにより、ユーザのコンテキストを適切に推定することができる。
Thus, the
また、実施形態に係る推定装置100において、取得部131は、第2日時よりも前の日時である第1日時における第1ユーザの第1コンテキスト情報を取得する。
In addition, in the
このように、実施形態に係る推定装置100は、第2日時よりも前の日時である第1日時における第1ユーザの第1コンテキスト情報を取得することにより、ユーザのコンテキストを適切に推定することができる。
As described above, the
また、実施形態に係る推定装置100において、取得部131は、第2日時よりも後の日時である第1日時における第1ユーザの第1コンテキスト情報を取得する。
Further, in the
このように、実施形態に係る推定装置100は、第2日時よりも後の日時である第1日時における第1ユーザの第1コンテキスト情報を取得することにより、ユーザのコンテキストを適切に推定することができる。
As described above, the
また、実施形態に係る推定装置100において、取得部131は、第2日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得する。
In addition, in the
このように、実施形態に係る推定装置100は、第2日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得することにより、ユーザのコンテキストを適切に推定することができる。
As described above, the
また、実施形態に係る推定装置100において、取得部131は、第1日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得する。
In addition, in the
このように、実施形態に係る推定装置100は、第1日時において第1ユーザと第2ユーザとが共通行動を行ったことを示す共通行動情報を取得することにより、ユーザのコンテキストを適切に推定することができる。
Thus, the
また、実施形態に係る推定装置100において、取得部131は、複数の第1ユーザの各々と第2ユーザとが共通行動を行ったことを示す複数の共通行動情報と、複数の第1ユーザの各々に対応する複数の第1日時における複数の第1ユーザの各々のコンテキストを示す複数の第1コンテキスト情報とを取得する。推定部132は、取得部131により取得された複数の共通行動情報と複数の第1コンテキスト情報とに基づいて、複数の第1日時のいずれとも異なる第2日時における第2ユーザのコンテキストを推定する。
Further, in the
このように、実施形態に係る推定装置100は、複数の第1ユーザの各々と第2ユーザとの複数の共通行動情報と、複数の第1ユーザの各々に対応する複数の第1日時における複数の第1コンテキスト情報とに基づいて、複数の第1日時のいずれとも異なる第2日時における第2ユーザのコンテキストを推定することにより、ユーザのコンテキストを適切に推定することができる。
As described above, the
また、実施形態に係る推定装置100において、提供部133は、推定部132により推定された第2日時における第2ユーザのコンテキストに関する情報を用いたサービスを提供する。
Further, in the
このように、実施形態に係る推定装置100は、第2日時における第2ユーザのコンテキストに関する情報を用いたサービスを提供することにより、ユーザのコンテキストに応じた適切なサービスを提供することができる。
Thus, the
〔5.ハードウェア構成〕
上述してきた実施形態に係る推定装置100は、例えば図12に示すような構成のコンピュータ1000によって実現される。図12は、推定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD(Hard Disk Drive)1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[5. Hardware configuration]
The
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The
HDD1400は、CPU1100によって実行されるプログラム、及び、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータをネットワークNを介して他の機器へ提供する。
The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを入出力インターフェイス1600を介して出力装置へ出力する。
The
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が実施形態に係る推定装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを取得してもよい。
For example, when the
以上、本願の実施形態を図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although the embodiments of the present application have been described above in detail based on the drawings, these are only examples, and various modifications and improvements can be made based on the knowledge of those skilled in the art, including the embodiments described in the rows of the disclosure of the invention. It is possible to practice the invention in other forms as well.
〔6.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に生成することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
[6. Other]
Further, among the processes described in the above embodiment, all or part of the process described as being automatically performed may be manually performed, or the process described as being manually performed. All or part of them can be performed automatically by known methods. In addition, information including processing procedures, specific names, various types of data and parameters shown in the above-mentioned document and drawings can be generated arbitrarily unless otherwise specified. For example, the various information shown in each figure is not limited to the illustrated information.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to the illustrated one, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.
また、上述してきた実施形態に記載された各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the processes described in the above-described embodiment can be appropriately combined within the range in which the process contents do not conflict.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition unit or an acquisition circuit.
1 推定システム
100 推定装置
121 ユーザ情報記憶部
122 コンテキスト情報記憶部
123 共通行動情報記憶部
124 推定情報記憶部
130 制御部
131 取得部
132 推定部
133 提供部
10 端末装置
N ネットワーク
DESCRIPTION OF SYMBOLS 1
Claims (16)
前記取得部により取得された前記共通行動情報と前記第1コンテキスト情報とに基づいて、前記第1日時とは異なる第2日時における前記第2ユーザのコンテキストを推定する推定部と、
を備えることを特徴とする推定装置。 An acquisition unit configured to acquire common action information indicating that the first user and the second user performed common action that is common action, and first context information indicating a context of the first user at a first date and time; ,
An estimation unit configured to estimate a context of the second user at a second date and time different from the first date and time based on the common behavior information acquired by the acquisition unit and the first context information;
An estimation apparatus comprising:
前記第1日時における前記第1ユーザの位置を示す前記第1コンテキスト情報を取得する
ことを特徴とする請求項1に記載の推定装置。 The acquisition unit
The estimation apparatus according to claim 1, wherein the first context information indicating the position of the first user at the first date and time is acquired.
前記第2日時における前記第2ユーザの位置を含むコンテキストを推定する
ことを特徴とする請求項1または請求項2に記載の推定装置。 The estimation unit
The estimation apparatus according to claim 1 or 2, wherein a context including the position of the second user at the second date and time is estimated.
前記第1日時における前記第1ユーザの状態を示す前記第1コンテキスト情報を取得する
ことを特徴とする請求項1に記載の推定装置。 The acquisition unit
The estimation apparatus according to claim 1, wherein the first context information indicating a state of the first user at the first date and time is acquired.
前記第2日時における前記第2ユーザの状態を前記第2ユーザのコンテキストとして推定する
ことを特徴とする請求項1または請求項4に記載の推定装置。 The estimation unit
The estimation apparatus according to claim 1 or 4, wherein a state of the second user at the second date and time is estimated as a context of the second user.
前記第2日時に前記第2ユーザが利用している移動手段を前記第2ユーザのコンテキストとして推定する
ことを特徴とする請求項1または請求項2に記載の推定装置。 The estimation unit
The estimation device according to claim 1 or 2, wherein the moving means used by the second user at the second date and time is estimated as a context of the second user.
前記第1ユーザと前記第2ユーザとが同日時に所定の範囲内に位置することを示す前記共通行動情報を取得する
ことを特徴とする請求項1〜6のいずれか1項に記載の推定装置。 The acquisition unit
The estimation device according to any one of claims 1 to 6, wherein the common action information indicating that the first user and the second user are located within a predetermined range at the same date and time is acquired. .
前記第1ユーザが利用する第1端末と、前記第2ユーザとが利用する第2端末とが所定の近接通信を行うことにより検知される前記共通行動情報であって、前記第1ユーザと前記第2ユーザとが近接することを示す前記共通行動情報を取得する
ことを特徴とする請求項1〜7のいずれか1項に記載の推定装置。 The acquisition unit
The common action information detected by performing predetermined proximity communication between the first terminal used by the first user and the second terminal used by the second user, the first user and the common user The estimation device according to any one of claims 1 to 7, wherein the common action information indicating that the second user approaches is acquired.
前記第2日時よりも前の日時である前記第1日時における前記第1ユーザの前記第1コンテキスト情報を取得する
ことを特徴とする請求項1〜8のいずれか1項に記載の推定装置。 The acquisition unit
The estimation device according to any one of claims 1 to 8, wherein the first context information of the first user at the first date and time, which is a date and time before the second date and time, is acquired.
前記第2日時よりも後の日時である前記第1日時における前記第1ユーザの前記第1コンテキスト情報を取得する
ことを特徴とする請求項1〜8のいずれか1項に記載の推定装置。 The acquisition unit
The estimation apparatus according to any one of claims 1 to 8, wherein the first context information of the first user at the first date and time, which is a date and time later than the second date and time, is acquired.
前記第2日時において前記第1ユーザと前記第2ユーザとが前記共通行動を行ったことを示す前記共通行動情報を取得する
ことを特徴とする請求項1〜10のいずれか1項に記載の推定装置。 The acquisition unit
The common action information indicating that the first user and the second user performed the common action at the second date and time is acquired. The method according to any one of claims 1 to 10, Estimator.
前記第1日時において前記第1ユーザと前記第2ユーザとが前記共通行動を行ったことを示す前記共通行動情報を取得する
ことを特徴とする請求項1〜10のいずれか1項に記載の推定装置。 The acquisition unit
The common action information indicating that the first user and the second user performed the common action at the first date and time is acquired. The method according to any one of claims 1 to 10, Estimator.
複数の第1ユーザの各々と第2ユーザとが共通行動を行ったことを示す複数の共通行動情報と、前記複数の第1ユーザの各々に対応する複数の第1日時における前記複数の第1ユーザの各々のコンテキストを示す複数の第1コンテキスト情報とを取得し、
前記推定部は、
前記取得部により取得された前記複数の共通行動情報と前記複数の第1コンテキスト情報とに基づいて、前記複数の第1日時のいずれとも異なる第2日時における前記第2ユーザのコンテキストを推定する
ことを特徴とする請求項1〜12のいずれか1項に記載の推定装置。 The acquisition unit
The plurality of common behavior information indicating that each of the plurality of first users and the second user performed the common behavior, and the plurality of first behaviors at the plurality of first dates and times corresponding to the plurality of first users. Obtaining a plurality of first context information indicating the context of each of the users;
The estimation unit
Estimating the context of the second user at a second date and time different from any of the first dates and times based on the plurality of common behavior information acquired by the acquisition unit and the plurality of first context information. The estimation apparatus according to any one of claims 1 to 12, characterized by
をさらに備えることを特徴とする請求項1〜13のいずれか1項に記載の推定装置。 A providing unit for providing a service using information on the context of the second user at the second date and time estimated by the estimation unit;
The estimation apparatus according to any one of claims 1 to 13, further comprising:
第1ユーザと第2ユーザとが共通する行動である共通行動を行ったことを示す共通行動情報と、第1日時における前記第1ユーザのコンテキストを示す第1コンテキスト情報とを取得する取得工程と、
前記取得工程により取得された前記共通行動情報と前記第1コンテキスト情報とに基づいて、前記第1日時とは異なる第2日時における前記第2ユーザのコンテキストを推定する推定工程と、
を含むことを特徴とする推定方法。 A computer implemented estimation method,
An acquisition step of acquiring common action information indicating that the first user and the second user performed common action that is common action, and first context information indicating the context of the first user at a first date and time; ,
Estimating the context of the second user at a second date and time different from the first date and time based on the common behavior information and the first context information acquired by the acquisition step;
Estimation method characterized by including.
前記取得手順により取得された前記共通行動情報と前記第1コンテキスト情報とに基づいて、前記第1日時とは異なる第2日時における前記第2ユーザのコンテキストを推定する推定手順と、
をコンピュータに実行させることを特徴とする推定プログラム。 An acquisition procedure for acquiring common action information indicating that the first user and the second user performed common action that is common action, and first context information indicating the context of the first user at a first date and time; ,
An estimation procedure for estimating the context of the second user at a second date and time different from the first date and time based on the common action information acquired by the acquisition procedure and the first context information;
An estimation program that causes a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017207446A JP6974114B2 (en) | 2017-10-26 | 2017-10-26 | Estimator, estimation method, and estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017207446A JP6974114B2 (en) | 2017-10-26 | 2017-10-26 | Estimator, estimation method, and estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019079418A true JP2019079418A (en) | 2019-05-23 |
JP6974114B2 JP6974114B2 (en) | 2021-12-01 |
Family
ID=66627877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017207446A Active JP6974114B2 (en) | 2017-10-26 | 2017-10-26 | Estimator, estimation method, and estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6974114B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007094854A (en) * | 2005-09-29 | 2007-04-12 | Toshiba Corp | Behavior support device |
JP2007304009A (en) * | 2006-05-12 | 2007-11-22 | Yafoo Japan Corp | Method and system for finding movement means from positional information |
JP2010226174A (en) * | 2009-03-19 | 2010-10-07 | Ntt Docomo Inc | Moving means estimation device and moving means estimation method |
JP2012212260A (en) * | 2011-03-30 | 2012-11-01 | Fujitsu Ltd | Destination determination program and destination determination method |
US20170090850A1 (en) * | 2015-09-29 | 2017-03-30 | International Business Machines Corporation | Enabling proximity-aware visual identification |
JP2017152982A (en) * | 2016-02-25 | 2017-08-31 | スマートイノベーション株式会社 | Search support server, search supporting system, and search support method |
JP2017184098A (en) * | 2016-03-31 | 2017-10-05 | 沖電気工業株式会社 | Information processing system, information processing method, and program |
-
2017
- 2017-10-26 JP JP2017207446A patent/JP6974114B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007094854A (en) * | 2005-09-29 | 2007-04-12 | Toshiba Corp | Behavior support device |
JP2007304009A (en) * | 2006-05-12 | 2007-11-22 | Yafoo Japan Corp | Method and system for finding movement means from positional information |
JP2010226174A (en) * | 2009-03-19 | 2010-10-07 | Ntt Docomo Inc | Moving means estimation device and moving means estimation method |
JP2012212260A (en) * | 2011-03-30 | 2012-11-01 | Fujitsu Ltd | Destination determination program and destination determination method |
US20170090850A1 (en) * | 2015-09-29 | 2017-03-30 | International Business Machines Corporation | Enabling proximity-aware visual identification |
JP2017152982A (en) * | 2016-02-25 | 2017-08-31 | スマートイノベーション株式会社 | Search support server, search supporting system, and search support method |
JP2017184098A (en) * | 2016-03-31 | 2017-10-05 | 沖電気工業株式会社 | Information processing system, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6974114B2 (en) | 2021-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Alzoubi et al. | Integrating BLE beacon technology with intelligent information systems IIS for operations’ performance: A managerial perspective | |
Ghose et al. | Mobile targeting using customer trajectory patterns | |
US9860699B1 (en) | Using geolocation information in a social graph with sharing activity of users of the open web | |
US9037527B2 (en) | Determining a dynamic user profile indicative of a user behavior context with a mobile device | |
US9165304B2 (en) | Analyzing consumer behavior using electronically-captured consumer location data | |
JP7117089B2 (en) | Decision device, decision method and decision program | |
US20180352378A1 (en) | Assisted venue staff guidance | |
KR20180026406A (en) | Providing, organizing, and managing location history records of mobile devices | |
US10762119B2 (en) | Semantic labeling apparatus and method thereof | |
US20140222568A1 (en) | Targeted advertisement distribution to mobile devices | |
JP6804505B2 (en) | Predictors, prediction methods, and prediction programs | |
US20220341746A1 (en) | Systems and methods for personalized ground transportation processing and user intent predictions | |
JP6089764B2 (en) | Activity status processing apparatus and activity status processing method | |
JP6379305B1 (en) | User context detection using mobile devices based on wireless signal characteristics | |
JP6998849B2 (en) | Information processing equipment, information processing methods, and information processing programs | |
JP6974114B2 (en) | Estimator, estimation method, and estimation program | |
JP6687648B2 (en) | Estimating device, estimating method, and estimating program | |
JP6664582B2 (en) | Estimation device, estimation method and estimation program | |
US11272318B2 (en) | Proximity measurement system | |
JP2020046982A (en) | Proposal apparatus, proposal method, and proposal program | |
JP7166790B2 (en) | Information processing device, information processing method, and information processing program | |
JP7258960B2 (en) | Information processing device, information processing method, and information processing program | |
Demirbas et al. | Eywa: Crowdsourced and cloudsourced omniscience | |
JP7221586B2 (en) | Extraction device, extraction method, and extraction program | |
JP7030748B2 (en) | Estimator, estimation method and estimation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6974114 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |