JP2016149136A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2016149136A
JP2016149136A JP2016039705A JP2016039705A JP2016149136A JP 2016149136 A JP2016149136 A JP 2016149136A JP 2016039705 A JP2016039705 A JP 2016039705A JP 2016039705 A JP2016039705 A JP 2016039705A JP 2016149136 A JP2016149136 A JP 2016149136A
Authority
JP
Japan
Prior art keywords
information
experience
unit
behavior
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016039705A
Other languages
Japanese (ja)
Other versions
JP6183489B2 (en
Inventor
高村 成一
Seiichi Takamura
成一 高村
康治 浅野
Koji Asano
康治 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016039705A priority Critical patent/JP6183489B2/en
Publication of JP2016149136A publication Critical patent/JP2016149136A/en
Application granted granted Critical
Publication of JP6183489B2 publication Critical patent/JP6183489B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To combine a result of recognizing a behavior pattern on the basis of information acquired from a position sensor or a motion sensor, with information other than the information acquired from the position sensor or the motion sensor, to provide more sophisticated information.SOLUTION: An information processing system includes: an experience extraction section which extracts experience information indicating an experience of a user, from text information acquired from a social networking service or an application; a behavior extraction section which extracts a behavior pattern from position sensor information and time information; an experience collation section which extracts experience information from the position sensor information, in reference to information indicating a correspondence between the behavior pattern and the experience information; and a display control section which displays information on the experience information extracted from the text information and information on the experience information acquired from the position sensor information, together.SELECTED DRAWING: Figure 24

Description

本技術は、情報処理システム、情報処理方法、及びプログラムに関する。   The present technology relates to an information processing system, an information processing method, and a program.

携帯電話等の携帯端末にモーションセンサを搭載し、ユーザの行動履歴を自動的に検出して記録できるようにする技術に注目が集まっている。例えば、下記の特許文献1には、加速度センサやジャイロセンサ等のモーションセンサを利用し、歩く動作、走る動作、左右にターンする動作、静止状態を検知する技術が開示されている。同文献には、モーションセンサの出力データから、歩行ピッチ、歩行パワー、重力軸まわりの回転角を算出し、その算出結果を用いて歩く動作、走る動作、左右にターンする動作、及び静止状態を検知する方法が記載されている。   Attention has been focused on a technique for mounting a motion sensor on a mobile terminal such as a mobile phone so that a user's behavior history can be automatically detected and recorded. For example, Patent Document 1 below discloses a technique for detecting a walking motion, a running motion, a left-right motion, and a stationary state using a motion sensor such as an acceleration sensor or a gyro sensor. This document calculates the walking pitch, walking power, rotation angle around the gravity axis from the output data of the motion sensor, and uses the calculated results to walk, run, turn left and right, and stand still. The detection method is described.

さらに、同文献には、これらの動作や状態の種類、動作や状態が継続していた時間、動作回数等、動作や状態のパターンを入力とする統計的な処理によりユーザの行動パターンを検知する方法が記載されている。上記の方法を用いると、「のんびりした歩行」や「せわしない動作」といった行動パターンを時系列のデータとして得ることができる。しかし、この方法で得られる行動パターンは、比較的短時間に行われるユーザの動作や状態を主に表現したものである。そのため、「今日はデパートで買い物をした」「昨日はホテルのレストランで食事をした」等、具体的な行動内容を行動パターンの履歴から推察することは難しい。   Furthermore, the same document detects the user's behavior pattern by statistical processing that inputs the pattern of the operation and the state, such as the type of the operation and the state, the time during which the operation and the state have continued, and the number of operations. A method is described. By using the above method, it is possible to obtain behavioral patterns such as “slow walking” and “slow motion” as time series data. However, the behavior pattern obtained by this method mainly represents the user's actions and states performed in a relatively short time. For this reason, it is difficult to infer specific action contents from the history of action patterns, such as “shopping at a department store today” or “dining at a hotel restaurant yesterday”.

下記の特許文献1に記載の方法を用いて得られる行動パターンは、比較的短時間に行われる行動の積み重ねである。そして、当該行動パターンを形成する個々の行動自体は、ユーザが目的を持って行っているものではない。一方、具体的な行動内容は、ユーザが目的を持って行っているものが多く、比較的長時間にわたって行われるエンタテイメント性の高いものである。そのため、短時間で行われる行動の積み重ねから上記のような具体的な行動内容を窺い知ることは難しい。しかし、最近、モーションセンサを用いて得られる比較的短時間の行動パターンから、比較的長時間にわたり行われるエンタテイメント性の高い行動パターンを検出する技術が開発された(下記の特許文献2を参照)。   The behavior pattern obtained by using the method described in Patent Document 1 below is a stack of behaviors performed in a relatively short time. The individual behaviors that form the behavior patterns are not intended to be performed by the user. On the other hand, the specific action content is often performed by the user with a purpose, and is highly entertaining for a relatively long time. Therefore, it is difficult to know the specific action contents as described above from the accumulation of actions performed in a short time. However, recently, a technique has been developed for detecting a behavior pattern with high entertainment performance that is performed for a relatively long time from a behavior pattern of a relatively short time obtained by using a motion sensor (see Patent Document 2 below). .

特開2008−003655号公報JP 2008-003655 A 特開2011−081431号公報JP 2011-081431 A

一方、近年では、ユーザを取りまくネットワーク環境の高度化や多様化が進んでおり、ユーザが自身で入力したコメントを、ネットワーク上のサーバにアップロードするソーシャルネットワークサービスが普及してきている。このようなコメントには、ユーザの行動や意図に関する情報が含まれる場合もある。   On the other hand, in recent years, the network environment surrounding users has been advanced and diversified, and social network services for uploading comments input by users themselves to servers on the network have become widespread. Such comments may include information on user behavior and intentions.

本技術は、このような事情を受けて考案されたものであり、位置センサやモーションセンサから取得した情報に基づいた行動パターン認識結果と、位置センサやモーションセンサから取得した情報以外の情報とを組み合わせ、より高度な情報を提供することが可能な、新規かつ改良された情報処理システム、情報処理方法、及びプログラムを提供することを意図している。   This technology has been devised in view of such circumstances, and the action pattern recognition result based on the information acquired from the position sensor or motion sensor and the information other than the information acquired from the position sensor or motion sensor. It is intended to provide a new and improved information processing system, information processing method, and program capable of providing a combination and more advanced information.

本技術のある観点によれば、ソーシャルネットワーキングサービスまたはアプリケーションから取得されたテキスト情報からユーザの体験を示す体験情報を抽出する体験抽出部と、位置センサ情報、および時刻情報から行動パターンを抽出する行動抽出部と、前記行動パターンと、体験情報との対応関係を示す情報を参照して、前記位置センサ情報から体験情報を抽出する体験照合部と、前記テキスト情報から抽出された体験情報に関する情報と、前記位置センサ情報から得られる体験情報に関する情報とを併せて表示させる表示制御部と、を備える、情報処理システムが提供される。   According to an aspect of the present technology, an experience extraction unit that extracts experience information indicating a user's experience from text information acquired from a social networking service or application, and an action that extracts an action pattern from position sensor information and time information An extraction unit, an experience collation unit that extracts experience information from the position sensor information with reference to information indicating a correspondence relationship between the behavior pattern and the experience information, information about the experience information extracted from the text information, and There is provided an information processing system including a display control unit that displays information related to the experience information obtained from the position sensor information.

また、本技術の別の観点によれば、ソーシャルネットワーキングサービスまたはアプリケーションから取得されたテキスト情報からユーザの体験を示す体験情報を抽出するステップと、位置センサ情報、および時刻情報から行動パターンを抽出するステップと、前記行動パターンと、体験情報との対応関係を示す情報を参照して、前記位置センサ情報から体験情報を抽出するステップと、演算処理装置によって、前記テキスト情報から抽出された体験情報に関する情報と、前記位置センサ情報から得られる体験情報に関する情報とを併せて表示させるステップと、を含む、情報処理方法が提供される。   According to another aspect of the present technology, a step of extracting experience information indicating a user's experience from text information acquired from a social networking service or application, and a behavior pattern from position sensor information and time information are extracted. A step of extracting experience information from the position sensor information with reference to information indicating a correspondence relationship between the step, the behavior pattern, and the experience information, and the experience information extracted from the text information by the arithmetic processing device An information processing method is provided that includes displaying information and information related to experience information obtained from the position sensor information together.

また、本技術の別の観点によれば、ソーシャルネットワーキングサービスまたはアプリケーションから取得されたテキスト情報からユーザの体験を示す体験情報を抽出する体験抽出部と、位置センサ情報、および時刻情報から行動パターンを抽出する行動抽出部と、前記行動パターンと、体験情報との対応関係を示す情報を参照して、前記位置センサ情報から体験情報を抽出する体験照合部と、前記テキスト情報から抽出された体験情報に関する情報と、前記位置センサ情報から得られる体験情報に関する情報とを併せて表示させる表示制御部と、をコンピュータに実現させるためのプログラムが提供される。   Further, according to another aspect of the present technology, an experience extraction unit that extracts experience information indicating a user's experience from text information acquired from a social networking service or application, an action pattern from position sensor information and time information An action extracting unit to extract, an experience matching unit for extracting experience information from the position sensor information with reference to information indicating a correspondence relationship between the behavior pattern and the experience information, and experience information extracted from the text information And a display control unit for displaying information related to the experience information obtained from the position sensor information together with the display control unit.

また、本技術の別の観点によれば、上記のプログラムが記録された、コンピュータに読み取り可能な記録媒体が提供される。   According to another aspect of the present technology, a computer-readable recording medium on which the program is recorded is provided.

以上説明したように本技術によれば、位置センサやモーションセンサから取得した情報に基づいた行動パターン認識結果と、位置センサやモーションセンサから取得した情報以外の情報とを組み合わせ、より高度な情報を提供することが可能になる。   As described above, according to the present technology, the action pattern recognition result based on the information acquired from the position sensor or the motion sensor and the information other than the information acquired from the position sensor or the motion sensor are combined to provide more advanced information. It becomes possible to provide.

行動・状況解析システムの構成例について説明するための説明図である。It is explanatory drawing for demonstrating the structural example of a behaviour / situation analysis system. 動き・状態認識部の機能について説明するための説明図である。It is explanatory drawing for demonstrating the function of a movement and state recognition part. 動き・状態認識部の機能について説明するための説明図である。It is explanatory drawing for demonstrating the function of a movement and state recognition part. GIS情報取得部の機能について説明するための説明図である。It is explanatory drawing for demonstrating the function of a GIS information acquisition part. GIS情報取得部の機能について説明するための説明図である。It is explanatory drawing for demonstrating the function of a GIS information acquisition part. GIS情報取得部の機能について説明するための説明図である。It is explanatory drawing for demonstrating the function of a GIS information acquisition part. GIS情報取得部の機能について説明するための説明図である。It is explanatory drawing for demonstrating the function of a GIS information acquisition part. 行動・状況認識部の機能について説明するための説明図である。It is explanatory drawing for demonstrating the function of a behaviour / situation recognition part. 行動・状況認識部の機能について説明するための説明図である。It is explanatory drawing for demonstrating the function of a behaviour / situation recognition part. 動作・状態パターンの判定方法について説明するための説明図である。It is explanatory drawing for demonstrating the determination method of an operation | movement / state pattern. ジオヒストグラムを利用したスコア分布の算出方法について説明するための説明図である。It is explanatory drawing for demonstrating the calculation method of the score distribution using a geohistogram. 機械学習を利用したスコア分布の算出方法について説明するための説明図である。It is explanatory drawing for demonstrating the calculation method of the score distribution using machine learning. 検出される行動・状況パターンの一例を示した説明図である。It is explanatory drawing which showed an example of the detected action / situation pattern. 本発明の一実施形態に係るシステム構成の一例について説明するための説明図である。It is explanatory drawing for demonstrating an example of the system configuration | structure which concerns on one Embodiment of this invention. 構成例#1に係る情報提供システムの構成について説明するための説明図である。It is explanatory drawing for demonstrating the structure of the information provision system which concerns on structural example # 1. 構成例#1に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 1. 構成例#1に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 1. 構成例#1に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 1. 構成例#1に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 1. 構成例#1に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 1. 構成例#1に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 1. 構成例#1に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 1. 構成例#1に係る情報提供システムの動作について説明するための説明図である。It is explanatory drawing for demonstrating operation | movement of the information provision system which concerns on structural example # 1. 構成例#2に係る情報提供システムの構成について説明するための説明図である。It is explanatory drawing for demonstrating the structure of the information provision system which concerns on structural example # 2. 構成例#2に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 2. 構成例#2に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 2. 構成例#2に係る情報提供システムの機能について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function of the information provision system which concerns on structural example # 2. 構成例#2に係る情報提供システムの動作について説明するための説明図である。It is explanatory drawing for demonstrating operation | movement of the information provision system which concerns on structural example # 2. 構成例#3に係る情報提供システムの構成について説明するための説明図である。It is explanatory drawing for demonstrating the structure of the information provision system which concerns on structural example # 3. 構成例#3に係る情報提供システムの機能及び判別動作について詳細に説明するための説明図である。It is explanatory drawing for demonstrating in detail the function and discrimination | determination operation | movement of an information provision system which concern on structural example # 3. 同実施形態に係るシステム及び各機器の機能を実現することが可能なハードウェア構成例について説明するための説明図である。It is an explanatory view for explaining an example of a hardware configuration capable of realizing the functions of the system and each device according to the embodiment.

以下に添付図面を参照しながら、本技術に係る好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments according to the present technology will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[説明の流れについて]
ここで、以下に記載する説明の流れについて簡単に述べる。
[About the flow of explanation]
Here, the flow of explanation described below will be briefly described.

まず、図1〜図13を参照しながら、本実施形態の技術に関連する行動パターン認識技術について説明する。次いで、図14を参照しながら、本発明の一実施形態に係るシステム構成の一例について説明する。次いで、図15〜図23を参照しながら、構成例#1に係る情報提供システム13の機能及び動作について説明する。   First, a behavior pattern recognition technique related to the technique of the present embodiment will be described with reference to FIGS. Next, an example of a system configuration according to an embodiment of the present invention will be described with reference to FIG. Next, functions and operations of the information providing system 13 according to the configuration example # 1 will be described with reference to FIGS.

次いで、図24〜図28を参照しながら、構成例#2に係る情報提供システム17の機能及び動作について説明する。次いで、図29及び図30を参照しながら、構成例#3に係る情報提供システム19の機能及び動作について説明する。次いで、図31を参照しながら、同実施形態に係るシステム及び各機器の機能を実現することが可能なハードウェア構成例について説明する。   Next, functions and operations of the information providing system 17 according to the configuration example # 2 will be described with reference to FIGS. Next, functions and operations of the information providing system 19 according to Configuration Example # 3 will be described with reference to FIGS. 29 and 30. Next, a hardware configuration example capable of realizing the functions of the system and each device according to the embodiment will be described with reference to FIG.

最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。   Finally, the technical idea of the embodiment will be summarized and the effects obtained from the technical idea will be briefly described.

(説明項目)
1:はじめに
1−1:行動パターン認識技術
1−2:実施形態の概要
2:実施形態の詳細
2−1:システム構成の一例
2−2:構成例#1(目標達成度の示唆)
2−2−1:システム構成の詳細
2−2−2:処理の流れ
2−2−3:画面表示の例
2−2−4:変形例(動物への適用)
2−3:構成例#2(詳細行動の表示)
2−3−1:システム構成の詳細
2−3−2:処理の流れ
2−3−3:画面表示の例
2−4:構成例#3(日常行動/非日常行動の判別)
2−4−1:システム構成の詳細
2−4−2:応用例
2−5:構成例の組み合わせについて
3:ハードウェア構成例
4:まとめ
(Description item)
1: Introduction 1-1: Action pattern recognition technology 1-2: Outline of embodiment 2: Details of embodiment 2-1: Example of system configuration 2-2: Configuration example # 1 (suggestion of target achievement)
2-2-1: Details of system configuration
2-2-2: Flow of processing
2-2-3: Example of screen display
2-2-4: Modified example (application to animals)
2-3: Configuration example # 2 (display of detailed behavior)
2-3-1: System configuration details
2-3-2: Flow of processing
2-3-3: Example of screen display 2-4: Configuration example # 3 (Determination of daily / unusual behavior)
2-4-1: Details of system configuration
2-4-2: Application examples 2-5: Combinations of configuration examples 3: Hardware configuration examples 4: Summary

<1:はじめに>
はじめに、本実施形態の技術に関連する行動パターン認識技術について説明する。
<1: Introduction>
First, a behavior pattern recognition technique related to the technique of this embodiment will be described.

[1−1:行動パターン認識技術]
ここで説明する行動パターン認識技術は、モーションセンサなどを利用して検知されたユーザの動きや状態に関する情報と位置センサなどを利用して検知された位置情報とを用いてユーザの行動や状況を検出する技術に関する。
[1-1: Behavior pattern recognition technology]
The behavior pattern recognition technology described here uses the information on the user's movement and state detected using a motion sensor and the position information detected using a position sensor to determine the user's behavior and situation. It relates to the technology to detect.

なお、モーションセンサとしては、例えば、3軸加速度センサ(加速度センサ、重力検知センサ、落下検出センサなどを含む。)や3軸ジャイロセンサ(角速度センサ、手振れ補正センサ、地磁気センサなどを含む。)などが用いられる。また、位置センサとしては、例えば、GPS(Global Positioning System)、RFID(Radio Frequency Identification)、Wi−Fiアクセスポイント、無線基地局などの情報が利用可能である。これらの情報を利用すると、例えば、現在地の緯度・経度を検出することが可能になる。   In addition, as a motion sensor, for example, a 3-axis acceleration sensor (including an acceleration sensor, a gravity detection sensor, a fall detection sensor, etc.), a 3-axis gyro sensor (including an angular velocity sensor, a camera shake correction sensor, a geomagnetic sensor, etc.), etc. Is used. As the position sensor, for example, information such as a GPS (Global Positioning System), an RFID (Radio Frequency Identification), a Wi-Fi access point, and a wireless base station can be used. Using these pieces of information makes it possible to detect the latitude and longitude of the current location, for example.

(行動・状況解析システム10のシステム構成)
まず、図1を参照しながら、上記のような行動パターン認識技術を実現することが可能な行動・状況解析システム10のシステム構成について説明する。図1は、行動・状況解析システム10の全体的なシステム構成について説明するための説明図である。
(System configuration of action / situation analysis system 10)
First, the system configuration of the behaviour / situation analysis system 10 capable of realizing the above-described action pattern recognition technology will be described with reference to FIG. FIG. 1 is an explanatory diagram for explaining the overall system configuration of the behaviour / situation analysis system 10.

なお、本稿においては、「動き、状態」と「行動、状況」という表現を次のような意味で使い分ける。「動き、状態」は、数秒から数分程度の比較的短時間にユーザが行う行動を意味し、例えば、「歩き」「走り」「跳躍」「静止」等の行為を指す。また、この行為を纏めて「動き・状態パターン」又は「LC(Low−Context)行動」と表現する。一方、「行動、状況」は、「動き、状態」よりも長い時間かけてユーザが行う生活行動であり、例えば、「食事」「買い物」「仕事」等の行為を指す。また、この行為を纏めて「行動・状況パターン」又は「HC(High−Context)行動」と表現する。   In this paper, the expressions “movement and state” and “behavior and situation” are used in the following ways. “Movement, state” means an action performed by the user in a relatively short time of several seconds to several minutes, and refers to actions such as “walking”, “running”, “jumping”, and “still”. Further, this action is collectively expressed as “movement / state pattern” or “LC (Low-Context) action”. On the other hand, “behavior / situation” is a life activity performed by the user over a longer time than “movement / state”, and refers to actions such as “meal”, “shopping”, and “work”. Further, this action is collectively expressed as “behavior / situation pattern” or “HC (High-Context) action”.

図1に示すように、行動・状況解析システム10は、主に、モーションセンサ101と、動き・状態認識部102と、時刻情報取得部103と、位置センサ104と、GIS情報取得部105と、行動・状況認識部106とにより構成される。   As shown in FIG. 1, the behaviour / situation analysis system 10 mainly includes a motion sensor 101, a movement / state recognition unit 102, a time information acquisition unit 103, a position sensor 104, a GIS information acquisition unit 105, The action / situation recognition unit 106 is configured.

なお、行動・状況解析システム10には、行動・状況認識部106により検出される行動・状況パターンを利用するアプリケーションAPやサービスSVが用意されていてもよい。また、アプリケーションAPによる行動・状況パターンの利用結果や、ユーザのプロファイル情報が行動・状況認識部106に入力されるように構成されていてもよい。   The behaviour / situation analysis system 10 may be provided with an application AP or service SV that uses the behaviour / situation pattern detected by the behaviour / situation recognition unit 106. Further, the use result of the action / situation pattern by the application AP and the user profile information may be input to the action / situation recognition unit 106.

まず、ユーザが行動すると、モーションセンサ101により加速度の変化や重力軸周りの回転等(以下、センサデータ)が検知される。モーションセンサ101により検知されたセンサデータは、図2に示すように、動き・状態認識部102に入力される。   First, when the user acts, the motion sensor 101 detects a change in acceleration, rotation around the gravity axis, and the like (hereinafter referred to as sensor data). The sensor data detected by the motion sensor 101 is input to the movement / state recognition unit 102 as shown in FIG.

センサデータが入力されると、動き・状態認識部102は、図2に示すように、入力されたセンサデータを用いて動き・状態パターンを検出する。動き・状態認識部102により検出可能な動き・状態パターンとしては、例えば、図3に示すように、「歩き」「走り」「静止」「跳躍」「電車(搭乗/非搭乗)」「エレベータ(搭乗/非搭乗/上昇/下降)」などがある。動き・状態認識部102により検出された動き・状態パターンは、行動・状況認識部106に入力される。   When sensor data is input, the movement / state recognition unit 102 detects a movement / state pattern using the input sensor data, as shown in FIG. As the movement / state pattern detectable by the movement / state recognition unit 102, for example, as shown in FIG. 3, “walking”, “running”, “still”, “jumping”, “train (boarding / non-boarding)”, “elevator ( Boarding / non-boarding / up / down). The movement / state pattern detected by the movement / state recognition unit 102 is input to the behaviour / situation recognition unit 106.

位置センサ104は、ユーザの居場所(以下、現在地)を示す位置情報を連続的又は間欠的に取得する。例えば、現在地の位置情報は、緯度・経度により表現される。位置センサ104により取得された現在地の位置情報は、GIS情報取得部105に入力される。   The position sensor 104 continuously or intermittently acquires position information indicating the user's whereabouts (hereinafter, current position). For example, the position information of the current location is expressed by latitude and longitude. The current position information acquired by the position sensor 104 is input to the GIS information acquisition unit 105.

現在地の位置情報が入力されると、GIS情報取得部105は、GIS(Geographic Information System)情報を取得する。そして、GIS情報取得部105は、図4に示すように、取得したGIS情報を用いて現在地の属性を検出する。GIS情報は、例えば、地図情報や、人工衛星や現地踏査などで得られた様々な付加情報を含み、科学的調査、土地、施設、道路などの管理や都市計画などにも利用される情報である。GIS情報を利用すると、現在地の属性を判別することが可能になる。GIS情報取得部105は、例えば、ジオカテゴリコード(例えば、図5を参照)と呼ばれる識別情報を利用して現在地の属性を表現する。   When the current location information is input, the GIS information acquisition unit 105 acquires GIS (Geographic Information System) information. And the GIS information acquisition part 105 detects the attribute of the present location using the acquired GIS information, as shown in FIG. GIS information includes, for example, map information, various additional information obtained by artificial satellites and field surveys, etc., and is also used for scientific surveys, management of land, facilities, roads, etc. and city planning. is there. If the GIS information is used, it is possible to determine the attribute of the current location. The GIS information acquisition unit 105 expresses the attribute of the current location using identification information called a geo category code (for example, see FIG. 5).

ジオカテゴリコードは、図5に示すように、場所に関連する情報の種別を分類するための分類コードである。このジオカテゴリコードは、例えば、建造物の種別、地形の形状、地理的特性、地域性等に応じて設定されている。そのため、現在地のジオカテゴリコードを特定することにより、ユーザが居る環境をある程度認識することが可能になる。   As shown in FIG. 5, the geo category code is a classification code for classifying the type of information related to a place. This geo category code is set according to, for example, the type of building, the shape of the terrain, geographical characteristics, regionality, and the like. Therefore, by specifying the geo category code of the current location, it is possible to recognize to some extent the environment where the user is.

GIS情報取得部105は、取得したGIS情報を参照し、現在地及び現在地周辺にある建造物などを特定して、その建造物などに対応するジオカテゴリコードを抽出する。GIS情報取得部105により選択されたジオカテゴリコードは、行動・状況認識部106に入力される。なお、現在地周辺に建造物などが多数存在する場合、GIS情報取得部105は、各建造物などのジオカテゴリコードを抽出し、抽出したジオカテゴリコードに関する情報として、図6及び図7に示すジオカテゴリヒストグラムのような情報を行動・状況認識部106に入力してもよい。   The GIS information acquisition unit 105 refers to the acquired GIS information, specifies the current location and buildings around the current location, and extracts a geo category code corresponding to the building. The geo category code selected by the GIS information acquisition unit 105 is input to the behaviour / situation recognition unit 106. If there are many buildings around the current location, the GIS information acquisition unit 105 extracts the geo category code of each building, etc., and uses the geo category code shown in FIGS. 6 and 7 as information on the extracted geo category code. Information such as a category histogram may be input to the behaviour / situation recognition unit 106.

図8に示すように、行動・状況認識部106には、動き・状態認識部102から動き・状態パターンが入力され、GIS情報取得部105からジオカテゴリコードなどが入力される。また、行動・状況認識部106には、時刻情報取得部103から時刻情報が入力される。この時刻情報は、モーションセンサ101によりセンサデータが取得された時刻を示す情報を含む。また、この時刻情報は、位置センサ104により位置情報が取得された時刻を示す情報を含んでいてもよい。また、時刻情報としては、例えば、時刻を示す情報の他、曜日の情報、祝日の情報、年月日の情報などが含まれていてもよい。   As shown in FIG. 8, the behavior / situation recognition unit 106 receives a movement / state pattern from the movement / state recognition unit 102 and a geo category code from the GIS information acquisition unit 105. Further, time information is input from the time information acquisition unit 103 to the behaviour / situation recognition unit 106. This time information includes information indicating the time when the sensor data is acquired by the motion sensor 101. Further, the time information may include information indicating the time when the position information is acquired by the position sensor 104. Further, as the time information, for example, in addition to the information indicating the time, information on the day of the week, holiday information, date information, and the like may be included.

上記の情報が入力されると、行動・状況認識部106は、入力された動き・状態パターン、ジオカテゴリコード(或いは、ジオカテゴリヒストグラムなど)、及び時刻情報に基づいて行動・状況パターンを検出する。このとき、行動・状況認識部106は、ルールに基づく判定処理(以下、ルールベース判定)や学習モデルに基づく判定処理(以下、学習モデル判定)を利用して行動・状況パターンを検出する。ここで、ルールベース判定及び学習モデル判定について簡単に説明する。   When the above information is input, the behaviour / situation recognition unit 106 detects the behaviour / situation pattern based on the input movement / state pattern, geo category code (or geo category histogram, etc.), and time information. . At this time, the behaviour / situation recognition unit 106 detects a behaviour / situation pattern using a rule-based determination process (hereinafter, rule-based determination) or a learning model-based determination process (hereinafter, learning model determination). Here, the rule base determination and the learning model determination will be briefly described.

(ルールベース判定について)
まず、ルールベース判定について説明する。ルールベース判定とは、ジオカテゴリコードと行動・状況パターンとの組み合わせ毎にスコアを割り当てておき、そのスコアに基づいて入力データに対応する適切な行動・状況パターンを判定する方法である。
(About rule-based judgment)
First, rule base determination will be described. Rule-based determination is a method in which a score is assigned to each combination of a geo category code and an action / situation pattern, and an appropriate action / situation pattern corresponding to input data is determined based on the score.

スコアの割り当てルールは、図9に示すようなスコアマップSMにより表現される。スコアマップSMは、年月日、時間帯、曜日などの時刻情報毎に用意される。例えば、3月の第1週の月曜日に対応するスコアマップSMなどが用意される。さらに、スコアマップSMは、歩行、走行、電車などの動き・状態パターン毎に用意される。例えば、歩行中のスコアマップSMなどが用意される。そのため、スコアマップSMは、時刻情報と動き・状態パターンとの組み合わせ毎に用意される。   The score assignment rule is expressed by a score map SM as shown in FIG. The score map SM is prepared for each time information such as date, time, day of the week, etc. For example, a score map SM corresponding to Monday of the first week of March is prepared. Furthermore, the score map SM is prepared for each movement / state pattern such as walking, running, and train. For example, a score map SM during walking is prepared. Therefore, the score map SM is prepared for each combination of time information and movement / state pattern.

行動・状況認識部106は、図10に示すように、予め用意された複数のスコアマップSMの中から、入力された時刻情報及び動き・状態パターンに適合するスコアマップSMを選択する。また、行動・状況認識部106は、図11に示すように、選択したスコアマップSMの中から、ジオカテゴリコードに対応するスコアを抽出する。これらの処理により、行動・状況認識部106は、センサデータの取得時点における現在地の状況を考慮して、スコアマップSMに存在する各行動・状況パターンのスコアを抽出することが可能になる。   As shown in FIG. 10, the behaviour / situation recognition unit 106 selects a score map SM that matches the input time information and movement / state pattern from among a plurality of score maps SM prepared in advance. Further, the behaviour / situation recognition unit 106 extracts a score corresponding to the geo category code from the selected score map SM as shown in FIG. With these processes, the behaviour / situation recognition unit 106 can extract the score of each behaviour / situation pattern existing in the score map SM in consideration of the current position at the time of sensor data acquisition.

次いで、行動・状況認識部106は、抽出したスコアの中から最大のスコアを特定し、最大のスコアに対応する行動・状況パターンを抽出する。このようにして行動・状況パターンを検出する方法がルールベース判定である。なお、スコアマップSMのスコアは、そのスコアに対応する行動・状況パターンをユーザがとると推測される確率を示している。つまり、スコアマップSMは、ジオカテゴリコードで表現される現在地の状況でユーザがとると推測される行動・状況パターンのスコア分布を表している。   Next, the behaviour / situation recognition unit 106 identifies the maximum score from the extracted scores, and extracts the behaviour / situation pattern corresponding to the maximum score. A method for detecting a behaviour / situation pattern in this way is rule-based determination. The score of the score map SM indicates the probability that the user is assumed to take the behaviour / situation pattern corresponding to the score. That is, the score map SM represents the score distribution of the behaviour / situation pattern that the user is supposed to take in the current situation represented by the geo category code.

例えば、日曜日の3時頃、デパートにいるユーザは「買い物中」である確率が高いと推測される。但し、同じデパートにいても19時頃、デパートにいるユーザは「食事中」である確率も高いと推測される。このように、ある場所で、ある時間にユーザが行っている行動・状況パターンのスコア分布を示したものがスコアマップSM(正確にはスコアマップSM群)なのである。   For example, it is estimated that a user at a department store has a high probability of “shopping” around 3 o'clock on Sunday. However, even at the same department store, it is estimated that the user at the department store is likely to be “mealing” at around 19:00. As described above, the score map SM (more precisely, the score map SM group) shows the score distribution of the behaviour / situation pattern performed by the user at a certain place at a certain time.

スコアマップSMは、例えば、ユーザ本人又は他人により予め入力されたものであってもよいし、或いは、機械学習などを利用して得られるものであってもよい。また、スコアマップSMは、個人プロファイル情報PRや、ユーザから得られる行動・状況フィードバックFB(出力された行動・状況パターンの正否など)により最適化されてもよい。プロファイル情報PRとしては、例えば、年齢、性別、職業、自宅の情報、職場の情報などが利用される。以上がルールベース判定の具体的な処理内容である。   For example, the score map SM may be input in advance by the user himself / herself or another person, or may be obtained using machine learning or the like. The score map SM may be optimized based on the personal profile information PR and the action / situation feedback FB obtained from the user (whether the output action / situation pattern is correct or not). As the profile information PR, for example, age, sex, occupation, home information, workplace information, and the like are used. The above is the specific processing content of the rule base determination.

(学習モデル判定について)
次に、学習モデル判定について説明する。学習モデル判定とは、機械学習アルゴリズムを用いて行動・状況パターンを判定するための判定モデルを生成し、生成した判定モデルを用いて入力データに対応する行動・状況パターンを判定する方法である。
(About learning model judgment)
Next, learning model determination will be described. Learning model determination is a method of generating a determination model for determining an action / situation pattern using a machine learning algorithm and determining an action / situation pattern corresponding to input data using the generated determination model.

機械学習アルゴリズムとしては、例えば、k−means法、Nearest Neighbor法、SVM、HMM、Boosting等が利用可能である。但し、SVMは、Support vector machineの略である。また、HMMは、Hidden Markov Modelの略である。これらの手法に加え、特開2009−48266号公報などに記載の遺伝的探索に基づくアルゴリズム構築方法を利用して判定モデルを生成する方法もある。   As the machine learning algorithm, for example, k-means method, Nearest Neighbor method, SVM, HMM, Boosting, etc. can be used. However, SVM is an abbreviation for Support vector machine. HMM is an abbreviation for Hidden Markov Model. In addition to these methods, there is also a method of generating a determination model using an algorithm construction method based on a genetic search described in Japanese Patent Application Laid-Open No. 2009-48266.

機械学習アルゴリズムに入力される特徴量ベクトルとしては、例えば、図12に示すように、時間情報、動き・状態パターン、ジオカテゴリコード(又はジオカテゴリヒストグラムなど)、センサデータ、現在地の位置情報などが利用される。但し、遺伝的探索に基づくアルゴリズム構築方法を用いる場合、学習過程における特徴量ベクトルの選定段階で遺伝的探索アルゴリズムが利用される。行動・状況認識部106は、まず、正解の行動・状況パターンが分かっている特徴量ベクトルを学習データとして機械学習アルゴリズムに入力し、各行動・状況パターンの確度、又は最適な行動・状況パターンを判定する判定モデルを生成する。   As the feature vector input to the machine learning algorithm, for example, as shown in FIG. 12, time information, motion / state pattern, geo category code (or geo category histogram, etc.), sensor data, current location information, etc. Used. However, when an algorithm construction method based on genetic search is used, the genetic search algorithm is used in the feature vector selection stage in the learning process. The behaviour / situation recognition unit 106 first inputs a feature vector in which the correct behaviour / situation pattern is known to the machine learning algorithm as learning data, and determines the accuracy of each behaviour / situation pattern or the optimum behaviour / situation pattern. A determination model for determination is generated.

次いで、行動・状況認識部106は、生成した判定モデルに入力データを入力し、入力データに適合すると推測される行動・状況パターンを判定する。但し、生成した判定モデルを用いて行われた判定結果に対する正誤のフィードバックが得られる場合、そのフィードバックを利用して判定モデルが再構築される。この場合、行動・状況認識部106は、再構築した判定モデルを用いて入力データに適合すると推測される行動・状況パターンを判定する。以上が学習モデル判定の具体的な処理内容である。   Next, the behaviour / situation recognition unit 106 inputs input data to the generated determination model, and determines a behaviour / situation pattern that is presumed to be suitable for the input data. However, when correct / incorrect feedback is obtained for the determination result made using the generated determination model, the determination model is reconstructed using the feedback. In this case, the behaviour / situation recognition unit 106 determines a behaviour / situation pattern presumed to be suitable for the input data using the reconstructed determination model. The above is the specific processing content of the learning model determination.

以上説明した方法により、行動・状況認識部106は、図13に示すような行動・状況パターンを検出する。そして、行動・状況認識部106により検出された行動・状況パターンは、行動・状況パターンに応じた推奨サービスSVの提供に利用されたり、行動・状況パターンに応じた処理を行うアプリケーションAPにより利用される。   By the method described above, the behaviour / situation recognition unit 106 detects a behaviour / situation pattern as shown in FIG. The behaviour / situation pattern detected by the behaviour / situation recognition unit 106 is used to provide a recommended service SV corresponding to the behaviour / situation pattern or used by an application AP that performs processing according to the behaviour / situation pattern. The

以上、行動・状況解析システム10のシステム構成について説明した。後述する実施形態に係る技術は、上述した行動・状況解析システム10の機能に関係する。なお、行動・状況解析システム10の詳細な機能については、例えば、特開2011−081431号公報などの記載が参考になる。   The system configuration of the behaviour / situation analysis system 10 has been described above. A technique according to an embodiment to be described later relates to the function of the behaviour / situation analysis system 10 described above. For detailed functions of the behaviour / situation analysis system 10, for example, the description in Japanese Patent Application Laid-Open No. 2011-081431 is helpful.

[1−2:実施形態の概要]
ここで、本実施形態の概要について述べる。本実施形態に係る技術は、上記の行動・状況解析システム10などを利用して得られる行動パターンの情報と、テキスト情報などの入力情報とを組み合わせ、より付加価値の高い情報を提供する仕組みに関する。
[1-2: Outline of Embodiment]
Here, an outline of the present embodiment will be described. The technology according to the present embodiment relates to a mechanism for providing higher value-added information by combining action pattern information obtained by using the above-described action / situation analysis system 10 and input information such as text information. .

例えば、後段において紹介する構成例#1は、「所定の事柄」に対応する一又は複数の行動パターンに基づいて、その事柄に関する状態を表す「状態情報」を提供する仕組みに関する。例えば、上記の「所定の事柄」は、入力情報から得られるユーザの目標/宣言であり、上記の「状態情報」は、その目標/宣言に対する達成度である。   For example, Configuration Example # 1 introduced in the latter part relates to a mechanism for providing “state information” representing a state related to a matter based on one or a plurality of action patterns corresponding to “predetermined matter”. For example, the above-mentioned “predetermined matter” is a user's goal / declaration obtained from input information, and the “state information” is an achievement level for the goal / declaration.

上記の「所定の事柄」は、入力情報から得られるユーザの目標/宣言に限定されず、上記の「状態情報」は、その目標/宣言に対する達成度に限定されないが、後述する構成例#1では、主に入力情報から得られるユーザの目標/宣言に対する達成度をユーザに提供する仕組みを例として、説明を進めることとする。   The “predetermined matter” is not limited to the user's goal / declaration obtained from the input information, and the “state information” is not limited to the achievement level with respect to the goal / declaration. Now, the description will proceed mainly by taking as an example a mechanism for providing the user with the degree of achievement of the user's goal / declaration obtained from the input information.

また、「状態情報」は、所定の事柄に対する現在の状態と目標/宣言を達成した場合の状態との比較情報の一例である達成度以外にも、例えば、所定の事柄に対する現在の状態を表す情報や、所定の事柄に対する現在の状態と過去の状態との比較情報であってもよく、この場合であっても、後述する構成例#1に係る技術を適用できる。   The “state information” represents, for example, the current state for a predetermined matter, in addition to the achievement level that is an example of comparison information between the current state for the predetermined matter and the state when the goal / declaration is achieved. Information or comparison information between a current state and a past state with respect to a predetermined matter may be used, and even in this case, the technology according to Configuration Example # 1 described later can be applied.

また、後述する構成例#2は、上記の行動・状況解析システム10などを利用して得られる行動パターンの情報に、テキスト情報などの入力情報から得られるユーザの体験に関する情報を付加し、より詳細な情報をユーザに提供する仕組みに関する。さらに、後述する構成例#3は、上記の行動・状況解析システム10などを利用して得られる行動パターンの情報、及びテキスト情報などの入力情報から得られるユーザの体験のうち、非日常的な行動や体験を判別してユーザに提供する仕組みに関する。   In addition, the configuration example # 2 described later adds information related to the user's experience obtained from input information such as text information to the behavior pattern information obtained by using the behavior / situation analysis system 10 described above, and more. The present invention relates to a mechanism for providing detailed information to a user. Furthermore, the configuration example # 3 described later is an extraordinary part of the user's experience obtained from input information such as action pattern information and text information obtained by using the action / situation analysis system 10 described above. The present invention relates to a mechanism for discriminating actions and experiences and providing them to users.

なお、これら構成例#1〜#3に係る技術は任意に組み合わせることも可能である。また、以下の説明では、体験の抽出に用いる入力情報としてテキスト情報を主に想定するが、例えば、マイクなどを利用して取得した音声情報などを利用することも可能である。この場合、音声信号の波形をそのまま利用して周辺環境や行動に関する情報を得ることもできるし、音声認識技術を利用して音声信号からテキスト情報を得ることも可能である。音声認識技術を利用する場合は、テキスト情報が得られることから、後述する構成例#1〜#3に係る技術をそのまま適用することができる。   Note that the techniques according to these configuration examples # 1 to # 3 can be arbitrarily combined. In the following description, text information is mainly assumed as input information used for experience extraction. However, for example, voice information acquired using a microphone or the like can be used. In this case, it is possible to obtain information on the surrounding environment and behavior using the waveform of the voice signal as it is, and it is also possible to obtain text information from the voice signal using voice recognition technology. Since text information is obtained when using the speech recognition technology, the technology according to configuration examples # 1 to # 3 described later can be applied as it is.

<2:実施形態の詳細>
以下、本実施形態に係る技術の詳細について説明する。
<2: Details of the embodiment>
Hereinafter, details of the technology according to the present embodiment will be described.

[2−1:システム構成の一例]
まず、図14を参照しながら、本実施形態に係るシステム構成の一例を紹介する。図14は、本実施形態に係るシステム構成の一例について説明するための説明図である。なお、ここで紹介するシステム構成はあくまでも一例に過ぎず、現在及び将来において利用可能な様々なシステム構成に対して本実施形態に係る技術を適用することが可能である。
[2-1: Example of system configuration]
First, an example of a system configuration according to the present embodiment will be introduced with reference to FIG. FIG. 14 is an explanatory diagram for describing an example of a system configuration according to the present embodiment. The system configuration introduced here is merely an example, and the technology according to the present embodiment can be applied to various system configurations that can be used at present and in the future.

図14に示すように、後述する情報提供システム13、17、19は、主に、複数の情報端末CLと、サーバ装置SVとにより構成される。情報端末CLは、ユーザが利用する機器の一例である。例えば、情報端末CLとしては、携帯電話、スマートフォン、デジタルスチルカメラ、デジタルビデオカメラ、パーソナルコンピュータ、タブレット端末、カーナビゲーションシステム、携帯ゲーム機、健康器具(万歩計(登録商標)などを含む)、医療機器などが想定される。一方、サーバ装置SVとしては、例えば、ホームサーバやクラウドコンピューティングシステムなどが想定される。   As shown in FIG. 14, the information providing systems 13, 17, and 19 to be described later are mainly configured by a plurality of information terminals CL and a server device SV. The information terminal CL is an example of a device used by a user. For example, as the information terminal CL, a mobile phone, a smartphone, a digital still camera, a digital video camera, a personal computer, a tablet terminal, a car navigation system, a portable game machine, a health device (including a pedometer (registered trademark), etc.), Medical equipment is assumed. On the other hand, as the server device SV, for example, a home server or a cloud computing system is assumed.

もちろん、本実施形態に係る技術が適用可能なシステム構成は図14の例に限定されないが、説明の都合上、有線及び/又は無線のネットワークで接続された複数の情報端末CL及びサーバ装置SVを念頭に置きつつ説明を進めることにする。従って、情報端末CLとサーバ装置SVとの間で情報をやり取りすることが可能な構成を想定する。但し、情報提供システム13、17、19が有する各種機能のうち、どの機能を情報端末CLが担い、どの機能をサーバ装置SVが担うように構成するかは自由である。例えば、情報端末CLの演算能力や通信速度などを考慮して設計されることが望ましい。   Of course, the system configuration to which the technology according to the present embodiment can be applied is not limited to the example of FIG. 14, but for convenience of explanation, a plurality of information terminals CL and server devices SV connected by a wired and / or wireless network are included. I will proceed with the explanation in mind. Therefore, a configuration is assumed in which information can be exchanged between the information terminal CL and the server device SV. However, of the various functions of the information providing systems 13, 17, and 19, it is free to configure which function is performed by the information terminal CL and which function is performed by the server apparatus SV. For example, it is desirable to design in consideration of the computing capability and communication speed of the information terminal CL.

[2−2:構成例#1(目標達成度の示唆)]
まず、構成例#1について説明する。構成例#1は、入力情報から得られるユーザの目標/宣言に対する達成度をユーザに提供する仕組みに関する。
[2-2: Configuration example # 1 (implication of target achievement)]
First, configuration example # 1 will be described. Configuration example # 1 relates to a mechanism for providing a user with an achievement level for a user's goal / declaration obtained from input information.

(2−2−1:システム構成の詳細)
構成例#1に係るシステム(情報提供システム13)は、例えば、図15のようになる。図15に示すように、情報提供システム13は、テキスト情報取得部131と、体験抽出部132と、目標/宣言抽出部133と、目標/宣言照合部134と、対応関係記憶部135と、目標/宣言登録部136とを有する。さらに、情報提供システム13は、達成度記憶部137と、センサ情報取得部138と、行動パターン抽出部139と、達成度更新部140と、達成度表示部141とを有する。
(2-2-1: System configuration details)
A system (information providing system 13) according to configuration example # 1 is, for example, as shown in FIG. As shown in FIG. 15, the information providing system 13 includes a text information acquisition unit 131, an experience extraction unit 132, a target / declaration extraction unit 133, a target / declaration collation unit 134, a correspondence relationship storage unit 135, a target / Declaration registration unit 136. Furthermore, the information providing system 13 includes an achievement level storage unit 137, a sensor information acquisition unit 138, an action pattern extraction unit 139, an achievement level update unit 140, and an achievement level display unit 141.

なお、センサ情報取得部138及び行動パターン抽出部139の機能は、上述した行動・状況解析システム10の機能を利用して実現可能である。また、情報提供システム13が有する上記構成要素のうち、どの構成要素の機能を情報端末CLが担い、どの構成要素の機能をサーバ装置SVが担うように設計するかは自由である。例えば、情報端末CLの演算能力や通信速度などを考慮して設計されることが望ましい。   The functions of the sensor information acquisition unit 138 and the behavior pattern extraction unit 139 can be realized by using the functions of the behavior / situation analysis system 10 described above. In addition, among the above-described components included in the information providing system 13, it is free to design which component element functions as the information terminal CL and which component component functions as the server device SV. For example, it is desirable to design in consideration of the computing capability and communication speed of the information terminal CL.

テキスト情報取得部131は、ユーザが入力したテキスト情報を取得する。例えば、テキスト情報取得部131は、ユーザがテキストを入力するための入力デバイスであってもよいし、ソーシャルネットワークサービスやアプリケーションからテキスト情報を取得する情報収集デバイスであってもよい。ここでは、説明の都合上、テキスト情報取得部131がソフトウェアキーボードのような入力手段であると想定して説明を進める。   The text information acquisition unit 131 acquires text information input by the user. For example, the text information acquisition unit 131 may be an input device for the user to input text, or may be an information collection device that acquires text information from a social network service or application. Here, for convenience of explanation, the description will be made assuming that the text information acquisition unit 131 is an input means such as a software keyboard.

テキスト情報取得部131により取得されたテキスト情報は、体験抽出部132に入力される。このとき、体験抽出部132には、テキスト情報と共に、テキスト情報が入力された際の時刻情報が入力されてもよい。テキスト情報が入力されると、体験抽出部132は、入力されたテキスト情報を解析し、ユーザの体験に関する情報をテキスト情報から抽出する。体験に関する情報とは、例えば、体験した事象(体験の種類など)、体験した場所、体験した時間などを含む情報である。   The text information acquired by the text information acquisition unit 131 is input to the experience extraction unit 132. At this time, time information when the text information is input may be input to the experience extracting unit 132 together with the text information. When text information is input, the experience extraction unit 132 analyzes the input text information and extracts information related to the user's experience from the text information. The information related to the experience is, for example, information including the experienced event (type of experience, etc.), the experienced location, the experienced time, and the like.

ここで、体験抽出部132の機能構成について、図16を参照しながら、より詳細に説明する。図16に示すように、体験抽出部132は、主に、種類特徴量抽出部151と、体験種類判別部152と、体験種類モデル記憶部153とを有する。さらに、体験抽出部132は、場所特徴量抽出部154と、体験場所抽出部155と、体験場所モデル記憶部156とを有する。そして、体験抽出部132は、時間特徴量抽出部157と、体験時間抽出部158と、体験時間モデル記憶部159とを有する。   Here, the functional configuration of the experience extraction unit 132 will be described in more detail with reference to FIG. As illustrated in FIG. 16, the experience extraction unit 132 mainly includes a type feature amount extraction unit 151, an experience type determination unit 152, and an experience type model storage unit 153. Furthermore, the experience extraction unit 132 includes a location feature amount extraction unit 154, an experience location extraction unit 155, and an experience location model storage unit 156. The experience extraction unit 132 includes a time feature amount extraction unit 157, an experience time extraction unit 158, and an experience time model storage unit 159.

テキスト情報が体験抽出部132に入力されると、そのテキスト情報は、種類特徴量抽出部151、場所特徴量抽出部154、及び時間特徴量抽出部157に入力される。   When the text information is input to the experience extraction unit 132, the text information is input to the type feature amount extraction unit 151, the location feature amount extraction unit 154, and the time feature amount extraction unit 157.

種類特徴量抽出部151は、入力されたテキスト情報から体験の種類に関する特徴量(以下、種類特徴量)を抽出する。種類特徴量抽出部151により抽出された種類特徴量は、体験種類判別部152に入力される。体験種類判別部152は、体験種類モデル記憶部153に記憶されている学習モデルを利用して、入力された種類特徴量から体験の種類を判別する。そして、体験種類判別部152による判別結果は、目標/宣言抽出部133に入力される。   The type feature amount extraction unit 151 extracts a feature amount related to the type of experience (hereinafter referred to as type feature amount) from the input text information. The type feature amount extracted by the type feature amount extraction unit 151 is input to the experience type determination unit 152. The experience type determination unit 152 uses the learning model stored in the experience type model storage unit 153 to determine the type of experience from the input type feature amount. Then, the discrimination result by the experience type discrimination unit 152 is input to the goal / declaration extraction unit 133.

また、場所特徴量抽出部154は、入力されたテキスト情報から、体験した場所に関する特徴量(以下、場所特徴量)を抽出する。場所特徴量抽出部154により抽出された場所特徴量は、体験場所判別部155に入力される。体験場所判別部155は、体験場所モデル記憶部156に記憶されている学習モデルを利用して、入力された場所特徴量から体験した場所を判別する。そして、体験場所判別部155による判別結果は、目標/宣言抽出部133に入力される。   Further, the location feature amount extraction unit 154 extracts a feature amount related to the experienced location (hereinafter referred to as a location feature amount) from the input text information. The location feature amount extracted by the location feature amount extraction unit 154 is input to the experience location determination unit 155. The experience place determination unit 155 uses the learning model stored in the experience place model storage unit 156 to determine the place experienced from the input place feature amount. Then, the determination result by the experience location determination unit 155 is input to the target / declaration extraction unit 133.

また、時間特徴量抽出部157は、入力されたテキスト情報から、体験した時間に関する特徴量(以下、時間特徴量)を抽出する。時間特徴量抽出部157により抽出された時間特徴量は、体験時間判別部158に入力される。体験時間判別部158は、体験時間モデル記憶部159に記憶されている学習モデルを利用して、入力された時間特徴量から体験した時間を判別する。そして、体験時間判別部158による判別結果は、目標/宣言抽出部133に入力される。   Further, the time feature amount extraction unit 157 extracts a feature amount related to the experienced time (hereinafter, time feature amount) from the input text information. The time feature amount extracted by the time feature amount extraction unit 157 is input to the experience time determination unit 158. The experience time determination unit 158 uses the learning model stored in the experience time model storage unit 159 to determine the experience time from the input time feature amount. Then, the determination result by the experience time determination unit 158 is input to the target / declaration extraction unit 133.

ここで、図17を参照しながら、音楽体験を例に体験抽出部132が実行する処理の内容について説明を補足する。図17は、体験抽出部132が実行する具体的な処理の内容について説明するための説明図である。なお、ここでは説明の都合上、音楽体験を例に上げて説明を進めるが、本実施形態の技術的範囲はこれに限定されない。   Here, with reference to FIG. 17, the contents of the processing executed by the experience extraction unit 132 will be supplemented by taking a music experience as an example. FIG. 17 is an explanatory diagram for explaining the contents of specific processing executed by the experience extracting unit 132. Here, for convenience of explanation, the description will be given by taking a music experience as an example, but the technical scope of the present embodiment is not limited to this.

図17に示すように、音楽体験の場合、体験の種類としては、例えば、「音楽を聴く(listen)」「TV/映画/DVDなどで音楽映像を見る(watch)」「曲/CDを買う(buy)」「ライブやコンサートに参加する(live)」「歌を歌う/演奏する/作曲する(play)」などが考えられる。体験抽出部132は、種類特徴量抽出部151及び体験種類判別部152の機能を利用して、これら体験の種類を判別する。   As shown in FIG. 17, in the case of a music experience, examples of the type of experience include “listening to music”, “watching music video on TV / movie / DVD” (watch), “buying a song / CD (Buy) ”“ participate in live concerts (live) ”,“ sing a song / perform / compose (play) ”, and the like. The experience extraction unit 132 uses the functions of the type feature amount extraction unit 151 and the experience type determination unit 152 to determine these types of experiences.

例えば、体験の種類「listen」を判別する場合、まず、種類特徴量抽出部151は、形態素、n−gram、極大部分文字列などの手法により体験の種類「listen」に関する種類特徴量を抽出する。次いで、体験種類判別部152は、SVMやLogistic Regressionなどの手法により種類特徴量から体験の種類「listen」に該当するか否かを判別する。体験種別判別部152による判別結果は、体験の種類を表す情報として出力される。同様に、体験の種類「watch」「buy」「live」「play」などについても判別結果が得られる。   For example, when the type of experience “listen” is determined, first, the type feature amount extraction unit 151 extracts the type feature amount related to the type of experience “listen” using a technique such as morpheme, n-gram, and maximum partial character string. . Next, the experience type discriminating unit 152 discriminates whether or not the experience type corresponds to the type of experience “listen” from the type feature amount by a method such as SVM or Logistic Regression. The discrimination result by the experience type discrimination unit 152 is output as information indicating the type of experience. Similarly, a discrimination result is obtained for the types of experience “watch”, “buy”, “live”, “play”, and the like.

また、体験場所の抽出は、場所特徴量抽出部154及び体験場所抽出部155の機能により実現される。まず、場所特徴量抽出部154は、入力されたテキスト情報を対象に形態素解析を実行し、その結果を体験場所抽出部155に入力する。次いで、体験場所抽出部155は、形態素解析の結果に基づき、CRF(Conditional Random Field)などの手法を利用して体験場所を抽出する。例えば、体験場所抽出部155は、図18に示すような素性テンプレートを利用し、図19に示すように体験場所(図19の例では「京都駅」を抽出)を抽出する。   The extraction of the experience place is realized by the functions of the place feature amount extraction unit 154 and the experience place extraction unit 155. First, the place feature amount extraction unit 154 performs morphological analysis on the input text information, and inputs the result to the experience place extraction unit 155. Next, the experience place extraction unit 155 extracts the experience place using a technique such as CRF (Conditional Random Field) based on the result of the morphological analysis. For example, the experience place extraction unit 155 extracts an experience place (extracts “Kyoto Station” in the example of FIG. 19) using a feature template as shown in FIG. 18, as shown in FIG.

また、体験時間の抽出は、時間特徴量抽出部157及び体験時間抽出部158の機能により実現される。体験時間の抽出は、上述した体験場所の抽出と同様に、形態素解析及びCRFなどを利用した系列ラベリングの手法により実現される。なお、体験時間の表現としては、例えば、「現在」「過去」「未来」「朝」「昼」「夕方」「深夜」など、様々な単位の表現が利用されうる。このようにして得られた体験場所及び体験時間の情報は、体験の種類を示す判別結果と共に、目標/宣言抽出部133に入力される。なお、体験の種類、体験場所、体験時間の一部又は全部が得られない場合もある。   The extraction of the experience time is realized by the functions of the time feature amount extraction unit 157 and the experience time extraction unit 158. The extraction of the experience time is realized by a sequence labeling method using morphological analysis, CRF, and the like, similarly to the extraction of the experience place described above. As the expression of the experience time, various units of expression such as “present”, “past”, “future”, “morning”, “daytime”, “evening”, and “midnight” can be used. The information on the experience place and the experience time obtained in this way is input to the target / declaration extraction unit 133 together with the determination result indicating the type of experience. In some cases, part or all of the experience type, the experience location, and the experience time cannot be obtained.

再び図15を参照する。体験の種類、体験場所、体験時間の情報が得られると、目標/宣言抽出部133は、体験の種類及び体験時間の情報を利用して、テキスト情報に目標/宣言に関する情報が含まれるか否かを判定する。例えば、図20に示すように、体験の種類が「ダイエット」、体験時間が「未来」の場合、目標/宣言抽出部133は、この結果に対応するテキスト情報が目標/宣言を含むものと判定する。一方、体験の種類が「ダイエット」であっても、体験時間が「過去」の場合、目標/宣言抽出部133は、この結果に対応するテキスト情報が目標/宣言を含まないものと判定する。   Refer to FIG. 15 again. When the information on the type of experience, the experience location, and the experience time is obtained, the goal / declaration extraction unit 133 uses the information on the type of experience and the experience time to determine whether the text information includes information on the goal / declaration. Determine whether. For example, as shown in FIG. 20, when the type of experience is “diet” and the experience time is “future”, the goal / declaration extraction unit 133 determines that the text information corresponding to the result includes the goal / declaration. To do. On the other hand, even if the type of experience is “diet”, if the experience time is “past”, the goal / declaration extraction unit 133 determines that the text information corresponding to this result does not include the goal / declaration.

つまり、目標/宣言抽出部133は、体験種類が目標/宣言に該当し、体験時間が未来の場合に、その結果に対応するテキスト情報が目標/宣言を含むものと判定する。そして、目標/宣言抽出部133は、目標/宣言を含むものと判定したテキスト情報から得られた体験種類を目標/宣言として抽出する。そして、目標/宣言抽出部133により抽出された目標/宣言の情報は、目標/宣言照合部134に入力される。目標/宣言の情報が入力されると、目標/宣言照合部134は、対応関係記憶部135を参照し、入力された目標/宣言に関連する一又は複数の行動パターンを特定し、特定した各行動パターンを抽出する。   That is, when the experience type corresponds to the goal / declaration and the experience time is in the future, the goal / declaration extraction unit 133 determines that the text information corresponding to the result includes the goal / declaration. Then, the goal / declaration extraction unit 133 extracts the experience type obtained from the text information determined to include the goal / declaration as the goal / declaration. The target / declaration information extracted by the target / declaration extraction unit 133 is input to the target / declaration collation unit 134. When the goal / declaration information is input, the goal / declaration collation unit 134 refers to the correspondence relationship storage unit 135 to identify one or more action patterns related to the input goal / declaration, and Extract behavior patterns.

ここで、上記の説明では、目標/宣言照合部134は、目標/宣言の情報が入力された後に、その目標/宣言に対応する一又は複数の行動パターンを特定することとしたが、本実施形態に係る技術の適用範囲はこれに限定されない。   Here, in the above description, the goal / declaration collation unit 134 specifies one or more action patterns corresponding to the goal / declaration after the goal / declaration information is input. The application range of the technology according to the embodiment is not limited to this.

例えば、目標/宣言に関連するか否かを問わず、予め取得可能な全行動パターンを認識し、その認識結果をデータベースに格納しておくことが考えられる。この場合には、目標/宣言が入力された際に、全行動パターンの認識結果を格納したデータベースから、入力された目標/宣言に対応付けられた行動パターンについてのデータを参照すればよい。   For example, it is conceivable to recognize all action patterns that can be acquired in advance and store the recognition results in a database regardless of whether they are related to the goal / declaration. In this case, when a goal / declaration is input, data on the behavior pattern associated with the input goal / declaration may be referred to from the database storing the recognition results of all the behavior patterns.

対応関係記憶部135には、例えば、図21に示すように、目標/宣言と行動パターンとの対応関係を示すデータベースが格納されている。また、図21の例では、目標/宣言と行動パターンとの各組み合わせに対して寄与度が対応付けられている。例えば、ダイエットを目標/宣言にしている場合、「歩く」や「走る」といった行動はダイエットに効果があるが、「車に乗る」や「電車に乗る」といった行動はダイエットに効果がない。こうした観点から、図21の例では、目標/宣言と行動パターンとの各組み合わせに対して寄与度が対応付けられている。   For example, as shown in FIG. 21, the correspondence relationship storage unit 135 stores a database indicating the correspondence relationship between the target / declaration and the action pattern. Further, in the example of FIG. 21, contributions are associated with each combination of a target / declaration and an action pattern. For example, when a diet is a target / declaration, actions such as “walking” and “running” have an effect on the diet, but actions such as “riding a car” and “getting on a train” have no effect on the diet. From such a viewpoint, in the example of FIG. 21, contributions are associated with each combination of a target / declaration and an action pattern.

目標/宣言照合部134は、目標/宣言の情報及び目標/宣言に対応する行動パターンの情報を目標/宣言登録部136に入力する。目標/宣言の情報及び目標/宣言に対応する行動パターンの情報が入力されると、目標/宣言登録部136は、入力された目標/宣言及び行動パターンを到達度記憶部137に登録する。このようにして目標/宣言が登録されると、登録された目標/宣言に関して達成度の計算及び達成度に関する情報の提供が開始される。また、日々検出される行動パターンに応じて達成度が計算され、リアルタイムに目標/宣言に対する達成度の情報がユーザに提供される。   The goal / declaration collation unit 134 inputs the goal / declaration information and the behavior pattern information corresponding to the goal / declaration to the goal / declaration registration unit 136. When the goal / declaration information and the behavior pattern information corresponding to the goal / declaration are input, the goal / declaration registration unit 136 registers the input goal / declaration and behavior pattern in the reach storage unit 137. When the goal / declaration is registered in this manner, the achievement level calculation and the provision of information regarding the achievement level are started with respect to the registered goal / declaration. Further, the achievement level is calculated according to the behavior pattern detected every day, and information on the achievement level for the target / declaration is provided to the user in real time.

再び図15を参照する。行動パターンの検出は、センサ情報取得部138及び行動パターン抽出部139の機能により実現される。まず、センサ情報取得部138は、モーションセンサや位置センサなどからセンサ情報を取得する。センサ情報取得部138により取得されたセンサ情報は、行動パターン抽出部139に入力される。行動パターン抽出部139は、入力されたセンサ情報から行動パターンを抽出する。行動パターン抽出部139により抽出された行動パターンの情報は、達成度更新部140に入力される。なお、行動パターンの抽出方法は、上述した行動・状況解析システム10による行動パターンの抽出方法と同じ方法が適用可能である。   Refer to FIG. 15 again. The detection of the behavior pattern is realized by the functions of the sensor information acquisition unit 138 and the behavior pattern extraction unit 139. First, the sensor information acquisition unit 138 acquires sensor information from a motion sensor, a position sensor, or the like. The sensor information acquired by the sensor information acquisition unit 138 is input to the behavior pattern extraction unit 139. The behavior pattern extraction unit 139 extracts a behavior pattern from the input sensor information. Information on the behavior pattern extracted by the behavior pattern extraction unit 139 is input to the achievement level update unit 140. The behavior pattern extraction method can be the same as the behavior pattern extraction method by the behavior / situation analysis system 10 described above.

行動パターンの情報が入力されると、達成度更新部140は、達成度記憶部137に登録された目標/宣言に関する情報を参照し、入力された情報が示す行動パターンが、目標/宣言に対応する行動パターンに該当するか否かを判定する。目標/宣言に対応する行動パターンに該当する場合、達成度記憶部137は、その目標/宣言と、入力された行動パターンとの組み合わせに対応する達成効果(例えば、図21を参照)を認識する。次いで、達成度記憶部137は、その達成効果に対応付けられた達成度の更新値に基づいて現在の達成度を計算し、達成度記憶部137に記録する。   When the behavior pattern information is input, the achievement level update unit 140 refers to the information on the goal / declaration registered in the achievement level storage unit 137, and the behavior pattern indicated by the input information corresponds to the goal / declaration. It is judged whether it corresponds to the action pattern to do. When the action pattern corresponding to the goal / declaration is met, the achievement degree storage unit 137 recognizes an achievement effect (for example, see FIG. 21) corresponding to the combination of the goal / declaration and the input action pattern. . Next, the achievement degree storage unit 137 calculates the current achievement degree based on the updated value of the achievement degree associated with the achievement effect, and records it in the achievement degree storage unit 137.

例えば、目標/宣言が「ダイエット」、達成効果「無」=−5ポイント、達成効果「小」=+5ポイント、達成効果「中」=+15ポイント、達成効果「大」=+30ポイントの場合について、図22を参照しながら具体的に考えてみたい。まず、ユーザが電車に1時間乗った場合、行動パターン「電車に乗る(達成効果「無」)」が検出されるため、達成度更新部140は、現在の達成度を−5ポイントに設定する。次いで、ユーザが10分歩いた場合、行動パターン「歩く(達成効果「中」)」が検出されるため、達成度更新部140は、前回の達成度に15ポイント加算して現在の達成度を10ポイントに更新する。このように、行動パターンに応じて達成度が更新される。   For example, when the goal / declaration is “Diet”, Achievement effect “None” = − 5 points, Achievement effect “Small” = + 5 points, Achievement effect “Medium” = + 15 points, Achievement effect “Large” = + 30 points I want to think concretely with reference to FIG. First, when the user gets on the train for one hour, the behavior pattern “get on the train (achievement effect“ none ”)” is detected, so the achievement level update unit 140 sets the current achievement level to −5 points. . Next, when the user walks for 10 minutes, the behavior pattern “walking (achievement effect“ medium ”)” is detected, so the achievement level update unit 140 adds 15 points to the previous achievement level to obtain the current achievement level. Update to 10 points. In this way, the achievement level is updated according to the behavior pattern.

再び図15を参照する。上記のように、達成度記憶部137に格納された目標/宣言毎の達成度はリアルタイムに更新される。達成度記憶部137に格納された目標/宣言毎の達成度は、達成度表示部141により読み出され、ユーザに提示される。例えば、達成度表示部141は、図22の表示例#1及び#2に示すように、ユーザがとった行動パターンを示すオブジェクトと共に、その行動に応じて更新された達成度の値を表示する。表示例#1は、ユーザが「走る」行動をとったために達成度がアップし、更新後の達成度が35になったことを示している。   Refer to FIG. 15 again. As described above, the achievement level for each target / declaration stored in the achievement level storage unit 137 is updated in real time. The achievement level for each goal / declaration stored in the achievement level storage unit 137 is read by the achievement level display unit 141 and presented to the user. For example, as shown in display examples # 1 and # 2 in FIG. 22, the achievement level display unit 141 displays the value of the achievement level updated according to the behavior together with the object indicating the behavior pattern taken by the user. . Display example # 1 indicates that the achievement level has increased because the user has performed a “run” action, and the updated achievement level has become 35.

以上、構成例#1に係る情報提供システム13の構成について説明した。なお、上記の説明においては、テキスト情報の解析を先に実施し、センサ情報の解析を後に実施するような処理の流れに沿って説明したが、解析処理の順序は逆でもよい。また、達成度の通知方法は、画面表示に代えて音声ガイダンスにしたり、振動や光の明滅などで表現したりする方法などでもよい。例えば、達成度に応じて振動の強弱が変化したり、光の明滅速度や明るさが変化したりする構成などが考えられる。こうした変形についても当然に本実施形態の技術的範囲に属する。   The configuration of the information providing system 13 according to configuration example # 1 has been described above. In the above description, the text information is analyzed first and the sensor information is analyzed later. However, the order of the analysis processing may be reversed. The achievement level notification method may be a voice guidance instead of the screen display or a method of expressing by vibration or light blinking. For example, a configuration in which the intensity of vibration changes according to the degree of achievement or the blinking speed or brightness of light changes can be considered. Such modifications naturally belong to the technical scope of the present embodiment.

(2−2−2:処理の流れ)
次に、図23を参照しながら、情報提供システム13が実行する処理の流れについて説明する。図23は、情報提供システム13が実行する処理の流れについて説明するための説明図である。なお、図23に示した処理ステップの一部は順序を変更してもよい。例えば、テキスト情報の解析に係る処理ステップの順番とセンサ情報の解析に係る処理ステップの順番とを入れ替えてもよい。
(2-2-2: Process flow)
Next, the flow of processing executed by the information providing system 13 will be described with reference to FIG. FIG. 23 is an explanatory diagram for describing a flow of processing executed by the information providing system 13. Note that the order of some of the processing steps shown in FIG. 23 may be changed. For example, the order of the processing steps related to the analysis of the text information may be interchanged with the order of the processing steps related to the analysis of the sensor information.

図23に示すように、まず、情報提供システム13は、テキスト情報取得部131の機能により、テキスト情報を取得する(S101)。次いで、情報提供システム13は、体験抽出部132の機能により、テキスト情報から体験に関する情報を抽出する(S102)。体験に関する情報としては、例えば、体験の種類、体験場所、体験時間などが含まれる。次いで、情報提供システム13は、目標/宣言抽出部133の機能により、体験に関する情報から目標/宣言に関する情報を抽出する(S103)。   As shown in FIG. 23, first, the information providing system 13 acquires text information by the function of the text information acquisition unit 131 (S101). Next, the information providing system 13 extracts information about the experience from the text information by the function of the experience extracting unit 132 (S102). Information related to the experience includes, for example, the type of experience, the experience location, and the experience time. Next, the information providing system 13 uses the function of the goal / declaration extraction unit 133 to extract information on the goal / declaration from information on the experience (S103).

次いで、情報提供システム13は、目標/宣言照合部134の機能により、ステップS103で抽出した目標/宣言に対応する行動パターンを抽出する(S104)。次いで、情報提供システム13は、目標/宣言登録部136の機能により、達成度の算出対象となる目標/宣言と、その目標/宣言に対応する行動パターンを達成度記憶部137に登録する(S105)。   Next, the information providing system 13 extracts an action pattern corresponding to the target / declaration extracted in step S103 by the function of the target / declaration collating unit 134 (S104). Next, the information providing system 13 registers the goal / declaration and the behavior pattern corresponding to the goal / declaration in the achievement level storage unit 137 by the function of the goal / declaration registration unit 136 (S105). ).

一方で、情報提供システム13は、センサ情報取得部138の機能により、センサ情報を取得する(S106)。次いで、情報提供システム13は、行動パターン抽出部139の機能により、センサ情報から行動パターンを抽出する(S107)。次いで、情報提供システム13は、達成度更新部140の機能により、ステップS107で抽出した行動パターンに対応する目標/宣言の達成効果を認識し、認識した達成効果に応じて現在の達成度を計算する(S108)。次いで、情報提供システム13は、達成度表示部141の機能により、目標/宣言の達成度を表示し(S109)、一連の処理を終了する。   On the other hand, the information providing system 13 acquires sensor information by the function of the sensor information acquisition unit 138 (S106). Next, the information providing system 13 extracts a behavior pattern from the sensor information by the function of the behavior pattern extraction unit 139 (S107). Next, the information providing system 13 recognizes the achievement effect of the goal / declaration corresponding to the behavior pattern extracted in step S107 by the function of the achievement degree update unit 140, and calculates the current achievement degree according to the recognized achievement effect. (S108). Next, the information providing system 13 displays the achievement level of the goal / declaration by the function of the achievement level display unit 141 (S109), and ends the series of processes.

以上、情報提供システム13が実行する処理の流れについて説明した。   The flow of processing executed by the information providing system 13 has been described above.

(2−2−3:画面表示の例)
ここで、達成度の表示方法について説明を補足する。
(2-2-3: Example of screen display)
Here, a supplementary explanation will be given for the method of displaying the achievement level.

達成度の表示方法としては、図22の表示例#1及び#2のような方法がある。つまり、現在の行動パターンに対応するオブジェクトを表示し、現在の行動パターンをとった結果として得られた達成度を表示する方法が一例として挙げられる。特に、図22の例では、現在の行動パターンにより達成度がアップしたのか、ダウンしたのかが矢印で表示されており、ひと目で目標/宣言に対する効果が分かるようになっている。このような表示により、良い効果を奏する行動パターンをとるようにユーザを促すことが可能になる。また、その効果が達成度の数値にリアルタイムに反映されるため、目標/宣言に取り組むユーザのモチベーションを持続させる効果も期待できる。   As a method of displaying the achievement level, there are methods such as display examples # 1 and # 2 in FIG. That is, a method of displaying an object corresponding to the current behavior pattern and displaying the achievement level obtained as a result of taking the current behavior pattern is an example. In particular, in the example of FIG. 22, an arrow indicates whether the achievement level has increased or decreased according to the current action pattern, and the effect on the target / declaration can be seen at a glance. Such a display makes it possible to prompt the user to take an action pattern that has a good effect. In addition, since the effect is reflected in the numerical value of the achievement level in real time, the effect of sustaining the motivation of the user working on the target / declaration can be expected.

(2−2−4:変形例(動物への適用))
ところで、これまでは人間の行動パターンを対象とする技術について説明を進めてきた。しかし、構成例#1に係る技術は、人間以外の動物に対しても適用可能である。例えば、犬や猫などのペットの首輪にセンサを装着し、飼い主がペットの目標/宣言をテキスト情報として入力することにより、ペットの目標達成度を得ることも可能である。例えば、飼い主が目の届かない場所や時間帯に、ペットがどのくらい運動しているか、といったデータを得ることが可能になる。こうしたデータを解析し、ペットの健康管理を行うことで、ペットの病気予防などに効果を発揮するものと考えられる。
(2-2-4: Modified example (application to animals))
By the way, so far we have been explaining the technology that targets human behavior patterns. However, the technique according to Configuration Example # 1 can be applied to animals other than humans. For example, it is also possible to obtain a degree of achievement of a pet's goal by attaching a sensor to a collar of a pet such as a dog or a cat and inputting the pet's goal / declaration as text information. For example, it is possible to obtain data such as how much a pet is exercising in a place or time zone where the owner cannot reach the eyes. By analyzing such data and managing the health of the pet, it is thought that it will be effective in preventing the disease of the pet.

以上、構成例#1に係る技術について説明した。上記の構成例#1に係る技術によれば、入力情報から得られるユーザの宣言と、推定された行動パターンとの適合状況から、当該ユーザの宣言に関する達成状況を提示することが可能になる。   Heretofore, the technology according to Configuration Example # 1 has been described. According to the technology according to the configuration example # 1, it is possible to present the achievement status related to the user declaration from the matching status between the user declaration obtained from the input information and the estimated behavior pattern.

(適用例)
上記のように、構成例#1に係る技術を適用すると、ユーザの目標/宣言、及び行動パターンに基づく達成度が得られる。そこで、この達成度をグラフ化してユーザに表示したり、目標/宣言の達成に向けて達成度が増加傾向にあるか、減少傾向にあるかに応じて目標/宣言に向けた努力の度合いを表示したりする表示方法が実現可能である。さらに、目標/宣言の達成が困難な状況(達成度が著しく低い状況(閾値を下回る場合など))になっている場合に、達成度を下げる要因となった行動パターンの代表例(頻度の多いもの)やヒストグラムなどをユーザに提示して、困難な状況に陥った原因をユーザに提示する表示方法も実現可能である。さらに、達成度を下げる要因となった行動パターンの代表例とは逆の傾向を持つ行動パターンをユーザに提示することで、ユーザが目標/宣言を達成するための助言を与える表示方法も実現可能である。このような表示方法を適用することで、ユーザの目標/宣言の達成を直接的又は間接的にサポートすることが可能になる。
(Application example)
As described above, when the technology according to Configuration Example # 1 is applied, an achievement level based on the user's goal / declaration and behavior pattern is obtained. Therefore, this achievement is displayed in a graph and displayed to the user, or the degree of effort toward the goal / declaration is determined depending on whether the achievement is increasing or decreasing toward the achievement of the goal / declaration. A display method for displaying can be realized. In addition, when it is difficult to achieve the goal / declaration (when the achievement level is extremely low (such as below the threshold)), representative examples of behavior patterns that caused the achievement level to decrease (high frequency) It is also possible to realize a display method that presents the cause of a difficult situation to the user by presenting a user) or a histogram. Furthermore, by presenting the user with an action pattern that has the opposite tendency to the representative example of the action pattern that caused the achievement level to be reduced, a display method that gives the user advice to achieve the goal / declaration can be realized. It is. By applying such a display method, it is possible to directly or indirectly support the achievement of the user's goal / declaration.

[2−3:構成例#2(詳細行動の表示)]
次に、構成例#2について説明する。構成例#2は、入力情報から得られるユーザの体験に関する情報を行動パターンの情報に付加して提供する仕組みに関する。
[2-3: Configuration example # 2 (display detailed action)]
Next, configuration example # 2 will be described. The configuration example # 2 relates to a mechanism for providing information related to a user experience obtained from input information by adding it to behavior pattern information.

(2−3−1:システム構成の詳細)
構成例#2に係るシステム(情報提供システム17)は、例えば、図24のようになる。図24に示すように、情報提供システム17は、テキスト情報取得部171と、体験抽出部172と、抽出結果記憶部173と、センサ情報取得部174と、行動パターン抽出部175と、行動・体験照合部176と、対応関係記憶部177と、付加体験検索部178と、行動・付加体験表示部179とを有する。
(2-3-1: System configuration details)
The system (information providing system 17) according to Configuration Example # 2 is, for example, as shown in FIG. As shown in FIG. 24, the information providing system 17 includes a text information acquisition unit 171, an experience extraction unit 172, an extraction result storage unit 173, a sensor information acquisition unit 174, an action pattern extraction unit 175, and an action / experience. A collation unit 176, a correspondence relationship storage unit 177, an additional experience search unit 178, and an action / additional experience display unit 179 are provided.

なお、センサ情報取得部174及び行動パターン抽出部175の機能は、上述した行動・状況解析システム10の機能を利用して実現可能である。また、情報提供システム17が有する上記構成要素のうち、どの構成要素の機能を情報端末CLが担い、どの構成要素の機能をサーバ装置SVが担うように設計するかは自由である。例えば、情報端末CLの演算能力や通信速度などを考慮して設計されることが望ましい。   The functions of the sensor information acquisition unit 174 and the behavior pattern extraction unit 175 can be realized by using the functions of the behavior / situation analysis system 10 described above. In addition, among the above-described components included in the information providing system 17, it is free to design which component element functions as the information terminal CL and which component component functions as the server device SV. For example, it is desirable to design in consideration of the computing capability and communication speed of the information terminal CL.

テキスト情報取得部171は、ユーザが入力したテキスト情報を取得する。例えば、テキスト情報取得部171は、ユーザがテキストを入力するための入力デバイスであってもよいし、ソーシャルネットワークサービスやアプリケーションからテキスト情報を取得する情報収集デバイスであってもよい。ここでは、説明の都合上、テキスト情報取得部171がソフトウェアキーボードのような入力手段であると想定して説明を進める。   The text information acquisition unit 171 acquires text information input by the user. For example, the text information acquisition unit 171 may be an input device for a user to input text, or may be an information collection device that acquires text information from a social network service or application. Here, for convenience of explanation, the description will be made assuming that the text information acquisition unit 171 is an input means such as a software keyboard.

テキスト情報取得部171により取得されたテキスト情報は、体験抽出部172に入力される。このとき、体験抽出部172には、テキスト情報と共に、テキスト情報が入力された際の時刻情報が入力されてもよい。テキスト情報が入力されると、体験抽出部172は、入力されたテキスト情報を解析し、ユーザの体験に関する情報をテキスト情報から抽出する。体験に関する情報とは、例えば、体験した事象(体験の種類など)、体験した場所、体験した時間などを含む情報である。なお、体験抽出部172の機能は、構成例#1に係る体験抽出部132の機能と実質的に同じである。体験抽出部172により抽出された体験に関する情報は、抽出結果記憶部173に格納される。   The text information acquired by the text information acquisition unit 171 is input to the experience extraction unit 172. At this time, the time information when the text information is input may be input to the experience extraction unit 172 together with the text information. When text information is input, the experience extraction unit 172 analyzes the input text information and extracts information related to the user's experience from the text information. The information related to the experience is, for example, information including the experienced event (type of experience, etc.), the experienced location, the experienced time, and the like. The function of the experience extraction unit 172 is substantially the same as the function of the experience extraction unit 132 according to Configuration Example # 1. Information about the experience extracted by the experience extraction unit 172 is stored in the extraction result storage unit 173.

一方、センサ情報取得部174は、モーションセンサや位置センサなどからセンサ情報を取得する。センサ情報取得部174により取得されたセンサ情報は、行動パターン抽出部175に入力される。行動パターン抽出部175は、入力されたセンサ情報から行動パターンを抽出する。行動パターン抽出部175により抽出された行動パターンの情報は、行動・体験照合部176に入力される。なお、行動パターンの抽出方法は、上述した行動・状況解析システム10による行動パターンの抽出方法と同じ方法が適用可能である。   On the other hand, the sensor information acquisition unit 174 acquires sensor information from a motion sensor, a position sensor, or the like. The sensor information acquired by the sensor information acquisition unit 174 is input to the behavior pattern extraction unit 175. The behavior pattern extraction unit 175 extracts a behavior pattern from the input sensor information. Information on the behavior pattern extracted by the behavior pattern extraction unit 175 is input to the behavior / experience collation unit 176. The behavior pattern extraction method can be the same as the behavior pattern extraction method by the behavior / situation analysis system 10 described above.

行動パターンの情報が入力されると、行動・体験照合部176は、対応関係記憶部177に記憶された行動パターンと体験との対応関係を参照し、入力された情報が示す行動パターンに対応する体験を抽出する。例えば、図25に示すように、対応関係記憶部177には、行動パターン毎に体験が対応付けて記憶されている。上記のように、行動パターンは、センサ情報から得られる。一方、体験の情報は、テキスト情報から得られる。行動パターン及び体験の情報を得る方法については、上記の構成例#1と実質的に同じである。   When the behavior pattern information is input, the behavior / experience collation unit 176 refers to the correspondence relationship between the behavior pattern and the experience stored in the correspondence relationship storage unit 177, and corresponds to the behavior pattern indicated by the input information. Extract experiences. For example, as illustrated in FIG. 25, the correspondence relationship storage unit 177 stores experiences associated with each behavior pattern. As described above, the behavior pattern is obtained from the sensor information. On the other hand, experience information is obtained from text information. The method of obtaining behavior pattern and experience information is substantially the same as the above-described configuration example # 1.

行動・体験照合部176により抽出された体験の情報及び当該体験に対応する行動パターンの情報は、付加体験検索部178に入力される。体験の情報が入力されると、付加体験検索部178は、抽出結果記憶部173を参照し、入力された情報が示す体験と同じ体験を検索する。検索の結果、入力された情報が示す体験と同じ体験が検出されると、付加体験検索部178は、検出された体験に対応するテキスト情報、体験に関する情報(体験の種類、体験場所、体験時間、体験の対象など)を抽出する。例えば、付加体験検索部178により、図26に示すような体験に関する情報が得られる。   The experience information extracted by the behavior / experience collation unit 176 and the behavior pattern information corresponding to the experience are input to the additional experience search unit 178. When experience information is input, the additional experience search unit 178 refers to the extraction result storage unit 173 and searches for the same experience as the experience indicated by the input information. When the same experience as the experience indicated by the input information is detected as a result of the search, the additional experience search unit 178 displays text information corresponding to the detected experience, information related to the experience (type of experience, experience location, experience time). , Target of experience, etc.). For example, the additional experience search unit 178 obtains information related to the experience as shown in FIG.

付加体験検索部178による検索結果は、行動・付加体験表示部179に入力される。検索結果が入力されると、行動・付加体験表示部179は、入力された検索結果に基づいて体験に関する情報を表示する。例えば、図27に示すように、行動・付加体験表示部179は、行動パターン及び体験に関する情報を表示する。図27には、センサ情報のみを利用した場合に得られる行動パターンの情報を表示する場合と、センサ情報及びテキスト情報を利用した場合に得られる行動パターンの情報及び体験の情報を表示する場合とを並べて示した。センサ情報に加えてテキスト情報を利用すると、図27に示すように、体験に関する詳細な情報が得られるため、詳細な情報の表示が可能になる。   The search result by the additional experience search unit 178 is input to the action / additional experience display unit 179. When the search result is input, the action / additional experience display unit 179 displays information related to the experience based on the input search result. For example, as shown in FIG. 27, the action / additional experience display unit 179 displays information related to the action pattern and the experience. FIG. 27 shows a case of displaying behavior pattern information obtained when only sensor information is used, and a case of displaying behavior pattern information and experience information obtained when sensor information and text information are used. Are shown side by side. When text information is used in addition to sensor information, detailed information about the experience can be obtained as shown in FIG. 27, so that detailed information can be displayed.

ケース#1の場合、センサ情報のみだと行動パターン「歩行」に対応するオブジェクトを表示することしかできないが、テキスト情報を追加的に利用すると行動の対象である「犬」に関するオブジェクトを表示することが可能になる。ケース#2の場合、センサ情報のみだと行動パターン「走る」に対応するオブジェクトを表示することしかできないが、テキスト情報を追加的に利用すると体験の種類である「出社」に関するオブジェクトを表示することが可能になる。   In case # 1, the sensor information alone can only display an object corresponding to the behavior pattern “walking”, but if the text information is additionally used, an object related to “dog” that is the target of the behavior is displayed. Is possible. In case # 2, the sensor information alone can only display objects corresponding to the behavior pattern “run”, but if text information is additionally used, objects related to the “working” type of experience are displayed. Is possible.

さらに、ケース#3の場合、センサ情報のみだと行動パターン「車に乗る」に対応するオブジェクトを表示することしかできないが、テキスト情報を追加的に利用すると体験の種類「会話」及び体験場所「車」に関するオブジェクトを表示することが可能になる。また、ここではテキスト情報を追加的に利用する方法を例示したが、音声情報を利用することでも体験の種類「会話」や体験場所「車」などを特定可能になるため、音声情報を追加的に利用して同様の詳細表示を実現することも可能である。また、音声認識技術を利用すると、音声信号をテキスト情報に変換することができるため、同様の方法にて図27に示すような詳細表示を実現することが可能になる。   Furthermore, in case # 3, the sensor information alone can only display an object corresponding to the behavior pattern “get in the car”, but if the text information is additionally used, the experience type “conversation” and the experience place “ It is possible to display objects related to “car”. In addition, although the method of using text information additionally has been illustrated here, it is possible to specify the type of experience “conversation” or the experience location “car” by using voice information. It is also possible to realize the same detailed display by using the above. In addition, when a voice recognition technique is used, a voice signal can be converted into text information. Therefore, a detailed display as shown in FIG. 27 can be realized by a similar method.

以上、構成例#2に係る情報提供システム17の構成について説明した。なお、上記の説明においては、テキスト情報の解析を先に実施し、センサ情報の解析を後に実施するような処理の流れに沿って説明したが、解析処理の順序は逆でもよい。また、詳細情報の通知方法は、画面表示に代えて音声ガイダンスにしたりしてもよい。こうした変形についても当然に本実施形態の技術的範囲に属する。   The configuration of the information providing system 17 according to Configuration Example # 2 has been described above. In the above description, the text information is analyzed first and the sensor information is analyzed later. However, the order of the analysis processing may be reversed. The detailed information notification method may be voice guidance instead of screen display. Such modifications naturally belong to the technical scope of the present embodiment.

(2−3−2:処理の流れ)
次に、図28を参照しながら、情報提供システム17が実行する処理の流れについて説明する。図28は、情報提供システム17が実行する処理の流れについて説明するための説明図である。なお、図28に示した処理ステップの一部は順序を変更してもよい。例えば、テキスト情報の解析に係る処理ステップの順番とセンサ情報の解析に係る処理ステップの順番とを入れ替えてもよい。
(2-3-2: Process flow)
Next, the flow of processing executed by the information providing system 17 will be described with reference to FIG. FIG. 28 is an explanatory diagram for describing a flow of processing executed by the information providing system 17. Note that the order of some of the processing steps shown in FIG. 28 may be changed. For example, the order of the processing steps related to the analysis of the text information may be interchanged with the order of the processing steps related to the analysis of the sensor information.

図28に示すように、まず、情報提供システム17は、テキスト情報取得部171の機能により、テキスト情報を取得する(S111)。次いで、情報提供システム17は、体験抽出部172の機能により、テキスト情報から体験に関する情報を抽出する(S112)。次いで、情報提供システム17は、センサ情報取得部174の機能により、センサ情報を取得する(S113)。次いで、情報提供システム17は、行動パターン抽出部175の機能により、センサ情報から行動パターンを抽出する(S114)。   As shown in FIG. 28, first, the information providing system 17 acquires text information by the function of the text information acquisition unit 171 (S111). Next, the information providing system 17 extracts information about the experience from the text information by the function of the experience extracting unit 172 (S112). Next, the information providing system 17 acquires sensor information by the function of the sensor information acquisition unit 174 (S113). Next, the information providing system 17 extracts a behavior pattern from the sensor information by the function of the behavior pattern extraction unit 175 (S114).

次いで、情報提供システム17は、行動・体験照合部176の機能により、ステップS114で抽出した行動パターンと体験とを照合し、当該行動パターンに対応する体験の情報を抽出する(S115)。次いで、情報提供システム17は、付加体験検索部178の機能により、ステップS112で抽出された体験に関する情報の中から、ステップS115にて抽出した体験に対応する体験に関する情報を抽出する(S116)。次いで、情報提供システム17は、行動・付加体験表示部179の機能により、センサ情報から抽出された行動パターンに対応する情報と共に、ステップS116で抽出された体験に関する情報に対応する情報を表示し(S117)、一連の処理を終了する。   Next, the information providing system 17 collates the behavior pattern extracted in step S114 with the experience by the function of the behavior / experience collation unit 176, and extracts experience information corresponding to the behavior pattern (S115). Next, the information providing system 17 extracts information related to the experience corresponding to the experience extracted in step S115 from the information related to the experience extracted in step S112 by the function of the additional experience search unit 178 (S116). Next, the information providing system 17 displays information corresponding to the information related to the experience extracted in step S116 together with information corresponding to the behavior pattern extracted from the sensor information by the function of the behavior / additional experience display unit 179 ( S117), a series of processing ends.

以上、情報提供システム17が実行する処理の流れについて説明した。   The flow of processing executed by the information providing system 17 has been described above.

(2−3−3:画面表示の例)
ここで、詳細情報の表示方法について説明を補足する。
(2-3-3: Example of screen display)
Here, a supplementary explanation will be given regarding the display method of detailed information.

詳細情報の表示方法としては、図27のケース#1〜#3のような方法がある。つまり、センサ情報から検出された行動パターンの情報を表示しておき、当該行動パターンに対応する体験についてテキスト情報から体験に関する情報が得られている場合に、その体験に関する情報を追加的に表示する方法が一例として挙げられる。また、ケース#2のように詳細表示として時間情報(「あと5min」)を付加的に表示したり、ケース#3のように詳細表示として同乗者や会話内容を付加的に表示したりする方法も考えられる。こうした詳細表示が可能になると、より的確に状況を伝えることができるようになる。   As a detailed information display method, there are methods as shown in cases # 1 to # 3 in FIG. In other words, information on the behavior pattern detected from the sensor information is displayed, and information about the experience is additionally displayed when the information about the experience corresponding to the behavior pattern is obtained from the text information. One example is the method. In addition, time information (“5 minutes”) is additionally displayed as a detailed display as in case # 2, and a passenger and conversation contents are additionally displayed as a detailed display as in case # 3. Is also possible. When such detailed display becomes possible, the situation can be conveyed more accurately.

以上、構成例#2に係る技術について説明した。   Heretofore, the technology according to Configuration Example # 2 has been described.

[2−4:構成例#3(日常行動/非日常行動の判別)]
次に、構成例#3について説明する。構成例#3は、行動パターンの情報、及びテキスト情報などの入力情報から得られるユーザの体験のうち、非日常的な行動や体験を判別してユーザに提供する仕組みに関する。
[2-4: Configuration example # 3 (Determination of daily / unusual behavior)]
Next, configuration example # 3 will be described. Configuration example # 3 relates to a mechanism for discriminating and providing an extraordinary behavior and experience among user experiences obtained from input information such as behavior pattern information and text information.

(2−4−1:システム構成の詳細)
構成例#3に係るシステム(情報提供システム19)は、例えば、図29のようになる。図29に示すように、情報提供システム19は、テキスト情報取得部191と、体験抽出部192と、抽出結果記憶部193と、センサ情報取得部194と、行動パターン抽出部195と、行動・体験照合部196と、対応関係記憶部197と、非日常行動判別部198と、非日常行動表示部199とを有する。
(2-4-1: Details of system configuration)
A system (information providing system 19) according to Configuration Example # 3 is, for example, as shown in FIG. As shown in FIG. 29, the information providing system 19 includes a text information acquisition unit 191, an experience extraction unit 192, an extraction result storage unit 193, a sensor information acquisition unit 194, an action pattern extraction unit 195, and an action / experience. The collation unit 196, the correspondence relationship storage unit 197, the extraordinary behavior determination unit 198, and the extraordinary behavior display unit 199 are included.

なお、センサ情報取得部194及び行動パターン抽出部195の機能は、上述した行動・状況解析システム10の機能を利用して実現可能である。また、情報提供システム19が有する上記構成要素のうち、どの構成要素の機能を情報端末CLが担い、どの構成要素の機能をサーバ装置SVが担うように設計するかは自由である。例えば、情報端末CLの演算能力や通信速度などを考慮して設計されることが望ましい。   The functions of the sensor information acquisition unit 194 and the behavior pattern extraction unit 195 can be realized by using the functions of the behavior / situation analysis system 10 described above. In addition, among the above-described components included in the information providing system 19, it is free to design which component component functions as the information terminal CL and which component component functions as the server device SV. For example, it is desirable to design in consideration of the computing capability and communication speed of the information terminal CL.

テキスト情報取得部191は、ユーザが入力したテキスト情報を取得する。例えば、テキスト情報取得部191は、ユーザがテキストを入力するための入力デバイスであってもよいし、ソーシャルネットワークサービスやアプリケーションからテキスト情報を取得する情報収集デバイスであってもよい。ここでは、説明の都合上、テキスト情報取得部191がソフトウェアキーボードのような入力手段であると想定して説明を進める。   The text information acquisition unit 191 acquires text information input by the user. For example, the text information acquisition unit 191 may be an input device for a user to input text, or may be an information collection device that acquires text information from a social network service or application. Here, for convenience of explanation, the description will be made assuming that the text information acquisition unit 191 is an input means such as a software keyboard.

テキスト情報取得部191により取得されたテキスト情報は、体験抽出部192に入力される。このとき、体験抽出部192には、テキスト情報と共に、テキスト情報が入力された際の時刻情報が入力されてもよい。テキスト情報が入力されると、体験抽出部192は、入力されたテキスト情報を解析し、ユーザの体験に関する情報をテキスト情報から抽出する。体験に関する情報とは、例えば、体験した事象(体験の種類など)、体験した場所、体験した時間などを含む情報である。なお、体験抽出部192の機能は、構成例#1に係る体験抽出部132の機能と実質的に同じである。体験抽出部192により抽出された体験に関する情報は、抽出結果記憶部193に格納される。   The text information acquired by the text information acquisition unit 191 is input to the experience extraction unit 192. At this time, the time information when the text information is input may be input to the experience extraction unit 192 together with the text information. When text information is input, the experience extraction unit 192 analyzes the input text information and extracts information related to the user's experience from the text information. The information related to the experience is, for example, information including the experienced event (type of experience, etc.), the experienced location, the experienced time, and the like. The function of the experience extraction unit 192 is substantially the same as the function of the experience extraction unit 132 according to Configuration Example # 1. Information about the experience extracted by the experience extraction unit 192 is stored in the extraction result storage unit 193.

一方、センサ情報取得部194は、モーションセンサや位置センサなどからセンサ情報を取得する。センサ情報取得部194により取得されたセンサ情報は、行動パターン抽出部195に入力される。行動パターン抽出部195は、入力されたセンサ情報から行動パターンを抽出する。行動パターン抽出部195により抽出された行動パターンの情報は、行動・体験照合部196に入力される。なお、行動パターンの抽出方法は、上述した行動・状況解析システム10による行動パターンの抽出方法と同じ方法が適用可能である。   On the other hand, the sensor information acquisition unit 194 acquires sensor information from a motion sensor, a position sensor, or the like. The sensor information acquired by the sensor information acquisition unit 194 is input to the behavior pattern extraction unit 195. The behavior pattern extraction unit 195 extracts a behavior pattern from the input sensor information. The behavior pattern information extracted by the behavior pattern extraction unit 195 is input to the behavior / experience collation unit 196. The behavior pattern extraction method can be the same as the behavior pattern extraction method by the behavior / situation analysis system 10 described above.

行動パターンの情報が入力されると、行動・体験照合部196は、対応関係記憶部197に記憶された行動パターンと体験との対応関係を参照し、入力された情報が示す行動パターンに対応する体験を抽出する。例えば、図25に示すように、対応関係記憶部197には、行動パターン毎に体験が対応付けて記憶されている。上記のように、行動パターンは、センサ情報から得られる。一方、体験の情報は、テキスト情報から得られる。行動パターン及び体験の情報を得る方法については、上記の構成例#1と実質的に同じである。   When the behavior pattern information is input, the behavior / experience collation unit 196 refers to the correspondence relationship between the behavior pattern and the experience stored in the correspondence storage unit 197 and corresponds to the behavior pattern indicated by the input information. Extract experiences. For example, as shown in FIG. 25, the correspondence relationship storage unit 197 stores experiences associated with each behavior pattern. As described above, the behavior pattern is obtained from the sensor information. On the other hand, experience information is obtained from text information. The method of obtaining behavior pattern and experience information is substantially the same as the above-described configuration example # 1.

行動・体験照合部196により抽出された体験の情報及び当該体験に対応する行動パターンの情報は、非日常行動判別部198に入力される。行動パターンの情報が入力されると、非日常行動判別部198は、入力された行動パターンの情報が非日常的な行動を示すものであるか否かを判別する。また、体験の情報が入力されると、非日常行動判別部198は、入力された体験の情報が非日常的な体験を示すものであるか否かを判別する。   Information on the experience extracted by the behavior / experience collation unit 196 and information on the behavior pattern corresponding to the experience are input to the extraordinary behavior determination unit 198. When the behavior pattern information is input, the extraordinary behavior discriminating unit 198 discriminates whether or not the input behavior pattern information indicates an extraordinary behavior. When experience information is input, the extraordinary behavior determination unit 198 determines whether the input experience information indicates an extraordinary experience.

例えば、非日常行動判別部198は、図30に示すような非日常条件に基づいて非日常的な行動及び非日常的な体験を判別する。   For example, the extraordinary behavior discriminating unit 198 discriminates an extraordinary behavior and an extraordinary experience based on an extraordinary condition as shown in FIG.

図30の例では、(非日常#1)の場合、非日常行動判別部198は、センサ情報から抽出した行動パターンに時間帯異常が発生したか否かを判定する。つまり、非日常行動判別部198は、ある種類の行動が、普段抽出される時間帯とは異なる時間帯に抽出された場合や、どの時間帯にも抽出されなかった場合に、その行動が非日常行動であると判別する。具体的には、普段「歩行」行動が朝と夕方に抽出されるユーザについて、「歩行」行動が深夜に抽出された場合、深夜の「歩行」行動は、非日常行動であると判別される。   In the example of FIG. 30, in the case of (unusual # 1), the extraordinary behavior discriminating unit 198 determines whether or not a time zone abnormality has occurred in the behavior pattern extracted from the sensor information. In other words, the extraordinary behavior discriminating unit 198 determines that the behavior is non-existent when a certain type of behavior is extracted in a time zone different from the time zone that is normally extracted or when it is not extracted in any time zone. It is determined that it is a daily action. Specifically, for a user who normally extracts “walking” behavior in the morning and evening, if “walking” behavior is extracted at midnight, it is determined that the “walking” behavior at midnight is an extraordinary behavior. .

また、(非日常#2)の場合、非日常行動判別部198は、センサ情報から抽出した行動パターンに種類異常が発生したか否かを判定する。つまり、非日常行動判別部198は、ある時間帯について、普段抽出される行動とは異なる種類の行動が抽出された場合、その行動が非日常行動であると判別する。具体的には、普段「歩行」行動や「電車」行動が朝に抽出されるユーザについて、「走る」行動や「自転車」行動が抽出された場合、「走る」行動や「自転車」行動は、非日常行動であると判別される。   In the case of (unusual # 2), the extraordinary behavior determination unit 198 determines whether or not a type abnormality has occurred in the behavior pattern extracted from the sensor information. That is, the extraordinary behavior discriminating unit 198 discriminates that the behavior is an extraordinary behavior when a type of behavior different from the behavior usually extracted is extracted for a certain time period. Specifically, for users who normally extract “walking” behavior or “train” behavior in the morning, if “running” behavior or “bicycle” behavior is extracted, It is determined that it is an extraordinary action.

また、(非日常#3)の場合、非日常行動判別部198は、テキスト情報から抽出した体験に時間帯異常が発生したか否かを判定する。つまり、非日常行動判別部198は、ある種類の体験が、普段抽出される時間帯とは異なる時間帯に抽出された場合や、どの時間帯にも抽出されなかった場合に、その体験が非日常行動であると判別する。具体的には、朝、昼、晩に「食事」体験が抽出されるユーザについて、「食事」体験が深夜に抽出された場合や、昼に「食事」体験が抽出されなかった場合、該当する体験は、非日常行動であると判別される。   In the case of (unusual # 3), the extraordinary behavior determination unit 198 determines whether or not a time zone abnormality has occurred in the experience extracted from the text information. In other words, the extraordinary behavior discriminating unit 198 determines that the experience is non-existent when a certain type of experience is extracted in a time zone different from the time zone that is normally extracted or when it is not extracted in any time zone. It is determined that it is a daily action. Specifically, for users whose “meal” experience is extracted in the morning, noon, and evening, this applies when the “meal” experience is extracted late at night, or when the “meal” experience is not extracted during the day The experience is determined to be an extraordinary action.

また、(非日常#4)の場合、非日常行動判別部198は、テキスト情報から抽出した体験に種類異常が発生したか否かを判定する。つまり、非日常行動判別部198は、ある時間帯について、普段抽出される体験とは異なる種類の体験が抽出された場合、その体験が非日常行動であると判別する。具体的には、昼に「食事」体験が抽出されるユーザについて、昼に「走る」体験が検出された場合、昼に「走る」体験は、非日常行動であると判別される。   In the case of (unusual # 4), the extraordinary behavior determination unit 198 determines whether or not a type abnormality has occurred in the experience extracted from the text information. In other words, the extraordinary behavior discriminating unit 198 discriminates that the experience is an extraordinary behavior when an experience of a different type from the experience that is normally extracted is extracted for a certain time period. Specifically, for a user whose “meal” experience is extracted at noon, when the “run” experience at noon is detected, the “run” experience at noon is determined to be an extraordinary action.

再び図29を参照する。上記のようにして非日常行動判別部198による非日常行動の判別結果は、非日常行動表示部199に入力される。非日常行動表示部199は、非日常行動に対応するオブジェクトやテキストを強調表示したり、非日常行動を示す新たなオブジェクトを表示したりする。   Refer to FIG. 29 again. The extraordinary behavior discrimination result by the extraordinary behavior discriminating unit 198 is input to the extraordinary behavior display unit 199 as described above. The extraordinary behavior display unit 199 highlights an object or text corresponding to the extraordinary behavior, or displays a new object indicating the extraordinary behavior.

以上、構成例#3に係る情報提供システム19の構成について説明した。なお、上記の説明においては、テキスト情報の解析を先に実施し、センサ情報の解析を後に実施するような処理の流れに沿って説明したが、解析処理の順序は逆でもよい。また、日常/非日常を判別する処理を例に挙げて説明したが、ポジティブな行動/ネガティブな行動を判別する仕組みを同様にして構築することも可能である。こうした変形についても当然に本実施形態の技術的範囲に属する。   Heretofore, the configuration of the information providing system 19 according to Configuration Example # 3 has been described. In the above description, the text information is analyzed first and the sensor information is analyzed later. However, the order of the analysis processing may be reversed. In addition, the processing for discriminating daily / irregular is described as an example, but a mechanism for discriminating positive behavior / negative behavior can be similarly constructed. Such modifications naturally belong to the technical scope of the present embodiment.

(2−4−2:応用例)
図30に非日常行動の判別ロジックを具体的に示したが、このようにして日常行動/非日常行動を判別できるようにすることで、ユーザの健康状態や詳細な状況を推定することが可能になる。例えば、図30に示した(非日常#1)の場合、普段抽出されない深夜の行動が抽出されていることから、不眠症ではないかと推定される。図30の例では説明の都合上、条件を単純化しているが、例えば、日中に「居眠り」行動が抽出されていれば、夜更かしや生活リズムの乱れなどが理由として推定される。さらに条件を追加することで、不眠症など、健康状態の診断に利用することも可能になる。
(2-4-2: Application examples)
FIG. 30 specifically shows the extraordinary behavior discrimination logic, but by making it possible to discriminate the daily behavior / the extraordinary behavior in this way, it is possible to estimate the user's health condition and detailed situation. become. For example, in the case of (non-daily # 1) shown in FIG. 30, since late-night behavior that is not normally extracted is extracted, it is estimated that it is insomnia. In the example of FIG. 30, the conditions are simplified for convenience of explanation. For example, if the “sleeping” behavior is extracted during the day, it is estimated that the reason is staying up late or disturbing the life rhythm. Furthermore, by adding conditions, it can be used for diagnosis of health conditions such as insomnia.

同様に、(非日常#2)の例では、非日常行動の理由として、通勤時間にダイエットを試みているのではないか、と推定される。また、(非日常#3)の例では、単に、仕事で忙しいことが非日常行動の理由として推定される。さらに、(非日常#4)の例では、非日常行動の理由として、昼食を抜くダイエットをしているのではないか、と推定される。非日常行動を組み合わせることで、理由の推定精度を向上させることは可能であろう。また、センサ情報及びテキスト情報に基づく非日常行動の履歴や統計結果から、非日常条件を改善したり、理由の推定アルゴリズムを構築したりすることも有用であろう。このように、本実施形態に係る技術は様々に応用可能である。   Similarly, in the example of (unusual # 2), it is presumed that dieting is attempted during commuting time as a reason for the extraordinary behavior. In the example of (unusual # 3), it is presumed that the reason for the extraordinary behavior is simply busy with work. Furthermore, in the example of (unusual # 4), it is presumed that the reason for the extraordinary behavior is that they are on a diet that skips lunch. It may be possible to improve the accuracy of reason estimation by combining extraordinary actions. It would also be useful to improve extraordinary conditions and construct reason estimation algorithms from extraordinary behavior histories and statistical results based on sensor information and text information. Thus, the technology according to the present embodiment can be applied in various ways.

以上、構成例#3に係る技術について説明した。   Heretofore, the technology according to Configuration Example # 3 has been described.

[2−5:構成例の組み合わせについて]
上記の構成例#1〜#3に係る技術は任意に組み合わせることも可能である。テキスト情報から体験に関する情報を抽出する技術、及びセンサ情報から行動パターンを抽出する技術に関しては共通しているため、他の機能ブロックを直列又は並列に接続することで、任意の構成例#1〜#3の一部又は全部を組み合わせることが可能である。また、複数の構成例を組み合わせる場合、共通する機能を有する機能ブロックを共有するように設計することで、処理負荷の低減やメモリ使用量の削減効果などを見込める。こうした組み合わせ構成についても、当然に本実施形態の技術的範囲に属する。
[2-5: Combination of configuration examples]
The techniques according to the above configuration examples # 1 to # 3 can be arbitrarily combined. Since the technology for extracting information about the experience from the text information and the technology for extracting the behavior pattern from the sensor information are common, by connecting other functional blocks in series or in parallel, any configuration example # 1 It is possible to combine some or all of # 3. Further, when combining a plurality of configuration examples, it is possible to expect a reduction in processing load, a reduction in memory usage, and the like by designing to share functional blocks having common functions. Such a combined configuration naturally belongs to the technical scope of the present embodiment.

<3:ハードウェア構成例>
上記の行動・状況認識システム10、情報提供システム13、17、19、情報端末CL、サーバ装置SVが有する各構成要素の機能は、例えば、図31に示すようなハードウェア構成を用いて実現することが可能である。つまり、当該各構成要素の機能は、コンピュータプログラムを用いて図31に示すハードウェアを制御することにより実現される。なお、このハードウェアの形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
<3: Hardware configuration example>
The functions of the constituent elements of the behaviour / situation recognition system 10, the information providing systems 13, 17, 19, the information terminal CL, and the server device SV are realized by using, for example, a hardware configuration as illustrated in FIG. 31. It is possible. That is, the function of each component is realized by controlling the hardware shown in FIG. 31 using a computer program. The form of the hardware is arbitrary, and includes, for example, a personal computer, a mobile phone, a portable information terminal such as a PHS, a PDA, a game machine, or various information appliances. However, the above PHS is an abbreviation of Personal Handy-phone System. The PDA is an abbreviation for Personal Digital Assistant.

図31に示すように、このハードウェアは、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、を有する。さらに、このハードウェアは、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926と、を有する。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。   As shown in FIG. 31, this hardware mainly includes a CPU 902, a ROM 904, a RAM 906, a host bus 908, and a bridge 910. Further, this hardware includes an external bus 912, an interface 914, an input unit 916, an output unit 918, a storage unit 920, a drive 922, a connection port 924, and a communication unit 926. However, the CPU is an abbreviation for Central Processing Unit. The ROM is an abbreviation for Read Only Memory. The RAM is an abbreviation for Random Access Memory.

CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。   The CPU 902 functions as, for example, an arithmetic processing unit or a control unit, and controls the overall operation of each component or a part thereof based on various programs recorded in the ROM 904, the RAM 906, the storage unit 920, or the removable recording medium 928. . The ROM 904 is a means for storing a program read by the CPU 902, data used for calculation, and the like. In the RAM 906, for example, a program read by the CPU 902, various parameters that change as appropriate when the program is executed, and the like are temporarily or permanently stored.

これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。   These components are connected to each other via, for example, a host bus 908 capable of high-speed data transmission. On the other hand, the host bus 908 is connected to an external bus 912 having a relatively low data transmission speed via a bridge 910, for example. As the input unit 916, for example, a mouse, a keyboard, a touch panel, a button, a switch, a lever, or the like is used. Further, as the input unit 916, a remote controller (hereinafter referred to as a remote controller) capable of transmitting a control signal using infrared rays or other radio waves may be used.

出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。   As the output unit 918, for example, a display device such as a CRT, LCD, PDP, or ELD, an audio output device such as a speaker or a headphone, a printer, a mobile phone, or a facsimile, etc. Or it is an apparatus which can notify audibly. However, the above CRT is an abbreviation for Cathode Ray Tube. The LCD is an abbreviation for Liquid Crystal Display. The PDP is an abbreviation for Plasma Display Panel. Furthermore, the ELD is an abbreviation for Electro-Luminescence Display.

記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。   The storage unit 920 is a device for storing various data. As the storage unit 920, for example, a magnetic storage device such as a hard disk drive (HDD), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like is used. However, the HDD is an abbreviation for Hard Disk Drive.

ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のICは、Integrated Circuitの略である。   The drive 922 is a device that reads information recorded on a removable recording medium 928 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, or writes information to the removable recording medium 928. The removable recording medium 928 is, for example, a DVD medium, a Blu-ray medium, an HD DVD medium, or various semiconductor storage media. Of course, the removable recording medium 928 may be, for example, an IC card on which a non-contact type IC chip is mounted, an electronic device, or the like. However, the above IC is an abbreviation for Integrated Circuit.

接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。   The connection port 924 is a port for connecting an external connection device 930 such as a USB port, an IEEE 1394 port, a SCSI, an RS-232C port, or an optical audio terminal. The external connection device 930 is, for example, a printer, a portable music player, a digital camera, a digital video camera, or an IC recorder. However, the above USB is an abbreviation for Universal Serial Bus. The SCSI is an abbreviation for Small Computer System Interface.

通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成され、例えば、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。   The communication unit 926 is a communication device for connecting to the network 932. For example, a wired or wireless LAN, Bluetooth (registered trademark), or a WUSB communication card, an optical communication router, an ADSL router, or various types It is a modem for communication. The network 932 connected to the communication unit 926 is configured by a wired or wireless network, such as the Internet, home LAN, infrared communication, visible light communication, broadcast, or satellite communication. However, the above LAN is an abbreviation for Local Area Network. The WUSB is an abbreviation for Wireless USB. The above ADSL is an abbreviation for Asymmetric Digital Subscriber Line.

<4:まとめ>
最後に、本実施形態の技術的思想について簡単に纏める。以下に記載する技術的思想は、例えば、PC、携帯電話、携帯ゲーム機、携帯情報端末、情報家電、カーナビゲーションシステム等、種々の情報処理装置に対して適用することができる。
<4: Summary>
Finally, the technical idea of this embodiment will be briefly summarized. The technical idea described below can be applied to various information processing apparatuses such as a PC, a mobile phone, a portable game machine, a portable information terminal, an information home appliance, and a car navigation system.

上記の情報処理装置の機能構成は次のように表現することができる。   The functional configuration of the information processing apparatus described above can be expressed as follows.

(1)
ソーシャルネットワーキングサービスまたはアプリケーションから取得されたテキスト情報からユーザの体験を示す体験情報を抽出する体験抽出部と、
位置センサ情報、および時刻情報から行動パターンを抽出する行動抽出部と、
前記行動パターンと、体験情報との対応関係を示す情報を参照して、前記位置センサ情報から体験情報を抽出する体験照合部と、
前記テキスト情報から抽出された体験情報に関する情報と、前記位置センサ情報から得られる体験情報に関する情報とを併せて表示させる表示制御部と、
を備える、情報処理システム。
(1)
An experience extraction unit that extracts experience information indicating a user's experience from text information acquired from a social networking service or application;
An action extraction unit that extracts an action pattern from position sensor information and time information;
An experience verification unit that extracts experience information from the position sensor information with reference to information indicating a correspondence relationship between the behavior pattern and the experience information;
A display controller that displays information related to the experience information extracted from the text information and information related to the experience information obtained from the position sensor information;
An information processing system comprising:

(2)
前記テキスト情報は、前記ユーザが入力したテキスト情報である、上記(1)に記載の情報処理システム。
(2)
The information processing system according to (1), wherein the text information is text information input by the user.

(3)
前記テキスト情報は、前記ユーザが発した音声情報に基づいて得られる情報である、上記(1)または(2)に記載の情報処理システム。
(3)
The information processing system according to (1) or (2), wherein the text information is information obtained based on voice information issued by the user.

(4)
前記体験情報は、画像情報である、上記(1)〜(3)のいずれか一項に記載の情報処理システム。
(4)
The information processing system according to any one of (1) to (3), wherein the experience information is image information.

(5)
前記体験抽出部は、前記テキスト情報から抽出された特徴量に基づいて、前記体験情報を抽出する、上記(1)〜(4)のいずれか一項に記載の情報処理システム。
(5)
The information processing system according to any one of (1) to (4), wherein the experience extraction unit extracts the experience information based on a feature amount extracted from the text information.

(6)
前記テキスト情報から抽出された体験情報は、体験場所に関する情報を含む、上記(1)〜(5)のいずれか一項に記載の情報処理システム。
(6)
The information processing system according to any one of (1) to (5), wherein the experience information extracted from the text information includes information related to an experience place.

(7)
前記行動抽出部は、前記ユーザの動き・状態パターンをさらに用いて行動パターンを抽出する、上記(1)〜(6)のいずれか一項に記載の情報処理システム。
(7)
The information processing system according to any one of (1) to (6), wherein the behavior extraction unit further extracts a behavior pattern by further using the movement / state pattern of the user.

(8)
前記行動パターンは、学習モデルに基づいて決定される、上記(1)〜(7)のいずれか一項に記載の情報処理システム。
(8)
The information processing system according to any one of (1) to (7), wherein the behavior pattern is determined based on a learning model.

(9)
前記行動パターンは、ルールベースに基づいて決定される、上記(1)〜(7)のいずれか一項に記載の情報処理システム。
(9)
The information processing system according to any one of (1) to (7), wherein the behavior pattern is determined based on a rule base.

(10)
表示される前記テキスト情報から抽出された体験情報に関する情報は、前記位置センサ情報から得られる体験情報に関する情報に対応して抽出された情報である、上記(1)〜(9)のいずれか一項に記載の情報処理システム。
(10)
The information on the experience information extracted from the displayed text information is any one of the above (1) to (9), which is information extracted corresponding to the information on the experience information obtained from the position sensor information. Information processing system according to item.

(11)
前記表示制御部は、前記体験情報の少なくともいずれかに関連した付加情報をさらに表示させる、上記(1)〜(10)のいずれか一項に記載の情報処理システム。
(11)
The information processing system according to any one of (1) to (10), wherein the display control unit further displays additional information related to at least one of the experience information.

(12)
前記付加情報は、テキスト情報または画像情報のいずれかを少なくとも含む、上記(11)に記載の情報処理システム。
(12)
The information processing system according to (11), wherein the additional information includes at least either text information or image information.

(13)
前記情報処理システムの各部の情報処理は、2つ以上の情報処理装置にて分散して実行される、上記(1)〜(12)のいずれか一項に記載の情報処理システム。
(13)
The information processing system according to any one of (1) to (12), wherein information processing of each unit of the information processing system is executed in a distributed manner by two or more information processing devices.

(14)
前記情報処理システムの各部の情報処理は、サーバと情報端末にて分散して実行される、上記(1)〜(12)のいずれか一項に記載の情報処理システム。
(14)
The information processing system according to any one of (1) to (12), wherein information processing of each unit of the information processing system is executed in a distributed manner between a server and an information terminal.

(15)
ソーシャルネットワーキングサービスまたはアプリケーションから取得されたテキスト情報からユーザの体験を示す体験情報を抽出するステップと、
位置センサ情報、および時刻情報から行動パターンを抽出するステップと、
前記行動パターンと、体験情報との対応関係を示す情報を参照して、前記位置センサ情報から体験情報を抽出するステップと、
演算処理装置によって、前記テキスト情報から抽出された体験情報に関する情報と、前記位置センサ情報から得られる体験情報に関する情報とを併せて表示させるステップと、
を含む、情報処理方法。
(15)
Extracting experience information indicating a user experience from text information obtained from a social networking service or application;
Extracting a behavior pattern from position sensor information and time information;
Extracting the experience information from the position sensor information with reference to information indicating a correspondence relationship between the behavior pattern and the experience information;
Displaying together information related to experience information extracted from the text information and information related to experience information obtained from the position sensor information by the arithmetic processing unit;
Including an information processing method.

(16)
ソーシャルネットワーキングサービスまたはアプリケーションから取得されたテキスト情報からユーザの体験を示す体験情報を抽出する体験抽出部と、
位置センサ情報、および時刻情報から行動パターンを抽出する行動抽出部と、
前記行動パターンと、体験情報との対応関係を示す情報を参照して、前記位置センサ情報から体験情報を抽出する体験照合部と、
前記テキスト情報から抽出された体験情報に関する情報と、前記位置センサ情報から得られる体験情報に関する情報とを併せて表示させる表示制御部と、
をコンピュータに実現させるためのプログラム。
(16)
An experience extraction unit that extracts experience information indicating a user's experience from text information acquired from a social networking service or application;
An action extraction unit that extracts an action pattern from position sensor information and time information;
An experience verification unit that extracts experience information from the position sensor information with reference to information indicating a correspondence relationship between the behavior pattern and the experience information;
A display controller that displays information related to the experience information extracted from the text information and information related to the experience information obtained from the position sensor information;
A program to make a computer realize.

以上、添付図面を参照しながら本技術に係る好適な実施形態について説明したが、本技術はここで開示した構成例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本技術の技術的範囲に属するものと了解される。   The preferred embodiments according to the present technology have been described above with reference to the accompanying drawings, but it is needless to say that the present technology is not limited to the configuration examples disclosed herein. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present technology. Understood.

10 行動・状況解析システム
101 モーションセンサ
102 動き・状態認識部
103 時刻情報取得部
104 位置センサ
105 GIS情報取得部
106 行動・状況認識部
13 達成度提供システム
131 テキスト情報取得部
132 体験抽出部
133 目標/宣言抽出部
134 目標/宣言照合部
135 対応関係記憶部
136 目標/宣言登録部
137 達成度記憶部
138 センサ情報取得部
139 行動パターン抽出部
140 達成度更新部
141 達成度表示部
151 種類特徴量抽出部
152 体験種類判別部
153 体験種類モデル記憶部
154 場所特徴量抽出部
155 体験場所抽出部
156 体験場所モデル記憶部
157 時間特徴量抽出部
158 体験時間抽出部
159 体験時間モデル記憶部
171 テキスト情報取得部
172 体験抽出部
173 抽出結果記憶部
174 センサ情報取得部
175 行動パターン抽出部
176 行動・体験照合部
177 対応関係記憶部
178 付加体験検索部
179 行動・付加体験表示部
191 テキスト情報取得部
192 体験抽出部
193 抽出結果記憶部
194 センサ情報取得部
195 行動パターン抽出部
196 行動・体験照合部
197 対応関係記憶部
198 非日常行動判別部
199 非日常行動表示部
CL 情報端末
SV サーバ装置
DESCRIPTION OF SYMBOLS 10 Action / situation analysis system 101 Motion sensor 102 Motion / state recognition part 103 Time information acquisition part 104 Position sensor 105 GIS information acquisition part 106 Action / situation recognition part 13 Achievement provision system 131 Text information acquisition part 132 Experience extraction part 133 Objective / Declaration Extraction Unit 134 Target / Declaration Verification Unit 135 Correspondence Relationship Storage Unit 136 Target / Declaration Registration Unit 137 Achievement Level Storage Unit 138 Sensor Information Acquisition Unit 139 Behavior Pattern Extraction Unit 140 Achievement Level Update Unit 141 Achievement Level Display Unit 151 Type Features Extraction unit 152 Experience type discrimination unit 153 Experience type model storage unit 154 Location feature amount extraction unit 155 Experience location extraction unit 156 Experience location model storage unit 157 Time feature amount extraction unit 158 Experience time extraction unit 159 Experience time model storage unit 171 Text information Acquisition part 1 72 Experience extraction unit 173 Extraction result storage unit 174 Sensor information acquisition unit 175 Action pattern extraction unit 176 Action / experience collation unit 177 Correspondence relationship storage unit 178 Additional experience search unit 179 Action / additional experience display unit 191 Text information acquisition unit 192 Experience extraction Section 193 Extraction result storage section 194 Sensor information acquisition section 195 Action pattern extraction section 196 Action / experience collation section 197 Correspondence relation storage section 198 Extraordinary action discrimination section 199 Extraordinary action display section CL Information terminal SV server device

Claims (16)

ソーシャルネットワーキングサービスまたはアプリケーションから取得されたテキスト情報からユーザの体験を示す体験情報を抽出する体験抽出部と、
位置センサ情報、および時刻情報から行動パターンを抽出する行動抽出部と、
前記行動パターンと、体験情報との対応関係を示す情報を参照して、前記位置センサ情報から体験情報を抽出する体験照合部と、
前記テキスト情報から抽出された体験情報に関する情報と、前記位置センサ情報から得られる体験情報に関する情報とを併せて表示させる表示制御部と、
を備える、情報処理システム。
An experience extraction unit that extracts experience information indicating a user's experience from text information acquired from a social networking service or application;
An action extraction unit that extracts an action pattern from position sensor information and time information;
An experience verification unit that extracts experience information from the position sensor information with reference to information indicating a correspondence relationship between the behavior pattern and the experience information;
A display controller that displays information related to the experience information extracted from the text information and information related to the experience information obtained from the position sensor information;
An information processing system comprising:
前記テキスト情報は、前記ユーザが入力したテキスト情報である、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the text information is text information input by the user. 前記テキスト情報は、前記ユーザが発した音声情報に基づいて得られる情報である、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the text information is information obtained based on voice information issued by the user. 前記体験情報は、画像情報である、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the experience information is image information. 前記体験抽出部は、前記テキスト情報から抽出された特徴量に基づいて、前記体験情報を抽出する、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the experience extraction unit extracts the experience information based on a feature amount extracted from the text information. 前記テキスト情報から抽出された体験情報は、体験場所に関する情報を含む、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the experience information extracted from the text information includes information related to an experience place. 前記行動抽出部は、前記ユーザの動き・状態パターンをさらに用いて行動パターンを抽出する、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the behavior extraction unit further extracts a behavior pattern by further using the movement / state pattern of the user. 前記行動パターンは、学習モデルに基づいて決定される、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the behavior pattern is determined based on a learning model. 前記行動パターンは、ルールベースに基づいて決定される、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the behavior pattern is determined based on a rule base. 表示される前記テキスト情報から抽出された体験情報に関する情報は、前記位置センサ情報から得られる体験情報に関する情報に対応して抽出された情報である、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the information related to the experience information extracted from the displayed text information is information extracted corresponding to the information related to the experience information obtained from the position sensor information. 前記表示制御部は、前記体験情報の少なくともいずれかに関連した付加情報をさらに表示させる、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein the display control unit further displays additional information related to at least one of the experience information. 前記付加情報は、テキスト情報または画像情報のいずれかを少なくとも含む、請求項11に記載の情報処理システム。   The information processing system according to claim 11, wherein the additional information includes at least either text information or image information. 前記情報処理システムの各部の情報処理は、2つ以上の情報処理装置にて分散して実行される、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein information processing of each unit of the information processing system is executed in a distributed manner by two or more information processing apparatuses. 前記情報処理システムの各部の情報処理は、サーバと情報端末にて分散して実行される、請求項1に記載の情報処理システム。   The information processing system according to claim 1, wherein information processing of each unit of the information processing system is executed in a distributed manner between a server and an information terminal. ソーシャルネットワーキングサービスまたはアプリケーションから取得されたテキスト情報からユーザの体験を示す体験情報を抽出するステップと、
位置センサ情報、および時刻情報から行動パターンを抽出するステップと、
前記行動パターンと、体験情報との対応関係を示す情報を参照して、前記位置センサ情報から体験情報を抽出するステップと、
演算処理装置によって、前記テキスト情報から抽出された体験情報に関する情報と、前記位置センサ情報から得られる体験情報に関する情報とを併せて表示させるステップと、
を含む、情報処理方法。
Extracting experience information indicating a user experience from text information obtained from a social networking service or application;
Extracting a behavior pattern from position sensor information and time information;
Extracting the experience information from the position sensor information with reference to information indicating a correspondence relationship between the behavior pattern and the experience information;
Displaying together information related to experience information extracted from the text information and information related to experience information obtained from the position sensor information by the arithmetic processing unit;
Including an information processing method.
ソーシャルネットワーキングサービスまたはアプリケーションから取得されたテキスト情報からユーザの体験を示す体験情報を抽出する体験抽出部と、
位置センサ情報、および時刻情報から行動パターンを抽出する行動抽出部と、
前記行動パターンと、体験情報との対応関係を示す情報を参照して、前記位置センサ情報から体験情報を抽出する体験照合部と、
前記テキスト情報から抽出された体験情報に関する情報と、前記位置センサ情報から得られる体験情報に関する情報とを併せて表示させる表示制御部と、
をコンピュータに実現させるためのプログラム。

An experience extraction unit that extracts experience information indicating a user's experience from text information acquired from a social networking service or application;
An action extraction unit that extracts an action pattern from position sensor information and time information;
An experience verification unit that extracts experience information from the position sensor information with reference to information indicating a correspondence relationship between the behavior pattern and the experience information;
A display controller that displays information related to the experience information extracted from the text information and information related to the experience information obtained from the position sensor information;
A program to make a computer realize.

JP2016039705A 2016-03-02 2016-03-02 Information processing system, information processing method, and program Active JP6183489B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016039705A JP6183489B2 (en) 2016-03-02 2016-03-02 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039705A JP6183489B2 (en) 2016-03-02 2016-03-02 Information processing system, information processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012126052A Division JP5895716B2 (en) 2012-06-01 2012-06-01 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2016149136A true JP2016149136A (en) 2016-08-18
JP6183489B2 JP6183489B2 (en) 2017-08-23

Family

ID=56687976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039705A Active JP6183489B2 (en) 2016-03-02 2016-03-02 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6183489B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107277222A (en) * 2016-12-20 2017-10-20 浙江从泰网络科技有限公司 User behavior state judging method based on mobile phone built-in sensors
JP2020149196A (en) * 2019-03-12 2020-09-17 国立研究開発法人情報通信研究機構 Personality prediction device and training data collection device
JPWO2022044513A1 (en) * 2020-08-24 2022-03-03
WO2022157949A1 (en) * 2021-01-22 2022-07-28 株式会社Rabo Information processing device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046722A (en) * 2002-07-15 2004-02-12 Advanced Telecommunication Research Institute International Device for promoting sharing of experience information
JP2004302262A (en) * 2003-03-31 2004-10-28 National Institute Of Information & Communication Technology Subjective map preparing method and subjective map preparation system
JP2007148517A (en) * 2005-11-24 2007-06-14 Fujifilm Corp Image processor, image processing method and image processing program
JP2011081431A (en) * 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004046722A (en) * 2002-07-15 2004-02-12 Advanced Telecommunication Research Institute International Device for promoting sharing of experience information
JP2004302262A (en) * 2003-03-31 2004-10-28 National Institute Of Information & Communication Technology Subjective map preparing method and subjective map preparation system
JP2007148517A (en) * 2005-11-24 2007-06-14 Fujifilm Corp Image processor, image processing method and image processing program
JP2011081431A (en) * 2009-10-02 2011-04-21 Sony Corp Behavior pattern analysis system, portable terminal, behavior pattern analysis method, and program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
小塚 宣秀、外1名: "ライフログ", 情報処理, vol. 第50巻,第7号, JPN6013032800, 15 July 2009 (2009-07-15), JP, pages 603 - 612, ISSN: 0003584219 *
山田 和貴 他: "マイクロブログサービスの位置情報タグと発言コンテキスト解析を用いた行動推定システムの設計", 情報処理学会研究報告, vol. Vol.2010-DBS-151,No.21, JPN6015048849, 15 December 2010 (2010-12-15), JP, pages 1 - 6, ISSN: 0003584218 *
松本真佑、外3名: "異種ライフログ統合のための標準データモデルとマッシュアップAPI", 電子情報通信学会論文誌, vol. 第J95−D巻,第4号, JPN6013064140, 1 April 2012 (2012-04-01), JP, pages 758 - 768, ISSN: 0003584217 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107277222A (en) * 2016-12-20 2017-10-20 浙江从泰网络科技有限公司 User behavior state judging method based on mobile phone built-in sensors
CN107277222B (en) * 2016-12-20 2020-12-15 浙江斑智科技有限公司 User behavior state judgment method based on built-in sensor of mobile phone
JP2020149196A (en) * 2019-03-12 2020-09-17 国立研究開発法人情報通信研究機構 Personality prediction device and training data collection device
JPWO2022044513A1 (en) * 2020-08-24 2022-03-03
WO2022044513A1 (en) * 2020-08-24 2022-03-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method, information processing device, and information processing program
JP7340705B2 (en) 2020-08-24 2023-09-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method, information processing device, and information processing program
WO2022157949A1 (en) * 2021-01-22 2022-07-28 株式会社Rabo Information processing device

Also Published As

Publication number Publication date
JP6183489B2 (en) 2017-08-23

Similar Documents

Publication Publication Date Title
JP5935516B2 (en) Information processing apparatus, information processing method, and program
JP5895716B2 (en) Information processing apparatus, information processing method, and program
US10003924B2 (en) Method of and server for processing wireless device sensor data to generate an entity vector associated with a physical location
US11868127B2 (en) Radial basis function neural network optimizing operating parameter of vehicle based on emotional state of rider determined by recurrent neural network
JP5904021B2 (en) Information processing apparatus, electronic device, information processing method, and program
JP6558364B2 (en) Information processing apparatus, information processing method, and program
US10713601B2 (en) Personalized contextual suggestion engine
US20150169659A1 (en) Method and system for generating user lifelog
JP6183489B2 (en) Information processing system, information processing method, and program
CN110781403B (en) Information processing apparatus, information processing system, and information processing method
KR20230081584A (en) Ai-based situation inference apparatus and method for daily life tracking system using automatic and multi modality input

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170710

R151 Written notification of patent or utility model registration

Ref document number: 6183489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250