JP2010146223A - Behavior extraction system, behavior extraction method, and server - Google Patents

Behavior extraction system, behavior extraction method, and server Download PDF

Info

Publication number
JP2010146223A
JP2010146223A JP2008321728A JP2008321728A JP2010146223A JP 2010146223 A JP2010146223 A JP 2010146223A JP 2008321728 A JP2008321728 A JP 2008321728A JP 2008321728 A JP2008321728 A JP 2008321728A JP 2010146223 A JP2010146223 A JP 2010146223A
Authority
JP
Japan
Prior art keywords
scene
sensing data
action
server
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008321728A
Other languages
Japanese (ja)
Inventor
Takahiko Shintani
隆彦 新谷
Hiroyuki Kuriyama
裕之 栗山
Masahiro Motobayashi
正裕 本林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008321728A priority Critical patent/JP2010146223A/en
Publication of JP2010146223A publication Critical patent/JP2010146223A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To extract content and period of fluctuating behaviors configured of a plurality of motions from sensing data obtained by measuring the movement or state of a monitoring object by a sensor. <P>SOLUTION: The behavior extraction system is provided with a sensor mounted on a monitoring object or arranged in the periphery of the monitoring object for measuring the movement or state of the monitoring object, and a computer for analyzing sensing data measured by the sensor. The behavior extraction method for extracting a behavior of the monitoring object on the basis of the sensing data includes: causing the computer to store the sensing data; creating regions in which the stored sensing data are divided by the duration of prescribed operations; creating fragments obtained by dividing each region by the changing point of the value of the sensing data; and extracting the content and period of the behavior of the monitoring object by using a rule configured of the combination of the regions and the fragments and a sequential pattern. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、センサデバイスによって測定した時系列データの解析方法、および、システムであって、センサデバイスによって取得した監視対象の生体情報、動作情報、周辺情報に関するセンサデータから監視対象の行動内容、および、行動パターンを解析する技術に関するものである。 The present invention relates to a method and system for analyzing time-series data measured by a sensor device, the monitoring target action contents from sensor data related to biological information, operation information, and peripheral information acquired by the sensor device, and It relates to a technique for analyzing behavior patterns.

近年、センサに無線通信機能を有する小型の電子回路を付加して、現実世界の様々な情報をリアルタイムに情報処理装置に取り込むセンサネットワークシステムが検討されている。センサネットワークシステムには幅広い応用が考えられており、例えば、無線回路、プロセッサ、センサ、電池を集積した小型電子回路により、加速度や脈拍等の生体情報を常時モニタし、モニタ結果は無線通信により診断装置等に送信され、モニタ結果に基づいて健康状態を判定するといったような医療応用が提案されている。また、加速度や脈拍等の利用者の生体情報や作業状況、購買情報等の利用者の行動をモニタし、これら様々な情報を組み合わせて、利用者の状況を判定するといったような応用も提案されている。   In recent years, a sensor network system has been studied in which a small electronic circuit having a wireless communication function is added to a sensor and various information in the real world is taken into an information processing device in real time. A wide range of applications are considered for sensor network systems. For example, biological information such as acceleration and pulse is constantly monitored by a small electronic circuit that integrates a wireless circuit, processor, sensor, and battery, and the monitoring result is diagnosed by wireless communication. Medical applications have been proposed in which a health condition is determined based on a monitor result transmitted to a device or the like. In addition, applications such as monitoring the user's biological information such as acceleration and pulse, work status, user behavior such as purchase information, and determining the user status by combining these various information are also proposed. ing.

特許文献1では、センサによって測定したデータ(以降、センサによって測定したデータをセンシングデータと呼ぶ)から、所定の単位時間毎の人の行動パターンの候補を列挙する方法が開示されている。
特許文献2では、監視対象から測定した加速度のセンシングデータから、加速度の変化点を検出し、変化点毎に行動を推定し、記録する方法が開示されている。
Patent Document 1 discloses a method of enumerating human action pattern candidates for each predetermined unit time from data measured by a sensor (hereinafter, data measured by a sensor is referred to as sensing data).
Patent Document 2 discloses a method of detecting a change point of acceleration from acceleration sensing data measured from a monitoring target, estimating a behavior for each change point, and recording the detected change point.

特開2004−287539号JP 2004-287539 A 特開2003−296782号JP 2003-296882 A

特許文献1の方法では、予めそれぞれの行動パターンに対応する基準パターンとなるセンシングデータの波形を登録し、単位時間毎のセンシングデータと基準パターンとの近似度を計算し、近似度の高い行動パターンを表示する。同一の行動が、極めて類似した時間経過であり、かつ、極めて等しい動きで構成される場合、センシングデータの近似度が高くなり、上記方法は行動を推定することができる。   In the method of Patent Document 1, a waveform of sensing data serving as a reference pattern corresponding to each behavior pattern is registered in advance, an approximation degree between the sensing data and the reference pattern for each unit time is calculated, and an action pattern having a high approximation degree. Is displayed. When the same action is a very similar time lapse and is composed of extremely equal movements, the degree of approximation of the sensing data becomes high, and the above method can estimate the action.

特許文献2の方法では、加速度の各軸の数値時系列データの周期と振幅を特徴量とし、当該特徴量が変化した点を変化点として検出することによって、行動の期間を抽出し、行動内容に対する周期と振幅の値の組を行動推定のための動作判定条件として予め登録し、当該動作判定条件によって変化点毎の行動の内容を推定するため、単一の動作の繰り返しからなる行動の内容と期間を抽出することができる。   In the method of Patent Document 2, the period and amplitude of the numerical time-series data of each axis of acceleration are used as feature amounts, and a point of action is extracted by detecting a point where the feature amount has changed as a change point. In order to pre-register a set of period and amplitude values for motion as motion judgment conditions for motion estimation, and to estimate the content of behavior at each change point according to the motion judgment conditions, the content of the behavior consisting of repetition of a single motion And the period can be extracted.

しかしながら、行動は単一の動作の繰り返しではなく、複数の動作が組み合わされて1つの行動が形成される。また、行動にはゆらぎがあり、同一の行動でもセンシングデータの波形が等しくなるとは限らない。例えば、監視対象が人の場合、同じ行動であっても、同じ動きを取ることは稀であり、センシングデータは等しくならない。監視対象が機器の場合、行動は稼動状態に対応するが、外的要因により動作が動的に変化するものがあり、監視対象が人の場合と同様の問題がある。   However, the action is not a repetition of a single action, but a plurality of actions are combined to form one action. In addition, there are fluctuations in the behavior, and the waveform of the sensing data is not necessarily equal even in the same behavior. For example, when the monitoring target is a person, even if the action is the same, it is rare to take the same movement, and the sensing data is not equal. When the monitoring target is a device, the behavior corresponds to the operating state, but there is a behavior that dynamically changes due to an external factor, and there is a problem similar to that when the monitoring target is a person.

ここで、ゆらぎとは、同一の行動の中には、行動する時間幅、動作の順序、動作の大きさ、等によって複数のパターンが存在することを意味する。   Here, fluctuation means that there are a plurality of patterns in the same action depending on the duration of action, the order of actions, the magnitude of actions, and the like.

上記従来例では、センサを装着した監視対象の行動について、歩行、運動、安静といった大まかな動作状態を自動的に識別することは可能である。しかし、監視対象が人の場合には、通勤、デスクワーク、会議、出張、家事、映画鑑賞、身支度、買い物、食事、等の利用者の行動、監視対象が機器の場合には、通常稼動、高稼働、低稼働、等の機器の行動である稼動状態、等の何をしていたかに相当する行動内容を判定することはできない。行動は複数の動作状態の組合せで構成され、それぞれの動作状態は実際に行った行動の一部でしかない。   In the above-described conventional example, it is possible to automatically identify a rough operation state such as walking, exercising, and resting for the behavior of the monitoring target wearing the sensor. However, when the monitoring target is a person, commuting, desk work, meetings, business trips, housework, watching movies, dressing, shopping, eating, etc. It is not possible to determine the action content corresponding to what was being done, such as the operating state, which is the action of the device, such as operation or low operation. The action is composed of a combination of a plurality of operation states, and each operation state is only a part of the actually performed action.

また、既定した時間間隔単位におけるセンシングデータの基準パターンとの比較による行動の判定では、行動のゆらぎに対応できないこと、センシングデータの変化点を行動の変化点として区切る行動抽出では、同一の行動の区間が断続的に現れる場合、1つの行動が複数に区切られ、それぞれに行動が割り当てられる場合などがあること、等の理由により、行動の判定精度が低下する課題がある。   In addition, it is not possible to cope with fluctuations in behavior in the judgment of behavior by comparison with the reference pattern of sensing data in a predetermined time interval unit, and in behavior extraction that divides the change point of sensing data as the change point of behavior, When a section appears intermittently, there is a problem that the accuracy of action determination decreases due to reasons such as that one action is divided into a plurality of actions and actions are assigned to each.

以上のように、単一の動作の繰り返し検出や予め既定したセンシングデータの基準パターンとの比較では監視対象の行動を抽出することができないという課題がある。   As described above, there is a problem that the behavior to be monitored cannot be extracted by repeated detection of a single operation or comparison with a predetermined reference pattern of sensing data.

そこで本発明では、センシングデータから監視対象の動作や運動の状態ではなく、一連の行動である生活行動や稼動状態の区切れと内容を抽出することを目的とする。   In view of the above, an object of the present invention is to extract, from sensing data, not a monitoring target motion and exercise state but a series of behaviors such as a living behavior and an operating state break and contents.

本願において開示される発明のうち代表的なものの概要を簡単に説明すれば下記の通りである。   The following is a brief description of an outline of typical inventions disclosed in the present application.

すなわち、監視対象に装着され、センシングデータを取得するセンサとセンシングデータをサーバに送信する通信部とを有するセンサノードと、センシングデータを解析するサーバと、を備える行動抽出システムである。サーバは、センシングデータを蓄積するデータ格納部と、センシングデータから監視対象の運動頻度を求め、運動頻度から所定の動作状態及びその期間を抽出し、期間を区切りとするシーン領域を作成し、シーン領域についてセンシングデータの変化点を区切りとするシーン断片を作成するシーン分割部と、データ格納部に記録されているシーン判定ルールに基づいて、シーン領域及びシーン断片から監視対象の行動内容及びその期間を判定するシーン列挙部と、を有する。   In other words, the behavior extraction system includes a sensor node that is attached to a monitoring target and includes a sensor that acquires sensing data and a communication unit that transmits the sensing data to the server, and a server that analyzes the sensing data. The server obtains the data storage unit for storing the sensing data, the motion frequency of the monitoring target from the sensing data, extracts a predetermined operation state and its period from the motion frequency, creates a scene area with the period as a delimiter, Based on the scene segmentation unit that creates a scene fragment with the change point of the sensing data as a delimiter for the region, and the scene determination rule recorded in the data storage unit, the action content to be monitored and its period from the scene region and the scene fragment A scene listing unit for determining

したがって、本発明は、監視対象の動きや状態を測定したセンシングデータから、複数種類のシーン領域、各シーン領域の特徴量であるシーン断片抽出、シーン領域と断片の組合せ、順序パターンによって一連の行動であるシーンの内容と期間を高精度で推定すること、シーンの内容と期間のデータを判定の正しさの指標と共に取得することができる。   Therefore, the present invention provides a series of actions based on a plurality of types of scene areas, scene fragment extraction that is a feature amount of each scene area, a combination of scene areas and fragments, and an order pattern from sensing data obtained by measuring the movement and state of a monitoring target. It is possible to estimate the content and period of a scene with high accuracy, and to acquire data of the scene content and period together with an index of correctness of determination.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

本発明を適用する第1の実施例として、人に装着したセンサによって測定したセンシングデータから抽出したシーンを、人の生活行動の候補として提示することによって生活行動の記録を支援するライフログシステムを示す。   As a first embodiment to which the present invention is applied, there is provided a life log system that supports recording of living activities by presenting scenes extracted from sensing data measured by a sensor attached to a person as candidates for human activities. Show.

図1は、本発明を適用するライフログシステムのシステム構成の一例を示すブロック図である。当該システムの利用者の動作(または状態)を検出するセンサとして、加速度センサを備えた腕輪型センサノード1を用い、生体情報として腕の加速度を検出する例を示す。腕輪型センサノード1は、利用者(または参加者)の腕に装着されて加速度を検出し、所定の周期で検出した加速度(以下、センサによって測定されたデータをセンシングデータという)を無線通信が可能な場合は基地局102のアンテナ101を介して基地局102へ送信し、有線通信が可能な場合はUSB接続などを介してクライアント計算機(PC)103へ送信する。   FIG. 1 is a block diagram showing an example of a system configuration of a life log system to which the present invention is applied. An example in which the bracelet type sensor node 1 provided with an acceleration sensor is used as a sensor for detecting the operation (or state) of the user of the system and the acceleration of the arm is detected as biological information will be shown. The bracelet type sensor node 1 is mounted on a user's (or participant's) arm to detect acceleration, and wireless communication is performed on acceleration detected in a predetermined cycle (hereinafter, data measured by the sensor is referred to as sensing data). When possible, the data is transmitted to the base station 102 via the antenna 101 of the base station 102, and when wired communication is possible, the data is transmitted to the client computer (PC) 103 via a USB connection or the like.

図1において、基地局102又はPC103は複数の腕輪型センサノード1と通信を行い、各腕輪型センサノード1から利用者の動きに応じたセンシングデータを受信し、ネットワーク105を介してサーバ104へ転送する。サーバ104は受信したセンシングデータを格納する。サーバ104は、受信したセンシングデータを解析し、後述するように利用者の一連の行動を表すシーンを作成して格納する。   In FIG. 1, a base station 102 or a PC 103 communicates with a plurality of bracelet type sensor nodes 1, receives sensing data corresponding to the movement of the user from each bracelet type sensor node 1, and sends it to the server 104 via the network 105. Forward. The server 104 stores the received sensing data. The server 104 analyzes the received sensing data, and creates and stores a scene representing a series of user actions as will be described later.

サーバ104が作成したシーンデータは、ライフログシステムの利用者が操作するクライアント計算機(PC)103で閲覧または編集することができる。   The scene data created by the server 104 can be viewed or edited by a client computer (PC) 103 operated by a user of the life log system.

図2は、本発明を適用するライフログシステムのセンサ部を構成する腕輪型(または腕時計型)センサノード1の一例を示す図で、図2(a)は腕輪型センサノード1の正面から見た概略図で、図2(b)は腕輪型センサノード1を側方から見た断面図である。この腕輪型センサノード1は主に利用者(装着者)の動きを測定する。 腕輪型センサノード1は、センサや制御装置を格納するケース11と、ケース11を人体の腕に装着するバンド12を備える。   FIG. 2 is a diagram showing an example of a bracelet (or wristwatch type) sensor node 1 constituting a sensor unit of a life log system to which the present invention is applied. FIG. FIG. 2B is a cross-sectional view of the bracelet type sensor node 1 viewed from the side. This bracelet type sensor node 1 mainly measures the movement of the user (wearer). The bracelet type sensor node 1 includes a case 11 for storing a sensor and a control device, and a band 12 for attaching the case 11 to a human arm.

ケース11の内部には、図2(b)のようにマイクロコンピュータ3やセンサ6等を備えた基板10が格納される。そして、人体(生体)の動きを測定するセンサ6としては、図中X−Y−Zの3軸の加速度をそれぞれ測定する加速度センサを採用した例を示す。なお、本実施形態では、腕輪型センサノード1には図示しない温度センサを備え、利用者の体温を測定し、加速度とともにセンシングデータとして出力するものとする。   Inside the case 11 is stored a substrate 10 provided with a microcomputer 3, a sensor 6 and the like as shown in FIG. As an example of the sensor 6 that measures the movement of the human body (living body), an acceleration sensor that measures three-axis accelerations in the X-Y-Z directions in the figure is employed. In the present embodiment, the bracelet type sensor node 1 includes a temperature sensor (not shown), measures the user's body temperature, and outputs it as sensing data together with the acceleration.

図3は、腕輪型センサノード11の基板10に取り付けられた電子回路のブロック図を示す。図3において、基板10には、基地局102と通信を行うアンテナ5を備えた無線通信部(RF)2と、PC103と有線接続するUSB通信部39と、センサ6と及び無線通信部2を制御するマイクロコンピュータ3と、マイクロコンピュータ3を間欠的に起動するためのタイマとして機能するリアルタイムクロック(RTC)4と、各部に電力を供給する電池7と、センサ6への電力の供給を制御するスイッチ8が配置される。また、スイッチ8とセンサ6の間には、バイパスコンデンサC1が接続されてノイズの除去や、充放電の速度を低減して無駄な電力消費を防ぐ。バイパスコンデンサC1への充放電回数を減らすようにスイッチ8を制御することによって、無駄な電力消費を抑えることが可能になる。   FIG. 3 shows a block diagram of an electronic circuit attached to the substrate 10 of the bracelet type sensor node 11. In FIG. 3, a substrate 10 includes a wireless communication unit (RF) 2 including an antenna 5 that communicates with a base station 102, a USB communication unit 39 that is wired to the PC 103, a sensor 6, and the wireless communication unit 2. The microcomputer 3 to be controlled, the real-time clock (RTC) 4 functioning as a timer for starting the microcomputer 3 intermittently, the battery 7 for supplying power to each part, and the supply of power to the sensor 6 are controlled. A switch 8 is arranged. In addition, a bypass capacitor C1 is connected between the switch 8 and the sensor 6 to prevent unnecessary power consumption by removing noise and reducing charge / discharge speed. By controlling the switch 8 so as to reduce the number of times of charging / discharging the bypass capacitor C1, wasteful power consumption can be suppressed.

マイクロコンピュータ3は、演算処理を実行するCPU34と、CPU34で実行するプログラムなどを格納するROM33と、データなどを格納するRAM32と、RTC4からの信号(タイマ割り込み)に基づいてCPU34に割り込みをかける割り込み制御部35と、センサ6から出力されたアナログ信号をデジタル信号に変換するA/Dコンバータ31と、無線通信部2及びUSB通信部39との間でシリアル信号にて信号の送受を行うシリアルコミュニケーションインターフェース(SCI)36と、無線通信部2及びUSB通信部39とスイッチ8を制御するパラレルインターフェース(PIO)37と、マイクロコンピュータ3内の上記各部へクロックを供給する発振部(OSC)30とを含んで構成される。そして、マイクロコンピュータ3内の上記各部はシステムバス38を介して接続される。RTC4は、マイクロコンピュータ3の割り込み制御部35に予め設定されている所定の周期で割り込み信号(タイマ割り込み)を出力し、また、SCI36へ基準クロックを出力する。PIO37はCPU34からの指令に応じてスイッチ8のON/OFFを制御し、センサ6への電力供給を制御する。   The microcomputer 3 includes a CPU 34 that executes arithmetic processing, a ROM 33 that stores programs executed by the CPU 34, a RAM 32 that stores data and the like, and an interrupt that interrupts the CPU 34 based on a signal (timer interrupt) from the RTC 4. Serial communication for transmitting and receiving signals as serial signals between the control unit 35, the A / D converter 31 that converts the analog signal output from the sensor 6 into a digital signal, and the wireless communication unit 2 and the USB communication unit 39 An interface (SCI) 36, a wireless communication unit 2, a USB communication unit 39, a parallel interface (PIO) 37 that controls the switch 8, and an oscillation unit (OSC) 30 that supplies a clock to each unit in the microcomputer 3. Consists of including. The above-described units in the microcomputer 3 are connected via a system bus 38. The RTC 4 outputs an interrupt signal (timer interrupt) at a predetermined period set in advance to the interrupt control unit 35 of the microcomputer 3 and outputs a reference clock to the SCI 36. The PIO 37 controls ON / OFF of the switch 8 in accordance with a command from the CPU 34 and controls power supply to the sensor 6.

腕輪型センサノード1は、所定の周期(例えば、1分等)でマイクロコンピュータ3を起動して、センサ6からセンシングデータを取得し、取得したセンシングデータに腕輪型センサノード1を特定する識別子とタイムスタンプを付与して基地局102またはPC103へ送信する。なお、腕輪型センサノード1の制御の詳細は、例えば、特開2008−59058号公報等と同様にすることができる。なお、腕輪型センサノード1は、連続的に取得したセンシングデータを、周期的に基地局102またはPC103へ送信するようにしても良い。   The bracelet type sensor node 1 starts the microcomputer 3 at a predetermined cycle (for example, 1 minute), acquires sensing data from the sensor 6, and an identifier for identifying the bracelet type sensor node 1 in the acquired sensing data. A time stamp is given and transmitted to the base station 102 or the PC 103. Note that details of the control of the bracelet type sensor node 1 can be the same as, for example, Japanese Patent Laid-Open No. 2008-59058. The bracelet type sensor node 1 may periodically transmit the sensing data acquired to the base station 102 or the PC 103 periodically.

図4は、図1に示した本発明を適用するライフログシステムの機能要素を示すブロック図である。腕輪型センサノード1が送信したセンシングデータは、基地局102またはPC103を介してサーバ104のデータ格納部500に蓄積される。   FIG. 4 is a block diagram showing functional elements of a life log system to which the present invention shown in FIG. 1 is applied. Sensing data transmitted from the bracelet type sensor node 1 is accumulated in the data storage unit 500 of the server 104 via the base station 102 or the PC 103.

サーバ104は、図示しないプロセッサとメモリ及びストレージ装置を備えて、利用者の腕の加速度で測定されたセンシングデータを集計し、データ集計部200、シーン分割部300、シーン列挙部400、及び行動獲得部500を実行する。データ集計部200は、単位時間(例えば、1分間)毎の集計値を算出し、データ格納部600に格納する。シーン分割部300は、センシングデータおよび前記集計した集計データを解析して、個別の動作状態であるシーン領域、および、個々の運動状態であるシーン断片を抽出し、データ格納部600に格納する。シーン列挙部400は、前記抽出したシーン領域とシーン断片に対して、過去データから作成したルール、または、予め登録したシーン判定ルールを適用することによって、行動内容の候補であるシーンを抽出し、データ格納部600に格納する。行動獲得部500は、前記抽出したシーンを利用者のクライアント計算機103に提示し、利用者が選択したシーンを利用者が入力した行動内容と共にデータ格納部500に格納する。   The server 104 includes a processor, a memory, and a storage device (not shown), and totals the sensing data measured by the acceleration of the user's arm, and collects the data totaling unit 200, the scene dividing unit 300, the scene listing unit 400, and the action acquisition The unit 500 is executed. The data totaling unit 200 calculates a total value for each unit time (for example, one minute) and stores it in the data storage unit 600. The scene division unit 300 analyzes the sensing data and the aggregated data, extracts scene regions that are individual operation states, and scene fragments that are individual motion states, and stores them in the data storage unit 600. The scene listing unit 400 extracts a scene that is a candidate for action content by applying a rule created from past data or a pre-registered scene determination rule to the extracted scene region and scene fragment, Store in the data storage unit 600. The action acquisition unit 500 presents the extracted scene to the user's client computer 103, and stores the scene selected by the user in the data storage unit 500 together with the action content input by the user.

なお、データ格納部600に格納されるセンシングデータには腕輪型センサノード1の識別子が付与され、また、行動内容、動作状態、シーン、および、行動記録のデータには利用者を特定する識別子(例えば、腕輪型センサノード1の識別子)が付与されて、利用者を識別することができる。   The identifier of the bracelet type sensor node 1 is given to the sensing data stored in the data storage unit 600, and the identifier for identifying the user (behavior content, operation state, scene, and behavior record data) For example, an identifier of the bracelet type sensor node 1) is given to identify the user.

シーン分割部300とシーン列挙部400と行動獲得部500は、例えば、プログラムとしてストレージ装置(記憶媒体)に格納され、所定のタイミングでメモリへロードされてプロセッサにより実行される。なお、以下では、サーバ104が、シーン分割部300とシーン列挙部400を所定の周期(例えば、5分間)毎に実行する例、および、行動獲得部500を利用者から要求されたタイミングで実行する例を示す。   The scene division unit 300, the scene listing unit 400, and the action acquisition unit 500 are stored in a storage device (storage medium) as a program, for example, loaded into the memory at a predetermined timing, and executed by the processor. In the following, the server 104 executes the scene dividing unit 300 and the scene listing unit 400 every predetermined cycle (for example, 5 minutes), and the action acquisition unit 500 is executed at a timing requested by the user. An example is shown.

図5は、本発明を適用するライフログシステムで行われるデータ処理の全体的な流れを示す図である。まず、ステップS1では、腕輪型センサノード1が送信したセンシングデータを基地局102またはPC103がサーバ104へ転送し、サーバ104のデータ格納部600にセンシングデータを蓄積する。さらに、サーバ104が所定の周期になるとデータ集計部200を実行して、データ格納部600に蓄積されたセンシングデータから単位時間毎の運動頻度を算出し、データ格納部600に格納する。この運動頻度の算出結果は図6で示すように単位時間毎の運動頻度を時系列的にソートしたデータとなる。運動頻度の算出方法は、図7、図8を用いて後述する。   FIG. 5 is a diagram showing an overall flow of data processing performed in the life log system to which the present invention is applied. First, in step S <b> 1, the sensing data transmitted from the bracelet type sensor node 1 is transferred to the server 104 by the base station 102 or the PC 103, and the sensing data is accumulated in the data storage unit 600 of the server 104. Further, when the server 104 reaches a predetermined cycle, the data totaling unit 200 is executed, and the exercise frequency per unit time is calculated from the sensing data accumulated in the data storage unit 600 and stored in the data storage unit 600. As shown in FIG. 6, the calculation result of the exercise frequency is data obtained by sorting the exercise frequency for each unit time in time series. The method of calculating the exercise frequency will be described later with reference to FIGS.

次に、ステップS2では、サーバ104が所定の周期になるとシーン分割部300を実行して、データ格納部600に蓄積されたセンシングデータと集計データから利用者の一連の動作状態であるシーン領域、および、シーン領域を構成する運動であるシーン断片を作成する。   Next, in step S2, when the server 104 reaches a predetermined cycle, the scene division unit 300 is executed, and a scene region that is a series of operation states of the user from the sensing data and the aggregated data accumulated in the data storage unit 600, And a scene fragment which is a motion constituting a scene area is created.

このシーン領域の作成処理は、センシングデータまたは集計データから抽出可能である所定の動作状態(例えば、歩行、睡眠)を検出し、検出された動作状態、および、検出された動作状態と次の動作状態に挟まれた期間をシーン領域として抽出し、後述する所定の判定ルールを用いて睡眠、安静、軽作業、作業、歩行、運動の動作内容を判定し、各シーン領域に割り当てるものである。   This scene area creation process detects a predetermined operation state (for example, walking, sleep) that can be extracted from sensing data or aggregated data, and detects the detected operation state, and the detected operation state and the next operation. The period between the states is extracted as a scene area, and the operation contents of sleep, rest, light work, work, walking, and exercise are determined using a predetermined determination rule described later, and assigned to each scene area.

さらに、シーン断片の作成処理は、前記抽出されたシーン領域毎に、センシングデータまたは所定時間単位のセンシングデータの集計データから時系列的なデータの変化点を検出し、変化点から次の変化点までを1つの運動単位または状態単位であるシーン断片として抽出する。センシングデータまたは集計データの変化点とは、激しく動いている状態から静かになった時点などを変化点として抽出する。シーン断片は、シーン断片の抽出方法とシーン断片のグループ分け方法に応じて断片分類が割り当てられる。シーン断片の抽出方法は、シーン断片の抽出に用いるセンシングデータの種類である。シーン断片のグループ分け方法は、シーン断片にグループの識別子である断片分類の値を割り当てるために用いたセンシングデータの内容であり、運動量の統計値を用いたグループ分け、センシングデータの類似度を用いたグループ分け、集計データの類似度を用いたグループ分けなど1以上のグループ分けからなる。そして、断片分類ごとに当該断片分類のグループ分け方法によりグループの識別子である断片分類の値を割り当てる。   Further, the scene fragment creation process detects, for each of the extracted scene areas, a time-series data change point from the sensing data or the total data of the sensing data in a predetermined time unit, and the change point is changed to the next change point. Is extracted as a scene fragment which is one motion unit or state unit. The change point of the sensing data or the total data is extracted as a change point when it becomes quiet from the state of intense movement. The scene fragment is assigned a fragment classification according to a method for extracting scene fragments and a method for grouping scene fragments. The scene fragment extraction method is a type of sensing data used for scene fragment extraction. The scene fragment grouping method is the content of the sensing data used to assign the segment classification value, which is the group identifier, to the scene fragment. The grouping using the momentum statistics and the similarity of the sensing data are used. The grouping includes one or more groupings such as grouping using the similarity of the aggregated data. Then, for each fragment classification, a fragment classification value as a group identifier is assigned by the fragment classification grouping method.

このように、シーン断片の抽出のために用いるセンシングデータと、当該シーン断片のグループ分けのために用いるセンシングデータとが同じ種類のみならず、異なる種類であることを特徴とする。例えば、人が屋内から屋外へ出る場合、加速度の変化に比べて温度の変化が著しい場合を想定する。このような場合、加速度データから抽出される各シーン断片を、加速度の類似度を用いてグループ分けするよりも、温度の類似度を用いてグループ分けをした方が、その人の行動をより正確に示す指標となる。そのため、温度の類似度を用いてグループ分けをしたデータをも算出し、後述するシーン判定ルールに基づいて行動内容を判定することにより、判定精度を高めることが可能となる。   Thus, the sensing data used for scene fragment extraction and the sensing data used for grouping the scene fragments are not only the same type but also different types. For example, when a person goes from indoors to outdoors, a case is assumed in which a change in temperature is significant compared to a change in acceleration. In such cases, it is more accurate to group the scene fragments extracted from the acceleration data using temperature similarity than grouping them using acceleration similarity. It becomes the index shown in. Therefore, it is possible to improve the determination accuracy by calculating data grouped using the temperature similarity and determining the action content based on a scene determination rule described later.

上記の処理により、シーン分割部300は所定の周期毎にシーン領域とシーン断片を作成し、データ格納部600に格納する。   Through the above processing, the scene dividing unit 300 creates a scene area and a scene fragment at predetermined intervals and stores them in the data storage unit 600.

次に、サーバ104は、ステップS3でシーン分割部300が抽出したシーン領域とシーン断片、および、前後の行動内容が既に確定している場合にはその行動内容を、登録されているシーン判定ルールに従って判定し、利用者の行動内容の候補であるシーンを作成し、データ格納部600に格納する。   Next, if the scene area and scene fragment extracted by the scene dividing unit 300 in step S3 and the action contents before and after the server 104 have already been confirmed, the server 104 uses the action contents as registered scene determination rules. And a scene that is a candidate for the user's action content is created and stored in the data storage unit 600.

登録されたシーン判定ルールは、利用者毎の過去の行動内容、シーン領域、シーン断片のデータから抽出したルール、または、利用者を含むデータ格納部600に格納された行動内容、シーン領域、シーン断片のデータから作成したルール、または、既知の知識を用いて構築したシーン判定ルールである。具体的には、行動内容、シーン領域、シーン断片、時間情報の組合せと順序パターンから作成された行動内容の候補であるシーンを判定するシーン判定ルールである。シーン判定ルールの構造の例は、図17において後述する。   The registered scene determination rule is a rule extracted from past action content, scene area, and scene fragment data for each user, or action content, scene area, scene stored in the data storage unit 600 including the user. A rule created from fragment data or a scene determination rule constructed using known knowledge. Specifically, it is a scene determination rule for determining a scene that is a candidate for action content created from a combination of action content, scene area, scene fragment, time information and an order pattern. An example of the structure of the scene determination rule will be described later with reference to FIG.

例えば、早朝の歩行という動作内容であれば、具体的な行動内容の候補は散歩とすることができ、あるいは、「起床後30〜90分の間で歩行(10−15分)、安静(20−25分)、歩行(7−10分)であれば、その利用者の通常の生活においては定型化している「通勤」として判定する。なお、行動内容は動作内容の組合せなので、多くの場合複数のシーン領域から成り立つが、上述の散歩のように、単一の動作内容と時刻から定まる行動内容も存在する。   For example, if the action content is early morning walking, the specific action content candidate can be a walk, or “walking (10-15 minutes) and resting (20-15 minutes after waking up) (20 -25 minutes) and walking (7-10 minutes), it is determined as “commuting” which is standardized in the normal life of the user. Since the action content is a combination of action contents, the action contents are often composed of a plurality of scene areas, but there are action contents determined from a single action content and time as in the above-described walk.

次に、行動獲得部500は、データ格納部に格納されたシーンから、利用者が行った行動内容に一致する可能性の高い順に提示する優先順位を付与する(ステップS4)。   Next, the action acquisition unit 500 assigns priorities to be presented from the scenes stored in the data storage unit in descending order of possibility of matching with the contents of actions performed by the user (step S4).

次に、サーバ104は、ステップS5で、上記優先順位に従って、各シーンをクライアント計算機103に提示する。ステップS6では、クライアント計算機103を操作する利用者が、サーバ104が抽出したシーンに対応する行動内容を確認し、優先順位の順で提示されたシーンを選択することで、利用者は容易に日々の生活記録(ライフログ)の生成することができる。   Next, in step S5, the server 104 presents each scene to the client computer 103 according to the priority order. In step S6, the user who operates the client computer 103 confirms the action content corresponding to the scene extracted by the server 104, and selects the scenes presented in order of priority, so that the user can easily perform every day. Life log can be generated.

次に、ステップS7では、クライアント計算機103で選択されたシーンを行動記録として確定する。   Next, in step S7, the scene selected by the client computer 103 is confirmed as an action record.

こうして作成されたライフログは、ステップS8で利用者の識別子と作成日時などのタイムスタンプとともに、サーバ104のデータ格納部600へ格納される。   The life log created in this way is stored in the data storage unit 600 of the server 104 together with a user identifier and a time stamp such as the creation date and time in step S8.

図7は、サーバ104のデータ集計部200で行われる処理の一例を示すフローチャートである。まず、データ集計部200は、利用者の識別子に対応するセンシングデータをデータ格納部600から読み込む(ステップS11)。ここで、データ集計部200が読み込むセンシングデータの量は、センシングデータの集計周期である所定の周期(例えば、3分間)等に設定すればよい。   FIG. 7 is a flowchart illustrating an example of processing performed by the data totaling unit 200 of the server 104. First, the data totaling unit 200 reads sensing data corresponding to a user identifier from the data storage unit 600 (step S11). Here, the amount of sensing data read by the data totaling unit 200 may be set to a predetermined cycle (for example, 3 minutes) that is a totaling cycle of sensing data.

次に、ステップS12では、データ集計部200が読み込んだセンシングデータの加速度データについて所定の時間間隔(例えば、1分)毎の集計値を算出する。本実施形態では、所定の時間間隔内での腕輪型センサノード1の装着者(利用者)の運動の頻度を示すゼロクロス回数を集計値として用いる。   Next, in step S12, the total value for every predetermined time interval (for example, 1 minute) is calculated about the acceleration data of the sensing data read by the data totaling unit 200. In the present embodiment, the number of zero crosses indicating the frequency of exercise of the wearer (user) of the bracelet type sensor node 1 within a predetermined time interval is used as the total value.

腕輪型センサノード1が検出したセンシングデータにはX、Y、Z軸の加速度データが含まれているので、データ集計部200は、X、Y、Zの3軸の加速度のスカラー量を算出し、スカラー量が0または0近傍の所定値を通過する値をゼロクロス回数として算出し、ゼロクロス回数が所定時間間隔内に出現する頻度を算出し、この出現頻度を、所定の時間間隔(1分間)の運動頻度として出力する。   Since the sensing data detected by the bracelet type sensor node 1 includes the X, Y, and Z axis acceleration data, the data totaling unit 200 calculates the scalar amount of the X, Y, and Z axis acceleration. , A value where the scalar amount passes 0 or a predetermined value close to 0 is calculated as the number of zero crossings, the frequency at which the number of zero crossings appears within a predetermined time interval is calculated, and this frequency of occurrence is calculated for a predetermined time interval (1 minute) Is output as the exercise frequency.

まず、スカラー量は、各軸の加速度をXg、Yg、Zgとすると、スカラー量=(Xg+Yg+Zg1/2で求められる。 First, the scalar quantity is obtained by scalar quantity = (Xg 2 + Yg 2 + Zg 2 ) 1/2 where Xg, Yg, and Zg are accelerations of the respective axes.

次に、求めたスカラー量をフィルタ(バンドパスフィルタ)処理し、所定の周波数帯域(例えば、0.1Hz〜5Hz)のみを抽出し、ノイズ成分を除去する。そして、図8で示すように、フィルタ処理を施した加速度のスカラー量が所定の閾値(例えば、0.05G)となった回数をゼロクロス回数として算出する。あるいは、加速度のスカラー量が所定の閾値をよぎった回数をゼロクロス回数とする。そして、所定の時間間隔内のゼロクロス回数を運動頻度として求める。また、所定の時間間隔内の運動量の積分値をゼロクロス回数とスカラー量から求めて、この積分値を運動強度とする。またセンシングデータに含まれる温度についても所定の時間間隔内の平均温度を求める。なお、運動頻度は、XYZの各方向の加速度の値が、正と負に振動した回数(振動数)を各方向の所定時間内に数えて合計してもよいが、本実施形態では、計算を簡略化することができるため、ゼロクロス回数を算出する方法について説明した。   Next, the obtained scalar quantity is subjected to filter (bandpass filter) processing, and only a predetermined frequency band (for example, 0.1 Hz to 5 Hz) is extracted to remove a noise component. Then, as shown in FIG. 8, the number of times that the scalar amount of the acceleration subjected to the filter processing becomes a predetermined threshold (for example, 0.05 G) is calculated as the number of zero crossings. Alternatively, the number of times that the scalar amount of acceleration crosses a predetermined threshold is defined as the number of zero crossings. Then, the number of zero crossings within a predetermined time interval is obtained as the exercise frequency. Also, an integral value of the momentum within a predetermined time interval is obtained from the number of zero crossings and a scalar amount, and this integral value is used as the exercise intensity. Also, an average temperature within a predetermined time interval is obtained for the temperature included in the sensing data. The motion frequency may be summed up by counting the number of times that the acceleration value in each direction of XYZ vibrates positively and negatively (frequency) within a predetermined time in each direction. The method for calculating the number of zero crossings has been described.

データ集計部200は、所定の時間間隔毎に、運動頻度、平均温度、運動強度を求め、図9に示すように、それらを所定の時間間隔毎の集計データとして生成し、データ格納部600へ蓄積する。図9は、所定時間間隔毎の集計データのフォーマット700を示す説明図で、センシングデータに含まれる腕輪型センサノード1の識別子を格納するセンサデータID702と、腕輪型センサノード1の装着者(ライフログシステムの利用者)の識別子を格納するユーザID701と、所定の時間間隔の開始時刻(測定日時)を格納する測定日時703と、センシングデータに含まれる温度を格納する温度704と、データ集計部200が演算した運動頻度を格納する運動頻度705と、データ集計部200が求めた運動強度を格納する運動強度706からひとつのエントリを構成する。なお、利用者の識別子は、腕輪型センサノード1の識別子に基づいて予め設定した図示しないテーブルから参照すればよい。   The data totaling unit 200 obtains the exercise frequency, average temperature, and exercise intensity for each predetermined time interval, generates them as total data for each predetermined time interval, as shown in FIG. accumulate. FIG. 9 is an explanatory diagram showing a total data format 700 for each predetermined time interval. The sensor data ID 702 for storing the identifier of the bracelet type sensor node 1 included in the sensing data and the wearer (life of the bracelet type sensor node 1) A user ID 701 for storing an identifier of a log system user), a measurement date 703 for storing a start time (measurement date) of a predetermined time interval, a temperature 704 for storing a temperature included in sensing data, and a data totaling unit One entry is made up of an exercise frequency 705 for storing the exercise frequency calculated by 200 and an exercise intensity 706 for storing the exercise intensity obtained by the data totaling unit 200. The user identifier may be referred to from a table (not shown) set in advance based on the identifier of the bracelet type sensor node 1.

図10は、サーバ104のシーン分割部300で行われるシーン領域とシーン断片の作成処理を示すフローチャートである。まず、シーン分割部300は、利用者の識別子に対応するセンシングデータと集計データをデータ格納部600から読み込む(ステップS21)。ここで、シーン分割部300が読み込む集計データの量は、シーン領域作成の周期である所定の周期(例えば、5分間)などに設定すればよい。   FIG. 10 is a flowchart showing a scene area and scene fragment creation process performed by the scene division unit 300 of the server 104. First, the scene dividing unit 300 reads sensing data and total data corresponding to a user identifier from the data storage unit 600 (step S21). Here, the amount of total data read by the scene dividing unit 300 may be set to a predetermined cycle (for example, 5 minutes) that is a cycle of scene area creation.

次に、ステップS22では、シーン分割部300が読み込んだセンシングデータと集計データから所定の動作状態を検出し、シーン領域を作成する。ここで、所定の動作状態は、センシングデータまたは集計データから検出可能な単一動作の繰り返し、同一状態の連続、所定のセンシングデータパターンからなる動作状態であり、例えば歩行と睡眠である。   Next, in step S22, a predetermined operation state is detected from the sensing data and total data read by the scene dividing unit 300, and a scene area is created. Here, the predetermined operation state is an operation state composed of a repetition of a single operation that can be detected from sensing data or aggregated data, a continuation of the same state, and a predetermined sensing data pattern, for example, walking and sleep.

次に、ステップS23では、前記抽出された各シーン領域について、当該シーン領域の開始日時と終了日時の期間に該当する集計データから、時系列的な運動頻度の変化点を検出し、変化点間を同一の運動を行った単位であるシーン断片として抽出してデータ格納部600に格納する。   Next, in step S23, for each of the extracted scene areas, a time-series change point of the exercise frequency is detected from the total data corresponding to the start date and time and end date and time of the scene area, Are extracted as scene fragments, which are units of the same exercise, and stored in the data storage unit 600.

以上の処理により、シーン分割部300はセンシングデータと集計データから動作状態の単位であるシーン領域と運動変化の単位であるシーン断片を抽出する。   Through the above processing, the scene dividing unit 300 extracts a scene area which is a unit of motion state and a scene fragment which is a unit of motion change from the sensing data and the total data.

図11は、シーン分割部300で行われるシーン領域の作成処理を表すフローチャートである。   FIG. 11 is a flowchart showing a scene area creation process performed by the scene division unit 300.

まず、ステップS31では、データ格納部600から読み込まれたセンシングデータと集計データから所定の動作状態を検出し、区切りシーンとする。前記検出された区切りシーンは、動作状態の内容を領域内容とし、シーン領域として開始日時、終了日時、領域内容の組をデータ格納部600に格納する。ここで、歩行を検知する手法は、上下方向の加速度が周期的に変化する(一歩ごとの着地)、前後方向の加速度が上下方向の加速度と同期して規則的に前方向と後ろ方向を繰り返す(着地するごとの速度変化)、左右方向の加速度が上下方向の加速度に同期して規則的に繰り返す(一歩ごとの体の左右へのゆれ)、といった波形が観測でき、さらに腕の振りが重なった波形として観測できるので、これらにより、該当するシーンが歩行状態であるか否かを判定できる。また、ゼロクロスの周期の逆数を歩数として検知することも可能である。これらの人体に装着した加速度センサから歩行状態を検知する手法は、公知の手法を用いれば良い。   First, in step S31, a predetermined operation state is detected from the sensing data read from the data storage unit 600 and the total data, and set as a delimiter scene. The detected segmented scene uses the contents of the operation state as the area contents, and a set of the start date / time, end date / time, and area contents is stored in the data storage unit 600 as the scene area. Here, the method of detecting walking is that the acceleration in the vertical direction changes periodically (landing for each step), and the acceleration in the front-rear direction regularly repeats the forward and backward directions in synchronization with the acceleration in the vertical direction. Waveforms such as (velocity change at each landing), and the acceleration in the left and right direction are repeated in synchronization with the acceleration in the up and down direction (swing of the body to the left and right at each step) can be observed, and the swing of the arm overlaps Therefore, it can be determined whether or not the corresponding scene is in a walking state. It is also possible to detect the reciprocal of the zero-cross cycle as the number of steps. A known method may be used as a method for detecting the walking state from the acceleration sensor attached to the human body.

また、睡眠は運動頻度は極めて低いが、睡眠中でも人体は寝返りなどの運動を行うため、運動頻度はゼロにはならない。睡眠を判定する手法はいくつか知られており、公知の手法を用いればよい。   In addition, although the frequency of exercise is very low in sleep, the human body does exercise such as turning over during sleep, so the exercise frequency does not become zero. Several methods for determining sleep are known, and a known method may be used.

また、所定のセンシングデータパターンによるシーン領域の例として、急激な温度変化がある。急激な温度変化は監視対象の周辺環境の変化とみなし、シーン領域の区切りシーンとできる。急激な温度変化は、所定の期間(例えば、10分間)での最高温度と最低温度の差が所定の値を超えた場合などのセンシングデータパターンを既定することによって検出すればよい。   An example of a scene area based on a predetermined sensing data pattern is a rapid temperature change. A sudden temperature change is regarded as a change in the surrounding environment to be monitored, and can be a scene segmented scene. A sudden temperature change may be detected by setting a sensing data pattern when a difference between the maximum temperature and the minimum temperature in a predetermined period (for example, 10 minutes) exceeds a predetermined value.

次に、ステップ32では、上記区切りシーンに該当しなかった期間をそれぞれシーン領域とし、図12に示す判定値のテーブルを参照し、各シーン領域の運動頻度が「安静」、「軽作業」、「作業」、「運動」の各判定値と比較して何れに該当するかを判定する。   Next, in step 32, each period not corresponding to the above-mentioned segmented scene is set as a scene area, the table of determination values shown in FIG. 12 is referred to, and the motion frequency of each scene area is “rest”, “light work”, Compared with each determination value of “work” and “exercise”, it is determined which corresponds.

そして、シーン分割部300は、判定結果を当該シーン領域の動作状態である領域内容として設定し、開始日時と終了日時と共にデータ格納部600に格納する(ステップ33)。なお、図12の動作状態を判定するための判定値を格納したテーブルは、予め設定されたものである。   Then, the scene division unit 300 sets the determination result as the region content that is the operation state of the scene region, and stores it in the data storage unit 600 together with the start date and time and the end date and time (step 33). Note that the table storing the determination values for determining the operation state in FIG. 12 is set in advance.

図13は、データ格納部600に格納されるシーン領域データのフォーマット800を示す説明図で、利用者の識別子を格納するユーザID801と、シーン領域データの識別子であるシーン領域データID802と、シーン領域の開始日時803と、終了日時804と、シーン領域の動作状態を示す領域内容805とからひとつのエントリを構成する。   FIG. 13 is an explanatory diagram showing a format 800 of scene area data stored in the data storage unit 600. The user ID 801 stores a user identifier, the scene area data ID 802 is an identifier of the scene area data, and the scene area. The entry date and time 803, the end date and time 804, and the area contents 805 indicating the operation state of the scene area constitute one entry.

以上の処理により、シーン分割部300はシーン領域を抽出する。   Through the above processing, the scene dividing unit 300 extracts a scene area.

図14は、シーン分割部300で行われるシーン断片の作成処理を表すフローチャートである。   FIG. 14 is a flowchart showing scene fragment creation processing performed by the scene division unit 300.

まず、ステップS41では、各シーン領域の開始日時と終了日時の期間に該当するセンシングデータと集計データから、時系列的な変化を検出し、変化点として抽出する。ここで、時系列的な変化とは、所定の時間間隔毎の集計データを前後の時間間隔と比較して、集計データの差が所定の値を超えた場合を意味する。また、当該シーン領域の集計データの平均値を計算し、集計データの値が平均値をよぎる点を変化点とし検出しても良い。また、集計データを前後の所定の期間の値について、平均値の差の検定を行い、有意差が認められた点を変化点として検出しても良い。本実施例では、温度、運動頻度、運動強度を集計データとして利用すればよい。   First, in step S41, a time-series change is detected from sensing data and total data corresponding to the start date / time and end date / time of each scene area, and extracted as a change point. Here, the time-series change means a case where the total data for each predetermined time interval is compared with the time intervals before and after the difference between the total data exceeds a predetermined value. Further, the average value of the total data of the scene area may be calculated, and the point where the total data value crosses the average value may be detected as the change point. In addition, the aggregated data may be tested for the difference between the average values for the values of a predetermined period before and after, and a point where a significant difference is recognized may be detected as a change point. In the present embodiment, temperature, exercise frequency, and exercise intensity may be used as total data.

次に、ステップS42では、前記検出された変化点で区切られた各期間をシーン断片とし、各シーン断片にグループ分けの識別子である断片分類を付与する。シーン断片のグループ分けは、センシングデータの類似度、集計データの類似度、集計データの運動頻度の統計値、運動強度の統計値などによりグループ分けし、グループの識別子である断片分類を付与する。ここで、センシングデータおよび集計データの類似度は、各グループについて既定した基準となるセンシングデータとの相関値を用い、最も相関値の高いグループの識別子を断片分類とすることができる。また、集計データの運動頻度の統計値は、当該シーン断片に該当する運動頻度の平均、分散などを用い、範囲分割によってグループ分けすればよい。運動強度についても、運動頻度と同様にグループ分けすればよい。また、各シーン断片に対して、複数の断片分類を付与してもよい。また、区切るために利用する集計データとグループ分けするために利用する集計データは異なる集計データでもよい。   Next, in step S42, each period divided by the detected change point is set as a scene fragment, and a fragment classification as an identifier for grouping is given to each scene fragment. The scene fragments are grouped according to the similarity of the sensing data, the similarity of the aggregated data, the statistical value of the exercise frequency of the aggregated data, the statistical value of the exercise intensity, and the like, and a fragment classification as a group identifier is given. Here, the similarity between the sensing data and the aggregated data can use the correlation value with the sensing data set as a reference for each group, and the identifier of the group with the highest correlation value can be used as the fragment classification. Further, the statistical value of the exercise frequency of the total data may be grouped by range division using the average and variance of the exercise frequency corresponding to the scene fragment. The exercise intensity may be grouped similarly to the exercise frequency. A plurality of fragment classifications may be assigned to each scene fragment. Further, the aggregate data used for dividing and the aggregate data used for grouping may be different aggregate data.

そして、シーン分割部300は、抽出されたシーン断片について、開始日時、終了日時、断片分類の組をデータ格納部600に格納する(ステップS43)。図15は、データ格納部600に格納されるシーン断片データのフォーマット900を示す説明図で、利用者の識別子であるユーザID901と、対応するシーン領域データの識別子であるシーン領域データID902と、シーン断片データの開始日時903と、終了日時904と、付与されたグループの識別子である断片分類1から断片分類n(906)とからひとつのエントリを構成する。   Then, the scene division unit 300 stores the set of the start date / time, the end date / time, and the fragment classification for the extracted scene fragment in the data storage unit 600 (step S43). FIG. 15 is an explanatory diagram showing a format 900 of scene fragment data stored in the data storage unit 600. A user ID 901 that is a user identifier, a scene area data ID 902 that is an identifier of corresponding scene area data, and a scene One entry is formed from the start date and time 903 of the fragment data, the end date and time 904, and the fragment classification 1 to fragment classification n (906) which are identifiers of the assigned group.

以上の処理により、シーン分割部300はシーン断片を抽出する。   Through the above processing, the scene dividing unit 300 extracts scene fragments.

図16は、シーン列挙部400で行われるシーン作成処理を表すフローチャートである。シーン処理部ではシーン判定ルールに一致するシーン領域、シーン断片、行動記録のパターンを検索し、シーンを抽出する。   FIG. 16 is a flowchart showing a scene creation process performed by the scene listing unit 400. The scene processing unit searches for scene areas, scene fragments, and action recording patterns that match the scene determination rule, and extracts a scene.

まず、ステップS51では、利用者に該当する予め登録されたシーン判定ルールをデータ格納部600から読み出す。シーン判定ルールは、条件と結論からなり、ある条件を満たすとある結論(シーン、すなわち行動内容)が推定されるものであり、ユーザごとに予め記録されている。条件は、複数または単一のシーン領域、行動記録の組合せまたは順序パターンから構成される。シーン領域は、領域内容だけでなく、当該シーン領域の期間にあるシーン断片の組合せも条件となる。また、シーン領域、シーン断片、行動記録は開始日時から終了日時までの経過時間も条件となる。結論は、シーン内容、開始日時、終了日時からなり、判定精度を示す値を評価値として確信度を伴う。確信度は過去のデータから算出することが可能である、また、シーン判定ルールを専門家の知見によって作成する場合には任意に定めてもよい。   First, in step S51, a pre-registered scene determination rule corresponding to the user is read from the data storage unit 600. The scene determination rule is composed of a condition and a conclusion. When a certain condition is satisfied, a certain conclusion (scene, that is, action content) is estimated, and is recorded in advance for each user. The condition is composed of a plurality or a single scene area, a combination of action records, or an order pattern. A scene area is not only the contents of the area but also a combination of scene fragments in the period of the scene area. In addition, the scene area, scene fragment, and action record are also conditional on the elapsed time from the start date to the end date. The conclusion is composed of the scene content, start date and time, and end date and time, and is accompanied by a certainty factor with a value indicating determination accuracy as an evaluation value. The certainty factor can be calculated from past data, and may be arbitrarily determined when a scene determination rule is created based on expert knowledge.

図17はシーン判定ルールの構造の一例である。シーン判定ルールは条件テーブル1000と結論テーブル1100からなり、ルールIDで紐付けられている。条件テーブルは、ユーザID、ルールID、順序、種別、項目名、値、比較演算の組からなる。種別は対象となるデータの種類であるシーン領域、シーン断片、行動記録、時間情報である経過時間、時間帯、時間からなる。比較演算は、判定対象となるシーン領域あるいは行動記録と一致するか否かを判定する演算式である。結論テーブルは、ユーザID、ルールID、シーン内容、開始日時、終了日時、確信度の組からなる。開始日時と終了日時は特定の値を定義せず、条件テーブルの順序に示すデータの開始日時または終了日時を指定することによって、条件テーブルの条件を満たすデータから、開始日時と終了日時を決めることができる。また、ユーザIDに*(アスタリスク)を指定することによって、特定の利用者のみでなく、全員に適用できるシーン判定ルールとすることもできる。   FIG. 17 shows an example of the structure of the scene determination rule. The scene determination rule includes a condition table 1000 and a conclusion table 1100, and is associated with a rule ID. The condition table includes a set of user ID, rule ID, order, type, item name, value, and comparison operation. The type includes a scene area, a scene fragment, an action record, and an elapsed time, a time zone, and a time as time data. The comparison calculation is an arithmetic expression for determining whether or not the scene area or action record to be determined matches. The conclusion table includes a set of user ID, rule ID, scene content, start date / time, end date / time, and certainty factor. No specific value is defined for the start date / time and end date / time, and the start date / time and end date / time are determined from the data that satisfies the conditions in the condition table by specifying the start date / time or end date / time of the data shown in the order of the condition table. Can do. Also, by specifying * (asterisk) as the user ID, it is possible to make a scene determination rule applicable not only to a specific user but also to everyone.

例えば、ユーザID101のルールID1のシーン判定ルールは、「最初が行動記録の「睡眠」であり、その後の70分以内の朝時間帯に「歩行」のシーン領域があり、次に「安静」のシーン領域、最後に「歩行」のシーン領域である場合、シーンは「通勤」であり、開始日時が最初の歩行の開始日時、終了日時が最後の歩行の終了日時であり、その確信度は「80%」である」ことを示している。   For example, the scene determination rule of the rule ID 1 of the user ID 101 is “the first is“ sleep ”of the action record, and then there is a“ walking ”scene area within the morning time zone within 70 minutes, and then“ rest ”. If it is a scene area, and finally a `` walking '' scene area, the scene is `` commuting '', the start date and time is the start date and time of the first walk, the end date and time is the end date and time of the last walk, and the certainty is `` 80% "."

また、ユーザID105のルールID2のシーン判定ルールは、「軽作業のシーン領域であり、そのシーン領域が断片分類1の値が5であるシーン断片と断片分類3の値が2であるシーン断片を含み、そのシーン領域の開始日時から終了日時までの時間が30分以上の場合、シーンは「会議」であり、確信度は「60%」である」ことを示している。   Further, the scene determination rule of the rule ID 2 of the user ID 105 is “a scene area of light work, a scene fragment in which the value of fragment classification 1 is 5 and a scene fragment in which the value of fragment classification 3 is 2. If the time from the start date / time to the end date / time of the scene area is 30 minutes or more, it indicates that the scene is “meeting” and the certainty level is “60%”.

次に、ステップS52では、前記読み出された各シーン判定ルールについて、データ格納部600に格納されているシーン領域、シーン断片、利用者によって入力された行動記録から、当該シーン判定ルールの条件テーブルの条件をすべて満たすものを抽出し、結論テーブルの内容をシーンとして抽出し、データ格納部600にシーンとして格納する(ステップS53)。図18は、シーンデータのフォーマット1100を示す説明図で、利用者の識別子であるユーザID1101と、シーンの行動内容であるシーン内容1102と、シーンデータの開始日時1103と、終了日時1104とからひとつのエントリを構成する。   Next, in step S52, for each of the read scene determination rules, a scene table, scene fragment, and action record input by the user stored in the data storage unit 600 are used. Those that satisfy all of the above conditions are extracted, the contents of the conclusion table are extracted as scenes, and stored as scenes in the data storage unit 600 (step S53). FIG. 18 is an explanatory diagram showing the format 1100 of the scene data. One of the user ID 1101 as the user identifier, the scene content 1102 as the action content of the scene, the start date and time 1103 of the scene data, and the end date and time 1104 is shown. Configure the entry.

次に、ステップS54では、前記抽出したシーンをデータ格納部600に格納した時点以降に利用者が行動記録を入力した場合、再びステップS51以降を繰り返すことによって、シーン判定ルールを満たすシーンのデータ格納部600への格納を繰り返す。新たな行動記録が入力されることによって、条件を満たすシーン判定ルールが増加し、データ格納部600に格納すべきシーンが追加され、確信度の高いシーンが格納される場合がある。   Next, in step S54, when the user inputs an action record after the time when the extracted scene is stored in the data storage unit 600, the data storage of the scene satisfying the scene determination rule is repeated by repeating step S51 and the subsequent steps. The storage in the unit 600 is repeated. When a new action record is input, the number of scene determination rules that satisfy the condition increases, a scene to be stored in the data storage unit 600 is added, and a scene with high certainty may be stored.

以上の処理によって、行動内容の候補として提示するシーンが抽出される。   Through the above processing, a scene to be presented as a candidate for action content is extracted.

図19は、クライアント計算機103が利用者から行動履歴の入力要求を受け付けたときに、行動獲得部500がデータ格納部600に蓄積されたシーンを読み出し、利用者に優先順位をつけて提示する処理を表すフローチャートである。   FIG. 19 shows a process in which, when the client computer 103 accepts an action history input request from a user, the action acquisition unit 500 reads the scenes stored in the data storage unit 600 and presents them to the user with priorities. It is a flowchart showing.

まず、ステップS61で、クライアント計算機103にて利用者が入力部1032を介して入力した行動内容の候補を提示する期間を取得する。   First, in step S <b> 61, the client computer 103 obtains a period for presenting action content candidates input by the user via the input unit 1032.

次に、ステップS62で、前記期間に一部でも重なるシーンをデータ格納部600から読み出す。ここで、終了日時が前記期間の開始日時以降であり、開始日時が前記期間の終了日時以前であるシーンが読み出される。複数のシーンが読み出された場合、確信度の値によってソートしておく。   Next, in step S62, a scene that partially overlaps the period is read from the data storage unit 600. Here, a scene whose end date / time is after the start date / time of the period and whose start date / time is before the end date / time of the period is read. When a plurality of scenes are read out, they are sorted according to the certainty value.

次に、ステップS63で、クライアント計算機103の表示部1031に前記読み出されたシーンを候補として提示する。   Next, in step S63, the read scene is presented as a candidate on the display unit 1031 of the client computer 103.

次に、ステップS64で、クライアント計算機103の入力部1032で利用者が選択または入力した行動内容と開始日時、終了日時を取得し、サーバ104のデータ格納部600に行動記録として格納する。   Next, in step S 64, the action content, start date / time, and end date / time selected by the user using the input unit 1032 of the client computer 103 are acquired, and stored in the data storage unit 600 of the server 104 as action records.

以上の処理によって、センシングデータから作成した行動内容の候補を提示し、利用者は提示された候補を選択することによって、行動記録を獲得することができる。   Through the above processing, the action content candidate created from the sensing data is presented, and the user can acquire the action record by selecting the presented candidate.

図20は、クライアント計算機103の表示部1031に表示される行動履歴入力画面1200の画面イメージである。サーバ104は、クライアント計算機103からユーザID等を受け付けて、指定された利用者の集計データ550と、シーン領域データ800およびシーンを行動履歴入力画面1200に表示させる。なお、クライアント計算機103で稼動するアプリケーションとしては、ブラウザを採用することができる。   FIG. 20 is a screen image of the action history input screen 1200 displayed on the display unit 1031 of the client computer 103. The server 104 receives a user ID or the like from the client computer 103 and displays the specified user total data 550, the scene area data 800, and the scene on the action history input screen 1200. Note that a browser can be adopted as an application running on the client computer 103.

行動履歴入力画面1200は、集計データ700の運動頻度705を測定日時703の位置を棒グラフで表示する運動頻度1201と、シーン領域データ800に格納された領域内容を表示する動作内容1202と、シーン領域データ800の開始日時803と終了日時804を表示する時刻表示1203と、行動記録を入力または表示する行動内容1204と、行動記録の入力を行う日時を設定する日時プルダウンメニュー1205と、複数のシーン領域を手動にて結合する指令をサーバ104へ送信するためのシーン結合ボタン1206と、マウスカーソルなどで利用者が指定した行動内容1203を入力する行動内容入力ボタン1207と、入力の完了を指令する入力終了ボタン1208とを備える。図示の行動履歴入力画面1200では、行動内容1204の入力が完了した状態を示している。   The action history input screen 1200 includes an exercise frequency 705 of the aggregated data 700, an exercise frequency 1201 that displays the position of the measurement date 703 as a bar graph, an operation content 1202 that displays the area content stored in the scene area data 800, and a scene area A time display 1203 for displaying the start date and time 803 and end date and time 804 of the data 800; an action content 1204 for inputting or displaying an action record; a date and time pull-down menu 1205 for setting the date and time for inputting an action record; and a plurality of scene areas A scene combination button 1206 for transmitting an instruction to manually combine the actions to the server 104, an action contents input button 1207 for inputting action contents 1203 designated by the user with a mouse cursor or the like, and an input for instructing completion of the input And an end button 1208. The illustrated action history input screen 1200 shows a state where the input of the action content 1204 has been completed.

クライアント計算機103を操作する利用者が、行動履歴入力画面1200の行動内容入力ボタン1207を選択した後に、行動内容1204を選択すると、上記行動獲得部500で求めた行動内容の候補が表示される。利用者は、クライアント計算機103の入力部1032を構成するマウス等の操作によって、行動内容の候補を選択し、あるいは行動内容の候補に所望の項目がない場合には手動で行動内容を入力することができる。   When the user operating the client computer 103 selects the action content input button 1207 on the action history input screen 1200 and then selects the action content 1204, the action content candidates obtained by the action acquisition unit 500 are displayed. The user selects an action content candidate by operating a mouse or the like that constitutes the input unit 1032 of the client computer 103, or manually inputs the action content if the action content candidate does not have a desired item. Can do.

サーバ104は、利用者が行動内容1204を選択すると、上記行動内容分析部300がシーンデータ1100のエントリ毎に推定した行動内容の候補を行動内容704に表示させる。例えば、図20の時刻9:40からの「軽作業」のシーンに対応する行動内容1204を選択すると、図21で示すように、行動内容の候補を含む候補ボックス1500が表示される。候補ボックス1500は、行動獲得部500が推定した行動内容の候補1501を表示する領域を備え、利用者は表示されている項目を選択することで、行動内容の詳細を入力することができる。   When the user selects the action content 1204, the server 104 displays the action content candidates estimated by the action content analysis unit 300 for each entry of the scene data 1100 on the action content 704. For example, when the action content 1204 corresponding to the “light work” scene from time 9:40 in FIG. 20 is selected, a candidate box 1500 including action content candidates is displayed as shown in FIG. The candidate box 1500 includes an area for displaying the action content candidate 1501 estimated by the action acquisition unit 500, and the user can input details of the action content by selecting the displayed item.

利用者はクライアント計算機103の表示部1031に提示された候補を選択すると、選択したシーン領域データ800の行動履歴が確定し、サーバ104は、行動記録を生成してデータ格納部600へ格納する。   When the user selects a candidate presented on the display unit 1031 of the client computer 103, the action history of the selected scene area data 800 is fixed, and the server 104 generates an action record and stores it in the data storage unit 600.

また、サーバ104の行動獲得部500は、利用者が選択した行動内容の候補を抽出するシーン判定ルールの条件と条件テーブルの条件が一致するシーン判定ルールの確信度を更新する。   Further, the action acquisition unit 500 of the server 104 updates the certainty of the scene determination rule in which the condition of the scene determination rule for extracting the candidate for the action content selected by the user matches the condition in the condition table.

ここで、確信度の更新は、条件テーブルと、結論テーブルと、センシングデータから得られるシーン領域データ及びシーン断片データと、利用者が選択した行動内容に基づいて行う。具体的には、複数のシーン領域及びシーン断片の組み合わせの中で条件テーブルの条件を満たすものを抽出し、その件数を算出する。そして、当該条件テーブルの条件に対応する結論テーブルのシーンを抽出し、実際に利用者が選択した行動内容と一致するものを抽出して、その件数を算出する。そして、条件テーブルの条件を満たす件数に対する、利用者が選択した行動内容と一致する件数の割合を算出することで確信度を更新することができる。   Here, the certainty factor is updated based on the condition table, the conclusion table, the scene area data and scene fragment data obtained from the sensing data, and the action content selected by the user. Specifically, among the combinations of a plurality of scene areas and scene fragments, those satisfying the condition table are extracted and the number of cases is calculated. And the scene of the conclusion table corresponding to the conditions of the said condition table is extracted, what matches the action content actually selected by the user is extracted, and the number of cases is calculated. Then, the certainty factor can be updated by calculating the ratio of the number of cases matching the action content selected by the user to the number of cases satisfying the condition table.

また、図17のシーン判定ルールのテーブルにおいて、条件テーブルの条件を満たす件数、および、当該条件に加えて結論テーブルの内容を満たす件数を格納しておくことによって、件数の検索を省略し、格納した件数を加算することによって確信度を算出してもよい。   In the scene determination rule table of FIG. 17, the number of cases satisfying the conditions in the condition table and the number of cases satisfying the contents of the conclusion table in addition to the conditions are stored, so that the search for the number of cases is omitted and stored. The certainty factor may be calculated by adding the number of cases.

このように、確信度を更新することにより、確信度の精度を高めることができ、ユーザの嗜好を反映したシーン判定ルールを作成することが可能となり、正確な行動内容の候補を抽出することができるようになる。   In this way, by updating the certainty factor, the accuracy of the certainty factor can be increased, a scene determination rule reflecting the user's preference can be created, and accurate action content candidates can be extracted. become able to.

本発明では、利用者の運動状態を腕輪型センサノード1の加速度センサで測定してサーバ104に格納し、測定した運動状態を解析して、利用者の生活行動を示すシーンを行動内容と共に開始時間と終了時間を自動的に抽出する。人の行動はゆらぎが大きく、同一の行動内容でもセンシングデータは一致することはなく、センシングデータの類似度では行動内容を推定することができない。本発明は、センシングデータから一連の動作状態の単位であるシーン領域、シーン領域を構成する短時間の運動状態であるシーン断片を作成し、行動内容をシーン領域の組合せと順序パターンで構成し、シーン領域の動作状態のみでなく、シーン断片の組合せで類似性を判定する。これにより、動作や運動の状態ではなく、行動のゆらぎに対応した、一連の行動の期間と内容を抽出することができる。   In the present invention, the user's exercise state is measured by the acceleration sensor of the bracelet type sensor node 1 and stored in the server 104, the measured exercise state is analyzed, and a scene showing the user's life behavior is started together with the action content. Automatically extract time and end time. Human behavior fluctuates greatly, sensing data does not match even with the same behavior content, and the behavior content cannot be estimated based on the similarity of the sensing data. The present invention creates a scene area that is a unit of a series of operation states from sensing data, a scene fragment that is a short-time motion state that constitutes the scene area, and configures action content by a combination of scene areas and an order pattern, Similarity is determined not only by the operation state of the scene area but also by a combination of scene fragments. As a result, it is possible to extract the period and content of a series of actions corresponding to the fluctuation of the action, not the state of motion or movement.

なお、上記実施形態では、ライフログシステムとして利用者(人体)の運動状態を検出するために、腕輪型センサノード1の加速度センサを用いた例を示したが、人体の運動状態を検知可能な生体情報であればよく、例えば、脈拍や歩数などを用いることができ、あるいは、これらの複数の生体情報の組合せから人体の運動状態を検知しても良い。また、生体情報だけではなく、人体の位置をGPSや携帯端末等の位置情報を用いるようにしても良い。   In the above-described embodiment, an example in which the acceleration sensor of the bracelet type sensor node 1 is used to detect the movement state of the user (human body) as the life log system is shown. However, the movement state of the human body can be detected. Any biological information may be used. For example, a pulse or the number of steps can be used, or the motion state of the human body may be detected from a combination of the plurality of biological information. Further, not only the biological information but also the position of the human body may be used using position information such as GPS or a portable terminal.

また、ライフログシステムでは監視対象が人であり、シーンは行動に対応するが、監視対象は人に限定されるものではなく、機器でもよい。監視対象を機器とした場合には、機器に装着したセンサによって測定された機器の状態を示すセンシングデータ(例えば、振動、音量)から、シーンとして稼動状態や稼動内容を示すシーンを抽出することが可能であり、機器の稼動状態履歴を獲得することができる。   In the life log system, a monitoring target is a person and a scene corresponds to an action, but the monitoring target is not limited to a person, and may be a device. When the monitoring target is a device, it is possible to extract a scene indicating an operation state or operation content as a scene from sensing data (for example, vibration, volume) indicating the state of the device measured by a sensor attached to the device. Yes, it is possible to acquire the operating status history of the device.

図22は、第一の変形例を示し、上記実施形態の行動履歴入力画面1200の行動内容1203、1204を示したものである。図22の行動内容1203、1204では利用者が選択した一日について、行動記録が入力されていない期間は、確信度80%以上であるシーンを表示する。複数のシーンが検索された場合には、確信度が最も高いシーンを表示する。図22(a)は行動記録を入力していない段階での行動内容を示し、確信度が80%以上であるシーンが7:00から8:00の身支度のみであることを示している。次に、図22(b)に、利用者が提示された候補を確定し、行動記録として「身支度」を入力した段階での行動内容を示している。「身支度」が行動記録として格納されることによって、シーン判定ルールの条件を満たし、確信度が80%以上となったシーンが選出されたことによって、新たに8:00から9:30までの行動内容の候補として「通勤」が表示されたことを示している。以上のように、行動記録が確定されると、シーン判定ルールを満たす確信度の高いシーンが検出され、行動内容の候補を提示することができなかった期間にも行動内容の候補を提示することが可能となる。   FIG. 22 shows a first modification, and shows the action contents 1203 and 1204 of the action history input screen 1200 of the above embodiment. In the action contents 1203 and 1204 in FIG. 22, a scene having a certainty degree of 80% or more is displayed during a period in which no action record is input for the day selected by the user. When a plurality of scenes are searched, the scene with the highest certainty factor is displayed. FIG. 22 (a) shows the action contents at the stage where no action record is input, and shows that the scene with a certainty degree of 80% or more is only the dress condition from 7:00 to 8:00. Next, FIG. 22B shows the action content at the stage where the candidate presented by the user is confirmed, and “dressing” is input as the action record. By storing “dress” as an action record, a scene satisfying the conditions of the scene determination rule and having a certainty degree of 80% or more is selected, and a new action from 8:00 to 9:30 is selected. This indicates that “commuting” is displayed as a content candidate. As described above, when the action record is confirmed, a scene with a high degree of certainty that satisfies the scene determination rule is detected, and the action content candidate is presented even during a period in which the action content candidate could not be presented. Is possible.

図23は、第2の変形例を示し、上記実施形態の図4に示したシステム構成の一部を変更したもので、その他の構成は上記実施形態と同様である。前記実施形態のサーバ104に代わって、クライアント計算機103がデータ収集部200、シーン分割部300、シーン列挙部400、行動獲得部500、および、データ格納部を備えており、このクライアント計算機103が直接、基地局102に接続されたものである。データ収集部200、シーン分割部300、シーン列挙部400、行動獲得部500、データ収集部600の構成は上記実施形態と同様である。クライアント計算機103はネットワーク105を介してサーバ104に接続される。サーバ104は、クライアント計算機103が生成した行動記録を受信して格納するデータ格納部1300と、行動記録に対して所定の解析を行う解析部1400を備える。   FIG. 23 shows a second modification in which a part of the system configuration shown in FIG. 4 of the above embodiment is changed, and other configurations are the same as those of the above embodiment. Instead of the server 104 of the embodiment, the client computer 103 includes a data collection unit 200, a scene division unit 300, a scene listing unit 400, an action acquisition unit 500, and a data storage unit. , Connected to the base station 102. The configurations of the data collection unit 200, the scene division unit 300, the scene listing unit 400, the action acquisition unit 500, and the data collection unit 600 are the same as those in the above embodiment. The client computer 103 is connected to the server 104 via the network 105. The server 104 includes a data storage unit 1300 that receives and stores an action record generated by the client computer 103, and an analysis unit 1400 that performs a predetermined analysis on the action record.

図4の構成の場合、サーバにデータを蓄積するため、ネットワーク接続が可能である場合、場所を気にせずデータの送付を行うことができる。しかし、ネットワーク接続ができないような場合には、データの送付や行動入力などができないおそれがある。一方で図23の構成では、データ送付や行動入力のためにPC103などの専用の計算機が必要となるため場所に制約があるが、PC103にデータを送付し、PC103上で行動入力などを行うため、ネットワーク接続の有無を気にする必要がないという利点がある。   In the case of the configuration of FIG. 4, data is stored in the server. Therefore, when a network connection is possible, data can be sent regardless of the location. However, when network connection is not possible, there is a possibility that data transmission or behavior input cannot be performed. On the other hand, in the configuration of FIG. 23, a dedicated computer such as the PC 103 is required for data transmission and action input, so there are restrictions on the location, but data is sent to the PC 103 and action input is performed on the PC 103. There is an advantage that there is no need to worry about the presence or absence of network connection.

以上のように、本発明は、監視対象の行動の期間と内容をセンシングデータから抽出することが可能であり、人の行動履歴、機器の稼動状態履歴を自動的に作成する計算機システムに適用可能である。特に、無線通信により監視対象のセンシング情報をサーバへ送信可能なセンサネットワークシステムに適用することができる。   As described above, the present invention can extract the period and content of the behavior to be monitored from the sensing data, and can be applied to a computer system that automatically creates a human behavior history and a device operating status history. It is. In particular, it can be applied to a sensor network system capable of transmitting sensing information to be monitored to a server by wireless communication.

本発明を適用するライフログシステムのシステム構成の一例を示すブロック図である。It is a block diagram which shows an example of the system configuration | structure of the life log system to which this invention is applied. 腕輪型センサノードの一例を示す図で、(a)は腕輪型センサノード1の正面から見た概略図で、(b)は腕輪型センサノードを側面から見た断面図である。It is a figure which shows an example of a bracelet type sensor node, (a) is the schematic seen from the front of the bracelet type sensor node 1, (b) is sectional drawing which looked at the bracelet type sensor node from the side. 腕輪型センサノードの基盤に取り付けられた電子回路のブロック図の一例である。It is an example of the block diagram of the electronic circuit attached to the base of a bracelet type sensor node. 本発明を適用するライフログシステムの機能要素を示すブロック図の一例である。It is an example of the block diagram which shows the functional element of the life log system to which this invention is applied. 本発明を適用するライフログシステムで行われるデータ処理の全体的な流れを示す図の一例である。It is an example of the figure which shows the whole flow of the data processing performed with the life log system to which this invention is applied. 単位時間毎の運動頻度を時系列的にソートしたグラフの例である。It is an example of the graph which sorted the exercise frequency for every unit time in time series. データ集計部の処理の一例を示すフローチャートである。It is a flowchart which shows an example of a process of a data total part. 加速度と時間の関係を示すグラフで、ゼロクロス回数の判定の一例である。It is a graph which shows the relationship between acceleration and time, and is an example of determination of the number of zero crossings. 所定時間間隔毎の集計データのフォーマットの一例である。It is an example of the format of the total data for every predetermined time interval. シーン分割部の処理を示すフローチャートの一例である。It is an example of the flowchart which shows the process of a scene division part. シーン領域作成処理を示すフローチャートの一例である。It is an example of the flowchart which shows a scene area | region creation process. 運動頻度と動作状態の関係を設定する判定値のテーブルの一例である。It is an example of the table of the judgment value which sets the relationship between exercise frequency and an operation state. シーン領域データのフォーマットの一例である。It is an example of the format of scene area data. シーン断片作成処理を示すフローチャートの一例である。It is an example of the flowchart which shows a scene fragment | piece creation process. シーン断片データのフォーマットの一例である。It is an example of the format of scene fragment data. シーン列挙部の処理を示すフローチャートの一例である。It is an example of the flowchart which shows the process of a scene enumeration part. シーン判定ルールのテーブルの一例である。It is an example of the table of a scene determination rule. シーンデータのフォーマットの一例である。It is an example of the format of scene data. 行動獲得部の処理を示すフローチャートの一例である。It is an example of the flowchart which shows the process of an action acquisition part. クライアント計算機の表示部に表示される行動履歴入力画面の画面イメージの一例である。It is an example of the screen image of the action history input screen displayed on the display part of a client computer. 行動内容の候補を含む候補ボックスの画面イメージの一例である。It is an example of the screen image of the candidate box containing the candidate of action content. 第1の変形例を示し、行動履歴入力画面の行動内容候補提示内容の更新を示す一例である。It is an example which shows a 1st modification and shows the update of the action content candidate presentation content of an action history input screen. 第2の変形例を示し、ライフログシステムの機能要素を示すブロック図の一例である。It is an example of the block diagram which shows a 2nd modification and shows the functional element of a life log system.

符号の説明Explanation of symbols

1 腕輪型センサノード
102 基地局
103 クライアント計算機
104 サーバ
200 データ集計部
300 シーン分割部
400 シーン列挙部
500 行動獲得部
600 データ格納部
1031 表示部
1032 入力部
1 bracelet type sensor node 102 base station 103 client computer 104 server 200 data totaling unit 300 scene dividing unit 400 scene listing unit 500 action acquisition unit 600 data storage unit 1031 display unit 1032 input unit

Claims (13)

監視対象に装着され、センシングデータを取得するセンサと上記センシングデータをサーバに送信する通信部とを有するセンサノードと、上記センシングデータを解析するサーバと、を備え、
上記サーバは、
上記センシングデータを蓄積するデータ格納部と、
上記センシングデータから上記監視対象の運動頻度を求め、上記運動頻度から所定の動作状態及びその期間を抽出して上記期間を区切りとするシーン領域を作成し、上記シーン領域について上記センシングデータの変化点を区切りとするシーン断片を作成するシーン分割部と、
上記データ格納部に格納されているシーン判定ルールに基づいて、上記シーン領域及び上記シーン断片から上記監視対象の行動内容及びその期間を判定するシーン列挙部と、を有する行動抽出システム。
A sensor node that is mounted on a monitoring target and has a sensor that acquires sensing data and a communication unit that transmits the sensing data to a server; and a server that analyzes the sensing data,
The server
A data storage unit for accumulating the sensing data;
The motion frequency of the monitoring target is obtained from the sensing data, a predetermined motion state and its period are extracted from the motion frequency to create a scene region with the period as a break, and the change point of the sensing data for the scene region A scene division unit for creating a scene fragment with
An action extraction system comprising: a scene enumeration unit that determines an action content and a period of the monitoring target from the scene area and the scene fragment based on a scene determination rule stored in the data storage unit.
請求項1に記載の行動抽出システムにおいて、
上記シーン判定ルールは、シーン領域、シーン断片、それらの順序パターン、及び上記判定の正しさを示す指標から構成される行動抽出システム。
The behavior extraction system according to claim 1,
The scene determination rule is an action extraction system including a scene area, a scene fragment, an order pattern thereof, and an index indicating correctness of the determination.
請求項2に記載の行動抽出システムにおいて、
上記シーン列挙部は、上記判定の正しさを示す指標によって、複数の上記行動内容に優先順位を付与し、
上記優先順位に従って、接続される表示部に、上記行動内容を表示する行動獲得部をさらに有する行動抽出システム。
The behavior extraction system according to claim 2,
The scene enumeration unit gives priority to the plurality of action contents according to an index indicating the correctness of the determination,
The behavior extraction system which further has the action acquisition part which displays the said action content on the display part connected according to the said priority.
請求項3に記載の行動抽出システムにおいて、
上記表示部に表示された行動内容が選択されると、上記行動獲得部は、上記選択された結果、上記シーン領域及び上記シーン断片、並びに上記シーン判定ルールに基づいて、上記判定の正しさを示す指標を更新する行動抽出システム。
The behavior extraction system according to claim 3,
When the action content displayed on the display unit is selected, the action acquisition unit determines the correctness of the determination based on the selection result, the scene area, the scene fragment, and the scene determination rule. An action extraction system that updates the indicated index.
請求項1に記載の行動抽出システムにおいて、
上記シーン分割部は、上記シーン断片の類似度を判定し、上記類似度に基づいて上記シーン断片を分類し、当該分類ごとに識別子を付与する行動抽出システム。
The behavior extraction system according to claim 1,
The behavior extraction system, wherein the scene division unit determines the similarity of the scene fragment, classifies the scene fragment based on the similarity, and assigns an identifier for each classification.
請求項5に記載の行動抽出システムにおいて、
上記シーン分割部は、上記シーン領域の作成に用いる上記センシングデータとは異なるセンシングデータを用いて、上記類似度を判定する行動抽出システム。
The behavior extraction system according to claim 5,
The behavior extraction system in which the scene dividing unit determines the similarity using sensing data different from the sensing data used for creating the scene area.
監視対象に装着されるセンサノードがセンサにより取得したセンシングデータを受信する通信部と、
上記センシングデータを蓄積するデータ格納部と、
上記センシングデータから上記監視対象の運動頻度を求め、上記運動頻度から所定の動作状態及びその期間を抽出して上記期間を区切りとするシーン領域を作成し、上記シーン領域について上記センシングデータの変化点を区切りとするシーン断片を作成するシーン分割部と、
上記データ格納部に格納されているシーン判定ルールに基づいて、上記シーン領域及び上記シーン断片から上記監視対象の行動内容及びその期間を判定するシーン列挙部と、を有するサーバ。
A communication unit that receives sensing data acquired by the sensor node attached to the monitoring target; and
A data storage unit for accumulating the sensing data;
The motion frequency of the monitoring target is obtained from the sensing data, a predetermined motion state and its period are extracted from the motion frequency to create a scene region with the period as a break, and the change point of the sensing data for the scene region A scene division unit for creating a scene fragment with
A server having a scene listing unit that determines the action content and the period of the monitoring target from the scene area and the scene fragment based on the scene determination rule stored in the data storage unit;
請求項7に記載のサーバにおいて、
上記シーン判定ルールは、シーン領域、シーン断片、それらの順序パターン、及び上記判定の正しさを示す指標から構成されるサーバ。
The server according to claim 7,
The scene determination rule is a server composed of a scene area, a scene fragment, an order pattern thereof, and an index indicating the correctness of the determination.
請求項8に記載のサーバにおいて、
上記シーン列挙部は、上記判定の正しさを示す指標によって、複数の上記行動内容に優先順位を付与し、
上記優先順位に従って、接続される表示部に、上記行動内容を表示する行動獲得部をさらに有するサーバ。
The server according to claim 8, wherein
The scene enumeration unit gives priority to the plurality of action contents according to an index indicating the correctness of the determination,
The server which further has an action acquisition part which displays the above-mentioned action contents on a display part connected according to the above-mentioned priority.
請求項9に記載のサーバにおいて、
上記表示部に表示された行動内容が選択されると、上記行動獲得部は、上記選択された結果、上記シーン領域及び上記シーン断片、並びに上記シーン判定ルールに基づいて、上記判定の正しさを示す指標を更新するサーバ。
The server according to claim 9, wherein
When the action content displayed on the display unit is selected, the action acquisition unit determines the correctness of the determination based on the selection result, the scene area, the scene fragment, and the scene determination rule. A server that updates the indicated index.
請求項7に記載のサーバにおいて、
上記シーン分割部は、上記シーン断片の類似度を判定し、上記類似度に基づいて上記シーン断片を分類し、当該分類ごとに識別子を付与するサーバ。
The server according to claim 7,
The server that determines the similarity of the scene fragment, classifies the scene fragment based on the similarity, and assigns an identifier for each classification.
請求項11に記載のサーバにおいて、
上記シーン分割部は、上記シーン領域の作成に用いる上記センシングデータとは異なるセンシングデータを用いて、上記類似度を判定するサーバ。
The server according to claim 11,
The scene division unit is a server that determines the similarity by using sensing data different from the sensing data used for creating the scene area.
監視対象に装着されてセンシングデータを取得するセンサノードと、上記センシングデータを解析するサーバとを備えるシステムにより実行される行動抽出方法であって、
上記センサノードは、上記センシングデータを上記サーバに送信し、
上記サーバは、上記センシングデータから上記監視対象の運動頻度を求め、上記運動頻度から所定の動作状態及びその期間を抽出して上記期間を区切りとするシーン領域を作成し、上記シーン領域について上記センシングデータの変化点を区切りとするシーン断片を作成し、上記サーバに格納されているシーン判定ルールに基づいて、上記シーン領域及び上記シーン断片から上記監視対象の行動内容及びその期間を判定する行動抽出方法。
A behavior extraction method executed by a system including a sensor node that is attached to a monitoring target and acquires sensing data, and a server that analyzes the sensing data,
The sensor node transmits the sensing data to the server,
The server obtains an exercise frequency of the monitoring target from the sensing data, extracts a predetermined operation state and its period from the exercise frequency, creates a scene area with the period as a delimiter, and performs the sensing for the scene area Create a scene fragment with the data change point as a delimiter, and extract the behavior to be monitored and its duration from the scene area and the scene fragment based on the scene determination rule stored in the server Method.
JP2008321728A 2008-12-18 2008-12-18 Behavior extraction system, behavior extraction method, and server Pending JP2010146223A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008321728A JP2010146223A (en) 2008-12-18 2008-12-18 Behavior extraction system, behavior extraction method, and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008321728A JP2010146223A (en) 2008-12-18 2008-12-18 Behavior extraction system, behavior extraction method, and server

Publications (1)

Publication Number Publication Date
JP2010146223A true JP2010146223A (en) 2010-07-01

Family

ID=42566615

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008321728A Pending JP2010146223A (en) 2008-12-18 2008-12-18 Behavior extraction system, behavior extraction method, and server

Country Status (1)

Country Link
JP (1) JP2010146223A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012173027A1 (en) * 2011-06-13 2012-12-20 ソニー株式会社 Information processing device, information processing method, and computer program
JP2015104640A (en) * 2013-12-02 2015-06-08 株式会社東芝 Behavior estimation device and activity meter
JP2015154889A (en) * 2014-02-21 2015-08-27 セイコーエプソン株式会社 Wearable device and control method of wearable device
JP2017016704A (en) * 2016-10-07 2017-01-19 ソニー株式会社 Information processing device, information processing method and computer program
JP2018005789A (en) * 2016-07-07 2018-01-11 国立大学法人東京海洋大学 Work estimation device, work estimation method and work estimation program
JP2018511090A (en) * 2014-12-19 2018-04-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Dynamic wearable device behavior based on schedule detection
US10413218B2 (en) 2014-01-15 2019-09-17 Tdk Corporation Wristband-type arm movement determination device and wristband-type activity tracker
JP2020527787A (en) * 2018-04-11 2020-09-10 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co.,Ltd. Infectious disease prediction methods, computer devices and non-volatile readable storage media
CN112099629A (en) * 2020-09-11 2020-12-18 河北冀联人力资源服务集团有限公司 Method and system for providing work operation guide

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0953957A (en) * 1995-08-10 1997-02-25 Matsushita Electric Works Ltd Method and system for analyzing daily life activity
JP2003325717A (en) * 2002-05-15 2003-11-18 Casio Comput Co Ltd Equipment and program for recording athletic history
JP2006180899A (en) * 2004-12-24 2006-07-13 Sharp Corp Life activity analysis device, life activity analysis method, program, and recording medium
JP2008059334A (en) * 2006-08-31 2008-03-13 Fujitsu Ltd Shopping-support program, shopping cart, and shopping-support method
JP2008067892A (en) * 2006-09-14 2008-03-27 Sharp Corp Apparatus and program for analyzing living body

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0953957A (en) * 1995-08-10 1997-02-25 Matsushita Electric Works Ltd Method and system for analyzing daily life activity
JP2003325717A (en) * 2002-05-15 2003-11-18 Casio Comput Co Ltd Equipment and program for recording athletic history
JP2006180899A (en) * 2004-12-24 2006-07-13 Sharp Corp Life activity analysis device, life activity analysis method, program, and recording medium
JP2008059334A (en) * 2006-08-31 2008-03-13 Fujitsu Ltd Shopping-support program, shopping cart, and shopping-support method
JP2008067892A (en) * 2006-09-14 2008-03-27 Sharp Corp Apparatus and program for analyzing living body

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013003649A (en) * 2011-06-13 2013-01-07 Sony Corp Information processing device, information processing method, and computer program
WO2012173027A1 (en) * 2011-06-13 2012-12-20 ソニー株式会社 Information processing device, information processing method, and computer program
CN106202528A (en) * 2011-06-13 2016-12-07 索尼公司 Information processor, information processing method and computer program
US10740057B2 (en) 2011-06-13 2020-08-11 Sony Corporation Information processing device, information processing method, and computer program
JP2015104640A (en) * 2013-12-02 2015-06-08 株式会社東芝 Behavior estimation device and activity meter
US10413218B2 (en) 2014-01-15 2019-09-17 Tdk Corporation Wristband-type arm movement determination device and wristband-type activity tracker
JP2015154889A (en) * 2014-02-21 2015-08-27 セイコーエプソン株式会社 Wearable device and control method of wearable device
JP2018511090A (en) * 2014-12-19 2018-04-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Dynamic wearable device behavior based on schedule detection
US11484261B2 (en) 2014-12-19 2022-11-01 Koninklijke Philips N.V. Dynamic wearable device behavior based on schedule detection
JP2018005789A (en) * 2016-07-07 2018-01-11 国立大学法人東京海洋大学 Work estimation device, work estimation method and work estimation program
JP2017016704A (en) * 2016-10-07 2017-01-19 ソニー株式会社 Information processing device, information processing method and computer program
JP2020527787A (en) * 2018-04-11 2020-09-10 平安科技(深▲せん▼)有限公司Ping An Technology (Shenzhen) Co.,Ltd. Infectious disease prediction methods, computer devices and non-volatile readable storage media
CN112099629A (en) * 2020-09-11 2020-12-18 河北冀联人力资源服务集团有限公司 Method and system for providing work operation guide
CN112099629B (en) * 2020-09-11 2024-04-16 河北冀联人力资源服务集团有限公司 Method and system for providing working operation guide

Similar Documents

Publication Publication Date Title
JP5250827B2 (en) Action history generation method and action history generation system
JP5372487B2 (en) Action record input support system and server
JP2010146223A (en) Behavior extraction system, behavior extraction method, and server
JP5466713B2 (en) Life pattern classification device and life pattern classification system
US9750433B2 (en) Using health monitor data to detect macro and micro habits with a behavioral model
US20230359282A1 (en) Methods and systems for monitoring and influencing gesture-based behaviors
EP3014905B1 (en) User activity tracking system and device
JP5216140B2 (en) Action suggestion apparatus and method
JP5768517B2 (en) Information processing apparatus, information processing method, and program
JP5361018B2 (en) Life visualization system, server, and life data processing method
JP5199152B2 (en) Behavior prediction method and behavior prediction system
US20140099614A1 (en) Method for delivering behavior change directives to a user
JP6362521B2 (en) Behavior classification system, behavior classification device, and behavior classification method
JP5767833B2 (en) Saddle position estimation apparatus, heel position estimation system, and heel position estimation method
CN110366387B (en) Measuring and assessing sleep quality
CN104434314A (en) Portable Monitoring Devices and Methods of Operating Same
CN107049255A (en) A kind of wearable intelligent equipment and its sleep algorithm
JP6423017B2 (en) Psychological state measurement system
CN105996984A (en) Method using wearable electronic device to detect sedentary time period
US20200367791A1 (en) Ground-Truth Data Creation Support System and Ground-Truth Data Creation Support Method
CN113546396A (en) Data processing system and method based on big data
US20230210503A1 (en) Systems and Methods for Generating Menstrual Cycle Cohorts and Classifying Users into a Cohort
JP6594512B2 (en) Psychological state measurement system
Culman Energy Efficient Methods for Human Activity Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111129

A131 Notification of reasons for refusal

Effective date: 20130820

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140107