JP2016097228A - Behavior classification system, behavior classification device, and behavior classification method - Google Patents

Behavior classification system, behavior classification device, and behavior classification method Download PDF

Info

Publication number
JP2016097228A
JP2016097228A JP2014238581A JP2014238581A JP2016097228A JP 2016097228 A JP2016097228 A JP 2016097228A JP 2014238581 A JP2014238581 A JP 2014238581A JP 2014238581 A JP2014238581 A JP 2014238581A JP 2016097228 A JP2016097228 A JP 2016097228A
Authority
JP
Japan
Prior art keywords
action
person
state
acceleration
behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014238581A
Other languages
Japanese (ja)
Other versions
JP2016097228A5 (en
JP6362521B2 (en
Inventor
田中 毅
Takeshi Tanaka
毅 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2014238581A priority Critical patent/JP6362521B2/en
Priority to PCT/JP2015/078664 priority patent/WO2016084499A1/en
Publication of JP2016097228A publication Critical patent/JP2016097228A/en
Publication of JP2016097228A5 publication Critical patent/JP2016097228A5/ja
Application granted granted Critical
Publication of JP6362521B2 publication Critical patent/JP6362521B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B69/00Training appliances or apparatus for special sports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Abstract

PROBLEM TO BE SOLVED: To classify a person's behavior based on measurement data of a sensor mounted on a predetermined region of the person.SOLUTION: A behavior classification system holds model information including a rule to discriminate a person's behavior based on a physical feature amount calculated from an acceleration of a predetermined region of the person, and includes an acceleration sensor mounted on the predetermined region of the person, and an analysis part for classifying the person's behavior based on the physical feature amount calculated from the acceleration measured by the acceleration sensor and the model information.SELECTED DRAWING: Figure 1

Description

本発明は、人物に装着したセンサが計測したデータに基づいて人物の行動を分類する技術に関する。   The present invention relates to a technique for classifying a person's behavior based on data measured by a sensor attached to the person.

近年、生活習慣病予防のための運動指導において、歩行及びランニングなどのエクササイズと、エクササイズとは異なる日常生活の家事などの非運動性身体活動量とを増やす方法が世界的に着目されている。効率的な運動指導及び運動のモチベーション維持のため、一日の行動内容の変化をより詳細に可視化することが必要とされている。   In recent years, in exercise guidance for preventing lifestyle-related diseases, methods of increasing exercise such as walking and running and non-motor physical activity such as housework in daily life different from exercise have attracted attention worldwide. In order to maintain efficient exercise guidance and exercise motivation, it is necessary to visualize changes in daily behavior in more detail.

特許文献1は、リストバンド型センサを用いてゴルフスイングのフォーム等の動作内容をディスプレイに表示する技術を開示している。   Patent Document 1 discloses a technique for displaying operation contents such as a golf swing form on a display using a wristband type sensor.

米国特許出願公開第2011/0054782号明細書US Patent Application Publication No. 2011/0054782 Specification

特許文献1に示されているリストバンド型センサによる動作内容の表示は、加速度、及びジャイロのデータから、センサを付加した手の位置及び軌跡を推定し、推定された手の軌跡と、ゴルフスイングという予め規定された体及び脚のフォームを合わせて表示するものであり、手の動作以外を推定することができない。   The display of the operation content by the wristband type sensor shown in Patent Document 1 is based on the acceleration and gyro data, estimating the position and locus of the hand to which the sensor is added, the estimated hand locus, and the golf swing The body and leg forms defined in advance are displayed together, and it is impossible to estimate anything other than hand movements.

上記と同様の複数のセンサを脚及び腰などの部位につけることによって、手以外の部位の動きについても推定し、表示することも考えられるが、複数のセンサを身につけるという負荷を伴うため、日常生活において長時間の計測が困難である。   By attaching a plurality of sensors similar to the above to parts such as legs and waist, it is also possible to estimate and display the movement of parts other than the hand, but it involves the burden of wearing multiple sensors, It is difficult to measure for a long time in daily life.

上記の課題を解決するために、本発明の行動分類システムは、人物の所定の部位の加速度から算出される物理特徴量に基づいて前記人物の行動を判別するためのルールを含むモデル情報を保持し、人物の前記所定の部位に装着された加速度センサと、前記加速度センサによって計測された加速度から算出される物理特徴量及び前記モデル情報に基づいて前記人物の行動を分類する解析部と、を有することを特徴とする。   In order to solve the above-described problems, the behavior classification system of the present invention holds model information including rules for discriminating the behavior of the person based on the physical feature amount calculated from the acceleration of a predetermined part of the person. An acceleration sensor attached to the predetermined part of the person, and an analysis unit for classifying the person's behavior based on the physical feature amount calculated from the acceleration measured by the acceleration sensor and the model information, It is characterized by having.

本発明の一形態によれば、人物の所定の部位に装着したセンサの計測データに基づいて、当該人物の多様な行動を分類することができる。   According to one aspect of the present invention, various actions of a person can be classified based on measurement data of a sensor attached to a predetermined part of the person.

本発明の実施例1の行動分類システムの主要な構成を示すブロック図である。It is a block diagram which shows the main structures of the action classification system of Example 1 of this invention. 本発明の実施例1のセンサデバイスの外観及び加速度センサの典型的な配置を示す説明図である。It is explanatory drawing which shows the external appearance of the sensor device of Example 1 of this invention, and typical arrangement | positioning of an acceleration sensor. 本発明の実施例1のサーバが実行する部位状態の推定及び行動内容分類の典型的な処理手順を示す説明図である。It is explanatory drawing which shows the typical process sequence of estimation of the part state and action content classification which the server of Example 1 of this invention performs. 本発明の実施例1のサーバが実行する典型的な処理手順を示すフローチャートである。It is a flowchart which shows the typical process sequence which the server of Example 1 of this invention performs. 本発明の実施例1のサーバが部位状態判別モデルを生成するために実行する典型的な処理手順を示すフローチャートである。It is a flowchart which shows the typical process sequence which the server of Example 1 of this invention performs in order to produce | generate a site | part state discrimination | determination model. 本発明の実施例1のセンサデバイスによって計測可能な腕の3軸加速度データから算出可能な2種類の典型的な物理特徴量を示す説明図である。It is explanatory drawing which shows two types of typical physical feature-values which can be calculated from the triaxial acceleration data of the arm which can be measured with the sensor device of Example 1 of this invention. 本発明の実施例1のセンサデバイスによって計測可能な腕の3軸加速度データから判別可能な典型的な部位状態を示す説明図である。It is explanatory drawing which shows the typical site | part state which can be discriminate | determined from the triaxial acceleration data of the arm which can be measured with the sensor device of Example 1 of this invention. 本発明の実施例1のサーバが部位状態データから行動の変化点を検知し、行動内容を区切る典型的な方法を示す説明図である。It is explanatory drawing which shows the typical method in which the server of Example 1 of this invention detects the change point of action from site | part state data, and divides | segments action content. 本発明の実施例1のサーバが保持する物理特徴量データの構成例を示す説明図である。It is explanatory drawing which shows the structural example of the physical feature-value data which the server of Example 1 of this invention hold | maintains. 本発明の実施例1における部位状態判別モデルの第1の例の説明図である。It is explanatory drawing of the 1st example of the site | part state discrimination | determination model in Example 1 of this invention. 本発明の実施例1における部位状態判別モデルの第2の例の説明図である。It is explanatory drawing of the 2nd example of the site | part state discrimination | determination model in Example 1 of this invention. 本発明の実施例1のサーバが保持する部位状態データの第1の構造例を示す説明図である。It is explanatory drawing which shows the 1st structural example of the site | part state data which the server of Example 1 of this invention hold | maintains. 本発明の実施例1のサーバが保持する部位状態データの第2の構造例を示す説明図である。It is explanatory drawing which shows the 2nd structural example of the site | part state data which the server of Example 1 of this invention hold | maintains. 本発明の実施例1のサーバが保持する物理特徴量データの構成例を示す説明図である。It is explanatory drawing which shows the structural example of the physical feature-value data which the server of Example 1 of this invention hold | maintains. 本発明の実施例1のサーバによる行動内容の分類の例を示す説明図である。It is explanatory drawing which shows the example of the classification | category of the action content by the server of Example 1 of this invention. 本発明の実施例1のサーバが保持する行動分類データのデータ構造例を示す説明図である。It is explanatory drawing which shows the example of a data structure of the action classification data which the server of Example 1 of this invention hold | maintains. 本発明の実施例1のサーバが行動記録を表示するために出力する画面の構成例を示す説明図である。It is explanatory drawing which shows the structural example of the screen output in order that the server of Example 1 of this invention may display an action record. 本発明の実施例1のサーバが行動分析の結果を表示するために出力する画面の第1の構成例を示す説明図である。It is explanatory drawing which shows the 1st structural example of the screen output in order that the server of Example 1 of this invention may display the result of action analysis. 本発明の実施例1のサーバが行動分析の結果を表示するために出力する画面の第2の構成例を示す説明図である。It is explanatory drawing which shows the 2nd structural example of the screen output in order that the server of Example 1 of this invention may output the result of action analysis. センサのデータから行動内容を推定する従来の手法の典型的な例の説明図である。It is explanatory drawing of the typical example of the conventional method which estimates action content from the data of a sensor. 本発明の実施例2の行動分類システムの主要な構成を示すブロック図である。It is a block diagram which shows the main structures of the action classification system of Example 2 of this invention. 本発明の実施例3の行動分類システムの主要な構成を示すブロック図である。It is a block diagram which shows the main structures of the action classification system of Example 3 of this invention. 本発明の実施例3のサーバが実行する部位状態推定及び行動内容推定の典型的な処理手順を示す説明図である。It is explanatory drawing which shows the typical process sequence of the site | part state estimation and action content estimation which the server of Example 3 of this invention performs. 本発明の実施例3のサーバが保持する行動分類データのデータ構造例を示す説明図である。It is explanatory drawing which shows the data structural example of the action classification data which the server of Example 3 of this invention hold | maintains.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施例1の行動分類システムの主要な構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a main configuration of the behavior classification system according to the first embodiment of the present invention.

本実施例の行動分類システムは、ユーザが装着するセンサデバイス1と、センサデバイス1と通信するPC2又はスマートフォン3と、ネットワーク4を介してPC2又はスマートフォン3と通信できるサーバ5と、から構成されている。センサデバイス1は、計測したセンサデータをPC2又はスマートフォン3経由でサーバ5に送信する。サーバ5は、センサデータを解析してユーザの四肢など各部位の動きを推定し、推定した部位の動きの内容から行動内容を分類する。PC2又はスマートフォン3は、解析した結果をサーバ5からダウンロードしてユーザに閲覧させることができる。   The behavior classification system according to the present embodiment includes a sensor device 1 worn by a user, a PC 2 or a smartphone 3 that communicates with the sensor device 1, and a server 5 that can communicate with the PC 2 or the smartphone 3 via a network 4. Yes. The sensor device 1 transmits the measured sensor data to the server 5 via the PC 2 or the smartphone 3. The server 5 analyzes the sensor data, estimates the movement of each part such as the user's limb, and classifies the action content from the content of the estimated movement of the part. The PC 2 or the smartphone 3 can download the analyzed result from the server 5 and allow the user to browse.

センサデバイス1は主にマイコン(MCU:Micro Control Unit)10、加速度センサ11、メモリ12、入力部13、表示部14及び通信部15から構成されている。加速度センサ11は、常時、所定の頻度(典型的には1秒間に20〜1000回程度の回数)でユーザの動きなどによる加速度を計測する。マイコン10は、加速度センサ11が計測した加速度のデータを、通信を制御して読みだしてメモリ12に記録する。   The sensor device 1 mainly includes a microcomputer (MCU: Micro Control Unit) 10, an acceleration sensor 11, a memory 12, an input unit 13, a display unit 14, and a communication unit 15. The acceleration sensor 11 always measures acceleration due to user movement or the like at a predetermined frequency (typically, about 20 to 1000 times per second). The microcomputer 10 reads the acceleration data measured by the acceleration sensor 11 by controlling communication and records it in the memory 12.

センサデバイス1は、ユーザの身体の所定の部位に取り付けられる。本実施例では、ユーザの前腕部の手首部分に取り付けられる例を説明する。   The sensor device 1 is attached to a predetermined part of the user's body. In the present embodiment, an example of attaching to the wrist portion of the user's forearm will be described.

メモリ12に記録したセンサデータは、マイコン10が通信部15を制御して、PC2又はスマートフォン3と無線又は有線で通信可能なタイミングで自動的に、或いはユーザの任意のタイミングで、PC2又はスマートフォン3に送信することができる。送信するデータは通信部15又はマイコン10の公知の機能によって暗号化することで、他のユーザなどに読み取られることなく送信することができる。また、加速度センサ11が計測したデータは、外部に送信するだけでなく、マイコン10に予めプログラムとして記録した簡易的な解析機能によって解析し、その結果として得られた例えば歩数又は消費カロリーなどを表示部14に表示することができる。   The sensor data recorded in the memory 12 is stored in the PC 2 or the smartphone 3 automatically at a timing at which the microcomputer 10 controls the communication unit 15 and can communicate with the PC 2 or the smartphone 3 by wireless or wired, or at any timing of the user. Can be sent to. Data to be transmitted can be transmitted without being read by another user or the like by being encrypted by a known function of the communication unit 15 or the microcomputer 10. The data measured by the acceleration sensor 11 is not only transmitted to the outside, but also analyzed by a simple analysis function recorded in advance in the microcomputer 10 as a program, and the resulting step count or calorie consumption, for example, is displayed. It can be displayed on the part 14.

PC2及びスマートフォン3は、センサデバイス1、及び、インターネットなどのネットワーク4に接続されたサーバ5と通信することができる。PC2及びスマートフォン3は、センサデバイス1から受信したセンサデータをサーバ5に転送することができ、また、サーバ5に記録されている公開された情報を表示および操作することができる。   The PC 2 and the smartphone 3 can communicate with the sensor device 1 and a server 5 connected to a network 4 such as the Internet. The PC 2 and the smartphone 3 can transfer the sensor data received from the sensor device 1 to the server 5, and can display and operate published information recorded in the server 5.

サーバ5は、CPU51、通信部52、メモリ54及びデータベース70から構成されている。メモリ54には、WEB表示プログラム53及び解析プログラム60が格納される。サーバ5は、PC2又はスマートフォン3から送信されたセンサデバイス1のセンサデータを解析プログラム60によって解析して人の部位の状態又は行動内容の情報に変換し、データベース70に記録する。また、サーバ5は、解析するアルゴリズム及びルール自体を生成することもできる。   The server 5 includes a CPU 51, a communication unit 52, a memory 54, and a database 70. The memory 54 stores a WEB display program 53 and an analysis program 60. The server 5 analyzes the sensor data of the sensor device 1 transmitted from the PC 2 or the smartphone 3 by the analysis program 60, converts it into information on the state of the human part or the action content, and records it in the database 70. The server 5 can also generate an algorithm to be analyzed and the rule itself.

データベース70は、例えばハードディスクドライブのような記憶装置によって構成される。解析プログラム60及びWEB表示プログラム53は、この記憶装置に格納され、必要に応じてその一部又は全部がメモリ54にコピーされてもよい。   The database 70 is configured by a storage device such as a hard disk drive. The analysis program 60 and the WEB display program 53 may be stored in this storage device, and a part or all of them may be copied to the memory 54 as necessary.

CPU51は、解析プログラム60及びWEB表示プログラム53の処理を実行し、演算することができる。すなわち、以下の説明においてこれらのプログラムが実行する処理は、実際にはCPU51がこれらのプログラムに記述された命令に従って実行する。言い換えると、CPUがこれらのプログラムを実行することによって、後述する処理を実行する機能モジュールが実現される。なお、本実施例の機能モジュールは上記の通りCPU51がプログラムを実行することによって実現されるが、これは一例であり、別の手段、例えば専用の論理回路等によって実現されてもよい。   The CPU 51 can execute and calculate the processing of the analysis program 60 and the WEB display program 53. That is, in the following description, the processing executed by these programs is actually executed by the CPU 51 in accordance with instructions described in these programs. In other words, when the CPU executes these programs, a functional module that executes processing to be described later is realized. The functional module of the present embodiment is realized by the CPU 51 executing the program as described above, but this is an example, and may be realized by another means, for example, a dedicated logic circuit.

通信部52は、ネットワーク4を介してPC2又はスマートフォン3といった他の機器と通信し、それらとの間でデータを送受信することができる。センサデバイス1からPC2又はスマートフォン3を介して受信した加速度データは、データベース70内部に記録される。   The communication unit 52 can communicate with other devices such as the PC 2 or the smartphone 3 via the network 4 and transmit / receive data to / from them. The acceleration data received from the sensor device 1 via the PC 2 or the smartphone 3 is recorded in the database 70.

WEB表示プログラム53は、データベース70に記録されたデータを、ネットワーク4を介してセンサデバイス1のユーザなどに公開することができる。解析プログラム60は、物理特徴量算出プログラム61、部位状態推定プログラム62、行動内容分類プログラム63、部位状態判別モデル生成プログラム64及び部位状態判別モデル選択プログラム65から構成される。データベース70は、加速度データ80、物理特徴量データ71、部位状態データ72、行動分類データ73、部位状態判別モデルデータ74、ユーザプロフィールデータ75及び部位・物理量教師データ76から構成される。   The WEB display program 53 can open the data recorded in the database 70 to the user of the sensor device 1 via the network 4. The analysis program 60 includes a physical feature amount calculation program 61, a part state estimation program 62, an action content classification program 63, a part state determination model generation program 64, and a part state determination model selection program 65. The database 70 includes acceleration data 80, physical feature data 71, part state data 72, action classification data 73, part state determination model data 74, user profile data 75, and part / physical quantity teacher data 76.

物理特徴量算出プログラム61は、センサデバイス1で計測されて送信された加速度データ80を処理し、人の動き又は行動に関わる特徴量を算出して物理特徴量データ71に記録するプログラムであり、大量の時系列データから必要な特徴のみを抽出することができる。   The physical feature amount calculation program 61 is a program that processes the acceleration data 80 measured and transmitted by the sensor device 1, calculates a feature amount related to human movement or behavior, and records it in the physical feature amount data 71. Only necessary features can be extracted from a large amount of time-series data.

部位状態推定プログラム62は、物理特徴量データ71をもとに、ユーザのそのときの各部位の動きを推定して部位状態データ72に記録するプログラムであり、センサデバイス1の動きの特徴から、センサデバイス1を直接装着していない部位の動きについて、予め部位状態判別モデルデータ74に記録されている各部位状態の組み合わせの統計的な特徴、分布の偏り、並びに、その特徴及び分布の偏りを分けるアルゴリズムによって推定することができる。また、部位状態推定プログラム62は、解析のもととなる加速度データ80を送信したユーザの性別、体重及び身長などの身体的特徴、並びに、趣味及び職業などのライフスタイルの特徴等の属性情報を含むユーザプロフィールデータ75のうち、部位状態判別モデル選択プログラム65が選択した一部、または全てを参照して、対応する部位状態判別モデルデータ74を選択して利用する。これは、センサデバイス1の動きと各部位の動きや状態の統計的な関連が、身体的特徴及びライフスタイルによって異なる場合があるためである。   The part state estimation program 62 is a program that estimates the movement of each part of the user at that time based on the physical feature data 71 and records it in the part state data 72. From the movement characteristics of the sensor device 1, Regarding the movement of the part where the sensor device 1 is not directly attached, the statistical characteristics of the combination of the part states, the distribution bias, and the characteristics and the distribution bias, which are recorded in the part state determination model data 74 in advance. It can be estimated by a dividing algorithm. Further, the part state estimation program 62 receives attribute information such as the gender, physical characteristics such as weight and height of the user who transmitted the acceleration data 80 that is the basis of analysis, and lifestyle characteristics such as hobbies and occupations. Among the user profile data 75 to be included, the corresponding part state determination model data 74 is selected and used by referring to a part or all of the part state determination model selection program 65 selected. This is because the statistical relationship between the movement of the sensor device 1 and the movement and state of each part may vary depending on physical characteristics and lifestyle.

行動内容分類プログラム63は、部位状態データ72をもとに、任意の数に行動内容を分類して行動分類データ73に記録するプログラムであり、行動の名前又は内容を定義することなく、もととなる各部位の状態の組み合わせのみによって日々の行動内容を分類することができる。   The action content classification program 63 is a program for classifying the action contents into an arbitrary number based on the part state data 72 and recording the action contents in the action classification data 73, without defining the name or content of the action. The daily action content can be classified only by the combination of the state of each part.

部位状態判別モデル生成プログラム64は、予め取得した部位・物理量教師データ76をもとに、部位状態判別モデルデータ74を生成するプログラムである。部位・物理量教師データ76には、日常生活における人の各部位の動きを示すモーションデータと、同時に記録したセンサデバイス1の加速度データ、又はその加速度データから算出した物理特徴量と、が含まれている。   The part state determination model generation program 64 is a program for generating part state determination model data 74 based on the part / physical quantity teacher data 76 acquired in advance. The part / physical quantity teacher data 76 includes motion data indicating the movement of each part of a person in daily life, and acceleration data of the sensor device 1 recorded at the same time, or physical feature values calculated from the acceleration data. Yes.

例えば、本実施例の行動分類システムの運用を開始する前に、センサデバイス1を装着した複数の計測対象のユーザが日常生活と同様の行動をして、センサデバイス1がその間の複数の時刻の加速度データを取得する。それと同時に、公知の技術、例えば公知の製品であるモーションキャプチャによってそれらの計測対象のユーザの複数の部位の動きを示すモーションデータが取得される。このようにして取得された加速度データ又はそれから算出した物理特徴量と、モーションデータとが、取得された時刻に基づいて対応付けられ、部位・物理量教師データ76として記録される。   For example, before starting the operation of the behavior classification system of the present embodiment, a plurality of measurement target users wearing the sensor device 1 behave in the same manner as in daily life, and the sensor device 1 has a plurality of times in between. Get acceleration data. At the same time, motion data indicating movements of a plurality of parts of the measurement target user is acquired by a known technique, for example, motion capture which is a known product. The acceleration data acquired in this way or the physical feature amount calculated therefrom and the motion data are associated with each other based on the acquired time, and are recorded as the part / physical quantity teacher data 76.

部位状態判別モデル生成プログラム64は、部位状態と物理特徴量との関連データに基づいて、それぞれの部位状態に対応する物理特徴量の統計的な特徴、分布の偏りを見出し、それに基づいて部位状態を判別するルール又はアルゴリズムを生成し、部位状態判別モデルデータ74に記録する。   The part state discriminating model generation program 64 finds statistical features and distribution bias of physical feature amounts corresponding to each part state based on the relational data between the part state and the physical feature quantity, and the part state based on the statistical feature Are generated and recorded in the part state determination model data 74.

図2は、本発明の実施例1のセンサデバイス1の外観及び加速度センサ11の典型的な配置を示す説明図である。   FIG. 2 is an explanatory diagram illustrating an appearance of the sensor device 1 according to the first embodiment of the present invention and a typical arrangement of the acceleration sensor 11.

加速度センサ11の配置によって、計測する3軸加速度の方向(X、Y、Z)が規定される。図1には例として一つのセンサデバイス1のみを示したが、実際にはサーバ5はそれぞれが異なるユーザに装着された複数のセンサデバイス1からの加速度データを処理する。解析プログラム60は、それぞれのセンサデバイス1の加速度センサ11の配置が同一の場合は、各センサデバイス1で同様の計算を実施することができる。一方、それぞれのセンサデバイス1の加速度センサ11の配置が異なる場合は、センサデバイス1が、又はセンサデバイス1から加速度データを受信したサーバ5が、向きを統一するための座標系変換の処理を実行する必要がある。   The direction of the triaxial acceleration to be measured (X, Y, Z) is defined by the arrangement of the acceleration sensor 11. Although only one sensor device 1 is shown in FIG. 1 as an example, the server 5 actually processes acceleration data from a plurality of sensor devices 1 attached to different users. The analysis program 60 can perform the same calculation in each sensor device 1 when the arrangement of the acceleration sensor 11 of each sensor device 1 is the same. On the other hand, when the arrangement of the acceleration sensor 11 of each sensor device 1 is different, the sensor device 1 or the server 5 that has received the acceleration data from the sensor device 1 executes a coordinate system conversion process for unifying the orientation. There is a need to.

図3は、本発明の実施例1のサーバ5が実行する部位状態の推定及び行動内容分類の典型的な処理手順を示す説明図である。   FIG. 3 is an explanatory diagram illustrating a typical processing procedure of part state estimation and action content classification executed by the server 5 according to the first embodiment of this invention.

具体的には、図3には、加速度データ80を、物理特徴量算出プログラム61、部位状態推定プログラム62、行動内容分類プログラム63の順に処理する手順を示す。物理特徴量算出プログラム61は、特徴量抽出処理110において、所定の時間単位の加速度データを切り出して演算を行う。切り出す区間は部位状態の推定をする時間に依存する。例えば、物理特徴量算出プログラム61は、部位状態の推定を行う時間単位が分単位であれば1分間毎の加速度データを演算し、秒単位であれば1秒間毎の加速度データを演算する。   Specifically, FIG. 3 shows a procedure for processing the acceleration data 80 in the order of the physical feature amount calculation program 61, the part state estimation program 62, and the action content classification program 63. In the feature quantity extraction processing 110, the physical feature quantity calculation program 61 cuts out acceleration data in a predetermined time unit and performs an operation. The section to be cut out depends on the time for estimating the part state. For example, the physical feature quantity calculation program 61 calculates acceleration data every minute if the time unit for estimating the part state is a minute unit, and calculates acceleration data every second if the unit is seconds.

物理特徴量算出プログラム61が算出する主な特徴量は、各軸の振幅111の所定の時間区間の平均、最大、最小及び分散などの統計値、周波数112、腕の回転角θ113及びφ114の所定の時間区間の平均や最大、最小、分散などの統計値などであるが、これらに限定せず、3軸加速度から算出される一般的な統計値又は信号処理した値を特徴量として使用することができる。   The main feature amounts calculated by the physical feature amount calculation program 61 are predetermined values of the average value, the maximum value, the minimum value, and the variance value of the amplitude 111 of each axis, the frequency 112, and the arm rotation angles θ113 and φ114. Statistical values such as average, maximum, minimum, variance, etc. of the time interval of, but not limited to, use general statistical values calculated from triaxial acceleration or signal processed values as feature quantities Can do.

ここで、腕の回転角θ113は肩又は肘を軸として腕を上げ下げする動きの量を示すピッチ角であり、腕の回転角φ114は前腕の長手方向を軸として前腕を回転させる動き、すなわち手首をひねる動きの量を示すロール角である。上記の物理特徴量はデータベース70の物理特徴量データ71に記録される。   Here, the arm rotation angle θ113 is a pitch angle indicating the amount of movement of raising and lowering the arm about the shoulder or elbow, and the arm rotation angle φ114 is a movement for rotating the forearm about the longitudinal direction of the forearm, that is, the wrist It is a roll angle indicating the amount of movement to twist. The physical feature amount is recorded in the physical feature amount data 71 of the database 70.

部位状態推定プログラム62は、同じ時間区間又は互いに近い時間区間の物理特徴量データ71から、部位状態判別モデルデータ74を用いた部位状態の推定を行い、腕の状態121、肘の角度122、腿の状態123及び姿勢124などを推定する。それぞれの部位状態の推定に必要なデータは異なるため、部位状態推定プログラム62は、物理特徴量データ71から必要なデータのみを抽出する。また、推定したいユーザのユーザプロフィールデータ75に合致するモデルを部位状態判別モデル選択プログラム65が部位状態判別モデルデータ74から選択し、部位状態推定プログラム62がそれを使用する。腕の状態121、肘の角度122、腿の状態123及び姿勢124などの部位状態はデータベース70の部位状態データ72に記録される。   The part state estimation program 62 estimates the part state using the part state determination model data 74 from the physical feature quantity data 71 in the same time interval or close to each other, and the arm state 121, the elbow angle 122, the thigh State 123 and posture 124 are estimated. Since the data necessary for estimation of each part state is different, the part state estimation program 62 extracts only necessary data from the physical feature amount data 71. Further, the part state determination model selection program 65 selects a model that matches the user profile data 75 of the user to be estimated from the part state determination model data 74, and the part state estimation program 62 uses it. Part states such as arm state 121, elbow angle 122, thigh state 123, and posture 124 are recorded in part state data 72 of database 70.

行動内容分類プログラム63は、所定の区間の部位状態データ72を参照し、各部位の状態の組み合わせの特徴が似ているデータの集合にクラスタリングすることで、行動内容を分類する。図3の例では、行動A131〜行動D134等に分類される。部位状態データ72に含まれるデータのうち、条件を制限せずに全ユーザのデータを対象としてクラスタリングを行ってもよいし、プロファイルが似ているユーザのグループのデータ、又は1ユーザに対象を限定してクラスタリングを行ってもよい。また時間区間についても例えば1週間など短い期間内の時間区間を対象としてクラスタリングを行ってもよいし、1年又は数年等の長い期間内の時間区間を対象としてもよい。対象を広げるほど汎用的な分類になるが、分類された結果が似通っている可能性が高まる。一方で、例えば短い期間内の時間区間、1ユーザのデータ、又はプロフィールが類似する複数ユーザのデータのみに対象を絞った場合は、結果が明確な分類として得られる可能性が高まるが、汎用性はなくなる。   The action content classification program 63 classifies the action contents by referring to the part state data 72 of a predetermined section and clustering it into a set of data having similar characteristics of the combination of the states of the parts. In the example of FIG. 3, it is classified into action A131 to action D134. Of the data included in the part state data 72, clustering may be performed on all users' data without limiting the conditions, or the data may be limited to a group of users with similar profiles or limited to one user. Then, clustering may be performed. As for the time interval, for example, clustering may be performed for a time interval within a short period such as one week, or a time interval within a long period such as one year or several years may be targeted. The wider the target, the more general classification, but the possibility of similar classification results increases. On the other hand, for example, when targeting only a time section within a short period, data of one user, or data of a plurality of users having similar profiles, the possibility that the result is obtained as a clear classification increases, Will disappear.

部位状態判別モデルデータ74は、予め取得した部位・物理量教師データ76から、部位状態判別モデル生成プログラム64によって生成される。部位・物理量教師データ76は、実際のユーザが取得した部位状態と物理特徴量とを対応付けるデータベースであり、部位状態判別モデル生成プログラム64は公知の機械学習などの処理によって、統計的な特徴又は分布の偏りによって判別するルール又は閾値を部位状態判別モデルデータ74として記録する。   The part state determination model data 74 is generated by the part state determination model generation program 64 from the part / physical quantity teacher data 76 acquired in advance. The part / physical quantity teacher data 76 is a database that associates the part state acquired by the actual user with the physical feature quantity, and the part state discriminating model generation program 64 performs statistical features or distributions by a known process such as machine learning. A rule or a threshold value that is discriminated based on the bias of is recorded as part state discrimination model data 74.

図4は、本発明の実施例1のサーバ5が実行する典型的な処理手順を示すフローチャートである。   FIG. 4 is a flowchart illustrating a typical processing procedure executed by the server 5 according to the first embodiment of this invention.

図4に示す処理は、物理特徴量算出プログラム61、部位状態判別モデル選択プログラム65、部位状態推定プログラム62及び行動内容分類プログラム63が順に処理を実行して、加速度センサデータをもとにその時間の各部位の動き及び状態を推定し、各部位の動き及び状態を用いて行動内容を分類することを特徴とする。   The processing shown in FIG. 4 is performed by the physical feature quantity calculation program 61, the part state determination model selection program 65, the part state estimation program 62, and the action content classification program 63 in order, and the time based on the acceleration sensor data. The movement and state of each part are estimated, and the action content is classified using the movement and state of each part.

サーバ5は、センサデバイス1で計測したデータをサーバ5が受信した後に処理S100から解析の処理を開始する。処理S101で、物理特徴量算出プログラム61は、受信した加速度センサデータから、解析する対象となる期間の加速度センサデータを読み出す。対象となる期間は、例えば、新たに受信した1ユーザの加速度センサデータのうち、未解析の期間である。次に、処理S102で、物理特徴量算出プログラム61は、読み出した加速度センサデータを演算し、物理特徴量を算出し、その結果をデータベース70の物理特徴量データ71に記録する。   The server 5 starts the analysis process from step S100 after the server 5 receives the data measured by the sensor device 1. In step S101, the physical feature quantity calculation program 61 reads acceleration sensor data for a period to be analyzed from the received acceleration sensor data. The target period is, for example, an unanalyzed period in the newly received acceleration sensor data of one user. Next, in process S <b> 102, the physical feature quantity calculation program 61 calculates the read acceleration sensor data, calculates the physical feature quantity, and records the result in the physical feature quantity data 71 of the database 70.

処理S103では、部位状態判別モデル選択プログラム65が、処理S102で読み出されたデータを計測したセンサデバイス1を身に着けていたユーザの身体情報及びライフスタイルの情報を含むユーザプロフィールデータ75を読み出して、読み出したユーザプロフィールに最も適合する部位状態判別モデル(例えば、読み出したユーザプロフィールに類似するプロフィールを持つユーザのグループから取得された部位・物理量教師データに基づいて生成された部位状態判別モデル)を部位状態判別モデルデータ74から選択する。データに対応するユーザを識別するIDは、計測した加速度センサデータに付随し、解析した結果である物理特徴量データ71及び部位状態データ72にも同様に付加される。   In process S103, the part state determination model selection program 65 reads out user profile data 75 including body information and lifestyle information of the user wearing the sensor device 1 that has measured the data read out in process S102. The part state discriminating model most suitable for the read user profile (for example, the part state discriminating model generated based on the part / physical quantity teacher data acquired from the group of users having a profile similar to the read user profile) Is selected from the part state determination model data 74. An ID for identifying a user corresponding to the data is attached to the measured acceleration sensor data, and is similarly added to the physical feature data 71 and the part state data 72, which are analysis results.

処理S104では、部位状態推定プログラム62が、解析する対象区間の物理特徴量を物理特徴量データ71から読み出して、処理S103で選択した部位状態判別モデルによって部位状態を決定し、その結果を各部位ごとに部位状態データ72に記録する。   In the process S104, the part state estimation program 62 reads out the physical feature quantity of the target section to be analyzed from the physical feature quantity data 71, determines the part state by the part state discrimination model selected in the process S103, and obtains the result for each part. Every time, it is recorded in the part state data 72.

処理S105では、行動内容分類プログラム63が、行動内容の区切りを検出するために、各部位状態を部位状態データ72から読み出し、各部位の状態の時間当たりの変化が最も大きいところを行動の変化点として検知する。このとき、行動を例えば一日単位で観測する場合においては、行動の区切りをあまり短く(例えば秒単位に)すると、人が後から区切りごとの行動を理解することが困難であるため、行動の区切りを短すぎない適切な長さ(例えば一分単位)とすることが望ましい。処理S106では、行動内容分類プログラム63が、処理S105で検知した変化点をもとに行動内容を区切ることで、各行動の区間(すなわち各行動が行われていたと推定される時間帯)を設定する。処理S107では、行動内容分類プログラム63が、区切られた行動の区間を各部位状態であるベクトルによってクラスタリングすることによって、行動内容を分類し、行動分類データ73に記録する。処理S108で本発明の典型的な処理を終了する。   In the process S105, the action content classification program 63 reads each part state from the part state data 72 in order to detect a break of the action contents, and the action change point where the change per time of the state of each part is the largest. Detect as. At this time, for example, when observing the behavior on a daily basis, if the behavior break is made too short (for example, in seconds), it is difficult for a person to understand the behavior for each break later. It is desirable to set the delimiter to an appropriate length that is not too short (for example, in units of one minute). In the process S106, the action content classification program 63 sets an action section (that is, a time zone in which each action is estimated to be performed) by dividing the action contents based on the change point detected in the process S105. To do. In the process S107, the action content classification program 63 classifies the action contents by clustering the divided action sections according to the vectors of the respective part states, and records them in the action classification data 73. In the process S108, the typical process of the present invention is terminated.

図5は、本発明の実施例1のサーバ5が部位状態判別モデルを生成するために実行する典型的な処理手順を示すフローチャートである。   FIG. 5 is a flowchart illustrating a typical processing procedure executed by the server 5 according to the first embodiment of this invention to generate the part state determination model.

具体的には、図5は、図4に示した行動分類をするための処理を実行するに当たって、予め必要となる部位状態判別モデルの生成処理について示しており、処理S200から開始される。部位状態判別モデルの生成には、予め判別モデルを生成したい部位のモーションデータと、そのモーションデータと同時間にセンサデバイス1で計測した加速度データと、の双方が、統計的な判別が可能な時間長さの分だけ必要である。   Specifically, FIG. 5 shows a part state determination model generation process that is necessary in advance for executing the process for classifying the behavior shown in FIG. 4, and starts from process S200. In the generation of the part state determination model, the time in which both the motion data of the part for which the determination model is to be generated in advance and the acceleration data measured by the sensor device 1 at the same time as the motion data can be statistically determined Only the length is necessary.

処理S201では、部位状態判別モデル生成プログラム64が、予め計測した解析する期間のモーションデータを読み出す。処理S202では、部位状態判別モデル生成プログラム64は、処理S201で取得したモーションデータと同じ時刻から始まる同じ時間長さの加速度データ80を読み出す。   In process S201, the part state determination model generation program 64 reads motion data of a period to be analyzed that has been measured in advance. In process S202, the part state determination model generation program 64 reads acceleration data 80 having the same time length starting from the same time as the motion data acquired in process S201.

処理S203では、部位状態判別モデル生成プログラム64は、解析するモーションデータ、及び加速度データを計測した対象であるユーザのプロフィールデータ75を読み出す。ユーザのプロフィールデータ75は、モーションデータ及び加速度データを計測した対象であるユーザの身体情報及びライフスタイル等を示す属性情報である。   In the process S203, the part state determination model generation program 64 reads out the profile data 75 of the user who is the target for measuring the motion data to be analyzed and the acceleration data. The user profile data 75 is attribute information indicating the physical information, lifestyle, and the like of the user who has measured motion data and acceleration data.

このようなプロフィールによって、腕などの動きと他の直接計測していない部位との関連付けが異なる場合に、プロフィールが類似するユーザのグループごとに判別モデルを生成することによって、行動の分類の精度を上げるために、ユーザプロフィールデータ75を使用することができる。ただし、例えばそれほど高い精度が要求されない場合、又は、プロフィールを考慮しなくても十分な精度の分類が可能であると考えられる場合等には、部位状態判別モデル生成プログラム64は、ユーザプロフィールデータ75を取得せずに、全ユーザに共通する判別モデルを生成してもよい。いずれの場合も、実際に計測されたデータに基づいて判別モデルを生成することによって、精度の高い分類が可能になる。   If the association between the movement of the arm and other parts that are not directly measured depends on the profile, generating a discriminant model for each group of users with similar profiles increases the accuracy of action classification. User profile data 75 can be used to raise. However, for example, when a very high accuracy is not required, or when it is considered that a sufficiently accurate classification is possible without considering the profile, the part state determination model generation program 64 uses the user profile data 75. A discrimination model that is common to all users may be generated without acquiring. In any case, it is possible to classify with high accuracy by generating a discrimination model based on actually measured data.

処理S204では、部位状態判別モデル生成プログラム64は、解析する時間単位を設定する。時間単位は、例えば、分単位又は秒単位などであり、判別したい部位の動きに適した時間単位を設定してもよいし、得たい部位状態の粒度によって設定することもできる。例えば、最終的に分類したい行動が分単位で判別される場合、部位状態も分単位で判別した結果をデータベース70に記録することが望ましい。   In process S204, the part state determination model generation program 64 sets a time unit to be analyzed. The time unit is, for example, a minute unit or a second unit, and a time unit suitable for the movement of the part to be determined may be set, or may be set according to the granularity of the part state to be obtained. For example, when the action to be finally classified is determined by the minute unit, it is desirable to record the result of determining the part state by the minute unit in the database 70.

処理S205では、部位状態判別モデル生成プログラム64は、処理S204で設定した時間単位で、物理特徴量を算出する。処理S206では、部位状態判別モデル生成プログラム64は、モーションデータから処理S205で設定した時間単位で定義した部位状態を読み出す。処理S205及びS206で取得した部位状態と物理特徴量を教師データ76とする。処理S207では、部位状態判別モデル生成プログラム64は、公知の機械学習などの統計的な判別分析手法によって判別モデルを生成する。部位状態判別モデル生成プログラム64は、処理S207で生成した判別モデルを、処理S203で取得したユーザのプロフィール情報と関連付けて部位状態判別モデルデータ74に記録する。   In process S205, the part state determination model generation program 64 calculates a physical feature amount in units of time set in process S204. In the process S206, the part state determination model generation program 64 reads the part state defined by the time unit set in the process S205 from the motion data. The part state and physical feature obtained in steps S205 and S206 are used as teacher data 76. In process S207, the part state discrimination model generation program 64 generates a discrimination model by a statistical discriminant analysis method such as known machine learning. The part state determination model generation program 64 records the determination model generated in step S207 in the part state determination model data 74 in association with the user profile information acquired in step S203.

図6は、本発明の実施例1のセンサデバイス1によって計測可能な腕の3軸加速度データから算出可能な2種類の典型的な物理特徴量を示す説明図である。   FIG. 6 is an explanatory diagram illustrating two types of typical physical feature quantities that can be calculated from the three-axis acceleration data of the arm that can be measured by the sensor device 1 according to the first embodiment of the present invention.

ゼロクロス回数202は、加速度波形201が単位時間あたりに所定の閾値を超えて変化した回数を合計したものである。また、ピッチ角(θ)211はセンサデバイス1の地面に対する上げ下げによって生じる角度(言い換えると、前腕の長手方向の向き、例えば水平面と前腕の長手方向とがなす角度)であり、ロール角(φ)212は前腕の長手方向を軸とした前腕の回転角を示している。   The number of zero crossings 202 is the total number of times that the acceleration waveform 201 has changed beyond a predetermined threshold per unit time. The pitch angle (θ) 211 is an angle generated by raising and lowering the sensor device 1 with respect to the ground (in other words, the longitudinal direction of the forearm, for example, the angle formed by the horizontal plane and the longitudinal direction of the forearm), and the roll angle (φ). Reference numeral 212 denotes a rotation angle of the forearm about the longitudinal direction of the forearm.

具体的には、センサデバイス1が計測した3軸加速度データから、重力加速度の方向(すなわち鉛直方向)に対する当該センサデバイス1の向きが計算される。例えば、時刻tにおけるX、Y、Z軸方向(図2参照)の加速度がそれぞれx(t)、y(t)、z(t)である場合、時刻tにおけるピッチ角θ(t)及びロール角φ(t)は、それぞれ式(1)及び(2)によって計算される。   Specifically, the orientation of the sensor device 1 with respect to the direction of gravitational acceleration (ie, the vertical direction) is calculated from the triaxial acceleration data measured by the sensor device 1. For example, when accelerations in the X, Y, and Z axis directions (see FIG. 2) at time t are x (t), y (t), and z (t), respectively, pitch angle θ (t) and roll at time t The angle φ (t) is calculated by equations (1) and (2), respectively.

図7は、本発明の実施例1のセンサデバイス1によって計測可能な腕の3軸加速度データから判別可能な典型的な部位状態を示す説明図である。   FIG. 7 is an explanatory diagram illustrating a typical part state that can be discriminated from the triaxial acceleration data of the arm that can be measured by the sensor device 1 according to the first embodiment of the present invention.

部位状態として腿の状態を例示すると、腿の角度に応じた部位状態として立位状態221及び座位状態222が定義され、部位状態推定プログラム62がそれぞれの時間における腿の部位状態を判別する。日常動作において、立位と座位のそれぞれにおける腕の使い方が大きく異なるため、腕に取り付けたセンサデバイス1の3軸加速度データから統計的な判別が可能となる。また、肘の部位状態を例示すると、肘伸ばし状態223及び肘曲げ状態224等が定義される。この例でも、肘の状態に応じた腕の使い方の相違に基づいて、統計的に肘の部位状態を判別することができる。すなわち、腕の加速度データのみからは、図6のピッチ角211しかわからないが、加速度の変化方向及び強さによって、肘を曲げて腕を動かしたことによる加速度の変化と、肘を曲げないで肩を軸として腕を動かしたことによる加速度の変化とを区別することができる。   When the thigh state is exemplified as the part state, the standing state 221 and the sitting state 222 are defined as the part states corresponding to the thigh angle, and the part state estimation program 62 determines the thigh part state at each time. In daily operations, the usage of the arm in the standing position and the sitting position is greatly different, so that statistical determination can be made from the three-axis acceleration data of the sensor device 1 attached to the arm. Moreover, when the part state of an elbow is illustrated, the elbow extension state 223, the elbow bending state 224, etc. are defined. Also in this example, based on the difference in how to use the arm according to the state of the elbow, the part state of the elbow can be statistically determined. That is, from only the acceleration data of the arm, only the pitch angle 211 in FIG. 6 is known, but depending on the direction and strength of the change in acceleration, the change in acceleration caused by moving the arm by bending the elbow and the shoulder without bending the elbow It can be distinguished from the change in acceleration caused by moving the arm around the axis.

図8は、本発明の実施例1のサーバ5が部位状態データ72から行動の変化点を検知し、行動内容を区切る典型的な方法を示す説明図である。   FIG. 8 is an explanatory diagram showing a typical method in which the server 5 according to the first embodiment of the present invention detects a behavior change point from the part state data 72 and divides the behavior content.

図8には、腿、肘及び腕の部位状態を使用する例を示す。この場合、腿状態231、肘状態232、腕状態233はそれぞれ連続的又は離散的な値となる。例えば、腿状態231を示すg(t)は、立位又は座位のいずれかを示す離散的な値であってもよいし、肘状態232を示すh(t)及び腕状態233を示すk(t)は、それぞれ、肘及び腕の角度を示す離散的な値であってもよい。   FIG. 8 shows an example in which the thigh, elbow, and arm region states are used. In this case, the thigh state 231, the elbow state 232, and the arm state 233 each have a continuous or discrete value. For example, g (t) indicating the thigh state 231 may be a discrete value indicating either standing or sitting, h (t) indicating the elbow state 232, and k ( t) may be discrete values indicating the elbow and arm angles, respectively.

行動内容分類プログラム63は、腿状態231、肘状態232及び腕状態233の総合的な変化を変化量234として算出する。変化量234を示す値f(t)は、例えば式(3)によって算出される。これは、それぞれの部位状態を示す値の変化量に所定の重み係数a、b、cを掛けて合計した値である。部位状態を示す値の変化量は、時刻tに推定された部位状態とその前の時刻t−iに推定された部位状態との差であり、iは例えば部位状態の推定を実行する時間間隔であってもよい。   The action content classification program 63 calculates a total change of the thigh state 231, the elbow state 232, and the arm state 233 as the change amount 234. A value f (t) indicating the change amount 234 is calculated by, for example, Expression (3). This is a value obtained by multiplying a change amount of a value indicating each part state by a predetermined weighting coefficient a, b, c, and totaling them. The amount of change in the value indicating the part state is the difference between the part state estimated at time t and the part state estimated at the previous time ti, where i is a time interval for executing part state estimation, for example. It may be.

f(t)=a(g(t)-g(t-i))+b(h(t)-h(t-i))+c(k(t)-k(t-i)) ・・・(3) f (t) = a (g (t) -g (t-i)) + b (h (t) -h (t-i)) + c (k (t) -k (t-i)) (3)

行動内容分類プログラム63は、この変化量234が所定の閾値235を超えた点を変化点236として検出する(S105)。実際の行動の内容が変化するときには部位状態も変化する可能性が高いため、部位状態の変化量に基づくことで適切に行動を区切ることができると期待される。閾値235は、変化点236の間隔が常に一定の長さ以上となるように設定するのが望ましい。ここで一定の長さとは、人が後から振り返って何をしていたかを認識可能な長さ、例えば10分以上が適している。変化点236に区切られた行動238、239などが、それぞれ行動内容を分類する区間(すなわちそれぞれの行動が行われていたと推定される時間帯)となる。   The action content classification program 63 detects a point where the amount of change 234 exceeds a predetermined threshold 235 as a change point 236 (S105). When the content of the actual action changes, there is a high possibility that the part state also changes. Therefore, it is expected that the action can be appropriately divided based on the change amount of the part state. The threshold value 235 is desirably set so that the interval between the change points 236 is always a certain length or more. Here, the certain length is suitable for a length that allows a person to recognize what he / she was doing later, for example, 10 minutes or more. Actions 238, 239 and the like divided by the change points 236 are sections for classifying the action contents (that is, time zones where each action is estimated to have been performed).

図9は、本発明の実施例1のサーバ5が保持する物理特徴量データ71の構成例を示す説明図である。   FIG. 9 is an explanatory diagram illustrating a configuration example of the physical feature amount data 71 held by the server 5 according to the first embodiment of this invention.

物理特徴量データ71の1行が、1ユーザの、1時間単位のデータを示している。ユーザID301はユーザを識別するためのIDである。日時302は、データを計測した実際の日時を示しており、部位状態の判別に適した時間単位となっている。例えば、分単位の部位状態を判別する場合においては、日時302に示すように分単位の物理特徴量を算出ことが望ましい。ゼロクロス303、304、305はそれぞれ、図8に示した方式で算出したX、Y、Z軸のゼロクロス回数を示している。加速度波形の特徴となる物理量として、他に振幅及び微分値の時間単位中の最大、最小、平均、分散などの統計値が適用可能である。最大角度306、307はそれぞれがピッチ角(θ)211、ロール角(φ)212の単位時間中の最大値を示している。この他に、計測値の最小値、平均値、分散などの統計値を物理特徴量として適用できる。   One row of the physical feature amount data 71 indicates one hour unit data of one user. A user ID 301 is an ID for identifying a user. The date and time 302 indicates the actual date and time when the data is measured, and is a time unit suitable for determining the part state. For example, when determining the part state in minutes, it is desirable to calculate the physical feature value in minutes as shown by the date 302. Zero crosses 303, 304, and 305 respectively indicate the number of zero crosses of the X, Y, and Z axes calculated by the method shown in FIG. As physical quantities that are characteristic of the acceleration waveform, other statistical values such as maximum, minimum, average, and variance in time units of amplitude and differential value can be applied. The maximum angles 306 and 307 respectively indicate the maximum values of the pitch angle (θ) 211 and roll angle (φ) 212 during the unit time. In addition, statistical values such as minimum values, average values, and variances of measured values can be applied as physical feature amounts.

図10は、本発明の実施例1における部位状態判別モデルの第1の例の説明図である。   FIG. 10 is an explanatory diagram of a first example of the part state determination model according to the first embodiment of the present invention.

具体的には、図10は、立位状態221と座位状態222の物理特徴量の、物理特徴量空間内の分布241、242の例を示している。これらは、図7に示した立位状態221と座位状態222とを判別する判別モデルとなる。   Specifically, FIG. 10 shows an example of distributions 241 and 242 in the physical feature amount space of the physical feature amounts in the standing state 221 and the sitting state 222. These are the discrimination models for discriminating between the standing state 221 and the sitting state 222 shown in FIG.

人の日常生活において、立っている場合と座っている場合においては、手の使い方の制約が異なるため、腕の動きを示す物理特徴量に、統計的な偏りが生じる。この偏りによって、公知の機械学習による判別分析手法で物理特徴量を分布241及び242に分けることで、物理特徴量によって、腿の向きが立位状態221又は座位状態222のいずれであるかの判別が可能となる。他の部位についても同様な判別が可能である。また、この判別モデルはユーザのライフスタイル及び体格などにも依存しているため、事前に知りうるユーザプロフィール情報に基づいてユーザを互いに類似するプロフィールを持つユーザのグループに分けて判別モデルを生成することが最適である。   In a person's daily life, there is a statistical bias in the physical feature amount indicating the movement of the arm because the restrictions on how to use the hand are different between standing and sitting. Based on this bias, the physical feature is divided into distributions 241 and 242 by a known machine learning discriminant analysis method, so that whether the thigh is in the standing state 221 or the sitting state 222 is determined based on the physical feature. Is possible. Similar discrimination is possible for other parts. In addition, since this discriminant model also depends on the user's lifestyle and physique, the discriminant model is generated by dividing the user into groups of users having similar profiles based on user profile information that can be known in advance. Is optimal.

図11は、本発明の実施例1における部位状態判別モデルの第2の例の説明図である。   FIG. 11 is an explanatory diagram of a second example of the part state determination model according to the first embodiment of the present invention.

具体的には、図11は、それぞれが上腕の状態である状態251、252、253の間の遷移モデルを示している。これらは、上腕の向きを判別する判別モデルであり、図7に示した肘曲げ状態224、肘伸ばし状態223を推定するために必要となる。   Specifically, FIG. 11 shows a transition model between states 251, 252, and 253, each of which is an upper arm state. These are discrimination models for discriminating the direction of the upper arm, and are necessary for estimating the elbow bending state 224 and the elbow extension state 223 shown in FIG.

通常、前腕(本実施例では、手首)に付けた加速度センサの角度だけでは、上腕の角度を知ることができない。図11に示す遷移モデルは、計測された加速度から特定される前腕の振りの向き及び強さによって、それぞれの上腕の状態から別の上腕の状態への遷移を定義することによって、次の上腕の向きを推定するものである。この遷移モデルは、日常動作においては、腕が下向きのときに、高確率で上腕も下向きであることに基づいて、下向きの状態252を起点としており、下向きからの振り上げの強さによって、状態251(すなわち上腕が上を向いている状態)又は状態253(すなわち上腕が横方向(水平方向)を向いている状態)への遷移を区別することができる。部位状態判別モデルデータ74は、上記のような、ある時点の部位状態をそれより前の時点の部位状態に基づいて判別するためのルールを含んでもよい。部位状態他の部位についても同様の方法で状態を判別できる場合がある。このように状態遷移の確率を考慮した判別モデルを生成することによって、高精度な行動の分類が可能になる。   Usually, the angle of the upper arm cannot be known only from the angle of the acceleration sensor attached to the forearm (in this embodiment, the wrist). The transition model shown in FIG. 11 defines the transition from the state of each upper arm to the state of another upper arm according to the direction and strength of the forearm swing specified from the measured acceleration. The direction is estimated. In the daily movement, this transition model starts from the downward state 252 based on the fact that the upper arm is downward with high probability when the arm is downward, and the state 251 depends on the strength of the upward swing. A transition to a state (that is, a state where the upper arm faces upward) or a state 253 (that is, a state where the upper arm faces the horizontal direction (horizontal direction)) can be distinguished. The part state discriminating model data 74 may include a rule for discriminating the part state at a certain point of time based on the part state at a point before that as described above. In some cases, it is possible to determine the state of other parts by the same method. In this way, by generating a discrimination model that takes into account the probability of state transition, it becomes possible to classify actions with high accuracy.

図12は、本発明の実施例1のサーバ5が保持する部位状態データ72の第1の構造例を示す説明図である。   FIG. 12 is an explanatory diagram illustrating a first structure example of the part state data 72 held by the server 5 according to the first embodiment of this invention.

図12は、特に、分単位の判別に適した部位についてのデータ構造の例を示す。部位状態データ72の1行が1ユーザの時間単位ごとのデータを示している。ユーザID311は、センサデバイス1を装着するユーザを識別するための情報であり、センサデバイス1で計測した際に計測値のデータに付加され、解析後もその計測値から算出された特徴量、部位状態等の値に引き継がれる。日時312はセンサデバイス1で加速度を計測した日時をもとに付加される情報である。腿状態313は図7に示した立位状態221と座位状態222の判別結果を2値で(例えば一方を0、もう一方を1で)示す。同様に、姿勢状態314は体が寝た状態か立っている状態か(言い換えると体全体の向き)を2値で示す。日常生活における各部位と腕の関係のデータから判別モデルを同様に作成することで、上記の腿状態313及び姿勢状態314以外の部位状態の項目を増やすことができる。   FIG. 12 shows an example of a data structure for a part that is particularly suitable for discrimination in minutes. One row of the part state data 72 shows data for each user's time unit. The user ID 311 is information for identifying the user who wears the sensor device 1, and is added to the measurement value data when measured by the sensor device 1, and the feature amount and part calculated from the measurement value after analysis It is carried over to values such as state. The date and time 312 is information added based on the date and time when the acceleration is measured by the sensor device 1. The thigh state 313 indicates the discrimination result between the standing state 221 and the sitting state 222 shown in FIG. 7 in binary (for example, one is 0 and the other is 1). Similarly, the posture state 314 indicates whether the body is in a sleeping state or standing state (in other words, the orientation of the whole body) in binary. By similarly creating a discrimination model from data on the relationship between each part and arm in daily life, items of part states other than the above thigh state 313 and posture state 314 can be increased.

図13は、本発明の実施例1のサーバ5が保持する部位状態データ72の第2の構造例を示す説明図である。   FIG. 13 is an explanatory diagram illustrating a second structure example of the part state data 72 held by the server 5 according to the first embodiment of this invention.

図13は、特に、秒単位の判別に適した部位についてのデータ構造の例を示す。部位状態データ72の1行が1ユーザの時間単位ごとのデータを示している。ユーザID321は、図12のユーザID311と同様に、センサデバイス1を装着するユーザを識別するための情報であり、センサデバイス1で計測した際に付加され、解析後も引き継がれる。日時322はセンサデバイス1で加速度を計測した日時をもとに付加される情報である。肘状態323は図7に示した肘曲げ状態224、肘伸ばし状態223の判別結果を連続値すなわち角度で示す。上腕状態324は上腕の状態を離散値で(例えば、上向き、横向き、下向きのそれぞれに0、1、2といった値を割り当てることによって)示すものであり、図11に示す判別モデル例に基づく判別結果である。日常生活における各部位と腕の関係のデータから判別モデルを同様に作成することで、上記の肘状態323及び上腕状態324以外の部位状態の項目を増やすことができる。   FIG. 13 shows an example of a data structure for a part particularly suitable for discrimination in seconds. One row of the part state data 72 shows data for each user's time unit. The user ID 321 is information for identifying the user wearing the sensor device 1, as with the user ID 311 in FIG. 12, is added when measured by the sensor device 1, and is inherited after analysis. Date and time 322 is information added based on the date and time when the sensor device 1 measured acceleration. The elbow state 323 indicates the determination result of the elbow bending state 224 and the elbow extension state 223 shown in FIG. The upper arm state 324 indicates the state of the upper arm with discrete values (for example, by assigning values such as 0, 1, and 2 to upward, lateral, and downward, respectively), and a discrimination result based on the discrimination model example shown in FIG. It is. By creating a discrimination model in the same manner from data on the relationship between each part and arm in daily life, items of part states other than the elbow state 323 and the upper arm state 324 can be increased.

図14は、本発明の実施例1のサーバ5が保持する物理特徴量データ71の構成例を示す説明図である。   FIG. 14 is an explanatory diagram illustrating a configuration example of the physical feature amount data 71 held by the server 5 according to the first embodiment of this invention.

物理特徴量データ71の1行が、1ユーザの、時間単位ごとのデータを示しており、図14は、特に、時間単位が秒単位の部位状態判別を行う場合に必要となる秒単位の物理特徴量の例を示している。   One row of the physical feature data 71 shows data for each user for each time unit. FIG. 14 shows physical data in units of seconds that are particularly necessary when performing site state determination in units of seconds. The example of the feature-value is shown.

ユーザID331はユーザを識別するためのIDである。日時332は、データを計測した実際の日時を示しており、部位状態の判別に適した時間単位となっている。振幅333、334、335はそれぞれ、図8に示した方法で算出したX、Y、Z軸の加速度の強さの時間単位あたりの平均値を示している。加速度波形の特徴となる物理量として、他にゼロクロス回数、微分値の時間単位中の最大、最小、平均、分散などの統計値が適用可能である。平均角度336、337はそれぞれがピッチ角211、ロール角212の単位時間中の平均値を示している。この他に、ピッチ角211及びロール角212の最小値、最大値、分散などの統計値を物理特徴量として適用できる。   The user ID 331 is an ID for identifying the user. The date and time 332 indicates the actual date and time when the data is measured, and is a time unit suitable for determining the part state. Amplitudes 333, 334, and 335 respectively represent average values per unit of acceleration intensity of the X, Y, and Z axes calculated by the method illustrated in FIG. As physical quantities that are characteristic of the acceleration waveform, other statistical values such as the number of zero crossings and the maximum, minimum, average, and variance in the time unit of the differential value can be applied. The average angles 336 and 337 indicate the average values of the pitch angle 211 and the roll angle 212 during the unit time, respectively. In addition, statistical values such as the minimum value, maximum value, and variance of the pitch angle 211 and the roll angle 212 can be applied as physical feature amounts.

図15は、本発明の実施例1のサーバ5による行動内容の分類の例を示す説明図である。   FIG. 15 is an explanatory diagram illustrating an example of action content classification by the server 5 according to the first embodiment of this invention.

行動内容分類プログラム63は、部位状態データ72に記録されている複数の部位状態を用いて変化点検知を行い、変化点によって区切られた行動区間ごとに、その行動区間に対応するユーザの複数の部位状態(例えば腿状態、姿勢状態、肘状態、上腕状態等)の値を要素とする部位状態ベクトルを生成する。図15は、そのようにして生成された、例えば複数のユーザの複数の行動区間の部位状態ベクトルの部位状態ベクトル空間における分布の例を示している。   The action content classification program 63 performs change point detection using a plurality of part states recorded in the part state data 72, and for each action section delimited by the change points, a plurality of user's corresponding to the action section are detected. A part state vector having elements of part state values (for example, thigh state, posture state, elbow state, upper arm state, etc.) is generated. FIG. 15 shows an example of the distribution in the part state vector space of the part state vectors of the plurality of action sections of the plurality of users generated as described above, for example.

ユーザの行動の内容によって部位状態の値の統計的な特徴や分布の偏りが異なることから、行動内容分類プログラム63は、部位状態ベクトルをクラスタリングすることによって、各行動区間の行動を分類することができる(S107)。図15の例では、クラスタリングによって行動内容が行動分類261〜264に分類される。同一のクラスタに分類された行動区間では、部位状態の偏りが互いに類似することから、同種の(同一又は類似する内容の)行動が行われていたと推定される。クラスタリングの具体的な方法は、公知の任意の方法を使用できるため、詳細な説明を省略する。   Since the statistical features and distribution bias of the part state values differ depending on the content of the user's action, the action content classification program 63 can classify the action of each action section by clustering the part state vector. Yes (S107). In the example of FIG. 15, the action content is classified into action classifications 261 to 264 by clustering. In the action sections classified into the same cluster, since the bias of the part state is similar to each other, it is estimated that the same kind of action (having the same or similar contents) was performed. As a specific method of clustering, any known method can be used, and thus detailed description thereof is omitted.

このような部位状態に基づく行動内容の分類によって、ひとつひとつの行動に名前を定義することなく、また、網羅性などを考慮しなくても、部位状態の特徴によって網羅的に行動内容を把握することができる。また、部位状態から実際の行動内容の名称を類推することができる。   By classifying action contents based on such part states, it is possible to comprehensively grasp the action contents according to the characteristics of the part state without defining a name for each action and considering comprehensiveness. Can do. Also, the name of the actual action content can be inferred from the part state.

図16は、本発明の実施例1のサーバ5が保持する行動分類データ73のデータ構造例を示す説明図である。   FIG. 16 is an explanatory diagram illustrating a data structure example of the action classification data 73 held by the server 5 according to the first embodiment of this invention.

行動分類データ73の1行に1ユーザの1行動区間の行動が記録されており、部位状態の変化点によって区切られた行動区間の時間幅と、その分類のIDが記録されていることを特徴とする。ユーザID351はユーザを識別するためのIDである。開始時刻352及び終了時刻353はそれぞれ行動の1区間の開始及び終了の日時を示している。また、行動354は、分類された行動のID又は名称を記録する。   The behavior of one action section of one user is recorded in one line of the action classification data 73, and the time width of the action section delimited by the change point of the part state and the ID of the classification are recorded. And The user ID 351 is an ID for identifying the user. The start time 352 and the end time 353 indicate the start and end dates and times of one section of the action, respectively. The action 354 records the ID or name of the classified action.

図17は、本発明の実施例1のサーバ5が行動記録を表示するために出力する画面の構成例を示す説明図である。   FIG. 17 is an explanatory diagram illustrating a configuration example of a screen that the server 5 according to the first embodiment of the present invention outputs in order to display an action record.

図17に示す画面401は、部位状態データ72、および行動分類データ73に基づいて、ユーザの1日の行動内容を表示するものであり、各行動区間における動きの内容を部位状態データによって具体的に示し、そこから想定される実際の行動の候補を表示し、ユーザが実際の行動内容を入力してその結果を記録することができる。行動内容表示402は、部位状態の変化によって区切られた行動区間を、行動を分類した結果によって(例えば同種の行動が行われたと推定される行動区間を同色で表示することによって)色分けし、時系列で表示できる。このような色分けは表示の方法の一例であり、行動を分類した結果を読み取れる方法である限り、例えば行動の内容を模様、記号又は文字によって区別するなど、種々の方法を採用することができる。これによって、ユーザは行動を分類した結果を容易に認識することができる。   A screen 401 shown in FIG. 17 displays the daily action contents of the user based on the part state data 72 and the action classification data 73, and the contents of the movement in each action section are concretely indicated by the part state data. The candidate of the actual action assumed from there is displayed, and the user can input the actual action content and record the result. The action content display 402 color-codes the action section divided by the change in the part state according to the result of classifying the action (for example, by displaying the action section estimated to be the same kind of action in the same color), Can be displayed in series. Such color coding is an example of a display method, and various methods can be employed such as, for example, distinguishing the content of an action by a pattern, a symbol, or a character as long as the result of classifying the action can be read. Thereby, the user can easily recognize the result of classifying the behavior.

行動内容表示403は、行動内容表示402に表示された複数の行動区間から選択したひとつの行動区間の内容を具体的に示すものである。例えば、行動内容表示403は、選択した行動区間の行動分類が部位状態のベクトル空間のどの位置に特徴付けられるかを示す図403Aと、部位状態から特定される人の形状によってユーザの動きを示す図403Bと、行動の名称の候補403Cと、ユーザが実際の行動の名称を入力するフォーム403Dと、を示すことができる。   The action content display 403 specifically indicates the contents of one action section selected from the plurality of action sections displayed on the action content display 402. For example, the action content display 403 shows the movement of the user according to the shape of the person specified from the part state and FIG. 403A showing the position in the vector space of the part state that the action classification of the selected action section is characterized FIG. 403B, an action name candidate 403C, and a form 403D in which the user inputs an actual action name can be shown.

ユーザがフォーム403Dに入力した行動の名称はデータベースなどに記録され、ユーザ本人から、他のユーザの同じ行動分類において、名称の候補として参照することができる。本画面401によって、ユーザの多様な行動を網羅的に可視化し、また、正しい名称の入力を促して収集することができる。   The name of the action entered by the user in the form 403D is recorded in a database or the like, and can be referred to as a name candidate in the same action classification of another user from the user himself / herself. By this screen 401, various actions of the user can be comprehensively visualized, and input of correct names can be promoted and collected.

例えば、図403Aには、処理S107で生成された部位状態ベクトルのクラスタのうち、選択された行動区間の部位状態ベクトルを含むクラスタが表示される。図403Bには、当該クラスタに属する部位状態ベクトルから特定されるユーザの各部位の状態が表示される。例えば、図403Bに例示するように、特定されたユーザの各部位の状態から推定される、座位、上腕が横向き(水平)、かつ前腕が水平、といったユーザの体の形状が図示されてもよい。行動の名称の候補403Cには、ユーザの体の形状から推定される行動の名称の候補が表示される。例えば、座位、上腕が水平、かつ前腕が水平の場合、「PC作業」及び「車の運転」等が候補として挙げられる。   For example, in FIG. 403A, a cluster including the part state vector of the selected action section among the parts state vector clusters generated in step S107 is displayed. In FIG. 403B, the state of each part of the user specified from the part state vector belonging to the cluster is displayed. For example, as illustrated in FIG. 403B, the shape of the user's body, such as the sitting position, the upper arm facing sideways (horizontal), and the forearm horizontal, estimated from the state of each part of the identified user may be illustrated. . Action name candidates 403 </ b> C display action name candidates estimated from the shape of the user's body. For example, if the sitting position, the upper arm is horizontal, and the forearm is horizontal, “PC work”, “car driving”, and the like are listed as candidates.

ユーザは、これらの表示を参照して、自分がこの行動区間の時間帯に実際に行っていた行動を思い出して、その実際の行動に該当する名称が候補として表示されている場合、それを選択してフォーム403Dに入力することができる。実際の行動に該当する名称が候補として表示されていない場合、ユーザは、その名称をフォーム403Dに入力することもできる。   The user refers to these displays, recalls the action he / she actually performed during the time zone of this action section, and selects the name corresponding to the actual action if it is displayed as a candidate To form 403D. When the name corresponding to the actual action is not displayed as a candidate, the user can input the name in the form 403D.

このようにして入力された名称は、次回以降に表示される別の行動区間に関する名称の候補403Cとして表示することができる。具体的には、当該別の行動区間の部位状態ベクトルが、以前に名称を入力された行動区間の部位状態ベクトルと同一のクラスタに属する(すなわち同種の行動に分類された)場合、当該入力された名称を名称の候補403Cとして表示することができる。   The name input in this manner can be displayed as a candidate name 403C for another action section displayed after the next time. Specifically, when the part state vector of the other action section belongs to the same cluster as the part state vector of the action section whose name has been previously input (that is, classified into the same kind of action), the input is performed. The name can be displayed as a name candidate 403C.

例えば、Web表示プログラム53が画面401を表示するための画面データを作成して出力し、サーバ5がネットワーク4を経由してその画面データをPC2又はスマートフォン3に送信し、PC2又はスマートフォン3がこの画面データに基づいて画面401を表示してもよい。この場合、PC2又はスマートフォン3が表示装置として使用される。さらに、フォーム401Dへの入力は、PC2又はスマートフォン3に対して行われてもよい。この場合、PC2又はスマートフォン3が入力装置として使用される。以下に説明する分析画面411及び421についても同様である。   For example, the Web display program 53 creates and outputs screen data for displaying the screen 401, the server 5 transmits the screen data to the PC 2 or the smartphone 3 via the network 4, and the PC 2 or the smartphone 3 The screen 401 may be displayed based on the screen data. In this case, the PC 2 or the smartphone 3 is used as a display device. Furthermore, the input to the form 401D may be performed on the PC 2 or the smartphone 3. In this case, the PC 2 or the smartphone 3 is used as an input device. The same applies to analysis screens 411 and 421 described below.

図18は、本発明の実施例1のサーバ5が行動分析の結果を表示するために出力する画面の第1の構成例を示す説明図である。   FIG. 18 is an explanatory diagram illustrating a first configuration example of a screen that the server 5 according to the first embodiment of the present invention outputs in order to display the result of the behavior analysis.

図18に示す分析画面411は、センサデバイス1のユーザ、又はセンサデバイス1のユーザに健康アドバイスをする指導者が閲覧する画面の一例であり、センサデバイス1が計測した加速度データとは別途記録した毎日の体重増加と関係性の高い行動内容を分析してその結果を表示することを特徴とする。分析画面411は、関連する行動の割合表示412と、行動内容表示413及び414と、によって構成される。行動内容表示413は、体重増加と関連の高い行動内容が、毎日の生活の中で高い(例えば所定の値以上の)頻度で現れる時間帯を示している。この時間帯の表示と、割合表示412とを合わせて、指導者又はユーザ自身がその当時のユーザの実際の行動内容を想起することを促すことができる。   The analysis screen 411 shown in FIG. 18 is an example of a screen viewed by a user of the sensor device 1 or a leader who gives health advice to the user of the sensor device 1, and is recorded separately from the acceleration data measured by the sensor device 1. It is characterized by analyzing behavioral contents highly related to daily weight gain and displaying the results. The analysis screen 411 includes a related action ratio display 412 and action content displays 413 and 414. The action content display 413 indicates a time zone in which action contents highly related to weight gain appear at a high frequency (for example, a predetermined value or more) in daily life. By combining the display of this time zone and the ratio display 412, it is possible to encourage the instructor or the user to recall the actual action content of the user at that time.

また、行動内容表示414は、推定される行動内容の動きを人の形状で示し、その形状に対応する名称の候補と、当該行動が行われる時間の増減を促すなどのアドバイスを示すことができる。人の形状及びそれに対応する名称の候補は、図17を参照して説明したものと同様の方法で、行動内容分類プログラム63等が特定することができる。   In addition, the action content display 414 can indicate the movement of the estimated action content in the form of a person, and can provide a candidate for a name corresponding to the shape and advice such as prompting increase or decrease in the time during which the action is performed. . The action shape classification program 63 and the like can specify the human shape and the corresponding name candidate in the same manner as described with reference to FIG.

推定される行動内容に対応するアドバイスは、体重変化と、体重増加に関連する行動の時間の長さなどとの相関性から生成することができる。例えば、図18に示すユーザの行動Bの名称の候補が「PC作業」及び「車の運転」であり、これまでに記録された当該ユーザの毎日の体重増加と、行動Bが行われる時間の長さとの間の相関が、他の行動の時間との相関と比較して(又は所定の閾値より)高く、その相関が正の相関であり、かつ、当該ユーザの体重を増やさないことが望まれる場合、当該相関が高い行動Bを示す情報(図示の例では行動Bの動きを示す人の形状)が表示され、さらに、アドバイスとして、行動Bを行う時間を減らすことを促すメッセージが表示される。逆に、体重増加と行動Bが行われる時間の長さとの間に負の相関がある場合、又は、当該ユーザの体重を増やすことが望まれる場合には、行動Bを行う時間を増やすことを促すメッセージが表示される。   The advice corresponding to the estimated action content can be generated from the correlation between the change in weight and the length of time of action related to weight gain. For example, the candidates for the name of the action B of the user shown in FIG. 18 are “PC work” and “driving a car”, and the daily weight increase of the user recorded so far and the time when the action B is performed are shown. It is desirable that the correlation with the length is higher (or higher than a predetermined threshold) compared with the correlation with the time of other actions, the correlation is a positive correlation, and the user's weight is not increased. Information indicating action B having a high correlation (in the example shown, the shape of a person indicating the movement of action B) is displayed, and a message prompting to reduce the time for performing action B is displayed as advice. The Conversely, when there is a negative correlation between the weight gain and the length of time during which the action B is performed, or when it is desired to increase the weight of the user, the time for performing the action B is increased. A prompt message appears.

上記の例では、体重増加との相関が高い行動内容として、分類された行動のいずれかと、その行動が行われる時間の長さとの組合せ(例えば行動Bが行われた時間の長さ)を挙げたが、分類された行動の内容を示す他のパラメータを使用して、体重増加との相関が高い行動内容を特定してもよい。分類された行動の内容を示す他のパラメータは、例えば、分類された行動を行うときの人物の動きの激しさ等を示すパラメータを取得できる場合には、そのようなパラメータであってもよいし、分類された行動を実行した回数を計数できる場合にはその回数であってもよい。   In the above example, the action content having a high correlation with weight gain is a combination of one of the classified actions and the length of time for which the action is performed (for example, the length of time for which the action B is performed). However, you may specify the action content with a high correlation with a weight gain using the other parameter which shows the content of the classified action. The other parameter indicating the content of the classified action may be such a parameter when, for example, a parameter indicating the intensity of a person's movement when performing the classified action can be acquired. If it is possible to count the number of times the classified action has been executed, that number may be used.

図19は、本発明の実施例1のサーバ5が行動分析の結果を表示するために出力する画面の第2の構成例を示す説明図である。   FIG. 19 is an explanatory diagram illustrating a second configuration example of a screen that the server 5 according to the first embodiment of the present invention outputs in order to display the result of the behavior analysis.

すなわち、図19は、図18と同様に、センサデバイス1などの計測機器以外で計測した情報と行動内容との関連を分析してその結果を表示する画面の別の一例である。疲れのように、センサでは計測困難な主観情報は、アンケート形式でユーザから収集し、収集した結果と、センサデバイス1で計測される行動内容との関連を示すことができる。   That is, FIG. 19 is another example of a screen that analyzes the relationship between information measured by a device other than the measuring device such as the sensor device 1 and the action content and displays the result, as in FIG. Subjective information that is difficult to measure with a sensor, such as fatigue, is collected from the user in a questionnaire format, and the relationship between the collected result and the action content measured by the sensor device 1 can be shown.

分析画面421は、行動の割合表示422、行動内容表示424、行動時間と主観情報の変化グラフ423、及び、主観情報の入力フォーム425で構成される。行動の割合表示422及び行動内容表示424は、それぞれ図18に示した行動の割合表示412及び行動内容表示414と同様であるため、詳細な説明は省略する。ユーザは、入力フォーム425を操作して現在の疲労の程度を示す情報を入力することができる。入力フォーム425では、図に示すようなアナログ形式での入力の他、質問形式で疲労の程度を示す情報を収集することもできる。   The analysis screen 421 includes a behavior ratio display 422, a behavior content display 424, a behavior time and subjective information change graph 423, and a subjective information input form 425. The action ratio display 422 and the action content display 424 are the same as the action ratio display 412 and the action content display 414 shown in FIG. The user can input information indicating the current degree of fatigue by operating the input form 425. The input form 425 can collect information indicating the degree of fatigue in a question format in addition to an input in an analog format as shown in the figure.

変化グラフ423は、入力した主観情報との相関が最も高い行動の時間変化と、主観情報の変化とを合わせて表示する。ユーザは、これを見ることで、主観情報(例えば疲労の程度)と行動との関連性を直感的に把握することができる。   The change graph 423 displays the time change of the action having the highest correlation with the input subjective information and the change of the subjective information together. By viewing this, the user can intuitively grasp the relationship between subjective information (for example, the degree of fatigue) and behavior.

図18及び図19の例に示した体重増加及び疲労の程度は、ユーザの健康状態の変化を示すパラメータの例であり、サーバ5は、他のパラメータ(例えば血圧等)について上記と同様の方法で行動内容との相関を分析し、その結果を出力してもよい。上記の例では健康状態を示すパラメータと行動内容との相関の分析及びその結果に基づくアドバイスの生成はS107において行動内容分類プログラム63によって行われるが、これらの処理がS107の後で他の機能モジュール(例えば図示しない専用のプログラム)によって行われてもよい。   The degree of weight gain and fatigue shown in the examples of FIGS. 18 and 19 are examples of parameters indicating changes in the user's health condition, and the server 5 uses the same method as described above for other parameters (for example, blood pressure). May analyze the correlation with the action content and output the result. In the above example, the analysis of the correlation between the parameter indicating the health condition and the action content and the generation of the advice based on the result are performed by the action content classification program 63 in S107, but these processes are performed after other functions modules after S107. (For example, a dedicated program not shown) may be performed.

図20は、センサのデータから行動内容を推定する従来の手法の典型的な例の説明図である。   FIG. 20 is an explanatory diagram of a typical example of a conventional method for estimating action content from sensor data.

この手法は、予めゴルフのスイングなど制約条件を設定した上で、腕の動きのみを加えるものである。手順81で3軸加速度、およびジャイロなどを計測し、手順82で速度、手順83で角度などの物理量を推定し、手順84で速度や角度を合わせることで手首の軌道を推定する。手順85で予めゴルフのスイングの条件を設定するため、可動する手首及び腕以外の位置はゴルフのフォームで固定される。手順86では、ゴルフスイングのフォームに、可動する手首の位置の軌道を追加し、手首の動きに伴う腕及びゴルフクラブの動きを追加する。腕及びゴルフクラブの動きは手首の位置から容易に推定可能である。   This method is to add only the movement of the arm after setting constraint conditions such as a golf swing in advance. In step 81, three-axis acceleration, gyro, and the like are measured. In step 82, a physical quantity such as a speed is estimated in step 82. In step 84, the wrist trajectory is estimated by matching the speed and angle. Since golf swing conditions are set in advance in step 85, positions other than the movable wrist and arm are fixed with a golf foam. In step 86, the trajectory of the position of the movable wrist is added to the form of the golf swing, and the movement of the arm and the golf club accompanying the movement of the wrist is added. The movement of the arm and golf club can be easily estimated from the position of the wrist.

これに対して、図1〜図19に示した本発明の実施例1によれば、例えばリストバンド型センサで計測できる手首の動きの物理的特徴量(振りの強さ、角度など)と、日常生活における動作の予め取得した統計的なパターンを用いて、直接つながってはいない四肢の動き(例えば上腕や太腿)を推定する。さらに、推定した四肢の動きの組み合わせや、日常生活における四肢の動きの組み合わせの統計的な集合によって、行動内容を分類する。これによって、例えばリストバンド型センサのような日常生活において簡便に身につけることのできるセンサのデータのみを用いて、図20に示すゴルフのスイングのような特定の行動に限らず、1日の多様な行動内容を詳細に分類し、各時間の行動内容を推定することができる。このため、生活習慣病予防のための運動指導において、改善すべき行動内容や、行動を改善した結果を可視化することができる。   On the other hand, according to the first embodiment of the present invention shown in FIG. 1 to FIG. 19, for example, physical characteristics of wrist movement that can be measured by a wristband sensor (strength of swing, angle, etc.) The movement of the extremities that are not directly connected (for example, the upper arm or the thigh) is estimated using a statistical pattern acquired in advance in daily life. Furthermore, the action content is classified by a statistical set of estimated limb movement combinations and limb movement combinations in daily life. Thus, using only data of a sensor that can be easily worn in daily life such as a wristband type sensor, for example, not only a specific action such as a golf swing shown in FIG. Various action contents can be classified in detail, and the action contents at each time can be estimated. For this reason, in exercise guidance for lifestyle-related disease prevention, it is possible to visualize the action content to be improved and the result of improving the action.

また、実施例1のセンサデバイス1は、加速度を計測して取得したデータを送信する機能を有し、行動分類のための計算及び計算結果の表示等は行わない。このため、センサデバイス1を容易に小型化、軽量化及び低消費電力化することができ、これによってセンサデバイス1を長時間装着する人物の負担を軽減することができる。また、実施例1のPC2及びスマートフォン3は、加速度データの中継装置、行動分類結果の表示装置及び行動内容の入力装置としての機能を有し、行動分類のための計算は行わないため、持ち運びの容易な小型の計算機によって実現することができる。実施例1のサーバ5は、ネットワーク4を介してセンサデバイス1、PC2及びスマートフォン3等と通信をすることで、サーバ5自体を持ち運ぶ必要がなくなるため、十分な計算能力を有する計算機を使用して人物の行動を分類する処理を高速に実行することができる。   The sensor device 1 according to the first embodiment has a function of transmitting data acquired by measuring acceleration, and does not perform calculation for behavior classification, display of the calculation result, or the like. Therefore, the sensor device 1 can be easily reduced in size, weight, and power consumption, thereby reducing the burden on the person wearing the sensor device 1 for a long time. Further, the PC 2 and the smartphone 3 of the first embodiment have functions as an acceleration data relay device, a behavior classification result display device, and a behavior content input device, and do not perform computation for behavior classification. It can be realized by an easy small computer. Since the server 5 according to the first embodiment communicates with the sensor device 1, the PC 2, the smartphone 3, and the like via the network 4, it is not necessary to carry the server 5 itself, so a computer having sufficient calculation capability is used. It is possible to execute a process for classifying a person's action at high speed.

次に、本発明の実施例2を説明する。以下に説明する相違点を除き、実施例2の行動分類システムの各部は、図1〜図19に示された実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。   Next, a second embodiment of the present invention will be described. Except for the differences described below, each part of the behavior classification system according to the second embodiment has the same functions as the parts denoted by the same reference numerals as those of the first embodiment shown in FIGS. Description of is omitted.

図21は、本発明の実施例2の行動分類システムの主要な構成を示すブロック図である。   FIG. 21 is a block diagram illustrating the main configuration of the behavior classification system according to the second embodiment of the present invention.

実施例2のスマートフォン3が有する機能モジュール及びデータは、実施例1のサーバ5が有するものと同様であるため、それらに関する詳細な説明は省略する。ただし、スマートフォン3は表示部55を有し、図17から図19に示すような画面は、WEB表示プログラム53が作成した画面データに基づいて表示部55が表示する。センサデバイス1の表示部14が十分な表示能力を有している場合には、WEB表示プログラム53が作成した画面データをスマートフォン3からセンサデバイス1に送信し、それに基づいて表示部14が図17等の画面を表示してもよい。   The functional modules and data included in the smartphone 3 according to the second embodiment are the same as those included in the server 5 according to the first embodiment, and thus detailed description thereof is omitted. However, the smartphone 3 has a display unit 55, and the display unit 55 displays screens as shown in FIGS. 17 to 19 based on the screen data created by the WEB display program 53. When the display unit 14 of the sensor device 1 has a sufficient display capability, the screen data created by the WEB display program 53 is transmitted from the smartphone 3 to the sensor device 1, and the display unit 14 based on the screen data is displayed in FIG. Etc. may be displayed.

本実施例において、スマートフォン3の代わりにPC2又はその他の任意の種類の端末装置が使用されてもよい。その場合、PC2等の構成は図21に示すスマートフォン3と同様である。また、例えばスマートフォン3を十分に小型化できる場合には、スマートフォン3とセンサデバイス1とを一体化して人物に装着してもよい。   In the present embodiment, the PC 2 or any other type of terminal device may be used instead of the smartphone 3. In that case, the configuration of the PC 2 and the like is the same as that of the smartphone 3 shown in FIG. For example, when the smartphone 3 can be sufficiently downsized, the smartphone 3 and the sensor device 1 may be integrated and attached to a person.

以上の実施例2によれば、実施例1と同様に、人物の行動を分類し、可視化できるという効果に加えて、センサデバイス1で計測したデータをインターネット経由でサーバ5に送ることなく解析することができるため、応答速度に優れるという効果が得られる。   According to the second embodiment, as in the first embodiment, in addition to the effect of classifying and visualizing human actions, the data measured by the sensor device 1 is analyzed without being sent to the server 5 via the Internet. Therefore, an effect of excellent response speed can be obtained.

次に、本発明の実施例3を説明する。以下に説明する相違点を除き、実施例2の行動分類システムの各部は、図1〜図19に示された実施例1の同一の符号を付された各部と同一の機能を有するため、それらの説明は省略する。   Next, a third embodiment of the present invention will be described. Except for the differences described below, each part of the behavior classification system according to the second embodiment has the same functions as the parts denoted by the same reference numerals as those of the first embodiment shown in FIGS. Description of is omitted.

図22は、本発明の実施例3の行動分類システムの主要な構成を示すブロック図である。   FIG. 22 is a block diagram illustrating the main configuration of the behavior classification system according to the third embodiment of the present invention.

実施例3の解析プログラム60は、図1で示した実施例1の解析プログラム60に、行動内容判別モデル生成プログラム66、行動内容判別モデル選択プログラム67及び行動内容推定プログラム68を加えたものである。実施例3のデータベース70は、図1で示した実施例1のデータベース70に行動内容判別モデルデータ77及び行動・部位教師データ78を加えたものである。   The analysis program 60 of the third embodiment is obtained by adding an action content determination model generation program 66, an action content determination model selection program 67, and an action content estimation program 68 to the analysis program 60 of the first embodiment shown in FIG. . The database 70 of the third embodiment is obtained by adding behavior content determination model data 77 and behavior / part teacher data 78 to the database 70 of the first embodiment shown in FIG.

実施例1の行動内容分類プログラム63は行動内容を部位状態の特徴によって意味を特定しない行動に分類していた。すなわち、実施例1では、同種の行動を実行している複数の行動の区間を特定することができるが、その行動が何であるかを特定することはできない。これに対して、実施例3では、行動内容推定プログラム68が、行動内容を単に分類するのではなく、名前があり、意味のある行動として判別することによって、例えばデスクワーク又は家事といった意味のある行動の種類に分類することができる。   The action content classification program 63 according to the first embodiment classifies the action contents into actions that do not specify the meaning based on the characteristics of the part state. That is, in the first embodiment, it is possible to specify a plurality of action sections performing the same kind of action, but it is not possible to specify what the action is. On the other hand, in the third embodiment, the action content estimation program 68 does not simply classify the action contents, but has a name and makes a meaningful action such as deskwork or housework by determining it as a meaningful action. Can be classified into different types.

行動内容推定プログラム68は、部位状態から行動内容を判別するために、予め生成した行動内容判別モデルデータ77を用いる。また、行動内容判別モデル選択プログラム67は、ユーザプロフィールデータ75をもとに、センサデバイス1で計測したユーザに適した判別モデルを選択することができる。これは、ユーザの年齢、体格、あるいは生活スタイルによって、部位状態と行動内容の関連付けが異なる場合があるためである。ただし、実施例1の部位状態の判別の場合と同様に、ユーザプロフィールを考慮せずに行動内容を判別してもよい。   The action content estimation program 68 uses action content discrimination model data 77 generated in advance in order to discriminate the action content from the part state. Further, the action content discrimination model selection program 67 can select a discrimination model suitable for the user measured by the sensor device 1 based on the user profile data 75. This is because the association between the part state and the action content may differ depending on the user's age, physique, or lifestyle. However, as in the case of the determination of the part state in the first embodiment, the action content may be determined without considering the user profile.

行動内容判別モデル生成プログラム66は、予め計測した行動と部位状態とを同時に記録した行動・部位教師データ78を用いて、行動内容判別モデルデータ77を生成することができる。   The action content determination model generation program 66 can generate the action content determination model data 77 using the action / part teacher data 78 in which the pre-measured action and the part state are simultaneously recorded.

具体的には、例えば、実施例1と同様の方法で複数の計測対象のユーザの加速度データ及びモーションデータを取得するときに、さらに、それらの加速度データ及びモーションデータが取得された時点で実行されていた行動の内容を示す名称を記録し、それらに基づいて、実行された行動の内容と、その行動が実行されたときの部位状態とを対応付ける情報を行動・部位教師データ78として記録してもよい。   Specifically, for example, when the acceleration data and motion data of a plurality of measurement target users are acquired by the same method as in the first embodiment, the acceleration data and the motion data are further acquired. Record the name indicating the content of the action that was being performed, and based on them, record the information associating the content of the executed action with the part state when the action was executed as action / part teacher data 78 Also good.

行動内容判別モデル生成プログラム66は、行動・部位教師データ78に基づいて、各行動の内容に対応する部位状態の統計的な特徴等を算出し、それに基づいて行動内容を判別するためのルールを含む行動内容判別モデルデータ77を生成する。このとき、行動内容判別モデル生成プログラム66は、部位状態判別モデルデータ74の場合と同様に、計測対象のユーザの属性を示すユーザプロフィールデータ75と対応付けて行動内容判別モデルデータ77を作成してもよい。   The behavior content determination model generation program 66 calculates a statistical feature or the like of the part state corresponding to the content of each action based on the behavior / part teacher data 78, and sets rules for determining the behavior content based on the statistical characteristics. The action content discrimination model data 77 including is generated. At this time, as in the case of the part state determination model data 74, the action content determination model generation program 66 creates the action content determination model data 77 in association with the user profile data 75 indicating the attributes of the measurement target user. Also good.

あるいは、実施例1と同様の方法で複数の計測対象のユーザの加速度データ及びモーションデータを取得するときに、さらに、それらの加速度データ及びモーションデータが取得された時点で実行されていた行動の内容を示す名称を記録し、それらに基づいて、実行された行動の内容と、その行動が実行されたときの加速度データから算出される物理特徴量とを対応付ける情報を含む教師データを記録してもよい。行動内容判別モデル生成プログラム66は、その教師データに基づいて、各行動の内容に対応する物理特徴量の統計的な特徴等を算出し、それに基づいて行動内容を判別するためのルールを含む行動内容判別モデルデータ77を生成してもよい。その場合、部位状態推定プログラム62が各部位の状態を推定する必要はなく、行動内容推定プログラム68は、加速度データから算出された物理特徴量及び行動内容判別モデルデータ77に基づいて行動内容を推定する。   Alternatively, when acquiring acceleration data and motion data of a plurality of measurement target users in the same manner as in the first embodiment, the content of the action that was executed at the time when the acceleration data and motion data were acquired. And recording teacher data including information associating the content of the executed action with the physical feature amount calculated from the acceleration data when the action is executed based on them. Good. The behavior content determination model generation program 66 calculates a statistical feature or the like of the physical feature amount corresponding to the content of each behavior based on the teacher data, and the behavior including a rule for determining the behavior content based on the statistical feature. The content determination model data 77 may be generated. In this case, it is not necessary for the part state estimation program 62 to estimate the state of each part, and the action content estimation program 68 estimates the action content based on the physical feature amount calculated from the acceleration data and the action content determination model data 77. To do.

以下の説明は、行動・部位教師データ78が使用される例を記載する。   The following description describes an example in which the action / part teacher data 78 is used.

図23は、本発明の実施例3のサーバ5が実行する部位状態推定及び行動内容推定の典型的な処理手順を示す説明図である。   FIG. 23 is an explanatory diagram illustrating a typical processing procedure of part state estimation and action content estimation executed by the server 5 according to the third embodiment of this invention.

実施例3の処理は、行動内容推定プログラム68が、部位状態推定の結果を用いて、行動内容を意味付けなく分類するのではなく、名前のある意味付けされた行動内容として推定することを特徴としている。行動内容判別モデル選択プログラム67は、ユーザプロフィールデータ75をもとに行動内容判別モデルデータ77を選択する。行動内容推定プログラム68は、部位状態データ72及び選択された行動内容判別モデルデータ77に基づいて、デスクワーク141、家事142、読書143又はスポーツ144など、予め行動内容判別モデルデータ77に定義された尤もらしい行動内容87に判別することができる。   The processing according to the third embodiment is characterized in that the action content estimation program 68 uses the result of the part state estimation to estimate the action contents as a meaningful action content with a name, rather than classifying the action contents without meaning. It is said. The action content determination model selection program 67 selects the action content determination model data 77 based on the user profile data 75. The action content estimation program 68 is based on the part state data 72 and the selected action content determination model data 77, and the likelihood previously defined in the action content determination model data 77 such as desk work 141, housework 142, reading 143, or sport 144 is presumed. It can be determined that the action content 87 is likely.

図24は、本発明の実施例3のサーバ5が保持する行動内容データ79のデータ構造例を示す説明図である。   FIG. 24 is an explanatory diagram illustrating a data structure example of the action content data 79 held by the server 5 according to the third embodiment of this invention.

実施例3の行動内容データ79は、特定の時間区間における推定された行動内容を記録していることを特徴とする。開始日時362は、推定された行動の始まりの日時を示しており、終了日時363は推定された行動の終わる日時を示している。行動364は、推定された行動内容を示しており、行動・部位教師データ78又は行動内容判別モデルデータ77で予め定義されている名前の中から判別され、選択される。   The action content data 79 according to the third embodiment records the action contents estimated in a specific time interval. The start date and time 362 indicates the date and time when the estimated action starts, and the end date and time 363 indicates the date and time when the estimated action ends. The action 364 indicates the estimated action content, and is determined and selected from names predefined in the action / part teacher data 78 or the action content determination model data 77.

以上の実施例3によれば、実施例1と同様の効果に加えて、行動内容を名前のある意味付けされた行動内容として分類することによって、ユーザの利便性が向上するという効果が得られる。   According to the third embodiment described above, in addition to the same effects as those of the first embodiment, it is possible to obtain the effect of improving the convenience of the user by classifying the action content as a meaningful action content having a name. .

なお、本発明は上述した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to the Example mentioned above, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。   Each of the above-described configurations, functions, processing units, processing means, etc. may be realized in hardware by designing a part or all of them, for example, with an integrated circuit. Further, each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function is a memory, a hard disk drive, a storage device such as an SSD (Solid State Drive), or a computer-readable non-transitory data such as an IC card, an SD card, or a DVD. It can be stored in a storage medium.

また、図面には、実施例を説明するために必要と考えられる制御線及び情報線を示しており、必ずしも、本発明が適用された実際の製品に含まれる全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。   Further, the drawings show control lines and information lines that are considered necessary for explaining the embodiments, and not necessarily all control lines and information lines included in an actual product to which the present invention is applied. Not necessarily. Actually, it may be considered that almost all the components are connected to each other.

1 センサデバイス
2 PC
3 スマートフォン
4 ネットワーク
5 サーバ
10 MCU
11 加速度センサ
12 メモリ
13 入力部
14 表示部
15 通信部
51 CPU
52 通信部
53 WEB表示プログラム
54 メモリ
60 解析プログラム
61 物理特徴量算出プログラム
62 部位状態推定プログラム
63 行動内容分類プログラム
64 部位状態判別モデル生成プログラム
65 部位状態判別モデル選択プログラム
66 行動内容判別モデル生成プログラム
67 行動内容判別モデル選択プログラム
68 行動内容推定プログラム
70 データベース
71 物理特徴量データ
72 部位状態データ
73 行動分類データ
74 部位状態判別モデルデータ
75 ユーザプロフィールデータ
76 部位・物理量教師データ
77 行動内容判別モデルデータ
78 行動・部位教師データ
79 行動内容データ
80 加速度データ
1 Sensor device 2 PC
3 Smartphone 4 Network 5 Server 10 MCU
11 Acceleration sensor 12 Memory 13 Input unit 14 Display unit 15 Communication unit 51 CPU
52 Communication Unit 53 Web Display Program 54 Memory 60 Analysis Program 61 Physical Feature Quantity Calculation Program 62 Part State Estimation Program 63 Action Content Classification Program 64 Part State Discrimination Model Generation Program 65 Part State Discrimination Model Selection Program 66 Action Content Discrimination Model Generation Program 67 Behavior content discrimination model selection program 68 Behavior content estimation program 70 Database 71 Physical feature data 72 Site state data 73 Behavior classification data 74 Site state discrimination model data 75 User profile data 76 Site / physical quantity teacher data 77 Behavior content discrimination model data 78 Behavior -Body teacher data 79 Action content data 80 Acceleration data

Claims (15)

人物の所定の部位の加速度から算出される物理特徴量に基づいて前記人物の行動を判別するためのルールを含むモデル情報を保持し、
人物の前記所定の部位に装着された加速度センサと、
前記加速度センサによって計測された加速度から算出される物理特徴量及び前記モデル情報に基づいて前記人物の行動を分類する解析部と、を有することを特徴とする行動分類システム。
Holding model information including rules for determining the behavior of the person based on physical features calculated from the acceleration of a predetermined part of the person;
An acceleration sensor mounted on the predetermined part of the person;
An action classification system, comprising: an analysis unit that classifies the person's action based on a physical feature amount calculated from acceleration measured by the acceleration sensor and the model information.
請求項1に記載の行動分類システムであって、
前記モデル情報は、人物の所定の部位の加速度から算出される物理特徴量に基づいて前記所定の部位以外の一つ以上の部位の状態を判別するためのルールを含む部位状態判別モデル情報を含み、
前記解析部は、
前記加速度センサによって計測された加速度から算出される物理特徴量及び前記部位状態判別モデル情報に基づいて前記人物の前記一つ以上の部位の状態を推定する部位状態推定部と、
推定された前記人物の一つ以上の部位の状態に基づいて前記人物の行動を分類する行動内容分類部と、を含むことを特徴とする行動分類システム。
The behavior classification system according to claim 1,
The model information includes part state determination model information including a rule for determining a state of one or more parts other than the predetermined part based on a physical feature amount calculated from acceleration of a predetermined part of the person. ,
The analysis unit
A part state estimation unit that estimates the state of the one or more parts of the person based on physical feature amounts calculated from acceleration measured by the acceleration sensor and the part state determination model information;
A behavior content classification unit that classifies the behavior of the person based on the estimated state of one or more parts of the person.
請求項2に記載の行動分類システムであって、
複数の時刻に測定された人物の前記一つ以上の部位の状態を示す値及びそれらと同時に測定された当該人物の前記所定の部位の加速度に基づいて、前記各部位の状態に対応する前記物理特徴量の統計的な特徴を計算することによって、前記部位状態判別モデル情報を生成する部位状態判別モデル生成部をさらに有することを特徴とする行動分類システム。
The behavior classification system according to claim 2,
The physical corresponding to the state of each part based on the value indicating the state of the one or more parts of the person measured at a plurality of times and the acceleration of the predetermined part of the person measured at the same time A behavior classification system further comprising a part state discriminating model generating unit that generates the part state discriminating model information by calculating a statistical feature of the feature amount.
請求項3に記載の行動分類システムであって、
前記部位状態判別モデル生成部は、複数の人物について前記部位状態判別モデル情報を生成し、
前記行動分類システムは、前記複数の人物の属性情報をさらに保持し、
前記部位状態推定部は、前記加速度センサによって計測された加速度と、前記加速度センサが装着された人物の属性に類似する属性を有する一以上の人物から生成された前記部位状態判別モデル情報と、に基づいて、前記人物の前記一つ以上の部位の状態を推定することを特徴とする行動分類システム。
The behavior classification system according to claim 3,
The part state determination model generation unit generates the part state determination model information for a plurality of persons,
The behavior classification system further holds attribute information of the plurality of persons,
The part state estimation unit includes the acceleration measured by the acceleration sensor and the part state determination model information generated from one or more persons having an attribute similar to the attribute of the person wearing the acceleration sensor. An action classification system for estimating a state of the one or more parts of the person based on the person.
請求項3に記載の行動分類システムであって、
前記部位状態判別モデル情報は、ある時点の部位の状態をそれより前の時点の部位の状態に基づいて判別するためのルールを含むことを特徴とする行動分類システム。
The behavior classification system according to claim 3,
The part state determination model information includes a rule for determining a state of a part at a certain point of time based on a state of a part at a point before that.
請求項2に記載の行動分類システムであって、
前記行動内容分類部は、
前記一つ以上の部位の状態を示す値の変化量が所定の閾値より大きい時点を境界として、前記人物の行動を複数の区間に区切り、前記各区間の前記人物の行動を分類することを特徴とする行動分類システム。
The behavior classification system according to claim 2,
The action content classification unit
The person's action is divided into a plurality of sections, and the person's actions in each section are classified at a time point where a change amount of the value indicating the state of the one or more parts is larger than a predetermined threshold. A behavior classification system.
請求項6に記載の行動分類システムであって、
前記行動内容分類部は、前記複数の区間の前記一つ以上の部位の状態を示す値をクラスタリングすることによって、前記各区間の前記人物の行動を分類することを特徴とする行動分類システム。
The behavior classification system according to claim 6,
The behavior content classification unit classifies the behavior of the person in each section by clustering values indicating the states of the one or more parts of the plurality of sections.
請求項6に記載の行動分類システムであって、
前記モデル情報は、前記一つ以上の部位の状態に基づいて前記行動の内容を判別するためのルールを含む行動内容判別モデル情報をさらに含み、
前記行動内容分類部は、前記推定された人物の一つ以上の部位の状態と前記行動内容判別モデル情報とに基づいて、前記各区間の前記人物の行動を分類することを特徴とする行動分類システム。
The behavior classification system according to claim 6,
The model information further includes action content determination model information including a rule for determining the content of the action based on the state of the one or more parts.
The behavior classification unit classifies the behavior of the person in each section based on one or more states of the estimated person and the behavior content determination model information. system.
請求項6に記載の行動分類システムであって、
前記人物の行動を区間ごとに分類した結果を表示するための画面データを出力する表示部をさらに有することを特徴とする行動分類システム。
The behavior classification system according to claim 6,
The behavior classification system characterized by further having a display part which outputs the screen data for displaying the result of having classified the action of the person for every section.
請求項9に記載の行動分類システムであって、
前記表示部は、前記区間ごとに分類された行動に対応する前記一つ以上の部位の状態を表示するための画面データをさらに出力し、
いずれかの前記区間において実行されていた行動を識別する情報が入力された場合、当該区間と同種の行動に分類された他の区間における行動を識別する情報の候補として、前記入力された情報を出力することを特徴とする行動分類システム。
The behavior classification system according to claim 9,
The display unit further outputs screen data for displaying a state of the one or more parts corresponding to the behavior classified for each section,
When information for identifying an action that has been executed in any of the sections is input, the input information is used as a candidate for information for identifying an action in another section classified as the same type of action as the section. An action classification system characterized by output.
請求項9に記載の行動分類システムであって、
人物の健康状態を示す値の変化を示す情報をさらに保持し、
前記表示部は、前記分類された行動のうち、前記健康状態を示す値との相関が高い行動を表示するための画面データを出力することを特徴とする行動分類システム。
The behavior classification system according to claim 9,
Further holding information indicating changes in values indicating the health status of the person,
The said display part outputs the screen data for displaying the action with high correlation with the value which shows the said health state among the said classified action, The action classification system characterized by the above-mentioned.
請求項2に記載の行動分類システムであって、
前記加速度センサが取りつけられる前記所定の部位は、人物の前腕であり、
前記加速度センサは、3軸加速度を計測し、
前記物理特徴量は、前記所定の部位の3軸加速度から算出される、前記3軸加速度の振幅、前記3軸加速度の周波数、前記前腕の長手方向を軸とする前記前腕の回転量を示す角度、及び、前記前腕の長手方向の向き、の少なくとも一つを含み、
前記一つ以上の部位の状態は、上腕の向き、肘の角度、腿の向き及び体全体の向きの少なくとも一つを含むことを特徴とする行動分類システム。
The behavior classification system according to claim 2,
The predetermined part to which the acceleration sensor is attached is a forearm of a person,
The acceleration sensor measures triaxial acceleration,
The physical feature amount is an angle indicating the amplitude of the triaxial acceleration, the frequency of the triaxial acceleration, and the amount of rotation of the forearm about the longitudinal direction of the forearm, calculated from the triaxial acceleration of the predetermined part. And at least one of the longitudinal directions of the forearm,
The state of the one or more parts includes at least one of an upper arm orientation, an elbow angle, a thigh orientation, and an entire body orientation.
請求項2に記載の行動分類システムであって、
センサデバイスと、計算機と、前記センサデバイス及び前記計算機の間で通信されるデータを中継するネットワークと、を有し、
前記センサデバイスは、前記加速度センサと、前記加速度センサが計測した加速度データを前記計算機に前記ネットワークを介して送信する通信部と、を有し、
前記計算機は、前記加速度データを受信する通信部と、プロセッサと、記憶装置と、を有し、
前記部位状態判別モデル情報は、前記記憶装置に格納され、
前記部位状態推定部及び前記行動内容分類部は、前記記憶装置に格納されたプログラムを実行する前記プロセッサであることを特徴とする行動分類システム。
The behavior classification system according to claim 2,
A sensor device, a computer, and a network that relays data communicated between the sensor device and the computer,
The sensor device includes the acceleration sensor and a communication unit that transmits acceleration data measured by the acceleration sensor to the computer via the network.
The computer includes a communication unit that receives the acceleration data, a processor, and a storage device.
The part state determination model information is stored in the storage device,
The part state estimation unit and the action content classification unit are the processor that executes a program stored in the storage device.
プロセッサと、前記プロセッサに接続される記憶装置と、を有する行動分類装置であって、
前記記憶装置は、
人物の所定の部位の加速度から算出される物理特徴量に基づいて前記人物の行動を判別するためのルールを含むモデル情報と、
人物の前記所定の部位に装着された加速度センサによって計測された加速度情報と、を保持し、
前記プロセッサは、前記加速度情報から算出される物理特徴量及び前記モデル情報に基づいて前記人物の行動を分類することを特徴とする行動分類装置。
A behavior classification device having a processor and a storage device connected to the processor,
The storage device
Model information including a rule for determining the behavior of the person based on a physical feature amount calculated from the acceleration of a predetermined part of the person;
Holding acceleration information measured by an acceleration sensor attached to the predetermined part of the person,
The processor classifies the person's action based on the physical feature amount calculated from the acceleration information and the model information.
プロセッサと、前記プロセッサに接続される記憶装置と、を有する計算機による行動分類方法であって、
前記記憶装置は、
人物の所定の部位の加速度から算出される物理特徴量に基づいて前記人物の行動を判別するためのルールを含むモデル情報と、
人物の前記所定の部位に装着された加速度センサによって計測された加速度情報と、を保持し、
前記行動分類方法は、前記プロセッサが、前記加速度情報から算出される物理特徴量及び前記モデル情報に基づいて前記人物の行動を分類する手順を含むことを特徴とする行動分類方法。
A behavior classification method by a computer having a processor and a storage device connected to the processor,
The storage device
Model information including a rule for determining the behavior of the person based on a physical feature amount calculated from the acceleration of a predetermined part of the person;
Holding acceleration information measured by an acceleration sensor attached to the predetermined part of the person,
The behavior classification method includes a procedure in which the processor classifies the behavior of the person based on a physical feature amount calculated from the acceleration information and the model information.
JP2014238581A 2014-11-26 2014-11-26 Behavior classification system, behavior classification device, and behavior classification method Expired - Fee Related JP6362521B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014238581A JP6362521B2 (en) 2014-11-26 2014-11-26 Behavior classification system, behavior classification device, and behavior classification method
PCT/JP2015/078664 WO2016084499A1 (en) 2014-11-26 2015-10-08 Behavior classification system, behavior classification device, and behavior classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014238581A JP6362521B2 (en) 2014-11-26 2014-11-26 Behavior classification system, behavior classification device, and behavior classification method

Publications (3)

Publication Number Publication Date
JP2016097228A true JP2016097228A (en) 2016-05-30
JP2016097228A5 JP2016097228A5 (en) 2017-04-13
JP6362521B2 JP6362521B2 (en) 2018-07-25

Family

ID=56074077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014238581A Expired - Fee Related JP6362521B2 (en) 2014-11-26 2014-11-26 Behavior classification system, behavior classification device, and behavior classification method

Country Status (2)

Country Link
JP (1) JP6362521B2 (en)
WO (1) WO2016084499A1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019053647A (en) * 2017-09-19 2019-04-04 富士ゼロックス株式会社 Behavior estimation apparatus and behavior estimation program
KR20190047648A (en) * 2017-10-27 2019-05-08 주식회사 뉴클리어스 Method and wearable device for providing feedback on action
WO2020138461A1 (en) * 2018-12-27 2020-07-02 川崎重工業株式会社 Robot control device, robot system, and robot control method
JP2020194218A (en) * 2019-05-24 2020-12-03 株式会社日立製作所 Correct answer data creation assisting system and correct answer data creation assisting method
JP2021140386A (en) * 2020-03-04 2021-09-16 日本電信電話株式会社 Behavior estimation device, behavior estimation method and behavior estimation program
WO2021210161A1 (en) * 2020-04-17 2021-10-21 住友電工オプティフロンティア株式会社 Fusion splicing machine, fusion splicing system, and method for fusion splicing fiber
WO2021210546A1 (en) * 2020-04-17 2021-10-21 住友電工オプティフロンティア株式会社 Fusion splicing system for optical fibers, fusion splicer, model creation device, and method for fusion splicing optical fibers
WO2022024899A1 (en) * 2020-07-30 2022-02-03 株式会社村田製作所 Action state estimation device, action state estimation method, action state learning device and action state learning method
JP2022060222A (en) * 2020-03-19 2022-04-14 カシオ計算機株式会社 Exercise support device, exercise support method, and program
JP7456129B2 (en) 2019-11-18 2024-03-27 中国電力株式会社 management system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021060290A1 (en) * 2019-09-24 2021-04-01 石井 亮 Behavior effect analysis system, behavior effect analysis program, and behavior effect analysis method
JP2023173907A (en) * 2022-05-26 2023-12-07 株式会社日立製作所 Cooperative work recognition system and cooperative work recognition method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005021450A (en) * 2003-07-03 2005-01-27 Toshiba Corp Device and method for analyzing state of organism
JP2010207488A (en) * 2009-03-12 2010-09-24 Gifu Univ Behavior analyzing device and program
JP2011227918A (en) * 2011-06-24 2011-11-10 Seiko Instruments Inc Electronic pedometer
JP2013022090A (en) * 2011-07-15 2013-02-04 Tohoku Univ Energy consumption amount presentation device and energy consumption amount estimation method
JP2014128459A (en) * 2012-12-28 2014-07-10 Kddi Corp User interface device, program and method capable of timely presenting behavior correspondence information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005021450A (en) * 2003-07-03 2005-01-27 Toshiba Corp Device and method for analyzing state of organism
JP2010207488A (en) * 2009-03-12 2010-09-24 Gifu Univ Behavior analyzing device and program
JP2011227918A (en) * 2011-06-24 2011-11-10 Seiko Instruments Inc Electronic pedometer
JP2013022090A (en) * 2011-07-15 2013-02-04 Tohoku Univ Energy consumption amount presentation device and energy consumption amount estimation method
JP2014128459A (en) * 2012-12-28 2014-07-10 Kddi Corp User interface device, program and method capable of timely presenting behavior correspondence information

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019053647A (en) * 2017-09-19 2019-04-04 富士ゼロックス株式会社 Behavior estimation apparatus and behavior estimation program
JP7110568B2 (en) 2017-09-19 2022-08-02 富士フイルムビジネスイノベーション株式会社 Action estimation device and action estimation program
KR20190047648A (en) * 2017-10-27 2019-05-08 주식회사 뉴클리어스 Method and wearable device for providing feedback on action
KR102089002B1 (en) * 2017-10-27 2020-03-13 김현우 Method and wearable device for providing feedback on action
WO2020138461A1 (en) * 2018-12-27 2020-07-02 川崎重工業株式会社 Robot control device, robot system, and robot control method
JP2020104215A (en) * 2018-12-27 2020-07-09 川崎重工業株式会社 Robot control device, robot system and robot control method
JP2020194218A (en) * 2019-05-24 2020-12-03 株式会社日立製作所 Correct answer data creation assisting system and correct answer data creation assisting method
JP7152357B2 (en) 2019-05-24 2022-10-12 株式会社日立製作所 Correct data creation support system and correct data creation support method
JP7456129B2 (en) 2019-11-18 2024-03-27 中国電力株式会社 management system
JP2021140386A (en) * 2020-03-04 2021-09-16 日本電信電話株式会社 Behavior estimation device, behavior estimation method and behavior estimation program
JP7309152B2 (en) 2020-03-04 2023-07-18 日本電信電話株式会社 Behavior estimation device, behavior estimation method, and behavior estimation program
JP2022060222A (en) * 2020-03-19 2022-04-14 カシオ計算機株式会社 Exercise support device, exercise support method, and program
JP7322985B2 (en) 2020-03-19 2023-08-08 カシオ計算機株式会社 Exercise support device, exercise support method and program
WO2021210552A1 (en) * 2020-04-17 2021-10-21 住友電工オプティフロンティア株式会社 Fusion splicer, fusion splicing system, and method for fusion splicing optical fiber
WO2021210162A1 (en) * 2020-04-17 2021-10-21 住友電工オプティフロンティア株式会社 Fusion splicing system for optical fiber, fusion splicer, and method for fusion-splicing optical fiber
WO2021210546A1 (en) * 2020-04-17 2021-10-21 住友電工オプティフロンティア株式会社 Fusion splicing system for optical fibers, fusion splicer, model creation device, and method for fusion splicing optical fibers
WO2021210161A1 (en) * 2020-04-17 2021-10-21 住友電工オプティフロンティア株式会社 Fusion splicing machine, fusion splicing system, and method for fusion splicing fiber
WO2022024900A1 (en) * 2020-07-30 2022-02-03 株式会社村田製作所 Action state estimation device, action state estimation method, action state learning device, and action state learning method
JP7047991B1 (en) * 2020-07-30 2022-04-05 株式会社村田製作所 Behavior state estimation device, behavior state estimation method, behavior state learning device, and behavior state learning method
JP7047990B1 (en) * 2020-07-30 2022-04-05 株式会社村田製作所 Behavior state estimation device, behavior state estimation method, behavior state learning device, and behavior state learning method
WO2022024899A1 (en) * 2020-07-30 2022-02-03 株式会社村田製作所 Action state estimation device, action state estimation method, action state learning device and action state learning method

Also Published As

Publication number Publication date
JP6362521B2 (en) 2018-07-25
WO2016084499A1 (en) 2016-06-02

Similar Documents

Publication Publication Date Title
JP6362521B2 (en) Behavior classification system, behavior classification device, and behavior classification method
Yang et al. Lifelogging data validation model for internet of things enabled personalized healthcare
EP3566231B1 (en) Apparatus and method for triggering a fall risk alert to a person
JP6356616B2 (en) Sequential posture identification device, autonomic nerve function information acquisition device, method and program
Parkka et al. Activity classification using realistic data from wearable sensors
JP2017169884A (en) Sleep state estimation apparatus
JP2012527292A (en) Sensing device for detecting wearing position
JP7019796B2 (en) Physical function independence support device and its method
JP6134872B1 (en) Device, method and system for counting the number of cycles of periodic motion of a subject
JP2016097228A5 (en)
JP2017124086A (en) Training classification system, training classification method and training classification server
Kelly et al. Automatic prediction of health status using smartphone-derived behavior profiles
JP6569233B2 (en) Posture estimation apparatus, posture estimation system, posture estimation method, and program
Garcia-Valverde et al. Heart health risk assessment system: a nonintrusive proposal using ontologies and expert rules
JP2018000229A (en) Automated teacher data creation device, automated teacher data creation method, and automated teacher data creation program
Vandarkuzhali et al. Hybrid RF and PCA method: The number and Posture of piezoresistive sensors in a multifunctional technology for respiratory monitoring
US20230004795A1 (en) Systems and methods for constructing motion models based on sensor data
JP6530350B2 (en) Sequential posture identification device, sequential posture identification method, and sequential posture identification program
Poli et al. Identification issues associated with the use of wearable accelerometers in lifelogging
Poli et al. ADLs Monitoring by accelerometer-based wearable sensors: effect of measurement device and data uncertainty on classification accuracy
KR101310500B1 (en) Apparatus and method for determining health using skin features, apparatus and method for generating health sort function
JP6870733B2 (en) Information processing equipment, information processing systems, and information processing methods
KR20150071729A (en) The Classifying and Counting Algorithm for Real-time Walk/Run Exercise based on An Acceleration Sensor
Mattfeld Evaluation of pedometer performance across multiple gait types using video for ground truth
WO2022153538A1 (en) Stress level estimation method, teacher data generation method, information processing device, stress level estimation program, and teacher data generation program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180626

R150 Certificate of patent or registration of utility model

Ref document number: 6362521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees