JP7449838B2 - Behavior analysis system and behavior analysis method using it - Google Patents

Behavior analysis system and behavior analysis method using it Download PDF

Info

Publication number
JP7449838B2
JP7449838B2 JP2020173081A JP2020173081A JP7449838B2 JP 7449838 B2 JP7449838 B2 JP 7449838B2 JP 2020173081 A JP2020173081 A JP 2020173081A JP 2020173081 A JP2020173081 A JP 2020173081A JP 7449838 B2 JP7449838 B2 JP 7449838B2
Authority
JP
Japan
Prior art keywords
measurement data
behavior analysis
sensor
analysis system
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020173081A
Other languages
Japanese (ja)
Other versions
JP2022064449A (en
Inventor
俊輔 三幣
毅 田中
裕之 栗山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2020173081A priority Critical patent/JP7449838B2/en
Publication of JP2022064449A publication Critical patent/JP2022064449A/en
Application granted granted Critical
Publication of JP7449838B2 publication Critical patent/JP7449838B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、ウェアラブル端末を装着したユーザの行動を解析する行動解析システム及びそれを用いた行動解析方法に関し、特に解析前に軸方向を合わせる技術に係る。 The present invention relates to a behavior analysis system for analyzing the behavior of a user wearing a wearable terminal and a behavior analysis method using the same, and particularly relates to a technique for aligning the axis direction before analysis.

ウェアラブル端末を装着したユーザの行動を計測し、計測されたデータに基づいて行動を解析するには、ウェアラブル端末に備えられる加速度センサ等のセンサの軸方向を予め合わせる必要がある。 In order to measure the behavior of a user wearing a wearable terminal and analyze the behavior based on the measured data, it is necessary to align the axial directions of sensors such as acceleration sensors included in the wearable terminal in advance.

特許文献1には、ユーザの手や腕、及びユーザが使用する器具、例えばゴルフクラブ等にセンサを取付けた状態で、素振り等の回転運動をしたときに各センサで計測される計測データに基づいて、各センサの軸方向を合わせることが開示される。 Patent Document 1 describes a method based on measurement data measured by each sensor when a user performs a rotational movement such as a practice swing with the sensors attached to the user's hands and arms and the equipment used by the user, such as a golf club. Accordingly, it is disclosed that the axial directions of each sensor are aligned.

特許第6168279号公報Patent No. 6168279

しかしながら特許文献1では、異なるタイミングで計測された計測データを用いて、各センサの軸方向を合わせることに対する配慮はなされていない。すなわち特許文献1は同時に計測された計測データに基づくことが前提であるため、例えばウェアラブル端末の開発時の計測データと使用時の計測データとに基づいて、開発時のセンサの軸方向と使用時のセンサの軸方向とを合わせることは困難である。 However, in Patent Document 1, no consideration is given to aligning the axial directions of the sensors using measurement data measured at different timings. In other words, since Patent Document 1 is based on measurement data measured at the same time, for example, the axial direction of the sensor at the time of development and the time of use are determined based on the measurement data at the time of development and the measurement data at the time of use of the wearable terminal. It is difficult to match the axial direction of the sensor.

そこで本発明は、異なるタイミングで計測された計測データであっても、複数のセンサの軸方向を合わせることが可能な行動解析システム及びそれを用いた行動解析方法を提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a behavior analysis system and a behavior analysis method using the system that can align the axial directions of a plurality of sensors even if the measurement data is measured at different timings.

上記目的を達成するために本発明は、ユーザの行動を解析する行動解析システムであって、第一センサによって複数の軸方向について計測された第一計測データに対して基準区間を設定する設定部と、前記第一計測データと異なるタイミングで第二センサによって複数の軸方向について計測された第二計測データの中から前記基準区間に対応する対応区間を抽出する抽出部と、前記基準区間の第一計測データと前記対応区間の第二計測データとに基づいて、軸方向を変換するモデルである軸方向変換モデルを生成する生成部と、前記軸方向変換モデルを用いて、前記第二センサの軸方向を前記第一センサの軸方向に変換する変換部を備えることを特徴とする。 In order to achieve the above object, the present invention provides a behavior analysis system that analyzes user behavior, and includes a setting unit that sets a reference interval for first measurement data measured in a plurality of axial directions by a first sensor. an extraction unit that extracts a corresponding section corresponding to the reference section from second measurement data measured in a plurality of axial directions by a second sensor at a timing different from the first measurement data; a generation unit that generates an axial direction conversion model that is a model for converting the axial direction based on the first measurement data and the second measurement data of the corresponding section; The sensor is characterized by comprising a converter that converts the axial direction to the axial direction of the first sensor.

また本発明は、ユーザの行動を解析する行動解析システムを用いた行動解析方法であって、第一センサによって複数の軸方向について計測された第一計測データに対して基準区間を設定する設定ステップと、前記第一計測データと異なるタイミングで第二センサによって複数の軸方向について計測された第二計測データの中から前記基準区間に対応する対応区間を抽出する抽出ステップと、前記基準区間の第一計測データと前記対応区間の第二計測データとに基づいて、軸方向を変換するモデルである軸方向変換モデルを生成する生成ステップと、前記軸方向変換モデルを用いて、前記第二センサの軸方向を前記第一センサの軸方向に変換する変換ステップを備えることを特徴とする。 The present invention also provides a behavior analysis method using a behavior analysis system for analyzing user behavior, in which a setting step of setting a reference interval for first measurement data measured in a plurality of axial directions by a first sensor. an extraction step of extracting a corresponding section corresponding to the reference section from second measurement data measured in a plurality of axial directions by a second sensor at a timing different from the first measurement data; a generation step of generating an axial direction conversion model, which is a model for converting the axial direction, based on the first measurement data and the second measurement data of the corresponding section; The method is characterized by comprising a conversion step of converting the axial direction to the axial direction of the first sensor.

本発明によれば、異なるタイミングで計測された計測データであっても、複数のセンサの軸方向を合わせることが可能な行動解析システム及びそれを用いた行動解析方法を提供することができる。 According to the present invention, it is possible to provide a behavior analysis system and a behavior analysis method using the same that can align the axial directions of a plurality of sensors even if measurement data is measured at different timings.

実施例1の行動解析システムの全体構成の一例を示す図である。1 is a diagram illustrating an example of the overall configuration of a behavior analysis system according to a first embodiment. 開発用センサデータのデータ構造の一例を示す図である。It is a figure showing an example of the data structure of sensor data for development. ユーザ使用センサデータのデータ構造の一例を示す図である。FIG. 3 is a diagram showing an example of a data structure of sensor data used by a user. 軸方向変換モデルのデータ構造の一例を示す図である。FIG. 3 is a diagram showing an example of a data structure of an axial transformation model. 付与後センサデータのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of sensor data after provision. 実施例1において開発用センサデータを生成する処理の流れの一例を示す図である。3 is a diagram showing an example of the flow of processing for generating development sensor data in Example 1. FIG. センサテーブルのデータ構造の一例を示す図である。It is a figure showing an example of the data structure of a sensor table. ユーザテーブルのデータ構造の一例を示す図である。FIG. 3 is a diagram showing an example of a data structure of a user table. 装着部位テーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of a mounting part table. 装着方向テーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of a mounting direction table. 実施例1において軸方向変換モデルを生成する処理の流れの一例を示す図である。3 is a diagram showing an example of the flow of processing for generating an axial transformation model in Example 1. FIG. 実施例1において軸方向を変換する処理の流れの一例を示す図である。FIG. 3 is a diagram showing an example of the flow of processing for converting the axial direction in the first embodiment. 実施例1において表示される通常画面の一例を示す図である。3 is a diagram showing an example of a normal screen displayed in the first embodiment. FIG. 実施例1において表示される警告画面の一例を示す図である。5 is a diagram showing an example of a warning screen displayed in Example 1. FIG. 実施例2の行動解析システムの全体構成の一例を示す図である。2 is a diagram illustrating an example of the overall configuration of a behavior analysis system according to a second embodiment. FIG. 実施例2において行動解析する処理の流れの一例を示す図である。FIG. 7 is a diagram illustrating an example of the flow of processing for behavior analysis in Example 2; 実施例2において表示される画面の一例を示す図である。7 is a diagram showing an example of a screen displayed in Example 2. FIG.

以下、添付図面に従って本発明に係る行動解析システムの好ましい実施例について説明する。なお、以下の説明及び添付図面において、同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the behavior analysis system according to the present invention will be described below with reference to the accompanying drawings. In the following description and accompanying drawings, components having the same functional configuration are designated by the same reference numerals, thereby omitting redundant explanation.

図1を用いて実施例1の行動解析システムの全体構成について説明する。行動解析システムは、ユーザの身体の一部に装着されるユーザ使用センサ端末1または開発用センサ端末6と、PC2またはスマートフォン3と、サーバ5によって構成される。ユーザ使用センサ端末1または開発用センサ端末6と、PC2またはスマートフォン3とは無線によりデータを送受できるように接続される。PC2またはスマートフォン3とサーバ5とはネットワーク4を介してデータを送受できるように接続される。 The overall configuration of the behavior analysis system of Example 1 will be explained using FIG. 1. The behavior analysis system includes a sensor terminal 1 used by the user or a sensor terminal 6 for development that is attached to a part of the user's body, a PC 2 or a smartphone 3, and a server 5. The sensor terminal 1 used by the user or the sensor terminal 6 for development is connected to the PC 2 or the smartphone 3 so that data can be transmitted and received wirelessly. The PC 2 or smartphone 3 and the server 5 are connected via a network 4 so that data can be sent and received.

ユーザ使用センサ端末1および開発用センサ端末6は、ユーザに装着されて行動を計測するウェアラブル端末であり、例えば直交する三軸のそれぞれについて加速度を計測する加速度センサを含む。なおユーザ使用センサ端末1は個人ユーザが使用するウェアラブル端末であり、開発用センサ端末6は開発者が使用するウェアラブル端末である。またユーザ使用センサ端末1または開発用センサ端末6が装着される対象は人に限られず、動物やロボット等を含む動体全般である。 The sensor terminal 1 used by the user and the sensor terminal 6 for development are wearable terminals that are worn by the user to measure behavior, and include, for example, acceleration sensors that measure acceleration in each of three orthogonal axes. Note that the user-used sensor terminal 1 is a wearable terminal used by an individual user, and the development sensor terminal 6 is a wearable terminal used by a developer. Further, the object to which the sensor terminal 1 for use by the user or the sensor terminal for development 6 is attached is not limited to humans, but may be any moving object including animals, robots, and the like.

PC2およびスマートフォン3は、ユーザ専用のコンピュータであり、ユーザ使用センサ端末1または開発用センサ端末6から送信される計測データをメタデータとともにサーバ5へ送信したり、サーバ5から送信されるデータを受信して表示したりする。メタデータは、ユーザ使用センサ端末1または開発用センサ端末6によって計測された計測データの意味が記述されるデータであり、例えばユーザを示すユーザIDや計測に用いられたウェアラブル端末を示す端末名等を含む。 The PC 2 and the smartphone 3 are computers dedicated to the user, and transmit measurement data sent from the sensor terminal 1 used by the user or the sensor terminal 6 for development to the server 5 along with metadata, and receive data sent from the server 5. and display it. Metadata is data that describes the meaning of measurement data measured by the sensor terminal 1 used by the user or the sensor terminal 6 for development, and includes, for example, a user ID indicating the user, a terminal name indicating the wearable terminal used for measurement, etc. including.

サーバ5は、いわゆるコンピュータであり、メモリ11、通信部12、CPU(Central Processing Unit)13、データベース14を有する。メモリ11は、データやプログラムを一時的に記憶するデバイスであり、例えばセンサデータ入出力プログラム21や軸方向変更プログラム22を一時的に記憶する。通信部12は、LAN、電話回線、インターネット等のネットワーク4を介して、データを送受信するデバイスであり、CPU13に接続される。CPU13は、各種プログラムや演算を実行するとともに各部の動作を制御するデバイスであり、例えばメモリ11にロードされたセンサデータ入出力プログラム21や軸方向変更プログラム22を実行する。 The server 5 is a so-called computer, and includes a memory 11, a communication section 12, a CPU (Central Processing Unit) 13, and a database 14. The memory 11 is a device that temporarily stores data and programs, and temporarily stores, for example, a sensor data input/output program 21 and an axial direction change program 22. The communication unit 12 is a device that transmits and receives data via a network 4 such as a LAN, telephone line, or the Internet, and is connected to the CPU 13 . The CPU 13 is a device that executes various programs and calculations and controls the operation of each part, and executes, for example, a sensor data input/output program 21 and an axial direction change program 22 loaded into the memory 11.

データベース14は、各種データが格納されるデバイスであり、例えばセンサデータ入出力プログラム21や軸方向変更プログラム22によって処理されるデータが格納される。具体的には、ユーザ使用センサデータ41、開発用センサデータ42、軸方向変換モデル43、付与後センサデータ44、センサテーブル46、ユーザテーブル47、装着部位テーブル48等がデータベース14に格納される。また装着方向テーブル45がデータベース14に格納されても良い。各種データの構造は後述される。 The database 14 is a device that stores various data, and stores, for example, data processed by the sensor data input/output program 21 and the axial direction change program 22. Specifically, user-used sensor data 41, development sensor data 42, axial direction conversion model 43, post-application sensor data 44, sensor table 46, user table 47, attachment site table 48, and the like are stored in database 14. Further, the mounting direction table 45 may be stored in the database 14. Structures of various data will be described later.

センサデータ入出力プログラム21は、通信部12およびネットワーク4を介してPC2やスマートフォン3に対してデータを送受信するプログラムであり、データベース14に格納されるデータをユーザに提示したり、ユーザが入力するデータを受け付けたりする。 The sensor data input/output program 21 is a program that transmits and receives data to and from the PC 2 and the smartphone 3 via the communication unit 12 and the network 4, and presents data stored in the database 14 to the user or input by the user. accept data.

軸方向変更プログラム22は、ユーザ使用センサ端末1や開発用センサ端末6によって計測された計測データの軸方向を変更するプログラムであり、メタデータ付与プログラム31、軸方向変換モデル作成プログラム32、軸方向変換プログラム33を含む。 The axial direction change program 22 is a program for changing the axial direction of measurement data measured by the sensor terminal 1 used by the user or the sensor terminal 6 for development. Contains a conversion program 33.

メタデータ付与プログラム31は、ユーザ使用センサ端末1や開発用センサ端末6の計測データに、計測データとともに送信されたメタデータを付与するプログラムである。ユーザ使用センサ端末1の計測データにメタデータが付与されることによってユーザ使用センサデータ41が生成される。また開発用センサ端末6の計測データにメタデータが付与されることによって開発用センサデータ42が生成される。なおユーザ使用センサ端末1は様々な場面で使用されるので、各場面に対応する開発用センサデータ42が生成される。 The metadata addition program 31 is a program that adds metadata transmitted together with the measurement data to the measurement data of the sensor terminal 1 used by the user or the sensor terminal 6 for development. By adding metadata to the measurement data of the sensor terminal 1 used by the user, the sensor data 41 used by the user is generated. Further, the development sensor data 42 is generated by adding metadata to the measurement data of the development sensor terminal 6. Note that since the user-used sensor terminal 1 is used in various scenes, development sensor data 42 corresponding to each scene is generated.

図2Aと図2Bを用いて、開発用センサデータ42とユーザ使用センサデータ41のデータ構造の一例について説明する。開発用センサデータ42は計測データとメタ―データから構成される。計測データには、例えば時刻901、X軸加速度902、Y軸加速度903、Z軸加速度904が含まれる。メタデータには、少なくともユーザID905、センサ端末名906、装着部位907が含まれる。装着部位907には、開発用センサ端末6が装着された身体の部位、例えば左手首や右足首等が格納される。メタデータは、各時刻の計測データ毎に付与されても良いし、図2Aに例示されるように複数の時刻の計測データに対して付与されても良い。 An example of the data structure of the development sensor data 42 and the user-used sensor data 41 will be described with reference to FIGS. 2A and 2B. The development sensor data 42 is composed of measurement data and metadata. The measurement data includes, for example, time 901, X-axis acceleration 902, Y-axis acceleration 903, and Z-axis acceleration 904. The metadata includes at least a user ID 905, a sensor terminal name 906, and a mounting site 907. The attachment site 907 stores a body site to which the development sensor terminal 6 is attached, such as a left wrist or a right ankle. Metadata may be provided for each measurement data at each time, or may be provided for measurement data at multiple times as illustrated in FIG. 2A.

またメタデータには、さらに装着方向908や基準行動909が含まれても良い。装着方向908には、開発用センサ端末6が装着されたときの順方向を基準とした方向が格納される。例えば、予め定められた順方向と同じで方向に開発用センサ端末6が装着される場合は「順方向」が、順方向とは反対の方向に装着される場合は「逆方向」が格納される。なお開発用センサ端末6が装着される方向が既定通りであることを前提として未格納としても良い。また順方向に対する装着方向の差異に係るデータがオイラー角やクォータニオン、回転行列の形式で格納されても良い。基準行動909には、計測データが計測されるときの基準となる行動が格納される。例えば、計測データが歩行時に計測される場合は「歩行」が、ラジオ体操時に計測される場合は「ラジオ体操」が格納される。 Further, the metadata may further include a wearing direction 908 and a reference behavior 909. The mounting direction 908 stores a direction based on the forward direction when the development sensor terminal 6 is mounted. For example, when the development sensor terminal 6 is attached in the same direction as the predetermined forward direction, "forward direction" is stored, and when it is attached in the opposite direction to the forward direction, "reverse direction" is stored. Ru. Note that the development sensor terminal 6 may be left unstored on the premise that the direction in which it is attached is the same as the predetermined direction. Further, data regarding the difference in the mounting direction with respect to the forward direction may be stored in the form of Euler angles, quaternions, or rotation matrices. The standard behavior 909 stores a behavior that serves as a standard when measurement data is measured. For example, when the measurement data is measured while walking, "walking" is stored, and when the measurement data is measured during radio gymnastics, "radio gymnastics" is stored.

ユーザ使用センサデータ41は、開発用センサデータ42と同様に、計測データとメタ―データから構成される。計測データには、例えば時刻911、X軸加速度912、Y軸加速度913、Z軸加速度914が含まれる。メタデータには、少なくともユーザID915、センサ端末名916、装着部位917が含まれる。またメタデータには、さらに装着方向918や抽出条件919が含まれても良い。抽出条件919は、後述される対応区間をユーザ使用センサデータ41から抽出するときに使用される条件である。 The user-used sensor data 41, like the development sensor data 42, is composed of measurement data and metadata. The measurement data includes, for example, time 911, X-axis acceleration 912, Y-axis acceleration 913, and Z-axis acceleration 914. The metadata includes at least a user ID 915, a sensor terminal name 916, and a mounting site 917. Further, the metadata may further include a mounting direction 918 and extraction conditions 919. The extraction condition 919 is a condition used when extracting a corresponding section, which will be described later, from the user-used sensor data 41.

図1の説明に戻る。軸方向変換モデル作成プログラム32は、ユーザ使用センサデータ41と開発用センサデータ42とに基づいて、軸方向を変換するモデルである軸方向変換モデル43を生成するプログラムである。軸方向変換プログラム33は、軸方向変換モデル43を用いて、ユーザ使用センサデータ41から付与後センサデータ44を生成するプログラムである。 Returning to the explanation of FIG. The axial direction conversion model creation program 32 is a program that generates an axial direction conversion model 43, which is a model for converting the axial direction, based on the user-used sensor data 41 and the development sensor data 42. The axial direction conversion program 33 is a program that uses the axial direction conversion model 43 to generate added sensor data 44 from the user-used sensor data 41 .

図3Aと図3Bを用いて、軸方向変換モデル43と付与後センサデータ44のデータ構造の一例について説明する。軸方向変換モデル43には、例えば軸方向変換モデルID951、基準センサ端末名952、対象センサ端末名953、装着部位954、変換式955が含まれる。軸方向変換モデルID951には、軸方向変換モデル作成プログラム32によって作成される軸方向変換モデル43のIDが格納される。基準センサ端末名952には、開発用センサデータ42の計測に用いられ、軸方向の基準となる開発用センサ端末6の端末名が格納される。対象センサ端末名953には、ユーザ使用センサデータ41の計測に用いられ、軸方向が変更されるユーザ使用センサ端末1の端末名が格納される。装着部位954には、開発用センサ端末6が装着された部位が格納される。変換式955には、軸方向の変更に用いられる数式が格納される。 An example of the data structure of the axial direction conversion model 43 and the assigned sensor data 44 will be described using FIGS. 3A and 3B. The axial conversion model 43 includes, for example, an axial conversion model ID 951, a reference sensor terminal name 952, a target sensor terminal name 953, a mounting site 954, and a conversion formula 955. The axial direction conversion model ID 951 stores the ID of the axial direction conversion model 43 created by the axial direction conversion model creation program 32. The reference sensor terminal name 952 stores the terminal name of the development sensor terminal 6 that is used to measure the development sensor data 42 and serves as a reference in the axial direction. The target sensor terminal name 953 stores the terminal name of the user-used sensor terminal 1 that is used to measure the user-used sensor data 41 and whose axial direction is changed. The attachment site 954 stores the site where the development sensor terminal 6 is attached. The conversion formula 955 stores a mathematical formula used to change the axial direction.

また軸方向変換モデル43には、さらに装着方向956や抽出条件957、基準一軸958、他二軸959が含まれても良い。装着方向956には、例えば開発用センサ端末6が装着された方向が格納される。抽出条件957には、後述される対応区間をユーザ使用センサデータ41から抽出するときに使用される条件が格納される。基準一軸958には、開発用センサ端末6とユーザ使用センサ端末1との各三軸のうちのいずれの軸が基準軸として対応付けられたかが格納される。他二軸959には、基準軸以外の他の二軸同士を対応付けるための回転角が格納される。 Further, the axial direction conversion model 43 may further include a mounting direction 956, extraction conditions 957, one reference axis 958, and two other axes 959. The mounting direction 956 stores, for example, the direction in which the development sensor terminal 6 is mounted. The extraction condition 957 stores conditions used when extracting a corresponding section, which will be described later, from the user-used sensor data 41. The reference axis 958 stores which axis among the three axes of the development sensor terminal 6 and the user-used sensor terminal 1 is associated as the reference axis. The other two axes 959 store rotation angles for associating two axes other than the reference axis.

付与後センサデータ44は、計測データとメタデータ、軸変換データから構成される。計測データには、時刻931、X軸加速度932、Y軸加速度933、Z軸加速度934が含まれる。メタデータには、少なくともユーザID935、センサ端末名936、装着部位937が含まれ、さらに装着方向938が含まれても良い。軸変換データには、軸変換939と軸方向変換モデルID940が含まれる。軸変換939には、軸変換がなされたか否かを示すデータが格納される。図3Bには、軸変換が未だなされてないことを示す「未済」が例示される。なお軸変換がなされていない場合は、ユーザ使用センサデータ41の計測データが付与後センサデータ44の計測データに格納され、軸変換がなされている場合は、軸変換がなされた計測データが付与後センサデータ44の計測データに格納される。軸方向変換モデルID940には、軸方向変換プログラム33に用いられる軸方向変換モデル43のIDが格納される。 The applied sensor data 44 is composed of measurement data, metadata, and axis conversion data. The measurement data includes time 931, X-axis acceleration 932, Y-axis acceleration 933, and Z-axis acceleration 934. The metadata includes at least a user ID 935, a sensor terminal name 936, a mounting site 937, and may further include a mounting direction 938. The axis transformation data includes an axis transformation 939 and an axial direction transformation model ID 940. The axis conversion 939 stores data indicating whether or not axis conversion has been performed. FIG. 3B exemplifies "unfinished" indicating that the axis conversion has not been performed yet. Note that if axis conversion has not been performed, the measurement data of the user-used sensor data 41 is stored in the measurement data of the assigned sensor data 44, and if axis conversion has been performed, the measurement data with axis conversion is stored in the measurement data of the attached sensor data 44. It is stored in the measurement data of the sensor data 44. The axial direction conversion model ID 940 stores the ID of the axial direction conversion model 43 used in the axial direction conversion program 33.

実施例1の行動解析システムは、ユーザの行動を解析するに先立ち、行動解析システムの開発時に使用されるウェアラブル端末である開発用センサ端末6の軸方向と、個人ユーザに使用されるウェアラブル端末であるユーザ使用センサ端末1の軸方向とを合わせる。開発用センサ端末6の計測データを含む開発用センサデータ42は、ユーザ使用センサ端末1が使用される様々な場面に対応できるように生成される。 Prior to analyzing the user's behavior, the behavior analysis system of the first embodiment determines the axial direction of the development sensor terminal 6, which is a wearable terminal used when developing the behavior analysis system, and the wearable terminal used by the individual user. Align with the axial direction of the sensor terminal 1 used by a certain user. The development sensor data 42 including measurement data of the development sensor terminal 6 is generated so as to be compatible with various situations in which the user-use sensor terminal 1 is used.

図4を用いて、開発用センサデータ42が生成される処理の流れの一例について、処理ステップ毎に説明する。 An example of the flow of processing for generating the development sensor data 42 will be explained for each processing step using FIG. 4 .

(S401)
開発用センサ端末6によって計測データが収集され、収集された計測データはメタデータとともにサーバ5へ送信される。
(S401)
Measurement data is collected by the development sensor terminal 6, and the collected measurement data is transmitted to the server 5 together with metadata.

(S402)
メタデータ付与プログラム31が実行されることにより、S401で収集された計測データにメタデータが付与され、開発用センサデータ42が生成される。生成された開発用センサデータ42はデータベース14に格納される。メタデータには、少なくとも開発用センサ端末6の識別子とユーザの識別子、開発用センサ端末6が装着された部位が含まれる。なおメタデータの付与には、データベース14に格納されるセンサテーブル46や、ユーザテーブル47、装着部位テーブル48、装着方向テーブル45が用いられても良い。
(S402)
By executing the metadata adding program 31, metadata is added to the measurement data collected in S401, and development sensor data 42 is generated. The generated development sensor data 42 is stored in the database 14. The metadata includes at least the identifier of the development sensor terminal 6, the user's identifier, and the part to which the development sensor terminal 6 is attached. Note that the sensor table 46, user table 47, attachment site table 48, and attachment direction table 45 stored in the database 14 may be used to provide the metadata.

図5A、図5B、図5C、図5Dを用いて、センサテーブル46、ユーザテーブル47、装着部位テーブル48、装着方向テーブル45のデータ構造の一例について説明する。センサテーブル46には、例えば基準センサ端末名961、基準センサ装着部位962、変換先センサ端末名964、変換先センサ装着部位965、軸方向変換モデルID968が含まれる。基準センサ端末名961には、軸方向の基準となる開発用センサ端末6の端末名が格納される。基準センサ装着部位962には、軸方向の基準となる開発用センサ端末6が装着された部位が格納される。変換先センサ端末名964には、軸方向が変換されるユーザ使用センサ端末1の端末名が格納される。変換先センサ装着部位965には、軸方向が変換されるユーザ使用センサ端末1が装着された部位が格納される。軸方向変換モデルID968には、軸方向変換モデル作成プログラム32によって作成される軸方向変換モデル43のIDが格納される。なお軸方向変換モデル43が作成される前の時点では軸方向変換モデルID968は未格納であっても良い。 An example of the data structure of the sensor table 46, user table 47, attachment site table 48, and attachment direction table 45 will be described using FIGS. 5A, 5B, 5C, and 5D. The sensor table 46 includes, for example, a reference sensor terminal name 961, a reference sensor attachment part 962, a conversion destination sensor terminal name 964, a conversion destination sensor attachment part 965, and an axial conversion model ID 968. The reference sensor terminal name 961 stores the terminal name of the development sensor terminal 6 that is the reference in the axial direction. The reference sensor attachment portion 962 stores a portion to which the development sensor terminal 6, which serves as an axial reference, is attached. The conversion destination sensor terminal name 964 stores the terminal name of the user-used sensor terminal 1 whose axial direction is to be converted. The conversion destination sensor attachment site 965 stores a site where the user-used sensor terminal 1 whose axial direction is to be converted is attached. The axial direction conversion model ID 968 stores the ID of the axial direction conversion model 43 created by the axial direction conversion model creation program 32. Note that the axial direction conversion model ID 968 may not be stored before the axial direction conversion model 43 is created.

センサテーブル46には、さらに基準センサ装着方向963や変換先センサ装着方向966、抽出条件967が含まれても良い。基準センサ装着方向963には、軸方向の基準となる開発用センサ端末6が装着された方向が格納される。変換先センサ装着方向966には軸方向が変換されるユーザ使用センサ端末1が装着された方向が格納される。抽出条件967には、後述される対応区間をユーザ使用センサデータ41から抽出するときに使用される条件が格納される。 The sensor table 46 may further include a reference sensor mounting direction 963, a conversion destination sensor mounting direction 966, and an extraction condition 967. The reference sensor mounting direction 963 stores the direction in which the development sensor terminal 6, which serves as an axial reference, is mounted. The conversion destination sensor mounting direction 966 stores the direction in which the sensor terminal 1 used by the user whose axial direction is to be converted is mounted. The extraction condition 967 stores conditions used when extracting a corresponding section, which will be described later, from the user-used sensor data 41.

ユーザテーブル47には、例えばユーザID971、利用センサ端末名972、装着部位973が含まれる。さらにユーザテーブル47には、装着方向974や軸方向変換モデルID977、利用開始時刻975、利用終了時刻976が含まれても良い。 The user table 47 includes, for example, a user ID 971, a used sensor terminal name 972, and a mounting site 973. Further, the user table 47 may include a mounting direction 974, an axial direction conversion model ID 977, a usage start time 975, and a usage end time 976.

装着部位テーブル48には、例えば利用センサ端末名981と許容装着部位982が含まれる。許容装着部位982には、ユーザ使用センサ端末1の装着が許容される部位が格納される。 The attachment site table 48 includes, for example, the name of the sensor terminal used 981 and the allowable attachment site 982. The allowable mounting region 982 stores the region where the sensor terminal 1 used by the user is allowed to be mounted.

装着方向テーブル45には、例えば利用センサ端末名991と許容装着方向992が含まれる。許容装着方向992には、ユーザ使用センサ端末1の装着が許容される方向が格納される。 The mounting direction table 45 includes, for example, a used sensor terminal name 991 and a permissible mounting direction 992. The permissible mounting direction 992 stores the direction in which the sensor terminal 1 used by the user is allowed to be mounted.

図4の説明に戻る。 Returning to the explanation of FIG. 4.

(S403)
S402で生成された開発用センサデータ42に対して基準区間が設定される。基準区間は、計測データの計測中にユーザのボタン操作によって定められる開始時刻と終了時刻によって設定されても良いし、計測データが計測されるときの基準となる行動が検出されてから所定の時間が経過するまでの間として設定されても良い。
(S403)
A reference interval is set for the development sensor data 42 generated in S402. The reference interval may be set by the start time and end time determined by the user's button operation while measuring the measurement data, or may be set by a predetermined time after the detection of the behavior that becomes the reference when the measurement data is measured. It may be set as a period of time until the period of time elapses.

(S404)
ユーザ使用センサ端末1が使用される様々な場面に対応する全条件に対して、計測データが収集されるとともに基準区間が設定できたか否かが判定される。全条件に対して基準区間が設定できていれば処理の流れは終了となり、設定できていなければS401へ処理が戻されて未収集の条件に対する計測データが収集される。なお条件には、ウェアラブル端末の種類が含まれても良い。
(S404)
Measurement data is collected for all conditions corresponding to various situations in which the sensor terminal 1 used by the user is used, and it is determined whether the reference section has been set. If reference intervals have been set for all conditions, the process flow ends; if not, the process returns to S401 and measurement data for uncollected conditions is collected. Note that the conditions may include the type of wearable terminal.

以上の処理の流れにより、ユーザ使用センサ端末1が使用される様々な場面に対応する全条件に対して、開発用センサデータ42が生成されるとともに、開発用センサデータ42のそれぞれに対して基準区間が設定される。軸方向変換モデル作成プログラム32は、基準区間が設定された開発用センサデータ42を用いて、軸方向変換モデル43を作成する。 Through the above process flow, the development sensor data 42 is generated for all conditions corresponding to various situations in which the user sensor terminal 1 is used, and the development sensor data 42 is generated as a standard for each of the development sensor data 42. The interval is set. The axial conversion model creation program 32 creates an axial conversion model 43 using the development sensor data 42 in which the reference section has been set.

図6を用いて、軸方向変換モデル43が作成される処理の流れの一例について、処理ステップ毎に説明する。 An example of the flow of processing for creating the axial transformation model 43 will be explained for each processing step using FIG. 6 .

(S601)
ユーザ使用センサ端末1によって計測データが収集され、収集された計測データはメタデータとともにサーバ5へ送信される。
(S601)
Measurement data is collected by the sensor terminal 1 used by the user, and the collected measurement data is transmitted to the server 5 together with metadata.

(S602)
メタデータ付与プログラム31が実行されることにより、S601で収集された計測データにメタデータが付与され、ユーザ使用センサデータ41が生成される。メタデータには、少なくともユーザ使用センサ端末1の識別子とユーザの識別子、ユーザ使用センサ端末1が装着された部位が含まれる。メタデータには、さらにユーザ使用センサ端末1が装着された方向が含まれても良い。またメタデータの付与には、データベース14に格納されるセンサテーブル46や、ユーザテーブル47、装着部位テーブル48、装着方向テーブル45が用いられても良い。
(S602)
By executing the metadata adding program 31, metadata is added to the measurement data collected in S601, and user-used sensor data 41 is generated. The metadata includes at least the identifier of the sensor terminal 1 used by the user, the identifier of the user, and the part to which the sensor terminal 1 used by the user is attached. The metadata may further include the direction in which the sensor terminal 1 used by the user is attached. Furthermore, the sensor table 46, user table 47, attachment site table 48, and attachment direction table 45 stored in the database 14 may be used to provide metadata.

(S603)
S602で生成されたユーザ使用センサデータ41から対応区間が抽出される。対応区間は、開発用センサデータ42に対して設定された基準区間に対応する区間であり、抽出条件に基づいて抽出される。抽出条件は、ユーザによって入力されたり、ユーザが選択する基準に応じて予め設定されたりする。例えば選択される基準行動に歩行やラジオ体操、静止状態があり、歩行が選択される場合は、三軸のうちの一軸において所定の周波数帯域、例えば2Hzの周波数パワーに対する閾値が抽出条件として設定され、当該周波数パワーが閾値を超える区間が対応区間とされる。またラジオ体操が選択される場合は、特定のリズムで行われる特定動作を表す時系列パターンデータが抽出条件として設定され、当該時系列パターンデータとの一致度がより高い区間が対応区間とされる。また静止状態が選択される場合は、重力加速度が抽出条件として設定され、三軸のうちの一軸において重力加速度が最大であり続ける区間が対応区間とされる。
(S603)
A corresponding section is extracted from the user-used sensor data 41 generated in S602. The corresponding section is a section corresponding to a reference section set for the development sensor data 42, and is extracted based on extraction conditions. The extraction conditions may be input by the user or set in advance according to criteria selected by the user. For example, the reference actions to be selected include walking, radio calisthenics, and a stationary state, and if walking is selected, a threshold value for a frequency power of a predetermined frequency band, for example, 2 Hz, is set as an extraction condition in one of the three axes. , the section in which the frequency power exceeds the threshold is defined as the corresponding section. Additionally, when radio calisthenics is selected, time-series pattern data representing a specific movement performed with a specific rhythm is set as an extraction condition, and a section with a higher degree of match with the time-series pattern data is set as a corresponding section. . Further, when a stationary state is selected, gravitational acceleration is set as an extraction condition, and a section in which gravitational acceleration continues to be maximum in one of the three axes is set as a corresponding section.

(S604)
S603で抽出された対応区間が適切であるか否かが判定される。適切であればS605へ処理が進められ、不適切であればS601へ処理が戻されて再び計測データが収集される。対応区間が適切であるか否かは、例えば一定時間以上の対応区間が抽出されたか否かによって判定される。すなわち基準行動である歩行やラジオ体操の動作や静止状態が一定時間以上にわたって検出されると、適切に対応区間が抽出されたとして判定される。
(S604)
It is determined whether the corresponding section extracted in S603 is appropriate. If appropriate, the process advances to S605; if inappropriate, the process returns to S601 and measurement data is collected again. Whether or not the corresponding section is appropriate is determined by, for example, whether or not a corresponding section that lasts a certain period of time or more is extracted. In other words, when the standard behavior of walking, radio calisthenics, or standing still is detected for a certain period of time or more, it is determined that the corresponding section has been appropriately extracted.

(S605)
S603で抽出された対応区間に対応する基準区間を含む開発用センサデータ42が読み込まれる。データベース14にはユーザ使用センサ端末1が使用される様々な場面に対応する開発用センサデータ42が格納されているので、その中から対応する開発用センサデータ42がメタデータに基づいて読み出される。なおユーザ使用センサデータ41のメタデータと開発用センサデータ42のメタデータとは、必ずしも完全に一致しなくても良い。例えば、ユーザ使用センサデータ41の装着部位917が左手首である場合は、開発用センサデータ42の装着部位907が右手首であっても良い。すなわち、装着部位に関しては左右対称な部位であることが許容され、以降の処理において身体の対称性が利用される。
(S605)
The development sensor data 42 including the reference section corresponding to the corresponding section extracted in S603 is read. Since the database 14 stores development sensor data 42 corresponding to various situations in which the user sensor terminal 1 is used, the corresponding development sensor data 42 is read out from therein based on the metadata. Note that the metadata of the user-used sensor data 41 and the metadata of the development sensor data 42 do not necessarily have to completely match. For example, if the attachment site 917 of the user-used sensor data 41 is the left wrist, the attachment site 907 of the development sensor data 42 may be the right wrist. In other words, the attachment site is allowed to be a bilaterally symmetrical site, and the symmetry of the body is utilized in subsequent processing.

(S606)
S603で抽出された対応区間のユーザ使用センサデータ41に対して前処理が実施され、例えばユーザ使用センサデータ41のサンプリングレートやダイナミックレンジが開発用センサデータ42のものと揃えられる。またユーザ使用センサデータ41の装着部位917と開発用センサデータ42の装着部位907とが左右対称である場合は、ユーザ使用センサデータ41に対して対称性に基づく処理、例えば左右方向の計測データの正負を入れ替える処理が実施される。
(S606)
Pre-processing is performed on the user-used sensor data 41 of the corresponding section extracted in S603, so that, for example, the sampling rate and dynamic range of the user-used sensor data 41 are aligned with those of the development sensor data 42. Furthermore, if the attachment site 917 of the user-used sensor data 41 and the attachment site 907 of the development sensor data 42 are bilaterally symmetrical, the user-use sensor data 41 may be processed based on the symmetry, for example, when the measurement data in the horizontal direction is A process of exchanging the positive and negative is performed.

(S607)
S605で読み込まれた生成された開発用センサデータ42とS606で前処理が実施されたユーザ使用センサデータ41との各三軸のうちの一軸同士が対応付けられる。例えば、両データの基準行動が歩行である場合、両データの各三軸に対してフーリエ変換を用いた周波数解析によって周波数パワーが算出され、三軸の中で周波数パワーが最大となる一軸同士が対応付けられる。また基準行動がラジオ体操である場合、両データの各三軸の時系列データ間の類似度が算出され、類似度が最大となる一軸同士が対応付けられる。時系列データ間の類似度の算出には、例えば動的時間伸縮法等が用いられる。また両データが静止状態で計測された場合、重力加速度が最大となる一軸同士が対応付けられる。対応付けられた一軸同士は両データの基準軸とされ、両方の基準軸が正負方向も含めて一致するようにユーザ使用センサデータ41を回転させるモデルである一軸変換モデルRefAxが算出される。
(S607)
One axis of each of the three axes of the generated development sensor data 42 read in S605 and the user-use sensor data 41 subjected to preprocessing in S606 is associated with each other. For example, if the standard behavior of both data is walking, the frequency power is calculated by frequency analysis using Fourier transform for each of the three axes of both data, and the one axis with the maximum frequency power among the three axes is Can be matched. Further, when the reference action is radio gymnastics, the degree of similarity between the time series data of each of the three axes of both data is calculated, and the one axis having the maximum degree of similarity is associated with each other. For example, a dynamic time warping method or the like is used to calculate the similarity between time series data. Furthermore, when both data are measured in a stationary state, the one axis with the maximum gravitational acceleration is associated with each other. The associated single axes are used as reference axes for both data, and a uniaxial conversion model RefAx is calculated, which is a model for rotating the user-used sensor data 41 so that both reference axes coincide, including the positive and negative directions.

(S608)
開発用センサデータ42とユーザ使用センサデータ41との各三軸のうちの基準軸以外の二軸同士が対応付けられる。二軸同士を対応付ける具体的な手順の一例について説明する。
(S608)
Of the three axes of the development sensor data 42 and the user-used sensor data 41, two axes other than the reference axis are associated with each other. An example of a specific procedure for associating two axes will be described.

まず、S607で算出された一軸変換モデルRefAxを用いて、両基準軸の方向が一致するようにユーザ使用センサデータ41を回転させる。開発用センサデータ42の三軸を[Xdev、 Ydev、 Zdev]、ユーザ使用センサデータ41の三軸を[x、 y、 z]、回転後のユーザ使用センサデータ41の三軸を[x2、 y2、 z2]とすると、一軸変換モデルRefAxを用いて、[x2、 y2、 z2]=RefAx・[x、 y、 z]となる。 First, using the uniaxial conversion model RefAx calculated in S607, the user-used sensor data 41 is rotated so that the directions of both reference axes coincide. The three axes of the development sensor data 42 are [Xdev, Ydev, Zdev], the three axes of the user sensor data 41 are [x, y, z], and the three axes of the user sensor data 41 after rotation are [x2, y2]. , z2], then [x2, y2, z2]=RefAx·[x, y, z] using the uniaxial transformation model RefAx.

そして回転後のユーザ使用センサデータ41を基準軸の周りでさらに回転させて、基準軸以外の二軸同士を対応付ける。Zdevとzが基準軸として対応付けられた場合、z2は開発用センサデータ42の基準軸Zdevと平行であるので、[x2、 y2、 z2]をz2の周りで回転させることにより、基準軸以外の二軸同士が対応付けられる。すなわち回転角θに関する回転行列Rot(θ)を用いたRot(θ)・[x2、 y2、 z2]=Rot(θ)・RefAx・[x、 y、 z]が開発用センサデータ42の三軸[Xdev、 Ydev、 Zdev]と対応付けられる。そこで両者の誤差が最小となる回転角θ′を算出し、θ′を用いたRot(θ′)が基準軸以外の二軸を対応付けるモデルである他二軸変換モデルとなる。なお両者の誤差の最小値が予め定められた許容誤差よりも大きい場合には、ユーザ使用センサ端末1の装着に不具合があるとの警告が発せられても良い。 Then, the rotated user-used sensor data 41 is further rotated around the reference axis to associate the two axes other than the reference axis. When Zdev and z are associated as reference axes, z2 is parallel to the reference axis Zdev of the development sensor data 42, so by rotating [x2, y2, z2] around z2, The two axes of are associated with each other. In other words, Rot(θ)・[x2, y2, z2]=Rot(θ)・RefAx・[x, y, z] using the rotation matrix Rot(θ) regarding the rotation angle θ are the three axes of the development sensor data 42. It is associated with [Xdev, Ydev, Zdev]. Therefore, the rotation angle θ' that minimizes the error between the two is calculated, and Rot(θ') using θ' becomes the other two-axis conversion model, which is a model that associates two axes other than the reference axis. Note that if the minimum value of both errors is larger than a predetermined tolerance, a warning may be issued that there is a problem in the attachment of the sensor terminal 1 used by the user.

また開発用センサ端末6およびユーザ使用センサ端末1に含まれる加速度センサが同じ向きであって、両端末の装着部位が同一である場合、両端末が装着される方向の自由度は限定される。そこで、回転角θの探索範囲を0°、90°、180°、270°の4種類に限定し、各角度に対して開発用センサデータ42との誤差を算出し、誤差が最小となるθ′を用いて他二軸変換モデルRot(θ′)を算出しても良い。さらにユーザ使用センサデータ41と開発用センサデータ42に装着方向が含まれ、双方の装着方向が一致する場合は回転角θ=0°であるので、誤差が最小となる回転角θ′と予め定められた許容誤差εとの比較により装着方向の正否が判定されても良い。すなわち|θ′|≦εであれば装着方向は概ね合っていると判定され、|θ′|>εであれば装着方向に誤りがあると判定され、その旨を知らせる警告が発せられても良い。 Furthermore, if the acceleration sensors included in the development sensor terminal 6 and the user-used sensor terminal 1 are oriented in the same direction and the two terminals are attached to the same location, the degree of freedom in the direction in which both terminals are attached is limited. Therefore, we limited the search range of the rotation angle θ to four types: 0°, 90°, 180°, and 270°, calculated the error with the development sensor data 42 for each angle, and calculated the θ that minimizes the error. ' may be used to calculate another two-axis transformation model Rot(θ'). Furthermore, if the user-used sensor data 41 and the development sensor data 42 include the mounting direction, and the mounting directions of both match, the rotation angle θ=0°, so the rotation angle θ' is predetermined to minimize the error. It may be determined whether the mounting direction is correct or not by comparing it with the determined tolerance ε. In other words, if |θ′|≦ε, it is determined that the mounting direction is approximately correct; if |θ′|>ε, it is determined that the mounting direction is incorrect, and even if a warning to that effect is issued. good.

また開発用センサデータ42との誤差の最小化には、基準行動が歩行であるときの周波数パワーや、ラジオ体操であるときの時系列データ間の類似度が用いられても良い。さらに、基準軸以外の二軸同士の対応付けには、回転行列Rot(θ)が用いられることに限定されず、回転ベクトルやクォータニオン、オイラー角が用いられても良い。 Further, to minimize the error with the development sensor data 42, frequency power when the reference action is walking or similarity between time series data when the reference action is radio gymnastics may be used. Furthermore, the correspondence between two axes other than the reference axis is not limited to the rotation matrix Rot(θ), but may also be a rotation vector, a quaternion, or an Euler angle.

(S609)
S607で算出された一軸変換モデルRefAxとS608で算出された他二軸変換モデルRot(θ′)に基づいて、軸方向変換モデル43が生成される。すなわち、軸方向変換モデル43は、Rot(θ′)・RefAxとして生成される。
(S609)
The axial direction conversion model 43 is generated based on the uniaxial conversion model RefAx calculated in S607 and the other two-axis conversion model Rot(θ') calculated in S608. That is, the axial transformation model 43 is generated as Rot(θ')·RefAx.

以上の処理の流れにより、軸方向を変換するモデルである軸方向変換モデル43が生成される。軸方向変換モデル43の生成は、サーバ5がユーザ使用センサデータ41を受信したタイミングで自動的に、あるいは定期的に、あるいはユーザの指示に基づいて実行される。生成された軸方向変換モデル43は、‘の軸方向を開発用センサ端末6の軸方向に変更する処理に用いられる。 Through the above processing flow, the axial direction conversion model 43, which is a model for converting the axial direction, is generated. The generation of the axial transformation model 43 is executed automatically at the timing when the server 5 receives the sensor data 41 used by the user, periodically, or based on a user's instruction. The generated axial direction conversion model 43 is used in the process of changing the axial direction of ' to the axial direction of the development sensor terminal 6.

図7を用いて、ユーザ使用センサ端末1の軸方向を開発用センサ端末6の軸方向に変更する処理の流れの一例について、処理ステップ毎に説明する。 An example of the process flow for changing the axial direction of the sensor terminal 1 used by the user to the axial direction of the sensor terminal 6 for development will be explained for each processing step using FIG. 7 .

(S701)
ユーザ使用センサ端末1によって計測データが収集され、収集された計測データはメタデータとともにサーバ5へ送信される。
(S701)
Measurement data is collected by the sensor terminal 1 used by the user, and the collected measurement data is transmitted to the server 5 together with metadata.

(S702)
メタデータ付与プログラム31が実行されることにより、S701で収集された計測データにメタデータが付与され、ユーザ使用センサデータ41が生成される。
(S702)
By executing the metadata adding program 31, metadata is added to the measurement data collected in S701, and user-used sensor data 41 is generated.

(S703)
S702で生成されたユーザ使用センサデータ41に対して前処理が実施され、例えばユーザ使用センサデータ41のサンプリングレートやダイナミックレンジが開発用センサデータ42のものと揃えられたり、対称性に基づく処理が実施されたりする。なお、サンプリングレートやダイナミックレンジに関する処理は、軸方向変換モデル43が生成される過程で実施されているので必須ではない。
(S703)
Pre-processing is performed on the user-used sensor data 41 generated in S702, such as aligning the sampling rate and dynamic range of the user-used sensor data 41 with those of the development sensor data 42, or processing based on symmetry. It will be implemented. Note that processing related to the sampling rate and dynamic range is not essential because it is performed in the process of generating the axial transformation model 43.

(S704)
S703で前処理が実施されたユーザ使用センサデータ41の軸方向が変更され、付与後センサデータ44が生成される。軸方向の変更には、軸方向変換モデル43が用いられる。付与後センサデータ44のメタデータには、軸変換が実施済みか否かを示すフラグや軸方向変換モデル43のIDが含まれても良い。軸変換が未実施の場合、付与後センサデータ44の計測データは、ユーザ使用センサデータ41の計測データのままであり、軸方向変換モデル43のIDを参照することにより任意のタイミングで軸変換がなされても良い。
(S704)
The axial direction of the user-used sensor data 41 that has been preprocessed in S703 is changed, and post-applied sensor data 44 is generated. An axial direction conversion model 43 is used to change the axial direction. The metadata of the assigned sensor data 44 may include a flag indicating whether or not the axis conversion has been performed or not, and the ID of the axis direction conversion model 43. If axis conversion has not been performed, the measurement data of the assigned sensor data 44 remains the measurement data of the user-used sensor data 41, and axis conversion can be performed at any timing by referring to the ID of the axis direction conversion model 43. It may be done.

(S705)
ユーザ使用センサ端末1による計測データの収集を継続するか否かが判定される。継続する場合はS701へ処理が戻され、継続しない場合は処理の流れは終了となる。
(S705)
It is determined whether or not to continue collecting measurement data by the sensor terminal 1 used by the user. If the process is to be continued, the process returns to S701; if the process is not to be continued, the process flow ends.

以上の処理の流れにより、ユーザ使用センサ端末1の軸方向が開発用センサ端末6の軸方向に変更される。軸方向の変更結果は、PC2やスマートフォン3に表示されても良い。 Through the above process flow, the axial direction of the sensor terminal 1 used by the user is changed to the axial direction of the sensor terminal 6 for development. The change result in the axial direction may be displayed on the PC 2 or the smartphone 3.

図8及び図9を用いて、スマートフォン3に表示される画面の一例について説明する。図8に例示される画面は、上段、中段、下段に分かれ、画面の上段には計測中センサデータ表示部101と開始ボタン102、終了ボタン103が配置される。計測中センサデータ表示部101には、ユーザ使用センサ端末1によって計測され、軸方向変換モデル43によって軸方向が変更された3軸の加速度データである計測データが表示される。なお後述される軸変換切替部109によって、軸方向が変更される前の計測データの表示に切り替えられても良い。開始ボタン102と終了ボタン103は、ユーザ使用センサ端末1による計測の開始と終了を指示するボタンである。図8では計測中であるため、開始ボタン102がグレーアウトされる。 An example of a screen displayed on the smartphone 3 will be explained using FIGS. 8 and 9. The screen illustrated in FIG. 8 is divided into an upper stage, a middle stage, and a lower stage, and a sensor data display section 101 during measurement, a start button 102, and an end button 103 are arranged in the upper stage of the screen. The measuring sensor data display section 101 displays measurement data that is three-axis acceleration data that is measured by the sensor terminal 1 used by the user and whose axial direction has been changed by the axial direction conversion model 43. Note that the display may be switched to the display of measurement data before the axial direction is changed by the axis conversion switching unit 109, which will be described later. The start button 102 and the end button 103 are buttons for instructing the user's sensor terminal 1 to start and end measurement. In FIG. 8, since measurement is in progress, the start button 102 is grayed out.

画面の中段には、第一特徴量表示部104と第二特徴量表示部105が配置される。第一特徴量表示部104には開発用センサデータ42から抽出される特徴量が表示され、第二特徴量表示部105にはユーザ使用センサデータ41から抽出される特徴量が表示される。図8には、歩行時の計測データから算出される周波数パワーが特徴量として例示され、2Hz前後の歩行周波数帯が基準とされている。またラジオ体操時の開発用センサデータ42とユーザ使用センサデータ41のそれぞれから求められる時系列データパターンが、第一特徴量表示部104と第二特徴量表示部105に表示されても良い。ユーザは第一特徴量表示部104と第二特徴量表示部105に表示される特徴量を見比べることにより、軸方向が揃えられたことを定性的に確認できる。 A first feature amount display section 104 and a second feature amount display section 105 are arranged in the middle of the screen. The first feature amount display section 104 displays the feature amount extracted from the development sensor data 42, and the second feature amount display section 105 displays the feature amount extracted from the user-used sensor data 41. In FIG. 8, frequency power calculated from measurement data during walking is illustrated as a feature amount, and a walking frequency band of around 2 Hz is used as a reference. Furthermore, time-series data patterns obtained from the development sensor data 42 and the user-used sensor data 41 during radio exercise may be displayed on the first feature amount display section 104 and the second feature amount display section 105. By comparing the feature amounts displayed on the first feature amount display section 104 and the second feature amount display section 105, the user can qualitatively confirm that the axial directions are aligned.

画面の下段には、ユーザID入力・表示部106、センサ端末名入力・表示部107、装着部位入力・表示部108、軸変換切替部109、基準軸抽出条件入力・表示部110が配置される。ユーザID入力・表示部106にはユーザIDが表示され、必要に応じてユーザIDが入力しなおされても良い。センサ端末名入力・表示部107にはセンサ端末名が表示され、必要に応じてセンサ端末名が入力しなおされても良い。装着部位入力・表示部108には装着部位が表示され、必要に応じて装着部位が入力しなおされても良い。軸変換切替部109には軸変換がなされたか否かを示す「済」または「未済」が表示され、必要に応じて両者が切り替えられる。軸変換切替部109が「済」である場合には計測中センサデータ表示部101に軸方向が変更された計測データが表示され、「未済」である場合には軸方向が変更される前の計測データが表示される。基準軸抽出条件入力・表示部110には、対応区間を抽出する条件である基準軸抽出条件が表示され、必要に応じて基準軸抽出条件が入力しなおされても良い。 At the bottom of the screen, a user ID input/display section 106, sensor terminal name input/display section 107, attachment site input/display section 108, axis conversion switching section 109, and reference axis extraction condition input/display section 110 are arranged. . The user ID is displayed on the user ID input/display section 106, and the user ID may be re-entered as necessary. The sensor terminal name is displayed in the sensor terminal name input/display section 107, and the sensor terminal name may be re-inputted if necessary. The attachment site is displayed on the attachment site input/display section 108, and the attachment site may be re-inputted as necessary. The axis conversion switching unit 109 displays "completed" or "uncompleted" indicating whether or not the axis conversion has been performed, and the two can be switched as necessary. If the axis conversion switching unit 109 is “completed”, the measurement data whose axis direction has been changed is displayed on the sensor data display unit 101 during measurement, and if it is “uncompleted”, the measurement data before the axis direction is changed is displayed. Measurement data will be displayed. The reference axis extraction condition input/display unit 110 displays the reference axis extraction condition, which is a condition for extracting the corresponding section, and the reference axis extraction condition may be input again as necessary.

なお何らかの理由により軸方向が揃えられない場合には、図9に例示される警告画面が表示されても良い。図9の警告画面では、歩行時の計測データから算出される周波数パワーが6Hz付近で最大であり、速すぎる歩行速度の低下を促す警告115が表示される。警告115には、対応区間の抽出条件の変更を促すことが表示されても良い。 Note that if the axial directions cannot be aligned for some reason, a warning screen illustrated in FIG. 9 may be displayed. In the warning screen of FIG. 9, the frequency power calculated from the measurement data during walking is maximum around 6 Hz, and a warning 115 is displayed urging the user to reduce the walking speed which is too fast. The warning 115 may display a prompt to change the extraction conditions of the corresponding section.

以上の実施例1により、異なるタイミングで計測されたユーザ使用センサデータ41と開発用センサデータ42であっても、ユーザ使用センサ端末1と開発用センサ端末6の軸方向を合わせることができる。また図8や図9に例示される画面により、軸方向が揃えられたことや何らかの理由により軸方向が揃えられなかったことをユーザが確認できる。 According to the first embodiment described above, even if the user-used sensor data 41 and the development-use sensor data 42 are measured at different timings, the axial directions of the user-use sensor terminal 1 and the development-use sensor terminal 6 can be aligned. Further, the screen illustrated in FIGS. 8 and 9 allows the user to confirm that the axial directions have been aligned or that the axial directions have not been aligned for some reason.

実施例1では、異なるタイミングで計測されたユーザ使用センサデータ41と開発用センサデータ42に基づいて、ユーザ使用センサ端末1と開発用センサ端末6の軸方向を合わせることについて説明した。実施例2では、ユーザ使用センサ端末1と開発用センサ端末6の軸方向が合わられた行動解析システムにより、ユーザの行動を解析することについて説明する。なお、実施例1と同じ構成に対しては同じ符号を付与し、説明を省略する。 In the first embodiment, the axial directions of the user-used sensor terminal 1 and the development-purpose sensor terminal 6 are aligned based on the user-used sensor data 41 and the development-use sensor data 42 measured at different timings. In the second embodiment, a description will be given of analyzing a user's behavior using a behavior analysis system in which the axis directions of the sensor terminal 1 used by the user and the sensor terminal 6 for development are aligned. Note that the same components as in the first embodiment are given the same reference numerals, and the description thereof will be omitted.

図10を用いて、実施例2の行動解析システムの全体構成について説明する。実施例2の行動解析システムは、実施例1に対して行動解析プログラム23と行動解析モデル49、行動解析結果データ50が追加される。すなわちCPU13はセンサデータ入出力プログラム21や軸方向変更プログラム22とともにメモリ11にロードされた行動解析プログラム23を実行する。またデータベース14には、行動解析モデル49と行動解析結果データ50が格納される。 The overall configuration of the behavior analysis system of Example 2 will be described using FIG. 10. The behavior analysis system of the second embodiment has a behavior analysis program 23, a behavior analysis model 49, and behavior analysis result data 50 added to the first embodiment. That is, the CPU 13 executes the behavior analysis program 23 loaded into the memory 11 along with the sensor data input/output program 21 and the axis direction change program 22. The database 14 also stores a behavior analysis model 49 and behavior analysis result data 50.

行動解析プログラム23は、行動解析モデル49に基づいてユーザの行動を解析するプログラムである。行動解析プログラム23によって、例えば睡眠状態や睡眠レベルが判別されたり、歩行や腕振り、ハンマーを叩くといった動作が検出されたりする。 The behavior analysis program 23 is a program that analyzes user behavior based on the behavior analysis model 49. The behavior analysis program 23 determines, for example, sleep state or sleep level, or detects movements such as walking, swinging an arm, or hitting a hammer.

行動解析モデル49は、ユーザ使用センサ端末1によって計測された計測データからユーザの行動を出力するモデルであり、開発用センサ端末6によって様々な条件下で計測された計測データを用いて作成される。行動解析モデル49の作成には機械学習が用いられても良く、例えば特定の行動時に計測された開発用センサデータ42を教師データとして学習がなされる。行動解析結果データ50は行動解析モデル49から出力されるデータである。 The behavior analysis model 49 is a model that outputs the user's behavior from the measurement data measured by the sensor terminal 1 used by the user, and is created using the measurement data measured under various conditions by the development sensor terminal 6. . Machine learning may be used to create the behavior analysis model 49, and learning is performed using, for example, development sensor data 42 measured during a specific behavior as teacher data. Behavior analysis result data 50 is data output from the behavior analysis model 49.

図11を用いて、実施例2の行動解析システムによる行動解析の処理の流れの一例について、ステップ毎に説明する。 An example of the flow of behavior analysis processing by the behavior analysis system of the second embodiment will be explained step by step with reference to FIG. 11 .

(S1101)
付与後センサデータ44が行動解析プログラム23に入力されて、ユーザの行動が解析される。行動解析では、例えば歩行動作の検出や物品のピッキングや配送といった業務中に行われる行動が判別される。解析された結果は行動解析結果データ50としてデータベース14に格納される。
(S1101)
After the provision, the sensor data 44 is input to the behavior analysis program 23, and the user's behavior is analyzed. In behavior analysis, behaviors performed during work, such as detection of walking motion, picking and delivery of goods, are determined. The analyzed results are stored in the database 14 as behavioral analysis result data 50.

S1101では、開発用センサ端末6で計測された開発用センサデータ42の軸方向に変換された付与後センサデータ44が入力されるので、軸方向の影響を受けることなく行動解析モデル49を利用することができる。すなわち、ユーザ使用センサ端末1で計測されたユーザ使用センサデータ41がそのまま入力されたときに軸方向の影響によって低下する解析精度が、付与後センサデータ44を入力することにより改善される。特に行動解析モデル49がニューラルネットワークベースで構成されている場合に改善効果は顕著となる。 In S1101, the assigned sensor data 44 converted into the axial direction of the development sensor data 42 measured by the development sensor terminal 6 is input, so the behavior analysis model 49 is used without being affected by the axial direction. be able to. That is, when the user-used sensor data 41 measured by the user-used sensor terminal 1 is inputted as is, the analysis accuracy decreases due to the influence in the axial direction, but is improved by inputting the assigned sensor data 44. The improvement effect is particularly significant when the behavior analysis model 49 is configured based on a neural network.

(S1102)
行動解析を継続するか否かが判定される。継続する場合はS1101へ処理が戻され、継続しない場合はS1103へ処理が進められる。
(S1102)
It is determined whether or not to continue behavioral analysis. If the process is to be continued, the process returns to S1101, and if it is not to be continued, the process is to proceed to S1103.

(S1103)
行動解析モデル49の再学習をするか否かが判定される。再学習する場合はS1104へ処理が進められ、再学習しない場合は処理の流れは終了となる。
(S1103)
It is determined whether or not to relearn the behavior analysis model 49. If re-learning is to be performed, the process proceeds to S1104, and if re-learning is not to be performed, the process flow ends.

(S1104)
付与後センサデータ44を用いて、行動解析モデル49の再学習が実行される。例えば既存の行動解析モデル49が有するニューラルネットワークの重みを起点として、付与後センサデータ44のみを用いた再学習が実行される。または既存の行動解析モデル49の作成に用いられた開発用センサデータ42に、付与後センサデータ44が追加されたデータを教師データとし、ニューラルネットワークの重みをしたうえで再学習が実行されても良い。付与後センサデータ44は、開発用センサデータ42と同じ軸方向を有しているので、行動解析モデル49の再学習に利用しやすい。
(S1104)
Relearning of the behavior analysis model 49 is performed using the sensor data 44 after the addition. For example, relearning using only the assigned sensor data 44 is performed using the neural network weights of the existing behavioral analysis model 49 as a starting point. Alternatively, data obtained by adding sensor data 44 after assignment to the development sensor data 42 used to create the existing behavior analysis model 49 is used as training data, and relearning is performed after weighting the neural network. good. Since the assigned sensor data 44 has the same axis direction as the development sensor data 42, it can be easily used for relearning the behavior analysis model 49.

以上の処理の流れにより、高精度な行動解析が実行される。行動解析の結果は、PC2やスマートフォン3に表示されても良い。 Through the above processing flow, highly accurate behavior analysis is executed. The results of the behavior analysis may be displayed on the PC 2 or the smartphone 3.

図12を用いて、スマートフォン3に表示される画面の一例について説明する。図12に例示される画面では、図9の画面の中段に配置される第一特徴量表示部104と第二特徴量表示部105の代わりに、歩行ピッチ表示部111と物品ピッキング表示部112が配置される。歩行ピッチ表示部111には、ユーザの歩行ピッチの推移が表示され、物品ピッキング表示部112には物品ピッキングの判別結果が表示される。 An example of a screen displayed on the smartphone 3 will be described using FIG. 12. In the screen illustrated in FIG. 12, a walking pitch display section 111 and an article picking display section 112 are displayed instead of the first feature display section 104 and the second feature display section 105 arranged in the middle of the screen in FIG. Placed. The walking pitch display section 111 displays the transition of the user's walking pitch, and the article picking display section 112 displays the determination result of article picking.

以上の実施例2によれば、付与後センサデータ44を用いることにより、開発用センサデータ42とユーザ使用センサデータ41との軸方向に差異の影響を受けることなく行動解析を実行できるため、高精度な解析結果を得ることができる。また付与後センサデータ44は開発用センサデータ42と軸方向が揃えられているため、付与後センサデータ44を用いて行動解析モデル49を再学習させることができる。 According to the above-described second embodiment, by using the assigned sensor data 44, behavior analysis can be performed without being affected by the difference in the axial direction between the development sensor data 42 and the user-used sensor data 41. Accurate analysis results can be obtained. Furthermore, since the post-application sensor data 44 is axially aligned with the development sensor data 42, the behavior analysis model 49 can be retrained using the post-application sensor data 44.

以上、本発明の複数の実施例について説明した。本発明は上記実施形態に限定されるものではなく、発明の要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素を適宜組み合わせても良い。さらに、上記実施形態に示される全構成要素からいくつかの構成要素を削除しても良い。 A plurality of embodiments of the present invention have been described above. The present invention is not limited to the above-described embodiments, but can be embodied by modifying the constituent elements without departing from the gist of the invention. Further, a plurality of components disclosed in the above embodiments may be combined as appropriate. Furthermore, some components may be deleted from all the components shown in the above embodiments.

上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によってハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによってソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスクドライブ、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の計算機読み取り可能な非一時的データ記憶媒体に格納することができる。 Part or all of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized in hardware by designing, for example, an integrated circuit. Further, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that realize each function is stored in storage devices such as memory, hard disk drive, SSD (Solid State Drive), or computer-readable non-temporary data such as IC cards, SD cards, and DVDs. It can be stored on a storage medium.

また、図面には、実施例を説明するために必要と考えられる制御線及び情報線を示しており、必ずしも、本発明が適用された実際の製品に含まれる全ての制御線及び情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。 In addition, the drawings show control lines and information lines that are considered necessary for explaining the embodiments, and do not necessarily show all control lines and information lines included in an actual product to which the present invention is applied. It doesn't necessarily mean that In reality, almost all configurations may be considered to be interconnected.

1:ユーザ使用センサ端末、2:PC、3:スマートフォン、4:ネットワーク、5:サーバ、6:開発用センサ端末、11:メモリ、12:通信部、13:CPU、14:データベース、21:センサデータ入出力プログラム、22:軸方向変更プログラム、23:行動解析プログラム、31:メタデータ付与プログラム、32:軸方向変換モデル作成プログラム、33:軸方向変換プログラム、41:ユーザ使用センサデータ、42:開発用センサデータ、43:軸方向変換モデル、44:付与後センサデータ、45:装着方向テーブル、46:センサテーブル、47:ユーザテーブル、48:装着部位テーブル、49:行動解析モデル、50:行動解析結果データ、101:計測中センサデータ表示部、102:開始ボタン、103:終了ボタン、104:第一特徴量表示部、105:第二特徴量表示部、106:ユーザID入力・表示部、107:センサ端末名入力・表示部、108:装着部位入力・表示部、109:軸変換切替部、110:基準軸抽出条件入力・表示部、111:歩行ピッチ表示部、112:物品ピッキング表示部、115:警告、901:時刻、902:X軸加速度、903:Y軸加速度、904:Z軸加速度、905:ユーザID、906:センサ端末名、907:装着部位、908:装着方向、909:基準行動、911:時刻、912:X軸加速度、913:Y軸加速度、914:Z軸加速度、915:ユーザID、916:センサ端末名、917:装着部位、918:装着方向、919:抽出条件、931:時刻、932:X軸加速度、933:Y軸加速度、934:Z軸加速度、935:ユーザID、936:センサ端末名、937:装着部位、938:装着方向、939:軸変換、940:軸方向変換モデルID、951:軸方向変換モデルID、952:基準センサ端末名、953:対象センサ端末名、954:装着部位、955:変換式、956:装着方向、957:抽出条件、958:基準一軸、959:他二軸、961:基準センサ端末名、962:基準センサ装着部位、963:基準センサ装着方向、964:変換先センサ端末名、965:変換先センサ装着部位、966:変換先センサ装着方向、967:抽出条件、968:軸方向変換モデルID、971:ユーザID、972:利用センサ端末名、973:装着部位、974:装着方向、975:利用開始時刻、976:利用終了時刻、977:軸方向変換モデルID、981:利用センサ端末名、982:許容装着部位、991:利用センサ端末名、992:許容装着方向 1: Sensor terminal used by user, 2: PC, 3: Smartphone, 4: Network, 5: Server, 6: Sensor terminal for development, 11: Memory, 12: Communication department, 13: CPU, 14: Database, 21: Sensor Data input/output program, 22: Axis direction change program, 23: Behavior analysis program, 31: Metadata addition program, 32: Axis direction conversion model creation program, 33: Axis direction conversion program, 41: Sensor data used by user, 42: Development sensor data, 43: Axial direction conversion model, 44: Sensor data after provision, 45: Attachment direction table, 46: Sensor table, 47: User table, 48: Attachment site table, 49: Behavior analysis model, 50: Behavior Analysis result data, 101: Sensor data display section during measurement, 102: Start button, 103: End button, 104: First feature amount display section, 105: Second feature amount display section, 106: User ID input/display section, 107: Sensor terminal name input/display section, 108: Mounting site input/display section, 109: Axis conversion switching section, 110: Reference axis extraction condition input/display section, 111: Walking pitch display section, 112: Article picking display section , 115: Warning, 901: Time, 902: X-axis acceleration, 903: Y-axis acceleration, 904: Z-axis acceleration, 905: User ID, 906: Sensor terminal name, 907: Attachment site, 908: Attachment direction, 909: Reference behavior, 911: Time, 912: X-axis acceleration, 913: Y-axis acceleration, 914: Z-axis acceleration, 915: User ID, 916: Sensor terminal name, 917: Attachment site, 918: Attachment direction, 919: Extraction condition , 931: Time, 932: X-axis acceleration, 933: Y-axis acceleration, 934: Z-axis acceleration, 935: User ID, 936: Sensor terminal name, 937: Attachment site, 938: Attachment direction, 939: Axis conversion, 940 : Axial direction conversion model ID, 951: Axial direction conversion model ID, 952: Reference sensor terminal name, 953: Target sensor terminal name, 954: Mounting site, 955: Conversion formula, 956: Mounting direction, 957: Extraction condition, 958 : Reference one axis, 959: Other two axes, 961: Reference sensor terminal name, 962: Reference sensor mounting part, 963: Reference sensor mounting direction, 964: Conversion destination sensor terminal name, 965: Conversion destination sensor mounting part, 966: Conversion Previous sensor attachment direction, 967: Extraction condition, 968: Axial direction conversion model ID, 971: User ID, 972: Used sensor terminal name, 973: Attachment site, 974: Attachment direction, 975: Usage start time, 976: Usage end Time, 977: Axial direction conversion model ID, 981: Name of sensor terminal used, 982: Allowable mounting location, 991: Name of sensor terminal used, 992: Allowable mounting direction

Claims (11)

ユーザの行動を解析する行動解析システムであって、
第一センサによって複数の軸方向について計測され、基準行動が付与され様々な第一計測データのそれぞれに対して基準区間を設定する設定部と、
前記第一計測データと異なるタイミングで第二センサによって複数の軸方向について計測された第二計測データの中から前記基準区間に対応する対応区間を、ユーザが選択する基準に応じて予め設定される抽出条件に基づいて抽出する抽出部と、
前記抽出条件に対応する基準行動に基づいて前記様々な第一計測データの中から読み出された前記基準区間の第一計測データと前記対応区間の第二計測データとに基づいて、軸方向を変換するモデルである軸方向変換モデルを生成する生成部と、
前記軸方向変換モデルを用いて、前記第二センサの軸方向を前記第一センサの軸方向に変換する変換部を備えることを特徴とする行動解析システム。
A behavior analysis system that analyzes user behavior,
a setting unit that sets a reference section for each of various first measurement data measured in a plurality of axial directions by the first sensor and assigned a reference behavior ;
A corresponding section corresponding to the reference section is set in advance according to a criterion by which the user selects a corresponding section from among second measurement data measured in a plurality of axial directions by a second sensor at a timing different from the first measurement data. an extraction unit that extracts based on extraction conditions ;
The axial direction is determined based on the first measurement data of the reference section and the second measurement data of the corresponding section, which are read out from the various first measurement data based on the reference behavior corresponding to the extraction condition. a generation unit that generates an axial transformation model that is a model to be transformed;
A behavior analysis system comprising: a conversion unit that converts the axial direction of the second sensor to the axial direction of the first sensor using the axial direction conversion model.
請求項1に記載の行動解析システムであって、
前記抽出部は、前記基準区間が設定されるときの設定条件に基づいて対応区間を抽出することを特徴とする行動解析システム。
The behavior analysis system according to claim 1,
The behavior analysis system is characterized in that the extraction unit extracts the corresponding section based on a setting condition when the reference section is set.
請求項2に記載の行動解析システムであって、
前記設定条件には、基準となる行動である基準行動として、歩行、ラジオ体操、静止状態のいずれかが含まれることを特徴とする行動解析システム。
The behavior analysis system according to claim 2,
The behavior analysis system is characterized in that the setting conditions include one of walking, radio calisthenics, and a resting state as a standard behavior.
請求項1に記載の行動解析システムであって、
前記生成部は、前記第一計測データと前記第二計測データの複数の軸のうちの一軸同士を基準軸として対応付けてから、前記第一計測データと前記第二計測データの一方を前記基準軸の周りで回転させて基準軸以外の軸を対応付けることによって前記軸方向変換モデルを生成することを特徴とする行動解析システム。
The behavior analysis system according to claim 1,
The generation unit associates one axis of the plurality of axes of the first measurement data and the second measurement data with each other as a reference axis, and then sets one of the first measurement data and the second measurement data as the reference axis. A behavior analysis system characterized in that the axial direction transformation model is generated by rotating the model around an axis and associating it with axes other than the reference axis.
請求項4に記載の行動解析システムであって、
前記生成部は、前記第一計測データと前記第二計測データの複数の軸毎に算出される周波数パワーが最大となる一軸同士を前記基準軸として対応付けることを特徴とする行動解析システム。
The behavior analysis system according to claim 4,
The behavior analysis system is characterized in that the generation unit associates, as the reference axis, one axis in which the frequency power calculated for each of a plurality of axes of the first measurement data and the second measurement data is maximum.
請求項4に記載の行動解析システムであって、
前記生成部は、前記第一計測データと前記第二計測データの複数の軸毎に時系列データを求め、前記時系列データの間の類似度が最大となる一軸同士を前記基準軸として対応付けることを特徴とする行動解析システム。
The behavior analysis system according to claim 4,
The generation unit obtains time series data for each of a plurality of axes of the first measurement data and the second measurement data, and associates one axis with a maximum degree of similarity between the time series data as the reference axis. A behavior analysis system featuring:
請求項1に記載の行動解析システムであって、
前記生成部は、前記第一センサが装着される部位と前記第二センサが装着される部位とが左右対称であるときに、前記第二計測データの左右方向のデータの正負を入れ替えてから前記軸方向変換モデルを生成することを特徴とする行動解析システム。
The behavior analysis system according to claim 1,
When the part to which the first sensor is attached and the part to which the second sensor is attached are bilaterally symmetrical, the generation section replaces the positive and negative of the left and right data of the second measurement data, and then generates the second measurement data. A behavior analysis system characterized by generating an axial transformation model.
請求項1に記載の行動解析システムであって、
前記第一計測データと前記第二計測データには、メタデータとして装着方向が含まれることを特徴とする行動解析システム。
The behavior analysis system according to claim 1,
A behavior analysis system characterized in that the first measurement data and the second measurement data include a wearing direction as metadata.
請求項1に記載の行動解析システムであって、
前記行動を解析するモデルであって、前記第一計測データを学習することによって作成される行動解析モデルを記憶する記憶部と、
前記第二計測データを前記変換部によって変換させて生成される変換後データを前記行動解析モデルに入力することによって前記行動の解析結果を出力する解析部をさらに備えることを特徴とする行動解析システム。
The behavior analysis system according to claim 1,
a storage unit that stores a behavior analysis model that is a model for analyzing the behavior and is created by learning the first measurement data;
The behavior analysis system further includes an analysis unit that outputs an analysis result of the behavior by inputting converted data generated by converting the second measurement data by the conversion unit into the behavior analysis model. .
請求項9に記載の行動解析システムであって、
前記変換後データを用いて前記行動解析モデルを再学習させる再学習部をさらに備えることを特徴とする行動解析システム。
The behavior analysis system according to claim 9,
A behavior analysis system further comprising a relearning unit that retrains the behavior analysis model using the converted data.
ユーザの行動を解析する行動解析システムを用いた行動解析方法であって、
第一センサによって複数の軸方向について計測され、基準行動が付与され様々な第一計測データのそれぞれに対して基準区間を設定する設定ステップと、
前記第一計測データと異なるタイミングで第二センサによって複数の軸方向について計測された第二計測データの中から前記基準区間に対応する対応区間を、ユーザが選択する基準に応じて予め設定される抽出条件に基づいて抽出する抽出ステップと、
前記抽出条件に対応する基準行動に基づいて前記様々な第一計測データの中から読み出された前記基準区間の第一計測データと前記対応区間の第二計測データとに基づいて、軸方向を変換するモデルである軸方向変換モデルを生成する生成ステップと、
前記軸方向変換モデルを用いて、前記第二センサの軸方向を前記第一センサの軸方向に変換する変換ステップを備えることを特徴とする行動解析方法。
A behavior analysis method using a behavior analysis system that analyzes user behavior,
a setting step of setting a reference interval for each of various first measurement data measured in a plurality of axial directions by the first sensor and assigned a reference action ;
A corresponding section corresponding to the reference section is set in advance according to a criterion by which the user selects a corresponding section from among second measurement data measured in a plurality of axial directions by a second sensor at a timing different from the first measurement data. an extraction step for extracting based on extraction conditions ;
The axial direction is determined based on the first measurement data of the reference section and the second measurement data of the corresponding section, which are read out from the various first measurement data based on the reference behavior corresponding to the extraction condition. a generation step of generating an axial transformation model that is a model to be transformed;
A behavior analysis method comprising a conversion step of converting the axial direction of the second sensor to the axial direction of the first sensor using the axial direction conversion model.
JP2020173081A 2020-10-14 2020-10-14 Behavior analysis system and behavior analysis method using it Active JP7449838B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020173081A JP7449838B2 (en) 2020-10-14 2020-10-14 Behavior analysis system and behavior analysis method using it

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020173081A JP7449838B2 (en) 2020-10-14 2020-10-14 Behavior analysis system and behavior analysis method using it

Publications (2)

Publication Number Publication Date
JP2022064449A JP2022064449A (en) 2022-04-26
JP7449838B2 true JP7449838B2 (en) 2024-03-14

Family

ID=81385813

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020173081A Active JP7449838B2 (en) 2020-10-14 2020-10-14 Behavior analysis system and behavior analysis method using it

Country Status (1)

Country Link
JP (1) JP7449838B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004141669A (en) 2000-10-16 2004-05-20 Omron Healthcare Co Ltd Body motion detector
JP2011177300A (en) 2010-02-26 2011-09-15 Emprie Technology Development LLC Feature transformation apparatus and feature transformation method
JP2017506745A (en) 2014-05-09 2017-03-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for determining the direction of an accelerometer
WO2018092219A1 (en) 2016-11-16 2018-05-24 富士通株式会社 Information processing system, information processing device, information processing method and information processing program
US10182746B1 (en) 2017-07-25 2019-01-22 Verily Life Sciences Llc Decoupling body movement features from sensor location

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004141669A (en) 2000-10-16 2004-05-20 Omron Healthcare Co Ltd Body motion detector
JP2011177300A (en) 2010-02-26 2011-09-15 Emprie Technology Development LLC Feature transformation apparatus and feature transformation method
JP2017506745A (en) 2014-05-09 2017-03-09 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Method and apparatus for determining the direction of an accelerometer
WO2018092219A1 (en) 2016-11-16 2018-05-24 富士通株式会社 Information processing system, information processing device, information processing method and information processing program
US10182746B1 (en) 2017-07-25 2019-01-22 Verily Life Sciences Llc Decoupling body movement features from sensor location

Also Published As

Publication number Publication date
JP2022064449A (en) 2022-04-26

Similar Documents

Publication Publication Date Title
US11455909B2 (en) Identification and analysis of movement using sensor devices
US10635166B2 (en) Motion predictions of overlapping kinematic chains of a skeleton model used to control a computer system
US11474593B2 (en) Tracking user movements to control a skeleton model in a computer system
US20180070864A1 (en) Methods and devices for assessing a captured motion
EP3474235A1 (en) Information processing device, information processing method and storage medium
US11175729B2 (en) Orientation determination based on both images and inertial measurement units
KR20170129716A (en) A structure, apparatus and method for providing bi-directional functional training content including provision of adaptive training programs based on performance sensor data
US20220222975A1 (en) Motion recognition method, non-transitory computer-readable recording medium and information processing apparatus
Chen et al. Development of an upper limb rehabilitation system using inertial movement units and kinect device
US10272292B1 (en) Adaptive sport posture sensing system and method
JP6672617B2 (en) Golf club fitting device, method and program
JP7449838B2 (en) Behavior analysis system and behavior analysis method using it
Callejas-Cuervo et al. Capture and analysis of biomechanical signals with inertial and magnetic sensors as support in physical rehabilitation processes
JP6415869B2 (en) Golf swing analysis device, golf swing analysis method, and golf swing analysis program
CN117109567A (en) Riding gesture monitoring method and system for dynamic bicycle movement and wearable riding gesture monitoring equipment
WO2017217567A1 (en) Fitness monitoring system
KR20180015150A (en) Structures and methods configured to enable the analysis of physically performed functions, including the application of supply of interactive training content
KR102643876B1 (en) A Posture Coaching System and Method for Weight Training by Motion Pattern
JP6798124B2 (en) Golf club fitting equipment, methods and programs
WO2023182726A1 (en) Electronic device and method for segmentation of movement repetitions and extraction of performance metrics
US11790536B1 (en) Swing analysis system
TWI758749B (en) Action judgment method and system
CN116071829A (en) Action recognition method and device
JP2022150491A (en) Work support system
JP2003222514A (en) Sensor configuration determination device, sensor configuration determination method, sensor configuration determination program and recording medium for program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7449838

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150